WO2020202540A1 - 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 - Google Patents
特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 Download PDFInfo
- Publication number
- WO2020202540A1 WO2020202540A1 PCT/JP2019/015020 JP2019015020W WO2020202540A1 WO 2020202540 A1 WO2020202540 A1 WO 2020202540A1 JP 2019015020 W JP2019015020 W JP 2019015020W WO 2020202540 A1 WO2020202540 A1 WO 2020202540A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- feature data
- eye image
- user
- image
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Definitions
- the present invention relates to a feature data setting device, a robot, a terminal device, and a feature data setting method.
- Examples of such a device include a robot that acts autonomously to function as a substitute for a pet.
- Patent Document 1 discloses a technique of arranging a monitor at the position of the eyes of a robot to display an eye image and expressing various movements of the eye image in order to enhance the expressive power of the eyes of the robot.
- An object of the present invention is to provide a technique for giving a robot a personality recognized by human perception.
- the feature data device of the present invention is the feature data unique to the target robot in a robot group including a plurality of the robots among the feature data indicating the features of the robot output from the output device in a form perceptible to the user. Is set for the target robot.
- Feature data is information that can be recognized by human perception, for example, information that can be recognized by the five human senses (visual, auditory, tactile, taste, and olfactory), and more specifically, image data, sound information, and tactile information. , Taste information, and odor information.
- the feature data peculiar to the target robot is set in the target robot in the robot group including a plurality of robots, it is possible to give the robot a personality recognized by human perception.
- the feature data device of the present invention may use the feature data as image data indicating a predetermined image displayed on the image display device. According to this configuration, a predetermined image that can be visually recognized by a human can be made unique to the robot.
- the feature data device of the present invention may use the image data as eye image feature data indicating the eyes of the robot. According to this configuration, the eyes of the robot can be made unique to the robot.
- the feature data device of the present invention may be configured by combining a plurality of images of the predetermined image. According to this configuration, the range of expression by a predetermined image can be expanded.
- the predetermined image may be composed of a combination of a still image and a moving image. According to this configuration, the range of expression by a predetermined image can be expanded.
- the feature data device of the present invention provides an output means for outputting a candidate of the feature data different from the feature data set in the other robots included in the robot group to the output device in a form that can be perceived by the user. You may prepare. In this configuration, for example, when the robot is started for the first time or when the user desires to automatically set the feature data, the candidate of the feature data is output to the output device corresponding to the robot. According to this configuration, the user can easily set the feature data unique to the target robot.
- the feature data device of the present invention includes an acquisition means for acquiring feature data selected by the user, and the output means is the feature when the feature data acquired by the acquisition means is set by another robot.
- the feature data within a predetermined similarity range to the data may be output to the output device. According to this configuration, even if the feature data selected by the user is being set by another robot, the user can easily set the feature data unique to the target robot.
- the output means outputs the feature data within a predetermined similarity range to the feature data set in the robot used by another user to the output device. Good. According to this configuration, the user can easily set feature data similar to the feature data being set for the robot used by another user for the target robot.
- the output means may output the feature data to the output device based on user-related information related to the user who uses the target robot.
- the user-related information of this configuration is, for example, property information indicating the user's biological information, user's preference, user's age, gender, date of birth, and the like, and according to this configuration, according to the user's information. Characteristic data can be output.
- the feature data device of the present invention is a new feature that can be set in the target robot based on the feature data set by the first robot and the feature data set by the second robot.
- a generation means for generating data may be provided. According to this configuration, new feature data generated from the feature data being set by the two robots can be set for the target robot.
- the feature data device of the present invention may generate the new feature data when the generation means satisfies a predetermined condition between the first robot and the second robot. According to this configuration, new feature data is generated only when the conditions are satisfied.
- the feature data device of the present invention provides the target robot with the feature data different from the feature data set in the second robot located in a predetermined area including the position where the first robot exists. It may be set. According to this configuration, the feature data being set by another robot located in a predetermined area including the position where the target robot exists becomes the feature data that cannot be set in the target robot.
- the width in which the feature data can be set in close proximity to the feature data being set by the other robots is determined according to the number of the robots included in the robot group. May be good. According to this configuration, the range of feature data that can be set changes according to the number of robots.
- the feature data may be sound data indicating a sound output from a speaker. According to this configuration, a sound that can be visually recognized by a human can be made unique to a robot.
- the sound data may be voice feature data indicating the voice of the robot. According to this configuration, the sound output from the robot can be made unique to the robot.
- value information indicating the value based on the setting state of the feature data may be associated with the feature data. According to this configuration, it is possible to give the concept of value to the feature data being set in the robot.
- one robot performs an operation related to the other robot according to the intimacy with respect to the other robot, and the intimacy is the feature of the one robot and the other robot.
- the characteristics of the robot are similar, the characteristics of the one robot and the characteristics of the other robot may be higher than when they are dissimilar. According to this configuration, the user of one robot can know the existence of another robot with which his / her robot has become intimate.
- the feature data may be data indicating a change mode of the feature of the target robot.
- the changing mode of the robot can be characterized by the robot.
- a part or all of the feature data may change according to a predetermined rule with the passage of time after the setting of the feature data. According to this configuration, it is possible to give the user a feeling (biological feeling) as if the robot is a living thing.
- the user of the target robot cannot change the feature data before the predetermined condition is satisfied, and a part or all of the feature data by the user of the target robot after the predetermined condition is satisfied. It may be possible to change it. According to this configuration, it is possible to give the user the impression that the characteristics of the robot are the characteristics acquired by the robot 100 innately or acquiredly.
- the range of the feature data that can be set for the target robot may be determined according to the attributes of the user of the target robot. According to this configuration, the feature data that can be set in the robot can be different according to the attributes of the user.
- the feature data may be data including a temporal element. According to this configuration, the feature data can be changed over time.
- the robot of the present invention is provided with an output device, and among the feature data indicating its own features output from the output device in a form that can be perceived by the user, the feature data unique to itself in the robot group including a plurality of robots. Based on this, the feature is output to the output device. According to this configuration, the robot can be given a personality recognized by human perception.
- the terminal device of the present invention provides the robot with characteristic data unique to the robot in a robot group including a plurality of the robots among the feature data indicating the characteristics of the robot output from the output device in a form that can be perceived by the user. Send and set. According to this configuration, the feature data set in the robot can be made unique to the robot.
- the feature data is image data of the eyes of the robot, and at least one of the shape and the color is specified, and at least one of the shape and the color is unique to the target robot. May be good. According to this configuration, the user can easily make the image of the eyes of the robot unique to the robot.
- the terminal device of the present invention may be set by transmitting decorative image data indicating a decorative image to be superimposed on the image data of the eye to the robot. According to this configuration, the user can make the image of the robot's eye more unique.
- the feature data setting method of the present invention among the feature data indicating the own feature output from the output device in a form that can be perceived by the user, the feature data unique to the robot in the robot group including a plurality of robots is sent to the robot. Send and set. According to this configuration, the robot can be given a personality recognized by human perception.
- FIG. 1A is a front view of the robot of the first embodiment.
- FIG. 1B is a side view of the robot of the first embodiment.
- FIG. 2 is a system configuration diagram of the robot of the first embodiment.
- FIG. 3 is an external view of an eye image of the robot of the first embodiment.
- FIG. 4 is a configuration diagram of the feature data setting system of the first embodiment.
- FIG. 5 is a functional block diagram of the feature data setting system of the first embodiment.
- FIG. 6A is an application image relating to the setting of the eye image displayed on the terminal device of the first embodiment, and is an application image displayed on the display when the robot application is started and the eye image is set.
- FIG. 6B is an application image that changes according to the operation of the application image shown in FIG. 6A.
- FIG. 6C is an application image that changes according to the operation of the application image shown in FIG. 6A.
- FIG. 6D is an application image that changes according to the operation of the application image shown in FIG. 6A.
- FIG. 6E is an application image that changes according to the operation of the application image shown in FIG. 6A.
- FIG. 7 is a flowchart showing the flow of the eye image setting process of the first embodiment.
- FIG. 8 is a flowchart showing the flow of the eye image setting process of the second embodiment.
- FIG. 9 is a functional block diagram of the feature data setting system of the third embodiment.
- FIG. 10A is an application image relating to the sound setting displayed on the terminal device of the fourth embodiment, and is an application image displayed on the display when the robot application is started and the sound setting is performed.
- FIG. 10A is an application image relating to the sound setting displayed on the terminal device of the fourth embodiment, and is an application image displayed on the display when the robot application is started and the sound setting is performed.
- FIG. 10B is an application image that changes according to the operation of the application image shown in FIG. 10A.
- FIG. 10C is an application image that changes according to the operation of the application image shown in FIG. 10A.
- FIG. 11 is an application image displayed on the terminal device when the user customizes the voice output from the robot of the fourth embodiment.
- the feature data setting device the robot, the terminal device, and the feature data setting method according to the embodiment of the present invention will be described with reference to the drawings.
- the feature data will be described as an eye image of a robot as an example.
- FIG. 1 is an external view of the robot 100 of the present embodiment
- FIG. 1A is a front external view of the robot 100
- FIG. 1B is a side view of the robot 100.
- the robot 100 of this embodiment is an autonomous action type robot that determines actions and gestures based on the external environment and the internal state.
- the external environment is recognized by various sensors such as cameras and thermosensors.
- the robot 100 has an action range inside the house.
- the body 104 of the robot 100 has a rounded shape as a whole, and includes an exodermis formed of a soft and elastic material such as urethane, rubber, resin, and fibers.
- the robot 100 may be dressed. By forming the body 104 that is round, soft, and comfortable to the touch, the robot 100 provides the user with a sense of security and a comfortable touch.
- the total weight of the robot 100 is 15 kg or less, preferably 10 kg or less, and more preferably 5 kg or less.
- the robot 100 is equipped with three wheels for traveling on three wheels. As shown in the figure, a pair of front wheels 102a and 102b right wheels (when the left wheel 102a and the right wheel 102b are not distinguished, the front wheel 102 is included, and one rear wheel 103 is included.
- the front wheel 102 is a driving wheel.
- the rear wheel 103 is a driven wheel.
- the front wheel 102 does not have a steering mechanism, but the rotation speed and the rotation direction can be individually controlled.
- the rear wheel 103 is composed of a so-called omni wheel, and the robot 100 is used. It is rotatable to move it back and forth and left and right.
- the robot 100 can turn left or rotate counterclockwise.
- the left wheel 102a is more than the right wheel 102b.
- the robot 100 can turn right or rotate clockwise.
- the front wheels 102 and the rear wheels 103 can be completely housed in the body 104 by a drive mechanism (rotation mechanism, link mechanism). Most of each wheel is hidden in the body 104 even during traveling, but when each wheel is completely housed in the body 104, the robot 100 becomes immovable. That is, the body 104 descends with the retracting operation of the wheels and sits on the floor surface F. In this seated state, the flat seating surface 108 (ground contact bottom surface) formed on the bottom of the body 104 comes into contact with the floor surface F.
- a drive mechanism rotation mechanism, link mechanism
- Robot 100 has two hands 106.
- the hand 106 does not have a function of gripping an object.
- the hand 106 can perform simple operations such as raising, shaking, and vibrating.
- the two hands 106 can also be individually controlled.
- the eye 110 can display an image by a liquid crystal element or an organic EL element.
- the eyes 110 of the present embodiment are subjected to antireflection measures by attaching an antireflection film on a flat monitor on which an organic EL element is arranged.
- a convex lens with antireflection measures may be mounted on the monitor.
- the robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can specify the direction of a sound source. It also has a built-in speaker and can emit simple voice.
- a horn 112 is attached to the head of the robot 100. Since the robot 100 is lightweight as described above, the user can also lift the robot 100 by grabbing the horn 112. An all-sky camera is attached to the horn 112, and the entire upper part of the robot 100 can be imaged at once.
- FIG. 2 is a hardware configuration diagram of the robot 100.
- the robot 100 includes an internal sensor 128, a communication unit 126, a storage device 124, a processor 122, a drive mechanism 120, and a battery 118. Each unit is connected to each other by a power line 130 and a signal line 132.
- the battery 118 supplies electric power to each unit via the power line 130. Each unit sends and receives control signals via signal lines 132.
- the battery 118 is a lithium ion secondary battery and is a power source for the robot 100.
- the internal sensor 128 is an assembly of various sensors built in the robot 100. Specifically, it includes a camera (all-sky camera), a microphone array, a ranging sensor (infrared sensor), a thermo sensor, a touch sensor, an acceleration sensor, an odor sensor, and the like.
- the touch sensor is installed between the outer skin of the robot 100 and the main body frame to detect the user's touch.
- the odor sensor is a known sensor that applies the principle that the electrical resistance changes due to the adsorption of molecules that cause odors.
- the communication unit 126 is a communication module that performs wireless communication for various external devices such as mobile devices owned by the user.
- the storage device 124 is composed of a non-volatile memory and a volatile memory, and stores computer programs and various setting information.
- the processor 122 is a means for executing a computer program.
- the drive mechanism 120 is an actuator that controls an internal mechanism. In addition, a display and speakers will be installed.
- the processor 122 selects the action of the robot 100.
- Various external information obtained by the internal sensor 128 also influences the action selection.
- the drive mechanism 120 mainly controls the wheels (front wheels 102) and the head (head frame).
- the drive mechanism 120 changes the movement direction and the movement speed of the robot 100 by changing the rotation speed and the rotation direction of each of the two front wheels 102.
- the drive mechanism 120 can also raise and lower the wheels (front wheels 102 and rear wheels 103). When the wheels are raised, the wheels are completely housed in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108 to be in a seated state. Further, the drive mechanism 120 controls the hand 106 via the wire 134.
- the speaker 171 outputs a sound such as the voice of the robot 100.
- the processor 122 also controls a virtual line of sight of the robot 100 (hereinafter, appropriately referred to as "the line of sight of the robot 100").
- the line of sight of the robot 100 may be a line of sight according to the action selection of the robot 100 (for example, a line of sight directed in the moving direction), or a line of sight according to various external information obtained by the internal sensor 128 (for example, an external line of sight). It may be a line of sight toward a specific object shown in the information).
- the monitor 170 is an image display device arranged at the position of the face of the robot 100 and displaying an eye image 174 displayed as the eyes 110 of the robot 100.
- the eye image 174 is formed by superimposing a plurality of elements on the eye. Each element is, for example, a white eye, an iris, a pupil, a highlight, an eyelid, and the like, and an eye image 174 is generated by superimposing them.
- the robot 100 is constantly changing a plurality of parameters indicating the internal state in response to various stimuli obtained from the internal sensor 128.
- the plurality of parameters indicating the internal state are, for example, curiosity, fear, desire for approval, and the like, and changes in these parameters are one factor that determines the behavior of the robot 100.
- This internal state is, so to speak, the feeling of the robot 100, and is constantly fluctuating according to the passage of time and the external environment.
- the eyes of living things also have the role of communicating feelings through the movement of the eyes and eyelids. People can see their hearts from their eyes and can communicate without words.
- the robot 100 dynamically generates an eye image 174 in conjunction with the internal state, moves the line of sight in the direction in which the robot 100 is interested, and responds to happiness or sadness.
- the eyelids can be closed, opened and deformed. That is, the eye 110 is an output device that reflects the internal state, and functions as one communication organ by displaying the eye image 174 that is dynamically generated in conjunction with the internal state.
- FIG. 3 is an external view of the eye image 174.
- the eye image 174 is generated by superimposing five images of a white eye image, an iris image, a pupil image, a highlight image, and a reflection image.
- the eyelid image is superimposed on these five images.
- (L1) White-eye image The white-eye image is an image of the lowest layer and corresponds to the white-eye portion (peripheral image 168) of the eye image 174.
- the white-eye image is a fixed image that does not follow the movement of the line of sight of the robot 100.
- (L2) Iris image The iris image is an image superimposed on the white-eye image.
- the iris image corresponds to the iris region 162 of the eye image 174.
- the iris image moves up, down, left, and right in the eye image 174 with the movement of the line of sight of the robot 100.
- (L3) Pupil image The pupil image is superimposed on the iris image. The pupil image corresponds to the pupil region 158 of the eye image 174. The pupil image moves up, down, left, and right in the eye image 174 with the movement of the line of sight of the robot 100.
- (L4) Highlight image The highlight image is superimposed on the pupil image. The highlight image corresponds to the catch light 166 of the eye image 174. The highlight image does not follow the movement of the line of sight of the robot 100.
- the processor 122 adjusts the position of the catch light 166 by moving the highlight image according to the light incident direction.
- (L5) Reflected image The reflected image is superimposed on the highlight image.
- the reflected image is a reflection in the pupil.
- the processor 122 corrects the image captured in front of the robot 100 for distortion and the like, and then superimposes the reflected image on the highlight image.
- the reflected image does not follow the movement of the line of sight of the robot 100.
- the processor 122 changes the reflected image according to the captured image.
- the white eye image is fixed as the "base" of the eye image 174.
- the pupil image and the iris image move according to the line-of-sight direction of the robot 100.
- the highlight image and the reflection image move according to the direction of the robot 100 regardless of the line-of-sight direction of the robot 100.
- the pupil image and the iris image move in the same direction, but the amount of movement does not have to be the same.
- the iris image when the iris image is moved in the first direction by the first movement amount, the pupil image is moved in the first direction by the second movement amount.
- the second movement amount is a larger value than the first movement amount.
- Each element image forming the eye image 174 is image data having shape and color information, and may be a raster image or a vector image. For each element image, a plurality of images with different combinations of shapes and colors are prepared. An arbitrary image is selected for each element image, and by superimposing the element images in a predetermined order, an eye image 174 having various kinds of characteristics is formed. Even when the eye image 174 is generated reflecting the internal state, the process of moving and superimposing each element image does not change, so that the eye images 174 of various appearances are dynamically generated. The eye image 174 generated in this way changes depending on the direction of the line of sight and the like, but the visual features produced by the combination of colors and shapes are maintained.
- An eye image 174 may be formed by selecting “white” as the white-eye image and “blue” as the red-colored image, or selecting "pink” as the white-eye image and “black” as the red-eye image. May be selected to form an eye image 174.
- the eye image 174 formed in this way can be identified by using human vision, and is a feature of each individual robot 100. Since the eye image 174 is formed by superimposing a plurality of element images, it is visually different by adjusting the type of each element image or adjusting the number of element images forming the eye image 174. A large number of different types of eye images 174 are formed, and an eye image 174 that can be said to be substantially infinite can be formed.
- FIG. 4 is an overall view of the feature data setting system 200 of this embodiment.
- the feature data setting system 200 causes the robot group 202 including the plurality of robots 100 to display an eye image 174 unique to each robot 100.
- the number of robot groups 202 may be one, or there may be a plurality of robot groups 202 based on predetermined conditions.
- Each robot 100 can display a unique eye image 174 that does not overlap in the robot group 202 to which the robot 100 belongs.
- the eyes are the mirror of the heart, the eyes are considered as an important element to know the person. Even if the object of communication is the robot 100, if the robot 100 has eyes, a person unconsciously looks at the eyes and tries to realize communication with the robot 100.
- the robot 100 manufactured as an industrial product can be given an intuitive individuality.
- the user will be aware of the existence as a special existence and promote the formation of attachment to the robot 100 in the same manner as pets such as dogs and cats.
- the feature data setting system 200 includes a robot group 202 including a plurality of robots 100A, 100B, 100C, 100D, a terminal device 204 capable of communicating with the robot 100, and a server 206 capable of communicating with the terminal devices 204A, 204B, 204C.
- the feature data recognized by human perception by being output from the robots 100A, 100B, 100C, 100D is set in the robots 100A, 100B, 100C, 100D.
- server 206 is capable of communicating with each robot 100. Further, each robot 100 can communicate with each other by robots 100 existing at a short distance.
- the user of the robot 100 is given identification information (hereinafter referred to as "identification ID") for identifying each of them.
- the identification ID is, for example, a combination of a plurality of alphabets and numbers.
- the identification ID is associated with the robot 100, and the possibility of changing the setting of the associated robot 100, viewing the state of the robot 100, or the like is registered. More specifically, as an example, the identification ID has a first authority that can change all the settings of the robot 100, a second authority that can change some settings, and a third authority that cannot change the settings. It is distinguished by authority, such as authority. In this embodiment, all the identification IDs can browse the state of the robot 100. In the present embodiment, the feature data described below can be changed by the identification ID in which the first authority is registered.
- the setting change and the state viewing of the robot 100 are performed via the terminal device 204. That is, by inputting the identification ID assigned to the terminal device 204, the user can access the robot 100 associated with the identification ID via the terminal device 204. Then, the user changes the setting of the robot 100, browses the state, and the like via the terminal device 204.
- the terminal device 100A is a terminal device 204 to which the identification ID associated with the robot 100A is input and is accessible to the robot 100A.
- the terminal device 204B is accessible to the robot 100B
- the terminal device 204C is accessible to the robot 100C.
- the terminal device 204 of the present embodiment is capable of inputting a plurality of identification IDs, and is accessible to a plurality of robots 100 by one.
- the terminal device 204C shown in FIG. 4 can be selectively switched and accessed between the robot 100C and the robot 100D.
- the feature data is information recognized by human perception, for example, information that can be recognized by the five human senses (visual, auditory, tactile, taste, and olfactory), and more specifically, image data and sound data. , Tactile data, taste data, and odor data.
- the feature data setting system 200 of the present embodiment is the target robot in the robot group 202 including a plurality of robots 100 among the feature data indicating the features of the robot 100 output from the output device in a form that can be perceived by the user.
- target robot Feature data unique to 100A is set in the target robot 100A.
- the feature data of the target robot 100A is unique and different from the other robots 100B, 100C, 100D.
- the feature data setting system 200 becomes unique to the target robot 100A in which the feature data of the target robot 100A does not overlap with the other robots 100B, 100C, 100D, and the individuality recognized by human perception is recognized by the robot 100. Can be held in.
- the robot 100 has unique feature data within the range of the robot group 202 including itself.
- the server 206 manages the feature data set in the robot 100 included in the robot group 202.
- the robot group 202 is a group of robots 100 managed by the server 206.
- the robot group 202 may be composed of at least two robots 100, and the range of the robot 100 included in the robot group 202 is arbitrarily determined by, for example, the manufacturing company of the robot 100, and is objective. Determined based on conditions.
- the robot 100 included in the robot group 202 may be all the manufactured robots 100, may be specified in the area where the robot 100 exists, the model of the robot 100, or a predetermined range.
- the date of manufacture, items of the robot 100 such as the color and type of clothes worn by the robot 100 detected by the sensor of the robot 100, and other settings for giving the robot 100 individuality such as the gender set in the robot 100. It may be specified by a value.
- the feature data of this embodiment is, as an example, the feature data of the basic image constituting the eye image 174 displayed on the monitor 170 of the robot 100. That is, an eye image 174 is generated based on the feature data of the image (a set of parameters indicating each feature of the image), and as shown in the enlarged view (eye image 174 in the one-point chain line) of the eye image 174 of FIG.
- the eye images 174 of each robot 100 included in the robot group 202 are different from each other.
- the monitor 170 corresponds to an example of the "output device" of the present invention.
- the eye image 174 corresponds to an example of the "features of the robot" of the present invention.
- the features of the robot can be generated based on the feature data.
- the eye image 174 of the present embodiment is composed of a combination of a plurality of images as described above, and parameters are set for each of these images.
- the parameters are numerical values for designating, for example, the shape, color, saturation, brightness, etc. of the eye image 174. More specifically, the eye image 174 is composed of five images (layers) of a white eye image, an iris image, a pupil image, a highlight image, and a reflection image, as described above, as an example. One or a plurality of types of parameters are set for each of these images (layers), and each image is generated according to the set parameters. In addition, one or a plurality of parameters set for each image are also collectively referred to as a parameter set. That is, the eye image feature data for generating the eye image 174 of the present embodiment is generated by five parameter sets (first parameter set to fifth parameter set). The parameter set consists of one type or a plurality of types of parameters. And, when a parameter set and another parameter set are different from each other, it means that the values of at least one kind of parameters contained therein are different from each other.
- the feature data setting system 200 of the present embodiment uses a combination of a plurality of parameter sets set to generate the eye image 174 as another robot 100 belonging to the same robot group 202 as the target robot 100A.
- the target robot 100A is set so as to have a unique combination different from the combination of any of the parameter sets.
- the terminal device 204A communicates with the server 206
- the combination of the parameter sets of the setting candidates is set to another robot 100 belonging to the same robot group 202 as the robot group 202 to which the target robot 100A belongs.
- the server 206 determines whether or not it is different from any of the combinations of the parameters set. When the determination result is affirmative (when both are different), the terminal device 204A sets the eye image feature data generated by the combination of the parameter sets in the target robot 100A, and sets the combination of the set parameter sets. Send to server 206.
- the eye image 174 generated from the eye image feature data is composed of a combination of a still image and a moving image, and a parameter set may be set for each of the still image and the moving image.
- a parameter set may be set for each of the still image and the moving image.
- the eyelid image is superimposed on the eye image 174 on the monitor 170 of the robot 100, and the opening and closing of the eyelids is expressed as a moving image. Then, the shape and color of the eyelids, the opening / closing speed, the opening / closing interval, and the like can be set by the parameter set.
- the mechanism that guarantees that the eye image 174 of the robot 100 is a unique eye image 174 for each robot 100 makes the robot 100 unique, and the user can use the robot 100 only by himself / herself. You can feel it as a special existence. As a result, for example, the user can bring their own robots 100 to each other and compare the robots 100 used by each of them, so that the difference in appearance can be realized and the difference in appearance can be recognized internally of each individual. It will be one of the opportunities to find a difference. Then, the user's attention to the robot 100 helps to form affection and attachment to the robot 100.
- the terminal device 204 is associated with one or more robots 100. Therefore, an application program (hereinafter referred to as "robot application”) for making various settings for the associated robot 100 and displaying the status of the associated robot 100 on the display is installed in the terminal device 204.
- robot application an application program
- the terminal device 204 is a mobile terminal device such as a smartphone whose display is a touch panel display 210, but the information processing device capable of communicating with the robot 100 is not limited to a smartphone and is a laptop type. Other information processing devices such as a computer or a desktop computer may be used.
- the server 206 transmits and receives various data related to the robot 100 to and from the terminal device 204. Then, the server 206 stores various data transmitted from the terminal device 204, executes processing based on the data received from the terminal device 204, and transmits the generated various data to the terminal device 204.
- the terminal device 204 and the server 206 are composed of, for example, a processor such as a CPU (Central Processing Unit), a RAM (RandomAccessMemory), a ROM (ReadOnlyMemory), and a computer-readable storage medium. ..
- a processor such as a CPU (Central Processing Unit), a RAM (RandomAccessMemory), a ROM (ReadOnlyMemory), and a computer-readable storage medium. ..
- a series of processes for realizing various functions are stored in a storage medium or the like in the form of a program, and the CPU reads this program into a RAM or the like to execute information processing / arithmetic processing. As a result, various functions are realized.
- FIG. 5 is a functional block diagram of the feature data setting system 200. Each function of the feature data setting system 200 is realized by executing a program by the CPU of the terminal device 204 and the server 206 or the processor 122 of the robot 100.
- the terminal device 204 includes a communication unit 212, a storage unit 214, an image display control unit 216, an input operation reception unit 218, and an eye image setting instruction unit 220.
- the communication unit 212 is a communication module that transmits and receives various data to and from the target robot 100A and server 206 registered in advance, and other information processing devices.
- the storage unit 214 is a computer-readable storage medium, and stores various information related to the robot application and the robot 100.
- the image display control unit 216 controls the touch panel display 210 so as to display an image based on the image data (for example, an application image 260 whose details will be described later).
- the input operation reception unit 218 receives an input operation to the terminal device 204 by the user. Specifically, the input operation reception unit 218 receives the input of the eye image feature data set by the user on the robot 100 via the application image displayed on the touch panel display 210. The eye image feature data received by the input operation reception unit 218 is transmitted to the server 206 via the communication unit 212. Then, as will be described in detail later, the server 206 determines whether or not the eye image feature data is being set by the other robot 100, that is, it can be eye image feature data unique to the target robot 100A.
- the eye image setting instruction unit 220 transmits eye image feature data unique to the target robot 100A to the robot 100 via the communication unit 212.
- the server 206 includes a communication unit 230, a storage unit 232, an eye image determination unit 234, a selective eye image acquisition unit 236, and an eye image output unit 238.
- the communication unit 230 is a communication module that transmits and receives various data to and from the terminal device 204 and other information processing devices.
- the storage unit 232 is a computer-readable storage medium, and stores various information about the robot 100 and the user of the robot 100 transmitted from the terminal device 204.
- the server 206 receives the eye image feature data set in each robot 100 included in the robot group 202 from the terminal device 204 and stores it in the storage unit 232.
- the eye image feature data that is no longer set in the robot 100 may be erased from the storage unit 232 of the server 206, and the eye image feature data may be associated with a flag indicating that the setting is not in progress. Data usage may be managed.
- the storage unit 232 may accumulate the usage record of the eye image feature data.
- the storage unit 232 records the date and time set in the robot 100, the identification ID for identifying the robot 100, and the date and time when the setting is released from the robot 100 for each eye image feature data.
- the period set in the robot 100 can be totaled for each eye image feature data, and the eye image feature data can be calculated from the attributes of the user who owns the robot 100. It is possible to statistically infer the tendency of users who prefer.
- the eye image determination unit 234 is unique eye image feature data in which the eye image feature data set in the target robot 100A is different from any of the eye image feature data set in other robots 100 belonging to the same robot group 202. Judge whether or not. Specifically, the eye image determination unit 234 is setting the eye image feature data (selected eye image feature data) that the user intends to set in the target robot 100A in another robot 100 stored in the storage unit 232. It is determined whether or not it is different from any of the eye image feature data of.
- the selected eye image acquisition unit 236 acquires eye image feature data selected by the user using the terminal device 204 (hereinafter referred to as “selected eye image feature data”).
- the acquisition of the eye image feature data means the acquisition of the parameters for generating the eye image feature data.
- the user selects a candidate for eye image feature data (hereinafter referred to as “candidate eye image feature data”) that is different from any of the eye image feature data set in the other robot 100 included in the robot group 202.
- Candidate eye image feature data a candidate for eye image feature data
- the eye image output unit 238 generates the candidate eye image data, transmits the candidate eye image feature data to the terminal device 204 in which the identification ID of the target robot 100A is input via the communication unit 230, and transmits the candidate eye image feature data of the terminal device 204.
- Candidate eye image feature data is output to the user via the touch panel display 210. That is, the output device perceptible to the user in this embodiment is the touch panel display 210 of the terminal device 204.
- the eye image output unit 238 gives an instruction to manually set the user eye image feature data, for example, when the robot 100 is started for the first time, when the expiration date of the eye image feature data is before a predetermined period, or the touch panel display of the terminal device 204.
- the candidate of the eye image feature data is output to the touch panel display 210.
- the eye image output unit 238 may output a plurality of different candidate eye image feature data to the user at one time. When a plurality of candidate eye image feature data is output, the user selects one of the plurality of candidate eye image feature data as the eye image feature data to be set in the robot 100.
- the eye image output unit 238 When the eye image feature data acquired by the selected eye image acquisition unit 236 is set by the other robot 100, the eye image output unit 238 has an eye within a predetermined similar range to the eye image feature data. Image feature data may be output. According to this, the eye image output unit 238 selects other candidate eye image feature data that the user is expected to like when the eye image feature data selected by the user is already being set by the other robot 100. Can be output.
- the eye image feature data within the similar range may be, for example, the following eye image feature data (1) or eye image feature data (2).
- the eye image feature data is represented by continuous or intermittent parameters such as RGB, the eye image feature data is numerically close to each other. More specifically, the eye image feature data within a predetermined range (for example, within ⁇ 5%) with respect to the parameter representing the selected eye image feature data.
- the ocular image feature data is represented by a plurality of parameters, some parameters are within a predetermined range with respect to the corresponding parameters of the selected ocular image feature data, and the remaining parameters are the same ocular image.
- It may be feature data, or it may be eye image feature data in which all parameters are within a predetermined range with respect to the corresponding parameters of the selected eye image feature data.
- (1) can be said to be eye image feature data in which the components of the eye image feature data, which are parameters representing the eye image feature data, are in a similar range
- (2) is, for example, the degree of similarity evaluated by a person.
- a model trained as teacher data it can be said that the eye image feature data itself is evaluated by a person in a similar range.
- the eye image feature data is the eye image feature data of the robot 100 included in the robot group 202.
- a width that can be set in close proximity to the eye image feature data being set by another robot 100 (hereinafter, also referred to as “proximity range”) may be determined.
- the number of robots 100 is, for example, the number of robots 100 shipped or the number of activated robots 100, and may be predetermined so that the proximity range of the eye image feature data increases as the number of robots 100 increases. , The proximity range of the eye image feature data may be narrowed as the number of robots 100 increases.
- the eye image feature data being set by the other robot 100 is the selected eye image feature data selected by the user of the target robot 100A.
- the proximity range may be the same range as the above-mentioned similar range, or may be a range narrower than the similar range.
- the proximity range is widened, the number of candidate eye image feature data that can be output by the eye image output unit 238 increases when the selected eye image feature data is being set by the other robot 100, and the candidate eye image by the user is increased. Wider range of feature data selection.
- the eye image output unit 238 is within a predetermined similarity range with respect to the eye image feature data set in the other robot 100 used by another user or another user designated by the user. Eye image feature data may be output.
- the other user is, for example, a prominent user, and the eye image output unit 238 can output the eye image feature data set by the other user to the touch panel display 210.
- the eye image output unit 238 may output the eye image feature data to the touch panel display 210 based on the user-related information related to the user who uses the target robot 100A.
- the user-related information is, for example, biometric information of the user, preference information indicating the user's preference, property information indicating the user's characteristics such as the user's age, gender, and date of birth.
- the eye image output unit 238 has a part of the user-related information related to the user who uses the target robot 100A in the same range or in a similar range of the eye image feature data of the robot 100B used by the user within a predetermined range.
- a certain eye image feature data may be output to the touch panel display 210.
- the user-related information (user-related information associated with the identification ID of the robot 100A) of the user who uses the target robot 100A stored in the storage unit 232 is information indicating a 40-year-old man.
- the eye image output unit 238 searches the storage unit 232 for user-related information on the condition that a man is 40 years old.
- the eye image output unit 238 recognizes the identification ID of the robot 100 associated with the searched user-related information.
- the eye image output unit 238 recognizes the eye image feature data associated with the identification ID of the robot 100.
- the eye image output unit 238 outputs the eye image feature data in a similar range of the recognized eye image feature data to the touch panel display 210 as candidate eye image feature data.
- the eye image output unit 238 estimates the eye image feature data preferred by the user who uses the target robot 100A based on the usage record of the eye image feature data stored in the storage unit 232, and sets the estimation conditions.
- the corresponding eye image feature data may be output as a candidate for the eye image feature data.
- the robot 100 includes an eye image setting unit 250 in addition to the above-mentioned storage device 124, communication unit 126, and monitor 170.
- the eye image setting unit 250 sets the eye image feature data transmitted from the terminal device 204 as the eye 110. As a result, the eye image 174 unique to the target robot 100A is displayed on the monitor 170 that displays the eyes 110.
- FIG. 6 is an example of an application image relating to the setting of the eye image 174 displayed on the touch panel display 210 of the terminal device 204.
- the configuration of the application image shown in FIG. 6 and the setting method of the eye image 174 using the application image are examples, and the present invention is not limited to this.
- an eye image 174 set in the target robot 100A is appropriately previewed and displayed on each application image.
- input operations for various buttons by the user are received by the input operation receiving unit 218 included in the terminal device 204 via the touch panel display 210.
- FIG. 6A is an application image 260A displayed on the touch panel display 210 when the robot application is started and the eye image 174 is set.
- various buttons included in the application image 260A are pressed, other application images 260B, 260C, 260D, and 260E corresponding to the respective buttons are displayed on the touch panel display 210.
- the application image 260A displays a preview image 262A showing the entire face of the robot 100 including the eye image 174 currently set for the target robot 100A.
- FIG. 6B is an application image 260B displayed when the preset button 264 of the application image 260A is pressed.
- the user selects one of the predetermined shapes of the eye image 174.
- the user selects a parameter indicating the shape of the eye image 174 via the application image 260B.
- the shape of the eye image 174 selected by the user is displayed as the preview image 262B. More specifically, a plurality of shape images 267 showing the shape of the eye image 174 are displayed on the application image 260B, and the user selects one of the plurality of shape images 267.
- a preview image 262C of the eye image 174 in which a color is added to the shape selected by the user in the application image 260B is displayed. Then, when the user presses the enter button 270, the eye image 174 displayed in the preview image 262C is set in the target robot 100A.
- the eye image 174 previewed on the application image 260C is an eye image 174 of a unique color that is not set in the other robot 100 by the feature data setting system 200.
- the eye image output unit 238 selects a parameter set indicating the color of the eye image 174 and the like, and combines this with a parameter set having a shape selected by the user to generate candidate eye image feature data.
- the shape of the eye image 174 selectable in the application image 260B and the eye image 174 output as the application image 260C may be determined according to the items of the robot 100 such as clothes worn by the target robot 100A. ..
- Items of the robot 100 such as clothes worn by the target robot 100A are identified by, for example, a sensor provided on the target robot 100A reading a tag unique to the item.
- items of the robot 100 such as clothes worn by the target robot 100A may be identified by analyzing the color of the robot 100 or the like from the image captured by the camera.
- the eye image 174 is newly automatically generated, and the preview image 262C of the new eye image 174 is displayed on the application image 260C.
- the case where the user presses the button 271 is a case where the eye image 174 preferred by the user is not generated.
- the button 272 labeled "Look at the robot” the eye image 174 shown in the preview image 262C is displayed on the monitor 170 of the target robot 100A. Then, after pressing the button 271 or the button 272, the user presses the decision button 270 when setting the eye image 174 on the target robot 100A.
- FIG. 6D is an application image 260D displayed when the colored contact lens button 266 of the application image 260A is pressed.
- the colored contact lens is a decorative image superimposed on the eye image 174 set by the preset with a predetermined transmittance.
- decorative image data hereinafter referred to as “colored contact lens data” indicating a decorative image selected by the user in the application image 260D is transmitted to the target robot 100A, and the decorative image is predetermined to the set eye image 174. It is displayed superimposed by the transparency.
- the transmittance may be arbitrarily set by the user, and the lower the transmittance, the lighter the color of the colored contact lens is superimposed on the eye image 174.
- the colored contact lens of the present embodiment is, for example, a color formed by a single color or a plurality of colors, but is not limited to this, and may be an image such as a pattern or a star shape.
- the user can give the eye image 174 of the target robot 100A more uniqueness.
- a plurality of colored contact lens images 273 showing the colors of the colored contacts are displayed.
- a new colored contact lens image 273 that has not been displayed up to that point is displayed.
- the button 274 marked "None” the colored contact lens is not set.
- the button 275 labeled "OK” the colored contact lens image 273 according to the user's selection is set on the target robot 100A.
- immutable means, for example, that when the target robot 100A is set at the time of initial startup after shipment from the factory, the eye image 174 is until a condition such as a certain period of time elapses or the robot is reset to the factory shipment state. It means that the setting of is not changeable.
- the eye image 174 of the target robot 100A is not unique at the time of shipment from the factory, in other words, is a common eye image 174 (hereinafter referred to as “default eye image”). That is, the default eye image is an eye image 174 that is allowed to overlap with the other robot 100 and cannot be occupied.
- the eye image feature data set by the preset may not be changed if it is set at the first startup of the target robot 100A, or only some parameters such as the shape of the eye image 174. May be non-modifiable and other parameters may be mutable.
- the colored contact lens may be arbitrarily changed by the user.
- the eye image 174 set by the preset is unique to the target robot 100A, it may be allowed that the colored contact lens is the same as the other robot 100, and the colored contact lens is also the colored contact lens of the other robot 100. It may be unique to the target robot 100A, unlike the color of.
- the eye image 174 (hereinafter referred to as “preset eye image”) set by the preset of the present embodiment is displayed on the monitor 170 of the target robot 100A without delay after the setting, but is not limited to this, and for example, the present.
- the eye image 174 being set may be gradually changed to a preset eye image. More specifically, when the default eye image is displayed on the monitor 170, the default eye image changes to a preset eye image over a predetermined period (for example, one day). When the unique eye image 174 is already displayed on the monitor 170, the unique eye image 174 changes to a preset eye image over a predetermined period of time.
- the eye image 174 in the process of changing to the preset eye image is temporarily displayed as the eye image 174 of the robot 100, even if the same eye image 174 set in the other robot 100 is included. Alternatively, the same eye image 174 set in the other robot 100 may not be included.
- the changing eye image 174 may be changed based on, for example, user-related information.
- the change may be such that the color is emphasized, or the season corresponding to the user's date of birth is recalled. The change may be emphasized in color (eg white if the user was born in winter).
- FIG. 6E is an application image 260E displayed when the history button 276 of the application image 260A is pressed.
- the application image 260E a list of a plurality of eye images 174 set by the user in the past is displayed. That is, the feature data setting system 200 (terminal device 204 or server 206) stores a history of eye image feature data set by the user in the past. Then, the user can set one eye image feature data (selected eye image feature data) selected from the history of the eye image feature data set in the past to the target robot 100A via the application image 260E.
- a plurality of past set eye images 278 showing the eye image 174 showing the eye image feature data set in the past are displayed.
- the application image 260E displays the previously set eye image 278 that has not been displayed until then.
- the past set eye image 278 according to the user's selection is set in the target robot 100A.
- the numbers displayed below the past set eye image 278 (“3”, “6”, “7” from the left in the example of FIG. 6E) are displayed below the shape image 267 set by the application image 260B. Corresponds to the number, that is, the shape of the eye image 174.
- the selected eye image feature data indicating the past set eye image 278 selected by the user via the application image 260E is not set in the other robot 100 of the robot group 202 including the target robot 100A by the eye image determination unit 234. Whether or not it is image feature data is determined. That is, even if the eye image feature data is stored, the eye image feature data being set by the other robot 100 cannot be set in the target robot 100A. According to this, even if the eye image feature data is stored by the user, if the eye image feature data is not set, it is allowed to be set by another robot 100. Therefore, the user of the other robot 100 Does not limit the range of selection of eye image feature data by.
- the feature data setting system 200 is within the similar range of the selected eye image feature data and is set in the other robot 100.
- the eye image output unit 238 outputs the eye image feature data that has not been set, and presents it to the user via the application image 260E.
- the feature data setting system 200 may be able to store a plurality of eye images 174 (eye image feature data) when a predetermined condition (hereinafter, “plural storage condition”) is satisfied.
- the plurality of storage conditions are, for example, acquisition of a predetermined point or charging of a predetermined amount of money.
- the number of eye images 174 that can be stored may increase as the number of points and the like increases.
- FIG. 7 is a flowchart showing an example of the flow of the eye image setting process of the present embodiment.
- the eye image setting process is executed, for example, when the user activates the robot application on the terminal device 204 and displays the application image 260 on the touch panel display 210.
- step S100 the input operation reception unit 218 determines whether or not the preset has been selected by pressing the preset button 264, and if the preset button 264 is pressed, the process proceeds to step S102, and the preset button 264 presses. If it is not pressed, the process proceeds to step S112.
- the input operation reception unit 218 accepts the shape of the eye image 174 selected by the user via the application image 260B. Then, the parameter set indicating the shape of the eye image 174 selected by the user is transmitted to the server 206 via the communication unit 212, so that the selected eye image acquisition unit 236 acquires the shape of the eye image 174.
- the eye image output unit 238 generates one or more candidate eye image feature data in which colors are added to the shape of the eye image 174 selected by the user, and outputs the data to the touch panel display 210 of the terminal device 204. To do. In this way, the candidate eye image feature data is presented to the user by being displayed on the application image 260C. Further, the candidate eye image feature data output to the touch panel display 210 may be not only one but also a plurality. The parameter set for generating the output candidate eye image feature data is locked so that it is not set by another robot 100 during output. This lock is released when the user determines the candidate eye image data to be set in the target robot 100.
- the input operation reception unit 218 determines whether or not the user has selected the candidate eye image feature data presented by being displayed on the touch panel display 210 as an output (application image 260C). Then, when the user selects the candidate eye image feature data, the process proceeds to step S108. On the other hand, if the user does not select the candidate eye image feature data, the process returns to step S104, and the input operation reception unit 218 outputs the other candidate eye image feature data to the touch panel display 210 (displayed on the application image 260C). ..
- the case where the user does not select the candidate eye image feature data is the case where the user presses the button 271 of the application image 260C.
- step S108 the candidate eye image feature data selected by the user is set in the target robot 100A.
- the eye image setting instruction unit 220 included in the terminal device 204 transmits the eye image feature data to the target robot 100A via the communication unit 212.
- the eye image setting unit 250 sets the eye image feature data as the eyes 110 of the robot 100 and displays the eye image 174 on the monitor 170.
- next step S110 when the terminal device 204 transmits the eye image feature data set in the target robot 100A to the server 206 and the server 206 stores the eye image feature data in the storage unit 232, the main eye image setting process ends. To do.
- step S112 which shifts to the case where the preset is not selected in step S100, the input operation reception unit 218 determines whether or not the colored contact lens is selected by pressing the colored contact lens button 266. In the case of an affirmative determination, the process proceeds to step S114, and in the case of a negative determination, the process returns to step S100.
- step S114 the input operation reception unit 218 accepts the color of the colored contact lens selected by the user via the application image 260D.
- the colored contact lens selected by the user is set to the target robot 100A.
- the eye image setting instruction unit 220 transmits the colored contact lens data to the target robot 100A via the communication unit 212.
- the eye image setting unit 250 displays the eye image 174 on which the color control data is superimposed on the eye image feature data on the monitor 170.
- a mode in which the user selects the shape of the eyes 110 of the robot 100 and then the user selects from the candidate eye image feature data output by the eye image output unit 238 by the preset has been described.
- a mode in which a user selects a parameter set for generating eye image feature data by himself / herself and determines whether or not the selected eye image feature data generated thereby is set in another robot 100 will be described.
- FIG. 8 is a flowchart showing an example of the flow of the eye image setting process of the present embodiment.
- the eye image setting process of the present embodiment is executed, for example, when the user activates the robot application on the terminal device 204 and selects the manual setting of the eye image 174. That is, in the robot application of the present embodiment, manual setting can be selected in addition to the preset and colored contact lens settings described above.
- step S200 the user accepts the selection of eye image feature data.
- the touch panel display 210 of the terminal device 204 of the present embodiment has a selection image such as a slide bar for the user to select the shape of the eye image 174, the color of the white eye image, the iris image, the pupil image, and the highlight image. Is displayed.
- the user selects the shape and color of the eye image 174 by operating the selected image displayed on the touch panel display 210, specifically adjusting the position of the slide bar.
- the selected eye image acquisition unit 236 of the server 206 acquires the selected eye image feature data selected by the user of the target robot 100A using the terminal device 204.
- This selected eye image feature data is composed of a parameter set such as the shape and color of the eye image 174 selected by the user.
- the eye image determination unit 234 determines whether or not the acquired selected eye image feature data is being set by the other robot 100.
- step S206 if it is determined that the selected eye image feature data is being set by the other robot 100, the process proceeds to step S208, and the selected eye image feature data is not set by the other robot 100. If the determination is made by the eye image determination unit 234, the process proceeds to step S212.
- step S208 the eye image output unit 238 generates candidate eye image feature data and outputs it to the touch panel display 210 of the terminal device 204.
- the input operation reception unit 218 determines whether or not the user has selected the candidate eye image feature data output to the touch panel display 210. Then, when the user selects the candidate eye image feature data, the process proceeds to step S212. On the other hand, if the user does not select the candidate eye image feature data, the process returns to step S200, and the selected eye image acquisition unit 236 acquires the selected eye image feature data newly selected by the user.
- step S212 the selected eye image feature data determined in step S206 that the other robot 100 is not setting, or the candidate eye image feature data selected by the user in step S210 is set in the target robot 100A.
- the eye image setting instruction unit 220 included in the terminal device 204 transmits the eye image feature data to the target robot 100A via the communication unit 212.
- the eye image setting unit 250 sets the eye image feature data as the eyes 110 of the robot 100 and displays the eye image 174 on the monitor 170.
- next step S214 when the terminal device 204 transmits the eye image feature data set in the target robot 100A to the server 206 and the server 206 stores the eye image feature data in the storage unit 232, the main eye image setting process ends. To do.
- the eye image feature data set in this embodiment is reflected when the target robot 100A closes and opens the eyelids. That is, the eye image 174 before the new setting is displayed on the monitor 170 before the eyelids are closed, but the newly set eye image 174 is displayed on the monitor 170 after the eyelids are closed and opened. ..
- switching motion a movement different from that when closing the eyelids simply for blinking
- the eyelids may be opened and closed when the target robot 100A faces the front from the state where the face is facing downward.
- the motion that can be selected by the target robot 100A may differ depending on the impression felt from the newly set design of the eye image 174.
- a person visually recognizes a design formed by combining colors and shapes he or she often intuitively has some impression of the design.
- a person who visually recognizes a robot 100 having a large round eye image 174 often has a young and energetic impression of the robot 100.
- a person who visually recognizes an elliptical and slightly hanging eye image 174 often has a gentle and gentle impression on the robot 100.
- people often have some impression from the motion of the robot 100. For example, if the robot 100 moves quickly and with a large movement, it often gives an energetic impression to the robot 100.
- the robot 100 If the robot 100 operates in a slow motion, it often gives a calm impression to the robot 100. If the impression that such a person feels by perceiving the features of the robot 100 such as the eye image 174 deviates from the impression that the robot 100 feels from the motion, the robot 100 may feel uncomfortable. It is preferable that the eye image 174 and the motion for the eye image 174 are adjusted so that the impression felt from the characteristics of the robot 100 such as the eye image 174 and the impression felt from the motion do not deviate from each other so that a person can unconsciously accept it.
- the corresponding motion may be associated with the eye image feature data in advance
- the attribute value indicating the impression of the eye image feature data is associated with the eye image feature data
- the attribute indicating the impression of the motion. Values may be associated.
- the attribute value is a value indicating an impression such as "energetic", "relaxed", and "gentle”, and each of the motions matching the impression may be associated with each of them.
- FIG. 9 is a functional block diagram of the feature data setting system 200 of the present embodiment.
- the server 206 includes a communication unit 230, a storage unit 232, an eye image determination unit 234, an eye image output unit 238, a selective eye image acquisition unit 236, and a mixed eye image generation unit 240.
- the mixed eye image generation unit 240 has new eye image feature data that can be set in the target robot 100A based on the eye image feature data set by the target robot 100A and the eye image feature data set by the other robot 100. (Hereinafter referred to as "mixed eye image feature data") is generated. That is, the mixed eye image generation unit 240 generates new eye image feature data from two different eye image feature data set in the two robots 100. New eye image feature data generated from the eye image feature data being set by the two robots 100 can be set for the target robot 100A. Furthermore, this may generate eye image feature data that the user does not anticipate.
- the generated mixed eye image feature data is transmitted to the terminal device 204 as candidate eye image feature data via the communication unit 230, and is output to the touch panel display 210 of the terminal device 204.
- the server 206 uses the terminal device 204 to generate the eye image feature data set by the target robot 100A and the eye image feature data set by the other robot 100. To receive. Then, the mixed eye image generation unit 240 calculates a new parameter by calculating with a predetermined calculation formula using a parameter representing the two received eye image feature data as a variable, and the eye image feature represented by this parameter. The data is generated as mixed eye image feature data.
- the mixed eye image feature data is unique and is not set in any of the robots 100. Therefore, when the generated mixed eye image feature data becomes the same as the eye image feature data set in the other robot 100, it is regenerated by a different calculation formula (for example, a calculation formula with different coefficients).
- the mixed eye image feature data may be generated not only by the calculation formula but also by AI, for example. Further, the mixed eye image feature data may be displayed on the touch panel display 210 of the terminal device 204 while being gradually changed by morphing, and the mixed eye image feature data preferred by the user may be selected from the changing mixed eye images.
- the features of the two eye image feature data may be inherited.
- the mixed eye image feature data may be generated by maintaining the visually most characteristic portion of the two eye image feature data and newly setting other parameter sets.
- the most visually characteristic part is, for example, a shape, which is a preset part. This makes it possible to give a genetic concept to the generation of mixed eye image feature data.
- the mixed eye image feature data may be generated so that the influence of the eye image data having a longer setting period among the two eye image feature data is large as an example of the inherited feature.
- the large influence means that the generated mixed eye image feature data is similar to the eye image data for which the setting period is longer.
- mixed eye image feature data may be generated so that the influence of the eye image feature data for which the setting period is shorter becomes large.
- the mixed eye image feature data is, as an example of the inherited features, the mixed eye image feature data so that the features of both images are reflected for the images having a relatively small similarity in the two eye image feature data. May be generated.
- the image having a relatively small similarity among the two eye image feature data is, for example, the other eye image feature among the white eye image, the iris image, the pupil image, and the highlight image constituting the one eye image feature data.
- the white-eye image, iris image, pupil image, and highlight image that compose the data the image having a relatively small similarity to the corresponding image (for example, the white-eye image, iris image, pupil image, and highlight image has a similar degree of similarity. The smallest image).
- the image intermediate between the two white-eye images is used as the white-eye image of the mixed eye image feature data, and other images (iris image, pupil).
- the image (highlight image) may be randomly selected from each image included in the two eye image feature data.
- the mixed eye image feature data is generated so that the features of both images are reflected for the image having a relatively large similarity among the two eye image feature data. May be done.
- the mixed eye image feature data generated in this way may be set in only one of the two robots 100, or may be set in both of the two robots 100. Further, not limited to this, the mixed eye image feature data may be set in a robot 100 different from the two robots 100. In this case, the robot 100 in which the mixed eye image feature data is set has the concept of a parent-child relationship of a child having two robots 100 as parents.
- the mixed eye image generation unit 240 generates mixed eye image feature data when the target robot 100A and the other robot 100 satisfy a predetermined condition (hereinafter referred to as “mix trigger condition”). According to this, new mixed eye image feature data is generated only when the mix trigger condition is satisfied. Further, new mixed eye image feature data can be set at any timing of the user.
- the mix trigger condition is, for example, when it is detected from an image that the target robot 100A and another robot 100 are close to each other within a predetermined distance (for example, 30 cm), or when a predetermined part (tummy, forehead) of the target robot 100A ) Is in contact with a predetermined part (tummy, forehead) of another robot 100, for example, when it is detected by a contact sensor or the like.
- the users of the target robot 100A and the other robot 100 that generate the mixed eye image feature data may be different users.
- the mix trigger condition is that the intimacy between the two robots 100 is equal to or higher than a predetermined value, and the mixed eye image feature data is generated based on the two eye image feature data set by the two robots 100. May be done.
- the intimacy is improved by transmitting and receiving data by performing short-range wireless communication between robots 100.
- the data to be transmitted and received is an identification ID set in the robot 100.
- an operation command is transmitted from one robot 100 to the other robot 100, it is probabilistically determined whether or not the other robot 100 executes the operation command, and when the other robot 100 executes the operation command, two robots are used.
- the intimacy between the robots 100 may be greatly improved as compared with the case where the other robot 100 does not execute the operation command.
- the operation command is an instruction of an action to the other robot 100, for example, the other robot 100 is lined up behind the one robot 100.
- the voice feature data indicating the sound output by the speaker 171 included in the robot 100 is set in the target robot 100A as the feature data unique to the target robot 100A.
- the voice feature data as the feature data is used as the voice feature data for generating the voice output from the robot 100. That is, the voice output from the speaker 171 by the target robot 100A generated from the voice feature data is a voice peculiar to the target robot 100A that does not overlap with the other robot 100. As a result, the voice output from the robot 100 and recognizable by human hearing can be made unique to the robot 100.
- the speaker 171 corresponds to an example of the "output device" of the present invention. Further, the sound output from the speaker 171 corresponds to an example of the "characteristics of the robot" of the present invention.
- the eye image setting instruction unit 220 shown in FIG. 5 of the first embodiment functions as a voice setting instruction unit
- the eye image determination unit 234 functions as a voice determination unit
- the selected eye image acquisition unit 236 acquires the selected voice.
- the eye image output unit 238 functions as an audio output unit
- the eye image setting unit 250 functions as an audio setting unit.
- FIG. 10 is an example of the application image 280 relating to the setting of the sound displayed on the terminal device 204 of the present embodiment.
- the configuration of the application image 280 shown in FIG. 10 and the method of setting the sound using the application image 280 are examples, and the present invention is not limited to this.
- FIG. 10A is an application image 280A displayed on the touch panel display 210 when the robot application is started and the voice is set.
- the button 281 labeled "Select voice” a plurality of types (4 types in this embodiment) of voice feature data in which parameters are randomly selected are automatically generated.
- the generated voice feature data is all voice feature data that does not overlap with the voice feature data set by the other robot 100.
- the button 281 is pressed by the user and a plurality of types (four types in the present embodiment) of sounds are generated, the application image 280A changes to the application image 280B shown in FIG. 10B.
- the parameters (parameter sets) that make up the voice feature data will be described later.
- the user when the user presses the button 282 labeled "current voice" displayed on the application image 280A, the user confirms the voice generated based on the voice feature data currently set in the target robot 100A. can do.
- This confirmation voice is output from the speaker 171 of the target robot 100A, which is an output device perceptible to the user.
- voice selection buttons 283A to 283D that allow the user to select one of the generated voice feature data are displayed.
- the voice selection buttons 283A to 283D When any of the voice selection buttons 283A to 283D is pressed and selected by the user, the corresponding voice is output. As a result, the user can confirm his / her favorite voice.
- the button 284 labeled "OK" while any of the voice selection buttons 283A to 283D is selected the voice feature data selected by the user is set in the target robot 100A.
- the application image 280B may display a button for regenerating the voice feature data (hereinafter referred to as "regeneration button").
- regeneration button a button for regenerating the voice feature data
- the case where the user presses the regenerate button is the case where the voice feature data that generates the voice preferred by the user is not generated.
- the regenerate button is pressed by the user, the voice feature data is newly generated, and the generated new voice feature data is associated with the voice selection buttons 283A to 283D.
- FIG. 10C is an application image 280C displayed when the history button 285 of the application image 280A is pressed.
- a list of voice selection buttons 286 for selecting a plurality of voice feature data set by the user in the past is displayed. That is, the feature data setting system 200 (terminal device 204 or server 206) stores a history of voice feature data set by the user in the past. As an example, the maximum number of selectable past voice feature data is predetermined.
- the voice selection button 286 the date when the voice feature data is set in the target robot 100A is displayed. As a result, the user can recognize the difference in voice corresponding to the voice selection button 286. Further, when the user scrolls the touch panel display 210, the voice selection button 286 corresponding to the voice feature data set in the past, which has not been displayed so far, is displayed. Then, when the user presses the button 287 labeled "OK", the voice feature data corresponding to the voice selection button 286 selected by the user is set in the target robot 100A.
- the voice feature data selected by the user via the application image 280C is voice feature data that has not been set in the other robot 100 of the robot group 202 including the target robot 100A. That is, even if the voice feature data is stored, the voice feature data being set by the other robot 100 cannot be set in the target robot 100A.
- FIG. 11 is an application image 280D displayed on the terminal device 204 when the user customizes the sound output from the target robot 100A.
- the application image 280D is displayed so that the user can select voice feature data (combination of values of a plurality of parameters) for generating voice.
- voice feature data combination of values of a plurality of parameters
- the user selects a parameter value by moving the slide bars 288A to 288F corresponding to each parameter left and right. That is, the user does not automatically generate the voice set in the target robot 100A, but manually generates it according to his / her preference.
- speed, pitch, pitch width, brightness, lip vibration, and vocal cord length are set as parameters that can be selected by the user.
- These plurality of parameters are treated as one parameter set, and a voice parameter set that is not set in the other robot 100 can be set as the voice of the target robot 100A. It should be noted that this parameter set is the same as the parameter of the voice feature data generated when the user presses the button 281 of the application image 280A described above.
- Speed is the utterance speed per unit of sound.
- a sound unit is a syllable in language. The larger this value, the faster the utterance speed.
- the pitch is the average pitch. The larger this value, the higher the pitch.
- the width of the pitch is the width of the pitch that can be pronounced. The larger this value, the wider the pitch width.
- Brightness is a parameter that indicates the brightness of the voice (sound).
- the brightness of the sound can be changed by changing a part of the frequency component (for example, the overtone component) of the sound to be sounded. The larger this value, the easier it is to give the impression that the voice (sound) is bright.
- the vibration of the lips is the degree of vibration of the lips in the pronunciation structure that imitates the vocal structure (mouth) of a person.
- Vocal cord length is a parameter that indicates the length of the vocal cords in a pronunciation structure that imitates the vocal structure (mouth) of a person. The larger this value, the more low-pitched frequency components, and the more mature the voice becomes.
- the voice generated by the selected voice feature data (parameter set) is output from the speaker 171 included in the target robot 100A. Then, when the pressing operation of the decision button 290 is detected, the selected parameter set is set in the target robot 100A.
- the voice feature data manually generated is also a voice that does not overlap with the voice feature data set by the other robot 100.
- the server 206 acquires the voice feature data (parameter set) selected by the user from the terminal device 204, and does the voice feature data overlap with the voice feature data set in the other robot 100? It is determined whether or not, and the determination result is transmitted to the terminal device 204.
- the terminal device 204 invalidates the enter button 290 and displays a touch panel indicating that the robot is in use. It is output to the display 210.
- the server 206 may generate voice feature data similar to the voice feature data selected by the user, and the touch panel display 210 may display a button for reproducing the generated voice feature data.
- the customization of the voice using the application image 280D may be enabled by a user who satisfies a predetermined condition.
- the predetermined conditions are, for example, a user whose usage period of the robot 100 exceeds a predetermined predetermined period, a user who has acquired a predetermined point, and a user who has charged a predetermined amount of money.
- the feature data setting system 200 may associate value information indicating the value based on the setting state of the eye image feature data with the eye image feature data. According to this, the concept of value can be given to the eye image feature data set in the robot 100.
- the mechanism for occupying the eye image feature data has been described, but the length of the occupancy period varies depending on the user's impression of the eye image 174. If the user likes the robot 100 having the eye image 174, he / she will continue to use the eye image 174 for a long period of time, and if he / she does not like it, it is expected that he / she will change it immediately.
- the eye image 174 that the user wants to use for a long time is a so-called “favorite”, and it is highly likely that a plurality of people often feel the same eye image 174 as a favorite.
- the market principle works and the eye image feature data is valued.
- the value information includes set period information indicating the period during which the eye image feature data is being set, user-related information related to the user who uses the robot 100, and parameters set by a relatively large number of users (plurality representing the eye image feature data). Some of the parameters of the above (for example, parameters related to the shape), etc., but are not limited to this, and other information may be used as long as it can give the concept of value. For example, eye image feature data with a long setting period, eye image feature data set by a well-known designer, parameters set by many users, etc. are said to have high value. In addition, eye image feature data set by entertainers who are loved by many fans is also considered to be of high value to fans.
- the eye image feature data for which the setting period is long may be evaluated with higher value.
- the user-related information satisfies a predetermined condition (for example, when the user is a prominent user or the number of common items with the user-related information of the user of the target robot 100A is a predetermined number or more)
- the eye associated with the user-related information may be evaluated to be more valuable than the case where the predetermined condition is not satisfied.
- a parameter with a large number of users may be evaluated as having a higher value.
- the feature data setting system 200 When updating the eye image feature data of the target robot 100A, the feature data setting system 200 has the same value as the value of the eye image feature data set in the target robot 100A or a value within a predetermined range.
- the eye image feature data may be presented to the user of the target robot 100A.
- the value is determined based on the length of the occupancy period
- the eye image feature data that has been occupied for as long as the eye image feature data of the target robot 100A is extracted and output to the touch panel display 210. That is, the current eye image feature data and the equally favorite eye image feature data are presented to the user.
- a mechanism may be provided for exchanging occupable eye image feature data for data having monetary value such as points.
- the eye image feature data set in the robot 100 may not be continuously set when the set period information exceeds a predetermined period. According to this, it is possible to prevent the user from continuing to set the same eye image feature data beyond a predetermined period, so that the user can be prompted to set new eye image feature data. Even if the set period information is eye image feature data that exceeds a predetermined period, the same eye image feature data may be continuously set depending on predetermined conditions (point acquisition, billing, etc.).
- the feature data setting system 200 can set the eye image feature data to the target robot 100A even if the eye image feature data is being set by the other robot 100, if permission is obtained from the user of the other robot 100. May be good. According to this, even the eye image feature data being set by the other robot 100 can be set in the target robot 100A. It should be noted that the eye image feature data currently being set in the other licensed robot 100 may not be continuously set, or may be continuously set. If it is possible to set it continuously, the same eye image feature data will be set in the plurality of robots 100.
- the types of eye image feature data that can be selected by the user may increase as the number of robots 100 included in the robot group 202 increases. For example, when the number of robots 100 included in the robot group 202 exceeds a predetermined number, the types of shapes and colors of the eye image 174 that can be selected by the user increase. According to this, as the number of robots 100 increases, the types of eye image feature data that can be set by the user increase.
- the feature data setting system 200 may set the target robot 100A with feature data different from the feature data set in the other robot 100 located in the predetermined area including the position where the target robot 100A exists. Therefore, the feature data being set by the other robot 100 located in the predetermined area including the position where the target robot 100A exists becomes the feature data that cannot be set in the target robot 100A.
- the predetermined area referred to here is a predetermined range based on an area such as a prefecture or a municipality or an installation position of a device such as a server 206.
- the selected eye image feature data Can be set to the target robot 100A, so that the range of selection of eye image feature data that can be set to the target robot 100A is widened.
- the position where the robot 100 exists may be determined by, for example, the GPS provided in the robot 100, or may be determined by the position where the charging device of the robot 100 exists.
- the charging device is installed in the house where the robot 100 moves.
- the robot 100 moves to the charging device by itself and charges the battery 118 at a predetermined position of the charging device.
- the charging device has a function of an information processing device and can communicate with the robot 100, the terminal device 204, and the server 206. Then, for example, the position of the charging device specified from the IP address assigned to the charging device may be the position where the robot 100 exists.
- the charging device of the robot 100 may be provided with functions such as an eye image determination unit 234, a selective eye image acquisition unit 236, an eye image output unit 238, and a mixed eye image generation unit 240 included in the server 206.
- the server 206 when the server 206 receives the eye image feature data being set from another robot 100 included in the robot group 202, the server 206 transmits the eye image feature data to the charging device. As a result, the charging device can grasp the eye image feature data being set by the other robot 100. Then, when the terminal device 204 sets the eye image feature data on the target robot 100A, the terminal device 204 sets the eye image feature data unique to the target robot 100A by communicating with the charging device.
- the feature data setting system 200 does not include the server 206, and the feature data being set by the robot 100 (hereinafter, as an example, eye image feature data) is transmitted and received between the terminal devices 204, so that another robot 100 is setting.
- the terminal device 204 or the robot 100 may accumulate the eye image feature data, and the target robot 100A may set the eye image feature data different from the accumulated eye image feature data being set.
- a set of eye image feature data accumulating eye image feature data being set by another robot 100 is called an "eye image list". That is, the terminal device 204 or the robot 100 holds the eye image list, and the terminal device 204 or the robot 100 has the same function as the server 206.
- the terminal device 204 or the robot 100 grasps the eye image feature data being set by the other robot 100, so that the server 206 is not required for the configuration of the feature data setting system 200.
- the robot 100 belonging to the same robot group 202 may autonomously change the eye image feature data so as to avoid duplication of the eye image feature data.
- the target robot 100A avoids duplication of eye image feature data with another robot 100 that has transmitted and received its own eye image feature data.
- duplication of eye image feature data in the living area (user's living area) of the target robot 100A can be avoided.
- the "user's living area” is a range or area where the user acts in his / her life, and is expressed by physical location information and time information in his / her life such as stores and time zones that he / she frequently visits. In other words, it can be said that even people who live in the same area have different living areas if they use different stores.
- the robot group 202 to which the target robot 100A belongs is formed by actually encountering another robot 100 in the user's living area. That is, in order for the target robot 100A to form the robot group 202, it is gradually formed by being taken by the user to move a place and recognizing another robot 100 at the moving destination.
- the living area of a person is generally fixed, and after a certain period of time, the robot 100 existing in the living area of the user can be grasped.
- the robot group 202 formed in this way is determined based on subjective conditions. By forming the robot group 202 on the condition that it exists in the user's living area, it is possible to avoid duplication of eye image feature data in the robot group 202.
- the target robot 100A has a unique eye image 174.
- the robot group 202 formed in this way is mainly the target robot 100A, and even if the robots 100 exist in the same area, they will be different robot groups 202 if the user's living area is different.
- the robot 100 enables the eye image feature data to be changed after a certain period of time has elapsed from the time when the power is turned on to construct the robot group 202.
- the probability of duplication of eye image feature data can be reduced.
- Only the default eye image is set for a certain period of time, and the eye image 174 may be changed after a certain period of time.
- the robot group 202 may be constructed when the number of times the user has been taken to another place exceeds a predetermined number of times, or is registered in the robot group 202.
- the robot group 202 may be constructed when the number of other robots 100 exceeds a predetermined number.
- the eye image lists held by the robots 100 may be exchanged with each other as they approach each other within a predetermined distance.
- One robot 100 may perform an operation related to the other robot 100 according to the intimacy with the other robot 100.
- the intimacy is higher when the characteristics of one robot 100 and the characteristics of the other robot 100 are similar than when the characteristics of the one robot 100 and the characteristics of the other robot 100 are dissimilar. May be good.
- the operation related to the other robot 100 is, for example, an operation executed by the robot 100 when another robot 100 whose intimacy is equal to or higher than a predetermined value exists in the vicinity of the robot 100.
- the 100 is an operation (hereinafter referred to as “introduction operation”) in which the user recognizes another robot 100 or another robot 100 with high intimacy.
- the robot 100 when the intimacy between the robot 100 and the other robot 100 becomes a predetermined value or more and the robot 100 detects the existence of its own user, the robot 100 is the other robot 100 or the robot 100 whose intimacy is equal to or more than the predetermined value. Notify the user of another robot 100 to his / her own user. As a result, the user of the robot 100 can know the existence of the other robot 100 or the user of the other robot 100 to which the robot 100 has become intimate. This creates an opportunity for users to interact with each other.
- the robot 100 detects the existence of its own user, for example, when the camera provided by the robot 100 images its own user, or when the voice of its own user is input to the microphone provided by the robot 100. This is the case where the communication unit 126 included in the robot 100 receives an ID output from the terminal device 204 used by its own user.
- the referral operation of notifying the user of another robot 100 or the user of the other robot 100 whose intimacy of the robot 100 is equal to or higher than a predetermined value is, for example, a predetermined gesture by the robot 100 or a terminal device used by the user. It is performed by transmitting predetermined information to 204 or the like.
- the predetermined gesture is, for example, the robot 100 traveling around the other robot 100, the robot 100 facing the direction of the other robot 100, the robot 100 moving the hand 106 toward the other robot 100, and the like.
- the transmission of predetermined information includes, for example, displaying a face photograph of a user of another robot 100, displaying an eye image 174 unique to the other robot 100, and the like.
- the face photograph of the user of the other robot 100 and the data showing the eye image 174 peculiar to the other robot 100 are shared between the robots 100 whose intimacy is equal to or higher than a predetermined value.
- the introduction operation of the robot 100 has the following aspects as an example.
- the robot 100 executes a predetermined gesture for another robot 100.
- the predetermined gesture is, for example, that the robot 100 travels around the other robot 100.
- the robot 100 executes a predetermined gesture for a user of another robot 100.
- the predetermined gesture is, for example, that the robot 100 travels around a user of another robot 100.
- the robot 100 acquires image data indicating the face of a user of the other robot 100 from the other robot 100, and identifies the user of the other robot 100 by face recognition based on the image data captured by the camera. ..
- the other robot 100 transmits the position information of the terminal device 204 possessed by its own user to the robot 100, and the robot 100 identifies the user of the other robot 100 by the position information.
- the robot 100 executes a predetermined gesture for its own user and another robot 100.
- the predetermined gesture in this case, for example, alternately turns in the direction of the self-confident user and the other robot 100.
- the robot 100 executes a predetermined gesture for its own user and other users of the robot 100.
- the predetermined gesture in this case, for example, alternately turns in the direction of the self-confident user and the user of the other robot 100.
- the intimacy becomes high, for example, the parents of the robots 100 having similar feature data such as eye image feature data and audio feature data. It means that the density becomes high.
- the increase in intimacy in this case may be set higher than the increase in intimacy due to transmission / reception of the identification ID as described above. As a result, the intimacy between the robots 100 having similar eye image feature data increases sharply.
- the degree of intimacy changes according to the degree of similarity of features. That is, the higher the similarity, the higher the intimacy, and the lower the similarity (dissimilarity), the more the intimacy does not change.
- the feature data may be not only the eye image feature data generated by the parameter (parameter set) but also the eye image feature data generated by AI. Even if the feature data is generated by AI, the feature data is specified by the parameters.
- the feature data is not limited to the eye image feature data and the audio feature data, and may be data including time-dependent elements.
- the data including the temporal element is, for example, the behavior (movement) of the robot 100, and is a motion parameter set indicating the behavior of the robot 100 at 0 seconds, 1 second, 2 seconds, ... From the start timing of the behavior.
- the combination of may be the feature data.
- the data including the temporal element of the robot 100 is not limited to the behavior of the robot 100, but other temporal elements such as the movement of the eyelids of the robot 100 and the facial expression when the face of the robot 100 is displayed on the display. It may be a change.
- the front wheels, the rear wheels, the drive mechanism for operating these, and the like that operate according to the behavior correspond to the "output device" of the present invention.
- the feature data is derived from the touch data composed of the control parameters indicating the touch (feel) of the robot 100, the habit data composed of the control parameters indicating the movement habits of the robot 100, and the robot 100 generated by the phonetic parameters. It may be the generated voice feature data, the taste data composed of the control parameters indicating the taste output by the robot 100, and the odor data composed of the control parameters indicating the odor output by the robot 100.
- the feel of the robot 100 is reproduced by, for example, the piezoelectric elements arranged on the surface of the robot 100, the taste of the robot 100 is reproduced by the food produced by a 3D printer capable of producing food, and the odor of the robot 100 is reproduced. , It is said that the smell is reproduced on the olfactory display.
- the device to which the feature data is unique may be a device other than the robot 100.
- the device is, for example, a terminal device 204 that displays an icon image of the robot 100 on a display.
- the icon image is assigned for each identification information (ID) indicating the user of the robot 100 or for each terminal device 204, for example.
- the unique feature data is, for example, an eye image 174 of an icon showing the robot 100.
- the design of the virtual character displayed on the display of the terminal device 204 (eye color and shape, clothes color and shape, hairstyle, facial contour, etc., and at least one combination thereof) is the unique feature data. May be done. Further, the design of the virtual character displayed on the 3D hologram display device may be used as unique feature data.
- the feature data may be set by a device other than the terminal device 204.
- the robot 100 may be provided with an input device such as a touch panel display, and feature data may be set by an input operation on the touch panel display.
- the feature data may be data indicating a change mode of the feature of the robot 100.
- the feature data may be a value (for example, a value indicating a difference in hue in a certain period) that is based on a change mode of a parameter (for example, hue) constituting the eyes of the robot 100 in a certain period.
- the change mode of the robot 100 can be a feature of the robot 100.
- the feature data setting system 200 may change a part or all of the feature data of the robot 100 according to a predetermined rule with the passage of time after the feature data is set. For example, when the feature is an eye, the feature data setting system 200 may intermittently or continuously reduce the iris image of the robot 100 as the time elapsed after setting the feature data is longer. Further, when the feature is voice, the feature data setting system 200 may intermittently or continuously increase the pitch of the robot 100 as the time elapsed after setting the feature data is longer.
- a predetermined rule with the passage of time if the user recognizes the tendency of the characteristics of the robot to change with the change of time, the user can feel as if the robot 100 is a living thing. Can give a sense of life.
- the feature data setting system 200 uses the feature data that is not the same as or similar to the feature data after the change of one robot 100 and is the same as or similar to the feature data before the change of one robot 100. It may be possible to set a robot 100 different from one robot 100.
- the existence range of the feature data at the time when the time has not passed (start time) is a range which is partially or completely different from the existence range of the feature data after a certain period of time has elapsed.
- the occupation of the feature data at the start point is released with the passage of time, so that the feature data can be set for the new robot 100 while enhancing the biological feeling of the robot 100.
- the feature data when the feature data is changed, it may be changed so as not to deviate from the similar range, or it may be changed so as to deviate from the similar range.
- the feature data when the feature data is changed so as to deviate from the similar range, it is preferable that it takes a predetermined period to deviate from the similar range and the feature data is changed stepwise. For example, it takes one year to deviate from the similar range, and for the parameter to be changed, "the amount until deviating from the similar range is the number of unit periods included in the predetermined period (for example, the number of days). For example, the value obtained by dividing by 365) may be used as the amount of change per unit period (for example, one day).
- a pseudo age may be set for the robot 100, and the feature data that can be set may change according to the pseudo age. That is, the range of parameters that can be set may differ depending on the age of the robot 100.
- the pseudo age is added according to the elapsed time since the robot 100 is activated. In this case, the progress of the actual time and the progress of the age of the robot 100 do not have to match, for example, one age of the robot 100 is added every three months.
- the characteristic data of the voice that can be set changes from a high sound to a low sound.
- the occupation of the feature data of the robot 100 having a long usage period is easily released, and the number of feature data that can be used by the new robot 100 (younger robot 100) increases.
- the eye image 174 that can be set so that the eyelids of the robot 100 fall may change.
- the feature data setting system 200 may change the feature data so that the feature is easily recognized by the elderly.
- the feature data setting system 200 may change the feature data so that the iris image or the pupil image becomes larger when the eye is a feature.
- the iris image or the pupil image of the eye image 174 displayed on the robot 100 becomes relatively large with the passage of time, and the user's eyesight becomes worse due to aging. Even if it is reduced, the eye image 174 of the robot 100 can be an image that is easy for the user to use.
- the feature data setting system 200 may change the feature data so that the frequency of the sound to be pronounced becomes low when the voice is a feature.
- the sound generated by the robot 100 becomes a relatively low-frequency sound over the years, so that the user can hear a high-frequency sound due to aging hearing loss.
- the voice of the robot 100 can be a voice that is easy for the user to hear.
- the feature data setting system 200 is characterized by the robot 100 so that the user's reaction becomes a positive reaction based on the information acquired by sensors such as a camera, a microphone, and a contact sensor after the feature of the robot 100 is output.
- the data may be changed.
- the feature data setting system 200 classifies the user's reaction into three types, affirmative, neutral, and negative, based on the information acquired by sensors such as a camera, a microphone, and a contact sensor after the feature of the robot 100 is output. To do.
- Affirmation, neutrality, and denial are, for example, at least one of the number and time of the user's contact with the robot 100, the number of times and time of talking, and the number of times and time of directing the line of sight within a predetermined time after the robot 100 outputs the feature. Classified by one. As an example, it is said that the more times the user makes contact with the robot 100, or the longer these times, the more positive the user's reaction is. Further, affirmation, neutrality, and denial may be classified based on the user's facial expression, the feature amount of the user's voice (high and low of the voice), and the like.
- the feature data setting system 200 changes the feature data based on the feature amount space so that the user's reaction becomes affirmative, for example.
- the feature space is a space based on the value of the parameter of the feature data, and has affirmative, negative, and neutral regions (hereinafter referred to as "reaction regions"). This reaction area is determined according to the user's past reaction to the feature data set in the target robot 100A.
- the feature data setting system 200 changes the feature data so as to be closer to the center of the affirmative region.
- the feature data setting system 200 may change the feature data for which the user's reaction was negative so as to be outside the negative region, that is, to be included in the positive or neutral region.
- the reaction area of the feature space dynamically changes according to the set feature data and the user's reaction to the set feature data. That is, the feature data setting system 200 can acquire more reactions of the user to the feature data as the number of feature data set in the target robot 100A increases, so that the reaction area is changed accordingly. As a result, the reaction region becomes more suitable for the user's preference as the number of feature data set in the target robot 100A increases.
- the user may not be able to change the feature data before the predetermined condition is satisfied, and the user may be able to change a part or all of the feature data after the predetermined condition is satisfied. It is preferable that the feature data that can be changed by the user does not overlap with the feature data that changes automatically as described above.
- the predetermined condition is, for example, from the time when the user starts using the robot 100 until a predetermined time elapses, or when the user acquires a predetermined point or charges a predetermined amount of money.
- the robot 100 By limiting the range of feature data that can be changed by the user in this way, the impression that the features of the robot 100 cannot be easily changed by the user, and by extension, the robot 100 is congenitally or acquiredly acquired. It can give the user the impression that it is a feature.
- the feature data setting system 200 may determine the range of feature data that can be set in the robot 100 according to the user's attributes such as age, gender, and living area. According to this, the feature data that can be set in the robot 100 can be made different according to the attributes of the user. For example, the feature data setting system 200 may prohibit the robot 100 from setting feature data showing features that are difficult for a person of the same age as the user to recognize if the age of the user of the robot 100 is a predetermined age or older. When there are a plurality of users, the feature data setting system 200 may prohibit the robot 100 from setting feature data indicating a feature that is difficult for any of the plurality of users to recognize.
- the feature data setting system 200 may prohibit the robot 100 from setting feature data indicating a feature that is difficult for any of the plurality of users to recognize.
- the feature data setting system 200 refers to a database that stores user attributes such as age, gender, and living area in association with feature data that can be set in the robot 100, and features data that can be set in the robot 100. May be limited.
- the feature data setting system 200 recognizes a frequency band that the user tends to like or dislike for each attribute of the user, and the frequency of the generated voice is included in or deviates from the frequency band of the feature data.
- Information that prompts the setting may be output to the terminal device 204 or the like.
- the features of the robot 100 are features that are generated according to a predetermined rule based on the feature data and that can be perceived by a human, such as the above-mentioned eye image 174, voice, behavior, and facial expression. It may have additional properties.
- -Features generated by adding the output of a function whose variable is time in addition to feature data is provided in data indicating the internal state of the robot 100 at a certain time point (preference for a person, excitement degree of the robot 100, gaze point, etc.) or in the robot 100 at a certain time point. It is the data output from the sensor.
- This feature is generated by taking into account the output of a function that uses time as a variable, so it can change according to time.
- the features generated from the same feature data have some commonality, it can give the same or almost the same impression to the person who perceives the feature.
- the position and shape of the iris image may change according to the line of sight (or gaze point) of the robot 100.
- the inner image has a darker hue than the outer image, the person who visually recognizes the plurality of eye images 174 Can give the same or almost the same impression.
- the present invention is useful, for example, when setting data in a device such as a robot.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
人の知覚で認識される個性をロボットに持たせることができる技術を提供する。 特徴データ設定システム(200)は、複数のロボット(100)を含むロボット群(202)、ロボット(100)と通信可能な端末装置(204)、および端末装置(204)と通信可能なサーバ(206)を含み、ロボット(100)から出力されることで人の知覚で認識される特徴データをロボット(100)に設定する。そして、特徴データ設定システム(200)は、複数のロボット(100)を含むロボット群(202)において対象ロボット(100A)に固有の特徴データを対象ロボット(100A)に設定する。
Description
本発明は、特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法に関する。
近年、人とのインタラクションが可能な装置の開発が進んでいる。このような装置として、例えば、ペットの代替として機能させるために自律して行動するロボットが挙げられる。
ペットの代替となるロボットには豊かな表現力が求められる。特許文献1にはロボットの目の表現力を高めるために、ロボットの目の位置にモニタを配置して眼画像を表示し、眼画像の多様な動きを表現する技術が開示されている。
犬や猫のような実際のペットは各々独自の個性を有している。個性は、性格や性質などの内面における特徴や、外面における特徴として現れる。外面における特徴のひとつとして、外観をあげると、例えば、同一の犬種であっても、耳、眼、鼻、口、毛色など、見かけは似ていても、どれも固有であり、ひとつとして同一の外観を有する犬は存在しない。一方、工業製品として製造されるロボットは、一般に同一のモデルであれば外観上の違いは無いといえる。
本発明は、人の知覚で認識される個性をロボットに持たせる技術を提供することを目的とする。
本発明の特徴データ装置は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットに固有の前記特徴データを前記対象のロボットに設定する。
本構成は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データを設定する。特徴データとは、人の知覚で認識される情報、例えば人の五感(視覚、聴覚、触覚、味覚、および嗅覚)で認識できる情報であり、より具体的には画像データ、音情報、感触情報、味情報、および臭い情報などである。そして、本構成によれば、複数のロボットを含むロボット群において対象のロボットに固有の特徴データを対象のロボットに設定するので、人の知覚で認識される個性をロボットに持たせることができる。
本発明の特徴データ装置は、前記特徴データを画像表示装置に表示される所定画像を示す画像データとしてもよい。本構成によれば、人が視覚で認識できる所定画像をロボットに特有のものにできる。
本発明の特徴データ装置は、前記画像データを前記ロボットの眼を示す眼画像特徴データとしてもよい。本構成によれば、ロボットの眼をロボットに特有のものにできる。
本発明の特徴データ装置は、前記所定画像が複数枚の画像を組み合わることによって構成されてもよい。本構成によれば、所定画像による表現の幅を広げることができる。
本発明の特徴データ装置は、前記所定画像が静止画像と動画像との組み合わせによって構成されてもよい。本構成によれば、所定画像による表現の幅を広げることができる。
本発明の特徴データ装置は、前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備えてもよい。本構成は、例えばロボットの初回起動時やユーザが自動的な特徴データの設定を希望した場合に、特徴データの候補をロボットに対応する出力装置に出力する。本構成によれば、ユーザは対象のロボットに対して固有の特徴データの設定を簡易に行える。
本発明の特徴データ装置は、ユーザが選択した特徴データを取得する取得手段を備え、前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力してもよい。本構成によれば、ユーザが選択した特徴データが他のロボットで設定中であっても、ユーザは対象のロボットに対して固有の特徴データの設定を簡易に行える。
本発明の特徴データ装置は、前記出力手段が、他のユーザが使用する前記ロボットに設定中の前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力してもよい。本構成によれば、ユーザは、他のユーザが使用するロボットに設定中の特徴データと類似する特徴データを対象のロボットに対して簡易に設定できる。
本発明の特徴データ装置は、前記出力手段が、前記対象のロボットを使用するユーザに関連するユーザ関連情報に基づいた前記特徴データを前記出力装置に出力してもよい。本構成のユーザ関連情報は例えば、ユーザの生体情報やユーザの好み、ユーザの年齢、性別、生年月日などのユーザの性質を示す性質情報であり、本構成によれば、ユーザの情報に応じた特徴データを出力できる。
本発明の特徴データ装置は、第1の前記ロボットで設定中の前記特徴データと第2の前記ロボットで設定中の前記特徴データとに基づいて、前記対象のロボットに設定可能な新たな前記特徴データを生成する生成手段を備えてもよい。本構成によれば、2つのロボットで設定中の特徴データから生成された新たな特徴データを対象のロボットに対して設定できる。
本発明の特徴データ装置は、前記生成手段が、前記第1のロボットと前記第2のロボットとが所定の条件を満たした場合に、前記新たな特徴データを生成してもよい。本構成によれば、条件を満たした場合にのみ新たな特徴データが生成される。
本発明の特徴データ装置は、前記第1のロボットの存在する位置を含む所定領域内に位置する前記第2のロボットに設定されている前記特徴データとは異なる前記特徴データを前記対象のロボットに設定してもよい。本構成によれば、対象のロボットの存在する位置を含む所定領域内に位置する他のロボットで設定中の特徴データが、当該対象のロボットに設定できない特徴データとなる。
本発明の特徴データ装置は、前記特徴データが、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定されてもよい。本構成によれば、ロボットの台数に応じて設定可能な特徴データの幅が変化する。
本発明の特徴データ装置は、前記特徴データが、スピーカーから出力される音を示す音データであってもよい。本構成によれば、人が聴覚で認識できる音をロボットに特有のものにできる。
本発明の特徴データ装置は、前記音データは、前記ロボットの音声を示す音声特徴データであってもよい。本構成によれば、ロボットから出力される音声をロボットに特有のものにできる。
本発明の特徴データ装置は、前記特徴データに前記特徴データの設定状態に基づいた価値を示す価値情報が関連付けられてもよい。本構成によれば、ロボットに設定中の特徴データに価値の概念を与えることができる。
本発明の特徴データ装置は、一の前記ロボットが他の前記ロボットに対する親密度に応じて、前記他のロボットに関連する動作を行い、前記親密度は、前記一のロボットの特徴と前記他のロボットの特徴とが類似している場合に、前記一のロボットの特徴と前記他のロボットの特徴とが非類似の場合よりも高くなってもよい。本構成によれば、一のロボットのユーザは、自身のロボットが親密になった他のロボットの存在を知ることができる。
本発明の特徴データ装置は、前記特徴データが前記対象のロボットの特徴の変化態様を示すデータであってもよい。本構成によれば、ロボットの変化態様をロボットの特徴にできる。
本発明の特徴データ装置は、前記特徴データの一部又は全部が前記特徴データの設定後からの時間の経過とともに所定の規則に従って変化してもよい。本構成によれば、ロボットがあたかも生物であるかのような感覚(生物感)をユーザに与えうる。
本発明の特徴データ装置は、所定の条件充足前は前記対象のロボットのユーザが前記特徴データを変更できず、所定の条件充足後に前記対象のロボットのユーザによる前記特徴データの一部又は全部の変更を可能してもよい。本構成によれば、ロボットの特徴を先天的または後天的にロボット100が獲得した特徴であるかのような印象をユーザに与えうる。
本発明の特徴データ装置は、前記対象のロボットのユーザの属性に応じて、前記対象のロボットに設定可能な前記特徴データの範囲が定められてもよい。本構成によれば、ロボットに設定可能な特徴データがユーザの属性に応じて異なるものにできる。
本発明の特徴データ装置は、前記特徴データが経時的要素を含むデータであってもよい。本構成によれば、特徴データに経時的な変化を与えることができる。
本発明のロボットは、出力装置を備え、前記出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データに基づいて、前記特徴を前記出力装置に出力する。本構成によれば、人の知覚で認識される個性をロボットに持たせることができる。
本発明の端末装置は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを前記ロボットに送信して設定させる。本構成によれば、ロボットに設定される特徴データを当該ロボットに特有のものにできる。
本発明の端末装置は、前記特徴データが、前記ロボットの眼の画像データであり、形状および色の少なくとも一方で特定され、前記形状および前記色の少なくとも一方が対象の前記ロボットに固有とされてもよい。本構成によれば、ユーザはロボットの眼の画像を簡易に当該ロボットに特有のものにできる。
本発明の端末装置は、前記眼の画像データに重畳させる装飾画像を示す装飾画像データを前記ロボットへ送信して設定されてもよい。本構成によれば、ユーザはロボットの眼の画像に対してより独自性を持たせることができる。
本発明の特徴データ設定方法は、出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データを前記ロボットに送信して設定する。本構成によれば、人の知覚で認識される個性をロボットに持たせることができる。
以下、本発明の実施形態の特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法について、図面を参照しながら説明する。なお、以下の実施形態では、特徴データを、一例としてロボットの眼画像として説明する。
(第1実施形態)
本発明の第1実施形態について説明する。図1は、本実施形態のロボット100の外観図であり、図1Aは、ロボット100の正面外観図である。図1Bは、ロボット100の側面外観図である。
本発明の第1実施形態について説明する。図1は、本実施形態のロボット100の外観図であり、図1Aは、ロボット100の正面外観図である。図1Bは、ロボット100の側面外観図である。
本実施形態のロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。ロボット100は、一例として、家屋内を行動範囲とする。
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。
ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪である左輪102a、右輪102b(左輪102a、右輪102bを区別しない場合は、前輪102という。と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。
前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110は、液晶素子または有機EL素子による画像表示が可能である。本実施形態の目110は、有機EL素子を配された平面形状のモニタの上に反射防止フィルムを貼付することで反射防止処置を施される。モニタの上に反射防止処置の施された凸面レンズを取り付けてもよい。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天周カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。
図2は、ロボット100のハードウェア構成図である。ロボット100は、内部センサ128、通信部126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天周カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、ロボット100の外皮と本体フレームの間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
通信部126は、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。
プロセッサ122は、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
スピーカー171は、ロボット100の音声などの音を出力する。
また、プロセッサ122は、ロボット100の仮想的な視線(以下、適宜「ロボット100の視線」という。)も制御する。内部センサ128により得られるさまざまな外部情報もロボット100の視線の制御に影響する。ロボット100の視線は、ロボット100の行動選択に応じた視線(例えば、移動方向に向けた視線)であってもよいし、内部センサ128により得られるさまざまな外部情報に応じた視線(例えば、外部情報に示される特定の物体に向けた視線)であってもよい。
モニタ170は、ロボット100の顔の位置に配置され、ロボット100の目110として表示される眼画像174を表示する画像表示装置である。眼画像174は、眼を複数の要素を重ね合わせることで形成される。それぞれの要素は、例えば、白眼、虹彩、瞳孔、ハイライト、瞼などであり、それらを重ね合わせることで眼画像174が生成される。ロボット100は、内部センサ128から得られる各種の刺激に応じて、絶えず内部状態を示す複数のパラメータが変動している。内部状態を示す複数のパラメータは、例えば、好奇心、恐怖心、承認欲求などであり、それらのパラメータが変化することが、ロボット100の行動を決定するひとつの要因となる。この内部状態は、言うなればロボット100の気持ちであり、時間の経過や外部環境に応じて常に揺らいでいる。一方、生物における目は、物を見るという役割の他に、視線や瞼の動きで、気持ちを伝えるという役割も有する。人は、目から心を察することができ、言葉にしなくてもコミュニケーションをとることができる。こうしたコミュニケーションを期待して、ロボット100は、内部状態に連動して、動的に眼画像174を生成し、ロボット100が興味をもつ方向へ視線を動かしたり、うれしさや、悲しさに応じて、瞼を閉じたり、開いたり変形させることができる。つまり、目110は、内部状態を反映する出力デバイスであって、内部状態に連動して動的に生成された眼画像174を表示することにより、ひとつの意思伝達器官として機能する。
図3は、眼画像174の外観図である。本実施形態では、白眼画像、虹彩画像、瞳孔画像、ハイライト画像、反射画像の5枚の画像を重ね合わせることにより、眼画像174を生成する。また、これら5枚の画像の上に瞼画像が重ねられる。
(L1)白眼画像
白眼画像は、最下層の画像であり、眼画像174の白眼部分(周縁画像168)に対応する。白眼画像は、ロボット100の視線の動きに追随することはない固定の画像である。
(L2)虹彩画像
虹彩画像は、白眼画像の上に重ねられる画像である。虹彩画像は、眼画像174の虹彩領域162に対応する。虹彩画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L3)瞳孔画像
瞳孔画像は、虹彩画像の上に重ねられる。瞳孔画像は、眼画像174の瞳孔領域158に対応する。瞳孔画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L4)ハイライト画像
ハイライト画像は、瞳孔画像の上に重ねられる。ハイライト画像は、眼画像174のキャッチライト166に対応する。ハイライト画像は、ロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は光入射方向に合わせてハイライト画像を移動させることにより、キャッチライト166の位置を調整する。
(L5)反射画像
反射画像は、ハイライト画像の上に重ねられる。反射画像は、瞳への映り込みである。プロセッサ122はロボット100の正面の撮像画像をゆがみなどを補正した上で、反射画像をハイライト画像の上に重ねる。反射画像はロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は撮像画像に合わせて反射画像を変化させる。
(L1)白眼画像
白眼画像は、最下層の画像であり、眼画像174の白眼部分(周縁画像168)に対応する。白眼画像は、ロボット100の視線の動きに追随することはない固定の画像である。
(L2)虹彩画像
虹彩画像は、白眼画像の上に重ねられる画像である。虹彩画像は、眼画像174の虹彩領域162に対応する。虹彩画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L3)瞳孔画像
瞳孔画像は、虹彩画像の上に重ねられる。瞳孔画像は、眼画像174の瞳孔領域158に対応する。瞳孔画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L4)ハイライト画像
ハイライト画像は、瞳孔画像の上に重ねられる。ハイライト画像は、眼画像174のキャッチライト166に対応する。ハイライト画像は、ロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は光入射方向に合わせてハイライト画像を移動させることにより、キャッチライト166の位置を調整する。
(L5)反射画像
反射画像は、ハイライト画像の上に重ねられる。反射画像は、瞳への映り込みである。プロセッサ122はロボット100の正面の撮像画像をゆがみなどを補正した上で、反射画像をハイライト画像の上に重ねる。反射画像はロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は撮像画像に合わせて反射画像を変化させる。
まとめると、白眼画像は眼画像174の「下地」として固定される。瞳孔画像と虹彩画像はロボット100の視線方向に合わせて移動する。ハイライト画像と反射画像は、ロボット100の視線方向とは関係なく、ロボット100の向きに応じて移動する。また、瞳孔画像と虹彩画像は同一方向に動くがその移動量は同一である必要はない。本実施形態では、虹彩画像を第1の方向に第1の移動量だけ動かしたとき、瞳孔画像を第1の方向に第2の移動量だけ移動させる。このとき、第2の移動量は第1の移動量よりも大きな値である。瞳孔の動きと虹彩の動きにわずかなズレをつくることにより、眼画像174の生物感・リアル感をいっそう高めることができる。
眼画像174を形成するそれぞれの要素画像は、形状と色の情報を有する画像データであり、ラスター画像でもベクター画像であってもよい。各要素画像について、形状と色の組み合わせを変えた複数の画像が用意される。要素画像毎に任意の画像が選ばれ、それらの要素画像を予め決められた順番で重ね合わせることで様々な種類の特徴のある眼画像174が形成される。内部状態を反映させて眼画像174が生成される場合であっても、各要素画像を移動させて重ね合わせるという処理は変わらないので、様々な見た目の眼画像174が動的に生成される。こうして生成される眼画像174は、視線の向きなどに応じて変化するが、色や形状の組み合わせでうまれる視覚的な特徴は維持される。
例えば、白眼画像として、「白」と「ピンク」の画像を用意し、紅彩画像として、「黒」と「青」の画像を用意する。白眼画像として、「白」を選択し、紅彩画像として「青」を選択して、眼画像174が形成されてもよいし、白眼画像として「ピンク」を選択し、紅彩画像として「黒」を選択して、眼画像174が形成されてもよい。このように形成された眼画像174は、人の視覚を使って識別可能なものであり、ロボット100の個体毎の特徴となる。複数の要素画像を重ね合わせることで眼画像174が形成されるので、各要素画像の種類を調整したり、眼画像174を形成する要素画像の枚数を調整したりすることで、視覚的に異なる種類の眼画像174が多数形成され、実質的に無限といえるほどの眼画像174が形成可能となる。
図4は、本実施形態の特徴データ設定システム200の全体図である。特徴データ設定システム200は、複数のロボット100を含むロボット群202において、それぞれのロボット100に固有の眼画像174を表示させる。ロボット群202は、ひとつでもよいし、所定の条件に基づき複数あってもよい。それぞれのロボット100は、自身が属するロボット群202において、重複することの無い固有の眼画像174を表示できる。「目は心の鏡」と言われるように、目は、その人を知るための重要な要素として考えられる。コミュニケーションの対象がロボット100であっても、ロボット100に目があれば、人は無意識にその目を見て、ロボット100とのコミュニケーションを実現しようとする。このようにコミュニケーションにおいて、特に注目される目を表現するデバイスに、固有の眼を表示させることで、工業製品として製造されるロボット100に、直観的な個性を持たせることができる。これにより、ユーザに特別な存在として意識され、犬や猫などのペットと同じようにロボット100に対する愛着の形成を促すことが期待される。
特徴データ設定システム200は、複数のロボット100A,100B,100C,100Dを含むロボット群202、ロボット100と通信可能な端末装置204、および端末装置204A,204B,204Cと通信可能なサーバ206を含み、ロボット100A,100B,100C,100Dから出力されることで人の知覚で認識される特徴データをロボット100A,100B,100C,100Dに設定する。
以下の説明において、ロボット100A,100B,100C,100Dを区別する場合は、符号の末尾にAからDの何れかを付し、各ロボット100A,100B,100C,100Dを区別しない場合は、AからDを省略する。また、以下の説明において、端末装置204A,204B,204Cを区別する場合は、符号の末尾にAからCの何れかを付し、端末装置204A,204B,204Cを区別しない場合は、AからDを省略する。また、図4に示されるロボット群202に含まれるロボット100の数は一例であり、これに限定されない。
なお、サーバ206は、各ロボット100との通信が可能とされている。また、各ロボット100は、近距離に存在するロボット100同士での通信も可能とされている。
ロボット100のユーザは、各々を識別する識別情報(以下「識別ID」という。)が付与されている。識別IDは、一例として、複数のアルファベットと数字の組み合わせである。識別IDは、ロボット100に対応付けられており、対応付けられているロボット100の設定の変更やロボット100の状態閲覧などの可否が登録されている。より具体的には、識別IDは、一例として、ロボット100の全ての設定の変更などが可能な第1権限、一部の設定の変更などが可能な第2権限、設定の変更ができない第3権限とのように権限によって区別される。なお、本実施形態では全ての識別IDはロボット100の状態閲覧が可能とされている。本実施形態では、以下に説明する特徴データの変更は第1権限が登録されている識別IDで可能とされる。
また、ロボット100の設定変更や状態閲覧などは、端末装置204を介して行われる。すなわち、ユーザは、端末装置204に自身に付与されている識別IDを入力することにより、当該識別IDと対応付けられているロボット100への端末装置204を介したアクセスが可能となる。そして、ユーザは、この端末装置204を介してロボット100の設定変更や状態閲覧などを行う。なお、図4の例では、端末装置100Aが、ロボット100Aに対応付けられた識別IDが入力され、ロボット100Aとアクセス可能な端末装置204である。同様に端末装置204Bが、ロボット100Bとアクセス可能であり、端末装置204Cがロボット100Cとアクセス可能である。また、本実施形態の端末装置204は、複数の識別IDの入力が可能とされ、一つで複数のロボット100とアクセス可能とされている。例えば、図4に示される端末装置204Cは、ロボット100Cおよびロボット100Dと選択的に切り替えてアクセスできる。
ここで、特徴データは、人の知覚で認識される情報、例えば、人の五感(視覚、聴覚、触覚、味覚、および嗅覚)で認識できる情報であり、より具体的には画像データ、音データ、感触データ、味データ、および臭いデータなどである。
そして、本実施形態の特徴データ設定システム200は、出力装置からユーザが知覚可能な形態で出力されるロボット100の特徴を示す特徴データのうち、複数のロボット100を含むロボット群202において対象のロボット(以下「対象ロボット」という。)100Aに固有の特徴データを対象ロボット100Aに設定する。換言すると、対象ロボット100Aの特徴データは、他のロボット100B,100C,100Dとは異なる固有のものである。これにより、特徴データ設定システム200は、対象ロボット100Aの特徴データが他のロボット100B,100C,100Dとは重複しない対象ロボット100Aに特有のものになり、人の知覚で認識される個性をロボット100に持たせることができる。以下の説明において、他のロボット100B,100C,100Dを区別する場合は、符号の末尾にBからDの何れかを付し、他のロボット100B,100C,100Dを区別しない場合は、BからDを省略し、単に他のロボット100とする。
なお、ロボット100は自身が含まれるロボット群202の範囲内で、特徴データが固有とされる。ここで、サーバ206は、ロボット群202に含まれるロボット100に設定中の特徴データを管理するものである。換言すると、ロボット群202はサーバ206で管理されているロボット100の集団である。
そしてロボット群202は最低2つのロボット100で構成されていればよく、ロボット群202に含まれるロボット100の範囲は、例えばロボット100の製造会社などにより任意に決定されるものであり、客観的な条件に基づいて決定される。例えば、ロボット群202に含まれるロボット100は、製造済みの全てのロボット100としてもよいし、ロボット100が存在する地域で特定されてもよいし、ロボット100の機種や、予め定められた範囲の製造年月日、ロボット100のセンサで検出されたロボット100が着用した服の色や種類などのロボット100のアイテム、ロボット100に設定された性別などのロボット100に個性を与えるための他の設定値によって特定されてもよい。
そして、本実施形態の特徴データは、一例として、ロボット100のモニタ170に表示される眼画像174を構成する基礎となる画像の特徴データとする。すなわち、画像の特徴データ(画像の各特徴を示すパラメータのセット)を基礎として眼画像174が生成され、図4の眼画像174の拡大図(一点鎖線内の眼画像174)に示されるように、ロボット群202に含まれる各ロボット100の眼画像174は互いに異なるものとされる。また、モニタ170が、本発明の「出力装置」の一例に相当する。また、眼画像174が本発明の「ロボットの特徴」の一例に相当する。また、上述したように、ロボットの特徴は、特徴データを基礎として生成されうる。
また、本実施形態の眼画像174は、上述のように、複数枚の画像の組み合わせによって構成されており、これらの画像の各々にパラメータが設定されている。
パラメータは、例えば眼画像174の形状、色、彩度、明度などを指定するための数値である。より具体的には、眼画像174は、一例として上述のように、白眼画像、虹彩画像、瞳孔画像、ハイライト画像、反射画像の5枚の画像(レイヤ)で構成される。これらの画像(レイヤ)毎に1または複数種類のパラメータが設定され、設定されたパラメータに応じて各画像が生成される。なお、画像毎に設定される1または複数のパラメータを総じてパラメータセットともいう。すなわち、本実施形態の眼画像174を生成するための眼画像特徴データは、5つのパラメータセット(第1パラメータセットから第5パラメータセット)によって生成される。なお、パラメータセットは、1種類または複数種類のパラメータからなる。そして、パラメータセットと他のパラメータセットとが互いに異なるとは、その中に含まれる少なくとも1種類のパラメータの値が互いに異なることを意味する。
このように、本実施形態の特徴データ設定システム200は、眼画像174を生成するために設定される複数のパラメータセットの組み合わせを、対象ロボット100Aと同一のロボット群202に所属する他のロボット100のいずれのパラメータセットの組み合わせとも異なる独自の組み合わせとなるように対象ロボット100Aに設定する。具体的には、端末装置204Aがサーバ206と通信することにより、設定候補のパラメータセットの組み合わせが、対象ロボット100Aが所属するロボット群202と同一のロボット群202に所属する他のロボット100に設定されているパラメータセットの組み合わせかのいずれとも異なるかどうかをサーバ206が判定する。端末装置204Aは、当該判定結果が肯定的な場合(いずれとも異なる場合)に、当該パラメータセットの組み合わせによって生成された眼画像特徴データを対象ロボット100Aに設定するとともに、設定したパラメータセットの組み合わせをサーバ206へ送信する。
また、眼画像特徴データから生成される眼画像174は、静止画像と動画像との組み合わせによって構成され、静止画像および動画像のそれぞれにパラメータセットが設定されてもよい。例えば、ロボット100のモニタ170には瞼画像が眼画像174に重ねて表示され、瞼の開閉が動画で表現される。そして、瞼の形状や色、開閉速度、開閉間隔などがパラメータセットにより設定可能とされる。
以上説明したように、ロボット100の眼画像174をロボット100毎にユニークな眼画像174であることを保障する仕組みにより、ロボット100は唯一無二の存在になり、ユーザはロボット100を自身だけの特別な存在として感じることができる。これにより、例えば、ユーザが自身のロボット100同士を持ち寄り、それぞれが使用するロボット100を見比べることで、外観的な違いを実感でき、外観の違いを認識することが、それぞれの個体の内面的な違いを見出そうとする契機のひとつになる。そして、ユーザが、ロボット100に対して意識を向けることが、ロボット100に対する愛情や愛着を形成する助けとなる。
次に特徴データ設定システム200を構成する端末装置204およびサーバ206について詳細に説明する。
端末装置204は、一台または複数台のロボット100に関連付けられている。このため端末装置204には、関連付けられたロボット100に対する各種設定を行ったり、関連付けられたロボット100の状態をディスプレイに表示するためのアプリケーション・プログラム(以下「ロボットアプリ」という。)がインストールされている。なお、端末装置204は、一例として、ディスプレイをタッチパネルディスプレイ210とするスマートフォンなどの携帯端末装置であるが、ロボット100との通信が可能な情報処理装置であれば、スマートフォンに限らず、ラップトップ型のコンピュータやデスクトップ型のコンピュータなど、他の情報処理装置でもよい。
サーバ206は、端末装置204との間でロボット100に関する各種データを送受信する。そして、サーバ206は、端末装置204から送信された各種データの記憶、端末装置204から受信したデータに基づいた処理の実行、生成した各種データの端末装置204への送信を行う。
なお、端末装置204およびサーバ206は、例えば、CPU(Central Processing Unit)などのプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、およびコンピュータで読み取り可能な記憶媒体などで構成されている。そして、各種機能を実現するための一連の処理は、一例として、プログラムの形式で記憶媒体などに記憶されており、このプログラムをCPUがRAMなどに読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。
図5は、特徴データ設定システム200の機能ブロック図である。なお、特徴データ設定システム200の各機能は、端末装置204およびサーバ206のCPUやロボット100のプロセッサ122がプログラムを実行することによって実現される。
端末装置204は、上述のタッチパネルディスプレイ210の他に、通信部212、記憶部214、画像表示制御部216、入力操作受付部218、および眼画像設定指示部220を備える。
通信部212は、予め登録している対象ロボット100Aやサーバ206、および他の情報処理装置などと各種データの送受信を行う通信モジュールである。
記憶部214は、コンピュータで読み取り可能な記憶媒体であり、ロボットアプリやロボット100に関する各種情報を記憶する。
画像表示制御部216は、画像データに基づいた画像(例えば詳細を後述するアプリ画像260)を表示するようにタッチパネルディスプレイ210を制御する。
入力操作受付部218は、ユーザによる端末装置204への入力操作を受け付ける。具体的には入力操作受付部218は、タッチパネルディスプレイ210に表示されたアプリ画像を介して、ユーザがロボット100に設定する眼画像特徴データの入力を受け付ける。入力操作受付部218によって受け付けられた眼画像特徴データは、通信部212を介してサーバ206へ送信される。そして、詳細を後述するようにサーバ206は、当該眼画像特徴データが他のロボット100で設定中であるか否か、すなわち対象ロボット100Aに固有の眼画像特徴データとなり得ることを判定する。
眼画像設定指示部220は、対象ロボット100Aに固有の眼画像特徴データを通信部212を介してロボット100へ送信する。
サーバ206は、通信部230、記憶部232、眼画像判定部234、選択眼画像取得部236、および眼画像出力部238を備える。
通信部230は、端末装置204および他の情報処理装置などと各種データの送受信を行う通信モジュールである。
記憶部232は、コンピュータで読み取り可能な記憶媒体であり、端末装置204から送信されるロボット100やロボット100のユーザに関する各種情報を記憶する。なお、サーバ206は、ロボット群202に含まれる各ロボット100に設定中の眼画像特徴データを端末装置204から受信し、記憶部232に記憶する。なお、ロボット100に設定されなくなった眼画像特徴データは、サーバ206の記憶部232から消去されてもよいし、眼画像特徴データに設定中でないことを示すフラグが関連付けられることで、眼画像特徴データの使用状況が管理されてもよい。また、記憶部232は、眼画像特徴データの使用実績を蓄積してもよい。例えば、記憶部232は、眼画像特徴データ毎に、ロボット100に設定された日時と、そのロボット100を特定するための識別IDと、そのロボット100から設定が解除された日時を記録する。記憶部232が眼画像特徴データの使用実績を蓄積することにより、眼画像特徴データ毎にロボット100に設定されていた期間を集計できるとともに、ロボット100を所有するユーザの属性などから眼画像特徴データを好むユーザの傾向を統計的に類推できる。
眼画像判定部234は、対象ロボット100Aに設定する眼画像特徴データが同一のロボット群202に所属する他のロボット100に設定中の眼画像特徴データのいずれとも異なる固有の眼画像特徴データであるか否かを判定する。具体的には、眼画像判定部234は、ユーザが対象ロボット100Aに設定しようとする眼画像特徴データ(選択眼画像特徴データ)が、記憶部232に記憶されている他のロボット100に設定中の眼画像特徴データのいずれとも異なるか否かを判定する。
選択眼画像取得部236は、端末装置204を用いてユーザが選択した眼画像特徴データ(以下「選択眼画像特徴データ」という。)を取得する。なお、眼画像特徴データの取得とは、当該眼画像特徴データを生成するためのパラメータの取得を意味する。
眼画像出力部238は、ロボット群202に含まれる他のロボット100に設定中の眼画像特徴データのいずれとも異なる眼画像特徴データの候補(以下「候補眼画像特徴データ」という。)をユーザが知覚可能な出力装置に出力する。すなわち、眼画像出力部238は、候補眼画像データを生成し、対象ロボット100Aの識別IDが入力された端末装置204に通信部230を介して候補眼画像特徴データを送信し、端末装置204のタッチパネルディスプレイ210を介してユーザに候補眼画像特徴データを出力する。すなわち、本実施形態においてユーザが知覚可能な出力装置は、端末装置204のタッチパネルディスプレイ210である。
眼画像出力部238は、例えばロボット100の初回起動時、眼画像特徴データの使用期限が所定期間前になった場合、またはユーザ眼画像特徴データの手動設定を行う指示を端末装置204のタッチパネルディスプレイ210を介して受け付けた場合などに、眼画像特徴データの候補をタッチパネルディスプレイ210に出力する。これにより、ユーザは眼画像特徴データの設定を簡易に行える。また、眼画像出力部238は、一度に複数の異なる候補眼画像特徴データをユーザに出力してもよい。ユーザは、複数の候補眼画像特徴データが出力された場合、複数の候補眼画像特徴データから一つをロボット100に設定する眼画像特徴データとして選択する。
なお、眼画像出力部238は、選択眼画像取得部236で取得した眼画像特徴データが他のロボット100で設定されている場合、当該眼画像特徴データに対して所定の類似範囲内にある眼画像特徴データを出力してもよい。これによれば、眼画像出力部238は、ユーザが選択した眼画像特徴データが既に他のロボット100で設定中であった場合に、ユーザが好むと想定される他の候補眼画像特徴データを出力できる。
類似範囲内にある眼画像特徴データとは、例えば以下の(1)の眼画像特徴データであってもよいし、(2)の眼画像特徴データであってもよい。
(1) 眼画像特徴データが、RGBなどの連続的または断続的なパラメータで表される場合、数的に近い眼画像特徴データ。より具体的には、選択眼画像特徴データを表すパラメータに対して所定範囲内(例えば±5%以内など)にある眼画像特徴データ。眼画像特徴データが複数のパラメータにより表される場合には、一部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にあり、残りのパラメータが同一のパラメータである眼画像特徴データであってもよいし、全部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にある眼画像特徴データであってもよい。
(2) 2つの異なる眼画像特徴データを入力とし、当該2つの眼画像特徴データの類似度を出力するモデルを用いて、選択眼画像特徴データとの類似度を判定した場合、所定の類似度以上となる眼画像特徴データ。
(1) 眼画像特徴データが、RGBなどの連続的または断続的なパラメータで表される場合、数的に近い眼画像特徴データ。より具体的には、選択眼画像特徴データを表すパラメータに対して所定範囲内(例えば±5%以内など)にある眼画像特徴データ。眼画像特徴データが複数のパラメータにより表される場合には、一部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にあり、残りのパラメータが同一のパラメータである眼画像特徴データであってもよいし、全部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にある眼画像特徴データであってもよい。
(2) 2つの異なる眼画像特徴データを入力とし、当該2つの眼画像特徴データの類似度を出力するモデルを用いて、選択眼画像特徴データとの類似度を判定した場合、所定の類似度以上となる眼画像特徴データ。
換言すれば、(1)は、眼画像特徴データを表すパラメータという眼画像特徴データの構成要素が類似の範囲にある眼画像特徴データといえ、(2)は、例えば、人が評価した類似度を教師データとして学習したモデルを用いた場合には、眼画像特徴データそのものの人による評価が類似の範囲にある眼画像特徴データといえる。
また、ユーザが選択した選択眼画像特徴データに類似した眼画像特徴データを眼画像出力部238が候補眼画像特徴データとして生成する場合、眼画像特徴データは、ロボット群202に含まれるロボット100の台数に応じて、他のロボット100で設定中の眼画像特徴データと近接して設定可能な幅(以下「近接範囲」ともいう。)が決定されてもよい。ロボット100の台数とは、例えばロボット100の出荷台数や起動済みのロボット100の台数などであり、ロボット100の台数が増加すると眼画像特徴データの近接範囲が広がるように予め定められてもよいし、ロボット100の台数が増加すると眼画像特徴データの近接範囲が狭まるように予め定められてもよい。なお、他のロボット100で設定中の眼画像特徴データとは言い換えると、対象ロボット100Aのユーザが選択した選択眼画像特徴データである。また近接範囲は、上記類似範囲と同一の範囲であってもよいし、類似範囲よりも狭い範囲であってもよい。上記近接範囲が広がると、選択眼画像特徴データが他のロボット100で設定中である場合に、眼画像出力部238によって出力可能な候補眼画像特徴データの数が増加し、ユーザによる候補眼画像特徴データの選択の幅が広がる。
また、眼画像出力部238は、予め定められた他のユーザまたはユーザにより指定された他のユーザが使用する他のロボット100に設定中の眼画像特徴データに対して所定の類似範囲内にある眼画像特徴データを出力してもよい。他のユーザとは例えば著名なユーザであり、眼画像出力部238は、他のユーザが設定している眼画像特徴データをタッチパネルディスプレイ210に出力できる。
また、眼画像出力部238は、対象ロボット100Aを使用するユーザに関連するユーザ関連情報に基づいて、眼画像特徴データをタッチパネルディスプレイ210に出力してもよい。ユーザ関連情報は例えば、ユーザの生体情報や、ユーザの嗜好を示す嗜好情報、ユーザの年齢、性別、生年月日などのユーザの性質を示す性質情報である。
例えば、眼画像出力部238は、対象ロボット100Aを使用するユーザに関連するユーザ関連情報の一部が同一または所定の範囲内のユーザが使用しているロボット100Bの眼画像特徴データの類似範囲にある眼画像特徴データをタッチパネルディスプレイ210に出力してもよい。
具体的には、記憶部232に記憶された対象ロボット100Aを使用するユーザのユーザ関連情報(ロボット100Aの識別IDに関連付けられたユーザ関連情報)が、40歳、男性を示す情報である場合、眼画像出力部238は、40歳、男性を条件としてユーザ関連情報を記憶部232から検索する。眼画像出力部238は、検索されたユーザ関連情報に関連付けられたロボット100の識別IDを認識する。眼画像出力部238は、当該ロボット100の識別IDに関連付けられた眼画像特徴データを認識する。眼画像出力部238は、認識された眼画像特徴データの類似範囲にある眼画像特徴データを候補眼画像特徴データとしてタッチパネルディスプレイ210に出力する。
また、眼画像出力部238は、記憶部232に記憶されている眼画像特徴データの使用実績に基づいて、対象ロボット100Aを使用するユーザが好む眼画像特徴データを推定して、その推定条件に該当する眼画像特徴データを眼画像特徴データの候補として出力してもよい。
ロボット100は、上述の記憶装置124、通信部126、およびモニタ170の他に、眼画像設定部250を備える。
眼画像設定部250は、端末装置204から送信された眼画像特徴データを目110として設定する。これにより、目110を表示するモニタ170には対象ロボット100Aに固有の眼画像174が表示されることになる。
図6は、端末装置204のタッチパネルディスプレイ210に表示される眼画像174の設定に関するアプリ画像の一例である。なお、図6に示されるアプリ画像の構成およびアプリ画像を用いた眼画像174の設定方法は一例であり、これに限定されない。また、各アプリ画像には、対象ロボット100Aに設定される眼画像174が適宜プレビュー表示される。また、ユーザによる各種ボタンに対する入力操作などは、タッチパネルディスプレイ210を介して、端末装置204が備える入力操作受付部218が受け付ける。
図6Aは、ロボットアプリを起動して眼画像174の設定を行う場合に、タッチパネルディスプレイ210に表示されるアプリ画像260Aである。アプリ画像260Aに含まれる各種ボタンが押されることで、各々のボタンに対応した他のアプリ画像260B,260C,260D,260Eがタッチパネルディスプレイ210に表示される。なお、アプリ画像260Aには対象ロボット100Aに現在設定されている眼画像174を含むロボット100の顔全体を示すプレビュー画像262Aが表示される。
図6Bは、アプリ画像260Aのプリセットボタン264が押された場合に表示されるアプリ画像260Bである。アプリ画像260Bでは、眼画像174の予め定められた形状のうちから一つの形状をユーザが選択する。言い換えると、ユーザはアプリ画像260Bを介して、眼画像174の形状を示すパラメータを選択する。ユーザが選択した眼画像174の形状はプレビュー画像262Bとして表示される。より具体的には、アプリ画像260Bには眼画像174の形状を示した形状画像267が複数表示され、ユーザは、複数の形状画像267のうち一つを選択する。なお、図6Bのアプリ画像260Bには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった新たな形状画像267が表示される。また、「おまかせ」と記されたボタン268をユーザが選択した場合には、眼画像174の形状がランダムに決定される。ユーザによって眼画像174の形状が選択された後に「次へ」と表記されたボタン269が押されると、アプリ画像260Bは図6Cに示されるアプリ画像260Cへ変化する。
アプリ画像260Cは、アプリ画像260Bでユーザが選択した形状に対して色を付加した眼画像174のプレビュー画像262Cが表示される。そして、ユーザが決定ボタン270を押すとプレビュー画像262Cで表示された眼画像174が対象ロボット100Aに設定される。
アプリ画像260Cにプレビュー表示される眼画像174は、特徴データ設定システム200が他のロボット100に設定されていない固有の色の眼画像174を自動的に生成したものである。眼画像出力部238は、眼画像174の色などを示すパラメータセットを選択し、これをユーザが選択した形状のパラメータセットと組み合わせることで、候補眼画像特徴データを生成する。また、アプリ画像260Bで選択可能な眼画像174の形状やアプリ画像260Cとして出力される眼画像174は、対象ロボット100Aが着用している服などのロボット100のアイテムに応じて決定されてもよい。対象ロボット100Aが着用している服などのロボット100のアイテムは、例えば、対象ロボット100Aに設けられたセンサが、アイテムに固有のタグを読み取ることにより識別される。また、カメラにより撮像された画像からロボット100の色などを解析するなどして、対象ロボット100Aが着用している服などのロボット100のアイテムが識別されてもよい。
なお、「もう一度作る」と表記されたボタン271をユーザが押すと眼画像174の自動生成が新たに行われ、新たな眼画像174のプレビュー画像262Cがアプリ画像260Cに表示される。ユーザがボタン271を押す場合とは、ユーザが好む眼画像174が生成されなかった場合である。また、「ロボットで見てみる」と表記されたボタン272をユーザが押すと、プレビュー画像262Cに示される眼画像174が対象ロボット100Aのモニタ170に表示される。そして、ユーザは、ボタン271またはボタン272を押した後に当該眼画像174を対象ロボット100Aに設定する場合には決定ボタン270を押す。
図6Dは、アプリ画像260Aのカラコンボタン266が押された場合に表示されるアプリ画像260Dである。カラコンとは、プリセットで設定された眼画像174に所定の透過率で重畳される装飾画像である。なお、カラコンは、アプリ画像260Dでユーザが選択した装飾画像を示す装飾画像データ(以下「カラコンデータ」という。)が対象ロボット100Aに送信され、設定された眼画像174に当該装飾画像が所定の透過率で重畳して表示される。透過率はユーザによって任意に設定可能とされてもよく、透過率が低いほど眼画像174に対してカラコンの色が薄く重畳される。本実施形態のカラコンは、一例として、単色または複数色で形成される色であるが、これに限らず、模様や星型などの画像であってもよい。このような眼画像174に対するカラコンの設定により、ユーザは対象ロボット100Aの眼画像174に対してより独自性を持たせることができる。
なお、図6Dに示されるアプリ画像260Dには、カラコンの色を示したカラコン画像273が複数表示される。アプリ画像260Dには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった新たなカラコン画像273が表示される。また、「なし」と表記されたボタン274をユーザが選択した場合には、カラコンは設定されない。「決定」と表記されたボタン275をユーザが押すと、ユーザの選択に応じたカラコン画像273が対象ロボット100Aに設定される。
ここで、プリセットとカラコンの変更可否の例について説明する。なお、変更不可とは、例えば、対象ロボット100Aの工場出荷後における最初の起動時の設定がなされると、一定期間経過するなどの条件が満たされるか、工場出荷状態にリセットするまで眼画像174の設定を変更できないことをいう。なお、対象ロボット100Aの眼画像174は、工場出荷時、言い換えると初期状態では固有のものではなく共通の眼画像174(以下「デフォルト眼画像」という。)である。すなわち、デフォルト眼画像は、他のロボット100との重複が許され、占有はできない眼画像174である。
プリセットによって設定される眼画像特徴データは、一例として、対象ロボット100Aの最初の起動時に設定されるとその変更が不可とされてもよいし、例えば眼画像174の形状など、一部のパラメータのみの変更が不可とされ、他のパラメータは変更可能とされてもよい。一方、カラコンは、ユーザにより任意に変更可能とされてもよい。
また、プリセットによって設定される眼画像174は、対象ロボット100Aに固有のものとする一方、カラコンは他のロボット100と同じとなることを許容してもよいし、カラコンも他のロボット100のカラコンの色と異なり対象ロボット100Aに固有のものとしてもよい。
また、本実施形態のプリセットによって設定される眼画像174(以下「プリセット眼画像」という。)は、設定後に遅滞なく対象ロボット100Aのモニタ170に表示されるが、これに限られず、例えば、現在設定中の眼画像174から徐々にプリセット眼画像に変化してもよい。より具体的には、デフォルト眼画像がモニタ170に表示されている場合にはデフォルト眼画像が所定期間(例えば1日)をかけてプリセット眼画像に変化する。また、既に固有の眼画像174がモニタ170に表示されている場合には当該固有の眼画像174が所定期間をかけてプリセット眼画像に変化する。プリセット眼画像への変化途中の眼画像174は、ロボット100の眼画像174として一時的に表示されるものであるため、他のロボット100に設定中の眼画像174と同じものが含まれてもよいし、他のロボット100に設定中の眼画像174と同じものが含まれないようにしてもよい。
さらに、変化途中の眼画像174は、例えば、ユーザ関連情報に基づいて変化してもよい。例えば、ユーザの嗜好情報にユーザが好む色の情報が含まれている場合には、当該色が強調された変化となってもよいし、ユーザの生年月日に対応する季節を想起させるような色(例えばユーザが冬に生まれた場合には白色)が強調された変化となってもよい。
図6Eは、アプリ画像260Aの履歴ボタン276が押された場合に表示されるアプリ画像260Eである。アプリ画像260Eには、ユーザが過去に設定した複数の眼画像174が一覧表示される。すなわち、特徴データ設定システム200(端末装置204またはサーバ206)には、ユーザが過去に設定した眼画像特徴データの履歴が記憶されている。そして、ユーザは、アプリ画像260Eを介して、過去に設定した眼画像特徴データの履歴の中から選択された一つの眼画像特徴データ(選択眼画像特徴データ)を対象ロボット100Aに設定できる。
図6Eに示されるアプリ画像260Eには、過去に設定した眼画像特徴データを示す眼画像174を示す過去設定眼画像278が複数表示される。アプリ画像260Eには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった過去設定眼画像278が表示される。そして、「決定」と表記されたボタン277をユーザが押すと、ユーザの選択に応じた過去設定眼画像278が対象ロボット100Aに設定される。なお、過去設定眼画像278の下に表示される数字(図6Eの例では左から“3”、“6”、“7”)はアプリ画像260Bによって設定された形状画像267の下に表示される番号、すなわち眼画像174の形状に対応する。
アプリ画像260Eを介してユーザが選択した過去設定眼画像278を示す選択眼画像特徴データは、眼画像判定部234によって、対象ロボット100Aが含まれるロボット群202の他のロボット100に設定中でない眼画像特徴データであるか否かが判定される。すなわち、記憶されている眼画像特徴データであっても他のロボット100によって設定中の眼画像特徴データは、対象ロボット100Aに設定できない。これによれば、ユーザが記憶させている眼画像特徴データであっても、設定中でない眼画像特徴データであれば他のロボット100で設定することが許容されるので、他のロボット100のユーザによる眼画像特徴データの選択の幅を制限しない。
また、ユーザが選択した選択眼画像特徴データが他のロボット100に設定中であった場合、特徴データ設定システム200は、当該選択眼画像特徴データの類似範囲内であり、かつ他のロボット100に設定されていない眼画像特徴データを眼画像出力部238が出力し、アプリ画像260Eを介してユーザに提示される。
また、特徴データ設定システム200は、所定条件(以下「複数記憶条件」)を満たした場合に、複数の眼画像174(眼画像特徴データ)を記憶可能としてもよい。複数記憶条件は、例えば、所定のポイントの獲得や、所定の金額の課金である。また、ポイントなどの増加とともに記憶できる眼画像174の数(ストック数)が増加してもよい。
図7は、本実施形態の眼画像設定処理の流れの一例を示すフローチャートである。眼画像設定処理は、例えば、ユーザが端末装置204でロボットアプリを起動させ、アプリ画像260をタッチパネルディスプレイ210に表示させた場合に実行される。
まず、ステップS100では、プリセットボタン264が押されることによってプリセットが選択されたか否かを入力操作受付部218が判定し、プリセットボタン264が押された場合はステップS102へ移行し、プリセットボタン264が押されていない状態ではステップS112へ移行する。
次のステップS102では、アプリ画像260Bを介してユーザが選択した眼画像174の形状を入力操作受付部218が受け付ける。そして、ユーザが選択した眼画像174の形状を示すパラメータセットが通信部212を介してサーバ206へ送信されることで、選択眼画像取得部236が眼画像174の形状を取得する。
次のステップS104では、ユーザが選択した眼画像174の形状に対して眼画像出力部238が色を付加した一または複数の候補眼画像特徴データを生成し、端末装置204のタッチパネルディスプレイ210に出力する。このように候補眼画像特徴データは、アプリ画像260Cに表示されることでユーザに提示される。また、タッチパネルディスプレイ210に出力される候補眼画像特徴データは、一つだけでなく、複数でもよい。なお、出力されている候補眼画像特徴データを生成するためのパラメータセットは、出力中に他のロボット100によって設定されないようにロックがかけられる。このロックは、対象ロボット100に設定する候補眼画像データをユーザが決定した場合に解除される。
次のステップS106では、タッチパネルディスプレイ210に出力(アプリ画像260C)に表示されることで提示された候補眼画像特徴データをユーザが選択したか否かを入力操作受付部218が判定する。そして、ユーザが候補眼画像特徴データを選択した場合にはステップS108へ移行する。一方で、ユーザが候補眼画像特徴データを選択しなかった場合にはステップS104へ戻り、入力操作受付部218が他の候補眼画像特徴データをタッチパネルディスプレイ210に出力(アプリ画像260Cに表示)する。なお、ユーザが候補眼画像特徴データを選択しなかった場合とは、アプリ画像260Cのボタン271をユーザが押した場合である。
ステップS108では、ユーザが選択した候補眼画像特徴データを対象ロボット100Aに設定する。具体的には、端末装置204が備える眼画像設定指示部220が眼画像特徴データを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aが眼画像特徴データ受信すると、眼画像設定部250は当該眼画像特徴データをロボット100の目110として設定し、眼画像174をモニタ170に表示する。
次のステップS110では、対象ロボット100Aに設定中の眼画像特徴データを端末装置204がサーバ206へ送信し、サーバ206が眼画像特徴データを記憶部232に記憶すると、本眼画像設定処理が終了する。
一方、ステップS100でプリセットが選択されなかった場合に移行するステップS112では、カラコンボタン266が押されることによってカラコンが選択されたか否かを入力操作受付部218が判定する。肯定判定の場合はステップS114へ移行し、否定判定の場合はステップS100へ戻る。
ステップS114では、アプリ画像260Dを介してユーザが選択したカラコンの色を入力操作受付部218が受け付ける。
次のステップS116では、ユーザが選択したカラコンを対象ロボット100Aに設定する。具体的には、眼画像設定指示部220がカラコンデータを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aがカラコンデータを受信すると、眼画像設定部250は当該カラコンデータを眼画像特徴データに重畳した眼画像174をモニタ170に表示する。
(第2実施形態)
次に本発明の第2実施形態について説明する。なお、本実施形態の特徴データ設定システム200の構成は、第1実施形態の特徴データ設定システム200の構成と同様であるので説明を省略する。
次に本発明の第2実施形態について説明する。なお、本実施形態の特徴データ設定システム200の構成は、第1実施形態の特徴データ設定システム200の構成と同様であるので説明を省略する。
第1実施形態では、ユーザがロボット100の目110の形状を選択した後に、プリセットにより眼画像出力部238が出力した候補眼画像特徴データからユーザが選択する形態について説明したが、本実施形態では、ユーザが自ら眼画像特徴データを生成するパラメータセットを選択し、これにより生成される選択眼画像特徴データが他のロボット100に設定されているか否かを判定する形態について説明する。
図8は、本実施形態の眼画像設定処理の流れの一例を示すフローチャートである。なお、本実施形態の眼画像設定処理は、例えば、ユーザが端末装置204でロボットアプリを起動させ、眼画像174の手動設定を選択した場合に実行される。すなわち、本実施形態のロボットアプリには、上述したプリセットやカラコンの設定の他に、手動設定が選択可能とされている。
まず、ステップS200では、ユーザによる眼画像特徴データの選択を受け付ける。なお、本実施形態の端末装置204のタッチパネルディスプレイ210には、眼画像174の形状や白眼画像、虹彩画像、瞳孔画像、ハイライト画像の色をユーザが選択するためのスライドバーなどの選択画像が表示される。ユーザは、タッチパネルディスプレイ210に表示される選択画像を操作、具体的にはスライドバーの位置調整などを行うことで、眼画像174の形状や色を選択する。
次のステップS202では、対象ロボット100Aのユーザが端末装置204を用いて選択した選択眼画像特徴データをサーバ206の選択眼画像取得部236が取得する。この選択眼画像特徴データは、ユーザが選択した眼画像174の形状や色などのパラメータセットで構成される。
次のステップS204では、取得した選択眼画像特徴データが他のロボット100で設定中であるか否かを眼画像判定部234が判定する。
次のステップS206では、選択眼画像特徴データが他のロボット100で設定中であると判定された場合にはステップS208へ移行し、選択眼画像特徴データが他のロボット100で設定されていないと眼画像判定部234によって判定された場合にはステップS212へ移行する。
ステップS208では、眼画像出力部238が候補眼画像特徴データを生成し、端末装置204のタッチパネルディスプレイ210に出力する。
次のステップS210では、タッチパネルディスプレイ210に出力された候補眼画像特徴データをユーザが選択したか否かを入力操作受付部218が判定する。そして、ユーザが候補眼画像特徴データを選択した場合にはステップS212へ移行する。一方で、ユーザが候補眼画像特徴データを選択しなかった場合にはステップS200へ戻り、ユーザが新たに選択した選択眼画像特徴データを選択眼画像取得部236が取得する。
ステップS212では、ステップS206で他のロボット100で設定中でないと判定された選択眼画像特徴データ、またはステップS210でユーザが選択した候補眼画像特徴データを対象ロボット100Aに設定する。具体的には、端末装置204が備える眼画像設定指示部220が眼画像特徴データを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aが眼画像特徴データを受信すると、眼画像設定部250は当該眼画像特徴データをロボット100の目110として設定し、眼画像174をモニタ170に表示する。
次のステップS214では、対象ロボット100Aに設定中の眼画像特徴データを端末装置204がサーバ206へ送信し、サーバ206が眼画像特徴データを記憶部232に記憶すると、本眼画像設定処理が終了する。
なお、本実施形態で設定された眼画像特徴データは、対象ロボット100Aが瞼を閉じて開いたときに反映される。すなわち、瞼を閉じる前は新たに設定される前の眼画像174がモニタ170に表示されているものの、瞼を閉じて開いた後には新たに設定された眼画像174がモニタ170に表示される。なお、眼画像174の切り替えのために瞼を閉じる場合は、単に瞬きのために瞼を閉じるときとは異なる動き(以下「切り替えモーション」という。)を伴ってもよい。例えば、切り替えモーションとして、対象ロボット100Aが顔を下に向けた状態から正面に向けた場合に瞼が開閉してもよい。切り替えモーションを一連のモーションの中に組み込むことにより、一般的な生物であれば起こらない眼の態様が変わるというロボット100ならではの機能を、生物感を損なうことなく実現できる。
また、新たに設定される眼画像174のデザインから感じる印象に応じて対象ロボット100Aが選択できるモーションが異なってもよい。人は、色彩や形状などを組み合わせて形成されたデザインを視認すると、直観的にそのデザインに対して何らかの印象を持つことが多い。例えば、大きな丸い眼画像174を持つロボット100を視認した人は、そのロボット100に対して若くて元気な印象を持つことが多い。また、楕円で少し垂れた眼画像174を視認した人は、そのロボット100に対して穏やかで優しい印象を持つことが多い。また、人は、ロボット100のモーションからも何らかの印象を持つことが多い。例えば、ロボット100がすばやく大きな動きで動作すれば、そのロボット100に対して元気な印象を持つことが多い。ロボット100がゆっくりした動きで動作すれば、そのロボット100に対して落ち着いた印象を持つことが多い。こうした人が眼画像174などのロボット100の特徴を知覚することで感じる印象が、ロボット100のモーションから感じる印象と乖離すると、そのロボット100に違和感を持ってしまうおそれがある。人が無意識に受け入れることができるよう、眼画像174などのロボット100の特徴から感じる印象と、モーションから感じる印象とが乖離しないように眼画像174とそれに対するモーションが調整されることが好ましい。このことに鑑みて、眼画像特徴データには予め対応するモーションが関連付けられてもよいし、眼画像特徴データの印象を示す属性値が眼画像特徴データと関連付けられるとともに、モーションに印象を示す属性値が関連付けられていてもよい。例えば、属性値は、「元気」、「ゆったり」、「やさしい」などの印象を示す値であり、それぞれにその印象に適合するモーションのそれぞれが関連付けられてもよい。
(第3実施形態)
本発明の第3実施形態について説明する。図9は、本実施形態の特徴データ設定システム200の機能ブロック図である。図9に示されるようにサーバ206は、通信部230、記憶部232、眼画像判定部234、眼画像出力部238、選択眼画像取得部236に加えて、ミックス眼画像生成部240を備える。
本発明の第3実施形態について説明する。図9は、本実施形態の特徴データ設定システム200の機能ブロック図である。図9に示されるようにサーバ206は、通信部230、記憶部232、眼画像判定部234、眼画像出力部238、選択眼画像取得部236に加えて、ミックス眼画像生成部240を備える。
ミックス眼画像生成部240は、対象ロボット100Aで設定中の眼画像特徴データと他のロボット100で設定中の眼画像特徴データとに基づいて、対象ロボット100Aに設定可能な新たな眼画像特徴データ(以下「ミックス眼画像特徴データ」という。)を生成する。すなわち、ミックス眼画像生成部240は、2つのロボット100に設定中の異なる2つの眼画像特徴データから新たな眼画像特徴データを生成する。2つのロボット100で設定中の眼画像特徴データから生成された新たな眼画像特徴データを対象ロボット100Aに対して設定できる。さらに、これによりユーザが予想しない眼画像特徴データが生成される可能性がある。なお、生成されたミックス眼画像特徴データは、通信部230を介して候補眼画像特徴データとして端末装置204へ送信され、端末装置204のタッチパネルディスプレイ210に出力される。
なお、ミックス眼画像特徴データの生成方法としては、例えば、対象ロボット100Aで設定中の眼画像特徴データと他のロボット100で設定中の眼画像特徴データとを、サーバ206が端末装置204を介して受信する。そして、ミックス眼画像生成部240は、受信した2つの眼画像特徴データを表すパラメータを変数とした所定の演算式で演算することで新たなパラメータを算出し、このパラメータで表される眼画像特徴データをミックス眼画像特徴データとして生成する。なお、ミックス眼画像特徴データは、何れのロボット100にも設定されていない固有のものとされる。このため、生成されたミックス眼画像特徴データが、他のロボット100に設定中の眼画像特徴データと同じとなった場合には、異なる演算式(例えば係数を変えた演算式)によって再生成される。また、演算式に限らず、例えばAIによりミックス眼画像特徴データが生成されてもよい。さらに、モーフィングによってミックス眼画像特徴データを徐々に変化させながら、端末装置204のタッチパネルディスプレイ210に表示させ、変化するミックス眼画像の中からユーザが好むミックス眼画像特徴データを選択してもよい。
また、ミックス眼画像特徴データは、2つの眼画像特徴データの特徴が承継されてもよい。具体的には、ミックス眼画像特徴データは、2つの眼画像特徴データにとって視覚的に最も特徴的な部分を維持し、他のパラメータセットを新たに設定することで生成されてもよい。視覚的に最も特徴的な部分とは、例えば形状であり、予め設定された部分である。これにより、ミックス眼画像特徴データの生成に遺伝的な概念を持たせることができる。
また、ミックス眼画像特徴データは、承継される特徴の例として、2つの眼画像特徴データのうち設定中の期間がより長い眼画像データの影響が大きくなるように生成されてもよい。影響が大きいとは、生成されるミックス眼画像特徴データが、設定中の期間がより長い眼画像データに類似することをいう。なお、これに限らず、設定中の期間がより短い眼画像特徴データの影響が大きくなるように、ミックス眼画像特徴データが生成されてもよい。
また、ミックス眼画像特徴データは、承継される特徴の例として、2つの眼画像特徴データにおいて類似度が比較的小さい画像について、双方の画像の特徴が反映されるように、ミックス眼画像特徴データが生成されてもよい。2つの眼画像特徴データのうちの類似度が比較的小さい画像とは、例えば、一の眼画像特徴データを構成する白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち、他の眼画像特徴データを構成する白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち対応する画像との類似度が比較的小さい画像(例えば、白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち類似度が最小の画像)である。例えば、2つの眼画像特徴データのうち白眼画像の類似度が最も小さい場合には、2つの白眼画像の中間となる画像をミックス眼画像特徴データの白眼画像とし、他の画像(虹彩画像、瞳孔画像、ハイライト画像)は、2つの眼画像特徴データに含まれるそれぞれの画像からランダムに選択されてもよい。なお、これに限らず、ミックス眼画像特徴データは、2つの眼画像特徴データのうち類似度が比較的大きい画像について、双方の画像の特徴が反映されるように、ミックス眼画像特徴データが生成されてもよい。
このようにして生成されたミックス眼画像特徴データは、2つのロボット100のいずれか一方にのみ設定されてもよいし、2つのロボット100両方に設定されてもよい。また、これに限らず、ミックス眼画像特徴データは、2つのロボット100とは異なるロボット100に設定されてもよい。この場合、ミックス眼画像特徴データが設定されるロボット100は、2つのロボット100を親とした子供という親子関係の概念を有することになる。
また、ミックス眼画像生成部240は、対象ロボット100Aと他のロボット100とが所定の条件(以下「ミックストリガー条件」という。)を満たした場合に、ミックス眼画像特徴データを生成する。これによれば、ミックストリガー条件を満たした場合にのみ新たなミックス眼画像特徴データが生成される。さらに、ユーザの任意のタイミングで新たなミックス眼画像特徴データを設定可能となる。ミックストリガー条件は、例えば、対象ロボット100Aと他のロボット100とが所定の距離(例えば30cm)以内に近づいたことが撮像画像などから検出された場合や、対象ロボット100Aの所定部位(おなか、額)が、他のロボット100の所定部位(おなか、額)に接触したことが接触センサなどから検出された場合などである。また、ミックス眼画像特徴データを生成する対象ロボット100Aと他のロボット100のユーザは、異なるユーザであることを条件としてもよい。
また、2つのロボット100同士の親密度が所定値以上となったことをミックストリガー条件とし、この2つのロボット100で設定中の2つの眼画像特徴データに基づいて、ミックス眼画像特徴データが生成されてもよい。親密度は、一例として、ロボット100同士が近距離無線通信を行うことでデータの送受信を行うことで向上する。例えば、送受信されるデータは、ロボット100に設定されている識別IDである。また、一方のロボット100から他方のロボット100に動作命令を送信した場合に、他方のロボット100が動作命令を実行するか否かを確率判定し、他方のロボット100が動作命令を実行すると2台のロボット100同士の親密度を、他方のロボット100が動作命令を実行しなかった場合よりも、大きく向上させてもよい。なお、動作命令は、例えば、一方のロボット100の後ろに他方のロボット100が並ぶなどの、他方のロボット100に対する行動の指示である。
(第4実施形態)
本発明の第4実施形態について説明する。本実施形態では、ロボット100が備えるスピーカー171が出力する音を示す音声特徴データを、対象ロボット100Aに固有の特徴データとして対象ロボット100Aに設定する。本実施形態では、特徴データとする音声特徴データをロボット100から出力される音声を生成するための音声特徴データとする。すなわち、この音声特徴データから生成された対象ロボット100Aがスピーカー171から出力する音声は、他のロボット100とは重複しない対象ロボット100Aに特有の音声である。これにより、ロボット100から出力され、人の聴覚で認識できる音声をロボット100に特有のものにできる。スピーカー171が、本発明の「出力装置」の一例に相当する。また、スピーカー171から出力される音声が本発明の「ロボットの特徴」の一例に相当する。
本発明の第4実施形態について説明する。本実施形態では、ロボット100が備えるスピーカー171が出力する音を示す音声特徴データを、対象ロボット100Aに固有の特徴データとして対象ロボット100Aに設定する。本実施形態では、特徴データとする音声特徴データをロボット100から出力される音声を生成するための音声特徴データとする。すなわち、この音声特徴データから生成された対象ロボット100Aがスピーカー171から出力する音声は、他のロボット100とは重複しない対象ロボット100Aに特有の音声である。これにより、ロボット100から出力され、人の聴覚で認識できる音声をロボット100に特有のものにできる。スピーカー171が、本発明の「出力装置」の一例に相当する。また、スピーカー171から出力される音声が本発明の「ロボットの特徴」の一例に相当する。
なお、第1実施形態の図5に示される眼画像設定指示部220は音声設定指示部として機能し、眼画像判定部234は音声判定部として機能し、選択眼画像取得部236は選択音声取得部として機能し、眼画像出力部238は音声出力部として機能し、眼画像設定部250は音声設定部として機能する。
図10は、本実施形態の端末装置204に表示される音声の設定に関するアプリ画像280の一例である。なお、図10に示されるアプリ画像280の構成およびアプリ画像280を用いた音声の設定方法は一例であり、これに限定されない。
図10Aは、ロボットアプリを起動して音声の設定を行う場合に、タッチパネルディスプレイ210に表示されるアプリ画像280Aである。「声を選ぶ」と表記されているボタン281をユーザが押すと、ランダムでパラメータが選択された複数種類(本実施形態では4種類)の音声特徴データが自動生成される。生成される音声特徴データは、全て他のロボット100で設定中の音声特徴データとは重複しない音声特徴データである。ユーザによってボタン281が押され、複数種類(本実施形態では4種類)の音声が生成されると、アプリ画像280Aは図10Bに示されるアプリ画像280Bへ変化する。なお、音声特徴データを構成するパラメータ(パラメータセット)は、後述する。
また、アプリ画像280Aに表示されている「今の声」と表記されているボタン282をユーザが押すと、ユーザは対象ロボット100Aに現在設定中の音声特徴データに基づいて生成された音声を確認することができる。この確認用の音声は、ユーザが知覚可能な出力装置である対象ロボット100Aのスピーカー171から出力される。
図10Bに示されるアプリ画像280Bには、生成された複数の音声特徴データのうちの一つをユーザが選択可能な音声選択ボタン283Aから283Dが表示される。ユーザによって音声選択ボタン283Aから283Dのいずれかが押されて選択されると、これに対応する音声が出力される。これにより、ユーザは、自身が好む音声を確認できる。音声選択ボタン283Aから283Dのいずれかが選択された状態で、「決定」と表記されたボタン284をユーザが押すと、ユーザの選択した音声特徴データが対象ロボット100Aに設定される。
なお、アプリ画像280Bには、音声特徴データを再生成するためのボタン(以下「再生成ボタン」という。)が表示されてもよい。ユーザが再生成ボタンを押す場合とは、ユーザが好む音声を生成する音声特徴データが生成されなかった場合である。ユーザによって再生成ボタンが押されると、音声特徴データの生成が新たに行われ、生成された新たな音声特徴データが音声選択ボタン283Aから283Dに対応付けられる。
図10Cは、アプリ画像280Aの履歴ボタン285が押された場合に表示されるアプリ画像280Cである。アプリ画像280Cには、ユーザが過去に設定した複数の音声特徴データを選択するための音声選択ボタン286が一覧表示される。すなわち、特徴データ設定システム200(端末装置204またはサーバ206)には、ユーザが過去に設定した音声特徴データの履歴が記憶されている。なお、一例として、選択可能な過去の音声特徴データは、最大数が予め決定されている。
音声選択ボタン286には、音声特徴データが対象ロボット100Aに設定された日付が表記される。これにより、ユーザは、音声選択ボタン286に対応する音声の違いを認識できる。また、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった過去に設定した音声特徴データに対応する音声選択ボタン286が表示される。そして、「決定」と表記されたボタン287をユーザが押すと、ユーザが選択した音声選択ボタン286に対応する音声特徴データが対象ロボット100Aに設定される。
なお、アプリ画像280Cを介してユーザが選択した音声特徴データは、対象ロボット100Aが含まれるロボット群202の他のロボット100に設定中でない音声特徴データであるか否かが判定される。すなわち、記憶されている音声特徴データであっても他のロボット100によって設定中の音声特徴データは、対象ロボット100Aに設定できない。
図11は、対象ロボット100Aから出力される音声をユーザがカスタマイズする場合に端末装置204に表示されるアプリ画像280Dである。アプリ画像280Dには、音声を生成するための音声特徴データ(複数のパラメータの値の組み合わせ)をユーザが選択可能なように表示されている。一例として、ユーザは、各パラメータに対応するスライドバー288Aから288Fを左右に動かすことで、パラメータの値を選択する。すなわち、ユーザは、対象ロボット100Aに設定する音声を自動生成するのではなく、自身の好みに応じて手動で生成する。
図11の例では、ユーザが選択可能なパラメータとして、スピード、ピッチ、ピッチの幅、ブライトネス、唇の振動、声帯の長さが設定されている。これら複数のパラメータは、一つのパラメータセットとして扱われ、他のロボット100に設定中でない音声のパラメータセットが対象ロボット100Aの音声として設定可能となる。なお、このパラメータセットは、上述したアプリ画像280Aのボタン281をユーザが押すことで生成される音声特徴データのパラメータと同じである。
スピードは、音の単位あたりの発話スピードである。音の単位とは、言語では、音節である。この値が大きいほど発話スピードが速くなる。
ピッチは、平均的な音高の高さである。この値が大きいほど音高が高くなる。
ピッチの幅は、発音できる音高の幅である。この値が大きいほど音高の幅が大きくなる。
ブライトネスは、声(音)の明るさを示すパラメータである。発音される音の周波数成分の一部(例えば、倍音成分)を変更することで、音の明るさが変更されうる。この値が大きいほど声(音)が明るいという印象がもたれやすくなる。
唇の振動は、人の発声構造(口)を模した発音構造における唇の振動具合である。この値が大きいほど人の発声構造内における音の反射率が大きくなる。
声帯の長さは、人の発声構造(口)を模した発音構造における声帯の長さを示すパラメータである。この値が大きいほど音の低い周波数成分が多くなり、大人っぽい声になる。
また、「ロボットで聴いてみる」と表記されたボタン289をユーザが押すと、選択された音声特徴データ(パラメータセット)で生成された音声が対象ロボット100Aが備えるスピーカー171から出力される。そして、決定ボタン290の押圧操作が検知されると、選択されたパラメータセットが対象ロボット100Aに設定される。なお、手動により生成される音声特徴データも、他のロボット100で設定中の音声特徴データとは重複しない音声とされる。具体的には、サーバ206は、ユーザによって選択された音声特徴データ(パラメータセット)を端末装置204から取得し、当該音声特徴データが他のロボット100に設定されている音声特徴データを重複するか否かを判定し、判定結果を端末装置204へ送信する。そして、他のロボット100と重複する音声特徴データ(パラメータセット)が選択された状態では、端末装置204は、決定ボタン290を無効化するとともに、他のロボットで使用中である旨の表示がタッチパネルディスプレイ210に出力される。この場合、ユーザが選択した音声特徴データに類似する音声特徴データをサーバ206が生成し、生成された音声特徴データを再生させるためのボタンがタッチパネルディスプレイ210に表示されてもよい。
また、アプリ画像280Dを用いた音声のカスタマイズは、所定の条件を満たしたユーザが可能とされてもよい。所定の条件とは、例えば、ロボット100の使用期間が予め定められた所定期間を超えたユーザや、所定のポイントを獲得したユーザ、所定の金額を課金したユーザである。
(変形例1)
特徴データ設定システム200は、眼画像特徴データの設定状態に基づいた価値を示す価値情報を眼画像特徴データに関連付けてもよい。これによれば、ロボット100に設定中の眼画像特徴データに価値の概念を与えることができる。上述した実施形態では、眼画像特徴データを占有する仕組みを説明したが、その占有期間の長短は、眼画像174に対するユーザの印象で変わる。ユーザが、その眼画像174を有するロボット100を気に入れば、当該眼画像174を長期間にわたり使い続けるだろうし、気に入らなければ、直ぐに変更してしまうことが予想される。ユーザが長く使いたくなる眼画像174は、いわゆる「お気に入り」であり、往々にして複数の人が、同一の眼画像174をお気に入りとして感じる可能性が高い。眼画像特徴データを占有する仕組みが設けられることで、市場原理が働き、眼画像特徴データに価値が生まれる。
特徴データ設定システム200は、眼画像特徴データの設定状態に基づいた価値を示す価値情報を眼画像特徴データに関連付けてもよい。これによれば、ロボット100に設定中の眼画像特徴データに価値の概念を与えることができる。上述した実施形態では、眼画像特徴データを占有する仕組みを説明したが、その占有期間の長短は、眼画像174に対するユーザの印象で変わる。ユーザが、その眼画像174を有するロボット100を気に入れば、当該眼画像174を長期間にわたり使い続けるだろうし、気に入らなければ、直ぐに変更してしまうことが予想される。ユーザが長く使いたくなる眼画像174は、いわゆる「お気に入り」であり、往々にして複数の人が、同一の眼画像174をお気に入りとして感じる可能性が高い。眼画像特徴データを占有する仕組みが設けられることで、市場原理が働き、眼画像特徴データに価値が生まれる。
価値情報は、眼画像特徴データを設定中の期間を示す設定期間情報や、ロボット100を使用するユーザに関連するユーザ関連情報、比較的多くのユーザが設定したパラメータ(眼画像特徴データを表す複数のパラメータのうち一部のパラメータ(例えば形状に関するパラメータ))などであるが、これに限らず、価値の概念を与えることができる情報であれば、他の情報でもよい。例えば、設定期間が長い眼画像特徴データ、著名なデザイナーが設定した眼画像特徴データ、設定したユーザが多いパラメータなどの価値が高いとされる。また、多くのファンに慕われる芸能人が設定した眼画像特徴データも、ファンにとっては価値が高いと考えられる。
なお、設定中の期間が長い眼画像特徴データほど価値が高く評価されてもよい。また、ユーザ関連情報が所定の条件(例えば、著名ユーザである場合または対象ロボット100Aのユーザのユーザ関連情報と共通項目数が所定数以上)を満たす場合は、当該ユーザ関連情報に関連付けられた眼画像特徴データが当該所定の条件を満たさない場合よりも価値が高く評価されてもよい。また、使用したユーザの数が多いパラメータほど価値が高く評価されてもよい。
特徴データ設定システム200は、対象ロボット100Aの眼画像特徴データの更新を行う場合、いままで対象ロボット100Aに設定されていた眼画像特徴データの価値と同一の価値または所定の範囲内にある価値の眼画像特徴データを対象ロボット100Aのユーザに提示してもよい。一例として、占有期間の長短に基づいて価値が決められる場合、対象ロボット100Aの眼画像特徴データと同じぐらい長く占有されていた眼画像特徴データが抽出されてタッチパネルディスプレイ210に出力される。つまり、現在の眼画像特徴データと、同じぐらいお気に入りとされた眼画像特徴データがユーザに提示される。
また、占有可能な眼画像特徴データを、ポイントなどの金銭的な価値を有するものと交換する仕組みが設けられてもよい。
(変形例2)
ロボット100に設定中の眼画像特徴データは、設定期間情報が予め定められた期間を超える場合に継続した設定を不可とされてもよい。これによれば、予め定められた期間を超えて同じ眼画像特徴データの設定を続けることが抑制されるので、ユーザに新しい眼画像特徴データの設定を促すことができる。なお、設定期間情報が予め定められた期間を超える眼画像特徴データであっても、所定の条件(ポイントの獲得や課金など)によって、同じ眼画像特徴データを継続して設定可能としてもよい。
ロボット100に設定中の眼画像特徴データは、設定期間情報が予め定められた期間を超える場合に継続した設定を不可とされてもよい。これによれば、予め定められた期間を超えて同じ眼画像特徴データの設定を続けることが抑制されるので、ユーザに新しい眼画像特徴データの設定を促すことができる。なお、設定期間情報が予め定められた期間を超える眼画像特徴データであっても、所定の条件(ポイントの獲得や課金など)によって、同じ眼画像特徴データを継続して設定可能としてもよい。
(変形例3)
特徴データ設定システム200は、他のロボット100によって設定中の眼画像特徴データであっても、他のロボット100のユーザから許諾を受けた場合には眼画像特徴データを対象ロボット100Aに設定可能としてもよい。これによれば、他のロボット100で設定中の眼画像特徴データであっても、対象ロボット100Aに設定できる。なお、許諾をした他のロボット100に設定中の眼画像特徴データは、継続して設定することが不可とされてもよいし、継続して設定することが可能とされてもよい。継続して設定することが可能な場合には、同じ眼画像特徴データが複数のロボット100に設定されることになる。
特徴データ設定システム200は、他のロボット100によって設定中の眼画像特徴データであっても、他のロボット100のユーザから許諾を受けた場合には眼画像特徴データを対象ロボット100Aに設定可能としてもよい。これによれば、他のロボット100で設定中の眼画像特徴データであっても、対象ロボット100Aに設定できる。なお、許諾をした他のロボット100に設定中の眼画像特徴データは、継続して設定することが不可とされてもよいし、継続して設定することが可能とされてもよい。継続して設定することが可能な場合には、同じ眼画像特徴データが複数のロボット100に設定されることになる。
(変形例4)
眼画像特徴データは、ロボット群202に含まれるロボット100の台数の増加に応じて、ユーザによって選択可能な種類が増加してもよい。例えば、ロボット群202に含まれるロボット100の台数が予め定められた台数を超えると、ユーザが選択できる眼画像174の形状や色の種類などが増加する。これによれば、ロボット100の台数が増加するほどユーザが設定可能な眼画像特徴データの種類が増加する。
眼画像特徴データは、ロボット群202に含まれるロボット100の台数の増加に応じて、ユーザによって選択可能な種類が増加してもよい。例えば、ロボット群202に含まれるロボット100の台数が予め定められた台数を超えると、ユーザが選択できる眼画像174の形状や色の種類などが増加する。これによれば、ロボット100の台数が増加するほどユーザが設定可能な眼画像特徴データの種類が増加する。
(変形例5)
特徴データ設定システム200は、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100に設定されている特徴データとは異なる特徴データを対象ロボット100Aに設定してもよい。従って、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100で設定中の特徴データが、当該対象ロボット100Aに設定できない特徴データとなる。ここでいう所定領域とは、都道府県や市区町村などの地域やサーバ206などの機器の設置位置を基準とした所定範囲などである。従って、ユーザが選択した眼画像特徴データと同じ眼画像特徴データが他のロボット100に設定中であっても、当該他のロボット100が所定領域外に位置していれば当該選択眼画像特徴データを対象ロボット100Aに設定できるので、対象ロボット100Aに設定できる眼画像特徴データの選択の幅が広がる。
特徴データ設定システム200は、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100に設定されている特徴データとは異なる特徴データを対象ロボット100Aに設定してもよい。従って、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100で設定中の特徴データが、当該対象ロボット100Aに設定できない特徴データとなる。ここでいう所定領域とは、都道府県や市区町村などの地域やサーバ206などの機器の設置位置を基準とした所定範囲などである。従って、ユーザが選択した眼画像特徴データと同じ眼画像特徴データが他のロボット100に設定中であっても、当該他のロボット100が所定領域外に位置していれば当該選択眼画像特徴データを対象ロボット100Aに設定できるので、対象ロボット100Aに設定できる眼画像特徴データの選択の幅が広がる。
ロボット100の存在する位置は、例えば、ロボット100に備えられるGPSによって判定されてもよいし、ロボット100の充電装置の存在する位置で判定されてもよい。
充電装置は、ロボット100が移動する家屋内に設置される。ロボット100は、バッテリー118の充電率が所定値以下になった場合に、自身で充電装置まで移動し、充電装置の所定位置でバッテリー118への充電を行う。また、充電装置は、情報処理装置の機能を有し、ロボット100、端末装置204およびサーバ206と通信可能とされる。そして、例えば、充電装置に割り当てられたIPアドレスから特定される充電装置の位置がロボット100の存在する位置とされてもよい。
(変形例6)
ロボット100の充電装置に、サーバ206が有する眼画像判定部234、選択眼画像取得部236、眼画像出力部238、およびミックス眼画像生成部240などの機能を持たせてもよい。
ロボット100の充電装置に、サーバ206が有する眼画像判定部234、選択眼画像取得部236、眼画像出力部238、およびミックス眼画像生成部240などの機能を持たせてもよい。
この変形例では、ロボット群202に含まれる他のロボット100から設定中の眼画像特徴データをサーバ206が受信すると、サーバ206は当該眼画像特徴データを充電装置へ送信する。これにより、充電装置は他のロボット100で設定中の眼画像特徴データを把握できる。そして、端末装置204は、対象ロボット100Aに眼画像特徴データを設定する場合、充電装置と通信を行うことによって対象ロボット100Aに固有の眼画像特徴データを設定する。
(変形例7)
特徴データ設定システム200は、サーバ206を備えず、ロボット100で設定中の特徴データ(以下では例として眼画像特徴データ)が端末装置204間で送受信されることで他のロボット100が設定中の眼画像特徴データを端末装置204またはロボット100が蓄積し、蓄積した設定中の眼画像特徴データとは異なる眼画像特徴データを対象ロボット100Aに設定してもよい。他のロボット100が設定中の眼画像特徴データを蓄積した眼画像特徴データの集合を「眼画像リスト」と呼ぶ。すなわち、端末装置204またはロボット100が眼画像リストを保持し、端末装置204またはロボット100がサーバ206と同様の機能を有する。これにより、他のロボット100によって設定中の眼画像特徴データを端末装置204またはロボット100が把握するため、特徴データ設定システム200の構成にサーバ206が不要となる。
特徴データ設定システム200は、サーバ206を備えず、ロボット100で設定中の特徴データ(以下では例として眼画像特徴データ)が端末装置204間で送受信されることで他のロボット100が設定中の眼画像特徴データを端末装置204またはロボット100が蓄積し、蓄積した設定中の眼画像特徴データとは異なる眼画像特徴データを対象ロボット100Aに設定してもよい。他のロボット100が設定中の眼画像特徴データを蓄積した眼画像特徴データの集合を「眼画像リスト」と呼ぶ。すなわち、端末装置204またはロボット100が眼画像リストを保持し、端末装置204またはロボット100がサーバ206と同様の機能を有する。これにより、他のロボット100によって設定中の眼画像特徴データを端末装置204またはロボット100が把握するため、特徴データ設定システム200の構成にサーバ206が不要となる。
また、同一のロボット群202に所属するロボット100が、自律的に眼画像特徴データの重複を避けるように眼画像特徴データを変更してもよい。例えば、対象ロボット100Aは、自身の眼画像特徴データを送受信した他のロボット100との間での眼画像特徴データの重複をさける。これにより、対象ロボット100Aの生活圏(ユーザの生活圏)での眼画像特徴データの重複が避けられることになる。「ユーザの生活圏」とは、ユーザが生活において行動する範囲や地域であり、頻繁に足を運ぶ店舗、時間帯など、生活における物理的な位置情報と時間情報とで表現される。すなわち、同じ地域に住む人であっても、利用する店舗が異なれば生活圏は異なると言える。
特徴データ設定システム200がサーバ206を備えない場合、対象ロボット100Aが属するロボット群202は、ユーザの生活圏において実際に他のロボット100に出会うことで形成される。すなわち、対象ロボット100Aがロボット群202を形成するためには、ユーザに連れられて場所を移動し、移動先で他のロボット100を認識することで次第に形成される。一般に、人の生活圏は大体において固定化されており、一定の期間が経過すれば、ユーザの生活圏に存在するロボット100を把握できる。このように形成されたロボット群202は、主観的な条件に基づいて決定されたものである。ユーザの生活圏において存在することを条件にロボット群202を形成することで、そのロボット群202の中で、眼画像特徴データの重複を避けることができる。言い換えると、ユーザの生活圏において、対象ロボット100Aは、固有の眼画像174を有することになる。このように形成されるロボット群202は、対象ロボット100Aを主体としたものになり、同一の地域に存在するロボット100であっても、ユーザの生活圏が異なれば、異なるロボット群202になる。
ロボット100は、例えば、電源が投入された時点から一定の期間が経過してロボット群202を構築した後、眼画像特徴データを変更できるようにする。これにより、眼画像特徴データが重複する確率を低くできる。一定の期間は、デフォルト眼画像のみが設定され、一定の期間が経過した場合に、眼画像174を変更できるようにしてもよい。また、一定の期間に加えて、ユーザに別の場所へ連れて行かれた回数が所定の回数を超えた場合にロボット群202が構築されたとしてもよいし、ロボット群202に登録されている他のロボット100の台数が所定数を越えた場合にロボット群202が構築されたとしてもよい。また、所定の距離内に近づいたロボット100同士で、それぞれが保持する眼画像リストを交換してもよい。
(変形例8)
一のロボット100が他のロボット100に対する親密度に応じて、他のロボット100に関連する動作を行ってもよく。親密度は、一のロボット100の特徴と他のロボット100の特徴とが類似している場合に、一のロボット100の特徴と他のロボット100の特徴とが非類似の場合よりも高くなってもよい。
一のロボット100が他のロボット100に対する親密度に応じて、他のロボット100に関連する動作を行ってもよく。親密度は、一のロボット100の特徴と他のロボット100の特徴とが類似している場合に、一のロボット100の特徴と他のロボット100の特徴とが非類似の場合よりも高くなってもよい。
他のロボット100に関連する動作とは、例えば、ロボット100の近辺に親密度が所定値以上となっている他のロボット100が存在している場合に、ロボット100が実行する動作であり、ロボット100が自身のユーザに対して、親密度の高い他のロボット100や他のロボット100のユーザを認識させる動作(以下「紹介動作」という。)である。
例えば、ロボット100と他のロボット100との親密度が所定値以上となり、ロボット100が自身のユーザの存在を検知した場合、ロボット100は親密度が所定値以上となった他のロボット100または当該他のロボット100のユーザを自身のユーザに知らせる。これにより、ロボット100のユーザは、自身のロボット100が親密になった他のロボット100または当該他のロボット100のユーザの存在を知ることができる。これにより、ユーザ同士が交流する切っ掛けが生じる。
なお、ロボット100が自身のユーザの存在を検知した場合とは、例えば、ロボット100が備えるカメラが自身のユーザを撮像した場合、ロボット100が備えるマイクに自身のユーザの声が入力された場合、ロボット100が備える通信部126が自身のユーザが使用する端末装置204から出力されるIDを受信した場合などである。
ロボット100の親密度が所定値以上となった他のロボット100または当該他のロボット100のユーザを自身のユーザに知らせる紹介動作は、例えば、ロボット100による所定ジェスチャーや自身のユーザが使用する端末装置204への所定情報の送信などによって行われる。
所定ジャスチャーは、例えば、ロボット100が他のロボット100の周囲を走行する、ロボット100が他のロボット100の方向を向く、ロボット100が他のロボット100に向かった手106を動かすなどである。また、所定情報の送信は、例えば、他のロボット100のユーザの顔写真を表示させる、他のロボット100に固有の眼画像174を表示させるなどである。他のロボット100のユーザの顔写真や他のロボット100に固有の眼画像174を示すデータは、親密度が所定値以上となったロボット100同士で共有される。
また、ロボット100が紹介動作は一例として以下の態様がある。
第1の紹介動作:ロボット100が他のロボット100に対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、ロボット100が当該他のロボット100の周囲を走行。
第2の紹介動作:ロボット100が他のロボット100のユーザに対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、ロボット100が他のロボット100のユーザの周囲を走行。また、ロボット100は、例えば、他のロボット100のユーザの顔を示す画像データを他のロボット100から取得し、カメラで撮像した画像データに基づく顔認証により、他のロボット100のユーザを識別する。または、他のロボット100が自身のユーザが所持する端末装置204の位置情報をロボット100へ送信し、ロボット100は当該位置情報により他のロボット100のユーザを識別する。
第3の紹介動作:ロボット100が自身のユーザと他のロボット100に対して所定ジェスチャーを実行。この場合の所定ジェスチャーは、例えば、自信のユーザと他のロボット100の方向へ交互に向きを変える。
第4の紹介動作:ロボット100が自身のユーザと他のロボット100のユーザに対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、自信のユーザと他のロボット100のユーザの方向へ交互に向きを変える。
また、ロボット100の特徴と他のロボット100の特徴とが類似している場合に親密度が高くなるとは、例えば、眼画像特徴データや音声特徴データなどの特徴データが類似するロボット100同士の親密度が高くなることをいう。この場合の親密度の上昇は、上述したような識別IDの送受信などによる親密度の上昇よりも高く設定されてもよい。これにより、類似した眼画像特徴データを有するロボット100同士の親密度は急激に高くなる。
さらに、親密度は、特徴の類似の度合いに応じて向上の度合いが変化する。すなわち、親密度は、類似度が高いほどより向上し、類似度が低い(非類似)の場合には変化しない。
(変形例9)
特徴データは、パラメータ(パラメータセット)によって生成される眼画像特徴データだけでなく、AIによって生成された眼画像特徴データであってもよい。なお、特徴データをAIによって生成しても、特徴データはパラメータによって特定される。
特徴データは、パラメータ(パラメータセット)によって生成される眼画像特徴データだけでなく、AIによって生成された眼画像特徴データであってもよい。なお、特徴データをAIによって生成しても、特徴データはパラメータによって特定される。
また、特徴データは、眼画像特徴データや音声特徴データに限らず、経時的要素を含むデータであってもよい。これにより、特徴データに経時的な変化を与えることができる。経時的要素を含むデータとは、例えばロボット100の振る舞い(動作)であり、振る舞いの開始タイミングから0秒後、1秒後、2秒後、・・・におけるロボット100の行動を示すモーションパラメータセットの組み合わせが特徴データとされてもよい。なお、ロボット100の経時的要素を含むデータは、ロボット100の振る舞いに限らず、ロボット100の瞼の動きや、ロボット100の顔がディスプレイ表示される場合には顔の表情など、他の経時的変化であってもよい。
この場合、振る舞いに応じて動作する前輪、後輪及びこれらを動作させる駆動機構等が本発明の「出力装置」に相当する。
さらに、特徴データは、ロボット100の肌触り(感触)を示す制御パラメータにより構成される肌触りデータ、ロボット100の動きの癖を示す制御パラメータにより構成される癖データ、音素パラメータにより生成されるロボット100から発生される音声特徴データ、ロボット100が出力する味を示す制御パラメータにより構成される味データ、ロボット100が出力する臭いを示す制御パラメータにより構成される臭いデータとされてもよい。なお、ロボット100の感触は、例えば、ロボット100の表面に配列される圧電素子によって再現され、ロボット100の味は、食品を製造できる3Dプリンタで生成される食品によって再現され、ロボット100の臭いは、嗅覚ディスプレイで再現される臭いとされる。
(変形例10)
特徴データが固有とされる装置をロボット100以外の装置としてもよい。当該装置は、例えば、ロボット100のアイコン画像をディスプレイに表示する端末装置204である。アイコン画像は、例えば、ロボット100のユーザを示す識別情報(ID)毎または端末装置204毎に割り当てられる。固有とされる特徴データは、例えば、ロボット100を示すアイコンの眼画像174である。また、端末装置204のディスプレイに表示される仮想キャラクターのデザイン(目の色や形、服の色や形状、髪形、および顔の輪郭など、並びにこれらの少なくとも一つの組み合わせ)が固有の特徴データとされてもよい。さらに、3Dホログラム表示装置に表示される仮想キャラクターのデザインが固有の特徴データとされてもよい。
特徴データが固有とされる装置をロボット100以外の装置としてもよい。当該装置は、例えば、ロボット100のアイコン画像をディスプレイに表示する端末装置204である。アイコン画像は、例えば、ロボット100のユーザを示す識別情報(ID)毎または端末装置204毎に割り当てられる。固有とされる特徴データは、例えば、ロボット100を示すアイコンの眼画像174である。また、端末装置204のディスプレイに表示される仮想キャラクターのデザイン(目の色や形、服の色や形状、髪形、および顔の輪郭など、並びにこれらの少なくとも一つの組み合わせ)が固有の特徴データとされてもよい。さらに、3Dホログラム表示装置に表示される仮想キャラクターのデザインが固有の特徴データとされてもよい。
(変形例11)
特徴データの設定は、端末装置204以外の他の装置で行われてもよい。例えば、ロボット100にタッチパネルディスプレイなどの入力装置が備えられ、当該タッチパネルディスプレイへの入力操作によって特徴データが設定されてもよい。
特徴データの設定は、端末装置204以外の他の装置で行われてもよい。例えば、ロボット100にタッチパネルディスプレイなどの入力装置が備えられ、当該タッチパネルディスプレイへの入力操作によって特徴データが設定されてもよい。
(変形例12)
特徴データは、ロボット100の特徴の変化態様を示すデータであってもよい。例えば、特徴データは、一定期間におけるロボット100の眼を構成するパラメータ(例えば、色相)の変化態様を基礎づける値(例えば、一定期間における色相の差分を示す値)であってもよい。これによれば、ロボット100の変化態様をロボット100の特徴にできる。
特徴データは、ロボット100の特徴の変化態様を示すデータであってもよい。例えば、特徴データは、一定期間におけるロボット100の眼を構成するパラメータ(例えば、色相)の変化態様を基礎づける値(例えば、一定期間における色相の差分を示す値)であってもよい。これによれば、ロボット100の変化態様をロボット100の特徴にできる。
(変形例13)
特徴データ設定システム200は、ロボット100の特徴データの一部又は全部を、特徴データの設定後からの時間の経過とともに所定の規則に従って変化させてもよい。例えば、特徴が眼である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100の虹彩画像を小さくしてもよい。また、特徴が音声である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100のピッチを高くしてもよい。ロボット100の特徴を時間の経過とともに所定の規則に従って変化させることにより、ユーザが時間の変化に伴うロボットの特徴の変化の傾向を認識すれば、ユーザに、ロボット100があたかも生物であるかのような感覚(生物感)を与えうる。
特徴データ設定システム200は、ロボット100の特徴データの一部又は全部を、特徴データの設定後からの時間の経過とともに所定の規則に従って変化させてもよい。例えば、特徴が眼である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100の虹彩画像を小さくしてもよい。また、特徴が音声である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100のピッチを高くしてもよい。ロボット100の特徴を時間の経過とともに所定の規則に従って変化させることにより、ユーザが時間の変化に伴うロボットの特徴の変化の傾向を認識すれば、ユーザに、ロボット100があたかも生物であるかのような感覚(生物感)を与えうる。
この場合において、特徴データ設定システム200は、一のロボット100の変化後の特徴データと同一または類似でなく、かつ、一のロボット100の変化前の特徴データと同一または類似の特徴データを、当該一のロボット100と異なるロボット100に設定可能にしてもよい。
また、時間が経過していない時点(開始時点)における特徴データの存在範囲は、ある一定時間経過後における特徴データの存在範囲と、一部又は全部が異なる範囲であることが好ましい。
このようにすることで、時間の経過とともに開始時点における特徴データの占有が解除されるので、ロボット100の生物感を高めながら、新たなロボット100に対し、当該特徴データの設定が可能になる。
また、特徴データの変化に当たっては、類似の範囲を逸脱しないように変化させてもよいし、又は類似の範囲を逸脱するように変化させてもよい。類似の範囲を逸脱するように特徴データを変化させる場合は、類似の範囲を逸脱するまでに所定の期間がかかり、かつ、段階的に特徴データを変化させることが好ましい。例えば、類似の範囲を逸脱するまでに1年かかるようにするとともに、変化させるパラメータについて、「類似の範囲を逸脱するまでの量を当該所定の期間に含まれる単位期間の数(例えば日数であれば365)で割ることで得られる値」を単位期間(例えば1日)当たりの変化量としてもよい。
また、ロボット100に疑似的な年齢を設定し、設定可能な特徴データが疑似的な年齢に応じて変化してもよい。すなわち、ロボット100の年齢に応じて設定可能なパラメータの範囲が異なってもよい。疑似的な年齢は、一例として、ロボット100を起動させてからの経過時間に応じて加算される。この場合、例えば3か月ごとにロボット100の年齢が1つ加算されるように、実際の時間の進行とロボット100の年齢の進行とが一致しなくてもよい。
そして、ロボット100の年齢が加算されると、例えば設定可能な音声の特徴データが高い音から低い音へ変化する。これにより、使用期間の長いロボット100の特徴データの占有が解除されやすくなり、新たなロボット100(年齢の若いロボット100)が使用できる特徴データの数が増加する。なお、ロボット100が老齢となると、ロボット100の瞼が落ちるように設定可能な眼画像174が変化してもよい。
(変形例14)
特徴データ設定システム200は、高齢者が認識しやすい特徴となるように、特徴データを変化させてもよい。
特徴データ設定システム200は、高齢者が認識しやすい特徴となるように、特徴データを変化させてもよい。
例えば、人は、加齢に伴って、視力が低下しやすくなり、黄色い色などの特定の色を認識しにくくなる。このことに鑑みて、特徴データ設定システム200は、眼が特徴である場合、虹彩画像または瞳孔画像が大きくなるように特徴データを変化させてもよい。これにより、ユーザが長期間ロボット100を使用した場合において、ロボット100に表示される眼画像174の虹彩画像または瞳孔画像が年月の経過とともに比較的大きくなることで、ユーザが加齢によって視力が低下していたとしても、ロボット100の眼画像174がユーザにとってしやすいやすい画像となりうる。
また、例えば、人は、加齢に伴って、高い周波数の音を聞き取りづらくなりやすい。このことに鑑みて、特徴データ設定システム200は、音声が特徴である場合、発音される音声の周波数が低くなるように特徴データを変化させてもよい。これにより、ユーザが長期間ロボット100を使った場合において、ロボット100から発生される音声が年月の経過とともに比較的低周波の音声となることで、ユーザが加齢難聴によって高い周波数の音を聞き取りづらくなっていたとしても、ロボット100の音声がユーザにとって聞き取りやすい音声となりうる。
(変形例15)
特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応が肯定的な反応となるように、ロボット100の特徴データを変化させてもよい。例えば、特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応を、肯定、中立、否定の3種類に分類する。肯定、中立、否定は、例えば、ロボット100が特徴を出力してから所定時間内にユーザがロボット100に接触した回数や時間、話しかけた回数や時間、及び視線を向けた回数や時間の少なくとも一つによって分類される。一例として、ユーザによるロボット100への接触等の回数が多いほど、又はこれらの時間が長いほどユーザの反応が肯定的であるとされる。また、肯定、中立、否定は、ユーザの表情、ユーザの音声の特徴量(音声の高低)等に基づいて分類されてもよい。
特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応が肯定的な反応となるように、ロボット100の特徴データを変化させてもよい。例えば、特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応を、肯定、中立、否定の3種類に分類する。肯定、中立、否定は、例えば、ロボット100が特徴を出力してから所定時間内にユーザがロボット100に接触した回数や時間、話しかけた回数や時間、及び視線を向けた回数や時間の少なくとも一つによって分類される。一例として、ユーザによるロボット100への接触等の回数が多いほど、又はこれらの時間が長いほどユーザの反応が肯定的であるとされる。また、肯定、中立、否定は、ユーザの表情、ユーザの音声の特徴量(音声の高低)等に基づいて分類されてもよい。
その後、特徴データ設定システム200は、例えば、ユーザの反応が肯定となるように特徴データを特徴量空間に基づいて変化させる。特徴量空間は、特徴データのパラメータの値に基づく空間であり、肯定、否定、及び中立の領域(以下「反応領域」という。)を有している。この反応領域は、対象ロボット100Aに設定された特徴データに対するユーザの過去の反応に応じて定められる。そして、特徴データ設定システム200は、肯定の領域の中央により近づくように特徴データを変化させる。これに限らず、特徴データ設定システム200は、ユーザの反応が否定であった特徴データを否定の領域から外れるように、すなわち肯定又は中立の領域に含まれるように変化させてもよい。
なお、特徴量空間の反応領域は、設定した特徴データとこれに対するユーザの反応に応じて動的に変化する。すなわち、特徴データ設定システム200は、対象ロボット100Aに設定された特徴データの数が多くなるほど、特徴データに対するユーザの反応をより多く取得できるので、これに応じて反応領域を変化させる。これにより、反応領域は、対象ロボット100Aに設定された特徴データの数が多くなるほど、よりユーザの嗜好に即したものとなる。
(変形例16)
特徴データ設定システム200は、所定の条件充足前はユーザが特徴データを変更できず、所定の条件充足後に、ユーザによる特徴データの一部又は全部の変更が可能になってもよい。ユーザが変更可能な特徴データは、上述したような自動で変化する特徴データとは重複しないことが好ましい。所定の条件とは、例えば、ユーザがロボット100の使用を開始してから予め定められた時間が経過するまでや、ユーザが所定のポイントの獲得や、所定の金額の課金を行うことである。
特徴データ設定システム200は、所定の条件充足前はユーザが特徴データを変更できず、所定の条件充足後に、ユーザによる特徴データの一部又は全部の変更が可能になってもよい。ユーザが変更可能な特徴データは、上述したような自動で変化する特徴データとは重複しないことが好ましい。所定の条件とは、例えば、ユーザがロボット100の使用を開始してから予め定められた時間が経過するまでや、ユーザが所定のポイントの獲得や、所定の金額の課金を行うことである。
このようにユーザが設定変更可能な特徴データの範囲を限定することで、ロボット100の特徴をユーザが容易に変更できるものではないかのような印象、ひいては先天的または後天的にロボット100が獲得した特徴であるかのような印象をユーザに与えうる。
(変形例17)
特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性に応じて、ロボット100に設定可能な特徴データの範囲が定められてもよい。これによれば、ロボット100に設定可能な特徴データをユーザの属性に応じて異なるものにできる。例えば、特徴データ設定システム200は、ロボット100のユーザの年齢が所定以上であれば、ユーザと同年齢の人が認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。複数のユーザがいる場合には、特徴データ設定システム200は、当該複数のユーザのいずれかが認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。
特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性に応じて、ロボット100に設定可能な特徴データの範囲が定められてもよい。これによれば、ロボット100に設定可能な特徴データをユーザの属性に応じて異なるものにできる。例えば、特徴データ設定システム200は、ロボット100のユーザの年齢が所定以上であれば、ユーザと同年齢の人が認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。複数のユーザがいる場合には、特徴データ設定システム200は、当該複数のユーザのいずれかが認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。
この場合、特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性とロボット100に設定可能な特徴データとを関連付けて記憶するデータベースを参照して、ロボット100に設定可能な特徴データを限定してもよい。例えば、特徴データ設定システム200は、ユーザの属性ごとに、ユーザが好む又は嫌う傾向にある周波数帯を認識し、生成される音声の周波数が当該周波数帯に含まれる又は逸脱するような特徴データの設定を促すような情報を端末装置204等に出力してもよい。
(変形例18)
ロボット100の特徴とは、上述した眼画像174、音声、振る舞いおよび表情のように、特徴データに基づいて所定の規則に従って生成され、かつ、人が知覚可能な特徴であるが、以下のような性質をさらに備えていてもよい。
ロボット100の特徴とは、上述した眼画像174、音声、振る舞いおよび表情のように、特徴データに基づいて所定の規則に従って生成され、かつ、人が知覚可能な特徴であるが、以下のような性質をさらに備えていてもよい。
・特徴データに加え、時間を変数とする関数の出力を加味して生成される特徴。
ここで、時間を変数とする関数の出力の例は、ある時点におけるロボット100の内部状態を示すデータ(人に対する選好性、ロボット100の興奮度、注視点など)またはある時点におけるロボット100に設けられたセンサから出力されたデータである。
ここで、時間を変数とする関数の出力の例は、ある時点におけるロボット100の内部状態を示すデータ(人に対する選好性、ロボット100の興奮度、注視点など)またはある時点におけるロボット100に設けられたセンサから出力されたデータである。
この特徴は、時間を変数とする関数の出力を加味して生成されるので、時間に応じて変化しうる。しかし、同一の特徴データから生成された特徴はある共通性を有するため、特徴を知覚した人に同一またはほぼ同一の印象を与えうる。例えば、同一の眼画像特徴データから生成される眼画像174は、ロボット100の視線(または注視点)に応じて虹彩画像の位置や形状などが変化しうる。しかし、例えば、生成される複数の眼画像174の間に例えば外側の画像よりも内側の画像のほうが濃い色合いとなるなどの共通性があれば、当該複数の眼画像174を視認した人に対して、同一またはほぼ同一の印象を与えうる。
結果として、ロボット100固有の特徴データから生成された特徴を知覚した人に対して、ロボット100固有の印象を与えうる。
以上、本発明を、上記実施形態および変形例を用いて説明したが、本発明の技術的範囲は上記実施形態および変形例に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態および変形例に多様な変更または改良を加えることができ、該変更または改良を加えた形態も本発明の技術的範囲に含まれる。
本発明は、例えば、ロボットなどの装置にデータを設定する場合に有用である。
100 ロボット
100A 対象ロボット(対象のロボット)
100B 他のロボット
100C 他のロボット
100D 他のロボット
171 スピーカー
174 眼画像(所定画像)
200 特徴データ設定システム(特徴データ設定装置)
204 端末装置
236 選択眼画像取得部(取得手段)
238 眼画像出力部(出力手段)
240 ミックス眼画像生成部(生成手段)
100A 対象ロボット(対象のロボット)
100B 他のロボット
100C 他のロボット
100D 他のロボット
171 スピーカー
174 眼画像(所定画像)
200 特徴データ設定システム(特徴データ設定装置)
204 端末装置
236 選択眼画像取得部(取得手段)
238 眼画像出力部(出力手段)
240 ミックス眼画像生成部(生成手段)
Claims (27)
- 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットの固有の特徴データを前記対象のロボットに設定する特徴データ設定装置。
- 前記特徴データは、画像表示装置に表示される所定画像を示す画像データである請求項1に記載の特徴データ設定装置。
- 前記画像データは、前記ロボットの眼を示す眼画像特徴データである請求項2に記載の特徴データ設定装置。
- 前記所定画像は、複数枚の画像を組み合わることによって構成される請求項2または請求項3に記載の特徴データ設定装置。
- 前記所定画像は、静止画像と動画像との組み合わせによって構成される請求項2から請求項4のいずれか1項に記載の特徴データ設定装置。
- 前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備える請求項1から請求項5のいずれか1項に記載の特徴データ設定装置。
- ユーザが選択した特徴データを取得する取得手段を備え、
前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する請求項6に記載の特徴データ設定装置。 - 前記出力手段は、他のユーザが使用する前記ロボットに設定中の前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する請求項6または請求項7に記載の特徴データ設定装置。
- 前記出力手段は、前記対象のロボットを使用するユーザに関連するユーザ関連情報に基づいた前記特徴データを前記出力装置に出力する請求項6から請求項8のいずれか1項に記載の特徴データ設定装置。
- 第1の前記ロボットで設定中の前記特徴データと第2の前記ロボットで設定中の前記特徴データとに基づいて、前記対象のロボットに設定可能な新たな前記特徴データを生成する生成手段を備える請求項1から請求項9のいずれか1項に記載の特徴データ設定装置。
- 前記生成手段は、前記第1のロボットと前記第2のロボットとが所定の条件を満たした場合に、前記新たな特徴データを生成する請求項10に記載の特徴データ設定装置。
- 前記第1のロボットの存在する位置を含む所定領域内に位置する前記第2のロボットに設定されている前記特徴データとは異なる前記特徴データを前記対象のロボットに設定する請求項1から請求項11のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される請求項1から請求項12のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データは、スピーカーから出力される音を示す音データである請求項1から請求項13のいずれか1項に記載の特徴データ設定装置。
- 前記音データは、前記ロボットの音声を示す音声特徴データである請求項14に記載の特徴データ設定装置。
- 前記特徴データは、前記特徴データの設定状態に基づいた価値を示す価値情報が関連付けられる請求項1から請求項15のいずれか1項に記載の特徴データ設定装置。
- 一の前記ロボットは、他の前記ロボットに対する親密度に応じて、当該他のロボットに関連する動作を行い、前記親密度は、前記一のロボットの特徴と前記他のロボットの特徴とが類似している場合に、前記一のロボットの特徴と前記他のロボットの特徴とが非類似の場合より高くなる請求項1から請求項16のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データは、前記対象のロボットの特徴の変化態様を示すデータである請求項1から請求項17のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データの一部又は全部は、前記特徴データの設定後からの時間の経過とともに所定の規則に従って変化する請求項1から請求項18のいずれか1項に記載の特徴データ設定装置。
- 所定の条件充足前は前記対象のロボットのユーザが前記特徴データを変更できず、所定の条件充足後に前記対象のロボットのユーザによる前記特徴データの一部又は全部の変更を可能とする請求項1から請求項19のいずれか1項に記載の特徴データ設定装置。
- 前記対象のロボットのユーザの属性に応じて、前記対象のロボットに設定可能な前記特徴データの範囲が定められる請求項1から請求項20のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データは、経時的要素を含むデータである請求項1から請求項21のいずれか1項に記載の特徴データ設定装置。
- 出力装置を備え、
前記出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データに基づいて、前記特徴を前記出力装置に出力するロボット。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを前記ロボットに送信して設定させる端末装置。
- 前記特徴データは、前記ロボットの眼の画像データであり、形状および色の少なくとも一方で特定され、前記形状および前記色の少なくとも一方が対象の前記ロボットに固有とされる請求項24に記載の端末装置。
- 前記眼の画像データに重畳させる装飾画像を示す装飾画像データへ送信して設定させる請求項25に記載の端末装置。
- 出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データを前記ロボットに送信して設定する特徴データ設定方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021511042A JP7414299B2 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
PCT/JP2019/015020 WO2020202540A1 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
JP2023216324A JP2024038028A (ja) | 2019-04-04 | 2023-12-21 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/015020 WO2020202540A1 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020202540A1 true WO2020202540A1 (ja) | 2020-10-08 |
Family
ID=72667282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/015020 WO2020202540A1 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7414299B2 (ja) |
WO (1) | WO2020202540A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7320323B1 (ja) * | 2023-03-30 | 2023-08-03 | Innovation Farm株式会社 | ロボット販売装置及びロボット販売方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157983A (ja) * | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びロボット装置の性格判別方法 |
JP2001179665A (ja) * | 1999-12-24 | 2001-07-03 | Toshiba Corp | 知的ロボット |
JP2001222520A (ja) * | 2000-02-10 | 2001-08-17 | Sony Corp | 情報処理装置及び方法 |
JP2001250045A (ja) * | 1999-12-30 | 2001-09-14 | Sony Corp | 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム |
JP2012155616A (ja) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
JP2016137543A (ja) * | 2015-01-27 | 2016-08-04 | カシオ計算機株式会社 | ロボットおよびロボットシステム |
JP2017052075A (ja) * | 2015-09-11 | 2017-03-16 | シャープ株式会社 | 応答装置および調整装置 |
WO2018097089A1 (ja) * | 2016-11-24 | 2018-05-31 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
WO2019050034A1 (ja) * | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101571930A (zh) | 2008-04-30 | 2009-11-04 | 悠进机器人股份公司 | 可与人互动的机器人 |
US9810975B2 (en) | 2015-02-11 | 2017-11-07 | University Of Denver | Rear-projected life-like robotic head |
-
2019
- 2019-04-04 JP JP2021511042A patent/JP7414299B2/ja active Active
- 2019-04-04 WO PCT/JP2019/015020 patent/WO2020202540A1/ja active Application Filing
-
2023
- 2023-12-21 JP JP2023216324A patent/JP2024038028A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157983A (ja) * | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びロボット装置の性格判別方法 |
JP2001179665A (ja) * | 1999-12-24 | 2001-07-03 | Toshiba Corp | 知的ロボット |
JP2001250045A (ja) * | 1999-12-30 | 2001-09-14 | Sony Corp | 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム |
JP2001222520A (ja) * | 2000-02-10 | 2001-08-17 | Sony Corp | 情報処理装置及び方法 |
JP2012155616A (ja) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
JP2016137543A (ja) * | 2015-01-27 | 2016-08-04 | カシオ計算機株式会社 | ロボットおよびロボットシステム |
JP2017052075A (ja) * | 2015-09-11 | 2017-03-16 | シャープ株式会社 | 応答装置および調整装置 |
WO2018097089A1 (ja) * | 2016-11-24 | 2018-05-31 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
WO2019050034A1 (ja) * | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7320323B1 (ja) * | 2023-03-30 | 2023-08-03 | Innovation Farm株式会社 | ロボット販売装置及びロボット販売方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2024038028A (ja) | 2024-03-19 |
JPWO2020202540A1 (ja) | 2020-10-08 |
JP7414299B2 (ja) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
CN109644303B (zh) | 对发声体作出动作的机器人 | |
CN109475781B (zh) | 理解物理接触的行为自主型机器人 | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP7177497B2 (ja) | 相手を見つめる自律行動型ロボット | |
WO2018012446A1 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6884401B2 (ja) | 服を着る自律行動型ロボット | |
JP7424285B2 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
JPH10289006A (ja) | 疑似感情を用いた制御対象の制御方法 | |
JP2022113701A (ja) | 機器の制御装置、機器、機器の制御方法及びプログラム | |
JP2024150558A (ja) | ロボット | |
JP2024038028A (ja) | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 | |
WO2024219321A1 (ja) | 行動制御システム | |
WO2024219506A1 (ja) | 電子機器、行動制御システムおよび制御システム | |
WO2024214709A1 (ja) | 行動制御システム及びプログラム、並びに自律学習方法 | |
WO2024219312A1 (ja) | 行動制御システム | |
JP2024159597A (ja) | 電子機器 | |
WO2020009098A1 (ja) | ロボット | |
JP2022157245A (ja) | システム等 | |
JP2024155870A (ja) | 行動制御システム | |
JP2022157238A (ja) | システム等 | |
JP2024155799A (ja) | 電子機器 | |
JP2024155798A (ja) | 電子機器 | |
JP2024159720A (ja) | 行動制御システム | |
JP2024159589A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19923069 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021511042 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19923069 Country of ref document: EP Kind code of ref document: A1 |