WO2020009098A1 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
WO2020009098A1
WO2020009098A1 PCT/JP2019/026249 JP2019026249W WO2020009098A1 WO 2020009098 A1 WO2020009098 A1 WO 2020009098A1 JP 2019026249 W JP2019026249 W JP 2019026249W WO 2020009098 A1 WO2020009098 A1 WO 2020009098A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
motion
user
eye
deformation
Prior art date
Application number
PCT/JP2019/026249
Other languages
English (en)
French (fr)
Inventor
要 林
俊介 大坪
直人 吉岡
泰士 深谷
崇光 生駒
大二朗 加藤
孝太 根津
Original Assignee
Groove X株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X株式会社 filed Critical Groove X株式会社
Priority to JP2020529004A priority Critical patent/JPWO2020009098A1/ja
Publication of WO2020009098A1 publication Critical patent/WO2020009098A1/ja
Priority to JP2024005682A priority patent/JP2024045247A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models

Definitions

  • the present invention relates to a robot that humans can easily attach to.
  • the present inventors thought that if the reaction of the robot changes depending on how it is touched, human attachment to the robot may be further enhanced.
  • the present inventors have conceived of solving the above-mentioned problem by providing a sensor at a place where a person wants to unknowingly tamper and detecting how to tamper with a man and reflecting the result on the behavior of the robot.
  • the present invention has been completed based on the recognition of the above-mentioned problems, and a main object of the present invention is to provide a robot that humans can easily attach to.
  • the robot includes an operation control unit that selects a motion of the robot, a driving mechanism that executes the selected motion, an operation detection unit that detects deformation of the robot body, and an eye image that is generated by the robot. And an eye generation unit for displaying an eye image in the face area of the eye. The eye generation unit changes the eye image according to the deformation mode when the deformation of the robot body is detected.
  • a robot includes an operation control unit that selects a motion of the robot, a driving mechanism that executes the selected motion, and an operation detection unit that detects a motion of a device provided in the robot body.
  • the motion control unit selects a motion corresponding to the motion of the device from among motions to be driven within a predetermined range from the device.
  • a robot includes an operation control unit that selects a motion of the robot, a driving mechanism that executes the selected motion, and first and second units that are installed on the body surface of the robot and detect user contact. 2 sensors.
  • the operation control unit selects a motion according to a contact mode when a user's contact is detected by one or both of the first and second sensors.
  • the detection accuracy of the first sensor is set to be higher than the detection accuracy of the second sensor, and the first sensor is installed in the face area of the robot.
  • FIG. 1A is a front external view of the robot.
  • FIG. 1B is a side external view of the robot. It is sectional drawing which represents the structure of a robot schematically.
  • FIG. 3 is a hardware configuration diagram of a robot. It is a functional block diagram of a robot system.
  • FIG. 5A is a front external view of the robot according to the present embodiment.
  • FIG. 5B is a side external view of the robot according to the present embodiment.
  • FIG. 3 is a hardware configuration diagram of the robot according to the embodiment.
  • FIG. 2 is a functional block diagram of the robot system according to the first embodiment. It is an external view of an eye image. It is an enlarged view of an eye image. It is a schematic diagram which shows the generation method of an eye image.
  • FIG. 1A is a front external view of the robot.
  • FIG. 1B is a side external view of the robot. It is sectional drawing which represents the structure of a robot schematically.
  • FIG. 3 is a hardware configuration diagram of
  • FIG. 11A is an external view of the eyes of the robot when the analog stick is moved upward from the initial position.
  • FIG. 11B is an external view of the eyes of the robot when the analog stick is moved from the initial position to the right.
  • FIG. 11C is an external view of the eyes of the robot when the analog stick is moved downward from the initial position.
  • FIG. 11D is an external view of the eyes of the robot when the analog stick is moved to the left from the initial position.
  • It is a functional block diagram of a robot system in a 2nd embodiment. It is a flowchart which shows an eye movement and the motion of a robot.
  • FIG. 14A is a data structure diagram of the eye movement table.
  • FIG. 14B is a data structure diagram of a deformation pattern selection table. It is a data structure figure of a motion selection table.
  • FIG. 3 is a front view of the robot at a regular time. It is a front view of the robot at the time of motion activation.
  • the robot of the present embodiment reacts to messing with the nose by moving the eyes and body when the user touches the nose.
  • a basic configuration of the robot will be described.
  • FIG. 1A is a front external view of the robot 100.
  • FIG. 1B is a side external view of the robot 100.
  • the robot 100 according to the present embodiment is an autonomous behavior type robot that determines a behavior based on an external environment and an internal state.
  • the external environment is recognized by various sensors such as a camera and a thermosensor.
  • the internal state is quantified as various parameters expressing the emotion of the robot 100.
  • the robot 100 sets the home of the owner's home as an action range.
  • a person related to the robot 100 is referred to as a “user”.
  • the body 104 of the robot 100 has a rounded shape as a whole, and includes an outer skin made of a soft and elastic material such as urethane, rubber, resin, or fiber.
  • the robot 100 may be dressed.
  • the total weight of the robot 100 is about 5 to 15 kilograms, and the height is about 0.5 to 1.2 meters.
  • the robot 100 includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103.
  • the front wheel 102 is a driving wheel
  • the rear wheel 103 is a driven wheel.
  • the rotation speed and the rotation direction can be individually controlled.
  • the rear wheel 103 is a caster, and is rotatable to move the robot 100 forward, backward, left, and right.
  • the rear wheel 103 may be an omni wheel.
  • the front wheel 102 and the rear wheel 103 can be completely stored in the body 104 by a driving mechanism (rotating mechanism, link mechanism).
  • a driving mechanism rotating mechanism, link mechanism
  • the robot 100 cannot move. That is, the body 104 descends with the storing operation of the wheels, and sits on the floor F. In this seated state, a flat seating surface 108 (ground bottom surface) formed on the bottom of the body 104 abuts on the floor surface F.
  • the robot 100 has two hands 106.
  • the hand 106 does not have a function of gripping an object.
  • the hand 106 can perform simple operations such as raising, shaking, and vibrating.
  • the two hands 106 can also be individually controlled.
  • the eye 110 can display an image using a liquid crystal element or an organic EL element.
  • the robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor capable of specifying a sound source direction. It also has a built-in speaker and can emit simple sounds.
  • a horn 112 is attached to the head of the robot 100. As described above, since the robot 100 is lightweight, the user can also lift the robot 100 by grasping the horn 112. A celestial sphere camera is attached to the horn 112, and can image the entire upper region of the robot 100 at a time.
  • FIG. 2 is a cross-sectional view schematically illustrating the structure of the robot 100.
  • the body 104 of the robot 100 includes a base frame 308, a main body frame 310, a pair of resin wheel covers 312, and an outer skin 314.
  • the base frame 308 is made of metal, forms an axis of the body 104, and supports an internal mechanism.
  • the base frame 308 is configured by vertically connecting an upper plate 332 and a lower plate 334 with a plurality of side plates 336. A sufficient space is provided between the plurality of side plates 336 so as to allow ventilation.
  • the battery 118, the control circuit 342, and various actuators are housed inside the base frame 308.
  • the main body frame 310 is made of a resin material and includes a head frame 316 and a body frame 318.
  • the head frame 316 has a hollow hemisphere shape and forms a head skeleton of the robot 100.
  • the torso frame 318 has a stepped cylindrical shape and forms a torso skeleton of the robot 100.
  • the body frame 318 is fixed integrally with the base frame 308.
  • the head frame 316 is attached to the upper end of the body frame 318 so as to be relatively displaceable.
  • the head frame 316 is provided with three axes of a yaw axis 320, a pitch axis 322 and a roll axis 324, and an actuator 326 for driving each axis to rotate.
  • the actuator 326 includes a plurality of servomotors for individually driving each axis.
  • the yaw axis 320 is driven for swinging, the pitch axis 322 is driven for nodding, and the roll axis 324 is driven for tilting.
  • a plate 325 that supports the yaw axis 320 is fixed to the upper part of the head frame 316.
  • a plurality of ventilation holes 327 are formed in the plate 325 to ensure ventilation between the upper and lower sides.
  • a metal base plate 328 is provided to support the head frame 316 and its internal mechanism from below.
  • the base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism), and is connected to the upper plate 332 (base frame 308) via a joint 330.
  • the body frame 318 accommodates the base frame 308 and the wheel drive mechanism 370.
  • the wheel driving mechanism 370 includes a rotation shaft 378 and an actuator 379.
  • the lower half of the body frame 318 has a small width in order to form a storage space S for the front wheel 102 with the wheel cover 312.
  • the outer cover 314 is made of urethane rubber and covers the main body frame 310 and the wheel cover 312 from outside.
  • Hand 106 is integrally formed with outer skin 314.
  • An opening 390 for introducing outside air is provided at the upper end of the outer cover 314.
  • FIG. 3 is a hardware configuration diagram of the robot 100.
  • the robot 100 includes an internal sensor 128, a communication device 126, a storage device 124, a processor 122, a driving mechanism 120, and a battery 118.
  • the processor 122 and the storage device 124 are included in the control circuit 342.
  • Each unit is connected to each other by a power supply line 130 and a signal line 132.
  • the battery 118 supplies power to each unit via a power supply line 130.
  • Each unit transmits and receives a control signal via a signal line 132.
  • the battery 118 is a lithium ion secondary battery, and is a power source of the robot 100.
  • the internal sensor 128 is an aggregate of various sensors built in the robot 100. Specifically, it includes a camera (omnidirectional camera), a microphone array, a distance measurement sensor (infrared sensor), a thermo sensor, a touch sensor, an acceleration sensor, an odor sensor, and the like.
  • the touch sensor is installed between the outer skin 314 and the main body frame 310, and detects a user's touch.
  • the odor sensor is a known sensor to which the principle of changing electric resistance by adsorption of a molecule that causes odor is applied.
  • the communication device 126 is a communication module that performs wireless communication for various external devices.
  • the storage device 124 includes a nonvolatile memory and a volatile memory, and stores computer programs and various setting information.
  • the processor 122 is a means for executing a computer program.
  • the drive mechanism 120 includes a plurality of actuators and the wheel drive mechanism 370 described above. In addition, displays and speakers are also installed.
  • the drive mechanism 120 mainly controls the wheels (the front wheels 102) and the head (the head frame 316).
  • the drive mechanism 120 can change the moving direction and the moving speed of the robot 100, and can also raise and lower wheels (the front wheel 102 and the rear wheel 103). When the wheels rise, the wheels are completely stored in the body 104, and the robot 100 comes into contact with the floor surface F at the seating surface 108 to be in a seated state.
  • the drive mechanism 120 controls the hand 106 via the wire 134.
  • FIG. 4 is a functional block diagram of the robot system 300.
  • the robot system 300 includes the robot 100, the server 200, and a plurality of external sensors 114.
  • Each component of the robot 100 and the server 200 includes an arithmetic unit such as a CPU (Central Processing Unit) and various coprocessors, a storage device such as a memory and a storage, hardware including a wired or wireless communication line connecting them, and a storage device.
  • This is realized by software that is stored in the device and supplies processing instructions to the arithmetic unit.
  • the computer program may be configured by a device driver, an operating system, various application programs located in an upper layer thereof, and a library that provides a common function to these programs.
  • Each block described below is not a hardware unit configuration but a functional unit block.
  • Some of the functions of the robot 100 may be realized by the server 200, and some or all of the functions of the server 200 may be realized by the robot 100.
  • a plurality of external sensors 114 are installed in the house in advance.
  • the position coordinates of the external sensor 114 are registered in the server 200.
  • the server 200 determines the basic behavior of the robot 100 based on information obtained from the internal sensor 128 and the plurality of external sensors 114 of the robot 100.
  • the external sensor 114 is for reinforcing the sensory organs of the robot 100, and the server 200 is for reinforcing the brain of the robot 100.
  • the communication device 126 of the robot 100 periodically communicates with the external sensor 114, and the server 200 specifies the position of the robot 100 using the external sensor 114 (see also Patent Document 2).
  • the server 200 includes a communication unit 204, a data processing unit 202, and a data storage unit 206.
  • the communication unit 204 handles communication processing with the external sensor 114 and the robot 100.
  • the data storage unit 206 stores various data.
  • the data processing unit 202 executes various processes based on the data acquired by the communication unit 204 and the data stored in the data storage unit 206.
  • the data processing unit 202 also functions as an interface between the communication unit 204 and the data storage unit 206.
  • the data storage unit 206 includes a motion storage unit 232 and a personal data storage unit 218.
  • the robot 100 has a plurality of deformation patterns (motions). Various motions are defined, such as shaking the hand 106, moving closer to the owner while meandering, and staring at the owner with his neck stuck.
  • the motion storage unit 232 stores a “motion file” that defines the control content of the motion. Each motion is identified by a motion ID.
  • the motion file is also downloaded to the motion storage unit 160 of the robot 100. Which motion to execute may be determined by the server 200 or may be determined by the robot 100.
  • Many of the motions of the robot 100 are configured as a composite motion including a plurality of unit motions.
  • the robot 100 may be expressed as a combination of a unit motion facing the owner, a unit motion approaching while raising the hand, a unit motion approaching while shaking the body, and a unit motion sitting while raising both hands. .
  • a motion of “approaching the owner, raising his hand on the way, and finally sitting with his body shaken” is realized.
  • a rotation angle, an angular velocity, and the like of an actuator provided in the robot 100 are defined in association with a time axis.
  • Various motions are expressed by controlling each actuator over time according to the motion file (actuator control information).
  • the transition time when changing from the previous unit motion to the next unit motion is called “interval".
  • the interval may be defined according to the time required for changing the unit motion or the content of the motion.
  • the length of the interval is adjustable.
  • the settings relating to the behavior control of the robot 100 such as when and which motion is selected, output adjustment of each actuator for realizing the motion, etc., are collectively referred to as "behavior characteristics".
  • the behavior characteristics of the robot 100 are defined by a motion selection algorithm, a motion selection probability, a motion file, and the like.
  • the motion storage unit 232 stores a motion selection table that defines a motion to be executed when various events occur, in addition to the motion file.
  • a motion selection table that defines a motion to be executed when various events occur, in addition to the motion file.
  • the motion selection table one or more motions and their selection probabilities are associated with the event.
  • the personal data storage unit 218 stores user information. More specifically, master information indicating intimacy with the user and physical and behavioral characteristics of the user is stored. Other attribute information such as age and gender may be stored.
  • the robot 100 has an internal parameter called intimacy for each user.
  • the robot 100 recognizes an action that favors itself, such as holding up or calling out, the intimacy with the user increases.
  • the intimacy with a user who is not involved in the robot 100, a user who works violently, or a user who meets with a low frequency is low.
  • the data processing unit 202 includes a position management unit 208, a recognition unit 212, an operation control unit 222, a closeness management unit 220, and a state management unit 244.
  • the position management unit 208 specifies the position coordinates of the robot 100.
  • the state management unit 244 manages various internal parameters such as various physical states such as a charging rate, an internal temperature, and a processing load of the processor 122.
  • the state management unit 244 manages various emotion parameters indicating emotions (loneliness, curiosity, approval desire, and the like) of the robot 100. These emotion parameters are always fluctuating.
  • the movement target point of the robot 100 changes according to the emotion parameter. For example, when loneliness is increasing, the robot 100 sets the place where the user is located as a movement target point.
  • Emotion parameters change over time.
  • Various emotion parameters also change depending on a response action described later. For example, the emotion parameter indicating loneliness decreases when the owner “holds”, and the emotion parameter indicating loneliness gradually increases when the owner is not visually recognized for a long time.
  • the recognition unit 212 recognizes the external environment. Recognition of the external environment includes various recognitions such as recognition of weather and season based on temperature and humidity, and recognition of a shadow (safety zone) based on light amount and temperature.
  • the recognition unit 156 of the robot 100 acquires various types of environmental information from the internal sensor 128, performs primary processing on the acquired information, and transfers the information to the recognition unit 212 of the server 200.
  • the recognition unit 156 of the robot 100 extracts a moving object, in particular, an image region corresponding to a person or an animal from the image, and indicates a physical characteristic or a behavioral characteristic of the moving object from the extracted image region.
  • Feature vector is extracted as a set of quantities.
  • the feature vector component (feature amount) is a numerical value quantifying various physical and behavioral features. For example, the width of the human eye is quantified in the range of 0 to 1 to form one feature vector component.
  • the method of extracting a feature vector from a captured image of a person is an application of a known face recognition technology.
  • the robot 100 transmits the feature vector to the server 200.
  • the recognition unit 212 of the server 200 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of the user (cluster) registered in the personal data storage unit 218 in advance, so that the image is captured. It is determined which person the user belongs to (user identification processing). In addition, the recognition unit 212 estimates the emotion of the user by image-recognizing the facial expression of the user. The recognition unit 212 also performs a user identification process on a moving object other than a person, for example, a cat or dog that is a pet.
  • the recognizing unit 212 recognizes various response actions performed on the robot 100 and classifies the actions into pleasant or unpleasant actions.
  • the recognizing unit 212 also classifies the robot 100 into an affirmative / negative response by recognizing the owner's response to the behavior of the robot 100.
  • pleasant or unpleasant behavior is determined based on whether the user's response behavior is comfortable or unpleasant as a living thing. For example, being held is a pleasant act for the robot 100, and being kicked is an unpleasant act for the robot 100.
  • the affirmative / negative reaction is determined based on whether the user's response action indicates a pleasant feeling or a discomfort feeling of the user. Holding is a positive reaction indicating the user's pleasant feeling, and being kicked is a negative reaction indicating the user's unpleasant feeling.
  • the operation control unit 222 of the server 200 determines the motion of the robot 100 in cooperation with the operation control unit 150 of the robot 100.
  • the operation control unit 222 of the server 200 creates a movement target point of the robot 100 and a movement route therefor.
  • the operation control unit 222 may create a plurality of travel routes, and then select any one of the travel routes.
  • the operation control unit 222 selects a motion of the robot 100 from a plurality of motions in the motion storage unit 232.
  • Each motion is associated with a selection probability for each situation.
  • a selection method is defined in which, when a pleasant action is performed by the owner, the motion A is executed with a probability of 20%, and when the temperature reaches 30 degrees or more, the motion B is executed with a probability of 5%. .
  • the intimacy management unit 220 manages intimacy for each user. As described above, the intimacy is registered as a part of the personal data in the personal data storage unit 218. When a pleasant activity is detected, the familiarity management unit 220 increases the familiarity with the owner. The intimacy drops when an unpleasant activity is detected. In addition, the intimacy of owners who have not viewed for a long time gradually decreases.
  • the robot 100 includes a communication unit 142, a data processing unit 136, a data storage unit 148, an internal sensor 128, and a driving mechanism 120.
  • the communication unit 142 corresponds to the communication device 126 (see FIG. 4), and is responsible for communication processing with the external sensor 114, the server 200, and the other robot 100.
  • the data storage unit 148 stores various data.
  • the data storage unit 148 corresponds to the storage device 124 (see FIG. 4).
  • the data processing unit 136 performs various processes based on the data acquired by the communication unit 142 and the data stored in the data storage unit 148.
  • the data processing unit 136 corresponds to the processor 122 and a computer program executed by the processor 122.
  • the data processing unit 136 also functions as an interface of the communication unit 142, the internal sensor 128, the driving mechanism 120, and the data storage unit 148.
  • the data storage unit 148 includes a motion storage unit 160 that defines various motions of the robot 100.
  • Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100.
  • a motion is identified by a motion ID.
  • various motions such as trembling by rotating the front wheel 102 and stopping and turning back when leaving the user, the operation timing, operation time, operation direction, etc. of various actuators (drive mechanism 120) are expressed. Time series is defined in the motion file.
  • Various data may be downloaded from the personal data storage unit 218 to the data storage unit 148.
  • the data processing unit 136 includes a recognition unit 156 and an operation control unit 150.
  • the operation control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the operation control unit 222 of the server 200.
  • the server 200 may determine some of the motions, and the robot 100 may determine other motions. Further, the robot 100 determines the motion, but when the processing load of the robot 100 is high, the server 200 may determine the motion.
  • the server 200 may determine a base motion, and the robot 100 may determine an additional motion. How the motion determination process is shared between the server 200 and the robot 100 may be designed according to the specifications of the robot system 300.
  • the operation control unit 150 of the robot 100 instructs the drive mechanism 120 to execute the selected motion.
  • the drive mechanism 120 controls each actuator according to the motion file.
  • the motion control unit 150 can also execute a motion of raising both hands 106 as a gesture to hug "hugging" when a user with high intimacy is nearby, and when the user is tired of "hugging", the left and right front wheels 102 can be moved. By alternately repeating the reverse rotation and the stop with the stowed, it is possible to express the motion that hugs the hug.
  • the driving mechanism 120 causes the robot 100 to express various motions by driving the front wheel 102, the hand 106, and the neck (the head frame 316) according to an instruction from the operation control unit 150.
  • the recognition unit 156 of the robot 100 interprets the external information obtained from the internal sensor 128.
  • the recognition unit 156 can perform visual recognition (visual unit), odor recognition (olfactory unit), sound recognition (auditory unit), and tactile recognition (tactile unit).
  • the recognition unit 156 extracts a feature vector from a captured image of a moving object.
  • the feature vector is a set of parameters (feature amounts) indicating the physical and behavioral characteristics of the moving object.
  • feature amounts parameters indicating the physical and behavioral characteristics of the moving object.
  • physical characteristics and behavioral characteristics are also extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. These features are also quantified and become feature vector components.
  • the recognizing unit 156 specifies the user from the feature vector based on a known technique described in Patent Document 2 or the like.
  • the recognition unit 156 of the robot 100 selects and extracts information necessary for recognition, and interpretation processing such as determination is performed by the recognition unit 212 of the server 200. .
  • the recognition process may be performed only by the recognition unit 212 of the server 200, may be performed only by the recognition unit 156 of the robot 100, or may be performed by performing the recognition process while sharing the roles as described above. Is also good.
  • the recognizing unit 156 recognizes this by the touch sensor and the acceleration sensor, and the recognizing unit 212 of the server 200 recognizes that a “rough act” has been performed by a nearby user.
  • the recognition unit 212 of the server 200 may recognize that the “hearing action” for itself has been performed.
  • the robot 100 acquires the action of the user as physical information by the internal sensor 128, and the recognizing unit 212 of the server 200 determines pleasure or discomfort. Further, the recognition unit 212 of the server 200 executes a user identification process based on the feature vector.
  • the recognition unit 212 of the server 200 recognizes various responses of the user to the robot 100.
  • pleasant or unpleasant, affirmative or negative are associated with some typical responding actions among various responding actions.
  • most of the responding acts that are pleasant are positive reactions, and most of the disturbing acts are negative reactions.
  • pleasant or unpleasant behavior is related to intimacy, and affirmative or negative reactions affect the robot 100's action selection.
  • the familiarity management unit 220 of the server 200 changes the familiarity with the user according to the response action recognized by the recognition unit 156. In principle, the intimacy with the user who performed the pleasure increases, and the intimacy with the user who performs the pleasure decreases.
  • the mounting of the robot 100 in the present embodiment will be described below, particularly focusing on the features and purposes of the mounting and the differences between the basic configuration and the objective.
  • the description will be made separately for the first embodiment and the second embodiment.
  • the first embodiment and the second embodiment will be referred to as “the present embodiment” when they are described collectively or not particularly distinguished.
  • FIG. 5A is a front external view of the robot 100 according to the first embodiment.
  • FIG. 5B is a side external view of the robot 100 according to the first embodiment.
  • the face area 107 is provided in the robot 100 according to the first embodiment.
  • a nose 109 is provided in the face area 107 in addition to the eyes 110.
  • the nose 109 is provided near the center of the face area 107 and lower than the eyes 110.
  • the nose 109 is provided so as to be sandwiched between the left and right eyes, and the distance from the right eye to the nose 109 is equal to the distance from the left eye to the nose 109.
  • the nose 109 is smaller than the eyes 110 and the face area 107.
  • the nose 109 is provided with a physical device that is deformed by the user (hereinafter, may be referred to as a “convex” or “projection”).
  • an analog stick is installed on the nose 109.
  • the user can tilt the analog stick (nose 109) in all directions, up, down, left and right, and can also push it down.
  • tilting and pushing of a physical device such as an analog stick corresponds to “deformation of the robot body”.
  • the analog stick includes a sensor for detecting a touch (hereinafter, referred to as a “nose sensor”).
  • a technique described in, for example, Japanese Patent Application Laid-Open No. 9-134251 is known.
  • FIG. 6 is a hardware configuration diagram of the robot 100 according to the first embodiment.
  • the robot 100 according to the first embodiment includes a monitor 170 and an analog stick 180 in addition to the basic configuration shown in FIG.
  • the monitor 170 is installed on the eye 110 of the robot 100 and displays an eye image (details will be described later).
  • FIG. 7 is a functional block diagram of the robot system 300 according to the first embodiment.
  • the robot 100 includes the monitor 170 and the analog stick 180.
  • the data processing unit 136 of the robot 100 according to the first embodiment further includes an operation detection unit 182, an operation history management unit 184, and an eye generation unit 172.
  • the operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the inclination direction, the inclination angle (the angle from the initial position), and the amount of pushing.
  • the tilt direction in the first embodiment is called a “deformation direction”, and the tilt angle and the pushing amount are sometimes collectively called a “deformation amount”.
  • the operation history management unit 184 stores the detection result of the operation detection unit 182 as an operation history in a time series.
  • the operation history also includes the duration (deformation duration) of the deformation state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position).
  • the operation history management unit 184 also calculates a deformation speed as a deformation amount per unit time.
  • the degree of “deformation of the robot body” in this embodiment such as the direction of deformation, the amount of deformation, and the speed of deformation, is collectively referred to as “deformation mode”.
  • the eye generation unit 172 generates an eye image to be displayed on the eye 110 (the monitor 170).
  • the eye generation unit 172 changes the eye image displayed on the monitor 170 by outputting a signal to the monitor 170 according to the deformation mode of the analog stick 180.
  • the operation control unit 150 selects a motion according to the deformation mode of the analog stick 180.
  • changing the eye image by the eye generating unit 172 may be referred to as “the robot 100 moves the eyes” or “the robot 100 changes the eyes”.
  • the operation controller 150 selects a motion and the driving mechanism 120 executes the selected motion may be referred to as “the robot 100 moves”. Further, in the case where the “robot 100 moves”, if the motion is to move a specific part X, “the robot 100 moves X” may be used.
  • the motion control unit 150 selects a motion of moving the hand of the robot 100 and the driving mechanism 120 executes the motion
  • the expression may be expressed as “the robot 100 moves the hand”.
  • the robot 100 moves his eyes.
  • the robot 100 starts moving not only his eyes but also his body such as his neck and hands.
  • “Motion” in the present embodiment means that the robot 100 physically moves the body, and a change in the eye image is not included in “motion”.
  • the change of the image and the motion of the monitor 170 when the analog stick 180 is moved will be described in detail.
  • FIG. 8 is an external view of the eye image 171.
  • the eye generation unit 172 generates an eye image 171 including a pupil image 175 and a peripheral image 176.
  • the eye generation unit 172 displays the eye image 171 as a moving image. Specifically, by moving the pupil image 175, a change in the line of sight of the robot 100 is expressed.
  • the pupil image 175 includes a pupil region 177 and a corneal region 178.
  • the pupil image 175 also displays a catchlight 179 for expressing the reflection of external light.
  • the catch light 179 of the eye image 171 is an image area which is not shining due to the reflection of external light but is expressed by the eye generation unit 172 as a high luminance area.
  • the eye generation unit 172 moves the pupil image 175 up, down, left, and right.
  • the recognition unit 156 of the robot 100 recognizes the user
  • the eye generation unit 172 directs the pupil image 175 in the direction where the user exists.
  • the eye generation unit 172 expresses a change in a virtual line of sight (hereinafter, sometimes referred to as a “virtual line of sight”) of the robot 100 by changing the pupil image 175 of the eye image 171. Details of the control of the eye image 171 will be described later with reference to FIG.
  • the eye generation unit 172 may change the shape of the pupil image 175. For example, when the pupil image 175 is at the center of the monitor 170, the pupil image 175 is changed to a perfect circular shape, and when the pupil image 175 is at the peripheral portion, the shape is changed to an oval shape. By changing the shape of the pupil image 175 according to the position in the monitor 170, the flat monitor 170 can be made to look as if it were a curved surface shape like an actual eyeball.
  • the eye generation unit 172 changes the position of the catchlight 179 according to the direction in which the external light source exists.
  • FIG. 8 shows the display position of the catch light 179 when an external light source is present at the upper left as viewed from the robot 100.
  • the eye generation unit 172 may determine the direction of the external light source from the captured image by image recognition, or may determine from the detection data of an optical sensor (not shown).
  • FIG. 9 is an enlarged view of the eye image 171.
  • an eyelid image 190 indicating an eyelid (eyelid) is superimposed on the pupil image 175 and the peripheral image 176.
  • Eyelid image 190 includes eyelashes 192.
  • the peripheral image 176 is a portion corresponding to a human conjunctiva.
  • the eye generation unit 172 changes the eyelid image 190, the pupil region 177, the corneal region 178, and the catchlight 179 in the eye image 171. As the light amount increases, the eye generation unit 172 increases the diameter of the pupil region 177 intermittently or continuously. The eye generation unit 172 may enlarge or reduce not only the pupil region 177 but also the entire pupil image 175 intermittently or continuously. When the light amount is particularly large (for example, when the light amount is larger than a predetermined threshold), the eye generation unit 172 may express the “dazzling state” by lowering the eyelid image 190.
  • FIG. 10 is a schematic diagram illustrating a method of generating the eye image 171.
  • the eyeball model 250 is three-dimensional computer graphics imitating the eyeball of the robot 100.
  • the eye generating unit 172 first forms an eyeball model 250 by forming a three-dimensional sphere as a polygon and pasting a texture (hereinafter, referred to as an “eyeball texture”) on the polygon.
  • the eyeball texture is an image including the pupil image 175.
  • the eyeball texture is stored in an eye image storage unit (not shown) included in the data storage unit 148.
  • first surface 252 and a second surface 254 are set in front of the eyeball model 250.
  • the first surface 252 and the second surface 254 are virtual planes corresponding to the display surface of the monitor 170 of the eye 110.
  • the eye generation unit 172 generates a two-dimensional eyeball projection image 256 from the three-dimensional eyeball model 250 by projecting the eyeball model 250 on the first surface 252.
  • Eye generation section 172 causes eyelid image 190 to be displayed on second surface 254. By superimposing the eyeball projection image 256 on the first surface 252 and the eyelid image 190 on the second surface 254, an eye image 171 shown in FIG. 8 and the like is generated.
  • the eye generation unit 172 generates two eyeball models 250 for the right eye and the left eye, and generates an eye image 171 for each of them.
  • the first surface 252 and the second surface 254 are collectively referred to as “ocular sphere 258”.
  • the eye generation unit 172 changes the eyeball projection image 256 by rotating the eyeball model 250. Since the three-dimensional eyeball model 250 is generated and projected on the first surface 252 while rotating the same, the movement of the line of sight of the robot 100 can be made smoother than when the eye image 171 is directly drawn on the first surface 252. Can be expressed. Since even the two-dimensional eye image 171 is generated and controlled based on the three-dimensional eyeball model 250, the present method can easily express a complicated movement unique to the living eyeball.
  • the eye generation unit 172 causes the eyelid image 190 to be superimposed on the eyeball projection image 256 by displaying the eyelid image 190 on the second surface 254 different from the first surface 252. Humans reflexively close their eyes when clasped in front of them. In order to implement such conditional eye reflection in the robot 100, it is necessary to change the eyelid image 190 at high speed.
  • the image processing of the first surface 252 and the image processing of the second surface 254 are independent.
  • the eye generation unit 172 may perform image control only on the second surface 254 when expressing the expression of closing the eyes. Even at the time of blinking, the eye generator 172 may execute image processing on the second surface 254. Since the eyeball model 250 (eyeball projection image 256) and the eyelid image 190 can be controlled separately, the eyelid image 190 can be controlled at high speed. With such a configuration, the eye generation unit 172 can dynamically generate the eye image 171.
  • FIGS. 11 (a), 11 (b), 11 (c) and 11 (d) show external views of the eyes of the robot 100.
  • FIG. 11 (a), 11 (b), 11 (c) and 11 (d) show external views of the eyes of the robot 100.
  • FIG. 11A is an external view of the eyes of the robot 100 when the analog stick 180 is moved upward from the initial position 188.
  • FIG. 11B is an external view of the eyes of the robot 100 when the analog stick 180 is moved to the right from the initial position 188.
  • FIG. 11C is an external view of the eyes of the robot 100 when the analog stick 180 is moved downward from the initial position 188.
  • FIG. 11D is an external view of the eyes of the robot 100 when the analog stick 180 is moved to the left from the initial position 188.
  • the operation detection unit 182 detects the deformation amount and the deformation direction (the tilt angle and the tilt direction) of the analog stick 180.
  • the eye generation unit 172 calculates the rotation direction and the rotation amount of the eyeball model 250 based on the detection result, and rotates the eyeball model 250. Specifically, the same direction as the tilt direction of the analog stick 180 is set as the rotation direction, and the eyeball model 250 is rotated by a rotation amount proportional to the tilt angle.
  • the eye generation unit 172 projects the eyeball model 250 on the first surface 252. With such control, the eye image 171 of the robot 100 moves so as to look in the tilt direction of the analog stick 180. The user can change the line of sight of the robot 100 by moving the analog stick 180.
  • FIG. 11A when the analog stick 180 is tilted upward, the robot 100 also turns its line of sight. As shown in FIG. 11B, when the analog stick 180 is tilted to the right, the line of sight of the robot 100 turns right. When the analog stick 180 is tilted downward, the line of sight of the robot 100 is directed downward (FIG. 11C), and when tilted to the left, the line of sight of the robot 100 is moved left (FIG. 11D). The same applies to directions other than up, down, left, and right.
  • the eye image 171 can follow the movement of the analog stick 180 at high speed.
  • the robot 100 immediately moves his eyes, so that the user can experience a quick reaction from the robot 100.
  • the robot 100 may move not only the pupil but also the body (at least one of the head, hands, and wheels).
  • the analog stick 180 is quickly moved, if the robot 100 also responds by immediately moving the head or body, the robot 100 can express a biological behavior characteristic called “reflexive behavior”.
  • the robot 100 may turn the head to the right.
  • the robot 100 can move not only the eyes but also the head by moving the nose 109 (analog stick 180) quickly and greatly.
  • the robot 100 responds variously to the manipulation of the nose 109 by not only linking the eyes with the movement of the nose 109 but also moving the body depending on how the nose 109 moves.
  • the movement of the nose 109 that triggers the robot 100 to move the body may be, for example, the user playing the analog stick 180 upward or moving the analog stick 180 right and left at high speed.
  • the operation control unit 150 selects one of a plurality of motions. You may. These motions only need to represent reflexes performed by living things, such as rotating the head in the direction opposite to the direction in which the nose 109 has moved, or driving the wheels to fly backward.
  • the eye generation unit 172 changes the eye image 171 by rotating the eyeball model 250 in accordance with the movement of the analog stick 180. For this reason, the line of sight of the robot 100 can be moved by following the movement of the nose 109. In other words, a user interface as if the nose 109 is an eye operation device is realized.
  • the operation control unit 150 selects a motion according to the movement of the nose 109. Therefore, depending on how the nose 109 is moved, the robot 100 can respond to the involvement of the user not only with the eye image 171 but also with the movement of the whole body.
  • the operation control unit 150 may execute a motion that follows the movement of the nose 109. As described above, the eye generation unit 172 may change the eye image 171 in accordance with the movement of the analog stick 180. Further, the operation control section 150 may change the motion in accordance with the motion of the analog stick 180. This gives the user an impression as if the operation direction of the analog stick 180 and the change in the eye image 171 or the motion are linked.
  • the nose 109 is smaller than the eyes 110 and the face area 107. It is necessary to reliably detect the contact of the user at any part of the nose 109. Therefore, it is necessary to provide a sensor in the whole or most of the nose 109.
  • sensors of the same size are provided for the robot 100, the number of sensors in the nose 109 which is smaller than that in the face area 107 can be reduced. Therefore, the cost for manufacturing the robot 100 can be reduced.
  • the nose 109 is small, it tends to catch the eyes of the user.
  • the main factors are that it is provided near the center of the face area 107 and that the face area 107 has a convex shape with respect to the surface of the robot 100.
  • the eye image 171 may be changed based on an internal parameter of the robot 100, for example, an emotion parameter. For example, when the value of the emotion parameter indicating the degree of frustration of the robot 100 is equal to or greater than a predetermined value, the eye generation unit 172 may rotate the eyeball model 250 in a direction opposite to the direction in which the analog stick 180 is tilted.
  • an emotion parameter For example, when the value of the emotion parameter indicating the degree of frustration of the robot 100 is equal to or greater than a predetermined value, the eye generation unit 172 may rotate the eyeball model 250 in a direction opposite to the direction in which the analog stick 180 is tilted.
  • a transformation function may be prepared that uses the deformation mode (deformation direction, deformation amount, deformation speed) of the analog stick 180 as a variable and defines the rotation direction and rotation amount of the eyeball model 250 as output.
  • the eye generation unit 172 may determine the rotation direction and the rotation amount of the eyeball model 250 based on the deformation mode of the analog stick 180 and the conversion function.
  • the eye generation unit 172 may select one of a plurality of types of conversion functions based on the emotion parameter.
  • the eye generation unit 172 may randomly select any of a plurality of types of conversion functions. According to such a control method, it is possible to impart a variety of eye movements while maintaining the link between the deformation of the analog stick 180 and the movement of the eye. Since the robot 100 responds to the same tampering with various eye movements, the user can enjoy various expressions of the robot 100. It is also possible to estimate the emotion of the robot 100 according to the movement of the eyes.
  • the robot 100 changes the motion according to the operation history of the analog stick 180.
  • the operation detection unit 182 sequentially detects the movement of the analog stick 180, that is, the deformation direction and the deformation amount.
  • the operation history management unit 184 stores the detection result as an operation history in chronological order. Specifically, the operation history management unit 184 stores the detection result and the detection time in association with each other.
  • the operation control unit 150 selects a motion according to the operation history, that is, the motion of the analog stick 180.
  • the state management unit 244 may change the emotion parameter depending on how the analog stick 180 is tampered (operated). For example, if the user gently fiddles with the analog stick 180, the eye generation unit 172 starts moving his or her eyes in conjunction with the fiddle. If the user continues to mess with the same, the state management unit 244 increases the emotion parameter indicating the sense of security. When the emotion parameter indicating a sense of security becomes equal to or more than a predetermined value, the eye generating unit 172 expresses sleepiness of the robot 100 by lowering (closing) the eyelid image 190. At this time, the motion control unit 150 may express the “dwelling” by selecting a motion that moves the head up and down.
  • the designer can arbitrarily define how to gently play, in other words, how to play the analog stick 180 that reassures the robot 100.
  • the analog stick 180 may be reciprocated left and right at substantially the same pace, or the nose sensor may be continuously struck for a predetermined number of times without moving the analog stick 180 with enough strength to prevent the analog stick 180 from being pushed. It may be.
  • the robot 100 starts moving his eyes in conjunction with the messing. If the user continues to mess with the disorder, the emotion parameter indicating irritation increases, and the robot 100 stops the movement of the eyes. In addition, the robot 100 moves the head to the left and right to move the fingertip of the user away from the analog stick 180, and expresses “no no”.
  • the “messy manner of tinkering” may be arbitrarily defined by the designer.
  • the state of being tamed gently is a state in which a monotonous movement is made.
  • a monotonous movement is a movement in which the output value has a periodicity and a state in which the amount of deformation is small continues for longer than a predetermined period.
  • the state of being messed up is a state in which a non-monotonous movement is being made. If expressed by the output value from the analog stick 180, it can be said that the movement in which the output value has no periodicity and the amount of deformation is large, lasts longer than a predetermined period.
  • the robot 100 not only keeps moving the eye in conjunction with the movement of the analog stick 180, but also changes the way of interlocking the analog stick 180 with the eye when a predetermined condition is satisfied.
  • the robot 100 expresses the “sleepy” state by closing the eyelids or moving the body, instead of simply stopping the movement of the eyes.
  • the robot 100 stops eye movement and stops eyelids May be closed and the head may be moved up and down to express the state of "becoming sleepy.”
  • the operation history management unit 184 refers to the operation history, and determines whether the movement of the analog stick 180 corresponds to “alternate left and right inclination”.
  • the eye generation unit 172 stops the movement of the eyeball model 250 and displays the eyelid image 190.
  • the operation control unit 150 selects a motion for moving the head of the robot 100 up and down. Thereby, the robot 100 closes the eyes and moves the head up and down, thereby expressing a “sleepy” state.
  • the state management unit 244 increases the emotion parameter indicating a sense of security.
  • the robot 100 may close the eyes and move the head up and down.
  • the robot 100 occupies most of the user's field of view. At this time, the user can easily notice a small change of the robot 100.
  • the user can easily watch the nose 109 and the eyes 110 of the robot 100 held sideways.
  • this state for example, when detecting a state in which the user is holding the robot 100 sideways by an image captured by the camera of the robot 100, when the user fiddles with the nose 109, the movement of the analog stick 180 is linked. If the eyes change, the user can be immersed in the robot 100 without being conscious of anything other than the robot 100.
  • the operation control unit 150 may drive a portion far from the nose 109 as the deformation duration increases. For example, the robot 100 moves the eye image 171 when the nose 109 is fiddled, and the robot 100 moves the head slowly when the nose 109 is fiddled. When the nose 109 is further tweaked, the robot 100 may move its hand, and when the nose 109 is further tweaked, the robot 100 may move in a direction away from the user.
  • the deformation duration may be defined as the time during which the tilt of the analog stick 180 continues, or may be defined as the duration of the touch of the nose sensor.
  • the robot 100 moves the head up and down to express a state of “starting to become drowsy and drowsy”.
  • the robot 100 may further move the hand 106 to the body 104 and store the front wheel 102 and the rear wheel 103 in the body 104.
  • the robot 100 first moves his eyes, then moves his head to “dwell”, and puts both hands and feet close to the body to be in a “sleeping” state. .
  • the robot 100 may change the motion according to whether the analog stick 180 is moved quickly or slowly.
  • the operation history management unit 184 records the deformation amount and the deformation direction of the analog stick 180 as an operation history.
  • the operation history management unit 184 calculates a deformation speed (a change amount per unit time) from the operation history.
  • the operation control unit 150 selects a motion for moving the head up and down. On the other hand, if the deformation speed exceeds the predetermined value, the operation control unit 150 selects a motion that moves the head left and right. Under such control, the robot 100 shakes its head sideways to express “no no”.
  • the robot 100 changes the motion depending on how the user manipulates the nose 109.
  • the messing method here does not mean only the deformation direction of the analog stick 180. For example, it also includes fine movements such as whether the analog stick 180 is moved small or large, that is, whether it is monotonous, or whether it is moved fast or slowly, that is, whether it is roughly touched or stroked. If the robot 100 changes the motion in accordance with a small difference in how to fiddle with the user, the user can contact the robot 100 without getting tired.
  • the time required to reach the “sleepy” state may change according to the internal parameters of the robot 100, such as the familiarity of the robot 100 with the user and the state of the emotion parameter at that time.
  • the robot 100 may change from the closed eye image 171 to the opened eye image 171 to execute the movement or the motion.
  • the robot 100 may change the eye image 171 to execute the motion.
  • the motion of the robot 100 may be changed according to the intimacy level. For example, when a user whose intimacy is equal to or more than a predetermined value modifies the nose 109, the robot 100 brings the head closer to the user. On the other hand, if a user whose intimacy is less than the predetermined value fiddles with the nose 109 in the same manner, the robot 100 turns its head away from the user. As described above, the operation control unit 150 may select any one of a plurality of motions according to the deformation mode of the analog stick 180 and the familiarity of the user who operates the analog stick 180.
  • the operation control unit 150 randomly selects any of the motions M1 to M3, and performs the same operation by a user whose intimacy is less than T1.
  • the operation control unit 150 may randomly select any of the motions M4 to M6.
  • the behavior of the robot 100 according to the first embodiment changes depending on the intimacy with the user. Even if the user fiddles in the same way, the motion of the robot 100 changes depending on the degree of intimacy, so that the user can keep in contact with the robot 100 without getting tired. By continuing to touch, the user can have an attachment to the robot 100. In addition, friendliness with the user of the robot 100 is increased by gently maintaining contact. As the intimacy changes, the reaction of the robot 100 also changes. The operation of the nose 109, intimacy (feelings of the robot 100 for the user), and emotion parameters (feelings of the robot 100) affect each other in a complicated manner, so that the robot 100 can realize various action expressions according to the situation.
  • the robot 100 When the user modifies the nose 109, the robot 100 first moves the eyes, then moves the head, and starts moving the body 104. Also, in the robot 100, the function of “moving the eyes when the analog stick 180 of the nose 109 is moved” (hereinafter, this function is sometimes referred to as “pupil interlocking function”) is effective only when the user Alternatively, the condition may be that the user is holding the face sideways toward the user.
  • the eyes of the robot 100 may only blink.
  • the fact that the user is holding the robot 100 sideways is detected by a touch sensor (not shown) that detects a contact on the surface of the robot 100 and an acceleration sensor (not shown) that detects an inclination of the robot 100.
  • the recognition unit 156 detects a user's contact with the robot 100 via the touch sensor and the acceleration sensor.
  • the posture determination unit (not shown) specifies the posture of the user in contact with the robot 100 from the detection result detected by the recognition unit 156. If the user specifies that the robot 100 is holding the robot sideways, the posture determination unit instructs the operation history management unit 184 to enable the pupil interlocking function.
  • the operation history management unit 184 that has received the instruction from the posture determination unit enables the pupil interlocking function, and activates the eye movement according to the manner of movement of the analog stick 180 as described above. In this way, the behavior characteristics of the robot 100 with respect to the operation of the nose 109 may be changed according to the posture of the robot 100 such as a hug.
  • the posture determination unit performs the pupil interlocking function on condition that the user and the robot 100 have a predetermined positional relationship and that the user's posture is a predetermined posture based on a touch sensor, an acceleration sensor, or a captured image. May be enabled.
  • the pupil interlocking function is effective when the user is holding the robot 100 face-side and holding it sideways. Even if the robot 100 reacts when the user does not concentrate his consciousness on the robot 100, the user is likely to miss the reaction.
  • By linking the movement of the analog stick 180 and the movement of the eyes when the robot 100 assumes this posture it is possible to concentrate the user's consciousness on the robot 100 and to notice a small change of the robot 100.
  • the user's consciousness is concentrated on the robot 100, for example, sitting on the user's lap face to face, and a small change of the robot 100 is noticed.
  • the detection of the posture in which the pupil is held may be used as a condition for enabling the pupil interlocking function.
  • the condition for enabling the pupil interlocking function is not limited to the touch sensor and the acceleration sensor, and detection of whether the user and the robot 100 face each other using the face authentication technology of the robot 100 may be used.
  • the pupil interlocking function may be enabled.
  • the robot 100 according to the second embodiment changes the eye movement (eye movement) according to the trajectory (path pattern) of the nose 109 when the nose 109 is moved.
  • the robot 100 according to the second embodiment has the same appearance as the robot 100 according to the first embodiment.
  • FIG. 12 is a functional block diagram of a robot system 300 according to the second embodiment.
  • the data storage unit 148 of the robot 100 according to the second embodiment further includes an eye movement storage unit 174.
  • the eye movement storage unit 174 stores the way of movement (deformation pattern) of the analog stick 180 and the movement of the eyes (eye movement) of the robot in association with each other.
  • a motion corresponding to the duration (deformation duration) of the deformation state of the analog stick 180 (the state in which the analog stick 180 is moved from the initial position) is also stored. ing.
  • the operation history management unit 184 of the robot 100 stores the detection result of the operation detection unit 182 as an operation history in a time series.
  • the operation history management unit 184 compares the stored operation history with the execution condition of the deformation pattern (details described later) stored in the eye movement storage unit 174, and when the operation history matches any of the execution conditions, It instructs the eye generation unit 172 to execute the eye movement associated with the deformation pattern.
  • the eye generation unit 172 receives an instruction from the operation history management unit 184, and performs an eye operation.
  • the “eye movement” means a change in the eye image 171 due to the rotation of the eyeball model 250, as in the first embodiment.
  • the robot 100 according to the second embodiment also changes the eye image 171 according to the operation history of the analog stick 180 provided on the nose 109.
  • a motion is selected according to the deformation duration, and the driving mechanism 120 of the robot 100 is controlled.
  • FIG. 13 is a flowchart illustrating the eye movement and the motion of the robot 100 based on the operation history.
  • the operation history management unit 184 stores the detection results of the operation detection unit 182 as an operation history in chronological order (S10).
  • the operation history management unit 184 determines whether or not the stored operation history matches any of the deformation patterns stored in the eye movement storage unit 174 (S12). If there is a matching deformation pattern (Y in S12), the operation history management unit 184 sequentially determines how long the deformation state continues based on the operation history (S14). If there is no matching deformation pattern (N in S12), the subsequent processing is skipped.
  • the operation history management unit 184 instructs the eye generation unit 172 to execute an eye operation corresponding to the deformation pattern (S16).
  • the operation history management unit 184 instructs the eye generation unit 172 to execute the eye closing operation (S18), and sends the motion control unit 150 a motion storage unit.
  • the motion is inquired from 160 and an instruction to execute the driving mechanism 120 is issued (S20).
  • the operation history management unit 184 of the robot 100 selects an eye movement previously associated with the deformation pattern, and instructs the eye generation unit 172 to execute. For example, it is assumed that an eye movement of swirling the eye is associated with a deformation pattern defined by a predetermined execution condition that the analog stick 180 makes one turn clockwise. In this case, when the user makes one rotation of the analog stick 180 clockwise, the robot 100 turns his or her eyes.
  • the operation control unit 150 also selects any one of one or more motions that are associated in advance with the deformation duration. When the condition that the deformation duration is 5 seconds or longer is satisfied, it is assumed that a motion of moving the head of the robot 100 right and left is associated with the deformation duration. In this case, when the user keeps moving the analog stick 180 for, for example, 6 seconds, the robot 100 shakes the head left and right.
  • FIG. 14A is a data structure diagram of the eye movement table 420.
  • FIG. 14B is a data structure diagram of the deformation pattern selection table 440 of the analog stick 180.
  • the eye movement table 420 defines the correspondence between the deformation pattern of the analog stick 180 and the eye movement.
  • the deformation pattern selection table 440 indicates what parameters define each deformation pattern.
  • the eye movement table 420 and the deformation pattern selection table 440 are stored in the eye movement storage unit 174.
  • the operation history is a record in which the deformation direction of the analog stick 180 and the time corresponding to the deformation amount are recorded in chronological order.
  • the route (trajectory) followed by the analog stick 180 can be specified.
  • an operation of the analog stick 180 that follows the path R1 as a trajectory when making one round in the clockwise direction and the movement following the path R1 is within 1 second is defined as a deformation pattern A1.
  • a “modification” of the present embodiment includes a path.
  • Each deformation pattern is associated with an eye movement.
  • the eye generation unit 172 performs an operation of turning the eye around (eye operation M1).
  • the eye generation unit 172 performs an operation of blinking (eye operation M2).
  • the eye generation unit 172 performs an operation of bringing both eyes closer (eye operation M3).
  • the operation detection unit 182 detects the movement of the analog stick 180 via the internal sensor 128. The way of movement is transmitted from the operation detection unit 182 to the operation history management unit 184.
  • the operation history management unit 184 determines the movement and the deformation pattern stored in the eye movement storage unit 174. (The case where the deformation duration is 5 seconds or longer will be described later). If the operation is performed within 5 seconds and the manner of movement of the analog stick 180 matches the execution condition of one of the deformation patterns, the operation history management unit 184 specifies the eye movement associated with the deformation pattern.
  • the operation history management unit 184 instructs the eye generation unit 172 to execute the specified eye movement.
  • the eye generation unit 172 executes the specified eye operation.
  • the operation history management unit 184 specifies the eye movement M1 associated with the deformation pattern A1, and the eye generation unit 172 performs the eye movement M1, that is, the operation of swirling the eyes. I do.
  • the behavior of the robot 100 according to the second embodiment changes according to the deformation duration of the analog stick 180 as well as the eye movement.
  • FIG. 15 is a data structure diagram of the motion selection table 460.
  • the motion selection table 460 defines the correspondence between the deformation duration and the motion.
  • the motion selection table 460 is stored in the motion storage unit 160.
  • the operation history management unit 184 instructs execution of the operation of closing the eyes (eye closing operation).
  • the eye generation unit 172 performs an eye closing operation based on an instruction from the operation history management unit 184.
  • the motion control unit 150 specifies the motion C1 corresponding to the case where the deformation duration is 5 seconds or longer from the motion storage unit 160.
  • the motion C1 is a motion of moving the head of the robot 100 right and left. The robot 100 behaves with its eyes closed and its head shaken left and right to “turn away”.
  • the operation control unit 150 selects the motion C2.
  • the motion C2 is a motion of raising and lowering the hand of the robot 100.
  • the operation control unit 150 activates the motion C1 and the motion C2.
  • the robot 100 performs the motion of the motion C1 and the motion C2, and expresses the motion of “no no” in which the eyes are closed and the hands are fluttered while shaking the head.
  • the motion control unit 150 selects a motion whose driving target is a part from the nose 109 to the head of the robot 100 within a predetermined range while the deformation duration is short. If the deformation continuation time becomes longer, a motion that drives outside the head of the robot 100 is also an object to be selected.
  • the robot 100 in the second embodiment moves the eyes according to the movement of the analog stick 180 provided on the nose 109. As the analog stick 180 continues to move, the robot 100 starts moving its head. If the analog stick 180 continues to be moved even after the head starts moving, the robot 100 starts moving. As described above, since the robot 100 moves the eyes and then starts moving the head and the body by the user messing with the nose 109, the user becomes tired of being touched by the robot 100 and starts to feel tickling. The user feels that the robot 100 is behaving, and the robot 100 can feel the feeling of being in contact with the creature.
  • the analog stick 180 is installed on the nose 109.
  • humans often look at the other person's face. The same applies to the case where the user touches the robot 100 while touching the robot 100 while looking at the face area 107 of the robot 100.
  • the nose 109 corresponds thereto.
  • the robot 100 behaves in accordance with the movement. Become.
  • FIG. 16 is a front view of the robot 100 in a normal state.
  • FIG. 16 is a diagram illustrating a state where the robot 100 is standing in a steady state where the user is not touching the robot 100.
  • FIG. 17 is a front view of the robot 100 when the motion C1 is activated.
  • FIG. 17 is a diagram illustrating a state where the robot 100 activates the motion C1 because the user continuously touches the analog stick 180 of the robot 100.
  • the eyes 110 of the robot 100 open their eyes and stare at the front. If the user keeps moving the analog stick 180 and the deformation duration exceeds 5 seconds, the robot 100 pinches the eyes 110 and turns away.
  • the robot 100 has been described based on the embodiment.
  • the analog stick 180 is provided on the nose 109. Since the robot 100 responds to the user's contact with the nose 109, which is easy to unknowingly manipulate, the user feels as if the robot 100 communicates with him, and the user can easily attach to the robot 100.
  • the robot 100 changes the eyes according to the movement of the analog stick 180. If the analog stick 180 is manipulated for a long time, the robot 100 starts moving its head and body. When the user slightly fiddles with the analog stick 180, the robot 100 moves his eyes and makes a gesture of interest to the user. If the robot 100 continues to mess around, the robot 100 moves its head and shuns the user's hand to express the feeling of “quit”. If it is too funny, the robot 100 will begin to flap its hands and begin to express "no no".
  • the robot 100 according to the present embodiment changes its expression and behavior not only by the movement of the analog stick 180 but also by the duration thereof. The user can feel that the robot 100 has feelings (quickness) such as “get tired”, “tickle”, “annoying”, and “do more”, and can also feel the robot 100 as a biological behavior.
  • the eyes of the robot 100 of this embodiment change when the user manipulates the analog stick 180 provided on the nose 109.
  • the robot 100 starts to move its head, and if it continues to mess with it, it starts to move its body.
  • the behavior of the robot 100 is first shown in a portion located in the face area 107 near the nose 109, so that the user does not miss the reaction of the robot 100. If the user continues to fiddle, not only within the face region 107 but also within the head of the robot 100 within a predetermined range starts to move, and if the user continues to fiddle, the behavior is shown outside the head of the robot 100 (outside the predetermined range). The user can enjoy watching the expression and behavior of the robot 100 that changes depending on how the nose 109 is tampered with and the time at which it is tampered.
  • the robot 100 changes the eyes according to the movement of the analog stick 180 provided on the nose 109.
  • the user may be imaged by an imaging device, and after detecting the movement of the user from the captured image by the motion sensor, the eyes may be changed according to the movement of the user.
  • image processing such as a motion sensor
  • the time from the user's contact with the robot 100 to the behavior of the robot 100 is shortened. it can. Further, the contact of the user with the robot 100 can be reliably detected.
  • the analog stick 180 (operation device) is directly provided on the robot 100 main body.
  • an operation device such as a remote controller may be provided separately from the robot 100 main body.
  • the operation device is directly provided on the robot 100 main body, the user directly touches the robot 100. Therefore, it is easier for the user to intuitively operate and control than when the operation device is provided separately from the robot 100 main body.
  • the present invention is not limited to the above embodiments and modified examples, and can be embodied by modifying the constituent elements without departing from the gist.
  • Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications.
  • some components may be deleted from all the components shown in the above-described embodiment and the modified examples.
  • other embodiments will be described.
  • the operation detection unit 182 detects the movement (deformation) of the analog stick 180, and determines the behavior of the robot 100 according to the detection result. What is detected by the operation detection unit 182 is not limited to this, but may be any as long as the deformation of the robot 100 main body or the movement of a device provided in the robot 100 main body.
  • the detected deformation or movement may be a physical movement such as a movement of shaking the neck of the robot 100, a movement of holding the hand, a movement of shaking the body, or a deformation of the cheek caused by the user pinching.
  • the means for detecting these operations may be any means for detecting a physical operation using, for example, a joystick, a trackball, or the like.
  • An analog stick 180 or the like may be arranged inside a flexible outer skin so that these detection means are not exposed on the surface of the robot 100.
  • the location where the operation detection unit 182 detects the contact is the nose 109.
  • the location where the contact is detected is not limited to the nose 109.
  • any location where contact can be detected such as a rounded portion such as a meat ball in an animal, a protruding portion such as a tail, or a portion where deformation is assumed such as a cheek, may be used.
  • it is a place where the user wants to unknowingly fiddle.
  • the eyes move when the nose 109 is tampered.
  • the operation location of the robot 100 is not limited to the eyes, but may be any movable location such as a neck, a tail, a hand, or the like. Further, the location where the contact is detected by the operation detection unit 182 and the operating location may be near or far, and for example, the nose may move when the tail is tampered with.
  • the head of the robot 100 is set to a predetermined range, and if the time during which the nose 109 is manipulated is 5 seconds or more and less than 15 seconds, only the head of the robot 100 is used.
  • the hand 106 which is a part outside the predetermined range, was also driven.
  • the “predetermined range” that determines a position to be driven according to the deformation of the robot 100 main body or the movement of a device provided in the robot 100 main body is not limited to the head of the robot 100. For example, it may be the face area 107 of the robot 100 or a part other than the feet of the robot 100. An appropriate range may be set among the portions that can be moved by the drive mechanism of the robot 100.
  • the condition of the deformation duration for activating each motion is not limited to 5 seconds or more and 15 seconds or more, and can be set to various times such as 1 second or less or 1 minute or more.
  • the motion is changed according to the time during which the nose 109 is continuously tampered (the deformation duration).
  • the deformation duration for example, a deformation mode of the robot 100 main body such as a path or a deformation speed, or a motion of a device provided in the robot 100 may be adopted as a condition for selecting a motion.
  • the eyes of the robot 100 may be changed or the motion may be changed according to the cumulative value of the deformation amount, the cumulative value of the deformation duration time, or the pressure applied to the robot 100.
  • the nose 109 is fiddled with a weak force
  • the movement of the eyes, the head, and the movement of the whole body is gradual, so that only the eyes may be changed for a long time.
  • the transition to the movement of the whole body may be made in a short time.
  • the behavior of the robot 100 according to the twiddle method becomes richer in variation.
  • the robot 100 of the present invention responds to the touch with “deformation”.
  • the contact is detected not only as an electrical contact but also as a physical “deformation”.
  • There are various "fiddles” such as strength, deformation, contact area, etc., depending on the user. If the robot 100 responds to the expression richly according to the “fiddle” depending on the user, the user will have an attachment to the robot 100.
  • the behavior of the robot 100 is determined according to the movement of the analog stick 180.
  • the trigger for determining the behavior of the robot 100 is not limited to this.
  • a sensor may be provided at a location where the user is supposed to unintentionally want to tamper.
  • a plurality of sensors may be provided in the robot 100 main body. When a plurality of sensors are provided, one of them may be a sensor for detecting the movement of the analog stick 180. In addition, all sensors may have the same detection accuracy or may have different detection accuracy. When a plurality of sensors having different detection accuracy are provided, a sensor having higher detection accuracy may be provided at a position where the user is likely to be tampered.
  • the detection accuracy in this case is the detection sensitivity to the amount of change when the user changes the contact point with the robot 100 main body.
  • detection of a user's contact by any of the sensors provided in the robot 100 body may be referred to as “the user touches the robot 100” or “the user touches the robot 100”.
  • a sensor that detects a user's contact with two positions sandwiching the eye 110 on the surface of the robot 100 is given.
  • the eye generation unit 172 lowers the eyelid image 190 (closes the eye). Thereby, the action of the robot 100 to close the eyes since the eyes 110 are covered can be expressed.
  • the eye generation unit 172 When a plurality of sensors are provided in the main body of the robot 100, when any one of the sensors detects a user's contact, the eye generation unit 172 generates an eye image 171 such that the virtual line of sight of the robot 100 is directed to the contact location. It may be.
  • displaying the eye image 171 in which the virtual line of sight is directed to a predetermined location on the monitor 170 by the eye generation unit 172 for a predetermined time may be referred to as “the robot 100 gazes at the predetermined location”. For example, when the user touches the hand of the robot 100, the robot 100 gazes at the hand. Alternatively, when the user touches the stomach of the robot 100, the robot 100 gazes at the stomach.
  • the robot 100 may move a portion including the contact location. For example, if the time during which the user is touching the hand of the robot 100 exceeds 5 seconds, the robot 100 performs a motion to release the hand of the robot 100 from the user's hand. If the user touches the stomach of the robot 100 for more than 10 seconds, the robot 100 performs a motion of swinging the stomach left and right. As described above, when any one of the plurality of sensors provided at the plurality of locations of the robot 100 detects the user's contact, the eye generation unit 172 generates the eye image 171 gazing at the contact location.
  • the operation control unit 150 executes a motion for moving a portion including the contact location. This allows the user to feel that the robot 100 is showing a biological behavior of twisting the back after staring at the touched portion.
  • a high-precision sensor is attached to the entire area of the robot 100, power consumption will increase.
  • the power consumption can be reduced by setting only some of the sensors to high accuracy.
  • the detection accuracy is not limited to the detection sensitivity to the amount of change when the user changes the point of contact with the robot 100 main body, but may be, for example, the ability to detect the strength of contact, the contact range, and the like.
  • a physically movable sensor may be used as a high-precision sensor, and a capacitive touch sensor may be used as a low-precision sensor.
  • the type of sensor may be the same, but the detection accuracy may be different.
  • Various types of sensors can be employed. In addition to the above-described sensors, for example, a sensor that performs tactile feedback when the sensor detects a user's contact may be used.
  • the eye motion of the robot 100 has been described as the eye motion M1 that is a spinning motion, the eye motion M2 that is a blinking motion, and the eye motion M3 that is a motion of moving both eyes.
  • the eye movement shown by the robot 100 is not limited to these.
  • any operation that can be realized by the robot 100 such as an operation of distracting the line of sight, an operation of opening the eyes, and an operation of narrowing the eyes, may be used.
  • the motion of the robot 100 the motion C1 that moves the head left and right and the motion C2 that moves the hand up and down are shown.
  • the motion indicated by the robot 100 is not limited to these. For example, move the head vertically to “nod”, tilt the head to “shake your neck”, lean your hands behind your body, tilt your body forward to “bow”, and move your feet to “ Any motion that can be realized by the robot 100, such as “retreat”, “stop motion” and “ignore”, may be used.
  • the nose 109 is smaller than the eyes 110 and the face area 107.
  • the size of the nose 109 is not limited to this, and may be equal to or larger than the size of the eye 110.
  • the magnitude relation between the respective parts such as the eyes 110 and the face area 107 is not limited to the embodiment, and the design can be changed as appropriate.
  • the robot 100 when the user manipulates the nose 109 of the robot 100, the robot 100 returns a response according to the manner of the manipulation.
  • a sensor capable of detecting a change in a place where the user is likely to unintentionally tweak is provided.
  • the eyes of the robot 100 move according to the manner in which the robot is fiddled, the expression changes, and if the body starts to move, the user will have an attachment to the robot 100. If the reaction of the robot 100 changes depending on how to fiddle, the time for which the user touches the robot 100 becomes longer. If the user's contact time with the robot 100 can be prolonged, the user's attachment to the robot 100 can be deepened.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

ロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。

Description

ロボット
 本発明は、人間が愛着を抱きやすいロボット、に関する。
 人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1、2参照)。
特開2000-323219号公報 国際公開第2017/169826号
 近年、ロボット技術は急速に進歩しつつあるが、ペットのような伴侶としての存在感を実現するには至っていない。ロボットに自由意志があるとは思えないからである。人間は、ペットの自由意志があるとしか思えないような行動を観察することにより、ペットに自由意志の存在を感じ、ペットに共感し、ペットに癒される。
 本発明者らは、触り方に応じてロボットの反応が変われば、人間のロボットに対する愛着をもっと高められるのではないかと考えた。本発明者らは鋭意研究の結果、人間が無意識にいじりたくなる箇所にセンサを設けて人間のいじり方を検出しロボットの挙動に反映させることで、上記課題を解決することに想到した。
 本発明は上記課題認識に基づいて完成された発明であり、その主たる目的は、人間が愛着を抱きやすいロボット、を提供することにある。
 本発明のある態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体の変形を検知する操作検知部と、眼画像を生成し、ロボットの顔領域に眼画像を表示させる眼生成部とを備える。
 眼生成部は、ロボット本体の変形が検知されたとき、変形態様に応じて眼画像を変化させる。
 本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボット本体に設けられるデバイスの動きを検知する操作検知部とを備える。
 動作制御部は、デバイスの動きが検知されたとき、デバイスから所定範囲内を駆動対象とするモーションのうち、デバイスの動きに応じたモーションを選択する。
 本発明の別の態様におけるロボットは、ロボットのモーションを選択する動作制御部と、選択されたモーションを実行する駆動機構と、ロボットの体表面に設置され、ユーザの接触を検出する第1および第2のセンサとを備える。
 動作制御部は、第1および第2のセンサの双方または一方においてユーザの接触が検出されたとき、接触態様に応じたモーションを選択する。
 第1のセンサの検出精度は、第2のセンサよりも検出精度よりも高精度に設定されており、第1のセンサはロボットの顔領域に設置される。
 本発明によれば、ロボットに対して人間が愛着を抱きやすくなる。
図1(a)は、ロボットの正面外観図である。図1(b)は、ロボットの側面外観図である。 ロボットの構造を概略的に表す断面図である。 ロボットのハードウェア構成図である。 ロボットシステムの機能ブロック図である。 図5(a)は、本実施形態におけるロボットの正面外観図である。図5(b)は、本実施形態におけるロボットの側面外観図である。 本実施形態におけるロボットのハードウェア構成図である。 第1実施形態におけるロボットシステムの機能ブロック図である。 眼画像の外観図である。 眼画像の拡大図である。 眼画像の生成方法を示す模式図である。 図11(a)は、アナログスティックを初期位置から上に動かした場合のロボットの眼の外観図である。図11(b)は、アナログスティックを初期位置から右に動かした場合のロボットの眼の外観図である。図11(c)は、アナログスティックを初期位置から下に動かした場合のロボットの眼の外観図である。図11(d)は、アナログスティックを初期位置から左に動かした場合のロボットの眼の外観図である。 第2実施形態におけるロボットシステムの機能ブロック図である。 眼動作とロボットのモーションについて示すフローチャートである。 図14(a)は、眼動作テーブルのデータ構造図である。図14(b)は、変形パターン選択テーブルのデータ構造図である。 モーション選択テーブルのデータ構造図である。 定常時のロボットの正面図である。 モーション発動時のロボットの正面図である。
 以下、本発明の実施形態を、図面を参照して詳細に説明する。なお、以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。また、以下の実施形態およびその変形例について、ほぼ同一の構成要件については同一の符号を付し、その説明を適宜省略する。
 本実施形態のロボットは、ユーザに鼻を触られるとき眼や体を動かすことで鼻のいじりに反応する。以下、本実施形態におけるロボットの実装について説明する前に、ロボットの基本構成について説明する。
[基本構成]
 図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
 本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。
 ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。ロボット100の総重量は5~15キログラム程度、身長は0.5~1.2メートル程度である。適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。
 ロボット100は、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、キャスターであり、ロボット100を前後左右へ移動させるために回転自在となっている。後輪103はオムニホイールであってもよい。
 前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
 ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
 目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
 ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。
 図2は、ロボット100の構造を概略的に表す断面図である。
 図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
 本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。
 頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。
 頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。
 頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結される。
 胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされる。
 外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。
 図3は、ロボット100のハードウェア構成図である。
 ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
 内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
 通信機126は、各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、複数のアクチュエータおよび上述した車輪駆動機構370を含む。このほかには、表示器やスピーカーなども搭載される。
 駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、ロボット100の移動方向や移動速度を変化させるほか、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
 図4は、ロボットシステム300の機能ブロック図である。
 ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
 ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
 家屋内にはあらかじめ複数の外部センサ114が設置される。サーバ200には、外部センサ114の位置座標が登録される。ロボット100の内部センサ128および複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。ロボット100の通信機126が外部センサ114と定期的に通信し、サーバ200は外部センサ114によりロボット100の位置を特定する(特許文献2も参照)。
(サーバ200)
 サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
 通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
 データ格納部206は、モーション格納部232と個人データ格納部218を含む。
 ロボット100は、複数の変形パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
 モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。
 ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。
 先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
 以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
 モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。
 個人データ格納部218は、ユーザの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。
 ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。
 データ処理部202は、位置管理部208、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
 位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。
 時間経過によって感情パラメータが変化する。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。
 認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。
 具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0~1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。
 サーバ200の認識部212は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。また、認識部212は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。認識部212は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
 認識部212は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。認識部212は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
 快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
 サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。
 動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
 親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。
(ロボット100)
 ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
 通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
 データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160を含む。
 ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
 データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。
 データ処理部136は、認識部156および動作制御部150を含む。
 ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
 ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。
 動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。
 ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。
 認識部156は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。認識部156は、特許文献2等に記載の既知の技術に基づいて、特徴ベクトルからユーザを特定する。
 検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。
 ロボット100に対する強い衝撃が与えられたとき、認識部156はタッチセンサおよび加速度センサによりこれを認識し、サーバ200の認識部212は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の認識部212は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
 まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
 サーバ200の認識部212は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。
 認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。
 以上の基本構成を前提として、次に、本実施形態におけるロボット100の実装について、特に、本実装の特徴と目的および基本構成との相違点を中心として説明する。なお、説明は第1実施形態と第2実施形態に分けて行う。第1実施形態と第2実施形態をまとめて説明する場合や、特に区別しない場合には「本実施形態」とよぶ。
[第1実施形態]
 図5(a)は、第1実施形態におけるロボット100の正面外観図である。図5(b)は、第1実施形態におけるロボット100の側面外観図である。
 第1実施形態におけるロボット100には、顔領域107が設けられる。顔領域107内には目110のほかに鼻109が備えられる。鼻109は、顔領域107の中心近傍であって、目110よりも低い位置に備えられる。鼻109は、左右の目に挟まれるように設けられ、右目から鼻109までの距離と左目から鼻109までの距離は等しい。また、鼻109は目110や顔領域107よりも小さい。鼻109にはユーザによって変形される物理的なデバイス(以下、「凸部」または「突起」とよぶことがある。)が備えられる。
 本実施形態においては、鼻109にはアナログスティックが設置される。ユーザは、アナログスティック(鼻109)を上下左右の全方向へ傾斜させることができ、かつ、押し込むこともできる。本実施形態においては、アナログスティックのような物理的デバイスの傾斜および押し込みが「ロボット本体の変形」に該当する。アナログスティックにはタッチを検出するためのセンサ(以下、「鼻センサ」とよぶ)が含まれる。アナログスティックそのものおよびアナログスティックの変形の検知方法については、例えば特開平9-134251号公報等に記載の技術が知られている。
 図6は、第1実施形態におけるロボット100のハードウェア構成図である。
 第1実施形態におけるロボット100は、図3に示した基本構成に加えて、モニター170およびアナログスティック180を含む。モニター170は、ロボット100の目110に設置され、眼画像を表示させる(詳細後述)。
 図7は、第1実施形態におけるロボットシステム300の機能ブロック図である。
 上述のとおり、ロボット100はモニター170およびアナログスティック180を含む。第1実施形態におけるロボット100のデータ処理部136は、更に、操作検知部182、操作履歴管理部184、眼生成部172を含む。操作検知部182は、アナログスティック180の動き、すなわち、傾斜方向、傾斜角(初期位置からの角度)、押し込み量を逐次検知する。第1実施形態における傾斜方向を「変形方向」とよび、傾斜角と押し込み量をまとめて「変形量」とよぶことがある。
 操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴はアナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)も含む。操作履歴管理部184はまた、単位時間あたりの変形量として変形速度を算出する。変形方向、変形量、変形速度等、本実施形態における「ロボット本体の変形」の度合いを「変形態様」と総称する。眼生成部172は、目110(モニター170)に表示すべき眼画像を生成する。
 眼生成部172は、アナログスティック180の変形態様に応じて、モニター170に信号を出力することにより、モニター170に表示させる眼画像を変化させる。動作制御部150は、また、アナログスティック180の変形態様に応じて、モーションを選択する。以下、眼生成部172が眼画像を変化させることを、「ロボット100が眼を動かす」または「ロボット100の眼が変化する」ということがある。また、動作制御部150がモーションを選択し、駆動機構120が選択されたモーションを実行することを、「ロボット100が動く」ということがある。また、「ロボット100が動く」場合において、特定の部位Xを動かすモーションである場合には、「ロボット100がXを動かす」ということがある。例えば、動作制御部150がロボット100の手を動かすモーションを選択し、駆動機構120がそのモーションを実行する場合、「ロボット100が手を動かす」と表現することがある。ユーザが鼻109(アナログスティック180)をいじるとロボット100は眼を動かし、ユーザが鼻109をいじりつづけるとロボット100は眼だけではなく首や手などの体も動かしはじめる。本実施形態における「モーション」はロボット100が体を物理的に動かすことを意味し、眼画像の変化は「モーション」には含まれないものとする。以下、アナログスティック180を動かす際のモニター170の画像およびモーションの変化について詳細に説明する。
 図8は、眼画像171の外観図である。
 眼生成部172は、瞳画像175と周縁画像176を含む眼画像171を生成する。眼生成部172は、眼画像171を動画表示させる。具体的には、瞳画像175を動かすことでロボット100の視線の変化を表現する。
 瞳画像175は、瞳孔領域177と角膜領域178を含む。また、瞳画像175には、外光の映り込みを表現するためのキャッチライト179も表示される。眼画像171のキャッチライト179は、外光の反射によって輝いているのではなく、眼生成部172により高輝度領域として表現される画像領域である。
 眼生成部172は、瞳画像175を上下左右に移動させる。ロボット100の認識部156がユーザを認識したときには、眼生成部172は瞳画像175をユーザの存在する方向に向ける。眼生成部172は、眼画像171のうち瞳画像175を変化させることにより、ロボット100の仮想的な視線(以下、「仮想視線」ということがある。)の変化を表現する。眼画像171の制御の詳細は図10に関連して後述する。
 眼生成部172は、瞳画像175の形状を変化させてもよい。たとえば、瞳画像175がモニター170の中心にあるときには真円形状とし、周縁部分にあるときには楕円形状に変化させる。瞳画像175の形状をモニター170内の位置に応じて変化させることにより平面のモニター170を実際の眼球のような曲面形状であるかのように見せることができる。
 眼生成部172は、外部光源の存在方向に対応してキャッチライト179の位置を変化させる。図8は、ロボット100から見て左上方に外部光源が存在する場合のキャッチライト179の表示位置を示している。キャッチライト179の位置を外部光源に連動させることにより、いっそうリアルな眼画像171を表現できる。眼生成部172は、外部光源の方向を撮像画像から画像認識により判定してもよいし、光センサ(図示せず)の検出データから判定してもよい。
 図9は、眼画像171の拡大図である。
 眼画像171においては、瞳画像175と周縁画像176に瞼(まぶた)を示す瞼画像190が重畳される。瞼画像190は、まつ毛192を含む。周縁画像176は、人間の結膜にあたる部分である。
 眼生成部172は、眼画像171のうち、瞼画像190、瞳孔領域177、角膜領域178およびキャッチライト179を変化させる。光量が大きいほど、眼生成部172は瞳孔領域177の直径を断続的または連続的に拡大させる。眼生成部172は、瞳孔領域177だけではなく、瞳画像175の全体を断続的または連続的に拡縮させてもよい。眼生成部172は、光量が特に大きいとき(例えば、所定の閾値よりも大きいとき)には瞼画像190を下げることで「眩しそうな様子」を表現してもよい。
 図10は、眼画像171の生成方法を示す模式図である。
 眼球モデル250は、ロボット100の眼球を模した三次元コンピュータグラフィックスである。眼生成部172は、まず、三次元の球体をポリゴンにて形成し、これにテクスチャ(以下、「眼球テクスチャ」とよぶ)を貼ることにより眼球モデル250を形成する。眼球テクスチャは、瞳画像175を含む画像である。眼球テクスチャは、データ格納部148に含まれる眼画像格納部(図示なし)に格納される。
 眼球モデル250の前方に、第1面252および第2面254が設定される。第1面252および第2面254は、目110のモニター170の表示面に対応する仮想的な平面である。眼生成部172は、眼球モデル250を第1面252に投影させることにより、三次元の眼球モデル250から2次元の眼球投影画像256を生成する。
 眼生成部172は、第2面254に瞼画像190を表示させる。第1面252の眼球投影画像256と第2面254の瞼画像190を重ね合わせることにより、図8等に示した眼画像171が生成される。眼生成部172は、右目用と左目用に2つの眼球モデル250を生成し、それぞれについて眼画像171を生成する。以下、第1面252および第2面254をまとめていうときには「眼球面258」とよぶ。
 眼生成部172は、眼球モデル250を回転させることにより、眼球投影画像256を変化させる。3次元の眼球モデル250を生成してこれを回転させながら第1面252に投影する方式であるため、第1面252に眼画像171を直接描画するよりもロボット100の視線の動きを滑らかに表現できる。二次元の眼画像171であっても、三次元の眼球モデル250を元にして生成・制御されるため、本方式は、生物の眼球に特有の複雑な動きを表現しやすい。
 眼生成部172は、第1面252とは異なる第2面254に瞼画像190を表示させることにより、瞼画像190を眼球投影画像256に重畳させる。人間は、目の前で手を叩かれたとき、反射的に目をつぶる。このような眼の条件反射をロボット100に実装する上では、瞼画像190を高速で変化させる必要がある。本実施形態においては、第1面252の画像処理と第2面254の画像処理が独立している。眼生成部172は、目をつぶる表現をするときには、第2面254だけを対象として画像制御すればよい。瞬きのときにも、眼生成部172は第2面254を対象として画像処理を実行すればよい。眼球モデル250(眼球投影画像256)と瞼画像190を別々に制御できるため、瞼画像190を高速に制御できる。このような構成により、眼生成部172は眼画像171を動的に生成できる。
 ロボット100は、アナログスティック180の動きと連動して眼を動かす。ロボット100の眼の外観図を図11(a)、図11(b)、図11(c)、図11(d)に示す。
 図11(a)はアナログスティック180を初期位置188から上に動かした場合のロボット100の眼の外観図である。
 図11(b)はアナログスティック180を初期位置188から右に動かした場合のロボット100の眼の外観図である。
 図11(c)はアナログスティック180を初期位置188から下に動かした場合のロボット100の眼の外観図である。
 図11(d)はアナログスティック180を初期位置188から左に動かした場合のロボット100の眼の外観図である。
 ユーザがアナログスティック180を動かすとき、操作検知部182はアナログスティック180の変形量および変形方向(傾斜角と傾斜方向)を検知する。眼生成部172は検知結果に基づいて眼球モデル250の回転方向と回転量を計算し、眼球モデル250を回転させる。具体的には、アナログスティック180の傾斜方向と同方向を回転方向として設定し、傾斜角に比例する回転量にて眼球モデル250を回転させる。眼生成部172は眼球モデル250を第1面252に投影する。このような制御により、ロボット100の眼画像171は、アナログスティック180の傾斜方向に視線を向けるような動きをする。ユーザはアナログスティック180を動かすことで、ロボット100の視線を変化させることができる。
 図11(a)に示すように、アナログスティック180を上方向に傾けると、ロボット100も視線を上に向ける。図11(b)に示すように、アナログスティック180を右に傾けるとロボット100の視線は右を向く。アナログスティック180を下に傾けるとロボット100の視線は下を向き(図11(c))、左に傾けるとロボット100の視線は左に動く(図11(d))。上下左右以外の他の方向についても同様である。
 眼球モデル250を使用することにより、眼画像171をアナログスティック180の動きに高速に追随させることができる。ユーザが鼻109(アナログスティック180)をいじると、ロボット100は即座に眼を動かすから、ユーザはロボット100からの速やかな反応を体感できる。
 ロボット100は、鼻109がいじられるとき、瞳だけではなく、体(頭部、手及び車輪のうち少なくとも1つ)を動かしてもよい。アナログスティック180を素早く動かすとき、ロボット100も頭部や体をすぐに動かすことで反応を示せば、ロボット100において「反射的行動」という生物的な行動特性を表現できる。
 例えば、ユーザがアナログスティック180を0.1秒以内に右方向に30度以上傾けたとき、ロボット100は頭部を右に向けるとしてもよい。このような制御方法によれば、鼻109(アナログスティック180)をすばやく大きく傾けることで、ロボット100は眼だけでなく頭も動かすという動作表現が可能となる。
 ロボット100は、鼻109の動きに眼を連動させるだけでなく、鼻109の動き方によっては体も動かすことで、鼻109のいじりに対して多様な反応を示す。ロボット100が体を動かすきっかけとなる鼻109の動きとしては、このほか、ユーザがアナログスティック180を上方向に弾くことや、高速にてアナログスティック180を左右に動かすことであってもよい。アナログスティック180の変形速度が所定の基準値を超えたときを「急激な動き」として定義し、アナログスティック180が急激な動きをしたとき、動作制御部150は複数のモーションのいずれかを選択してもよい。これらのモーションは、頭部を鼻109が動いた方向とは逆方向に回転させる、車輪を駆動して後ろに飛びのく等、生物が行う反射行動を表現するものであればよい。
 まとめると、鼻109(アナログスティック180)を動かすとき、眼生成部172はアナログスティック180の動きに合わせて眼球モデル250を回転させることで、眼画像171を変化させる。このため、鼻109の動きにより、ロボット100の視線を追随的に動かすことができる。いわば、鼻109が眼の操作デバイスであるかのようなユーザインタフェースが実現される。また、鼻109の動きが所定の条件を満たしたときには、動作制御部150は鼻109の動きに合わせてモーションを選択する。このため、鼻109の動かし方によっては、ロボット100は、眼画像171だけでなく、全身の動きによってユーザからの関わりに応えることができる。
 動作制御部150は、鼻109の動きに追従するモーションを実行させてもよい。このように、眼生成部172はアナログスティック180の動きに合わせて眼画像171を変化させてもよい。また、動作制御部150はアナログスティック180の動きに合わせてモーションを変化させてもよい。これにより、アナログスティック180の操作方向と、眼画像171またはモーションの変化とが連動しているかのような印象をユーザに与えられる。
 図5(a)、(b)に関連して説明したとおり、鼻109は、目110や顔領域107に比べて小さい。鼻109のどの部分においてもユーザの接触を確実に検出する必要がある。そのため、鼻109の全域または大部分にセンサを設ける必要がある。ロボット100に対して同じ大きさのセンサを設ける場合、顔領域107に比べてより小さい鼻109はセンサの数が少なくて済む。したがって、ロボット100を製造するコストを抑えられる。
 また、鼻109は小さいにも関わらずユーザの目に留まりやすい。顔領域107の中央付近に設けられることや、ロボット100の表面に対して凸形状となっていることがその主な要因である。ユーザの目に留まりやすい鼻109に、アナログスティック180(操作デバイス)を設けることで、ロボット100における操作可能な部分(ユーザの接触を検出する部分)をユーザが認識しやすくなる。
 ロボット100の内部パラメータ、例えば、感情パラメータに基づいて眼画像171を変化させてもよい。例えば、ロボット100のいらだちの度合いを示す感情パラメータの値が所定値以上のときには、眼生成部172はアナログスティック180の傾斜方向とは逆方向に眼球モデル250を回転させてもよい。
 アナログスティック180の変形態様(変形方向、変形量、変形速度)を変数とし、眼球モデル250の回転方向および回転量を出力として定義する変換関数を用意してもよい。眼生成部172は、アナログスティック180の変形態様および変換関数に基づいて、眼球モデル250の回転方向および回転量を決定してもよい。
 眼生成部172は、感情パラメータに基づいて複数種類の変換関数のいずれかを選択してもよい。眼生成部172は、複数種類の変換関数のいずれかをランダムに選択してもよい。このような制御方法によれば、アナログスティック180の変形と眼の動きの連動性は維持しながらも、眼の動きに多様性を持たせることができる。ロボット100は、同じいじられ方に対して多様な眼の動きで応えるので、ユーザはロボット100のいろいろな表情を楽しめる。また、眼の動きに応じて、ロボット100の感情を推定することも可能となる。
 ロボット100は、アナログスティック180の操作履歴に応じてモーションを変化させる。上述のとおり、操作検知部182はアナログスティック180の動き、すなわち、変形方向と変形量を逐次検知する。操作履歴管理部184は検知結果を、時系列に沿って操作履歴として記憶する。具体的には、操作履歴管理部184は、検知結果と検知時刻とを対応付けて記憶する。動作制御部150は、操作履歴、すなわちアナログスティック180の動き方に応じたモーションを選択する。
 アナログスティック180のいじられ方(操作のされ方)によって、状態管理部244は感情パラメータを変化させてもよい。例えば、ユーザが、やさしくアナログスティック180をいじれば、眼生成部172はそのいじり方に連動して眼を動かし始める。更に継続して同じようにいじり続けていれば、状態管理部244は安心感を示す感情パラメータを上昇させる。安心感を示す感情パラメータが所定値以上になると、眼生成部172は瞼画像190を下げる(閉眼する)ことでロボット100の眠気を表現する。このとき、動作制御部150は、頭を上下に動かすモーションを選択することで「うとうと」するさまを表現してもよい。やさしいいじり方、いいかえれば、ロボット100を安心させるアナログスティック180のいじり方は、設計者が任意に定義すればよい。たとえば、アナログスティック180を略同一のペースにて左右に往復運動させることでもよいし、アナログスティック180を動かさないまま鼻センサをアナログスティック180が押し込まれない程度の強さで所定回数以上叩き続けることであってもよい。
 ユーザが、乱雑にアナログスティック180をいじり続ければ、ロボット100はそのいじり方に連動して眼を動かし始める。更に継続して乱雑にいじり続けていれば、苛立ちを示す感情パラメータが高まりロボット100は眼の動きを止める。また、ロボット100は頭部を左右に動かしユーザの指先をアナログスティック180から離そうとして、「いやいや」を表現する。「乱雑ないじり方」も、設計者により任意に定義されればよい。
 一実施形態において、やさしくいじられている状態とは、単調な動きがなされている状態である。アナログスティック180からの出力値で表現するならば、単調な動きとは出力値に周期性があって、かつ、変形量が小さい状態が所定の期間より長く続く動きといえる。一実施形態において、乱雑にいじられている状態は、単調ではない動きがなされている状態である。アナログスティック180からの出力値で表現するならば、出力値に周期性がなく、かつ、変形量が大きい状態が所定の期間より長く続く動きといえる。このように、アナログスティック180の動きに連動して眼を動かし続けるだけでなく、所定条件を満たしたときにロボット100はアナログスティック180と眼の連動の仕方を変化させる。ロボット100は、「眠い」状態を、眼の動きを単に止めるのではなく、瞼を閉じたり身体を動かすことで表現する。
 例えば、アナログスティック180を最大傾斜角の30%以下の範囲内にて左右交互に動かす場合(以下、この動かし方を「左右交互傾斜」とよぶ)に、ロボット100は、眼の動きを止め瞼を閉じ頭部を上下に動かして「眠くなってきた」状態を表現するとしてもよい。操作履歴管理部184は、操作履歴を参照し、アナログスティック180の動きが「左右交互傾斜」に該当するかを判定する。左右交互傾斜に該当するとき、眼生成部172は眼球モデル250の動きを止め瞼画像190を表示する。また、動作制御部150は、ロボット100の頭部を上下に動かすモーションを選択する。これにより、ロボット100は目を閉じて頭部を上下に動かし、「眠たい」状態を表現する。
 生物が眠たくなるのは安心しているときである。ロボット100をいじり、ロボット100が眠たいという行動表現をすれば、ユーザはロボット100をいじることでロボット100が安心していると感じることができる。状態管理部244は、左右交互傾斜が検出されたとき、安心感を示す感情パラメータを増加させる。安心感を示す感情パラメータは所定値を超過したとき、ロボット100は目を閉じて頭部を上下に動かすとしてもよい。
 ユーザがロボット100を横抱きしたときには、ユーザの視界の大部分をロボット100が占めることになる。このとき、ユーザはロボット100の細かな変化に気づきやすくなる。ユーザは、横抱きしたロボット100の鼻109や目110を注視しやすくなる。この状態を検出したとき、例えば、ロボット100のカメラによる撮像画像によりユーザがロボット100を横抱きしている状態を検出したときにおいて、ユーザが鼻109をいじったときに、アナログスティック180の動きと連動して眼が変化すれば、ユーザはロボット100以外のものに意識をとられることなく、ロボット100に没入できる。
 生物は、短期間の刺激には鈍感に反応するが、長期間の刺激にさらされると大きく動きだすことがある。ロボット100においても、ユーザからの接触が続くと徐々に動きを大きなものにしていくことで同様の挙動を表現できる。ユーザが鼻109をいじり続けると、最初は眼だけを動かしていたロボット100は頭部も動かしはじめる。動作制御部150は、変形継続時間が長くなるにつれて、鼻109から遠い箇所を駆動させてもよい。たとえば、鼻109をいじるとロボット100は眼画像171を動かし、鼻109をいじり続けるとロボット100は頭部をゆっくりと動かす。鼻109を更にいじりつづけると、ロボット100は手をうごかし、鼻109を更にいじりつづけるとロボット100はユーザから離れる方向に移動するとしてもよい。変形継続時間は、アナログスティック180の傾斜が継続している時間として定義されてもよいし、鼻センサのタッチの継続時間として定義されてもよい。
 他例として、ユーザが左右交互傾斜を10秒続けた時点で、ロボット100は頭部を上下に動かし、「眠たくなってきてうとうとし始める」状態を表現する。
 続けて、ユーザが左右交互傾斜を20秒以上続けたとする。この場合には、ロボット100は、更に、手106をボディ104に寄せ、前輪102および後輪103をボディ104に収納してもよい。このようにユーザが左右交互傾斜を続けると、ロボット100はまず、眼を動かし、続いて、頭を動かすことで「うとうと」し、さらに両手両足を体に寄せて「眠っている」状態になる。
 ユーザが左右交互傾斜をするとき、アナログスティック180を速く動かすか、ゆっくり動かすかに応じてロボット100はモーションを変化させてもよい。操作履歴管理部184は、アナログスティック180の変形量および変形方向を操作履歴として記録する。操作履歴管理部184は、操作履歴から変形速度(単位時間あたりの変化量)を計算する。
 変形継続時間が10秒以上となったときであって、その10秒間の変形速度が所定値以下の場合には、動作制御部150は頭部を上下に動かすモーションを選択する。一方、変形速度が所定値を超える場合には、動作制御部150は頭部を左右に動かすモーションを選択する。このような制御により、ロボット100は頭部を横に振って「いやいや」を表現する。
 第1実施形態のロボット100は、ユーザによる鼻109のいじり方によってモーションを変化させる。ここでいういじり方とは、単にアナログスティック180の変形方向のみを意味するのではない。たとえば、アナログスティック180を小さく動かすか大きく動かすか、すなわち単調か否かや、速く動かすかゆっくり動かすか、すなわち、乱暴にさわるか撫でるようにさわるかといった細かな動かし方をも含む。ユーザのいじり方の細かな違いに応じてロボット100がモーションを変化させれば、ユーザはロボット100に対して飽きずに接することができる。
 ロボット100のユーザに対する親密度や、その時々における感情パラメータの状態等、ロボット100の内部パラメータに応じて、「眠たい」状態に至るまでの時間が変化するとしてもよい。
 ロボット100が目を閉じており、移動やモーションを実行しない状態が所定時間以上にわたり継続されているとき(ロボット100が寝ている状態のとき)に、ユーザが鼻109をいじったとする。この状態のときにアナログスティック180の動きを検出すると、ロボット100は目を閉じた眼画像171から開いた眼画像171へ変化させ、移動やモーションを実行するとしてもよい。このように、所定の眼画像171であって、かつ、モーションを実行していないときに、ユーザの接触を検出すると、ロボット100は眼画像171を変化させモーションを実行するとしてもよい。
 親密度に応じてロボット100のモーションを変化させてもよい。例えば、親密度が所定値以上のユーザが鼻109をいじると、ロボット100は頭部をユーザに近づける。一方、親密度が所定値未満のユーザが同じように鼻109をいじると、ロボット100は頭部をユーザからそむける。このように、動作制御部150は、アナログスティック180の変形態様およびアナログスティック180を操作するユーザの親密度に応じて、複数のモーションからいずれかのモーションを選択してもよい。具体的には、親密度がT1以上のユーザのよる所定の操作入力がなされたときには動作制御部150はモーションM1~M3のいずれかをランダムに選択し、親密度がT1未満のユーザによる同じ操作入力がなされたときには動作制御部150はモーションM4~M6のいずれかをランダムに選択するとしてもよい。
 何かに愛着を持たせるためには、人間がそのものに対して関わる時間をできるだけ長くする必要がある。第1実施形態のロボット100はユーザとの親密度によっても挙動が変化する。ユーザが同じようないじり方をしても親密度によってロボット100のモーションが変化するから、ユーザはロボット100に飽きずに接し続けることができる。接し続けることで、ユーザにロボット100に対する愛着を抱かせることができる。また、やさしく接し続けることでロボット100のユーザに対する親密度も高まる。親密度が変化することでロボット100の反応も変化する。鼻109に対する操作、親密度(ロボット100のユーザに対する気持ち)、感情パラメータ(ロボット100の気分)が複雑に影響し合うことでロボット100は状況に応じた多様な行動表現を実現できる。
 ロボット100は、ユーザが鼻109をいじると、最初は眼を動かし、次いで頭部を動かし、さらにボディ104を動かしはじめる。また、ロボット100において、「鼻109のアナログスティック180を動かすと眼が動く」機能(以下、この機能を「瞳連動機能」とよぶことがある)が有効になるのは、ユーザがロボット100を、顔をユーザ側に向けて横抱きしていることを条件としてもよい。
 ロボット100が横抱きされていないときに、ユーザがアナログスティック180を動かしても、ロボット100の眼は瞬きをするだけであってもよい。ユーザがロボット100を横抱きしていることは、ロボット100の表面の接触を検知するタッチセンサ(図示せず)とロボット100の傾きを検知する加速度センサ(図示せず)によって検知される。認識部156はタッチセンサおよび加速度センサを介してユーザのロボット100への接触を検知する。姿勢判断部(図示せず)は認識部156が検知した検知結果から、ユーザがロボット100へどのような姿勢で接触しているかについて特定する。ユーザがロボット100を横抱きにしていると特定した場合に、姿勢判断部は操作履歴管理部184へ瞳連動機能を有効にするように指示をする。姿勢判断部からの指示を受けた操作履歴管理部184は、瞳連動機能を有効とし、上述のとおりアナログスティック180の動き方に応じた眼の動きを発動させる。このように、ロボット100の抱っこなどの姿勢に応じて、鼻109の操作に対するロボット100の行動特性を変化させてもよい。
 ユーザとロボット100が所定の位置関係にあること、ユーザの姿勢が所定の姿勢であることなどをタッチセンサ、加速度センサまたは撮像画像に基づいて検出したことを条件として、姿勢判断部が瞳連動機能を有効にしてもよい。例えば、瞳連動機能が有効となるのは、ユーザがロボット100の顔を自身に向かせて横抱きにしているときである。ユーザがロボット100に意識を集中させていないときにロボット100が反応してもユーザがその反応を見逃す可能性が高い。ロボット100がこの姿勢になったときにアナログスティック180と眼の動きを連動させるとすることで、ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせることができる。なお、ユーザがロボット100を横抱きにすることを検出したことに代えて、例えばユーザの膝の上で向かい合わせに座る等ユーザの意識をロボット100に集中させてロボット100の細かな変化に気づかせられる姿勢となっていることを検出したことを、瞳連動機能を有効にするための条件としてもよい。また、タッチセンサや加速度センサに限らず、ロボット100の顔認証技術を用いてユーザとロボット100とが向かい合っているかを検知することを、瞳連動機能を有効にするための条件としてもよい。ロボット100が車輪をボディ104に完全に収納した状態を「抱っこモード」と定義し、「抱っこモード」の状態で、かつ、顔認証技術等によってユーザとロボット100が向かい合っていると特定したときに、瞳連動機能が有効になるとしてもよい。
[第2実施形態]
 第2実施形態のロボット100は、鼻109が動かされたときの鼻109の軌跡(経路パターン)に応じて眼の動き(眼動作)を変化させる。なお、第2実施形態のロボット100は第1実施形態のロボット100と同じ概観を有する。
 図12は、第2実施形態におけるロボットシステム300の機能ブロック図である。
 第2実施形態におけるロボット100のデータ格納部148は、更に、眼動作格納部174を含む。眼動作格納部174は、アナログスティック180の動き方(変形パターン)とロボットの目の動き(眼動作)とを対応づけて格納する。第2実施形態におけるロボット100のモーション格納部160には、アナログスティック180の変形状態(アナログスティック180が初期位置から動かされている状態)の継続時間(変形継続時間)に応じたモーションも格納されている。
 第2実施形態におけるロボット100の操作履歴管理部184は、操作検知部182の検知結果を時系列に沿って操作履歴として記憶する。操作履歴管理部184は、記憶している操作履歴と眼動作格納部174に格納される変形パターン(詳細後述)の実行条件とを照合し、操作履歴がいずれかの実行条件と一致したとき、その変形パターンに対応づけられる眼動作を実行するよう眼生成部172へ指示する。眼生成部172は、操作履歴管理部184からの指示を受け、眼動作を実行する。「眼動作」とは、第1実施形態と同様、眼球モデル250の回転による眼画像171の変化を意味する。
 第2実施形態におけるロボット100も、鼻109に備えられるアナログスティック180の操作履歴に応じて、眼画像171を変化させる。また、変形継続時間に応じて、モーションを選択し、ロボット100の駆動機構120を制御する。
 図13は、操作履歴に基づくロボット100の眼動作とモーションについて示すフローチャートである。
 上述のとおり、操作履歴管理部184は操作検知部182の検知結果を時系列に沿って操作履歴として記憶していく(S10)。操作履歴管理部184は記憶している操作履歴が眼動作格納部174に格納される変形パターンのいずれかに一致するか否かを判定する(S12)。一致する変形パターンが存在する場合には(S12のY)、操作履歴管理部184は操作履歴に基づき変形状態がどのくらい続いているのか逐次判定する(S14)。一致する変形パターンが存在しない場合には(S12のN)、以降の処理をスキップする。変形継続時間が5秒未満の場合には(S14のN)、操作履歴管理部184は眼生成部172へ変形パターンに対応する眼動作の実行を指示する(S16)。一方、変形継続時間が5秒以上になる場合には(S14のY)、操作履歴管理部184は眼生成部172へ閉眼動作の実行を指示し(S18)、動作制御部150へモーション格納部160よりモーションを照会して駆動機構120に実行させる指示を出す(S20)。
 具体的には、ロボット100の操作履歴管理部184は、変形パターンにあらかじめ対応づけられる眼動作を選択し、眼生成部172に実行を指示する。たとえば、アナログスティック180を時計回りに1周させるというあらかじめ定められた実行条件によって定義される変形パターンに、眼をぐるぐる回すという眼動作が対応づけられているとする。この場合において、ユーザがアナログスティック180を時計回りに1周させたとき、ロボット100はぐるぐる眼を回す。動作制御部150はまた、変形継続時間にあらかじめ対応づけられる1以上のモーションからいずれかのモーションを選択する。変形継続時間が5秒以上という条件が成立したとき、この変形継続時間にロボット100の頭部を左右に動かすというモーションが対応づけられているとする。この場合、ユーザがアナログスティック180をたとえば6秒動かし続けたとき、ロボット100は頭部を左右に振る。
 図14(a)は、眼動作テーブル420のデータ構造図である。図14(b)は、アナログスティック180の変形パターン選択テーブル440のデータ構造図である。
 眼動作テーブル420は、アナログスティック180の変形パターンと眼動作の対応関係を定義する。変形パターン選択テーブル440は、各変形パターンがどのようなパラメータで定義されるかを示す。眼動作テーブル420および変形パターン選択テーブル440は、眼動作格納部174に格納される。
 操作履歴はアナログスティック180の変形方向と変形量と対応する時刻が時系列に沿って記録されたものである。操作履歴を参照することで、アナログスティック180が辿った経路(軌跡)を特定できる。たとえば、時計回りに1周するときの軌跡となる経路R1を辿り、かつ、経路R1を辿る動きが1秒以内となるアナログスティック180の動作は、変形パターンA1と定義される。第2実施形態においては、本実施形態の「変形態様」に経路を含む。同様に、初期位置から左右左の順にアナログスティック180を動かし、初期位置へ戻すときの軌跡となる経路R2を辿り、かつ、経路R2を辿る動きが2秒以内となるアナログスティック180の動作は、変形パターンA2と定義される。初期位置から押し込むときの軌跡となる経路R3を辿り、経路R3を辿る動きが0.5秒以内に行われるアナログスティック180の動作は、変形パターンA3と定義される。
 それぞれの変形パターンは眼動作と対応づけられる。例えば、変形パターンA1の場合には、眼生成部172は眼をぐるぐる回す動作(眼動作M1)を実行する。変形パターンA2の場合には、眼生成部172は瞬きをする動作(眼動作M2)を実行する。変形パターンA3の場合には、眼生成部172は両眼を寄せる動作(眼動作M3)を実行する。
 ユーザがアナログスティック180を動かすと、内部センサ128を介して操作検知部182がアナログスティック180の動きを検知する。動き方は操作検知部182から操作履歴管理部184へと伝わり、操作履歴管理部184は変形継続時間が5秒未満だった場合にその動き方と眼動作格納部174に格納されている変形パターンの実行条件とを比較する(変形継続時間が5秒以上である場合については後述)。5秒以内の操作であって、アナログスティック180の動き方がいずれかの変形パターンの実行条件と一致した場合には、操作履歴管理部184はその変形パターンに対応づけられる眼動作を特定する。操作履歴管理部184は特定した眼動作の実行を眼生成部172へ指示する。眼生成部172は特定された眼動作を実行する。
 具体的には、たとえば、経路R1を辿るようにユーザがアナログスティック180を動かし、その動きを0.5秒で完了させたとする。この動き方は変形パターンA1の実行条件と一致するから、操作履歴管理部184は変形パターンA1に対応づけられる眼動作M1を特定し、眼生成部172は眼動作M1、すなわち眼をぐるぐる回す動作を行う。
 第2実施形態におけるロボット100は、眼動作だけでなく、アナログスティック180の変形継続時間に応じてロボット100の挙動が変化する。
 図15はモーション選択テーブル460のデータ構造図である。
 モーション選択テーブル460は、変形継続時間とモーションの対応関係を定義する。モーション選択テーブル460は、モーション格納部160に格納される。
 上述のとおり、変形継続時間が5秒以上となった場合には、操作履歴管理部184は眼を閉じる動作(閉眼動作)の実行を指示する。眼生成部172は操作履歴管理部184からの指示に基づき、閉眼動作を実行する。
 動作制御部150は、モーション格納部160から変形継続時間が5秒以上の場合に対応するモーションであるモーションC1を特定する。モーションC1は、ロボット100の頭部を左右に動かす動きである。ロボット100は、眼を閉じて頭部を左右に振って「顔をそむける」挙動を示す。
 変形継続時間が15秒以上となった場合には、動作制御部150はモーションC2を選択する。モーションC2はロボット100の手を上げ下げする動きである。動作制御部150はモーションC1とモーションC2を発動させる。すると、ロボット100はモーションC1とモーションC2の動きをし、眼をつむり、頭を振りながら手をばたばたさせる「いやいや」の動きを表現する。
 動作制御部150は、変形継続時間が短いうちは鼻109から所定範囲内であるロボット100の頭部までの部位を駆動対象とするモーションを選択する。変形継続時間が長くなると、ロボット100の頭部より外を駆動するモーションも選択対象となる。
 第2実施形態におけるロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を動かす。アナログスティック180が動かされ続けると、ロボット100は頭を動かし始める。頭が動き始めてもなお、アナログスティック180が動かされ続けると、ロボット100は体を動かし始める。このように、ユーザが鼻109をいじりつづけることでロボット100は眼を動かし、次いで頭や体を動かし始めるから、ユーザは、ロボット100が触られることに飽きてくる、くすぐったく感じ始める等生物のようなふるまいをしていると感じ、ロボット100に対して生物と接している感覚を味わえる。
 第2実施形態においては、アナログスティック180は鼻109に設置される。コミュニケーションに際しては、人間は相手の顔を見ることが多い。ロボットと触れ合う際においても同様であり、ユーザはロボット100の顔領域107を見ながらロボット100に触ると考えられる。このとき、ユーザの目に触れる箇所、たとえば、顔や鼻などにユーザが無意識にいじりたくなるものがあれば、ユーザは思わず触ってしまう可能性が高い。第2実施形態のロボット100においては鼻109がそれにあたる。無意識にいじりたくなる鼻109のアナログスティック180を動かすとロボット100がその動きに応じた挙動を示すから、ユーザはロボット100に対して生きているかのような印象を受けてより愛着を抱くようになる。
 図16は、定常時のロボット100の正面図である。図16は、ユーザがロボット100に触れていない定常時に、ロボット100が立っているときの様子を示す図である。
 図17は、モーションC1発動時のロボット100の正面図である。図17は、ユーザがロボット100のアナログスティック180を続けて触ったため、ロボット100がモーションC1を発動したときの様子を示す図である。
 ユーザがアナログスティック180を動かしていない定常時において、ロボット100の目110は開眼し、正面をじっと見つめる。ユーザがアナログスティック180を動かしつづけ、変形継続時間が5秒を超えると、ロボット100は目110をつむり、頭を背ける。
 以上、実施形態に基づいてロボット100を説明した。
 本実施形態のロボット100は、アナログスティック180が鼻109に設けられる。無意識にいじりやすい鼻109のユーザによる接触に応じてロボット100が反応するため、ユーザはロボット100が自分と意思疎通するかのように感じ、ロボット100への愛着を持ちやすくなる。
 本実施形態のロボット100は、アナログスティック180の動きに応じて眼を変化させる。また、アナログスティック180がいじられる時間が長いと、ロボット100は頭や体を動かし始める。ユーザがアナログスティック180を少しだけいじると、ロボット100は眼を動かしてユーザに興味を示すそぶりをする。いじり続けると、ロボット100は頭を動かしてユーザの手を避けるそぶりをし、「やめて」という気持ちを表現する。あまりにかまいすぎるとロボット100が手をばたばたさせ始めて「いやいや」を表現し始める。本実施形態のロボット100はアナログスティック180の動きだけでなくその継続時間によっても表情や行動を変化させていく。ユーザはロボット100が「飽きた」「くすぐったい」「うっとうしい」「もっとやって」といった感情(きまぐれさ)を有しているように感じ、また、ロボット100に生物的な挙動を感じることができる。
 本実施形態のロボット100は、鼻109に設けられたアナログスティック180をユーザがいじると、眼が変化する。また、アナログスティック180をいじる時間が長いと、ロボット100は頭を動かし始め、さらにいじりつづけると体を動かし始める。鼻109をいじるとまずは鼻109の近傍にある顔領域107に位置する部位においてロボット100の挙動が示されるから、ユーザはロボット100の反応を見逃すことがない。いじり続けると顔領域107内だけでなく所定範囲内であるロボット100の頭部内が動きはじめ、更にいじり続けるとロボット100の頭部より外側(所定範囲外)においても挙動が示される。ユーザは、鼻109のいじられ方やいじられる時間によって変化していくロボット100の表情や行動を見て楽しめる。
 本実施形態のロボット100は、鼻109に設けられたアナログスティック180の動きに応じて眼を変化させる。変形例としては、撮像デバイスによってユーザを撮像し、モーションセンサによって撮像画像からユーザの動きを検出したのちに、そのユーザの動きに応じて眼を変化させるとしてもよい。ただし、モーションセンサ等の画像処理を伴ってユーザの動きを検出する場合に比べ、アナログスティック180の動きを検出する場合には、ロボット100へのユーザの接触からロボット100の挙動までの時間を短くできる。また、ロボット100へのユーザの接触を確実に検出できる。
 本実施形態においては、ロボット100本体にアナログスティック180(操作デバイス)が直接設けられる。変形例においては、リモートコントローラ等の操作デバイスをロボット100本体とは別に備えてもよい。ただし、ロボット100本体に操作デバイスが直接設けられる場合には、ユーザはロボット100に直接触れることとなる。よって、操作デバイスがロボット100本体とは別に備える場合とくらべ、ユーザが直感的に操作や制御をしやすい。
 なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
 以下、他の実施形態について説明する。
 実施形態においては、アナログスティック180の動き(変形)を操作検知部182が検知し、検知結果に応じてロボット100の挙動を決定した。操作検知部182によって検知されるものはこれに限らず、ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きであればよい。検知される変形や動きは、たとえば、ロボット100の首をゆする動き、手を握る動き、体をゆらす動き、ユーザがつねることによる頬の変形など物理的な動作であればよい。また、これらの動作を検知する手段は、たとえばジョイスティック、トラックボール等による物理的な動作を検知する手段であればよい。可撓性を有する外皮の内側にアナログスティック180等を配置してロボット100の表面にこれらの検知手段が露出しない態様としてもよい。
 実施形態においては、操作検知部182によって接触が検知される箇所が鼻109であるとした。接触が検知される箇所は鼻109に限られない。例えば、動物でいうところの肉球等丸みを帯びた箇所や、しっぽのように突出している箇所、頬のように変形が想定される箇所等接触を検知できる箇所であればどこでもよい。好ましくは、ユーザが無意識にいじりたく箇所である。
 実施形態においては、鼻109をいじられると眼が動くとした。ロボット100の動作箇所は眼に限らず、例えば首、しっぽ、手等の可動な箇所であればどこでもよい。また、操作検知部182によって接触を検知される箇所と動作箇所は近くても遠くてもよく、たとえばしっぽをいじると鼻が動くとしてもよい。
 実施形態においては、ロボット100の頭部を所定範囲とし、鼻109がいじられる時間が5秒以上15秒未満であればロボット100の頭部のみを、15秒以上であればロボット100の頭部だけでなく、所定範囲外の部位である手106も駆動した。ロボット100本体の変形またはロボット100本体に設けられるデバイスの動きに応じて駆動する箇所を定める「所定範囲」は、ロボット100の頭部に限られない。例えば、ロボット100の顔領域107でもよいし、ロボット100の足以外の部分としてもよい。ロボット100の駆動機構によって動かせる箇所のうち適宜範囲を設定すればよい。
 また、各モーションを発動させる変形継続時間の条件は5秒以上や15秒以上に限らず、例えば1秒以下や1分以上など、様々な時間に設定可能である。
 実施形態においては、鼻109を継続的にいじられている時間(変形継続時間)に応じてモーションを変化させた。変形継続時間に限らず、例えば経路や変形速度などのロボット100本体の変形態様やロボット100に備えられたデバイスの動きなどをモーションを選択するための条件として採用してよい。
 変形量の累積値、変形継続時間の累積値、またはロボット100にかかる圧力に応じてロボット100の眼を変化させたり動きを変化させるとしてもよい。たとえば鼻109を弱い力でいじる場合には、眼の動き、頭の動き、体全体の動きへの遷移の仕方が緩やかなため、長時間眼の変化だけとしてもよい。強い力でいじる場合には短時間で体全体の動きへと遷移するとしてもよい。これにより、いじり方に応じたロボット100の挙動がよりバリエーション豊かとなる。
 単に撫でる、叩くという触り方とは異なり、本発明のロボット100は「変形」を伴う触り方に応答する。いいかえれば、電気的な接触検出に限らず、物理的な「変形」として接触を検出している。ユーザによっていじる強さや変形量、接触面積等「いじり方」は様々である。ユーザによって異なる「いじり方」に応じてロボット100が表現豊かに反応すれば、ユーザはロボット100に対して愛着を抱くようになる。
 実施形態においては、アナログスティック180の動きに応じてロボット100の挙動が決定された。ロボット100の挙動を決定する契機はこれによらず、例えばユーザが無意識にいじりたくなると想定される箇所にセンサを設ける等でもよい。また、ロボット100本体に複数のセンサを設けてもよい。複数のセンサを設ける場合には、そのうちの1つをアナログスティック180の動きを検出するセンサとしてもよい。また、全て同程度の検出精度のセンサとしてもよいし、異なる検出精度のセンサとしてもよい。異なる検出精度のセンサを複数設ける場合には、ユーザのいじりたくなると想定される箇所により高い検出精度のセンサを設けてもよい。この場合の検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度とする。以下、ロボット100本体に設けられたいずれかのセンサによってユーザの接触が検出されることを「ユーザがロボット100に触れる」または「ユーザがロボット100に接触する」ということがある。
 鼻109以外に設けられるセンサの例として、ロボット100の表面のうち目110を挟む2つの位置に対するユーザの接触を検出するセンサが挙げられる。このセンサによってユーザの接触が検出された場合に、眼生成部172は瞼画像190を下げる(閉眼する)。これにより、目110が覆われたので目をつぶるというロボット100の行動を表現できる。
 ロボット100本体に複数のセンサを設ける場合には、いずれかのセンサにおいてユーザの接触を検出すると、眼生成部172はロボット100の仮想視線をその接触箇所へ向けたような眼画像171を生成するとしてもよい。以下、所定箇所に仮想視線を向けた眼画像171を眼生成部172が所定時間にわたってモニター170に表示することを、「ロボット100が所定箇所を注視する」ということがある。例えば、ユーザがロボット100の手に触れると、ロボット100は手を注視する。あるいは、ユーザがロボット100のお腹に触れると、ロボット100はお腹を注視する。また、ユーザの接触が所定時間を超える場合には、ロボット100はその接触箇所を含む部分を動かすとしてもよい。例えば、ユーザがロボット100の手に触れている時間が5秒を超える場合には、ロボット100はユーザの手からロボット100の手を離そうとするモーションを行う。また、ユーザがロボット100のお腹に触れている時間が10秒を超える場合には、ロボット100はお腹を左右に振るモーションを行う。このように、ロボット100の複数の箇所に設けられる複数のセンサのいずれかにおいてユーザの接触を検出したとき、眼生成部172は接触箇所を注視している眼画像171を生成する。また、いずれかのセンサにおけるユーザの接触の検出時間が所定時間を超えるとき、動作制御部150は接触箇所を含む部分を動かすモーションを実行する。これにより、ユーザは、触られた部分をじっと見た後身をよじるという生物的な挙動をロボット100が示していると感じることができる。
 ロボット100本体の全域にわたって高精度なセンサを取り付けると、消費電力が大きくなってしまう。一部のセンサのみ高精度とすることにより、消費電力を抑えられる。また、ユーザのいじりたくなると想定される箇所のセンサのみ高精度にしてユーザの小さな動きをも検出し、その動きに対応するロボット100の挙動を示すとする。こうすることで、「体の他の部分に触れても反応が薄いが、ある点での接触については敏感に感じ取る」という生き物の特性を表現できる。また、ユーザが少し触れただけでもその接触を検出してロボット100が反応を返すから、ユーザは、ロボット100が自分の少しの動きにも反応してくれると感じ、ロボット100とコミュニケーションがとれている感覚を味わえる。なお、検出精度はユーザがロボット100本体に対する接触地点を変化させるときの変化量に対する検出感度に限らず、例えば接触の強さ、接触範囲等を検出する能力であってもよい。また、高精度なセンサとして物理的に動くセンサ、低精度なセンサとして静電容量式のタッチセンサを採用したり、センサの種類は同じであるが検出精度を異ならせたりしてもよい。センサは様々な種類のものを採用でき、上述したセンサ以外にもたとえば、センサがユーザの接触を検知すると力覚フィードバックを行うものであってもよい。
 実施形態においては、ロボット100の眼動作として、眼をぐるぐる回す動作である眼動作M1、瞬きをする動作である眼動作M2、両眼を寄せる動作である眼動作M3を示した。ロボット100が示す眼動作はこれらに限らない。たとえば、視線をそらす動作、目を見開く動作、目を細める動作等、ロボット100が実現可能な動作であればよい。
 実施形態においては、ロボット100のモーションとして、頭部を左右に動かすモーションであるモーションC1と手を上下に動かすモーションであるモーションC2を示した。ロボット100が示すモーションはこれらに限らない。たとえば、頭部を縦に動かして「うなずく」、頭部を傾けて「首をかしげる」、手を体の後ろにひっこめる、体を前に傾けて「おじぎをする」、足を動かして「後ずさる」、動きをとめて「無視する」等、ロボット100が実現可能な動きであればよい。
 実施形態においては、鼻109が目110や顔領域107より小さいとした。鼻109の大きさはこれに限らず、目110と同程度かより大きいとしてもよい。また、目110や顔領域107等各部の大小関係についても実施形態に拘束されることはなく、適宜設計変更可能である。
 本発明は、ロボット100の鼻109をユーザがいじると、そのいじり方に応じてロボット100が反応を返す。ユーザが無意識にいじる可能性の高い箇所の変化を検知できるセンサを設ける。その箇所をユーザがいじったときにそのいじり方によってロボット100の目が動き、表情が変化し、体が動き出せば、ユーザはロボット100に対する愛着を抱くようになる。いじり方によってロボット100の反応が変化すると、ユーザがロボット100に触れる時間は長くなる。ユーザのロボット100への接触時間を長くできれば、ロボット100に対するユーザの愛着をいっそう深いものにできる。なお、鼻をいじられると、それに連動して眼を動かす動物は存在しない。人間であってもそうした行為はしない。仮にしたとしても、他人に鼻をいじられて、そのいじる方向に連動して眼を動かすことは難しい。ロボット100だからこそ可能な、ひとつの表現と言える。

Claims (15)

  1.  ロボット本体の変形を検知する操作検知部と、
     眼画像を生成し、ロボットの顔領域に前記眼画像を表示させる眼生成部と、を備え、
     前記眼生成部は、前記ロボット本体の変形が検知されたとき、変形態様に応じて前記眼画像を変化させることを特徴とするロボット。
  2.  前記眼生成部は、前記変形態様として、変形方向、変形量および変形速度のうち1以上に基づいて前記眼画像を変化させることを特徴とする請求項1に記載のロボット。
  3.  ロボットのモーションを選択する動作制御部を備え、
     前記動作制御部は、前記眼画像の変化が開始された後において、前記ロボット本体の変形態様が所定の条件を満たしたときには、変形態様に応じたモーションを選択することを特徴とする請求項1または2に記載のロボット。
  4.  前記所定の条件が満たされたときに選択されるモーションは、ロボットの頭部を駆動させるモーションであることを特徴とする請求項3に記載のロボット。
  5.  時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部、を備え、
     前記眼生成部は、前記操作履歴に応じて前記眼画像を変化させることを特徴とする請求項1~4のいずれかに記載のロボット。
  6.  ロボットのモーションを選択する動作制御部と、
     時間経過にともなうロボット本体の変形状態を操作履歴として記録する操作履歴管理部と、を備え、
     前記動作制御部は、前記操作履歴に応じてモーションを変化させることを特徴とする請求項1~5のいずれかに記載のロボット。
  7.  前記操作履歴は、変形状態の継続時間を含むことを特徴とする請求項5または6に記載のロボット。
  8.  前記操作検知部は、ロボット本体のうち顔領域に設けられた凸部の変形を検知することを特徴とする請求項1~7のいずれかに記載のロボット。
  9.  前記凸部は、ロボット本体の鼻に相当する部分に設置される突起であり、
     前記操作検知部は、前記突起の変形を検知することを特徴とする請求項8に記載のロボット。
  10.  前記ロボットの姿勢を特定する姿勢判断部を備え、
     前記姿勢判断部がユーザによるロボットの抱き上げを特定することを条件として、前記眼生成部は前記変形態様に応じて前記眼画像を変化させることを特徴とする請求項1~9のいずれかに記載のロボット。
  11.  ロボットのモーションを選択する動作制御部と、
     前記選択されたモーションを実行する駆動機構と、
     ロボット本体に設けられるデバイスの動きを検知する操作検知部と、を備え、
     前記動作制御部は、前記デバイスの動きが検知されたとき、前記デバイスから所定範囲内を駆動対象とするモーションのうち、前記デバイスの動きに応じたモーションを選択することを特徴とするロボット。
  12.  前記動作制御部は、前記デバイスの動きが検知されたとき前記所定範囲内を駆動対象として前記ロボットの一部を駆動し、前記一部の駆動開始後において前記デバイスの動きが所定の条件を満たしたときには、さらに、前記所定範囲の外も駆動対象とすることを特徴とする請求項11に記載のロボット。
  13.  ロボットの体表面に設置され、ユーザの接触を検出する第1のセンサと、
     前記ロボットの顔領域に設けられ、ユーザの接触を前記第1のセンサより高精度に検出する第2のセンサと、
     眼画像を生成し、前記顔領域に前記眼画像を表示させる眼生成部と、を備え、
     前記眼生成部は、前記第2のセンサにおける検出値の変化量に連動して前記眼画像を変化させることを特徴とするロボット。
  14.  前記第2のセンサは、前記第1のセンサより狭い領域に設けられ、ユーザの接触にともない生じる前記ロボットの体表面の変形量を検出することを特徴とする請求項13に記載のロボット。
  15.  鼻を模した凸部と、
     瞳を動かすことで視線を表現する眼生成部と、を備え、
     前記眼生成部は、前記凸部の変形状態に連動して、前記瞳を変化させることを特徴とするロボット。
PCT/JP2019/026249 2018-07-02 2019-07-02 ロボット WO2020009098A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020529004A JPWO2020009098A1 (ja) 2018-07-02 2019-07-02 ロボット
JP2024005682A JP2024045247A (ja) 2018-07-02 2024-01-17 ロボット

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018125815 2018-07-02
JP2018-125815 2018-07-02

Publications (1)

Publication Number Publication Date
WO2020009098A1 true WO2020009098A1 (ja) 2020-01-09

Family

ID=69060406

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026249 WO2020009098A1 (ja) 2018-07-02 2019-07-02 ロボット

Country Status (2)

Country Link
JP (2) JPWO2020009098A1 (ja)
WO (1) WO2020009098A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP2012239557A (ja) * 2011-05-17 2012-12-10 Shain:Kk ロボット玩具
US9375845B1 (en) * 2014-09-30 2016-06-28 Sprint Communications Company, L.P. Synchronizing robot motion with social interaction
WO2018016461A1 (ja) * 2016-07-20 2018-01-25 Groove X株式会社 スキンシップを理解する自律行動型ロボット
WO2018097089A1 (ja) * 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP2012239557A (ja) * 2011-05-17 2012-12-10 Shain:Kk ロボット玩具
US9375845B1 (en) * 2014-09-30 2016-06-28 Sprint Communications Company, L.P. Synchronizing robot motion with social interaction
WO2018016461A1 (ja) * 2016-07-20 2018-01-25 Groove X株式会社 スキンシップを理解する自律行動型ロボット
WO2018097089A1 (ja) * 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット

Also Published As

Publication number Publication date
JPWO2020009098A1 (ja) 2021-08-05
JP2024045247A (ja) 2024-04-02

Similar Documents

Publication Publication Date Title
US11285614B2 (en) Autonomously acting robot that understands physical contact
US11498222B2 (en) Autonomously acting robot that stares at companion
US20230249355A1 (en) Autonomously acting robot that changes pupil image of the autonomously acting robot
JP7236142B2 (ja) 自律行動型ロボット
US11712796B2 (en) Robot that acts comically, and structure thereof
US20210283516A1 (en) Robot that wears clothes
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
WO2019088160A1 (ja) 反射行動を実行可能な自律行動型ロボット
WO2020009098A1 (ja) ロボット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19831265

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020529004

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19831265

Country of ref document: EP

Kind code of ref document: A1