WO2020174608A1 - 可動式ロボットおよびその制御方法 - Google Patents

可動式ロボットおよびその制御方法 Download PDF

Info

Publication number
WO2020174608A1
WO2020174608A1 PCT/JP2019/007561 JP2019007561W WO2020174608A1 WO 2020174608 A1 WO2020174608 A1 WO 2020174608A1 JP 2019007561 W JP2019007561 W JP 2019007561W WO 2020174608 A1 WO2020174608 A1 WO 2020174608A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
target person
information
event
unit
Prior art date
Application number
PCT/JP2019/007561
Other languages
English (en)
French (fr)
Inventor
直秀 小川
薫 鳥羽
渉 瀬下
山川 浩
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to PCT/JP2019/007561 priority Critical patent/WO2020174608A1/ja
Priority to JP2021501454A priority patent/JP7222064B2/ja
Publication of WO2020174608A1 publication Critical patent/WO2020174608A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to a mobile robot and its control method.
  • the present invention relates to a control technology for a mobile robot for childcare, which mainly targets children.
  • Patent Document 1 discloses a robot which is a child's play partner.
  • the present invention aims to support smooth switching when a certain person ends a certain action.
  • the present invention has the following configurations. That is, A mobile robot, Drive means for moving the robot, Providing means for providing information to the target person, Control means for controlling the operation of the robot, Equipped with The control unit controls the driving unit to move away from the target person when a predetermined timing comes while the information is being provided by the providing unit.
  • the accompanying drawings are included in and constitute a part of the specification, illustrate the embodiments of the present invention, and together with the description, serve to explain the principles of the present invention.
  • the figure for demonstrating the example of the event which concerns on 1st Embodiment. 3 is a flowchart showing a process of guiding motion of the robot according to the first embodiment.
  • 9 is a flowchart showing a process of operation of the robot according to the second embodiment.
  • 9 is a flowchart showing processing of a retracting operation of the robot according to the second embodiment.
  • a place where communication between the robot and the child is performed will be described assuming a predetermined space (for example, a home or a shared space).
  • FIG. 1 is a diagram showing an example of a hardware configuration of a robot 100 according to this embodiment.
  • the control unit 110 included in the robot 100 includes a CPU (Central Processing Unit) 111, an HDD (Hard Disc Drive) 112, and a RAM (Random Access Memory) 113.
  • the CPU 111 controls various processes described below by reading and executing a program stored in the HDD 112.
  • the HDD 112 is a non-volatile storage area, and stores programs corresponding to various processes.
  • the RAM 113 is a volatile storage area and is used as, for example, a work memory.
  • the control unit 110 may be configured by an ASIC (Application Specific Integrated Circuit), a dedicated circuit, or the like.
  • ASIC Application Specific Integrated Circuit
  • the robot 100 includes various parts serving as an interface for information with the outside.
  • the parts shown below operate under the control of the control unit 110.
  • the voice input unit 114 is a part that acquires voice information from the outside, and includes, for example, a microphone.
  • the imaging unit 115 is a part that acquires image information of the surroundings, and includes, for example, a camera.
  • the power supply unit 116 is a part that supplies power to the robot 100, and corresponds to a battery.
  • the audio output unit 117 is a unit for outputting audio information to the outside, and includes, for example, a speaker.
  • the image display unit 118 is a unit for outputting image information, and includes a display and the like.
  • the operation unit 119 is a unit for performing a user operation on the robot.
  • the image display unit 118 and the operation unit 119 may be collectively configured as a touch panel display that also functions as an input device.
  • the notification unit 120 is a unit for notifying various information to the outside, and may be, for example, a light emitting unit such as an LED (Light Emitting Diode) or may be integrated with the audio output unit 117.
  • the drive unit 121 is a unit that moves the robot 100, and may include, for example, an actuator, a tire, a motor, an engine, or the like.
  • the sensor unit 122 includes various sensors for acquiring information on the external environment. The sensor may include, for example, a temperature sensor, a humidity sensor, an infrared sensor, a depth sensor, a lidar (LiDAR: Light Detection and Ranging), and the like, and the sensor may be provided according to the information to be acquired.
  • the communication unit 123 is a unit for communicating with an external device via a network (not shown), and the communication method and communication protocol are not particularly limited. Further, the communication unit 123 may include a GPS (Global Positioning System) for detecting its own position information.
  • GPS Global Positioning System
  • each part is shown as one block, but each part may be physically installed in a plurality of places in accordance with the function and structure of the robot 100.
  • the power supply unit 116 and the like may be configured to be attachable to and detachable from the robot 100, or may be provided with an interface for adding a part for providing a new function.
  • the appearance of the robot 100 is not particularly limited, but may be configured according to, for example, a person (for example, a child) assumed as a communication target. Also, the material and size of the robot are not particularly limited.
  • FIG. 2 is a diagram showing an example of the software configuration of the robot 100 according to the present embodiment.
  • each processing unit is realized by the CPU 111 reading and executing a program stored in the HDD 112 or the like.
  • each DB database is configured in the HDD 112.
  • the schedule setting unit 201 is a part that sets an event to be executed at a predetermined timing as a schedule.
  • the schedule here may be set from the outside via the communication unit 123, or may be set on the robot 100 side via the operation unit 119.
  • the schedule setting unit 201 provides a screen for setting a schedule. An example of this screen will be described later with reference to FIG. 7.
  • the schedule management unit 202 manages the schedule set by the schedule setting unit 201 in the schedule DB 213.
  • the schedule management unit 202 also notifies the event processing unit 203 when it is time to perform a predetermined event.
  • the event processing unit 203 processes various events according to the timing at which the event set in the schedule should be performed and the event detected by the sensor unit 122 or the like. Details of the event will be described later with reference to FIG.
  • the event management unit 204 manages processing related to various events in the event information DB 211. It also provides the information needed to process the event.
  • the map creation unit 205 creates a map of the space in which the robot 100 operates.
  • the map may be created based on the information acquired by the sensor unit 122 or the imaging unit 115 included in the robot 100, or may be created based on the map information acquired from outside via the communication unit 123. Good.
  • the map management unit 206 manages the map created by the map creation unit 205 in the map information DB 212.
  • the map management unit 206 also provides map information according to the event to be processed.
  • the history processing unit 207 records and manages actions performed by a person in accordance with an event that has occurred.
  • the action history here is managed in the action history DB 214.
  • the communication processing unit 208 exchanges information with the outside.
  • the communication processing unit 208 may present the action history information accumulated in the action history DB 214 to the outside, or may receive the instruction regarding the event from the outside.
  • Event The event corresponding to the robot 100 according to the present embodiment will be described.
  • the robot 100 performs a process of urging a target person (hereinafter, a target person) to perform a predetermined operation when a predetermined timing or some state is detected.
  • the predetermined operation here is called an “event”.
  • FIG. 3 is a diagram for explaining an event according to this embodiment.
  • the robot 100 guides the target person to the position where the event is performed in order to prompt the target person to execute the event.
  • “toilet (go)” will be described as an example.
  • the “toilet (go)” is triggered by the occurrence timing when the target person detects an action desired to go to the toilet.
  • the detection here may be performed, for example, by receiving a corresponding phrase (for example, “toilet”) via the voice input unit 114, or by making an inquiry to the target person at predetermined time intervals. , May be judged from the response. Alternatively, it may be executed at a timing scheduled in advance, as described later.
  • the target person is guided to the destination (toilet in this example) based on the map information that is held in advance.
  • the event is not limited to a single action, and may be configured by a series of flows such as "toilet (go)” ⁇ "hand wash (go)” ⁇ "move to a predetermined position”. .. Further, the event does not necessarily have to be accompanied by movement between areas (between rooms), and may be performed in an area where the user is currently located.
  • the settable content of the event may change according to the attribute of the target person.
  • the events that can be set in the schedule may change according to age.
  • the settable events may increase or decrease according to the past action history.
  • the event may be set by a user via an external device.
  • the target person is a child, the parent may set the action desired to be executed as an event.
  • the time and place where the operation is performed may be set. An example of setting will be described later with reference to FIG.
  • the robot 100 may use a plurality of methods when prompting the target person to execute an event.
  • examples of the method for prompting include voice, image (example) presentation, and guidance (leading) to a place.
  • the urging method may be combined or changed depending on the target person, the type of event, the degree (strength) of the urging, and the like. For example, the volume of the voice may be changed or the voice color may be changed. Further, the method may be changed according to the elapsed time from the start of prompting.
  • the robot 100 may point in the direction of the place or show the information of the place. Furthermore, the action to be prompted may be switched according to the state of the target person after the guidance is started. Specifically, if the target person does not start to move (move) within a certain period of time after the guidance is started, the target person approaches the target person, moves around the target person, or receives a new image or voice. May be output.
  • the map creation unit 205 of the robot 100 creates a map of an operating space using the peripheral information acquired by the imaging unit 115, the sensor unit 122, and the like.
  • the peripheral information may be recollected and the map may be updated every time a certain period of time elapses.
  • the map information may be updated according to the changed state.
  • the map creation unit 205 may acquire information (map information, position information, etc.) from the outside via the communication unit 123 and perform mapping.
  • the map creation unit 205 may also be configured to detect an object existing in each area and associate the usage of the area. For example, if there is a toilet bowl area, that area may be associated with a toilet, and an area with a bathtub may be associated with a bathroom. If the usage of the area cannot be specified, the configuration may be accepted by the user.
  • FIG. 4 is a flowchart of the guidance process of the robot 100 according to this embodiment.
  • this processing flow is realized by the CPU 111 of the robot 100 reading and executing the program stored in the HDD 112.
  • Each processing step is implemented, for example, in cooperation with the parts of FIG. 1 and the processing part of FIG.
  • the robot 100 monitors the state of the target person.
  • the state monitoring is performed while communicating with the target person.
  • the communication here may be performed by voice interaction, or may be performed by playing a game with the target person.
  • the robot 100 determines whether or not an event to be processed has occurred.
  • the cause of the occurrence of the event here may be performed at a predetermined timing set in the schedule managed by the schedule management unit 202, or a change in the state obtained from the monitoring result of the target person. It may be determined accordingly. Alternatively, it may be caused by receiving an event generation instruction from an external device (not shown) via the communication unit 123.
  • the process proceeds to S403, and when it is determined that no event has occurred (NO in S402), the process returns to S401, and the state monitoring is continued.
  • the robot 100 identifies the position where the event is executed, and determines the movement route from the map information and its own position.
  • the map information is created in advance and is held in the map information DB 212. Further, it is assumed that the position where the event is performed and each position of the map information are associated with each other.
  • the robot 100 starts guiding the target person to the position (destination) determined in S403.
  • information on the timing when the guidance is started and the content of the started event are recorded in the action history DB 214.
  • the robot 100 notifies the target person of the content of the event when starting the guidance. For example, after giving a voice notification such as "Let's go to the toilet", the movement to the location of the toilet is started (lead).
  • the robot 100 starts the guidance and records, for example, a moving image of the action of the target person by the imaging unit 115.
  • the recording here may be a still image acquired at regular time intervals instead of a moving image.
  • the robot 100 determines whether or not the target person has started moving to the destination after starting the guidance. The determination here is made based on the information acquired by the sensor unit 122 and the like. If it is determined that the movement is started (YES in S405), the process proceeds to S407, and if it is determined that the movement is not started (NO in S405), the process proceeds to S406.
  • the robot 100 switches the guidance method.
  • the volume at the time of guidance may be changed, or the voice color may be changed.
  • an image in which the target person (particularly a child) is interested may be displayed, or some kind of prompting action (rotation, orbiting, wraparound) or the like may be performed around the target person.
  • the process returns to S405.
  • the robot 100 determines whether or not the target person has reached the destination. When it is determined that the destination is reached (YES in S407), the process proceeds to S409, and when it is determined that the destination is not reached (NO in S407), the process proceeds to S408.
  • the robot 100 updates the guidance method according to the state of the target person. For example, when the target person deviates from the moving route to the destination, a notification for guiding the user to the correct route may be given. At this time, the robot 100 may be configured to notify the person after approaching the target person or to notify the person on the route. Then, the process returns to S407.
  • the robot 100 ends the guidance when the target person reaches the destination. At this time, information about the time required for the guidance may be recorded in the action history DB 214.
  • the robot 100 presents information about the event. For example, if the event you want to perform is "hand washing", you are notified that soap will be used and that you will wipe your hands after washing.
  • the presentation here may be performed by voice or an image serving as a model may be displayed.
  • the robot 100 determines whether or not the event by the target person has been completed normally. For example, it may be determined whether or not the action corresponding to the event is performed based on the information acquired by the sensor unit 122 or the image capturing unit 115, or whether or not the action corresponding to the event is performed on the target person.
  • the configuration may be such that Specifically, it may be confirmed that the toilet water has been flushed based on the information acquired by the voice input unit 114 or the image capturing unit 115.
  • the sensor unit 122 or the imaging unit 115 may be configured to hold the hand after washing the hand and confirm whether or not the hand washing is properly performed. If the event is completed normally (YES in S411), the process proceeds to S412, and if not completed (NO in S411), the process proceeds to S413.
  • the robot 100 evaluates the action of the target person who performed the action related to the event.
  • the target person here, a child
  • the target person who has performed an action may be praised by voice, or an image of a happy character may be displayed. Further, the result at this time may be held in the action history DB 214. Then, this processing flow ends.
  • the robot 100 performs an action that prompts the target person to perform an action related to the event.
  • the target person may be supported by voice or an image that encourages the person may be displayed.
  • the process returns to S411.
  • the process flow may be terminated when the prompting operation is repeated a plurality of times or when a certain time has elapsed.
  • the configuration is such that the main processing flow is ended in response to the end of the event.
  • the main processing flow may be repeated. ..
  • the completion of the event may be notified to an external device via the communication unit 123.
  • the target person is a child
  • the parent may be notified of the action that the infant has taken. An example of the notification method will be described later with reference to FIG.
  • the configuration may be such that it cooperates with another device.
  • the event is toothbrushing
  • a result of a sensor or the like mounted on the toothbrush may be acquired, and whether or not the toothbrushing has been appropriately performed may be determined from the result.
  • it may be determined whether the water supply is properly stopped, whether the door is closed, or the like.
  • a predetermined time e.g., a predetermined time (threshold value)
  • FIG. 5 is a diagram for explaining an example of guidance of the robot 100 according to the present embodiment.
  • a series of flows of “toilet (go)” ⁇ “hand wash (go)” ⁇ “move to a predetermined position” will be described as an example.
  • the predetermined position will be described as a place (a “shared space” in the example of FIG. 5) where the predetermined position was when the series of events occurred.
  • map information and the information on the place where the event should be held are associated and held in advance. Further, in the map information, it is assumed that information such as connecting portions between areas (doors, doorways between rooms) and the like are also registered. In the example of FIG. 5, a description will be given using a state in which the robot 100 and the target person (children 500) are communicating with each other in the shared space.
  • the robot 100 holds its current position in a timely manner.
  • the route to the place corresponding to the event is determined.
  • the route is determined with the vicinity of the boundary of each area (room) as a relay point (passage point).
  • the route may be determined collectively for a series of events or may be determined for each event.
  • the child 500 is notified to perform the operation related to the event. In this example, after notifying that the user will go to the toilet, notification that the vehicle will be guided to that location is also notified.
  • the robot 100 starts guiding the child 500.
  • the robot 100 first moves to the relay point A and confirms the state of the child 500.
  • the robot 100 prompts the motion by facing the front of the child 500.
  • the robot 100 subsequently moves to the relay point B.
  • the robot 100 notifies the relay point B that the place is a toilet (destination).
  • a voice or an image may be output so as to praise the fact that the child 500 is taking the initiative.
  • the robot 100 completes its operation based on the fact that the voice input unit 114 detects that the toilet water has been flushed, the imaging unit 115 detects that the toilet door has been closed, and the like. Detect that. Also here, when the child 500 takes the initiative in performing the required action (eg, flushing water, closing the door, etc.), the output may be output to evaluate the action, or conversely, if not performed. May prompt its action.
  • the voice input unit 114 detects that the toilet water has been flushed
  • the imaging unit 115 detects that the toilet door has been closed, and the like. Detect that.
  • the output may be output to evaluate the action, or conversely, if not performed. May prompt its action.
  • the robot 100 starts guiding to the relay position C in order to prompt the event “hand wash (go)”. After that, after detecting that the hand washing is normally performed, the vehicle is moved and guided to the relay position D and the relay position E in order to perform the event “move to a predetermined position”.
  • the route may be changed/updated according to the operating state of the target person. Further, the target person may be approached depending on the operation state of the target person who is being guided. Therefore, the initially determined route to the destination may be modified depending on the situation. Further, depending on the operation of the target person, it is not necessary to stop at the relay point.
  • the guidance may be performed while existing within a predetermined range from the position where the target person is. In this case, the motion may be performed in parallel with the target person at the same speed or substantially the same speed.
  • FIG. 6 is a flowchart of the action history analysis process for the action history of the target person executing the event according to the present embodiment.
  • this processing flow is realized by the CPU 111 of the robot 100 reading and executing the program stored in the HDD 112. This process may be executed at regular intervals, or may be executed at a timing when a constant amount of action history information is recorded.
  • the present processing flow is described as being performed by the robot 100, but the present invention is not limited to this configuration.
  • the communication processing unit 208 periodically sends action history information to the action history DB 214 to an external server (not shown). May be sent by an external server.
  • the robot 100 may acquire the analysis result from the external server, and change the processing of subsequent events according to the result.
  • the robot 100 acquires the action history information of the target person to be analyzed.
  • the history processing unit 207 acquires target information from the behavior history information recorded in the behavior history DB 214.
  • the robot 100 totals the evaluations of the acquired action histories. For example, each action history records the time required for action, the presence/absence of execution, etc., and this information is totaled. By the tabulation, it becomes possible to identify the change of behavior and required time.
  • the robot 100 gives points to the target person according to the result of counting.
  • the evaluation here is not limited to points, and a rank according to age, a proficiency level for each event, or the like may be set.
  • the points to be given may be set in advance by setting a reference in advance for the time, the number of executions, etc. according to the operation.
  • the robot 100 identifies an event that can be newly set according to the given points.
  • the event specified here will be output as an option when scheduling the event, for example.
  • the control may be performed such that the event for the younger age is not displayed in the options.
  • the robot 100 specifies an action that the robot 100 can output according to the given points.
  • the operation specified here corresponds to, for example, an operation in which an image or message that has not been displayed until now is output when the subsequent event is completed. Therefore, for example, as the number of points increases, a new character image may be displayed for the target person, or a different praise word may be output. Then, this processing flow ends.
  • the operation performed by the robot 100 is updated according to the growth and behavior history of the target person.
  • each screen available to the user according to the present embodiment will be described.
  • the parent can use each screen.
  • the screens described below may be realized by a dedicated application, or may be realized in cooperation with another application (for example, a mail application or an SNS (Social Networking Service) application).
  • each application may be installed in an external device, for example, a mobile terminal (not shown) such as a smartphone.
  • FIG. 7 shows an example of a screen for setting an event schedule that prompts the target person to execute the event.
  • the setting screen 700 includes an event setting 701, a time setting 702, and a progress report setting 703.
  • the event setting 701 is a setting item that specifies an event to be prompted, and may be configured to be selectable by pulldown, for example. Further, as described above, the event selectable here may change according to the past action history.
  • the time setting 702 is a setting item that specifies a time when an event is desired to be prompted. Although the time is designated here, for example, when a certain state is detected, it may be selected.
  • the progress report setting 703 is a setting item for setting whether or not to report information during the urgency of an event or at the time of completion thereof. Here, it is configured so that ON/OFF can be set.
  • the configuration of the setting screen 700 in FIG. 7 is an example, and other setting items may be set, or more detailed settings may be possible.
  • FIG. 8 shows a configuration example of the notification screen 800 when the progress report according to the present embodiment is performed.
  • the notification screen 800 is displayed when “ON” is set in the notification report setting 703 of the setting screen 700.
  • event content 801, event date/time 802, in-event image 803, and evaluation 804 are displayed.
  • the name of the event that was performed is displayed in the event content.
  • the event date and time 802 displays the time at which the event was held.
  • the event image 803, an image of the target person during the event is displayed. Note that a moving image may be displayed here.
  • the evaluation 804 shows the evaluation of the result of the event.
  • the configuration of the notification screen 800 in FIG. 8 is an example, and other information may be included, or the user may set the content to be notified.
  • the present embodiment it is possible to support the target person's voluntary action while communicating with the target person (for example, a child).
  • FIG. 9 is a diagram showing an example of the software configuration of the robot 100 according to the present embodiment.
  • each processing unit is realized by the CPU 111 reading and executing a program stored in the HDD 112 or the like.
  • each DB database is configured in the HDD 112.
  • the schedule setting unit 901 is a unit that sets an operation to be executed by the robot 100 as a schedule.
  • the schedule here may be set externally via the communication unit 123 or may be set via the operation unit 119.
  • the schedule setting unit 901 provides a screen for setting a schedule. An example of this screen will be described later with reference to FIG.
  • the schedule management unit 902 manages the schedule set by the schedule setting unit 901 in the schedule DB 913.
  • the content processing unit 903 reads the content from the content DB 911 and provides it to the outside.
  • the content here may be, for example, music or a moving image. Alternatively, it may be a game played together with the target person.
  • the robot 100 may not only output information such as an image, but may also perform an action of listening to an action (for example, aloud reading) performed by a child and perform a reaction to the action.
  • the content according to the present embodiment may be composed of one or a plurality of sections. For example, when the content is a moving image, it may be composed of sections (scenes) every 5 minutes. In this case, the sections can be treated as delimiters.
  • the content management unit 904 manages various contents in the content DB 911.
  • the content management unit 904 also provides the content processing unit 903 with information necessary for processing the content.
  • the map creation unit 905 creates a map of the space in which the robot 100 operates.
  • the map may be created based on the information acquired by the sensor unit 122 or the imaging unit 115 included in the robot 100, or may be created based on the map information acquired from outside via the communication unit 123. Good. In the present embodiment, it is assumed that the map includes information such as a region (range) in which communication with the target person and a charging position are performed.
  • the map management unit 906 manages the map created by the map creation unit 205 in the map information DB 912.
  • the history processing unit 907 records and manages information such as a history of communication with the target person.
  • the history information here is managed in the history information DB 914.
  • the communication processing unit 908 exchanges information with the outside.
  • the communication processing unit 908 may present the action history information accumulated in the action history DB 214 to the outside, or may receive an instruction regarding the content from the outside.
  • the evacuation control unit 909 controls the operation of evacuating the robot 100 from the target person at a predetermined timing. Details of the evacuation operation according to this embodiment will be described later.
  • the state monitoring unit 910 monitors and determines the state of the target person based on the information obtained from the imaging unit 115 and the sensor unit 122, and performs an operation according to the state.
  • FIG. 10 is a diagram for explaining an example of the operation of the robot 100 according to this embodiment.
  • the target person here, the child 1001
  • another person here, the child's parent 1002
  • the robot 100 is communicating with the child 1001.
  • the parent 1002 is individually performing some work.
  • a charging position 1003 of the robot 100 and a region 1004 for the robot 100 and the child 1001 to communicate with each other are preset in the space 1000 by map information.
  • the range of the region 1004 is not particularly limited, and may be the entire space 1000 or may be set so as to exclude a range in which a predetermined object (for example, a dangerous object) exists.
  • the robot 100 communicates with the child 1001 based on the settings specified by the parent 1002, for example.
  • various contents held in the contents DB 911 are provided.
  • the robot 100 monitors the state of the target person (the child 1001 in this example) in parallel with the provision of the content.
  • the robot 100 determines whether or not the child 1001 is communicating with the robot 100 based on the information acquired from the image capturing unit 115, the sensor unit 122, and the like. Specifically, when there is no response from the child 1001 or when he/she is sleeping, it may be determined that the communication is completed. In this case, the configuration may be such that the provision of the content is stopped or the parent 1002 is notified.
  • the robot 100 monitors whether or not it is acting to leave the area 1004. For example, there may be a case where communication with the robot 100 is interrupted and the robot 1002 moves to another place, or the parent 1002 moves to an unintended place. When such a state is detected, for example, the parent 1002 may be notified, or an operation for urging the parent to return to the area 1004 may be executed.
  • the robot 100 when the robot 100 communicates with the child 1001 (while providing content) at a predetermined timing, the robot 100 interrupts the communication and then moves away from the child 1001. To do.
  • the leaving operation here is performed, for example, by moving to the charging position 1003 or moving near the parent 1002.
  • FIG. 11 shows an example of a setting screen when the robot 100 is made to communicate with a target person.
  • the setting screen 1100 includes a communication time setting 1101 and a communication end operation setting 1102.
  • the time setting 1101 sets the time for communication.
  • an example is shown in which the time interval or continuous time from the start can be set. These settings may be settable by pull-down, for example.
  • the operation setting 1102 is a setting item for designating the operation of the robot 100 at the end of a predetermined communication.
  • the robot 100 detects an adult (predetermined person) in the vicinity based on the information obtained from the imaging unit 115 and the sensor unit 122, and moves to the surrounding area.
  • the configuration of the setting screen 1100 in FIG. 11 is an example, and other setting items may be set, or more detailed settings may be possible.
  • the parent 1002 may be able to receive an instruction to extend the time for communication by the robot 100, if necessary.
  • FIG. 12 is a flowchart of the guidance process of the robot 100 according to this embodiment.
  • this processing flow is realized by the CPU 111 of the robot 100 reading and executing the program stored in the HDD 112.
  • Each processing step is implemented, for example, in cooperation with the parts of FIG. 1 and the processing part of FIG.
  • the robot 100 starts monitoring the target person.
  • a target person who is a communication partner is recognized, and its operation is collected by the sensor unit 122 or the like.
  • the robot 100 may perform an operation of moving to the front of the target person.
  • the robot 100 starts providing content.
  • the content provided here may be specified by the target person (child in this example) or may be received by another user (for example, the parent of the child).
  • the robot 100 may present selectable contents.
  • the robot 100 determines whether communication with the target person is normally performed. For example, it is assumed that the communication is normally performed when the target person shows some reaction to the provided content or when replying to the inquiry. Here, the determination may be made based on the information obtained by the sensor unit 122 and the like. If it is determined that the communication is normal (YES in S1203), the process proceeds to S1204, and if it is determined that the communication is not normal (NO in S1203), the process proceeds to S1206.
  • the robot 100 determines whether or not a predetermined timing has been reached.
  • the predetermined timing here corresponds to the time set in the time setting 1101 of the setting screen 1100 shown in FIG. If it is determined that the predetermined timing has been reached (YES in S1204), the process proceeds to S1205, and if it is determined that it has not been reached (NO in S1204), the process returns to S1203.
  • the robot 100 determines whether or not the reason why the communication is determined to be abnormal is that the target person has moved outside from the predetermined area.
  • the predetermined area corresponds to the area 1004 in FIG. 10, for example. If it is determined that the movement is from the predetermined area (YES in S1206), the process proceeds to S1207, and if it is determined that the movement is not in the predetermined area (NO in S1206), the process proceeds to S1209.
  • the robot 100 guides the target person to a predetermined area.
  • the guidance operation here may be, for example, a method of notifying by voice, or an operation of moving to the vicinity of the target person and then guiding to a predetermined area.
  • the operation may be such as displaying a content for guidance.
  • the guidance operation here may be continued for a certain period of time.
  • the robot 100 determines whether or not the target person has moved into the predetermined area after the guiding operation. Here, whether or not the target person is within the predetermined area is detected based on the information from the sensor unit 122 and the like. When it is determined that it has moved to the predetermined position (YES in S1208), the process returns to S1203. In this case, the provision of the content is continued and communication between the robot 100 and the target person is tried. If it is determined that it has not moved to the predetermined position (NO in S1208), the flow proceeds to S1209.
  • the robot 100 interrupts communication with the target person and notifies the predetermined user (for example, the parent of the child) of the interruption.
  • the notification may be performed by voice, or the notification may be performed after moving to the vicinity of the person as the notification destination.
  • the notification method may be switched according to the reason for interruption. For example, when it is detected that the target person has fallen asleep, the volume may be lowered and then the notification may be performed by approaching the vicinity of the parent. Alternatively, in case of interruption due to some emergency, the volume may be raised to notify. Then, this processing flow ends.
  • the subsequent operation may be switched depending on the reason for interruption. For example, it may be configured to move to a predetermined position such as a charging position, or, when sleeping, move to the vicinity of the target person and perform an operation of watching the state.
  • FIG. 13 is a flowchart showing the processing of the save operation according to this embodiment. This process corresponds to the process of S1205 of FIG.
  • the robot 100 notifies the target person of the end of communication.
  • the notice here may indicate the remaining time until the end, or may be given by a method such as a countdown. Alternatively, music that suggests that the end is approaching may be output.
  • the robot 100 determines whether or not the latest break point of the currently provided content has been reached.
  • the content is composed of one or a plurality of sections, and the time point when the break between the sections is reached is the communication end timing.
  • the method of setting the delimiter may change depending on the type of content.
  • the robot 100 ends the provided content.
  • the ending method at this time may be such that the sound is gradually reduced, or the sound may be interrupted at a break.
  • the robot 100 starts to move away from the surroundings of the target person.
  • the destination here may be a preset position such as the charging position 1003 in FIG.
  • the robot 100 determines whether or not the target person has approached during the movement.
  • the approach of the target person may be determined based on the information obtained by the sensor unit 122 and the like.
  • the process proceeds to S1306, and when the approach is not detected (NO in S1305), the process proceeds to S1307.
  • the robot 100 performs an operation to notify the target person that communication has been completed.
  • the robot 100 may display such that the charging is required. In this case, it is not necessary that the remaining capacity of the electric power of the power supply unit 116 is actually reduced.
  • the robot 100 may be configured to perform a voice or reaction such as sleeping. Then, it progresses to S1307.
  • the robot 100 notifies a predetermined user (for example, the parent of the child) that the communication with the target person is completed.
  • the notification method here may be a voice notification.
  • the present invention is not limited to this.
  • the robot when it comes at a set timing, the robot is guided to move around a predetermined person (for example, a parent), and then the robot and the plurality of persons communicate with each other from the one-to-one communication between the robot and the child. You may switch so that one-to-many communication may be performed. In this case, the configuration may be such that new content is provided.
  • the timing for continuing or interrupting communication was specified by specifying the time, but it is not limited to this.
  • the configuration may be such that the time point at which the occurrence of a predetermined event is detected can be specified based on the information acquired from the image capturing unit 115, the sensor unit 122, or the like.
  • the time when a specific person enters the shared space may be designated. Specifically, it may be possible to specify the time when the father returns to the house. Alternatively, it may be possible to specify the timing when it is detected that the mother calls the child.
  • the time when the robot 100 communicates with the target person may be determined according to a predetermined regular schedule. For example, a schedule for one day at a certain home may be set, and a certain period before dinner may be determined as the time during which communication is possible.
  • the robot 100 may approach the target person and indicate that there is content that can be provided.
  • the robot (for example, 100) of the above embodiment is A mobile robot, Drive means (for example, 121) for moving the robot, Providing means (for example, 117, 118) for providing information to the target person, Control means (eg 110) for controlling the movement of the robot; Equipped with The control unit controls the driving unit to move away from the target person when a predetermined timing comes while the information is being provided by the providing unit.
  • the information is composed of a plurality of sections
  • the predetermined timing is a timing at which a break of the plurality of sections is reached.
  • the action can be ended at an appropriate timing.
  • the predetermined timing is the timing when the target person is in a predetermined state by the detection means.
  • the action can be ended according to the state of the target person.
  • the predetermined state is a state in which the target person is sleeping.
  • the provision of information can be terminated.
  • control unit causes the provision unit to provide predetermined information when the detection unit detects the approach of the target person while moving away from the target person.
  • the predetermined information is information indicating that the robot is being charged.
  • control unit causes the providing unit to notify the timing of leaving the target person in a stepwise manner.
  • the target person can be smoothly separated from the robot.
  • control unit controls to move to a predetermined position when leaving the target person.
  • the predetermined position is a position where the robot is charged.
  • the robot when leaving the target person, the robot can be retracted to a position where the robot can be charged.
  • the predetermined timing differs depending on the information provided by the providing means.
  • an acquisition unit (for example, 907, 914) that acquires the action history of the target person is further included,
  • the predetermined timing differs depending on the action history of the target person.
  • the above embodiment further includes a receiving unit (for example, 119 or 903) that receives the selection of the information provided by the providing unit from the target person.
  • a receiving unit for example, 119 or 903 that receives the selection of the information provided by the providing unit from the target person.
  • the target person is a child.
  • the control method of the robot (for example, 100) of the above embodiment is A method for controlling a mobile robot, A moving step of moving the robot, And a providing step of providing information to a target person, When a predetermined timing is reached while the information is being provided by the providing step, the moving step is controlled so as to separate from the target person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

可動式のロボットであって、前記ロボットを移動させる駆動手段と、対象人物へ情報を提供する提供手段と、前記ロボットの動作を制御する制御手段とを備え、前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。

Description

可動式ロボットおよびその制御方法
 本発明は、可動式ロボットおよびその制御方法に関する。特に、主に子供を対象とした育児用の可動式ロボットの制御技術に関する。
 従来、子供などとコミュニケーションをとりながら、その相手をするロボットが知られている。例えば、特許文献1では、子供の遊び相手をするロボットが開示されている。
特開2004-234890号公報
 例えば、子供自身が遊びの最中において、その時間管理を行うことは難しく、特に予め決められた終了時間にスムーズに遊びを終了することは難しい。
 そこで、本発明は、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることを目的とする。
 上記課題を解決するために本願発明は以下の構成を有する。すなわち、
 可動式のロボットであって、
 前記ロボットを移動させる駆動手段と、
 対象人物へ情報を提供する提供手段と、
 前記ロボットの動作を制御する制御手段と、
を備え、
 前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。
 本発明により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明に係るロボットのハードウェア構成の例を示す図。 第1の実施形態に係るロボットのソフトウェア構成の例を示す図。 第1の実施形態に係るイベントの例を説明するための図。 第1の実施形態に係るロボットの誘導動作の処理を示すフローチャート。 第1の実施形態に係るロボットの誘導の例を説明するための図。 第1の実施形態に係る行動履歴解析処理を示すフローチャート。 第1の実施形態に係るイベントのスケジュール設定の画面の構成例を示す図。 第1の実施形態に係るイベント完了後の通知の例を説明するための図。 第2の実施形態に係るロボットのソフトウェア構成の例を示す図。 第2の実施形態に係るロボットの動作の例を説明するための図。 第2の実施形態に係る設定画面の構成例を示す図。 第2の実施形態に係るロボットの動作の処理を示すフローチャート。 第2の実施形態に係るロボットの退避動作の処理を示すフローチャート。
 以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
 <第1の実施形態>
 [システム概要]
 本発明の第1の実施形態として、対人用の可動式コミュニケーションロボット(以下、単に「ロボット」)が、人物とコミュニケーションを行い、その人物に対して所定の動作を誘導する形態について説明する。ここでのコミュニケーションの対象となる人物は、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。
 また、本実施形態では、ロボットと児童とのコミュニケーションが行われる場所を所定の空間(例えば、家庭内や共有スペース)などを想定して説明を行う。
 [ロボットの構成]
 (ハードウェア構成)
 図1は、本実施形態に係るロボット100のハードウェア構成の例を示す図である。ロボット100が備える制御部110は、CPU(Central Processing Unit)111、HDD(Hard Disc Drive)112、およびRAM(Random Access Memory)113を含んで構成される。CPU111は、HDD112に格納されたプログラムを読み出して実行することにより、以下に示す各種処理を制御する。HDD112は、不揮発性の記憶領域であり、各種処理に対応するプログラムが格納される。RAM113は、揮発性の記憶領域であり、例えば、ワークメモリなどとして利用される。なお、制御部110は、ASIC(Application Specific Integrated Circuit)や専用回路などから構成されてもよい。
 更に、本実施形態に係るロボット100は、外部との情報のインターフェースとなる各種部位を備える。以下に示す部位は、制御部110による制御に基づいて動作する。音声入力部114は、外部からの音声情報を取得する部位であり、例えば、マイクなどが含まれる。撮像部115は、周辺の画像情報を取得する部位であり、例えば、カメラなどが含まれる。電源部116は、ロボット100の電源を供給する部位であり、バッテリーに相当する。音声出力部117は、外部への音声情報を出力するための部位であり、例えば、スピーカーなどが含まれる。画像表示部118は、画像情報を出力するための部位であり、ディスプレイなどが含まれる。操作部119は、ロボットに対するユーザー操作を行うための部位である。画像表示部118と操作部119は、例えば、入力装置としても機能するタッチパネルディスプレイとしてまとめて構成されてもよい。
 報知部120は、各種情報を外部に報知するための部位であり、例えば、LED(Light Emitting Diode)などの発光部であってもよいし、音声出力部117と一体となっていてもよい。駆動部121は、ロボット100の移動を行う部位であり、例えば、アクチュエーターやタイヤ、モーター、エンジンなどが含まれていてよい。センサ部122は、外部環境の情報を取得するための各種センサを含む。センサとしては、例えば、温度センサ、湿度センサ、赤外線センサ、深度センサ、ライダー(LiDAR: Light Detection and Ranging)などが含まれてよく、取得すべき情報に応じてセンサが設けられてよい。通信部123は、ネットワーク(不図示)を介して外部装置と通信を行うための部位であり、通信方式や通信プロトコルなどは特に限定するものではない。また、通信部123には、自身の位置情報を検知するためのGPS(Global Positioning System)が含まれてもよい。
 なお、図1の構成例では、各部位をそれぞれ1つのブロックにて示しているが、ロボット100の機能や構造に併せて、物理的に複数個所に各部位が分けて設置されてよい。また、例えば、電源部116などはロボット100から着脱可能に構成されてもよいし、新たな機能を提供するための部位を増設するためのインターフェースを備えてもよい。
 なお、ロボット100の外観は特に限定するものでは無いが、例えば、コミュニケーション対象として想定する人物(例えば、児童)に応じて構成されていてよい。また、ロボットの材質やサイズなども特に限定するものではない。
 (ソフトウェア構成)
 図2は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
 スケジュール設定部201は、所定のタイミングにて実行されるべきイベントをスケジュールとして設定する部位である。ここでのスケジュールは、通信部123を介して外部から設定が行われてもよいし、操作部119を介してロボット100側にて設定されてもよい。スケジュール設定部201は、スケジュールを設定するための画面を提供する。この画面の例については、図7を用いて後述する。スケジュール管理部202は、スケジュール設定部201にて設定されたスケジュールをスケジュールDB213にて管理する。また、スケジュール管理部202は、所定のイベントを行うべきタイミングになった際に、イベント処理部203に通知する。
 イベント処理部203は、スケジュールに設定されたイベントが行われるべきタイミングや、センサ部122等にて検知した事象に応じて、各種イベントの処理を行う。イベントの詳細については、図3等を用いて後述する。イベント管理部204は、各種イベントに関する処理をイベント情報DB211にて管理する。また、イベントの処理に必要な情報を提供する。
 マップ作成部205は、ロボット100が動作を行う空間のマップを作成する。マップは、ロボット100が備えるセンサ部122や撮像部115にて取得された情報に基づいて作成されてもよいし、通信部123を介して外部から取得された地図情報に基づいて作成されてもよい。マップ管理部206は、マップ作成部205にて作成されたマップを、マップ情報DB212にて管理する。また、マップ管理部206は、処理すべきイベントに応じて、マップ情報を提供する。
 履歴処理部207は、発生したイベントに伴って、人物が行った動作を記録、管理する。ここでの行動履歴は行動履歴DB214にて管理される。通信処理部208は、外部との情報のやり取りを行う。例えば、通信処理部208は、行動履歴DB214に蓄積された行動履歴情報を外部へ提示してもよいし、イベントに関する指示を外部から受け付けてもよい。
 [イベント]
 本実施形態に係るロボット100が対応するイベントについて説明する。本実施形態において、ロボット100は、対象となる人物(以下、対象人物)について、所定のタイミングや何らかの状態を検知した際に所定の動作を促す処理を行う。ここでの所定の動作を「イベント」と称する。
 図3は、本実施形態に係るイベントを説明するための図である。本実施形態に係るロボット100は、イベントの実行を対象人物に促すために、そのイベントを行う位置へ誘導を行う。例えば、イベントとして、「トイレ(行き)」を例に挙げて説明する。「トイレ(行き)」は、発生タイミングを、対象人物がトイレに行きたい動作を検知したことをトリガーとする。ここでの検知は、例えば、対応するフレーズ(例えば、「トイレ」)を、音声入力部114を介して受信することで検知してもよいし、所定の時間間隔ごとに対象人物に問い合わせを行い、その応答から判断してもよい。もしくは、後述するように、予めスケジュールされたタイミングにて実行してもよい。イベント「トイレ(行き)」を行うと判定された場合、予め保持していたマップ情報に基づいて、対象人物を目的地(この例では、トイレ)へ誘導する。
 また、イベントは単一の動作に限定するものではなく、例えば、「トイレ(行き)」→「手洗い(行き)」→「所定位置への移動」といった、一連の流れにて構成されてもよい。また、イベントは必ずしも領域間(部屋間)の移動を伴うものである必要はなく、現在位置する領域内で行われるものであってもよい。
 また、イベントは、対象人物の属性に応じて、設定可能な内容が変化してもよい。例えば、年齢に応じて、スケジュールに設定可能なイベントが変化してもよい。もしくは、過去の行動履歴に応じて、設定可能なイベントが増減してもよい。イベントの設定は、外部装置を介してユーザーが行えるような構成であってもよい。例えば、対象人物が児童である場合に、その親が、実行させたい動作をイベントとして設定してよい。この時の設定としては、動作を行わせる時間や場所などを設定してもよい。設定の例については、図7等を用いて後述する。
 [イベントの実行を促す手法]
 本実施形態に係るロボット100は、イベントの実行を対象人物に促す際には、複数の手法を用いてよい。例えば、促す手法としては、音声、画像(お手本)の提示、場所への誘導(先導)などが挙げられる。促す手法は、対象人物やイベントの種類、促しの程度(強度)などに応じて、組み合わせたり、変化させたりしてもよい。例えば、音声の音量を変化させたり、声色を変化させたりしてもよい。また、促しを開始してからの経過時間に応じて、手法を変化させてもよい。
 また、イベントを行う場所への誘導においては、ロボット100が場所の方向を向いたり、場所の情報を示したりしてよい。更には、誘導を開始した後の対象人物の状態に応じて、促す動作を切り替えてよい。具体的には、誘導を開始してから一定時間が経過しても対象人物が行動(移動)を開始しない場合は、対象人物に近づいていって、その周りを回ったり、新たな画像や音声を出力したりしてもよい。
 [マッピング動作]
 ロボット100のマップ作成部205は、撮像部115、センサ部122等にて取得された周辺情報を用いて、動作する空間のマップを作成する。例えば、一定時間が経過するごとに、これらの周辺情報を再収集し、マップを更新するようにしてもよい。例えば、家具の配置が変更になった場合には、その変更後の状態に応じて、マップ情報を更新してよい。更に、マップ作成部205は、通信部123を介した外部からの情報(地図情報や位置情報など)を取得してマッピングを行うようにしてもよい。また、マップ作成部205は、各領域に存在する物体を検知して、その領域の用途を対応付けるような構成であってもよい。例えば、便器が存在する領域であればその領域をトイレとして対応付けてもよく、浴槽がある領域は浴室として対応付けてもよい。領域の用途が特定できない場合には、ユーザーにより設定を受け付けるような構成であってもよい。
 [処理フロー]
 (誘導処理)
 図4は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図2の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
 S401にて、ロボット100は、対象人物の状態監視を行う。本実施形態では、状態監視は、対象人物とコミュニケーションを行っている状態にて行われているものとする。ここでのコミュニケーションは、音声によるインタラクションにて行われてもよいし、ゲームなどを対象人物と行うことで行われてもよい。
 S402にて、ロボット100は、処理すべきイベントが発生したか否かを判定する。ここでのイベントの発生の起因は、スケジュール管理部202にて管理されているスケジュールに設定された所定のタイミングにて行われてもよいし、対象人物の監視結果から得られた状態の変化に応じて判定されてもよい。または、外部装置(不図示)から通信部123を介してイベント発生の指示を受け付けたことに起因してもよい。イベントが発生したと判定された場合(S402にてYES)S403へ進み、発生していないと判定された場合(S402にてNO)S401へ戻り、状態監視を継続する。
 S403にて、ロボット100は、イベントが実行される位置を特定し、マップ情報と自身の位置から、移動経路を決定する。マップ情報は、予め作成され、マップ情報DB212にて保持されているものとする。また、イベントが実施される位置とマップ情報の各位置は対応付けられているものとする。
 S404にて、ロボット100は、S403にて決定された位置(目的地)に対して、対象人物の誘導を開始する。このとき、誘導を開始したタイミングの情報や開始したイベントの内容は、行動履歴DB214に記録される。ロボット100は、誘導を開始する際に、対象人物に対してイベントの内容を通知する。例えば、「トイレへ行きましょう」といった音声にて通知した上で、トイレの場所へ向けて移動を開始(先導)する。また、ロボット100は、誘導を開始するとともに、例えば、撮像部115により対象人物の行動の動画を記録する。ここでの記録は、動画の代わりに、一定時間間隔おきに取得される静止画像であってもよい。
 S405にて、ロボット100は、誘導を開始した後に、対象人物が目的地に対して移動を開始したか否かを判定する。ここでの判定は、センサ部122等にて取得される情報に基づいて判定される。移動を開始したと判定された場合は(S405にてYES)S407へ進み、移動を開始していないと判定された場合は(S405にてNO)S406へ進む。
 S406にて、ロボット100は、誘導方法の切り替えを行う。例えば、誘導時の音量を変化させてもよいし、声色を変化させてもよい。または、対象人物(特に児童)が興味を持つような画像を表示してもよいし、対象人物の周辺にて何らかの促し動作(回転や周回、回り込み)などを行うようにしてもよい。一定の誘導動作を行った後、S405へ戻る。
 S407にて、ロボット100は、対象人物が目的地へ到達したか否かを判定する。目的地に到達したと判定した場合(S407にてYES)S409へ進み、到達していないと判定した場合(S407にてNO)S408へ進む。
 S408にて、ロボット100は、対象人物の状態に応じて誘導方法の更新を行う。例えば、対象人物が目的地までの移動経路から外れた場合には、正しい経路へ誘導するような通知を行うようにしてもよい。このとき、ロボット100は、対象人物に近づいて行った上で通知を行ってもよいし、経路上にて通知を行うような構成であってもよい。そして、S407へ戻る。
 S409にて、ロボット100は、対象人物が目的地へ到達したことに伴って、誘導を終了する。このとき、誘導に要した時間の情報などを行動履歴DB214に記録してよい。
 S410にて、ロボット100は、イベントに関する情報を提示する。例えば、実行させたいイベントが「手洗い」であれば、石鹸を使うことや、洗った後は手を拭くことなどを通知する。ここでの提示は、音声で行われてもよいし、手本となる画像を表示してもよい。
 S411にて、ロボット100は、対象人物によるイベントが正常に完了したか否かを判定する。例えば、センサ部122や撮像部115にて取得される情報に基づいて、イベントに対応する動作を行ったか否かを判定してもよいし、対象人物にイベントに対応する動作を行ったか否かを確認するような構成でもよい。具体的には、音声入力部114や撮像部115にて取得される情報に基づいて、トイレの水が流されたことを確認してもよい。もしくは、センサ部122や撮像部115に対して手洗い後の手をかざしてもらい、ちゃんと手洗いができたか否かを確認するような構成であってもよい。イベントが正常に完了した場合は(S411にてYES)、S412へ進み、完了していない場合は(S411にてNO)S413へ進む。
 S412にて、ロボット100は、イベントに関する動作を行った対象人物に対してその行動の評価を行う。例えば、動作を行った対象人物(ここでは、児童)を音声にて褒めたり、喜んでいるキャラクターの画像を表示したりするなどしてよい。また、この時の結果を行動履歴DB214に保持してよい。その後、本処理フローを終了する。
 S413にて、ロボット100は、イベントに関する動作を、対象人物に行うように促す動作を行う。例えば、対象人物を音声にて応援したり、励ますような画像を表示したりするなどしてよい。その後、S411へ戻る。なお、促し動作を複数回繰り返したり、一定時間が経過したりした場合には、本処理フローを終了してもよい。
 また、ここでは、イベントが終了したことに応じて本処理フローを終了した構成としたが、例えば、イベントが一連の動作により構成されている場合などには、繰り返し本処理フローを継続してよい。
 また、イベントが完了したことを、通信部123を介して外部装置へ通知するようにしてもよい。例えば、対象人物が児童である場合には、その親に対して幼児ができた行動を通知するようにしてもよい。通知方法の例については、図8を用いて後述する。
 また、S411のイベントが正常に完了したことを判定する際や、S412にて動作の評価を行う場合には、他の装置と連携するような構成であってもよい。例えば、イベントが歯磨きである場合には、歯ブラシに搭載されたセンサなどの結果を取得し、その結果から適切に歯磨きができたか否かを判定してもよい。または、きちんと水道を止められたか否かの判定や、扉を閉められたか否かの判定などが行われてもよい。または、歯磨きなどのイベントなどにおいては、その動作を行った時間が所定の時間(閾値)よりも短い場合には、きちんと磨けていないものとして、その旨を対象人物に通知してもよい。
 [誘導例]
 図5は、本実施形態に係るロボット100の誘導の例を説明するための図である。ここでは、イベントとして、「トイレ(行き)」→「手洗い(行き)」→「所定位置への移動」の一連の流れを例に挙げて説明する。また、所定の位置は、一連のイベントが発生する際に位置していた場所(図5の例では「共有スペース」)として説明する。
 上述したように、マップ情報とイベントを行うべき場所の情報とは予め対応付けて保持されているものとする。また、マップ情報においては、領域間の接続部(扉など、部屋間の出入り口)などの情報も登録されているものとする。図5の例では、共有スペースにてロボット100と対象人物(児童500)が何らかのコミュニケーションをとっている状態を用いて説明する。
 まず、ロボット100は、自身の現在位置を適時保持しているものとする。この状態において、児童500に対して促すべきイベントの発生を検知すると、イベントに応じた場所への経路を決定する。ここでは、各領域(部屋)の境界付近を中継地点(通過ポイント)として、経路を決定する。なお、経路の決定は、一連のイベントについてまとめて決定してもよいし、イベントごとに決定してもよい。経路が決定した後、イベントに関する動作行うように児童500に対して通知する。本例では、トイレに行くことを通知した上で、その場所まで誘導する旨を通知する。
 そして、ロボット100は、児童500の誘導を開始する。図5の例の場合、ロボット100は、まず、中継地点Aへ移動し、児童500の状態を確認する。このとき、例えば、ロボット100は児童500に対して正面を向いたりすることで、動作を促す。児童500が行動を開始していることを検知したら、ロボット100は、続いて、中継地点Bへと移動する。そして、ロボット100は、中継地点Bにて、その場所がトイレ(目的地)である旨を通知する。なお、児童500がロボット100より先に目的地に到達している場合には、率先して動作を行っていることを褒めたりするような音声や画像を出力するようにしてもよい。
 更に、ロボット100は、音声入力部114によりトイレの水が流されたことを検知したり、撮像部115によりトイレの扉が閉じられたりしたことを検知したことなどに基づいて、動作が完了したことを検知する。ここでも、児童500が率先して、求められる動作(例えば、水を流す、扉を閉める、など)を行った場合にはそれを評価する出力を行ってよいし、逆に行っていない場合には、その動作を促すようにしてもよい。
 続いて、ロボット100は、イベント「手洗い(行き)」を促すために、中継位置Cへの誘導を開始する。その後、手洗いが正常に行われたことを検知した後、イベント「所定位置への移動」を行うために、中継位置D、中継位置Eへと移動および誘導を行う。
 なお、誘導は、対象人物の動作状態に応じて、経路が変更・更新されてもよい。また、誘導中の対象人物の動作状態に応じて、対象人物に近づいたりしてもよい。したがって、当初決定した目的地までの経路は、状況に応じて修正されてよい。また、対象人物の動作によっては、中継地点にて停止する必要はない。もしくは、対象人物がいる位置から所定の範囲内に存在しつつ誘導を行うような構成であってもよい。この場合は、対象人物と同じ速度もしくは略同じ速度にて並走するような動作であってもよい。
 (行動履歴解析処理)
 図6は、本実施形態に係る、イベントを対象人物が実行したことの行動履歴に対する行動履歴解析処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。本処理は、一定間隔ごとに実行されてもよいし、一定量の行動履歴情報が記録されたタイミングにて実行されてもよい。
 ここでは、本処理フローはロボット100が行うものとして説明するが、この構成に限定するものではなく、例えば、行動履歴DB214に行動履歴情報を定期的に外部サーバー(不図示)へ通信処理部208が送信し、外部サーバー側で行ってもよい。その場合は、ロボット100は解析結果を外部サーバーから取得し、その結果に応じて以降のイベントの処理を変更してもよい。
 S601にて、ロボット100は、解析する対象人物の行動履歴情報を取得する。ここでは、履歴処理部207が行動履歴DB214に記録された行動履歴情報の中から対象となる情報を取得する。
 S602にて、ロボット100は、取得した各行動履歴の評価を集計する。例えば、各行動履歴には、行動に要した時間、実行の有無などが記録されており、この情報を集計する。集計により、行動の変遷や所要時間などが特定可能となる。
 S603にて、ロボット100は、集計結果に応じて、対象人物にポイントを付与する。なお、ここでの評価は、ポイントに限らず、年齢に応じたランクや、イベントごとの習熟度などを設定してもよい。付与するポイントは、動作に応じた時間や実行回数などに対して予め基準を設けておき、これに従って設定してもよい。
 S604にて、ロボット100は、付与されたポイントに応じて、新たに設定が可能となるイベントを特定する。ここで特定されたイベントは、例えば、イベントをスケジュールする際に選択肢として出力されることとなる。逆に、習熟度が高い場合などには、低年齢向けのイベントは選択肢に表示されないような制御を行ってもよい。
 S605にて、ロボット100は、付与されたポイントに応じて、ロボット100が出力可能な動作を特定する。ここで特定された動作は、例えば、これまで表示されていなかった画像やメッセージを、以降のイベントの完了時に出力される動作が該当する。そのため、例えば、ポイントが上がるに従って、対象人物に対して新たなキャラクターの画像を表示するようにしてもよいし、これまでとは異なる誉め言葉を出力するようにしてもよい。そして、本処理フローを終了する。
 上記処理により、対象人物の成長や行動履歴に従って、ロボット100が行う動作が更新されていくこととなる。
 [画面例]
 本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよいし、他のアプリケーション(例えば、メールアプリやSNS(Social Networking Service)アプリ)などと連携して実現されてもよい。また、各アプリケーションは、外部装置、例えばスマートフォンなどの携帯端末(不図示)にて搭載されてもよい。
 図7は、対象人物に実行を促すイベントのスケジュールを設定するための画面の例を示す。設定画面700において、イベント設定701、時間設定702、および経過報告設定703を含む。イベント設定701は、促したいイベントを指定する設定項目であり、例えば、プルダウンにて選択できるような構成であってよい。また、上述したように、ここで選択可能なイベントは、過去の行動履歴に応じて変化してよい。時間設定702は、イベントを促したい時間を指定する設定項目である。ここでは、時間にて指定されているが、例えば、ある状態を検知した場合、などを選択できるような構成であってもよい。経過報告設定703は、イベントを促している最中やその完了時点での情報の報告を行うか否かを設定する設定項目である。ここでは、ON/OFFが設定できるように構成されている。なお、図7の設定画面700の構成は一例であり、他の設定項目が設定できてもよいし、更に詳細な設定が可能であってもよい
 図8は、本実施形態に係る経過報告を行う場合の通知画面800の構成例を示す。通知画面800は、設定画面700の通知報告設定703にて「ON」が設定される場合に行われるものとする。
 通知画面800において、イベント内容801、イベント日時802、イベント中画像803、および評価804が表示される。イベント内容には、行ったイベント名が表示される。イベント日時802には、イベントを行った時間が表示される。イベント中画像803には、イベントを行っている際の対象人物の画像が表示される。なお、ここでは、動画が表示されてもよい。評価804には、イベントを行った結果の評価が示される。なお、図8の通知画面800の構成は一例であり、他の情報が含まれてもよいし、ユーザーが通知する内容を設定できるような構成であってもよい。
 以上、本実施形態により、対象人物(例えば、子供)とコミュニケーションをとりながら、対象人物の自主的な行動をサポートすることが可能となる。
 <第2の実施形態>
 本発明の第2の実施形態として、ロボットが、対象人物とコミュニケーションを行うことにより、他の人物の行動をサポートする形態について説明する。ここでのコミュニケーションの対象となる人物は、第1の実施形態と同様、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。また、第1の実施形態と共通する構成については、説明を省略し、差異のみを説明する。
 (ソフトウェア構成)
 図9は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
 スケジュール設定部901は、ロボット100に実行させる動作をスケジュールとして設定するする部位である。ここでのスケジュールは、通信部123を介して外部から設定が行われてもよいし、操作部119を介して設定されてもよい。スケジュール設定部901は、スケジュールを設定するための画面を提供する。この画面の例については、図11を用いて後述する。スケジュール管理部902は、スケジュール設定部901にて設定されたスケジュールをスケジュールDB913にて管理する。
 コンテンツ処理部903は、コンテンツをコンテンツDB911から読み出して、外部に提供する。ここでのコンテンツは、例えば、音楽であってもよいし、動画であってもよい。もしくは、対象人物との一緒に行うゲームなどであってもよい。ロボット100が、画像などの情報を出力するのみではなく、例えば、子供が主体的に行う動作(例えば、音読)を聞く動作を行い、その動作に対するリアクションを行うようにしてもよい。また、本実施形態に係るコンテンツは、1または複数のセクションから構成されていてもよい。例えば、コンテンツが動画である場合に、5分毎のセクション(シーン)から構成されていてよい。この場合、セクション間は区切りとして扱うことが可能である。コンテンツ管理部904は、各種コンテンツをコンテンツDB911にて管理する。また、コンテンツ管理部904は、コンテンツ処理部903に、コンテンツの処理に必要な情報を提供する。
 マップ作成部905は、ロボット100が動作を行う空間のマップを作成する。マップは、ロボット100が備えるセンサ部122や撮像部115にて取得された情報に基づいて作成されてもよいし、通信部123を介して外部から取得された地図情報に基づいて作成されてもよい。本実施形態においては、マップには、対象人物とコミュニケーションを行う領域(範囲)や、充電位置などの情報を含むものとする。マップ管理部906は、マップ作成部205にて作成されたマップを、マップ情報DB912にて管理する。
 履歴処理部907は、対象人物とのコミュニケーションを行った履歴などの情報を記録、管理する。ここでの履歴情報は、履歴情報DB914にて管理される。通信処理部908は、外部との情報のやり取りを行う。例えば、通信処理部908は、行動履歴DB214に蓄積された行動履歴情報を外部へ提示してもよいし、コンテンツに関する指示を外部から受け付けてもよい。退避制御部909は、所定のタイミングにて、対象人物からロボット100を退避させる動作を制御する。本実施形態に係る退避動作の詳細については後述する。状態監視部910は、対象人物の状態を、撮像部115やセンサ部122から得られる情報に基づいて監視、判断し、その状態に応じた動作を行う。
 [動作例]
 図10は、本実施形態に係るロボット100の動作の例を説明するための図である。ここでは、ある空間1000において、対象人物(ここでは、児童1001)とその他の人物(ここでは、児童の親1002)が存在し、ロボット100は、児童1001とコミュニケーションをとっているものとする。一方、親1002は、個別に何らかの作業を行っているものとする。
 また、空間1000には、ロボット100の充電位置1003と、ロボット100と児童1001がコミュニケーションをとるための領域1004とが予めマップ情報にて設定されているものとする。なお、領域1004の範囲は、特に限定するものではなく、空間1000全体としてもよいし、所定の物体(例えば、危険物)などがある範囲を除くように設定されてもよい。
 ロボット100は、例えば親1002から指定された設定に基づき、児童1001とコミュニケーションを行う。コミュニケーションでは、コンテンツDB911にて保持された各種コンテンツを提供する。本実施形態では、このコミュニケーションにおいて、コンテンツの提供と並行して、ロボット100は、対象人物(本例では、児童1001)の状態監視を行う。例えば、ロボット100は、撮像部115やセンサ部122などから取得される情報に基づき、児童1001がロボット100とコミュニケーションをとれているか否かを判定する。具体的には、児童1001からの応答がない場合や寝息を立てている場合などは、コミュニケーションが完了した状態であると判定してよい。この場合には、コンテンツの提供を停止したり、親1002へ通知したりするような構成であってもよい。
 また、ロボット100は、領域1004から離れるような行動をしていないかの監視を行う。例えば、ロボット100とのコミュニケーションを中断し、他の場所へ移動したり、親1002が意図しない場所へ移動したりする場合が挙げられる。このような状態を検知した場合には、例えば、親1002に通知したり、領域1004に戻るように促す動作を実行したりしてもよい。
 また、ロボット100は、児童1001とコミュニケーションを行っている最中(コンテンツを提供している最中)に、所定のタイミングとなった場合、そのコミュニケーションを中断した上で、児童1001から離れる動作を行う。ここでの離れる動作は、例えば、充電位置1003に移動したり、親1002の近くへ移動したりすることで行われる。
 [画面例]
 本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよい。
 図11は、ロボット100に対して、対象人物とコミュニケーションを行わせる際の設定画面の例を示す。設定画面1100において、コミュニケーションを行う時間設定1101およびコミュニケーション終了時の動作設定1102を含む。時間設定1101は、コミュニケーションを行う時間の設定を行う。ここでは、時間間隔もしくは開始からの連続時間にて設定できる例を示している。これらの設定は、例えば、プルダウンにて設定可能であってもよい。動作設定1102は、所定のコミュニケーション終了時のロボット100の動作を指定するための設定項目である。ここでは、充電地点(図10の例の場合は充電位置1003)への移動、もしくは、大人の元(図10の例の場合は親1002の周辺)への移動が選択できるものとする。なお、大人の元への移動については、例えば、ロボット100は、撮像部115やセンサ部122から得られる情報に基づいて、周辺の大人(所定の人物)を検知し、その周辺に移動する。なお、図11の設定画面1100の構成は一例であり、他の設定項目が設定できてもよいし、更に詳細な設定が可能であってもよい。例えば、必要に応じて、親1002が、ロボット100によるコミュニケーションの時間を延長するような指示を受け付けることができてもよい。
 [処理フロー]
 図12は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図9の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
 S1201にて、ロボット100は、対象人物の監視を開始する。ここでの監視は、コミュニケーションの相手となる対象人物を認識し、その動作をセンサ部122等による情報の収集を行う。この場合、ロボット100は、対象人物の正面に移動するような動作を行ってよい。
 S1202にて、ロボット100は、コンテンツの提供を開始する。ここで提供されるコンテンツは、対象人物(本例では児童)からの指定を受け付けてもよいし、他のユーザー(例えば、児童の親)から受け付けてもよい。このとき、ロボット100は、選択可能なコンテンツを提示してもよい。
 S1203にて、ロボット100は、対象人物とのコミュニケーションが正常に行われているか否かを判定する。例えば、提供しているコンテンツに対して、対象人物が何かしらの反応を示している場合や、問いかけに対して返事をする場合には、正常にコミュニケーションが行われているものとする。ここでは、センサ部122等により得られた情報に基づいて判定してよい。コミュニケーションが正常であると判定された場合は(S1203にてYES)S1204へ進み、正常でないと判定された場合は(S1203にてNO)S1206へ進む。
 S1204にて、ロボット100は、所定のタイミングに達したか否かを判定する。本実施形態において、ここでの所定のタイミングは、図11に示した設定画面1100の時間設定1101にて設定した時間に対応する。所定のタイミングに達したと判定された場合は(S1204にてYES)S1205へ進み、達していないと判定された場合は(S1204にてNO)S1203へ戻る。
 S1205にて、ロボット100は、退避動作を行う。退避動作の処理の詳細は、図13を用いて後述する。本工程の処理が完了した後、本処理フローを終了する。
 S1206にて、ロボット100は、コミュニケーションが正常でないと判定された原因が、対象人物が所定領域から外部に移動したことであるか否かを判定する。所定領域とは、例えば、図10の領域1004に相当する。所定領域からの移動であると判定された場合は(S1206にてYES)S1207へ進み、所定領域からの移動でないと判定された場合は(S1206にてNO)S1209へ進む。
 S1207にて、ロボット100は、対象人物に対し所定領域への誘導動作を行う。ここでの誘導動作は、例えば、音声にて通知するような方法でもよいし、対象人物の近くに移動した上で、所定領域へ案内するような動作であってもよい。もしくは、誘導用のコンテンツを表示したりするような動作であってもよい。ここでの誘導動作は、一定時間継続してよい。
 S1208にて、ロボット100は、誘導動作の後、対象人物が所定領域内へ移動したか否かを判定する。ここでは、センサ部122等による情報に基づいて、対象人物が所定領域内にいるか否かを検知する。所定位置へ移動したと判定された場合(S1208にてYES)S1203へ戻る。この場合、コンテンツの提供が継続され、ロボット100と対象人物とのコミュニケーションが試みられる。所定位置へ移動していないと判定された場合(S1208にてNO)S1209へ進む。
 S1209にて、ロボット100は、対象人物とのコミュニケーションを中断し、所定のユーザー(例えば、児童の親)に対して中断通知を行う。ここでの通知方法は、音声にて通知してもよいし、通知先となる人物の周辺に移動した上で通知を行ってもよい。または、中断した理由に応じて通知方法を切り替えてもよい。例えば、対象人物が寝てしまったことを検知した場合には、音量を落とした上で親の周辺に近づいて通知をしてもよい。もしくは、何らかの緊急事態などにより中断した場合には、音量を上げて通知してもよい。その後、本処理フローを終了する。
 なお、S1209の通知動作が完了した後は、中断した理由に応じて、その後の動作を切り替えてもよい。例えば、充電位置などの所定の位置に移動するような構成であってもよいし、寝ている場合には対象人物の周辺に移動して、その状態を見守る動作を行ってもよい。
 (退避動作)
 図13は、本実施形態に係る退避動作の処理を示すフローチャートである。本処理は、図12のS1205の工程に相当する。
 S1301にて、ロボット100は、対象人物に対してコミュニケーションの終了を予告する。ここでの予告は、終了までの残り時間を示してもよいし、カウントダウンのような方法で行ってもよい。もしくは、終了が近づくことを示唆するような音楽を出力してもよい。
 S1302にて、ロボット100は、現在提供しているコンテンツの直近の区切りに達したか否かを判定する。上述したように、本実施形態では、コンテンツは1または複数のセクションにて構成されており、そのセクション間の区切りに達した時点をコミュニケーションの終了タイミングとする。なお、コンテンツの種類によって、区切りの設定方法は変化してよい。コンテンツの区切りに達したと判定された場合(S1302にてYES)S1303へ進む。コンテンツの区切りに達していないと判定された場合(S1302にてNO)S1301へ戻る。なお、S1301に戻った場合の予告は、前回の予告と変更してもよい。
 S1303にて、ロボット100は、提供していたコンテンツを終了させる。この時の終了方法は、徐々に音声を小さくしていくように終了してもよいし、区切りにて瞬断するように終了させてもよい。
 S1304にて、ロボット100は、対象人物の周囲から離れるように移動を開始する。ここでの移動先は、例えば、図10の充電位置1003など予め設定された位置でよい。
 S1305にて、ロボット100は、移動中に対象人物が接近してきたか否かを判定する。ここでは、センサ部122等により得られた情報に基づいて、対象人物の接近を判定してよい。対象人物の接近を検知した場合(S1305にてYES)S1306へ進み、接近を検知していない場合(S1305にてNO)S1307へ進む。
 S1306にて、ロボット100は、対象人物に対して、コミュニケーションは終了したことを伝達するための動作を行う。例えば、ロボット100が、充電が必要になったことを通知するような表示を行ってもよい。この場合において、実際に電源部116の電力の残容量が低下している必要はない。もしくは、ロボット100は、寝ているような音声やリアクションを行うような構成であってもよい。その後、S1307へ進む。
 S1307にて、ロボット100は、対象人物とのコミュニケーションが終了したことを、所定のユーザー(例えば、児童の親)に対して通知する。ここでの通知方法は、音声にて通知してもよい。その後、本処理フローを終了し、図12へ戻る。
 なお、上記の例では、設定したタイミングにてコミュニケーション(コンテンツの提供)を終了する例を示したが、これに限定するものではない。例えば、設定したタイミングにてなった際に、所定の人物(例えば、親)の周辺に移動するように誘導した上で、ロボットと児童との1対1のコミュニケーションから、ロボットと複数の人物による、1対多のコミュニケーションが行われるように切り替えてもよい。この場合には、新たなコンテンツを提供するような構成であってもよい。
 また、上記の例では、時間指定にて、コミュニケーションを継続、中断するタイミングを指定したが、これに限定するものではない。例えば、撮像部115やセンサ部122等から取得される情報に基づいて、所定のイベントが発生したことを検知した時点を指定できるような構成であってもよい。例えば、共有スペースに特定の人物が入ってきた時点を指定できてもよい。具体的には、家に父親が帰ってきた時点を指定できてもよい。もしくは、母親が子供を呼んだことを検知したタイミングを指定できてもよい。
 また、ロボット100が対象人物とのコミュニケーションを行う時間を、予め決定された規則性のあるスケジュールに応じて決定してもよい。例えば、ある家庭における一日のスケジュールを設定しておき、その中で夕食前までのある期間をコミュニケーション可能な時間として決定してもよい。
 また、コミュニケーションを開始する際には、ロボット100から対象人物に接近し、提供可能なコンテンツがあることを提示してもよい。
 以上、本実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
 <実施形態のまとめ>
 1.上記実施形態のロボット(例えば、100)は、
 可動式のロボットであって、
 前記ロボットを移動させる駆動手段(例えば、121)と、
 対象人物へ情報を提供する提供手段(例えば、117、118)と、
 前記ロボットの動作を制御する制御手段(例えば、110)と、
を備え、
 前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。
 この実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
 2.上記実施形態では、前記情報は、複数のセクションにより構成され、
 前記所定のタイミングは、前記複数のセクションの区切りに達したタイミングである。
 この実施形態により、適切なタイミングにて、行動の終了を行うことができる。
 3.上記実施形態では、前記対象人物の状態を検知する検知手段(例えば、114、115)を更に有し、
 前記所定のタイミングは、前記検知手段にて前記対象人物が所定の状態になったタイミングである。
 この実施形態により、対象人物の状態に応じて、行動の終了を行うことができる。
 4.上記実施形態では、前記所定の状態は、前記対象人物が寝ている状態である。
 この実施形態により、対象人物が寝ている状態になった際には、情報の提供を終了することができる。
 5.上記実施形態では、前記制御手段は、前記対象人物から離れるように移動している際に、前記検知手段により前記対象人物の接近を検知した場合、前記提供手段にて所定の情報を提供させる。
 この実施形態により、対象人物からロボットが離れている際についてきた場合には、その状況に応じた情報の提供を行うことができる。
 6.上記実施形態では、前記所定の情報は、当該ロボットが充電中であることを示す情報である。
 この実施形態により、ロボットは充電が必要であることを示すことで、対象人物がロボットから離れやすくなることが可能となる。
 7.上記実施形態では、前記制御手段は、前記対象人物から離れるタイミングを、段階的に前記提供手段にて通知させる。
 この実施形態により、対象人物がロボットからスムーズに離れやすくなることが可能となる。
 8.上記実施形態では、前記制御手段は、前記対象人物から離れる際に、所定の位置へ移動するように制御する。
 この実施形態により、対象人物から離れる際に、予め規定された位置へロボットを退避させることが可能となる。
 9.上記実施形態では、前記所定の位置は、前記ロボットに対して充電が行われる位置である。
 この実施形態により、対象人物から離れる際に、ロボットの充電が可能な位置へ退避することが可能となる。
 10.上記実施形態では、前記所定のタイミングは、前記提供手段にて提供していた情報に応じて異なる。
 この実施形態により、対象人物に対して提供していた情報に応じて、当該対象人物から離れるタイミングを規定することが可能となる。
 11.上記実施形態では、前記対象人物の行動履歴を取得する取得手段(例えば、907、914)を更に有し、
 前記所定のタイミングは、前記対象人物の行動履歴に応じて異なる。
 この実施形態により、対象人物の過去の行動履歴に応じた、当該対象人物から離れるタイミングを規定することが可能となる。
 12.上記実施形態では、前記提供手段により提供される情報の選択を前記対象人物から受け付ける受け付け手段(例えば、119、903)を更に有する。
 この実施形態により、対象人物の好みの情報を提供することができる。
 13.上記実施形態では、前記対象人物は、子供である。
 この実施形態により、対象人物を子供として、コミュニケーションを提供することができる。
 14.上記実施形態のロボット(例えば、100)の制御方法は、
 可動式のロボットの制御方法であって、
 前記ロボットを移動させる移動工程と、
 対象人物へ情報を提供する提供工程と
を有し、
 前記提供工程により前記情報を提供している際に所定のタイミングとなった場合、前記移動工程において、前記対象人物から離れるように制御される。
 この実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。

Claims (14)

  1.  可動式のロボットであって、
     前記ロボットを移動させる駆動手段と、
     対象人物へ情報を提供する提供手段と、
     前記ロボットの動作を制御する制御手段と、
    を備え、
     前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御することを特徴とするロボット。
  2.  前記情報は、複数のセクションにより構成され、
     前記所定のタイミングは、前記複数のセクションの区切りに達したタイミングであることを特徴とする請求項1に記載のロボット。
  3.  前記対象人物の状態を検知する検知手段を更に有し、
     前記所定のタイミングは、前記検知手段にて前記対象人物が所定の状態になったタイミングであることを特徴とする請求項1または2に記載のロボット。
  4.  前記所定の状態は、前記対象人物が寝ている状態であることを特徴とする請求項3に記載のロボット。
  5.  前記制御手段は、前記対象人物から離れるように移動している際に、前記検知手段により前記対象人物の接近を検知した場合、前記提供手段にて所定の情報を提供させることを特徴とする請求項3に記載のロボット。
  6.  前記所定の情報は、当該ロボットが充電中であることを示す情報であることを特徴とする請求項5に記載のロボット。
  7.  前記制御手段は、前記対象人物から離れるタイミングを、段階的に前記提供手段にて通知させることを特徴とする請求項1乃至6のいずれか一項に記載のロボット。
  8.  前記制御手段は、前記対象人物から離れる際に、所定の位置へ移動するように制御することを特徴とする請求項1乃至7のいずれか一項に記載のロボット。
  9.  前記所定の位置は、前記ロボットに対して充電が行われる位置であることを特徴とする請求項8に記載のロボット。
  10.  前記所定のタイミングは、前記提供手段にて提供していた情報に応じて異なることを特徴とする請求項1乃至9のいずれか一項に記載のロボット。
  11.  前記対象人物の行動履歴を取得する取得手段を更に有し、
     前記所定のタイミングは、前記対象人物の行動履歴に応じて異なることを特徴とする請求項1乃至10のいずれか一項に記載のロボット。
  12.  前記提供手段により提供される情報の選択を前記対象人物から受け付ける受け付け手段を更に有することを特徴とする請求項1乃至11のいずれか一項に記載のロボット。
  13.  前記対象人物は、子供であることを特徴とする請求項1乃至12のいずれか一項に記載のロボット。
  14.  可動式のロボットの制御方法であって、
     前記ロボットを移動させる移動工程と、
     対象人物へ情報を提供する提供工程と
    を有し、
     前記提供工程により前記情報を提供している際に所定のタイミングとなった場合、前記移動工程において、前記対象人物から離れるように制御されることを特徴とするロボットの制御方法。
PCT/JP2019/007561 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法 WO2020174608A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/007561 WO2020174608A1 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法
JP2021501454A JP7222064B2 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007561 WO2020174608A1 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法

Publications (1)

Publication Number Publication Date
WO2020174608A1 true WO2020174608A1 (ja) 2020-09-03

Family

ID=72238488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/007561 WO2020174608A1 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法

Country Status (2)

Country Link
JP (1) JP7222064B2 (ja)
WO (1) WO2020174608A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220174A (ja) * 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220174A (ja) * 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット

Also Published As

Publication number Publication date
JPWO2020174608A1 (ja) 2021-09-30
JP7222064B2 (ja) 2023-02-14

Similar Documents

Publication Publication Date Title
CN107797657B (zh) 用于生成触觉输出的设备、方法和图形用户界面
US11544274B2 (en) Context-based digital assistant
US20180308477A1 (en) Control device, display device, method, and program
TWI597041B (zh) 自走式電子機器、終端裝置、及操作系統
Cavallo et al. On the design, development and experimentation of the ASTRO assistive robot integrated in smart environments
JP6081060B2 (ja) ロボット装置、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
CN108724205A (zh) 互动装置、互动方法、互动程序以及机器人
JP6559079B2 (ja) 対話型家電システム、および発話者との対話に基づいてメッセージを出力するためにコンピュータが実行する方法
CN106200359A (zh) 闹钟提醒方法、装置和终端
JP2019111182A (ja) ゲームプログラムおよびゲーム装置
WO2020174608A1 (ja) 可動式ロボットおよびその制御方法
WO2020174609A1 (ja) 可動式ロボットおよびその制御方法
CN108724206A (zh) 互动装置、互动方法、互动程序以及机器人
WO2009090373A1 (en) Time-out device
CN108646921A (zh) 场景提醒方法及装置、电子设备、计算机可读存储介质
WO2021084949A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20230047434A (ko) 어시스턴트 디바이스(들)의 주변 감지에 기초한 어시스턴트 액션(들) 추론하기
JP5990311B2 (ja) サーバ、報知方法、プログラム、制御対象機器、及び報知システム
JPWO2019146188A1 (ja) 情報処理装置および情報処理方法
JP5833066B2 (ja) サーバ、報知方法、報知システム、及びプログラム
US20220203529A1 (en) Control device, task system, control method, and control program
JP2023141463A (ja) 機器の制御装置、機器の制御方法及びプログラム
JP5447930B2 (ja) 遊戯システム及び遊戯装置
KR20210033650A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기
KR20210033693A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19917490

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501454

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19917490

Country of ref document: EP

Kind code of ref document: A1