WO2016052763A1 - 報知制御装置およびプログラム - Google Patents

報知制御装置およびプログラム Download PDF

Info

Publication number
WO2016052763A1
WO2016052763A1 PCT/JP2015/082266 JP2015082266W WO2016052763A1 WO 2016052763 A1 WO2016052763 A1 WO 2016052763A1 JP 2015082266 W JP2015082266 W JP 2015082266W WO 2016052763 A1 WO2016052763 A1 WO 2016052763A1
Authority
WO
WIPO (PCT)
Prior art keywords
notification
posture
event
unit
events
Prior art date
Application number
PCT/JP2015/082266
Other languages
English (en)
French (fr)
Inventor
暁 本村
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2016052763A1 publication Critical patent/WO2016052763A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Definitions

  • the present invention relates to a notification control device and the like for controlling notification of occurrence of a notification event.
  • the drive pattern generation unit generates a drive pattern signal in real time, and transmits the drive pattern signal to the actuator, whereby the shape of the communication terminal accessory or the member constituting the communication terminal itself is defined.
  • an event notification mechanism that changes and notifies a user of an event that has occurred (for example, an incoming call, an incoming mail, or reception of a digital television broadcast).
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a notification control apparatus that can recognize a plurality of notification event occurrences to a user using a notification posture.
  • the notification control apparatus provides the first notification after the occurrence of the first notification event, which is an event that requires a user's response to the notification from the robot.
  • the notification method determining unit that determines the notification method so as to be the notification posture that is the posture of the robot corresponding to each, and the notification method determined by the notification method determination unit, the first and second notification events A notification control unit that notifies of the occurrence of.
  • FIG. 1 It is a block diagram which shows schematic structure of the robot which concerns on Embodiment 1 of this invention.
  • A) is a front view which shows the outline of the said robot.
  • B) is a rear view showing an outline of the robot.
  • C) is a side view showing an outline of the robot. It is an example of the alerting
  • the notification control device is provided in a biped walking humanoid robot.
  • a bipedal humanoid robot not only a bipedal humanoid robot but also a general robot such as a battle robot or an animal robot of an anime character may be provided with a notification control device.
  • a biped walking humanoid robot with a mobile phone function will be described as an example.
  • FIG. 2A is a front view showing an outline of the robot 100 according to the present embodiment.
  • FIG. 2B is a rear view illustrating the outline of the robot 100.
  • FIG. 2C is a side view showing an outline of the robot 100.
  • the robot 100 includes a head 100a, a body part 100b, an arm part 100c, a leg part 100d, and a foot part 100e.
  • the head 100a is movably connected to the body 100b via the neck 100g, the arm 100c via the shoulder joint 100h, and the leg 100d via the leg joint 100i.
  • the foot part 100e is movably connected to the leg part 100d via the foot joint part 100j.
  • a servo motor 23a which will be described later, is built in the neck portion 100g and each joint portion. When the servo motor 23a is driven, the head portion 100a, the arm portion 100c, the leg portion 100d, and the foot portion 100e are movable. .
  • the mouth portion 100l and the eye portion 100n constituting part of the head portion 100a incorporate a speaker portion 21 and a camera portion 20 described later, and the foot sole portion 100f constituting a part of the foot portion 100e will be described later.
  • a microphone unit 25 is incorporated.
  • a display unit 22 described later is provided on the back portion 100k constituting a part of the body portion 100b.
  • positions the display part 22 you may arrange
  • the robot 100 includes a control unit 10, a camera unit 20, a speaker unit 21, a display unit 22, a drive unit 23, an operation input unit 24, a microphone unit 25, a transmission / reception unit 26, an antenna unit 27, and a battery unit. 28 and a storage unit 29.
  • the control unit 10 controls the robot 100 in an integrated manner, and includes a notification control device 1.
  • the notification control apparatus 1 supervises various processes for controlling notification of occurrence of a notification event, which will be described later, and details thereof will be described later.
  • the camera unit 20 is an imaging unit that images a subject.
  • the speaker unit 21 is a reproducing unit that includes a function of reproducing information including audio data and a speaker that outputs audio (or a predetermined sound) that can be heard by anyone other than the user.
  • the display unit 22 displays various images such as images resulting from the execution of various functions (application software) installed in the robot 100.
  • an LCD Liquid crystal display
  • an organic EL electrostatic electrostatic light
  • the operation input unit 24 acquires an input user operation. Examples of the operation input unit 24 include a touch panel and an optical sensor.
  • the microphone unit 25 is, for example, a sound collector that collects sound during a call.
  • the transmission / reception unit 26 transmits / receives various data such as audio data via the antenna unit 27.
  • the battery unit 28 supplies power to each unit constituting the robot 100.
  • the drive unit 23 drives each movable part such as the head 100a in the robot 100, and includes a number of servomotors 23a corresponding to the neck 100g and each joint.
  • an actuator such as a hydraulic cylinder or a linear actuator may be used in addition to the servo motor 23a as in the present embodiment.
  • the storage unit 29 stores a notification event generation table 29a, a notification posture table 29b, a notification event priority table 29d, various control programs executed by the control unit 10, and the like.
  • the storage unit 29 is configured by a nonvolatile storage device such as a hard disk or a flash memory.
  • the notification posture table 29b shown in FIG. 3 is a data table showing a correspondence relationship between the notification event, the notification posture information, and the notification posture.
  • the notification event is an event that requires the user to respond to notification from the robot 100 such as an incoming voice call.
  • notification events include selection notification events, that is, events that occur inside the robot 100, such as alarms.
  • the notification posture is a posture of the robot 100 suitable for the user to recognize the occurrence of the notification event.
  • the notification posture information is rotation position data of each servo motor 23a corresponding to the notification posture.
  • a voice incoming call as a notification event
  • a posture in which the user can easily talk while holding the robot 100 a voice incoming call, and an emergency response by the user Is associated with a notification posture (A1) that is easy for the user to associate.
  • the posture of the robot 100 such that the microphone unit 25 provided on the sole 100f is located at the user's mouth and the speaker unit 21 provided on the mouth 100l is located at the user's ear is the notification posture (A1).
  • the rotation position data ⁇ to ⁇ of the first to n-th servo motors corresponding to the notification attitude (A1) do not have to be specific values as in the above-described a1 to n1. For example, all values within a certain range such as a11 ⁇ ⁇ a12 to n11 ⁇ ⁇ n12 (see No. 2 in FIG. 3) may be included.
  • the arm 100c on the left side when the robot 100 is viewed from the back 100k side is raised.
  • the posture is not limited to this, and may be a posture in which the arm portion 100c on the right side (hereinafter simply referred to as “right side”) when the robot 100 is viewed from the back portion 100k side is raised.
  • the notification posture (A1) may be a posture in which one of the arm portions 100c is raised.
  • the notification posture (A2) associated with the alarm is also a posture in which one of the arm portions 100c is raised. For this reason, it is necessary to set the arms 100c to be raised differently for the incoming voice call and the alarm.
  • position (A12) in which the leg part 100d inclined to the abdominal part 100m side may be sufficient.
  • the association between the notification event, the notification posture information, and the notification posture is the same when the notification event is an alarm, TV playback, and low battery level.
  • the posture of the robot 100 with the right arm 100c raised is easily reminded that the user needs emergency response, and the notification posture (A2 )
  • the posture of the robot 100 with the body portion 100b inclined is TV, in which the user can easily recognize the display unit 22 and the TV playback is easy to associate.
  • a notification posture (A4) corresponding to reproduction is set.
  • the angle between the trunk portion 100b and the leg portion 100d is a posture suitable for charging the robot 100 and the user can easily associate that the remaining battery level is low.
  • the sitting posture that is approximately 90 degrees is a notification posture (A5) corresponding to a decrease in the remaining battery level.
  • Each notification posture (A1, A2, A4, A5) may be a state where a specific movable part of the robot 100 is operating.
  • the posture (A11, A3) in which one of the arm portions 100c is operated and the robot 100 is waving as the notification posture corresponding to the alarm is adopted. May be.
  • the notification postures (A11, A3) continue to swing for a predetermined time (for example, 10 seconds after the transition to the notification posture) even if the arm portion 100c is continuously swung until the notification posture is released.
  • the posture may be such that it stands still in the raised state.
  • the notification event occurrence table 29a shown in FIG. 4 is a data table showing a correspondence relationship between the selection notification event and the selection notification event generation condition.
  • the selection notification event is a notification event selected by the user and refers to an event that is generated inside the robot 100.
  • the selection notification event generation condition is a condition necessary for the generation of the selection notification event, and can be arbitrarily set by the user. Specifically, when the user selects “first alarm (alarm alarm)” as the selection notification event and sets “7:00 every day” as the selection notification event occurrence condition, these data are associated with each other. It is recorded in the notification event occurrence table 29a. As a result, a process of “the first alarm sounds at 7:00 every day” occurs (No. 1 in FIG. 4).
  • the notification event priority table 29d shown in FIG. 5 is obtained by adding a priority column to the notification attitude table 29b of FIG. 3, and the correspondence between each data and priority recorded in the table 29b. Indicates.
  • the priority is set to “1” as the lowest value (lowest priority), and the numerical value increases as the necessity of handling by the user increases, and “10” as the highest value (highest priority). That is, each notification event is set with a priority (priority order) determined according to the degree to which the user needs to respond.
  • the priority shown in FIG. 5 is merely an example, and can be arbitrarily set and changed by the user. In FIG. 5, for the sake of simplification of explanation, columns of “rotational position of servo motor” and “notification posture” are omitted.
  • the first notification posture (A1) in which the posture of the robot 100 is associated with the incoming voice call is maintained. Notification is made in a manner that does not involve posture transition.
  • the second notification event occurs during the transition to the first notification posture (A1)
  • the first notification posture (A1) is maintained, and the second notification event is notified by a method that does not involve the posture transition.
  • the first notification event is a previous notification event.
  • the second notification event is a later notification event, and is at least one notification event that occurs after the first notification event occurs.
  • the remaining battery level decreases (priority “10”; the priority is the second notification event).
  • the posture of the robot 100 shifts from the first notification posture (A4) corresponding to TV playback to the second notification posture (A5) corresponding to a low battery level. And about TV reproduction, it transfers to the alerting
  • each notification event is further associated with a display image indicating that each notification event has occurred, a predetermined sound, and / or a vibration method of the robot 100 main body. This makes it possible for the user to recognize which notification event is occurring when notification is performed using a method that does not involve posture change.
  • the notification control device 1 includes a generation condition determination unit 11, a notification event generation unit 12, a notification event detection unit 13, a notification posture transition determination unit 14, a notification method determination unit 15, and a notification control unit 18.
  • the generation condition determination unit 11 determines whether or not the selection notification event generation condition is satisfied, and transmits the determination result to the notification event generation unit 12.
  • the notification event generation unit 12 generates a selection notification event when receiving a determination result that the selection notification event generation condition is satisfied from the generation condition determination unit 11.
  • the notification event detection unit 13 detects the occurrence of a notification event (including a selection notification vent), and transmits the detection result to the notification posture transition determination unit 14.
  • the notification posture transition determination unit 14 receives a detection result indicating that the generation of the notification event has been detected from the notification event detection unit 13, whether or not there is a notification event (first notification event) that has already occurred. judge. Also, with reference to the notification event priority table 29d, it is determined which notification event has a higher (or lower) priority among the first and second notification events. Furthermore, it is determined whether the notification of the occurrence of the notification event for which the notification posture is selected is no longer necessary (whether the first or second notification posture is released). Then, these determination results are transmitted to the notification method determination unit 15.
  • the notification method determination unit 15 determines a notification method for notifying the occurrence of the first and second notification events according to the determination result received from the notification posture transition determination unit 14. Specifically, the notification method is determined according to the priority of the first notification event and the second notification event. In this case, of the first and second notification events, a notification posture is selected as a notification method for a notification event with a higher priority, and a method that does not involve the posture transition as a notification method for a notification event with a lower priority. Select. Moreover, the notification method determination part 15 selects a notification attitude
  • the notification control unit 18 controls the notification of the occurrence of the first and second notification events according to the notification method determined by the notification method determination unit 15, and includes a notification posture transition unit 16 (notification control unit) and a presentation control unit. 17 (notification control unit).
  • the notification posture transition unit 16 receives the determination result indicating that the notification method is the notification posture
  • the notification posture priority table 29d (or the notification posture table 29b) is referred to, and the posture of the robot 100 is assigned to each notification event. Shift to the corresponding notification posture.
  • the presentation control unit 17 performs display control on the display unit 22 and sound output control on the speaker unit 21.
  • the presentation control unit 17 displays a display image corresponding to each notification event on the display unit 22 or outputs a predetermined sound to the speaker when receiving a determination result indicating that the notification method is a method that does not involve posture change. Or output from the unit 21.
  • the notification event detection unit 13 determines whether or not the occurrence of the second notification event is detected (S100).
  • the notification event detection unit 13 detects the occurrence of the second notification event (YES in S100 (hereinafter, Y)
  • the notification event detection unit 13 transmits a detection result to that effect to the notification posture transition determination unit 14.
  • the notification event detection unit 13 detects the occurrence of the second notification event again.
  • the notification posture transition determination unit 14 has already received the detection result of the first notification event occurrence from the notification event detection unit 13 before receiving the detection result of the second notification event occurrence. Is determined (S101). In the case of N in S ⁇ b> 101, the notification posture transition determination unit 14 determines that notification by the notification posture is not performed at the time of the determination, and transmits the determination result to the notification method determination unit 15. When receiving the determination result, the notification method determination unit 15 determines the notification method of the second notification event to the second notification posture, and transmits the determination result to the notification posture transition unit 16 (S105). The notification posture transition unit 16 shifts the posture of the robot 100 to the second notification posture according to the determination result (S106).
  • the notification posture transition determination unit 14 compares the priorities of the first and second notification events to determine whether to give priority to the first notification posture (current or transition notification posture) (S102). . Then, when it is determined that the priority of the first notification event is lower (N in S102), the notification posture transition determination unit 14 transmits the determination result to the notification method determination unit 15.
  • the notification method determination unit 15 determines to change the notification method of the first notification event to the notification method that does not involve posture change, and transmits the determination result to the presentation control unit 17 (S103). ).
  • the presentation control unit 17 displays on the display unit 22 that the first notification event is occurring, and outputs the predetermined sound from the speaker unit 21 (S104).
  • the notification method determination unit 15 determines the notification method of the second notification event to the second notification posture, and transmits the determination result to the notification posture transition unit 16 (S105). Thereafter, the notification posture transition unit 16 shifts the posture of the robot 100 from the first notification posture to the second notification posture (S106).
  • the notification of the occurrence of the first notification event and the subsequent notification event is realized by notifying the generation of the first notification event by a method other than the notification posture.
  • the notification method determination unit 15 reports the first notification event according to the determination result. Is determined to be the first notification posture, and the notification method of the second notification event is determined to be a method that does not involve the posture transition (S107). That is, in the case of Y in S102, the first notification posture is maintained as it is. Then, the notification method determination unit 15 transmits the determination result to the presentation control unit 17. When the determination result is received, the presentation control unit 17 displays on the display unit 22 that the second notification event is occurring, and outputs the predetermined sound from the speaker unit 21 (S108). That is, in S107 and 108, in order to maintain the notification posture of the first notification event, notification of the occurrence of the first notification event and the subsequent notification event is realized by notifying the generation of the subsequent notification event by a method other than the notification posture. .
  • the occurrence condition determination unit 11 first determines whether or not the selection notification event generation condition is satisfied by referring to the notification event generation table 29a (S200). If it is determined that the condition is satisfied (Y in S200), the generation condition determination unit 11 transmits a determination result indicating that the condition is satisfied to the notification event generation unit 12. On the other hand, when it is determined that the selection notification event generation condition is not satisfied (N in S200), the generation condition determination unit 11 determines again whether or not the above condition is satisfied.
  • the notification event generation unit 12 when receiving the determination result that the selection notification event generation condition is satisfied from the generation condition determination unit 11, the notification event generation unit 12 generates a selection notification event associated with the condition (S201). ).
  • the notification event detection unit 13 detects the occurrence of the selection notification event (Y in S202)
  • the notification event detection unit 13 transmits the detection result to the notification posture transition determination unit 14.
  • the notification posture transition determination unit 14 determines Y in S202
  • the notification posture transition determination unit 14 proceeds to the processing of S101 (S203).
  • the processing order of S103, S104 and S105, 106 in FIG. is an example, and the speaker unit 21 or the display unit 22 may indicate that a notification event is occurring.
  • the notification method in S104 and S108 is an example, and the speaker unit 21 or the display unit 22 may indicate that a notification event is occurring.
  • the user misses the predetermined sound if the user misses the predetermined sound, the occurrence of the notification event cannot be recognized.
  • the notification only by display the user may not be aware of the notification at the same time that the notification is made. In consideration of this point, it is preferable to perform notification by both sound output and display as long as the situation permits. Further, from the viewpoint of maintaining notification, it is necessary to continue outputting sound in the case of sound output. Therefore, in the case of notification by either one, notification by display is preferable. Further, instead of the predetermined sound, sound corresponding to each notification event may be output from the speaker unit 21.
  • the notification method determination unit 15 determines whether or not the robot 100 is in the manner mode setting (S300). When it is determined that the manner mode is being set (Y in S300), the notification method determination unit 15 notifies the occurrence of the first or second notification event by screen display or vibration of the robot 100 main body (vibration). Is determined (S301). In accordance with this determination, the presentation control unit 17 displays on the display unit 22 that the first or second notification event has occurred, or vibrates the main body of the robot 100 by a vibration method corresponding to the first or second notification event ( S302). In addition, you may alert
  • the notification method determining unit 15 determines whether or not sound is being output by the speaker unit 21 (S303). When it is determined that the sound is not being output (N in S303), the notification method determination unit 15 determines to notify the occurrence of the first or second notification event by the sound output (S304). In accordance with this determination, the presentation control unit 17 causes the speaker unit 21 to output a predetermined sound corresponding to the first or second notification event (S305). In the case of Y in S303, the processing of S301 and 302 is executed. Note that it may be determined whether or not the manner mode is in progress after determining whether or not the sound is being output.
  • the notification method determination unit 15 does not necessarily need to determine the notification method of each notification event based on the priority. For example, it may be determined that the first notification event is always prioritized (the current notification posture is maintained, and the second notification event is notified by a method that does not involve the posture transition), or vice versa. .
  • a plurality of second notification events may occur after the first notification event occurs.
  • the notification method determination unit 15 selects a notification posture as a notification method of a notification event having the highest priority among three or more notification events, and performs the above-described posture transition as a notification method of other notification events. A method that does not accompany it may be selected. In this case, it is determined in S102 whether or not to give priority to the current (or in-transit) notification posture. If Y in S102, the current notification posture is maintained, and the notification of the second notification event that occurred last is issued. The method is determined to be a method that does not involve the posture transition.
  • the notification method of the second notification event that occurred last is determined as the notification posture corresponding to the second notification event, and the notification method of the notification event corresponding to the current notification posture is determined. Is switched to a method that does not involve posture change.
  • the notification posture transition determination unit 14 determines whether or not to release the notification posture (first or second notification posture) (S400). For example, when the user no longer needs to be notified because of a notification event (for example, when a call is executed for an incoming voice call), or when the state to be notified is removed (for example, when the battery is charged When the remaining amount is sufficiently recovered), it is not necessary to maintain the notification for these notification events. For this reason, when the notification posture transition determination unit 14 detects the response to the notification event of the user or the absence of the state to be notified, it determines whether the notification event corresponding to the detection is notified in the notification posture. To do.
  • the notification method determination unit 15 determines to return the posture of the robot 100 to the normal state.
  • the notification posture transition unit 16 returns the posture of the robot to the normal state according to the determination (S404).
  • the normal state is, for example, the posture of the robot 100 before the occurrence of the notification event, or a default posture (an upright and immovable posture or the like).
  • the notification method determination unit 15 selects a notification event to be notified in the notification posture and determines to stop notification by the display selected as the notification method of the notification event (S402). Then, the determination result is transmitted to the notification control unit 18.
  • the notification posture transition unit 16 cancels the notification posture of the notification event determined to be canceled in S400, and shifts to the notification posture corresponding to the notification event selected in S402 (S403).
  • the notification posture may be canceled when it is determined as Y in S400. In this case, the notification posture may be temporarily shifted to the normal posture.
  • the presentation control unit 17 stops notification by displaying the occurrence of the notification event selected in S402.
  • event B For example, consider a case where one second notification event (event B) occurs after the first notification event (event A) occurs. If it is determined in S400 that the notification posture of event A is to be canceled, event B exists as another notification event to be notified, so Y is determined in S401. In S402, event B is selected as a notification event to be notified in the notification posture. That is, the notification in the notification posture corresponding to the event B and the stop of the notification by displaying the occurrence of the event B are determined. Further, for example, consider a case where two second notification events occur after the first notification event (event A) occurs (event C occurs after event B). In this case, it is assumed that the event A is notified by the notification attitude and the events B and C are notified by display.
  • a notification event (event B or C) to be notified in the notification posture is determined. For example, when the priority of the event B is higher than the priority of the event C, the notification in the notification posture corresponding to the event B and the stop of the notification by displaying the occurrence of the event B are determined. For event C, notification by display is maintained. Note that the latest notification event or the oldest notification event may be set in advance in the notification posture without being based on the priority. In the case of this example, the latest notification event is event C, and the oldest notification event is event B.
  • the notification method determination unit 15 selects a notification posture as a notification method of any notification event, As a notification method for other notification events, a method that does not involve the posture transition is selected.
  • the occurrence of a plurality of notification events can be notified to the user at the same time, and one notification event has a notification posture that is highly visible to the user (the user can easily recognize the notification).
  • the notification posture transition determination unit 14 (posture conflict determination unit) of the present embodiment further determines whether the notification posture corresponding to each of the first and second notification events is a posture that can be executed simultaneously, The determination result is transmitted to the notification method determination unit 15.
  • the notification method determination unit 15 determines the notification method of the first and second notification events based on the determination result.
  • the notification posture transition determination unit 14 determines whether all of the first and second notification postures can be executed simultaneously (the first and second notification postures are the same). Whether or not to “compete” is determined (S501).
  • the notification method determination unit 15 maintains the first notification posture and sets the second notification event notification method to the second notification event corresponding to the second notification event.
  • the notification posture is determined (S502). For example, as shown in FIG.
  • a voice incoming notification posture (A1) is a posture in which the left arm portion 100c is raised
  • an alarm notification posture (A2) is a posture in which the right arm portion 100c is raised. Since the left and right arm portions 100c can be raised at the same time, it is determined that the notification postures (A1) and (A2) are postures that can be executed simultaneously.
  • the notification posture (A4) for TV playback is a posture with both hands on the ground, it cannot be executed simultaneously with the notification posture (A1), and the notification postures (A1) and (A4) cannot be executed simultaneously. It is determined that
  • the notification posture transition unit 16 shifts the posture of the robot 100 to the second notification posture according to the determination result of the notification method determination unit 15 (S503). That is, the occurrence of the first and second notification events is notified in the first and second notification postures.
  • the process of S102 is performed. The subsequent processing is the same as the processing after S102 in FIG.
  • a plurality of second notification events may occur after the first notification event occurs.
  • event Q alarm
  • event R TV playback
  • the notification postures (A1) and (A2) of the events P and Q can be executed at the same time, the result becomes Y in S501, and the occurrence of the events P and Q is notified by the notification postures (A1) and (A2).
  • the notification posture (A4) of the event R cannot be executed simultaneously with the notification postures (A1, A2), and thus becomes N in S501.
  • S Since the priority is the highest for incoming voice calls, S is Y in S102, and the occurrence of the event R is notified by a method that does not involve the above-mentioned attitude shift.
  • a plurality of second notification events it is determined whether or not a plurality of second notification postures can be executed simultaneously (the same processing as S501) before S105, and the second notification postures that can be executed simultaneously. May be notified in the posture, and otherwise may be notified in a method that does not involve the posture transition.
  • the occurrence of the first notification event and the subsequent notification event are notified by the notification posture, so it may be difficult to visually determine which one is the notification posture corresponding to the first notification event (or the subsequent notification event). . Therefore, for example, when a notification posture with movement is set for a notification posture corresponding to a subsequent notification event, the notification posture may be selected. For example, when the first notification event is “alarm” and the second notification event is “voice incoming”, the notification posture (A2) of FIG. 3 is selected for “alarm”, and FIG. The notification posture (A11) is selected. Thereby, the user can easily determine which notification event has occurred earlier (or later).
  • the notification posture transition determination unit 14 determines whether there is a notification event that is notified in the first or second notification posture (S601). When there is a notification event that is notified in the first or second notification posture (Y in S601), the notification posture transition determination unit 14 is in addition to the notification event that is currently notified in the notification posture, and in the notification posture. It is determined whether there is a notification event having a notification posture that can be executed at the same time (S602). When it is determined that the notification event does not exist (N in S602), the notification method determination unit 15 determines to cancel the notification posture determined to be canceled in S400 and maintain the notification method of other notification events. (S605). That is, the occurrence of a notification event other than the notification event determined to be canceled in S400 is notified by the current notification method. The release may be performed when it is determined as Y in S400.
  • N in S601 or Y in S602 the processes of S402 and S403 shown in FIG. 9 are performed in S603 and S604.
  • N in S601 when there are a plurality of notification events that are occurring, it is determined whether or not there are notification events having notification postures that can be executed simultaneously in the notification events. And when the said notification event exists, all the alerting
  • the notification event does not exist, only the notification event with the highest priority is notified in the notification posture.
  • the notification method determination unit 15 selects a notification posture as at least one notification method among a plurality of generated notification events. That is, when the notification posture transition determination unit 14 determines that the notification posture corresponding to each of the first and second notification events is a posture that can be executed simultaneously, a plurality of notification postures that can be executed simultaneously are determined. Select as the notification method. Therefore, since the notification method with a high-visibility notification posture can be used as much as possible, the user can more easily recognize the occurrence of a plurality of notification events.
  • the notification method determination unit 15 of the present embodiment determines the occurrence of the first and second notification events in the order of priority of the notification events. Then, it is determined to notify by a notification method of changing the notification posture at predetermined time intervals. In accordance with the determination result, the notification posture transition unit 16 sequentially notifies the notification events that are occurring while changing the notification posture in order of priority of the notification events. The notification posture transition unit 16 may notify the occurrence of the notification event with the highest priority again after the notification of the occurrence of the notification event with the lowest priority is completed. That is, a plurality of notification event occurrence notifications may be repeatedly performed.
  • the predetermined time may be set to a time that allows the user to confirm each notification event that is occurring.
  • the predetermined time may be set in advance as a fixed value (for example, 15 seconds), or may be set longer as the priority is higher. In the latter case, the user can easily check which notification event is a notification event with a high priority.
  • the total notification time for notification of all the notification events that are occurring and the ratio of the notification time according to the priority with respect to the total notification time may be set in advance. For example, when three notification events occur at a total notification time of 30 seconds, for example, 15 seconds, 10 seconds, and 5 seconds may be set in order from the highest priority.
  • the said ratio may take ratio of the priority of each alerting
  • the voice incoming call occurs for 8 seconds and the alarm is generated. For 6 seconds and the occurrence of TV playback for 4 seconds in this order.
  • it is not always necessary to notify the occurrence of all notification events in the notification posture and the occurrence of the selected notification event may be notified in the notification posture. For example, when more than a predetermined number of notification events occur, information exceeding the predetermined number may be notified by a method that does not involve the posture transition.
  • the notification method determining unit 15 refers to the notification event priority table 29d and confirms the priority of the first and second notification events that are occurring.
  • S701 As a notification method of the first and second notification events, a method of changing the notification posture in order of priority is determined (S702).
  • the notification posture transition unit 16 performs notification using the first and second notification postures in order of priority according to the determination result (S703).
  • the control block (especially each part of the control unit 10) of the notification control device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.
  • the notification control apparatus 1 includes a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU).
  • a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided.
  • a computer reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the notification control device (1) refers to the first notification event after the occurrence of the first notification event, which is an event that requires a user's response to the notification from the robot (100).
  • the notification method determination unit (notification method determination unit 15) that determines the notification method and the notification method determination unit determine the notification posture (A1 to A5, A11, A12) that is the posture of the robot to be determined.
  • a notification control unit (notification control unit 18 (notification posture transition unit 16 and presentation control unit 17)) that notifies the occurrence of the first and second notification events; It is provided.
  • a notification control unit notification control unit 18 (notification posture transition unit 16 and presentation control unit 17)
  • a notification control apparatus can make the user recognize the occurrence of a plurality of notification events using the notification posture.
  • each of the first and second notification events is set with a priority determined according to the degree to which the user needs to respond.
  • reporting method determination part may determine the alerting
  • the notification control apparatus is the attitude conflict that determines whether the notification attitude corresponding to each of the first and second notification events is an attitude that can be executed simultaneously in Aspect 1 or 2.
  • a determination unit (notification posture transition determination unit 14), wherein the notification method determination unit includes the first notification method as the notification method of each of the first and second notification events based on the determination result of the posture conflict determination unit. Whether or not to select a notification posture corresponding to each of the second notification events may be determined.
  • reporting event which has the alerting
  • the notification control apparatus is the notification control apparatus according to any one of aspects 1 to 3, wherein the notification method determination unit includes: (1) a notification event having a high priority among the first and second notification events.
  • the notification posture may be selected as a notification method, and (2) a method that does not involve posture change of the robot may be selected as a notification method of a notification event having a low priority.
  • the notification control apparatus is the notification event according to any one of aspects 1 to 4, wherein the notification method determination unit selects a notification posture as a notification method from the first and second notification events.
  • the notification posture may be selected as a notification method for a notification event other than the notification event.
  • the notification posture is canceled. For this reason, for example, since the priority is lower than the notification event in which the notification posture is canceled or the posture cannot be executed at the same time as the notification posture, notification is performed in a method that does not involve the posture transition. The occurrence of the notification event can be notified in the notification posture. Therefore, it is possible to give priority to the notification by the notification posture with high visibility as much as possible.
  • the robot (100) according to the sixth aspect of the present invention may include the notification control device according to any one of the first to fifth aspects. According to the above configuration, it is possible to realize a robot that allows the user to recognize the occurrence of a plurality of notification events using the notification posture.
  • the notification control apparatus may be realized by a computer.
  • the notification control apparatus is realized by the computer by operating the computer as each unit included in the notification control apparatus.
  • a program for the control device and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.
  • the present invention can be used for all techniques for making a user recognize a notification event.
  • notification control device 10 control unit (notification control device), 15 notification method determination unit, 16 notification posture transition unit (notification control unit), 17 presentation control unit (notification control unit), 18 notification control unit, 14 notification posture transition Judgment unit (posture competition judgment unit), 100 robot, A1 to A5, A11, A12 notification posture

Abstract

 報知姿勢を用いて、複数の報知イベントの発生をユーザに認知させる。報知制御装置(1)は、第1および第2報知イベントのそれぞれの発生を報知するための報知方法の少なくとも1つが、第1および第2報知イベントのそれぞれに対応する報知姿勢となるように、報知方法を決定する報知方法決定部(15)と、決定された報知方法に従って、第1および第2報知イベントの発生を報知する報知制御部(18)と、を備えている。

Description

報知制御装置およびプログラム
 本発明は、報知イベント発生の報知を制御する報知制御装置等に関する。
 従来、携帯端末における着信およびメール受信等を、端末本体または付属品の外形形状を変化させることで報知する技術が開示されている。例えば、特許文献1には、駆動パターン生成部において駆動パターン信号をリアルタイムで生成し、当該駆動パターン信号をアクチュエータに伝えることにより、通信端末の付属物または当該通信端末自体を構成する部材の形状を変化させて、発生したイベント(例えば、着呼、メール着信、またはデジタルテレビ放送の受信等)をユーザに報知するイベント報知機構が開示されている。
日本国公開特許公報「特開2007-214908号公報(2007年8月23日公開)」
 しかしながら、特許文献1のイベント報知機構では、外形形状の変化を用いて複数の報知イベントの発生を報知することは想定されていない。そのため、先発の報知イベントの発生を外形形状の変化により報知した場合、その形状を維持しようとすると、後発の報知イベントの発生を報知できない可能性があった。一方、後発の報知イベント発生の報知のために外形形状を変化させると、先発の報知イベントの外形形状が崩れ、当該報知イベント発生の報知を維持できない可能性があった。
 本発明は、上記課題に鑑みてなされたものであり、その目的は、報知姿勢を用いて、複数の報知イベント発生のユーザへの認知が可能な報知制御装置を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る報知制御装置は、ロボットからの報知に対してユーザの対応が必要となる事象である第1報知イベントの発生後に、当該第1報知イベントとは異なる第2報知イベントが少なくとも1つ発生した場合に、上記第1および第2報知イベントのそれぞれの発生を報知するための報知方法の少なくとも1つが、当該第1または第2報知イベントのそれぞれに対応する上記ロボットの姿勢である報知姿勢となるように、当該報知方法を決定する報知方法決定部と、上記報知方法決定部が決定した上記報知方法に従って、上記第1および第2報知イベントの発生を報知する報知制御部と、を備える。
 本発明の一態様によれば、報知姿勢を用いて、複数の報知イベントの発生をユーザに認知させることができる。
本発明の実施形態1に係るロボットの概略構成を示すブロック図である。 (a)は、上記ロボットの概略を示す正面図である。(b)は、上記ロボットの概略を示す背面図である。(c)は、上記ロボットの概略を示す側面図である。 上記ロボットに格納されている報知姿勢テーブルの一例である。 上記ロボットに格納されている報知イベント発生テーブルの一例である。 上記ロボットに格納されている報知イベント優先度テーブルの一例である。 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(報知イベントの発生が外部要因の場合)を示すフローチャートである。 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(選択報知イベントの場合)を示すフローチャートである。 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(報知姿勢によらない報知方法の一例)を示すフローチャートである。 本発明の実施形態1に係る報知制御装置による報知姿勢を解除する場合の制御方法を示すフローチャートである。 本発明の実施形態2に係る報知制御装置による報知イベント発生の報知の制御方法を示すフローチャートである。 本発明の実施形態1に係る報知制御装置による報知姿勢を解除する場合の制御方法を示すフローチャートである。 本発明の実施形態3に係る報知制御装置による報知イベント発生の報知の制御方法を示すフローチャートである。
 〔実施形態1〕
 以下、本発明の実施の形態について、図1~9を参照しながら、詳細に説明する。なお、下記の実施形態においては、報知制御装置が2足歩行ヒューマノイドロボットに備えられているものとして説明する。しかしながら、2足歩行ヒューマノイドロボットに限らず、例えば、アニメキャラクタの戦闘ロボットまたは動物ロボット等のロボット全般に報知制御装置が備えられていてもよい。また、本実施形態以下の各実施形態においては、携帯電話機能付きの2足歩行ヒューマノイドロボットを例に挙げて説明する。
 (ロボットの概要) まず、図2を参照してロボット100の概要について説明する。図2の(a)は、本実施形態に係るロボット100の概略を示す正面図である。また、図2の(b)は、ロボット100の概略を示す背面図である。さらに、図2の(c)は、ロボット100の概略を示す側面図である。
 図2の(a)に示すように、ロボット100は、頭部100a、胴体部100b、腕部100c、脚部100d、および足部100eで構成される。頭部100aは首部100gを介して、腕部100cは肩関節部100hを介して、脚部100dは脚関節部100iを介して、それぞれ胴体部100bに対して可動に接続されている。また、足部100eは足関節部100jを介して脚部100dに対して、可動に接続されている。首部100gおよび各関節部には、後述するサーボモータ23aが内蔵されており、当該サーボモータ23aが駆動することによって、頭部100a、腕部100c、脚部100d、および足部100eはそれぞれ可動する。さらに、頭部100aの一部を構成する口部100lおよび目部100nには後述するスピーカ部21およびカメラ部20が内蔵され、足部100eの一部を構成する足裏部100fには後述するマイク部25が内蔵されている。
 次に、図2の(b)および(c)に示すように、胴体部100bの一部を構成する背中部100kには、後述する表示部22が設けられている。なお、表示部22を配置する位置として、例えば、腹部100mに配置されてもよい。
 (ロボットの具体的構成) 次に、ロボット100の具体的構成について、図1、3~5を参照しながら説明する。図1に示すように、ロボット100は、制御部10、カメラ部20、スピーカ部21、表示部22、駆動部23、操作入力部24、マイク部25、送受信部26、アンテナ部27、バッテリー部28、および記憶部29を備えている。
 制御部10は、ロボット100を統括的に制御するものであり、報知制御装置1を備えている。報知制御装置1は、後述する報知イベント発生の報知を制御するための各種処理を統括するものであり、その詳細については後述する。カメラ部20は、被写体を撮像する撮像部である。スピーカ部21は、音声データを含む情報を再生する機能と、ユーザ以外にも聞こえるように音声(または所定の音)を出力するスピーカとを備えた再生部である。表示部22は、ロボット100に装備されている各種機能(アプリケーションソフト)が実行されることに起因する画像等の各種画像を表示する。表示部22としては、例えばタッチパネルを備えたLCD(Liquid crystal display:液晶ディスプレイ)や、有機EL(electro luminescence)ディスプレイが用いられる。操作入力部24は、入力されたユーザ操作を取得するものである。操作入力部24としては、例えば、タッチパネル、光学式センサ等が挙げられる。マイク部25は、例えば通話中の音声を集音する集音器である。送受信部26は、アンテナ部27を介して音声データ等の各種データの送受信を行う。バッテリー部28は、ロボット100を構成する各部に電力の供給を行う。駆動部23は、ロボット100における頭部100a等の各可動部位を駆動するものであり、首部100gおよび各関節部に対応する数のサーボモータ23aで構成される。駆動部23としては、本実施形態のようなサーボモータ23aの他、油圧シリンダまたはリニアアクチュエータ等のアクチュエータを用いてもよい。
 次に、記憶部29の具体的構成について説明する。記憶部29は、報知イベント発生テーブル29a、報知姿勢テーブル29b、報知イベント優先度テーブル29dおよび制御部10が実行する各種の制御プログラム等を記憶するものである。記憶部29は、例えばハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。
 図3に示す報知姿勢テーブル29bは、報知イベントと報知姿勢情報と報知姿勢との対応関係を示すデータテーブルである。報知イベントは、音声着信等の、ロボット100からの報知に対してユーザの対応が必要となる事象である。報知イベントには、音声着信、メール着信等のロボット100の外部に発生要因があるものの他、選択報知イベント、すなわち、アラーム等のロボット100の内部に発生要因があるものも含まれる。報知姿勢は、報知イベントの発生をユーザが認知するのに適したロボット100の姿勢である。報知姿勢情報は、報知姿勢に対応する各サーボモータ23aの回転位置データである。
 具体的には、図3のNo1に示すように、報知イベントとしての音声着信と、ユーザがロボット100を把持して通話しやすい姿勢であり、音声着信があったこと、かつユーザによる緊急の対応が必要であることをユーザが連想しやすい報知姿勢(A1)とが対応付けられている。ここで、足裏部100fに設けられたマイク部25がユーザの口元に位置し、口部100lに設けられたスピーカ部21がユーザの耳元に位置するようなロボット100の姿勢が報知姿勢(A1)となる。また、音声着信および報知姿勢(A1)と、当該報知姿勢(A1)に対応する第1~第nサーボモータの回転位置データα=a1~δ=n1(報知姿勢情報)とが対応付けられている。なお、報知姿勢(A1)に対応する第1~第nサーボモータの回転位置データα~δは、上記a1~n1のように特定の値である必要はない。例えば、a11<α<a12~n11<δ<n12(図3のNo2参照)のような、一定範囲内にある値をすべて包含するようにしてもよい。
 本実施形態では、図3のNo1および2に示すように、ロボット100を背中部100k側から視認する場合における左側(以下、単に「左側」とする)の腕部100cを上げた姿勢である。これに限らず、例えば、ロボット100を背中部100k側から視認する場合における右側(以下、単に「右側」とする)の腕部100cを上げた姿勢でもよい。すなわち、報知姿勢(A1)は、腕部100cの一方を上げた姿勢であればよい。但し、本実施形態では、アラームに対応付けられた報知姿勢(A2)も、腕部100cの一方を上げた姿勢である。そのため、音声着信とアラームとにおいて、上がる腕部100cが互いに異なるように設定されている必要がある。また、脚部100dが腹部100m側に傾斜した報知姿勢(A12)であってもよい。
 上記報知イベントと報知姿勢情報と報知姿勢との対応付けは、報知イベントが、アラーム、TV再生、およびバッテリー残量低下の場合も同様である。図3のNo3および4に示すように、ユーザによる緊急の対応が必要であることを当該ユーザが連想しやすい、右側の腕部100cを上げたロボット100の姿勢がアラームに対応する報知姿勢(A2)となる。次に、図3のNo5および6に示すように、ユーザが表示部22を視認しやすい姿勢でありTV再生されたことをユーザが連想しやすい、胴体部100bが傾斜したロボット100の姿勢がTV再生に対応する報知姿勢(A4)となる。次に、図3のNo7および8に示すように、ロボット100の充電に適した姿勢でありバッテリー残量が低下したことをユーザが連想しやすい、胴体部100bと脚部100dとのなす角度が略90度になる座り姿勢がバッテリー残量低下に対応する報知姿勢(A5)となる。
 なお、各報知姿勢(A1、A2、A4、A5)は、ロボット100の特定の可動部位が作動している状態であってもよい。例えば、図3のNo1~4に示すように、アラームに対応する報知姿勢として、腕部100cの一方を作動させて、ロボット100が手を振っているような姿勢(A11、A3)を採用してもよい。この場合、報知姿勢(A11、A3)は、当該報知姿勢の解除まで腕部100cを振り続けるような姿勢でも、所定時間(例えば、報知姿勢移行後10秒間)振り続け、その後は腕部100cを上げた状態で静止するような姿勢であってもよい。
 次に、図4に示す報知イベント発生テーブル29aは、選択報知イベントと選択報知イベント発生条件との対応関係を示すデータテーブルである。選択報知イベントは、ユーザによって選択された報知イベントであり、ロボット100の内部に発生要因があるものをいう。選択報知イベント発生条件は、選択報知イベントの発生に必要な条件でありユーザが任意に設定できる。具体的には、ユーザが、選択報知イベントとして「第1アラーム(目覚ましアラーム)」を選択し、選択報知イベント発生条件として「毎日7:00」を設定した場合、これらのデータが対応付けられて報知イベント発生テーブル29aに記録される。これにより「毎日7:00に第1アラームが鳴る」という処理が発生する(図4のNo1)。次に、選択報知イベントとして「第2アラーム(スケジュールアラーム)」を選択し、選択報知イベント発生条件として「2014年1月1日10:00」を設定した場合、これらのデータが対応付けられて報知イベント発生テーブル29aに記録される。これにより「2014年1月1日10:00に第2アラームが鳴る」という処理が発生する(図4のNo2)。次に、選択報知イベントとして「TV再生」を選択し、選択報知イベント発生条件として「毎週月曜日20:00 1チャンネル」を設定した場合、これらのデータが対応付けられて報知イベント発生テーブル29aに記録される。これにより「毎週月曜日20:00に1チャンネルが再生される」という処理が発生する(図4のNo3)。次に、選択報知イベントとして「バッテリー残量低下」を選択した場合、選択報知イベント発生条件としてユーザが任意に決定した閾値を設定した場合、これらのデータが対応付けられて報知イベント発生テーブル29aに記録される。これにより「バッテリー残量が閾値よりも低くなれば、バッテリー残量低下を報知する報知音が発生する」という処理が発生する(図4のNo4)。
 次に、図5に示す報知イベント優先度テーブル29dは、図3の報知姿勢テーブル29bに優先度の欄を加えたものであり、当該テーブル29bに記録されている各データおよび優先度の対応関係を示す。優先度は、「1」を最低値(優先順位が一番低い)としてユーザによる対応の必要性が高くなるほど数値が大きくなり、「10」を最高値(優先順位が一番高い)とする。すなわち、各報知イベントにはそれぞれ、ユーザの対応が必要となる程度に応じて定められた優先度(優先順位)が設定されている。図5に示す優先度はあくまで一例であり、ユーザが任意に設定および変更できる。なお、図5では、説明の簡略化のため、「サーボモータの回転位置」および「報知姿勢」の欄を省略している。
 図5に示すように、例えば、第1報知イベントとして音声着信(優先度「8」;優先順位が2番目に高い)が発生した後に、第1報知イベントとは異なる第2報知イベントとしてアラーム(優先度「6」;優先順位が3番目に高い)が発生した場合、ロボット100の姿勢を音声着信に対応付けられた第1報知姿勢(A1)が維持され、アラーム発生については、ロボット100の姿勢移行を伴わない方法で報知される。また、第1報知姿勢(A1)に移行中に、第2報知イベントが発生した場合も、第1報知姿勢(A1)が維持され、第2報知イベントが上記姿勢移行を伴わない方法で報知される。なお、第1報知イベントは先発の報知イベントである。第2報知イベントは、後発の報知イベントであり、第1報知イベント発生後に発生した少なくとも1つの報知イベントである。次に、例えば、第1報知イベントとしてTV再生(優先度「4」;優先順位が1番低い)が発生した後に、第2報知イベントとしてバッテリー残量低下(優先度「10」;優先順位が1番高い)が発生した場合、ロボット100の姿勢がTV再生に対応する第1報知姿勢(A4)から、バッテリー残量低下に対応する第2報知姿勢(A5)に移行する。そして、TV再生については、上記姿勢移行を伴わない方法による報知へと移行される。
 なお、図5には示されていないが、優先度の等しい2つの報知イベントが発生した場合、ユーザが指定した報知イベントを報知姿勢とする等、どちらの報知イベントを報知姿勢に移行するかが任意に決定されてもよい。また、各報知イベントには、さらに、各報知イベントが発生したことを示す表示画像、所定の音、および/または、ロボット100本体の振動方法が対応付けられている。これにより、上記姿勢移行を伴わない方法で報知を行う場合に、どの報知イベントが発生しているかをユーザに認知させることができる。
 次に、報知制御装置1の具体的構成について説明する。報知制御装置1は、発生条件判定部11、報知イベント発生部12、報知イベント検知部13、報知姿勢移行判定部14、報知方法決定部15、および報知制御部18を備えている。
 発生条件判定部11は、選択報知イベント発生条件を充足しているか否かを判定し、判定結果を報知イベント発生部12に送信する。報知イベント発生部12は、発生条件判定部11から選択報知イベント発生条件を充足しているとの判定結果を受信した場合に、選択報知イベントを発生させる。報知イベント検知部13は、報知イベント(選択報知ベントを含む)の発生を検知し、検知結果を報知姿勢移行判定部14に送信するものである。
 報知姿勢移行判定部14は、報知イベント検知部13から報知イベントの発生を検知した旨の検知結果を受信した場合に、既に発生している報知イベント(第1報知イベント)があるか否かを判定する。また、報知イベント優先度テーブル29dを参照して、第1および第2報知イベントのうち、どの報知イベントの優先度が高いか(または低いか)を判定する。さらに、報知姿勢が選択された報知イベントの発生の報知が不要となったか(第1または第2報知姿勢を解除するか)否かを判定する。そして、これらの判定結果を報知方法決定部15に送信する。
 報知方法決定部15は、報知姿勢移行判定部14から受信した判定結果に応じて、第1および第2報知イベントの発生を報知するための報知方法を決定する。具体的には、第1報知イベントおよび第2報知イベントの優先度に応じて報知方法を決定する。この場合、第1および第2報知イベントのうち、優先度が高い方の報知イベントの報知方法として報知姿勢を選択し、優先度が低い方の報知イベントの報知方法として上記姿勢移行を伴わない方法を選択する。また、報知方法決定部15は、上記解除の判定結果を受信した場合には、解除される報知イベント以外の報知イベントの報知方法として報知姿勢を選択する。そして、これらの決定結果(選択結果)を報知制御部18に送信する。具体的には、報知姿勢選択の決定結果を報知姿勢移行部16に送信し、上記姿勢移行を伴わない方法の選択の決定結果を、提示制御部17に送信する。
 上記姿勢移行を伴わない報知方法として、表示部22の表示画面に報知イベントの発生を表示する方法、スピーカ部21から発生した報知イベントの種類に応じて異なった音を出力(報知イベントの種類に拘らず、特定の音を出力してもよい)する方法およびロボット100本体をバイブレーションさせる方法などが挙げられる。その他、例えば、LEDの点滅または色の変化で報知してもよいし、これらの方法を複数組み合わせて報知してもよい。どの方法で報知するかについては予め設定されていても、ユーザが任意に選択できるようになっていてもよい。さらに、ロボット100の状態に応じて適切な報知方法が自動的に選択されるようになっていてもよい。
 報知制御部18は、報知方法決定部15が決定した報知方法に従って、第1および第2報知イベントの発生の報知を制御するものであり、報知姿勢移行部16(報知制御部)と提示制御部17(報知制御部)とを備えている。報知姿勢移行部16は、報知方法を報知姿勢とする旨の決定結果を受信した場合、報知イベント優先度テーブル29d(または報知姿勢テーブル29b)を参照して、ロボット100の姿勢を各報知イベントに対応する報知姿勢に移行させる。提示制御部17は、表示部22への表示制御、および、スピーカ部21への音出力制御を行うものである。提示制御部17は、報知方法を上記姿勢移行を伴わない方法にする旨の決定結果を受信した場合に、各報知イベントに対応する表示画像を表示部22に表示したり、所定の音をスピーカ部21から出力したりする。
 (複数の報知イベント発生時の制御方法) 次に、図6を用いて、複数の報知イベントが発生した場合における、報知制御装置1による報知の制御方法について説明する。図6に示すように、報知イベント検知部13は、第2報知イベントの発生を検知したか否かを判定する(S100)。報知イベント検知部13は、第2報知イベントの発生を検知した場合(S100でYES(以下、Y))、その旨の検知結果を報知姿勢移行判定部14に送信する。一方、第2報知イベントの発生を検知しない場合(S100でNO(以下、N))、報知イベント検知部13は、第2報知イベントの発生検知を再度行う。
 S100でYの場合、報知姿勢移行判定部14は、第2報知イベント発生の検知結果を受信する前に、既に、報知イベント検知部13から第1報知イベント発生の検知結果を受信しているか否かを判定する(S101)。S101でNの場合、報知姿勢移行判定部14は、当該判定時において報知姿勢による報知が行われていないと判定し、判定結果を報知方法決定部15に送信する。報知方法決定部15は、当該判定結果を受信した場合、第2報知イベントの報知方法を第2報知姿勢に決定し、その決定結果を報知姿勢移行部16に送信する(S105)。報知姿勢移行部16は、当該決定結果に従ってロボット100の姿勢を第2報知姿勢へと移行させる(S106)。この場合、S101の判定時に報知姿勢による報知が行われていないため、第2報知イベントは第1報知イベントとなる。一方、S101でYの場合、第1報知姿勢による報知が行われているか、当該姿勢へ移行中である。そこで、報知姿勢移行判定部14は、第1および第2報知イベントの優先度を比較して、第1報知姿勢(現在または移行中の報知姿勢)を優先させるか否かを判定する(S102)。そして、報知姿勢移行判定部14は、第1報知イベントの優先度の方が低いと判定した場合(S102でN)、当該判定結果を報知方法決定部15に送信する。
 報知方法決定部15は、上記判定結果に従って、第1報知イベントの報知方法を、上記姿勢移行を伴わない報知方法に変更することを決定し、当該決定結果を提示制御部17に送信する(S103)。上記判定結果を受信した場合、提示制御部17は、第1報知イベント発生中であることを表示部22に表示させ、スピーカ部21から所定の音として出力させる(S104)。また、報知方法決定部15は、第2報知イベントの報知方法を第2報知姿勢に決定し、当該決定結果を報知姿勢移行部16に送信する(S105)。その後、報知姿勢移行部16は、ロボット100の姿勢を、第1報知姿勢から第2報知姿勢へと移行させる(S106)。つまり、S105、106では、後発の報知イベントに対応する報知姿勢に変化させるため、先発の報知イベントに対応する報知姿勢が崩れ、当該報知イベント発生の報知が維持されなくなる。そこで、S103、104において、先発の報知イベント発生を報知姿勢以外の方法で報知することにより、先発および後発の報知イベント発生の報知を実現している。
 一方、報知姿勢移行判定部14が、第1報知イベントの優先度の方が高いと判定した場合(S102でY)、報知方法決定部15は、当該判定結果に従って、第1報知イベントの報知方法を第1報知姿勢に決定するとともに、第2報知イベントの報知方法を上記姿勢移行を伴わない方法に決定する(S107)。すなわち、S102でYの場合、第1報知姿勢はそのまま維持される。そして、報知方法決定部15は、当該決定結果を提示制御部17に送信する。上記判定結果を受信した場合、提示制御部17は、第2報知イベント発生中であることを表示部22に表示させ、スピーカ部21から所定の音として出力させる(S108)。つまり、S107、108では、先発の報知イベントの報知姿勢を維持するため、後発の報知イベント発生を報知姿勢以外の方法で報知することにより、先発および後発の報知イベント発生の報知を実現している。
 さらに、図7を用いて、選択報知イベントの場合における、報知制御装置1によるロボット100の姿勢の制御方法について説明する。図7に示すように、まず、発生条件判定部11は、報知イベント発生テーブル29aを参照することによって選択報知イベント発生条件を充足しているか否かを判定する(S200)。そして、前記条件を充足していると判定した場合(S200でY)、発生条件判定部11は、当該条件を充足している旨の判定結果を報知イベント発生部12に送信する。一方、選択報知イベント発生条件を充足していないと判定した場合(S200でN)、発生条件判定部11は、上記条件を充足しているか否かを再び判定する。
 次に、報知イベント発生部12は、発生条件判定部11から選択報知イベント発生条件を充足している旨の判定結果を受信した場合、当該条件に対応付けられた選択報知イベントを発生させる(S201)。次に、報知イベント検知部13は、選択報知イベントの発生を検知した場合(S202でY)、その検知結果を報知姿勢移行判定部14に送信する。一方、報知イベントの発生を検知しない場合(S202でN)、報知イベント検知部13は、選択報知イベント発生の有無を再び検知する。次に、報知姿勢移行判定部14は、S202でYと判定した場合、S101の処理に移行する(S203)。
 なお、図6のS103、S104とS105、106との処理順序は問わない。また、上述のように、S104、108における報知方法は一例であり、スピーカ部21または表示部22から、報知イベントが発生中であることが提示されてもよい。ただし、音出力のみによる報知の場合、ユーザが上記所定の音を聴き逃すと、報知イベント発生を認知することができない。一方、表示のみによる報知の場合には、ユーザが、その報知がなされたのと同時に、その報知に気付かない可能性がある。この点を考慮すれば、状況が許す限り、音出力および表示の両方による報知を行うことが好ましい。また、報知の維持という観点において、音出力の場合には音を出力し続ける必要があるため、どちらか一方による報知の場合には、表示による報知の方が好ましい。また、スピーカ部21から上記所定の音ではなく、各報知イベントに対応する音声が出力されてもよい。
 さらに、図8に示すように、S104、108において、以下のような報知処理が行われてもよい。すなわち、S104、108の処理に移行すると、報知方法決定部15は、ロボット100がマナーモード設定中か否かを判定する(S300)。マナーモード設定中であると判定した場合(S300でY)、報知方法決定部15は、画面表示か、またはロボット100本体の振動(バイブレーション)で第1または第2報知イベントの発生を報知することを決定する(S301)。この決定に従って、提示制御部17は、第1または第2報知イベントが発生した旨を表示部22に表示させるか、第1または第2報知イベントに対応する振動方法でロボット100本体を振動させる(S302)。なお、表示および振動で報知を行ってもよい。一方、S300でNの場合、報知方法決定部15は、スピーカ部21にて音出力中か否かを判定する(S303)。音出力中でないと判定した場合(S303でN)、報知方法決定部15は、音出力で第1または第2報知イベントの発生を報知することを決定する(S304)。この決定に従って、提示制御部17は、スピーカ部21から、第1または第2報知イベントに対応する所定の音を出力させる(S305)。S303でYの場合、S301、302の処理を実行する。なお、音出力中か否かを先に判定した後、マナーモード中か否かを判定してもよい。
 また、報知方法決定部15は、各報知イベントの報知方法を優先度に基づいて決定する必要は必ずしもない。例えば、常に第1報知イベントを優先する(現在の報知姿勢を維持し、第2報知イベントを上記姿勢移行を伴わない方法で報知する)よう決定してもよいし、その逆であってもよい。
 さらに、第1報知イベント発生後に第2報知イベントが複数発生してもよい。この場合、報知方法決定部15は、3つ以上の報知イベントのうち、優先度が最も高い報知イベントの報知方法として報知姿勢を選択し、それ以外の報知イベントの報知方法として、上記姿勢移行を伴わない方法を選択してもよい。この場合、S102で現在(または移行中)の報知姿勢を優先させるか否かを判定し、S102でYの場合には現在の報知姿勢を維持して、最後に発生した第2報知イベントの報知方法を、上記姿勢移行を伴わない方法に決定する。一方、S102でNの場合には、最後に発生した第2報知イベントの報知方法を、当該第2報知イベントに対応する報知姿勢に決定するとともに、現在の報知姿勢に対応する報知イベントの報知方法を上記姿勢移行を伴わない方法に切り替える。
 (解除時の制御方法) 次に、図9を用いて、報知姿勢を解除する場合の報知制御装置1による制御方法について説明する。本フローチャートでは、上記姿勢移行を伴わない方法としては、表示部22への表示のみが行われるものとして説明する。
 図9に示すように、報知姿勢移行判定部14は、報知姿勢(第1または第2報知姿勢)を解除するか否かを判定する(S400)。例えば、ユーザが報知イベントに対応したために報知する必要性がなくなった場合(例えば、音声着信に対して通話が実行された場合)、または、報知すべき状態を脱した場合(例えば、充電により電池残量が十分回復した場合)、これらの報知イベントについては、報知を維持する必要がない。そのため、報知姿勢移行判定部14は、ユーザの報知イベントへの対応、または報知すべき状態を脱したことを検知すると、当該検知に対応する報知イベントが報知姿勢で報知されているか否かを判定する。そして、報知姿勢で報知されていると判定した場合には、当該報知姿勢を解除すると判定した後、他に発生中の報知イベントが存在するか否かを確認する(S401)。一方、解除しないと判定した場合には(S400でN)、上記検知があるまで待機する。なお、上記検知に対応する報知イベントが表示で報知されている場合、報知方法決定部15は、当該表示による報知の停止を決定する。
 他に発生中の報知イベントが存在しないと判定された場合(S401でN)、報知方法決定部15は、ロボット100の姿勢を通常状態に戻すことを決定する。報知姿勢移行部16は、当該決定に従ってロボットの姿勢を通常状態に戻す(S404)。通常状態とは、例えば、報知イベント発生前のロボット100の姿勢、またはデフォルトの姿勢(直立不動の姿勢等)である。一方、S401でYの場合、報知方法決定部15は、報知姿勢で報知する報知イベントを選択するとともに、当該報知イベントの報知方法として選択されていた表示による報知の停止を決定する(S402)。そして、決定結果を報知制御部18に送信する。報知姿勢移行部16は、S400で解除すると判定された報知イベントの報知姿勢を解除し、S402で選択された報知イベントに対応する報知姿勢に移行させる(S403)。なお、報知姿勢の解除は、S400でYと判定された時点で行われてもよい。この場合、報知姿勢から通常状態の姿勢に一時的に移行されてもよい。また、提示制御部17は、S402で選択された報知イベントの発生の表示による報知を停止する。
 例えば、第1報知イベント(イベントA)発生後、1つの第2報知イベント(イベントB)が発生した場合を考える。S400でイベントAの報知姿勢を解除すると判定されると、他に報知すべき報知イベントとしてイベントBが存在するので、S401でYとなる。S402では、報知姿勢で報知する報知イベントとしてイベントBが選択される。すなわち、イベントBに対応する報知姿勢での報知と、イベントB発生の表示による報知の停止とが決定される。また、例えば、第1報知イベント(イベントA)発生後、2つの第2報知イベントが発生した(イベントBの次に、イベントCが発生した)場合を考える。この場合、イベントAが報知姿勢、イベントB、Cが表示による報知されているとする。S400でイベントAの報知姿勢を解除すると判定されると、他に報知すべき報知イベントとしてイベントB、Cが存在するので、S401でYとなる。S402では、報知イベント優先度テーブル29dに基づき、報知姿勢で報知する報知イベント(イベントBまたはC)が決定される。例えば、イベントBの優先度がイベントCの優先度より高い場合、イベントBに対応する報知姿勢での報知と、イベントB発生の表示による報知の停止とが決定される。イベントCについては、表示による報知が維持される。なお、優先度に基づくことなく、予め最新の報知イベントまたは最古の報知イベントを報知姿勢で報知すると設定されていてもよい。本例の場合であれば、最新の報知イベントがイベントC、最古の報知イベントがイベントBとなる。
 (効果) 本実施形態では、第1報知イベント発生後に、第2報知イベントが少なくとも1つ発生した場合に、報知方法決定部15は、いずれかの報知イベントの報知方法として報知姿勢を選択し、それ以外の報知イベントの報知方法として上記姿勢移行を伴わない方法を選択する。複数の報知イベントの発生(発生中の全ての報知イベント)を同時にユーザに知らせることができるとともに、1つの報知イベントについては、ユーザにとって視認性の高い(ユーザが報知を認識しやすい)報知姿勢を用いて報知できる。すなわち、ロボット100の姿勢変化(外径形状の変化)で報知を行う構成において、報知イベントが複数発生した場合であっても、ユーザに対して的確に報知を行うことができる。
 〔実施形態2〕
 本発明の他の実施形態について、図10および11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を適宜省略する。本実施形態の報知姿勢移行判定部14(姿勢競合判定部)は、さらに、第1および第2報知イベントのそれぞれに対応する報知姿勢が、同時に実行可能な姿勢であるか否かを判定し、判定結果を、報知方法決定部15に送信する。報知方法決定部15は、上記判定結果に基づいて、第1および第2報知イベントの報知方法を決定する。
 (複数の報知イベント発生時の制御方法) 次に、図10を用いて、複数の報知イベントが発生した場合における、報知制御装置1による報知の制御方法について説明する。図10に示すように、S101でYの場合、報知姿勢移行判定部14は、第1および第2報知姿勢の全てが同時に実行可能な姿勢であるか否か(第1および第2報知姿勢が「競合」するか否か)を判定する(S501)。同時に実行可能な姿勢である場合(S501でY)、報知方法決定部15は、第1報知姿勢を維持し、かつ、第2報知イベントの報知方法を、当該第2報知イベントに対応する第2報知姿勢に決定する(S502)。例えば、図3に示すように、音声着信の報知姿勢(A1)は左側の腕部100cを上げ、アラームの報知姿勢(A2)は右側の腕部100cを上げる姿勢である。左側および右側の腕部100cを同時に上げることは可能であるため、報知姿勢(A1)(A2)は同時に実行可能な姿勢であると判定される。一方、TV再生の報知姿勢(A4)は両手を地面につけた姿勢であるため、報知姿勢(A1)と同時に実行することはできず、報知姿勢(A1)(A4)は同時に実行不可能な姿勢であると判定される。
 報知姿勢移行部16は、報知方法決定部15の決定結果に従って、ロボット100の姿勢を第2報知姿勢へと移行させる(S503)。すなわち、第1および第2報知イベントの発生は、第1および第2報知姿勢で報知される。一方、S501でNの場合、S102の処理が行われる。これ以降の処理は、図6のS102以降の処理と同じである。
 実施形態1と同様、第1報知イベント発生後に、複数の第2報知イベントが発生してもよい。例えば、第1報知イベントであるイベントP(音声着信)発生後に、2つの第2報知イベントであるイベントQ(アラーム)、イベントR(TV再生)がこの順で発生した場合を考える。イベントP、Qの報知姿勢(A1)(A2)は同時に実行可能であるため、S501でYとなり、イベントP、Qの発生が報知姿勢(A1)(A2)により報知される。一方、イベントRの報知姿勢(A4)は、報知姿勢(A1、A2)と同時に実行不可であるため、S501でNとなる。優先度は音声着信が一番高いため、S102でYとなり、イベントRの発生は上記姿勢移行を伴わない方法で報知される。なお、第2報知イベントが複数発生した場合、複数の第2報知姿勢が同時に実行可能か否かの判定(S501と同様の処理)がS105の前に行われ、同時に実行可能な第2報知姿勢については当該姿勢で報知、それ以外については上記姿勢移行を伴わない方法で報知されればよい。
 なお、S502では、先発および後発の報知イベント発生が、報知姿勢によって報知されるため、どちらが先発(または後発)の報知イベントに対応する報知姿勢なのか、見た目で判断が付きにくくなる可能性がある。そこで、例えば後発の報知イベントに対応する報知姿勢について、動きを伴う報知姿勢が設定されている場合には、当該報知姿勢が選択されてもよい。例えば、先発の報知イベントが「アラーム」、後発の報知イベントが「音声着信」の場合には、「アラーム」については図3の報知姿勢(A2)が選択され、「音声着信」については図3の報知姿勢(A11)が選択される。これにより、ユーザは、どちらの報知イベントが先(または後)に発生したのかを容易に判断できる。
 (解除時の制御方法) 次に、図11を用いて、報知姿勢を解除する場合の報知制御装置1による制御方法について説明する。本フローチャートでは、上記姿勢移行を伴わない方法としては、表示部22への表示のみが行われるものとして説明する。
 図11に示すように、S401でYの場合、報知姿勢移行判定部14は、第1または第2報知姿勢で報知されている報知イベントが存在するか否かを判定する(S601)。第1または第2報知姿勢で報知されている報知イベントが存在する場合(S601でY)、報知姿勢移行判定部14は、現在報知姿勢で報知されている報知イベント以外で、かつ当該報知姿勢の全てと同時に実行可能な報知姿勢を有する報知イベントが存在するか否かを判定する(S602)。当該報知イベントが存在しないと判定された場合(S602でN)、報知方法決定部15は、S400で解除すると判定された報知姿勢を解除し、その他の報知イベントの報知方法を維持することを決定する(S605)。すなわち、S400で解除すると判定された報知イベント以外の報知イベントの発生は、現状の報知方法により報知される。なお、上記解除はS400でYと判定した時点で行われてもよい。
 S601でN、またはS602でYと判定された場合には、S603およびS604では、図9に示すS402およびS403の処理が行われる。S601でNの場合、発生中の報知イベントが複数存在する場合には、当該報知イベントの中で、同時に実行可能な報知姿勢を有する報知イベントが存在するか否かを判定する。そして、当該報知イベントが存在する場合には、当該報知イベントの発生の報知については全て報知姿勢で行い、それ以外の報知イベントの発生については表示による報知を行う。一方、上記報知イベントが存在しない場合には、優先度が最も高い報知イベントのみ報知姿勢での報知を行う。S602でYの場合には、現状の報知姿勢の全てと同時に実行可能な報知姿勢を有する報知イベントの発生については、すべて報知姿勢での報知を行う。すなわち、S400で解除判定されることにより、報知姿勢での報知が可能な発生中の報知イベントがあれば、当該報知イベントの発生については、ユーザが確認しやすい報知姿勢で報知する。
 (効果) 報知方法決定部15は、発生した複数の報知イベントのうちの少なくとも1つの報知方法として報知姿勢を選択する。すなわち、報知姿勢移行判定部14によって、第1および第2報知イベントのそれぞれに対応する報知姿勢が、同時に実行可能な姿勢であると判定された場合には、同時に実行可能な複数の報知姿勢を報知方法として選択する。そのため、視認性の高い報知姿勢による報知方法をできる限り使用できるので、ユーザは、複数の報知イベントの発生を更に容易に認知できる。
 〔実施形態3〕
 本発明の他の実施形態について、図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を適宜省略する。本実施形態の報知方法決定部15は、第1および第2報知姿勢の全てが同時に実行可能な姿勢でないと判定された場合、第1および第2報知イベントの発生を、報知イベントの優先度順に、所定時間間隔で報知姿勢を変更するという報知方法で報知することを決定する。報知姿勢移行部16は、当該決定結果に従い、報知イベントの優先度順に報知姿勢を変更しながら、発生中の報知イベントの報知を順次行う。報知姿勢移行部16は、最も低い優先度の報知イベント発生の報知完了後、最も高い優先度の報知イベント発生を再び報知してもよい。すなわち、複数の報知イベント発生の報知が繰り返し行われてもよい。
 なお、上記所定時間は、発生中の各報知イベントをユーザが確認できる程度の時間に設定されていればよい。また、上記所定時間としては、予め固定値(例えば15秒)が設定されていてもよいし、優先度が高いほど長く設定されていてもよい。後者の場合、ユーザは、優先度の高い報知イベントがどの報知イベントであるかを容易に確認できる。また、発生中の全ての報知イベントの報知にかかる総報知時間と、総報知時間に対する優先度に応じた報知時間の割合とが予め設定されていてもよい。例えば、総報知時間が30秒で3つの報知イベントが発生している場合、例えば、優先度が高い方から順に、15秒、10秒、5秒と設定されてもよい。なお、上記割合は、各報知イベントの優先度の比をとってもよい。例えば、総報知時間が18秒で、音声着信(優先度8)、アラーム(優先度6)およびTV再生(優先度4)が発生している場合、音声着信の発生が8秒間、アラームの発生が6秒間、TV再生の発生が4秒間、この順で報知される。さらに、全ての報知イベントの発生を報知姿勢で報知する必要は必ずしもなく、選択された報知イベントの発生が報知姿勢で報知されてもよい。例えば、所定数よりも多い報知イベントが発生した場合には、所定数を超えた分については上記姿勢移行を伴わない方法で報知されてもよい。
 (複数の報知イベント発生時の制御方法) 次に、図12を用いて、複数の報知イベントが発生した場合における、報知制御装置1による報知の制御方法について説明する。図12に示すように、S501でNと判定された場合、報知方法決定部15は、報知イベント優先度テーブル29dを参照して、発生中の第1および第2報知イベントの優先度を確認し(S701)、当該第1および第2報知イベントの報知方法として、優先度順に報知姿勢を変更するという方法に決定する(S702)。報知姿勢移行部16は、当該決定結果に従い、優先度順に、第1および第2報知姿勢による報知を行う(S703)。
 (効果) 同時に実行不可能な報知姿勢を有する複数の報知イベントでも、その発生を視認性の高い報知姿勢で報知できるので、ユーザはその発生を更に容易に認知できる。
 〔ソフトウェアによる実現例〕
 報知制御装置1の制御ブロック(特に制御部10の各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、報知制御装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る報知制御装置(1)は、ロボット(100)からの報知に対してユーザの対応が必要となる事象である第1報知イベントの発生後に、当該第1報知イベントとは異なる第2報知イベントが少なくとも1つ発生した場合に、上記第1および第2報知イベントのそれぞれの発生を報知するための報知方法の少なくとも1つが、当該第1および第2報知イベントのそれぞれに対応する上記ロボットの姿勢である報知姿勢(A1~A5、A11、A12)となるように、当該報知方法を決定する報知方法決定部(報知方法決定部15)と、上記報知方法決定部が決定した上記報知方法に従って、上記第1および第2報知イベントの発生を報知する報知制御部(報知制御部18(報知姿勢移行部16および提示制御部17))と、を備えている。上記構成によれば、第1報知イベントの発生後に第2報知イベントが少なくとも1つ発生した場合に、これらのうちの少なくとも1つの報知イベントについては報知姿勢で報知しながら、複数の報知イベントが発生していることをユーザに知らせることができる。すなわち、報知制御装置は、報知姿勢を用いて、複数の報知イベントの発生をユーザに認知させることができる。
 本発明の態様2に係る報知制御装置は、態様1において、上記第1および第2報知イベントには、それぞれ、上記ユーザの対応が必要となる程度に応じて定められた優先度が設定されており、上記報知方法決定部は、上記優先度に応じて、上記第1および第2報知イベントの報知方法を決定してもよい。上記構成によれば、例えば、第1および第2報知イベントのうち、ユーザの対応が必要となる程度が高い報知イベントを、視認性の高い報知姿勢で報知できる。それゆえ、ユーザは、第1および第2報知イベントの発生順に拘らず、上記程度が高い報知イベントに対して確実に対応できる。
 本発明の態様3に係る報知制御装置は、態様1または2において、上記第1および第2報知イベントのそれぞれに対応する報知姿勢が、同時に実行可能な姿勢であるか否かを判定する姿勢競合判定部(報知姿勢移行判定部14)を備え、上記報知方法決定部は、上記姿勢競合判定部の判定結果に基づいて、上記第1および第2報知イベントのそれぞれの報知方法として、当該第1および第2報知イベントのそれぞれに対応する報知姿勢を選択するか否かを決定してもよい。上記構成によれば、同時に実行可能な報知姿勢を有する複数の報知イベントについては、各報知イベントに対応する報知姿勢で報知できる。それゆえ、複数の報知イベントの発生を視認性の高い方法で報知できるので、ユーザは、より容易に複数の報知イベント発生を認知できる。
 本発明の態様4に係る報知制御装置は、態様1から3のいずれか一において、上記報知方法決定部は、上記第1および第2報知イベントのうち、(1)優先度が高い報知イベントの報知方法として、上記報知姿勢を選択し、(2)優先度が低い報知イベントの報知方法として、上記ロボットの姿勢移行を伴わない方法を選択してもよい。上記構成によれば、優先度が高い報知イベントほど視認性を高くできるので、当該報知イベントのユーザによる認知度を高めることができる。
 本発明の態様5に係る報知制御装置は、態様1から4のいずれか一において、上記報知方法決定部は、上記第1および第2報知イベントのうち、報知方法として報知姿勢を選択した報知イベントの発生の報知が不要となった場合に、当該報知イベント以外の報知イベントの報知方法として上記報知姿勢を選択してもよい。上記構成によれば、報知姿勢による報知イベントの発生の報知が不要となった場合、当該報知姿勢は解除される。そのため、例えば、報知姿勢が解除される報知イベントと比べて優先度が低い、または当該報知姿勢と同時に実行不可能な姿勢であるために、上記姿勢移行を伴わない方法での報知が行われていた報知イベントの発生について、報知姿勢で報知することが可能となる。それゆえ、視認性の高い報知姿勢による報知をできる限り優先させることができる。
 本発明の態様6に係るロボット(100)は、上記態様1から5のいずれか一の態様に係る報知制御装置を備えていてもよい。上記構成によれば、報知姿勢を用いて、複数の報知イベントの発生をユーザに認知させることができるロボットを実現できる。
 本発明の各態様に係る報知制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記報知制御装置が備える各部として動作させることにより上記報知制御装置をコンピュータにて実現させる報知制御装置のプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、報知イベントをユーザに認知させるための技術全般に利用可能である。
 1 報知制御装置、10 制御部(報知制御装置)、15 報知方法決定部、16 報知姿勢移行部(報知制御部)、17 提示制御部(報知制御部)、18 報知制御部、14 報知姿勢移行判定部(姿勢競合判定部)、100 ロボット、A1~A5、A11、A12 報知姿勢

Claims (5)

  1.  ロボットからの報知に対してユーザの対応が必要となる事象である第1報知イベントの発生後に、当該第1報知イベントとは異なる第2報知イベントが少なくとも1つ発生した場合に、
     上記第1および第2報知イベントのそれぞれの発生を報知するための報知方法の少なくとも1つが、当該第1および第2報知イベントのそれぞれに対応する上記ロボットの姿勢である報知姿勢となるように、当該報知方法を決定する報知方法決定部と、
     上記報知方法決定部が決定した上記報知方法に従って、上記第1および第2報知イベントの発生を報知する報知制御部と、を備えることを特徴とする報知制御装置。
  2.  上記第1および上記第2報知イベントには、それぞれ、上記ユーザの対応が必要となる程度に応じて定められた優先度が設定されており、
     上記報知方法決定部は、上記優先度に応じて、上記第1および第2報知イベントの報知方法を決定することを特徴とする請求項1に記載の報知制御装置。
  3.  上記第1および第2報知イベントのそれぞれに対応する報知姿勢が、同時に実行可能な姿勢であるか否かを判定する姿勢競合判定部を備え、
     上記報知方法決定部は、上記姿勢競合判定部の判定結果に基づいて、上記第1および第2報知イベントのそれぞれの報知方法として、当該第1および第2報知イベントのそれぞれに対応する報知姿勢を選択するか否かを決定することを特徴とする請求項1または2に記載の報知制御装置。
  4.  上記報知方法決定部は、上記第1および第2報知イベントのうち、報知方法として報知姿勢を選択した報知イベントの発生の報知が不要となった場合に、当該報知イベント以外の報知イベントの報知方法として上記報知姿勢を選択することを特徴とする請求項1から3のいずれか1項に記載の報知制御装置。
  5.  コンピュータを、請求項1から4のいずれか1項に記載の報知制御装置における各部として機能させるためのプログラム。
PCT/JP2015/082266 2014-10-01 2015-11-17 報知制御装置およびプログラム WO2016052763A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-203423 2014-10-01
JP2014203423A JP2016072928A (ja) 2014-10-01 2014-10-01 報知制御装置およびプログラム

Publications (1)

Publication Number Publication Date
WO2016052763A1 true WO2016052763A1 (ja) 2016-04-07

Family

ID=55630781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082266 WO2016052763A1 (ja) 2014-10-01 2015-11-17 報知制御装置およびプログラム

Country Status (2)

Country Link
JP (1) JP2016072928A (ja)
WO (1) WO2016052763A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109196844B (zh) * 2016-05-20 2021-02-09 夏普株式会社 信息处理装置、机器人及存储介质
JP6836557B2 (ja) * 2018-08-30 2021-03-03 ファナック株式会社 人間協調ロボットシステム
JP7163987B2 (ja) * 2021-03-16 2022-11-01 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (ja) * 1998-10-30 2000-05-16 Fujitsu Ltd 情報処理装置及び擬似生物機器
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2002066156A (ja) * 2000-05-12 2002-03-05 Fujitsu Ltd ロボット連携装置、ロボット連携プログラム記憶媒体、およびロボット連携プログラム
JP2002368858A (ja) * 2001-06-05 2002-12-20 Matsushita Electric Ind Co Ltd 携帯電話の充電装置
JP2005160064A (ja) * 2003-11-06 2005-06-16 Ad Step:Kk 歩行支援システムとこのシステムで使用する携帯端末機及びアダプタ装置
JP2007110335A (ja) * 2005-10-12 2007-04-26 Advanced Telecommunication Research Institute International ロボットシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (ja) * 1998-10-30 2000-05-16 Fujitsu Ltd 情報処理装置及び擬似生物機器
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2002066156A (ja) * 2000-05-12 2002-03-05 Fujitsu Ltd ロボット連携装置、ロボット連携プログラム記憶媒体、およびロボット連携プログラム
JP2002368858A (ja) * 2001-06-05 2002-12-20 Matsushita Electric Ind Co Ltd 携帯電話の充電装置
JP2005160064A (ja) * 2003-11-06 2005-06-16 Ad Step:Kk 歩行支援システムとこのシステムで使用する携帯端末機及びアダプタ装置
JP2007110335A (ja) * 2005-10-12 2007-04-26 Advanced Telecommunication Research Institute International ロボットシステム

Also Published As

Publication number Publication date
JP2016072928A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
JP6743691B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
EP3110180B1 (en) Method and device for managing self-balanced vehicle
JP4458151B2 (ja) 自動撮像装置、自動撮像制御方法、画像表示システム、画像表示方法、表示制御装置、表示制御方法
KR102523919B1 (ko) 오디오 재생 및 수집 방법, 장치 및 디바이스 및 판독 가능한 저장 매체
WO2016052763A1 (ja) 報知制御装置およびプログラム
KR102342559B1 (ko) 이어셋 및 그 제어 방법
US20200371600A1 (en) Computer-implemented tools and methods for determining firmware capabilities
WO2024055494A1 (zh) 基于蓝牙耳机的通话方法、装置及存储介质
JP2008085854A (ja) 頭部装着型ディスプレイシステム
JP2009182581A (ja) 携帯無線機
US20200371739A1 (en) Computer-implemented tools and methods for gesture subscription
JP6396463B2 (ja) 姿勢制御装置、ロボット、プログラム、および姿勢制御方法
US20170296935A1 (en) Alarm control device and program
JP6392062B2 (ja) 報知制御装置およびプログラム
US20230224625A1 (en) Setting system of wireless headphone and setting method of wireless headphone
JP6065550B2 (ja) 映像装置
US20200135139A1 (en) Display system, device, program, and method of controlling device
WO2019240276A1 (ja) データ差し替え装置、端末、およびデータ差し替えプログラム
JPWO2007129443A1 (ja) ウエアラブルディスプレイ
JP6628874B2 (ja) 情報処理装置、ロボット、および制御プログラム
JP2015195433A (ja) 端末装置、及び着信制御方法
JP6411128B2 (ja) 姿勢制御装置、およびプログラム
JP2008129045A (ja) 映像表示装置
US11622188B1 (en) Headphone indicator
JP7111645B2 (ja) 制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15848002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15848002

Country of ref document: EP

Kind code of ref document: A1