WO2013108532A1 - ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2013108532A1
WO2013108532A1 PCT/JP2012/082775 JP2012082775W WO2013108532A1 WO 2013108532 A1 WO2013108532 A1 WO 2013108532A1 JP 2012082775 W JP2012082775 W JP 2012082775W WO 2013108532 A1 WO2013108532 A1 WO 2013108532A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
sound
event
output
unit
Prior art date
Application number
PCT/JP2012/082775
Other languages
English (en)
French (fr)
Inventor
実雄 阪本
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012007038A external-priority patent/JP2013146292A/ja
Priority claimed from JP2012007036A external-priority patent/JP2013146291A/ja
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201280067117.0A priority Critical patent/CN104039210B/zh
Publication of WO2013108532A1 publication Critical patent/WO2013108532A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/281Parameters or conditions being sensed the amount or condition of incoming dirt or dust
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation

Definitions

  • the present invention relates to a robot apparatus or the like, and outputs information to the outside, and particularly relates to a robot apparatus that outputs sound as information, a robot apparatus that transmits information such as characters and images as information to the outside of the robot, and the like. .
  • a robot device such as a pet robot that imitates a pet animal is known that talks to a user or has a conversation with the user. Also known is a robot apparatus that defines a pseudo emotional state of the robot apparatus and responds differently to the user according to the emotion.
  • Patent Document 1 includes various sensors such as a microphone and a touch sensor, determines the emotion of the robot from input information from the sensor, and based on the determined emotion, the order of the vocabulary and word strings of the speech generated by the robot, A robot that changes the position and intonation of the pose of a synthesized sound and outputs it from a speaker is described. Thereby, it is said that a synthetic sound rich in emotion can be output.
  • Patent Document 2 uses information on a vacuum cleaner robot having a wireless LAN unit therein, such as that the vacuum cleaner robot is operating or on standby, has fallen, or the remaining battery level is low. It is described that an e-mail is sent to a person's mobile phone.
  • the vacuum cleaner robot described in Patent Document 2 merely transmits information related to the operating state of the vacuum cleaner robot and information related to an abnormality occurring in the vacuum cleaner robot, and there are few variations in the information to be transmitted. . Therefore, the user receives only specific information from the cleaner robot, and there is a problem that the user is less likely to feel familiar with the cleaner robot.
  • the present invention has been made in view of the above problems, and a first object is to allow the user to correctly recognize the content of the output sound even if there are many variations of the output sound, and to determine the state of the robot apparatus.
  • An object of the present invention is to provide a robot apparatus, a control program, and a computer-readable recording medium on which the control program can be correctly recorded.
  • the present invention has been made in view of the above-mentioned problems, and a second object thereof is a robot apparatus capable of increasing variations in information to be output, a control program, and a computer reading recording the control program. It is to provide a possible recording device.
  • the robot apparatus includes an output means for outputting information, a detection means for detecting occurrence of an event based on the detection information, an information storage means for storing information output from the output means, and the robot apparatus And a calculation means for performing calculation using a predetermined calculation value in association with a state of the information, wherein the information storage means is a first information associated with a single event, the event and the calculation Second information associated with the calculation result of the means, When the occurrence of an event is detected by the detection means, the output means outputs first information or second information according to the event that has occurred, and the output second information It is associated with the calculation result of the means.
  • the robot apparatus includes a sound output unit that outputs sound, a detection unit that detects occurrence of an event based on the detection information, and a sound that stores sound information that is a sound signal output from the sound output unit.
  • Information storage means and the sound information storage means stores a single first sound information corresponding to the first event and a plurality of second sound information corresponding to the second event.
  • the output means outputs sound corresponding to the first sound information and the second sound information, and the second sound information is selected from a plurality of second sound information according to the event.
  • the robot apparatus includes information transmission means for transmitting information, detection means for detecting occurrence of an event based on detection information, and information storage means for storing information transmitted from the information transmission means,
  • the information storage means stores a single first information corresponding to the first event and a plurality of second information corresponding to the second event, and the information transmission means includes the first information And the second information is transmitted, and the second information is selected from a plurality of second information according to the event.
  • the user can correctly recognize the content and can correctly grasp the state of the robot apparatus, the control program, and the control program are recorded.
  • the computer-readable recording apparatus can be provided.
  • a robot apparatus capable of increasing variations in information to be output, a control program, and a computer-readable recording apparatus that records the control program.
  • FIG. 4A is a schematic diagram of a cross section taken along the line AA of the robot cleaner 1 of FIG. 3 according to an embodiment of the present invention.
  • FIG. 2B is a cross-sectional view of the dust collection unit 30 taken out from the robot cleaner 1.
  • It is a perspective view of the charging stand 40 which concerns on one Embodiment of this invention.
  • It is a block diagram which shows the structure of the robot cleaner 1 which concerns on one Embodiment of this invention.
  • FIG. 12 is a block diagram illustrating configurations of a storage unit 200 and a control unit 100 of the robot cleaner 1 of FIG. 11 according to another embodiment of the present invention. It is a flowchart which shows the flow of the process in Example 3 of this invention. It is a flowchart which shows the flow of the process in Example 4 of this invention.
  • an emotion determination unit to be described later determines the emotion of the robot cleaner from three stages of “upper mood”, “ordinary”, and “unpleasant” based on the event that occurred regarding the robot cleaner (calculation result)
  • sound information (information to be output) is selected based on the emotion and the sound is output from the robot cleaner.
  • an event is a state inside and outside the robot cleaner that can be detected by the controller of the robot cleaner.
  • the event is a parameter value related to the robot cleaner, such as a remaining battery level, a change in the parameter value, an operation instruction to the robot cleaner, start or end of the operation, an external temperature, a specific time, or the like.
  • FIG. 1 is a perspective view of a robot cleaner.
  • the robot cleaner 1 includes a circular main body housing 2 in plan view and a drive wheel 12 (see FIG. 3) for self-running, and collects dust while running on its own. It is.
  • a lid 3 On the upper surface of the main body housing 2, a lid 3 that opens and closes when the dust collecting unit 30 (see FIG. 4) is taken in and out, an operation panel 5 that inputs instructions to the robot cleaner 1, and will be described later.
  • a signal receiving unit 6 that receives a feedback signal from the charging base 40 and a signal from a remote controller (not shown), and an exhaust port 7 through which air from which dust has been removed by the dust collecting unit 30 are exhausted are provided. Further, a sound input unit 8 and a sound output unit 9 are provided on the side surface of the main body housing 2, and a pair of side brushes 10 are provided on the bottom end of the main body housing 2.
  • FIG. 2 shows an example of the operation panel 5.
  • the operation panel 5 is provided so that a start and stop button 51 for instructing start and stop of cleaning, a mode selection button 52 for selecting a cleaning mode, a current time and a reserved time for operating the robot cleaner 1 can be set.
  • Timer set button 53 time display unit 54 for displaying the current time and reserved time, a garbage disposal lamp 55 that is turned on when it is detected that the dust collecting container 31 described later is full, and the charge amount of the battery 16 described later.
  • a battery mark 56 indicating the above.
  • FIG. 3 is a bottom view of the robot cleaner 1.
  • a pair of drive wheels 12 are provided on the bottom surface of the main body housing 2 so as to protrude from the bottom surface.
  • the robot cleaner 1 advances and retreats, and when both wheels rotate in the opposite direction, the robot cleaner 1 changes direction.
  • the traveling direction when the robot cleaner 1 performs self-running and cleaning is defined as the forward direction, and is indicated by an arrow (upward when viewed from the paper surface) in FIG.
  • the direction opposite to the traveling direction is the rear.
  • a dust suction port 33, a pair of side brushes 10 that rotate on a rotation axis perpendicular to the floor surface, and a front wheel 13 are provided in front of the bottom surface of the main body housing 2, and a rear wheel 14 is provided at the rear of the bottom surface. Is provided.
  • the suction port 33 is recessed on the bottom surface of the cleaner so that the open surface faces the floor surface.
  • a rotating brush 11 that rotates on a rotating shaft that is supported in parallel with the floor surface is disposed inside the suction port.
  • FIG. 4 (a) shows a schematic view of the robot cleaner 1 in FIG. 3 taken along line AA.
  • the robot cleaner 1 is in a charged state.
  • the robot cleaner 1 includes a dust collection unit 30, an electric blower 15, a battery 16, and a control board 17 inside the main body housing 2.
  • the dust collection unit 30 includes a bottomed dust collection container 31 and a filter 32 provided on the top of the dust collection container 31.
  • the lid 3 can be opened and the dust collecting part 30 can be taken out from the main body housing 2.
  • FIG. 4B shows a cross-sectional view of the dust collecting unit 30 taken out from the robot cleaner 1.
  • the dust collection part of this invention is not limited only to a dust collection container.
  • the dust collecting part of the present invention may be configured with only a bag-shaped dust collecting bag or a dust collecting filter.
  • the dust collecting unit 30 communicates with the first intake passage 34 and the second intake passage 35.
  • the airflow sucked from the suction port 33 flows through the first intake passage 34 rearward as shown by the arrow B1 and flows into the dust collecting unit 30.
  • the airflow that flows into the dust collection unit 30 collects dust by the filter 32 and flows out of the dust collection unit 30.
  • the second intake passage 35 is circulated forward and flows into the electric blower 15.
  • the air is exhausted upward and rearward as indicated by an arrow B ⁇ b> 3 from an exhaust port 7 provided on the upper surface of the main body housing 2.
  • an ion generator (not shown) may be provided in the vicinity of the electric blower 15, and in that case, an air flow containing ions is exhausted from the exhaust port 7.
  • the battery 16 is a power supply source of the robot cleaner 1.
  • the battery 16 is supplied with power, and the electric blower 15, the drive wheel 12, the rotating brush 11, and the side brush 10 are driven. .
  • the robot cleaner 1 is self-propelled in a predetermined cleaning area, and dust on the floor surface F is sucked from the suction port 31.
  • the battery 16 is preferably a large-capacity rechargeable battery that can be repeatedly charged and discharged.
  • a lead battery, a nickel metal hydride battery, or a lithium ion battery is used.
  • a charging terminal 4 that charges the battery 16 is provided at the rear end of the peripheral surface of the main body housing 2.
  • the control board 17 is provided with a control circuit that controls each part of the robot cleaner 1.
  • FIG. 5 shows a perspective view of the charging stand 40.
  • the charging stand 40 is a device for charging the battery (power supply means) 16 of the robot cleaner 1.
  • a power supply terminal 41 is provided at a position facing the peripheral surface of the main body housing 2 and in contact with the charging terminal 4 of the robot cleaner 1.
  • the charging terminal 4 of the robot cleaner 1 is electrically connected to the power supply terminal 41 of the charging stand 40, the current from the commercial power source connected to the charging stand 40 flows to the self-propelled cleaner 1, It can be charged.
  • the charging stand 40 is provided with a signal transmission unit (wireless transmission unit) 42 that transmits a feedback signal indicating the installation location of the charging stand 40 and the position of the power supply terminal 41.
  • a signal transmission unit wireless transmission unit
  • the robot cleaner 1 detects a feedback signal emitted from the charging stand 40 to the place where the charging stand 40 is installed.
  • the end of cleaning may be detected, for example, by detecting that the robot cleaner 1 has moved a certain distance or a certain time has passed.
  • it may be performed by receiving an instruction prompting the user to return to the charging stand 40 such as a cleaning end instruction or an interruption instruction by the operation panel 5 or the remote control device.
  • an infrared signal is transmitted as the feedback signal. If the robot cleaner 1 is separated from the charging stand 40, the feedback signal is always transmitted from the signal transmission unit 42.
  • an infrared signal is transmitted from the signal transmission unit 42.
  • infrared communication methods can be widely used, for example, IrDA (Infrared Data Association) or the like.
  • the communication method may be performed by a method other than infrared rays.
  • a communication method using wireless LAN (Local Area Network) such as IEEE802.11 or short-range wireless such as Bluetooth (registered trademark) may be used.
  • FIG. 6 shows a configuration of the robot cleaner 1 according to one embodiment of the robot apparatus of the present invention.
  • the robot cleaner 1 includes a control unit 100, an operation panel 5, a sound input unit 8, a dust collection unit 30, a battery 16, a storage unit 200, a signal reception unit 6, and a sound output.
  • Unit 9 travel drive unit 101, drive wheel 12, rotary brush drive unit 102, rotary brush 11, side brush drive unit 103, side brush 10, electric blower 15, and ion generator 18. I have.
  • the control unit 100 is provided on the control board 17 described above, and based on programs and data stored in the storage unit 200 and instructions input from the operation panel 5 or the remote control device, various types of the robot cleaner 1 are provided. Control the operation.
  • the traveling drive unit 101 includes drive wheel motors and the drive units for these motors, and drives the drive wheels 12 by determining a rotation direction, a rotation angle, and the like based on a control signal from the control unit 100.
  • the rotating brush driving unit 102 includes a rotating brush motor and the like and a driving unit for these motors, and determines the number of rotations and the like based on a control signal from the control unit 100 to drive the rotating brush 11.
  • the side brush drive unit 103 includes a side brush motor and the like and their drive units, and drives the side brush 10 by determining the rotational speed and the like based on a control signal from the control unit 100.
  • FIG. 7 shows a detailed configuration of the storage unit 200 and the control unit 100 of the robot cleaner 1 in FIG. In FIG. 7, the description of a part of the configuration in FIG. 6 is omitted.
  • the storage unit 200 includes a cleaning number storage unit 201, a calculated value storage unit 210, and a sound information storage unit (information storage unit) 220.
  • the cleaning number storage unit 201 stores the number of cleanings performed by the robot cleaner 1 every day as the number of cleanings. Note that the number of cleanings recorded in the cleaning number storage unit 201 is once stored in the control unit 100 and then updated.
  • the calculation value storage unit 210 stores an emotion calculation value M1, which is a parameter used for calculation performed by the emotion calculation unit 122, which will be described later, and includes a cleaning count calculation value storage unit 211, a dust amount calculation value storage unit 212, and a remaining battery level.
  • a calculation value storage unit 213 and an event calculation value storage unit 214 are included.
  • the cleaning frequency calculation value storage unit 211 stores the emotion calculation value M1 in association with the cleaning frequency.
  • Table 1 shows an example of the emotion calculation value M1 stored in association with the number of cleanings.
  • the number of cleanings indicates the number of cleanings in the most recent week, and types 1 to 3 indicate the types of personality of the robot cleaner. As shown in Table 1, the number of cleanings is divided into three stages: “less than 4 times”, “more than 4 times but less than 7 times”, and “more than 7 times”.
  • Emotion calculation value M1 is associated.
  • the emotion of the robot cleaner 1 is determined based on the emotion value M calculated using the emotion calculation value M1, the vocabulary and music are selected based on the determined emotion, and the robot Sound is output from the vacuum cleaner.
  • the dust amount calculation value storage unit 212 stores the emotion calculation value M1 in association with the dust amount of the dust collection unit 30.
  • Table 2 shows an example of the emotion calculation value M1 stored in association with the dust amount of the dust collection unit 30.
  • the dust amount of the dust collecting unit 30 is determined from the current value of the electric blower 15. Specifically, when the current value is less than 1.4A, it is determined that the amount of dust is large, and when it is 1.4A or more and less than 1.6A, the amount of dust is determined to be normal and is 1.6A or more. When it is judged that the amount of dust collection is small. As shown in Table 2, the amount of dust is divided into three levels, “large”, “normal”, and “low”, and an emotion calculation value M1 for each personality type is associated with each level. Yes.
  • the battery remaining amount calculation value storage unit 213 stores the emotion calculation value M1 in association with the battery remaining amount of the battery 16.
  • Table 3 shows an example of the emotion calculation value M1 stored in association with the remaining battery level. As shown in Table 3, the amount of current is divided into three levels: “less than 20%”, “20% or more and less than 90%”, and “90% or more”. Emotion calculation value M1 is associated.
  • the event calculation value storage unit 214 is an event that occurs when the user calls out to the robot cleaner 1 or when the dust collecting unit 30 is removed from the main body housing 2 and discarded.
  • the emotion calculation value M1 is stored in association with each other.
  • An example of the operation value M1 stored is shown in Table 4.
  • Table 4 a “panel input event” that occurs when there is an input from the panel operation unit 5, a “sound input event” that occurs when there is an input from the sound input unit 9, a signal receiving unit 6 "signal input event” that occurs when there is an input (reception) from the remote control device, "dust collector removal event” that occurs when the dust collector 30 is removed from the body housing 2, robot A “return success event” that occurs when the vacuum cleaner 1 successfully returns to the charging base 40 and charging of the battery 16 from the charging base 40 starts, and occurs when the robot cleaner 1 fails to return to the charging base 40.
  • the emotion calculation value M1 for each personality type is associated with the “return failure event”. As will be described in detail later, the emotion of the robot cleaner 1 is determined based on the emotion value M calculated using the emotion calculation value M1, the vocabulary and music are selected based on the determined emotion, and the robot Sound is output from the vacuum cleaner 1.
  • the sound information storage unit 220 stores vocabulary or music sound information output to the outside by the sound output unit 9.
  • the sound information storage unit 220 includes a first sound information storage unit 221 and a second sound information storage unit 222.
  • the first sound information storage unit 221 stores first sound information that is sound information output regardless of the emotion determined by the emotion determination unit (calculation unit) 120.
  • Table 5 shows an example of the data table of the first sound information (first information). As shown in Table 5, the first sound information is stored in association with the numbers 1001 to 1017. When any one of the numbers 1001 to 1017 is designated, the corresponding sound information is stored in the sound output unit. 9 is output as sound.
  • the second sound information storage unit 222 stores second sound information (second information) that is sound information output based on the emotion determined by the emotion determination unit 120.
  • Table 6 shows an example of the data table of the second sound information. As shown in Table 6, the second sound information is stored in association with numbers 1101 to 1104. In addition, the second sound information is associated with any emotion of “upper mood”, “normal”, and “bad mood” determined by the emotion determination unit 120.
  • the emotion value level is “good feeling”, 1101A to 1104A are output.
  • 1101B to 1104B are output.
  • the emotion value level is “moody”, 1101C to 1104C are output.
  • the sound information stored for one number may be composed of a plurality of distinguishable vocabulary or music information. For example, “Good morning cleaning start” may be stored in the number 1003. "Music C music D” may be stored in the number 1104A. (Configuration of control unit)
  • the control unit 100 includes a detection unit 110, an emotion selection unit 120, and a sound output control unit 130.
  • the detection unit 110 detects the occurrence of an event related to the robot cleaner 1.
  • the detection unit 110 includes a panel operation detection unit 111, a sound detection unit 112, a dust collection unit detection unit 113, a battery remaining amount detection unit 114, and a signal detection unit 115.
  • the control unit 100 performs control related to operation instructions such as a cleaning start instruction, a cleaning end instruction, a cleaning pause instruction, a moving direction change instruction, a main body turning instruction, and a return instruction to the charging stand 40. .
  • the panel operation detection unit 111 detects whether or not an input indicating an operation instruction is received on the operation panel 5, and determines that a panel input event has occurred when an input indicating an operation instruction is detected.
  • the dust collection unit detection unit 113 detects the amount of dust in the dust collection unit 30 and whether or not a removal event of the dust collection unit 30 has occurred. As described above, the amount of dust in the dust collection unit 30 is detected from the current value of the electric blower 15. The removal event of the dust collecting unit 30 is detected from a signal of a proximity sensor (not shown) that is arranged inside the robot cleaner 1 and detects the presence or absence of the dust collecting unit 30.
  • the signal detection unit 115 detects that the signal reception unit 6 has received (received) a feedback signal from the charging stand 40 and a signal related to an operation instruction from the remote control device.
  • the emotion determination unit 120 includes a calculation value determination unit 121 and an emotion calculation unit 122.
  • the calculation value determination unit 121 uses the emotion calculation value M1, which is a parameter used for calculation performed by the emotion calculation unit 122 when determining the emotion value M, as the number of cleanings, the amount of dust in the dust collection unit, the remaining battery level, or the occurrence event. Determine based on.
  • the calculation value determination unit 121 first acquires the number of cleanings in the period T stored in the control unit 100. Then, the emotion calculation value M ⁇ b> 1 stored in the cleaning number calculation value storage unit 211 is acquired in association with the acquired total number of cleaning times.
  • the calculation value determining unit 121 sets “ ⁇ ” as the emotion calculated value M1. 10 ”is acquired. Similarly, when the total number of cleanings is less than 4 and the personality of the self-propelled cleaner 1 is type 2, the calculated value determination unit 121 acquires “ ⁇ 7” as the emotion calculated value M1. Similarly, when the total number of cleanings is less than 4 and the personality of the self-propelled cleaner 1 is type 3, the calculated value determination unit 121 acquires “ ⁇ 5” as the emotion calculated value M1.
  • the emotion calculation unit 122 uses the emotion calculation value M1 determined by the calculation value determination unit 121 to calculate an emotion value M for specifying an emotion using a predetermined calculation formula.
  • Typical examples of the arithmetic expression are the following (Expression 1) to (Expression 3), but are not limited to these, and various arithmetic expressions can be applied.
  • M0 represents the emotion value M when calculated last time.
  • M represents a coefficient (0 or more and 1 or less) that varies according to the elapsed time from the time when the emotion value M was calculated last time. The coefficient m becomes smaller as the elapsed time from the time when the emotion value M is calculated last time is longer.
  • Table 7 shows an example of the coefficient m. As shown in Table 7, a coefficient m is set for each character type of the robot cleaner 1. The coefficient m is set so that the value decreases as time elapses from the time when the previous emotion value M is calculated. For example, if the personality is type 1, the coefficient m is 1 if the elapsed time is less than 1 hour, but the coefficient m is 0.6 if the elapsed time is 18 hours or more.
  • M2 represents a point value acquired as a result of the user executing a predetermined game or the like with a mobile terminal or the like.
  • the point value is transmitted to the robot cleaner 1 via the Internet and a wireless LAN, for example.
  • the emotion calculation value M1 is used as the emotion value M of this time.
  • the previous emotion value M can be reflected in the current emotion value M as time elapses from the previous calculation.
  • Equation 3 it is possible to obtain an emotion value M obtained by adding points acquired as a result of a user playing a predetermined game on a mobile terminal or the like.
  • the emotion calculation unit 122 selects the emotion of the robot cleaner 1 according to the value of the emotion value M obtained as the calculation result. For example, when the emotion value M is 25 or more, “good feeling” is selected, when the emotion value M is ⁇ 25 or more and less than 25, “normal” is selected, and when the emotion value M is less than ⁇ 25, “dislike” is selected.
  • the calculated value determination unit 121 can acquire the emotion calculated value M1.
  • the calculated value determining unit 121 can acquire the emotion calculated value M1 by referring to the data table of Table 4.
  • the sound output control unit 130 causes the sound output unit 9 to output vocabulary or music corresponding to the sound information stored in the sound information storage unit 220.
  • the first sound information stored in the first sound information storage unit 221 is output regardless of the emotion determined by the emotion determination unit 122. Specifically, when the detection unit 110 detects the occurrence of an event related to the robot cleaner 1, one of the numbers shown in Table 5 is designated, and the vocabulary or music corresponding to the sound information of the designated number is output. Is done.
  • the second sound information stored in the second sound information storage unit 222 is output after being selected from a plurality of sound information based on the emotion determined by the emotion determination unit 122. Specifically, when the detection unit 110 detects the occurrence of an event related to the robot cleaner 1, one of the numbers shown in Table 6 is designated, and the emotion determination unit is selected from a plurality of sound information of the designated numbers. The sound information associated with the emotion determined by 122 is selected, and the vocabulary or music corresponding to the selected sound information is output.
  • the robot cleaner 1 includes the battery 16 as the power supply means to the robot apparatus.
  • the robot cleaner 1 is directly connected to the robot cleaner 1 from a commercial power source. Power may be supplied. Further, the battery 16 and a commercial power source may be used in combination.
  • the detection unit 110 detects a power supply state such as the presence or absence of power supply from the commercial power supply to the robot cleaner 1 and an instantaneous voltage drop.
  • Emotion determination unit 120 is configured to determine an emotion based on the power supply state detected by detection unit 110.
  • FIG. 8 is a flowchart illustrating the processing flow of the first embodiment.
  • step is represented by “S”.
  • S represents “step”.
  • the detection unit 110 detects the occurrence of an event related to the robot cleaner 1 (S11).
  • the control unit 100 designates sound information corresponding to the detected event (S12).
  • the sound information is specified by specifying a specific number in the data table exemplified in Tables 5 and 6.
  • the control unit 100 determines whether the designated sound information is the first sound information or the second sound information (S13). For example, it can be determined whether the first sound information or the second sound information is based on a designated number.
  • the first sound information is stored in association with numbers 1001 to 1017
  • the second sound information is stored in association with numbers 1101 to 1104.
  • the calculation value determination unit 121 refers to the calculation value storage unit 210 to determine the emotion calculation value M1. Then, the emotion calculation unit 122 calculates the emotion value M using the emotion calculation value M1 determined in step S14 (S15), and selects an emotion according to the value of the emotion value M (S16). And the sound output control part 130 selects the sound information corresponding to the selected emotion by referring to the 2nd sound information storage part 214 (S17), and outputs it from the sound output part 9 (S18).
  • control unit 100 determines in S13 that the designated sound information is the first sound information
  • the process proceeds to S18 without determining the emotion of the robot cleaner 1, and the designated sound information is output. Is done.
  • the detection unit 110 detects the occurrence of an event and the number 1101 is designated as sound information to be output will be described as an example.
  • S13 it is determined that the designated number is the second sound information.
  • the process proceeds to a step of determining an emotion, and an emotion is selected in S16.
  • the selected emotion is “good feeling”, based on the data table shown in Table 6, “best” of the number 1101A is selected from the second sound information. If the selected emotion is “normal”, “so-so” with the number 1101B is selected from the second sound information.
  • the selected emotion is “moody”, “I want to refresh” number 1101C is selected from the second sound information. Then, the vocabulary or music corresponding to the selected second sound information is output from the sound output unit 9.
  • the detection unit 110 detects the occurrence of an event and the number 1001 is designated as sound information to be output will be described as an example.
  • the process proceeds to S18 without determining the emotion of the robot cleaner 1. Then, based on the data table shown in Table 5, “OK” of the number 1001 is selected from the first sound information and output from the sound output unit 9.
  • the sound corresponding to the designated first sound information and the sound corresponding to the second sound information selected based on the emotion of the robot cleaner 1 can be output by simple means. It is possible to output a lot of sound. Moreover, since the sound corresponding to 1st sound information is not changed based on the emotion of the robot cleaner 1 among the sounds output, the user can recognize the content of the sound which the robot cleaner 1 outputs correctly. The state of the robot cleaner 1 can be correctly grasped. (Example 2) In Example 2, the case where the robot cleaner 1 connects and outputs the first sound information and the second sound information will be described.
  • FIG. 9 is a flowchart illustrating the processing flow of the second embodiment. Description of the steps for performing the same processing as in the first embodiment is omitted. First, the detection part 110 detects generation
  • the control unit 100 determines whether the sound information to be output is the first sound information or the second sound information (S23).
  • the emotion determination unit 120 determines an emotion even when it is determined that the sound information output in S23 is the first sound information.
  • the sound output control unit 130 refers to the second sound information storage unit 222 and selects the second sound information (S27). The selection of the second sound information may be performed arbitrarily from the sound information corresponding to the emotion or may be specified.
  • the sound output control unit 130 connects the sound corresponding to the designated first sound information and the sound corresponding to the selected second sound information, and outputs the sound from the sound output unit 9 (S28).
  • the sound may be output by connecting the second sound information before the first sound information, such as “second sound information first sound information”, and the “first sound information second sound information”
  • the second sound information may be connected after the first sound information to output the sound
  • the second sound information before and after the first sound information such as “second sound information, first sound information, second sound information”. May be connected to output sound.
  • a case will be described as an example where the detection unit 110 detects the occurrence of an event and “start cleaning” of the number 1011 is designated as sound information to be output.
  • S23 it is determined that the designated number is the first sound information.
  • the process proceeds to a step of determining an emotion, and an emotion is selected in S26.
  • the selected emotion is “good feeling”
  • one of the numbers 1101A to 1104A is arbitrarily selected from the second sound information based on the data table shown in Table 6. If the selected emotion is “normal”, one of the numbers 1101B to 1104B is randomly selected from the second sound information. If the selected emotion is “moody”, one of 1101C to 1104C is randomly selected from the second sound information (S27). The description will be continued on the assumption that “best” of number 1101A is selected from the second sound information.
  • the sound output control unit 130 connects the “start cleaning” of the number 1011 that is the designated first sound information with the “best condition” of the selected second sound information, and outputs the sound from the sound output unit 9. (S28). For example, “sounding clean start”, “cleaning start superb”, and “perfect cleaning start superb” are output.
  • the output corresponding to the sound corresponding to the first sound information and the sound corresponding to the second sound information is not limited to the case where there is no time during which no sound is output between the sounds that are connected and output. Including the case where there is. That is, it widely includes the case where the sound corresponding to the first sound information and the sound corresponding to the second sound information are continuously output.
  • the sound corresponding to the designated first sound information and the sound corresponding to the second sound information selected based on the emotion of the robot cleaner 1 are connected and output, so that simple means can be obtained. This makes it possible to output sound with many variations. Moreover, since the sound corresponding to 1st sound information is not changed based on the emotion of the robot cleaner 1 among the sounds output, the user can recognize the content of the sound which the robot cleaner 1 outputs correctly. The state of the robot cleaner 1 can be correctly grasped. (Other examples) When the robot cleaner 1 outputs the first sound information and the second sound information connected to each other, the second sound information selected in S27 of FIG. 9 may be plural.
  • the designated first sound information is “Please throw away the trash” of the number 1015, and “I want to refresh” of the number 1101C from the second sound information based on the selected “moody” character. Assume that the “lowest mood” of number 1104C is selected.
  • the output control unit 130 connects the sound information and outputs it from the sound output unit 9 like “I want to refresh, please throw away the trash.
  • the robot cleaner 1 has been described as the robot apparatus according to the present invention, but other sounds such as a robot for helping with housework, an air cleaning robot, a security robot, or a pet robot are output. It can be widely applied to robot devices.
  • control board 17 including all or the main part of the control unit 100 and the storage unit 200 may be distributed as a unit, and may be manufactured as a finished product by being incorporated in the main body.
  • control unit of the robot apparatus may be configured as hardware by a logic circuit formed on an integrated circuit (IC chip), or using a CPU (Central Processing Unit) as follows. It may be realized by software.
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • a robot cleaner will be described below with reference to the drawings as another embodiment of the robot apparatus according to the present invention. For convenience of explanation, members having the same functions as those in the first embodiment are denoted by the same member numbers and description thereof is omitted.
  • the emotion determination unit determines the emotion of the robot cleaner from three stages of “upper mood”, “ordinary”, and “unpleasant mood” based on the event that occurred regarding the robot cleaner (calculation) Equivalent to the result), a configuration in which sound information (information to be output) is selected based on the emotion and the sound is output from the robot cleaner is illustrated.
  • information information to be output
  • information such as characters and images is selected based on the emotion and transmitted and output from the robot cleaner.
  • FIG. 10 shows a schematic diagram of a robot cleaner connected to a communication network according to another embodiment of the present invention.
  • the robot cleaner 1 ⁇ / b> A is connected to a LAN (Local Area Network) in a house 95 by a wireless LAN base station 90.
  • the robot cleaner 1 ⁇ / b> A is configured to transmit and receive information to and from the user's mobile terminal 93 via the Internet 91 and the mobile terminal communication network 92.
  • the portable terminal 93 has a display unit 94 that displays characters, images, and the like.
  • a wireless unit 19 is provided inside the main body housing 2 (see FIG. 1).
  • the wireless unit 19 is provided with an IP (Internet Protocol) address and a URL (Uniform Resource Locator), and can transmit and receive information using HTTP (Hyper Text Transfer Protocol). For example, transmission / reception of information is performed by transmitting / receiving an electronic mail to / from the mobile terminal 93 according to SMTP (Simple Mail Transfer Protocol).
  • IP Internet Protocol
  • URL Uniform Resource Locator
  • information transmission from the robot cleaner 1A a case where the robot cleaner 1A transmits an e-mail to the mobile terminal 93 will be described.
  • information transmission from the robot cleaner 1A is not limited thereto.
  • the present invention includes a case where information is transmitted to an external server (not shown) so as to be described on a web page such as a so-called blog or mini-blog.
  • FIG. 11 shows a configuration of a robot cleaner according to another embodiment of the robot apparatus of the present invention.
  • the robot cleaner 1A includes a wireless unit 19 in place of the sound output unit 9 included in the robot cleaner 1 (see FIG. 6).
  • FIG. 12 shows the configuration of the storage unit 200A and the control unit 100A of the robot cleaner 1A in FIG.
  • the control unit 100 ⁇ / b> A includes a wireless control unit 140 instead of the sound output control unit 130 included in the control unit 100 of the robot cleaner 1 (see FIG. 7).
  • the storage unit 200A includes an information storage unit 220A instead of the sound information storage unit 220 provided in the storage unit 200 of the robot cleaner 1 (see FIG. 7).
  • the emotion of the robot cleaner A1 is determined based on the emotion value M calculated using the emotion calculation value M1, information to be transmitted is selected based on the determined emotion, and the robot It is transmitted (output) from the vacuum cleaner 1A.
  • the information storage unit 220A stores character information and image information output to the outside by the wireless unit 19.
  • the information storage unit 220A includes a first information storage unit 221A and a second information storage unit 222A.
  • the first information storage unit 221A stores first information output regardless of the emotion determined by the emotion determination unit 120.
  • Table 8 shows an example of the data table of the first information. As shown in Table 8, the first information is stored in association with the numbers 1001 to 1010, and when any one of the numbers 1001 to 1010 is designated, the corresponding information is transmitted from the wireless unit 19. Is output.
  • the second information storage unit 222A stores the second information output based on the emotion determined by the emotion determination unit 120.
  • Table 9 shows an example of the data table of the second information.
  • the second information is stored in association with the numbers 1101 to 1104.
  • the second information is associated with any of the emotions from the three stages of “upper mood”, “ordinary”, and “bad mood” determined by the emotion determination unit 120. Specifically, when the emotion value level is “good feeling”, 1101A to 1104A are output. When the emotion value level is “normal”, 1101B to 1104B are output. Further, when the emotion value level is “moody”, 1101C to 1104C are output.
  • both information of the character and the image are stored for one number. May be stored. For example, “cleaning starts. Image A” may be stored in the number 1001, and “excellent. Image C” may be stored in the number 1101 A.
  • the information stored in the robot cleaner 1A may be voice or moving picture information, pictorial characters represented by special character codes or tags, and the like.
  • M2 in Expression 3, which is a typical example of an arithmetic expression in which the emotion calculation unit 122 in the emotion determination unit 120 calculates the emotion value M, is performed by the user using a portable terminal 93 (see FIG. 10) or the like. It represents the point value obtained as a result. The point value is transmitted to the robot cleaner 1 ⁇ / b> A via the communication network and received by the wireless unit 19.
  • the wireless control unit 140 controls transmission / reception of information of the wireless unit 19.
  • the information received by the wireless unit 19 may be an operation instruction of the robot cleaner 1A or an operation reservation instruction other than the point value M2 transmitted from the user.
  • the information transmitted from the wireless unit 19 is the first information and the second information stored in the information storage unit 220A.
  • the first information is output without being based on the emotion determined by the emotion determination unit 122. Specifically, when the detection unit 110 detects the occurrence of an event related to the robot cleaner 1A, one of the numbers shown in Table 8 is specified, and information of the specified number is output.
  • the second information is selected from a plurality of pieces of information based on the emotion determined by the emotion determination unit 122 and output. Specifically, when the detection unit 110 detects the occurrence of an event related to the robot cleaner 1A, one of the numbers shown in Table 9 is designated, and the emotion determination unit 122 is selected from a plurality of pieces of information of the designated number. The information associated with the emotion determined by is selected and output.
  • FIG. 13 is a flowchart illustrating the flow of processing according to the third embodiment.
  • step is represented by “S”.
  • S represents “step”.
  • the detection unit 110 detects the occurrence of an event related to the robot cleaner 1A (S31).
  • the control unit 100 designates information corresponding to the detected event (S32). For example, the designation of information is performed by designating a specific number of the data table exemplified in Tables 8 and 9.
  • control unit 100 determines whether the designated information is the first information or the second information (S33). For example, it can be determined whether the first information or the second information is based on a designated number.
  • the first information is stored in association with the numbers 1001 to 1010, and the second information is stored in association with the numbers 1101 to 1104.
  • the calculated value determining unit 121 refers to the calculated value storage unit 210 and calculates the emotion calculated value M1. To decide. Then, the emotion calculation unit 122 calculates the emotion value M using the emotion calculation value M1 determined in step S34 (S35), and selects an emotion according to the value of the emotion value M (S36). Then, the wireless control unit 140 selects information corresponding to the selected emotion by referring to the second information storage unit 222A (S37). Then, the wireless control unit 140 transmits the selected information from the wireless unit 19 to the user's portable terminal 93 by e-mail. (S38). The user can check the characters and images displayed on the display unit 94 by operating the mobile terminal 93 to open the e-mail.
  • control unit 100 determines in S33 that the specified information is the first information (in the case of NO)
  • the process proceeds to S38 without determining the emotion of the robot cleaner 1A.
  • the information is transmitted from the wireless unit 19 to the user's portable terminal 93 by electronic mail.
  • the detection unit 110 detects the occurrence of an event and the number 1101 is designated as output information will be described as an example.
  • S33 it is determined that the designated number is the second information.
  • the process proceeds to a step of determining an emotion, and an emotion is selected in S36.
  • the selected emotion is “good feeling”, based on the data table shown in Table 9, “best” of the number 1101A is selected from the second information. If the selected emotion is “normal”, “so-so” of the number 1101B is selected from the second information. If the selected emotion is “moment”, “I want to refresh” number 1101C is selected from the second information. Then, the selected information is transmitted from the wireless unit 19 by e-mail.
  • the detection unit 110 detects the occurrence of an event and the number 1001 is designated as information to be output will be described as an example.
  • the process proceeds to S38 without determining the robot cleaner 1A emotion. Then, based on the data table shown in Table 8, “Start cleaning” of the number 1001 is selected from the first information, and is transmitted from the wireless unit 19 by e-mail.
  • FIG. 14 is a flowchart illustrating a process flow of the fourth embodiment. Description of the steps for performing the same processing as in the third embodiment is omitted.
  • the detection part 110 detects generation
  • the control unit 100 designates information corresponding to the detected event (S42).
  • the control unit 100 determines whether the information to be output is the first information (S43).
  • the emotion determination unit 120 determines the emotion.
  • the wireless control unit 140 selects the second information with reference to the second information storage unit 222A. The selection of the second information may be performed arbitrarily from information corresponding to emotions or may be specified.
  • the wireless control unit 140 connects the designated first information and the selected second information, and outputs them from the wireless unit 19 (S48).
  • the second information may be connected before the first information, such as “second information + first information”, and the output may be “first information + second information”.
  • the second information may be output after being connected to the first information, and the second information may be output before and after the first information as “second information + first information + second information”. You may connect and output the information.
  • the combined information is transmitted from the wireless unit 19 by electronic mail.
  • the detection unit 110 detects the occurrence of an event and designates “start cleaning” as the information to be output will be described as an example.
  • S43 it is determined that the designated number is the first information. Then, the process proceeds to a step of determining an emotion, and an emotion is selected in S46.
  • the selected emotion is “good feeling”, one of the numbers 1101A to 1104A is arbitrarily selected from the second information based on the data table shown in Table 9. If the selected emotion is “normal”, one of the numbers 1101B to 1104B is randomly selected from the second information. If the selected emotion is “moody”, one of 1101C to 1104C is randomly selected from the second information (S47). The description will be continued on the assumption that “the best” of the number 1101A is selected from the second information.
  • the wireless control unit 140 connects the designated first information “start cleaning” with the number 1001 and the selected second information “excellent”. For example, it can be linked to “Great condition. Start of cleaning.”, “Start of cleaning. Then, the connected information is transmitted by electronic mail from the wireless unit 19 (S48).
  • the robot cleaner 1A outputs the first information and the second information connected to each other, the second information selected in S47 of FIG. 14 may be plural.
  • the designated first information is “Start reserved driving” with the number 1004, and “I want to refresh” with the number 1101C from the second information based on the selected “moody” personality. ”And“ lowest mood ”of number 1104C are selected.
  • the radio control unit 140 connects the information and outputs it from the radio unit 19 as “I want to refresh. The reservation operation starts. The lowest mood”.
  • the robot cleaner 1A may insert images, moving images, sounds, pictographs and the like into the text and transmit them, or may transmit files such as images attached to the e-mail.
  • the user can check an image output from the display unit 94 of the mobile terminal or a sound output unit (not shown) by operating the mobile terminal 93. In this case, the user who has received the information can recognize the information visually or audibly.
  • the robot cleaner 1A may transmit information to be output to a server (not shown) connected to the communication network or a management device (not shown) of the robot cleaner 1A.
  • the user can check the information transmitted from the robot cleaner 1 ⁇ / b> A by operating the mobile terminal 93 to refer to the server or the management device or download the file.
  • the user can collectively check the information transmitted from the robot cleaner 1A, the operating state of the robot cleaner 1A, the occurrence of an event, the mood of the robot cleaner 1A. Etc. can be confirmed.
  • the wireless LAN base station 90 is used as the communication network in the house 95 .
  • a short-range wireless base station such as Bluetooth (registered trademark) may be used. Further, it may be connected to a communication network in the house 95 by wire.
  • the robot cleaners 1 and 1A have been described as the robot apparatus according to the present invention.
  • the present invention can be widely applied to a robot device that outputs information, such as a security robot or a pet robot.
  • control board 17 including all or the main parts of the control units 100 and 100A and the storage units 200 and 200A is distributed as a unit and manufactured as a finished product by being incorporated in the main body. Good.
  • at least a part of the control unit of the robot apparatus may be configured as hardware by a logic circuit formed on an integrated circuit (IC chip), or using a CPU (Central Processing Unit) as follows. It may be realized by software.
  • the robot apparatus When implemented by software, the robot apparatus includes a CPU that executes instructions of a control program that implements each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that develops the program, and the above
  • a storage device such as a memory for storing programs and various data is provided.
  • An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for a robot apparatus, which is software that realizes the functions described above, is recorded in a computer-readable manner This can also be achieved by supplying the robot apparatus and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU (micro processing unit)).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • IC cards including memory cards) / optical cards, mask ROM / EPROM (Erasable Programmable Read Only Memory) / EEPROM (registered trademark) (Electrically Erasable Programmable Read-Only Memory) / flash ROM, etc.
  • Semiconductor memories, logic circuits such as PLD (Programmable logic device), and the like can be used.
  • the robot apparatus may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN (Integrated Services Digital Network), VAN (value added network), CATV communication network, virtual private network (virtual private network), A telephone line network, a mobile communication network, a satellite communication network, etc. can be used.
  • the transmission medium constituting the communication network is not particularly limited, and may be, for example, IEEE1394, USB (Universal Serial Bus), power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line or the like.
  • the robot apparatus includes a sound output unit that outputs sound, a detection unit that detects occurrence of an event based on the detection information, and a sound that stores sound information that is a sound signal output from the sound output unit.
  • Information storage means and the sound information storage means stores a single first sound information corresponding to the first event and a plurality of second sound information corresponding to the second event.
  • the output means outputs sound corresponding to the first sound information and the second sound information, and the second sound information is selected from a plurality of second sound information according to the event.
  • the sound output means outputs the first sound information and the second sound information connected together.
  • the robot apparatus includes information transmission means for transmitting information, detection means for detecting occurrence of an event based on detection information, and information storage means for storing information transmitted from the information transmission means,
  • the information storage means stores single first information corresponding to the first event and a plurality of second information corresponding to the second event, and the information transmission means includes the first information And the second information is transmitted, and the second information is selected from a plurality of second information in accordance with an event.
  • the information transmission means outputs the first information and the second information connected to each other.
  • the robot apparatus preferably further includes power supply means for supplying power to the robot apparatus, and the detection means preferably detects a power supply state from the power supply means as an event.
  • the robot apparatus according to the present invention further includes cleaning means for cleaning, and the detection means detects information related to cleaning as an event.
  • the robot apparatus preferably further includes a cleaning number storage means for storing the number of times cleaning has been performed, and the detection means preferably detects the number of times as an event.
  • the robot apparatus preferably further includes a dust collection unit that collects dust removed by the cleaning unit, and the detection unit detects the amount of dust in the dust collection unit as an event.
  • the robot apparatus may be realized by a computer.
  • a control program for the robot apparatus that causes the robot apparatus to be realized by the computer by operating the computer as the above-described means, and a computer reading that records the program.
  • Possible recording media also fall within the scope of the present invention.
  • a robot apparatus, a control program, and a computer-readable recording apparatus that records the control program according to the present invention are intended for a robot apparatus having a sound output function and a robot apparatus that outputs information such as characters and images to the outside. Widely available.

Abstract

 ロボット装置は、音を出力する音出力手段(9)と、検知情報に基づいてイベントの発生を検知する検知手段(110)と、音出力手段(9)から出力される音の信号である音情報を記憶する音情報記憶手段(220)とを備え、音情報記憶手段(220)は、第1のイベントと対応した単一の第1音情報と、第2のイベントと対応した複数の第2音情報とを記憶しており、音出力手段(9)は、第1音情報及び第2音情報に対応した音を出力するものであり、第2音情報は、イベントに応じて複数の第2音情報から選択されたものである。これにより、出力される音のバリエーションが多くなっても、使用者がその内容を正しく認識でき、ロボット装置の状態を正しく把握することができる。

Description

ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、ロボット装置等に係り、情報を外部に出力するもので、特に情報としての音を出力するロボット装置、情報としての文字や画像等の情報をロボットの外部に送信するロボット装置等に関する。
 従来、愛玩動物を模したペットロボット等のロボット装置において、使用者に話しかけたり、使用者と会話を行ったりするものが知られている。また、ロボット装置の疑似的な感情状態を規定し、感情に応じて使用者に異なった対応をするロボット装置も知られている。
 例えば、特許文献1では、マイクロフォン、タッチセンサ等の各種センサを備え、センサからの入力情報よりロボットの感情を決定し、決定された感情に基づいてロボットの発する音声の語彙や単語列の順番、合成音のポーズの位置やイントネーションを変更してスピーカから出力するロボットが記載されている。これにより、感情豊かな合成音を出力することができるとされる。
 また、従来、人の代わりに特定の作業を行うロボット装置において、ロボット装置の稼動状態に関する情報や、ロボット装置に発生した異常に関する情報を外部に送信するものも知られている。
 例えば、特許文献2には、内部に無線LANユニットを備えた掃除機ロボットにおいて、掃除機ロボットが稼動中あるいは待機中であること、転倒したこと、又はバッテリ残量が少ない等の情報を、使用者の携帯電話機に対して、電子メールで送信することが記載されている。
日本国公開特許公報「特開2002-304188号公報」 日本国公開特許公報「特開2005-118354号公報」
 しかしながら、特許文献1に記載のロボットでは、出力される音声のバリエーションが多くなるものの、感情が高ぶっていると判断された場合、ロボットが出力する音声の全てが変更されることになる。その結果、ロボットが出力する音声の全てが通常の出力と異なって出力されることから、使用者が音声の内容を正しく認識できない場合があり、ロボットの状態を把握することができないことになるという問題があった。
 また、特許文献2に記載の掃除機ロボットでは、単に掃除機ロボットの稼動状態に関する情報や、掃除機ロボットに発生した異常に関する情報を送信しているのみであり、送信する情報のバリエーションが少なかった。従って、使用者は掃除機ロボットから特定の情報のみを受信することになり、使用者が掃除機ロボットに親しみを感じにくいという問題があった。
 本願発明は、上記の問題点に鑑みてなされたものであり、第1の目的は、出力される音のバリエーションが多くなっても、使用者がその内容を正しく認識でき、ロボット装置の状態を正しく把握することができるロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
 本願発明は、上記の問題点に鑑みてなされたものであり、第2の目的は、出力する情報のバリエーションを多くすることが可能であるロボット装置、制御プログラム、及び制御プログラムを記録したコンピュータ読み取り可能な記録装置を提供することにある。
 本発明に係るロボット装置は、情報を出力する出力手段と、検知情報に基づいてイベントの発生を検知する検知手段と、前記出力手段から出力される情報を記憶する情報記憶手段と、当該ロボット装置の状態に対応付けて予め定められている演算値を用いて演算を行う演算手段とを備え、前記情報記憶手段は、イベントに単一に対応付けられた第1の情報と、イベントと前記演算手段の演算結果に対応付けられた第2の情報とを記憶しており、
 前記出力手段は、前記検知手段にてイベントの発生が検知されると、発生したイベントに応じて第1の情報あるいは第2の情報を出力し、該出力される第2の情報は、前記演算手段の演算結果に対応付けられたものであることを特徴とする。
 本発明に係るロボット装置は、音を出力する音出力手段と、検知情報に基づいてイベントの発生を検知する検知手段と、音出力手段から出力される音の信号である音情報を記憶する音情報記憶手段とを備え、音情報記憶手段は、第1のイベントと対応した単一の第1音情報と、第2のイベントと対応した複数の第2音情報とを記憶しており、音出力手段は、第1音情報及び第2音情報に対応した音を出力するものであり、第2音情報は、イベントに応じて複数の第2音情報から選択されたものであることを特徴とする。
 本発明に係るロボット装置は、情報を送信する情報送信手段と、検知情報に基づいてイベントの発生を検知する検知手段と、情報送信手段から送信される情報を記憶する情報記憶手段とを備え、情報記憶手段は、第1のイベントと対応した単一の第1の情報と、第2のイベントと対応した複数の第2の情報とを記憶しており、情報送信手段は、第1の情報及び第2の情報を送信するものであり、第2の情報は、イベントに応じて複数の第2の情報から選択されたものであることを特徴としている。
 本発明によれば、出力される音のバリエーションが多くなっても、使用者がその内容を正しく認識でき、ロボット装置の状態を正しく把握することができるロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録装置を提供することができる。
 本発明によれば、出力する情報のバリエーションを多くすることが可能であるロボット装置、制御プログラム、及び制御プログラムを記録したコンピュータ読み取り可能な記録装置を提供することができる。
本発明の一実施形態に係るロボット掃除機1の斜視図である。 本発明の一実施形態に係る操作パネル5の模式図である。 本発明の一実施形態に係るロボット掃除機1の底面図である。 本発明の一実施形態に係り、(a)は、図3のロボット掃除機1のA-A線断面における模式図である。(b)は、ロボット掃除機1から取り出した集塵部30の断面図である。 本発明の一実施形態に係る充電台40の斜視図である。 本発明の一実施形態に係るロボット掃除機1の構成を示すブロック図である。 本発明の一実施形態に係り、図6のロボット掃除機1の記憶部200、および制御部100の構成を示すブロック図である。 本発明の実施例1における処理の流れを示すフローチャートである。 本発明の実施例2における処理の流れを示すフローチャートである。 本発明の別の実施形態に係る通信網と接続されるロボット掃除機1の模式図である。 本発明の別の実施形態に係るロボット掃除機1の構成を示すブロック図である。 本発明の別の実施形態に係り、図11のロボット掃除機1の記憶部200、及び制御部100の構成を示すブロック図である。 本発明の実施例3における処理の流れを示すフローチャートである。 本発明の実施例4における処理の流れを示すフローチャートである。
〔第1の実施の形態〕
 以下に、本発明に係るロボット装置の一実形態として、ロボット掃除機について図面を参照して説明する。
 実施形態としては、後述する感情決定部が、ロボット掃除機に関する発生イベントに基づいて、ロボット掃除機の感情を「上機嫌」、「普通」、「不機嫌」の3段階の中から決定し(演算結果に相当)、その感情に基づいて、音情報(出力される情報)が選択され、ロボット掃除機から音出力されるものを一例として説明する。
 なお、以下において、イベントとは、ロボット掃除機の制御部で検知することが可能なロボット掃除機の内部と外部の状態である。例えば、イベントは、バッテリ残量等のロボット掃除機に関するパラメータの値やパラメータの値の変化、ロボット掃除機に対する動作指示や動作の開始又は終了、外部の気温や特定の時間等である。
 また、音情報とは、音の出力手段から出力される、語彙や音楽に関する音の信号である。
(ロボット装置の構造)
 図1は、ロボット掃除機の斜視図である。図1に示すように、ロボット掃除機1は、平面視で円形の本体筐体2と、自走するための駆動輪12(図3参照)とを備え、自走しながら集塵を行う装置である。本体筐体2の上面には、集塵部30(図4参照)を上方に出し入れする際に開閉する蓋部3と、ロボット掃除機1に対して指示入力を行う操作パネル5と、後述する充電台40からの帰還信号および図示しないリモコン装置からの信号を受信する信号受信部6と、集塵部30で塵埃が除去された空気が排気される排気口7とが設けられている。また、本体筐体2の側面には、音入力部8と、音出力部9が設けられており、本体筐体2の底面端部には一対のサイドブラシ10が設けられている。
 図2に操作パネル5の一例を示す。操作パネル5は、掃除の開始および停止を指示するスタート及びストップボタン51と、掃除のモードを選択できるモード選択ボタン52と、現在時刻やロボット掃除機1を稼動させる予約時刻を設定可能に設けられたタイマーセットボタン53と、現在時刻や予約時刻を表示する時刻表示部54と、後述する集塵容器31が満杯になったことを検知すると点灯するごみ捨てランプ55と、後述するバッテリ16の充電量を示すバッテリーマーク56、とを備えている。
 図3はロボット掃除機1の底面図である。図3に示すように、本体筐体2の底面には、底面から突出するように一対の駆動輪12が設けられている。駆動輪12の両輪が同一方向に回転することでロボット掃除機1が進退し、両輪が逆方向に回転することでとロボット掃除機1が方向を転換する。ここで、ロボット掃除機1が自走して掃除を行う際の進行方向を前方とし、図3に矢印(紙面から見て上方)で示す。また、進行方向と逆方向を後方とする。
 本体筐体2の底面前方には、塵埃の吸込口33と、床面と垂直な回転軸で回転する一対のサイドブラシ10と、前輪13とが設けられ、底面後方には、後輪14が設けられている。吸込口33は、開放面を床面に面するように掃除機底面に凹設されている。吸込口の内部には、床面と平行に軸支された回転軸で回転する回転ブラシ11が配されている。
 図4(a)は、図3のロボット掃除機1のA-A線断面における模式図を示している。図4(a)において、ロボット掃除機1は充電状態である。図示するように、ロボット掃除機1は、本体筐体2の内部に集塵部30と、電動送風機15と、バッテリ16と、制御基板17とを備えている。集塵部30は、有底の集塵容器31と、集塵容器31の上部に設けられたフィルタ32とを有している。ここで、集塵容器の塵埃を捨てるときは、蓋部3を開いて、本体筐体2から集塵部30を取り出すことができる。図4(b)に、ロボット掃除機1から取り出した集塵部30の断面図を示す。
 尚、本実施形態では、集塵部30が有底の集塵容器31で構成されている場合を例示しているが、本発明の集塵部は集塵容器にのみ限定されない。例えば袋状の集塵袋や、集塵用のフィルタのみで本発明の集塵部として構成しても良いことは勿論である。
 集塵部30は、第1吸気路34、および第2吸気路35と連通している。吸込口33から吸い込まれた気流は、矢印B1に示すように第1吸気路34を後方に流通し、集塵部30に流入する。集塵部30に流入した気流は、フィルタ32により塵埃を捕集され、集塵部30から流出する。その後、矢印B2に示すように第2吸気路35を前方に流通し、電動送風機15に流入する。次いで、本体筐体2の上面に設けた排気口7から矢印B3に示すように上方後方に排気される。なお、電動送風機15の近傍にイオン発生装置(図示せず)が備えられても良く、その場合は、排気口7からイオンを含む気流が排気される。
 バッテリ16は、ロボット掃除機1の電力供給源であり、掃除運転が指示されると、バッテリ16から給電されて、電動送風機15、駆動輪12、回転ブラシ11、およびサイドブラシ10が駆動される。これにより、ロボット掃除機1は、所定の掃除領域を自走し、吸込口31から床面Fの塵埃が吸い込まれる。バッテリ16は、繰り返し充放電が可能な大容量の充電池が望ましい。例えば、鉛電池、ニッケル水素電池、リチウムイオン電池が用いられる。また、本体筐体2の周面の後端には、バッテリ16の充電を行う充電端子4が設けられている。制御基板17には、ロボット掃除機1の各部を制御する制御回路が設けられる。
 図5は、充電台40の斜視図を示している。図4、5に示すように、充電台40は、ロボット掃除機1のバッテリ(電力供給手段)16を充電するための装置である。充電台40において、本体筐体2の周面と対向する面であって、ロボット掃除機1の充電端子4と接触可能な位置に、給電端子41が設けられている。ロボット掃除機1の充電端子4が充電台40の給電端子41と電気的に接続されると、充電台40が接続した商用電源からの電流が、自走式掃除機1に流れ、バッテリ16を充電させることができる。
 また、充電台40には、充電台40の設置場所、および給電端子41の位置を示す帰還信号を発信する信号送信部(無線送信部)42が設けられている。ロボット掃除機1は、掃除終了を検知した場合あるいはバッテリ16の充電量が所定値を下回った場合には、充電台40から発せられる帰還信号を検知して充電台40の設置されている場所に自動的に帰還する。ここで、掃除終了の検知は、例えば、ロボット掃除機1が、一定距離移動あるいは一定時間経過したことを検知することで行われてもよい。または、操作パネル5あるいはリモコン装置により、掃除終了指示や中断指示等の充電台40への帰還を促す指示を受け付けることで行われてもよい。帰還信号は、例えば、赤外線信号が発信され、ロボット掃除機1が充電台40から離れていれば、信号送信部42から常時に発信される。
 信号送信部42から帰還信号としては、例えば、赤外線信号が発信される。ここで、赤外線での通信方法を広く用いることができ、例えば、IrDA(Infrared Data Association)等を用いることができる。尚、通信方法は、赤外線以外の方法で通信しても良い。例えばIEEE802.11等の無線LAN(Local Area Network)や、Bluetooth(登録商標)等の短距離無線を用いた通信方法でもよい。
(ロボット装置の構成)
 図6に本発明のロボット装置の一実施形態に係るロボット掃除機1の構成を示す。図示するように、ロボット掃除機1は、制御部100と、操作パネル5と、音入力部8と、集塵部30と、バッテリ16と、記憶部200と、信号受信部6と、音出力部9と、走行駆動部101と、駆動輪12と、回転ブラシ駆動部102と、回転ブラシ11と、サイドブラシ駆動部103と、サイドブラシ10と、電動送風機15と、イオン発生装置18とを備えている。
 制御部100は、前述した制御基板17に設けられており、記憶部200に記憶されたプログラムやデータ、ならびに、操作パネル5やリモコン装置から入力された指示に基づいて、ロボット掃除機1の各種動作の制御を行う。
 走行駆動部101は、駆動輪モータ等とそれらモータの駆動部を備え、制御部100からの制御信号に基づき、回転方向、回転角度等を決定して、駆動輪12を駆動させる。
 回転ブラシ駆動部102は、回転ブラシモータ等とそれらモータの駆動部を備え、制御部100からの制御信号に基づき、回転数等を決定して、回転ブラシ11を駆動させる。
 サイドブラシ駆動部103は、サイドブラシモータ等とそれらの駆動部を備え、制御部100からの制御信号に基づき、回転数等を決定して、サイドブラシ10を駆動させる。
 その他、前述の説明と同一の符号を付した構成要素については、同様の機能を有するものとして説明を省略する。
 次に、記憶部200、および制御部100の構成について詳細に説明する。
 図7は、図6におけるロボット掃除機1の記憶部200、および制御部100の詳細な構成を示している。尚、図7では、図6の一部の構成については、記載を省略している。
(記憶部の構成)
 記憶部200は、掃除回数記憶部201と、演算値記憶部210と、音情報記憶部(情報記憶手段)220とを備えている。
 掃除回数記憶部201は、ロボット掃除機1が掃除を実施した回数を掃除回数として、日毎に記憶する。なお、掃除回数記憶部201に記録される掃除回数は、制御部100に一旦格納された後更新される。
 演算値記憶部210は、後述する感情演算部122が行なう演算に用いるパラメータである感情演算値M1を記憶しており、掃除回数演算値記憶部211、塵埃量演算値記憶部212、電池残量演算値記憶部213、およびイベント演算値記憶部214を有している。
 掃除回数演算値記憶部211は、感情演算値M1を掃除回数と対応付けて記憶している。表1に掃除回数と対応付けて記憶される感情演算値M1の一例を示す。表1において、掃除回数は、直近一週間の掃除回数を示しており、タイプ1~3は、ロボット掃除機の性格のタイプを示している。表1に示すように、掃除回数が「4回未満」、「4回以上7回未満」、「7回以上」の3段階に分けられており、各段階に対して、性格のタイプ毎の感情演算値M1が対応付けられている。後で詳述するが、感情演算値M1を用いて演算される感情値Mに基づいて、ロボット掃除機1の感情が決定され、決定された感情に基づいて、語彙や音楽が選択され、ロボット掃除機から音出力される。
Figure JPOXMLDOC01-appb-T000001
 塵埃量演算値記憶部212は、感情演算値M1を集塵部30の塵埃量と対応付けて記憶している。表2に集塵部30の塵埃量と対応付けて記憶される感情演算値M1の一例を示す。ここで、本実施形態においては、集塵部30の塵埃量を電動送風機15の電流値より判断している。具体的には、電流値が1.4A未満であるとき、塵埃量が多いと判断し、1.4A以上1.6A未満であるとき、塵埃量が普通と判断し、1.6A以上であるとき、集塵量が少ないと判断する。
表2に示すように、塵埃量が「多い」、「普通」、「少ない」の3段階に分けられており、各段階に対して、性格のタイプ毎の感情演算値M1が対応付けられている。
Figure JPOXMLDOC01-appb-T000002
 電池残量演算値記憶部213は、感情演算値M1をバッテリ16の電池残量と対応付けて記憶している。表3に電池残量と対応付けて記憶される感情演算値M1の一例を示す。表3に示すように、電流量が「20%未満」、「20%以上90%未満」、「90%以上」の3段階に分けられており、各段階に対して、性格のタイプ毎の感情演算値M1が対応付けられている。
Figure JPOXMLDOC01-appb-T000003
 イベント演算値記憶部214は、使用者がロボット掃除機1に対して声かけを行ったときや、集塵部30を本体筐体2から取り外してゴミ捨てを行ったときに発生するイベントと、感情演算値M1とを対応付けて記憶している。
 記憶される演算値M1の一例を表4に示す。表4に示すように、パネル操作部5からの入力があったときに発生する「パネル入力イベント」、音入力部9からの入力があったときに発生する「音入力イベント」、信号受信部6に対してリモコン装置から入力(受信)があったときに発生する「信号入力イベント」、集塵部30を本体筐体2から取り外したときに発生する「集塵部取外イベント」、ロボット掃除機1が充電台40に帰還成功し、充電台40からバッテリ16に充電が開始されたときに発生する「帰還成功イベント」、ロボット掃除機1が充電台40に帰還失敗したときに発生する「帰還失敗イベント」に対して、性格のタイプ毎の感情演算値M1が対応付けられている。後で詳述するが、感情演算値M1を用いて演算される感情値Mに基づいて、ロボット掃除機1の感情が決定され、決定された感情に基づいて、語彙や音楽が選択され、ロボット掃除機1から音出力される。
Figure JPOXMLDOC01-appb-T000004
 次に、音情報記憶部220について説明する。音情報記憶部220は、音出力部9によって外部に出力される、語彙または音楽の音情報を記憶している。また、音情報記憶部220は、第1音情報記憶部221と、第2音情報記憶部222とを含んでいる。第1音情報記憶部221は、感情決定部(演算手段)120が決定する感情に関係なく出力される音情報である第1音情報を記憶している。
 表5に第1音情報(第1の情報)のデータテーブルの一例を示す。表5に示すように、第1音情報は、番号1001~1017と対応付けて記憶されており、番号1001~1017の内いずれかの番号が指定された場合、対応する音情報が音出力部9より音として出力される。
Figure JPOXMLDOC01-appb-T000005
 第2音情報記憶部222は、感情決定部120が決定する感情に基づいて出力される音情報である第2音情報(第2の情報)を記憶している。表6に第2音情報のデータテーブルの一例を示す。表6に示すように、第2音情報は、1101~1104の番号と対応付けて記憶されている。また、第2音情報は、感情決定部120が決定する「上機嫌」、「普通」、「不機嫌」の何れかの感情に対応付けられている。そして、感情値レベルが「上機嫌」のときは、1101A~1104Aが出力される。また、感情値レベルが「普通」のときは、1101B~1104Bが出力される。また、感情値レベルが「不機嫌」のときは、1101C~1104Cが出力される。
Figure JPOXMLDOC01-appb-T000006
 ここで、ロボット掃除機1が記憶する音情報として、一つの番号に対して語彙または音楽のどちらかの情報が記憶されている場合について説明したが、一つの番号に対して語彙と音楽の両方の情報が記憶されていてもよい。例えば、1001の番号に、「分かりました 音楽A」が記憶されていても良く、1101Aの番号に「絶好調 音楽C」が記憶されていてもよい。
 また、一つの番号に対して記憶される音情報は、区別できる複数の語彙または音楽の情報から構成されていてもよい。例えば、1003の番号に、「おはよう 掃除開始」が記憶されていてもよい。1104Aの番号に「音楽C 音楽D」が記憶されていてもよい。
(制御部の構成)
 制御部100は、検知部110、感情選択部120、および音出力制御部130を有している。
 検知部110は、ロボット掃除機1に関するイベントの発生を検知する。検知部110は、パネル操作検知部111、音検知部112、集塵部検知部113、電池残量検知部114、および信号検知部115を有している。なお、制御部100は、掃除の開始指示、掃除の終了指示、掃除の一時停止指示、移動方向の変更指示、本体の旋回指示、充電台40への帰還指示などの動作指示に係る制御を行う。
 パネル操作検知部111は、操作パネル5にて動作指示を示す入力を受け付けたか否かを検知し、動作指示を示す入力を検知した場合、パネル入力イベントが発生したと判断する。
 音検知部112は、音入力部8から入力された音と、記憶部200に予め登録されている、動作指示に関する音情報とを照合し、両者が一致すると判定すると、音入力イベントが発生したと判断する。
 集塵部検知部113は、集塵部30の塵埃量と、集塵部30の取外イベントが発生したか否かを検知する。前述したように、集塵部30の塵埃量は、電動送風機15の電流値より検知される。集塵部30の取外イベントは、ロボット掃除機1の内部に配され、集塵部30の有無を検知する図示しない近接センサの信号より検知される。
 信号検知部115は、信号受信部6に対して充電台40からの帰還信号や、リモコン装置からの動作指示に関する信号の入力(受信)があったことを検知する。
 次に、感情決定部120について説明する。感情決定部120は、演算値決定部121、および感情演算部122を有している。
 演算値決定部121は、感情値Mを決定する際に感情演算部122が行なう演算に用いるパラメータである感情演算値M1を、掃除回数、集塵部の塵埃量、電池残量、または発生イベントに基づいて決定する。
 感情演算値M1を掃除回数に基づいて決定する場合について説明する。この場合、演算値決定部121は、まず、制御部100に格納されている、期間Tにおける掃除回数を取得する。そして、該取得した掃除回数の合計値と対応づけて掃除回数演算値記憶部211に記憶されている感情演算値M1を取得する。
 期間Tが直近の7日間であるとして説明を続ける。表1を参照すると、直近の7日間の掃除回数の合計値が4未満であって、ロボット掃除機1の性格がタイプ1であるとき、演算値決定部121は、感情演算値M1として「-10」を取得する。同様に、掃除回数の合計値が4未満であって、自走式掃除機1の性格がタイプ2であるとき、演算値決定部121は、感情演算値M1として「-7」を取得する。同様に、掃除回数の合計値が4未満であって、自走式掃除機1の性格がタイプ3であるとき、演算値決定部121は、感情演算値M1として「-5」を取得する。
 感情演算部122は、演算値決定部121が決定した感情演算値M1を用いて、所定の演算式により、感情を特定するための感情値Mを演算する。演算式の典型例は下記の(式1)~(式3)であるが、これらに限定されるものではなく様々な演算式が適用可能である。
 M=M1         ・・・(式1)
 M=m×M0+M1    ・・・(式2)
 M=m×M0+M1+M2 ・・・(式3)
 ここで、「M0」は、前回に演算したときの感情値Mを表している。また、「m」は、前回感情値Mを演算した時刻からの経過時間に応じて変動する係数(0以上1以下)を表している。係数mは、前回に感情値Mを演算した時刻からの経過時間が長いほど小さい値となる。
 表7に係数mの一例を示す。表7に示すように、ロボット掃除機1の性格のタイプ毎に係数mを設定している。また、係数mは、前回の感情値Mを演算した時刻から時間が経過するにつれて値が小さくなるように設定されている。例えば、性格がタイプ1であれば、経過時間が1時間未満であれば係数mは1であるが、経過時間が18時間以上であると係数mは0.6となる。
Figure JPOXMLDOC01-appb-T000007
 また、「M2」は、ユーザが携帯端末などで所定のゲーム等を実施した結果として獲得したポイント値を表している。当該ポイント値は、例えば、インターネットと無線LANを介してロボット掃除機1に送信される。
 上記(式1)では、感情演算値M1をそのまま今回の感情値Mとしている。これに対して、上記(式2)では、前回の演算時からの時間経過に応じて前回の感情値Mを今回の感情値Mに反映することができる。また、上記(式3)を用いると、さらに、ユーザが携帯端末などで所定のゲームをした結果として獲得したポイントを加算した感情値Mを得ることができる。
 そして、感情演算部122は、演算結果として得られた感情値Mの値に従って、ロボット掃除機1の感情を選択する。例えば、感情値Mが25以上であれば「上機嫌」、感情値Mが-25以上25未満であれば「普通」、感情値Mが-25未満であれば「不機嫌」を選択する。
 以上において、感情演算値M1を掃除回数に基づいて決定する場合について説明したが、集塵部30の塵埃量、電池残量に基づいて決定する場合は、表1のデータテーブルを参照する代わりに、それぞれ表2または、表3のデータテーブルを参照することで、演算値決定部121は、感情演算値M1を取得することができる。
 また、発生イベントに基づいて決定する場合は、表4のデータテーブルを参照することで、演算値決定部121は、感情演算値M1を取得することができる。
 音出力制御部130は、音情報記憶部220に記憶された音情報に対応する語彙、または音楽を音出力部9より出力させる。
 ここで、第1音情報記憶部221に記憶された第1音情報は、感情決定部122が決定する感情によらず出力される。具体的には、検知部110がロボット掃除機1に関するイベントの発生を検知すると、表5に示した番号の内の一つが指定され、指定された番号の音情報に対応する語彙または音楽が出力される。
 また、第2音情報記憶部222に記憶された第2音情報は、感情決定部122が決定する感情に基づいて複数の音情報から選択された後、出力される。具体的には、検知部110がロボット掃除機1に関するイベントの発生を検知すると、表6に示した番号の内の一つが指定され、指定された番号の複数の音情報の中から感情決定部122が決定する感情に対応付けられた音情報が選択され、選択された音情報に対応する語彙または音楽が出力される。
 ここで、上述の実施形態においては、ロボット装置への電力供給手段としてロボット掃除機1がバッテリ16を備える場合について説明したが、バッテリ16に関する特徴部分を除き、商用電源から直接ロボット掃除機1に電力供給されても良い。また、バッテリ16と商用電源を併用しても良い。その場合、検知部110は、商用電源からロボット掃除機1への電力供給の有無や瞬時電圧低下等の電力供給状態を検知する。また、感情決定部120は、検知部110が検知した電力供給状態に基づいて、感情を決定するように構成される。
 次に、ロボット掃除機1が語彙または音楽を出力する処理の流れについて説明する。
(実施例1)
 実施例1においては、ロボット掃除機1が第1音情報、または第2音情報をそれぞれ単独で出力する場合について説明する。図8は、実施例1の処理の流れを示すフローチャートである。なお、図8及び図9で説明するフローチャートにおいて、「ステップ」を「S」で表す。また文中でも「S」は「ステップ」を表している。
 まず、検知部110は、ロボット掃除機1に関するイベントの発生を検知する(S11)。次に、制御部100は、検知したイベントに対応する音情報を指定する(S12)。例えば、音情報の指定は、表5、6で例示したデータテーブルの特定の番号を指定することによって行われる。
 次に、制御部100は、指定された音情報が、第1音情報か第2音情報かを判断する(S13)。例えば、第1音情報か第2音情報かの判断は、指定された番号に基づいて行うことができる。表5と6で例示したデータテーブルでは、第1音情報は、番号1001~1017と対応付けて記憶されており、第2音情報は、番号1101~1104と対応付けて記憶されている。
 検知部110が、指定された音情報は第2音情報であると判断した場合、S14において、演算値決定部121は、演算値記憶部210を参照して、感情演算値M1を決定する。そして、感情演算部122が、ステップS14にて決定された感情演算値M1を用いて感情値Mを演算し(S15)、感情値Mの値に従って感情を選択する(S16)。そして、音出力制御部130は、第2音情報記憶部214を参照することで、選択された感情に対応する音情報を選択し(S17)、音出力部9より出力する(S18)。
 一方、S13において、制御部100が、指定された音情報は第1音情報であると判断した場合、ロボット掃除機1の感情を決定することなく、S18に進み、指定された音情報が出力される。
 検知部110がイベントの発生を検知して、出力する音情報として、番号1101が指定された場合を例として説明する。S13において、指定された番号が第2音情報である、と判断される。そして、感情を決定するステップに進み、S16において感情が選択される。ここで、選択された感情が「上機嫌」であった場合、表6に示したデータテーブルに基づいて、第2音情報の中から番号1101Aの「絶好調」が選択される。また、選択された感情が「普通」であった場合、第2音情報の中から番号1101Bの「まあまあかな」が選択される。また、選択された感情が「不機嫌」であった場合、第2音情報の中から番号1101Cの「リフレッシュしたいよ」が選択される。そして、選択された第2音情報に対応する語彙または音楽が、音出力部9より出力される。
 次に、検知部110がイベントの発生を検知して、出力する音情報として、番号1001が指定された場合を例として説明する。S13において、指定された番号が第1音情報である、と判断される。指定された番号が第1音情報であると判断されると、ロボット掃除機1の感情を決定することなく、S18に進む。そして、表5に示したデータテーブルに基づいて、第1音情報の中から番号1001の「分かりました」が選択され、音出力部9より出力される。
 以上のように、指定された第1音情報に対応する音と、ロボット掃除機1の感情に基づいて選択された第2音情報に対応する音とを出力することで、簡単な手段でバリエーションの多い音出力を行うことが可能となる。また、出力される音のうち、第1音情報に対応する音は、ロボット掃除機1の感情に基づいて変更されないので、使用者は、ロボット掃除機1の出力する音の内容を正しく認識でき、ロボット掃除機1の状態を正しく把握することができる。
(実施例2)
 実施例2においては、ロボット掃除機1が、第1音情報および第2音情報を繋げて出力する場合について説明する。図9は、実施例2の処理の流れを示すフローチャートである。実施例1と同じ処理を行うステップについては、説明を省略する、
 まず、検知部110は、ロボット掃除機1に関するイベントの発生を検知する(S21)。次に、制御部100は、検知したイベントに対応する音情報を指定する(S22)。
 次に、制御部100は、出力する音情報が第1音情報か第2音情報かを判断する(S23)。ここで、実施例2においては、S23で出力する音情報が第1音情報であると判断された場合でも感情決定部120が感情を決定する。そして、S24~26において感情が決定された後、音出力制御部130は、第2音情報記憶部222を参照して、第2音情報を選択する(S27)。第2音情報の選択は、感情に対応する音情報から任意に行っても良く、指定されて行っても良い。
 次に、音出力制御部130は、指定された第1音情報に対応する音と、選択された第2音情報に対応する音を繋げて、音出力部9より音出力する(S28)。具体的には、「第2音情報 第1音情報」のように第1音情報の前に第2音情報を繋げて音出力しても良く、「第1音情報 第2音情報」のように第1音情報の後に第2音情報を繋げて音出力しても良く、「第2音情報 第1音情報 第2音情報」のように第1音情報の前後に第2音情報を繋げて音出力しても良い。なお、S23で出力する音情報が第2音情報であると判断された場合は、実施例1のS14~S18を実施する。
 検知部110がイベントの発生を検知して、出力する音情報として、番号1011の「掃除開始」が指定された場合を例として説明する。S23において、指定された番号が第1音情報である、と判断される。そして、感情を決定するステップに進み、S26において感情が選択される。ここで、選択された感情が「上機嫌」であった場合、表6に示したデータテーブルに基づいて、第2音情報の中から番号1101A~1104Aの内の1つが任意で選択される。また、選択された感情が「普通」であった場合、第2音情報の中から番号1101B~1104Bの内の1つがランダムで選択される。また、選択された感情が「不機嫌」であった場合、第2音情報の中から1101C~1104Cの内の1つがランダムで選択される(S27)。第2音情報の中から番号1101Aの「絶好調」が選択されたものとして説明を続ける。
 音出力制御部130は、指定された第1音情報である番号1011の「掃除開始」と、選択された第2音情報の「絶好調」とを繋げて、音出力部9より音出力する。(S28)。例えば、「絶好調 掃除開始」や、「掃除開始 絶好調」や、「絶好調 掃除開始 絶好調」と音出力される。
 なお、第1音情報に対応する音と第2音情報に対応する音を繋げて出力するとは、繋げて出力する音の間に音が出力されない時間が全くない場合だけではなく、一定の時間がある場合も含む。すなわち、第1音情報に対応する音と第2音情報に対応する音が連続して出力される場合を広く含むものである。
 以上のように、指定された第1音情報に対応する音と、ロボット掃除機1の感情に基づいて選択された第2音情報に対応する音とを繋げて出力することで、簡単な手段でバリエーションの多い音出力を行うことが可能となる。また、出力される音のうち、第1音情報に対応する音は、ロボット掃除機1の感情に基づいて変更されないので、使用者は、ロボット掃除機1の出力する音の内容を正しく認識でき、ロボット掃除機1の状態を正しく把握することができる。
(その他の実施例)
 ロボット掃除機1が第1音情報と第2音情報を繋げて出力する場合において、図9のS27で選択される第2音情報は、複数であっても良い。例えば、指定された第1音情報が、番号1015の「ゴミを捨ててください」であり、選択された「不機嫌」の性格に基づいて、第2音情報より番号1101Cの「リフレッシュしたいよ」と、番号1104Cの「最低の気分」が選択されたものとする。このとき出力制御部130は、「リフレッシュしたいよ ゴミを捨ててください 最低の気分」の様に音情報を繋げて、音出力部9より出力される。
 また、上述の実施形態においては、本発明に係るロボット装置として、ロボット掃除機1について説明したが、その他にも家事手伝いロボット、空気清浄ロボット、警備ロボット、またはペットロボット等の、音を出力するロボット装置に広く適用することが可能である。
 さらに、上述の実施形態において、制御部100と記憶部200の全部または要部を含む制御基板17をユニット化して流通させ、本体に組み込むことで完成品として製造するようにしてもよい。
 さらに、ロボット装置の制御部の少なくとも一部は、集積回路(ICチップ)上に形成された論理回路によってハードウェアとして構成してもよいし、次のようにCPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
〔第2の実施の形態〕
 以下に、本発明に係るロボット装置の別の実施形態として、ロボット掃除機について図面を参照して説明する。なお、説明の便宜上、第1の実施の形態と同一の機能を有する部材には、同一の部材番号を付して説明を省略する。
 第1の実施の形態では、感情決定部が、ロボット掃除機に関する発生イベントに基づいて、ロボット掃除機の感情を「上機嫌」、「普通」、「不機嫌」の3段階の中から決定し(演算結果に相当)、その感情に基づいて、音情報(出力される情報)が選択され、ロボット掃除機から音出力される構成を例示した。第2の実施の形態では、その感情に基づいて、文字や画像等の情報(出力される情報)が選択され、ロボット掃除機から送信出力されるものを一例として説明する。
 本実施の形態におけるロボット掃除機1Aは、第1の実施の形態におけるロボット掃除機1が備えていた音出力部9に替えて後述する無線部19(図11、図12参照)を備えており、通信網と接続される。図10に本発明の別の実施形態に係る通信網と接続されるロボット掃除機の模式図を示す。図示するように、ロボット掃除機1Aは、無線LAN基地局90によって家屋95内のLAN(Local Area Network)に接続されている。そして、ロボット掃除機1Aは、インターネット91と携帯端末通信網92とを介しユーザの携帯端末93と情報の送受信ができるように構成されている。携帯端末93は、文字や画像等を表示する表示部94を有している。
 また、本体筐体2(図1参照)の内部に、無線部19が設けられている。無線部19には、IP(Internet Protocol)アドレスとURL(Uniform Resource Locator)が付与されており、HTTP(Hyper Text Transfer Protocol)を用いて情報の送受信を行うことができる。例えば、情報の送受信は、SMTP(Simple Mail Transfer Protocol)に従って携帯端末93との間で電子メールを送受信することで行われる。
 尚、以下において、ロボット掃除機1Aからの情報送信の一例として、ロボット掃除機1Aが電子メールを携帯端末93に送信する場合について説明するが、ロボット掃除機1Aからの情報送信は、それだけに限定されない。例えば、所謂ブログやミニブログのようにウェブページ上に記載すべく、外部のサーバ(不図示)に情報を送信する場合なども本発明に含まれることは勿論である。
 図11に、本発明のロボット装置の別の実施形態に係るロボット掃除機の構成を示す。図示するように、ロボット掃除機1Aは、ロボット掃除機1(図6参照)が備えていた音出力部9に替えて無線部19を備えている。図12に、図11におけるロボット掃除機1Aの記憶部200A及び制御部100Aの構成を示す。ロボット掃除機1Aは、制御部100Aが、ロボット掃除機1(図7参照)における制御部100が備えていた音声出力制御部130に替えて無線制御部140を備える。また、ロボット掃除機1Aは、記憶部200Aが、ロボット掃除機1(図7参照)における記憶部200が備えていた音情報記憶部220に替えて情報記憶部220Aを備えている。
 後で詳述するが、感情演算値M1を用いて演算される感情値Mに基づいて、ロボット掃除機A1の感情が決定され、決定された感情に基づいて、送信する情報が選択され、ロボット掃除機1Aから送信(出力)される。
 次に、情報記憶部220Aについて説明する。情報記憶部220Aは、無線部19によって外部に出力される、文字情報及び画像情報を記憶している。また、情報記憶部220Aは、第1の情報記憶部221Aと、第2の情報記憶部222Aとを有している。
 第1の情報記憶部221Aは、感情決定部120が決定する感情に関係なく出力される第1の情報を記憶している。
 表8に第1の情報のデータテーブルの一例を示す。表8に示すように、第1の情報は、番号1001~1010と対応付けて記憶されており、番号1001~1010の内いずれかの番号が指定された場合、対応する情報が無線部19より出力される。
Figure JPOXMLDOC01-appb-T000008
 第2の情報記憶部222Aは、感情決定部120が決定する感情に基づいて出力される第2の情報を記憶している。
 表9に第2情報のデータテーブルの一例を示す。表9に示すように、第2の情報は、1101~1104の番号と対応付けて記憶されている。また第2の情報は、感情決定部120が決定する、「上機嫌」、「普通」、「不機嫌」の3段階から感情の何れと対応付けられている。具体的には、感情値レベルが「上機嫌」のときは、1101A~1104Aが出力される。また、感情値レベルが「普通」のときは、1101B~1104Bが出力される。また、感情値レベルが「不機嫌」のときは、1101C~1104Cが出力される。
Figure JPOXMLDOC01-appb-T000009
 なお、ロボット掃除機1Aが記憶する情報として、一つの番号に対して文字又は画像のどちらかの情報が記憶されている場合について説明したが、一つの番号に対して文字と画像の両方の情報が記憶されていてもよい。例えば、1001の番号に、「掃除を開始します。画像A」が記憶されていても良く、1101Aの番号に「絶好調。画像C」が記憶されていてもよい。
 また、ロボット掃除機1Aが記憶する情報は、音声又は動画の情報でもよく、特殊な文字コードやタグで表される絵文字等でもよい。
 感情決定部120における感情演算部122が、感情値Mを演算する演算式の典型例の式3における「M2」は、ユーザが携帯端末93(図10参照)などで所定のゲーム等を実施した結果として獲得したポイント値を表している。当該ポイント値は、通信網を介してロボット掃除機1Aに送信され、無線部19にて受信される。
 無線制御部140は、無線部19の情報の送受信を制御する。無線部19で受信される情報は、前述したユーザから送信されるポイント値M2以外にも、ロボット掃除機1Aの動作指示や、動作の予約指示であっても良い。一方、無線部19から送信される情報は、情報記憶部220Aに記憶された第1の情報及び第2の情報である。
 ここで、第1の情報は、感情決定部122が決定する感情に基づくことなく出力される。具体的には、検知部110がロボット掃除機1Aに関するイベントの発生を検知すると、表8に示した番号の内の一つが指定され、指定された番号の情報が出力される。
 また、第2の情報は、感情決定部122が決定する感情に基づいて複数の情報から選択されて出力される。具体的には、検知部110がロボット掃除機1Aに関するイベントの発生を検知すると、表9に示した番号の内の一つが指定され、指定された番号の複数の情報の中から感情決定部122が決定する感情に対応付けられた情報が選択され出力される。
 次に、ロボット掃除機1Aが文字情報、又は画像情報を出力する処理の流れについて説明する。
(実施例3)
 実施例3においては、ロボット掃除機1Aが第1の情報、または第2の情報をそれぞれ単独で出力する場合について説明する。図13は、実施例3の処理の流れを示すフローチャートである。なお、図13及び図14で説明するフローチャートにおいて、「ステップ」を「S」で表す。また文中でも「S」は「ステップ」を表している。
 まず、検知部110は、ロボット掃除機1Aに関するイベントの発生を検知する(S31)。次に、制御部100は、検知したイベントに対応する情報を指定する(S32)。例えば、情報の指定は、表8、9で例示したデータテーブルの特定の番号を指定することによって行われる。
 次に、制御部100は、指定された情報が、第1の情報か第2の情報かを判断する(S33)。例えば、第1の情報か第2の情報かの判断は、指定された番号に基づいて行うことができる。表8と9で例示したデータテーブルでは、第1の情報は、番号1001~1010と対応付けて記憶されており、第2の情報は、番号1101~1104と対応付けて記憶されている。
 検知部110が、指定された情報は第2の情報であると判断した場合(YESの場合)、S34において、演算値決定部121は、演算値記憶部210を参照して、感情演算値M1を決定する。そして、感情演算部122が、ステップS34にて決定された感情演算値M1を用いて感情値Mを演算し(S35)、感情値Mの値に従って感情を選択する(S36)。そして、無線制御部140は、第2の情報記憶部222Aを参照することで、選択された感情に対応する情報を選択する(S37)。そして、無線制御部140は、選択した情報を無線部19よりユーザの携帯端末93に電子メールで送信する。(S38)。ユーザは、携帯端末93を操作して電子メールを開くことで、表示部94に表示された文字や画像を確認することができる。
 一方、S33において、制御部100が、指定された情報は第1の情報である、と判断した場合(NOの場合)、ロボット掃除機1Aの感情を決定することなく、S38に進み、指定された情報が無線部19よりユーザの携帯端末93に電子メールで送信される。
 検知部110がイベントの発生を検知して、出力する情報として、番号1101が指定された場合を例として説明する。S33において、指定された番号が第2の情報である、と判断される。そして、感情を決定するステップに進み、S36において感情が選択される。ここで、選択された感情が「上機嫌」であった場合、表9に示したデータテーブルに基づいて、第2の情報の中から番号1101Aの「絶好調」が選択される。また、選択された感情が「普通」であった場合、第2の情報の中から番号1101Bの「まあまあかな」が選択される。また、選択された感情が「不機嫌」であった場合、第2の情報の中から番号1101Cの「リフレッシュしたいよ」が選択される。そして、選択された情報が、無線部19より電子メールで送信される。
 次に、検知部110がイベントの発生を検知して、出力する情報として、番号1001が指定された場合を例として説明する。S33において、指定された番号が第1の情報である、と判断される。指定された番号が第1の情報であると判断されると、ロボット掃除機1A感情を決定することなく、S38に進む。そして、表8に示したデータテーブルに基づいて、第1の情報の中から番号1001の「掃除を開始します。」が選択され、無線部19より電子メールで送信される。
 以上のように、第1の情報を感情に基づくことなく送信し、且つ第2の情報を感情に基づいて送信することで、簡単な手段でバリエーションの多い情報の送信を行うことができ、使用者がロボット掃除機に親しみを感じることができる。また、送信される情報のうち、第1の情報は、ロボット掃除機1Aの感情に基づいて変更されないので、使用者は、ロボット掃除機1Aの出力する情報の内容を正しく認識でき、ロボット掃除機1Aの状態を正しく把握することができる。
(実施例4)
 実施例4においては、ロボット掃除機1Aが、第1の情報及び第2の情報を繋げて出力する場合について説明する。図14は、実施例4の処理の流れを示すフローチャートである。実施例3と同じ処理を行うステップについては、説明を省略する、
 まず、検知部110は、ロボット掃除機1Aに関するイベントの発生を検知する(S41)。次に、制御部100は、検知したイベントに対応する情報を指定する(S42)。
 次に、制御部100は、出力する情報が第1の情報か否かを判断する(S43)。ここで、実施例4においては、S43で出力する情報が第1の情報であると判断された場合、感情決定部120が感情を決定する。そして、S44~46において感情が決定された後、無線制御部140は、第2の情報記憶部222Aを参照して、第2の情報を選択する。第2の情報の選択は、感情に対応する情報から任意に行っても良く、指定されて行っても良い。
 次に、無線制御部140は、指定された第1の情報と、選択された第2の情報とを繋げて、無線部19より出力する(S48)。具体的には、「第2の情報+第1の情報」のように第1の情報の前に第2の情報を繋げて出力しても良く、「第1の情報+第2の情報」のように第1の情報の後に第2の情報を繋げて出力しても良く、「第2の情報+第1の情報+第2の情報」のように第1の情報の前後に第2の情報を繋げて出力しても良い。そして、組み合わされた情報が、無線部19より電子メールで送信される。なお、S43で出力する情報が第2の情報であると判断された場合は、実施例3のS34~S38を実施する。
 検知部110がイベントの発生を検知して、出力する情報として、番号1001の「掃除を開始します。」が指定された場合を例として説明する。S43において、指定された番号が第1の情報である、と判断される。そして、感情を決定するステップに進み、S46において感情が選択される。ここで、選択された感情が「上機嫌」であった場合、表9に示したデータテーブルに基づいて、第2の情報の中から番号1101A~1104Aの内の1つが任意で選択される。また、選択された感情が「普通」であった場合、第2の情報の中から番号1101B~1104Bの内の1つがランダムで選択される。また、選択された感情が「不機嫌」であった場合、第2の情報の中から1101C~1104Cの内の1つがランダムで選択される(S47)。第2の情報の中から番号1101Aの「絶好調」が選択されたものとして説明を続ける。
 無線制御部140は、指定された第1の情報である番号1001の「掃除を開始します。」と、選択された第2の情報の「絶好調。」とを繋げる。例えば、「絶好調。掃除開始。」や、「掃除開始。絶好調。」や、「絶好調。掃除開始。絶好調」と繋げられる。そして、繋げられた情報が無線部19より電子メールで送信される(S48)。
 以上のように、感情に基づくことなく送信される第1の情報と、感情に基づいて送信される第2の情報とを繋げて送信することで、簡単な手段でバリエーションの多い情報の出力を行うことができる。また、出力される情報のうち、第1の情報は、ロボット掃除機1Aの感情に基づいて変更されないので、使用者は、ロボット掃除機1Aの出力する情報の内容を正しく認識でき、ロボット掃除機1Aの状態を正しく把握することができる。
(その他の実施例)
 ロボット掃除機1Aが第1の情報と第2の情報を繋げて出力する場合において、図14のS47で選択される第2の情報は、複数であっても良い。例えば、指定された第1の情報が、番号1004の「予約運転を開始します。」であり、選択された「不機嫌」の性格に基づいて、第2の情報より番号1101Cの「リフレッシュしたいよ」と、番号1104Cの「最低の気分」が選択されたものとする。このとき無線制御部140は、「リフレッシュしたいよ。予約運転を開始します。最低の気分。」の様に情報を繋げて、無線部19より出力する。
 また、ロボット掃除機1Aは、画像や、動画、音声、絵文字等を文章中に挿入して送信してもよく、また、画像等のファイルを電子メールに添付して送信してもよい。使用者は、携帯端末93を操作することで、携帯端末の表示部94や図示しない音出力部から出力される画像等を確認することができる。この場合、情報を受信した使用者は情報を視覚的又は聴覚的に認識することが可能となる。
 また、ロボット掃除機1Aは、出力する情報を通信網に接続されたサーバ(不図示)やロボット掃除機1Aの管理装置(不図示)に送信してもよい。この場合、ユーザは携帯端末93を操作して、サーバや管理装置を参照したり、ファイルをダウンロードしたりすることでロボット掃除機1Aから送信された情報を確認することができる。この場合、使用者は、ロボット掃除機1Aから送信された情報を一括して確認することが可能とすることができ、またロボット掃除機1Aの稼動状態やイベントの発生、ロボット掃除機1Aの機嫌等の履歴を確認することが可能とすることができる。
 また、上述の実施形態においては、家屋95内の通信網として無線LAN基地局90を用いる場合について説明したが、Bluetooth(登録商標)等の短距離無線の基地局を用いてもよい。また、家屋95内の通信網と有線で接続されてもよい。
 さらに、上述の第1の実施の形態、第2の実施の形態においては、本発明に係るロボット装置として、ロボット掃除機1,1Aについて説明したが、その他にも家事手伝いロボット、空気清浄ロボット、警備ロボット、またはペットロボット等の、情報を出力するロボット装置に広く適用することが可能である。
 さらに、上述の実施形態において、制御部100,100Aと記憶部200,200Aの全部または要部を含む制御基板17をユニット化して流通させ、本体に組み込むことで完成品として製造するようにしてもよい。また、ロボット装置の制御部の少なくとも一部は、集積回路(ICチップ)上に形成された論理回路によってハードウェアとして構成してもよいし、次のようにCPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 ソフトウェアによって実現する場合は、ロボット装置は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるロボット装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ロボット装置に供給し、そのコンピュータ(またはCPUやMPU(micro processing unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、あるいはマスクROM/EPROM(Erasable Programmable Read Only Memory)/EEPROM(登録商標)(Electrically Erasable Programmable Read-Only Memory)/フラッシュROM等の半導体メモリ類、PLD(Programmable logic device)等の論理回路類などを用いることができる。
 また、ロボット装置を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN(Integrated Services Digital Network)、VAN(value added network)、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB(Universal Serial Bus)、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
〔まとめ〕
 本発明に係るロボット装置は、音を出力する音出力手段と、検知情報に基づいてイベントの発生を検知する検知手段と、音出力手段から出力される音の信号である音情報を記憶する音情報記憶手段とを備え、音情報記憶手段は、第1のイベントと対応した単一の第1音情報と、第2のイベントと対応した複数の第2音情報とを記憶しており、音出力手段は、第1音情報及び第2音情報に対応した音を出力するものであり、第2音情報は、イベントに応じて複数の第2音情報から選択されたものであることを特徴とする。
 また、本発明に係るロボット装置において、音出力手段は、第1音情報と第2音情報を繋げて出力することが好ましい。
 本発明に係るロボット装置は、情報を送信する情報送信手段と、検知情報に基づいてイベントの発生を検知する検知手段と、情報送信手段から送信される情報を記憶する情報記憶手段とを備え、情報記憶手段は、第1のイベントと対応した単一の第1の情報と、第2のイベントと対応した複数の第2の情報とを記憶しており、情報送信手段は、第1の情報及び第2の情報を送信するものであり、第2の情報は、イベントに応じて複数の第2の情報から選択されたものであることを特徴としている。
 また、本発明に係るロボット装置において、情報送信手段は、第1の情報と第2の情報を繋げて出力することが好ましい。
 また、本発明に係るロボット装置は、ロボット装置に電力を供給する電力供給手段をさらに備え、検知手段は、電力供給手段からの電力供給状態をイベントとして検知することが好ましい。
 また、本発明に係るロボット装置は、掃除を行う掃除手段をさらに備え、検知手段は、掃除に関する情報をイベントとして検知することが好ましい。
 また、本発明に係るロボット装置は、掃除を実行した回数を記憶する掃除回数記憶手段をさらに備え、検知手段は、回数をイベントとして検知することが好ましい。
 また、本発明に係るロボット装置は、掃除手段によって除去した塵埃を集塵する集塵部をさらに備え、検知手段は、集塵部の塵埃量をイベントとして検知することが好ましい。
 なお、ロボット装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることによりロボット装置をコンピュータにて実現させるロボット装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した上述の実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明に係るロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録装置は、音出力機能を備えたロボット装置や、文字や画像等の情報を外部に出力するロボット装置を対象として広く利用可能である。
 1、1A ロボット掃除機
 40 充電台
 5 操作パネル
 8 音声入力部
 9 音声出力部
 16 バッテリ
 17 制御基板
 19 無線部
 30 集塵部
 31 集塵容器
 100,100A 制御部
 110 検知部
 111 パネル操作検知部
 112 音声検知部
 113 塵埃量検知部
 114 電池残量検知部
 115 信号検知部
 120 感情決定部
 130 音出力制御部
 140 無線制御部
 200,200A 記憶部
 210 演算値記憶部
 211 掃除回数演算値記憶部
 212 塵埃量演算値記憶部
 213 電池残量演算値記憶部
 214 イベント演算値記憶部
 220 音情報記憶部
 220A 情報記憶部
 221 第1音情報記憶部
 221A 第1の情報記憶部
 222 第2音情報記憶部
 222A 第2の情報記憶部

Claims (15)

  1.  情報を出力する出力手段と、
     検知情報に基づいてイベントの発生を検知する検知手段と、
     前記出力手段から出力される情報を記憶する情報記憶手段と、
     当該ロボット装置の状態に対応付けて予め定められている演算値を用いて演算を行う演算手段とを備え、
     前記情報記憶手段は、イベントに単一に対応付けられた第1の情報と、イベントと前記演算手段の演算結果に対応付けられた第2の情報とを記憶しており、
     前記出力手段は、前記検知手段にてイベントの発生が検知されると、発生したイベントに応じて第1の情報あるいは第2の情報を出力し、該出力される第2の情報は、前記演算手段の演算結果に対応付けられたものであることを特徴とするロボット装置。
  2.  前記出力手段は、発生したイベントに応じて第1の情報を出力する際、前記演算手段の演算結果に対応付けられた第2の情報のうちの少なくとも1つを、第2の情報に対応付けられているイベントに関わらず第1の情報と繋げて出力することを特徴とする請求項1に記載のロボット装置。
  3.  掃除を行う掃除手段をさらに備え、
     前記演算値が予め定められる前記ロボット装置の状態が、当該ロボット装置における電池残量、所定の期間に実施された掃除の回数、或いは掃除手段が回収した集塵の量の何れかであることを特徴とする請求項1又は2に記載のロボット装置。
  4.  前記出力手段が、情報としての音を出力する音出力手段であり、
     前記情報記憶手段は、前記音出力手段から出力される音の信号である音情報を記憶する音情報記憶手段であることを特徴とする請求項1から3の何れか1項に記載のロボット装置。
  5.  前記出力手段が、情報を送信出力する情報送信手段であり、
     前記情報記憶手段は、前記情報送信手段から送信される情報を記憶していることを特徴とする請求項1から3の何れか1項に記載のロボット装置。
  6.  音を出力する音出力手段と、
     検知情報に基づいてイベントの発生を検知する検知手段と、
     前記音出力手段から出力される音の信号である音情報を記憶する音情報記憶手段とを備え、
     前記音情報記憶手段は、第1のイベントと対応した単一の第1音情報と、第2のイベントと対応した複数の第2音情報とを記憶しており、
     前記音出力手段は、前記第1音情報及び前記第2音情報に対応した音を出力するものであり、
     前記第2音情報は、前記イベントに応じて複数の前記第2音情報から選択されたものであるロボット装置。
  7.  前記音出力手段は、前記第1の情報と前記第2の情報を繋げて出力する請求項6に記載のロボット装置。
  8.  情報を送信する情報送信手段と、
     検知情報に基づいてイベントの発生を検知する検知手段と、
     前記情報送信手段から送信される情報を記憶する情報記憶手段とを備え、
     前記情報記憶手段は、第1のイベントと対応した単一の第1の情報と、第2のイベントと対応した複数の第2の情報とを記憶しており、
     前記情報送信手段は、前記第1の情報及び前記第2の情報を送信するものであり、
     前記第2の情報は、前記イベントに応じて複数の前記第2の情報から選択されたものであるロボット装置。
  9.  前記情報送信手段は、前記第1の情報と前記第2の情報を繋げて送信する請求項8に記載のロボット装置。
  10.  ロボット装置に電力を供給する電力供給手段をさらに備え、
     前記検知手段は、前記電力供給手段からの電力供給状態を前記イベントとして検知することを特徴とする請求項1から9の何れか1項に記載のロボット装置。
  11.  掃除を行う掃除手段をさらに備え、
     前記検知手段は、掃除に関する情報を前記イベントとして検知することを特徴とする請求項1から10の何れか1項に記載のロボット装置。
  12.  掃除を実行した回数を記憶する掃除回数記憶手段をさらに備え、
     前記検知手段は、前記回数を前記イベントとして検知することを特徴とする請求項1から11の何れか1項に記載のロボット装置。
  13.  前記掃除手段によって除去した塵埃を集塵する集塵部をさらに備え、
     前記検知手段は、前記集塵部の塵埃量を前記イベントとして検知することを特徴とする請求項11又は12に記載のロボット装置。
  14.  請求項1から13の何れか1項に記載のロボット装置が備えるコンピュータを動作させる制御プログラムであって、前記コンピュータを上記の各手段として機能させるための制御プログラム。
  15.  請求項14に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/082775 2012-01-17 2012-12-18 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 WO2013108532A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201280067117.0A CN104039210B (zh) 2012-01-17 2012-12-18 机器人装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-007036 2012-01-17
JP2012007038A JP2013146292A (ja) 2012-01-17 2012-01-17 ロボット装置、制御プログラム、及び制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012007036A JP2013146291A (ja) 2012-01-17 2012-01-17 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012-007038 2012-01-17

Publications (1)

Publication Number Publication Date
WO2013108532A1 true WO2013108532A1 (ja) 2013-07-25

Family

ID=48798969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082775 WO2013108532A1 (ja) 2012-01-17 2012-12-18 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
CN (1) CN104039210B (ja)
WO (1) WO2013108532A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062077A (ja) * 2014-09-22 2016-04-25 シャープ株式会社 対話装置、対話システム、対話プログラム、サーバ、サーバの制御方法およびサーバ制御プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106264336A (zh) * 2016-08-18 2017-01-04 苏州凯丽达电器有限公司 一种具有语音识别功能的家庭多功能吸尘器
CN112198850A (zh) * 2016-11-09 2021-01-08 株式会社东芝 数据收集系统、处理系统以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244731A (ja) * 2001-02-21 2002-08-30 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2003061882A (ja) * 2001-08-28 2003-03-04 Matsushita Electric Ind Co Ltd 自走式掃除機
JP2005118354A (ja) * 2003-10-17 2005-05-12 Matsushita Electric Ind Co Ltd 家屋内清掃システム及びその稼動方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100696134B1 (ko) * 2005-04-25 2007-03-22 엘지전자 주식회사 이동로봇의 위치 산출 시스템과 그를 이용한 충전대 복귀시스템 및 그 방법
KR20060127452A (ko) * 2005-06-07 2006-12-13 엘지전자 주식회사 로봇청소기 상태알림장치 및 방법
CN101084817B (zh) * 2007-04-26 2012-08-22 复旦大学 开放智能计算构架的家用多功能小型服务机器人
CN101234012A (zh) * 2007-12-14 2008-08-06 陈宏乔 一种具有无线移动监控功能的吸尘器
CN101234011A (zh) * 2008-01-04 2008-08-06 陈宏乔 一种具有语音提示的吸尘器
CN201346776Y (zh) * 2009-01-24 2009-11-18 泰怡凯电器(苏州)有限公司 一种用于机器人的语音系统及带有该语音系统的机器人
CN201840423U (zh) * 2010-10-11 2011-05-25 洋通工业股份有限公司 自走吸尘器的充电座

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244731A (ja) * 2001-02-21 2002-08-30 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2003061882A (ja) * 2001-08-28 2003-03-04 Matsushita Electric Ind Co Ltd 自走式掃除機
JP2005118354A (ja) * 2003-10-17 2005-05-12 Matsushita Electric Ind Co Ltd 家屋内清掃システム及びその稼動方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062077A (ja) * 2014-09-22 2016-04-25 シャープ株式会社 対話装置、対話システム、対話プログラム、サーバ、サーバの制御方法およびサーバ制御プログラム

Also Published As

Publication number Publication date
CN104039210B (zh) 2017-03-08
CN104039210A (zh) 2014-09-10

Similar Documents

Publication Publication Date Title
JP6109477B2 (ja) 自走式電子機器、端末装置、および操作システム
KR101586161B1 (ko) 청소기 및 제어 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
WO2013141206A1 (ja) ロボット装置、情報提供装置及び情報提供システム
TWI654961B (zh) 機器人裝置、終端裝置、機器人裝置之遙控操作系統及程式
CN105528519B (zh) 智能协助清洁牙齿的方法及装置
JP6081060B2 (ja) ロボット装置、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5917298B2 (ja) 自走式掃除機
WO2013108532A1 (ja) ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014206850A (ja) 電子機器および自走式掃除機
JP2013169222A (ja) 自走式電子機器
JP2015075825A (ja) 自走式電子機器
CN107913042A (zh) 清洁设备及其控制方法
JP2013246588A (ja) 機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体
JP2014236837A (ja) 自走式掃除機
JP2013146291A (ja) ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2017192851A (ja) ロボット装置、制御プログラム、及び制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6486422B2 (ja) ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014144514A (ja) 状態表示システム、状態表示方法、及びロボット装置
KR102093710B1 (ko) 로봇 청소기 및 그 동작방법
JP2013246589A (ja) 空間情報生成装置、空間情報利用システム、空間情報生成方法、制御プログラム、および、記録媒体
JP2013141341A (ja) 自走式電子機器、電子機器の充電端子の清掃方法
JP7017983B2 (ja) 自律走行式掃除機
JP2013146292A (ja) ロボット装置、制御プログラム、及び制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014086878A (ja) 自走式電子機器および携帯端末
US20220338697A1 (en) Cleaner system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12865999

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 12865999

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE