WO2017094332A1 - ロボット、ロボットの制御方法、制御プログラム、および記録媒体 - Google Patents

ロボット、ロボットの制御方法、制御プログラム、および記録媒体 Download PDF

Info

Publication number
WO2017094332A1
WO2017094332A1 PCT/JP2016/078076 JP2016078076W WO2017094332A1 WO 2017094332 A1 WO2017094332 A1 WO 2017094332A1 JP 2016078076 W JP2016078076 W JP 2016078076W WO 2017094332 A1 WO2017094332 A1 WO 2017094332A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
call
unit
robot
output
Prior art date
Application number
PCT/JP2016/078076
Other languages
English (en)
French (fr)
Inventor
貴裕 井上
暁 本村
智隆 高橋
Original Assignee
シャープ株式会社
株式会社ロボ・ガレージ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社, 株式会社ロボ・ガレージ filed Critical シャープ株式会社
Priority to JP2017553668A priority Critical patent/JP6495479B2/ja
Publication of WO2017094332A1 publication Critical patent/WO2017094332A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers

Definitions

  • the present invention relates to a robot having a call function.
  • Patent Document 1 does not disclose the technical idea of switching the device that outputs the voice of the other party. For this reason, there is a problem that it is difficult to use in a situation that is not suitable for sound output from a speaker, for example, in a public place.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to realize a robot or the like that can switch a device that outputs a voice of a call partner according to a use situation.
  • a robot is a robot having a call function and capable of outputting a call voice that is a voice of a call partner, and capable of outputting the call voice.
  • a voice output unit for free a voice output unit for handset that outputs the call voice, a state determination unit that determines the state of the robot, and the voice output unit for hands-free based on the determination result of the state determination unit
  • an audio output control unit that outputs the call voice from an audio output unit selected from any of the audio output units for the handset.
  • a robot control method is a robot control method having a call function and capable of outputting a call voice that is a voice of a call partner.
  • the robot includes a hands-free sound output unit capable of outputting the call sound and a handset sound output unit capable of outputting the call sound, a state determination step for determining the state of the robot, and the state A voice output step of outputting the call voice from a voice output unit selected from either the hands-free voice output unit or the handset voice output unit based on the determination result of the determination step.
  • FIG. It is a block diagram which shows an example of the principal part structure of the call robot which concerns on Embodiment 1.
  • FIG. It is an external view which shows an example of the external appearance of the calling robot shown in FIG.
  • FIG. It is a figure which shows an example of the flow from an incoming call to a telephone call start using the telephone call robot shown in FIG.
  • FIG. It is a figure which shows another example of the flow from an incoming call to the start of a telephone call using the telephone call robot shown in FIG.
  • FIG. It is a figure which shows another example of the flow from an incoming call to a telephone call start using the telephone call robot shown in FIG.
  • It is a flowchart which shows an example of the flow of the output method selection process which the telephone call robot shown in FIG. 1 performs.
  • FIG. 9 It is a block diagram which shows an example of the principal part structure of the call robot which concerns on Embodiment 2.
  • FIG. 7 It is a flowchart which shows an example of the flow of the output method selection process which the telephone call robot shown in FIG. 7 performs.
  • FIG. 7 It is a block diagram which shows an example of the principal part structure of the call robot which concerns on Embodiment 3.
  • the call robot 1 (robot) according to the present embodiment has a so-called dialogue function that acquires a voice uttered by a user, performs voice recognition, and then outputs a response voice to the voice from a speaker.
  • the call robot 1 has a call function, and the call voice, which is the voice of the other party, is sent from a speaker (hands-free voice output unit, hands-free speaker) or a receiver (handset voice output unit, handset speaker). It has a configuration that can output. Further, the call robot 1 determines the state of the call robot 1 and outputs the call voice from the voice output device selected from either the speaker or the receiver based on the determination result.
  • determining the state of the calling robot 1 means, for example, “determining whether or not the calling robot 1 is in a mode for outputting sound from a speaker”, “persons around the calling robot 1” As a result of the detection, it is determined whether or not the person is the only person who can hear the call voice ”,“ determines whether or not the drive unit of the call robot 1 can be driven ”,“ when the call is received ” For example, “determining whether or not the calling robot 1 is operating”. That is, the “state of the calling robot 1” includes the state of the calling robot 1 itself and the state in which the calling robot 1 detects the surrounding situation.
  • FIG. 2 is an external view of the calling robot 1.
  • the call robot 1 is a humanoid robot as shown in FIG. Therefore, when explaining the position where various hardware is provided, there are cases where explanations are made using words indicating each part of the human body. pointing. Further, the calling robot 1 is not limited to a humanoid. For example, a robot imitating an animal may be used.
  • 3 to 5 are diagrams showing a flow from the incoming call to the start of the call using the call robot 1.
  • FIG. 3 is a diagram showing a flow when the calling robot 1 satisfies a predetermined condition.
  • the calling robot 1 says, "You are calling from Mr. A! Calling hands-free!” That is, voice data for notifying the user (Mr. B) of the incoming call (incoming voice) is generated, and the voice is output from the speaker.
  • the content of the incoming call voice is an example, and the present invention is not limited to this example. For example, it may be only “Call from Mr. A!”.
  • Mr. B says “I understand. Answer the phone”
  • the call robot 1 starts a call using the message as a trigger.
  • the call between Mr. A and Mr. B is started as a hands-free call.
  • the call robot 1 outputs a call voice, which is a voice uttered by Mr. A, from a speaker. That is, Mr. B can talk with Mr. A without holding the call robot 1.
  • FIG. 4 is a diagram showing a flow when the calling robot 1 does not satisfy a predetermined condition.
  • Mr. A calls Mr. B who is a user of the calling robot 1
  • the calling robot 1 turns on the lighting portions provided on both eyes and calls Mr. B. Is notified.
  • Mr. B inputs a predetermined operation for starting a call to the call robot 1
  • the call between Mr. A and Mr. B is started as a handset call.
  • the call robot 1 outputs Mr. A's call voice from the receiver.
  • Mr. B can hear Mr. A's call voice by holding the call robot 1 and bringing the receiver close to his / her ear.
  • FIG. 1 is a block diagram illustrating an example of a main configuration of the call robot 1. Since the calling robot 1 has an interactive function as described above, various members (for example, a voice recognition unit that recognizes input voice and a response voice that generates a response voice) for realizing a dialog with the user. However, since the member is less relevant to the present invention, the description in FIGS. 1 and 2 and the description in the specification are omitted.
  • the calling robot 1 includes a control unit 10, a communication unit 11, a voice input unit 12, a voice output unit 13, a storage unit 14, and an incoming call notification unit 15.
  • the imaging unit 16 illustrated in FIG. 2 will be described in the second embodiment. That is, the call robot 1 according to the present embodiment may be configured not to include the imaging unit 16.
  • the communication unit 11 communicates with an external device and transmits / receives various information. Specifically, when receiving an incoming signal indicating an incoming call from an external telephone, the communication unit 11 outputs a message to that effect to the control unit 10. Further, after the communication with the external telephone is started, the communication unit 11 transmits the voice data of the voice input from the control unit 10 to the telephone of the other party. When receiving voice data from the telephone of the other party, the voice data is output to the control unit 10.
  • the incoming signal includes a number sequence (hereinafter referred to as telephone number information) indicating the telephone number of the external telephone that made the call.
  • the voice input unit 12 is a so-called microphone (hereinafter referred to as a microphone) that acquires a voice emitted around the calling robot 1 and outputs voice data of the voice to the control unit 10.
  • the call robot 1 includes two types of voice input units (main microphone and sub microphone), but the number of voice input units 12 is not limited to this example.
  • the main microphone is provided in the vicinity of the lower back of the call robot 1, but is not limited to this example.
  • the main microphone is provided at a position that is close to the user's mouth when holding the call robot 1 with a hand like a conventional mobile phone and making a call while making contact with or close to the user's face (so-called handset call). It only has to be done.
  • the sub microphone is provided near the forehead of the call robot 1, but the sub microphone is not limited to this example as long as it can acquire the voice uttered by the user.
  • the voice output unit 13 converts voice data into voice and outputs it.
  • the audio output unit 13 includes a speaker 31 (hands-free audio output unit) and a receiver 32 (handset audio output unit).
  • the speaker 31 is an audio output device that assumes that the user listens to the output audio with his / her ear separated from the speaker 31. As shown in FIG. 2, the speaker 31 is provided on the trunk of the call robot 1, but is not limited to this example.
  • the receiver 32 is an audio output device that assumes that the user listens to the output audio in a state where his / her ear is close to the receiver 32. As shown in FIG. 2, the receiver 32 is provided at the mouth of the call robot 1, but is not limited to this example. The receiver 32 may be provided at a position close to the user's ear when performing a handset call.
  • the incoming call notification unit 15 notifies the user that an incoming call signal has been received.
  • the incoming call notification unit 15 is a lighting unit that is turned on when an incoming signal is received.
  • the incoming call notification unit 15 is an LED (light-emitting diode), but is not limited to an LED.
  • the incoming call notification unit 15 is provided on both eyes of the call robot 1.
  • the call robot 1 has a configuration in which both eyes emit light when an incoming signal is received.
  • the incoming call notification unit 15 is not limited to the lighting unit as long as it can notify the user that an incoming signal has been received.
  • a vibration unit that vibrates the calling robot 1 when receiving an incoming signal may be used.
  • the control unit 10 controls the functions of the call robot 1 in an integrated manner.
  • the control unit 10 includes a call control unit 21, a determination unit 22 (state determination unit), a voice output control unit 23, and an incoming call notification control unit 24.
  • the call control unit 21 controls the communication unit 11 to realize a call between the user of the call robot 1 and the user (call partner) of an external telephone. Specifically, when the call control unit 21 acquires the incoming signal from the communication unit 11, the call control unit 21 notifies the determination unit 22 to that effect and outputs the telephone number information included in the incoming signal to the voice output control unit 23.
  • the call control unit 21 receives a call start signal indicating that an operation for starting a call has been input from an operation unit (not shown), or a voice for starting a call is input to the voice input unit 12. If so, the voice output control unit 23 is notified that the call is to be started, and the call is started.
  • a specific description will be given of a process when a voice for starting a call is input to the voice input unit 12.
  • the voice data is output to a voice recognition unit (not shown) included in the control unit 10.
  • the voice recognition unit performs voice recognition, and determines whether or not the generated text data includes a character string (for example, “answer a call”) that triggers a call. If included, the voice recognition unit outputs a call start instruction to the call control unit 21. On the other hand, if not included, the speech recognition unit ends the process.
  • the call control unit 21 acquires voice data of a voice uttered by the user of the calling robot 1 from the voice input unit 12 after starting the call, the call control unit 21 transmits the voice data to the other party of communication via the communication unit 11. To your phone.
  • the call control unit 21 receives voice data of the other party's voice via the communication unit 11, the call control unit 21 outputs the voice data to the voice output control unit 23.
  • the determination unit 22 determines the state of the calling robot 1. Specifically, when notified by the call control unit 21 that the incoming call signal has been acquired, the determination unit 22 refers to the manner mode setting 41 stored in the storage unit 14 and refers to the manner mode, that is, the call It is determined whether or not the mode in which the robot 1 does not output sound from the speaker 31 is valid.
  • the manner mode setting 41 is information that can specify whether or not the manner mode is valid in the calling robot 1.
  • the manner mode setting 41 is a flag indicating whether or not the manner mode is valid. It is not limited to examples.
  • the determination unit 22 determines whether the manner mode is valid, the determination unit 22 outputs the determination result to the voice output control unit 23 and the incoming call notification control unit 24.
  • the manner mode setting 41 is switched based on a user operation input to an operation unit (not shown).
  • the voice output control unit 23 controls the voice output of the calling robot 1. Specifically, when the voice output control unit 23 acquires the telephone number information from the call control unit 21, the voice output control unit 23 refers to the telephone book 42 stored in the storage unit 14, and the telephone owner indicated by the telephone number information The owner information indicating is identified.
  • the telephone directory 42 is a database that stores telephone number information and owner information in association with each other, and is updated based on a user operation (new person's telephone number information and owner information are registered). )
  • the voice output control unit 23 When the voice output control unit 23 specifies the owner information, the voice output control unit 23 waits for the determination result of the determination unit 22 (determination result of whether the manner mode is valid). And the audio
  • the standard voice 43 is voice data for notifying the user of an incoming call, and in this embodiment, the voice is voice data of “(Owner information) is a phone call! Calling hands-free”. is there.
  • the audio output control unit 23 adds the specified owner information to the “(owner information)” portion of the audio data to complete the audio data. Then, the audio output control unit 23 activates the speaker 31 and causes the speaker 31 to output the audio indicated by the audio data. And it will be in the state which waits for the notification to the effect of starting the telephone call from the telephone call control part 21.
  • the voice output control unit 23 when the voice output control unit 23 acquires the notification, the voice output control unit 23 stops outputting the voice, and waits for voice data of the voice uttered by the call partner output from the call control unit 21. Become. When the audio output control unit 23 acquires the audio data, the audio output control unit 23 outputs the audio indicated by the audio data from the speaker 31.
  • the voice output control unit 23 when acquiring the determination result indicating that the manner mode is valid, the voice output control unit 23 outputs the call voice from the receiver 32 selected as the voice output device that outputs the call voice. Specifically, the voice output control unit 23 is in a state of waiting for a notification from the call control unit 21 to start a call. When the notification is received, the receiver 32 is activated, and the voice data of the voice uttered by the call partner, which is output from the call control unit 21, is put on standby. When the audio output control unit 23 acquires the audio data, the audio output control unit 23 outputs the audio indicated by the audio data from the receiver 32.
  • the incoming call notification control unit 24 controls the incoming call notification unit 15 to notify that an incoming call has been received. Specifically, when the determination result acquired from the determination unit 22 is a determination result indicating that the manner mode is valid, the incoming call notification control unit 24 turns on or blinks the incoming call notification unit 15, that is, the LED. . On the other hand, when the acquired determination result is a determination result indicating that the manner mode is invalid, the incoming call notification control unit 24 does not light the incoming call notification unit 15 and ends the process. Note that the incoming call notification control unit 24 may turn on the incoming call notification unit 15 using the acquisition of the determination result as a trigger regardless of the content of the acquired determination result.
  • the storage unit 14 stores various data used by the call robot 1. As shown in FIG. 1, the storage unit 14 stores at least a manner mode setting 41, a telephone book 42, and a standard voice 43. Since the details of the manner mode setting 41, the phone book 42, and the standard voice 43 have already been described, the description thereof is omitted here.
  • FIG. 6 is a flowchart illustrating an example of the flow of output method selection processing.
  • the calling robot 1 is in a state of waiting for an incoming call (step S1, hereinafter, “step” is omitted).
  • step S1 When there is an incoming call (YES in S1), that is, when the call control unit 21 acquires an incoming signal, the call control unit 21 notifies the determination unit 22 to that effect and also includes telephone number information included in the incoming signal. Is output to the audio output control unit 23.
  • the determination unit 22 determines whether the manner mode is set (S2, state determination step). Specifically, the determination unit 22 refers to the manner mode setting 41 stored in the storage unit 14, and determines whether the manner mode is enabled. Then, the determination unit 22 outputs the determination result to the voice output control unit 23 and the incoming call notification control unit 24.
  • the audio output control unit 23 specifies the determination result acquired from the determination unit 22. If the determination result is a determination result indicating that the manner mode is not set (NO in S2), the audio output control unit 23 causes the speaker 31 to output the voice of the other party (S4, audio output step). . Specifically, the sound output control unit 23 activates the speaker 31 and outputs sound for notifying the user of an incoming call from the speaker 31. Then, the voice output control unit 23 makes a call from the call control unit 21 based on the input of a trigger (for example, voice for starting a call as shown in FIG. 3) for the user to start a call.
  • a trigger for example, voice for starting a call as shown in FIG.
  • the output of the voice for notifying the user of the incoming call is stopped, and the voice data of the voice uttered by the other party of the call output from the call control unit 21 is waited.
  • the audio output control unit 23 acquires the audio data, the audio output control unit 23 outputs the audio indicated by the audio data from the speaker 31.
  • the voice output control unit 23 causes the receiver 32 to output the voice of the other party (S3, voice output step). Specifically, the voice output control unit 23 receives a trigger (for example, an operation for starting a call as shown in FIG. 4) for a user to start a call from the call control unit 21. It will be in the state which waits for the notice to the effect of starting a telephone call of. When the notification is received, the receiver 32 is activated, and the voice data of the voice uttered by the call partner, which is output from the call control unit 21, is put on standby.
  • a trigger for example, an operation for starting a call as shown in FIG. 4
  • the audio output control unit 23 When the audio output control unit 23 acquires the audio data, the audio output control unit 23 outputs the audio indicated by the audio data from the receiver 32. Thus, the output method selection process executed by the call robot 1 is completed, and thereafter, a call between the user of the call robot 1 and the call partner is performed.
  • FIG. 7 is a block diagram illustrating an example of a main configuration of the call robot 1a.
  • the difference between the call robot 1a and the call robot 1 described in the first embodiment is that a control unit 10a, a storage unit 14a, and an imaging unit 16 (detection unit) are provided.
  • the imaging unit 16 is a so-called camera that captures an image of the surroundings of the calling robot 1a and generates a captured image. As shown in FIG. 2, the imaging unit 16 is provided between both eyes (between eyebrows) of the call robot 1a, but is not limited to this example. The imaging unit 16 outputs the generated captured image to the control unit 10. Note that the call robot 1a may widen the shooting range by driving a drive unit (not shown). For example, when the imaging unit 16 is provided between the eyebrows as shown in FIG. 2, the driving unit provided at the neck of the calling robot 1a may be driven and the neck may be driven left and right. Thereby, the calling robot 1a can shoot a larger range.
  • control unit 10a includes a call control unit 21a, a determination unit 22a, a voice output control unit 23a, an incoming call notification control unit 24a, and an imaging control unit 25.
  • the call control unit 21a notifies the imaging control unit 25 as well as the determination unit 22a when an incoming signal is acquired from the communication unit 11.
  • the imaging control unit 25 controls the imaging unit 16 to acquire a captured image.
  • the imaging control unit 25 extracts a face image from the captured image. Then, the extracted face image is output to the determination unit 22a. Further, the imaging control unit 25 registers the face image in the face image database 44 (hereinafter, face image DB 44).
  • the face image DB 44 is a database that stores a person's face image, and stores in advance a face image of a person who may be asked about the contents of a call.
  • the imaging control unit 25 may store person identification information (for example, the name of the person) identifying the person indicated by the face image in the face image DB 44 in association with the face image. Further, when the face image can be registered in the phone book 42, the phone book 42 and the face image DB 44 may be integrated.
  • the determination unit 22a waits for the acquisition of the face image.
  • the determination unit 22a acquires the face image from the imaging control unit 25
  • the determination unit 22a refers to the face image DB 44 to determine whether the face image acquired from the imaging control unit 25 is registered.
  • the determination unit 22a outputs the determination result to the voice output control unit 23a and the incoming call notification control unit 24a.
  • the audio output control unit 23a transmits the call partner's voice (call audio) from the speaker 31. ) Is output.
  • a call voice is output from the receiver 32. Note that the details of the process of outputting the call voice from the speaker 31 and the details of the process of outputting the call voice from the receiver 32 are the same as those described in the first embodiment, and thus description thereof is omitted here. To do.
  • the incoming notification control unit 24a turns on the incoming notification unit 15, that is, the LED. .
  • the acquired determination result is a determination result indicating that the face image acquired from the imaging control unit 25 is registered
  • the incoming call notification control unit 24a performs the process without turning on the incoming call notification unit 15. finish.
  • the storage unit 14a stores a face image DB 44 instead of the manner mode setting 41. Note that details of the face image DB 44 have already been described, and a description thereof will be omitted here.
  • FIG. 8 is a flowchart illustrating an example of the flow of output method selection processing. Note that step S11 in FIG. 8 is the same as step S1 in FIG.
  • the determination unit 22a determines whether or not the face image acquired from the imaging control unit 25 is registered in the face image DB 44 (S12, state determination). Step).
  • the determination unit 22a outputs the determination result to the voice output control unit 23a and the incoming call notification control unit 24a.
  • the audio output control unit 23a specifies the determination result acquired from the determination unit 22a.
  • the voice output control unit 23a causes the speaker 31 to output the voice of the other party (S14, Audio output step).
  • the voice output control unit 23a causes the receiver 32 to output the voice of the other party (S13, voice output step). Note that the details of the processing of steps S13 and S14 are the same as those of steps S3 and S4 of FIG. 6 already described, and thus description thereof is omitted here.
  • the output method selection process executed by the call robot 1a is completed, and thereafter, a call between the user of the call robot 1a and the call partner is performed.
  • the call robot 1a described above has registered a face image indicating a person who may be asked about the content of the call in the face image DB 44, but is not limited to this example.
  • the configuration may be such that the face image of a person who does not want to hear the content of the call is registered in the face image DB 44.
  • the voice output control unit 23a outputs the voice of the other party from the receiver 32.
  • the voice output control unit 23a The other party's voice is output from the speaker 31.
  • the above-described call robot 1a uses the face image to determine whether or not a person around the call robot 1a is a person who does not want to hear the content of the call, but is not limited to this example. .
  • the acquired voice may be used to determine whether a person around the calling robot 1a is a person who does not want to hear the contents of the call.
  • the control unit 10a may not include the imaging unit 16 and the imaging control unit 25, and the face image DB 44 is replaced with a voice database that stores voice data of voices uttered by a person.
  • the determination unit 22a determines whether or not audio data that matches the audio data of the audio input to the audio input unit 12 is registered in the audio database. In other words, the determination unit 22a performs voice person authentication.
  • the publicly-known technique can be used for the voice person authentication, detailed description is omitted.
  • the call robot 1a described above causes the speaker 31 to output a sound for notifying an incoming call as shown in FIG.
  • the call voice may be output from the receiver 32.
  • the “voice” includes a call voice that is the voice of the other party to be output at the time of a call and a voice that is generated and output by the call robot 1 (for example, a voice that notifies an incoming call at the time of an incoming call).
  • the call robot 1b outputs the call voice from the receiver 32, the movable part does not move. For example, when outputting a voice for notifying an incoming call (for example, “A call from Mr. A!”) From the speaker 31, an operation to call the user with both hands at the mouth (hereinafter called a call operation) is performed. Do.
  • the calling robot 1b determines whether or not the movable part is moving. If the moving robot 1b is moving, the call robot 1b determines to output sound from the receiver 32, and performs the operation currently being performed. Do not cancel.
  • the calling robot 1b determines whether or not the movable part can be moved, specifically, whether or not there is an obstacle in the vicinity of the movable part. Decide to output sound and do not move the movable part.
  • FIG. 9 is a block diagram illustrating an example of a main configuration of the call robot 1b.
  • the difference between the call robot 1b and the call robot 1 described in the first embodiment is that a control unit 10b, a storage unit 14b, a drive unit 17, and a failure detection unit 18 are provided.
  • the storage unit 14b does not store the manner mode setting 41.
  • the driving unit 17 drives each movable part such as a head and an arm in the call robot 1b, and includes a number of servo motors corresponding to the neck and each joint.
  • the obstacle detection unit 18 detects the positional relationship between the call robot 1b and the obstacle, and outputs a detection result to the control unit 10b, and is configured by a proximity sensor.
  • the proximity sensor indicates whether or not the calling robot 1b and the obstacle are close to each other, that is, if the specific movable part of the calling robot 1b moves even slightly, the obstacle is in contact with the movable part. Detect whether or not.
  • As the proximity sensor a high-frequency start sensor, a magnetic sensor, or the like is used in addition to a capacitance sensor.
  • the obstacle detection unit 18 may be further configured to detect whether the call robot 1b is in contact with an obstacle. Further, the failure detection unit 18 is provided at each movable part of the call robot 1b.
  • the control unit 10b includes a call control unit 21b, a determination unit 22b, a voice output control unit 23b, an incoming call notification control unit 24b, and a drive control unit 26.
  • the call control unit 21b when the call control unit 21b acquires an incoming signal from the communication unit 11, the call control unit 21b notifies the drive control unit 26 as well as the determination unit 22b.
  • the call control unit 21b outputs voice data of the call voice to a voice recognition unit (not shown) in order to drive the drive unit 17 in accordance with the voice (call voice) of the other party.
  • the drive control unit 26 controls the drive unit 17 to move the movable part. Specifically, the drive control unit 26 drives the drive unit 17 based on a speech recognition result (text data indicating the content of speech) acquired from a speech recognition unit (not shown). For example, when the acquired text data is a notification of an incoming call such as “Call from Mr. A!”, The drive control unit 26 controls the drive unit 17 to perform the above-described calling operation. . Further, when the acquired text data includes a word “happy”, the drive unit 17 is controlled so as to perform an operation of raising both hands. In addition, when the acquired text data includes positive words such as “I understand” and “Okay”, the drive unit 17 is controlled to perform an operation (nodding) of moving the neck up and down. In addition, when the acquired text data includes negative words such as “No” or “No”, the drive unit 17 is controlled to perform an operation of moving the neck left and right.
  • a speech recognition result text data indicating the content of speech
  • a speech recognition unit for example, when the acquired text
  • the drive control unit 26 determines a determination result indicating that the calling robot 1b is currently operating, or that the calling robot 1b is not currently operating but the calling robot 1b and the obstacle are close to each other.
  • the drive unit 17 is not driven even if the speech recognition result is acquired from the speech recognition unit after the determination result is acquired.
  • the drive control unit 26 when the drive control unit 26 is notified from the call control unit 21b that the incoming signal has been acquired, the drive unit 17 is driven at that time, that is, whether or not the movable part is moving. The operation information indicating that is output to the determination unit 22b. Further, the drive control unit 26 controls the failure detection unit 18. Specifically, when notified that the incoming call signal has been acquired from the call control unit 21b, the drive control unit 26 activates the obstacle detection unit 18 and determines whether or not the call robot 1b and the obstacle are close to each other. Get the detection result. And the said detection result is output to the determination part 22b.
  • the determination unit 22b When the determination unit 22b is notified from the call control unit 21b that the incoming signal has been acquired, the determination unit 22b enters a state of waiting for operation information and a detection result. When the determination unit 22b acquires the operation information and the detection result, the determination unit 22b determines whether or not the operation information indicates that the call robot 1b is currently operating. Here, when it is determined that it is operating, the result of the determination is output to the voice output control unit 23b, the incoming call notification control unit 24b, and the drive control unit 26. On the other hand, when it is determined that it is not operating, it is determined whether or not the detection result indicates that the calling robot 1b and the obstacle are close to each other. The determination unit 22b outputs the determination result to the voice output control unit 23b, the incoming call notification control unit 24b, and the drive control unit 26.
  • the voice output control unit 23b indicates that the voice output control unit 23b obtains a determination result obtained from the determination unit 22b that the calling robot 1b is not currently operating and that the calling robot 1b and the obstacle are not close to each other. In the case of the determination result shown, the incoming call voice and the call voice are output from the speaker 31. On the other hand, the determination result acquired from the determination unit 22b indicates that the call robot 1b is currently operating, or the call robot 1b is not currently operating, but the call robot 1b and the obstacle are close to each other. If the result is a determination result, the incoming call voice is not output, and the call voice is output from the receiver 32. Note that the details of the process of outputting the call voice from the speaker 31 and the details of the process of outputting the call voice from the receiver 32 are the same as those described in the first embodiment, and thus description thereof is omitted here. To do.
  • the call robot 1b when the call robot 1b according to the present embodiment determines that the call robot 1b is not in operation at the time of an incoming call and the call robot 1b and the obstacle are not close to each other, the call robot 1b receives the incoming call voice and the call voice as a speaker. 31 to output. At this time, the drive control unit 26 of the call robot 1b moves the movable part of the call robot 1b by driving the drive unit 17 in accordance with the incoming voice and the call voice. On the other hand, when it is determined that the calling robot 1b is operating at the time of an incoming call or that the calling robot 1b and the obstacle are close to each other, the incoming call voice is not output and the call voice is output from the receiver 32. At this time, the drive control unit 26 of the call robot 1b does not drive the drive unit 17 in accordance with the incoming call voice and the call voice.
  • the incoming call notification control unit 24b indicates that the determination result obtained from the determination unit 22b indicates that the calling robot 1b is currently operating, or the calling robot 1b is not currently operating, but the calling robot 1b and the obstacle are close to each other. If the determination result indicates that the incoming call is received, the incoming call notification unit 15, that is, the LED is turned on. On the other hand, if the received determination result is a determination result indicating that the calling robot 1b is not currently operating and that the calling robot 1b and the obstacle are not in proximity, the incoming call notification control unit 24b The process is terminated without turning on the notification unit 15.
  • FIG. 10 is a flowchart illustrating an example of the flow of output method selection processing.
  • step S21 in FIG. 10 is the same as step S1 in FIG.
  • the determination unit 22b first determines whether or not the drive unit 17 is driven (S22, state determination step). Specifically, with reference to the operation information acquired from the drive control unit 26, it is determined whether or not the drive unit 17 is driving. When it is determined that the drive unit 17 is driven (YES in S22), the determination unit 22b outputs the determination result to the voice output control unit 23a and the incoming call notification control unit 24a.
  • the determination unit 22b subsequently determines whether an obstacle is detected (S23, state determination step). Specifically, referring to the detection result of the obstacle detection unit 18 acquired from the drive control unit 26, it is determined whether or not the calling robot 1b is close to the obstacle. The determination unit 22b outputs the determination result to the voice output control unit 23a and the incoming call notification control unit 24a.
  • the audio output control unit 23b specifies the determination result acquired from the determination unit 22b.
  • the voice output control unit 23b The other party's voice is output from the speaker 31 (S25, voice output step).
  • the voice output control unit 23b causes the receiver 32 to output the voice of the other party (S24, voice output step).
  • steps S24 and S25 are the same as those of steps S3 and S4 of FIG. 6 already described, and thus description thereof is omitted here.
  • the output method selection process executed by the call robot 1b is completed, and thereafter, a call between the user of the call robot 1b and the call partner is performed.
  • steps S22 and S23 in FIG. 10 may be interchanged.
  • the structure which performs only the process of step S22 may be sufficient, or the structure which performs only the process of step S23 may be sufficient.
  • the determination unit 22b determines the remaining battery level of a battery (not shown), and whether or not the remaining battery level necessary for driving the drive unit 17 is secured. It may be determined. For example, at the time of an incoming call, it may be determined whether or not the current remaining battery level exceeds the lower limit value of the remaining battery level for performing an operation in which the calling robot 1b calls both hands with both hands. .
  • the voice output control unit 23b outputs the voice of the other party from the speaker 31 and indicates that the lower limit value is not exceeded. If it is a result, the voice of the other party is output from the receiver 32. This determination may be performed instead of the two determinations described in the third embodiment, or may be performed in the output method selection process together with the two determinations.
  • the above-described calling robot 1b may be configured not to move the movable part in accordance with the incoming call voice.
  • the incoming call voice can be output from the speaker 31 even when the driving unit 17 is driven at the time of the incoming call. Therefore, as shown in FIG. 5, the voice for notifying the incoming call may be output from the speaker 31 and the call voice may be output from the receiver 32.
  • the determination is not limited to incoming calls. Specifically, the determination may be performed during a call, and the device that outputs the call voice may be switched according to the determination result.
  • the embodiment 2 will be described as an example.
  • the call robot 1b captures the surroundings of the call robot 1b during a call and extracts a face image of a person who is not registered in the face image DB 44 during the call. In this case, the device that outputs the call voice may be changed from the speaker 31 to the receiver 32.
  • the audio output unit 13 is not limited to the speaker 31 and the receiver 32. That is, the audio output unit 13 is output in a state where the user has his / her ears close to an audio output device that is supposed to listen to the output audio while the user has his / her ears separated from the speaker 31. Any audio output device may be used as long as it is assumed to listen to the audio.
  • the call robots 1, 1a, 1b may include earphones or the like instead of the receiver 32, or may include a connector (so-called earphone jack) to which earphones or the like can be connected.
  • the control blocks (particularly the control units 10, 10a, 10b) of the call robots 1, 1a, 1b may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU (Central It may be realized by software using a Processing Unit.
  • the call robot 1, 1a, 1b includes a CPU that executes instructions of a program, which is software that implements each function, and a ROM (Read CPU) in which the program and various data are recorded so as to be readable by the computer (or CPU). Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • a computer reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • a robot (calling robot 1) is a robot having a calling function and capable of outputting a call voice that is a voice of a call partner, and is capable of outputting the call voice.
  • the determination result of the state determination unit (speaker 31), the handset voice output unit (receiver 32) capable of outputting the call voice, the state determination unit (determination unit 22) for determining the state of the robot, and the state determination unit And an audio output control unit (audio output control unit 23) that outputs the call voice from an audio output unit selected from either the hands-free audio output unit or the handset audio output unit.
  • the call voice is output from the voice output unit selected from either the hands-free voice output unit or the handset voice output unit based on the determination result of the robot state. This makes it possible to switch the device that outputs the call voice according to the state of the robot. Therefore, it is possible to switch the device that outputs the call voice according to the use situation.
  • determine the state of the robot means “determines whether or not the robot is in a mode for outputting audio from the hands-free audio output unit”, “result of detecting a person around the robot ”Determining whether the person is the only person who can hear the call voice”, “Determining whether the driving unit of the robot can be driven”, “Determining whether the robot operates when receiving a call” For example, “determining whether or not it is in a state”. That is, the “robot state” includes a state of the robot itself and a state in which the robot detects the surrounding situation.
  • the driving unit it is determined whether or not the driving unit can be driven, that is, whether or not the driving unit can be driven in accordance with the call voice output from the hands-free voice output unit. If it cannot be driven, the call voice is output from the handset voice output unit. As a result, it is possible to prevent a situation in which the driving unit of the robot is forcibly driven. Note that the drive unit is not in a state where it can be driven is that there is an obstacle in the vicinity of the drive unit, or that the remaining amount of battery required to drive the drive unit is not secured. Etc.
  • a drive control unit that drives the drive unit to move the movable part, and the state determination unit determines, as the state, whether or not the drive unit is moving the movable part during an incoming call.
  • the voice output control unit determines that the movable part is not moving, the voice output control unit outputs the call voice from the hands-free voice output unit and determines that the movable part is moving.
  • the call voice may be output from the handset voice output unit.
  • the robot when the drive unit moves the movable part at the time of incoming call, the call voice is output from the handset voice output unit, and the drive unit is not driven in accordance with the call voice.
  • the robot does not operate when the user is approaching the robot close to the ear, so that the user can be prevented from feeling uncomfortable during a call.
  • the state determination unit determines, as the state, whether or not the robot is in a mode in which sound is not output from the hands-free sound output unit.
  • the voice output control unit determines that the mode is not selected, the voice output control unit outputs the call voice from the hands-free voice output unit. May be output from the handset audio output unit.
  • the device that outputs the call voice is switched depending on whether or not it is in a mode in which no voice is output from the hands-free voice output unit.
  • the user can switch the device which outputs a call voice only by switching the said mode according to the condition to be used.
  • the robot according to aspect 5 of the present invention further includes a detection unit (imaging unit 16) that detects a person around the robot in the aspect 1, and the state determination unit includes the detection unit as the state.
  • the voice output control unit determines that only the person who can hear the call voice is detected
  • the call voice is output from the hands-free voice output unit, and when it is determined that only the person who may hear the call voice is not detected, the call voice is output from the handset voice output unit. You may let them.
  • the call voice is output from the voice output unit for the handset. If there is a call, it is possible to automatically make a call method that does not let other people hear the call voice.
  • a specific method for detecting a person around the robot a method of capturing an image of the periphery of the robot or acquiring a voice can be given.
  • the acquired person's image and sound may be used to hear the call voice (or to hear There is a method for determining whether or not the image is registered as an image or sound of a person.
  • a robot control method is a robot control method having a call function and capable of outputting a call voice that is a call partner's voice.
  • the robot can output the call voice.
  • a state determination step (steps S2, S12, S22, and S23) for determining the state of the robot, and a state determination step that includes a handsfree voice output unit and a handset voice output unit capable of outputting the call voice.
  • a voice output step (steps S3, S4, S13) for outputting the call voice from a voice output unit selected from either the hands-free voice output unit or the handset voice output unit based on the determination result in the step. , S14, S24, S25).
  • a drive control unit that drives the drive unit to move the movable part, and the state determination unit determines, as the state, whether or not the drive unit is moving the movable part during an incoming call.
  • the voice output control unit When it is determined that the movable part is not in a moving state, the voice output control unit causes the hands-free voice output unit to output the incoming voice and the call voice for notifying the user of an incoming call, and the driving The control unit drives the driving unit according to the incoming voice and the call voice to move the movable part, and when it is determined that the movable part is moving, The voice output control unit does not output the incoming call voice and causes the call voice to be output from the handset voice output unit, and the drive control unit drives the drive unit in accordance with the incoming voice and the call voice. You don't have to.
  • the drive unit moves the movable part at the time of an incoming call
  • the incoming voice is not output and the drive unit is not driven in accordance with the incoming voice.
  • movement currently performed can be continued.
  • the action can be completed, so that the fall can be prevented.
  • the drive unit moves the movable part at the time of an incoming call
  • the call voice is output from the handset voice output unit, and the drive unit is not driven in accordance with the call voice.
  • the robot does not operate when the user is approaching the robot close to the ear, so that the user can be prevented from feeling uncomfortable during a call.
  • the robot according to each aspect of the present invention may be realized by a computer.
  • the robot is controlled by the computer by causing the computer to operate as each unit (software element) included in the robot.
  • a program and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.

Abstract

使用する状況に応じて、通話相手の音声を出力する方法を切り換える。通話ロボット(1)は、通話ロボット(1)の状態を判定する判定部(22)と、判定部(22)の判定結果に基づいて、スピーカ(31)およびレシーバ(32)のいずれかから選択した音声出力デバイスから通話音声を出力させる音声出力制御部(23)を備える。

Description

ロボット、ロボットの制御方法、制御プログラム、および記録媒体
 本発明は、通話機能を有するロボットに関する。
 ユーザが発した音声を認識し、応答音声を出力することで、ユーザとの対話を行うロボットがある。また近年、下記特許文献1に記載の技術のように、ユーザとの対話機能を有するロボットに通話機能を組み込むことで、当該ロボットを電話として利用する技術が開発されている。下記特許文献1に記載の技術では、スピーカから通話相手の音声を出力することで、フリーハンドでの通話を実現している。
日本国公開特許公報「特開2003-69732号公報(2003年3月7日公開)」 日本国公開特許公報「特開2000-99079号公報(2000年4月7日公開)」
 しかしながら、特許文献1に記載の技術では、通話相手の音声を出力するデバイスを切り換えるという技術思想は開示されていない。そのため、スピーカからの音声出力に適さない状況、例えば、公共の場などでは使用しづらいという問題があった。本発明は、前記の問題点に鑑みてなされたものであり、その目的は、使用する状況に応じて、通話相手の音声を出力するデバイスを切り換えることができるロボットなどを実現することにある。
 上記の課題を解決するために、本発明の一態様に係るロボットは、通話機能を有し、通話相手の音声である通話音声を出力可能なロボットであって、上記通話音声を出力可能なハンズフリー用音声出力部と、上記通話音声を出力するハンドセット用音声出力部と、上記ロボットの状態を判定する状態判定部と、上記状態判定部の判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力させる音声出力制御部と、を備える。
 また、上記の課題を解決するために、本発明の一態様に係るロボットの制御方法は、通話機能を有し、通話相手の音声である通話音声を出力可能なロボットの制御方法であって、上記ロボットは、上記通話音声を出力可能なハンズフリー用音声出力部と、上記通話音声を出力可能なハンドセット用音声出力部と、を備え、上記ロボットの状態を判定する状態判定ステップと、上記状態判定ステップの判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力する音声出力ステップと、を含む。
 本発明の一態様によれば、使用する状況に応じて、通話相手の音声を出力するデバイスを切り換えることができるという効果を奏する。
実施形態1に係る通話ロボットの要部構成の一例を示すブロック図である。 図1に示す通話ロボットの外観の一例を示す外観図である。 図1に示す通話ロボットを用いた、着信から通話開始までの流れの一例を示す図である。 図1に示す通話ロボットを用いた、着信から通話開始までの流れの別の例を示す図である。 図1に示す通話ロボットを用いた、着信から通話開始までの流れのさらに別の例を示す図である。 図1に示す通話ロボットが実行する出力方法選択処理の流れの一例を示すフローチャートである。 実施形態2に係る通話ロボットの要部構成の一例を示すブロック図である。 図7に示す通話ロボットが実行する出力方法選択処理の流れの一例を示すフローチャートである。 実施形態3に係る通話ロボットの要部構成の一例を示すブロック図である。 図9に示す通話ロボットが実行する出力方法選択処理の流れの一例を示すフローチャートである。
 〔実施形態1〕
 以下、本発明の実施形態について、図1~図6に基づいて詳細に説明する。本実施形態に係る通話ロボット1(ロボット)は、ユーザが発した音声を取得し、音声認識を行ったのち、当該音声に対する応答音声をスピーカから出力する、いわゆる対話機能を有する。また、通話ロボット1は、通話機能を有し、通話相手の音声である通話音声をスピーカ(ハンズフリー用音声出力部、ハンズフリー用スピーカ)またはレシーバ(ハンドセット用音声出力部、ハンドセット用スピーカ)から出力可能な構成となっている。さらに、通話ロボット1は、通話ロボット1の状態を判定し、当該判定の判定結果に基づいて、スピーカおよびレシーバのいずれかから選択した音声出力デバイスから、上記通話音声を出力する。
 ここで、「通話ロボット1の状態を判定する」とは、例えば、「通話ロボット1が音声をスピーカから出力するモードとなっているか否かを判定する」、「通話ロボット1の周囲にいる人物を検知した結果、当該人物が通話音声を聞かせてもよい人物のみであるか否かを判定する」、「通話ロボット1の駆動部を駆動可能な状態か否かを判定する」、「着信時に、通話ロボット1が動作をしている状態か否かを判定する」などが挙げられる。つまり、「通話ロボット1の状態」とは、通話ロボット1自体の状態と、通話ロボット1が周囲の状況を検知した状態とを含む。
 図2は、通話ロボット1の外観図である。通話ロボット1は、図2に示すように人型のロボットである。そのため、各種ハードウェアが設けられる位置などを説明する際に、人体の各部を示す文言を用いて説明する場合があるが、このような文言は、通話ロボット1における、当該各部を模した部分を指している。また、通話ロボット1は、人型に限定されるものではない。例えば、動物を模したロボットであってもよい。
 ここで、図3~図5を参照して、着信から通話開始までの通話ロボット1の動作概要について説明する。図3~5は、通話ロボット1を用いた、着信から通話開始までの流れを示す図である。
 図3は、通話ロボット1が所定の条件を満たしている場合の流れを示す図である。図3の(a)に示すように、Aさんが通話ロボット1のユーザであるBさんに電話をかけると、通話ロボット1は、「Aさんから電話だよー!ハンズフリーで通話するよ。」という、着信をユーザ(Bさん)に報知する音声(着信音声)の音声データを生成し、当該音声をスピーカから出力させる。なお、上記着信音声の内容は一例であり、この例に限定されるものではない。例えば、「Aさんから電話だよー!」のみであってもよい。これに対して、Bさんが「わかった。電話に出て」と発言すると、当該発言をトリガとして、通話ロボット1は通話を開始する。これにより、AさんとBさんとの通話が、ハンズフリー通話で開始される。具体的には、図3の(b)に示すように、通話ロボット1はAさんが発した音声である通話音声をスピーカから出力する。すなわちBさんは、通話ロボット1を把持することなく、Aさんと通話することができる。
 一方、図4は、通話ロボット1が所定の条件を満たしていない場合の流れを示す図である。図4の(a)に示すように、Aさんが通話ロボット1のユーザであるBさんに電話をかけると、通話ロボット1は、両目部分に設けられた点灯部を点灯させ、Bさんに着信を報知する。これに対して、Bさんが通話を開始するための所定の操作を通話ロボット1に入力すると、AさんとBさんとの通話が、ハンドセット通話で開始される。具体的には、通話ロボット1は、Aさんの通話音声をレシーバから出力する。Bさんは、図4の(b)に示すように、通話ロボット1を把持して、レシーバを耳に近づけることで、Aさんの通話音声を聞くことができる。
 なお、図5に示すように、通話ロボット1が所定の条件を満たしていない場合、すなわち、ハンドセット通話が開始される場合であっても、着信があったことの報知については、スピーカから出力してもよい。具体的には、図5の(a)に示すように、Aさんが通話ロボット1のユーザであるBさんに電話をかけると、通話ロボット1は、「Aさんから電話だよー!ハンドセットで通話するよ。」という音声の音声データを生成し、当該音声をスピーカから出力させる。これに対して、Bさんが「わかった。電話に出て」と発言すると、当該発言をトリガとして、通話ロボット1は通話を開始する。これにより、AさんとBさんとの通話が、ハンドセット通話で開始される。具体的には、通話ロボット1は、Aさんの通話音声をレシーバから出力するので、Bさんは、図5の(b)に示すように、通話ロボット1を把持して、レシーバを耳に近づける。
 次に、図1および図2を参照して、通話ロボット1の要部構成について説明する。図1は、通話ロボット1の要部構成の一例を示すブロック図である。なお、通話ロボット1は、上述したように対話機能を有するため、ユーザとの対話を実現するための各種部材(例えば、入力された音声を認識する音声認識部や、応答音声を生成する応答音声生成部など)を備えているが、当該部材は本発明と関連性が薄いため、図1および図2への記載、および明細書での説明を省略する。通話ロボット1は、制御部10、通信部11、音声入力部12、音声出力部13、記憶部14、および着信報知部15を備える。なお、図2に示す撮像部16については、実施形態2にて説明する。すなわち、本実施形態に係る通話ロボット1は、撮像部16を備えない構成であってもよい。
 通信部11は、外部の機器との通信を行い、各種情報を送受信する。具体的には、通信部11は、外部の電話機からの着信を示す着信信号を受信すると、その旨を制御部10に出力する。また、通信部11は、外部の電話機との通話が開始した後は、制御部10から入力された音声の音声データを、通話相手の電話機へ送信する。また、通話相手の電話機から音声データを受信すると、当該音声データを制御部10へ出力する。なお、着信信号は、発信した外部の電話機の電話番号を示す数列(以下、電話番号情報)を含んでいる。
 音声入力部12は、通話ロボット1の周囲で発せられた音声を取得して、当該音声の音声データを制御部10に出力する、いわゆるマイクロフォン(以下、マイク)である。通話ロボット1は、図2に示すように、2種類の音声入力部(メインマイクおよびサブマイク)を備えているが、音声入力部12の数はこの例に限定されるものではない。メインマイクは、図2に示すように、通話ロボット1の腰部付近に設けられているが、この例に限定されるものではない。メインマイクは、通話ロボット1を従来の携帯電話機のように手で持ち、ユーザの顔に接触または近接させて通話する(いわゆるハンドセット通話を行なう)場合に、ユーザの口に近づくような位置に設けられればよい。また、サブマイクは、図2に示すように、通話ロボット1の額付近に設けられているが、ユーザが発する音声を取得できる位置であれば、この例に限定されるものではない。
 音声出力部13は、音声データを音声に変換して出力する。音声出力部13は、スピーカ31(ハンズフリー用音声出力部)およびレシーバ32(ハンドセット用音声出力部)を含む。スピーカ31は、ユーザが自身の耳をスピーカ31から離した状態で、出力される音声を聞くことを想定した音声出力デバイスである。スピーカ31は、図2に示すように、通話ロボット1の胴部に設けられているが、この例に限定されるものではない。レシーバ32は、ユーザが自身の耳をレシーバ32に近接させた状態で、出力される音声を聞くことを想定した音声出力デバイスである。レシーバ32は、図2に示すように、通話ロボット1の口に設けられているが、この例に限定されるものではない。レシーバ32は、ハンドセット通話を行なう場合に、ユーザの耳に近づくような位置に設けられればよい。
 着信報知部15は、着信信号を受信したことをユーザに報知する。本実施形態に係る着信報知部15は、着信信号を受信したときに点灯する点灯部であり、例えばLED(light-emitting diode)であるが、LEDに限定されるものではない。着信報知部15は、図2に示すように、通話ロボット1の両目に設けられる。換言すれば、通話ロボット1は、着信信号を受信したとき、両目が発光する構成である。なお、着信報知部15は、着信信号を受信したことをユーザに報知することができれば、点灯部に限定されない。例えば、着信信号を受信したときに、通話ロボット1を振動させる振動部などであってもよい。
 制御部10は、通話ロボット1の機能を統括して制御する。制御部10は、通話制御部21、判定部22(状態判定部)、音声出力制御部23、および着信報知制御部24を含む。
 通話制御部21は、通信部11を制御して通話ロボット1のユーザと、外部の電話機のユーザ(通話相手)との通話を実現する。具体的には、通話制御部21は、通信部11から着信信号を取得すると、その旨を判定部22に通知するとともに、着信信号に含まれる電話番号情報を音声出力制御部23に出力する。また、通話制御部21は、図示しない操作部から通話を開始する操作が入力されたことを示す通話開始信号が入力された場合、または、音声入力部12に通話を開始するための音声が入力された場合、通話を開始する旨を音声出力制御部23に通知し、通話を開始する。
 ここで、音声入力部12に通話を開始するための音声が入力された場合の処理について具体的に説明すると、着信信号を受信した後に音声入力部12に音声が入力された場合、当該音声の音声データは、制御部10に含まれる図示しない音声認識部に出力される。音声認識部は音声認識を実行し、生成したテキストデータに、通話を開始するトリガとなる文字列(例えば、「電話に出て」など)が含まれているか否かを判定する。含まれている場合、音声認識部は、通話開始指示を通話制御部21に出力する。一方、含まれていない場合、音声認識部は処理を終了する。また、通話制御部21は、通話を開始してから、音声入力部12から、通話ロボット1のユーザが発した音声の音声データを取得すると、当該音声データを、通信部11を介して通話相手の電話機に送信する。また、通話制御部21は、通信部11を介して通話相手の音声の音声データを受信すると、当該音声データを音声出力制御部23に出力する。
 判定部22は、通話ロボット1の状態を判定する。具体的には、判定部22は、通話制御部21から、着信信号を取得した旨を通知されると、記憶部14に記憶されているマナーモード設定41を参照し、マナーモード、すなわち、通話ロボット1が音声をスピーカ31から出力しないモードが有効となっているか否かを判定する。なお、マナーモード設定41は、通話ロボット1において、マナーモードが有効となっているか否かを特定できる情報であり、例えば、マナーモードが有効となっているか否かを示すフラグであるが、この例に限定されるものではない。また、判定部22は、マナーモードが有効であるか否かを判定すると、その判定結果を音声出力制御部23および着信報知制御部24に出力する。なお、マナーモード設定41は、図示しない操作部に対して入力されたユーザ操作に基づいて切り替えられる。
 音声出力制御部23は、通話ロボット1の音声出力を制御する。具体的には、音声出力制御部23は、通話制御部21から電話番号情報を取得すると、記憶部14に記憶されている電話帳42を参照して、当該電話番号情報が示す電話機の所有者を示す所有者情報を特定する。なお、電話帳42は、電話番号情報と所有者情報とを対応付けて記憶しているデータベースであり、ユーザ操作に基づいて更新される(新たな人物の電話番号情報と所有者情報が登録される)。
 音声出力制御部23は、所有者情報を特定すると、判定部22の判定結果(マナーモードが有効であるか否かの判定結果)を待機する状態となる。そして、音声出力制御部23は、取得した判定結果に基づいて、スピーカ31およびレシーバ32のいずれかから選択した音声出力デバイスから、通話音声を出力する。具体的には、音声出力制御部23は、取得した判定結果が、マナーモードが無効であることを示す判定結果である場合、通話音声を出力する音声出力デバイスとして選択したスピーカ31から通話相手の音声(通話音声)を出力させる。より具体的には、音声出力制御部23は、定型音声43を、記憶部14から読み出す。定型音声43は、ユーザに着信を報知するための音声の音声データであり、本実施形態では、「(所有者情報)から電話だよー!ハンズフリーで通話するよ。」という音声の音声データである。音声出力制御部23は、当該音声データの「(所有者情報)」の部分に、特定した所有者情報を追加して、音声データを完成させる。そして、音声出力制御部23は、スピーカ31を起動して、当該音声データが示す音声をスピーカ31に出力させる。そして、通話制御部21からの、通話を開始する旨の通知を待機する状態となる。なお、音声出力制御部23は、「(所有者情報)から電話だよー!ハンズフリーで通話するよ。」という音声を、当該通知を取得するまで、スピーカ31から繰り返し出力させることが好ましい。これにより、通話ロボット1のユーザが着信に気付く可能性が高くなる。この構成である場合、音声出力制御部23は、当該通知を取得すると、当該音声の出力を停止し、通話制御部21から出力される、通話相手が発話した音声の音声データを待機する状態となる。音声出力制御部23は、当該音声データを取得すると、当該音声データが示す音声をスピーカ31から出力させる。
 一方、音声出力制御部23は、マナーモードが有効であることを示す判定結果を取得した場合、通話音声を出力する音声出力デバイスとして選択したレシーバ32から通話音声を出力させる。具体的には、音声出力制御部23は、通話制御部21からの、通話を開始する旨の通知を待機する状態となる。そして、当該通知を受けると、レシーバ32を起動し、通話制御部21から出力される、通話相手が発話した音声の音声データを待機する状態となる。音声出力制御部23は、当該音声データを取得すると、当該音声データが示す音声をレシーバ32から出力させる。
 着信報知制御部24は、着信報知部15を制御して、着信したことを報知させる。具体的には、着信報知制御部24は、判定部22から取得した判定結果が、マナーモードが有効であることを示す判定結果であった場合、着信報知部15、すなわちLEDを点灯または点滅させる。一方、着信報知制御部24は、取得した判定結果が、マナーモードが無効であることを示す判定結果であった場合、着信報知部15を点灯させず、処理を終了する。なお、着信報知制御部24は、取得した判定結果の内容に関わらず、判定結果を取得したことをトリガとして、着信報知部15を点灯させてもよい。
 記憶部14は、通話ロボット1が使用する各種データを記憶する。図1に示すように、記憶部14は、少なくともマナーモード設定41、電話帳42、および定型音声43を記憶している。なお、マナーモード設定41、電話帳42、および定型音声43の詳細については既に説明しているため、ここでの説明を省略する。
 次に、図6を参照して、通話ロボット1が実行する出力方法選択処理の流れについて説明する。図6は、出力方法選択処理の流れの一例を示すフローチャートである。まず、通話ロボット1は、着信を待機している状態となっている(ステップS1、以下、「ステップ」を省略)。着信があった場合(S1でYES)、すなわち、通話制御部21が着信信号を取得した場合、通話制御部21は、その旨を判定部22に通知するとともに、着信信号に含まれる電話番号情報を音声出力制御部23に出力する。続いて、判定部22は、通話制御部21から着信信号を取得した旨の通知を受けると、マナーモードが設定されているか否かを判定する(S2、状態判定ステップ)。具体的には、判定部22は、記憶部14に記憶されているマナーモード設定41を参照し、マナーモードが有効になっているか否かを判定する。そして、判定部22は、当該判定の結果を音声出力制御部23および着信報知制御部24に出力する。
 続いて、音声出力制御部23は、判定部22から取得した判定結果を特定する。判定結果が、マナーモードが設定されていないことを示す判定結果であった場合(S2でNO)、音声出力制御部23は、スピーカ31から通話相手の音声を出力させる(S4、音声出力ステップ)。具体的には、音声出力制御部23は、スピーカ31を起動して、スピーカ31から着信をユーザに報知するための音声を出力する。そして、音声出力制御部23は、ユーザが通話を開始するためのトリガ(例えば、図3に示すような通話を開始するための音声)を入力したことに基づく、通話制御部21からの通話を開始する旨の通知を受けると、着信をユーザに報知するための音声の出力を停止し、通話制御部21から出力される、通話相手が発話した音声の音声データを待機する状態となる。音声出力制御部23は、当該音声データを取得すると、当該音声データが示す音声をスピーカ31から出力させる。
 一方、マナーモードが設定されていることを示す判定結果であった場合(S2でYES)、音声出力制御部23は、レシーバ32から通話相手の音声を出力させる(S3、音声出力ステップ)。具体的には、音声出力制御部23は、ユーザが通話を開始するためのトリガ(例えば、図4に示すような通話を開始するための操作)を入力したことに基づく、通話制御部21からの通話を開始する旨の通知を待機する状態となる。そして、当該通知を受けると、レシーバ32を起動し、通話制御部21から出力される、通話相手が発話した音声の音声データを待機する状態となる。音声出力制御部23は、当該音声データを取得すると、当該音声データが示す音声をレシーバ32から出力させる。以上で通話ロボット1が実行する出力方法選択処理は終了し、これ以降、通話ロボット1のユーザと通話相手との通話が行われる。
 〔実施形態2〕
 本発明の他の実施形態について、図2、図7および図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、以降の実施形態においては、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。所定の条件を満たしているか否かの判定の具体例は、実施形態1で説明した、マナーモードが有効となっているか否かの判定に限定されない。本実施形態では、本実施形態に係る通話ロボット1aの周囲にいる人物を検知した結果、当該人物が通話音声を聞かせてもよい人物のみであるか否かを判定する。
 まず、図2および図7を参照して、通話ロボット1aの要部構成について説明する。図7は、通話ロボット1aの要部構成の一例を示すブロック図である。通話ロボット1aと、実施形態1にて説明した通話ロボット1との相違点は、制御部10a、記憶部14a、および撮像部16(検知部)を備える点である。
 撮像部16は、通話ロボット1aの周囲を撮影し、撮影画像を生成する、いわゆるカメラである。撮像部16は、図2に示すように、通話ロボット1aの両目の間(眉間)に設けられているが、この例に限定されるものではない。撮像部16は、生成した撮影画像を制御部10に出力する。なお、通話ロボット1aは、図示しない駆動部を駆動させることにより、撮影範囲を広げてもよい。例えば、図2のように眉間に撮像部16が設けられている場合、通話ロボット1aの首部に設けられた駆動部を駆動させ、首部を左右に駆動させてもよい。これにより、通話ロボット1aはより多くの範囲を撮影することができる。
 制御部10aは、制御部10と異なり、通話制御部21a、判定部22a、音声出力制御部23a、および着信報知制御部24a、および撮像制御部25を含む。通話制御部21aは、実施形態1で説明した通話制御部21の機能に加え、通信部11から着信信号を取得するとその旨を判定部22aだけでなく撮像制御部25に通知する。
 撮像制御部25は、撮像部16を制御して、撮影画像を取得する。撮像制御部25は、撮影画像を取得すると、当該撮影画像から顔画像を抽出する。そして、抽出した顔画像を判定部22aに出力する。また、撮像制御部25は、顔画像を顔画像データベース44(以下、顔画像DB44)に登録する。顔画像DB44は、人物の顔画像を記憶しているデータベースであり、通話の内容を聞かれてもよい人物の顔画像を、予め格納しておくものである。なお、撮像制御部25は、当該顔画像が示す人物を識別する人物識別情報(例えば、当該人物の名前など)を、顔画像に対応付けて顔画像DB44に格納してもよい。また、電話帳42に顔画像を登録することが可能である場合、電話帳42と顔画像DB44とは一体となっていてもよい。
 判定部22aは、通話制御部21aから着信信号を取得した旨を通知されると、顔画像の取得を待機する状態となる。判定部22aは撮像制御部25から顔画像を取得すると、顔画像DB44を参照して、撮像制御部25から取得した顔画像が登録されているか否かを判定する。判定部22aは、当該判定の結果を音声出力制御部23aおよび着信報知制御部24aに出力する。
 音声出力制御部23aは、判定部22aから取得した判定結果が、撮像制御部25から取得した顔画像が登録されていることを示す判定結果である場合、スピーカ31から通話相手の音声(通話音声)を出力させる。一方、登録されていないことを示す判定結果である場合、レシーバ32から通話音声を出力させる。なお、スピーカ31から通話音声を出力させる処理の詳細、および、レシーバ32から通話音声を出力させる処理の詳細については、実施形態1にて説明したものと同様であるため、ここでの説明を省略する。
 着信報知制御部24aは判定部22aから取得した判定結果が、撮像制御部25から取得した顔画像が登録されていないことを示す判定結果であった場合、着信報知部15、すなわちLEDを点灯させる。一方、着信報知制御部24aは、取得した判定結果が、撮像制御部25から取得した顔画像が登録されていることを示す判定結果であった場合、着信報知部15を点灯させず、処理を終了する。
 記憶部14aは、実施形態1にて説明した記憶部14と異なり、マナーモード設定41に代えて、顔画像DB44を記憶している。なお、顔画像DB44の詳細については既に説明しているため、ここでの説明を省略する。
 次に、図8を参照して、通話ロボット1aが実行する出力方法選択処理の流れについて説明する。図8は、出力方法選択処理の流れの一例を示すフローチャートである。なお、図8のステップS11は、既に説明した図6のステップS1と同様であるため、ここでの説明を省略する。判定部22aは、通話制御部21aから着信信号を取得した旨の通知を受けると、撮像制御部25から取得した顔画像が顔画像DB44に登録されているか否かを判定する(S12、状態判定ステップ)。判定部22aは、当該判定の結果を音声出力制御部23aおよび着信報知制御部24aに出力する。続いて、音声出力制御部23aは、判定部22aから取得した判定結果を特定する。判定結果が、顔画像が顔画像DB44に登録されていることを示す判定結果であった場合(S12でYES)、音声出力制御部23aは、スピーカ31から通話相手の音声を出力させる(S14、音声出力ステップ)。一方、顔画像DB44に登録されていないことを示す判定結果であった場合(S12でNO)、音声出力制御部23aは、レシーバ32から通話相手の音声を出力させる(S13、音声出力ステップ)。なお、ステップS13およびS14の処理の詳細は、既に説明した図6のステップS3およびS4とそれぞれ同様であるため、ここでの説明を省略する。以上で、通話ロボット1aが実行する出力方法選択処理は終了し、これ以降、通話ロボット1aのユーザと通話相手との通話が行われる。
 次に、実施形態2の変形例について説明する。上述した通話ロボット1aは、通話の内容を聞かれてもよい人物を示す顔画像を顔画像DB44に登録していたが、この例に限定されない。例えば、通話の内容を聞かれたくない人物の顔画像を顔画像DB44に登録する構成であってもよい。ここで、顔画像DB44に顔画像が登録されている場合、音声出力制御部23aは、レシーバ32から通話相手の音声を出力させ、顔画像が登録されていない場合、音声出力制御部23aは、スピーカ31から通話相手の音声を出力させる。
 また、上述した通話ロボット1aは、顔画像を用いて、通話ロボット1aの周囲にいる人物が通話の内容を聞かれたくない人物であるか否かを判定していたが、この例に限定されない。例えば、取得した音声を用いて、通話ロボット1aの周囲にいる人物が通話の内容を聞かれたくない人物であるか否かを判定してもよい。この場合、制御部10aは、撮像部16および撮像制御部25を備えなくてもよく、顔画像DB44は、人物が発した音声の音声データを記憶する音声データベースに置き換えられる。また、判定部22aは、音声入力部12に入力された音声の音声データと一致する音声データが、音声データベースに登録されているか否かを判定する。換言すれば、判定部22aは、音声による人物認証を行う。なお、音声による人物認証は、公知技術を利用することができるため、詳細な説明を省略する。
 また、上述した通話ロボット1aは、撮像制御部25から取得した顔画像が顔画像DB44に登録されていない場合に、図5に示すように、着信を報知する音声をスピーカ31から出力させた上で、通話音声をレシーバ32から出力させてもよい。
 〔実施形態3〕
 本発明の他の実施形態について、図9および図10に基づいて説明すれば、以下のとおりである。本実施形態では、本実施形態に係る通話ロボット1bが、可動部位を動かしている状態か否か、および、可動部位の近傍に障害物がある状態か否かを判定する。
 通話ロボット1bは、音声をスピーカ31から出力する場合、可動部位を動かして、当該音声に応じた動作を行う。なお、当該「音声」は、通話時に出力される通話相手の音声である通話音声と、通話ロボット1が生成し、出力する音声(例えば、着信時に着信を報知する音声)を含む。一方、通話ロボット1bは、通話音声をレシーバ32から出力する場合、可動部位は動かさない。例えば、着信時に着信を報知する音声(例えば、「Aさんから電話だよー!」)をスピーカ31から出力するときに、両手を口元にあて、ユーザに呼びかけるような動作(以下、呼びかけ動作)を行う。この場合、着信時に別の動作(例えば歩行動作)をしていると、歩行動作を中止して、上記呼びかけ動作を行うこととなるため、通話ロボット1bが転倒するおそれがある。そのため、通話ロボット1bは、可動部を動かしている状態であるか否かを判定し、動かしている状態の場合、レシーバ32から音声を出力するように決定し、現在行っている動作を途中で中止しないようにする。
 また、スピーカ31から音声を出力すると、当該音声に応じて可動部位が動くため、可動部位の近傍に障害物がある場合、障害物によって可動部位が故障したり、破損したりするおそれがある。そのため、通話ロボット1bは、可動部位を動かすことができる状態であるか否か、具体的には可動部位の近傍に障害物があるか否かを判定し、障害物がある場合、レシーバ32から音声を出力するように決定し、可動部位を動かさないようにする。
 次に、図9を参照して、通話ロボット1bの要部構成について説明する。図9は、通話ロボット1bの要部構成の一例を示すブロック図である。通話ロボット1bと、実施形態1にて説明した通話ロボット1との相違点は、制御部10b、記憶部14b、駆動部17、および障害検知部18を備える点である。記憶部14bは、実施形態1にて説明した記憶部14と異なり、マナーモード設定41を記憶していない。
 駆動部17は、通話ロボット1bにおける頭部や腕部などの各可動部位を駆動するものであり、首部や各関節部に対応する数のサーボモータで構成される。障害検知部18は、通話ロボット1bと障害物との位置関係を検知し、検知結果を制御部10bに出力するものであり、近接センサで構成されている。近接センサは、通話ロボット1bと障害物とが近接しているか否か、すなわち、通話ロボット1bの特定の可動部位が僅かでも動けば、当該可動部位に障害物が接触してしまう状態であるか否かを検知する。近接センサとしては、静電容量式センサの他、高周波発進式センサ、または磁気式センサなどが用いられる。なお、障害検知部18は、さらに、通話ロボット1bと障害物とが接触しているか否かを検知可能なように構成されていてもよい。また、障害検知部18は、通話ロボット1bの各可動部位に設けられる。
 制御部10bは、制御部10と異なり、通話制御部21b、判定部22b、音声出力制御部23b、着信報知制御部24b、および駆動制御部26を含む。通話制御部21bは、実施形態1で説明した通話制御部21の機能に加え、通信部11から着信信号を取得すると、その旨を判定部22bだけでなく駆動制御部26に通知する。また、通話制御部21bは、通話相手の音声(通話音声)に応じて駆動部17を駆動させるために、通話音声の音声データを図示しない音声認識部に出力する。
 駆動制御部26は、駆動部17を制御して、可動部位を動かす。具体的には、駆動制御部26は、図示しない音声認識部から取得した音声認識結果(音声の内容を示すテキストデータ)に基づいて、駆動部17を駆動させる。例えば、取得したテキストデータが「Aさんから電話だよー!」などの、着信を報知するものであった場合、駆動制御部26は、上述した呼びかけ動作を行うように、駆動部17を制御する。また、取得したテキストデータに「うれしい」という文言が含まれている場合、両手を上に上げるような動作を行うように、駆動部17を制御する。また、取得したテキストデータに「分かった」、「オッケー」などの、肯定的な文言が含まれている場合、首を上下に動かす動作(うなづき)を行うように、駆動部17を制御する。また、取得したテキストデータに「違うよ」、「いやだよ」などの、否定的な文言が含まれている場合、首を左右に動かす動作を行うように、駆動部17を制御する。なお、ここに示した動作は一例であり、この例に限定されるものではない。
 なお、駆動制御部26は、通話ロボット1bが現在動作中であること、または、通話ロボット1bは現在動作中でないが、通話ロボット1bと障害物とが近接していることを示す判定結果を判定部22bから取得した場合、当該判定結果の取得以降に音声認識部から音声認識結果を取得しても、駆動部17を駆動させない。
 また、駆動制御部26は、通話制御部21bから着信信号を取得した旨を通知されると、その時点で駆動部17が駆動している、すなわち、可動部位を動かしている状態であるか否かを示す動作情報を判定部22bに出力する。また、駆動制御部26は、障害検知部18を制御する。具体的には、駆動制御部26は、通話制御部21bから着信信号を取得した旨を通知されると、障害検知部18を起動し、通話ロボット1bと障害物とが近接しているか否かの検知結果を取得する。そして、当該検知結果を判定部22bに出力する。
 判定部22bは、通話制御部21bから着信信号を取得した旨を通知されると、動作情報および検知結果を待機する状態となる。判定部22bは、動作情報および検知結果を取得すると、当該動作情報が、通話ロボット1bが現在動作中であることを示しているか否かを判定する。ここで、動作中であると判定した場合、当該判定の結果を音声出力制御部23b、着信報知制御部24b、および駆動制御部26に出力する。一方、動作中でないと判定した場合、当該検知結果が、通話ロボット1bと障害物とが近接していることを示しているか否かを判定する。判定部22bは、当該判定の結果を音声出力制御部23b、着信報知制御部24b、および駆動制御部26に出力する。
 音声出力制御部23bは、音声出力制御部23bは、判定部22bから取得した判定結果が、通話ロボット1bが現在動作中でないこと、および、通話ロボット1bと障害物とが近接していないことを示す判定結果である場合、スピーカ31から着信音声および通話音声を出力させる。一方、判定部22bから取得した判定結果が、通話ロボット1bが現在動作中であること、または、通話ロボット1bは現在動作中でないが、通話ロボット1bと障害物とが近接していることを示す判定結果である場合、着信音声は出力させず、レシーバ32から通話音声を出力させる。なお、スピーカ31から通話音声を出力させる処理の詳細、および、レシーバ32から通話音声を出力させる処理の詳細については、実施形態1にて説明したものと同様であるため、ここでの説明を省略する。
 以上をまとめると、本実施形態に係る通話ロボット1bは、着信時に通話ロボット1bが動作中でなく、通話ロボット1bと障害物とが近接していないと判定した場合、着信音声および通話音声をスピーカ31から出力させる。このとき、通話ロボット1bの駆動制御部26は、着信音声および通話音声に合わせて駆動部17を駆動させて通話ロボット1bの可動部位を動かす。一方、着信時に通話ロボット1bが動作中、または、通話ロボット1bと障害物とが近接していると判定した場合、着信音声を出力させず、通話音声をレシーバ32から出力させる。このとき、通話ロボット1bの駆動制御部26は、着信音声および通話音声に合わせて駆動部17を駆動させない。
 着信報知制御部24bは、判定部22bから取得した判定結果が、通話ロボット1bが現在動作中であること、または、通話ロボット1bは現在動作中でないが、通話ロボット1bと障害物とが近接していることを示す判定結果であった場合、着信報知部15、すなわちLEDを点灯させる。一方、着信報知制御部24bは、取得した判定結果が、通話ロボット1bが現在動作中でないこと、および、通話ロボット1bと障害物とが近接していないことを示す判定結果であった場合、着信報知部15を点灯させず、処理を終了する。
 次に、図10を参照して通話ロボット1bが実行する出力方法選択処理の流れについて説明する。図10は、出力方法選択処理の流れの一例を示すフローチャートである。なお、図10のステップS21は、既に説明した図6のステップS1と同様であるため、ここでの説明を省略する。判定部22bは、通話制御部21bから着信信号を取得した旨の通知を受けると、まず、駆動部17が駆動しているか否かを判定する(S22、状態判定ステップ)。具体的には、駆動制御部26から取得した動作情報を参照し、駆動部17が駆動しているか否かを判定する。駆動部17が駆動していると判定した場合(S22でYES)、判定部22bは当該判定の結果を音声出力制御部23aおよび着信報知制御部24aに出力する。一方、駆動部17が駆動していないと判定した場合(S22でNO)、判定部22bは続いて、障害物を検知したか否かを判定する(S23、状態判定ステップ)。具体的には、駆動制御部26から取得した、障害検知部18の検知結果を参照し、通話ロボット1bと障害物とが近接しているか否かを判定する。判定部22bは当該判定の結果を音声出力制御部23aおよび着信報知制御部24aに出力する。
 続いて、音声出力制御部23bは、判定部22bから取得した判定結果を特定する。判定結果が、通話ロボット1bが現在動作中でないこと、および、通話ロボット1bと障害物とが近接していないことを示す判定結果であった場合(S23でNO)、音声出力制御部23bは、スピーカ31から通話相手の音声を出力させる(S25、音声出力ステップ)。一方、判定結果が、通話ロボット1bが現在動作中であることを示す判定結果であった場合(S22でYES)、または、通話ロボット1bは現在動作中でないが、通話ロボット1bと障害物とが近接していることを示す判定結果であった場合(S23でYES)、音声出力制御部23bは、レシーバ32から通話相手の音声を出力させる(S24、音声出力ステップ)。なお、ステップS24およびS25の処理の詳細は、既に説明した図6のステップS3およびS4とそれぞれ同様であるため、ここでの説明を省略する。以上で、通話ロボット1bが実行する出力方法選択処理は終了し、これ以降、通話ロボット1bのユーザと通話相手との通話が行われる。なお、図10のステップS22とS23との順序を入れ替えてもよい。また、ステップS22の処理のみを行う構成であってもよいし、または、ステップS23の処理のみを行う構成であってもよい。
 次に、実施形態3の変形例について説明する。判定部22bは、通話制御部21bから着信信号を取得した旨の通知を受けると、図示しないバッテリのバッテリ残量を判定し、駆動部17の駆動に必要なバッテリ残量を確保できているか否かを判定してもよい。例えば、着信時に、通話ロボット1bが両手を口元にあて、ユーザに呼びかけるような動作を行なうためのバッテリ残量の下限値を、現在のバッテリ残量が超えているか否かを判定してもよい。音声出力制御部23bは、当該判定結果が、上記下限値を超えていることを示す判定結果である場合、スピーカ31から通話相手の音声を出力させ、上記下限値を越えていないことを示す判定結果である場合、レシーバ32から通話相手の音声を出力させる。なお、この判定は、実施形態3にて説明した2つの判定に代えて行ってもよいし、当該2つの判定とともに、出力方法選択処理にて行われてもよい。
 また、上述した通話ロボット1bは、着信音声に合わせて、可動部位を動かさない構成であってもよい。この場合、着信があったことをトリガとする動作は行わないので、着信時に駆動部17が駆動している場合であっても、スピーカ31から着信音声を出力させることができる。よって、図5に示すように、着信を報知する音声をスピーカ31から出力させた上で、通話音声をレシーバ32から出力させてもよい。
 〔各実施形態に共通の変形例〕
 実施形態1~3では、いずれも、通話ロボット1、1a~1cの状態の判定を、着信時に行う構成について説明した。しかしながら、当該判定は着信時に限定されない。具体的には、通話中に当該判定を行い、その判定結果に応じて、通話音声を出力させるデバイスを切り換えてもよい。例えば、実施形態2を例に挙げて説明すると、通話ロボット1bは、通話中も通話ロボット1bの周囲を撮影しており、通話中に顔画像DB44に登録されていない人物の顔画像を抽出した場合、通話音声を出力させるデバイスを、スピーカ31からレシーバ32に変更してもよい。
 また、音声出力部13は、スピーカ31およびレシーバ32に限定されない。すなわち音声出力部13は、ユーザが自身の耳をスピーカ31から離した状態で、出力される音声を聞くことを想定した音声出力デバイスと、ユーザが自身の耳を近接させた状態で、出力される音声を聞くことを想定した音声出力デバイスであればよい。例えば、通話ロボット1、1a、1bは、レシーバ32の代わりにイヤフォンなどを備えてもよいし、または、イヤフォンなどを接続可能なコネクタ(いわゆるイヤフォンジャック)を備えてもよい。
 〔ソフトウェアによる実現例〕
 通話ロボット1、1a、1bの制御ブロック(特に制御部10、10a、10b)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、通話ロボット1、1a、1bは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一実施態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係るロボット(通話ロボット1)は、通話機能を有し、通話相手の音声である通話音声を出力可能なロボットであって、上記通話音声を出力可能なハンズフリー用音声出力部(スピーカ31)と、上記通話音声を出力可能なハンドセット用音声出力部(レシーバ32)と、上記ロボットの状態を判定する状態判定部(判定部22)と、上記状態判定部の判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力させる音声出力制御部(音声出力制御部23)と、を備える。
 上記の構成によれば、ロボットの状態の判定結果に基づいて、ハンズフリー用音声出力部およびハンドセット用音声出力部のいずれかから選択した音声出力部から、通話音声を出力させる。これにより、ロボットの状態に応じて、通話音声を出力するデバイスを切り換えることができる。よって、使用する状況に応じて、通話音声を出力するデバイスを切り換えることができる。なお、「ロボットの状態を判定する」とは、「ロボットが音声をハンズフリー用音声出力部から出力するモードとなっているか否かを判定する」、「ロボットの周囲にいる人物を検知した結果、当該人物が通話音声を聞かせてもよい人物のみであるか否かを判定する」、「ロボットの駆動部を駆動可能な状態か否かを判定する」、「着信時に、ロボットが動作をしている状態か否かを判定する」などが挙げられる。つまり、「ロボットの状態」とは、ロボット自体の状態と、ロボットが周囲の状況を検知した状態とを含む。
 本発明の態様2に係るロボットは、上記態様1において、上記ロボットの可動部位に設けられる駆動部(駆動部17)と、上記ハンズフリー用音声出力部から上記通話音声が出力される場合、当該通話音声の出力に合わせて、上記駆動部を駆動させて上記可動部位を動かす駆動制御部(駆動制御部26)と、をさらに備え、上記状態判定部は、上記状態として、上記駆動部が駆動可能な状態か否かを判定し、上記音声出力制御部は、駆動可能な状態と判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、駆動可能な状態でないと判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させてもよい。
 上記の構成によれば、駆動部が駆動可能な状態か否か、すなわち、ハンズフリー用音声出力部から出力される通話音声に合わせて、駆動部を駆動させることができるか否かを判定し、駆動させることができない場合、通話音声をハンドセット用音声出力部から出力させる。これにより、ロボットの駆動部を無理に駆動させるという状況を防ぐことができる。なお、駆動部が駆動可能な状態でないとは、駆動部の近傍に障害物がある状態であることや、駆動部を駆動させるのに必要なバッテリの残量が確保されていない状態であることなどが挙げられる。
 本発明の態様3に係るロボットは、上記態様1において、上記ロボットの可動部位に設けられる駆動部と、上記ハンズフリー用音声出力部から音声が出力される場合、当該音声の出力に合わせて、上記駆動部を駆動させて上記可動部位を動かす駆動制御部と、をさらに備え、上記状態判定部は、上記状態として、着信時に上記駆動部が上記可動部位を動かしている状態か否かを判定し、上記音声出力制御部は、上記可動部位を動かしている状態でないと判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記可動部位を動かしている状態と判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させてもよい。
 上記の構成によれば、着信時に駆動部が可動部位を動かしている場合、通話音声をハンドセット用音声出力部から出力し、通話音声に合わせて駆動部を駆動させない。これにより、ユーザがロボットを耳に近づけているときにロボットが動作することが無くなるので、通話中にユーザが不快に感じることを防ぐことができる。
 本発明の態様4に係るロボットは、上記態様1において、上記状態判定部は、上記状態として、上記ロボットが音声を上記ハンズフリー用音声出力部から出力しないモードとなっているか否かを判定し、上記音声出力制御部は、上記モードとなっていないと判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記モードとなっていると判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させてもよい。
 上記の構成によれば、音声をハンズフリー用音声出力部から出力しないモードになっているか否かに応じて、通話音声を出力するデバイスを切り換える。これにより、ユーザは使用する状況に応じて当該モードを切り替えるだけで、通話音声を出力するデバイスを切り換えることができる。
 本発明の態様5に係るロボットは、上記態様1において、上記ロボットの周囲にいる人物を検知する検知部(撮像部16)をさらに備え、上記状態判定部は、上記状態として、上記検知部が検知した人物が上記通話音声を聞かせてもよい人物のみであるか否かを判定し、上記音声出力制御部は、上記通話音声を聞かせてもよい人物のみが検知された状態と判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記通話音声を聞かせてもよい人物のみが検知された状態でないと判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させてもよい。
 上記の構成によれば、検知された人物が通話音声を聞かせてもよい人物のみでないと判定した場合、通話音声をハンドセット用音声出力部から出力するので、通話音声を聞かせたくない人物が周囲にいる場合、自動的に、通話音声を他人に聞かせないような通話方法とすることができる。なお、ロボットの周囲にいる人物の具体的な検知方法としては、ロボットの周囲を撮像したり、音声を取得したりする方法が挙げられる。また、検知された人物が、通話音声を聞かせてもよい人物のみであるか否かの具体的な判定方法としては、取得した人物の画像や音声が、通話音声を聞かせてもよい(または聞かせたくない)人物の画像や音声として登録されているか否かを判定する方法が挙げられる。
 本発明の態様6に係るロボットの制御方法は、通話機能を有し、通話相手の音声である通話音声を出力可能なロボットの制御方法であって、上記ロボットは、上記通話音声を出力可能なハンズフリー用音声出力部と、上記通話音声を出力可能なハンドセット用音声出力部と、を備え、上記ロボットの状態を判定する状態判定ステップ(ステップS2、S12、S22、S23)と、上記状態判定ステップでの判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力する音声出力ステップ(ステップS3、S4、S13、S14、S24、S25)と、を含む。上記の構成によれば、態様1に係るロボットと同様の作用効果を奏する。
 本発明の態様7に係るロボットは、上記態様1において、上記ロボットの可動部位に設けられる駆動部と、上記ハンズフリー用音声出力部から音声が出力される場合、当該音声の出力に合わせて、上記駆動部を駆動させて上記可動部位を動かす駆動制御部と、をさらに備え、上記状態判定部は、上記状態として、着信時に上記駆動部が上記可動部位を動かしている状態か否かを判定し、上記可動部位を動かしている状態でないと判定された場合、上記音声出力制御部は、着信をユーザに報知する着信音声および上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記駆動制御部は、上記着信音声および上記通話音声に合わせて上記駆動部を駆動させて上記可動部位を動かし、上記可動部位を動かしている状態と判定された場合、上記音声出力制御部は、上記着信音声を出力させないとともに、上記通話音声を上記ハンドセット用音声出力部から出力させ、上記駆動制御部は、上記着信音声および上記通話音声に合わせて上記駆動部を駆動させなくてもよい。
 上記の構成によれば、着信時に駆動部が可動部位を動かしている場合、着信音声を出力せず、当該着信音声に合わせて駆動部を駆動させない。これにより、実行している動作を続けることができる。特に、歩行動作など、動作を中止したとき転倒のおそれがあるような動作を行うロボットである場合、動作を完結することができるので、転倒することを防ぐことができる。また、上記の構成によれば、着信時に駆動部が可動部位を動かしている場合、通話音声をハンドセット用音声出力部から出力し、通話音声に合わせて駆動部を駆動させない。これにより、ユーザがロボットを耳に近づけているときにロボットが動作することが無くなるので、通話中にユーザが不快に感じることを防ぐことができる。
 本発明の各態様に係るロボットは、コンピュータによって実現してもよく、この場合には、コンピュータを上記ロボットが備える各部(ソフトウェア要素)として動作させることにより上記ロボットをコンピュータにて実現させるロボットの制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 1 通話ロボット(ロボット)、16 撮像部(検知部)、17 駆動部、22 判定部(状態判定部)、23 音声出力制御部、26 駆動制御部、31 スピーカ(ハンズフリー用音声出力部)、32 レシーバ(ハンドセット用音声出力部)、S2、S12、S22、S23 状態判定ステップ、S3、S4、S13、S14、S24、S25 音声出力ステップ

Claims (8)

  1.  通話機能を有し、通話相手の音声である通話音声を出力可能なロボットであって、
     上記通話音声を出力可能なハンズフリー用音声出力部と、
     上記通話音声を出力可能なハンドセット用音声出力部と、
     上記ロボットの状態を判定する状態判定部と、
     上記状態判定部の判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力させる音声出力制御部と、を備えることを特徴とするロボット。
  2.  上記ロボットの可動部位に設けられる駆動部と、
     上記ハンズフリー用音声出力部から上記通話音声が出力される場合、当該通話音声の出力に合わせて、上記駆動部を駆動させて上記可動部位を動かす駆動制御部と、をさらに備え、
     上記状態判定部は、上記状態として、上記駆動部が駆動可能な状態か否かを判定し、
     上記音声出力制御部は、駆動可能な状態と判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、駆動可能な状態でないと判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させることを特徴とする請求項1に記載のロボット。
  3.  上記ロボットの可動部位に設けられる駆動部と、
     上記ハンズフリー用音声出力部から音声が出力される場合、当該音声の出力に合わせて、上記駆動部を駆動させて上記可動部位を動かす駆動制御部と、をさらに備え、
     上記状態判定部は、上記状態として、着信時に上記駆動部が上記可動部位を動かしている状態か否かを判定し、
     上記音声出力制御部は、上記可動部位を動かしている状態でないと判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記可動部位を動かしている状態と判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させることを特徴とする請求項1に記載のロボット。
  4.  上記状態判定部は、上記状態として、上記ロボットが音声を上記ハンズフリー用音声出力部から出力しないモードとなっているか否かを判定し、
     上記音声出力制御部は、上記モードとなっていないと判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記モードとなっていると判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させることを特徴とする請求項1に記載のロボット。
  5.  上記ロボットの周囲にいる人物を検知する検知部をさらに備え、
     上記状態判定部は、上記状態として、上記検知部が検知した人物が上記通話音声を聞かせてもよい人物のみであるか否かを判定し、
     上記音声出力制御部は、上記通話音声を聞かせてもよい人物のみが検知された状態と判定された場合、上記通話音声を上記ハンズフリー用音声出力部から出力させ、上記通話音声を聞かせてもよい人物のみが検知された状態でないと判定された場合、上記通話音声を上記ハンドセット用音声出力部から出力させることを特徴とする請求項1に記載のロボット。
  6.  通話機能を有し、通話相手の音声である通話音声を出力可能なロボットの制御方法であって、
     上記ロボットは、上記通話音声を出力可能なハンズフリー用音声出力部と、上記通話音声を出力可能なハンドセット用音声出力部と、を備え、
     上記ロボットの状態を判定する状態判定ステップと、
     上記状態判定ステップでの判定結果に基づいて、上記ハンズフリー用音声出力部および上記ハンドセット用音声出力部のいずれかから選択した音声出力部から、上記通話音声を出力する音声出力ステップと、を含むことを特徴とするロボットの制御方法。
  7.  請求項1に記載のロボットとしてコンピュータを機能させるための制御プログラムであって、上記状態判定部および上記音声出力制御部としてコンピュータを機能させるための制御プログラム。
  8.  請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2016/078076 2015-12-03 2016-09-23 ロボット、ロボットの制御方法、制御プログラム、および記録媒体 WO2017094332A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017553668A JP6495479B2 (ja) 2015-12-03 2016-09-23 ロボット、ロボットの制御方法、制御プログラム、および記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-236957 2015-12-03
JP2015236957 2015-12-03

Publications (1)

Publication Number Publication Date
WO2017094332A1 true WO2017094332A1 (ja) 2017-06-08

Family

ID=58796916

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/078076 WO2017094332A1 (ja) 2015-12-03 2016-09-23 ロボット、ロボットの制御方法、制御プログラム、および記録媒体

Country Status (2)

Country Link
JP (1) JP6495479B2 (ja)
WO (1) WO2017094332A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069732A (ja) * 2001-08-22 2003-03-07 Sanyo Electric Co Ltd ロボット
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
JP2007281962A (ja) * 2006-04-07 2007-10-25 Ntt Docomo Inc ハンズフリー切り替え方法及び移動体端末装置
JP2008236636A (ja) * 2007-03-23 2008-10-02 Denso Corp 車載ハンズフリー通話装置および車両用ナビゲーション装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4026758B2 (ja) * 2002-10-04 2007-12-26 富士通株式会社 ロボット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069732A (ja) * 2001-08-22 2003-03-07 Sanyo Electric Co Ltd ロボット
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
JP2007281962A (ja) * 2006-04-07 2007-10-25 Ntt Docomo Inc ハンズフリー切り替え方法及び移動体端末装置
JP2008236636A (ja) * 2007-03-23 2008-10-02 Denso Corp 車載ハンズフリー通話装置および車両用ナビゲーション装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
CN111086010A (zh) * 2018-10-24 2020-05-01 丰田自动车株式会社 通信机器人及计算机可读存储介质
JP7067414B2 (ja) 2018-10-24 2022-05-16 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
CN111086010B (zh) * 2018-10-24 2022-11-08 丰田自动车株式会社 通信机器人及计算机可读存储介质

Also Published As

Publication number Publication date
JP6495479B2 (ja) 2019-04-03
JPWO2017094332A1 (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
CN110493678B (zh) 耳机的控制方法、装置、耳机和存储介质
JP4026758B2 (ja) ロボット
US9596337B2 (en) Directing audio output based on device sensor input
US10325614B2 (en) Voice-based realtime audio attenuation
CN114080589A (zh) 自动主动降噪(anr)控制以改善用户交互
JP6531776B2 (ja) 音声対話システムおよび音声対話方法
CN113596670B (zh) 一种耳机及耳机降噪模式切换方法、装置、存储介质
CN105848037A (zh) 头戴式耳机及控制终端设备的方法
JP6495479B2 (ja) ロボット、ロボットの制御方法、制御プログラム、および記録媒体
KR20220106643A (ko) 소리 데이터에 기초하여 제어되는 전자 장치 및 소리 데이터에 기초하여 전자 장치를 제어하는 방법
CN113727318A (zh) 耳机通信方法、耳机设备及计算机可读存储介质
JP2007152445A (ja) 自走式ロボット
JP2006243555A (ja) 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法
CN114520002A (zh) 一种处理语音的方法及电子设备
JP2001156930A (ja) ゼスチャー伝送装置
JP2012029066A (ja) 携帯電話機
CN113873077A (zh) 通话提示方法、通话设备、可读存储介质及芯片系统
CN108806675B (zh) 语音输入输出装置、无线连接方法、语音对话系统
JP2015220684A (ja) 携帯端末装置および読唇処理プログラム
CN114051066A (zh) 一种穿戴设备及其来电控制方法、装置和可读存储介质
CN109195044B (zh) 降噪耳机、通话终端及降噪控制方法和录音方法
JP2018101847A (ja) 電子機器、電子機器の制御方法、制御プログラム、および記録媒体
CN115002598B (zh) 耳机模式控制方法、耳机设备、头戴式设备及存储介质
JP2005103703A (ja) ロボット
JP2019072787A (ja) 制御装置、ロボット、制御方法、および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16870272

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017553668

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16870272

Country of ref document: EP

Kind code of ref document: A1