JP2012040655A - Method for controlling robot, program, and robot - Google Patents
Method for controlling robot, program, and robot Download PDFInfo
- Publication number
- JP2012040655A JP2012040655A JP2010185183A JP2010185183A JP2012040655A JP 2012040655 A JP2012040655 A JP 2012040655A JP 2010185183 A JP2010185183 A JP 2010185183A JP 2010185183 A JP2010185183 A JP 2010185183A JP 2012040655 A JP2012040655 A JP 2012040655A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- data
- reliability
- detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、自律動作可能なロボットの制御に関する。 The present invention relates to control of a robot capable of autonomous operation.
従来、遠隔コミュニケーションにおいて、遠隔地からロボットを制御することで、音声と映像に加えて身体性を伝達することで豊かなコミュニケーションを実現する方法がある。このような遠隔ロボットメディア型コミュニケーションにおいては、参加者に視線を向けることが重要であるといわれている。 Conventionally, in remote communication, there is a method for realizing rich communication by transmitting a physicality in addition to voice and video by controlling a robot from a remote place. In such a remote robot media type communication, it is said that it is important to look at the participants.
遠隔ロボットメディア型コミュニケーションにおいて、参加者に視線を向ける方法の一例としては、遠隔地からPC上の操作画面(GUI)をマウスやジョイスティック、ゲームパッドを操作することにより、ロボットの視線を参加者に向ける方法がある。また、他の例としては、遠隔地においてカメラやマイク、センサを用いて人の身体動作を計測し、この計測結果をベースにロボットに制御コマンドを送信することにより、遠隔地の人の動きを忠実に再現する方法がある。また、別の例としては、ロボットに複数のマイクを設けることによって参加者の発話とその方向を検知し、検知した方向へ視線を動かす動作をさせるなど、ロボットに自律動作をさせる方法がある(例えば特許文献1)。 In remote robot media type communication, as an example of a method of directing the line of sight to the participant, the robot's line of sight can be given to the participant by operating the operation screen (GUI) on the PC from a remote place with a mouse, joystick, or game pad. There is a way to turn. As another example, by measuring the human body movement using a camera, microphone, or sensor in a remote place, and sending a control command to the robot based on this measurement result, the movement of the remote person is controlled. There is a method to reproduce faithfully. As another example, there is a method of making the robot autonomously operate, such as detecting a participant's utterance and its direction by providing a plurality of microphones in the robot and moving the line of sight in the detected direction ( For example, Patent Document 1).
しかしながら、上述の手法には次のような問題がある。例えば、遠隔地からPC上の操作画面を操作することは、遠隔地の人が話すことや聞くことの妨げになったり、面倒なので操作しなくなったりするという問題がある。また、カメラやマイク、センサを用いて遠隔地の人の身体動作を計測する方法は、遠隔地においてカメラやセンサを導入する必要があり、コストが上がってしまうという問題がある。また、音声方向の検出に応じてロボットの視線を制御する方法の場合、雑音環境下で検出の誤りが増加したときには、視線動作が不適切なものになるという問題がある。 However, the above method has the following problems. For example, operating an operation screen on a PC from a remote location has a problem in that it prevents a person at a remote location from speaking or listening, or is troublesome and cannot be operated. In addition, the method of measuring the body motion of a remote person using a camera, microphone, or sensor requires the introduction of the camera or sensor at a remote place, which increases the cost. Further, in the method of controlling the robot's line of sight according to the detection of the voice direction, there is a problem that the line-of-sight movement becomes inappropriate when detection errors increase in a noisy environment.
このように、遠隔ロボットを導入した場合、ロボットに対して話者に視線を向けさせる動作をさせることは簡単ではない。上述のように、面倒なのでロボットの操作が行われなくなったり、不適切な視線動作が発生したりすると、人(コミュニケーション参加者)はロボットの視線動作を信用しなくなり、さらにはロボットの方を見ないで音声だけでコミュニケーションを行うようになるという問題をも引き起こす。 As described above, when a remote robot is introduced, it is not easy to cause the robot to direct the line of sight to the speaker. As described above, if the robot is not operated because it is troublesome, or if an inappropriate gaze movement occurs, the person (communication participant) will not trust the gaze movement of the robot, and further look at the robot. It also causes the problem of communication using voice alone.
これらの状況を鑑みた場合、遠隔ロボットメディア型コミュニケーションにおいて、ロボットの自律動作の不自然さを軽減させることが求められる。 In view of these situations, it is required to reduce the unnaturalness of the autonomous operation of the robot in the remote robot media type communication.
本発明の一側面に係るロボットの制御方法では、可動部を有するロボットが、センサから出力される音声データまたは画像データに基づいて、ロボットに対する対話要求を検出し、検出された対話要求を示す検出データに検出の信頼度を含めて出力し、信頼度が所定レベルより高い場合は、検出データに基づいて可動部を動作させ、信頼度が所定レベルより高くない場合は、予め登録された動作データに基づいて可動部を動作させる。 In the robot control method according to one aspect of the present invention, the robot having a movable part detects a dialogue request to the robot based on voice data or image data output from the sensor, and indicates the detected dialogue request. If the reliability including the detection reliability is output to the data and the reliability is higher than a predetermined level, the movable part is operated based on the detection data. If the reliability is not higher than the predetermined level, the operation data registered in advance The movable part is operated based on the above.
なお、本発明において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されても良い。 In the present invention, the “part” does not simply mean a physical means, but includes a case where the function of the “part” is realized by software. Also, even if the functions of one “unit” or device are realized by two or more physical means or devices, the functions of two or more “units” or devices are realized by one physical means or device. May be.
本発明によれば、ロボットの自律動作における不自然さを軽減させることができる。 According to the present invention, unnaturalness in autonomous operation of a robot can be reduced.
以下、本発明の実施形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
==システム構成==
図1は本発明の一実施形態である遠隔コミュニケーションシステムの構成を示す図である。システムは、ロボット10、ネットワーク12、及び端末14を含んで構成されている。
== System configuration ==
FIG. 1 is a diagram showing a configuration of a remote communication system according to an embodiment of the present invention. The system includes a robot 10, a network 12, and a terminal 14.
ロボット10は、インターネットや専用回線等のネットワーク12を介して、遠隔地の端末14に接続される。 The robot 10 is connected to a remote terminal 14 via a network 12 such as the Internet or a dedicated line.
図2はロボット10の外観を示す図である。なお、ここで示すロボット10は一例であり、他の形態のロボットであっても構わない。図2に示されるように、ロボット10は、頭部アクチュエータ20、体部アクチュエータ22、ビデオカメラ24、マイクアレイ26、およびスピーカ28を含んで構成されている。 FIG. 2 is a view showing the appearance of the robot 10. In addition, the robot 10 shown here is an example and may be a robot of another form. As shown in FIG. 2, the robot 10 includes a head actuator 20, a body actuator 22, a video camera 24, a microphone array 26, and a speaker 28.
頭部アクチュエータ20は、ロボット10の頭部を鉛直方向と水平方向に回転動作させるための可動部である。また、体部アクチュエータ22は、ロボット10の胴体部を動作させるための可動部であり、胴体部の底部に平行して配置された独立して動作可能な2つの車輪等により構成される。 The head actuator 20 is a movable part for rotating the head of the robot 10 in the vertical direction and the horizontal direction. The body part actuator 22 is a movable part for operating the body part of the robot 10, and is constituted by two independently operable wheels arranged in parallel to the bottom part of the body part.
ビデオカメラ24は、ロボット10の周囲の画像を検出して画像データを出力するセンサであり、例えば、ロボット10の頭部における目に相当する部分に設けられ、CCDやCMOS素子などにより構成される。また、マイクアレイ26は、ロボット10の周囲の音声を検出して音声データを出力するセンサであり、例えば複数のマイクから構成される。スピーカ28は、会議の参加者に対して音声を出力するためのものであり、例えば、ロボット10の胴体部の前面に設けられる。 The video camera 24 is a sensor that detects an image around the robot 10 and outputs image data. For example, the video camera 24 is provided in a portion corresponding to the eyes of the head of the robot 10 and is configured by a CCD, a CMOS element, or the like. . The microphone array 26 is a sensor that detects voice around the robot 10 and outputs voice data, and includes, for example, a plurality of microphones. The speaker 28 is for outputting sound to the participants of the conference, and is provided, for example, on the front surface of the body part of the robot 10.
図1に戻り、端末14は、遠隔地から会議に参加するテレワーカによる、ロボット10を操作するためのコマンドや設定などの入力を受け付ける情報処理装置であり、パーソナルコンピュータや携帯情報端末等により構成される。また、端末14はマイクを備えており、テレワーカの音声を集音する。 Returning to FIG. 1, the terminal 14 is an information processing apparatus that receives input of commands and settings for operating the robot 10 by a teleworker participating in the conference from a remote location, and is configured by a personal computer, a portable information terminal, and the like. The Moreover, the terminal 14 is provided with a microphone and collects the voice of the teleworker.
このような遠隔コミュニケーションシステムを用いたコミュニケーションの一例について説明する。例えば、端末14で受け付けられたコマンドや集音された音声は、ネットワーク12を介して、会議室に配置されたロボット10に送信される。ロボット10は、受信したコマンドに基づいて、頭部アクチュエータ20や体部アクチュエータ22を動作させる。また、ロボット10は、受信した音声をスピーカー28から出力する。さらに、ロボット10は、マイクアレイ26により会議室側の音声を集音するとともに、ビデオカメラ24により会議室側の画像を撮像する。集音された音声と撮像された画像は、ネットワーク12を介して、テレワーカ側の端末14に送信され、テレワーカは会議室側の画像と音声を見聞きすることができる。 An example of communication using such a remote communication system will be described. For example, commands accepted by the terminal 14 and collected voice are transmitted to the robot 10 disposed in the conference room via the network 12. The robot 10 operates the head actuator 20 and the body actuator 22 based on the received command. Further, the robot 10 outputs the received sound from the speaker 28. Further, the robot 10 collects audio on the conference room side with the microphone array 26 and captures an image on the conference room side with the video camera 24. The collected sound and the captured image are transmitted to the teleworker side terminal 14 via the network 12, and the teleworker can see and hear the conference room side image and sound.
図3は、端末14に表示される、テレワーカのためのユーザインターフェースの一例を示す図である。図3に示すように、端末14の画面には、ロボットカメラ映像表示ウィンドウ30、ロボット制御用操作ウィンドウ32、および共有情報表示ウィンドウ34が表示される。 FIG. 3 is a diagram illustrating an example of a user interface for a teleworker displayed on the terminal 14. As shown in FIG. 3, a robot camera video display window 30, a robot control operation window 32, and a shared information display window 34 are displayed on the screen of the terminal 14.
ロボットカメラ映像表示ウィンドウ30には、ネットワーク12を介して送信されてくる、ロボット10のビデオカメラ24において撮像されたビデオ画像が表示される。 In the robot camera image display window 30, a video image captured by the video camera 24 of the robot 10 transmitted via the network 12 is displayed.
ロボット制御用操作ウィンドウ32には、ロボット10を制御するコマンドをネットワーク12を介してロボット10に送信するための各種ボタンが設けられている。例えば、テレワーカは、ロボット制御用操作ウィンドウ32に表示されるボタンを押下することにより、ロボット10の頭部アクチュエータ20または体部アクチュエータ22を制御するコマンドや、スピーカ28のボリュームを制御するコマンドなどを送信することができる。なお、送信可能なコマンドは、上記の限りではなく他の種類のコマンドを送信することも可能である。このように、テレワーカは、ロボット制御用操作ウィンドウ32を操作して、ネットワーク12を介して接続されたロボット10の制御を行うことができる。つまり、テレワーカは、ロボット10の体や顔を会議に参加している特定の人の方向に向かせたり、会議に参加している人に対してロボット10の首を振らせたりするなど、テレワーカの代わりにロボット10に仕草を行わせることができる。 The robot control operation window 32 is provided with various buttons for transmitting commands for controlling the robot 10 to the robot 10 via the network 12. For example, the teleworker issues a command for controlling the head actuator 20 or the body actuator 22 of the robot 10 or a command for controlling the volume of the speaker 28 by pressing a button displayed on the robot control operation window 32. Can be sent. The command that can be transmitted is not limited to the above, and other types of commands can be transmitted. In this manner, the teleworker can control the robot 10 connected via the network 12 by operating the robot control operation window 32. That is, the teleworker moves the body or face of the robot 10 toward a specific person participating in the conference, or shakes the head of the robot 10 toward the person participating in the conference. Instead of this, the robot 10 can make a gesture.
共有情報表示ウィンドウ34には、会議室側の参加者とテレワーカとが共有するための情報が表示される。例えば、会議室側のプロジェクタスクリーンに表示されている情報がネットワーク12を介して端末14に送信され、この情報が共有情報表示ウィンドウ34に表示されるようにすることができる。また、テレワーカが、端末14内に保存されている情報を共有情報表示ウィンドウ34に表示することにより、この情報がネットワーク12を介して会議室側に送信され、会議室側のプロジェクタスクリーンに表示されるようにすることもできる。 In the shared information display window 34, information to be shared between the conference room participant and the teleworker is displayed. For example, information displayed on the projector screen on the conference room side can be transmitted to the terminal 14 via the network 12, and this information can be displayed on the shared information display window 34. In addition, the teleworker displays the information stored in the terminal 14 in the shared information display window 34, so that this information is transmitted to the conference room via the network 12 and displayed on the projector screen on the conference room. You can also make it.
図4は、ロボット10の動作を制御する機能を含めた、ロボット10の構成例を示す図である。ロボット10は、上述の頭部アクチュエータ20、体部アクチュエータ22、ビデオカメラ24、マイクアレイ26、及びスピーカ28に加え、動作を制御するための機能として、動作データ記録部40、設定受付部42、操作受付部44、対話要求検出部46、動作制御部48、制御実績記録部50、及びパラメータ変更部52を含んで構成されている。 FIG. 4 is a diagram illustrating a configuration example of the robot 10 including a function for controlling the operation of the robot 10. In addition to the above-described head actuator 20, body actuator 22, video camera 24, microphone array 26, and speaker 28, the robot 10 includes an operation data recording unit 40, a setting reception unit 42, a function for controlling operations, The operation receiving unit 44, the dialogue request detecting unit 46, the operation control unit 48, the control result recording unit 50, and the parameter changing unit 52 are configured.
動作データ記録部40には、ロボット10の頭部アクチュエータ20及び体部アクチュエータ22等の可動部を複数の動作位置に動かすための動作データが記録される。例えば、動作データ記録部40には、会議室側の人物やプロジェクタディスプレイなどの位置にロボット10の頭部や胴体部を向けるための動作データが記録される。この動作データ記録部40に格納された動作データを用いることにより、所望の人や、プロジェクタスクリーンに表示された映像の方向にロボット10の頭部や胴体部を向けさせることが可能となる。つまり、ロボット10に、所望の人や表示映像を注目していること等の意図を伝達するための身体動作を行わせることが可能となる。 The motion data recording unit 40 records motion data for moving movable parts such as the head actuator 20 and the body part actuator 22 of the robot 10 to a plurality of motion positions. For example, the motion data recording unit 40 records motion data for directing the head or body of the robot 10 to a position such as a person on the conference room side or a projector display. By using the operation data stored in the operation data recording unit 40, it is possible to point the head or body of the robot 10 in the direction of the desired person or the image displayed on the projector screen. That is, it is possible to cause the robot 10 to perform a body motion for transmitting an intention such as paying attention to a desired person or a display image.
設定受付部42は、動作データ記録部40に記録される動作データの設定を、ネットワーク12を介して端末14から受け付ける。図5は、テレワーカが端末14を用いて動作データを設定する際のユーザインタフェースの一例を示す図である。図5に示す例では、ロボット10により撮影された会議室側の画像が表示エリア70に表示されている。そして、例えば、テレワーカが、マウスやタッチパッド等により、画面上のポインタ72を人の顔や対象物の表示位置に動かして選択した後、登録ボタン74を押下する。これにより、選択された人物や対象物に対応する位置を示すデータ、つまり、選択された人物や対象物の方向にロボット10の頭部や胴体部を向けさせるための動作データが動作データ記録部40に記録される。なお、設定受付部42は、選択された人物や対象物に対して、各々を識別するための人物/対象物ID(識別子)を、自動的に、あるいはテレワーカからの入力により付与することができる。そして、設定受付部42は、この人物/対象物IDを動作データと対応付けて動作データ記録部40に記録する。 The setting receiving unit 42 receives the setting of operation data recorded in the operation data recording unit 40 from the terminal 14 via the network 12. FIG. 5 is a diagram illustrating an example of a user interface when the teleworker sets operation data using the terminal 14. In the example shown in FIG. 5, the conference room side image taken by the robot 10 is displayed in the display area 70. Then, for example, the teleworker moves the pointer 72 on the screen to the display position of the person's face or the object with the mouse, the touch pad or the like, and then presses the registration button 74. Thus, data indicating the position corresponding to the selected person or object, that is, operation data for directing the head or torso of the robot 10 in the direction of the selected person or object is the operation data recording unit. 40. The setting reception unit 42 can assign a person / object ID (identifier) for identifying each person or object automatically or by input from a teleworker. . Then, the setting reception unit 42 records this person / object ID in the motion data recording unit 40 in association with the motion data.
操作受付部44は、テレワーカの操作に応じてネットワーク12を介して送信されてくる各種コマンドを受け付ける。 The operation accepting unit 44 accepts various commands transmitted via the network 12 according to the operation of the teleworker.
対話要求検出部46は、ロボット10に対する対話要求を検出するものであり、特徴データ記録部60、検出部62、および検出イベント出力部64を含んで構成される。例えば、対話要求検出部46は、ロボット10の周囲にいる人がロボット10に向かって話しかけたことを示す対話要求と、話しかけた音声の到来方向を検出する。なお、ロボット10に対する対話要求とは、ロボット10のみに対して話しかける場合に限られず、会議の参加者がロボット10を含む複数の参加者に対して話しかける場合も含まれる。 The dialogue request detection unit 46 detects a dialogue request to the robot 10 and includes a feature data recording unit 60, a detection unit 62, and a detection event output unit 64. For example, the dialog request detection unit 46 detects a dialog request indicating that a person around the robot 10 has spoken to the robot 10 and the arrival direction of the spoken voice. The dialogue request to the robot 10 is not limited to the case of speaking only to the robot 10 but also includes the case where a conference participant speaks to a plurality of participants including the robot 10.
特徴データ記録部60には、会議の参加者の音声や画像の特徴を示す特徴データ(例えば特徴ベクトル)を記録することができる。この特徴データは、例えば、会議の開始前に、ビデオカメラ24で参加者の顔を撮影したり、マイクアレイ26で参加者の音声を取得することにより生成することができる。この場合、特徴データ記録部60には、参加者の人物/対象物IDと対応付けて特徴データを記録することが可能である。また、会議の参加者ではなく、人の音声や顔の一般的な特徴を示す特徴データが特徴データ記録部60に記録されることとしてもよい。 The feature data recording unit 60 can record feature data (for example, feature vectors) indicating the voice and image features of conference participants. This feature data can be generated, for example, by photographing the participant's face with the video camera 24 or acquiring the participant's voice with the microphone array 26 before the start of the conference. In this case, the feature data recording unit 60 can record the feature data in association with the participant's person / object ID. Also, feature data indicating general features of a person's voice and face, not a participant of the conference, may be recorded in the feature data recording unit 60.
検出部62は、ビデオカメラ24から出力される画像データや、マイクアレイ26から出力される音声データに基づいて、ロボット10に対する対話要求を検出する。また、検出部62は、マイクアレイ26を構成する複数のマイクへの音の到達時間の差を用いて、人の音声の到来方向を検出することができる。また、検出部62は、ビデオカメラ24から出力される画像データにより、ロボット10に視線が向いている人の位置や方向を検出したり、人の顔の動きを検出したりすることができる。 The detection unit 62 detects an interaction request to the robot 10 based on image data output from the video camera 24 and audio data output from the microphone array 26. In addition, the detection unit 62 can detect the arrival direction of the human voice by using the difference in the arrival time of the sound to the plurality of microphones constituting the microphone array 26. The detection unit 62 can detect the position and direction of a person whose line of sight is facing the robot 10 and the movement of the person's face based on the image data output from the video camera 24.
さらに、検出部62は、ビデオカメラ24から出力される画像データやマイクアレイ26から出力される音声データと、特徴データ記録部60に記録されている特徴データとに基づいて、対話要求の検出の信頼度を算出する。例えば、検出部62は、音声データや画像データから生成される特徴データと、特徴データ記録部60に記録されている特徴データの類似度を、従来のパターン認識技術(例えば、線形判別分析)を用いて算出し、信頼度として用いることができる。なお、特徴データ記録部60に、特徴データが人物/対象物IDと対応付けて記録されている場合であれば、検出部62は、検出された対話要求に対応する人物を示す人物/対象物IDを特定することができる。 Further, the detection unit 62 detects the dialogue request based on the image data output from the video camera 24, the audio data output from the microphone array 26, and the feature data recorded in the feature data recording unit 60. Calculate reliability. For example, the detection unit 62 uses a conventional pattern recognition technique (for example, linear discriminant analysis) to calculate the similarity between feature data generated from audio data or image data and feature data recorded in the feature data recording unit 60. And can be used as reliability. If the feature data is recorded in the feature data recording unit 60 in association with the person / object ID, the detection unit 62 displays the person / object indicating the person corresponding to the detected dialogue request. ID can be specified.
検出イベント出力部64は、検出部62によって検出された対話要求を示す検出イベント(検出データ)を出力する。検出イベントには、例えば、音声の到来方向や、ロボット10に視線が向いている人の方向、人物/対象物ID等の対話要求の内容を示すデータに加えて、算出された信頼度が含まれる。 The detection event output unit 64 outputs a detection event (detection data) indicating the dialogue request detected by the detection unit 62. The detection event includes, for example, the calculated reliability in addition to data indicating the content of the dialogue request such as the direction of voice arrival, the direction of the person whose line of sight is facing the robot 10, and the person / object ID. It is.
動作制御部48は、動作データ記録部40に記録されている動作データ、または、対話要求検出部46から出力される検出イベントに応じて、ロボット10の動作を制御する。例えば、動作制御部48は、ネットワーク12経由で送信されてくるコマンドに応じた動作データを動作データ記録部40から読み出し、動作データに応じてロボット10の動作を制御する。また、動作制御部48は、対話要求検出部46から、音声の到来方向が検出されたことを示す検出イベントを受信すると、信頼度が所定の閾値(所定レベル)より高い場合は、検出イベントに応じてロボット10の動作を制御する。例えば、動作制御部48は、ロボット10の頭部または胴体部が音声の到来方向に向くように、頭部アクチュエータ20や体部アクチュエータ22を制御する。 The motion control unit 48 controls the motion of the robot 10 according to the motion data recorded in the motion data recording unit 40 or the detection event output from the dialogue request detection unit 46. For example, the motion control unit 48 reads motion data corresponding to a command transmitted via the network 12 from the motion data recording unit 40, and controls the motion of the robot 10 according to the motion data. In addition, when the operation control unit 48 receives a detection event indicating that the voice arrival direction has been detected from the dialogue request detection unit 46, if the reliability is higher than a predetermined threshold (predetermined level), the operation control unit 48 sets the detection event. The operation of the robot 10 is controlled accordingly. For example, the operation control unit 48 controls the head actuator 20 and the body part actuator 22 so that the head part or the body part of the robot 10 faces the direction in which the voice comes.
また、動作制御部48は、対話要求検出部46が検出イベントを一定時間以上の間にわたって出力しない場合、あるいは検出イベントが出力された場合でも信頼度が低く一定時間以上の間にわたって対話要求の検出に応じた動作制御が行われない場合には、動作データ記録部40に記録されている動作データを取り出してロボット10の動作を制御する。このような制御を行うことにより、長時間に渡ってロボット10が動作せずに静止状態になってしまうことを回避することができ、ロボット10の存在感を表出することができる。また、検出イベントの信頼度が低い場合には、検出された対話要求に応じた動作が実行されないため、対話要求の誤った検出に伴うロボット10の不自然な動作を回避することができる。 In addition, the operation control unit 48 detects the dialogue request for a certain period of time or more when the dialogue request detection unit 46 does not output the detection event for a certain period of time or when the detection event is output. When the motion control according to the above is not performed, the motion data recorded in the motion data recording unit 40 is taken out and the motion of the robot 10 is controlled. By performing such control, it can be avoided that the robot 10 does not operate for a long time and becomes stationary, and the presence of the robot 10 can be expressed. In addition, when the reliability of the detected event is low, an operation corresponding to the detected dialog request is not executed, and therefore an unnatural operation of the robot 10 due to an erroneous detection of the dialog request can be avoided.
制御実績記録部50には、動作制御部48によって行われたロボット10の動作制御の実績を示すデータが記録される。 The control result recording unit 50 records data indicating the results of operation control of the robot 10 performed by the operation control unit 48.
パラメータ変更部52は、動作制御部48における動作制御用の各種パラメータを変更することができる。例えば、パラメータ変更部52は、端末14から出力されるパラメータを変更するためのコマンドをネットワーク12を介して受信することにより、パラメータを変更することができる。なお、パラメータ変更部52により変更可能なパラメータには、例えば、動作制御部48にて検出イベントの信頼度を判定する際の閾値や、動作制御部48において動作制御(アクション)を行う間隔が含まれる。なお、変更可能なパラメータはこれらに限られず、ロボット10の動作速度等、ロボット10の動作制御の振る舞いを変えるパラメータ全てが対象となる。 The parameter changing unit 52 can change various parameters for operation control in the operation control unit 48. For example, the parameter changing unit 52 can change the parameter by receiving a command for changing the parameter output from the terminal 14 via the network 12. The parameters that can be changed by the parameter changing unit 52 include, for example, a threshold when the reliability of the detected event is determined by the operation control unit 48 and an interval at which the operation control (action) is performed by the operation control unit 48. It is. Note that the parameters that can be changed are not limited to these parameters, and all parameters that change the behavior of the operation control of the robot 10 such as the operation speed of the robot 10 are targeted.
なお、動作データ記録部40、制御実績記録部50、および特徴データ記録部60は、例えば、ロボット10が備えるメモリを用いて構成することができる。また、設定受付部42、操作受付部44、動作制御部48、パラメータ変更部52、検出部62、および検出イベント出力部64は、例えば、ロボット10が備えるプロセッサがメモリに格納されているプログラムを実行することにより実現することができる。 The motion data recording unit 40, the control result recording unit 50, and the feature data recording unit 60 can be configured using, for example, a memory included in the robot 10. In addition, the setting reception unit 42, the operation reception unit 44, the operation control unit 48, the parameter change unit 52, the detection unit 62, and the detection event output unit 64 include, for example, a program in which a processor included in the robot 10 is stored in a memory. This can be realized by executing.
==制御処理==
次に、遠隔コミュニケーションシステムにおけるロボット10の制御処理について説明する。
== Control processing ==
Next, control processing of the robot 10 in the remote communication system will be described.
図6は、動作データ記録部40に人物または対象物の位置を登録する処理のフローチャートである。例えば、図5に示した登録画面が端末14に表示されることにより、設定受付部42がこの処理を開始する。以下において、$位置登録数、$人物/対象物IDは変数である。 FIG. 6 is a flowchart of processing for registering the position of a person or an object in the motion data recording unit 40. For example, when the registration screen illustrated in FIG. 5 is displayed on the terminal 14, the setting reception unit 42 starts this process. In the following, the $ location registration number and $ person / object ID are variables.
まず、設定受付部42は、$位置登録数および$人物/対象物IDを、例えば0(ゼロ)に初期化する(S601)。そして、設定受付部42は、設定受付部42に対するイベントが到着するのを待機する。なお、設定受付部42が受信するイベントには、終了要求イベントおよび登録ボタン押下イベントが含まれる。終了要求イベントとは、当該登録処理を終了させるためのイベントであり、例えば、端末14において図5に示した登録画面が終了されることに応じて生成される。また、登録ボタン押下イベントとは、端末14において図5に示した登録画面の登録ボタンが押下されることに応じて生成される。設定受付部42は、終了要求イベントを受信しているかをチェックし(S602)、受信している場合(S602:Y)は処理を終了する。終了要求イベントを受信していない場合(S602:N)、設定受付部42は、登録ボタン押下イベントを受信しているかをチェックし(S603)、受信していない場合(S603:N)は終了要求イベントのチェック処理(S602)に戻る。 First, the setting reception unit 42 initializes the $ position registration number and the $ person / object ID to, for example, 0 (zero) (S601). Then, the setting reception unit 42 waits for an event for the setting reception unit 42 to arrive. Note that events received by the setting reception unit 42 include an end request event and a registration button press event. The end request event is an event for ending the registration process, and is generated, for example, when the registration screen shown in FIG. Further, the registration button pressing event is generated in response to pressing of the registration button on the registration screen shown in FIG. The setting reception unit 42 checks whether an end request event has been received (S602), and if it has been received (S602: Y), the process ends. If no end request event has been received (S602: N), the setting reception unit 42 checks whether a registration button press event has been received (S603). If not received (S603: N), an end request is received. The process returns to the event check process (S602).
登録ボタン押下イベントを受信している場合(S603:Y)、設定受付部42は、ネットワーク12を介して送信されてくるカーソル72で選択された位置の座標に基づいて、画像中心座標から、選択された位置の座標までの変位量(Δx,Δy)を算出する(S
604)。ここで、画像中心座標は、ロボット10の頭部が向いている方向の位置(ロボット頭部x方向位置,ロボット頭部y方向位置)を示すものである。
When the registration button press event has been received (S603: Y), the setting reception unit 42 selects from the image center coordinates based on the coordinates of the position selected by the cursor 72 transmitted via the network 12. A displacement amount (Δx, Δy) up to the coordinates of the determined position is calculated (S
604). Here, the image center coordinates indicate the positions in the direction in which the head of the robot 10 is facing (robot head x direction position, robot head y direction position).
そこで、設定受付部42は、カーソル72で選択された、現在の$人物/対象物IDに対応する人物または対象物の位置(x方向位置,y方向位置)を示す動作データを、(ロボット頭部x方向位置,ロボット頭部y方向位置)に(Δx,Δy)を加算することによ
り生成し、$人物/対象物IDと対応付けて動作データ記録部40に登録する(S605)。
Therefore, the setting reception unit 42 selects operation data indicating the position (x-direction position, y-direction position) of the person or the object corresponding to the current $ person / object ID selected by the cursor 72 (robot head). (Δx, Δy) is added to (part x direction position, robot head y direction position), and is registered in the motion data recording unit 40 in association with $ person / object ID (S605).
その後、設定受付部42は、$位置登録数および$人物/対象物IDに1を加え(S606)、終了要求イベントが受信されるまで、上述の処理(S602〜S606)を繰り返し実行する。なお、$位置登録数は、例えば、登録可能な人物または対象物の数を制限するためや、図5に示した位置登録画面の表示を制御するために用いることができる。例えば、$位置登録数の値が“2”であれば、画面に表示されている「登録1」〜「登録4」のボタンのうち、「登録1」および「登録2」のボタンを選択不可能な状態とし、「登録3」および「登録4」のボタンを選択可能な状態とすることができる。なお、人物/対象物IDを連番とする場合であれば、$位置登録数を用いずに$人物/対象物IDにより同様の制御を行うことも可能である。 Thereafter, the setting reception unit 42 adds 1 to the $ location registration number and the $ person / object ID (S606), and repeatedly executes the above-described processing (S602 to S606) until an end request event is received. Note that the $ location registration count can be used, for example, to limit the number of persons or objects that can be registered, or to control the display of the location registration screen shown in FIG. For example, if the value of the $ location registration number is “2”, the “registration 1” and “registration 2” buttons are not selected from the “registration 1” to “registration 4” buttons displayed on the screen. It is possible to select the “Register 3” and “Register 4” buttons. If the person / object ID is a serial number, the same control can be performed using the $ person / object ID without using the $ position registration count.
図7は、動作制御部48によるロボット10の動作制御処理の一例を示すフローチャートである。例えば、この処理は、ロボット10が起動されることにより開始される。以下において、$前回アクション実行時刻および$前回イベントチェック時刻は変数であり、制御実績記録部50に記録されている。また、$アクション実行間隔および$イベントチェック間隔は定数である。なお、$アクション実行間隔および$イベントチェック間隔は、パラメータ変更部52を介して変更することが可能である。 FIG. 7 is a flowchart illustrating an example of operation control processing of the robot 10 by the operation control unit 48. For example, this process is started when the robot 10 is activated. In the following, $ previous action execution time and $ previous event check time are variables and are recorded in the control result recording unit 50. The $ action execution interval and the $ event check interval are constants. The $ action execution interval and the $ event check interval can be changed via the parameter changing unit 52.
まず、動作制御部48は、$前回アクション実行時刻および$前回イベントチェック時刻を初期化する。具体的には、動作制御部48は、$前回アクション実行時刻に(現在時刻−$アクション実行間隔)以前の時刻をセットし(S701)、$前回イベントチェック時刻に(現在時刻−$イベントチェック間隔)以前の時刻をセットする(S702)。 First, the operation control unit 48 initializes $ previous action execution time and $ previous event check time. Specifically, the operation control unit 48 sets a time before (current time− $ action execution interval) to the $ previous action execution time (S701) and sets the $ previous event check time (current time− $ event check interval). ) Set the previous time (S702).
続いて、動作制御部48は、イベントチェックを行うタイミングであるかどうかを確認する。具体的には、動作制御部48は、(現在時刻−$前回イベントチェック時刻)>$イベントチェック間隔であるかどうかを確認する(S703)。この条件が満たされない間(S703:N)、イベントチェックのタイミングを確認する処理(S703)が繰り返される。 Subsequently, the operation control unit 48 confirms whether it is time to perform an event check. Specifically, the operation control unit 48 checks whether or not (current time− $ previous event check time)> $ event check interval (S703). While this condition is not satisfied (S703: N), the process of confirming the event check timing (S703) is repeated.
イベントチェックを行うタイミングである場合(S703:Y)、動作制御部48は、$前回イベントチェック時刻に現在時刻をセットし(S704)、イベントが到着しているかどうかをチェックする(S705)。なお、動作制御部48が受信するイベントには、終了要求イベント、遠隔操作イベント、および検出イベントが含まれる。終了要求イベントとは、当該制御処理を終了させるためのイベントであり、例えば、ネットワーク12経由もしくは直接的な操作によって、ロボット10に対してシャットダウンが指示されることにより生成される。また、遠隔操作イベントは、テレワーカがロボット制御用操作ウィンドウ32を操作することにより生成される。また、検出イベントは、対話要求検出部46が対話要求を検出することにより生成される。 When it is time to perform the event check (S703: Y), the operation control unit 48 sets the current time to the $ previous event check time (S704), and checks whether an event has arrived (S705). The events received by the operation control unit 48 include an end request event, a remote operation event, and a detection event. The end request event is an event for ending the control process, and is generated, for example, by instructing the robot 10 to shut down via the network 12 or by a direct operation. The remote operation event is generated when the teleworker operates the operation window 32 for robot control. The detection event is generated when the dialog request detecting unit 46 detects a dialog request.
イベントが到着している場合(S705:Y)、動作制御部48は、終了要求イベントであるかを確認し(S706)、終了要求イベントである場合(S706:Y)は処理を終了する。終了要求イベントでない場合(S706:N)、動作制御部48は、遠隔操作イベントであるかを確認する(S707)。ここで、遠隔操作イベントでない場合(S707:N)、受信したイベントは検出イベントであり、動作制御部48は、検出イベントに含まれる信頼度が所定の閾値より高いかどうかを確認する(S708)。検出イベントの信頼度が所定の閾値より高くない場合(S708:N)、イベントチェックのタイミングを確認する処理(S703)に戻る。 If the event has arrived (S705: Y), the operation control unit 48 checks whether the event is an end request event (S706), and if it is an end request event (S706: Y), the process ends. If it is not an end request event (S706: N), the operation control unit 48 checks whether it is a remote operation event (S707). If the event is not a remote operation event (S707: N), the received event is a detection event, and the operation control unit 48 confirms whether the reliability included in the detection event is higher than a predetermined threshold (S708). . If the reliability of the detected event is not higher than the predetermined threshold (S708: N), the process returns to the process for checking the event check timing (S703).
そして、動作制御部48は、遠隔操作イベントを受信した場合(S707:Y)、または、信頼度が所定の閾値より高い検出イベントを受信した場合(S708:Y)、イベントの内容に応じて、ロボット10のアクチュエータ制御等のアクションを実行する(S709)。具体的には、動作制御部48は、イベントの内容に応じて、ロボット10の頭部アクチュエータ20や体部アクチュエータ22を制御したり、ビデオカメラ24のズームを調整したり、マイクアレイ26を構成するマイクの感度を調整したり、スピーカ28の音量を調整したりする。 When the operation control unit 48 receives a remote operation event (S707: Y), or when it receives a detection event whose reliability is higher than a predetermined threshold (S708: Y), depending on the content of the event, Actions such as actuator control of the robot 10 are executed (S709). Specifically, the operation control unit 48 controls the head actuator 20 and the body actuator 22 of the robot 10 according to the contents of the event, adjusts the zoom of the video camera 24, and configures the microphone array 26. The sensitivity of the microphone to be adjusted is adjusted, and the volume of the speaker 28 is adjusted.
例えば、検出イベントに、音声の到来方向またはロボット10に視線が向いている人物の位置や方向が含まれる場合、動作制御部48は、ロボット10の頭部がその位置や方向に向くように、頭部アクチュエータ20や体部アクチュエータ22を制御する。また、例えば、検出イベントに人物/対象物IDが含まれる場合、動作制御部48は、その人物/対象物IDに対応する位置を動作データ記録部40から取得し、ロボット10の頭部がその人物/対象物IDに対応する人物または対象物の方向に向くように、頭部アクチュエータ20や体部アクチュエータ22を制御する。 For example, when the detection event includes the direction of voice arrival or the position or direction of a person whose line of sight is facing the robot 10, the operation control unit 48 makes the head of the robot 10 face the position or direction. The head actuator 20 and the body actuator 22 are controlled. Also, for example, when the person / object ID is included in the detection event, the operation control unit 48 acquires the position corresponding to the person / object ID from the operation data recording unit 40, and the head of the robot 10 The head actuator 20 and the body actuator 22 are controlled so as to face the person or the object corresponding to the person / object ID.
その後、動作制御部48は、$前回アクション実行時刻に現在時刻をセットし(S710)、イベントチェックのタイミングを確認する処理(S703)に戻る。 Thereafter, the operation control unit 48 sets the current time as the $ previous action execution time (S710), and returns to the process of checking the event check timing (S703).
また、イベントの到着をチェックした際に(S705)、イベントが到着していなかった場合(S705:N)、動作制御部48は、何らかのアクションを行うタイミングであるかどうかを確認する。具体的には、動作制御部48は、(現在時刻−$前回アクション実行時刻)>$アクション実行間隔であるかどうかを確認する(S711)。この条件が満たされない場合、イベントチェックのタイミングを確認する処理(S703)に戻る。 When the arrival of the event is checked (S705), if the event has not arrived (S705: N), the operation control unit 48 checks whether it is time to perform some action. Specifically, the operation control unit 48 checks whether (current time− $ previous action execution time)> $ action execution interval is satisfied (S711). If this condition is not satisfied, the process returns to the process of checking the event check timing (S703).
何らかのアクションを行うタイミングである場合(S711:Y)、動作制御部48は、動作データ記録部40に記録されている人物/対象物IDをランダムに選択する(S712)。そして、動作制御部48は、選択された人物/対象物IDに対応する位置を動作データ記録部40から取得し、ロボット10の頭部がその人物/対象物IDに対応する人物または対象物の方向に向くように、頭部アクチュエータ20や体部アクチュエータ22を制御する(S713)。 When it is time to perform some action (S711: Y), the motion control unit 48 randomly selects the person / object ID recorded in the motion data recording unit 40 (S712). Then, the motion control unit 48 acquires the position corresponding to the selected person / object ID from the motion data recording unit 40, and the head of the robot 10 is the person or object corresponding to the person / object ID. The head actuator 20 and the body actuator 22 are controlled so as to face the direction (S713).
その後、動作制御部48は、$前回アクション実行時刻に現在時刻をセットし(S710)、イベントチェックのタイミングを確認する処理(S703)に戻る。 Thereafter, the operation control unit 48 sets the current time as the $ previous action execution time (S710), and returns to the process of checking the event check timing (S703).
ここで、図7の処理では、検出イベントの信頼度が閾値より高くない場合、次のアクション実行タイミングまでに、信頼度が閾値より高い検出イベントが到着しなければ、動作データ記録部40に記録されている動作データに基づいて、ロボット10が制御される。つまり、検出イベントの信頼度が閾値より高くない場合、結果的に、動作データ記録部40に記録されている動作データに基づいてロボット10の頭部アクチュエータ20や体部アクチュエータ22が制御されることとなる。なお、図7の処理において、検出イベントの信頼度が閾値より高くない場合に(S708:N)、イベントチェック間隔をチェックする処理(S703)に戻らずに、動作データ記録部40に記録されている動作データに基づく処理(S711−S712)に直接遷移することとしてもよい。 Here, in the process of FIG. 7, when the reliability of the detected event is not higher than the threshold, if the detected event with the higher reliability than the threshold does not arrive by the next action execution timing, it is recorded in the operation data recording unit 40. The robot 10 is controlled based on the motion data that has been recorded. That is, when the reliability of the detected event is not higher than the threshold value, as a result, the head actuator 20 and the body actuator 22 of the robot 10 are controlled based on the motion data recorded in the motion data recording unit 40. It becomes. In the process of FIG. 7, if the reliability of the detected event is not higher than the threshold (S708: N), the process is recorded in the operation data recording unit 40 without returning to the process of checking the event check interval (S703). It is good also as changing directly to the process (S711-S712) based on the operation data which exists.
上記処理によれば、検出イベントに含まれる信頼度が所定の閾値より高い場合は、検出イベントに応じてロボット10の動作が制御される。さらに、検出イベントまたは遠隔操作イベントに応じたアクションが所定の時間以上実行されない場合、動作データ記録部40に記録されている動作データに基づいて、ロボット10の動作が制御される。 According to the above process, when the reliability included in the detection event is higher than the predetermined threshold, the operation of the robot 10 is controlled according to the detection event. Further, when the action corresponding to the detection event or the remote operation event is not executed for a predetermined time or longer, the operation of the robot 10 is controlled based on the operation data recorded in the operation data recording unit 40.
これにより、検出イベントの信頼度が低い場合には、検出された対話要求に応じた動作が実行されないため、対話要求の誤った検出に伴うロボット10の不自然な動作を回避することができる。さらに、長時間に渡ってロボット10が動作せずに静止状態になってしまうことを回避することができ、ロボット10の存在感を表出することができる。つまり、検出イベントに基づいた即応的な自律動作制御と、動作データ記録部40に記録されている動作データに基づいた定型的で安定した自律動作制御との組み合わせにより、ロボット10の自律動作における不自然さを軽減させることができる。 As a result, when the reliability of the detected event is low, an operation corresponding to the detected dialogue request is not executed, so that an unnatural operation of the robot 10 due to an erroneous detection of the dialogue request can be avoided. Furthermore, it is possible to avoid the robot 10 from moving stationary for a long time, and to express the presence of the robot 10. In other words, the combination of the responsive autonomous motion control based on the detected event and the routine and stable autonomous motion control based on the motion data recorded in the motion data recording unit 40 is effective in the autonomous motion of the robot 10. Naturalness can be reduced.
また、本実施形態では、パラメータ変更部52によって、動作制御部48の各種パラメータを調整することにより、ロボット10の自律動作における不自然さを軽減させることもできる。例えば、雑音が多く認識イベントが信頼出来ない場合には、検出イベントの信頼度を判定する際の閾値を高く設定することにより、誤った検出イベントに対応したロボット10の動作を低減することができる。また、例えば、アクション実行間隔を定期的に変更することで、ロボット10の動作に揺らぎを生じさせ、より自然なロボット動作を実現することが可能になる。なお、パラメータ変更部52は、ネットワーク12を介してパラメータを変更するコマンドを受信することなく、検出イベントの信頼度の統計値や所定の規則に基づいてパラメータを変更することとしてもよい。 In the present embodiment, the parameter changing unit 52 can adjust various parameters of the operation control unit 48 to reduce unnaturalness in the autonomous operation of the robot 10. For example, when there is a lot of noise and the recognition event is unreliable, the operation of the robot 10 corresponding to the erroneous detection event can be reduced by setting a high threshold when determining the reliability of the detection event. . Further, for example, by periodically changing the action execution interval, it is possible to cause fluctuation in the operation of the robot 10 and realize a more natural robot operation. The parameter changing unit 52 may change the parameter based on a statistical value of reliability of the detected event or a predetermined rule without receiving a command for changing the parameter via the network 12.
なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。 Note that this embodiment is intended to facilitate understanding of the present invention and is not intended to limit the present invention. The present invention can be changed / improved without departing from the spirit thereof, and the present invention includes equivalents thereof.
例えば、動作データ記録部40には、人や物の特定の動作(ジェスチャー)に応じてロボット10を動作させるための動作データを記録させることも可能である。この場合、動作データ記録部40には、動作を識別する動作識別子と対応付けて動作データを記録しておくことができる。そして、検出部62が、ビデオカメラ24から出力される画像データに基づいて所定の動作を検出すると、検出イベント出力部64が、検出した動作に対応する動作識別子を検出データに含めて出力する。動作制御部48は、検出データに含まれる動作識別子に対応する動作データを動作データ記録部40から取得し、取得した動作データに基づいてロボット10の動作を制御することができる。 For example, the motion data recording unit 40 can record motion data for operating the robot 10 in accordance with a specific motion (gesture) of a person or an object. In this case, the motion data can be recorded in the motion data recording unit 40 in association with the motion identifier for identifying the motion. When the detection unit 62 detects a predetermined operation based on the image data output from the video camera 24, the detection event output unit 64 outputs the operation identifier corresponding to the detected operation in the detection data. The motion control unit 48 can acquire motion data corresponding to the motion identifier included in the detection data from the motion data recording unit 40, and can control the motion of the robot 10 based on the acquired motion data.
また、例えば、本実施形態では、アクション実行間隔を監視することにより、動作データ記録部40に記録された動作データに応じた動作の回数と、検出イベントに応じた動作の回数とを制御したが、各動作の回数の制御方法はこれに限られない。例えば、動作制御部48は、動作データ記録部40に記録されている動作データに応じた動作の単位時間当たりの実行数と、検出イベントに応じた動作の単位時間あたりの実行数とを制御実績記録部50に記録しておくことにより、単位時間あたりのロボット10の動作の総数をほぼ一定に制御することができる。例えば、動作制御部48は、検出イベントに応じた動作の単位時間あたりの実行数が多い場合は、動作データ記録部40に記録されている動作データに応じた動作の単位時間あたりの実行数を減らし、逆に、検出イベントに応じた動作の単位時間あたりの実行数が少ない場合は、動作データ記録部40に記録されている動作データに応じた動作の単位時間あたりの実行数を増加させることとしてもよい。 Further, for example, in the present embodiment, the number of operations according to the operation data recorded in the operation data recording unit 40 and the number of operations according to the detection event are controlled by monitoring the action execution interval. The method for controlling the number of operations is not limited to this. For example, the operation control unit 48 controls the number of executions per unit time of the operation according to the operation data recorded in the operation data recording unit 40 and the number of executions per unit time of the operation according to the detected event. By recording in the recording unit 50, the total number of operations of the robot 10 per unit time can be controlled to be substantially constant. For example, when the number of executions per unit time of the operation according to the detected event is large, the operation control unit 48 sets the number of executions per unit time of the operation according to the operation data recorded in the operation data recording unit 40. On the contrary, when the number of executions per unit time of the operation according to the detection event is small, the number of executions per unit time of the operation according to the operation data recorded in the operation data recording unit 40 is increased. It is good.
前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には
限られない。
Part or all of the above-described embodiments can be described as in the following supplementary notes, but is not limited thereto.
(付記1)可動部を有するロボットの制御方法であって、センサから出力される音声データまたは画像データに基づいて、前記ロボットに対する対話要求を検出し、前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力し、前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させ、前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる、ロボットの制御方法。 (Additional remark 1) It is a control method of the robot which has a movable part, Comprising: Based on the audio | voice data or image data output from a sensor, the interaction request | requirement with respect to the said robot is detected, and the detected data which shows the detected said interaction request | requirement are used. If the reliability is higher than a predetermined level, the movable part is operated based on the detection data. If the reliability is not higher than the predetermined level, it is registered in advance. A control method for a robot, wherein the movable unit is operated based on the obtained operation data.
(付記2)付記1に記載のロボットの制御方法であって、前記ロボットは、前記可動部の複数の動作位置に対応する複数の前記動作データが記録される動作データ記録部を含み、前記信頼度が前記所定レベルより高くない場合は、前記動作データ記録部に記録されている前記複数の動作データのうちの少なくとも1つの動作データに基づいて、前記可動部を動作させる、ロボットの制御方法。 (Supplementary note 2) The robot control method according to supplementary note 1, wherein the robot includes a motion data recording unit that records a plurality of motion data corresponding to a plurality of motion positions of the movable portion, and When the degree is not higher than the predetermined level, the robot control method of operating the movable unit based on at least one operation data among the plurality of operation data recorded in the operation data recording unit.
(付記3)付記1または2に記載のロボットの制御方法であって、前記検出データに基づく前記可動部の単位時間あたりの動作回数の減少に応じて、前記動作データに基づく前記可動部の前記単位時間あたりの動作回数を増加させる、ロボットの制御方法。 (Supplementary note 3) The robot control method according to supplementary note 1 or 2, wherein, according to a decrease in the number of operations per unit time of the movable unit based on the detection data, the movable unit based on the operation data A robot control method that increases the number of operations per unit time.
(付記4)付記1〜3の何れか一つに記載のロボットの制御方法であって、前記センサから出力される前記音声データに基づいて、音声の到来方向を検出し、前記検出データに前記信頼度および前記音声の到来方向を含めて出力し、前記信頼度が前記所定レベルより高い場合は、前記検出データに含まれる前記音声の到来方向に前記可動部を動作させる、ロボットの制御方法。 (Supplementary note 4) The robot control method according to any one of supplementary notes 1 to 3, wherein a voice arrival direction is detected based on the voice data output from the sensor, and the detection data includes the detection data. A method for controlling a robot, which outputs the reliability and the arrival direction of the voice, and operates the movable unit in the arrival direction of the voice included in the detection data when the reliability is higher than the predetermined level.
(付記5)付記1〜4の何れか一つに記載のロボットの制御方法であって、前記センサから出力される前記画像データに基づいて、前記ロボットに視線が向いている人物の位置または方向を検出し、前記検出データに前記信頼度および前記人物の方向を含めて出力し、前記信頼度が前記所定レベルより高い場合は、前記検出データに含まれる前記人物の方向に前記可動部を動作させる、ロボットの制御方法。 (Supplementary note 5) The robot control method according to any one of supplementary notes 1 to 4, wherein the position or direction of a person whose line of sight is directed to the robot based on the image data output from the sensor And outputs the detection data including the reliability and the direction of the person. When the reliability is higher than the predetermined level, the movable unit is operated in the direction of the person included in the detection data. Let the robot control method.
(付記6)付記2〜5の何れか一つに記載のロボットの制御方法であって、前記動作データは、前記ロボットに対する動作を識別する動作識別子と対応付けられて前記動作データ記録部に記録され、前記センサから出力される前記画像データに基づいて、所定動作による前記対話要求を検出し、前記検出データに、前記信頼度および検出された前記所定動作に対応する前記動作識別子を含めて出力し、前記信頼度が前記所定レベルより高い場合は、前記動作データ記録部に記録されている、前記検出データに含まれる前記動作識別子に対応する前記動作データに基づいて、前記可動部を動作させる、ロボットの制御方法。 (Supplementary note 6) The robot control method according to any one of supplementary notes 2 to 5, wherein the motion data is recorded in the motion data recording unit in association with a motion identifier for identifying a motion with respect to the robot. And detecting the dialogue request by a predetermined action based on the image data output from the sensor, and outputting the detection data including the reliability and the action identifier corresponding to the detected predetermined action. When the reliability is higher than the predetermined level, the movable unit is operated based on the operation data corresponding to the operation identifier included in the detection data, which is recorded in the operation data recording unit. , Robot control method.
(付記7)付記1〜6の何れか一つに記載のロボットの制御方法であって、前記ロボットは、音声または画像の特徴を示す特徴データが記録される特徴データ記録部を含み、前記センサから出力される前記音声データまたは前記画像データと、前記特徴データ記録部に記録されている前記特徴データとの類似度に基づいて、前記信頼度を算出する、ロボットの制御方法。 (Supplementary note 7) The robot control method according to any one of supplementary notes 1 to 6, wherein the robot includes a feature data recording unit in which feature data indicating a feature of a sound or an image is recorded, and the sensor A robot control method for calculating the reliability based on a similarity between the audio data or the image data output from the image data and the feature data recorded in the feature data recording unit.
(付記8)付記2〜6の何れか一つに記載のロボットの制御方法であって、前記ロボットは、複数の人物の音声の特徴を示す複数の特徴データが、人物を特定する人物識別子と対応付けられて記録される特徴データ記録部を含み、前記動作データは、前記人物識別子と対応付けられて前記動作データ記録部に記録され、前記センサから出力される前記音声データと、前記特徴データ記録部に記録されている前記特徴データとに基づいて、前記音声データに対応する前記人物識別子を検出し、前記検出データに、前記信頼度および検出された前記人物識別子を含めて出力し、前記信頼度が前記所定レベルより高い場合は、前記動作データ記録部に記録されている、前記検出データに含まれる前記人物識別子に対応する前記動作データに基づいて、前記可動部を動作させる、ロボットの制御方法。 (Supplementary note 8) The robot control method according to any one of supplementary notes 2 to 6, wherein the robot has a plurality of feature data indicating voice characteristics of a plurality of persons, A feature data recording unit that is recorded in association with each other, wherein the motion data is recorded in the motion data recording unit in association with the person identifier, and is output from the sensor; and the feature data Based on the feature data recorded in the recording unit, the person identifier corresponding to the audio data is detected, and the detection data is output including the reliability and the detected person identifier, When the reliability is higher than the predetermined level, based on the motion data corresponding to the person identifier included in the detection data, which is recorded in the motion data recording unit Operating the movable part, the control method of the robot.
(付記9)可動部を有するロボットに、センサから出力される音声データまたは画像データに基づいて、前記ロボットに対する対話要求を検出する機能と、前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力する機能と、前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させる機能と、前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる機能と、を実現させるためのプログラム。 (Supplementary note 9) A function of detecting a dialogue request to the robot based on voice data or image data output from a sensor to a robot having a movable part, and detection data indicating the detected dialogue request A function for outputting including reliability, a function for operating the movable part based on the detection data when the reliability is higher than a predetermined level, and a function when the reliability is not higher than the predetermined level. A program for realizing a function of operating the movable part based on registered operation data.
(付記10)可動部と、音声または画像を検出して音声データまたは画像データを出力するセンサと、前記音声データまたは前記画像データに基づいて、対話要求を検出する対話要求検出部と、前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力する検出データ出力部と、前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させ、前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる動作制御部と、を備えるロボット。 (Supplementary Note 10) A movable part, a sensor that detects voice or image and outputs voice data or image data, a dialog request detection part that detects a dialog request based on the voice data or the image data, and the detection A detection data output unit for outputting the detection data including the reliability of the detection to the detection data indicating the interaction request, and if the reliability is higher than a predetermined level, the movable unit is operated based on the detection data, And a motion control unit that operates the movable unit based on motion data registered in advance when the reliability is not higher than the predetermined level.
10 ロボット
12 ネットワーク
14 端末
20 頭部アクチュエータ
22 体部アクチュエータ
24 ビデオカメラ
26 マイクアレイ
28 スピーカ
30 ロボットカメラ映像表示ウィンドウ
32 ロボット制御用操作ウィンドウ
34 共有情報表示ウィンドウ
40 動作データ記録部
42 設定受付部
44 操作受付部
46 対話要求検出部
48 動作制御部
50 制御実績記録部
52 パラメータ変更部
DESCRIPTION OF SYMBOLS 10 Robot 12 Network 14 Terminal 20 Head actuator 22 Body part actuator 24 Video camera 26 Microphone array 28 Speaker 30 Robot camera image display window 32 Robot control operation window 34 Shared information display window 40 Operation data recording part 42 Setting reception part 44 Operation Reception unit 46 Dialog request detection unit 48 Operation control unit 50 Control result recording unit 52 Parameter change unit
Claims (10)
センサから出力される音声データまたは画像データに基づいて、前記ロボットに対する対話要求を検出し、
前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力し、
前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させ、
前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる、
ロボットの制御方法。 A control method for a robot having a movable part,
Based on voice data or image data output from the sensor, detects a dialogue request to the robot,
Outputting detection data indicating the detected dialogue request including reliability of the detection;
When the reliability is higher than a predetermined level, the movable unit is operated based on the detection data,
When the reliability is not higher than the predetermined level, the movable unit is operated based on operation data registered in advance.
Robot control method.
前記ロボットは、前記可動部の複数の動作位置に対応する複数の前記動作データが記録される動作データ記録部を含み、
前記信頼度が前記所定レベルより高くない場合は、前記動作データ記録部に記録されている前記複数の動作データのうちの少なくとも1つの動作データに基づいて、前記可動部を動作させる、
ロボットの制御方法。 The robot control method according to claim 1, comprising:
The robot includes an operation data recording unit that records a plurality of the operation data corresponding to a plurality of operation positions of the movable unit,
When the reliability is not higher than the predetermined level, the movable unit is operated based on at least one operation data among the plurality of operation data recorded in the operation data recording unit.
Robot control method.
前記検出データに基づく前記可動部の単位時間あたりの動作回数の減少に応じて、前記動作データに基づく前記可動部の前記単位時間あたりの動作回数を増加させる、
ロボットの制御方法。 The robot control method according to claim 1, wherein:
In response to a decrease in the number of operations per unit time of the movable unit based on the detection data, the number of operations per unit time of the movable unit based on the operation data is increased.
Robot control method.
前記センサから出力される前記音声データに基づいて、音声の到来方向を検出し、
前記検出データに前記信頼度および前記音声の到来方向を含めて出力し、
前記信頼度が前記所定レベルより高い場合は、前記検出データに含まれる前記音声の到来方向に前記可動部を動作させる、
ロボットの制御方法。 It is a control method of the robot according to any one of claims 1 to 3,
Based on the voice data output from the sensor, the direction of voice arrival is detected,
Outputting the detection data including the reliability and the direction of arrival of the voice;
When the reliability is higher than the predetermined level, the movable unit is operated in the direction of arrival of the voice included in the detection data.
Robot control method.
前記センサから出力される前記画像データに基づいて、前記ロボットに視線が向いている人物の位置または方向を検出し、
前記検出データに前記信頼度および前記人物の方向を含めて出力し、
前記信頼度が前記所定レベルより高い場合は、前記検出データに含まれる前記人物の方向に前記可動部を動作させる、
ロボットの制御方法。 The robot control method according to any one of claims 1 to 4,
Based on the image data output from the sensor, detects the position or direction of a person whose line of sight is facing the robot,
Outputting the detection data including the reliability and the direction of the person,
When the reliability is higher than the predetermined level, the movable unit is operated in the direction of the person included in the detection data.
Robot control method.
前記動作データは、前記ロボットに対する動作を識別する動作識別子と対応付けられて前記動作データ記録部に記録され、
前記センサから出力される前記画像データに基づいて、所定動作による前記対話要求を検出し、
前記検出データに、前記信頼度および検出された前記所定動作に対応する前記動作識別子を含めて出力し、
前記信頼度が前記所定レベルより高い場合は、前記動作データ記録部に記録されている、前記検出データに含まれる前記動作識別子に対応する前記動作データに基づいて、前記可動部を動作させる、
ロボットの制御方法。 A method for controlling a robot according to any one of claims 2 to 5,
The motion data is recorded in the motion data recording unit in association with a motion identifier that identifies a motion with respect to the robot,
Based on the image data output from the sensor, detect the dialogue request by a predetermined operation,
The detection data is output including the reliability and the action identifier corresponding to the detected predetermined action,
When the reliability is higher than the predetermined level, the movable unit is operated based on the operation data corresponding to the operation identifier included in the detection data, which is recorded in the operation data recording unit.
Robot control method.
前記ロボットは、音声または画像の特徴を示す特徴データが記録される特徴データ記録部を含み、
前記センサから出力される前記音声データまたは前記画像データと、前記特徴データ記録部に記録されている前記特徴データとの類似度に基づいて、前記信頼度を算出する、
ロボットの制御方法。 A robot control method according to any one of claims 1 to 6,
The robot includes a feature data recording unit in which feature data indicating features of voice or image is recorded,
Calculating the reliability based on the similarity between the audio data or the image data output from the sensor and the feature data recorded in the feature data recording unit;
Robot control method.
前記ロボットは、複数の人物の音声の特徴を示す複数の特徴データが、人物を特定する人物識別子と対応付けられて記録される特徴データ記録部を含み、
前記動作データは、前記人物識別子と対応付けられて前記動作データ記録部に記録され、
前記センサから出力される前記音声データと、前記特徴データ記録部に記録されている前記特徴データとに基づいて、前記音声データに対応する前記人物識別子を検出し、
前記検出データに、前記信頼度および検出された前記人物識別子を含めて出力し、
前記信頼度が前記所定レベルより高い場合は、前記動作データ記録部に記録されている、前記検出データに含まれる前記人物識別子に対応する前記動作データに基づいて、前記可動部を動作させる、
ロボットの制御方法。 A robot control method according to any one of claims 2 to 6, comprising:
The robot includes a feature data recording unit that records a plurality of feature data indicating voice characteristics of a plurality of people in association with a person identifier that identifies the person,
The motion data is recorded in the motion data recording unit in association with the person identifier,
Based on the voice data output from the sensor and the feature data recorded in the feature data recording unit, the person identifier corresponding to the voice data is detected,
Outputting the detection data including the reliability and the detected person identifier;
When the reliability is higher than the predetermined level, the movable unit is operated based on the operation data corresponding to the person identifier included in the detection data, which is recorded in the operation data recording unit.
Robot control method.
センサから出力される音声データまたは画像データに基づいて、前記ロボットに対する対話要求を検出する機能と、
前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力する機能と、
前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させる機能と、
前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる機能と、
を実現させるためのプログラム。 For robots with moving parts,
A function of detecting a dialogue request to the robot based on voice data or image data output from a sensor;
A function of outputting detection data indicating the detected dialogue request including reliability of the detection;
When the reliability is higher than a predetermined level, a function of operating the movable part based on the detection data;
When the reliability is not higher than the predetermined level, a function of operating the movable unit based on pre-registered operation data;
A program to realize
音声または画像を検出して音声データまたは画像データを出力するセンサと、
前記音声データまたは前記画像データに基づいて、対話要求を検出する対話要求検出部と、
前記検出された対話要求を示す検出データに前記検出の信頼度を含めて出力する検出データ出力部と、
前記信頼度が所定レベルより高い場合は、前記検出データに基づいて前記可動部を動作させ、前記信頼度が前記所定レベルより高くない場合は、予め登録された動作データに基づいて前記可動部を動作させる動作制御部と、
を備えるロボット。 Moving parts;
A sensor that detects sound or image and outputs sound data or image data;
A dialog request detection unit that detects a dialog request based on the audio data or the image data;
A detection data output unit for outputting the detection data indicating the detected dialogue request including the reliability of the detection;
When the reliability is higher than a predetermined level, the movable unit is operated based on the detection data, and when the reliability is not higher than the predetermined level, the movable unit is operated based on pre-registered operation data. An operation control unit to be operated;
Robot equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010185183A JP2012040655A (en) | 2010-08-20 | 2010-08-20 | Method for controlling robot, program, and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010185183A JP2012040655A (en) | 2010-08-20 | 2010-08-20 | Method for controlling robot, program, and robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012040655A true JP2012040655A (en) | 2012-03-01 |
Family
ID=45897523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010185183A Pending JP2012040655A (en) | 2010-08-20 | 2010-08-20 | Method for controlling robot, program, and robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012040655A (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665891A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Sound detection device, sound detection method and recording medium |
US20180311816A1 (en) * | 2017-04-27 | 2018-11-01 | Toyota Jidosha Kabushiki Kaisha | Voice interactive robot and voice interaction system |
JP2019009770A (en) * | 2017-06-26 | 2019-01-17 | フェアリーデバイセズ株式会社 | Sound input/output device |
WO2019138619A1 (en) | 2018-01-09 | 2019-07-18 | ソニー株式会社 | Information processing device, information processing method and program |
JP2019130610A (en) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | Communication robot and control program of the same |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
US11538469B2 (en) | 2017-05-12 | 2022-12-27 | Apple Inc. | Low-latency intelligent automated assistant |
US11550542B2 (en) | 2015-09-08 | 2023-01-10 | Apple Inc. | Zero latency digital assistant |
US11557310B2 (en) | 2013-02-07 | 2023-01-17 | Apple Inc. | Voice trigger for a digital assistant |
US11630525B2 (en) | 2018-06-01 | 2023-04-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11675491B2 (en) | 2019-05-06 | 2023-06-13 | Apple Inc. | User configurable task triggers |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
US11783815B2 (en) | 2019-03-18 | 2023-10-10 | Apple Inc. | Multimodality in digital assistant systems |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11809886B2 (en) | 2015-11-06 | 2023-11-07 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11838579B2 (en) | 2014-06-30 | 2023-12-05 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11842734B2 (en) | 2015-03-08 | 2023-12-12 | Apple Inc. | Virtual assistant activation |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11900936B2 (en) | 2008-10-02 | 2024-02-13 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11900923B2 (en) | 2018-05-07 | 2024-02-13 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US12001933B2 (en) | 2015-05-15 | 2024-06-04 | Apple Inc. | Virtual assistant in a communication session |
US12051413B2 (en) | 2015-09-30 | 2024-07-30 | Apple Inc. | Intelligent device identification |
US12067985B2 (en) | 2018-06-01 | 2024-08-20 | Apple Inc. | Virtual assistant operations in multi-device environments |
-
2010
- 2010-08-20 JP JP2010185183A patent/JP2012040655A/en active Pending
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11900936B2 (en) | 2008-10-02 | 2024-02-13 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11862186B2 (en) | 2013-02-07 | 2024-01-02 | Apple Inc. | Voice trigger for a digital assistant |
US11557310B2 (en) | 2013-02-07 | 2023-01-17 | Apple Inc. | Voice trigger for a digital assistant |
US11810562B2 (en) | 2014-05-30 | 2023-11-07 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
US12118999B2 (en) | 2014-05-30 | 2024-10-15 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US11838579B2 (en) | 2014-06-30 | 2023-12-05 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11842734B2 (en) | 2015-03-08 | 2023-12-12 | Apple Inc. | Virtual assistant activation |
US12001933B2 (en) | 2015-05-15 | 2024-06-04 | Apple Inc. | Virtual assistant in a communication session |
US11550542B2 (en) | 2015-09-08 | 2023-01-10 | Apple Inc. | Zero latency digital assistant |
US11954405B2 (en) | 2015-09-08 | 2024-04-09 | Apple Inc. | Zero latency digital assistant |
US12051413B2 (en) | 2015-09-30 | 2024-07-30 | Apple Inc. | Intelligent device identification |
US11809886B2 (en) | 2015-11-06 | 2023-11-07 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
CN108665891A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Sound detection device, sound detection method and recording medium |
CN108665891B (en) * | 2017-03-28 | 2023-05-02 | 卡西欧计算机株式会社 | Voice detection device, voice detection method, and recording medium |
CN109249386B (en) * | 2017-04-27 | 2022-01-11 | 丰田自动车株式会社 | Voice conversation robot and voice conversation system |
US10828773B2 (en) | 2017-04-27 | 2020-11-10 | Toyota Jidosha Kabushiki Kaisha | Voice interactive robot and voice interaction system |
CN109249386A (en) * | 2017-04-27 | 2019-01-22 | 丰田自动车株式会社 | Voice dialogue robot and speech dialogue system |
JP2018183856A (en) * | 2017-04-27 | 2018-11-22 | トヨタ自動車株式会社 | Voice-interactive robot and voice-interactive system |
US20180311816A1 (en) * | 2017-04-27 | 2018-11-01 | Toyota Jidosha Kabushiki Kaisha | Voice interactive robot and voice interaction system |
US11467802B2 (en) | 2017-05-11 | 2022-10-11 | Apple Inc. | Maintaining privacy of personal information |
US11538469B2 (en) | 2017-05-12 | 2022-12-27 | Apple Inc. | Low-latency intelligent automated assistant |
US11862151B2 (en) | 2017-05-12 | 2024-01-02 | Apple Inc. | Low-latency intelligent automated assistant |
JP2019009770A (en) * | 2017-06-26 | 2019-01-17 | フェアリーデバイセズ株式会社 | Sound input/output device |
WO2019138619A1 (en) | 2018-01-09 | 2019-07-18 | ソニー株式会社 | Information processing device, information processing method and program |
JP2019130610A (en) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | Communication robot and control program of the same |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
US11907436B2 (en) | 2018-05-07 | 2024-02-20 | Apple Inc. | Raise to speak |
US11900923B2 (en) | 2018-05-07 | 2024-02-13 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US12067985B2 (en) | 2018-06-01 | 2024-08-20 | Apple Inc. | Virtual assistant operations in multi-device environments |
US11630525B2 (en) | 2018-06-01 | 2023-04-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11893992B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Multi-modal inputs for voice commands |
US11783815B2 (en) | 2019-03-18 | 2023-10-10 | Apple Inc. | Multimodality in digital assistant systems |
US11675491B2 (en) | 2019-05-06 | 2023-06-13 | Apple Inc. | User configurable task triggers |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
US11790914B2 (en) | 2019-06-01 | 2023-10-17 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11914848B2 (en) | 2020-05-11 | 2024-02-27 | Apple Inc. | Providing relevant data items based on context |
US11838734B2 (en) | 2020-07-20 | 2023-12-05 | Apple Inc. | Multi-device audio adjustment coordination |
US11696060B2 (en) | 2020-07-21 | 2023-07-04 | Apple Inc. | User identification using headphones |
US11750962B2 (en) | 2020-07-21 | 2023-09-05 | Apple Inc. | User identification using headphones |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012040655A (en) | Method for controlling robot, program, and robot | |
JP7379907B2 (en) | Information processing device, information processing program, information processing system, information processing method | |
JP5456832B2 (en) | Apparatus and method for determining relevance of an input utterance | |
US9274744B2 (en) | Relative position-inclusive device interfaces | |
JP6635049B2 (en) | Information processing apparatus, information processing method and program | |
US10353495B2 (en) | Personalized operation of a mobile device using sensor signatures | |
US9263044B1 (en) | Noise reduction based on mouth area movement recognition | |
KR102463806B1 (en) | Electronic device capable of moving and method for operating thereof | |
JP2017518691A (en) | System and method for providing haptic feedback to assist in image capture | |
CN116208885A (en) | Device with enhanced audio | |
TW201246950A (en) | Method of controlling audio recording and electronic device | |
JP5246790B2 (en) | Sound data processing apparatus and program | |
JP2010134629A (en) | Information processing apparatus and method | |
JP2000347692A (en) | Person detecting method, person detecting device, and control system using it | |
WO2019147034A1 (en) | Electronic device for controlling sound and operation method therefor | |
US9772815B1 (en) | Personalized operation of a mobile device using acoustic and non-acoustic information | |
JP5206151B2 (en) | Voice input robot, remote conference support system, and remote conference support method | |
JP2018075657A (en) | Generating program, generation device, control program, control method, robot device and telephone call system | |
WO2012008553A1 (en) | Robot system | |
JP7435641B2 (en) | Control device, robot, control method and program | |
US11984137B2 (en) | Two-way communication support system and storage medium | |
US10838741B2 (en) | Information processing device, information processing method, and program | |
WO2018116678A1 (en) | Information processing device and method for control thereof | |
JP6631166B2 (en) | Imaging device, program, and imaging method | |
JP7225735B2 (en) | VIDEO CONFERENCE SYSTEM, COMMUNICATION TERMINAL AND MICROPHONE CONTROL METHOD OF COMMUNICATION TERMINAL |