JP4556024B2 - Robot and robot system - Google Patents
Robot and robot system Download PDFInfo
- Publication number
- JP4556024B2 JP4556024B2 JP2004291849A JP2004291849A JP4556024B2 JP 4556024 B2 JP4556024 B2 JP 4556024B2 JP 2004291849 A JP2004291849 A JP 2004291849A JP 2004291849 A JP2004291849 A JP 2004291849A JP 4556024 B2 JP4556024 B2 JP 4556024B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- person
- robot
- trash
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 239000010813 municipal solid waste Substances 0.000 claims description 249
- 230000009471 action Effects 0.000 claims description 138
- 230000014509 gene expression Effects 0.000 claims description 73
- 238000001514 detection method Methods 0.000 claims description 51
- 230000033001 locomotion Effects 0.000 claims description 42
- 239000000428 dust Substances 0.000 claims description 34
- 230000008921 facial expression Effects 0.000 claims description 22
- 230000001939 inductive effect Effects 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 241000282412 Homo Species 0.000 description 10
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000009916 joint effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Refuse Receptacles (AREA)
Description
本発明は、ゴミの回収を行うロボットおよびロボットシステムに関する。 The present invention relates to a robot and a robot system for collecting garbage.
近年、ロボット関連産業の市場は大きく成長している。特に、家事、介護等の家庭および福祉分野におけるロボット市場は今後ますます拡大していくことが予想され、掃除ロボット(例えば特許文献1)のように用途に応じた機能を備えた生活支援ロボットが種々提案および開発されている。
生活支援型のロボットとしてゴミを回収するロボットの開発も望まれる。このような生活支援ロボットの開発においては、ロボットが目的を達成する過程で人間の補助をできるだけ少なくするということが重要な課題の一つであった。すなわち、ロボットの存在価値は人の生活を便利にすることにあると考えられており、その価値を高めるための多種多様な機能を備えた自律型のロボットの開発が進められてきた。 Development of a robot that collects garbage as a life support robot is also desired. In developing such life support robots, it has been one of the important issues to minimize human assistance as much as possible while the robot achieves its purpose. In other words, it is considered that the existence value of a robot is to make a person's life convenient, and development of an autonomous robot having various functions for increasing its value has been advanced.
技術競争の激しい現代社会においては、優れた機能を有するロボットが開発されると、すぐにそれを上回る機能を有するロボットの開発が進められる。そして、さらに優れた機能を有する新たなロボットが開発された場合、人の興味はその新たなロボットに向けられ、それ以前のロボットの存在価値は薄れ廃棄される。 In a modern society where technological competition is intense, when a robot having an excellent function is developed, development of a robot having a function exceeding that is immediately advanced. When a new robot having a further superior function is developed, the interest of the person is directed to the new robot, and the existence value of the previous robot is faded and discarded.
上記のような技術開発サイクルは、大量生産および大量消費の現代社会においては必然的なものである。 The technological development cycle as described above is inevitable in the modern society of mass production and consumption.
しかしながら、環境負荷の少ない循環型社会を構築するためには、上記のようなサイクルから脱却しなければならない。そのためには、廃棄されないロボットの開発が重要である。そこで、本発明者は、従来のロボットの問題点を次のように考えた。 However, in order to build a recycling-oriented society with a low environmental load, we must move away from the above cycle. To that end, it is important to develop robots that are not discarded. Therefore, the present inventor considered the problems of the conventional robot as follows.
従来のロボットは、上記のように人にとって便利なものでなければならず、人とロボットとの関係は、使う者(人)と使われるもの(ロボット)であった。このような関係においては、ロボットは人からの一方的な要求に応えるためだけに存在し、人はロボットの存在価値を利便性によって評価するため、少しでも利便性に優れるロボットを求めてしまう。そのため、新しい機能を備えたロボットが開発されると、それまで使用されていた機能の劣るロボットは廃棄されてしまう。 A conventional robot must be convenient for a person as described above, and the relationship between the person and the robot is that used by the user (person) and the person used (robot). In such a relationship, the robot exists only to respond to one-sided requests from a person, and the person evaluates the existence value of the robot based on the convenience, and therefore, a robot that is excellent in convenience is required. For this reason, when a robot having a new function is developed, a robot having a lower function that has been used until then is discarded.
このような問題を解決するための方法としては、例えば、現在一般に市販されているペット型ロボットが備えるような様々な仕草を行う機能等を上記のような生活支援型ロボットにも備えることによって、人にロボットに対する愛着を持たせることが考えられる。 As a method for solving such a problem, for example, by providing the life support robot as described above with a function for performing various gestures as provided by a pet robot that is currently commercially available, It is possible to give people attachment to robots.
しかしながら、人がペット型ロボットと関わってみると、なぜか寂しい気持ちになる。その原因の一つは、ロボットの行動があまりに自律的であり、人の存在を予定したものではないからである。その結果として、人とロボットとの社会的な繋がりを感じさせないことになる。 However, when people interact with pet-type robots, they feel lonely for some reason. One of the reasons is that the robot's behavior is so autonomous that it is not intended for human existence. As a result, the social connection between people and robots will not be felt.
もう一つは、人はロボットを社会的な存在と認識しつつも、ロボットは人を社会的な存在と認識しているわけではなく、ロボットにとって人は石ころと同様の障害物の一つにすぎない。このように、人とロボットとの関係は非対称性を有する。 The other is that humans recognize robots as social beings, but robots do not recognize humans as social beings. For robots, humans are one of the same obstacles as stones. Only. Thus, the relationship between the person and the robot has asymmetry.
人とロボットとの共存を考えるとき、ロボットは自律すべきものという前提を再検討する必要がある。このように、人とロボットとの関係を再検討しない限り、単に生活支援型ロボットにペット型ロボットの機能を備えたとしても、人とロボットとは、使う者(人)と使われるもの(ロボット)との関係から脱することはできない。 When considering coexistence between humans and robots, it is necessary to reexamine the premise that robots should be autonomous. In this way, unless the relationship between humans and robots is reexamined, even if the life support robot has a pet-type robot function, humans and robots are those used by people (robots). ) Can not get out of the relationship.
本発明の目的は、人との共同行為によってゴミを回収する目的を達成しかつ人との相互依存的および相互構成的な関係を築くことが可能なロボットおよびロボットシステムを提供することである。 An object of the present invention is to provide a robot and a robot system that can achieve the purpose of collecting garbage by a joint action with a person and can establish an interdependent and reciprocal relationship with the person.
第1の発明に係るロボットは、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段と、ゴミ収容部にゴミが投入されたことを検出する第2の検出手段と、第1の検出手段の検出結果を受け、表現手段を制御する制御手段とを備え、制御手段は、第1の検出手段により人が検出された場合に表現手段によりゴミを拾うという人の行為を誘発するための行為を実行し、表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、表現手段により人に対して応答行為を実行し、表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、表現手段によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行するものである。 According to a first aspect of the present invention, there is provided a main body having a dust container, an expression means for expressing intention by at least one of an utterance by voice output, display of a facial expression, and movement of the main body, A first detection means for detecting a person, a second detection means for detecting that dust has been put into the dust container , and a control means for receiving the detection result of the first detection means and controlling the expression means. And the control means executes an action for inducing a person's action of picking up trash by the expression means when a person is detected by the first detection means, and an action of the person picking up the trash by the expression means When the second detection means detects that the garbage has been thrown into the garbage container after performing the action for inducing the user, the expression means executes a response action to the person, and the expression means Picking up trash In order to induce the person's act of picking up trash by the expression means when the second detection means does not detect that the trash has been thrown into the trash container after performing the action for inducing the act of Other actions are selectively performed .
本発明に係るロボットにおいては、第1の検出手段により人が検出された場合に、ゴミを拾うという人の行為を誘発するための行為が表現手段により実行される。それにより、ゴミを拾うという人の行為が誘発される。 In the robot according to the present invention, when a person is detected by the first detection means, an action for inducing a person's action of picking up trash is executed by the expression means. This triggers the person's act of picking up trash.
このように、ロボットは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。 In this way, the robot cannot pick up trash itself, but can only collect trash with the help of others. Therefore, the purpose of collecting trash as a result of joint and reciprocal actions between robots and people is achieved.
この場合、ロボットは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットを助ける存在として価値付けられる。それにより、人とロボットとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットに対する愛着が醸成されるとともに社会的な繋がりが形成される。 In this case, the robot is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robots. As a result, humans and robots mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between humans and robots is established. As a result, attachment to robots is fostered and social connections are formed.
制御手段においては、表現手段によりゴミを拾うという人の行為を誘発するための行為が実行された後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、表現手段により人に対して応答行為が実行される。 In the control unit, when after the action to induce the act of people who pick up trash is executed by means of expression, that garbage thrown into the garbage receiving portion detected by the second detecting means The responding action is executed on the person by the expression means.
この場合、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、表現手段により人に対して応答行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。 In this case, when the second detection means detects that the garbage has been thrown into the garbage container, a response action is performed on the person by the expression means. As a result, people can find value in the act of picking up trash.
制御手段においては、表現手段によりゴミを拾うという人の行為を誘発するための行為が実行された後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、表現手段によりゴミを拾うという人の行為を誘発するための他の行為が選択的に実行される。 When the control means, which after the act to elicit the act of people who pick up trash is executed by representable means that dust in the dust receiving portion is turned not detected by the second detecting means, other acts are performed selectively for inducing act of people who pick up trash by expression means.
この場合、人がゴミを拾ってくれない場合に、ゴミを拾うという人の行為を誘発するための種々の行為を試行錯誤的に実行することにより、人にゴミを拾ってもらうための行為を学習することができる。それにより、ロボットは、ゴミ収納部にゴミを投入する志向的姿勢を人から確実に引き出すための行為を獲得することができる。その結果、人がロボットとの関わり合いを重ねるにつれて人とロボットとの相互依存的および相互構成的な関係が徐々に築かれ、ロボットに対する愛着が増すとともに、社会的な繋がりが強化される。 In this case, if a person does not pick up the trash, by performing various actions to induce the person's act of picking up the trash, trials and errors are performed to allow the person to pick up the trash. Can learn. As a result, the robot can acquire an action for reliably pulling out the intentional posture of putting the garbage into the garbage storage unit from the person. As a result, the interdependence and mutual constitutional relationship between the person and the robot gradually builds up as the person is involved with the robot, and the attachment to the robot increases and the social connection is strengthened.
第2の発明に係るロボットは、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段と、第1の検出手段の検出結果を受け、表現手段を制御する制御手段とを備え、制御手段は、ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、第1の検出手段により人が検出された場合に、複数の行為のうちいずれかをランダムに選択確率を反映して選択し、表現手段により選択された行為を実行した後、ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新するものである。 According to a second aspect of the present invention, there is provided a main body having a dust container, an expression means for expressing an intention by at least one of an utterance by voice output, display of a facial expression, and movement of the main body, first detecting means for detecting a human, detection result receiving the first detection means, and control means for controlling the expression means, the control means for inducing the act of people who pick up trash A plurality of actions and selection probabilities for each action are stored, and when a person is detected by the first detection means, one of the plurality of actions is selected at random reflecting the selection probability, and the expression means After executing the selected action, the selection probability of the selected action is updated based on whether or not garbage is thrown into the garbage container .
このロボットにおいては、複数の行為と各行為の選択確率とが記憶される。記憶された複数の行為のいずれかが選択確率を反映してランダムに選択され、選択された行為が実行される。ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率が更新される。それにより、ロボットは人にゴミを拾ってもらうための行為を学習することができる。その結果、人がロボットとの関わり合いを重ねるにつれて人とロボットとの相互依存的および相互構成的な関係が徐々に築かれ、ロボットに対する愛着が増すとともに、社会的な繋がりが強化される。 In this robot, a plurality of actions and the selection probability of each action are stored. Any one of the plurality of stored actions is selected at random reflecting the selection probability, and the selected action is executed. The selection probability of the action selected based on whether or not garbage is thrown into the garbage container is updated. As a result, the robot can learn an action for a person to pick up trash. As a result, the interdependence and mutual constitutional relationship between the person and the robot gradually builds up as the person is involved with the robot, and the attachment to the robot increases and the social connection is strengthened.
表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および本体部を動かす駆動手段の少なくとも1つを含んでもよい。 The expression means may include at least one of a voice output means for speaking by voice output, a display means for expressing a facial expression, and a drive means for moving the main body.
この場合、音声出力手段による音声出力による発話、表示手段による表情の表示または駆動手段による本体部の動きにより、ロボットの意思が表現される。 In this case, the intention of the robot is expressed by the utterance by the voice output by the voice output means, the display of the facial expression by the display means, or the movement of the main body by the drive means.
第3の発明に係るロボットシステムは、複数のロボットと、複数のロボットの各々を制御する制御手段とを備え、複数のロボットの各々は、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段と、ゴミ収容部にゴミが投入されたことを検出する第2の検出手段とを備え、制御手段は、複数のロボットのいずれかの第1の検出手段により人が検出された場合に、各ロボットの表現手段の動作および複数のロボットの表現手段の連携した動作のうちの少なくとも一方の動作によりゴミを拾うという人の行為を誘発するための行為を実行し、ゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、各ロボットの表現手段の動作および複数のロボットの表現手段の連携した動作のうちの少なくとも一方の動作により人に対して応答行為を実行し、ゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、各ロボットの表現手段の動作および複数のロボットの表現手段の連携した動作のうちの少なくとも一方の動作によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行するものである。 A robot system according to a third aspect of the present invention includes a plurality of robots and a control unit that controls each of the plurality of robots, and each of the plurality of robots includes a main body unit having a dust container, a speech by voice output, Expression means for expressing intention by at least one action of display of facial expression and movement of main body, first detection means for detecting a person around the main body, and detection that garbage is thrown into the dust container and a second detecting means for the control means, when a person is detected by either the first detection means of the plurality of robots, the expression means of operation and a plurality of robots means of expression of each robot by at least one of operation of the federated operation running acts to induce the act of people who pick up trash, after performing the acts for inducing act of people who pick up trash, garbage When the second detecting means detects that dust has been thrown into the container, it is possible for a person to act by at least one of the actions of the expression means of each robot and the action of the expression means of a plurality of robots in cooperation. If the second detecting means does not detect that the trash has been thrown into the trash container after executing the action for inducing the person's action of picking up the trash in response to the robot, each robot The other action for inducing the person's action of picking up trash by at least one of the movement of the expression means and the coordinated action of the expression means of the plurality of robots is selectively executed .
本発明に係るロボットシステムにおいては、複数のロボットのいずれかの第1の検出手段により人が検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための行為が実行される。それにより、ゴミを拾うという人の行為が誘発される。特に、複数のロボットの連携した動きによりゴミを拾ってあげようという人の行為が効果的に誘発される。 In the robot system according to the present invention, when a person is detected by the first detection means of any of the plurality of robots, the operation of the expression means of each robot and / or the operation of the expression means of the plurality of robots in cooperation with each other An action for inducing a person's action of picking up trash is performed. This triggers the person's act of picking up trash. In particular, the action of a person trying to pick up garbage is effectively induced by the coordinated movement of a plurality of robots.
このように、各ロボットは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットシステムと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。 In this way, each robot cannot pick up trash itself and can collect trash only with the help of others. Therefore, the purpose of collecting trash as a result of joint and reciprocal actions between the robot system and people is achieved.
この場合、ロボットシステムは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットシステムを助ける存在として価値付けられる。それにより、人とロボットシステムとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットシステムとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットシステムに対する愛着が醸成されるとともに社会的な繋がりが形成される。 In this case, the robot system is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robot systems. As a result, humans and robot systems mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between a person and a robot system is established. As a result, attachment to the robot system is fostered and social connection is formed.
制御手段においては、各ロボットの表現手段の動作および複数のロボットの表現手段の連携した動作のうちの少なくとも一方の動作によりゴミを拾うという人の行為を誘発するための行為が実行された後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作により人に対して応答行為が実行される。 In the control means, after an action for inducing a person's action to pick up garbage by at least one of the actions of the expression means of each robot and the linked actions of the expression means of a plurality of robots, If the be garbage garbage receiving portion is turned detected by the second detecting means, responsive to a person in cooperation with operation of the operation and / or a plurality of robots of expression means expression means of each robot act is performed.
この場合、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作により人に対して応答行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。 In this case, when it is detected by the second detection means that the garbage has been put into the garbage container, the operation of the expression means of each robot and / or the cooperation of the expression means of a plurality of robots is performed on the person. The response action is executed. As a result, people can find value in the act of picking up trash.
制御手段においては、ゴミを拾うという人の行為を誘発するための行為が実行された後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための他の行為が選択的に実行される。 In the control means, after the action for inducing an act of people who pick up garbage is executed, if that garbage thrown into the garbage receiving portion is not detected by the second detection means, for each robot other acts to induce the act of people who pick up trash in collaboration with operation of the operation and / or a plurality of robots of expression means the expression means is selectively executed.
この場合、人がゴミを拾ってくれない場合に、ゴミを拾うという人の行為を誘発するための種々の行為を試行錯誤的に実行することにより、人にゴミを拾ってもらうための行為を学習することができる。それにより、ロボットシステムは、ゴミ収納部にゴミを投入する志向的姿勢を人から確実に引き出すための行為を獲得することができる。その結果、人がロボットシステムとの関わり合いを重ねるにつれて人とロボットシステムとの相互依存的および相互構成的な関係が徐々に築かれ、に対する愛着が増すとともに、社会的な繋がりが強化される。 In this case, if a person does not pick up the trash, by performing various actions to induce the person's act of picking up the trash, trials and errors are performed to allow the person to pick up the trash. Can learn. As a result, the robot system can acquire an action for reliably pulling out the intentional posture of throwing trash into the trash storage unit from the person. As a result, the interdependence and mutual constitutional relationship between the person and the robot system is gradually established as the person repeats the relationship with the robot system, and the attachment to the person increases and the social connection is strengthened.
第4の発明に係るロボットシステムは、複数のロボットと、複数のロボットの各々を制御する制御手段とを備え、複数のロボットの各々は、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段とを備え、制御手段は、ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、複数のロボットのいずれかの第1の検出手段により人が検出された場合に、複数の行為のうちいずれかをランダムに選択確率を反映して選択し、各ロボットの表現手段の動作および複数のロボットの表現手段の連携した動作のうちの少なくとも一方の動作により選択された行為を実行した後、複数のロボットのいずれかのゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新するものである。
このロボットシステムにおいては、複数の行為と各行為の選択確率とが記憶される。記憶された複数の行為のいずれかが選択確率を反映してランダムに選択され、選択された行為が実行される。ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率が更新される。それにより、ロボットは人にゴミを拾ってもらうための行為を学習することができる。その結果、人がロボットとの関わり合いを重ねるにつれて人とロボットとの相互依存的および相互構成的な関係が徐々に築かれ、ロボットに対する愛着が増すとともに、社会的な繋がりが強化される。
表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および本体部を動かす駆動手段の少なくとも1つを含んでもよい。
A robot system according to a fourth aspect of the present invention includes a plurality of robots and a control unit that controls each of the plurality of robots, and each of the plurality of robots includes a main body unit having a dust container, a speech by voice output, An expression means for expressing an intention by at least one of an action of displaying a facial expression and a movement of the main body, and a first detection means for detecting a person around the main body, and the control means is for a person who picks up trash A plurality of actions for inducing an action and a selection probability of each action are stored, and when a person is detected by any of the first detection means of the plurality of robots, any one of the plurality of actions is randomly selected. Reflecting the selection probability, and performing an action selected by at least one of the operations of the expression means of each robot and the operations of the expression means of the plurality of robots, In which dust or trash receiving portion bot updates the selection probability of action selected on the basis of whether it is turned on.
In this robot system, a plurality of actions and the selection probability of each action are stored. Any one of the plurality of stored actions is selected at random reflecting the selection probability, and the selected action is executed. The selection probability of the action selected based on whether or not garbage is thrown into the garbage container is updated. As a result, the robot can learn an action for a person to pick up trash. As a result, the interdependence and mutual constitutional relationship between the person and the robot gradually builds up as the person is involved with the robot, and the attachment to the robot increases and the social connection is strengthened.
The expression means may include at least one of a voice output means for speaking by voice output, a display means for expressing a facial expression, and a drive means for moving the main body.
この場合、音声出力手段による音声出力による発話、表示手段による表情の表示または駆動手段による本体部の動きにより、ロボットの意思が表現される。 In this case, the intention of the robot is expressed by the utterance by the voice output by the voice output means, the display of the facial expression by the display means, or the movement of the main body by the drive means.
本発明によれば、人との共同行為によってゴミを回収する目的を達成しかつ人との相互依存的および相互構成的な関係を築くことが可能となる。その結果、ロボットに対する愛着が醸成されるとともに社会的な繋がりが形成される。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to achieve the objective of collect | recovering garbage by the joint action with a person, and to build the interdependence and mutual constitutional relationship with a person. As a result, attachment to robots is fostered and social connections are formed.
図1は本発明の一実施の形態に係るゴミ箱ロボットの外観を示す模式図である。 FIG. 1 is a schematic diagram showing an appearance of a trash can robot according to an embodiment of the present invention.
図1に示すように、ゴミ箱ロボット100は、円筒状の本体部1および円盤状の支持部2を備える。本体部1は、支持部2上に鉛直軸の周りで回転可能に設けられている。本体部1の内部がゴミ収容部30となる。
As shown in FIG. 1, the
本体部1の外周面には画像を表示するディスイプレ11が設けられている。ディスプレイ11は、例えば液晶ディスプレイである。このディスイプレ11には、顔が表示される。ゴミ箱ロボット100は、ディスイプレ11に表示される顔の表情を変化させることにより人に種々の感情を伝えることができる。
A
ディスプレイ11の両側にはマイク12,13が設けられている。これらのマイク12,13によりゴミ箱ロボット100の周囲の人の音声を入力することができる。また、マイク12,13は、ステレオマイクとして機能する。マイク12,13に入力される音声の位相差に基づいて音源方向を認識することができる。
本体部1の外周面の中央部にはスピーカ14が設けられている。ゴミ箱ロボットは、スピーカ14から音声を出力することにより人に対して発話することができる。
A
本体部1の外周面の上部には、人物判別用カメラ15が設けられている。人物判別用カメラ15は、例えばCCD(電荷結合素子)カメラである。この人物判別用カメラ15は、ゴミ箱ロボット100の前方に存在する人物を撮像する。人物判別用カメラ15により得られた画像信号に基づいて顔領域探索技術によりゴミ箱ロボット100の前方における人の位置を検出することができる。
A
本体部1の内周面の上端近傍には、ゴミ判別用カメラ16が設けられている。ゴミ判別用カメラ16は、例えばCCDカメラである。このゴミ判別用カメラ16は、本体部1のゴミ収容部30に投入されたゴミ等の物体を撮像する。ゴミ判別用カメラ16により得られた画像信号から画像認識技術によりゴミ収容部30に投入されたゴミの種類を判別することができる。
A
本体部1の外周面の下部には、人を検出する複数の物体検出センサ19が設けられている。物体検出センサ19は、焦電型センサ、赤外線測距センサ等からなる。物体検出センサ19の出力信号に基づいてゴミ箱ロボット100の周囲における人または障害物の存在を検出することができる。
A plurality of
支持部2の下面には、移動用の車輪17,18が設けられる。車輪17,18は支持部2に内蔵される後述の移動用モータ24(図2)により駆動される。ゴミ箱ロボット100は、物体検出センサ19の出力信号に基づいて障害物を回避しつつ車輪17,18により全方位に移動することができる。それにより、自律移動機構が実現される。
Moving
また、ゴミ箱ロボット100は、支持部2に内蔵される後述の本体回転用モータ23(図2)により支持部2上の本体部1を回転させることができる。それにより、ゴミ箱ロボット100は、本体部1の動きにより感情または要求を表現することができる。
In addition, the
図2は図1のゴミ箱ロボット100の制御系を示すブロック図である。
FIG. 2 is a block diagram showing a control system of the
ゴミ箱ロボット100は、制御用コンピュータ20、音声認識装置21、音声合成装置22、本体回転用モータ23および移動用モータ24を内蔵する。
The
マイク12,13により得られる音声信号は、音声認識装置21に入力される。音声認識装置21は、マイク12,13により入力された音声信号に基づいて音声認識を行う。音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号、ゴミ判別用カメラ16により得られる画像信号および物体検出センサ19の出力信号は、制御用コンピュータ20に与えられる。
Voice signals obtained by the
制御用コンピュータ20は、CPU(中央演算処理装置)、メモリ等からなる。この制御用コンピュータ20は、音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号および物体検出センサ19の出力信号のいずれか1つまたは複数に基づいてゴミ箱ロボット100の周囲の人の位置を判別する。また、制御用コンピュータ20は、ゴミ判別用カメラ16により得られる画像信号に基づいてゴミ収容部30に投入されたゴミの種類を判別する。さらに、制御用コンピュータ20は、ディスプレイ11に顔を表示させる。また、制御用コンピュータ20は、音声合成装置22を用いて音声信号を合成し、スピーカ14から音声として出力することにより発話を行う。
The
また、制御用コンピュータ20は、本体回転用モータ23および移動用モータ24を制御する。本体回転用モータ23が作動すると、図1の本体部1が支持部2に対して回転する。それにより、本体部1が首振り動作を行う。移動用モータ24が作動すると、図1の車輪17,18が回転する。また、車輪17,18は、移動用モータ24により任意の方向に向くことができる。それにより、ゴミ箱ロボット100が全方位に移動する。
The
制御用コンピュータ20のメモリには制御プログラムが記憶される。この制御用コンピュータ20は、制御プログラムに従って後述の処理を実行する。
A control program is stored in the memory of the
図3は図1のゴミ箱ロボット100の動作を示すフローチャートである。ゴミ箱ロボット100は、制御用コンピュータ20のメモリに記憶された制御プログラムに従って動作する。
FIG. 3 is a flowchart showing the operation of the
ここで、制御用コンピュータ20のメモリには、ゴミ箱ロボット100の複数の行為が予め記憶されている。ゴミ箱ロボット100の行為は、本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情である。具体的には、メモリに、本体部1の複数の動きのパターン、スピーカ14による複数の発話内容およびディスプレイ11に表示される複数の表情が複数の行為として予め記憶される。複数の行為には、それぞれ選択確率が与えられている。初期状態では、複数の行為の選択確率は等しくなっている。
Here, a plurality of actions of the
また、制御用コンピュータ20は、音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号および物体検出センサ19の出力信号のいずれか1つまたは複数に基づいてゴミ箱ロボット100の周囲の人を検出するが、ここでは、物体検出センサ19の出力信号に基づいてゴミ箱ロボット100の周囲の人を検出するものとする。
In addition, the
まず、ゴミ箱ロボット100の制御用コンピュータ20は、本体部1の周囲の人を物体検出センサ19により検出する(ステップS1)。このとき、例えば、本体回転用モータ23により、本体部1を左右に所定の角度回転させて周囲全体を見渡すことができるようにしてもよい。本体部1の周囲に人を検出しない場合には(ステップS2)、移動用モータ24によりゴミ箱ロボット100を移動させ(ステップS10)、ステップS1に戻る。この移動は、人のぶらぶら歩きのように方向がランダムに変化するように行われる。
First, the
本体部1の周囲に人を検出した場合には(ステップS2)、本体回転用モータ23により人の方向に本体部1を向ける(ステップS3)。
When a person is detected around the main body 1 (step S2), the
制御用コンピュータ20は、予め記憶された複数の行為のうちいずれかを乱数表を用いてランダムに選択する(ステップS4)。ここでは、選択確率が反映されるランダムな選択が行われるが、上記のように、初期状態では、複数の行為の選択確率が等しくなっている。
The
次に、制御用コンピュータ20は、選択された行為を実行するようにディスプレイ11、音声合成装置22、スピーカ14、本体回転用モータ23および移動用モータ24を制御する(ステップS5)。
Next, the
例えば、本体回転用モータ23により本体部1を左右に回転させながら移動用モータ24により人に近づくように移動する。また、ディスプレイ11により親しみの表情を表す。さらに、スピーカ14により挨拶の言葉を発声し、ゴミを拾ってもらいたい旨の発話を行う。
For example, the main
次いで、制御用コンピュータ20は、ゴミ判別用カメラ16により得られる画像に基づいて所望のゴミがゴミ収容部30内に投入されたか否かを判別する(ステップS6)。例えば、ゴミ収容部30が空き缶用である場合には、制御用コンピュータ20は、投入されたゴミが空き缶であるか否かを判別する。空き缶が投入されたか否かの判別は、制御用コンピュータ20が空き缶の向き等の各種状態に対応する形状を予め記憶し、ゴミ収容部30に投入された物体の画像と記憶された形状とのマッチングを取る等のパターン認識技術を用いることにより行うことができる。
Next, the
所望のゴミがゴミ収容部30内に投入された場合には、制御用コンピュータ20は、本体回転用モータ23により本体部1を人の方に向ける(ステップS7)。そして、制御用コンピュータ20は、感謝の気持ちを本体部1の動き、スピーカ14による発話およびディスプレイ11に表示された表情により表す(ステップS8)。
When the desired garbage is thrown into the
例えば、本体回転用モータ23により本体部1を左右に回転させる。また、ディスプレイ11により喜びの表情を表す。さらに、スピーカ14によりお礼の言葉を発声する。
For example, the
その後、制御用コンピュータ20は、選択された行為の選択確率を増加させ(ステップS9)、ステップS1に戻る。
Thereafter, the
ステップS6でゴミがゴミ収容部30内に投入されない場合には、制御用コンピュータ20は、ステップS1に戻り、ステップS1〜S6の処理を繰り返す。この場合、制御用コンピュータ20は、ステップS4において予め記憶された複数の行為のうち他の行為をランダムに選択する。
If no garbage is thrown into the
ステップS1〜S10の処理を繰り返すことにより、制御用コンピュータ20のメモリに記憶された複数の行為の選択確率が変化する。それにより、ステップS4で高い選択確率を有する行為が選択されやすくなる。
By repeating the processes of steps S1 to S10, the selection probabilities of a plurality of actions stored in the memory of the
この場合、ゴミ収容部30に所望のゴミが投入された場合の行為の選択確率が増加するので、制御用コンピュータ20は、人に所望のゴミを投入してもらうための行為を学習により獲得する。
In this case, since the selection probability of an action when a desired garbage is thrown into the
本実施の形態では、ゴミを拾ってもらうためのゴミ箱ロボット100の行為を効率良く選択するために、人が所望のゴミをゴミ収容部30に投入した場合に選択した行為に報酬値を与える。そして、各行為が獲得した報酬値の大きさに応じて各行為の選択確率に重み付けを行う。複数の行為の選択確率を変化させるためにいわゆるルーレット選択法を用いることができる。ここで、ルーレット選択法の概念について説明する。
In the present embodiment, in order to efficiently select an action of the
ルーレットの円周部の領域を所望数の欄に分割し、乱数により複数の欄のいずれかを選択する。各欄の幅によりその欄の選択される確率が決まる。 The area of the roulette circumference is divided into a desired number of columns, and one of a plurality of columns is selected by a random number. The width of each column determines the probability of that column being selected.
各欄に対して複数の行為のいずれかを割り当てる。初期段階では、各欄の幅を全ての行為に対して等しくすることにより、複数の行為のいずれも同じ確率(等選択確率)で選択され得る。その後、試行錯誤による経験(学習)を選択確率に反映させる。 Assign one of several actions to each column. In the initial stage, by making the width of each column equal for all actions, any of a plurality of actions can be selected with the same probability (equal selection probability). Then, experience (learning) by trial and error is reflected in the selection probability.
例えば、複数の行為のいずれかを実行することにより人が所望のゴミをゴミ収容部30に投入した場合に、ルーレットの該当する欄の幅を大きくし、人が所望のゴミをゴミ収容部30に投入しなかった場合には、ルーレットの該当する欄の幅を小さくする。それにより、複数の行為のうち、人が所望のゴミをゴミ収容部30に投入した場合に実行された行為の選択確率が高くなり、人が所望のゴミをゴミ収容部30に投入しなかった場合に実行された行為の選択確率が低くなる。
For example, when a person throws in desired garbage into the
人が所望のゴミをゴミ収容部30に投入した場合にルーレットの該当する欄の幅をどの程度広げるかは、Q−learning法と呼ばれる数理的方法を用いて決定してもよく、あるいは経験則で決定してもよい。
The degree to which the width of the corresponding column of the roulette is increased when a person throws in desired garbage into the
上記のように、本実施の形態に係るゴミ箱ロボット100においては、本体部1の周囲に人が検出された場合に、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示により、ゴミを拾うという人の行為を誘発するための行為を行う。
As described above, in the
人はこのように主体的に動くものに対して、その心を思わず読もうとしてしまう。このような認知的な構えを、認知哲学者のDennettは「志向的姿勢(Intentional stance)」と呼んでいる。この志向的姿勢により、人は、ゴミ箱ロボット100がゴミを拾いたがっていることまたはゴミを拾ってもらいたがっていることを認知する。上記のようなゴミ箱ロボット100の行為により、人の志向的姿勢による上記の認知がもたらされ、ゴミを拾うという人の行為が誘発される。すなわち、ゴミ箱ロボット100の上記行為は、ゴミを拾うという人の行為を誘発するために行われる。
People try to read the mind of what moves in this way. Such a cognitive stance is called cognitive philosopher Dennett "Intentional stance". With this intentional attitude, the person recognizes that the
ゴミ収容部30に所望のゴミが投入された場合には、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示により人に感謝の気持ちが伝えられる。それにより、人はゴミを拾った行為に価値を見出すことができる。
When desired garbage is thrown into the
このように、ゴミ箱ロボット100は、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ゴミ箱ロボット100と人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。
Thus, the
この場合、ゴミ箱ロボット100は、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ゴミ箱ロボット100を助ける存在として価値付けられる。それにより、人とゴミ箱ロボット100とが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とゴミ箱ロボット100との相互依存的および相互構成的な関係が築かれる。その結果、ゴミ箱ロボット100に対する愛着が醸成されるとともに社会的な繋がりが形成される。
In this case, the
また、制御用コンピュータ20は、記憶された複数の行為のいずれをがランダムに選択確率を反映して選択し、選択された行為を実行する。ゴミ収容部30に所望のゴミが投入されない場合には、他の行為を選択的に実行し、ゴミ収容部30に所望のゴミが投入された場合には、選択された行為の選択確率を増加させる。それにより、ゴミ箱ロボット100は、人にゴミを拾ってもらうための行為を学習することができる。その結果、人がゴミ箱ロボット100との関わり合いを重ねるにつれて人とゴミ箱ロボット100との相互依存的および相互構成的な関係が徐々に築かれ、ゴミ箱ロボット100に対する愛着が増すとともに、社会的な繋がりが強化される。
Further, the
なお、上記実施の形態では、人にゴミを拾ってもらうための行為を効率良く選択するための学習方法としてルーレット選択法を挙げて説明したが、これに限定されず、種々の学習方法を用いることができる。例えば、人にゴミを拾ってもらったことを教師信号として学習を行う方法として、一般的な遺伝的アルゴリズム、またはQ−learning法等を用いることもできる。 In the above embodiment, the roulette selection method has been described as a learning method for efficiently selecting an action for allowing a person to pick up garbage. However, the present invention is not limited to this, and various learning methods are used. be able to. For example, a general genetic algorithm, a Q-learning method, or the like can be used as a method of learning using a teacher signal that a person has picked up garbage.
このような学習方法により行為の選択確率に重み付けを行ったデータを予め取得し、このデータを乱数または優先順位と組み合わせて複数の行為のいずれかを選択することも可能である。 It is also possible to obtain in advance data obtained by weighting the action selection probability by such a learning method, and select one of a plurality of actions by combining this data with a random number or priority.
また、上記実施の形態では、ゴミ箱ロボット100が人にゴミを拾ってもらうための行為として本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示を行っているが、ゴミ箱ロボット100がゴミを拾いたがっていることまたはゴミを拾ってもらいたがっていることを人が認知することによりゴミを拾うという人の行為を誘発することにつながり得る行為であれば、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示のいずれか1つまたは2つを行ってもよい。例えば、スピーカ14による発話およびディスプレイ11による表情の表示のみを行ってもよい。
In the above embodiment, the
さらに、上記実施の形態では、所望のゴミがゴミ収容部30内に投入された場合には、応答行為として本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示を行っているが、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示のいずれか1つまたは2つにより人に感謝の気持ちが伝わる行為、喜びを表す行為またはその他の意思を表す行為を行ってもよい。
Furthermore, in the above-described embodiment, when desired garbage is thrown into the
例えば、本体回転用モータ23により本体部1を左右に回転させる行為、ディスプレイ11により喜びの表情を表す行為、およびスピーカ14によりお礼の言葉を発声する行為のいずれか1つまたは2つを行ってもよい。
For example, one or two of the act of rotating the
次に、本発明の他の実施の形態に係るロボットシステムについて説明する。図4は本発明の他の実施の形態に係るロボットシステムにおけるゴミ箱ロボットの構成を示すブロック図である。また、図5〜図9は本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。 Next, a robot system according to another embodiment of the present invention will be described. FIG. 4 is a block diagram showing a configuration of a trash can robot in a robot system according to another embodiment of the present invention. 5 to 9 are schematic diagrams for explaining an example of the configuration and operation of a robot system according to another embodiment of the present invention.
図5〜図9に示すロボットシステムは、複数のゴミ箱ロボット100a,100b,100cおよび統括制御用コンピュータ200により構成される。本例のロボットシステムは、空き缶用のゴミ箱ロボット100a、燃えるゴミ用のゴミ箱ロボット100bおよび燃えないゴミ用のゴミ箱ロボット100cにより構成される。
The robot system shown in FIGS. 5 to 9 includes a plurality of
図4のゴミ箱ロボット100aが図2のゴミ箱ロボット100と異なるのは、制御用コンピュータ20に接続される通信装置25をさらに備える点である。他のゴミ箱ロボット100b,100cの各々の構成は、図4のゴミ箱ロボット100aの構成と同様である。
The
図5〜図9の複数のゴミ箱ロボット100a,100b,100cは、無線LAN(ローカルエリアネットワーク)により統括制御用コンピュータ20に接続されている。
The plurality of
複数のゴミ箱ロボット100a,100b,100cは、統括制御用コンピュータ200の統括的な制御により連携して動作することによりゴミを回収する。なお、複数のゴミ箱ロボット100a,100b,100cのうち一または複数のゴミ箱ロボットの制御用コンピュータ20が複数のゴミ箱ロボット100a,100b,100cを統括的に制御してもよい。
The plurality of
統括制御用コンピュータ200は、ゴミ箱ロボット100a,100b,100cと通信を行い、複数のゴミ箱ロボット100a,100b,100c間の相対的な配置を例えば互いに衝突しない程度の距離に保ちつつ、各ゴミ箱ロボット100a,100b,100cの姿勢例えば向きを制御する。この場合、ゴミ箱ロボット100a,100b,100cは、図1の物体検出センサ19の出力信号に基づいて互いの距離を測定する。また、複数のゴミ箱ロボット100a,100b,100cは、相互間の会話を本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情により表現する。
The
ここで、図5〜図9を参照しながらロボットシステムの動作の一例について説明する。 Here, an example of the operation of the robot system will be described with reference to FIGS.
図5に示すように、複数のゴミ箱ロボット100a,100b,100c同士が会話を行っている。複数のゴミ箱ロボット100a,100b,100cの周囲に人がいない場合には、図6に示すように、複数のゴミ箱ロボット100a,100b,100cが会話を続けながら一体となって移動する。
As shown in FIG. 5, a plurality of
図7に示すように、複数のゴミ箱ロボット100a,100b,100cが人を見つけると、複数のゴミ箱ロボット100a,100b,100cは複数の行為のうちいずれかを選択し、選択された本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情によりゴミを拾ってもらいたい意思を表現する。この場合、複数のゴミ箱ロボット100a,100b,100cは、ゴミを拾いたいが、自らは拾えず、人の助けが必要であることを認識してもらうような行為を行う。
As shown in FIG. 7, when a plurality of
図8に示すように、人が所望のゴミをゴミ箱ロボット100のゴミ収容部30に投入した場合、ゴミ箱ロボット100aは所望のゴミが投入されたか否かを判別する。本例では、ゴミ箱ロボット100aは、投入されたゴミが空き缶であるか否かを判別する。
As shown in FIG. 8, when a person throws in desired garbage into the
所望のゴミが投入された場合には、複数のゴミ箱ロボット100a,100b,100cは、本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情により感謝の気持ちを表現する。この結果、図9に示すように、人はゴミを拾った行為に価値を見出すことができる。
When desired trash is thrown in, the plurality of
上記のように、本実施の形態に係るロボットシステムにおいては、複数のゴミ箱ロボット100a,100b,100cのいずれかの周囲に人が検出された場合に、各ゴミ箱ロボット100a,100b,100cの本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示ならびに複数のゴミ箱ロボット100a,100b,100cの連携した動きによりゴミ収納部30にゴミを投入する志向的姿勢を人から引き出すための行為が実行される。それにより、ゴミを拾ってあげようという人の行為が誘発される。特に、複数のゴミ箱ロボット100a,100b,100cの連携した動きによりゴミを拾ってあげようという人の行為が効果的に誘発される。
As described above, in the robot system according to the present embodiment, when a person is detected around any of the plurality of
ゴミ収容部300に所望のゴミが投入された場合には、各ゴミ箱ロボット100a,100b,100cの本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示ならびに複数のゴミ箱ロボット100a,100b,100cの連携した動きにより人に感謝を伝えるための行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。
When desired trash is put into the trash container 300, the movement of the
このように、各ゴミ箱ロボット100a,100b,100cは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットシステムと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。
Thus, each
この場合、ロボットシステムは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットシステムを助ける存在として価値付けられる。それにより、人とロボットシステムとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットシステムとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットシステムに対する愛着が醸成されるとともに社会的な繋がりが形成される。 In this case, the robot system is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robot systems. As a result, humans and robot systems mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between a person and a robot system is established. As a result, attachment to the robot system is fostered and social connection is formed.
上記実施の形態では、本体部1が本体部に相当し、音声合成装置22およびスピーカ14、ディスプレイ11、または本体回転用モータ23、移動用モータ24および車輪17,18が表現手段を構成する。また、音声合成装置22およびスピーカ14が発話手段に相当し、ディスプレイ11が表示手段に相当し、本体回転用モータ23、移動用モータ24および車輪17,18が駆動手段に相当する。さらに、マイク11,12、人物判別用カメラ15または物体検出センサ19が第1の検出手段に相当し、ゴミ判別用カメラ16が第2の検出手段に相当し、制御用コンピュータ20または統括制御用コンピュータ200が制御手段に相当する。
In the above embodiment, the
本実施の形態に係るゴミ箱ロボット100またはロボットシステムを人、幼稚園児、学童等が頻繁に通る公共の場所、公園、幼稚園、学校等の場所に固定的に配置することにより所期の目的を効率良く達成することができる。
By efficiently placing the
本発明は、屋内、屋外等でゴミの回収等に利用することができる。 The present invention can be used to collect garbage indoors and outdoors.
1 本体部
2 支持部
11 ディスプレイ
12,13 マイク
14 スピーカ
15 人物判別用カメラ
16 ゴミ判別用カメラ
17,18 車輪
19 物体検出センサ
20 制御用コンピュータ
21 音声認識装置
22 音声合成装置
23 本体回転用モータ
24 移動用モータ
100,100a,100b,100c ゴミ箱ロボット
200 統括制御用コンピュータ
DESCRIPTION OF
Claims (6)
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、
前記本体部の周囲の人を検出する第1の検出手段と、
前記ゴミ収容部にゴミが投入されたことを検出する第2の検出手段と、
前記第1の検出手段の検出結果を受け、前記表現手段を制御する制御手段とを備え、
前記制御手段は、
前記第1の検出手段により人が検出された場合に前記表現手段によりゴミを拾うという人の行為を誘発するための行為を実行し、
前記表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出された場合に、前記表現手段により人に対して応答行為を実行し、
前記表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出されない場合に、前記表現手段によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行することを特徴するロボット。 A main body having a garbage container;
Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
First detection means for detecting a person around the main body,
Second detecting means for detecting that dust is thrown into the dust container;
Control means for receiving the detection result of the first detection means and controlling the expression means;
The control means includes
An action for inducing a person's action of picking up trash by the expression means when a person is detected by the first detection means ;
The expression means when the second detection means detects that the garbage has been thrown into the garbage container after performing the action for inducing the person's action of picking up the garbage by the expression means. To respond to people by
When the second detection means does not detect that the garbage has been thrown into the garbage container after performing the action for inducing the person's action of picking up the garbage by the expression means, the expression means A robot that selectively performs other actions to induce a person's action to pick up garbage .
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、
前記本体部の周囲の人を検出する第1の検出手段と、
前記第1の検出手段の検出結果を受け、前記表現手段を制御する制御手段とを備え、
前記制御手段は、
ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、前記第1の検出手段により人が検出された場合に、前記複数の行為のうちいずれかをランダムに選択確率を反映して選択し、前記表現手段により選択された行為を実行した後、前記ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新することを特徴とするロボット。 A main body having a garbage container;
Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
First detection means for detecting a person around the main body,
Control means for receiving the detection result of the first detection means and controlling the expression means;
The control means includes
Storing the selection probability of a plurality of behaviors and the action to induce the act of people who pick up garbage, if a person is detected by said first detection means, one of said plurality of behaviors Is selected reflecting the selection probability at random, and after the action selected by the expression means is executed, the selection probability of the selected action is updated based on whether or not garbage is thrown into the garbage container. features and to Carlo bot that.
前記複数のロボットの各々を制御する制御手段とを備え、
前記複数のロボットの各々は、
ゴミ収容部を有する本体部と、
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、
前記本体部の周囲の人を検出する第1の検出手段と、
前記ゴミ収容部にゴミが投入されたことを検出する第2の検出手段とを備え、
前記制御手段は、
前記複数のロボットのいずれかの前記第1の検出手段により人が検出された場合に、各ロボットの前記表現手段の動作および前記複数のロボットの前記表現手段の連携した動作のうちの少なくとも一方の動作によりゴミを拾うという人の行為を誘発するための行為を実行し、
ゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出された場合に、各ロボットの前記表現手段の動作および前記複数のロボットの前記表現手段の連携した動作のうちの少なくとも一方の動作により人に対して応答行為を実行し、
ゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出されない場合に、各ロボットの前記表現手段の動作および前記複数のロボットの前記表現手段の連携した動作のうちの少なくとも一方の動作によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行することを特徴とするロボットシステム。 With multiple robots,
Control means for controlling each of the plurality of robots,
Each of the plurality of robots is
A main body having a garbage container;
Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
First detection means for detecting a person around the main body ,
Second detection means for detecting that dust is thrown into the dust container ,
The control means includes
When a person is detected by the first detection means of any of the plurality of robots , at least one of the operation of the expression means of each robot and the operation of the expression means of the plurality of robots in cooperation with each other Perform actions to induce the person to pick up trash by movement ,
After performing the act of inducing the person's act of picking up trash, when the second detection means detects that the trash has been thrown into the trash container, the expression means of each robot Performing a response action on a person by at least one of an operation and a coordinated operation of the expression means of the plurality of robots;
The operation of the expression means of each robot when the second detection means does not detect that garbage has been thrown into the garbage container after performing an action for inducing the person's action of picking up garbage And a robot system that selectively executes another action for inducing a person's action of picking up trash by at least one of the coordinated actions of the expression means of the plurality of robots .
前記複数のロボットの各々を制御する制御手段とを備え、 Control means for controlling each of the plurality of robots,
前記複数のロボットの各々は、 Each of the plurality of robots is
ゴミ収容部を有する本体部と、 A main body having a garbage container;
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、 Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
前記本体部の周囲の人を検出する第1の検出手段とを備え、 First detection means for detecting a person around the main body,
前記制御手段は、ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、前記複数のロボットのいずれかの前記第1の検出手段により人が検出された場合に、前記複数の行為のうちいずれかをランダムに選択確率を反映して選択し、各ロボットの前記表現手段の動作および前記複数のロボットの前記表現手段の連携した動作のうちの少なくとも一方の動作により選択された行為を実行した後、前記複数のロボットのいずれかの前記ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新することを特徴とするロボットシステム。 The control means stores a plurality of actions for inducing a person's action to pick up garbage and a selection probability of each action, and a person is detected by the first detection means of any of the plurality of robots. And selecting one of the plurality of actions at random reflecting the selection probability, and at least one of the operation of the expression means of each robot and the operation of the expression means of the plurality of robots in cooperation with each other After the action selected by the operation is performed, the selection probability of the selected action is updated based on whether or not garbage is thrown into any one of the plurality of robots. Robot system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004291849A JP4556024B2 (en) | 2004-10-04 | 2004-10-04 | Robot and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004291849A JP4556024B2 (en) | 2004-10-04 | 2004-10-04 | Robot and robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006102861A JP2006102861A (en) | 2006-04-20 |
JP4556024B2 true JP4556024B2 (en) | 2010-10-06 |
Family
ID=36373144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004291849A Expired - Lifetime JP4556024B2 (en) | 2004-10-04 | 2004-10-04 | Robot and robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4556024B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103434779A (en) * | 2013-08-28 | 2013-12-11 | 南昌大学 | Outdoor environment-friendly garbage recycling vehicle |
CN106516508A (en) * | 2016-12-22 | 2017-03-22 | 上海海事大学 | Automatic rubbish collecting system and rubbish collecting trolley thereof |
CN107139181A (en) * | 2017-05-27 | 2017-09-08 | 芜湖星途机器人科技有限公司 | The robot trunk fast lifted |
WO2020241223A1 (en) * | 2019-05-28 | 2020-12-03 | パナソニックIpマネジメント株式会社 | Tidy-up inducing system, tidy-up inducing furniture, and tidy-up inducing method |
US11144056B1 (en) | 2018-01-12 | 2021-10-12 | AI Incorporated | Autonomous refuse container replacement system |
US11144066B1 (en) | 2018-01-31 | 2021-10-12 | AI Incorporated | Autonomous refuse bag replacement system |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5606927B2 (en) | 2008-01-28 | 2014-10-15 | シーグリッド コーポレーション | Method for repurposing spatio-temporal information collected by service robots |
EP2252190B1 (en) | 2008-01-28 | 2012-05-23 | Seegrid Corporation | Service robot and method of operating same |
CN101970186A (en) * | 2008-01-28 | 2011-02-09 | 塞格瑞德公司 | Methods for real-time and near-real time interactions with robots that service a facility |
US8755936B2 (en) | 2008-01-28 | 2014-06-17 | Seegrid Corporation | Distributed multi-robot system |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
KR101291645B1 (en) * | 2011-09-22 | 2013-08-01 | 삼성중공업 주식회사 | System and method for separate collection of cruise ship |
WO2015120384A1 (en) * | 2014-02-07 | 2015-08-13 | The Coca-Cola Company | System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry |
CN105314300B (en) * | 2014-06-10 | 2018-07-06 | 深圳市宏泰智能家居科技有限公司 | A kind of intelligent garbage bin |
CN104309964B (en) * | 2014-09-03 | 2017-01-25 | 北京大学深圳研究生院 | Voice control intelligent garbage can based on acoustic vector sensor |
JP6317266B2 (en) * | 2015-01-23 | 2018-04-25 | シャープ株式会社 | Robot control device and robot |
JP6359478B2 (en) * | 2015-03-31 | 2018-07-18 | シャープ株式会社 | robot |
CN104944029B (en) * | 2015-06-15 | 2017-06-16 | 珠海市一微半导体有限公司 | Dustbin robot system and its control method |
KR102577571B1 (en) * | 2016-08-03 | 2023-09-14 | 삼성전자주식회사 | Robot apparatus amd method of corntrolling emotion expression funtion of the same |
KR101848412B1 (en) * | 2016-08-19 | 2018-05-24 | 한양대학교 에리카산학협력단 | Garbage collecting system |
CN106395198B (en) * | 2016-11-23 | 2019-02-12 | 北京小米移动软件有限公司 | The control method and device of intelligent garbage bin |
JP7000704B2 (en) * | 2017-05-16 | 2022-01-19 | 富士フイルムビジネスイノベーション株式会社 | Mobile service providers and programs |
CN107127767B (en) * | 2017-05-27 | 2020-05-22 | 芜湖星途机器人科技有限公司 | High-stability robot trunk |
JP6718623B2 (en) * | 2017-09-27 | 2020-07-08 | 一般社団法人It&診断支援センター・北九州 | Cat conversation robot |
CN107973030A (en) * | 2017-12-06 | 2018-05-01 | 潘兆坤 | Intelligent garbage bin |
CN108502404A (en) * | 2018-04-04 | 2018-09-07 | 广州艾可机器人有限公司 | A kind of public space intelligent garbage collecting apparatus |
CN108861188B (en) * | 2018-05-22 | 2021-02-23 | 广州云景环保科技有限公司 | Intelligent garbage classification and recovery robot |
KR102137190B1 (en) | 2018-06-15 | 2020-07-24 | 엘지전자 주식회사 | Guidance robot |
KR102137170B1 (en) | 2018-06-15 | 2020-07-24 | 엘지전자 주식회사 | Guidance robot |
CN108908373B (en) * | 2018-08-20 | 2020-11-17 | 湖南金龙环卫有限公司 | Garbage classification and recovery robot |
CN109394084A (en) * | 2018-10-22 | 2019-03-01 | 魏赛尔 | A kind of intelligent mobile dustbin and its control system based on Internet of Things |
JP2020075326A (en) * | 2018-11-08 | 2020-05-21 | トヨタ自動車株式会社 | robot |
CN109460028A (en) * | 2018-11-23 | 2019-03-12 | 珠海格力电器股份有限公司 | Control device and method of intelligent garbage can and intelligent garbage can |
CN109440699A (en) * | 2018-12-07 | 2019-03-08 | 长沙中联重科环境产业有限公司 | Environmental sanitation is intelligently clean to sweep Work robot control system and cleaning machine |
CN109533729A (en) * | 2018-12-26 | 2019-03-29 | 佛山科学技术学院 | A kind of intelligent garbage bin that voice control is mobile |
JP7320240B2 (en) * | 2019-04-01 | 2023-08-03 | 国立大学法人豊橋技術科学大学 | robot |
JP7310401B2 (en) * | 2019-07-23 | 2023-07-19 | トヨタ自動車株式会社 | Server equipment |
CN212557791U (en) | 2019-11-25 | 2021-02-19 | 魏宏帆 | Waste storage device and intelligent management system |
KR102337393B1 (en) * | 2019-12-30 | 2021-12-08 | 엘지전자 주식회사 | Moving robot |
CN113491484A (en) * | 2020-04-07 | 2021-10-12 | 深圳爱根斯通科技有限公司 | Target cleaning method and device and robot |
JP7351827B2 (en) * | 2020-12-17 | 2023-09-27 | トヨタ自動車株式会社 | garbage collection system |
CN113353503A (en) * | 2021-07-01 | 2021-09-07 | 苏州大学文正学院 | Intelligent garbage workstation |
CN113625646B (en) * | 2021-08-20 | 2022-12-13 | 北京云迹科技股份有限公司 | Scheduling system of intelligent garbage robot |
CN113697321A (en) * | 2021-09-16 | 2021-11-26 | 安徽世绿环保科技有限公司 | Garbage bag coding system for garbage classification station |
CN114973822A (en) * | 2022-04-21 | 2022-08-30 | 华南师范大学 | Intelligent teaching aid for garbage classification and control method and medium thereof |
CN115709461B (en) * | 2022-11-08 | 2024-08-06 | 浙江金实乐环境工程有限公司 | Garbage collection self-adaptive inspection robot |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6061206U (en) * | 1983-10-04 | 1985-04-27 | 沖電気工業株式会社 | electronic trash can |
JPS6253203U (en) * | 1985-09-20 | 1987-04-02 | ||
JPH0977201A (en) * | 1995-09-08 | 1997-03-25 | Nagoya Container- Kk | Garbage can |
-
2004
- 2004-10-04 JP JP2004291849A patent/JP4556024B2/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103434779A (en) * | 2013-08-28 | 2013-12-11 | 南昌大学 | Outdoor environment-friendly garbage recycling vehicle |
CN106516508A (en) * | 2016-12-22 | 2017-03-22 | 上海海事大学 | Automatic rubbish collecting system and rubbish collecting trolley thereof |
CN107139181A (en) * | 2017-05-27 | 2017-09-08 | 芜湖星途机器人科技有限公司 | The robot trunk fast lifted |
US11144056B1 (en) | 2018-01-12 | 2021-10-12 | AI Incorporated | Autonomous refuse container replacement system |
US11144066B1 (en) | 2018-01-31 | 2021-10-12 | AI Incorporated | Autonomous refuse bag replacement system |
US12079007B1 (en) * | 2018-01-31 | 2024-09-03 | AI Incorporated | Autonomous refuse bag replacement system |
WO2020241223A1 (en) * | 2019-05-28 | 2020-12-03 | パナソニックIpマネジメント株式会社 | Tidy-up inducing system, tidy-up inducing furniture, and tidy-up inducing method |
Also Published As
Publication number | Publication date |
---|---|
JP2006102861A (en) | 2006-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4556024B2 (en) | Robot and robot system | |
US11334084B2 (en) | Apparatus and method of generating map data of cleaning space | |
US11457788B2 (en) | Method and apparatus for executing cleaning operation | |
EP1494210B1 (en) | Speech communication system and method, and robot apparatus | |
KR20190100090A (en) | Robot and method for recognizing mood using same | |
KR20210010270A (en) | Robot and method for recognizinig wake-up word thereof | |
US11580385B2 (en) | Artificial intelligence apparatus for cleaning in consideration of user's action and method for the same | |
US11583998B2 (en) | Robot and method of controlling same | |
US11607801B2 (en) | Artificial intelligence robot for managing movement of object using artificial intelligence and method of operating the same | |
US11450326B2 (en) | Device for recognizing voice content, server connected thereto, and method for recognizing voice content | |
CN105144202A (en) | Adjusting robot behavior based on human-robot interaction | |
US10850400B2 (en) | Robot with anti-noise speaker | |
US11269342B2 (en) | Robot cleaner for avoiding stuck situation through artificial intelligence and method of operating the same | |
US11748614B2 (en) | Artificial intelligence device for controlling external device | |
US11376742B2 (en) | Robot and method of controlling the same | |
KR20190116190A (en) | Robot | |
US11318614B2 (en) | Robot cleaner and operating method thereof | |
KR20190096875A (en) | Robot and contolling method thereof | |
JP2009131914A (en) | Robot control system | |
US12096895B2 (en) | Artificial intelligence robot and method of operating the same | |
JP2008158697A (en) | Robot control device | |
US11358069B2 (en) | Action robot | |
KR102314385B1 (en) | Robot and contolling method thereof | |
KR20190095195A (en) | An artificial intelligence apparatus for providing service based on path of user and method for the same | |
GB2623552A (en) | A neural network training method and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100601 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4556024 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |