JP2006102861A - Robot and robot system - Google Patents

Robot and robot system Download PDF

Info

Publication number
JP2006102861A
JP2006102861A JP2004291849A JP2004291849A JP2006102861A JP 2006102861 A JP2006102861 A JP 2006102861A JP 2004291849 A JP2004291849 A JP 2004291849A JP 2004291849 A JP2004291849 A JP 2004291849A JP 2006102861 A JP2006102861 A JP 2006102861A
Authority
JP
Japan
Prior art keywords
trash
person
robot
action
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004291849A
Other languages
Japanese (ja)
Other versions
JP4556024B2 (en
Inventor
Michio Okada
美智男 岡田
Takeshi Yamaguchi
毅 山口
Yasushi Kashiwabara
靖 柏原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004291849A priority Critical patent/JP4556024B2/en
Publication of JP2006102861A publication Critical patent/JP2006102861A/en
Application granted granted Critical
Publication of JP4556024B2 publication Critical patent/JP4556024B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Refuse Receptacles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot which recovers dust in cooperation with persons, and establishes a mutually depending and interactive relationship with persons, and also to provide a robot system. <P>SOLUTION: According to the robot system, when a control computer 20 of the rubbish bin robot 100 detects a person around a main body 1, it directs the main body 1 to the person by a main body rotating motor 23. Then the control computer selects one of a plurality of actions stored therein beforehand, at random, and controls a display unit 11, a voice synthesizer 22, a speaker 14, the main body rotating motor 23, and a moving motor 24 so as to carry out the selected action. If a target rubbish piece is thrown into a rubbish storage section 30, the main body 1 is directed to the person by the main body rotating motor 23 in order to express the feel of thanks by a motion of the main body 1, a speech by the speaker 14, and a facial expression displayed on the display unit 11, and then a selection probability of the selected action is increased. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ゴミの回収を行うロボットおよびロボットシステムに関する。   The present invention relates to a robot and a robot system for collecting garbage.

近年、ロボット関連産業の市場は大きく成長している。特に、家事、介護等の家庭および福祉分野におけるロボット市場は今後ますます拡大していくことが予想され、掃除ロボット(例えば特許文献1)のように用途に応じた機能を備えた生活支援ロボットが種々提案および開発されている。
特開2003−299601号公報
In recent years, the robot-related industry market has grown greatly. In particular, the robot market in the household and welfare fields such as housework and nursing care is expected to expand further in the future, and there is a life support robot having a function according to the application such as a cleaning robot (for example, Patent Document 1). Various proposals and developments have been made.
JP 2003-299601 A

生活支援型のロボットとしてゴミを回収するロボットの開発も望まれる。このような生活支援ロボットの開発においては、ロボットが目的を達成する過程で人間の補助をできるだけ少なくするということが重要な課題の一つであった。すなわち、ロボットの存在価値は人の生活を便利にすることにあると考えられており、その価値を高めるための多種多様な機能を備えた自律型のロボットの開発が進められてきた。   Development of a robot that collects garbage as a life support robot is also desired. In developing such life support robots, it has been one of the important issues to minimize human assistance as much as possible while the robot achieves its purpose. In other words, it is considered that the existence value of a robot is to make a person's life convenient, and development of an autonomous robot having various functions for increasing its value has been advanced.

技術競争の激しい現代社会においては、優れた機能を有するロボットが開発されると、すぐにそれを上回る機能を有するロボットの開発が進められる。そして、さらに優れた機能を有する新たなロボットが開発された場合、人の興味はその新たなロボットに向けられ、それ以前のロボットの存在価値は薄れ廃棄される。   In a modern society where technological competition is intense, when a robot having an excellent function is developed, development of a robot having a function exceeding that is immediately advanced. When a new robot having a further superior function is developed, the interest of the person is directed to the new robot, and the existence value of the previous robot is faded and discarded.

上記のような技術開発サイクルは、大量生産および大量消費の現代社会においては必然的なものである。   The technological development cycle as described above is inevitable in the modern society of mass production and consumption.

しかしながら、環境負荷の少ない循環型社会を構築するためには、上記のようなサイクルから脱却しなければならない。そのためには、廃棄されないロボットの開発が重要である。そこで、本発明者は、従来のロボットの問題点を次のように考えた。   However, in order to build a recycling-oriented society with a low environmental load, we must move away from the above cycle. To that end, it is important to develop robots that are not discarded. Therefore, the present inventor considered the problems of the conventional robot as follows.

従来のロボットは、上記のように人にとって便利なものでなければならず、人とロボットとの関係は、使う者(人)と使われるもの(ロボット)であった。このような関係においては、ロボットは人からの一方的な要求に応えるためだけに存在し、人はロボットの存在価値を利便性によって評価するため、少しでも利便性に優れるロボットを求めてしまう。そのため、新しい機能を備えたロボットが開発されると、それまで使用されていた機能の劣るロボットは廃棄されてしまう。   A conventional robot must be convenient for a person as described above, and the relationship between the person and the robot is that used by the user (person) and the person used (robot). In such a relationship, the robot exists only to respond to one-sided requests from a person, and the person evaluates the existence value of the robot based on the convenience, and therefore, a robot that is excellent in convenience is required. For this reason, when a robot having a new function is developed, a robot having a lower function that has been used until then is discarded.

このような問題を解決するための方法としては、例えば、現在一般に市販されているペット型ロボットが備えるような様々な仕草を行う機能等を上記のような生活支援型ロボットにも備えることによって、人にロボットに対する愛着を持たせることが考えられる。   As a method for solving such a problem, for example, by providing the life support robot as described above with a function for performing various gestures as provided by a pet robot that is currently commercially available, It is possible to give people attachment to robots.

しかしながら、人がペット型ロボットと関わってみると、なぜか寂しい気持ちになる。その原因の一つは、ロボットの行動があまりに自律的であり、人の存在を予定したものではないからである。その結果として、人とロボットとの社会的な繋がりを感じさせないことになる。   However, when people interact with pet-type robots, they feel lonely for some reason. One of the reasons is that the robot's behavior is so autonomous that it is not intended for human existence. As a result, the social connection between people and robots will not be felt.

もう一つは、人はロボットを社会的な存在と認識しつつも、ロボットは人を社会的な存在と認識しているわけではなく、ロボットにとって人は石ころと同様の障害物の一つにすぎない。このように、人とロボットとの関係は非対称性を有する。   The other is that humans recognize robots as social beings, but robots do not recognize humans as social beings. For robots, humans are one of the same obstacles as stones. Only. Thus, the relationship between the person and the robot has asymmetry.

人とロボットとの共存を考えるとき、ロボットは自律すべきものという前提を再検討する必要がある。このように、人とロボットとの関係を再検討しない限り、単に生活支援型ロボットにペット型ロボットの機能を備えたとしても、人とロボットとは、使う者(人)と使われるもの(ロボット)との関係から脱することはできない。   When considering coexistence between humans and robots, it is necessary to reexamine the premise that robots should be autonomous. In this way, unless the relationship between humans and robots is reexamined, even if the life support robot has a pet-type robot function, humans and robots are those used by people (robots). ) Can not get out of the relationship.

本発明の目的は、人との共同行為によってゴミを回収する目的を達成しかつ人との相互依存的および相互構成的な関係を築くことが可能なロボットおよびロボットシステムを提供することである。   An object of the present invention is to provide a robot and a robot system that can achieve the purpose of collecting garbage by a joint action with a person and can establish an interdependent and reciprocal relationship with the person.

第1の発明に係るロボットは、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段と、第1の検出手段の検出結果を受け、表現手段を制御する制御手段とを備え、制御手段は、第1の検出手段により人が検出された場合に、表現手段によりゴミを拾うという人の行為を誘発するための行為を実行するものである。   According to a first aspect of the present invention, there is provided a main body having a dust container, an expression means for expressing intention by at least one of an utterance by voice output, display of a facial expression, and movement of the main body, A first detection means for detecting a person; and a control means for receiving the detection result of the first detection means and controlling the expression means. The control means is provided when a person is detected by the first detection means. , To perform an act of inducing a person's act of picking up trash by means of expression.

本発明に係るロボットにおいては、第1の検出手段により人が検出された場合に、ゴミを拾うという人の行為を誘発するための行為が表現手段により実行される。それにより、ゴミを拾うという人の行為が誘発される。   In the robot according to the present invention, when a person is detected by the first detection means, an action for inducing a person's action of picking up trash is executed by the expression means. This triggers the person's act of picking up trash.

このように、ロボットは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。   In this way, the robot cannot pick up trash itself, but can only collect trash with the help of others. Therefore, the purpose of collecting trash as a result of joint and reciprocal actions between robots and people is achieved.

この場合、ロボットは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットを助ける存在として価値付けられる。それにより、人とロボットとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットに対する愛着が醸成されるとともに社会的な繋がりが形成される。   In this case, the robot is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robots. As a result, humans and robots mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between humans and robots is established. As a result, attachment to robots is fostered and social connections are formed.

ロボットは、ゴミ収容部にゴミが投入されたことを検出する第2の検出手段をさらに備え、制御手段は、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、表現手段により人に対して応答行為を実行してもよい。   The robot further includes a second detection unit that detects that garbage has been thrown into the dust container, and the control unit detects that the dust has been thrown into the dust container by the second detection unit. In addition, a response action may be performed on the person by the expression means.

この場合、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、表現手段により人に対して応答行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。   In this case, when the second detection means detects that the garbage has been thrown into the garbage container, a response action is performed on the person by the expression means. As a result, people can find value in the act of picking up trash.

制御手段は、表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、表現手段によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行してもよい。   When the second detecting means does not detect that the garbage has been thrown into the garbage container after the act of inducing the person's act of picking up the garbage by the expressing means, the control means uses the expressing means. Another action for inducing a person's action of picking up trash may be selectively performed.

この場合、人がゴミを拾ってくれない場合に、ゴミを拾うという人の行為を誘発するための種々の行為を試行錯誤的に実行することにより、人にゴミを拾ってもらうための行為を学習することができる。それにより、ロボットは、ゴミ収納部にゴミを投入する志向的姿勢を人から確実に引き出すための行為を獲得することができる。その結果、人がロボットとの関わり合いを重ねるにつれて人とロボットとの相互依存的および相互構成的な関係が徐々に築かれ、ロボットに対する愛着が増すとともに、社会的な繋がりが強化される。   In this case, if a person does not pick up the trash, by performing various actions to induce the person's act of picking up the trash, trials and errors are performed to allow the person to pick up the trash. Can learn. As a result, the robot can acquire an action for reliably pulling out the intentional posture of putting the garbage into the garbage storage unit from the person. As a result, the interdependence and mutual constitutional relationship between the person and the robot gradually builds up as the person is involved with the robot, and the attachment to the robot increases and the social connection is strengthened.

制御手段は、ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、複数の行為のうちいずれかをランダムに選択確率を反映して選択し、選択された行為を実行した後、ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新してもよい。   The control means memorizes a plurality of actions for inducing a person's action of picking up trash and a selection probability of each action, and randomly selects one of the plurality of actions by reflecting the selection probability. After executing the act, the selection probability of the selected action may be updated based on whether or not garbage is thrown into the garbage container.

この場合、複数の行為と各行為の選択確率とが記憶される。記憶された複数の行為のいずれかが選択確率を反映してランダムに選択され、選択された行為が実行される。ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率が更新される。それにより、ロボットは人にゴミを拾ってもらうための行為を学習することができる。その結果、人がロボットとの関わり合いを重ねるにつれて人とロボットとの相互依存的および相互構成的な関係が徐々に築かれ、ロボットに対する愛着が増すとともに、社会的な繋がりが強化される。   In this case, a plurality of actions and the selection probability of each action are stored. Any one of the plurality of stored actions is selected at random reflecting the selection probability, and the selected action is executed. The selection probability of the action selected based on whether or not garbage is thrown into the garbage container is updated. As a result, the robot can learn an action for a person to pick up trash. As a result, the interdependence and mutual constitutional relationship between the person and the robot gradually builds up as the person is involved with the robot, and the attachment to the robot increases and the social connection is strengthened.

表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および本体部を動かす駆動手段の少なくとも1つを含んでもよい。   The expression means may include at least one of a voice output means for speaking by voice output, a display means for expressing a facial expression, and a drive means for moving the main body.

この場合、音声出力手段による音声出力による発話、表示手段による表情の表示または駆動手段による本体部の動きにより、ロボットの意思が表現される。   In this case, the intention of the robot is expressed by the utterance by the voice output by the voice output means, the display of the facial expression by the display means, or the movement of the main body by the drive means.

第2の発明に係るロボットシステムは、複数のロボットと、複数のロボットの各々を制御する制御手段とを備え、複数のロボットの各々は、ゴミ収容部を有する本体部と、音声出力による発話、表情の表示および本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、本体部の周囲の人を検出する第1の検出手段とを備え、制御手段は、複数のロボットのいずれかの第1の検出手段により人が検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための行為を実行するものである。   A robot system according to a second invention includes a plurality of robots and a control unit that controls each of the plurality of robots, and each of the plurality of robots includes a main body unit having a dust container, an utterance by voice output, An expression means for expressing intention by at least one action of expression display and movement of the main body, and first detection means for detecting a person around the main body, wherein the control means is one of a plurality of robots When a person is detected by the first detection means, an action for inducing a person's action of picking up trash by the action of the expression means of each robot and / or the cooperation of the expression means of a plurality of robots. It is something to execute.

本発明に係るロボットシステムにおいては、複数のロボットのいずれかの第1の検出手段により人が検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための行為が実行される。それにより、ゴミを拾うという人の行為が誘発される。特に、複数のロボットの連携した動きによりゴミを拾ってあげようという人の行為が効果的に誘発される。   In the robot system according to the present invention, when a person is detected by the first detection means of any of the plurality of robots, the operation of the expression means of each robot and / or the operation of the expression means of the plurality of robots in cooperation with each other An action for inducing a person's action of picking up trash is performed. This triggers the person's act of picking up trash. In particular, the action of a person trying to pick up garbage is effectively induced by the coordinated movement of a plurality of robots.

このように、各ロボットは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットシステムと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。   In this way, each robot cannot pick up trash itself and can collect trash only with the help of others. Therefore, the purpose of collecting trash as a result of joint and reciprocal actions between the robot system and people is achieved.

この場合、ロボットシステムは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットシステムを助ける存在として価値付けられる。それにより、人とロボットシステムとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットシステムとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットシステムに対する愛着が醸成されるとともに社会的な繋がりが形成される。   In this case, the robot system is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robot systems. As a result, humans and robot systems mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between a person and a robot system is established. As a result, attachment to the robot system is fostered and social connection is formed.

複数のロボットの各々は、ゴミ収容部にゴミが投入されたことを検出する第2の検出手段をさらに備え、制御手段は、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作により人に対して応答行為を実行してもよい。   Each of the plurality of robots further includes second detection means for detecting that dust is thrown into the dust container, and the control means uses the second detection means to indicate that dust has been thrown into the dust container. When detected, a response action may be performed on the person by the operation of the expression means of each robot and / or the operation of the expression means of a plurality of robots in cooperation.

この場合、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出された場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作により人に対して応答行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。   In this case, when it is detected by the second detection means that the garbage has been put into the garbage container, the operation of the expression means of each robot and / or the cooperation of the expression means of a plurality of robots is performed on the person. The response action is executed. As a result, people can find value in the act of picking up trash.

制御手段は、ゴミを拾うという人の行為を誘発するための行為を実行した後、ゴミ収容部にゴミが投入されたことが第2の検出手段により検出されない場合に、各ロボットの表現手段の動作および/または複数のロボットの表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行してもよい。   The control means performs the action for inducing the person's action of picking up the trash, and if the second detection means does not detect that the trash has been thrown into the trash container, the control means Another action for inducing a person's action of picking up trash by the action and / or the coordinated action of the expression means of the plurality of robots may be selectively executed.

この場合、人がゴミを拾ってくれない場合に、ゴミを拾うという人の行為を誘発するための種々の行為を試行錯誤的に実行することにより、人にゴミを拾ってもらうための行為を学習することができる。それにより、ロボットシステムは、ゴミ収納部にゴミを投入する志向的姿勢を人から確実に引き出すための行為を獲得することができる。その結果、人がロボットシステムとの関わり合いを重ねるにつれて人とロボットシステムとの相互依存的および相互構成的な関係が徐々に築かれ、に対する愛着が増すとともに、社会的な繋がりが強化される。   In this case, if a person does not pick up the trash, by performing various actions to induce the person's act of picking up the trash, trials and errors are performed to allow the person to pick up the trash. Can learn. As a result, the robot system can acquire an action for reliably pulling out the intentional posture of throwing trash into the trash storage unit from the person. As a result, the interdependence and mutual constitutional relationship between the person and the robot system is gradually established as the person repeats the relationship with the robot system, and the attachment to the person increases and the social connection is strengthened.

表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および本体部を動かす駆動手段の少なくとも1つを含んでもよい。   The expression means may include at least one of a voice output means for speaking by voice output, a display means for expressing a facial expression, and a drive means for moving the main body.

この場合、音声出力手段による音声出力による発話、表示手段による表情の表示または駆動手段による本体部の動きにより、ロボットの意思が表現される。   In this case, the intention of the robot is expressed by the utterance by the voice output by the voice output means, the display of the facial expression by the display means, or the movement of the main body by the drive means.

本発明によれば、人との共同行為によってゴミを回収する目的を達成しかつ人との相互依存的および相互構成的な関係を築くことが可能となる。その結果、ロボットに対する愛着が醸成されるとともに社会的な繋がりが形成される。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to achieve the objective of collect | recovering garbage by the joint action with a person, and to build the interdependence and mutual constitutional relationship with a person. As a result, attachment to robots is fostered and social connections are formed.

図1は本発明の一実施の形態に係るゴミ箱ロボットの外観を示す模式図である。   FIG. 1 is a schematic diagram showing an appearance of a trash can robot according to an embodiment of the present invention.

図1に示すように、ゴミ箱ロボット100は、円筒状の本体部1および円盤状の支持部2を備える。本体部1は、支持部2上に鉛直軸の周りで回転可能に設けられている。本体部1の内部がゴミ収容部30となる。   As shown in FIG. 1, the trash can robot 100 includes a cylindrical main body 1 and a disk-shaped support 2. The main body 1 is provided on the support 2 so as to be rotatable around a vertical axis. The inside of the main body 1 is a dust container 30.

本体部1の外周面には画像を表示するディスイプレ11が設けられている。ディスプレイ11は、例えば液晶ディスプレイである。このディスイプレ11には、顔が表示される。ゴミ箱ロボット100は、ディスイプレ11に表示される顔の表情を変化させることにより人に種々の感情を伝えることができる。   A display 11 for displaying an image is provided on the outer peripheral surface of the main body 1. The display 11 is a liquid crystal display, for example. A face is displayed on the display 11. The trash can robot 100 can convey various emotions to a person by changing the facial expression displayed on the display 11.

ディスプレイ11の両側にはマイク12,13が設けられている。これらのマイク12,13によりゴミ箱ロボット100の周囲の人の音声を入力することができる。また、マイク12,13は、ステレオマイクとして機能する。マイク12,13に入力される音声の位相差に基づいて音源方向を認識することができる。   Microphones 12 and 13 are provided on both sides of the display 11. These microphones 12 and 13 can input voices of people around the trash can robot 100. The microphones 12 and 13 function as stereo microphones. The sound source direction can be recognized based on the phase difference of the sound input to the microphones 12 and 13.

本体部1の外周面の中央部にはスピーカ14が設けられている。ゴミ箱ロボットは、スピーカ14から音声を出力することにより人に対して発話することができる。   A speaker 14 is provided at the center of the outer peripheral surface of the main body 1. The trash can robot can speak to a person by outputting sound from the speaker 14.

本体部1の外周面の上部には、人物判別用カメラ15が設けられている。人物判別用カメラ15は、例えばCCD(電荷結合素子)カメラである。この人物判別用カメラ15は、ゴミ箱ロボット100の前方に存在する人物を撮像する。人物判別用カメラ15により得られた画像信号に基づいて顔領域探索技術によりゴミ箱ロボット100の前方における人の位置を検出することができる。   A person discrimination camera 15 is provided at the upper part of the outer peripheral surface of the main body 1. The person discrimination camera 15 is, for example, a CCD (charge coupled device) camera. This person discrimination camera 15 images a person existing in front of the trash can robot 100. The position of the person in front of the trash can robot 100 can be detected by the face area search technique based on the image signal obtained by the person discrimination camera 15.

本体部1の内周面の上端近傍には、ゴミ判別用カメラ16が設けられている。ゴミ判別用カメラ16は、例えばCCDカメラである。このゴミ判別用カメラ16は、本体部1のゴミ収容部30に投入されたゴミ等の物体を撮像する。ゴミ判別用カメラ16により得られた画像信号から画像認識技術によりゴミ収容部30に投入されたゴミの種類を判別することができる。   A dust discrimination camera 16 is provided near the upper end of the inner peripheral surface of the main body 1. The dust discrimination camera 16 is, for example, a CCD camera. The dust discrimination camera 16 images an object such as dust thrown into the dust container 30 of the main body 1. The type of dust thrown into the dust container 30 can be determined from the image signal obtained by the dust determination camera 16 by image recognition technology.

本体部1の外周面の下部には、人を検出する複数の物体検出センサ19が設けられている。物体検出センサ19は、焦電型センサ、赤外線測距センサ等からなる。物体検出センサ19の出力信号に基づいてゴミ箱ロボット100の周囲における人または障害物の存在を検出することができる。   A plurality of object detection sensors 19 for detecting a person are provided below the outer peripheral surface of the main body 1. The object detection sensor 19 includes a pyroelectric sensor, an infrared distance measuring sensor, and the like. Based on the output signal of the object detection sensor 19, the presence of a person or an obstacle around the trash can robot 100 can be detected.

支持部2の下面には、移動用の車輪17,18が設けられる。車輪17,18は支持部2に内蔵される後述の移動用モータ24(図2)により駆動される。ゴミ箱ロボット100は、物体検出センサ19の出力信号に基づいて障害物を回避しつつ車輪17,18により全方位に移動することができる。それにより、自律移動機構が実現される。   Moving wheels 17 and 18 are provided on the lower surface of the support portion 2. The wheels 17 and 18 are driven by a moving motor 24 (FIG. 2), which will be described later, built in the support portion 2. The trash can robot 100 can move in all directions by the wheels 17 and 18 while avoiding an obstacle based on the output signal of the object detection sensor 19. Thereby, an autonomous movement mechanism is realized.

また、ゴミ箱ロボット100は、支持部2に内蔵される後述の本体回転用モータ23(図2)により支持部2上の本体部1を回転させることができる。それにより、ゴミ箱ロボット100は、本体部1の動きにより感情または要求を表現することができる。   In addition, the trash can robot 100 can rotate the main body 1 on the support 2 by a main body rotation motor 23 (FIG. 2) described later built in the support 2. Thereby, the trash can robot 100 can express an emotion or a request by the movement of the main body 1.

図2は図1のゴミ箱ロボット100の制御系を示すブロック図である。   FIG. 2 is a block diagram showing a control system of the trash can robot 100 of FIG.

ゴミ箱ロボット100は、制御用コンピュータ20、音声認識装置21、音声合成装置22、本体回転用モータ23および移動用モータ24を内蔵する。   The trash can robot 100 includes a control computer 20, a speech recognition device 21, a speech synthesizer 22, a main body rotation motor 23, and a movement motor 24.

マイク12,13により得られる音声信号は、音声認識装置21に入力される。音声認識装置21は、マイク12,13により入力された音声信号に基づいて音声認識を行う。音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号、ゴミ判別用カメラ16により得られる画像信号および物体検出センサ19の出力信号は、制御用コンピュータ20に与えられる。   Voice signals obtained by the microphones 12 and 13 are input to the voice recognition device 21. The voice recognition device 21 performs voice recognition based on the voice signals input from the microphones 12 and 13. The recognition result of the voice recognition device 21, the image signal obtained by the person discrimination camera 15, the image signal obtained by the dust discrimination camera 16 and the output signal of the object detection sensor 19 are given to the control computer 20.

制御用コンピュータ20は、CPU(中央演算処理装置)、メモリ等からなる。この制御用コンピュータ20は、音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号および物体検出センサ19の出力信号のいずれか1つまたは複数に基づいてゴミ箱ロボット100の周囲の人の位置を判別する。また、制御用コンピュータ20は、ゴミ判別用カメラ16により得られる画像信号に基づいてゴミ収容部30に投入されたゴミの種類を判別する。さらに、制御用コンピュータ20は、ディスプレイ11に顔を表示させる。また、制御用コンピュータ20は、音声合成装置22を用いて音声信号を合成し、スピーカ14から音声として出力することにより発話を行う。   The control computer 20 includes a CPU (Central Processing Unit), a memory, and the like. The computer 20 for control is based on the recognition result of the voice recognition device 21, the image signal obtained by the person discrimination camera 15, and the output signal of the object detection sensor 19. Determine the position of. Further, the control computer 20 determines the type of dust thrown into the dust container 30 based on the image signal obtained by the dust determination camera 16. Further, the control computer 20 displays a face on the display 11. Further, the control computer 20 synthesizes a voice signal using the voice synthesizer 22 and outputs the voice signal from the speaker 14 as a voice.

また、制御用コンピュータ20は、本体回転用モータ23および移動用モータ24を制御する。本体回転用モータ23が作動すると、図1の本体部1が支持部2に対して回転する。それにより、本体部1が首振り動作を行う。移動用モータ24が作動すると、図1の車輪17,18が回転する。また、車輪17,18は、移動用モータ24により任意の方向に向くことができる。それにより、ゴミ箱ロボット100が全方位に移動する。   The control computer 20 also controls the main body rotation motor 23 and the movement motor 24. When the main body rotating motor 23 is operated, the main body 1 in FIG. 1 rotates with respect to the support 2. Thereby, the main body 1 performs a swinging motion. When the moving motor 24 operates, the wheels 17 and 18 in FIG. 1 rotate. The wheels 17 and 18 can be directed in any direction by the moving motor 24. As a result, the trash can robot 100 moves in all directions.

制御用コンピュータ20のメモリには制御プログラムが記憶される。この制御用コンピュータ20は、制御プログラムに従って後述の処理を実行する。   A control program is stored in the memory of the control computer 20. The control computer 20 executes processing described later according to the control program.

図3は図1のゴミ箱ロボット100の動作を示すフローチャートである。ゴミ箱ロボット100は、制御用コンピュータ20のメモリに記憶された制御プログラムに従って動作する。   FIG. 3 is a flowchart showing the operation of the trash can robot 100 of FIG. The trash can robot 100 operates according to a control program stored in the memory of the control computer 20.

ここで、制御用コンピュータ20のメモリには、ゴミ箱ロボット100の複数の行為が予め記憶されている。ゴミ箱ロボット100の行為は、本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情である。具体的には、メモリに、本体部1の複数の動きのパターン、スピーカ14による複数の発話内容およびディスプレイ11に表示される複数の表情が複数の行為として予め記憶される。複数の行為には、それぞれ選択確率が与えられている。初期状態では、複数の行為の選択確率は等しくなっている。   Here, a plurality of actions of the trash can robot 100 are stored in the memory of the control computer 20 in advance. The actions of the trash can robot 100 are movement of the main body 1, utterance by the speaker 14, and facial expression displayed on the display 11. Specifically, a plurality of movement patterns of the main body 1, a plurality of utterance contents by the speaker 14, and a plurality of facial expressions displayed on the display 11 are stored in advance in the memory as a plurality of actions. Each of the plurality of actions is given a selection probability. In the initial state, the selection probabilities for a plurality of actions are equal.

また、制御用コンピュータ20は、音声認識装置21の認識結果、人物判別用カメラ15により得られる画像信号および物体検出センサ19の出力信号のいずれか1つまたは複数に基づいてゴミ箱ロボット100の周囲の人を検出するが、ここでは、物体検出センサ19の出力信号に基づいてゴミ箱ロボット100の周囲の人を検出するものとする。   In addition, the control computer 20 uses the recognition result of the voice recognition device 21, the image signal obtained by the person discrimination camera 15, and the output signal of the object detection sensor 19, so that the control computer 20 Here, a person is detected. Here, a person around the trash can robot 100 is detected based on an output signal of the object detection sensor 19.

まず、ゴミ箱ロボット100の制御用コンピュータ20は、本体部1の周囲の人を物体検出センサ19により検出する(ステップS1)。このとき、例えば、本体回転用モータ23により、本体部1を左右に所定の角度回転させて周囲全体を見渡すことができるようにしてもよい。本体部1の周囲に人を検出しない場合には(ステップS2)、移動用モータ24によりゴミ箱ロボット100を移動させ(ステップS10)、ステップS1に戻る。この移動は、人のぶらぶら歩きのように方向がランダムに変化するように行われる。   First, the control computer 20 of the trash can robot 100 detects a person around the main body 1 by the object detection sensor 19 (step S1). At this time, for example, the main body rotation motor 23 may rotate the main body 1 to the left and right by a predetermined angle so that the entire periphery can be viewed. When no person is detected around the main body 1 (step S2), the trash can robot 100 is moved by the moving motor 24 (step S10), and the process returns to step S1. This movement is performed so that the direction changes at random like a person walking around.

本体部1の周囲に人を検出した場合には(ステップS2)、本体回転用モータ23により人の方向に本体部1を向ける(ステップS3)。   When a person is detected around the main body 1 (step S2), the main body 1 is directed toward the person by the main body rotation motor 23 (step S3).

制御用コンピュータ20は、予め記憶された複数の行為のうちいずれかを乱数表を用いてランダムに選択する(ステップS4)。ここでは、選択確率が反映されるランダムな選択が行われるが、上記のように、初期状態では、複数の行為の選択確率が等しくなっている。   The control computer 20 randomly selects one of a plurality of prestored actions using the random number table (step S4). Here, a random selection reflecting the selection probability is performed, but as described above, the selection probabilities of a plurality of actions are equal in the initial state.

次に、制御用コンピュータ20は、選択された行為を実行するようにディスプレイ11、音声合成装置22、スピーカ14、本体回転用モータ23および移動用モータ24を制御する(ステップS5)。   Next, the control computer 20 controls the display 11, the speech synthesizer 22, the speaker 14, the main body rotation motor 23, and the movement motor 24 so as to execute the selected action (step S5).

例えば、本体回転用モータ23により本体部1を左右に回転させながら移動用モータ24により人に近づくように移動する。また、ディスプレイ11により親しみの表情を表す。さらに、スピーカ14により挨拶の言葉を発声し、ゴミを拾ってもらいたい旨の発話を行う。   For example, the main body rotating motor 23 moves the main body 1 to the left or right while moving the main body 1 so as to approach a person by the moving motor 24. In addition, the display 11 represents a familiar expression. Further, the speaker 14 utters a greeting and utters that he / she wants to pick up trash.

次いで、制御用コンピュータ20は、ゴミ判別用カメラ16により得られる画像に基づいて所望のゴミがゴミ収容部30内に投入されたか否かを判別する(ステップS6)。例えば、ゴミ収容部30が空き缶用である場合には、制御用コンピュータ20は、投入されたゴミが空き缶であるか否かを判別する。空き缶が投入されたか否かの判別は、制御用コンピュータ20が空き缶の向き等の各種状態に対応する形状を予め記憶し、ゴミ収容部30に投入された物体の画像と記憶された形状とのマッチングを取る等のパターン認識技術を用いることにより行うことができる。   Next, the control computer 20 determines whether or not desired dust has been thrown into the dust container 30 based on the image obtained by the dust discrimination camera 16 (step S6). For example, when the garbage container 30 is for empty cans, the control computer 20 determines whether or not the input garbage is empty cans. Whether or not the empty can has been inserted is determined by the control computer 20 storing in advance the shapes corresponding to various states such as the direction of the empty can, and the image of the object that has been input to the dust container 30 and the stored shape. This can be done by using a pattern recognition technique such as matching.

所望のゴミがゴミ収容部30内に投入された場合には、制御用コンピュータ20は、本体回転用モータ23により本体部1を人の方に向ける(ステップS7)。そして、制御用コンピュータ20は、感謝の気持ちを本体部1の動き、スピーカ14による発話およびディスプレイ11に表示された表情により表す(ステップS8)。   When the desired garbage is thrown into the garbage container 30, the control computer 20 directs the main body 1 toward the person by the main body rotation motor 23 (step S7). Then, the control computer 20 expresses gratitude by the movement of the main body 1, the utterance by the speaker 14, and the facial expression displayed on the display 11 (step S8).

例えば、本体回転用モータ23により本体部1を左右に回転させる。また、ディスプレイ11により喜びの表情を表す。さらに、スピーカ14によりお礼の言葉を発声する。   For example, the main body 1 is rotated left and right by the main body rotation motor 23. In addition, the display 11 represents a joyful expression. Furthermore, a thank you word is uttered by the speaker 14.

その後、制御用コンピュータ20は、選択された行為の選択確率を増加させ(ステップS9)、ステップS1に戻る。   Thereafter, the control computer 20 increases the selection probability of the selected action (step S9) and returns to step S1.

ステップS6でゴミがゴミ収容部30内に投入されない場合には、制御用コンピュータ20は、ステップS1に戻り、ステップS1〜S6の処理を繰り返す。この場合、制御用コンピュータ20は、ステップS4において予め記憶された複数の行為のうち他の行為をランダムに選択する。   If no garbage is thrown into the garbage container 30 in step S6, the control computer 20 returns to step S1 and repeats the processes in steps S1 to S6. In this case, the control computer 20 randomly selects another action among the plurality of actions stored in advance in step S4.

ステップS1〜S10の処理を繰り返すことにより、制御用コンピュータ20のメモリに記憶された複数の行為の選択確率が変化する。それにより、ステップS4で高い選択確率を有する行為が選択されやすくなる。   By repeating the processes of steps S1 to S10, the selection probabilities of a plurality of actions stored in the memory of the control computer 20 change. Thereby, an action having a high selection probability is easily selected in step S4.

この場合、ゴミ収容部30に所望のゴミが投入された場合の行為の選択確率が増加するので、制御用コンピュータ20は、人に所望のゴミを投入してもらうための行為を学習により獲得する。   In this case, since the selection probability of an action when a desired garbage is thrown into the garbage container 30 is increased, the control computer 20 acquires an action for allowing a person to throw in the desired garbage by learning. .

本実施の形態では、ゴミを拾ってもらうためのゴミ箱ロボット100の行為を効率良く選択するために、人が所望のゴミをゴミ収容部30に投入した場合に選択した行為に報酬値を与える。そして、各行為が獲得した報酬値の大きさに応じて各行為の選択確率に重み付けを行う。複数の行為の選択確率を変化させるためにいわゆるルーレット選択法を用いることができる。ここで、ルーレット選択法の概念について説明する。   In the present embodiment, in order to efficiently select an action of the trash can robot 100 for picking up trash, a reward value is given to an action selected when a person puts a desired trash into the trash container 30. And the selection probability of each action is weighted according to the magnitude of the reward value acquired by each action. A so-called roulette selection method can be used to change the selection probability of a plurality of actions. Here, the concept of the roulette selection method will be described.

ルーレットの円周部の領域を所望数の欄に分割し、乱数により複数の欄のいずれかを選択する。各欄の幅によりその欄の選択される確率が決まる。   The area of the roulette circumference is divided into a desired number of columns, and one of a plurality of columns is selected by a random number. The width of each column determines the probability of that column being selected.

各欄に対して複数の行為のいずれかを割り当てる。初期段階では、各欄の幅を全ての行為に対して等しくすることにより、複数の行為のいずれも同じ確率(等選択確率)で選択され得る。その後、試行錯誤による経験(学習)を選択確率に反映させる。   Assign one of several actions to each column. In the initial stage, by making the width of each column equal for all actions, any of a plurality of actions can be selected with the same probability (equal selection probability). Then, experience (learning) by trial and error is reflected in the selection probability.

例えば、複数の行為のいずれかを実行することにより人が所望のゴミをゴミ収容部30に投入した場合に、ルーレットの該当する欄の幅を大きくし、人が所望のゴミをゴミ収容部30に投入しなかった場合には、ルーレットの該当する欄の幅を小さくする。それにより、複数の行為のうち、人が所望のゴミをゴミ収容部30に投入した場合に実行された行為の選択確率が高くなり、人が所望のゴミをゴミ収容部30に投入しなかった場合に実行された行為の選択確率が低くなる。   For example, when a person throws in desired garbage into the garbage container 30 by performing any of a plurality of actions, the width of the corresponding column of the roulette is increased, and the person removes the desired garbage into the garbage container 30. If it is not inserted into the box, the width of the corresponding column of the roulette is reduced. As a result, among the plurality of actions, the probability of selecting an action performed when a person throws the desired garbage into the garbage container 30 increases, and the person does not throw the desired garbage into the garbage container 30. In some cases, the probability of selecting an action performed is low.

人が所望のゴミをゴミ収容部30に投入した場合にルーレットの該当する欄の幅をどの程度広げるかは、Q−learning法と呼ばれる数理的方法を用いて決定してもよく、あるいは経験則で決定してもよい。   The degree to which the width of the corresponding column of the roulette is increased when a person throws in desired garbage into the garbage container 30 may be determined using a mathematical method called a Q-learning method, or an empirical rule You may decide by.

上記のように、本実施の形態に係るゴミ箱ロボット100においては、本体部1の周囲に人が検出された場合に、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示により、ゴミを拾うという人の行為を誘発するための行為を行う。   As described above, in the trash can robot 100 according to the present embodiment, when a person is detected around the main body 1, the movement of the main body 1, the utterance by the speaker 14, and the expression on the display 11 are displayed. The act of inducing a person's act of picking up trash is performed.

人はこのように主体的に動くものに対して、その心を思わず読もうとしてしまう。このような認知的な構えを、認知哲学者のDennettは「志向的姿勢(Intentional stance)」と呼んでいる。この志向的姿勢により、人は、ゴミ箱ロボット100がゴミを拾いたがっていることまたはゴミを拾ってもらいたがっていることを認知する。上記のようなゴミ箱ロボット100の行為により、人の志向的姿勢による上記の認知がもたらされ、ゴミを拾うという人の行為が誘発される。すなわち、ゴミ箱ロボット100の上記行為は、ゴミを拾うという人の行為を誘発するために行われる。   People try to read the mind of what moves in this way. Such a cognitive stance is called cognitive philosopher Dennett "Intentional stance". With this intentional attitude, the person recognizes that the trash can robot 100 wants to pick up trash or wants to pick up trash. The action of the trash can robot 100 as described above brings about the above recognition based on the person's intentional posture, and induces the person's action to pick up trash. That is, the above action of the trash can robot 100 is performed to induce a person's action of picking up trash.

ゴミ収容部30に所望のゴミが投入された場合には、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示により人に感謝の気持ちが伝えられる。それにより、人はゴミを拾った行為に価値を見出すことができる。   When desired garbage is thrown into the garbage container 30, a gratitude is conveyed to the person by the movement of the main body 1, the utterance by the speaker 14, and the expression of the expression by the display 11. As a result, people can find value in the act of picking up trash.

このように、ゴミ箱ロボット100は、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ゴミ箱ロボット100と人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。   Thus, the trash can robot 100 cannot pick up trash itself, but can collect trash only with the help of others. Therefore, the purpose of collecting trash as a result of the joint action and reciprocal action between the trash can robot 100 and the person is achieved.

この場合、ゴミ箱ロボット100は、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ゴミ箱ロボット100を助ける存在として価値付けられる。それにより、人とゴミ箱ロボット100とが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とゴミ箱ロボット100との相互依存的および相互構成的な関係が築かれる。その結果、ゴミ箱ロボット100に対する愛着が醸成されるとともに社会的な繋がりが形成される。   In this case, the trash can robot 100 is valued as an entity that realizes a function of collecting trash by obtaining human assistance. At the same time, a person is valued as a person who helps the trash can robot 100. Thereby, the person and the trash can robot 100 mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between the person and the trash can robot 100 is established. As a result, attachment to the trash can robot 100 is fostered and a social connection is formed.

また、制御用コンピュータ20は、記憶された複数の行為のいずれをがランダムに選択確率を反映して選択し、選択された行為を実行する。ゴミ収容部30に所望のゴミが投入されない場合には、他の行為を選択的に実行し、ゴミ収容部30に所望のゴミが投入された場合には、選択された行為の選択確率を増加させる。それにより、ゴミ箱ロボット100は、人にゴミを拾ってもらうための行為を学習することができる。その結果、人がゴミ箱ロボット100との関わり合いを重ねるにつれて人とゴミ箱ロボット100との相互依存的および相互構成的な関係が徐々に築かれ、ゴミ箱ロボット100に対する愛着が増すとともに、社会的な繋がりが強化される。   Further, the control computer 20 randomly selects any one of the plurality of stored actions reflecting the selection probability, and executes the selected action. When the desired garbage is not thrown into the garbage container 30, another action is selectively executed, and when the desired garbage is thrown into the garbage container 30, the selection probability of the selected action is increased. Let Thereby, the trash can robot 100 can learn an action for having a person pick up trash. As a result, an interdependent and reciprocal relationship between the person and the trash can robot 100 gradually builds up as the person becomes more involved with the trash can robot 100, and the attachment to the trash can robot 100 increases and social connection. Will be strengthened.

なお、上記実施の形態では、人にゴミを拾ってもらうための行為を効率良く選択するための学習方法としてルーレット選択法を挙げて説明したが、これに限定されず、種々の学習方法を用いることができる。例えば、人にゴミを拾ってもらったことを教師信号として学習を行う方法として、一般的な遺伝的アルゴリズム、またはQ−learning法等を用いることもできる。   In the above embodiment, the roulette selection method has been described as a learning method for efficiently selecting an action for allowing a person to pick up garbage. However, the present invention is not limited to this, and various learning methods are used. be able to. For example, a general genetic algorithm, a Q-learning method, or the like can be used as a method of learning using a teacher signal that a person has picked up garbage.

このような学習方法により行為の選択確率に重み付けを行ったデータを予め取得し、このデータを乱数または優先順位と組み合わせて複数の行為のいずれかを選択することも可能である。   It is also possible to obtain in advance data obtained by weighting the action selection probability by such a learning method, and select one of a plurality of actions by combining this data with a random number or priority.

また、上記実施の形態では、ゴミ箱ロボット100が人にゴミを拾ってもらうための行為として本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示を行っているが、ゴミ箱ロボット100がゴミを拾いたがっていることまたはゴミを拾ってもらいたがっていることを人が認知することによりゴミを拾うという人の行為を誘発することにつながり得る行為であれば、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示のいずれか1つまたは2つを行ってもよい。例えば、スピーカ14による発話およびディスプレイ11による表情の表示のみを行ってもよい。   In the above embodiment, the trash can robot 100 moves the main body 1, speaks with the speaker 14, and displays the facial expression on the display 11 as an action for the trash robot 100 to pick up trash. If it is an action that can lead to a person's action of picking up trash by recognizing that the person wants to pick up trash or wants to pick up trash, the movement of the main body 1, the speaker Any one or two of the utterance by 14 and the display of the facial expression by the display 11 may be performed. For example, only the utterance by the speaker 14 and the display of the expression on the display 11 may be performed.

さらに、上記実施の形態では、所望のゴミがゴミ収容部30内に投入された場合には、応答行為として本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示を行っているが、本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示のいずれか1つまたは2つにより人に感謝の気持ちが伝わる行為、喜びを表す行為またはその他の意思を表す行為を行ってもよい。   Furthermore, in the above-described embodiment, when desired garbage is thrown into the garbage container 30, the movement of the main body 1, the utterance by the speaker 14, and the expression on the display 11 are displayed as a response action. The act of expressing gratitude to the person, the act of expressing joy, or the act of expressing other intentions by any one or two of the movement of the main body 1, the utterance by the speaker 14 and the display of the expression on the display 11 Also good.

例えば、本体回転用モータ23により本体部1を左右に回転させる行為、ディスプレイ11により喜びの表情を表す行為、およびスピーカ14によりお礼の言葉を発声する行為のいずれか1つまたは2つを行ってもよい。   For example, one or two of the act of rotating the main body 1 left and right by the main body rotation motor 23, the act of expressing a joyful expression by the display 11, and the act of uttering a thank-you word by the speaker 14 are performed. Also good.

次に、本発明の他の実施の形態に係るロボットシステムについて説明する。図4は本発明の他の実施の形態に係るロボットシステムにおけるゴミ箱ロボットの構成を示すブロック図である。また、図5〜図9は本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。   Next, a robot system according to another embodiment of the present invention will be described. FIG. 4 is a block diagram showing a configuration of a trash can robot in a robot system according to another embodiment of the present invention. 5 to 9 are schematic diagrams for explaining an example of the configuration and operation of a robot system according to another embodiment of the present invention.

図5〜図9に示すロボットシステムは、複数のゴミ箱ロボット100a,100b,100cおよび統括制御用コンピュータ200により構成される。本例のロボットシステムは、空き缶用のゴミ箱ロボット100a、燃えるゴミ用のゴミ箱ロボット100bおよび燃えないゴミ用のゴミ箱ロボット100cにより構成される。   The robot system shown in FIGS. 5 to 9 includes a plurality of trash can robots 100a, 100b, and 100c and a general control computer 200. The robot system of this example includes a trash can robot 100a for empty cans, a trash can robot 100b for burning trash, and a trash can robot 100c for non-burnable trash.

図4のゴミ箱ロボット100aが図2のゴミ箱ロボット100と異なるのは、制御用コンピュータ20に接続される通信装置25をさらに備える点である。他のゴミ箱ロボット100b,100cの各々の構成は、図4のゴミ箱ロボット100aの構成と同様である。   The trash can robot 100a in FIG. 4 differs from the trash can robot 100 in FIG. 2 in that a communication device 25 connected to the control computer 20 is further provided. The configuration of each of the other trash can robots 100b and 100c is the same as the configuration of the trash can robot 100a of FIG.

図5〜図9の複数のゴミ箱ロボット100a,100b,100cは、無線LAN(ローカルエリアネットワーク)により統括制御用コンピュータ20に接続されている。   The plurality of trash can robots 100a, 100b, and 100c in FIGS. 5 to 9 are connected to the overall control computer 20 through a wireless LAN (local area network).

複数のゴミ箱ロボット100a,100b,100cは、統括制御用コンピュータ200の統括的な制御により連携して動作することによりゴミを回収する。なお、複数のゴミ箱ロボット100a,100b,100cのうち一または複数のゴミ箱ロボットの制御用コンピュータ20が複数のゴミ箱ロボット100a,100b,100cを統括的に制御してもよい。   The plurality of trash can robots 100a, 100b, and 100c collect trash by operating in cooperation with the overall control of the overall control computer 200. Note that the control computer 20 for one or more of the trash can robots 100a, 100b, and 100c may control the plurality of trash can robots 100a, 100b, and 100c in an integrated manner.

統括制御用コンピュータ200は、ゴミ箱ロボット100a,100b,100cと通信を行い、複数のゴミ箱ロボット100a,100b,100c間の相対的な配置を例えば互いに衝突しない程度の距離に保ちつつ、各ゴミ箱ロボット100a,100b,100cの姿勢例えば向きを制御する。この場合、ゴミ箱ロボット100a,100b,100cは、図1の物体検出センサ19の出力信号に基づいて互いの距離を測定する。また、複数のゴミ箱ロボット100a,100b,100cは、相互間の会話を本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情により表現する。   The overall control computer 200 communicates with the trash can robots 100a, 100b, and 100c, and maintains the relative arrangement between the plurality of trash can robots 100a, 100b, and 100c, for example, at a distance that does not collide with each other, and each trash can robot 100a. , 100b, 100c, for example, the orientation is controlled. In this case, the trash can robots 100a, 100b, and 100c measure the mutual distance based on the output signal of the object detection sensor 19 of FIG. The plurality of trash can robots 100 a, 100 b, and 100 c express a conversation between them by movement of the main body 1, utterance by the speaker 14, and facial expression displayed on the display 11.

ここで、図5〜図9を参照しながらロボットシステムの動作の一例について説明する。   Here, an example of the operation of the robot system will be described with reference to FIGS.

図5に示すように、複数のゴミ箱ロボット100a,100b,100c同士が会話を行っている。複数のゴミ箱ロボット100a,100b,100cの周囲に人がいない場合には、図6に示すように、複数のゴミ箱ロボット100a,100b,100cが会話を続けながら一体となって移動する。   As shown in FIG. 5, a plurality of trash can robots 100a, 100b, and 100c have a conversation. When there are no people around the plurality of trash can robots 100a, 100b, 100c, as shown in FIG. 6, the plurality of trash can robots 100a, 100b, 100c move together while continuing the conversation.

図7に示すように、複数のゴミ箱ロボット100a,100b,100cが人を見つけると、複数のゴミ箱ロボット100a,100b,100cは複数の行為のうちいずれかを選択し、選択された本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情によりゴミを拾ってもらいたい意思を表現する。この場合、複数のゴミ箱ロボット100a,100b,100cは、ゴミを拾いたいが、自らは拾えず、人の助けが必要であることを認識してもらうような行為を行う。   As shown in FIG. 7, when a plurality of trash can robots 100a, 100b, and 100c find a person, the plurality of trash can robots 100a, 100b, and 100c select one of a plurality of actions, and the selected main unit 1 The intention to have the user pick up trash is expressed by the movement, the utterance by the speaker 14, and the facial expression displayed on the display 11. In this case, the plurality of trash can robots 100a, 100b, and 100c want to pick up trash, but do not pick up the trash, but perform an act of recognizing that they need human help.

図8に示すように、人が所望のゴミをゴミ箱ロボット100のゴミ収容部30に投入した場合、ゴミ箱ロボット100aは所望のゴミが投入されたか否かを判別する。本例では、ゴミ箱ロボット100aは、投入されたゴミが空き缶であるか否かを判別する。   As shown in FIG. 8, when a person throws in desired garbage into the garbage container 30 of the garbage box robot 100, the garbage box robot 100a determines whether or not the desired garbage has been thrown in. In this example, the trash can robot 100a determines whether or not the input trash is an empty can.

所望のゴミが投入された場合には、複数のゴミ箱ロボット100a,100b,100cは、本体部1の動き、スピーカ14による発話およびディスプレイ11に表示される顔の表情により感謝の気持ちを表現する。この結果、図9に示すように、人はゴミを拾った行為に価値を見出すことができる。   When desired trash is thrown in, the plurality of trash can robots 100a, 100b, and 100c express gratitude by the movement of the main body unit 1, the utterance by the speaker 14, and the facial expression displayed on the display 11. As a result, as shown in FIG. 9, a person can find value in the act of picking up trash.

上記のように、本実施の形態に係るロボットシステムにおいては、複数のゴミ箱ロボット100a,100b,100cのいずれかの周囲に人が検出された場合に、各ゴミ箱ロボット100a,100b,100cの本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示ならびに複数のゴミ箱ロボット100a,100b,100cの連携した動きによりゴミ収納部30にゴミを投入する志向的姿勢を人から引き出すための行為が実行される。それにより、ゴミを拾ってあげようという人の行為が誘発される。特に、複数のゴミ箱ロボット100a,100b,100cの連携した動きによりゴミを拾ってあげようという人の行為が効果的に誘発される。   As described above, in the robot system according to the present embodiment, when a person is detected around any of the plurality of trash can robots 100a, 100b, 100c, the main body of each trash can robot 100a, 100b, 100c. 1 action, the utterance by the speaker 14 and the expression of the expression on the display 11 and the action of pulling out the intentional attitude of putting trash into the trash storage unit 30 by the coordinated movement of the plurality of trash can robots 100a, 100b, 100c. Executed. This triggers a person's action to pick up trash. In particular, an action of a person trying to pick up trash is effectively induced by the coordinated movement of the plurality of trash can robots 100a, 100b, and 100c.

ゴミ収容部300に所望のゴミが投入された場合には、各ゴミ箱ロボット100a,100b,100cの本体部1の動き、スピーカ14による発話およびディスプレイ11による表情の表示ならびに複数のゴミ箱ロボット100a,100b,100cの連携した動きにより人に感謝を伝えるための行為が実行される。それにより、人はゴミを拾った行為に価値を見出すことができる。   When desired trash is put into the trash container 300, the movement of the main body 1 of each trash can robot 100a, 100b, 100c, the utterance by the speaker 14, the display of the expression on the display 11, and the plurality of trash can robots 100a, 100b. , 100c, an action to convey thanks to the person is executed. As a result, people can find value in the act of picking up trash.

このように、各ゴミ箱ロボット100a,100b,100cは、自らはゴミを拾うことができず、他者からの助力があって初めてゴミを回収することができる。したがって、ロボットシステムと人との共同行為および互恵的行為の結果としてゴミを回収する目的が達成される。   Thus, each trash can robot 100a, 100b, 100c cannot pick up trash itself, but can collect trash only with the help of others. Therefore, the purpose of collecting trash as a result of joint and reciprocal actions between the robot system and people is achieved.

この場合、ロボットシステムは、人の助力を得ることによりゴミを回収する機能を実現する存在として価値付けられる。同時に、人は、ロボットシステムを助ける存在として価値付けられる。それにより、人とロボットシステムとが相互に価値付け合いかつ存在の意味を相互に構成し合う。すなわち、人とロボットシステムとの相互依存的および相互構成的な関係が築かれる。その結果、ロボットシステムに対する愛着が醸成されるとともに社会的な繋がりが形成される。   In this case, the robot system is valued as an entity that realizes a function of collecting garbage by obtaining human assistance. At the same time, people are valued as beings that help robot systems. As a result, humans and robot systems mutually value each other and compose the meaning of existence. That is, an interdependent and reciprocal relationship between a person and a robot system is established. As a result, attachment to the robot system is fostered and social connection is formed.

上記実施の形態では、本体部1が本体部に相当し、音声合成装置22およびスピーカ14、ディスプレイ11、または本体回転用モータ23、移動用モータ24および車輪17,18が表現手段を構成する。また、音声合成装置22およびスピーカ14が発話手段に相当し、ディスプレイ11が表示手段に相当し、本体回転用モータ23、移動用モータ24および車輪17,18が駆動手段に相当する。さらに、マイク11,12、人物判別用カメラ15または物体検出センサ19が第1の検出手段に相当し、ゴミ判別用カメラ16が第2の検出手段に相当し、制御用コンピュータ20または統括制御用コンピュータ200が制御手段に相当する。   In the above embodiment, the main body 1 corresponds to the main body, and the speech synthesizer 22 and the speaker 14, the display 11, or the main body rotation motor 23, the movement motor 24, and the wheels 17 and 18 constitute expression means. The voice synthesizer 22 and the speaker 14 correspond to speech means, the display 11 corresponds to display means, and the main body rotation motor 23, the movement motor 24, and the wheels 17, 18 correspond to drive means. Further, the microphones 11 and 12, the person discrimination camera 15 or the object detection sensor 19 correspond to the first detection means, and the dust discrimination camera 16 corresponds to the second detection means. The computer 200 corresponds to the control means.

本実施の形態に係るゴミ箱ロボット100またはロボットシステムを人、幼稚園児、学童等が頻繁に通る公共の場所、公園、幼稚園、学校等の場所に固定的に配置することにより所期の目的を効率良く達成することができる。   By efficiently placing the trash can robot 100 or robot system according to the present embodiment in public places, parks, kindergartens, schools, etc. where people, kindergarteners, schoolchildren, etc. frequently pass, the intended purpose is made efficient. Can be achieved well.

本発明は、屋内、屋外等でゴミの回収等に利用することができる。   The present invention can be used to collect garbage indoors and outdoors.

本発明の一実施の形態に係るゴミ箱ロボットの外観を示す模式図である。It is a schematic diagram which shows the external appearance of the trash can robot which concerns on one embodiment of this invention. 図1のゴミ箱ロボットの制御系を示すブロック図である。It is a block diagram which shows the control system of the trash box robot of FIG. 図1のゴミ箱ロボットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the trash can robot of FIG. 本発明の他の実施の形態に係るロボットシステムにおけるゴミ箱ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the trash can robot in the robot system which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a structure and operation | movement of the robot system which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a structure and operation | movement of the robot system which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a structure and operation | movement of the robot system which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a structure and operation | movement of the robot system which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るロボットシステムの構成および動作の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of a structure and operation | movement of the robot system which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

1 本体部
2 支持部
11 ディスプレイ
12,13 マイク
14 スピーカ
15 人物判別用カメラ
16 ゴミ判別用カメラ
17,18 車輪
19 物体検出センサ
20 制御用コンピュータ
21 音声認識装置
22 音声合成装置
23 本体回転用モータ
24 移動用モータ
100,100a,100b,100c ゴミ箱ロボット
200 統括制御用コンピュータ
DESCRIPTION OF SYMBOLS 1 Main part 2 Support part 11 Display 12, 13 Microphone 14 Speaker 15 Person discrimination camera 16 Dust discrimination camera 17, 18 Wheel 19 Object detection sensor 20 Control computer 21 Voice recognition device 22 Speech synthesizer 23 Main body rotation motor 24 Moving motor 100, 100a, 100b, 100c Trash can robot 200 Computer for overall control

Claims (9)

ゴミ収容部を有する本体部と、
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、
前記本体部の周囲の人を検出する第1の検出手段と、
前記第1の検出手段の検出結果を受け、前記表現手段を制御する制御手段とを備え、
前記制御手段は、前記第1の検出手段により人が検出された場合に、前記表現手段によりゴミを拾うという人の行為を誘発するための行為を実行することを特徴とするロボット。
A main body having a garbage container;
Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
First detection means for detecting a person around the main body,
Control means for receiving the detection result of the first detection means and controlling the expression means;
The said control means performs the action for inducing the person's action of picking up garbage by the said expression means, when a person is detected by the said 1st detection means.
前記ゴミ収容部にゴミが投入されたことを検出する第2の検出手段をさらに備え、
前記制御手段は、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出された場合に、前記表現手段により人に対して応答行為を実行することを特徴とする請求項1記載のロボット。
Further comprising second detection means for detecting that dust is thrown into the dust container,
The control means, when the second detection means detects that dust has been thrown into the dust container, performs a response action to a person by the expression means. The robot according to 1.
前記制御手段は、前記表現手段によりゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出されない場合に、前記表現手段によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行することを特徴する請求項2記載のロボット。 The control means performs an action for inducing a person's action of picking up trash by the expression means, and then when the second detection means does not detect that trash has been thrown into the trash container. 3. The robot according to claim 2, wherein another action for inducing a person's action of picking up trash by the expression means is selectively executed. 前記制御手段は、ゴミを拾うという人の行為を誘発するための複数の行為と各行為の選択確率とを記憶し、前記複数の行為のうちいずれかをランダムに選択確率を反映して選択し、選択された行為を実行した後、前記ゴミ収容部にゴミが投入されたか否かに基づいて選択された行為の選択確率を更新することを特徴する請求項1〜3のいすれかに記載のロボット。 The control means stores a plurality of actions for inducing a person's action of picking up trash and a selection probability of each action, and randomly selects one of the plurality of actions by reflecting the selection probability. 4. The selection probability of the selected action is updated based on whether or not trash is thrown into the trash container after executing the selected action. Robot. 前記表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および前記本体部を動かす駆動手段の少なくとも1つを含むことを特徴とする請求項1〜4のいずれかに記載のロボット。 5. The expression unit according to claim 1, wherein the expression unit includes at least one of a voice output unit that speaks by voice output, a display unit that expresses a facial expression, and a drive unit that moves the main body. robot. 複数のロボットと、
前記複数のロボットの各々を制御する制御手段とを備え、
前記複数のロボットの各々は、
ゴミ収容部を有する本体部と、
音声出力による発話、表情の表示および前記本体部の動きの少なくとも1つの行為により意思を表現する表現手段と、
前記本体部の周囲の人を検出する第1の検出手段とを備え、
前記制御手段は、前記複数のロボットのいずれかの前記第1の検出手段により人が検出された場合に、各ロボットの前記表現手段の動作および/または前記複数のロボットの前記表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための行為を実行することを特徴とするロボットシステム。
With multiple robots,
Control means for controlling each of the plurality of robots,
Each of the plurality of robots is
A main body having a garbage container;
Expression means for expressing intention by at least one action of speech output, facial expression display and movement of the main body,
First detection means for detecting a person around the main body,
The control means cooperates with the operation of the expression means of each robot and / or the expression means of the plurality of robots when a person is detected by the first detection means of any of the plurality of robots. A robot system characterized by performing an action for inducing a person's action of picking up garbage by movement.
前記複数のロボットの各々は、前記ゴミ収容部にゴミが投入されたことを検出する第2の検出手段をさらに備え、
前記制御手段は、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出された場合に、各ロボットの前記表現手段の動作および/または前記複数のロボットの前記表現手段の連携した動作により人に対して応答行為を実行することを特徴とする請求項6記載のロボットシステム。
Each of the plurality of robots further includes second detection means for detecting that dust is thrown into the dust container,
When the second detection means detects that the garbage has been put into the dust container, the control means operates the expression means of each robot and / or the expression means of the plurality of robots. The robot system according to claim 6, wherein a response action is executed on a person by a coordinated operation.
前記制御手段は、ゴミを拾うという人の行為を誘発するための行為を実行した後、前記ゴミ収容部にゴミが投入されたことが前記第2の検出手段により検出されない場合に、各ロボットの前記表現手段の動作および/または前記複数のロボットの前記表現手段の連携した動作によりゴミを拾うという人の行為を誘発するための他の行為を選択的に実行することを特徴する請求項7記載のロボットシステム。 The control means performs an action for inducing a person's action of picking up trash, and then when the second detection means does not detect that the trash has been thrown into the trash container, 8. The other action for inducing a person's action of picking up garbage by the operation of the expression means and / or the coordinated operation of the expression means of the plurality of robots is selectively executed. Robot system. 前記表現手段は、音声出力により発話を行う音声出力手段、表情を表す表示手段および前記本体部を動かす駆動手段の少なくとも1つを含むことを特徴とする請求項6〜8のいずれかに記載のロボットシステム。 9. The expression unit according to claim 6, wherein the expression unit includes at least one of a voice output unit that speaks by voice output, a display unit that expresses an expression, and a drive unit that moves the main body. Robot system.
JP2004291849A 2004-10-04 2004-10-04 Robot and robot system Expired - Lifetime JP4556024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004291849A JP4556024B2 (en) 2004-10-04 2004-10-04 Robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004291849A JP4556024B2 (en) 2004-10-04 2004-10-04 Robot and robot system

Publications (2)

Publication Number Publication Date
JP2006102861A true JP2006102861A (en) 2006-04-20
JP4556024B2 JP4556024B2 (en) 2010-10-06

Family

ID=36373144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004291849A Expired - Lifetime JP4556024B2 (en) 2004-10-04 2004-10-04 Robot and robot system

Country Status (1)

Country Link
JP (1) JP4556024B2 (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009097334A3 (en) * 2008-01-28 2009-10-29 Seegrid Corporation Methods for real-time interaction with robots
JP2012213828A (en) * 2011-03-31 2012-11-08 Fujitsu Ltd Robot control device and program
US8433442B2 (en) 2008-01-28 2013-04-30 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
KR101291645B1 (en) * 2011-09-22 2013-08-01 삼성중공업 주식회사 System and method for separate collection of cruise ship
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
CN104309964A (en) * 2014-09-03 2015-01-28 北京大学深圳研究生院 Voice control intelligent garbage can based on acoustic vector sensor
WO2015120384A1 (en) * 2014-02-07 2015-08-13 The Coca-Cola Company System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
CN104944029A (en) * 2015-06-15 2015-09-30 珠海市一微半导体有限公司 Trash can robot system and control method thereof
CN105314300A (en) * 2014-06-10 2016-02-10 深圳市宏泰智能家居科技有限公司 Intelligent garbage can
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
WO2016157944A1 (en) * 2015-03-31 2016-10-06 シャープ株式会社 Robot
CN106395198A (en) * 2016-11-23 2017-02-15 北京小米移动软件有限公司 Control method and device for intelligent trashcan
CN107127767A (en) * 2017-05-27 2017-09-05 芜湖星途机器人科技有限公司 The robot trunk of high stability
KR20180015480A (en) * 2016-08-03 2018-02-13 삼성전자주식회사 Robot apparatus amd method of corntrolling emotion expression funtion of the same
CN107973030A (en) * 2017-12-06 2018-05-01 潘兆坤 Intelligent garbage bin
KR101848412B1 (en) * 2016-08-19 2018-05-24 한양대학교 에리카산학협력단 Garbage collecting system
CN108502404A (en) * 2018-04-04 2018-09-07 广州艾可机器人有限公司 A kind of public space intelligent garbage collecting apparatus
CN108861188A (en) * 2018-05-22 2018-11-23 安徽知库云端科技服务有限公司 A kind of intelligence garbage classification recycler device people
CN108908373A (en) * 2018-08-20 2018-11-30 佛山信卓派思机械科技有限公司 A kind of garbage classification recycler device people
JP2018194997A (en) * 2017-05-16 2018-12-06 富士ゼロックス株式会社 Mobile service providing apparatus and program
CN109394084A (en) * 2018-10-22 2019-03-01 魏赛尔 A kind of intelligent mobile dustbin and its control system based on Internet of Things
CN109460028A (en) * 2018-11-23 2019-03-12 珠海格力电器股份有限公司 Control device and method of intelligent garbage can and intelligent garbage can
CN109533729A (en) * 2018-12-26 2019-03-29 佛山科学技术学院 A kind of intelligent garbage bin that voice control is mobile
JP2019061111A (en) * 2017-09-27 2019-04-18 一般社団法人It&診断支援センター・北九州 Cat type conversation robot
KR20190142060A (en) * 2018-06-15 2019-12-26 엘지전자 주식회사 Guidance robot
JP2020075326A (en) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 robot
WO2020114019A1 (en) * 2018-12-07 2020-06-11 长沙中联重科环境产业有限公司 Sanitation intelligent cleaning and sweeping operation robot control system and cleaning machinery
JP2020168040A (en) * 2019-04-01 2020-10-15 国立大学法人豊橋技術科学大学 robot
JP2021018734A (en) * 2019-07-23 2021-02-15 トヨタ自動車株式会社 Server device
CN112830124A (en) * 2019-11-25 2021-05-25 魏宏帆 Waste storage device and intelligent management system
KR20210085398A (en) * 2019-12-30 2021-07-08 엘지전자 주식회사 Moving robot
CN113353503A (en) * 2021-07-01 2021-09-07 苏州大学文正学院 Intelligent garbage workstation
CN113491484A (en) * 2020-04-07 2021-10-12 深圳爱根斯通科技有限公司 Target cleaning method and device and robot
CN113625646A (en) * 2021-08-20 2021-11-09 北京云迹科技有限公司 Scheduling system of intelligent garbage robot
CN113697321A (en) * 2021-09-16 2021-11-26 安徽世绿环保科技有限公司 Garbage bag coding system for garbage classification station
US11192252B2 (en) 2018-06-15 2021-12-07 Lg Electronics Inc. Robot
JP2022096521A (en) * 2020-12-17 2022-06-29 トヨタ自動車株式会社 Trash carrying movable body and trash collection system
CN114973822A (en) * 2022-04-21 2022-08-30 华南师范大学 Intelligent teaching aid for garbage classification and control method and medium thereof
CN115709461A (en) * 2022-11-08 2023-02-24 浙江金实乐环境工程有限公司 Garbage collection self-adaptive inspection robot

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103434779A (en) * 2013-08-28 2013-12-11 南昌大学 Outdoor environment-friendly garbage recycling vehicle
CN106516508A (en) * 2016-12-22 2017-03-22 上海海事大学 Automatic rubbish collecting system and rubbish collecting trolley thereof
CN107139181B (en) * 2017-05-27 2020-07-28 芜湖星途机器人科技有限公司 Robot trunk capable of being quickly lifted
US11144056B1 (en) 2018-01-12 2021-10-12 AI Incorporated Autonomous refuse container replacement system
US11144066B1 (en) 2018-01-31 2021-10-12 AI Incorporated Autonomous refuse bag replacement system
WO2020241223A1 (en) * 2019-05-28 2020-12-03 パナソニックIpマネジメント株式会社 Tidy-up inducing system, tidy-up inducing furniture, and tidy-up inducing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6061206U (en) * 1983-10-04 1985-04-27 沖電気工業株式会社 electronic trash can
JPS6253203U (en) * 1985-09-20 1987-04-02
JPH0977201A (en) * 1995-09-08 1997-03-25 Nagoya Container- Kk Garbage can

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6061206U (en) * 1983-10-04 1985-04-27 沖電気工業株式会社 electronic trash can
JPS6253203U (en) * 1985-09-20 1987-04-02
JPH0977201A (en) * 1995-09-08 1997-03-25 Nagoya Container- Kk Garbage can

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9603499B2 (en) 2008-01-28 2017-03-28 Seegrid Corporation Service robot and method of operating same
US8433442B2 (en) 2008-01-28 2013-04-30 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
WO2009097334A3 (en) * 2008-01-28 2009-10-29 Seegrid Corporation Methods for real-time interaction with robots
JP2012213828A (en) * 2011-03-31 2012-11-08 Fujitsu Ltd Robot control device and program
KR101291645B1 (en) * 2011-09-22 2013-08-01 삼성중공업 주식회사 System and method for separate collection of cruise ship
JP2020047307A (en) * 2014-02-07 2020-03-26 ザ コカ・コーラ カンパニーThe Coca‐Cola Company System and method of selling goods or services, or collecting recycle refuse using mechanized mobile product
CN106133781B (en) * 2014-02-07 2020-08-11 可口可乐公司 System and method for selling goods or services or collecting recycle waste with a mechanized mobile vending machine
US11538302B2 (en) 2014-02-07 2022-12-27 The Coca-Cola Company System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
KR102312914B1 (en) * 2014-02-07 2021-10-15 더 코카콜라 컴파니 System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
JP2017509968A (en) * 2014-02-07 2017-04-06 ザ コカ・コーラ カンパニーThe Coca‐Cola Company System and method for selling goods or services using machine-movable goods or collecting resource waste
WO2015120384A1 (en) * 2014-02-07 2015-08-13 The Coca-Cola Company System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
KR20160119210A (en) * 2014-02-07 2016-10-12 더 코카콜라 컴파니 System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
CN106133781A (en) * 2014-02-07 2016-11-16 可口可乐公司 Sell goods or service with mechanization Mobile sale machine or collect the system and method for reclaiming type refuse
US20170011580A1 (en) * 2014-02-07 2017-01-12 The Coca-Cola Company System and method of selling goods or services, or collecting recycle refuse using mechanized mobile merchantry
CN105314300A (en) * 2014-06-10 2016-02-10 深圳市宏泰智能家居科技有限公司 Intelligent garbage can
CN104309964A (en) * 2014-09-03 2015-01-28 北京大学深圳研究生院 Voice control intelligent garbage can based on acoustic vector sensor
WO2016117514A1 (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
JP2016193466A (en) * 2015-03-31 2016-11-17 シャープ株式会社 robot
WO2016157944A1 (en) * 2015-03-31 2016-10-06 シャープ株式会社 Robot
CN104944029A (en) * 2015-06-15 2015-09-30 珠海市一微半导体有限公司 Trash can robot system and control method thereof
KR102577571B1 (en) 2016-08-03 2023-09-14 삼성전자주식회사 Robot apparatus amd method of corntrolling emotion expression funtion of the same
KR20180015480A (en) * 2016-08-03 2018-02-13 삼성전자주식회사 Robot apparatus amd method of corntrolling emotion expression funtion of the same
KR101848412B1 (en) * 2016-08-19 2018-05-24 한양대학교 에리카산학협력단 Garbage collecting system
CN106395198A (en) * 2016-11-23 2017-02-15 北京小米移动软件有限公司 Control method and device for intelligent trashcan
JP2018194997A (en) * 2017-05-16 2018-12-06 富士ゼロックス株式会社 Mobile service providing apparatus and program
JP7000704B2 (en) 2017-05-16 2022-01-19 富士フイルムビジネスイノベーション株式会社 Mobile service providers and programs
US10964152B2 (en) 2017-05-16 2021-03-30 Fuji Xerox Co., Ltd. Mobile service providing apparatus and non-transitory computer readable storage medium
CN107127767A (en) * 2017-05-27 2017-09-05 芜湖星途机器人科技有限公司 The robot trunk of high stability
JP2019061111A (en) * 2017-09-27 2019-04-18 一般社団法人It&診断支援センター・北九州 Cat type conversation robot
CN107973030A (en) * 2017-12-06 2018-05-01 潘兆坤 Intelligent garbage bin
CN108502404A (en) * 2018-04-04 2018-09-07 广州艾可机器人有限公司 A kind of public space intelligent garbage collecting apparatus
CN108861188A (en) * 2018-05-22 2018-11-23 安徽知库云端科技服务有限公司 A kind of intelligence garbage classification recycler device people
CN108861188B (en) * 2018-05-22 2021-02-23 广州云景环保科技有限公司 Intelligent garbage classification and recovery robot
KR20190142060A (en) * 2018-06-15 2019-12-26 엘지전자 주식회사 Guidance robot
US11192252B2 (en) 2018-06-15 2021-12-07 Lg Electronics Inc. Robot
US11649110B2 (en) 2018-06-15 2023-05-16 Lg Electronics Inc. Robot
KR102137190B1 (en) 2018-06-15 2020-07-24 엘지전자 주식회사 Guidance robot
CN108908373B (en) * 2018-08-20 2020-11-17 湖南金龙环卫有限公司 Garbage classification and recovery robot
CN108908373A (en) * 2018-08-20 2018-11-30 佛山信卓派思机械科技有限公司 A kind of garbage classification recycler device people
CN109394084A (en) * 2018-10-22 2019-03-01 魏赛尔 A kind of intelligent mobile dustbin and its control system based on Internet of Things
JP2020075326A (en) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 robot
CN109460028A (en) * 2018-11-23 2019-03-12 珠海格力电器股份有限公司 Control device and method of intelligent garbage can and intelligent garbage can
WO2020114019A1 (en) * 2018-12-07 2020-06-11 长沙中联重科环境产业有限公司 Sanitation intelligent cleaning and sweeping operation robot control system and cleaning machinery
CN109533729A (en) * 2018-12-26 2019-03-29 佛山科学技术学院 A kind of intelligent garbage bin that voice control is mobile
JP2020168040A (en) * 2019-04-01 2020-10-15 国立大学法人豊橋技術科学大学 robot
JP7320240B2 (en) 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 robot
JP7310401B2 (en) 2019-07-23 2023-07-19 トヨタ自動車株式会社 Server equipment
JP2021018734A (en) * 2019-07-23 2021-02-15 トヨタ自動車株式会社 Server device
CN112830124A (en) * 2019-11-25 2021-05-25 魏宏帆 Waste storage device and intelligent management system
US11793313B2 (en) 2019-11-25 2023-10-24 Hong-Fan WEI Waste storage device and intelligent management system
KR102337393B1 (en) * 2019-12-30 2021-12-08 엘지전자 주식회사 Moving robot
KR20210085398A (en) * 2019-12-30 2021-07-08 엘지전자 주식회사 Moving robot
CN113491484A (en) * 2020-04-07 2021-10-12 深圳爱根斯通科技有限公司 Target cleaning method and device and robot
JP2022096521A (en) * 2020-12-17 2022-06-29 トヨタ自動車株式会社 Trash carrying movable body and trash collection system
JP7351827B2 (en) 2020-12-17 2023-09-27 トヨタ自動車株式会社 garbage collection system
CN113353503A (en) * 2021-07-01 2021-09-07 苏州大学文正学院 Intelligent garbage workstation
CN113625646B (en) * 2021-08-20 2022-12-13 北京云迹科技股份有限公司 Scheduling system of intelligent garbage robot
CN113625646A (en) * 2021-08-20 2021-11-09 北京云迹科技有限公司 Scheduling system of intelligent garbage robot
CN113697321A (en) * 2021-09-16 2021-11-26 安徽世绿环保科技有限公司 Garbage bag coding system for garbage classification station
CN114973822A (en) * 2022-04-21 2022-08-30 华南师范大学 Intelligent teaching aid for garbage classification and control method and medium thereof
CN115709461A (en) * 2022-11-08 2023-02-24 浙江金实乐环境工程有限公司 Garbage collection self-adaptive inspection robot

Also Published As

Publication number Publication date
JP4556024B2 (en) 2010-10-06

Similar Documents

Publication Publication Date Title
JP4556024B2 (en) Robot and robot system
US11457788B2 (en) Method and apparatus for executing cleaning operation
EP1494210B1 (en) Speech communication system and method, and robot apparatus
US11334084B2 (en) Apparatus and method of generating map data of cleaning space
JP6984004B2 (en) Continuous selection of scenarios based on identification tags that describe the user&#39;s contextual environment for the user&#39;s artificial intelligence model to run through an autonomous personal companion.
CN105144202B (en) Adjusting robot behavior based on human-robot interaction
US20200205629A1 (en) Cleaning robot and method of performing task thereof
US11580385B2 (en) Artificial intelligence apparatus for cleaning in consideration of user&#39;s action and method for the same
US11607801B2 (en) Artificial intelligence robot for managing movement of object using artificial intelligence and method of operating the same
US11450326B2 (en) Device for recognizing voice content, server connected thereto, and method for recognizing voice content
US10850400B2 (en) Robot with anti-noise speaker
US11748614B2 (en) Artificial intelligence device for controlling external device
KR20210020312A (en) Robot and method for controlling same
US11269342B2 (en) Robot cleaner for avoiding stuck situation through artificial intelligence and method of operating the same
US11376742B2 (en) Robot and method of controlling the same
US11318614B2 (en) Robot cleaner and operating method thereof
JP2009131914A (en) Robot control system
JP2008158697A (en) Robot control device
US12096895B2 (en) Artificial intelligence robot and method of operating the same
WO2024083584A1 (en) A neural network training method and apparatus thereof
US11358069B2 (en) Action robot
US20210405148A1 (en) An artificial intelligence apparatus for providing service based on path of user and method for the same
KR20190095194A (en) An artificial intelligence apparatus for determining path of user and method for the same
JP2007000938A (en) Action uniting type robot device
JP2019010710A (en) Robot exhibition device, robot exhibition system, robot exhibition method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100630

R150 Certificate of patent or registration of utility model

Ref document number: 4556024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250