JP2019055463A - Movable body - Google Patents
Movable body Download PDFInfo
- Publication number
- JP2019055463A JP2019055463A JP2017181674A JP2017181674A JP2019055463A JP 2019055463 A JP2019055463 A JP 2019055463A JP 2017181674 A JP2017181674 A JP 2017181674A JP 2017181674 A JP2017181674 A JP 2017181674A JP 2019055463 A JP2019055463 A JP 2019055463A
- Authority
- JP
- Japan
- Prior art keywords
- head
- moving body
- detection device
- action control
- body according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、移動体に関する。 The present invention relates to a moving body.
従来、自律型のロボット(移動体の一例)は、人と接触しないように経路を決定しながら移動する。しかしながら、ロボットが、人混みの中を移動する場合、人と接触する可能性が高い。そのため、ロボットが自らのタスクを効率的に実行できないおそれがある。 Conventionally, an autonomous robot (an example of a moving body) moves while determining a route so as not to contact a person. However, when a robot moves in a crowd, there is a high possibility of contact with a person. For this reason, there is a possibility that the robot cannot efficiently execute its own task.
そこで、非特許文献1には、ロボットがあえて積極的に人と接触し、道を空けてもらう働きかけを実施することにより、人混みの中でも効率的にタスクを実行できるようにする方法が記載されている。 Therefore, Non-Patent Document 1 describes a method for enabling a robot to perform tasks efficiently even in a crowded environment by actively engaging with people and encouraging them to leave the way. Yes.
非特許文献1に開示された技術では、ロボットが2自由度のロボットアームを双腕で搭載しており、人と接触せずに移動できる経路が無い場合に、ロボット自らが片腕を人に触れることで道を空けてもらうための動作をする。このようにロボットが人に接触することでロボットの移動可能な経路が増え、ロボットがその経路を通ることで、タスク実行の効率化を図ることができる。 In the technique disclosed in Non-Patent Document 1, when the robot has a two-degree-of-freedom robot arm and there is no path that can move without contacting the person, the robot itself touches the person with one arm. In order to get a way out. In this way, the robot can be moved by increasing the number of routes through which the robot comes into contact with the person, and the task can be efficiently executed by passing through the route.
しかしながら、非特許文献1に開示されているロボットは、道を空けてもらうための動作として、腕で人に触れるだけなので、腕を触れられた人が、ロボットの動作の意図を汲み取れるとは限らない。このため、ロボットに触れられた人が道を空けない場合もあり、その場合、ロボットは移動することができずタスクを効率的に実行できないおそれがある。 However, since the robot disclosed in Non-Patent Document 1 only touches a person with an arm as an action to get a way out, the person who touched the arm may not always get the intention of the action of the robot. Absent. For this reason, a person touching the robot may not be able to leave the road, and in this case, the robot may not move and the task may not be executed efficiently.
本発明は、このような課題を解決するもので、道を空けてほしい旨の意図を人に明瞭に伝えることができ、道を空けてもらうことで効率的に移動することが可能な移動体を提供することを目的とする。 The present invention solves such a problem, and can clearly convey the intention of wanting a way to a person, and can move efficiently by having the way left. The purpose is to provide.
上記目的を達成するために、本発明における移動体は、頭部と、前記頭部を前傾させる頭部前傾部と、検出対象の位置を検出する位置検出装置と、前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えたことを特徴とする。 In order to achieve the above object, a moving body according to the present invention includes a head, a head tilting unit that tilts the head forward, a position detection device that detects a position of a detection target, and the position detection device. A situation determination unit that determines a surrounding situation using a detection result, and an action control unit that performs an action control including at least control for tilting the head forward according to the surrounding situation. .
本発明の移動体によれば、あたかも人が頭を下げて頼みごとをするように頭部を前傾することで、道を空けてほしい旨の意図を明瞭に人に伝えることができる。したがって、移動体は、人に道を空けてもらうことで効率的に移動することが可能となる。 According to the moving body of the present invention, it is possible to clearly convey to the person the intention that the person wants to leave the road by tilting the head forward as if the person lowered his / her head and made a request. Therefore, the moving body can move efficiently by having a person leave the road.
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、各図面は、理解しやすいように模式的に示している。
また、以下の各実施の形態では、頭部102の顔部112のある側を前方、その反対側を後方とし、前後方向と直交する水平方向を幅方向として説明する。また、前方を基準に左右を規定する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same component. Each drawing is schematically shown for easy understanding.
Further, in each of the following embodiments, the side where the
(実施の形態1)
(移動体の構成)
図1は、本発明の各実施の形態における移動体100の構成を示す模式的な斜視図である。
図2は、図1のA部の連結構造を模式的に示す平面図である。
図3は、本発明の実施の形態1に係る、頭部102と、位置検出装置104および顔検出装置105との傾動構造を説明するための側面視による模式的な断面図である。
(Embodiment 1)
(Configuration of mobile body)
FIG. 1 is a schematic perspective view showing a configuration of a moving body 100 in each embodiment of the present invention.
FIG. 2 is a plan view schematically showing the connection structure of the part A in FIG.
FIG. 3 is a schematic cross-sectional view in side view for explaining a tilting structure of the
移動体100は、図1および図2に示すように、胴体101と、頭部102と、頭部102を前傾させる頭部前傾部103と、移動体100の周辺に存在する検出対象として特に人の位置を検出する位置検出装置104と、移動体100の周辺に存在する人の顔を検出する顔検出装置105と、移動体100と人とが接触したことを検出する接触検出装置106と、移動体100の作動を制御するコントローラ107と、音声を発生可能な音声発生部108と、移動体100の幅方向両端からそれぞれ略前方方向に伸びた湾曲形状の腕部109と、各腕部109の先端(前端)に備えられた手部110と、腕部109の基端を上下に回動することで腕部109の先端を昇降可能な肩部111(右肩部111R,左肩部111L)と、顔部112とから構成される。
As shown in FIGS. 1 and 2, the moving body 100 includes a
また、移動体100は自律移動を行うことが可能で、後述するように自律移動中に人へ働きかけることで移動経路を増やす行動(働きかけ制御)を行うことが可能である。 In addition, the moving body 100 can perform autonomous movement, and can perform an action (working control) for increasing a movement route by acting on a person during autonomous movement, as will be described later.
なお、図1では、便宜的にコントローラ107は、宙に浮いた状態で示されているが、例えば胴体101の適宜の箇所に固定されている。
In FIG. 1, for convenience, the
胴体101は、移動体100の本体であり、地面上を移動することが可能な機構を有している。具体的には、胴体101の底部に設けられた2つの車輪(図示略)を、水平方向に延在する軸心線を中心に回転させたり水平方向に向きを変えさせたりすることで、胴体101は、直進や旋回を行いながら移動することができる。
The
頭部102は、胴体101(ここでは胴体101の上部)に配置され、前述したように頭部前傾部103により前傾させることが可能である。具体的には、頭部102の下部の頭部前傾部103は、幅方向に平行な回転軸を介して胴体101に連結されている。この回転軸は胴体101が内蔵する電動モータM1(図1では省略)の出力軸に連結されている。頭部102は、この電動モータM1により駆動され、その回転軸を中心に傾動する。すなわち、頭部102は、人が頭を下げるように、頭部前傾部103において前傾できるようになっている。
The
位置検出装置104は、移動体100の周辺に存在する人の位置を検出するものであり、具体的には例えば距離画像センサである。位置検出装置104に距離画像センサを使用した場合、距離画像センサからの距離画像データを用いることで、移動体100周辺の検出対象の中から人を判別し、その人との奥行き方向の距離を測ることで人の位置を検出できる。
The
顔検出装置105は、移動体100の周辺に存在する人の顔を検出するものであり、具体的には、例えば、カメラと、このカメラで撮像した画像データを解析して移動体100周辺に存在する顔を検出する画像解析装置(図示略)とを備えて構成される。この構成によれば、カメラの投影面における顔の位置(顔検出位置)も検出できる。
The
位置検出装置104と顔検出装置105とは、それぞれ、幅方向に長い傾動部材120に取り付けられている。傾動部材120は、上下に傾動可能に頭部102の上部に取り付けられている。また、傾動部材120、ひいては位置検出装置104および顔検出装置105は、頭部102が前傾するのと連動して同じ角度で後傾(頭部102とは逆方向に傾斜する)するように構成されている。すなわち、頭部102が前傾しても位置検出装置104と顔検出装置105との各検出方向が、頭部102の前傾を相殺するように傾斜する。これにより、位置検出装置104と顔検出装置105とが常に一定した方向に向くようにして、位置検出装置104と顔検出装置105との各検出が安定して行われるようにしている。
The
具体的には、図3に示すように、頭部前傾部103(図1参照)の回転軸と同軸上において、プーリ121(固定プーリ)が胴部101に固定されている。また、その固定プーリ121と同径且つ歯数の同じプーリ122(回転プーリ)が、フリーで回転できるようにベアリング(図示略)を介して頭部102に枢着されている。これらの固定プーリ121と回転プーリ122との間にはチェーンベルト123が掛け回され、回転プーリ122は、傾動部材120に取り付けられている。
このような構成により、頭部102を矢印a1で示すように前傾させると、固定プーリ121は回転しないので、頭部102と一体に前傾するチェーンベルト123により回転プーリ122が矢印a2で示すように回転駆動される。この結果、傾動部材120が、頭部102の前傾角度と同じ角度だけ後傾する。
なお、チェーンベルト123に替えてタイミングベルトを使用してもよい。タイミングベルトを使用した場合、ベルトの強度は低下するが作動時の静音性が向上する。
Specifically, as shown in FIG. 3, a pulley 121 (fixed pulley) is fixed to the
With such a configuration, when the
Note that a timing belt may be used instead of the
図1に示すように、位置検出装置104と顔検出装置105とは、ケーブルC1によりコントローラ107と接続されている。位置検出装置104と顔検出装置105との各検出結果は、このケーブルC1を介してコントローラ107に出力される。
As shown in FIG. 1, the
接触検出装置106は、移動体100と人との接触を検出するものであり、具体的には例えば力覚センサである。接触検出装置106に力覚センサを使用した場合、力覚センサにより検出された力データから、人との接触力を算出することで、移動体100と人との接触を検出できる。
The
接触検出装置106は、ケーブルC2によりコントローラ107と接続されている。接触検出装置106の検出結果は、このケーブルC2を介してコントローラ107に出力される。
The
音声発生部108は、移動体100から人へ声を掛けるために音声を発生するものであり、具体的には例えばスピーカーである。
The
各腕部109は、胴体101の幅方向両端部(肩部111)からそれぞれ前方方向に伸びた湾曲形状をしており、それらの先端(前端)はそれぞれ手部110として構成されている。これらの手部110は、幅方向中央で結合されている。詳しくは、各腕部109は、略円弧形状のものであり、その幅方向外側の基端部が肩部111に固定され、その幅方向中央の手部110が、図2に示すように接触検出装置106を介して結合されている。
Each
各手部110は、腕部109の根元にある肩部111を用いて持ち上げる又は下げることが可能である。肩部111は、右肩部111Rと左肩部111Lとを備える。
Each
右肩部111Rと左肩部111Lとは、それぞれ、幅方向に平行な回転軸を介して胴体101の幅方向端部に連結されている。これらの回転軸は、それぞれ、胴体101に内蔵された電動モータM2(図1では省略)の出力軸に結合されている。この電動モータM2により駆動されて、右肩部111Rと左肩部111Lとは、それらの回転軸を中心に傾動する。これにより、右肩部111Rと左肩部111Lとに基部を固定された腕部109の先端部の手部110を昇降できる。
The
顔部112は、頭部102の前面に配置されたディスプレイ112aを備え、このディスプレイ112aには、目を模した表示112b(以下「目部112b」と表記する)が映される。この目部112bの表示位置は逐次変更することが可能である。なお、目部112bは表示ではなく、位置変更可能であって目を模した物品により構成してもよい。
The
(制御構成)
図4は、本発明の実施の形態1における移動体のコントローラの構成を示す模式的な制御ブロック図である。
図4に示すように、コントローラ107は、機能要素として、移動体100に対する周辺の人の状況(以下「周辺状況」という)を判断する状況判断部107aと、道を譲ってもらうように周辺の人に働きかけるための制御(働きかけ制御)を行う働きかけ制御部107bとを少なくとも備える。
状況判断部107aは、位置検出装置104,顔検出装置105および接触検出装置106の各検出結果に基づいて移動体100の周辺状況を判断する。
(Control configuration)
FIG. 4 is a schematic control block diagram showing the configuration of the moving body controller in the first embodiment of the present invention.
As shown in FIG. 4, the
The situation determination unit 107 a determines the surrounding situation of the moving body 100 based on the detection results of the
働きかけ制御部107bは、位置検出装置104の検出結果に基づいて、周囲の人と接触せずに移動することの可能な経路がないと判断した場合に働きかけ制御を行う。具体的には、働きかけ制御部107bは、人間が他人に頼みごとをする際の動作を模した動作を移動体100が行うように、電動モータM1を介して頭部前傾部103を制御し、電動モータM2を介して肩部111を制御し、さらに、音声発生部108や胴体101の作動を制御する。
The
(フローチャート)
図5は、本発明の実施の形態1における移動体の状況判断に関するフローチャートである。
図6は、本実施の形態1における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図5および図6を参照して、状況判断および働きかけ制御の一例を説明しつつ、状況判断部107aおよび働きかけ制御部107bの機能についてさらに説明する。
(flowchart)
FIG. 5 is a flowchart relating to the situation determination of the moving object in the first embodiment of the present invention.
FIG. 6 is a flowchart related to the behavior of the moving body in the first embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 5 and FIG. 6, functions of the situation determination unit 107 a and the
まず、状況判断部107aによる具体的な状況判断方法について図5を用いて説明する。 First, a specific situation determination method by the situation determination unit 107a will be described with reference to FIG.
状況判断部107aは、状況判断開始時に、状況変数A,状況変数Bおよび状況変数Cをそれぞれ0(零)にセットする(ステップS01)。その後、状況判断部107aは、移動体100が、働きかけ制御中であるか否かを判定する(ステップS02)。なお、働きかけ制御中であるか否かは、例えば、コントローラ107の内部信号である働きかけ制御を行う旨の指令を、働きかけ制御部107bが出力しているか否かで判定できる。
The situation judgment unit 107a sets situation variable A, situation variable B, and situation variable C to 0 (zero) at the start of situation judgment (step S01). Thereafter, the situation determination unit 107a determines whether or not the moving body 100 is under action control (step S02). Whether or not the work control is being performed can be determined by whether or not the
働きかけ制御中で無い場合は、状況判断部107aは状況判断を終了する。状況判断部107aは、働きかけ制御中である場合は、位置検出装置104により判別された人の中から、設定した移動経路上にいる人を、接触による働きかけを行う対象(以下「接触対象」という)として特定し、位置検出装置104により接触対象と特定された人の位置(以下「接触対象位置」という)を検出する(ステップS03)。移動体100から接触対象位置までの距離(以下「接触対象距離」という)を算出し、あらかじめ設定した距離(以下「人接近距離」という)と比較する(ステップS04)。接触対象距離が人接近距離以下の場合は、状況変数Aを1にセットし(ステップS05)、接触対象距離が人接近距離よりも離れている場合は、状況変数Aを0(零)のままとする。 If the work control is not being performed, the situation determination unit 107a ends the situation determination. In the case where the action control is being performed, the situation determination unit 107a selects a person on the set movement route from among the persons determined by the position detection device 104 (hereinafter referred to as “contact object”). ) And the position of the person identified as the contact target by the position detection device 104 (hereinafter referred to as “contact target position”) is detected (step S03). A distance from the moving body 100 to the contact target position (hereinafter referred to as “contact target distance”) is calculated and compared with a preset distance (hereinafter referred to as “person approach distance”) (step S04). When the contact target distance is equal to or less than the person approach distance, the situation variable A is set to 1 (step S05). When the contact target distance is more than the person approach distance, the situation variable A remains 0 (zero). And
次に、顔検出装置105により検出された顔検出位置と、接触対象位置とを比較し(ステップS06)、顔検出位置が接触対象位置と同じ場合は、状況変数Bを1にセットし(ステップS07)、顔検出位置が接触対象位置と異なる場合は、状況変数Bを0(零)のままとする。
Next, the face detection position detected by the
次に、状況判断部107aは、移動体100と人との接触が接触検出装置106により検出されているか否かを確認し(ステップS08)、接触が検出されている場合は状況変数Cを1にセットし(ステップS09)、接触が検出されていない場合は状況変数Cを0(零)のままとする。
その後、ステップS02に戻り、働きかけ制御が終了するまで状況判断部107aは状況判断を続ける。
Next, the situation determination unit 107a checks whether or not contact between the moving body 100 and a person is detected by the contact detection device 106 (step S08). If contact is detected, the situation variable C is set to 1. (Step S09), and when no contact is detected, the status variable C remains 0 (zero).
Thereafter, the process returns to step S02, and the situation determination unit 107a continues the situation determination until the work control is completed.
次に、働きかけ制御部107bによる具体的な制御方法について図6を用いて説明する。
Next, a specific control method by the
働きかけ制御部107bは、上述したように周囲の人と接触せずに移動できる経路がないと判断した場合に働きかけ制御を開始する。働きかけ制御が開始されると、状況判断部107aにより前記の図5に例示される状況判断が開始される(ステップS10)。その後、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS11)、移動体100を接触対象に向かって移動させる(ステップS12)。移動中に、状況判断部107aによりセットされた状況変数Aの値を監視し(ステップS13)、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)は、働きかけ制御部107bは、移動体100の移動を停止する。これにより、手部110が移動体100と一体に接触対象に近づく(ステップS14)。働きかけ制御部107bは、手部110を接触対象に近づける間、状況判断部の状況変数Bを監視する(ステップS15)。
The
状況変数Bが1にセットされている場合、すなわち顔検出位置が接触対象位置と同じ場合)は、手部110を接触対象に近づけることを停止し(ステップS16)、頭部102を、頭部前傾部103で前傾させた後に元の状態(前傾前の起立状態)に戻し、同時に音声発生部108により接触対象に道を空けてもらうように声を発生させる。(ステップS17)。
ここで、状況変数Bが1にセットされている状況は、接触対象の顔が移動体100のほうを向いていることから顔検出位置が接触対象位置と同じになっている状況である。したがって、状況変数Bが1にセットされている場合に、頭部102を前傾させることは、接触対象である人が移動体100に気付いて移動体100を見たときに、移動体100が頭部102を前傾させることである。したがって、移動体100が頭部102を前傾させていることを、接触対象である人に確実に認識させることができる。
When the situation variable B is set to 1, that is, when the face detection position is the same as the contact target position), the
Here, the situation in which the situation variable B is set to 1 is a situation in which the face detection position is the same as the contact target position because the face to be touched faces the moving body 100. Therefore, when the situation variable B is set to 1, tilting the
このとき、頭部102の鉛直方向に対する前傾角度は、人が敬礼時に御辞儀する角度である30度が望ましいが、顔部112に表示している目部112bが人から見えるように、10度から30度の間が望ましい。また、顔部112に表示している目部112bは、頭部102の前傾中にも移動体100が人を認識していることを表現する為に、頭部102を前傾させる際には上方に移動させる。
At this time, the forward tilt angle of the
その後、接触対象が道(移動体100が移動するためのスペース)を空けたかを位置検出装置104の検出結果に基づいて判定し(ステップS18)、道が空いた場合は、手部110を接触対象から離して空いた道を通って移動する(ステップS19)。道が開かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS20)。
Thereafter, it is determined based on the detection result of the
働きかけ制御部107bは、状況変数Bを監視している間、同時に状況変数Cも監視し(ステップS21)、状況変数Bが1にセットされる前に状況変数Cが1にセットされた場合(すなわち移動体100と接触対象との接触が検出された場合)、手部110を接触対象に近づけるための動作を停止する(ステップS22)。
The
その後、再度、状況変数Bの値を確認する(ステップS23)。その際、状況変数Bが1にセットされている場合は、頭部102を頭部前傾部103で前傾させた後、頭部102を頭部前傾部103で逆方向に傾斜させて元の状態に戻し、同時に音声発生部108により接触対象に向けて道を空けてもらうように音声を発生させ(ステップS17)、ステップS18に進む。その一方、ステップS23において状況変数Bが0のままの場合は、頭部102を前傾させたり音声発生部108から音声を発生させたりすることなくステップS18に進む。
Thereafter, the value of the status variable B is confirmed again (step S23). At that time, if the situation variable B is set to 1, after the
ステップS18では、接触対象が道を空けたか否かを確認し、道が空いた場合は、手部110を接触対象から離し、空いた道を通って移動する(ステップS19)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS20)。
In step S18, it is confirmed whether or not the contact target has cleared the road. If the road is empty, the
(作用・効果)
本発明の実施の形態1の移動体100によれば、接触によって人へ働きかけを行う際に、移動体100は、あたかも人が頭を下げてお願いするように頭部102を前傾させることで、道を空けてほしい旨の意図を、人に明瞭に伝えることができる。したがって、道を空けてもらい易くなり、効率的に移動及びタスクを行える。
(Action / Effect)
According to the moving body 100 of the first embodiment of the present invention, when the person is acted upon by contact, the moving body 100 tilts the
(変形例)
(1)胴体101の移動装置として、クローラや、脚機構を使用してもよい。この場合、移動装置に車輪機構を使用するのと比較して、凹凸面などの不整地における移動を容易に行える。
(Modification)
(1) A crawler or a leg mechanism may be used as a moving device for the
(2)位置検出装置104としてステレオカメラを備えてもよい。位置検出装置104に距離画像センサを使用するのと比較して、一台のカメラを、位置検出装置104用のカメラと、顔検出装置105とのカメラとを兼用させることで、検出装置の台数を削減でき、移動体100のコストを削減できる。
(2) A stereo camera may be provided as the
(3)傾動部材120(ひいては位置検出装置104および顔検出装置105)を頭部102の前傾と連動させて後傾させる機構に、平行リンク機構を用いてもよい。具体的には、図7に示すように、互いに平行な前後一対のリンク124を、それらの下端を同じ高さで胴部101に枢着すると共にそれらの上端を同じ高さで傾動部材120の側面に枢着すればよい。これにより、頭部102の角度に拘わらず傾動部材120の角度を水平に保持できる。すなわち、傾動部材120を頭部102の前傾と連動させて後傾させることができる。
プーリとベルトを用いる場合と比較し、ベルトの張力調整を行う必要が無い為、組付け性を向上させることができる。
(3) A parallel link mechanism may be used as a mechanism for tilting the tilting member 120 (and thus the
Compared with the case of using a pulley and a belt, it is not necessary to adjust the tension of the belt, so that the assembling property can be improved.
(4)接触検出装置106にタッチセンサを用いて、このタッチセンサにより移動体100と人との接触の有無のみを検出してもよい。この場合、接触検出装置106に力覚センサを用いる場合と比較して移動体100のコストを削減することができる。
(4) A touch sensor may be used for the
(5)位置検出装置104に、接触検出装置106の機能を担わせるようにしてもよい。この場合、位置検出装置104の距離画像データから解析した人と移動体100との距離を用いて、移動体100と人との接触を検出することができる。検出装置の台数を削減でき、移動体100のコストを削減できる。
(5) The
(実施の形態2)
以下、図1,図4,図5および図8を参照して、本発明の実施の形態2について説明する。
本発明の実施の形態2の移動体100′は、状況変数Cが1にセットされると、頭部102を前傾させる点が、実施の形態1の移動体100と主に相違する。
(Embodiment 2)
Hereinafter, a second embodiment of the present invention will be described with reference to FIG. 1, FIG. 4, FIG. 5, and FIG.
The moving body 100 ′ of the second embodiment of the present invention is mainly different from the moving body 100 of the first embodiment in that the
すなわち、本実施形態の移動体100′では、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a′は、図5のステップS06及びステップS07を実施しないようにする。
That is, in the moving body 100 ′ of the present embodiment, the
図8は、本実施の形態2における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図8を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b′の機能について説明する。
FIG. 8 is a flowchart related to the behavior of the moving body in the second embodiment, and mainly relates to the action control.
Hereinafter, the function of the
働きかけ制御部107b′が働きかけ制御を開始すると、状況判断部107a′により前述の状況判断が開始される(ステップS121)。その後、働きかけ制御部107b′は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS122)、移動体100を接触対象に向かって移動させる(ステップS123)。働きかけ制御部107b′は、移動中、状況変数Aの値を監視し(ステップS124)、状況変数Aが1にセットされている場合(すなわち移動体100′が接触対象に人接近距離以下まで近づいた場合)は、移動体100′の移動を停止させて手部110を接触対象に近づける(ステップS125)。
When the
次に、働きかけ制御部107b′は状況変数Cを監視する(ステップS126)。働きかけ制御部107b′は、状況変数Cが1にセットされている場合(すなわち移動体100と接触対象との接触が検出された場合)は、手部110を接触対象に近づけることを停止し(ステップS127)、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108により声を発生させる。(ステップS128)。
Next, the
その後、働きかけ制御部107b′は、接触対象が道を空けたかを確認し(ステップS129)、道が空いた場合は、手部110を接触対象から離し、空いた道をとおって移動する(ステップS130)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS131)。
状況判断部107a′および働きかけ制御部107b′は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100′は、状況判断部107a′および働きかけ制御部107b′以外については、実施の形態1の移動体100と同様なので説明を省略する。
Thereafter, the
The situation determination unit 107a ′ and the
(作用・効果)
本発明の実施の形態2の移動体によれば、顔検出装置105を省略すること可能である。顔検出装置105を省略した場合には、移動体100′のコストを削減でき、さらに、状況判断において顔検出装置105の検出結果に基づく処理ステップ数を削減できるので、状況判断を迅速に行うことができる。
(Action / Effect)
According to the mobile body of the second embodiment of the present invention, the
(実施の形態3)
以下、図1,図4,図5および図9を参照して、本発明の実施の形態3について説明する。
本発明の実施の形態3の移動体100″は、接触対象に人接近距離以下まで近づいて状況変数Aが1にセットされると頭部102を前傾させる点が、実施の形態1の移動体100とが主に相違する。
(Embodiment 3)
Hereinafter, Embodiment 3 of the present invention will be described with reference to FIG. 1, FIG. 4, FIG. 5 and FIG.
The moving body 100 ″ according to the third embodiment of the present invention moves the
すなわち、本実施形態の移動体100″では、実施の形態2と同様に、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体100″は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a″は、図5のステップS06及びステップS07を実施しないようにする。
That is, in the moving body 100 ″ of the present embodiment, whether or not the status variable B is set to 1 (whether or not the face detection position is the same as the contact target position) as in the second embodiment. First, the
図9は、本実施の形態3における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図9を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b″の機能について説明する。
FIG. 9 is a flowchart related to the behavior of the moving body in the third embodiment, and mainly relates to the action control.
Hereinafter, the function of the
働きかけ制御部107b″の制御が働きかけ制御を開始すると、状況判断部107a″により前述の状況判断が開始される(ステップS32)。その後、働きかけ制御部107b″は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS33)、移動体100を接触対象に向かって移動させる(ステップS34)。働きかけ制御部107b″は、移動中、状況変数Aの値を監視する(ステップS35)。働きかけ制御部107b″は、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)、移動体100の移動を停止させる(ステップS36)。そして、働きかけ制御部107b″は、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108から声を発生させる(ステップS37)。
When the control of the
次に、働きかけ制御部107b″は、手部110を接触対象に近づけ(ステップS38)、状況変数Cを監視し(ステップS39)、状況変数Cが1にセットされている場合は手部110を接触対象に近づけることを停止する(ステップS40)。
その後、働きかけ制御部107b″は、接触対象が道を空けたかを確認し(ステップS41)、道が空いた場合は、手部110を接触対象から離して空いた道をとおって移動する(ステップ42)。道が空かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS43)。
状況判断部107a″および働きかけ制御部107b″は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100″は、状況判断部107a″および働きかけ制御部107b″以外については、実施の形態1の移動体100と同様なので説明を省略する。
Next, the
Thereafter, the
The situation determination unit 107a ″ and the
本発明の実施の形態3の移動体によれば、実施の形態2と同様の効果が得られる。 According to the moving body of the third embodiment of the present invention, the same effect as in the second embodiment can be obtained.
(その他)
上述した各実施の形態では、働きかけ制御において、頭部102を前傾させることに加えて、人に触れるようにしたが、人に触れる動作を省略してもよい。
(Other)
In each embodiment described above, in the work control, in addition to tilting the
本発明の移動体は、人混みの中で自律移動が必要な場合に有用である。 The moving body of the present invention is useful when autonomous movement is necessary in a crowded area.
100,100′,100″ 移動体
101 胴体
102 頭部
103 頭部前傾部
104 位置検出装置
105 顔検出装置
106 接触検出装置
107 コントローラ
107a,107a′,107a″ 状況判断部
107b,107b′,107b″ 働きかけ制御部
108 音声発生部
109 腕部
110 手部
111 肩部
111L 左肩部
111R 右肩部
112 顔部
112a ディスプレイ
112b 目部
120 傾動部材
121 固定プーリ
122 回転プーリ
123 チェーンベルト
124 リンク
M1,M2 電動モータ
100, 100 ′, 100 ″ moving
Claims (15)
前記頭部を前傾させる頭部前傾部と、
検出対象の位置を検出する位置検出装置と、
前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、
前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた
ことを特徴とした移動体。 The head,
A head forward tilting part that tilts the head forward;
A position detection device for detecting the position of the detection target;
A situation determination unit that determines a surrounding situation using a detection result of the position detection device;
A moving body comprising: an action control unit that performs an action control including at least the control of tilting the head forward according to the surrounding situation.
前記胴部の幅方向両端から前方に伸び、先端に手部を備えた腕部とを備え、
前記働きかけ制御部は、前記手部を人に接触させることを特徴とした請求項1〜11の何れか1項に記載の移動体。 A torso that supports the head;
An arm portion that extends forward from both ends in the width direction of the trunk portion, and has a hand portion at the tip;
The movable body according to claim 1, wherein the action control unit causes the hand portion to contact a person.
前記働きかけ制御部は、前記手部を人に接触させる際に、前記肩部の作動を制御することで、前記手部の高さ方向の位置を、前記検出対象の高さに合わせて調整することを特徴とした請求項12に記載の移動体。 A shoulder for rotating the arm around an axis parallel to the width direction;
The action control unit adjusts the position in the height direction of the hand part according to the height of the detection target by controlling the operation of the shoulder part when the hand part is brought into contact with a person. The moving body according to claim 12, wherein:
前記頭部前傾部により前記頭部を前傾させる際に、前記目部を前記顔部の上部に移動することを特徴とした請求項1〜13の何れか1項に記載の移動体。 The head is provided with a face part having at least an eye part imitating eyes,
The moving body according to any one of claims 1 to 13, wherein when the head is tilted forward by the head tilting part, the eye part is moved to an upper part of the face part.
前記働きかけ制御部は、前記位置検出装置の検出結果に基づいて、周囲の検知対象と接触せずに移動できないと判断した場合に前記働きかけ制御を行うことを特徴とした請求項1〜14の何れか1項に記載の移動体。 It can move autonomously,
The said action control part performs said action control when it judges that it cannot move without contacting with the surrounding detection object based on the detection result of the said position detection apparatus, Any one of Claims 1-14 characterized by the above-mentioned. The moving body according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017181674A JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017181674A JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019055463A true JP2019055463A (en) | 2019-04-11 |
JP6901360B2 JP6901360B2 (en) | 2021-07-14 |
Family
ID=66106837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017181674A Active JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6901360B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019055476A (en) * | 2017-09-21 | 2019-04-11 | パナソニック株式会社 | Movable body |
WO2022259595A1 (en) * | 2021-06-10 | 2022-12-15 | ソニーグループ株式会社 | Nursing care robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002361585A (en) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | Communication robot |
JP2004174681A (en) * | 2002-11-28 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Robot |
JP2005335001A (en) * | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
-
2017
- 2017-09-21 JP JP2017181674A patent/JP6901360B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002361585A (en) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | Communication robot |
JP2004174681A (en) * | 2002-11-28 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Robot |
JP2005335001A (en) * | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019055476A (en) * | 2017-09-21 | 2019-04-11 | パナソニック株式会社 | Movable body |
JP7009320B2 (en) | 2017-09-21 | 2022-01-25 | パナソニック株式会社 | Mobile |
WO2022259595A1 (en) * | 2021-06-10 | 2022-12-15 | ソニーグループ株式会社 | Nursing care robot |
Also Published As
Publication number | Publication date |
---|---|
JP6901360B2 (en) | 2021-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4915417B2 (en) | robot | |
JP6450960B2 (en) | Robot, robot system and teaching method | |
JP2019055463A (en) | Movable body | |
WO2009011296A1 (en) | Route planning device, route planning method, and mover | |
US9423795B2 (en) | Inverted pendulum type vehicle | |
JP2005211462A (en) | Self-propelled cleaner | |
US11485029B2 (en) | Working robot | |
WO2015137169A1 (en) | Terrain determination device, legged mobile robot, robot system, control method for legged mobile robot, and control method for robot system | |
KR20130030913A (en) | Tactile sense feedback apparatus and method for operating tactile sense feedback apparatus | |
JP6007873B2 (en) | Robot and control method thereof | |
JP2015084129A (en) | Guidance robot | |
JP2022518880A (en) | Methods, devices, robots that control the robot to escape from the trapped state | |
JP2019198905A (en) | Image display device, image displaying method, and remote control system | |
JP2020058596A (en) | robot | |
KR20160017385A (en) | Treadmill apparatus having an automatic speed control system | |
KR101741105B1 (en) | System and Method for Controlling Device Based on Electric Wheel Chair | |
JP2008056192A (en) | Unstable moving body and method of controlling movement of the same | |
JP2019136853A (en) | Motion assistance device, control parameter adjustment device, and control parameter adjustment method | |
JP2020131377A (en) | Self-propelled robot | |
JP2009220257A (en) | Leg-wheel mobile robot | |
CN112912152B (en) | AC robot | |
JP7002791B2 (en) | Information processing equipment and mobile robots | |
JP2017065565A (en) | Traveling device | |
KR101235949B1 (en) | Auxiliary headlight and method for controlling the same | |
KR20150099409A (en) | Apparatus and method for controlling an electronic device using round handle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190718 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210617 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6901360 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |