JP6901360B2 - Mobile - Google Patents
Mobile Download PDFInfo
- Publication number
- JP6901360B2 JP6901360B2 JP2017181674A JP2017181674A JP6901360B2 JP 6901360 B2 JP6901360 B2 JP 6901360B2 JP 2017181674 A JP2017181674 A JP 2017181674A JP 2017181674 A JP2017181674 A JP 2017181674A JP 6901360 B2 JP6901360 B2 JP 6901360B2
- Authority
- JP
- Japan
- Prior art keywords
- head
- moving body
- detection device
- control unit
- body according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、移動体に関する。 The present invention relates to a mobile body.
従来、自律型のロボット(移動体の一例)は、人と接触しないように経路を決定しながら移動する。しかしながら、ロボットが、人混みの中を移動する場合、人と接触する可能性が高い。そのため、ロボットが自らのタスクを効率的に実行できないおそれがある。 Conventionally, an autonomous robot (an example of a moving body) moves while determining a route so as not to come into contact with a person. However, when a robot moves in a crowd, it is likely to come into contact with a person. Therefore, the robot may not be able to efficiently execute its own task.
そこで、非特許文献1には、ロボットがあえて積極的に人と接触し、道を空けてもらう働きかけを実施することにより、人混みの中でも効率的にタスクを実行できるようにする方法が記載されている。 Therefore, Non-Patent Document 1 describes a method for enabling a robot to efficiently perform a task even in a crowd by actively contacting a person and encouraging them to make a way. There is.
非特許文献1に開示された技術では、ロボットが2自由度のロボットアームを双腕で搭載しており、人と接触せずに移動できる経路が無い場合に、ロボット自らが片腕を人に触れることで道を空けてもらうための動作をする。このようにロボットが人に接触することでロボットの移動可能な経路が増え、ロボットがその経路を通ることで、タスク実行の効率化を図ることができる。 In the technique disclosed in Non-Patent Document 1, the robot is equipped with a robot arm having two degrees of freedom with two arms, and when there is no path that allows the robot to move without contacting a person, the robot itself touches one arm. It acts to get the way open. When the robot comes into contact with a person in this way, the number of routes that the robot can move increases, and the robot can take the route to improve the efficiency of task execution.
しかしながら、非特許文献1に開示されているロボットは、道を空けてもらうための動作として、腕で人に触れるだけなので、腕を触れられた人が、ロボットの動作の意図を汲み取れるとは限らない。このため、ロボットに触れられた人が道を空けない場合もあり、その場合、ロボットは移動することができずタスクを効率的に実行できないおそれがある。 However, since the robot disclosed in Non-Patent Document 1 only touches a person with an arm as an action for getting a way to clear the road, the person who touches the arm does not always understand the intention of the robot's action. Absent. For this reason, the person touched by the robot may not be able to leave the road, and in that case, the robot may not be able to move and the task may not be executed efficiently.
本発明は、このような課題を解決するもので、道を空けてほしい旨の意図を人に明瞭に伝えることができ、道を空けてもらうことで効率的に移動することが可能な移動体を提供することを目的とする。 The present invention solves such a problem, and can clearly convey to a person the intention of wanting to make a way, and can move efficiently by having the person make a way. The purpose is to provide.
上記目的を達成するために、本発明に係る移動体は、頭部と、前記頭部を前傾させる頭部前傾部と、手部と、前記手部を持ち上げる肩部と、検出対象の位置を検出する位置検出装置と、前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた移動体であって、前記働きかけ制御は、道を譲ってもらうように前記移動体の周辺の人に働きかける動作を行う制御であり、前記働きかけ制御部は、前記働きかけ制御を開始すると、前記肩部を用いて前記手部を持ち上げ、前記移動体を接触対象に向かって移動させることを特徴とする。
In order to achieve the above object, the moving body according to the present invention includes a head, a head anteversion portion that tilts the head forward, a hand portion, a shoulder portion that lifts the hand portion, and a detection target. A position detection device that detects the position, a situation determination unit that determines the surrounding situation using the detection result of the position detection device, and a working control including at least a control for tilting the head forward are performed according to the surrounding situation. It is a moving body provided with a working control unit, and the working control is a control that works on a person around the moving body so as to give way, and the working control unit is the above-mentioned working body. When the action control is started, the hand portion is lifted by using the shoulder portion, and the moving body is moved toward the contact target .
本発明の移動体によれば、あたかも人が頭を下げて頼みごとをするように頭部を前傾することで、道を空けてほしい旨の意図を明瞭に人に伝えることができる。したがって、移動体は、人に道を空けてもらうことで効率的に移動することが可能となる。 According to the moving body of the present invention, by tilting the head forward as if the person bows and makes a request, it is possible to clearly convey to the person the intention to make a way. Therefore, the moving body can move efficiently by having a person clear the way.
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、各図面は、理解しやすいように模式的に示している。
また、以下の各実施の形態では、頭部102の顔部112のある側を前方、その反対側を後方とし、前後方向と直交する水平方向を幅方向として説明する。また、前方を基準に左右を規定する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same components are designated by the same reference numerals. In addition, each drawing is schematically shown for easy understanding.
Further, in each of the following embodiments, the side with the
(実施の形態1)
(移動体の構成)
図1は、本発明の各実施の形態における移動体100の構成を示す模式的な斜視図である。
図2は、図1のA部の連結構造を模式的に示す平面図である。
図3は、本発明の実施の形態1に係る、頭部102と、位置検出装置104および顔検出装置105との傾動構造を説明するための側面視による模式的な断面図である。
(Embodiment 1)
(Composition of mobile body)
FIG. 1 is a schematic perspective view showing the configuration of the moving
FIG. 2 is a plan view schematically showing the connection structure of the part A in FIG.
FIG. 3 is a schematic cross-sectional view taken from a side view for explaining the tilting structure of the
移動体100は、図1および図2に示すように、胴体101と、頭部102と、頭部102を前傾させる頭部前傾部103と、移動体100の周辺に存在する検出対象として特に人の位置を検出する位置検出装置104と、移動体100の周辺に存在する人の顔を検出する顔検出装置105と、移動体100と人とが接触したことを検出する接触検出装置106と、移動体100の作動を制御するコントローラ107と、音声を発生可能な音声発生部108と、移動体100の幅方向両端からそれぞれ略前方方向に伸びた湾曲形状の腕部109と、各腕部109の先端(前端)に備えられた手部110と、腕部109の基端を上下に回動することで腕部109の先端を昇降可能な肩部111(右肩部111R,左肩部111L)と、顔部112とから構成される。
As shown in FIGS. 1 and 2, the moving
また、移動体100は自律移動を行うことが可能で、後述するように自律移動中に人へ働きかけることで移動経路を増やす行動(働きかけ制御)を行うことが可能である。
In addition, the moving
なお、図1では、便宜的にコントローラ107は、宙に浮いた状態で示されているが、例えば胴体101の適宜の箇所に固定されている。
In FIG. 1, the
胴体101は、移動体100の本体であり、地面上を移動することが可能な機構を有している。具体的には、胴体101の底部に設けられた2つの車輪(図示略)を、水平方向に延在する軸心線を中心に回転させたり水平方向に向きを変えさせたりすることで、胴体101は、直進や旋回を行いながら移動することができる。
The
頭部102は、胴体101(ここでは胴体101の上部)に配置され、前述したように頭部前傾部103により前傾させることが可能である。具体的には、頭部102の下部の頭部前傾部103は、幅方向に平行な回転軸を介して胴体101に連結されている。この回転軸は胴体101が内蔵する電動モータM1(図1では省略)の出力軸に連結されている。頭部102は、この電動モータM1により駆動され、その回転軸を中心に傾動する。すなわち、頭部102は、人が頭を下げるように、頭部前傾部103において前傾できるようになっている。
The
位置検出装置104は、移動体100の周辺に存在する人の位置を検出するものであり、具体的には例えば距離画像センサである。位置検出装置104に距離画像センサを使用した場合、距離画像センサからの距離画像データを用いることで、移動体100周辺の検出対象の中から人を判別し、その人との奥行き方向の距離を測ることで人の位置を検出できる。
The
顔検出装置105は、移動体100の周辺に存在する人の顔を検出するものであり、具体的には、例えば、カメラと、このカメラで撮像した画像データを解析して移動体100周辺に存在する顔を検出する画像解析装置(図示略)とを備えて構成される。この構成によれば、カメラの投影面における顔の位置(顔検出位置)も検出できる。
The
位置検出装置104と顔検出装置105とは、それぞれ、幅方向に長い傾動部材120に取り付けられている。傾動部材120は、上下に傾動可能に頭部102の上部に取り付けられている。また、傾動部材120、ひいては位置検出装置104および顔検出装置105は、頭部102が前傾するのと連動して同じ角度で後傾(頭部102とは逆方向に傾斜する)するように構成されている。すなわち、頭部102が前傾しても位置検出装置104と顔検出装置105との各検出方向が、頭部102の前傾を相殺するように傾斜する。これにより、位置検出装置104と顔検出装置105とが常に一定した方向に向くようにして、位置検出装置104と顔検出装置105との各検出が安定して行われるようにしている。
The
具体的には、図3に示すように、頭部前傾部103(図1参照)の回転軸と同軸上において、プーリ121(固定プーリ)が胴部101に固定されている。また、その固定プーリ121と同径且つ歯数の同じプーリ122(回転プーリ)が、フリーで回転できるようにベアリング(図示略)を介して頭部102に枢着されている。これらの固定プーリ121と回転プーリ122との間にはチェーンベルト123が掛け回され、回転プーリ122は、傾動部材120に取り付けられている。
このような構成により、頭部102を矢印a1で示すように前傾させると、固定プーリ121は回転しないので、頭部102と一体に前傾するチェーンベルト123により回転プーリ122が矢印a2で示すように回転駆動される。この結果、傾動部材120が、頭部102の前傾角度と同じ角度だけ後傾する。
なお、チェーンベルト123に替えてタイミングベルトを使用してもよい。タイミングベルトを使用した場合、ベルトの強度は低下するが作動時の静音性が向上する。
Specifically, as shown in FIG. 3, the pulley 121 (fixed pulley) is fixed to the
With such a configuration, when the
A timing belt may be used instead of the
図1に示すように、位置検出装置104と顔検出装置105とは、ケーブルC1によりコントローラ107と接続されている。位置検出装置104と顔検出装置105との各検出結果は、このケーブルC1を介してコントローラ107に出力される。
As shown in FIG. 1, the
接触検出装置106は、移動体100と人との接触を検出するものであり、具体的には例えば力覚センサである。接触検出装置106に力覚センサを使用した場合、力覚センサにより検出された力データから、人との接触力を算出することで、移動体100と人との接触を検出できる。
The
接触検出装置106は、ケーブルC2によりコントローラ107と接続されている。接触検出装置106の検出結果は、このケーブルC2を介してコントローラ107に出力される。
The
音声発生部108は、移動体100から人へ声を掛けるために音声を発生するものであり、具体的には例えばスピーカーである。
The
各腕部109は、胴体101の幅方向両端部(肩部111)からそれぞれ前方方向に伸びた湾曲形状をしており、それらの先端(前端)はそれぞれ手部110として構成されている。これらの手部110は、幅方向中央で結合されている。詳しくは、各腕部109は、略円弧形状のものであり、その幅方向外側の基端部が肩部111に固定され、その幅方向中央の手部110が、図2に示すように接触検出装置106を介して結合されている。
Each
各手部110は、腕部109の根元にある肩部111を用いて持ち上げる又は下げることが可能である。肩部111は、右肩部111Rと左肩部111Lとを備える。
Each
右肩部111Rと左肩部111Lとは、それぞれ、幅方向に平行な回転軸を介して胴体101の幅方向端部に連結されている。これらの回転軸は、それぞれ、胴体101に内蔵された電動モータM2(図1では省略)の出力軸に結合されている。この電動モータM2により駆動されて、右肩部111Rと左肩部111Lとは、それらの回転軸を中心に傾動する。これにより、右肩部111Rと左肩部111Lとに基部を固定された腕部109の先端部の手部110を昇降できる。
The
顔部112は、頭部102の前面に配置されたディスプレイ112aを備え、このディスプレイ112aには、目を模した表示112b(以下「目部112b」と表記する)が映される。この目部112bの表示位置は逐次変更することが可能である。なお、目部112bは表示ではなく、位置変更可能であって目を模した物品により構成してもよい。
The
(制御構成)
図4は、本発明の実施の形態1における移動体のコントローラの構成を示す模式的な制御ブロック図である。
図4に示すように、コントローラ107は、機能要素として、移動体100に対する周辺の人の状況(以下「周辺状況」という)を判断する状況判断部107aと、道を譲ってもらうように周辺の人に働きかけるための制御(働きかけ制御)を行う働きかけ制御部107bとを少なくとも備える。
状況判断部107aは、位置検出装置104,顔検出装置105および接触検出装置106の各検出結果に基づいて移動体100の周辺状況を判断する。
(Control configuration)
FIG. 4 is a schematic control block diagram showing a configuration of a mobile controller according to the first embodiment of the present invention.
As shown in FIG. 4, the
The situation determination unit 107a determines the surrounding situation of the moving
働きかけ制御部107bは、位置検出装置104の検出結果に基づいて、周囲の人と接触せずに移動することの可能な経路がないと判断した場合に働きかけ制御を行う。具体的には、働きかけ制御部107bは、人間が他人に頼みごとをする際の動作を模した動作を移動体100が行うように、電動モータM1を介して頭部前傾部103を制御し、電動モータM2を介して肩部111を制御し、さらに、音声発生部108や胴体101の作動を制御する。
Based on the detection result of the
(フローチャート)
図5は、本発明の実施の形態1における移動体の状況判断に関するフローチャートである。
図6は、本実施の形態1における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図5および図6を参照して、状況判断および働きかけ制御の一例を説明しつつ、状況判断部107aおよび働きかけ制御部107bの機能についてさらに説明する。
(flowchart)
FIG. 5 is a flowchart relating to the determination of the situation of the moving body according to the first embodiment of the present invention.
FIG. 6 is a flowchart relating to the behavior of the moving body according to the first embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIGS. 5 and 6, the functions of the situation determination unit 107a and the action control unit 107b will be further described while explaining an example of the situation determination and the action control.
まず、状況判断部107aによる具体的な状況判断方法について図5を用いて説明する。 First, a specific situation determination method by the situation determination unit 107a will be described with reference to FIG.
状況判断部107aは、状況判断開始時に、状況変数A,状況変数Bおよび状況変数Cをそれぞれ0(零)にセットする(ステップS01)。その後、状況判断部107aは、移動体100が、働きかけ制御中であるか否かを判定する(ステップS02)。なお、働きかけ制御中であるか否かは、例えば、コントローラ107の内部信号である働きかけ制御を行う旨の指令を、働きかけ制御部107bが出力しているか否かで判定できる。
The situation determination unit 107a sets each of the situation variable A, the situation variable B, and the situation variable C to 0 (zero) at the start of the situation judgment (step S01). After that, the situation determination unit 107a determines whether or not the moving
働きかけ制御中で無い場合は、状況判断部107aは状況判断を終了する。状況判断部107aは、働きかけ制御中である場合は、位置検出装置104により判別された人の中から、設定した移動経路上にいる人を、接触による働きかけを行う対象(以下「接触対象」という)として特定し、位置検出装置104により接触対象と特定された人の位置(以下「接触対象位置」という)を検出する(ステップS03)。移動体100から接触対象位置までの距離(以下「接触対象距離」という)を算出し、あらかじめ設定した距離(以下「人接近距離」という)と比較する(ステップS04)。接触対象距離が人接近距離以下の場合は、状況変数Aを1にセットし(ステップS05)、接触対象距離が人接近距離よりも離れている場合は、状況変数Aを0(零)のままとする。
If the action control is not in progress, the situation determination unit 107a ends the situation determination. When the situation determination unit 107a is in the action control, the person who is on the set movement path from the persons determined by the
次に、顔検出装置105により検出された顔検出位置と、接触対象位置とを比較し(ステップS06)、顔検出位置が接触対象位置と同じ場合は、状況変数Bを1にセットし(ステップS07)、顔検出位置が接触対象位置と異なる場合は、状況変数Bを0(零)のままとする。
Next, the face detection position detected by the
次に、状況判断部107aは、移動体100と人との接触が接触検出装置106により検出されているか否かを確認し(ステップS08)、接触が検出されている場合は状況変数Cを1にセットし(ステップS09)、接触が検出されていない場合は状況変数Cを0(零)のままとする。
その後、ステップS02に戻り、働きかけ制御が終了するまで状況判断部107aは状況判断を続ける。
Next, the situation determination unit 107a confirms whether or not the contact between the moving
After that, the process returns to step S02, and the situation determination unit 107a continues the situation determination until the action control is completed.
次に、働きかけ制御部107bによる具体的な制御方法について図6を用いて説明する。 Next, a specific control method by the working control unit 107b will be described with reference to FIG.
働きかけ制御部107bは、上述したように周囲の人と接触せずに移動できる経路がないと判断した場合に働きかけ制御を開始する。働きかけ制御が開始されると、状況判断部107aにより前記の図5に例示される状況判断が開始される(ステップS10)。その後、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS11)、移動体100を接触対象に向かって移動させる(ステップS12)。移動中に、状況判断部107aによりセットされた状況変数Aの値を監視し(ステップS13)、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)は、働きかけ制御部107bは、移動体100の移動を停止する。これにより、手部110が移動体100と一体に接触対象に近づく(ステップS14)。働きかけ制御部107bは、手部110を接触対象に近づける間、状況判断部の状況変数Bを監視する(ステップS15)。
As described above, the working control unit 107b starts working control when it is determined that there is no route that can be moved without contacting surrounding people. When the action control is started, the situation determination unit 107a starts the situation determination illustrated in FIG. 5 above (step S10). Then, the
状況変数Bが1にセットされている場合、すなわち顔検出位置が接触対象位置と同じ場合)は、手部110を接触対象に近づけることを停止し(ステップS16)、頭部102を、頭部前傾部103で前傾させた後に元の状態(前傾前の起立状態)に戻し、同時に音声発生部108により接触対象に道を空けてもらうように声を発生させる。(ステップS17)。
ここで、状況変数Bが1にセットされている状況は、接触対象の顔が移動体100のほうを向いていることから顔検出位置が接触対象位置と同じになっている状況である。したがって、状況変数Bが1にセットされている場合に、頭部102を前傾させることは、接触対象である人が移動体100に気付いて移動体100を見たときに、移動体100が頭部102を前傾させることである。したがって、移動体100が頭部102を前傾させていることを、接触対象である人に確実に認識させることができる。
When the situation variable B is set to 1, that is, when the face detection position is the same as the contact target position), the
Here, the situation in which the situation variable B is set to 1 is a situation in which the face detection position is the same as the contact target position because the face to be contacted faces the moving
このとき、頭部102の鉛直方向に対する前傾角度は、人が敬礼時に御辞儀する角度である30度が望ましいが、顔部112に表示している目部112bが人から見えるように、10度から30度の間が望ましい。また、顔部112に表示している目部112bは、頭部102の前傾中にも移動体100が人を認識していることを表現する為に、頭部102を前傾させる際には上方に移動させる。
At this time, the forward tilt angle of the
その後、接触対象が道(移動体100が移動するためのスペース)を空けたかを位置検出装置104の検出結果に基づいて判定し(ステップS18)、道が空いた場合は、手部110を接触対象から離して空いた道を通って移動する(ステップS19)。道が開かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS20)。
After that, it is determined based on the detection result of the
働きかけ制御部107bは、状況変数Bを監視している間、同時に状況変数Cも監視し(ステップS21)、状況変数Bが1にセットされる前に状況変数Cが1にセットされた場合(すなわち移動体100と接触対象との接触が検出された場合)、手部110を接触対象に近づけるための動作を停止する(ステップS22)。
While the action control unit 107b is monitoring the status variable B, the status variable C is also monitored at the same time (step S21), and the status variable C is set to 1 before the status variable B is set to 1 (step S21). That is, when the contact between the moving
その後、再度、状況変数Bの値を確認する(ステップS23)。その際、状況変数Bが1にセットされている場合は、頭部102を頭部前傾部103で前傾させた後、頭部102を頭部前傾部103で逆方向に傾斜させて元の状態に戻し、同時に音声発生部108により接触対象に向けて道を空けてもらうように音声を発生させ(ステップS17)、ステップS18に進む。その一方、ステップS23において状況変数Bが0のままの場合は、頭部102を前傾させたり音声発生部108から音声を発生させたりすることなくステップS18に進む。
After that, the value of the status variable B is confirmed again (step S23). At that time, when the situation variable B is set to 1, the
ステップS18では、接触対象が道を空けたか否かを確認し、道が空いた場合は、手部110を接触対象から離し、空いた道を通って移動する(ステップS19)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS20)。
In step S18, it is confirmed whether or not the contact target has vacated the road, and if the road is vacant, the
(作用・効果)
本発明の実施の形態1の移動体100によれば、接触によって人へ働きかけを行う際に、移動体100は、あたかも人が頭を下げてお願いするように頭部102を前傾させることで、道を空けてほしい旨の意図を、人に明瞭に伝えることができる。したがって、道を空けてもらい易くなり、効率的に移動及びタスクを行える。
(Action / effect)
According to the moving
(変形例)
(1)胴体101の移動装置として、クローラや、脚機構を使用してもよい。この場合、移動装置に車輪機構を使用するのと比較して、凹凸面などの不整地における移動を容易に行える。
(Modification example)
(1) A crawler or a leg mechanism may be used as a moving device for the
(2)位置検出装置104としてステレオカメラを備えてもよい。位置検出装置104に距離画像センサを使用するのと比較して、一台のカメラを、位置検出装置104用のカメラと、顔検出装置105とのカメラとを兼用させることで、検出装置の台数を削減でき、移動体100のコストを削減できる。
(2) A stereo camera may be provided as the
(3)傾動部材120(ひいては位置検出装置104および顔検出装置105)を頭部102の前傾と連動させて後傾させる機構に、平行リンク機構を用いてもよい。具体的には、図7に示すように、互いに平行な前後一対のリンク124を、それらの下端を同じ高さで胴部101に枢着すると共にそれらの上端を同じ高さで傾動部材120の側面に枢着すればよい。これにより、頭部102の角度に拘わらず傾動部材120の角度を水平に保持できる。すなわち、傾動部材120を頭部102の前傾と連動させて後傾させることができる。
プーリとベルトを用いる場合と比較し、ベルトの張力調整を行う必要が無い為、組付け性を向上させることができる。
(3) A parallel link mechanism may be used as a mechanism for tilting the tilting member 120 (and thus the
Compared with the case of using a pulley and a belt, it is not necessary to adjust the tension of the belt, so that the assembling property can be improved.
(4)接触検出装置106にタッチセンサを用いて、このタッチセンサにより移動体100と人との接触の有無のみを検出してもよい。この場合、接触検出装置106に力覚センサを用いる場合と比較して移動体100のコストを削減することができる。
(4) A touch sensor may be used in the
(5)位置検出装置104に、接触検出装置106の機能を担わせるようにしてもよい。この場合、位置検出装置104の距離画像データから解析した人と移動体100との距離を用いて、移動体100と人との接触を検出することができる。検出装置の台数を削減でき、移動体100のコストを削減できる。
(5) The
(実施の形態2)
以下、図1,図4,図5および図8を参照して、本発明の実施の形態2について説明する。
本発明の実施の形態2の移動体100′は、状況変数Cが1にセットされると、頭部102を前傾させる点が、実施の形態1の移動体100と主に相違する。
(Embodiment 2)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS. 1, 4, 5, and 8.
The mobile body 100'of the second embodiment of the present invention is mainly different from the
すなわち、本実施形態の移動体100′では、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a′は、図5のステップS06及びステップS07を実施しないようにする。
That is, in the moving body 100'of the present embodiment, the
図8は、本実施の形態2における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図8を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b′の機能について説明する。
FIG. 8 is a flowchart relating to the behavior of the moving body according to the second embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 8, the function of the working control unit 107b'used in place of the working control unit 107b of the first embodiment will be described while explaining the flow of the working control.
働きかけ制御部107b′が働きかけ制御を開始すると、状況判断部107a′により前述の状況判断が開始される(ステップS121)。その後、働きかけ制御部107b′は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS122)、移動体100を接触対象に向かって移動させる(ステップS123)。働きかけ制御部107b′は、移動中、状況変数Aの値を監視し(ステップS124)、状況変数Aが1にセットされている場合(すなわち移動体100′が接触対象に人接近距離以下まで近づいた場合)は、移動体100′の移動を停止させて手部110を接触対象に近づける(ステップS125)。
When the action control unit 107b'starts the action control, the situation determination unit 107a' starts the above-mentioned situation determination (step S121). After that, the working control unit 107b'lifts the
次に、働きかけ制御部107b′は状況変数Cを監視する(ステップS126)。働きかけ制御部107b′は、状況変数Cが1にセットされている場合(すなわち移動体100と接触対象との接触が検出された場合)は、手部110を接触対象に近づけることを停止し(ステップS127)、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108により声を発生させる。(ステップS128)。
Next, the working control unit 107b'monitors the situation variable C (step S126). When the situation variable C is set to 1 (that is, when the contact between the moving
その後、働きかけ制御部107b′は、接触対象が道を空けたかを確認し(ステップS129)、道が空いた場合は、手部110を接触対象から離し、空いた道をとおって移動する(ステップS130)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS131)。
状況判断部107a′および働きかけ制御部107b′は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100′は、状況判断部107a′および働きかけ制御部107b′以外については、実施の形態1の移動体100と同様なので説明を省略する。
After that, the working control unit 107b'confirms whether the contact target has vacated the road (step S129), and if the road is vacant, the
The situation determination unit 107a'and the action control unit 107b' are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment in other respects, and thus the description thereof will be omitted. Further, since the moving body 100'is the same as the moving
(作用・効果)
本発明の実施の形態2の移動体によれば、顔検出装置105を省略すること可能である。顔検出装置105を省略した場合には、移動体100′のコストを削減でき、さらに、状況判断において顔検出装置105の検出結果に基づく処理ステップ数を削減できるので、状況判断を迅速に行うことができる。
(Action / effect)
According to the moving body of the second embodiment of the present invention, the
(実施の形態3)
以下、図1,図4,図5および図9を参照して、本発明の実施の形態3について説明する。
本発明の実施の形態3の移動体100″は、接触対象に人接近距離以下まで近づいて状況変数Aが1にセットされると頭部102を前傾させる点が、実施の形態1の移動体100とが主に相違する。
(Embodiment 3)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 1, 4, 5, and 9.
In the moving
すなわち、本実施形態の移動体100″では、実施の形態2と同様に、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体100″は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a″は、図5のステップS06及びステップS07を実施しないようにする。
That is, in the moving
図9は、本実施の形態3における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図9を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b″の機能について説明する。
FIG. 9 is a flowchart relating to the behavior of the moving body according to the third embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 9, the function of the working control unit 107b ″ used in place of the working control unit 107b of the first embodiment will be described while explaining the flow of the working control.
働きかけ制御部107b″の制御が働きかけ制御を開始すると、状況判断部107a″により前述の状況判断が開始される(ステップS32)。その後、働きかけ制御部107b″は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS33)、移動体100を接触対象に向かって移動させる(ステップS34)。働きかけ制御部107b″は、移動中、状況変数Aの値を監視する(ステップS35)。働きかけ制御部107b″は、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)、移動体100の移動を停止させる(ステップS36)。そして、働きかけ制御部107b″は、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108から声を発生させる(ステップS37)。
When the control of the working control unit 107b "starts the working control, the situation determination unit 107a" starts the above-mentioned situation determination (step S32). After that, the working control unit 107b "uses the
次に、働きかけ制御部107b″は、手部110を接触対象に近づけ(ステップS38)、状況変数Cを監視し(ステップS39)、状況変数Cが1にセットされている場合は手部110を接触対象に近づけることを停止する(ステップS40)。
その後、働きかけ制御部107b″は、接触対象が道を空けたかを確認し(ステップS41)、道が空いた場合は、手部110を接触対象から離して空いた道をとおって移動する(ステップ42)。道が空かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS43)。
状況判断部107a″および働きかけ制御部107b″は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100″は、状況判断部107a″および働きかけ制御部107b″以外については、実施の形態1の移動体100と同様なので説明を省略する。
Next, the working control unit 107b ″ brings the
After that, the working control unit 107b ″ confirms whether the contact target has vacated the road (step S41), and if the road is vacant, the
The situation determination unit 107a ″ and the action control unit 107b ″ are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment in other respects, and thus the description thereof will be omitted. Further, the moving
本発明の実施の形態3の移動体によれば、実施の形態2と同様の効果が得られる。 According to the moving body of the third embodiment of the present invention, the same effect as that of the second embodiment can be obtained.
(その他)
上述した各実施の形態では、働きかけ制御において、頭部102を前傾させることに加えて、人に触れるようにしたが、人に触れる動作を省略してもよい。
(Other)
In each of the above-described embodiments, in the action control, in addition to tilting the
本発明の移動体は、人混みの中で自律移動が必要な場合に有用である。 The mobile body of the present invention is useful when autonomous movement is required in a crowd.
100,100′,100″ 移動体
101 胴体
102 頭部
103 頭部前傾部
104 位置検出装置
105 顔検出装置
106 接触検出装置
107 コントローラ
107a,107a′,107a″ 状況判断部
107b,107b′,107b″ 働きかけ制御部
108 音声発生部
109 腕部
110 手部
111 肩部
111L 左肩部
111R 右肩部
112 顔部
112a ディスプレイ
112b 目部
120 傾動部材
121 固定プーリ
122 回転プーリ
123 チェーンベルト
124 リンク
M1,M2 電動モータ
100, 100', 100 "moving
Claims (15)
前記頭部を前傾させる頭部前傾部と、
手部と、
前記手部を持ち上げる肩部と、
検出対象の位置を検出する位置検出装置と、
前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、
前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた移動体であって、
前記働きかけ制御は、道を譲ってもらうように前記移動体の周辺の人に働きかける動作を行う制御であり、
前記働きかけ制御部は、前記働きかけ制御を開始すると、前記肩部を用いて前記手部を持ち上げ、前記移動体を接触対象に向かって移動させることを特徴とした移動体。 With the head
The head tilted portion that tilts the head forward and
With the hand
The shoulder that lifts the hand and
A position detection device that detects the position of the detection target and
A situation judgment unit that judges the surrounding situation using the detection result of the position detection device, and
A moving body including a working control unit that performs working control including at least control of tilting the head forward according to the surrounding situation.
The action control is a control that acts to work on people around the moving body so as to give way.
The working control unit is a moving body characterized in that when the working control is started, the hand portion is lifted by using the shoulder portion and the moving body is moved toward a contact target.
前記胴部の幅方向両端から前方に伸び、先端に前記手部を備えた腕部とを備え、
前記働きかけ制御部は、前記手部を人に接触させることを特徴とした請求項1〜11の何れか1項に記載の移動体。 The torso that supports the head and
Extending forwardly from opposite widthwise ends of the barrel, and a arm portion provided with the hand portion to the tip,
The moving body according to any one of claims 1 to 11, wherein the working control unit is characterized in that the hand portion is brought into contact with a person.
前記働きかけ制御部は、前記手部を人に接触させる際に、前記肩部の作動を制御することで、前記手部の高さ方向の位置を、前記検出対象の高さに合わせて調整することを特徴とした請求項12に記載の移動体。 The shoulder portion rotates the arm portion around an axial core line parallel to the width direction .
The action control unit controls the operation of the shoulder portion when the hand portion is brought into contact with a person, thereby adjusting the position of the hand portion in the height direction according to the height of the detection target. The moving body according to claim 12, wherein the moving body is characterized in that.
前記頭部前傾部により前記頭部を前傾させる際に、前記目部を前記顔部の上部に移動することを特徴とした請求項1〜13の何れか1項に記載の移動体。 The head is provided with a face having at least eyes that imitate the eyes.
The moving body according to any one of claims 1 to 13, wherein when the head is tilted forward by the head forward tilting portion, the eye portion is moved to the upper part of the face portion.
前記働きかけ制御部は、前記位置検出装置の検出結果に基づいて、周囲の検知対象と接触せずに移動できないと判断した場合に前記働きかけ制御を行うことを特徴とした請求項1〜14の何れか1項に記載の移動体。 Can move autonomously
Any of claims 1 to 14, wherein the working control unit performs the working control when it is determined that the working control unit cannot move without contacting a surrounding detection target based on the detection result of the position detecting device. Or the moving body according to item 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017181674A JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017181674A JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019055463A JP2019055463A (en) | 2019-04-11 |
JP6901360B2 true JP6901360B2 (en) | 2021-07-14 |
Family
ID=66106837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017181674A Active JP6901360B2 (en) | 2017-09-21 | 2017-09-21 | Mobile |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6901360B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7009320B2 (en) * | 2017-09-21 | 2022-01-25 | パナソニック株式会社 | Mobile |
JPWO2022259595A1 (en) * | 2021-06-10 | 2022-12-15 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002361585A (en) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | Communication robot |
JP2004174681A (en) * | 2002-11-28 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Robot |
JP2005335001A (en) * | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
-
2017
- 2017-09-21 JP JP2017181674A patent/JP6901360B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019055463A (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019201719B2 (en) | Systems and methods for providing synchronized movements of a powered wheelchair and an exoskeleton | |
JP6901360B2 (en) | Mobile | |
CN112041510A (en) | Excavator and information processing device | |
JPWO2007132571A1 (en) | robot | |
JP2005211462A (en) | Self-propelled cleaner | |
US9423795B2 (en) | Inverted pendulum type vehicle | |
JPWO2015041128A1 (en) | Wheelbarrow | |
KR20130030913A (en) | Tactile sense feedback apparatus and method for operating tactile sense feedback apparatus | |
JP2022518880A (en) | Methods, devices, robots that control the robot to escape from the trapped state | |
JP2004291799A (en) | Movable carriage | |
US9724261B2 (en) | Handcart | |
JP7295654B2 (en) | self-propelled robot | |
CN108942960B (en) | Robot device | |
JP2019136853A (en) | Motion assistance device, control parameter adjustment device, and control parameter adjustment method | |
JP2008056192A (en) | Unstable moving body and method of controlling movement of the same | |
JPWO2015019982A1 (en) | Wheelbarrow | |
JP2008087142A (en) | Sole structure of leg type mobile robot, leg type mobile robot and walking control method of leg type mobile robot | |
TWI661978B (en) | Vehicle moving device, moving method and vehicle device using the same | |
JP6245244B2 (en) | Pedestrian drive device and method for controlling walker drive device | |
KR20200107751A (en) | Power assisted wheelchair platform and driving method for the power assisted wheelchair platform | |
JP2018187050A (en) | Walking aid | |
JP6233265B2 (en) | Inverted two-wheeled mobile system | |
JP6429230B2 (en) | Turning speed control device for traveling device | |
JP7081926B2 (en) | Mobiles, motion control systems, and mobile systems | |
TWI725363B (en) | Moving mechanism, mobile carrier and luggage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190718 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210617 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6901360 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |