JP6901360B2 - Mobile - Google Patents

Mobile Download PDF

Info

Publication number
JP6901360B2
JP6901360B2 JP2017181674A JP2017181674A JP6901360B2 JP 6901360 B2 JP6901360 B2 JP 6901360B2 JP 2017181674 A JP2017181674 A JP 2017181674A JP 2017181674 A JP2017181674 A JP 2017181674A JP 6901360 B2 JP6901360 B2 JP 6901360B2
Authority
JP
Japan
Prior art keywords
head
moving body
detection device
control unit
body according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017181674A
Other languages
Japanese (ja)
Other versions
JP2019055463A (en
Inventor
紀章 今岡
紀章 今岡
健 安藤
健 安藤
一磨 北澤
一磨 北澤
瑞穂 榊原
瑞穂 榊原
祥平 中塩屋
祥平 中塩屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2017181674A priority Critical patent/JP6901360B2/en
Publication of JP2019055463A publication Critical patent/JP2019055463A/en
Application granted granted Critical
Publication of JP6901360B2 publication Critical patent/JP6901360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、移動体に関する。 The present invention relates to a mobile body.

従来、自律型のロボット(移動体の一例)は、人と接触しないように経路を決定しながら移動する。しかしながら、ロボットが、人混みの中を移動する場合、人と接触する可能性が高い。そのため、ロボットが自らのタスクを効率的に実行できないおそれがある。 Conventionally, an autonomous robot (an example of a moving body) moves while determining a route so as not to come into contact with a person. However, when a robot moves in a crowd, it is likely to come into contact with a person. Therefore, the robot may not be able to efficiently execute its own task.

そこで、非特許文献1には、ロボットがあえて積極的に人と接触し、道を空けてもらう働きかけを実施することにより、人混みの中でも効率的にタスクを実行できるようにする方法が記載されている。 Therefore, Non-Patent Document 1 describes a method for enabling a robot to efficiently perform a task even in a crowd by actively contacting a person and encouraging them to make a way. There is.

非特許文献1に開示された技術では、ロボットが2自由度のロボットアームを双腕で搭載しており、人と接触せずに移動できる経路が無い場合に、ロボット自らが片腕を人に触れることで道を空けてもらうための動作をする。このようにロボットが人に接触することでロボットの移動可能な経路が増え、ロボットがその経路を通ることで、タスク実行の効率化を図ることができる。 In the technique disclosed in Non-Patent Document 1, the robot is equipped with a robot arm having two degrees of freedom with two arms, and when there is no path that allows the robot to move without contacting a person, the robot itself touches one arm. It acts to get the way open. When the robot comes into contact with a person in this way, the number of routes that the robot can move increases, and the robot can take the route to improve the efficiency of task execution.

Moondeep C.Shretha et al., “Using contact-based inducement for efficient navigation in a congested environment”, Robot and Human Interactive Communication, Aug31 -Sep4. 2015Moondeep C. Shretha et al., “Using contact-based inducement for efficient navigation in a congested environment”, Robot and Human Interactive Communication, Aug31 -Sep4. 2015

しかしながら、非特許文献1に開示されているロボットは、道を空けてもらうための動作として、腕で人に触れるだけなので、腕を触れられた人が、ロボットの動作の意図を汲み取れるとは限らない。このため、ロボットに触れられた人が道を空けない場合もあり、その場合、ロボットは移動することができずタスクを効率的に実行できないおそれがある。 However, since the robot disclosed in Non-Patent Document 1 only touches a person with an arm as an action for getting a way to clear the road, the person who touches the arm does not always understand the intention of the robot's action. Absent. For this reason, the person touched by the robot may not be able to leave the road, and in that case, the robot may not be able to move and the task may not be executed efficiently.

本発明は、このような課題を解決するもので、道を空けてほしい旨の意図を人に明瞭に伝えることができ、道を空けてもらうことで効率的に移動することが可能な移動体を提供することを目的とする。 The present invention solves such a problem, and can clearly convey to a person the intention of wanting to make a way, and can move efficiently by having the person make a way. The purpose is to provide.

上記目的を達成するために、本発明に係る移動体は、頭部と、前記頭部を前傾させる頭部前傾部と、手部と、前記手部を持ち上げる肩部と、検出対象の位置を検出する位置検出装置と、前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた移動体であって、前記働きかけ制御は、道を譲ってもらうように前記移動体の周辺の人に働きかける動作を行う制御であり、前記働きかけ制御部は、前記働きかけ制御を開始すると、前記肩部を用いて前記手部を持ち上げ、前記移動体を接触対象に向かって移動させることを特徴とする。
In order to achieve the above object, the moving body according to the present invention includes a head, a head anteversion portion that tilts the head forward, a hand portion, a shoulder portion that lifts the hand portion, and a detection target. A position detection device that detects the position, a situation determination unit that determines the surrounding situation using the detection result of the position detection device, and a working control including at least a control for tilting the head forward are performed according to the surrounding situation. It is a moving body provided with a working control unit, and the working control is a control that works on a person around the moving body so as to give way, and the working control unit is the above-mentioned working body. When the action control is started, the hand portion is lifted by using the shoulder portion, and the moving body is moved toward the contact target .

本発明の移動体によれば、あたかも人が頭を下げて頼みごとをするように頭部を前傾することで、道を空けてほしい旨の意図を明瞭に人に伝えることができる。したがって、移動体は、人に道を空けてもらうことで効率的に移動することが可能となる。 According to the moving body of the present invention, by tilting the head forward as if the person bows and makes a request, it is possible to clearly convey to the person the intention to make a way. Therefore, the moving body can move efficiently by having a person clear the way.

本発明の各実施の形態における移動体の構成を示す模式的な斜視図Schematic perspective view showing the structure of the moving body in each embodiment of the present invention. 図1のA部の連結構造を模式的に示す平面図Top view schematically showing the connection structure of part A in FIG. 本発明の実施の形態1に係る位置検出装置および顔検出装置の傾動構造を説明するための側面視による模式的な断面図Schematic cross-sectional view from a side view for explaining the tilting structure of the position detection device and the face detection device according to the first embodiment of the present invention. 本発明の各実施の形態における移動体のコントローラの構成を示す模式的な制御ブロック図Schematic control block diagram showing a configuration of a mobile controller according to each embodiment of the present invention. 本発明の実施の形態1における移動体の状況判断に関するフローチャートFlowchart for determining the status of a moving body according to the first embodiment of the present invention 本実施の形態1における移動体の挙動に関するフローチャートFlowchart regarding the behavior of the moving body in the first embodiment 本発明に実施の形態1に係る位置検出装置および顔検出装置の傾動構造の変形例を説明するための側面視による模式的な断面図A schematic cross-sectional view from a side view for explaining a modified example of the tilting structure of the position detection device and the face detection device according to the first embodiment of the present invention. 本実施の形態2における移動体の挙動に関するフローチャートFlowchart regarding the behavior of the moving body in the second embodiment 本実施の形態3における移動体の挙動に関するフローチャートFlowchart regarding the behavior of the moving body in the third embodiment

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、各図面は、理解しやすいように模式的に示している。
また、以下の各実施の形態では、頭部102の顔部112のある側を前方、その反対側を後方とし、前後方向と直交する水平方向を幅方向として説明する。また、前方を基準に左右を規定する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same components are designated by the same reference numerals. In addition, each drawing is schematically shown for easy understanding.
Further, in each of the following embodiments, the side with the face portion 112 of the head 102 is defined as the front, the opposite side thereof is defined as the rear, and the horizontal direction orthogonal to the front-rear direction is described as the width direction. In addition, the left and right are defined based on the front.

(実施の形態1)
(移動体の構成)
図1は、本発明の各実施の形態における移動体100の構成を示す模式的な斜視図である。
図2は、図1のA部の連結構造を模式的に示す平面図である。
図3は、本発明の実施の形態1に係る、頭部102と、位置検出装置104および顔検出装置105との傾動構造を説明するための側面視による模式的な断面図である。
(Embodiment 1)
(Composition of mobile body)
FIG. 1 is a schematic perspective view showing the configuration of the moving body 100 according to each embodiment of the present invention.
FIG. 2 is a plan view schematically showing the connection structure of the part A in FIG.
FIG. 3 is a schematic cross-sectional view taken from a side view for explaining the tilting structure of the head 102, the position detection device 104, and the face detection device 105 according to the first embodiment of the present invention.

移動体100は、図1および図2に示すように、胴体101と、頭部102と、頭部102を前傾させる頭部前傾部103と、移動体100の周辺に存在する検出対象として特に人の位置を検出する位置検出装置104と、移動体100の周辺に存在する人の顔を検出する顔検出装置105と、移動体100と人とが接触したことを検出する接触検出装置106と、移動体100の作動を制御するコントローラ107と、音声を発生可能な音声発生部108と、移動体100の幅方向両端からそれぞれ略前方方向に伸びた湾曲形状の腕部109と、各腕部109の先端(前端)に備えられた手部110と、腕部109の基端を上下に回動することで腕部109の先端を昇降可能な肩部111(右肩部111R,左肩部111L)と、顔部112とから構成される。 As shown in FIGS. 1 and 2, the moving body 100 includes a body 101, a head 102, a head forward tilting portion 103 that tilts the head 102 forward, and detection targets existing around the moving body 100. In particular, the position detection device 104 that detects the position of a person, the face detection device 105 that detects the face of a person existing around the moving body 100, and the contact detection device 106 that detects that the moving body 100 and a person have come into contact with each other. A controller 107 that controls the operation of the moving body 100, a sound generating unit 108 that can generate sound, a curved arm portion 109 that extends substantially forward from both ends of the moving body 100 in the width direction, and each arm. The hand portion 110 provided at the tip (front end) of the portion 109 and the shoulder portion 111 (right shoulder portion 111R, left shoulder portion) capable of raising and lowering the tip of the arm portion 109 by rotating the base end of the arm portion 109 up and down. 111L) and the face 112.

また、移動体100は自律移動を行うことが可能で、後述するように自律移動中に人へ働きかけることで移動経路を増やす行動(働きかけ制御)を行うことが可能である。 In addition, the moving body 100 can perform autonomous movement, and as will be described later, it is possible to perform an action (working control) to increase the movement route by working on a person during the autonomous movement.

なお、図1では、便宜的にコントローラ107は、宙に浮いた状態で示されているが、例えば胴体101の適宜の箇所に固定されている。 In FIG. 1, the controller 107 is shown floating in the air for convenience, but is fixed at an appropriate position on the fuselage 101, for example.

胴体101は、移動体100の本体であり、地面上を移動することが可能な機構を有している。具体的には、胴体101の底部に設けられた2つの車輪(図示略)を、水平方向に延在する軸心線を中心に回転させたり水平方向に向きを変えさせたりすることで、胴体101は、直進や旋回を行いながら移動することができる。 The body 101 is the main body of the moving body 100 and has a mechanism capable of moving on the ground. Specifically, the two wheels (not shown) provided at the bottom of the fuselage 101 are rotated around the axis line extending in the horizontal direction or turned in the horizontal direction to change the direction of the fuselage. The 101 can move while going straight or turning.

頭部102は、胴体101(ここでは胴体101の上部)に配置され、前述したように頭部前傾部103により前傾させることが可能である。具体的には、頭部102の下部の頭部前傾部103は、幅方向に平行な回転軸を介して胴体101に連結されている。この回転軸は胴体101が内蔵する電動モータM1(図1では省略)の出力軸に連結されている。頭部102は、この電動モータM1により駆動され、その回転軸を中心に傾動する。すなわち、頭部102は、人が頭を下げるように、頭部前傾部103において前傾できるようになっている。 The head 102 is arranged on the body 101 (here, the upper part of the body 101), and can be tilted forward by the head forward tilting portion 103 as described above. Specifically, the head forward tilting portion 103 below the head 102 is connected to the body 101 via a rotation axis parallel to the width direction. This rotating shaft is connected to the output shaft of the electric motor M1 (omitted in FIG. 1) built in the body 101. The head 102 is driven by the electric motor M1 and tilts about its rotation axis. That is, the head 102 can be tilted forward at the head forward tilting portion 103 so that a person lowers his head.

位置検出装置104は、移動体100の周辺に存在する人の位置を検出するものであり、具体的には例えば距離画像センサである。位置検出装置104に距離画像センサを使用した場合、距離画像センサからの距離画像データを用いることで、移動体100周辺の検出対象の中から人を判別し、その人との奥行き方向の距離を測ることで人の位置を検出できる。 The position detection device 104 detects the position of a person existing around the moving body 100, and specifically, for example, a distance image sensor. When a distance image sensor is used for the position detection device 104, a person is discriminated from the detection targets around the moving object 100 by using the distance image data from the distance image sensor, and the distance to the person in the depth direction is determined. The position of a person can be detected by measuring.

顔検出装置105は、移動体100の周辺に存在する人の顔を検出するものであり、具体的には、例えば、カメラと、このカメラで撮像した画像データを解析して移動体100周辺に存在する顔を検出する画像解析装置(図示略)とを備えて構成される。この構成によれば、カメラの投影面における顔の位置(顔検出位置)も検出できる。 The face detection device 105 detects the face of a person existing in the vicinity of the moving body 100. Specifically, for example, the camera and the image data captured by the camera are analyzed and the face is detected in the vicinity of the moving body 100. It is configured to include an image analysis device (not shown) that detects an existing face. According to this configuration, the position of the face (face detection position) on the projection surface of the camera can also be detected.

位置検出装置104と顔検出装置105とは、それぞれ、幅方向に長い傾動部材120に取り付けられている。傾動部材120は、上下に傾動可能に頭部102の上部に取り付けられている。また、傾動部材120、ひいては位置検出装置104および顔検出装置105は、頭部102が前傾するのと連動して同じ角度で後傾(頭部102とは逆方向に傾斜する)するように構成されている。すなわち、頭部102が前傾しても位置検出装置104と顔検出装置105との各検出方向が、頭部102の前傾を相殺するように傾斜する。これにより、位置検出装置104と顔検出装置105とが常に一定した方向に向くようにして、位置検出装置104と顔検出装置105との各検出が安定して行われるようにしている。 The position detection device 104 and the face detection device 105 are attached to the tilting member 120 which is long in the width direction, respectively. The tilting member 120 is attached to the upper part of the head 102 so as to be tiltable up and down. Further, the tilting member 120, and thus the position detection device 104 and the face detection device 105, are tilted backward at the same angle (tilted in the direction opposite to the head 102) in conjunction with the tilting of the head 102 forward. It is configured. That is, even if the head 102 tilts forward, the detection directions of the position detection device 104 and the face detection device 105 tilt so as to cancel the forward tilt of the head 102. As a result, the position detection device 104 and the face detection device 105 are always oriented in a constant direction so that each detection of the position detection device 104 and the face detection device 105 can be performed stably.

具体的には、図3に示すように、頭部前傾部103(図1参照)の回転軸と同軸上において、プーリ121(固定プーリ)が胴部101に固定されている。また、その固定プーリ121と同径且つ歯数の同じプーリ122(回転プーリ)が、フリーで回転できるようにベアリング(図示略)を介して頭部102に枢着されている。これらの固定プーリ121と回転プーリ122との間にはチェーンベルト123が掛け回され、回転プーリ122は、傾動部材120に取り付けられている。
このような構成により、頭部102を矢印a1で示すように前傾させると、固定プーリ121は回転しないので、頭部102と一体に前傾するチェーンベルト123により回転プーリ122が矢印a2で示すように回転駆動される。この結果、傾動部材120が、頭部102の前傾角度と同じ角度だけ後傾する。
なお、チェーンベルト123に替えてタイミングベルトを使用してもよい。タイミングベルトを使用した場合、ベルトの強度は低下するが作動時の静音性が向上する。
Specifically, as shown in FIG. 3, the pulley 121 (fixed pulley) is fixed to the body 101 on the same axis as the rotation axis of the head forward tilted portion 103 (see FIG. 1). Further, a pulley 122 (rotary pulley) having the same diameter and the same number of teeth as the fixed pulley 121 is pivotally attached to the head 102 via a bearing (not shown) so that it can rotate freely. A chain belt 123 is hung between the fixed pulley 121 and the rotary pulley 122, and the rotary pulley 122 is attached to the tilting member 120.
With such a configuration, when the head 102 is tilted forward as shown by the arrow a1, the fixed pulley 121 does not rotate. Therefore, the rotary pulley 122 is indicated by the arrow a2 by the chain belt 123 that tilts forward integrally with the head 102. It is driven to rotate. As a result, the tilting member 120 tilts backward by the same angle as the forward tilt angle of the head 102.
A timing belt may be used instead of the chain belt 123. When a timing belt is used, the strength of the belt is reduced, but the quietness during operation is improved.

図1に示すように、位置検出装置104と顔検出装置105とは、ケーブルC1によりコントローラ107と接続されている。位置検出装置104と顔検出装置105との各検出結果は、このケーブルC1を介してコントローラ107に出力される。 As shown in FIG. 1, the position detection device 104 and the face detection device 105 are connected to the controller 107 by a cable C1. Each detection result of the position detection device 104 and the face detection device 105 is output to the controller 107 via the cable C1.

接触検出装置106は、移動体100と人との接触を検出するものであり、具体的には例えば力覚センサである。接触検出装置106に力覚センサを使用した場合、力覚センサにより検出された力データから、人との接触力を算出することで、移動体100と人との接触を検出できる。 The contact detection device 106 detects the contact between the moving body 100 and a person, and specifically, for example, a force sensor. When a force sensor is used for the contact detection device 106, the contact force between the moving body 100 and the person can be detected by calculating the contact force with the person from the force data detected by the force sensor.

接触検出装置106は、ケーブルC2によりコントローラ107と接続されている。接触検出装置106の検出結果は、このケーブルC2を介してコントローラ107に出力される。 The contact detection device 106 is connected to the controller 107 by a cable C2. The detection result of the contact detection device 106 is output to the controller 107 via the cable C2.

音声発生部108は、移動体100から人へ声を掛けるために音声を発生するものであり、具体的には例えばスピーカーである。 The voice generation unit 108 generates voice in order to call a person from the moving body 100, and specifically, for example, a speaker.

各腕部109は、胴体101の幅方向両端部(肩部111)からそれぞれ前方方向に伸びた湾曲形状をしており、それらの先端(前端)はそれぞれ手部110として構成されている。これらの手部110は、幅方向中央で結合されている。詳しくは、各腕部109は、略円弧形状のものであり、その幅方向外側の基端部が肩部111に固定され、その幅方向中央の手部110が、図2に示すように接触検出装置106を介して結合されている。 Each arm portion 109 has a curved shape extending forward from both end portions (shoulder portions 111) in the width direction of the body 101, and their tips (front ends) are respectively configured as hand portions 110. These hand portions 110 are connected at the center in the width direction. Specifically, each arm portion 109 has a substantially arc shape, the base end portion on the outer side in the width direction is fixed to the shoulder portion 111, and the hand portion 110 in the center in the width direction contacts as shown in FIG. It is coupled via the detector 106.

各手部110は、腕部109の根元にある肩部111を用いて持ち上げる又は下げることが可能である。肩部111は、右肩部111Rと左肩部111Lとを備える。 Each hand 110 can be lifted or lowered using the shoulder 111 at the base of the arm 109. The shoulder portion 111 includes a right shoulder portion 111R and a left shoulder portion 111L.

右肩部111Rと左肩部111Lとは、それぞれ、幅方向に平行な回転軸を介して胴体101の幅方向端部に連結されている。これらの回転軸は、それぞれ、胴体101に内蔵された電動モータM2(図1では省略)の出力軸に結合されている。この電動モータM2により駆動されて、右肩部111Rと左肩部111Lとは、それらの回転軸を中心に傾動する。これにより、右肩部111Rと左肩部111Lとに基部を固定された腕部109の先端部の手部110を昇降できる。 The right shoulder portion 111R and the left shoulder portion 111L are respectively connected to the widthwise end portion of the body 101 via a rotation axis parallel to the widthwise direction. Each of these rotating shafts is coupled to an output shaft of an electric motor M2 (omitted in FIG. 1) built in the body 101. Driven by the electric motor M2, the right shoulder portion 111R and the left shoulder portion 111L are tilted about their rotation axes. As a result, the hand portion 110 at the tip of the arm portion 109 whose base is fixed to the right shoulder portion 111R and the left shoulder portion 111L can be raised and lowered.

顔部112は、頭部102の前面に配置されたディスプレイ112aを備え、このディスプレイ112aには、目を模した表示112b(以下「目部112b」と表記する)が映される。この目部112bの表示位置は逐次変更することが可能である。なお、目部112bは表示ではなく、位置変更可能であって目を模した物品により構成してもよい。 The face portion 112 includes a display 112a arranged in front of the head portion 102, and the display 112a displays a display 112b imitating an eye (hereinafter referred to as “eye portion 112b”). The display position of the eye portion 112b can be changed sequentially. The eye portion 112b may be formed of an article that is repositionable and imitates an eye, instead of being displayed.

(制御構成)
図4は、本発明の実施の形態1における移動体のコントローラの構成を示す模式的な制御ブロック図である。
図4に示すように、コントローラ107は、機能要素として、移動体100に対する周辺の人の状況(以下「周辺状況」という)を判断する状況判断部107aと、道を譲ってもらうように周辺の人に働きかけるための制御(働きかけ制御)を行う働きかけ制御部107bとを少なくとも備える。
状況判断部107aは、位置検出装置104,顔検出装置105および接触検出装置106の各検出結果に基づいて移動体100の周辺状況を判断する。
(Control configuration)
FIG. 4 is a schematic control block diagram showing a configuration of a mobile controller according to the first embodiment of the present invention.
As shown in FIG. 4, the controller 107 has, as functional elements, a situation determination unit 107a that determines the situation of people in the vicinity of the moving body 100 (hereinafter referred to as "surrounding situation"), and the surroundings so as to give way. It is provided with at least a working control unit 107b that performs control for working on a person (working control).
The situation determination unit 107a determines the surrounding situation of the moving body 100 based on the detection results of the position detection device 104, the face detection device 105, and the contact detection device 106.

働きかけ制御部107bは、位置検出装置104の検出結果に基づいて、周囲の人と接触せずに移動することの可能な経路がないと判断した場合に働きかけ制御を行う。具体的には、働きかけ制御部107bは、人間が他人に頼みごとをする際の動作を模した動作を移動体100が行うように、電動モータM1を介して頭部前傾部103を制御し、電動モータM2を介して肩部111を制御し、さらに、音声発生部108や胴体101の作動を制御する。 Based on the detection result of the position detection device 104, the action control unit 107b performs action control when it is determined that there is no path capable of moving without contacting surrounding people. Specifically, the working control unit 107b controls the head forward tilting portion 103 via the electric motor M1 so that the moving body 100 performs an operation that imitates an operation when a human makes a request to another person. The shoulder portion 111 is controlled via the electric motor M2, and the operation of the voice generating portion 108 and the body 101 is further controlled.

(フローチャート)
図5は、本発明の実施の形態1における移動体の状況判断に関するフローチャートである。
図6は、本実施の形態1における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図5および図6を参照して、状況判断および働きかけ制御の一例を説明しつつ、状況判断部107aおよび働きかけ制御部107bの機能についてさらに説明する。
(flowchart)
FIG. 5 is a flowchart relating to the determination of the situation of the moving body according to the first embodiment of the present invention.
FIG. 6 is a flowchart relating to the behavior of the moving body according to the first embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIGS. 5 and 6, the functions of the situation determination unit 107a and the action control unit 107b will be further described while explaining an example of the situation determination and the action control.

まず、状況判断部107aによる具体的な状況判断方法について図5を用いて説明する。 First, a specific situation determination method by the situation determination unit 107a will be described with reference to FIG.

状況判断部107aは、状況判断開始時に、状況変数A,状況変数Bおよび状況変数Cをそれぞれ0(零)にセットする(ステップS01)。その後、状況判断部107aは、移動体100が、働きかけ制御中であるか否かを判定する(ステップS02)。なお、働きかけ制御中であるか否かは、例えば、コントローラ107の内部信号である働きかけ制御を行う旨の指令を、働きかけ制御部107bが出力しているか否かで判定できる。 The situation determination unit 107a sets each of the situation variable A, the situation variable B, and the situation variable C to 0 (zero) at the start of the situation judgment (step S01). After that, the situation determination unit 107a determines whether or not the moving body 100 is working and controlling (step S02). Whether or not the working control is in progress can be determined by, for example, whether or not the working control unit 107b outputs a command to perform the working control, which is an internal signal of the controller 107.

働きかけ制御中で無い場合は、状況判断部107aは状況判断を終了する。状況判断部107aは、働きかけ制御中である場合は、位置検出装置104により判別された人の中から、設定した移動経路上にいる人を、接触による働きかけを行う対象(以下「接触対象」という)として特定し、位置検出装置104により接触対象と特定された人の位置(以下「接触対象位置」という)を検出する(ステップS03)。移動体100から接触対象位置までの距離(以下「接触対象距離」という)を算出し、あらかじめ設定した距離(以下「人接近距離」という)と比較する(ステップS04)。接触対象距離が人接近距離以下の場合は、状況変数Aを1にセットし(ステップS05)、接触対象距離が人接近距離よりも離れている場合は、状況変数Aを0(零)のままとする。 If the action control is not in progress, the situation determination unit 107a ends the situation determination. When the situation determination unit 107a is in the action control, the person who is on the set movement path from the persons determined by the position detection device 104 is the object to act by contact (hereinafter referred to as "contact object"). ), And the position of the person specified as the contact target by the position detection device 104 (hereinafter referred to as “contact target position”) is detected (step S03). The distance from the moving body 100 to the contact target position (hereinafter referred to as “contact target distance”) is calculated and compared with a preset distance (hereinafter referred to as “human approach distance”) (step S04). If the contact target distance is less than or equal to the human approach distance, the situation variable A is set to 1 (step S05), and if the contact target distance is farther than the person approach distance, the situation variable A remains 0 (zero). And.

次に、顔検出装置105により検出された顔検出位置と、接触対象位置とを比較し(ステップS06)、顔検出位置が接触対象位置と同じ場合は、状況変数Bを1にセットし(ステップS07)、顔検出位置が接触対象位置と異なる場合は、状況変数Bを0(零)のままとする。 Next, the face detection position detected by the face detection device 105 is compared with the contact target position (step S06), and if the face detection position is the same as the contact target position, the situation variable B is set to 1 (step). S07) If the face detection position is different from the contact target position, the situation variable B is left at 0 (zero).

次に、状況判断部107aは、移動体100と人との接触が接触検出装置106により検出されているか否かを確認し(ステップS08)、接触が検出されている場合は状況変数Cを1にセットし(ステップS09)、接触が検出されていない場合は状況変数Cを0(零)のままとする。
その後、ステップS02に戻り、働きかけ制御が終了するまで状況判断部107aは状況判断を続ける。
Next, the situation determination unit 107a confirms whether or not the contact between the moving body 100 and the person is detected by the contact detection device 106 (step S08), and if the contact is detected, the situation variable C is set to 1. (Step S09), and if no contact is detected, the situation variable C is left at 0 (zero).
After that, the process returns to step S02, and the situation determination unit 107a continues the situation determination until the action control is completed.

次に、働きかけ制御部107bによる具体的な制御方法について図6を用いて説明する。 Next, a specific control method by the working control unit 107b will be described with reference to FIG.

働きかけ制御部107bは、上述したように周囲の人と接触せずに移動できる経路がないと判断した場合に働きかけ制御を開始する。働きかけ制御が開始されると、状況判断部107aにより前記の図5に例示される状況判断が開始される(ステップS10)。その後、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS11)、移動体100を接触対象に向かって移動させる(ステップS12)。移動中に、状況判断部107aによりセットされた状況変数Aの値を監視し(ステップS13)、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)は、働きかけ制御部107bは、移動体100の移動を停止する。これにより、手部110が移動体100と一体に接触対象に近づく(ステップS14)。働きかけ制御部107bは、手部110を接触対象に近づける間、状況判断部の状況変数Bを監視する(ステップS15)。 As described above, the working control unit 107b starts working control when it is determined that there is no route that can be moved without contacting surrounding people. When the action control is started, the situation determination unit 107a starts the situation determination illustrated in FIG. 5 above (step S10). Then, the shoulder portion 111 is used to lift the hand portion 110 to a height between the waist and the shoulder of the contact target (step S11), and the moving body 100 is moved toward the contact target (step S12). While moving, the value of the situation variable A set by the situation determination unit 107a is monitored (step S13), and when the situation variable A is set to 1 (that is, when the contact target is approached to a person approaching distance or less). The working control unit 107b stops the movement of the moving body 100. As a result, the hand portion 110 approaches the contact target integrally with the moving body 100 (step S14). The action control unit 107b monitors the status variable B of the status determination unit while bringing the hand unit 110 closer to the contact target (step S15).

状況変数Bが1にセットされている場合、すなわち顔検出位置が接触対象位置と同じ場合)は、手部110を接触対象に近づけることを停止し(ステップS16)、頭部102を、頭部前傾部103で前傾させた後に元の状態(前傾前の起立状態)に戻し、同時に音声発生部108により接触対象に道を空けてもらうように声を発生させる。(ステップS17)。
ここで、状況変数Bが1にセットされている状況は、接触対象の顔が移動体100のほうを向いていることから顔検出位置が接触対象位置と同じになっている状況である。したがって、状況変数Bが1にセットされている場合に、頭部102を前傾させることは、接触対象である人が移動体100に気付いて移動体100を見たときに、移動体100が頭部102を前傾させることである。したがって、移動体100が頭部102を前傾させていることを、接触対象である人に確実に認識させることができる。
When the situation variable B is set to 1, that is, when the face detection position is the same as the contact target position), the hand portion 110 is stopped from approaching the contact target (step S16), and the head 102 is set to the head. After tilting forward with the forward leaning portion 103, the original state (standing state before leaning forward) is returned, and at the same time, the voice generating portion 108 generates a voice asking the contact target to make a way. (Step S17).
Here, the situation in which the situation variable B is set to 1 is a situation in which the face detection position is the same as the contact target position because the face to be contacted faces the moving body 100. Therefore, when the situation variable B is set to 1, tilting the head 102 forward means that when the person to be contacted notices the moving body 100 and looks at the moving body 100, the moving body 100 causes the moving body 100 to move forward. The head 102 is tilted forward. Therefore, it is possible to make sure that the person to be contacted recognizes that the moving body 100 tilts the head 102 forward.

このとき、頭部102の鉛直方向に対する前傾角度は、人が敬礼時に御辞儀する角度である30度が望ましいが、顔部112に表示している目部112bが人から見えるように、10度から30度の間が望ましい。また、顔部112に表示している目部112bは、頭部102の前傾中にも移動体100が人を認識していることを表現する為に、頭部102を前傾させる際には上方に移動させる。 At this time, the forward tilt angle of the head 102 with respect to the vertical direction is preferably 30 degrees, which is the angle at which a person bows at the time of salute, but 10 so that the eyes 112b displayed on the face 112 can be seen by the person. It is preferably between degrees and 30 degrees. Further, the eye portion 112b displayed on the face portion 112 is used when the head portion 102 is tilted forward in order to express that the moving body 100 recognizes a person even while the head portion 102 is tilted forward. Moves upwards.

その後、接触対象が道(移動体100が移動するためのスペース)を空けたかを位置検出装置104の検出結果に基づいて判定し(ステップS18)、道が空いた場合は、手部110を接触対象から離して空いた道を通って移動する(ステップS19)。道が開かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS20)。 After that, it is determined based on the detection result of the position detection device 104 whether or not the contact target has vacated the road (space for the moving body 100 to move) (step S18), and if the road is vacant, the hand portion 110 is contacted. Move along an empty road away from the target (step S19). If the road does not open, move the hand 110 away from the contact target and search for another movement route (step S20).

働きかけ制御部107bは、状況変数Bを監視している間、同時に状況変数Cも監視し(ステップS21)、状況変数Bが1にセットされる前に状況変数Cが1にセットされた場合(すなわち移動体100と接触対象との接触が検出された場合)、手部110を接触対象に近づけるための動作を停止する(ステップS22)。 While the action control unit 107b is monitoring the status variable B, the status variable C is also monitored at the same time (step S21), and the status variable C is set to 1 before the status variable B is set to 1 (step S21). That is, when the contact between the moving body 100 and the contact target is detected), the operation for bringing the hand portion 110 closer to the contact target is stopped (step S22).

その後、再度、状況変数Bの値を確認する(ステップS23)。その際、状況変数Bが1にセットされている場合は、頭部102を頭部前傾部103で前傾させた後、頭部102を頭部前傾部103で逆方向に傾斜させて元の状態に戻し、同時に音声発生部108により接触対象に向けて道を空けてもらうように音声を発生させ(ステップS17)、ステップS18に進む。その一方、ステップS23において状況変数Bが0のままの場合は、頭部102を前傾させたり音声発生部108から音声を発生させたりすることなくステップS18に進む。 After that, the value of the status variable B is confirmed again (step S23). At that time, when the situation variable B is set to 1, the head 102 is tilted forward by the head forward tilt portion 103, and then the head 102 is tilted in the opposite direction by the head forward tilt portion 103. The original state is restored, and at the same time, the voice generating unit 108 generates a voice so as to make a way toward the contact target (step S17), and the process proceeds to step S18. On the other hand, if the situation variable B remains 0 in step S23, the process proceeds to step S18 without tilting the head 102 forward or generating voice from the voice generating unit 108.

ステップS18では、接触対象が道を空けたか否かを確認し、道が空いた場合は、手部110を接触対象から離し、空いた道を通って移動する(ステップS19)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS20)。 In step S18, it is confirmed whether or not the contact target has vacated the road, and if the road is vacant, the hand portion 110 is separated from the contact target and moved through the vacant road (step S19). If the road is not open, move the hand 110 away from the contact target and search for another movement route (step S20).

(作用・効果)
本発明の実施の形態1の移動体100によれば、接触によって人へ働きかけを行う際に、移動体100は、あたかも人が頭を下げてお願いするように頭部102を前傾させることで、道を空けてほしい旨の意図を、人に明瞭に伝えることができる。したがって、道を空けてもらい易くなり、効率的に移動及びタスクを行える。
(Action / effect)
According to the moving body 100 of the first embodiment of the present invention, when the moving body 100 works on a person by contact, the moving body 100 tilts the head 102 forward as if the person bows and asks. , Can clearly convey to people the intention to clear the way. Therefore, it becomes easier for people to clear the road, and they can move and perform tasks efficiently.

(変形例)
(1)胴体101の移動装置として、クローラや、脚機構を使用してもよい。この場合、移動装置に車輪機構を使用するのと比較して、凹凸面などの不整地における移動を容易に行える。
(Modification example)
(1) A crawler or a leg mechanism may be used as a moving device for the body 101. In this case, as compared with using a wheel mechanism for the moving device, it is possible to easily move on an uneven surface such as an uneven surface.

(2)位置検出装置104としてステレオカメラを備えてもよい。位置検出装置104に距離画像センサを使用するのと比較して、一台のカメラを、位置検出装置104用のカメラと、顔検出装置105とのカメラとを兼用させることで、検出装置の台数を削減でき、移動体100のコストを削減できる。 (2) A stereo camera may be provided as the position detection device 104. Compared to using a distance image sensor for the position detection device 104, the number of detection devices can be increased by using one camera as both the camera for the position detection device 104 and the camera for the face detection device 105. Can be reduced, and the cost of the moving body 100 can be reduced.

(3)傾動部材120(ひいては位置検出装置104および顔検出装置105)を頭部102の前傾と連動させて後傾させる機構に、平行リンク機構を用いてもよい。具体的には、図7に示すように、互いに平行な前後一対のリンク124を、それらの下端を同じ高さで胴部101に枢着すると共にそれらの上端を同じ高さで傾動部材120の側面に枢着すればよい。これにより、頭部102の角度に拘わらず傾動部材120の角度を水平に保持できる。すなわち、傾動部材120を頭部102の前傾と連動させて後傾させることができる。
プーリとベルトを用いる場合と比較し、ベルトの張力調整を行う必要が無い為、組付け性を向上させることができる。
(3) A parallel link mechanism may be used as a mechanism for tilting the tilting member 120 (and thus the position detecting device 104 and the face detecting device 105) in conjunction with the forward tilting of the head 102. Specifically, as shown in FIG. 7, a pair of front and rear links 124 parallel to each other are pivotally attached to the body 101 at the same height at the lower ends thereof, and at the same height at the upper ends of the tilting member 120. You just have to stick to the side. As a result, the angle of the tilting member 120 can be held horizontally regardless of the angle of the head 102. That is, the tilting member 120 can be tilted backward in conjunction with the forward tilting of the head 102.
Compared with the case of using a pulley and a belt, it is not necessary to adjust the tension of the belt, so that the assembling property can be improved.

(4)接触検出装置106にタッチセンサを用いて、このタッチセンサにより移動体100と人との接触の有無のみを検出してもよい。この場合、接触検出装置106に力覚センサを用いる場合と比較して移動体100のコストを削減することができる。 (4) A touch sensor may be used in the contact detection device 106, and the touch sensor may detect only the presence or absence of contact between the moving body 100 and a person. In this case, the cost of the moving body 100 can be reduced as compared with the case where the force sensor is used for the contact detection device 106.

(5)位置検出装置104に、接触検出装置106の機能を担わせるようにしてもよい。この場合、位置検出装置104の距離画像データから解析した人と移動体100との距離を用いて、移動体100と人との接触を検出することができる。検出装置の台数を削減でき、移動体100のコストを削減できる。 (5) The position detection device 104 may be made to take on the function of the contact detection device 106. In this case, the contact between the moving body 100 and the person can be detected by using the distance between the person and the moving body 100 analyzed from the distance image data of the position detecting device 104. The number of detection devices can be reduced, and the cost of the mobile body 100 can be reduced.

(実施の形態2)
以下、図1,図4,図5および図8を参照して、本発明の実施の形態2について説明する。
本発明の実施の形態2の移動体100′は、状況変数Cが1にセットされると、頭部102を前傾させる点が、実施の形態1の移動体100と主に相違する。
(Embodiment 2)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS. 1, 4, 5, and 8.
The mobile body 100'of the second embodiment of the present invention is mainly different from the mobile body 100 of the first embodiment in that the head 102 is tilted forward when the situation variable C is set to 1.

すなわち、本実施形態の移動体100′では、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a′は、図5のステップS06及びステップS07を実施しないようにする。 That is, in the moving body 100'of the present embodiment, the head 102 is predetermined regardless of whether or not the situation variable B is set to 1 (whether or not the face detection position is the same as the contact target position). Tilt forward at the timing. Therefore, the moving body of the present embodiment may omit the face detection device 105 with respect to the configuration of the moving body 100 of the first embodiment. In this case, the situation determination unit 107a'used in place of the situation determination unit 107a of the first embodiment does not perform step S06 and step S07 of FIG.

図8は、本実施の形態2における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図8を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b′の機能について説明する。
FIG. 8 is a flowchart relating to the behavior of the moving body according to the second embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 8, the function of the working control unit 107b'used in place of the working control unit 107b of the first embodiment will be described while explaining the flow of the working control.

働きかけ制御部107b′が働きかけ制御を開始すると、状況判断部107a′により前述の状況判断が開始される(ステップS121)。その後、働きかけ制御部107b′は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS122)、移動体100を接触対象に向かって移動させる(ステップS123)。働きかけ制御部107b′は、移動中、状況変数Aの値を監視し(ステップS124)、状況変数Aが1にセットされている場合(すなわち移動体100′が接触対象に人接近距離以下まで近づいた場合)は、移動体100′の移動を停止させて手部110を接触対象に近づける(ステップS125)。 When the action control unit 107b'starts the action control, the situation determination unit 107a' starts the above-mentioned situation determination (step S121). After that, the working control unit 107b'lifts the hand 110 to the height between the waist and the shoulder of the contact target using the shoulder 111 (step S122), and moves the moving body 100 toward the contact target (step). S123). The working control unit 107b'monitors the value of the situation variable A during movement (step S124), and when the situation variable A is set to 1 (that is, the moving body 100'approaches the contact target to a distance equal to or less than the person approaching distance. In the case of), the movement of the moving body 100'is stopped and the hand portion 110 is brought closer to the contact target (step S125).

次に、働きかけ制御部107b′は状況変数Cを監視する(ステップS126)。働きかけ制御部107b′は、状況変数Cが1にセットされている場合(すなわち移動体100と接触対象との接触が検出された場合)は、手部110を接触対象に近づけることを停止し(ステップS127)、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108により声を発生させる。(ステップS128)。 Next, the working control unit 107b'monitors the situation variable C (step S126). When the situation variable C is set to 1 (that is, when the contact between the moving body 100 and the contact target is detected), the action control unit 107b'stops bringing the hand portion 110 close to the contact target (that is, when the contact target is detected). In step S127), the head 102 is once tilted forward by the head forward tilting portion 103 and then returned to the original state, and at the same time, a voice is generated by the voice generating unit 108 so that the contact target makes a way. (Step S128).

その後、働きかけ制御部107b′は、接触対象が道を空けたかを確認し(ステップS129)、道が空いた場合は、手部110を接触対象から離し、空いた道をとおって移動する(ステップS130)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS131)。
状況判断部107a′および働きかけ制御部107b′は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100′は、状況判断部107a′および働きかけ制御部107b′以外については、実施の形態1の移動体100と同様なので説明を省略する。
After that, the working control unit 107b'confirms whether the contact target has vacated the road (step S129), and if the road is vacant, the hand portion 110 is separated from the contact target and moves through the vacant road (step). S130). If the road is not open, move the hand 110 away from the contact target and search for another movement route (step S131).
The situation determination unit 107a'and the action control unit 107b' are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment in other respects, and thus the description thereof will be omitted. Further, since the moving body 100'is the same as the moving body 100 of the first embodiment except for the situation determination unit 107a'and the working control unit 107b', the description thereof will be omitted.

(作用・効果)
本発明の実施の形態2の移動体によれば、顔検出装置105を省略すること可能である。顔検出装置105を省略した場合には、移動体100′のコストを削減でき、さらに、状況判断において顔検出装置105の検出結果に基づく処理ステップ数を削減できるので、状況判断を迅速に行うことができる。
(Action / effect)
According to the moving body of the second embodiment of the present invention, the face detection device 105 can be omitted. When the face detection device 105 is omitted, the cost of the moving body 100'can be reduced, and the number of processing steps based on the detection result of the face detection device 105 can be reduced in the situation judgment, so that the situation judgment can be performed quickly. Can be done.

(実施の形態3)
以下、図1,図4,図5および図9を参照して、本発明の実施の形態3について説明する。
本発明の実施の形態3の移動体100″は、接触対象に人接近距離以下まで近づいて状況変数Aが1にセットされると頭部102を前傾させる点が、実施の形態1の移動体100とが主に相違する。
(Embodiment 3)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 1, 4, 5, and 9.
In the moving body 100 ″ of the third embodiment of the present invention, the movement of the first embodiment is that the head 102 is tilted forward when the situation variable A is set to 1 when the moving body 100 ″ approaches the contact target to a distance equal to or less than a person. Mainly different from body 100.

すなわち、本実施形態の移動体100″では、実施の形態2と同様に、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体100″は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a″は、図5のステップS06及びステップS07を実施しないようにする。 That is, in the moving body 100 ″ of the present embodiment, as in the second embodiment, regardless of whether or not the situation variable B is set to 1 (whether or not the face detection position is the same as the contact target position). Instead, the head 102 is tilted forward at a predetermined timing. Therefore, the moving body 100 ″ of the present embodiment may omit the face detection device 105 with respect to the configuration of the moving body 100 of the first embodiment. .. In this case, the situation determination unit 107a ″ used in place of the situation determination unit 107a of the first embodiment does not perform step S06 and step S07 of FIG.

図9は、本実施の形態3における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図9を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b″の機能について説明する。
FIG. 9 is a flowchart relating to the behavior of the moving body according to the third embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 9, the function of the working control unit 107b ″ used in place of the working control unit 107b of the first embodiment will be described while explaining the flow of the working control.

働きかけ制御部107b″の制御が働きかけ制御を開始すると、状況判断部107a″により前述の状況判断が開始される(ステップS32)。その後、働きかけ制御部107b″は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS33)、移動体100を接触対象に向かって移動させる(ステップS34)。働きかけ制御部107b″は、移動中、状況変数Aの値を監視する(ステップS35)。働きかけ制御部107b″は、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)、移動体100の移動を停止させる(ステップS36)。そして、働きかけ制御部107b″は、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108から声を発生させる(ステップS37)。 When the control of the working control unit 107b "starts the working control, the situation determination unit 107a" starts the above-mentioned situation determination (step S32). After that, the working control unit 107b "uses the shoulder portion 111 to lift the hand portion 110 to a height between the waist and the shoulder of the contact target (step S33), and moves the moving body 100 toward the contact target (step). S34). The working control unit 107b ″ monitors the value of the status variable A during movement (step S35). The action control unit 107b ″ stops the movement of the moving body 100 when the situation variable A is set to 1 (that is, when the contact target is approached to a person approaching distance or less) (step S36), and the action control unit 107b ″. The unit 107b ″ returns the head 102 to its original state after being tilted forward by the head forward tilting portion 103, and at the same time generates a voice from the voice generating unit 108 so as to have the contact target clear the way ( Step S37).

次に、働きかけ制御部107b″は、手部110を接触対象に近づけ(ステップS38)、状況変数Cを監視し(ステップS39)、状況変数Cが1にセットされている場合は手部110を接触対象に近づけることを停止する(ステップS40)。
その後、働きかけ制御部107b″は、接触対象が道を空けたかを確認し(ステップS41)、道が空いた場合は、手部110を接触対象から離して空いた道をとおって移動する(ステップ42)。道が空かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS43)。
状況判断部107a″および働きかけ制御部107b″は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100″は、状況判断部107a″および働きかけ制御部107b″以外については、実施の形態1の移動体100と同様なので説明を省略する。
Next, the working control unit 107b ″ brings the hand unit 110 closer to the contact target (step S38), monitors the situation variable C (step S39), and if the situation variable C is set to 1, the hand unit 110 is moved. Stopping approaching the contact target (step S40).
After that, the working control unit 107b ″ confirms whether the contact target has vacated the road (step S41), and if the road is vacant, the hand portion 110 is separated from the contact target and moves through the vacant road (step). 42). If the road is not open, move the hand 110 away from the contact target and search for another movement route (step S43).
The situation determination unit 107a ″ and the action control unit 107b ″ are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment in other respects, and thus the description thereof will be omitted. Further, the moving body 100 ″ is the same as the moving body 100 of the first embodiment except for the situation determination unit 107a ″ and the working control unit 107b ″, and thus the description thereof will be omitted.

本発明の実施の形態3の移動体によれば、実施の形態2と同様の効果が得られる。 According to the moving body of the third embodiment of the present invention, the same effect as that of the second embodiment can be obtained.

(その他)
上述した各実施の形態では、働きかけ制御において、頭部102を前傾させることに加えて、人に触れるようにしたが、人に触れる動作を省略してもよい。
(Other)
In each of the above-described embodiments, in the action control, in addition to tilting the head 102 forward, the head 102 is touched, but the action of touching the person may be omitted.

本発明の移動体は、人混みの中で自律移動が必要な場合に有用である。 The mobile body of the present invention is useful when autonomous movement is required in a crowd.

100,100′,100″ 移動体
101 胴体
102 頭部
103 頭部前傾部
104 位置検出装置
105 顔検出装置
106 接触検出装置
107 コントローラ
107a,107a′,107a″ 状況判断部
107b,107b′,107b″ 働きかけ制御部
108 音声発生部
109 腕部
110 手部
111 肩部
111L 左肩部
111R 右肩部
112 顔部
112a ディスプレイ
112b 目部
120 傾動部材
121 固定プーリ
122 回転プーリ
123 チェーンベルト
124 リンク
M1,M2 電動モータ
100, 100', 100 "moving body 101 body 102 head 103 head forward tilted part 104 position detection device 105 face detection device 106 contact detection device 107 controller 107a, 107a', 107a" situation judgment unit 107b, 107b', 107b ″ Working control unit 108 Sound generation unit 109 Arm 110 Hand 111 Shoulder 111L Left shoulder 111R Right shoulder 112 Face 112a Display 112b Eye 120 Tilt member 121 Fixed pulley 122 Rotating pulley 123 Chain belt 124 Link M1, M2 Electric motor

Claims (15)

頭部と、
前記頭部を前傾させる頭部前傾部と、
手部と、
前記手部を持ち上げる肩部と、
検出対象の位置を検出する位置検出装置と、
前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、
前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた移動体であって、
前記働きかけ制御は、道を譲ってもらうように前記移動体の周辺の人に働きかける動作を行う制御であり、
前記働きかけ制御部は、前記働きかけ制御を開始すると、前記肩部を用いて前記手部を持ち上げ、前記移動体を接触対象に向かって移動させることを特徴とした移動体。
With the head
The head tilted portion that tilts the head forward and
With the hand
The shoulder that lifts the hand and
A position detection device that detects the position of the detection target and
A situation judgment unit that judges the surrounding situation using the detection result of the position detection device, and
A moving body including a working control unit that performs working control including at least control of tilting the head forward according to the surrounding situation.
The action control is a control that acts to work on people around the moving body so as to give way.
The working control unit is a moving body characterized in that when the working control is started, the hand portion is lifted by using the shoulder portion and the moving body is moved toward a contact target.
前記位置検出装置が、前記検出対象として人を判別して検出することを特徴とした請求項1に記載の移動体。 The moving body according to claim 1, wherein the position detecting device identifies and detects a person as the detection target. 人の顔を検出する顔検出装置を備え、前記状況判断部は前記顔検出装置の検出結果を用いて前記周辺状況を判断することを特徴とした請求項2に記載の移動体。 The moving body according to claim 2, further comprising a face detection device for detecting a human face, wherein the situation determination unit determines the surrounding situation using the detection result of the face detection device. 前記検出対象と接触したことを検出する接触検出装置を備え、前記状況判断部は前記接触検出装置の検出結果を用いて前記周辺状況を判断することを特徴とした請求項1に記載の移動体。 The moving body according to claim 1, further comprising a contact detection device that detects contact with the detection target, and the situation determination unit determines the surrounding situation using the detection result of the contact detection device. .. 前記状況判断部が、前記位置検出装置により検出した検知対象の位置が、あらかじめ設定された範囲内に存在していると判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項1に記載の移動体。 When the situation determination unit determines that the position of the detection target detected by the position detection device exists within a preset range, the action control unit moves the head forward tilt portion to the head. The moving body according to claim 1, wherein the head is tilted forward. 前記状況判断部が、前記位置検出装置により検出した人の位置があらかじめ設定された範囲内に存在している判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項2に記載の移動体。 When the situation determination unit determines that the position of the person detected by the position detection device exists within a preset range, the action control unit presses the head at the head forward tilting portion. The moving body according to claim 2, wherein the moving body is tilted forward. 前記状況判断部が、前記顔検出装置が人の顔を検出したと判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項3に記載の移動体。 The claim is characterized in that, when the situation determination unit determines that the face detection device has detected a human face, the action control unit tilts the head forward at the head forward tilting portion. The moving body according to 3. 前記状況判断部が、前記接触検出装置が人との接触を検出したと判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項4に記載の移動体。 A claim characterized in that, when the situation determination unit determines that the contact detection device has detected contact with a person, the action control unit tilts the head forward at the head forward tilting portion. Item 4. The moving body according to item 4. 前記位置検出装置を前記頭部に備え、前記頭部前傾部で前記頭部を前傾させる際に、前記位置検出装置の検出方向を、前記頭部の前傾角度と同じ大きさで逆方向に傾斜させることを特徴とした請求項1に記載の移動体。 When the position detecting device is provided on the head and the head is tilted forward at the head tilted portion, the detection direction of the position detecting device is reversed by the same magnitude as the forward tilt angle of the head. The moving body according to claim 1, wherein the moving body is inclined in a direction. 前記顔検出装置を前記頭部に備え、前記頭部前傾部で前記頭部を前傾させる際に、前記顔検出装置の検出方向を、前記頭部の前傾角度と同じ大きさで逆方向に傾斜させることを特徴とした請求項3に記載の移動体。 When the face detection device is provided on the head and the head is tilted forward at the head forward tilt portion, the detection direction of the face detection device is reversed by the same magnitude as the forward tilt angle of the head. The moving body according to claim 3, wherein the moving body is inclined in a direction. 音声を発生可能な音声発生部を備え、前記頭部前傾部で前記移動体の頭部を前傾させる際に、前記音声発生部が音声を発生することを特徴とした請求項1〜10の何れか1項に記載の移動体。 Claims 1 to 10 include a voice generating unit capable of generating voice, and the voice generating unit generates voice when the head of the moving body is tilted forward by the head forward tilting portion. The moving body according to any one of the above items. 前記頭部を支持する胴部と、
前記胴部の幅方向両端から前方に伸び、先端に前記手部を備えた腕部とを備え、
前記働きかけ制御部は、前記手部を人に接触させることを特徴とした請求項1〜11の何れか1項に記載の移動体。
The torso that supports the head and
Extending forwardly from opposite widthwise ends of the barrel, and a arm portion provided with the hand portion to the tip,
The moving body according to any one of claims 1 to 11, wherein the working control unit is characterized in that the hand portion is brought into contact with a person.
前記肩部は、前記腕部を、前記幅方向に平行な軸心線を中心に回転させ、
前記働きかけ制御部は、前記手部を人に接触させる際に、前記肩部の作動を制御することで、前記手部の高さ方向の位置を、前記検出対象の高さに合わせて調整することを特徴とした請求項12に記載の移動体。
The shoulder portion rotates the arm portion around an axial core line parallel to the width direction .
The action control unit controls the operation of the shoulder portion when the hand portion is brought into contact with a person, thereby adjusting the position of the hand portion in the height direction according to the height of the detection target. The moving body according to claim 12, wherein the moving body is characterized in that.
前記頭部に、少なくとも目を模した目部を有する顔部を備え、
前記頭部前傾部により前記頭部を前傾させる際に、前記目部を前記顔部の上部に移動することを特徴とした請求項1〜13の何れか1項に記載の移動体。
The head is provided with a face having at least eyes that imitate the eyes.
The moving body according to any one of claims 1 to 13, wherein when the head is tilted forward by the head forward tilting portion, the eye portion is moved to the upper part of the face portion.
自律して移動可能であり、
前記働きかけ制御部は、前記位置検出装置の検出結果に基づいて、周囲の検知対象と接触せずに移動できないと判断した場合に前記働きかけ制御を行うことを特徴とした請求項1〜14の何れか1項に記載の移動体。
Can move autonomously
Any of claims 1 to 14, wherein the working control unit performs the working control when it is determined that the working control unit cannot move without contacting a surrounding detection target based on the detection result of the position detecting device. Or the moving body according to item 1.
JP2017181674A 2017-09-21 2017-09-21 Mobile Active JP6901360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017181674A JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017181674A JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Publications (2)

Publication Number Publication Date
JP2019055463A JP2019055463A (en) 2019-04-11
JP6901360B2 true JP6901360B2 (en) 2021-07-14

Family

ID=66106837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017181674A Active JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Country Status (1)

Country Link
JP (1) JP6901360B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7009320B2 (en) * 2017-09-21 2022-01-25 パナソニック株式会社 Mobile
CN117412839A (en) * 2021-06-10 2024-01-16 索尼集团公司 Nursing robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002361585A (en) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab Communication robot
JP2004174681A (en) * 2002-11-28 2004-06-24 Matsushita Electric Ind Co Ltd Robot
JP2005335001A (en) * 2004-05-26 2005-12-08 Sony Corp Robot control device and method, recording medium, and program

Also Published As

Publication number Publication date
JP2019055463A (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP4197052B1 (en) Leg wheel type moving mechanism
JP6901360B2 (en) Mobile
AU2019201719B2 (en) Systems and methods for providing synchronized movements of a powered wheelchair and an exoskeleton
CN112041510A (en) Excavator and information processing device
JPWO2007132571A1 (en) robot
US9423795B2 (en) Inverted pendulum type vehicle
JP2005211462A (en) Self-propelled cleaner
JPWO2015041128A1 (en) Wheelbarrow
KR20130030913A (en) Tactile sense feedback apparatus and method for operating tactile sense feedback apparatus
JP2022518880A (en) Methods, devices, robots that control the robot to escape from the trapped state
JP2004291799A (en) Movable carriage
KR20130100622A (en) Sphere-shape platform capable of omnidirectional mobility
US9724261B2 (en) Handcart
JP2019136853A (en) Motion assistance device, control parameter adjustment device, and control parameter adjustment method
JP2008056192A (en) Unstable moving body and method of controlling movement of the same
JPWO2015019982A1 (en) Wheelbarrow
JP2015139867A (en) robot
JP2008087142A (en) Sole structure of leg type mobile robot, leg type mobile robot and walking control method of leg type mobile robot
JP7295654B2 (en) self-propelled robot
TWI661978B (en) Vehicle moving device, moving method and vehicle device using the same
JP6245244B2 (en) Pedestrian drive device and method for controlling walker drive device
KR20200107751A (en) Power assisted wheelchair platform and driving method for the power assisted wheelchair platform
JP2018187050A (en) Walking aid
JP6233265B2 (en) Inverted two-wheeled mobile system
JP6429230B2 (en) Turning speed control device for traveling device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R151 Written notification of patent or utility model registration

Ref document number: 6901360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151