JP2019055463A - Movable body - Google Patents

Movable body Download PDF

Info

Publication number
JP2019055463A
JP2019055463A JP2017181674A JP2017181674A JP2019055463A JP 2019055463 A JP2019055463 A JP 2019055463A JP 2017181674 A JP2017181674 A JP 2017181674A JP 2017181674 A JP2017181674 A JP 2017181674A JP 2019055463 A JP2019055463 A JP 2019055463A
Authority
JP
Japan
Prior art keywords
head
moving body
detection device
action control
body according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017181674A
Other languages
Japanese (ja)
Other versions
JP6901360B2 (en
Inventor
紀章 今岡
Noriaki Imaoka
紀章 今岡
健 安藤
Takeshi Ando
健 安藤
一磨 北澤
Kazuma Kitazawa
一磨 北澤
瑞穂 榊原
Mizuho Sakakibara
瑞穂 榊原
祥平 中塩屋
Shohei Nakashioya
祥平 中塩屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2017181674A priority Critical patent/JP6901360B2/en
Publication of JP2019055463A publication Critical patent/JP2019055463A/en
Application granted granted Critical
Publication of JP6901360B2 publication Critical patent/JP6901360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a movable body that can clearly notify someone of a person's intention to want someone to get out of someone's way and that can efficiently move by making someone get out of someone's way.SOLUTION: A movable body includes: a head; a head forward-tilting part that tilts the head forward; a position detection detector 104 that detects a position of a detection object; a condition determination part 107a that determines surrounding conditions by using the result of detection by the position detection detector 104; and an influence control part 107b that performs influence control, including at least control for tilting the head forward, in accordance with the surrounding conditions.SELECTED DRAWING: Figure 4

Description

本発明は、移動体に関する。   The present invention relates to a moving body.

従来、自律型のロボット(移動体の一例)は、人と接触しないように経路を決定しながら移動する。しかしながら、ロボットが、人混みの中を移動する場合、人と接触する可能性が高い。そのため、ロボットが自らのタスクを効率的に実行できないおそれがある。   Conventionally, an autonomous robot (an example of a moving body) moves while determining a route so as not to contact a person. However, when a robot moves in a crowd, there is a high possibility of contact with a person. For this reason, there is a possibility that the robot cannot efficiently execute its own task.

そこで、非特許文献1には、ロボットがあえて積極的に人と接触し、道を空けてもらう働きかけを実施することにより、人混みの中でも効率的にタスクを実行できるようにする方法が記載されている。   Therefore, Non-Patent Document 1 describes a method for enabling a robot to perform tasks efficiently even in a crowded environment by actively engaging with people and encouraging them to leave the way. Yes.

非特許文献1に開示された技術では、ロボットが2自由度のロボットアームを双腕で搭載しており、人と接触せずに移動できる経路が無い場合に、ロボット自らが片腕を人に触れることで道を空けてもらうための動作をする。このようにロボットが人に接触することでロボットの移動可能な経路が増え、ロボットがその経路を通ることで、タスク実行の効率化を図ることができる。   In the technique disclosed in Non-Patent Document 1, when the robot has a two-degree-of-freedom robot arm and there is no path that can move without contacting the person, the robot itself touches the person with one arm. In order to get a way out. In this way, the robot can be moved by increasing the number of routes through which the robot comes into contact with the person, and the task can be efficiently executed by passing through the route.

Moondeep C.Shretha et al., “Using contact-based inducement for efficient navigation in a congested environment”, Robot and Human Interactive Communication, Aug31 -Sep4. 2015Moondeep C. Shretha et al., “Using contact-based inducement for efficient navigation in a congested environment”, Robot and Human Interactive Communication, Aug31 -Sep4. 2015

しかしながら、非特許文献1に開示されているロボットは、道を空けてもらうための動作として、腕で人に触れるだけなので、腕を触れられた人が、ロボットの動作の意図を汲み取れるとは限らない。このため、ロボットに触れられた人が道を空けない場合もあり、その場合、ロボットは移動することができずタスクを効率的に実行できないおそれがある。   However, since the robot disclosed in Non-Patent Document 1 only touches a person with an arm as an action to get a way out, the person who touched the arm may not always get the intention of the action of the robot. Absent. For this reason, a person touching the robot may not be able to leave the road, and in this case, the robot may not move and the task may not be executed efficiently.

本発明は、このような課題を解決するもので、道を空けてほしい旨の意図を人に明瞭に伝えることができ、道を空けてもらうことで効率的に移動することが可能な移動体を提供することを目的とする。   The present invention solves such a problem, and can clearly convey the intention of wanting a way to a person, and can move efficiently by having the way left. The purpose is to provide.

上記目的を達成するために、本発明における移動体は、頭部と、前記頭部を前傾させる頭部前傾部と、検出対象の位置を検出する位置検出装置と、前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えたことを特徴とする。   In order to achieve the above object, a moving body according to the present invention includes a head, a head tilting unit that tilts the head forward, a position detection device that detects a position of a detection target, and the position detection device. A situation determination unit that determines a surrounding situation using a detection result, and an action control unit that performs an action control including at least control for tilting the head forward according to the surrounding situation. .

本発明の移動体によれば、あたかも人が頭を下げて頼みごとをするように頭部を前傾することで、道を空けてほしい旨の意図を明瞭に人に伝えることができる。したがって、移動体は、人に道を空けてもらうことで効率的に移動することが可能となる。   According to the moving body of the present invention, it is possible to clearly convey to the person the intention that the person wants to leave the road by tilting the head forward as if the person lowered his / her head and made a request. Therefore, the moving body can move efficiently by having a person leave the road.

本発明の各実施の形態における移動体の構成を示す模式的な斜視図The typical perspective view which shows the structure of the mobile body in each embodiment of this invention 図1のA部の連結構造を模式的に示す平面図The top view which shows typically the connection structure of the A section of FIG. 本発明の実施の形態1に係る位置検出装置および顔検出装置の傾動構造を説明するための側面視による模式的な断面図Typical sectional drawing by side view for demonstrating the tilt structure of the position detection apparatus and face detection apparatus which concern on Embodiment 1 of this invention 本発明の各実施の形態における移動体のコントローラの構成を示す模式的な制御ブロック図Schematic control block diagram showing a configuration of a moving body controller in each embodiment of the present invention 本発明の実施の形態1における移動体の状況判断に関するフローチャートThe flowchart regarding the situation judgment of the moving body in Embodiment 1 of this invention 本実施の形態1における移動体の挙動に関するフローチャートFlowchart relating to the behavior of the moving object in the first embodiment 本発明に実施の形態1に係る位置検出装置および顔検出装置の傾動構造の変形例を説明するための側面視による模式的な断面図Typical sectional drawing by side view for demonstrating the modification of the tilt structure of the position detection apparatus and face detection apparatus which concern on Embodiment 1 of this invention 本実施の形態2における移動体の挙動に関するフローチャートFlowchart relating to the behavior of the moving object in the second embodiment 本実施の形態3における移動体の挙動に関するフローチャートFlowchart relating to the behavior of the moving object in the third embodiment

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、同じ構成要素には同じ符号を付している。また、各図面は、理解しやすいように模式的に示している。
また、以下の各実施の形態では、頭部102の顔部112のある側を前方、その反対側を後方とし、前後方向と直交する水平方向を幅方向として説明する。また、前方を基準に左右を規定する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same component. Each drawing is schematically shown for easy understanding.
Further, in each of the following embodiments, the side where the face 112 of the head 102 is present will be described as the front, the opposite side as the rear, and the horizontal direction orthogonal to the front-rear direction will be described as the width direction. Also, the left and right sides are defined based on the front.

(実施の形態1)
(移動体の構成)
図1は、本発明の各実施の形態における移動体100の構成を示す模式的な斜視図である。
図2は、図1のA部の連結構造を模式的に示す平面図である。
図3は、本発明の実施の形態1に係る、頭部102と、位置検出装置104および顔検出装置105との傾動構造を説明するための側面視による模式的な断面図である。
(Embodiment 1)
(Configuration of mobile body)
FIG. 1 is a schematic perspective view showing a configuration of a moving body 100 in each embodiment of the present invention.
FIG. 2 is a plan view schematically showing the connection structure of the part A in FIG.
FIG. 3 is a schematic cross-sectional view in side view for explaining a tilting structure of the head 102, the position detection device 104, and the face detection device 105 according to the first embodiment of the present invention.

移動体100は、図1および図2に示すように、胴体101と、頭部102と、頭部102を前傾させる頭部前傾部103と、移動体100の周辺に存在する検出対象として特に人の位置を検出する位置検出装置104と、移動体100の周辺に存在する人の顔を検出する顔検出装置105と、移動体100と人とが接触したことを検出する接触検出装置106と、移動体100の作動を制御するコントローラ107と、音声を発生可能な音声発生部108と、移動体100の幅方向両端からそれぞれ略前方方向に伸びた湾曲形状の腕部109と、各腕部109の先端(前端)に備えられた手部110と、腕部109の基端を上下に回動することで腕部109の先端を昇降可能な肩部111(右肩部111R,左肩部111L)と、顔部112とから構成される。   As shown in FIGS. 1 and 2, the moving body 100 includes a body 101, a head 102, a head forward tilting portion 103 that tilts the head 102 forward, and detection targets that exist around the moving body 100. In particular, a position detection device 104 that detects the position of a person, a face detection device 105 that detects a human face existing around the moving body 100, and a contact detection device 106 that detects that the moving body 100 is in contact with a person. A controller 107 that controls the operation of the moving body 100, a sound generating section 108 that can generate sound, a curved arm section 109 that extends substantially forward from both ends in the width direction of the moving body 100, and each arm The hand part 110 provided at the front end (front end) of the part 109 and the shoulder part 111 (the right shoulder part 111R, the left shoulder part) which can be moved up and down by rotating the base end of the arm part 109 up and down 111L) and the face 11 Composed of a.

また、移動体100は自律移動を行うことが可能で、後述するように自律移動中に人へ働きかけることで移動経路を増やす行動(働きかけ制御)を行うことが可能である。   In addition, the moving body 100 can perform autonomous movement, and can perform an action (working control) for increasing a movement route by acting on a person during autonomous movement, as will be described later.

なお、図1では、便宜的にコントローラ107は、宙に浮いた状態で示されているが、例えば胴体101の適宜の箇所に固定されている。   In FIG. 1, for convenience, the controller 107 is shown floating in the air, but is fixed to an appropriate portion of the body 101, for example.

胴体101は、移動体100の本体であり、地面上を移動することが可能な機構を有している。具体的には、胴体101の底部に設けられた2つの車輪(図示略)を、水平方向に延在する軸心線を中心に回転させたり水平方向に向きを変えさせたりすることで、胴体101は、直進や旋回を行いながら移動することができる。   The body 101 is a main body of the moving body 100 and has a mechanism capable of moving on the ground. Specifically, the fuselage is obtained by rotating two wheels (not shown) provided on the bottom of the fuselage 101 around an axial line extending in the horizontal direction or changing the direction in the horizontal direction. 101 can move while performing straight ahead or turning.

頭部102は、胴体101(ここでは胴体101の上部)に配置され、前述したように頭部前傾部103により前傾させることが可能である。具体的には、頭部102の下部の頭部前傾部103は、幅方向に平行な回転軸を介して胴体101に連結されている。この回転軸は胴体101が内蔵する電動モータM1(図1では省略)の出力軸に連結されている。頭部102は、この電動モータM1により駆動され、その回転軸を中心に傾動する。すなわち、頭部102は、人が頭を下げるように、頭部前傾部103において前傾できるようになっている。   The head 102 is disposed on the body 101 (here, the upper part of the body 101), and can be tilted forward by the head forward tilting portion 103 as described above. Specifically, the head forward tilting portion 103 below the head portion 102 is connected to the body 101 via a rotation axis parallel to the width direction. This rotating shaft is connected to the output shaft of an electric motor M1 (not shown in FIG. 1) built in the body 101. The head 102 is driven by the electric motor M1 and tilts about its rotation axis. That is, the head 102 can be tilted forward at the head forward tilting portion 103 so that the person lowers his / her head.

位置検出装置104は、移動体100の周辺に存在する人の位置を検出するものであり、具体的には例えば距離画像センサである。位置検出装置104に距離画像センサを使用した場合、距離画像センサからの距離画像データを用いることで、移動体100周辺の検出対象の中から人を判別し、その人との奥行き方向の距離を測ることで人の位置を検出できる。   The position detection device 104 detects the position of a person existing around the moving body 100, and is specifically a distance image sensor, for example. When a distance image sensor is used for the position detection device 104, the distance image data from the distance image sensor is used to distinguish a person from detection targets around the moving body 100, and the distance in the depth direction with the person is determined. The position of a person can be detected by measuring.

顔検出装置105は、移動体100の周辺に存在する人の顔を検出するものであり、具体的には、例えば、カメラと、このカメラで撮像した画像データを解析して移動体100周辺に存在する顔を検出する画像解析装置(図示略)とを備えて構成される。この構成によれば、カメラの投影面における顔の位置(顔検出位置)も検出できる。   The face detection device 105 detects a human face existing around the moving body 100. Specifically, for example, the face detecting device 105 analyzes the image data captured by the camera and the camera and moves around the moving body 100. And an image analysis device (not shown) for detecting an existing face. According to this configuration, the position of the face (face detection position) on the projection plane of the camera can also be detected.

位置検出装置104と顔検出装置105とは、それぞれ、幅方向に長い傾動部材120に取り付けられている。傾動部材120は、上下に傾動可能に頭部102の上部に取り付けられている。また、傾動部材120、ひいては位置検出装置104および顔検出装置105は、頭部102が前傾するのと連動して同じ角度で後傾(頭部102とは逆方向に傾斜する)するように構成されている。すなわち、頭部102が前傾しても位置検出装置104と顔検出装置105との各検出方向が、頭部102の前傾を相殺するように傾斜する。これにより、位置検出装置104と顔検出装置105とが常に一定した方向に向くようにして、位置検出装置104と顔検出装置105との各検出が安定して行われるようにしている。   The position detection device 104 and the face detection device 105 are each attached to a tilting member 120 that is long in the width direction. The tilting member 120 is attached to the upper part of the head 102 so as to be tiltable up and down. Further, the tilting member 120, and thus the position detection device 104 and the face detection device 105, are tilted backward (inclined in the direction opposite to the head 102) at the same angle in conjunction with the head 102 tilting forward. It is configured. That is, even if the head 102 is tilted forward, the detection directions of the position detection device 104 and the face detection device 105 are tilted so as to cancel the forward tilt of the head 102. As a result, the position detection device 104 and the face detection device 105 are always directed in a constant direction so that each detection by the position detection device 104 and the face detection device 105 can be performed stably.

具体的には、図3に示すように、頭部前傾部103(図1参照)の回転軸と同軸上において、プーリ121(固定プーリ)が胴部101に固定されている。また、その固定プーリ121と同径且つ歯数の同じプーリ122(回転プーリ)が、フリーで回転できるようにベアリング(図示略)を介して頭部102に枢着されている。これらの固定プーリ121と回転プーリ122との間にはチェーンベルト123が掛け回され、回転プーリ122は、傾動部材120に取り付けられている。
このような構成により、頭部102を矢印a1で示すように前傾させると、固定プーリ121は回転しないので、頭部102と一体に前傾するチェーンベルト123により回転プーリ122が矢印a2で示すように回転駆動される。この結果、傾動部材120が、頭部102の前傾角度と同じ角度だけ後傾する。
なお、チェーンベルト123に替えてタイミングベルトを使用してもよい。タイミングベルトを使用した場合、ベルトの強度は低下するが作動時の静音性が向上する。
Specifically, as shown in FIG. 3, a pulley 121 (fixed pulley) is fixed to the body 101 on the same axis as the rotation axis of the head forward tilting portion 103 (see FIG. 1). A pulley 122 (rotary pulley) having the same diameter and the same number of teeth as that of the fixed pulley 121 is pivotally attached to the head 102 via a bearing (not shown) so that it can rotate freely. A chain belt 123 is wound around the fixed pulley 121 and the rotary pulley 122, and the rotary pulley 122 is attached to the tilting member 120.
With such a configuration, when the head 102 is tilted forward as indicated by the arrow a1, the fixed pulley 121 does not rotate. Therefore, the rotation pulley 122 is indicated by the arrow a2 by the chain belt 123 that tilts forward integrally with the head 102. It is driven to rotate. As a result, the tilting member 120 tilts backward by the same angle as the forward tilt angle of the head 102.
Note that a timing belt may be used instead of the chain belt 123. When a timing belt is used, the strength of the belt is reduced, but the quietness during operation is improved.

図1に示すように、位置検出装置104と顔検出装置105とは、ケーブルC1によりコントローラ107と接続されている。位置検出装置104と顔検出装置105との各検出結果は、このケーブルC1を介してコントローラ107に出力される。   As shown in FIG. 1, the position detection device 104 and the face detection device 105 are connected to the controller 107 by a cable C1. The detection results of the position detection device 104 and the face detection device 105 are output to the controller 107 via the cable C1.

接触検出装置106は、移動体100と人との接触を検出するものであり、具体的には例えば力覚センサである。接触検出装置106に力覚センサを使用した場合、力覚センサにより検出された力データから、人との接触力を算出することで、移動体100と人との接触を検出できる。   The contact detection device 106 detects contact between the moving body 100 and a person, and is specifically a force sensor, for example. When a force sensor is used for the contact detection device 106, the contact between the moving body 100 and the person can be detected by calculating the contact force with the person from the force data detected by the force sensor.

接触検出装置106は、ケーブルC2によりコントローラ107と接続されている。接触検出装置106の検出結果は、このケーブルC2を介してコントローラ107に出力される。   The contact detection device 106 is connected to the controller 107 by a cable C2. The detection result of the contact detection device 106 is output to the controller 107 via the cable C2.

音声発生部108は、移動体100から人へ声を掛けるために音声を発生するものであり、具体的には例えばスピーカーである。   The sound generation unit 108 generates sound for calling the person from the moving body 100, and specifically, for example, a speaker.

各腕部109は、胴体101の幅方向両端部(肩部111)からそれぞれ前方方向に伸びた湾曲形状をしており、それらの先端(前端)はそれぞれ手部110として構成されている。これらの手部110は、幅方向中央で結合されている。詳しくは、各腕部109は、略円弧形状のものであり、その幅方向外側の基端部が肩部111に固定され、その幅方向中央の手部110が、図2に示すように接触検出装置106を介して結合されている。   Each arm portion 109 has a curved shape extending in the forward direction from both end portions (shoulder portion 111) in the width direction of the body 101, and the tip (front end) thereof is configured as a hand portion 110, respectively. These hand portions 110 are coupled at the center in the width direction. Specifically, each arm portion 109 has a substantially arc shape, the base end portion on the outer side in the width direction is fixed to the shoulder portion 111, and the hand portion 110 at the center in the width direction contacts as shown in FIG. It is coupled via the detection device 106.

各手部110は、腕部109の根元にある肩部111を用いて持ち上げる又は下げることが可能である。肩部111は、右肩部111Rと左肩部111Lとを備える。   Each hand 110 can be lifted or lowered using a shoulder 111 at the base of the arm 109. The shoulder 111 includes a right shoulder 111R and a left shoulder 111L.

右肩部111Rと左肩部111Lとは、それぞれ、幅方向に平行な回転軸を介して胴体101の幅方向端部に連結されている。これらの回転軸は、それぞれ、胴体101に内蔵された電動モータM2(図1では省略)の出力軸に結合されている。この電動モータM2により駆動されて、右肩部111Rと左肩部111Lとは、それらの回転軸を中心に傾動する。これにより、右肩部111Rと左肩部111Lとに基部を固定された腕部109の先端部の手部110を昇降できる。   The right shoulder 111R and the left shoulder 111L are connected to the width direction end of the body 101 via a rotation axis parallel to the width direction, respectively. Each of these rotation shafts is coupled to an output shaft of an electric motor M2 (not shown in FIG. 1) built in the body 101. Driven by this electric motor M2, the right shoulder 111R and the left shoulder 111L tilt around their rotation axes. Thereby, the hand part 110 of the front-end | tip part of the arm part 109 by which the base was fixed to the right shoulder part 111R and the left shoulder part 111L can be raised / lowered.

顔部112は、頭部102の前面に配置されたディスプレイ112aを備え、このディスプレイ112aには、目を模した表示112b(以下「目部112b」と表記する)が映される。この目部112bの表示位置は逐次変更することが可能である。なお、目部112bは表示ではなく、位置変更可能であって目を模した物品により構成してもよい。   The face 112 includes a display 112a disposed on the front surface of the head 102, and a display 112b simulating eyes (hereinafter referred to as “eye 112b”) is displayed on the display 112a. The display position of the eyes 112b can be changed sequentially. Note that the eyes 112b may be configured by an article that can change the position and imitate the eyes instead of displaying.

(制御構成)
図4は、本発明の実施の形態1における移動体のコントローラの構成を示す模式的な制御ブロック図である。
図4に示すように、コントローラ107は、機能要素として、移動体100に対する周辺の人の状況(以下「周辺状況」という)を判断する状況判断部107aと、道を譲ってもらうように周辺の人に働きかけるための制御(働きかけ制御)を行う働きかけ制御部107bとを少なくとも備える。
状況判断部107aは、位置検出装置104,顔検出装置105および接触検出装置106の各検出結果に基づいて移動体100の周辺状況を判断する。
(Control configuration)
FIG. 4 is a schematic control block diagram showing the configuration of the moving body controller in the first embodiment of the present invention.
As shown in FIG. 4, the controller 107 includes, as functional elements, a situation determination unit 107 a that determines the situation of people around the mobile body 100 (hereinafter referred to as “surrounding situation”), And a work control unit 107b that performs control (work control) for working with people.
The situation determination unit 107 a determines the surrounding situation of the moving body 100 based on the detection results of the position detection device 104, the face detection device 105, and the contact detection device 106.

働きかけ制御部107bは、位置検出装置104の検出結果に基づいて、周囲の人と接触せずに移動することの可能な経路がないと判断した場合に働きかけ制御を行う。具体的には、働きかけ制御部107bは、人間が他人に頼みごとをする際の動作を模した動作を移動体100が行うように、電動モータM1を介して頭部前傾部103を制御し、電動モータM2を介して肩部111を制御し、さらに、音声発生部108や胴体101の作動を制御する。   The action control unit 107b performs action control when it is determined based on the detection result of the position detection device 104 that there is no route that can be moved without contacting the surrounding person. Specifically, the action control unit 107b controls the head forward tilting unit 103 via the electric motor M1 so that the moving body 100 performs an operation simulating an operation when a human asks another person. The shoulder 111 is controlled via the electric motor M2, and further the operation of the sound generator 108 and the body 101 is controlled.

(フローチャート)
図5は、本発明の実施の形態1における移動体の状況判断に関するフローチャートである。
図6は、本実施の形態1における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図5および図6を参照して、状況判断および働きかけ制御の一例を説明しつつ、状況判断部107aおよび働きかけ制御部107bの機能についてさらに説明する。
(flowchart)
FIG. 5 is a flowchart relating to the situation determination of the moving object in the first embodiment of the present invention.
FIG. 6 is a flowchart related to the behavior of the moving body in the first embodiment, and mainly relates to the action control.
Hereinafter, with reference to FIG. 5 and FIG. 6, functions of the situation determination unit 107 a and the action control unit 107 b will be further described while explaining an example of the situation determination and the action control.

まず、状況判断部107aによる具体的な状況判断方法について図5を用いて説明する。   First, a specific situation determination method by the situation determination unit 107a will be described with reference to FIG.

状況判断部107aは、状況判断開始時に、状況変数A,状況変数Bおよび状況変数Cをそれぞれ0(零)にセットする(ステップS01)。その後、状況判断部107aは、移動体100が、働きかけ制御中であるか否かを判定する(ステップS02)。なお、働きかけ制御中であるか否かは、例えば、コントローラ107の内部信号である働きかけ制御を行う旨の指令を、働きかけ制御部107bが出力しているか否かで判定できる。   The situation judgment unit 107a sets situation variable A, situation variable B, and situation variable C to 0 (zero) at the start of situation judgment (step S01). Thereafter, the situation determination unit 107a determines whether or not the moving body 100 is under action control (step S02). Whether or not the work control is being performed can be determined by whether or not the work control unit 107b outputs a command for performing the work control, which is an internal signal of the controller 107, for example.

働きかけ制御中で無い場合は、状況判断部107aは状況判断を終了する。状況判断部107aは、働きかけ制御中である場合は、位置検出装置104により判別された人の中から、設定した移動経路上にいる人を、接触による働きかけを行う対象(以下「接触対象」という)として特定し、位置検出装置104により接触対象と特定された人の位置(以下「接触対象位置」という)を検出する(ステップS03)。移動体100から接触対象位置までの距離(以下「接触対象距離」という)を算出し、あらかじめ設定した距離(以下「人接近距離」という)と比較する(ステップS04)。接触対象距離が人接近距離以下の場合は、状況変数Aを1にセットし(ステップS05)、接触対象距離が人接近距離よりも離れている場合は、状況変数Aを0(零)のままとする。   If the work control is not being performed, the situation determination unit 107a ends the situation determination. In the case where the action control is being performed, the situation determination unit 107a selects a person on the set movement route from among the persons determined by the position detection device 104 (hereinafter referred to as “contact object”). ) And the position of the person identified as the contact target by the position detection device 104 (hereinafter referred to as “contact target position”) is detected (step S03). A distance from the moving body 100 to the contact target position (hereinafter referred to as “contact target distance”) is calculated and compared with a preset distance (hereinafter referred to as “person approach distance”) (step S04). When the contact target distance is equal to or less than the person approach distance, the situation variable A is set to 1 (step S05). When the contact target distance is more than the person approach distance, the situation variable A remains 0 (zero). And

次に、顔検出装置105により検出された顔検出位置と、接触対象位置とを比較し(ステップS06)、顔検出位置が接触対象位置と同じ場合は、状況変数Bを1にセットし(ステップS07)、顔検出位置が接触対象位置と異なる場合は、状況変数Bを0(零)のままとする。   Next, the face detection position detected by the face detection device 105 is compared with the contact target position (step S06). If the face detection position is the same as the contact target position, the status variable B is set to 1 (step S06). S07) When the face detection position is different from the contact target position, the situation variable B is kept 0 (zero).

次に、状況判断部107aは、移動体100と人との接触が接触検出装置106により検出されているか否かを確認し(ステップS08)、接触が検出されている場合は状況変数Cを1にセットし(ステップS09)、接触が検出されていない場合は状況変数Cを0(零)のままとする。
その後、ステップS02に戻り、働きかけ制御が終了するまで状況判断部107aは状況判断を続ける。
Next, the situation determination unit 107a checks whether or not contact between the moving body 100 and a person is detected by the contact detection device 106 (step S08). If contact is detected, the situation variable C is set to 1. (Step S09), and when no contact is detected, the status variable C remains 0 (zero).
Thereafter, the process returns to step S02, and the situation determination unit 107a continues the situation determination until the work control is completed.

次に、働きかけ制御部107bによる具体的な制御方法について図6を用いて説明する。   Next, a specific control method by the action control unit 107b will be described with reference to FIG.

働きかけ制御部107bは、上述したように周囲の人と接触せずに移動できる経路がないと判断した場合に働きかけ制御を開始する。働きかけ制御が開始されると、状況判断部107aにより前記の図5に例示される状況判断が開始される(ステップS10)。その後、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS11)、移動体100を接触対象に向かって移動させる(ステップS12)。移動中に、状況判断部107aによりセットされた状況変数Aの値を監視し(ステップS13)、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)は、働きかけ制御部107bは、移動体100の移動を停止する。これにより、手部110が移動体100と一体に接触対象に近づく(ステップS14)。働きかけ制御部107bは、手部110を接触対象に近づける間、状況判断部の状況変数Bを監視する(ステップS15)。   The action control unit 107b starts the action control when it is determined that there is no route that can be moved without contacting the surrounding person as described above. When the action control is started, the situation determination unit 107a starts the situation determination illustrated in FIG. 5 (step S10). Thereafter, the hand 110 is lifted to the height between the waist of the contact target and the shoulder using the shoulder 111 (step S11), and the moving body 100 is moved toward the contact target (step S12). During movement, the value of the situation variable A set by the situation judgment unit 107a is monitored (step S13), and when the situation variable A is set to 1 (that is, when approaching the contact target to a person approaching distance or less) The action control unit 107b stops the movement of the moving body 100. Thereby, the hand part 110 approaches the contact object integrally with the moving body 100 (step S14). The action control unit 107b monitors the status variable B of the status determination unit while bringing the hand unit 110 closer to the contact target (step S15).

状況変数Bが1にセットされている場合、すなわち顔検出位置が接触対象位置と同じ場合)は、手部110を接触対象に近づけることを停止し(ステップS16)、頭部102を、頭部前傾部103で前傾させた後に元の状態(前傾前の起立状態)に戻し、同時に音声発生部108により接触対象に道を空けてもらうように声を発生させる。(ステップS17)。
ここで、状況変数Bが1にセットされている状況は、接触対象の顔が移動体100のほうを向いていることから顔検出位置が接触対象位置と同じになっている状況である。したがって、状況変数Bが1にセットされている場合に、頭部102を前傾させることは、接触対象である人が移動体100に気付いて移動体100を見たときに、移動体100が頭部102を前傾させることである。したがって、移動体100が頭部102を前傾させていることを、接触対象である人に確実に認識させることができる。
When the situation variable B is set to 1, that is, when the face detection position is the same as the contact target position), the hand 110 is stopped from approaching the contact target (step S16), and the head 102 is moved to the head. After being tilted forward by the forward tilting portion 103, it is returned to the original state (standing state before the forward tilting), and at the same time, a voice is generated by the voice generating unit 108 so that the object to be touched is free. (Step S17).
Here, the situation in which the situation variable B is set to 1 is a situation in which the face detection position is the same as the contact target position because the face to be touched faces the moving body 100. Therefore, when the situation variable B is set to 1, tilting the head 102 forward means that when the person who is a contact object notices the mobile body 100 and views the mobile body 100, the mobile body 100 The head 102 is tilted forward. Therefore, the person who is the contact object can be surely recognized that the moving body 100 tilts the head 102 forward.

このとき、頭部102の鉛直方向に対する前傾角度は、人が敬礼時に御辞儀する角度である30度が望ましいが、顔部112に表示している目部112bが人から見えるように、10度から30度の間が望ましい。また、顔部112に表示している目部112bは、頭部102の前傾中にも移動体100が人を認識していることを表現する為に、頭部102を前傾させる際には上方に移動させる。   At this time, the forward tilt angle of the head 102 with respect to the vertical direction is preferably 30 degrees, which is the angle at which the person bows when saluting, but 10 degrees so that the eyes 112b displayed on the face 112 can be seen by the person. A degree between 30 degrees is desirable. Further, the eyes 112b displayed on the face 112 are used when the head 102 is tilted forward in order to express that the moving body 100 recognizes a person even while the head 102 is tilted forward. Is moved upward.

その後、接触対象が道(移動体100が移動するためのスペース)を空けたかを位置検出装置104の検出結果に基づいて判定し(ステップS18)、道が空いた場合は、手部110を接触対象から離して空いた道を通って移動する(ステップS19)。道が開かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS20)。   Thereafter, it is determined based on the detection result of the position detection device 104 whether the contact target has cleared the road (the space for the moving body 100 to move) (step S18). It moves along the empty road away from the object (step S19). If the road does not open, the hand 110 is moved away from the contact target and another movement route is searched (step S20).

働きかけ制御部107bは、状況変数Bを監視している間、同時に状況変数Cも監視し(ステップS21)、状況変数Bが1にセットされる前に状況変数Cが1にセットされた場合(すなわち移動体100と接触対象との接触が検出された場合)、手部110を接触対象に近づけるための動作を停止する(ステップS22)。   The action control unit 107b simultaneously monitors the status variable C while monitoring the status variable B (step S21), and when the status variable C is set to 1 before the status variable B is set to 1 ( That is, when contact between the moving body 100 and the contact target is detected, the operation for bringing the hand 110 closer to the contact target is stopped (step S22).

その後、再度、状況変数Bの値を確認する(ステップS23)。その際、状況変数Bが1にセットされている場合は、頭部102を頭部前傾部103で前傾させた後、頭部102を頭部前傾部103で逆方向に傾斜させて元の状態に戻し、同時に音声発生部108により接触対象に向けて道を空けてもらうように音声を発生させ(ステップS17)、ステップS18に進む。その一方、ステップS23において状況変数Bが0のままの場合は、頭部102を前傾させたり音声発生部108から音声を発生させたりすることなくステップS18に進む。   Thereafter, the value of the status variable B is confirmed again (step S23). At that time, if the situation variable B is set to 1, after the head 102 is tilted forward by the head forward tilting portion 103, the head 102 is tilted in the reverse direction by the head forward tilting portion 103. The sound is returned to the original state, and at the same time, a sound is generated by the sound generator 108 so as to leave the way toward the contact target (step S17), and the process proceeds to step S18. On the other hand, if the status variable B remains 0 in step S23, the process proceeds to step S18 without tilting the head 102 forward or generating sound from the sound generator 108.

ステップS18では、接触対象が道を空けたか否かを確認し、道が空いた場合は、手部110を接触対象から離し、空いた道を通って移動する(ステップS19)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS20)。   In step S18, it is confirmed whether or not the contact target has cleared the road. If the road is empty, the hand 110 is moved away from the contact target and moved through the empty road (step S19). If the road is not free, the hand part 110 is moved away from the contact target, and another movement route is searched (step S20).

(作用・効果)
本発明の実施の形態1の移動体100によれば、接触によって人へ働きかけを行う際に、移動体100は、あたかも人が頭を下げてお願いするように頭部102を前傾させることで、道を空けてほしい旨の意図を、人に明瞭に伝えることができる。したがって、道を空けてもらい易くなり、効率的に移動及びタスクを行える。
(Action / Effect)
According to the moving body 100 of the first embodiment of the present invention, when the person is acted upon by contact, the moving body 100 tilts the head 102 forward as if the person lowered his / her head. , I can clearly convey to people the intention to leave the way. Therefore, it becomes easy to get a way, and movement and tasks can be performed efficiently.

(変形例)
(1)胴体101の移動装置として、クローラや、脚機構を使用してもよい。この場合、移動装置に車輪機構を使用するのと比較して、凹凸面などの不整地における移動を容易に行える。
(Modification)
(1) A crawler or a leg mechanism may be used as a moving device for the body 101. In this case, compared with using a wheel mechanism for the moving device, movement on rough terrain such as an uneven surface can be easily performed.

(2)位置検出装置104としてステレオカメラを備えてもよい。位置検出装置104に距離画像センサを使用するのと比較して、一台のカメラを、位置検出装置104用のカメラと、顔検出装置105とのカメラとを兼用させることで、検出装置の台数を削減でき、移動体100のコストを削減できる。   (2) A stereo camera may be provided as the position detection device 104. Compared to using a distance image sensor for the position detection device 104, the number of detection devices can be reduced by using a single camera as a camera for the position detection device 104 and a camera for the face detection device 105. And the cost of the moving body 100 can be reduced.

(3)傾動部材120(ひいては位置検出装置104および顔検出装置105)を頭部102の前傾と連動させて後傾させる機構に、平行リンク機構を用いてもよい。具体的には、図7に示すように、互いに平行な前後一対のリンク124を、それらの下端を同じ高さで胴部101に枢着すると共にそれらの上端を同じ高さで傾動部材120の側面に枢着すればよい。これにより、頭部102の角度に拘わらず傾動部材120の角度を水平に保持できる。すなわち、傾動部材120を頭部102の前傾と連動させて後傾させることができる。
プーリとベルトを用いる場合と比較し、ベルトの張力調整を行う必要が無い為、組付け性を向上させることができる。
(3) A parallel link mechanism may be used as a mechanism for tilting the tilting member 120 (and thus the position detecting device 104 and the face detecting device 105) backward in conjunction with the forward tilt of the head 102. Specifically, as shown in FIG. 7, a pair of front and rear links 124 that are parallel to each other are pivotally attached to the body 101 with their lower ends at the same height, and the upper ends of the tilting member 120 with their upper ends at the same height. Just pivot on the side. Thereby, the angle of the tilting member 120 can be kept horizontal regardless of the angle of the head 102. That is, the tilting member 120 can be tilted backward in conjunction with the forward tilt of the head 102.
Compared with the case of using a pulley and a belt, it is not necessary to adjust the tension of the belt, so that the assembling property can be improved.

(4)接触検出装置106にタッチセンサを用いて、このタッチセンサにより移動体100と人との接触の有無のみを検出してもよい。この場合、接触検出装置106に力覚センサを用いる場合と比較して移動体100のコストを削減することができる。   (4) A touch sensor may be used for the contact detection device 106, and only the presence or absence of contact between the moving body 100 and a person may be detected by the touch sensor. In this case, the cost of the moving body 100 can be reduced compared to the case where a force sensor is used for the contact detection device 106.

(5)位置検出装置104に、接触検出装置106の機能を担わせるようにしてもよい。この場合、位置検出装置104の距離画像データから解析した人と移動体100との距離を用いて、移動体100と人との接触を検出することができる。検出装置の台数を削減でき、移動体100のコストを削減できる。   (5) The position detection device 104 may have the function of the contact detection device 106. In this case, the contact between the moving body 100 and the person can be detected using the distance between the person and the moving body 100 analyzed from the distance image data of the position detection device 104. The number of detection devices can be reduced, and the cost of the moving body 100 can be reduced.

(実施の形態2)
以下、図1,図4,図5および図8を参照して、本発明の実施の形態2について説明する。
本発明の実施の形態2の移動体100′は、状況変数Cが1にセットされると、頭部102を前傾させる点が、実施の形態1の移動体100と主に相違する。
(Embodiment 2)
Hereinafter, a second embodiment of the present invention will be described with reference to FIG. 1, FIG. 4, FIG. 5, and FIG.
The moving body 100 ′ of the second embodiment of the present invention is mainly different from the moving body 100 of the first embodiment in that the head 102 is tilted forward when the status variable C is set to 1.

すなわち、本実施形態の移動体100′では、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a′は、図5のステップS06及びステップS07を実施しないようにする。   That is, in the moving body 100 ′ of the present embodiment, the head 102 is moved to a predetermined position regardless of whether or not the status variable B is set to 1 (whether or not the face detection position is the same as the contact target position). Tilt forward at the timing. Therefore, the moving body of the present embodiment may omit the face detection device 105 from the configuration of the moving body 100 of the first embodiment. In this case, the situation determination unit 107a ′ used in place of the situation determination unit 107a of the first embodiment does not implement step S06 and step S07 of FIG.

図8は、本実施の形態2における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図8を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b′の機能について説明する。
FIG. 8 is a flowchart related to the behavior of the moving body in the second embodiment, and mainly relates to the action control.
Hereinafter, the function of the action control unit 107b ′ used in place of the action control unit 107b of the first embodiment will be described with reference to FIG.

働きかけ制御部107b′が働きかけ制御を開始すると、状況判断部107a′により前述の状況判断が開始される(ステップS121)。その後、働きかけ制御部107b′は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS122)、移動体100を接触対象に向かって移動させる(ステップS123)。働きかけ制御部107b′は、移動中、状況変数Aの値を監視し(ステップS124)、状況変数Aが1にセットされている場合(すなわち移動体100′が接触対象に人接近距離以下まで近づいた場合)は、移動体100′の移動を停止させて手部110を接触対象に近づける(ステップS125)。   When the action control unit 107b ′ starts the action control, the situation determination unit 107a ′ starts the situation determination described above (step S121). Thereafter, the action control unit 107b ′ uses the shoulder 111 to lift the hand 110 to a height between the waist of the contact target and the shoulder (step S122), and moves the moving body 100 toward the contact target (step S122). S123). The action control unit 107b ′ monitors the value of the situation variable A during the movement (step S124), and when the situation variable A is set to 1 (that is, the moving body 100 ′ approaches the contact target to a human approach distance or less. In the case of the case, the movement of the moving body 100 'is stopped and the hand part 110 is brought close to the contact target (step S125).

次に、働きかけ制御部107b′は状況変数Cを監視する(ステップS126)。働きかけ制御部107b′は、状況変数Cが1にセットされている場合(すなわち移動体100と接触対象との接触が検出された場合)は、手部110を接触対象に近づけることを停止し(ステップS127)、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108により声を発生させる。(ステップS128)。   Next, the action control unit 107b ′ monitors the status variable C (step S126). When the situation variable C is set to 1 (that is, when contact between the moving body 100 and the contact target is detected), the action control unit 107b ′ stops approaching the hand unit 110 to the contact target ( In step S127), the head 102 is once tilted forward by the head forward tilting section 103 and then returned to the original state, and at the same time, the voice is generated by the voice generating section 108 so that the contact target can leave the road. (Step S128).

その後、働きかけ制御部107b′は、接触対象が道を空けたかを確認し(ステップS129)、道が空いた場合は、手部110を接触対象から離し、空いた道をとおって移動する(ステップS130)。道が空かない場合は、手部110を接触対象から離し、他の移動経路を探す(ステップS131)。
状況判断部107a′および働きかけ制御部107b′は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100′は、状況判断部107a′および働きかけ制御部107b′以外については、実施の形態1の移動体100と同様なので説明を省略する。
Thereafter, the action control unit 107b ′ confirms whether or not the contact target has cleared the road (step S129), and when the road is empty, moves the hand part 110 away from the contact target and moves through the empty road (step S129). S130). If the road is not free, the hand 110 is moved away from the contact target and another movement route is searched (step S131).
The situation determination unit 107a ′ and the action control unit 107b ′ are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment, and thus description thereof is omitted. Further, since the moving body 100 ′ is the same as the moving body 100 of the first embodiment except for the situation determination unit 107a ′ and the action control unit 107b ′, the description thereof is omitted.

(作用・効果)
本発明の実施の形態2の移動体によれば、顔検出装置105を省略すること可能である。顔検出装置105を省略した場合には、移動体100′のコストを削減でき、さらに、状況判断において顔検出装置105の検出結果に基づく処理ステップ数を削減できるので、状況判断を迅速に行うことができる。
(Action / Effect)
According to the mobile body of the second embodiment of the present invention, the face detection device 105 can be omitted. When the face detection device 105 is omitted, the cost of the moving body 100 ′ can be reduced, and the number of processing steps based on the detection result of the face detection device 105 can be reduced in the situation determination, so that the situation determination can be performed quickly. Can do.

(実施の形態3)
以下、図1,図4,図5および図9を参照して、本発明の実施の形態3について説明する。
本発明の実施の形態3の移動体100″は、接触対象に人接近距離以下まで近づいて状況変数Aが1にセットされると頭部102を前傾させる点が、実施の形態1の移動体100とが主に相違する。
(Embodiment 3)
Hereinafter, Embodiment 3 of the present invention will be described with reference to FIG. 1, FIG. 4, FIG. 5 and FIG.
The moving body 100 ″ according to the third embodiment of the present invention moves the head 102 according to the first embodiment in that the head 102 is tilted forward when the situation variable A is set to 1 when approaching the contact target to a human approach distance or less. The body 100 is mainly different.

すなわち、本実施形態の移動体100″では、実施の形態2と同様に、状況変数Bが1にセットされているか否か(顔検出位置が接触対象位置と同じであるか否か)に関わらず、頭部102を所定のタイミングで前傾させる。したがって、本実施形態の移動体100″は、実施の形態1の移動体100の構成に対して、顔検出装置105を省略してもよい。この場合、実施の形態1の状況判断部107aに替えて使用される状況判断部107a″は、図5のステップS06及びステップS07を実施しないようにする。   That is, in the moving body 100 ″ of the present embodiment, whether or not the status variable B is set to 1 (whether or not the face detection position is the same as the contact target position) as in the second embodiment. First, the head 102 is tilted forward at a predetermined timing.Therefore, the moving body 100 ″ of the present embodiment may omit the face detection device 105 from the configuration of the moving body 100 of the first embodiment. . In this case, the situation determination unit 107a ″ used in place of the situation determination unit 107a of the first embodiment does not perform Steps S06 and S07 of FIG.

図9は、本実施の形態3における移動体の挙動に関するフローチャートであって、主に働きかけ制御に関する。
以下、図9を参照して、働きかけ制御のフローを説明しつつ、実施の形態1の働きかけ制御部107bに替えて使用される働きかけ制御部107b″の機能について説明する。
FIG. 9 is a flowchart related to the behavior of the moving body in the third embodiment, and mainly relates to the action control.
Hereinafter, the function of the action control unit 107b ″ used in place of the action control unit 107b of the first embodiment will be described while explaining the flow of the action control with reference to FIG.

働きかけ制御部107b″の制御が働きかけ制御を開始すると、状況判断部107a″により前述の状況判断が開始される(ステップS32)。その後、働きかけ制御部107b″は、肩部111を用いて手部110を接触対象の腰から肩の間の高さに持ち上げ(ステップS33)、移動体100を接触対象に向かって移動させる(ステップS34)。働きかけ制御部107b″は、移動中、状況変数Aの値を監視する(ステップS35)。働きかけ制御部107b″は、状況変数Aが1にセットされている場合(すなわち接触対象に人接近距離以下まで近づいた場合)、移動体100の移動を停止させる(ステップS36)。そして、働きかけ制御部107b″は、頭部102を、頭部前傾部103で一旦前傾させた後に元の状態に戻し、同時に接触対象に道を空けてもらうように音声発生部108から声を発生させる(ステップS37)。   When the control of the action control unit 107b ″ starts the action control, the above-described situation determination is started by the situation determination unit 107a ″ (step S32). Thereafter, the action control unit 107b ″ uses the shoulder 111 to lift the hand 110 to a height between the waist of the contact target and the shoulder (step S33), and moves the moving body 100 toward the contact target (step S33). S34) The action control unit 107b ″ monitors the value of the status variable A during movement (step S35). The action control unit 107b ″ stops the movement of the moving body 100 when the situation variable A is set to 1 (that is, when the approaching object approaches a person approaching distance or less) (step S36). The unit 107b ″ returns the original state to the original state after the head 102 is once tilted forward by the head forward tilting unit 103, and at the same time, generates a voice from the sound generating unit 108 so that the contact target can leave the road ( Step S37).

次に、働きかけ制御部107b″は、手部110を接触対象に近づけ(ステップS38)、状況変数Cを監視し(ステップS39)、状況変数Cが1にセットされている場合は手部110を接触対象に近づけることを停止する(ステップS40)。
その後、働きかけ制御部107b″は、接触対象が道を空けたかを確認し(ステップS41)、道が空いた場合は、手部110を接触対象から離して空いた道をとおって移動する(ステップ42)。道が空かない場合は、手部110を接触対象から離して他の移動経路を探す(ステップS43)。
状況判断部107a″および働きかけ制御部107b″は、この他の点は、実施の形態1の状況判断部107aおよび働きかけ制御部107bと同様なので説明を省略する。また、移動体100″は、状況判断部107a″および働きかけ制御部107b″以外については、実施の形態1の移動体100と同様なので説明を省略する。
Next, the action control unit 107b ″ brings the hand 110 closer to the contact target (step S38), monitors the situation variable C (step S39), and if the situation variable C is set to 1, the hand 110 is moved. The approach to the contact target is stopped (step S40).
Thereafter, the action control unit 107b ″ confirms whether or not the contact target has cleared the road (step S41), and if the road is empty, moves the hand part 110 away from the contact target and moves along the empty road (step S41). 42) If the road is not clear, the hand 110 is moved away from the contact target to search for another movement route (step S43).
The situation determination unit 107a ″ and the action control unit 107b ″ are the same as the situation determination unit 107a and the action control unit 107b of the first embodiment, and thus description thereof is omitted. Further, since the moving body 100 ″ is the same as the moving body 100 of the first embodiment except for the situation determination unit 107a ″ and the action control unit 107b ″, description thereof is omitted.

本発明の実施の形態3の移動体によれば、実施の形態2と同様の効果が得られる。   According to the moving body of the third embodiment of the present invention, the same effect as in the second embodiment can be obtained.

(その他)
上述した各実施の形態では、働きかけ制御において、頭部102を前傾させることに加えて、人に触れるようにしたが、人に触れる動作を省略してもよい。
(Other)
In each embodiment described above, in the work control, in addition to tilting the head 102 forward, the person is touched. However, the action of touching the person may be omitted.

本発明の移動体は、人混みの中で自律移動が必要な場合に有用である。   The moving body of the present invention is useful when autonomous movement is necessary in a crowded area.

100,100′,100″ 移動体
101 胴体
102 頭部
103 頭部前傾部
104 位置検出装置
105 顔検出装置
106 接触検出装置
107 コントローラ
107a,107a′,107a″ 状況判断部
107b,107b′,107b″ 働きかけ制御部
108 音声発生部
109 腕部
110 手部
111 肩部
111L 左肩部
111R 右肩部
112 顔部
112a ディスプレイ
112b 目部
120 傾動部材
121 固定プーリ
122 回転プーリ
123 チェーンベルト
124 リンク
M1,M2 電動モータ
100, 100 ′, 100 ″ moving body 101 body 102 head 103 head forward tilting portion 104 position detection device 105 face detection device 106 contact detection device 107 controller 107a, 107a ′, 107a ″ situation determination unit 107b, 107b ′, 107b ″ Action control unit 108 Audio generation unit 109 Arm unit 110 Hand unit 111 Shoulder unit 111L Left shoulder unit 111R Right shoulder unit 112 Face unit 112a Display 112b Eye unit 120 Tilt member 121 Fixed pulley 122 Rotating pulley 123 Chain belt 124 Link M1, M2 Electric motor

Claims (15)

頭部と、
前記頭部を前傾させる頭部前傾部と、
検出対象の位置を検出する位置検出装置と、
前記位置検出装置の検出結果を用いて周辺状況を判断する状況判断部と、
前記頭部を前傾させる制御を少なくとも含んだ働きかけ制御を、前記周辺状況に応じて行う働きかけ制御部とを備えた
ことを特徴とした移動体。
The head,
A head forward tilting part that tilts the head forward;
A position detection device for detecting the position of the detection target;
A situation determination unit that determines a surrounding situation using a detection result of the position detection device;
A moving body comprising: an action control unit that performs an action control including at least the control of tilting the head forward according to the surrounding situation.
前記位置検出装置が、前記検出対象として人を判別して検出することを特徴とした請求項1に記載の移動体。   The moving body according to claim 1, wherein the position detection device detects and detects a person as the detection target. 人の顔を検出する顔検出装置を備え、前記状況判断部は前記顔検出装置の検出結果を用いて前記周辺状況を判断することを特徴とした請求項2に記載の移動体。   The mobile body according to claim 2, further comprising a face detection device that detects a human face, wherein the situation determination unit determines the surrounding situation using a detection result of the face detection device. 前記検出対象と接触したことを検出する接触検出装置を備え、前記状況判断部は前記接触検出装置の検出結果を用いて前記周辺状況を判断することを特徴とした請求項1に記載の移動体。   The moving body according to claim 1, further comprising a contact detection device that detects contact with the detection target, wherein the situation determination unit determines the surrounding situation using a detection result of the contact detection device. . 前記状況判断部が、前記位置検出装置により検出した検知対象の位置が、あらかじめ設定された範囲内に存在していると判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項1に記載の移動体。   When the situation determination unit determines that the position of the detection target detected by the position detection device is within a preset range, the action control unit is the head tilting unit The moving body according to claim 1, wherein the head is tilted forward. 前記状況判断部が、前記位置検出装置により検出した人の位置があらかじめ設定された範囲内に存在している判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項2に記載の移動体。   When the situation determination unit determines that the position of the person detected by the position detection device exists within a preset range, the action control unit moves the head with the head tilting unit. The moving body according to claim 2, wherein the moving body is tilted forward. 前記状況判断部が、前記顔検出装置が人の顔を検出したと判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項3に記載の移動体。   When the situation determination unit determines that the face detection device has detected a human face, the action control unit tilts the head forward with the head tilting unit. 3. The moving body according to 3. 前記状況判断部が、前記接触検出装置が人との接触を検出したと判断した場合に、前記働きかけ制御部が、前記頭部前傾部で前記頭部を前傾させることを特徴とした請求項4に記載の移動体。   When the situation determination unit determines that the contact detection device has detected contact with a person, the action control unit tilts the head forward by the head forward tilt unit. Item 5. A moving object according to item 4. 前記位置検出装置を前記頭部に備え、前記頭部前傾部で前記頭部を前傾させる際に、前記位置検出装置の検出方向を、前記頭部の前傾角度と同じ大きさで逆方向に傾斜させることを特徴とした請求項1に記載の移動体。   The position detection device is provided in the head, and when the head is tilted forward by the head forward tilt portion, the detection direction of the position detection device is reversed with the same magnitude as the head tilt angle. The moving body according to claim 1, wherein the moving body is inclined in a direction. 前記顔検出装置を前記頭部に備え、前記頭部前傾部で前記頭部を前傾させる際に、前記顔検出装置の検出方向を、前記頭部の前傾角度と同じ大きさで逆方向に傾斜させることを特徴とした請求項3に記載の移動体。   The face detection device is provided in the head, and when the head is tilted forward by the head forward tilt portion, the detection direction of the face detection device is reversed with the same magnitude as the head tilt angle. The moving body according to claim 3, wherein the moving body is inclined in a direction. 音声を発生可能な音声発生部を備え、前記頭部前傾部で前記移動体の頭部を前傾させる際に、前記音声発生部が音声を発生することを特徴とした請求項1〜10の何れか1項に記載の移動体。   11. A sound generation unit capable of generating sound, wherein the sound generation unit generates sound when the head of the moving body is tilted forward by the head forward tilting unit. The moving body according to any one of the above. 前記頭部を支持する胴部と、
前記胴部の幅方向両端から前方に伸び、先端に手部を備えた腕部とを備え、
前記働きかけ制御部は、前記手部を人に接触させることを特徴とした請求項1〜11の何れか1項に記載の移動体。
A torso that supports the head;
An arm portion that extends forward from both ends in the width direction of the trunk portion, and has a hand portion at the tip;
The movable body according to claim 1, wherein the action control unit causes the hand portion to contact a person.
前記腕部を、前記幅方向に平行な軸心線を中心に回転させる肩部を備え、
前記働きかけ制御部は、前記手部を人に接触させる際に、前記肩部の作動を制御することで、前記手部の高さ方向の位置を、前記検出対象の高さに合わせて調整することを特徴とした請求項12に記載の移動体。
A shoulder for rotating the arm around an axis parallel to the width direction;
The action control unit adjusts the position in the height direction of the hand part according to the height of the detection target by controlling the operation of the shoulder part when the hand part is brought into contact with a person. The moving body according to claim 12, wherein:
前記頭部に、少なくとも目を模した目部を有する顔部を備え、
前記頭部前傾部により前記頭部を前傾させる際に、前記目部を前記顔部の上部に移動することを特徴とした請求項1〜13の何れか1項に記載の移動体。
The head is provided with a face part having at least an eye part imitating eyes,
The moving body according to any one of claims 1 to 13, wherein when the head is tilted forward by the head tilting part, the eye part is moved to an upper part of the face part.
自律して移動可能であり、
前記働きかけ制御部は、前記位置検出装置の検出結果に基づいて、周囲の検知対象と接触せずに移動できないと判断した場合に前記働きかけ制御を行うことを特徴とした請求項1〜14の何れか1項に記載の移動体。
It can move autonomously,
The said action control part performs said action control when it judges that it cannot move without contacting with the surrounding detection object based on the detection result of the said position detection apparatus, Any one of Claims 1-14 characterized by the above-mentioned. The moving body according to claim 1.
JP2017181674A 2017-09-21 2017-09-21 Mobile Active JP6901360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017181674A JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017181674A JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Publications (2)

Publication Number Publication Date
JP2019055463A true JP2019055463A (en) 2019-04-11
JP6901360B2 JP6901360B2 (en) 2021-07-14

Family

ID=66106837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017181674A Active JP6901360B2 (en) 2017-09-21 2017-09-21 Mobile

Country Status (1)

Country Link
JP (1) JP6901360B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055476A (en) * 2017-09-21 2019-04-11 パナソニック株式会社 Movable body
WO2022259595A1 (en) * 2021-06-10 2022-12-15 ソニーグループ株式会社 Nursing care robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002361585A (en) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab Communication robot
JP2004174681A (en) * 2002-11-28 2004-06-24 Matsushita Electric Ind Co Ltd Robot
JP2005335001A (en) * 2004-05-26 2005-12-08 Sony Corp Robot control device and method, recording medium, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002361585A (en) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab Communication robot
JP2004174681A (en) * 2002-11-28 2004-06-24 Matsushita Electric Ind Co Ltd Robot
JP2005335001A (en) * 2004-05-26 2005-12-08 Sony Corp Robot control device and method, recording medium, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019055476A (en) * 2017-09-21 2019-04-11 パナソニック株式会社 Movable body
JP7009320B2 (en) 2017-09-21 2022-01-25 パナソニック株式会社 Mobile
WO2022259595A1 (en) * 2021-06-10 2022-12-15 ソニーグループ株式会社 Nursing care robot

Also Published As

Publication number Publication date
JP6901360B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
JP4915417B2 (en) robot
JP6450960B2 (en) Robot, robot system and teaching method
JP2019055463A (en) Movable body
WO2009011296A1 (en) Route planning device, route planning method, and mover
US9423795B2 (en) Inverted pendulum type vehicle
JP2005211462A (en) Self-propelled cleaner
US11485029B2 (en) Working robot
WO2015137169A1 (en) Terrain determination device, legged mobile robot, robot system, control method for legged mobile robot, and control method for robot system
KR20130030913A (en) Tactile sense feedback apparatus and method for operating tactile sense feedback apparatus
JP6007873B2 (en) Robot and control method thereof
JP2015084129A (en) Guidance robot
JP2022518880A (en) Methods, devices, robots that control the robot to escape from the trapped state
JP2019198905A (en) Image display device, image displaying method, and remote control system
JP2020058596A (en) robot
KR20160017385A (en) Treadmill apparatus having an automatic speed control system
KR101741105B1 (en) System and Method for Controlling Device Based on Electric Wheel Chair
JP2008056192A (en) Unstable moving body and method of controlling movement of the same
JP2019136853A (en) Motion assistance device, control parameter adjustment device, and control parameter adjustment method
JP2020131377A (en) Self-propelled robot
JP2009220257A (en) Leg-wheel mobile robot
CN112912152B (en) AC robot
JP7002791B2 (en) Information processing equipment and mobile robots
JP2017065565A (en) Traveling device
KR101235949B1 (en) Auxiliary headlight and method for controlling the same
KR20150099409A (en) Apparatus and method for controlling an electronic device using round handle

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R151 Written notification of patent or utility model registration

Ref document number: 6901360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151