JP6158665B2 - Robot, robot control method, and robot control program - Google Patents

Robot, robot control method, and robot control program Download PDF

Info

Publication number
JP6158665B2
JP6158665B2 JP2013202688A JP2013202688A JP6158665B2 JP 6158665 B2 JP6158665 B2 JP 6158665B2 JP 2013202688 A JP2013202688 A JP 2013202688A JP 2013202688 A JP2013202688 A JP 2013202688A JP 6158665 B2 JP6158665 B2 JP 6158665B2
Authority
JP
Japan
Prior art keywords
unit
robot
indicator
person
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013202688A
Other languages
Japanese (ja)
Other versions
JP2015066632A (en
Inventor
浩司 川邊
浩司 川邊
横山 太郎
太郎 横山
神田 崇行
崇行 神田
聡 佐竹
聡 佐竹
尊優 飯尾
尊優 飯尾
林 宏太郎
宏太郎 林
フェレリ フローラン
フェレリ フローラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Honda Motor Co Ltd
Priority to JP2013202688A priority Critical patent/JP6158665B2/en
Priority to US14/498,871 priority patent/US9517559B2/en
Publication of JP2015066632A publication Critical patent/JP2015066632A/en
Application granted granted Critical
Publication of JP6158665B2 publication Critical patent/JP6158665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット、ロボット制御方法、およびロボット制御プログラムに関する。   The present invention relates to a robot, a robot control method, and a robot control program.

従来、展示品等を案内するロボットについて研究が進められている。例えば、2本のアーム部を備え、いずれかのアーム部で対象を指し示す動作を行うロボットの発明が開示されている(例えば、特許文献1参照)。   Conventionally, research has been conducted on robots that guide exhibits and the like. For example, an invention of a robot that includes two arm portions and performs an operation of pointing an object with one of the arm portions is disclosed (for example, see Patent Document 1).

また、関連する技術として、展示品の説明ロボットとは別にレーザ表示装置を備え、レーザ光を照射した展示品についての案内音声を再生する技術が開示されている(例えば、特許文献2参照)。また、展示品に対して向けられた見物人の視線を遮らずに、展示物について説明を行う位置に移動するロボットの発明が開示されている(例えば、特許文献3参照)。   In addition, as a related technique, a technique is disclosed in which a laser display device is provided separately from the exhibit explanation robot, and a guidance voice for an exhibit that has been irradiated with laser light is reproduced (for example, see Patent Document 2). Further, an invention of a robot that moves to a position where an exhibit is described without obstructing the sight line of a spectator directed toward the exhibit is disclosed (for example, see Patent Document 3).

特開2011−224737号公報JP 2011-224737 A 特開2011―20223号公報JP 2011-20223 A 特許第5077077号明細書Japanese Patent No. 5077077

従来の技術では、自律的に移動するロボットが案内の対象物を指し示す際に、案内を受ける人の視線を効果的に誘導することができない場合があった。   In the conventional technology, when a robot that moves autonomously points to an object to be guided, it may not be possible to effectively guide the line of sight of the person receiving the guidance.

本発明は、このような事情を考慮してなされたものであり、案内を受ける人の視線を、より効果的に誘導することが可能なロボット、ロボット制御方法、およびロボット制御プログラムを提供することを目的の一つとする。   The present invention has been made in consideration of such circumstances, and provides a robot, a robot control method, and a robot control program capable of more effectively guiding the gaze of a person receiving guidance. Is one of the purposes.

請求項1記載のロボットは、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部を備える連結部と、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように、前記駆動部を制御する制御部と、を備え、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる。 The robot according to claim 1, an indicator for indicating a direction, a drive unit that drives the indicator, a moving unit that moves a body unit to which the drive unit is attached, the body unit, and the indicator When connecting the connecting portion having one or more intermediate joints between the connecting portion with the body portion and the connecting portion with the indicator, and causing the indicator to indicate the direction of the object, At least a part of the indicator extends on a straight line connecting a predetermined position in the body portion and the position of the object, and the direction of the straight line and the direction indicated by the indicator coincide with each other A control unit that controls the drive unit, and when the control unit instructs the indicator to indicate the direction of the object, at least one of the one or more intermediate joint units deviates from the straight line. In the state where Such that at least a portion of said indicator to top extends, it is possible to control the drive unit.

請求項2記載のロボットは、請求項1記載のロボットであって、前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する。   The robot according to claim 2 is the robot according to claim 1, wherein the control unit is configured such that the object is positioned in a direction indicated by the indicator before and after the body unit is moved by the moving unit. The drive unit is controlled to maintain the above.

請求項記載のロボットは、請求項1または2記載のロボットであって、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる。 The robot according to claim 3 is the robot according to claim 1 or 2 , wherein the control unit causes the indicator to indicate the direction of the object. The drive unit can be controlled so that the indicator reciprocates on the straight line in a deviated state.

請求項記載のロボットは、請求項1から3のうちいずれか1項記載のロボットであって、前記駆動部は、前記連結部を前記ボディ部における前記所定箇所(例えば実施形態の肩関節部24における回転中心24A)を中心として回転駆動する。 Robot according to claim 4 is a robot according to any one of claims 1 to 3, wherein the drive unit, the said connection portion in the body portion a predetermined position (e.g., the embodiment of the shoulder joint Rotation is driven around the rotation center 24A) of the section 24.

請求項記載のロボットは、請求項1からのうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する。 The robot according to claim 5 is the robot according to any one of claims 1 to 4 , and includes a detection unit (for example, the camera 12 of the embodiment, the environment recognition unit 92) that detects the position of a person. The control unit controls the moving unit so that the body part is separated from the person when the body part is in a region centered on the person.

請求項記載のロボットは、請求項記載のロボットであって、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する。 The robot according to claim 6 is the robot according to claim 5 , wherein the controller does not change the orientation of the body part when controlling the moving part so that the body part is separated from the person. The moving unit is controlled so that the body unit moves, and then the body unit is turned to control the moving unit so that the body unit moves to a target position determined based on the position of the object. To do.

請求項記載のロボットは、請求項1からのうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する。 The robot according to claim 7 is the robot according to any one of claims 1 to 6 , and includes a detection unit (for example, the camera 12 of the embodiment, the environment recognition unit 92) that detects the position of a person, The control unit controls the moving unit so that the body unit moves to an initial position on the basis of the position of the object before instructing the direction of the object by the indicator, When the detection unit detects that the body part approaches the body part, the moving part is controlled so that the body part moves away from the initial position.

請求項記載のロボットは、請求項記載のロボットであって、音声を出力する出力部(例えば実施形態のスピーカ70)を備え、前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する。 The robot according to claim 8 is the robot according to claim 7 , comprising an output unit (for example, the speaker 70 of the embodiment) that outputs sound, and the control unit has the body unit moved to the initial position. Sometimes, the output unit is controlled so as to output a sound calling to a person to come to the initial position.

請求項記載のロボットは、請求項記載のロボットであって、前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する。 The robot according to claim 9 is the robot according to claim 8 , wherein when the person moves to the initial position, the output unit starts to guide the object by voice. To control.

請求項10記載のロボットは、請求項1からのうちいずれか1項記載のロボットであって、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する。 A robot according to a tenth aspect is the robot according to any one of the first to ninth aspects, further comprising a detection unit that detects the position of a person, and the control unit is configured to detect the position of the body unit and the detection. The distance between the position of the person detected by the part and the position of the object is equal to or greater than a first predetermined distance, and the distance between the position of the body part and the position of the object is equal to or greater than a second predetermined distance. In addition, the moving unit is controlled.

請求項11記載のロボットは、請求項1から10のうちいずれか1項記載のロボットであって、2つのアーム部の先端に前記指示体が取り付けられ、前記移動部は、2つの脚部を備える。 A robot according to an eleventh aspect is the robot according to any one of the first to tenth aspects, wherein the indicator is attached to tips of two arm portions, and the moving portion includes two leg portions. Prepare.

請求項12記載のロボット制御方法は、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御方法であって、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を備え、前記駆動部を制御するステップにおいて、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する、ロボット制御方法である The robot control method according to claim 12 wherein includes a pointer for pointing to the direction, and a driving unit for driving the indicator, a moving unit for moving the body part in which the drive unit is attached, and the body portion A control method for a robot , which is connected to an indicator, and includes one or more intermediate joints between a connection portion with the body portion and a connection portion with the indicator, the object being attached to the indicator Calculating the position of the indicator on a straight line connecting the predetermined position in the body portion and the position of the object, and the indicator is positioned at the calculated position. and, and and a step of controlling the drive unit so that the direction coincides pointed to the pointer to the direction of the straight line, in the step of controlling the drive unit, a small one of the one or more intermediate joint Kutomo one in but a state that deviates from the straight line, so as to at least partially extending said pointer to said straight line, for controlling the drive unit, a robot control method.

請求項13記載のロボット制御プログラムは、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御プログラムであって、コンピュータに、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を実行させ、前記駆動部を制御するステップにおいて、前記コンピュータに、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御させる、ロボット制御プログラムであるThe robot control program according to claim 13, comprising: an indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached; the body unit; A control program for a robot , which is connected to an indicator, and includes one or more intermediate joints between a connection location with the body portion and a connection location with the indicator. When instructing the direction of the object, a step of calculating a position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object; and the instruction at the calculated position body located, and the step of controlling the drive unit so that the direction coincides pointed to the pointer to the direction of the straight line, is executed, in the step of controlling the drive unit Causing the computer to control the driving unit such that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. It is a robot control program .

請求項1〜4、12、13記載の発明によれば、ボディ部における所定の箇所と対象物の位置を結ぶ直線上に指示体の少なくとも一部が延在するように制御するため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、更に効果的に誘導することができる。 According to the first to fourth, twelfth, thirteenth and thirteenth aspects of the present invention, guidance is provided for controlling so that at least a part of the indicator extends on a straight line connecting a predetermined position in the body portion and the position of the object. The recipient can intuitively grasp the direction indicated by the robot. As a result, it is possible to more effectively guide the line of sight of the person receiving the guidance.

請求項2記載の発明によれば、移動部によりボディ部が移動する前後において、指示体の指し示す方向に対象物が位置する状態が維持されるため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、より効果的に誘導することができる。   According to the second aspect of the present invention, since the state in which the object is positioned in the direction indicated by the indicator is maintained before and after the body portion is moved by the moving unit, Can be grasped intuitively. As a result, the line of sight of the person receiving the guidance can be more effectively guided.

請求項記載の発明によれば、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御するため、人との干渉を防止することができる。 According to a fifth aspect of the present invention, the apparatus includes a detection unit that detects the position of a person, and the control unit is configured such that the body part is separated from the person when the body part is in a region centered on the person. Thus, since the moving unit is controlled, interference with a person can be prevented.

請求項記載の発明によれば、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御するため、旋回によって人と干渉することを防止することができる。 According to the invention of claim 6 , the control unit moves the moving unit without changing the orientation of the body unit when the moving unit is controlled so that the body unit is separated from the person. And then turning the body part to control the moving part so that the body part moves to a target position determined based on the position of the object. Can be prevented.

請求項7〜9記載の発明によれば、指示体に対象物の方向を指示させる前に、ボディ部が対象物の位置を基準とした初期位置に移動するように移動部を制御し、その後、人がボディ部に接近することが検知部により検知された場合に、ボディ部が初期位置から離れるように移動部を制御するため、対象物を見やすい位置に人を誘導することができる。 According to the seventh to ninth aspects of the invention, before causing the indicator to indicate the direction of the object, the moving part is controlled so that the body part moves to an initial position based on the position of the object, and thereafter When the detection unit detects that the person approaches the body part, the moving part is controlled so that the body part moves away from the initial position, so that the person can be guided to a position where the object can be easily seen.

請求項10記載の発明によれば、ボディ部の位置と検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、ボディ部の位置と対象物の位置との間の距離が第2の所定距離以上となるように制御するため、人や対象物との干渉を避けつつ、スムーズに移動することができる。 According to invention of Claim 10, the distance between the position of a body part and the position of the person detected by the detection part becomes more than 1st predetermined distance, And the position of a body part and the position of a target object Since the distance is controlled to be equal to or greater than the second predetermined distance, it is possible to move smoothly while avoiding interference with a person or an object.

一実施形態に係るロボット1の外観構成の一例を示す図である。It is a figure which shows an example of the external appearance structure of the robot 1 which concerns on one Embodiment. ロボット1が備える機能構成の一例を示す図である。It is a figure which shows an example of the function structure with which the robot 1 is provided. ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。It is a figure for demonstrating the definition of a yaw direction, a pitch direction, and a roll direction. 手部40を拡大して示す図である。It is a figure which expands and shows the hand part. 制御部90の機能構成を、より詳細に示す図である。It is a figure which shows the function structure of the control part 90 in detail. ロボット1の移動原理を説明するための図である。FIG. 4 is a diagram for explaining the principle of movement of the robot 1. ロボット1が人との干渉を避ける様子を示す図である。It is a figure which shows a mode that the robot 1 avoids interference with a person. 干渉計算部94Aが立ち位置を計算する処理を説明するための図である。It is a figure for demonstrating the process which the interference calculation part 94A calculates a standing position. ロボット1が対象物を指し示す際の姿勢の一例を示す図である。It is a figure which shows an example of the attitude | position at the time of the robot 1 pointing to a target object. ロボット1が対象物を指し示す際の姿勢の一例を示す図である。It is a figure which shows an example of the attitude | position at the time of the robot 1 pointing to a target object. ロボット1が人差し指部43の延在方向を位置OB1に向け続ける様子を示す図である。It is a figure which shows a mode that the robot 1 keeps orienting the extending direction of the index finger part 43 to position OB1. ロボット1が対象物を指し示す際の姿勢の他の例を示す図である。It is a figure which shows the other example of the attitude | position when the robot 1 points to a target object. ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。It is a figure which shows typically the operation | movement performed when the robot 1 points to a target object. ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。It is a figure which shows typically the operation | movement performed when the robot 1 points to a target object. 手首方位計算部94Eaによる処理を説明するための図である。It is a figure for demonstrating the process by wrist direction calculation part 94Ea. 位置OB1が角度範囲AR、ALの重複部分に存在する場合に、指し示す腕が決定される様子を示す図である。It is a figure which shows a mode that the arm to point to is determined when position OB1 exists in the overlapping part of angle range AR and AL. 腰/腕分配部94Ebがひねりの量を分配する際の分配傾向の一例を示す図である。It is a figure which shows an example of the distribution tendency at the time of the waist / arm distribution part 94Eb distributing the amount of twist. 制御部90により実行される処理の流れを示すフローチャートの一例である。3 is an example of a flowchart showing a flow of processing executed by a control unit 90. ロボット1が、人Hを好適位置WAに誘導する様子を示す図である。It is a figure which shows a mode that the robot 1 guides the person H to the suitable position WA. ロボット1が、人Hを好適位置WAに誘導する際に実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed when the robot 1 guides the person H to suitable position WA.

以下、図面を参照し、ロボット、ロボット制御方法、およびロボット制御プログラムの実施形態について説明する。以下に説明するロボットは、例えば、左右一対の脚部と左右一対の腕部とを備え、脚部の動作によって移動可能な人型ロボットである。なお、これに限らず、ロボットは、車輪やホバークラフト等によって移動可能なロボットであってもよいし、腕部を一つまたは三つ以上有するものであってもよい。   Hereinafter, embodiments of a robot, a robot control method, and a robot control program will be described with reference to the drawings. The robot described below is, for example, a humanoid robot that includes a pair of left and right legs and a pair of left and right arms, and is movable by the movement of the legs. However, the present invention is not limited to this, and the robot may be a robot that can be moved by wheels, hovercraft, or the like, or may have one or three or more arms.

[構成]
図1は、一実施形態に係るロボット1の外観構成の一例を示す図である。また、図2は、ロボット1が備える機能構成の一例を示す図である。ロボット1は、例えば、頭部10と、ボディ部20と、左右一対の腕部30と、左右一対の手部40と、左右一対の脚部50とを備える。なお、以下では、左右一対の構成要素について、左右いずれの構成要素であるかを区別せずに説明する。
[Constitution]
FIG. 1 is a diagram illustrating an example of an external configuration of a robot 1 according to an embodiment. FIG. 2 is a diagram illustrating an example of a functional configuration provided in the robot 1. The robot 1 includes, for example, a head 10, a body 20, a pair of left and right arms 30, a pair of left and right hands 40, and a pair of left and right legs 50. In the following description, the pair of left and right components will be described without distinguishing between the left and right components.

頭部10には、左右一対のカメラ12が取り付けられている。カメラ12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を有するカメラである。カメラ12は、可視光または赤外光を撮像し、撮像した画像を制御部90に送信する。   A pair of left and right cameras 12 are attached to the head 10. The camera 12 is a camera having a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 12 captures visible light or infrared light and transmits the captured image to the control unit 90.

ボディ部20は、首関節部22を介して頭部10と連結され、肩関節部24を介して腕部30と連結され、腰関節部26および股関節部28を介して脚部50と連結される。首関節部22は、頭部10をボディ部20に対して、例えばロール方向に1自由度で回動させる。以下の説明では、回動方向をヨー方向、ピッチ方向、ロール方向と表現して説明する。図3は、ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。図示するように、関節部Aから見た被駆動部材Bの方向Cを軸として被駆動部材Bを回動させる方向をロール方向と定義する。また、方向C自体を第1の方向に回動させる方向をピッチ方向と、方向C自体を第1の方向に直交する第2の方向に回動させる方向をヨー方向と定義する。   The body part 20 is connected to the head part 10 via the neck joint part 22, connected to the arm part 30 via the shoulder joint part 24, and connected to the leg part 50 via the waist joint part 26 and the hip joint part 28. The The neck joint part 22 rotates the head 10 with respect to the body part 20 with, for example, one degree of freedom in the roll direction. In the following description, the rotation direction is expressed as a yaw direction, a pitch direction, and a roll direction. FIG. 3 is a diagram for explaining definitions of the yaw direction, the pitch direction, and the roll direction. As shown in the figure, the direction in which the driven member B is rotated about the direction C of the driven member B viewed from the joint A is defined as the roll direction. Further, the direction in which the direction C itself is rotated in the first direction is defined as the pitch direction, and the direction in which the direction C itself is rotated in the second direction orthogonal to the first direction is defined as the yaw direction.

肩関節部24は、腕部30をボディ部20に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。腰関節部26は、股関節部28をボディ部に対して、例えばロール方向に1自由度で回動させる。股関節部28は、脚部50を腰関節部26に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。なお、ボディ部20には、図示しない腰カメラ等が内蔵されてよい。   The shoulder joint portion 24 rotates the arm portion 30 with respect to the body portion 20 with, for example, three degrees of freedom in the yaw direction, the pitch direction, and the roll direction. The waist joint portion 26 rotates the hip joint portion 28 with respect to the body portion with, for example, one degree of freedom in the roll direction. The hip joint portion 28 rotates the leg portion 50 with respect to the waist joint portion 26 with, for example, three degrees of freedom in the yaw direction, the pitch direction, and the roll direction. The body unit 20 may incorporate a waist camera or the like (not shown).

腕部30は、例えば、二の腕に相当する腕第1リンク部32と、肘関節部34と、前腕部に相当する腕第2リンク部36と、手首関節部38とを備える。肘関節部34は、腕第2リンク部36を腕第1リンク部32に対して、例えばピッチ方向に(腕の内側に)1自由度で回動させる。手首関節部38は、手部40を腕第2リンク部36に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。   The arm part 30 includes, for example, an arm first link part 32 corresponding to the second arm, an elbow joint part 34, an arm second link part 36 corresponding to the forearm part, and a wrist joint part 38. The elbow joint part 34 rotates the arm second link part 36 with respect to the arm first link part 32 with one degree of freedom, for example, in the pitch direction (inside the arm). The wrist joint portion 38 rotates the hand portion 40 with respect to the arm second link portion 36 with, for example, three degrees of freedom in the yaw direction, the pitch direction, and the roll direction.

手部40は、例えば、掌部41と、親指部42と、人差し指部43と、中指部44と、薬指部45と、小指部46とを備える。図4は、手部40を拡大して示す図である。各指部は掌部41に対して、基節関節部41A〜41Eにより、ピッチ方向およびロール方向に2自由度で回動することができる。親指部42は、親指先端部42Aと、親指第1関節部42Bと、親指第1リンク部42Cとを備える。親指第1関節部42Bは、親指先端部42Aを親指第1リンク部42Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指部43は、人差し指先端部43Aと、人差し指第1関節部43Bと、人差し指第1リンク部43Cと、人差し指第2関節部43Dと、人差し指第2リンク部43Eとを備える。人差し指第1関節部43Bは、人差し指先端部43Aを人差し指第1リンク部43Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指第2関節部43Dは、人差し指第1リンク部43Cを人差し指第2リンク部43Eに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。中指部44、薬指部45、小指部46の構成については人差し指部43と同様に先端部、第1関節部、第1リンク部、第2関節部、第2リンク部を備える。これらについての詳細な説明は省略する。   The hand part 40 includes, for example, a palm part 41, a thumb part 42, an index finger part 43, a middle finger part 44, a ring finger part 45, and a little finger part 46. FIG. 4 is an enlarged view of the hand portion 40. Each finger part can be rotated with two degrees of freedom in the pitch direction and the roll direction by the proximal joint parts 41 </ b> A to 41 </ b> E with respect to the palm part 41. The thumb part 42 includes a thumb tip part 42A, a thumb first joint part 42B, and a thumb first link part 42C. The first thumb joint portion 42B rotates the thumb tip portion 42A with respect to the first thumb link portion 42C in the pitch direction (to the palm side) with one degree of freedom. The index finger portion 43 includes an index finger tip portion 43A, an index finger first joint portion 43B, an index finger first link portion 43C, an index finger second joint portion 43D, and an index finger second link portion 43E. The index finger first joint portion 43B rotates the index finger tip portion 43A with respect to the index finger first link portion 43C in the pitch direction (to the palm side) with one degree of freedom. The index finger second joint portion 43D rotates the index finger first link portion 43C with respect to the index finger second link portion 43E in the pitch direction (to the palm side) with one degree of freedom. About the structure of the middle finger part 44, the ring finger part 45, and the little finger part 46, the tip part, the 1st joint part, the 1st link part, the 2nd joint part, and the 2nd link part are provided similarly to the index finger part 43. Detailed description thereof will be omitted.

脚部50は、例えば、脚第1リンク部51と、膝関節部52と、脚第2リンク部53と、足首関節部54と、足部55とを備える。膝関節部52は、脚第2リンク部53を脚第1リンク部51に対して、例えばピッチ方向に1自由度で回動させる。足首関節部54は、足部55を脚第2リンク部53に対して、例えばピッチ方向およびロール方向に2自由度で回動させる。   The leg portion 50 includes, for example, a leg first link portion 51, a knee joint portion 52, a leg second link portion 53, an ankle joint portion 54, and a foot portion 55. The knee joint part 52 rotates the leg second link part 53 with respect to the leg first link part 51 with, for example, one degree of freedom in the pitch direction. The ankle joint portion 54 rotates the foot portion 55 with respect to the leg second link portion 53 with, for example, two degrees of freedom in the pitch direction and the roll direction.

ロボット1は、関節部に回動力を付与し、被駆動部材(膝関節部52であれば脚第2リンク部53)を連結元部材(膝関節部52であれば脚第1リンク部51)に対して回動させるアクチュエータ群60を備える。アクチュエータ群60の各アクチュエータは、関節部毎に設けられてもよいし、複数の関節部に回動力を付与するアクチュエータが存在してもよい。また、アクチュエータは、関節部に内蔵されてもよいし、関節部の外に配置されてもよい。後者の場合、アクチュエータは、ワイヤーやベルト、プーリ、油圧機構等によって関節部や被駆動部材と接続されることで、関節部に回動力を付与する。   The robot 1 applies rotational force to the joint portion, and connects the driven member (the leg second link portion 53 in the case of the knee joint portion 52) to the connection source member (the leg first link portion 51 in the case of the knee joint portion 52). The actuator group 60 rotated with respect to is provided. Each actuator of the actuator group 60 may be provided for each joint portion, or there may be an actuator that applies rotational force to a plurality of joint portions. The actuator may be built in the joint part or may be disposed outside the joint part. In the latter case, the actuator is connected to the joint portion and the driven member by a wire, a belt, a pulley, a hydraulic mechanism, or the like, thereby applying a rotational force to the joint portion.

また、アクチュエータ群60に含まれる各アクチュエータには、ロータリーエンコーダ群62に含まれる各ロータリーエンコーダが取り付けられる。各ロータリーエンコーダは、対応するアクチュエータの回転角度をそれぞれ検出して制御部90に送信する。なお、ロータリーエンコーダ群62は、アクチュエータ群60の回転角度ではなく、関節部の回転角度を検出してもよい。   Each rotary encoder included in the rotary encoder group 62 is attached to each actuator included in the actuator group 60. Each rotary encoder detects the rotation angle of the corresponding actuator and transmits it to the control unit 90. The rotary encoder group 62 may detect the rotation angle of the joint portion instead of the rotation angle of the actuator group 60.

ロボット1は、音声を出力するためのスピーカ70を備える。スピーカ70が出力する音声の内容は、制御部90によって決定される。ロボット1は、更に、記憶部80と制御部90を備える。記憶部80は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等を含む。記憶部80には、制御部90が備えるCPU(Central Processing Unit)等のプロセッサが実行する制御プログラム82、ロボット1が案内の対象とする対象物OBの位置を示す対象物座標データ84、案内用音声データ86等のデータが格納される。制御プログラム82は、予め記憶部80に格納されていてもよいし、インターネットを介して他のコンピュータ装置からダウンロードされてもよい。また、可搬型記憶媒体に格納された制御プログラム82が記憶部80にインストールされてもよい。   The robot 1 includes a speaker 70 for outputting sound. The content of the sound output from the speaker 70 is determined by the control unit 90. The robot 1 further includes a storage unit 80 and a control unit 90. The storage unit 80 includes, for example, a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and a flash memory. The storage unit 80 includes a control program 82 executed by a processor such as a CPU (Central Processing Unit) provided in the control unit 90, object coordinate data 84 indicating the position of the object OB to be guided by the robot 1, guidance information Data such as audio data 86 is stored. The control program 82 may be stored in the storage unit 80 in advance, or may be downloaded from another computer device via the Internet. Further, the control program 82 stored in the portable storage medium may be installed in the storage unit 80.

制御部90は、例えば、環境認識部92と、姿勢制御部94と、音声案内制御部96とを備える。これらの機能部のうち一部または全部は、制御部90のプロセッサが、制御プログラム82を実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The control unit 90 includes, for example, an environment recognition unit 92, a posture control unit 94, and a voice guidance control unit 96. Some or all of these functional units are software functional units that function when the processor of the control unit 90 executes the control program 82. Note that some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

環境認識部92は、カメラ12から入力された撮像画像を解析し、前述した対象物や、人の位置を把握する。なお、ロボット1には、例えば対象物OBの置かれた家屋の天井等に取り付けられたカメラの撮像画像が入力され、この撮像画像を解析することで対象物や人の位置を把握してもよい。こうすれば、俯瞰的な情報を得ることができるため、より正確に環境を認識することができる。また、環境認識部92は、赤外線レーダや超音波レーダ等によって物体の位置を把握してもよい。姿勢制御部94は、対象物について案内をする際に、手部40によって対象物を指し示すようにアクチュエータ群を制御する。音声案内制御部96は、対象物を案内する音声を出力するようにスピーカ70を制御する。   The environment recognition unit 92 analyzes the captured image input from the camera 12 and grasps the above-described object and the position of a person. Note that the robot 1 receives, for example, a captured image of a camera attached to the ceiling of a house where the object OB is placed, and the position of the object or a person can be grasped by analyzing the captured image. Good. By doing this, it is possible to obtain a bird's-eye view information, so that the environment can be recognized more accurately. In addition, the environment recognition unit 92 may grasp the position of an object using an infrared radar, an ultrasonic radar, or the like. The posture control unit 94 controls the actuator group so that the hand unit 40 points to the object when guiding the object. The voice guidance control unit 96 controls the speaker 70 so as to output a voice for guiding the object.

図5は、制御部90の機能構成を、より詳細に示す図である。姿勢制御部94は、干渉計算部94Aと、立ち位置決定部94Bと、移動指令計算部94Cと、指差しタイミング計算部94Dと、指差し指令計算部94Eと、腕制御部94Fと、腰・脚制御部94Gとを備える。指差し指令計算部94Eは、更に、手首方位計算部94Eaと、腰/腕分配部94Ebと、手首位置計算部94Ecと、手先姿勢計算部94Edとを備える。   FIG. 5 is a diagram illustrating the functional configuration of the control unit 90 in more detail. The posture control unit 94 includes an interference calculation unit 94A, a standing position determination unit 94B, a movement command calculation unit 94C, a pointing timing calculation unit 94D, a pointing command calculation unit 94E, an arm control unit 94F, Leg control unit 94G. The pointing command calculation unit 94E further includes a wrist orientation calculation unit 94Ea, a waist / arm distribution unit 94Eb, a wrist position calculation unit 94Ec, and a hand posture calculation unit 94Ed.

[ロボット1の移動]
ロボット1は、対象物OBとの位置や案内を受ける人の位置に応じて移動する。そして、移動する前後において、例えば人差し指部43の指し示す方向に、対象物OBの所定の位置OB1が位置する状態を維持するように、アクチュエータ群60を制御する。以下、これについて説明する。
[Movement of robot 1]
The robot 1 moves according to the position of the object OB and the position of the person receiving the guidance. Then, before and after the movement, the actuator group 60 is controlled so as to maintain the state where the predetermined position OB1 of the object OB is located in the direction indicated by the index finger 43, for example. This will be described below.

図6は、ロボット1の移動原理を説明するための図である。ロボット1は、対象物OBの位置領域を対象物座標データ84として格納しており、立ち位置決定部94Bは、その位置領域の外縁から所定距離以内の領域を禁止領域BAとして設定する。また、対象物OBの位置OB1は、対象物OBを視認するのに適した代表的な位置として予め対象物座標データ84に記述されている。そして、位置OB1の正面に位置し、位置OB1を中心とした扇型領域から禁止領域BAを除外した好適領域WAは、人Hが対象物OBの代表点である位置OB1を視認するのに最適な領域となっている。また、好適領域WAの両側に位置し、位置OB1を中心とした好適領域WAよりも角度範囲の広い扇型領域から禁止領域BAを除外した領域が、移動可能領域MAが設定される。ロボット1は、対象物OBの音声案内をするときには、移動領域MAと好適領域WAを合わせた領域内で移動するように制御される。立ち位置決定部94Bは、このような領域内にロボット1の立ち位置を決定し、移動指令計算部94Cに出力する。移動指令計算部94Cは、立ち位置決定部94Bにより決定された立ち位置に移動するように、腰・脚制御部94Gに指示する。腰・脚制御部94Gは、移動指令計算部94Cからの指示に応じて移動するように、腰関節部26から下側の関節部に取り付けられたアクチュエータを制御する。   FIG. 6 is a diagram for explaining the principle of movement of the robot 1. The robot 1 stores the position area of the object OB as the object coordinate data 84, and the standing position determination unit 94B sets an area within a predetermined distance from the outer edge of the position area as the prohibited area BA. The position OB1 of the object OB is described in advance in the object coordinate data 84 as a representative position suitable for visually recognizing the object OB. A suitable area WA that is located in front of the position OB1 and excludes the prohibited area BA from the fan-shaped area centered on the position OB1 is optimal for the person H to visually recognize the position OB1 that is a representative point of the object OB. It is an important area. In addition, the movable area MA is set as an area that is located on both sides of the preferred area WA and that excludes the forbidden area BA from the fan-shaped area having a wider angle range than the preferred area WA centered on the position OB1. The robot 1 is controlled so as to move within an area that is a combination of the movement area MA and the preferred area WA when performing voice guidance of the object OB. The standing position determination unit 94B determines the standing position of the robot 1 in such an area, and outputs it to the movement command calculation unit 94C. The movement command calculation unit 94C instructs the waist / leg control unit 94G to move to the standing position determined by the standing position determination unit 94B. The waist / leg controller 94G controls the actuator attached to the lower joint from the waist joint 26 so as to move in accordance with an instruction from the movement command calculator 94C.

干渉計算部94Aは、ロボット1が案内を受ける人に干渉(接触)しないための計算を行う。図7は、ロボット1が人との干渉を避ける様子を示す図である。干渉計算部94Aは、環境認識部92から入力される人Hの位置が、ボディ部20や腕部30、手部40の位置から所定距離以内であるか否かを判定する。そして、干渉計算部94Aは、所定距離以内である場合に、腕部30を引っ込めたり、ロボット1を後退させるための制御量(腕の縮み量や立ち位置)を、立ち位置決定部94Bや指差し指令計算部94Eに出力する。図7に示すように、ロボット1は、人Hが接近して来ると、図7(B)における矢印方向に腕部30を縮めて人Hから遠ざけ、肩からの干渉半径を短くすると共に、図7(C)における矢印方向(人Hと反対の方向)に後退する。   The interference calculation unit 94A performs a calculation so that the robot 1 does not interfere (contact) with a person receiving guidance. FIG. 7 is a diagram illustrating how the robot 1 avoids human interference. The interference calculation unit 94A determines whether the position of the person H input from the environment recognition unit 92 is within a predetermined distance from the positions of the body unit 20, the arm unit 30, and the hand unit 40. Then, when the distance is within a predetermined distance, the interference calculation unit 94A sends a control amount (an arm contraction amount or a standing position) for retracting the arm unit 30 or retracting the robot 1 to the standing position determining unit 94B or the finger position. It outputs to the insertion command calculation unit 94E. As shown in FIG. 7, when the person H approaches, the robot 1 shrinks the arm 30 in the direction of the arrow in FIG. 7B to move away from the person H, shortens the interference radius from the shoulder, It moves backward in the direction of the arrow in FIG. 7C (the direction opposite to the person H).

図8は、干渉計算部94Aが立ち位置を計算する処理を説明するための図である。図中、P1点が、元々ロボット1の立ち位置である。人Hが接近すると(例えば所定距離以内となると)、干渉計算部94Aは、まず、人Hの位置から直線的に遠ざかる位置P2に仮の立ち位置を決定する。そして、干渉計算部94Aは、仮の立ち位置P2が禁止領域BA内であるか否かを判定し、禁止領域BA内である場合には、例えば対象物OBの最も近い位置OB2(OB1でもよいし、対象物OBの領域の中心点でもよい)から直線的に遠ざかる位置であって、好適領域WAまたは移動可能領域MA内に位置P3を、新たな立ち位置として決定する。この際に、干渉計算部94Aは、ボディ部20や腕部30の向きを変えずに移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これによって、ロボット1は、ボディ部20や腕部30の旋回によって人Hと干渉することを防止することができる。その後、干渉計算部94Aは、ロボット1の向きを旋回させて(図8の場合は左に旋回させて)、位置P3まで移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これらによって、ロボット1は、人や対象物OBとの干渉を避けつつ、スムーズに移動することができる。   FIG. 8 is a diagram for explaining processing in which the interference calculation unit 94A calculates the standing position. In the figure, point P1 is originally the standing position of the robot 1. When the person H approaches (for example, within a predetermined distance), the interference calculation unit 94A first determines a temporary standing position at a position P2 that is linearly away from the position of the person H. Then, the interference calculation unit 94A determines whether or not the temporary standing position P2 is within the prohibited area BA, and when it is within the prohibited area BA, for example, the closest position OB2 (OB1) of the object OB may be used. The position P3 is determined to be a new standing position that is a position that is linearly away from the center of the area of the object OB) and that is within the preferred area WA or the movable area MA. At this time, the interference calculation unit 94A moves the arm control unit 94F and the waist / legs via the standing position determination unit 94B and the movement command calculation unit 94C so as to move without changing the orientation of the body unit 20 and the arm unit 30. The control unit 94G is instructed. Thereby, the robot 1 can prevent the human body H from interfering with the turning of the body part 20 and the arm part 30. Thereafter, the interference calculation unit 94A turns the robot 1 (turns to the left in the case of FIG. 8) and moves to the position P3 via the standing position determination unit 94B and the movement command calculation unit 94C. The arm control unit 94F and the waist / leg control unit 94G are instructed. Thus, the robot 1 can move smoothly while avoiding interference with a person or the object OB.

[案内姿勢、および動作]
図9および図10は、ロボット1が対象物を指し示す際の姿勢の一例を示す図である。図9は上面視であり、図10は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24A(ボディ部20における「所定の箇所」の一例である)と、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成する。ロボット1は、対象部OBにおける所定の位置OB1の座標の情報を、対象物座標データ84として記憶部80に格納している。姿勢制御部94は、このような姿勢を実現するように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
[Guiding posture and movement]
9 and 10 are diagrams illustrating examples of postures when the robot 1 points to an object. 9 is a top view and FIG. 10 is a side view. As shown in the drawing, when the robot 1 points in the direction of a specific position OB1 in the object OB, an example of the rotation center 24A of the arm first link portion 32 in the shoulder joint portion 24 (an “predetermined portion” in the body portion 20). ), The posture in which the forefinger 43 extends on the straight line L connecting the specific positions OB1 is formed. The robot 1 stores information on the coordinates of a predetermined position OB1 in the target unit OB in the storage unit 80 as target coordinate data 84. The posture control unit 94 controls the actuators of the joint portions of the shoulder joint portion 24, the elbow joint portion 34, the wrist joint portion 38, and the hand portion 40 so as to realize such a posture. Thus, the person receiving the guidance can intuitively grasp the direction indicated by the robot 1. That is, the robot 1 can more effectively guide the line of sight of the person receiving the guidance.

また、ロボット1は、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持する。図11は、ロボット1が人差し指部43の延在方向を位置OB1に向け続ける様子を示す図である。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。   Further, the robot 1 maintains a state in which the extending direction (indicated direction) of the index finger unit 43 is directed to the position OB1 before and after moving by the processing of the interference calculation unit 94A. FIG. 11 is a diagram illustrating a state in which the robot 1 keeps the extending direction of the index finger 43 toward the position OB1. Thus, the person receiving the guidance can intuitively grasp the direction indicated by the robot 1. That is, the robot 1 can more effectively guide the line of sight of the person receiving the guidance.

なお、「指示体」の一例として人差し指部43を例示したが、これに限定されるものではない。例えば、ロボット1は、手部40全体と指示体として扱ってもよい。ロボット1は、例えば全ての指部を伸ばした状態で、手部40を対象物OBに向けてもよい。この場合、姿勢制御部94は、直線L上に手部40全体が延在する姿勢をとるように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。図12は、係る姿勢を示す図であり、ロボット1が対象物を指し示す際の姿勢の他の例を示す図である(上面視は図5とほぼ同じであるため、側面視のみ示す)。また、ロボット1は、指示棒などの道具を手部40で把持し、その把持した指示棒などを対象物OBに向けてもよい。   In addition, although the index finger part 43 was illustrated as an example of "indicator", it is not limited to this. For example, the robot 1 may be handled as the entire hand portion 40 and an indicator. For example, the robot 1 may point the hand portion 40 toward the object OB in a state where all the finger portions are extended. In this case, the posture control unit 94 adjusts the shoulder joint portion 24, the elbow joint portion 34, the wrist joint portion 38, and the joint portions of the hand portion 40 so that the entire hand portion 40 extends on the straight line L. Control the actuator. FIG. 12 is a diagram illustrating such a posture, and is a diagram illustrating another example of the posture when the robot 1 points to an object (the top view is substantially the same as FIG. 5 and thus only the side view is shown). Further, the robot 1 may hold a tool such as a pointing stick with the hand unit 40 and direct the gripped pointing stick or the like toward the object OB.

また、図13および図14は、ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。図13は上面視であり、図14は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行う。姿勢制御部94は、このような動作を実現するように、肩関節部24、肘関節部34、および手首関節部38のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。なお、このような動作は、ロボット1の腕部30から先の部材が対象物OBや人に干渉する場合にも行われる。   FIGS. 13 and 14 are diagrams schematically illustrating an operation performed when the robot 1 points to an object. FIG. 13 is a top view and FIG. 14 is a side view. As shown in the figure, when the robot 1 points in the direction of a specific position OB1 on the object OB, the index finger 43 moves on the straight line L while maintaining the state where the index finger 43 extends on the straight line L. Performs upcoming actions. The posture control unit 94 controls the actuators of the shoulder joint unit 24, the elbow joint unit 34, and the wrist joint unit 38 so as to realize such an operation. Thereby, the person who receives the guidance can more intuitively grasp the direction indicated by the robot 1. That is, the robot 1 can more effectively guide the line of sight of the person receiving the guidance. Such an operation is also performed when a member ahead of the arm 30 of the robot 1 interferes with the object OB or a person.

以下、図9〜14で説明した姿勢が実現されるまでの処理の流れについて、図5を参照しながら説明する。指差し指令計算部94Eには、例えば、指差しタイミング計算部94Dから指示タイミング信号や対象物OBの識別情報が、干渉計算部94Aから腕の縮み量を指定する情報が、対象物座標データ84から全ての対象物OBの位置が、それぞれ入力される。   Hereinafter, the flow of processing until the posture described in FIGS. 9 to 14 is realized will be described with reference to FIG. The pointing command calculator 94E includes, for example, an instruction timing signal from the pointing timing calculator 94D and identification information of the object OB, and information specifying the amount of arm contraction from the interference calculator 94A. The positions of all the objects OB are input respectively.

手首方位計算部94Eaは、まず、対象物OBの識別情報を用いて全ての対象物OBの位置から、案内を行う対象物OBの位置OB1を特定する。この位置OB1は、例えば、実座標系上の位置(展示会場を平面とした場合の位置)として記述されている。手首方位計算部94Eaは、実座標系上の位置からロボット座標系上の位置に変換する処理を行う。図15は、手首方位計算部94Eaによる処理を説明するための図である。図中、破線矢印でしめすx軸、y軸が実座標系の座標軸を示し、実線矢印で示すX軸、Y軸がロボット座標系の座標軸を示す。ロボット座標系のX軸は、例えば、ロボット1のつま先に相当する部位の向く方向と定義される。実座標系上の位置からロボット座標系上の位置への変換は、実座標系上のロボット1の位置および方位に基づいて行われる。   The wrist orientation calculation unit 94Ea first specifies the position OB1 of the target object OB to be guided from the positions of all the target objects OB using the identification information of the target object OB. This position OB1 is described as, for example, a position on the real coordinate system (a position when the exhibition hall is a plane). The wrist orientation calculation unit 94Ea performs a process of converting from a position on the real coordinate system to a position on the robot coordinate system. FIG. 15 is a diagram for explaining processing by the wrist orientation calculation unit 94Ea. In the figure, the x-axis and y-axis indicated by broken line arrows indicate the coordinate axes of the real coordinate system, and the X-axis and Y-axis indicated by the solid line arrows indicate the coordinate axes of the robot coordinate system. The X axis of the robot coordinate system is defined as a direction in which a part corresponding to the toe of the robot 1 faces, for example. The conversion from the position on the real coordinate system to the position on the robot coordinate system is performed based on the position and orientation of the robot 1 on the real coordinate system.

また、手首方位計算部94Eaは、上記の変換によって位置OB1のロボット座標系上の位置および方位が求められると、位置OB1を右腕部で指し示すか、左腕部で指し示すかを決定する。図15において、角度範囲ARは右腕で指し示すことの可能な範囲を示し、角度範囲ALは左腕で指し示すことの可能な範囲を示している。手首方位計算部94Eaは、基本的に、位置OB1の方位が角度範囲ARの範囲内であれば右腕で、位置OB1の方位が角度範囲ALの範囲内であれば左腕で指し示すと決定する。   Further, when the position and orientation of the position OB1 on the robot coordinate system are obtained by the above conversion, the wrist orientation calculation unit 94Ea determines whether the position OB1 is to be pointed by the right arm part or the left arm part. In FIG. 15, an angle range AR indicates a range that can be pointed by the right arm, and an angle range AL indicates a range that can be pointed by the left arm. The wrist orientation calculation unit 94Ea basically determines that the position is indicated with the right arm if the orientation of the position OB1 is within the range of the angle range AR, and the left arm if the orientation of the position OB1 is within the range of the angle range AL.

ここで、角度範囲AR、ALのいずれにも含まれない範囲は、その立ち位置からは指し示すことが不可能な範囲である。この場合、例えば、手首方位計算部94Eaは、音声案内制御部96に指し示すことが不能である旨の情報を出力し、音声案内制御部96は、指差しをしながら行う必要のない音声案内に切り替える制御を行う。また、図15において、角度範囲AR、ALの重複部分が存在する。この範囲内に位置OB1が存在する場合、手首方位計算部94Eaは、例えば人の位置に応じていずれの腕で指し示すかを決定する。図16は、位置OB1が角度範囲AR、ALの重複部分に存在する場合に、指し示す腕が決定される様子を示す図である。ロボット1は、例えば人Hに対して頭部10の頭部正面14(カメラ12の存在する面)を正対させて説明を行う。そして、手首方位計算部94Eaは、肩関節部24の回転中心24A、手部40、位置OB1を結ぶ直線Lが、頭部10と人とを結ぶ直線と交わらないように、いずれの腕で指し示すかを決定する。図16に示すような場面では、仮に左腕で位置OB1を指し示した場合、回転中心24A、手部40、位置OB1を結ぶ直線が、頭部正面14と人とを結ぶ直線と交差してしまい、見かけ上、不自然な姿勢となってしまう。従って、手首方位計算部94Eaは、図16に示すような場面では、右腕によって位置OB1を指し示して音声案内を行うものと決定する。   Here, a range that is not included in any of the angle ranges AR and AL is a range that cannot be indicated from the standing position. In this case, for example, the wrist orientation calculation unit 94Ea outputs information indicating that it cannot be pointed to the voice guidance control unit 96, and the voice guidance control unit 96 performs voice guidance that does not need to be performed while pointing. Perform switching control. Further, in FIG. 15, there are overlapping portions of the angle ranges AR and AL. When the position OB1 exists within this range, the wrist orientation calculation unit 94Ea determines which arm is to be pointed according to, for example, the position of the person. FIG. 16 is a diagram illustrating how the arm to be pointed is determined when the position OB1 exists in the overlapping portion of the angle ranges AR and AL. For example, the robot 1 will be described with the front surface 14 of the head 10 (the surface on which the camera 12 is present) facing the person H. The wrist orientation calculation unit 94Ea points with any arm so that the straight line L connecting the rotation center 24A of the shoulder joint 24, the hand 40, and the position OB1 does not intersect the straight line connecting the head 10 and the person. To decide. In the scene shown in FIG. 16, if the position OB1 is pointed with the left arm, a straight line connecting the rotation center 24A, the hand 40, and the position OB1 intersects a straight line connecting the head front 14 and the person, It looks like an unnatural posture. Therefore, the wrist orientation calculation unit 94Ea determines that voice guidance is performed by pointing the position OB1 with the right arm in the scene shown in FIG.

手首方位計算部94Eaによって、位置OB1の方位、すなわち人差し指部43の延在方向を決定付ける手部40の方位が決定されると、腰/腕分配部94Ebが、ロボット座標系上のX方向と人差し指部43の延在方向との角度差(例えば図15における、X軸と直線Lのなす角度)を実現するための各関節部の「ひねり」を、腰関節部26と、肩から腕にかけての関節部(肩関節部24、肘関節部34、および手首関節部38)とに分配する。腰/腕分配部94Ebは、例えば、角度差が大きくなるほど腰関節部26のひねりの割合が大きくなるように、ひねりの量を分配する。図17は、腰/腕分配部94Ebがひねりの量を分配する際の分配傾向の一例を示す図である。腰関節部26のひねり量θ26は、X軸と直線Lのなす角度をθXLとすると、例えば式(1)で求められる。
θ26=―θXL×{1―exp(|θXL/π|)} ‥(1)
When the wrist orientation calculation unit 94Ea determines the orientation of the position OB1, that is, the orientation of the hand unit 40 that determines the extending direction of the index finger 43, the waist / arm distribution unit 94Eb determines that the X direction on the robot coordinate system is The “twist” of each joint part for realizing an angle difference with the extending direction of the index finger part 43 (for example, the angle formed by the X axis and the straight line L in FIG. 15) is applied from the waist joint part 26 to the shoulder to the arm. To the joint portions (shoulder joint portion 24, elbow joint portion 34, and wrist joint portion 38). For example, the waist / arm distributor 94Eb distributes the amount of twist so that the twist ratio of the waist joint 26 increases as the angle difference increases. FIG. 17 is a diagram illustrating an example of a distribution tendency when the waist / arm distribution unit 94Eb distributes the amount of twist. The twist amount θ 26 of the waist joint portion 26 is obtained by, for example, Expression (1), where θ XL is an angle formed by the X axis and the straight line L.
θ 26 = −θ XL × {1-exp (| θ XL / π |)} (1)

腰/腕分配部94Ebによって、ひねり量の分配程度が決定されると、分配されたひねり量を実現するように、腰・脚制御部94Gによって腰関節部26に取り付けられたアクチュエータが制御される。また、手首位置計算部94Ecにより、ロボット座標系上における手部40の位置(x,y,z)が計算される。また、手先姿勢計算部により、人差し指部43の掌部41に対してなす角度が計算される。これらの計算結果を用いて腕制御部94Fが肩関節部24から先の関節部に取り付けられたアクチュエータを駆動することで、図9、10等に示した姿勢が実現される。   When the distribution amount of the twist amount is determined by the waist / arm distribution unit 94Eb, the actuator attached to the waist joint unit 26 is controlled by the waist / leg control unit 94G so as to realize the distributed twist amount. . Further, the wrist position calculation unit 94Ec calculates the position (x, y, z) of the hand unit 40 on the robot coordinate system. Further, the hand posture calculation unit calculates an angle formed with respect to the palm 41 of the index finger 43. By using these calculation results, the arm control unit 94F drives the actuator attached to the joint portion ahead of the shoulder joint portion 24, thereby realizing the posture shown in FIGS.

[処理フロー]
以下、ロボット1の立ち位置が決定されて音声案内が行われるまでの処理の流れについて、フローチャートの形式で説明する。図18は、制御部90により実行される処理の流れを示すフローチャートの一例である。まず、制御部90は、対象物OBと案内内容を決定する(ステップS100)。次に、制御部90は、指差しの必要な案内内容であるか否かを判定する(ステップS102)。指差しの必要な案内内容でない場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。
[Processing flow]
Hereinafter, the flow of processing from when the standing position of the robot 1 is determined until voice guidance is performed will be described in the form of a flowchart. FIG. 18 is an example of a flowchart showing the flow of processing executed by the control unit 90. First, the control unit 90 determines the object OB and the guidance content (step S100). Next, the control unit 90 determines whether or not the guidance content requires pointing (step S102). If the guidance content does not require pointing, the speaker 70 is controlled so that the voice guidance control unit 96 outputs voice guidance without pointing (step S116).

指差しの必要な案内内容である場合、対象物OBに干渉しない位置に立ち位置を決定する(ステップS104)。次に、姿勢制御部94は、人に接近歩行し、頭部10の正面14が人の方向を向くようにアクチュエータ群60を制御する(ステップS106)。   If the guidance content requires pointing, the standing position is determined at a position that does not interfere with the object OB (step S104). Next, the posture control unit 94 approaches the person and controls the actuator group 60 so that the front surface 14 of the head 10 faces the person (step S106).

次に、姿勢制御部94は、ジェスチャが制限されている位置関係であるか否かを判定する(ステップS108)。ジェスチャが制限されている位置関係である場合、姿勢制御部94は、離脱歩行を行い(ステップS110)、再度、ステップS108の判定を行う。   Next, the posture control unit 94 determines whether or not the gesture is in a positional relationship in which the gesture is limited (step S108). In the case of the positional relationship in which the gesture is restricted, the posture control unit 94 performs a walk away (step S110), and performs the determination in step S108 again.

ジェスチャが制限されている位置関係でない場合、姿勢制御部94は、指差しをする腕を決定する(ステップS112)。次に、姿勢制御部94は、指差し可能な位置を決定できたか否かを判定する(ステップS114)。指差し可能な位置を決定できなかった場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。   When it is not the positional relationship where the gesture is restricted, the posture control unit 94 determines an arm for pointing (step S112). Next, the posture control unit 94 determines whether or not the position where the finger can be pointed has been determined (step S114). When the position where the finger can be pointed cannot be determined, the voice guidance control unit 96 controls the speaker 70 so as to output the voice guidance without pointing (step S116).

指差し可能な位置を決定できた場合、前述したように、姿勢制御部94は、手首方位角度を決定し(ステップS118)、腰/腕分配比を決定し(ステップS120)、手首位置を決定し(ステップS122)、手先姿勢を決定する(ステップS124)。そして、姿勢制御部は、指差しが人と干渉するか否かを判定する(ステップS126)。指差しが人と干渉する場合、姿勢制御部94は、離脱歩行を行い(ステップS128)、ステップS118に戻る。   When the position where the finger can be pointed is determined, as described above, the posture control unit 94 determines the wrist azimuth angle (step S118), determines the waist / arm distribution ratio (step S120), and determines the wrist position. (Step S122), the hand posture is determined (Step S124). Then, the posture control unit determines whether or not the pointing operation interferes with a person (step S126). If the pointing hand interferes with the person, the posture control unit 94 performs a withdrawal walk (step S128) and returns to step S118.

一方、指差しが人と干渉しない場合、姿勢制御部94が指差し姿勢を形成するようにアクチュエータ群60を制御しつつ、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS130)。その後、制御部90は、音声案内が終了したか否かを判定する(ステップS132)。音声案内が終了していない場合は、アクチュエータ群60の動作履歴やカメラ12の撮像画像解析によって、ロボット1の位置を取得し(ステップS134)、ステップS118に戻る。音声案内が終了した場合、本フローチャートの1ルーチンが終了する。   On the other hand, when the pointing does not interfere with a person, the voice guidance control unit 96 controls the speaker 70 so as to output the voice guidance while controlling the actuator group 60 so that the posture control unit 94 forms the pointing posture. (Step S130). Thereafter, the control unit 90 determines whether or not the voice guidance is finished (step S132). If the voice guidance has not ended, the position of the robot 1 is acquired from the operation history of the actuator group 60 and the captured image analysis of the camera 12 (step S134), and the process returns to step S118. When the voice guidance is finished, one routine of this flowchart is finished.

[呼びかけ制御]
ロボット1は、以下に説明するように、対象物OBについての音声案内を行う前に、人Hを好適位置WAに誘導する動作を行ってもよい。図19は、ロボット1が、人Hを好適位置WAに誘導する様子を示す図である。図19(A)に示すように、ロボット1は、まず好適領域WA内に立ち、対象物OBを指し示しながら人Hに対して自己の位置に来るように呼びかける音声(「こっちだよ」など)を出力する。そして、図19(B)に示すように、人Hが接近して来るのに応じて対象物OBを指し示しながら移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力する。係る制御によって、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。
[Call control]
As described below, the robot 1 may perform an operation of guiding the person H to the preferred position WA before performing the voice guidance for the object OB. FIG. 19 is a diagram illustrating a state in which the robot 1 guides the person H to the preferred position WA. As shown in FIG. 19A, the robot 1 first stands in the suitable area WA and calls the person H to point at his / her position while pointing to the object OB (such as “This is it”). Is output. Then, as shown in FIG. 19B, as the person H approaches, the object OB moves backward while pointing to the object OB, and when the person H enters the preferred area WA, the object OB Output voice guidance for. With this control, the robot 1 can guide a person to a position where the object OB can be easily seen.

図20は、ロボット1が、人Hを好適位置WAに誘導する際に実行される処理の流れを示すフローチャートの一例である。まず、姿勢制御部94は、好適領域WAまたは移動可能領域MA内に人がいないか否かを判定する(ステップS200)。好適領域WAまたは移動可能領域MA内に人がいる場合は、本フローチャートの1ルーチンが終了される。この場合、例えば図18のフローチャートの処理が実行される。   FIG. 20 is an example of a flowchart showing a flow of processing executed when the robot 1 guides the person H to the preferred position WA. First, the posture control unit 94 determines whether or not there is a person in the preferred area WA or the movable area MA (step S200). If there is a person in the preferred area WA or the movable area MA, one routine of this flowchart is terminated. In this case, for example, the process of the flowchart of FIG. 18 is executed.

好適領域WAまたは移動可能領域MA内に人がいない場合、姿勢制御部94は、ロボット1を好適領域WA内に移動させる(ステップS202)。そして、環境認識部92により遠い位置で人が検知されたか否かを判定する(ステップS204)。「遠い位置」とは、好適領域WAと移動可能領域MAの領域外の位置を意味してもよいし、好適領域WAと移動可能領域MAの外縁から所定距離以上、或いはロボット1から所定距離以上の位置を意味してもよい。遠い位置で人が検知されなかった場合は、本フローチャートの1ルーチンが終了される。   When there is no person in the preferred area WA or the movable area MA, the posture control unit 94 moves the robot 1 into the preferred area WA (step S202). Then, it is determined whether or not a person is detected at a far position by the environment recognition unit 92 (step S204). The “distant position” may mean a position outside the area of the preferred area WA and the movable area MA, or a predetermined distance or more from the outer edge of the preferred area WA and the movable area MA, or a predetermined distance or more from the robot 1. May mean the position of If no person is detected at a far position, one routine of this flowchart is terminated.

遠い位置で人が検知された場合、ロボット1は、人に対して自己の位置に来るように呼びかける音声を出力する(ステップS206)。そして、姿勢制御部94は、人が接近しているか否かを判定する(ステップS208)。人が接近している場合、姿勢制御部94は、人の接近に応じてロボット1を後退させる(ステップS210)。   When a person is detected at a far position, the robot 1 outputs a voice calling the person to come to his / her position (step S206). Then, posture control unit 94 determines whether or not a person is approaching (step S208). When the person is approaching, the posture control unit 94 moves the robot 1 backward in accordance with the approach of the person (step S210).

次に、姿勢制御部94は、人が好適領域WAに入ったか否かを判定する(ステップS212)。人が好適領域WAに入ると、音声案内制御部96は、対象物OBについての音声案内を開始するようにスピーカ70を制御する(ステップS214)。なお、ステップS208またはS212で否定的な判定が得られた場合、ステップS204の判定処理に戻る。   Next, the posture control unit 94 determines whether or not a person has entered the preferred area WA (step S212). When a person enters the preferred area WA, the voice guidance control unit 96 controls the speaker 70 to start voice guidance for the object OB (step S214). If a negative determination is obtained in step S208 or S212, the process returns to the determination process in step S204.

以上説明した本実施形態のロボット1によれば、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。   According to the robot 1 of the present embodiment described above, guidance is provided in order to maintain the state in which the extending direction (indicated direction) of the index finger unit 43 is directed to the position OB1 before and after moving by the processing of the interference calculation unit 94A. The recipient can intuitively grasp the direction indicated by the robot 1. As a result, the robot 1 can more effectively guide the line of sight of the person receiving the guidance.

また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24Aと、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。   Further, according to the robot 1 of the present embodiment, when pointing in the direction of the specific position OB1 in the object OB, the straight line connecting the rotation center 24A of the arm first link portion 32 in the shoulder joint portion 24 and the specific position OB1. Since the posture in which the index finger portion 43 extends on L is formed, the person receiving the guidance can intuitively grasp the direction indicated by the robot 1. As a result, the robot 1 can more effectively guide the line of sight of the person receiving the guidance.

また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行うため、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。   Further, according to the robot 1 of the present embodiment, when pointing in the direction of the specific position OB1 in the object OB, the index finger 43 is on the straight line L while maintaining the state where the index finger 43 extends on the straight line L. Therefore, the person receiving the guidance can more intuitively grasp the direction indicated by the robot 1. As a result, the robot 1 can more effectively guide the line of sight of the person receiving the guidance.

また、本実施形態のロボット1によれば、まず好適領域WA内に立ち、人Hに対して自己の位置に来るように呼びかける音声を出力し、人Hが接近して来るのに応じて移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力するため、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。   Further, according to the robot 1 of the present embodiment, first, the user stands in the preferred area WA, outputs a voice calling the person H to come to his / her position, and moves as the person H approaches. When the person H moves backward to the possible area MA and enters the suitable area WA, the robot 1 can guide the person to a position where the object OB can be easily viewed because the voice guidance about the object OB is output.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

1 ロボット(ロボット)
10 頭部
12 カメラ(検知部)
20 ボディ部(ボディ部)
24 肩関節部
30 腕部(連結部)
32 腕第1リンク部
34 肘関節部(中間関節部)
36 腕第2リンク部
38 手首関節部
40 手部
50 脚部
41 掌部
42 親指部
43 人差し指部(指示体)
44 中指部
45 薬指部
41A〜41E 基節関節部
43A 人差し指先端部
43B 人差し指第1関節部
43C 人差し指第1リンク部
43D 人差し指第2関節部
43E 人差し指第2リンク部
60 アクチュエータ群(駆動部)
62 ロータリーエンコーダ群
70 スピーカ(出力部)
80 記憶部
90 制御部
92 環境認識部
94 姿勢制御部(制御部)
96 音声案内制御部
1 Robot (Robot)
10 head 12 camera (detection unit)
20 Body part (Body part)
24 shoulder joint 30 arm (connecting part)
32 First arm link part 34 Elbow joint part (intermediate joint part)
36 second arm link part 38 wrist joint part 40 hand part 50 leg part 41 palm part 42 thumb part 43 index finger part (indicator)
44 Middle finger portion 45 Ring finger portion 41A to 41E Proximal joint portion 43A Index finger tip portion 43B Index finger first joint portion 43C Index finger first link portion 43D Index finger second joint portion 43E Index finger second link portion 60 Actuator group (drive unit)
62 Rotary encoder group 70 Speaker (output unit)
80 storage unit 90 control unit 92 environment recognition unit 94 attitude control unit (control unit)
96 Voice guidance controller

Claims (13)

方向を指し示すための指示体と、
前記指示体を駆動する駆動部と、
前記駆動部が取り付けられたボディ部を移動させる移動部と、
前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部を備える連結部と、
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように、前記駆動部を制御する制御部と、を備え、
前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる、
ロボット。
An indicator for pointing in the direction;
A drive unit for driving the indicator;
A moving part for moving the body part to which the driving part is attached;
Connecting the body part and the indicator, a connecting part including one or more intermediate joints between a connecting part of the body part and a connecting part of the indicator;
When causing the indicator to indicate the direction of the object, at least a part of the indicator extends on a straight line connecting a predetermined position in the body portion and the position of the object; and A control unit that controls the drive unit so that the direction of the straight line and the direction indicated by the indicator coincide with each other,
When the control unit causes the indicator to indicate the direction of the object, at least one of the one or more intermediate joints deviates from the straight line, and at least one of the indicators on the straight line. The drive part can be controlled so that the part extends,
robot.
請求項1記載のロボットであって、
前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する、
ロボット。
The robot according to claim 1,
The control unit controls the driving unit so as to maintain a state in which the object is positioned in a direction indicated by the indicator before and after the body unit is moved by the moving unit.
robot.
請求項1または2記載のロボットであって、
前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる、
ロボット。
The robot according to claim 1 or 2 , wherein
When the control unit causes the indicator to indicate the direction of the object, the indicator reciprocates on the straight line with the one or more intermediate joints deviating from the straight line. The drive can be controlled,
robot.
請求項1から3のうちいずれか1項記載のロボットであって、
前記駆動部は、前記連結部を前記ボディ部における前記所定箇所を中心として回転駆動する、
ロボット。
The robot according to any one of claims 1 to 3 ,
The driving unit rotationally drives the coupling portion about said predetermined point in said body portion,
robot.
請求項1から4のうちいずれか1項記載のロボットであって、
人の位置を検知する検知部を備え、
前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する、
ロボット。
The robot according to any one of claims 1 to 4 ,
It has a detector that detects the position of a person,
The control unit controls the moving unit so that the body unit is separated from the person when the body unit is in a region centered on the person.
robot.
請求項記載のロボットであって、
前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する、
ロボット。
The robot according to claim 5 , wherein
The control unit controls the moving unit so as to move without changing the orientation of the body unit when the moving unit is controlled so that the body unit is separated from the person, and then the body unit is moved. Turning and controlling the moving part so that the body part moves to a target position determined based on the position of the object;
robot.
請求項1から6のうちいずれか1項記載のロボットであって、
人の位置を検知する検知部を備え、
前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する、
ロボット。
The robot according to any one of claims 1 to 6 ,
It has a detector that detects the position of a person,
The control unit controls the moving unit so that the body unit moves to an initial position on the basis of the position of the object before instructing the direction of the object by the indicator, When the detection unit detects that the body unit is approaching the body unit, the moving unit is controlled so that the body unit is separated from the initial position.
robot.
請求項記載のロボットであって、
音声を出力する出力部を備え、
前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する、
ロボット。
The robot according to claim 7 , wherein
It has an output unit that outputs audio,
The control unit controls the output unit to output a voice calling a person to come to the initial position when the body unit moves to the initial position.
robot.
請求項記載のロボットであって、
前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する、
ロボット。
The robot according to claim 8 , wherein
The control unit controls the output unit to start voice guidance for the object when a person moves to the initial position.
robot.
請求項1からのうちいずれか1項記載のロボットであって、
人の位置を検知する検知部を備え、
前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する、
ロボット。
The robot according to any one of claims 1 to 9 ,
It has a detector that detects the position of a person,
The control unit has a distance between the position of the body unit and the position of the person detected by the detection unit equal to or greater than a first predetermined distance, and the position of the body unit and the position of the object Controlling the moving unit such that the distance between the second predetermined distance and the distance is not less than
robot.
請求項1から10のうちいずれか1項記載のロボットであって、
2つのアーム部の先端に前記指示体が取り付けられ、
前記移動部は、2つの脚部を備える、
ロボット。
The robot according to any one of claims 1 to 10 ,
The indicator is attached to the tips of the two arm parts,
The moving unit includes two legs.
robot.
方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御方法であって、
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を備え、
前記駆動部を制御するステップにおいて、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する、
ロボット制御方法。
An indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached ; and the body unit and the indicator, A control method for a robot comprising one or more intermediate joints between a connection point between the pointer and the indicator ,
Calculating the position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object when the indicator is instructed in the direction of the object;
Controlling the drive unit so that the indicator is located at the calculated position, and the direction of the straight line and the direction indicated by the indicator coincide with each other,
In the step of controlling the drive unit, the drive so that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. Control the part,
Robot control method.
方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御プログラムであって、
コンピュータに、
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を実行させ、
前記駆動部を制御するステップにおいて、前記コンピュータに、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御させる、
ロボット制御プログラム。
An indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached ; and the body unit and the indicator, A control program for a robot comprising one or more intermediate joints between a connection point between the indicator and the indicator ,
On the computer,
Calculating the position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object when the indicator is instructed in the direction of the object;
Controlling the drive unit so that the indicator is positioned at the calculated position, and the direction of the straight line and the direction indicated by the indicator coincide with each other, and
In the step of controlling the drive unit, the computer is configured such that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. To control the drive unit,
Robot control program.
JP2013202688A 2013-09-27 2013-09-27 Robot, robot control method, and robot control program Expired - Fee Related JP6158665B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013202688A JP6158665B2 (en) 2013-09-27 2013-09-27 Robot, robot control method, and robot control program
US14/498,871 US9517559B2 (en) 2013-09-27 2014-09-26 Robot control system, robot control method and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202688A JP6158665B2 (en) 2013-09-27 2013-09-27 Robot, robot control method, and robot control program

Publications (2)

Publication Number Publication Date
JP2015066632A JP2015066632A (en) 2015-04-13
JP6158665B2 true JP6158665B2 (en) 2017-07-05

Family

ID=52833920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202688A Expired - Fee Related JP6158665B2 (en) 2013-09-27 2013-09-27 Robot, robot control method, and robot control program

Country Status (1)

Country Link
JP (1) JP6158665B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444876B2 (en) * 2014-09-02 2019-10-15 Spring Power Holdings Limited Human-computer interface device and system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6886663B2 (en) * 2018-02-19 2021-06-16 日本電信電話株式会社 Operation instruction generation system, method and program
JP2022073395A (en) * 2020-10-30 2022-05-17 川崎重工業株式会社 Unmanned delivery system and unmanned delivery method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472920B2 (en) * 2000-05-22 2003-12-02 日本電信電話株式会社 Robot and electronic commerce system using the robot
JP2004154918A (en) * 2002-11-08 2004-06-03 Nissan Motor Co Ltd Robot arm moving mechanism and car navigation system
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer
JP4601458B2 (en) * 2004-07-07 2010-12-22 株式会社内田洋行 Direction indicator
JP2006231447A (en) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP2010231315A (en) * 2009-03-26 2010-10-14 Fujitsu Ltd Information providing device
JP5391505B2 (en) * 2010-02-26 2014-01-15 株式会社国際電気通信基礎技術研究所 Area dividing device, area dividing program, area dividing method, and communication robot
JP5617562B2 (en) * 2010-11-26 2014-11-05 株式会社国際電気通信基礎技術研究所 Mobile robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444876B2 (en) * 2014-09-02 2019-10-15 Spring Power Holdings Limited Human-computer interface device and system

Also Published As

Publication number Publication date
JP2015066632A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
US8380348B2 (en) Robot
US8577126B2 (en) System and method for cooperative remote vehicle behavior
JP4565229B2 (en) robot
KR101789064B1 (en) Method and system for hand control of a teleoperated minimally invasive slave surgical instrument
KR101785360B1 (en) Method and system for hand presence detection in a minimally invasive surgical system
US10913151B1 (en) Object hand-over between robot and actor
US8924020B2 (en) Apparatus for controlling robot and control method thereof
JP7111114B2 (en) Information processing device, information processing method, and information processing system
US8855814B2 (en) Robot and control method thereof
US20090180668A1 (en) System and method for cooperative remote vehicle behavior
KR20120102647A (en) A master finger tracking device and method of use in a minimally invasive surgical system
KR20130027006A (en) Method and apparatus for hand gesture control in a minimally invasive surgical system
JP2007181888A (en) Communication robot system
KR102170638B1 (en) Method for controlling interaction in virtual reality by tracking fingertips and VR system using it
JP6158665B2 (en) Robot, robot control method, and robot control program
WO2009096408A1 (en) Articulated structure teaching device
US9193070B2 (en) Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object
KR101818869B1 (en) Broadcasting Image Equipment using Multi-Joint Movement Manipulator and Method of Controlling thereof
Omrčen et al. Redundant control of a humanoid robot head with foveated vision for object tracking
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
JP2007125653A (en) Gripping control device of robot hand
JP2003062775A (en) Teaching system for human hand type robot
JP4878462B2 (en) Communication robot
CN110877335A (en) Self-adaptive unmarked mechanical arm track tracking method based on hybrid filter
JP6647143B2 (en) Functional device, control device and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170608

R150 Certificate of patent or registration of utility model

Ref document number: 6158665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees