JP6158665B2 - Robot, robot control method, and robot control program - Google Patents
Robot, robot control method, and robot control program Download PDFInfo
- Publication number
- JP6158665B2 JP6158665B2 JP2013202688A JP2013202688A JP6158665B2 JP 6158665 B2 JP6158665 B2 JP 6158665B2 JP 2013202688 A JP2013202688 A JP 2013202688A JP 2013202688 A JP2013202688 A JP 2013202688A JP 6158665 B2 JP6158665 B2 JP 6158665B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- robot
- indicator
- person
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 19
- 238000001514 detection method Methods 0.000 claims description 11
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 46
- 238000004364 calculation method Methods 0.000 description 39
- 230000036544 posture Effects 0.000 description 34
- 210000001624 hip Anatomy 0.000 description 21
- 210000002414 leg Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 210000000707 wrist Anatomy 0.000 description 16
- 210000000323 shoulder joint Anatomy 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 210000003813 thumb Anatomy 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 210000002310 elbow joint Anatomy 0.000 description 7
- 210000003857 wrist joint Anatomy 0.000 description 7
- 210000000629 knee joint Anatomy 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000004394 hip joint Anatomy 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
本発明は、ロボット、ロボット制御方法、およびロボット制御プログラムに関する。 The present invention relates to a robot, a robot control method, and a robot control program.
従来、展示品等を案内するロボットについて研究が進められている。例えば、2本のアーム部を備え、いずれかのアーム部で対象を指し示す動作を行うロボットの発明が開示されている(例えば、特許文献1参照)。 Conventionally, research has been conducted on robots that guide exhibits and the like. For example, an invention of a robot that includes two arm portions and performs an operation of pointing an object with one of the arm portions is disclosed (for example, see Patent Document 1).
また、関連する技術として、展示品の説明ロボットとは別にレーザ表示装置を備え、レーザ光を照射した展示品についての案内音声を再生する技術が開示されている(例えば、特許文献2参照)。また、展示品に対して向けられた見物人の視線を遮らずに、展示物について説明を行う位置に移動するロボットの発明が開示されている(例えば、特許文献3参照)。 In addition, as a related technique, a technique is disclosed in which a laser display device is provided separately from the exhibit explanation robot, and a guidance voice for an exhibit that has been irradiated with laser light is reproduced (for example, see Patent Document 2). Further, an invention of a robot that moves to a position where an exhibit is described without obstructing the sight line of a spectator directed toward the exhibit is disclosed (for example, see Patent Document 3).
従来の技術では、自律的に移動するロボットが案内の対象物を指し示す際に、案内を受ける人の視線を効果的に誘導することができない場合があった。 In the conventional technology, when a robot that moves autonomously points to an object to be guided, it may not be possible to effectively guide the line of sight of the person receiving the guidance.
本発明は、このような事情を考慮してなされたものであり、案内を受ける人の視線を、より効果的に誘導することが可能なロボット、ロボット制御方法、およびロボット制御プログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a robot, a robot control method, and a robot control program capable of more effectively guiding the gaze of a person receiving guidance. Is one of the purposes.
請求項1記載のロボットは、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部を備える連結部と、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように、前記駆動部を制御する制御部と、を備え、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる。
The robot according to
請求項2記載のロボットは、請求項1記載のロボットであって、前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する。
The robot according to claim 2 is the robot according to
請求項3記載のロボットは、請求項1または2記載のロボットであって、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる。
The robot according to claim 3 is the robot according to
請求項4記載のロボットは、請求項1から3のうちいずれか1項記載のロボットであって、前記駆動部は、前記連結部を前記ボディ部における前記所定の箇所(例えば実施形態の肩関節部24における回転中心24A)を中心として回転駆動する。
Robot according to claim 4 is a robot according to any one of
請求項5記載のロボットは、請求項1から4のうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する。
The robot according to
請求項6記載のロボットは、請求項5記載のロボットであって、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する。
The robot according to
請求項7記載のロボットは、請求項1から6のうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する。
The robot according to claim 7 is the robot according to any one of
請求項8記載のロボットは、請求項7記載のロボットであって、音声を出力する出力部(例えば実施形態のスピーカ70)を備え、前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する。
The robot according to claim 8 is the robot according to claim 7 , comprising an output unit (for example, the
請求項9記載のロボットは、請求項8記載のロボットであって、前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する。 The robot according to claim 9 is the robot according to claim 8 , wherein when the person moves to the initial position, the output unit starts to guide the object by voice. To control.
請求項10記載のロボットは、請求項1から9のうちいずれか1項記載のロボットであって、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する。 A robot according to a tenth aspect is the robot according to any one of the first to ninth aspects, further comprising a detection unit that detects the position of a person, and the control unit is configured to detect the position of the body unit and the detection. The distance between the position of the person detected by the part and the position of the object is equal to or greater than a first predetermined distance, and the distance between the position of the body part and the position of the object is equal to or greater than a second predetermined distance. In addition, the moving unit is controlled.
請求項11記載のロボットは、請求項1から10のうちいずれか1項記載のロボットであって、2つのアーム部の先端に前記指示体が取り付けられ、前記移動部は、2つの脚部を備える。 A robot according to an eleventh aspect is the robot according to any one of the first to tenth aspects, wherein the indicator is attached to tips of two arm portions, and the moving portion includes two leg portions. Prepare.
請求項12記載のロボット制御方法は、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御方法であって、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を備え、前記駆動部を制御するステップにおいて、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する、ロボット制御方法である。
The robot control method according to
請求項13記載のロボット制御プログラムは、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部と、を備えるロボットの制御プログラムであって、コンピュータに、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を実行させ、前記駆動部を制御するステップにおいて、前記コンピュータに、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御させる、ロボット制御プログラムである。 The robot control program according to claim 13, comprising: an indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached; the body unit; A control program for a robot , which is connected to an indicator, and includes one or more intermediate joints between a connection location with the body portion and a connection location with the indicator. When instructing the direction of the object, a step of calculating a position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object; and the instruction at the calculated position body located, and the step of controlling the drive unit so that the direction coincides pointed to the pointer to the direction of the straight line, is executed, in the step of controlling the drive unit Causing the computer to control the driving unit such that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. It is a robot control program .
請求項1〜4、12、13記載の発明によれば、ボディ部における所定の箇所と対象物の位置を結ぶ直線上に指示体の少なくとも一部が延在するように制御するため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、更に効果的に誘導することができる。 According to the first to fourth, twelfth, thirteenth and thirteenth aspects of the present invention, guidance is provided for controlling so that at least a part of the indicator extends on a straight line connecting a predetermined position in the body portion and the position of the object. The recipient can intuitively grasp the direction indicated by the robot. As a result, it is possible to more effectively guide the line of sight of the person receiving the guidance.
請求項2記載の発明によれば、移動部によりボディ部が移動する前後において、指示体の指し示す方向に対象物が位置する状態が維持されるため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、より効果的に誘導することができる。 According to the second aspect of the present invention, since the state in which the object is positioned in the direction indicated by the indicator is maintained before and after the body portion is moved by the moving unit, Can be grasped intuitively. As a result, the line of sight of the person receiving the guidance can be more effectively guided.
請求項5記載の発明によれば、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御するため、人との干渉を防止することができる。 According to a fifth aspect of the present invention, the apparatus includes a detection unit that detects the position of a person, and the control unit is configured such that the body part is separated from the person when the body part is in a region centered on the person. Thus, since the moving unit is controlled, interference with a person can be prevented.
請求項6記載の発明によれば、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御するため、旋回によって人と干渉することを防止することができる。
According to the invention of
請求項7〜9記載の発明によれば、指示体に対象物の方向を指示させる前に、ボディ部が対象物の位置を基準とした初期位置に移動するように移動部を制御し、その後、人がボディ部に接近することが検知部により検知された場合に、ボディ部が初期位置から離れるように移動部を制御するため、対象物を見やすい位置に人を誘導することができる。 According to the seventh to ninth aspects of the invention, before causing the indicator to indicate the direction of the object, the moving part is controlled so that the body part moves to an initial position based on the position of the object, and thereafter When the detection unit detects that the person approaches the body part, the moving part is controlled so that the body part moves away from the initial position, so that the person can be guided to a position where the object can be easily seen.
請求項10記載の発明によれば、ボディ部の位置と検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、ボディ部の位置と対象物の位置との間の距離が第2の所定距離以上となるように制御するため、人や対象物との干渉を避けつつ、スムーズに移動することができる。
According to invention of
以下、図面を参照し、ロボット、ロボット制御方法、およびロボット制御プログラムの実施形態について説明する。以下に説明するロボットは、例えば、左右一対の脚部と左右一対の腕部とを備え、脚部の動作によって移動可能な人型ロボットである。なお、これに限らず、ロボットは、車輪やホバークラフト等によって移動可能なロボットであってもよいし、腕部を一つまたは三つ以上有するものであってもよい。 Hereinafter, embodiments of a robot, a robot control method, and a robot control program will be described with reference to the drawings. The robot described below is, for example, a humanoid robot that includes a pair of left and right legs and a pair of left and right arms, and is movable by the movement of the legs. However, the present invention is not limited to this, and the robot may be a robot that can be moved by wheels, hovercraft, or the like, or may have one or three or more arms.
[構成]
図1は、一実施形態に係るロボット1の外観構成の一例を示す図である。また、図2は、ロボット1が備える機能構成の一例を示す図である。ロボット1は、例えば、頭部10と、ボディ部20と、左右一対の腕部30と、左右一対の手部40と、左右一対の脚部50とを備える。なお、以下では、左右一対の構成要素について、左右いずれの構成要素であるかを区別せずに説明する。
[Constitution]
FIG. 1 is a diagram illustrating an example of an external configuration of a
頭部10には、左右一対のカメラ12が取り付けられている。カメラ12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を有するカメラである。カメラ12は、可視光または赤外光を撮像し、撮像した画像を制御部90に送信する。
A pair of left and
ボディ部20は、首関節部22を介して頭部10と連結され、肩関節部24を介して腕部30と連結され、腰関節部26および股関節部28を介して脚部50と連結される。首関節部22は、頭部10をボディ部20に対して、例えばロール方向に1自由度で回動させる。以下の説明では、回動方向をヨー方向、ピッチ方向、ロール方向と表現して説明する。図3は、ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。図示するように、関節部Aから見た被駆動部材Bの方向Cを軸として被駆動部材Bを回動させる方向をロール方向と定義する。また、方向C自体を第1の方向に回動させる方向をピッチ方向と、方向C自体を第1の方向に直交する第2の方向に回動させる方向をヨー方向と定義する。
The
肩関節部24は、腕部30をボディ部20に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。腰関節部26は、股関節部28をボディ部に対して、例えばロール方向に1自由度で回動させる。股関節部28は、脚部50を腰関節部26に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。なお、ボディ部20には、図示しない腰カメラ等が内蔵されてよい。
The shoulder
腕部30は、例えば、二の腕に相当する腕第1リンク部32と、肘関節部34と、前腕部に相当する腕第2リンク部36と、手首関節部38とを備える。肘関節部34は、腕第2リンク部36を腕第1リンク部32に対して、例えばピッチ方向に(腕の内側に)1自由度で回動させる。手首関節部38は、手部40を腕第2リンク部36に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。
The
手部40は、例えば、掌部41と、親指部42と、人差し指部43と、中指部44と、薬指部45と、小指部46とを備える。図4は、手部40を拡大して示す図である。各指部は掌部41に対して、基節関節部41A〜41Eにより、ピッチ方向およびロール方向に2自由度で回動することができる。親指部42は、親指先端部42Aと、親指第1関節部42Bと、親指第1リンク部42Cとを備える。親指第1関節部42Bは、親指先端部42Aを親指第1リンク部42Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指部43は、人差し指先端部43Aと、人差し指第1関節部43Bと、人差し指第1リンク部43Cと、人差し指第2関節部43Dと、人差し指第2リンク部43Eとを備える。人差し指第1関節部43Bは、人差し指先端部43Aを人差し指第1リンク部43Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指第2関節部43Dは、人差し指第1リンク部43Cを人差し指第2リンク部43Eに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。中指部44、薬指部45、小指部46の構成については人差し指部43と同様に先端部、第1関節部、第1リンク部、第2関節部、第2リンク部を備える。これらについての詳細な説明は省略する。
The
脚部50は、例えば、脚第1リンク部51と、膝関節部52と、脚第2リンク部53と、足首関節部54と、足部55とを備える。膝関節部52は、脚第2リンク部53を脚第1リンク部51に対して、例えばピッチ方向に1自由度で回動させる。足首関節部54は、足部55を脚第2リンク部53に対して、例えばピッチ方向およびロール方向に2自由度で回動させる。
The
ロボット1は、関節部に回動力を付与し、被駆動部材(膝関節部52であれば脚第2リンク部53)を連結元部材(膝関節部52であれば脚第1リンク部51)に対して回動させるアクチュエータ群60を備える。アクチュエータ群60の各アクチュエータは、関節部毎に設けられてもよいし、複数の関節部に回動力を付与するアクチュエータが存在してもよい。また、アクチュエータは、関節部に内蔵されてもよいし、関節部の外に配置されてもよい。後者の場合、アクチュエータは、ワイヤーやベルト、プーリ、油圧機構等によって関節部や被駆動部材と接続されることで、関節部に回動力を付与する。
The
また、アクチュエータ群60に含まれる各アクチュエータには、ロータリーエンコーダ群62に含まれる各ロータリーエンコーダが取り付けられる。各ロータリーエンコーダは、対応するアクチュエータの回転角度をそれぞれ検出して制御部90に送信する。なお、ロータリーエンコーダ群62は、アクチュエータ群60の回転角度ではなく、関節部の回転角度を検出してもよい。
Each rotary encoder included in the
ロボット1は、音声を出力するためのスピーカ70を備える。スピーカ70が出力する音声の内容は、制御部90によって決定される。ロボット1は、更に、記憶部80と制御部90を備える。記憶部80は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等を含む。記憶部80には、制御部90が備えるCPU(Central Processing Unit)等のプロセッサが実行する制御プログラム82、ロボット1が案内の対象とする対象物OBの位置を示す対象物座標データ84、案内用音声データ86等のデータが格納される。制御プログラム82は、予め記憶部80に格納されていてもよいし、インターネットを介して他のコンピュータ装置からダウンロードされてもよい。また、可搬型記憶媒体に格納された制御プログラム82が記憶部80にインストールされてもよい。
The
制御部90は、例えば、環境認識部92と、姿勢制御部94と、音声案内制御部96とを備える。これらの機能部のうち一部または全部は、制御部90のプロセッサが、制御プログラム82を実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
The
環境認識部92は、カメラ12から入力された撮像画像を解析し、前述した対象物や、人の位置を把握する。なお、ロボット1には、例えば対象物OBの置かれた家屋の天井等に取り付けられたカメラの撮像画像が入力され、この撮像画像を解析することで対象物や人の位置を把握してもよい。こうすれば、俯瞰的な情報を得ることができるため、より正確に環境を認識することができる。また、環境認識部92は、赤外線レーダや超音波レーダ等によって物体の位置を把握してもよい。姿勢制御部94は、対象物について案内をする際に、手部40によって対象物を指し示すようにアクチュエータ群を制御する。音声案内制御部96は、対象物を案内する音声を出力するようにスピーカ70を制御する。
The
図5は、制御部90の機能構成を、より詳細に示す図である。姿勢制御部94は、干渉計算部94Aと、立ち位置決定部94Bと、移動指令計算部94Cと、指差しタイミング計算部94Dと、指差し指令計算部94Eと、腕制御部94Fと、腰・脚制御部94Gとを備える。指差し指令計算部94Eは、更に、手首方位計算部94Eaと、腰/腕分配部94Ebと、手首位置計算部94Ecと、手先姿勢計算部94Edとを備える。
FIG. 5 is a diagram illustrating the functional configuration of the
[ロボット1の移動]
ロボット1は、対象物OBとの位置や案内を受ける人の位置に応じて移動する。そして、移動する前後において、例えば人差し指部43の指し示す方向に、対象物OBの所定の位置OB1が位置する状態を維持するように、アクチュエータ群60を制御する。以下、これについて説明する。
[Movement of robot 1]
The
図6は、ロボット1の移動原理を説明するための図である。ロボット1は、対象物OBの位置領域を対象物座標データ84として格納しており、立ち位置決定部94Bは、その位置領域の外縁から所定距離以内の領域を禁止領域BAとして設定する。また、対象物OBの位置OB1は、対象物OBを視認するのに適した代表的な位置として予め対象物座標データ84に記述されている。そして、位置OB1の正面に位置し、位置OB1を中心とした扇型領域から禁止領域BAを除外した好適領域WAは、人Hが対象物OBの代表点である位置OB1を視認するのに最適な領域となっている。また、好適領域WAの両側に位置し、位置OB1を中心とした好適領域WAよりも角度範囲の広い扇型領域から禁止領域BAを除外した領域が、移動可能領域MAが設定される。ロボット1は、対象物OBの音声案内をするときには、移動領域MAと好適領域WAを合わせた領域内で移動するように制御される。立ち位置決定部94Bは、このような領域内にロボット1の立ち位置を決定し、移動指令計算部94Cに出力する。移動指令計算部94Cは、立ち位置決定部94Bにより決定された立ち位置に移動するように、腰・脚制御部94Gに指示する。腰・脚制御部94Gは、移動指令計算部94Cからの指示に応じて移動するように、腰関節部26から下側の関節部に取り付けられたアクチュエータを制御する。
FIG. 6 is a diagram for explaining the principle of movement of the
干渉計算部94Aは、ロボット1が案内を受ける人に干渉(接触)しないための計算を行う。図7は、ロボット1が人との干渉を避ける様子を示す図である。干渉計算部94Aは、環境認識部92から入力される人Hの位置が、ボディ部20や腕部30、手部40の位置から所定距離以内であるか否かを判定する。そして、干渉計算部94Aは、所定距離以内である場合に、腕部30を引っ込めたり、ロボット1を後退させるための制御量(腕の縮み量や立ち位置)を、立ち位置決定部94Bや指差し指令計算部94Eに出力する。図7に示すように、ロボット1は、人Hが接近して来ると、図7(B)における矢印方向に腕部30を縮めて人Hから遠ざけ、肩からの干渉半径を短くすると共に、図7(C)における矢印方向(人Hと反対の方向)に後退する。
The
図8は、干渉計算部94Aが立ち位置を計算する処理を説明するための図である。図中、P1点が、元々ロボット1の立ち位置である。人Hが接近すると(例えば所定距離以内となると)、干渉計算部94Aは、まず、人Hの位置から直線的に遠ざかる位置P2に仮の立ち位置を決定する。そして、干渉計算部94Aは、仮の立ち位置P2が禁止領域BA内であるか否かを判定し、禁止領域BA内である場合には、例えば対象物OBの最も近い位置OB2(OB1でもよいし、対象物OBの領域の中心点でもよい)から直線的に遠ざかる位置であって、好適領域WAまたは移動可能領域MA内に位置P3を、新たな立ち位置として決定する。この際に、干渉計算部94Aは、ボディ部20や腕部30の向きを変えずに移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これによって、ロボット1は、ボディ部20や腕部30の旋回によって人Hと干渉することを防止することができる。その後、干渉計算部94Aは、ロボット1の向きを旋回させて(図8の場合は左に旋回させて)、位置P3まで移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これらによって、ロボット1は、人や対象物OBとの干渉を避けつつ、スムーズに移動することができる。
FIG. 8 is a diagram for explaining processing in which the
[案内姿勢、および動作]
図9および図10は、ロボット1が対象物を指し示す際の姿勢の一例を示す図である。図9は上面視であり、図10は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24A(ボディ部20における「所定の箇所」の一例である)と、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成する。ロボット1は、対象部OBにおける所定の位置OB1の座標の情報を、対象物座標データ84として記憶部80に格納している。姿勢制御部94は、このような姿勢を実現するように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
[Guiding posture and movement]
9 and 10 are diagrams illustrating examples of postures when the
また、ロボット1は、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持する。図11は、ロボット1が人差し指部43の延在方向を位置OB1に向け続ける様子を示す図である。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
Further, the
なお、「指示体」の一例として人差し指部43を例示したが、これに限定されるものではない。例えば、ロボット1は、手部40全体と指示体として扱ってもよい。ロボット1は、例えば全ての指部を伸ばした状態で、手部40を対象物OBに向けてもよい。この場合、姿勢制御部94は、直線L上に手部40全体が延在する姿勢をとるように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。図12は、係る姿勢を示す図であり、ロボット1が対象物を指し示す際の姿勢の他の例を示す図である(上面視は図5とほぼ同じであるため、側面視のみ示す)。また、ロボット1は、指示棒などの道具を手部40で把持し、その把持した指示棒などを対象物OBに向けてもよい。
In addition, although the
また、図13および図14は、ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。図13は上面視であり、図14は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行う。姿勢制御部94は、このような動作を実現するように、肩関節部24、肘関節部34、および手首関節部38のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。なお、このような動作は、ロボット1の腕部30から先の部材が対象物OBや人に干渉する場合にも行われる。
FIGS. 13 and 14 are diagrams schematically illustrating an operation performed when the
以下、図9〜14で説明した姿勢が実現されるまでの処理の流れについて、図5を参照しながら説明する。指差し指令計算部94Eには、例えば、指差しタイミング計算部94Dから指示タイミング信号や対象物OBの識別情報が、干渉計算部94Aから腕の縮み量を指定する情報が、対象物座標データ84から全ての対象物OBの位置が、それぞれ入力される。
Hereinafter, the flow of processing until the posture described in FIGS. 9 to 14 is realized will be described with reference to FIG. The
手首方位計算部94Eaは、まず、対象物OBの識別情報を用いて全ての対象物OBの位置から、案内を行う対象物OBの位置OB1を特定する。この位置OB1は、例えば、実座標系上の位置(展示会場を平面とした場合の位置)として記述されている。手首方位計算部94Eaは、実座標系上の位置からロボット座標系上の位置に変換する処理を行う。図15は、手首方位計算部94Eaによる処理を説明するための図である。図中、破線矢印でしめすx軸、y軸が実座標系の座標軸を示し、実線矢印で示すX軸、Y軸がロボット座標系の座標軸を示す。ロボット座標系のX軸は、例えば、ロボット1のつま先に相当する部位の向く方向と定義される。実座標系上の位置からロボット座標系上の位置への変換は、実座標系上のロボット1の位置および方位に基づいて行われる。
The wrist orientation calculation unit 94Ea first specifies the position OB1 of the target object OB to be guided from the positions of all the target objects OB using the identification information of the target object OB. This position OB1 is described as, for example, a position on the real coordinate system (a position when the exhibition hall is a plane). The wrist orientation calculation unit 94Ea performs a process of converting from a position on the real coordinate system to a position on the robot coordinate system. FIG. 15 is a diagram for explaining processing by the wrist orientation calculation unit 94Ea. In the figure, the x-axis and y-axis indicated by broken line arrows indicate the coordinate axes of the real coordinate system, and the X-axis and Y-axis indicated by the solid line arrows indicate the coordinate axes of the robot coordinate system. The X axis of the robot coordinate system is defined as a direction in which a part corresponding to the toe of the
また、手首方位計算部94Eaは、上記の変換によって位置OB1のロボット座標系上の位置および方位が求められると、位置OB1を右腕部で指し示すか、左腕部で指し示すかを決定する。図15において、角度範囲ARは右腕で指し示すことの可能な範囲を示し、角度範囲ALは左腕で指し示すことの可能な範囲を示している。手首方位計算部94Eaは、基本的に、位置OB1の方位が角度範囲ARの範囲内であれば右腕で、位置OB1の方位が角度範囲ALの範囲内であれば左腕で指し示すと決定する。 Further, when the position and orientation of the position OB1 on the robot coordinate system are obtained by the above conversion, the wrist orientation calculation unit 94Ea determines whether the position OB1 is to be pointed by the right arm part or the left arm part. In FIG. 15, an angle range AR indicates a range that can be pointed by the right arm, and an angle range AL indicates a range that can be pointed by the left arm. The wrist orientation calculation unit 94Ea basically determines that the position is indicated with the right arm if the orientation of the position OB1 is within the range of the angle range AR, and the left arm if the orientation of the position OB1 is within the range of the angle range AL.
ここで、角度範囲AR、ALのいずれにも含まれない範囲は、その立ち位置からは指し示すことが不可能な範囲である。この場合、例えば、手首方位計算部94Eaは、音声案内制御部96に指し示すことが不能である旨の情報を出力し、音声案内制御部96は、指差しをしながら行う必要のない音声案内に切り替える制御を行う。また、図15において、角度範囲AR、ALの重複部分が存在する。この範囲内に位置OB1が存在する場合、手首方位計算部94Eaは、例えば人の位置に応じていずれの腕で指し示すかを決定する。図16は、位置OB1が角度範囲AR、ALの重複部分に存在する場合に、指し示す腕が決定される様子を示す図である。ロボット1は、例えば人Hに対して頭部10の頭部正面14(カメラ12の存在する面)を正対させて説明を行う。そして、手首方位計算部94Eaは、肩関節部24の回転中心24A、手部40、位置OB1を結ぶ直線Lが、頭部10と人とを結ぶ直線と交わらないように、いずれの腕で指し示すかを決定する。図16に示すような場面では、仮に左腕で位置OB1を指し示した場合、回転中心24A、手部40、位置OB1を結ぶ直線が、頭部正面14と人とを結ぶ直線と交差してしまい、見かけ上、不自然な姿勢となってしまう。従って、手首方位計算部94Eaは、図16に示すような場面では、右腕によって位置OB1を指し示して音声案内を行うものと決定する。
Here, a range that is not included in any of the angle ranges AR and AL is a range that cannot be indicated from the standing position. In this case, for example, the wrist orientation calculation unit 94Ea outputs information indicating that it cannot be pointed to the voice
手首方位計算部94Eaによって、位置OB1の方位、すなわち人差し指部43の延在方向を決定付ける手部40の方位が決定されると、腰/腕分配部94Ebが、ロボット座標系上のX方向と人差し指部43の延在方向との角度差(例えば図15における、X軸と直線Lのなす角度)を実現するための各関節部の「ひねり」を、腰関節部26と、肩から腕にかけての関節部(肩関節部24、肘関節部34、および手首関節部38)とに分配する。腰/腕分配部94Ebは、例えば、角度差が大きくなるほど腰関節部26のひねりの割合が大きくなるように、ひねりの量を分配する。図17は、腰/腕分配部94Ebがひねりの量を分配する際の分配傾向の一例を示す図である。腰関節部26のひねり量θ26は、X軸と直線Lのなす角度をθXLとすると、例えば式(1)で求められる。
θ26=―θXL×{1―exp(|θXL/π|)} ‥(1)
When the wrist orientation calculation unit 94Ea determines the orientation of the position OB1, that is, the orientation of the
θ 26 = −θ XL × {1-exp (| θ XL / π |)} (1)
腰/腕分配部94Ebによって、ひねり量の分配程度が決定されると、分配されたひねり量を実現するように、腰・脚制御部94Gによって腰関節部26に取り付けられたアクチュエータが制御される。また、手首位置計算部94Ecにより、ロボット座標系上における手部40の位置(x,y,z)が計算される。また、手先姿勢計算部により、人差し指部43の掌部41に対してなす角度が計算される。これらの計算結果を用いて腕制御部94Fが肩関節部24から先の関節部に取り付けられたアクチュエータを駆動することで、図9、10等に示した姿勢が実現される。
When the distribution amount of the twist amount is determined by the waist / arm distribution unit 94Eb, the actuator attached to the waist
[処理フロー]
以下、ロボット1の立ち位置が決定されて音声案内が行われるまでの処理の流れについて、フローチャートの形式で説明する。図18は、制御部90により実行される処理の流れを示すフローチャートの一例である。まず、制御部90は、対象物OBと案内内容を決定する(ステップS100)。次に、制御部90は、指差しの必要な案内内容であるか否かを判定する(ステップS102)。指差しの必要な案内内容でない場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。
[Processing flow]
Hereinafter, the flow of processing from when the standing position of the
指差しの必要な案内内容である場合、対象物OBに干渉しない位置に立ち位置を決定する(ステップS104)。次に、姿勢制御部94は、人に接近歩行し、頭部10の正面14が人の方向を向くようにアクチュエータ群60を制御する(ステップS106)。
If the guidance content requires pointing, the standing position is determined at a position that does not interfere with the object OB (step S104). Next, the
次に、姿勢制御部94は、ジェスチャが制限されている位置関係であるか否かを判定する(ステップS108)。ジェスチャが制限されている位置関係である場合、姿勢制御部94は、離脱歩行を行い(ステップS110)、再度、ステップS108の判定を行う。
Next, the
ジェスチャが制限されている位置関係でない場合、姿勢制御部94は、指差しをする腕を決定する(ステップS112)。次に、姿勢制御部94は、指差し可能な位置を決定できたか否かを判定する(ステップS114)。指差し可能な位置を決定できなかった場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。
When it is not the positional relationship where the gesture is restricted, the
指差し可能な位置を決定できた場合、前述したように、姿勢制御部94は、手首方位角度を決定し(ステップS118)、腰/腕分配比を決定し(ステップS120)、手首位置を決定し(ステップS122)、手先姿勢を決定する(ステップS124)。そして、姿勢制御部は、指差しが人と干渉するか否かを判定する(ステップS126)。指差しが人と干渉する場合、姿勢制御部94は、離脱歩行を行い(ステップS128)、ステップS118に戻る。
When the position where the finger can be pointed is determined, as described above, the
一方、指差しが人と干渉しない場合、姿勢制御部94が指差し姿勢を形成するようにアクチュエータ群60を制御しつつ、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS130)。その後、制御部90は、音声案内が終了したか否かを判定する(ステップS132)。音声案内が終了していない場合は、アクチュエータ群60の動作履歴やカメラ12の撮像画像解析によって、ロボット1の位置を取得し(ステップS134)、ステップS118に戻る。音声案内が終了した場合、本フローチャートの1ルーチンが終了する。
On the other hand, when the pointing does not interfere with a person, the voice
[呼びかけ制御]
ロボット1は、以下に説明するように、対象物OBについての音声案内を行う前に、人Hを好適位置WAに誘導する動作を行ってもよい。図19は、ロボット1が、人Hを好適位置WAに誘導する様子を示す図である。図19(A)に示すように、ロボット1は、まず好適領域WA内に立ち、対象物OBを指し示しながら人Hに対して自己の位置に来るように呼びかける音声(「こっちだよ」など)を出力する。そして、図19(B)に示すように、人Hが接近して来るのに応じて対象物OBを指し示しながら移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力する。係る制御によって、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。
[Call control]
As described below, the
図20は、ロボット1が、人Hを好適位置WAに誘導する際に実行される処理の流れを示すフローチャートの一例である。まず、姿勢制御部94は、好適領域WAまたは移動可能領域MA内に人がいないか否かを判定する(ステップS200)。好適領域WAまたは移動可能領域MA内に人がいる場合は、本フローチャートの1ルーチンが終了される。この場合、例えば図18のフローチャートの処理が実行される。
FIG. 20 is an example of a flowchart showing a flow of processing executed when the
好適領域WAまたは移動可能領域MA内に人がいない場合、姿勢制御部94は、ロボット1を好適領域WA内に移動させる(ステップS202)。そして、環境認識部92により遠い位置で人が検知されたか否かを判定する(ステップS204)。「遠い位置」とは、好適領域WAと移動可能領域MAの領域外の位置を意味してもよいし、好適領域WAと移動可能領域MAの外縁から所定距離以上、或いはロボット1から所定距離以上の位置を意味してもよい。遠い位置で人が検知されなかった場合は、本フローチャートの1ルーチンが終了される。
When there is no person in the preferred area WA or the movable area MA, the
遠い位置で人が検知された場合、ロボット1は、人に対して自己の位置に来るように呼びかける音声を出力する(ステップS206)。そして、姿勢制御部94は、人が接近しているか否かを判定する(ステップS208)。人が接近している場合、姿勢制御部94は、人の接近に応じてロボット1を後退させる(ステップS210)。
When a person is detected at a far position, the
次に、姿勢制御部94は、人が好適領域WAに入ったか否かを判定する(ステップS212)。人が好適領域WAに入ると、音声案内制御部96は、対象物OBについての音声案内を開始するようにスピーカ70を制御する(ステップS214)。なお、ステップS208またはS212で否定的な判定が得られた場合、ステップS204の判定処理に戻る。
Next, the
以上説明した本実施形態のロボット1によれば、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
According to the
また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24Aと、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
Further, according to the
また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行うため、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。
Further, according to the
また、本実施形態のロボット1によれば、まず好適領域WA内に立ち、人Hに対して自己の位置に来るように呼びかける音声を出力し、人Hが接近して来るのに応じて移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力するため、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。
Further, according to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
1 ロボット(ロボット)
10 頭部
12 カメラ(検知部)
20 ボディ部(ボディ部)
24 肩関節部
30 腕部(連結部)
32 腕第1リンク部
34 肘関節部(中間関節部)
36 腕第2リンク部
38 手首関節部
40 手部
50 脚部
41 掌部
42 親指部
43 人差し指部(指示体)
44 中指部
45 薬指部
41A〜41E 基節関節部
43A 人差し指先端部
43B 人差し指第1関節部
43C 人差し指第1リンク部
43D 人差し指第2関節部
43E 人差し指第2リンク部
60 アクチュエータ群(駆動部)
62 ロータリーエンコーダ群
70 スピーカ(出力部)
80 記憶部
90 制御部
92 環境認識部
94 姿勢制御部(制御部)
96 音声案内制御部
1 Robot (Robot)
10
20 Body part (Body part)
24
32 First arm link
36 second
44
62
80
96 Voice guidance controller
Claims (13)
前記指示体を駆動する駆動部と、
前記駆動部が取り付けられたボディ部を移動させる移動部と、
前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部を備える連結部と、
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように、前記駆動部を制御する制御部と、を備え、
前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる、
ロボット。 An indicator for pointing in the direction;
A drive unit for driving the indicator;
A moving part for moving the body part to which the driving part is attached;
Connecting the body part and the indicator, a connecting part including one or more intermediate joints between a connecting part of the body part and a connecting part of the indicator;
When causing the indicator to indicate the direction of the object, at least a part of the indicator extends on a straight line connecting a predetermined position in the body portion and the position of the object; and A control unit that controls the drive unit so that the direction of the straight line and the direction indicated by the indicator coincide with each other,
When the control unit causes the indicator to indicate the direction of the object, at least one of the one or more intermediate joints deviates from the straight line, and at least one of the indicators on the straight line. The drive part can be controlled so that the part extends,
robot.
前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する、
ロボット。 The robot according to claim 1,
The control unit controls the driving unit so as to maintain a state in which the object is positioned in a direction indicated by the indicator before and after the body unit is moved by the moving unit.
robot.
前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる、
ロボット。 The robot according to claim 1 or 2 , wherein
When the control unit causes the indicator to indicate the direction of the object, the indicator reciprocates on the straight line with the one or more intermediate joints deviating from the straight line. The drive can be controlled,
robot.
前記駆動部は、前記連結部を前記ボディ部における前記所定の箇所を中心として回転駆動する、
ロボット。 The robot according to any one of claims 1 to 3 ,
The driving unit rotationally drives the coupling portion about said predetermined point in said body portion,
robot.
人の位置を検知する検知部を備え、
前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する、
ロボット。 The robot according to any one of claims 1 to 4 ,
It has a detector that detects the position of a person,
The control unit controls the moving unit so that the body unit is separated from the person when the body unit is in a region centered on the person.
robot.
前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する、
ロボット。 The robot according to claim 5 , wherein
The control unit controls the moving unit so as to move without changing the orientation of the body unit when the moving unit is controlled so that the body unit is separated from the person, and then the body unit is moved. Turning and controlling the moving part so that the body part moves to a target position determined based on the position of the object;
robot.
人の位置を検知する検知部を備え、
前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する、
ロボット。 The robot according to any one of claims 1 to 6 ,
It has a detector that detects the position of a person,
The control unit controls the moving unit so that the body unit moves to an initial position on the basis of the position of the object before instructing the direction of the object by the indicator, When the detection unit detects that the body unit is approaching the body unit, the moving unit is controlled so that the body unit is separated from the initial position.
robot.
音声を出力する出力部を備え、
前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する、
ロボット。 The robot according to claim 7 , wherein
It has an output unit that outputs audio,
The control unit controls the output unit to output a voice calling a person to come to the initial position when the body unit moves to the initial position.
robot.
前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する、
ロボット。 The robot according to claim 8 , wherein
The control unit controls the output unit to start voice guidance for the object when a person moves to the initial position.
robot.
人の位置を検知する検知部を備え、
前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する、
ロボット。 The robot according to any one of claims 1 to 9 ,
It has a detector that detects the position of a person,
The control unit has a distance between the position of the body unit and the position of the person detected by the detection unit equal to or greater than a first predetermined distance, and the position of the body unit and the position of the object Controlling the moving unit such that the distance between the second predetermined distance and the distance is not less than
robot.
2つのアーム部の先端に前記指示体が取り付けられ、
前記移動部は、2つの脚部を備える、
ロボット。 The robot according to any one of claims 1 to 10 ,
The indicator is attached to the tips of the two arm parts,
The moving unit includes two legs.
robot.
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を備え、
前記駆動部を制御するステップにおいて、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する、
ロボット制御方法。 An indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached ; and the body unit and the indicator, A control method for a robot comprising one or more intermediate joints between a connection point between the pointer and the indicator ,
Calculating the position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object when the indicator is instructed in the direction of the object;
Controlling the drive unit so that the indicator is located at the calculated position, and the direction of the straight line and the direction indicated by the indicator coincide with each other,
In the step of controlling the drive unit, the drive so that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. Control the part,
Robot control method.
コンピュータに、
前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における予め定められた所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
前記計算した位置に前記指示体が位置し、且つ前記直線の方向と前記指示体の指し示す方向が一致するように前記駆動部を制御するステップと、を実行させ、
前記駆動部を制御するステップにおいて、前記コンピュータに、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御させる、
ロボット制御プログラム。 An indicator for indicating a direction; a drive unit that drives the indicator; a moving unit that moves a body unit to which the drive unit is attached ; and the body unit and the indicator, A control program for a robot comprising one or more intermediate joints between a connection point between the indicator and the indicator ,
On the computer,
Calculating the position of the indicator on a straight line connecting a predetermined position in the body portion and the position of the object when the indicator is instructed in the direction of the object;
Controlling the drive unit so that the indicator is positioned at the calculated position, and the direction of the straight line and the direction indicated by the indicator coincide with each other, and
In the step of controlling the drive unit, the computer is configured such that at least a part of the indicator extends on the straight line in a state where at least one of the one or more intermediate joint parts deviates from the straight line. To control the drive unit,
Robot control program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013202688A JP6158665B2 (en) | 2013-09-27 | 2013-09-27 | Robot, robot control method, and robot control program |
US14/498,871 US9517559B2 (en) | 2013-09-27 | 2014-09-26 | Robot control system, robot control method and output control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013202688A JP6158665B2 (en) | 2013-09-27 | 2013-09-27 | Robot, robot control method, and robot control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015066632A JP2015066632A (en) | 2015-04-13 |
JP6158665B2 true JP6158665B2 (en) | 2017-07-05 |
Family
ID=52833920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013202688A Expired - Fee Related JP6158665B2 (en) | 2013-09-27 | 2013-09-27 | Robot, robot control method, and robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6158665B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10444876B2 (en) * | 2014-09-02 | 2019-10-15 | Spring Power Holdings Limited | Human-computer interface device and system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6886663B2 (en) * | 2018-02-19 | 2021-06-16 | 日本電信電話株式会社 | Operation instruction generation system, method and program |
JP2022073395A (en) * | 2020-10-30 | 2022-05-17 | 川崎重工業株式会社 | Unmanned delivery system and unmanned delivery method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3472920B2 (en) * | 2000-05-22 | 2003-12-02 | 日本電信電話株式会社 | Robot and electronic commerce system using the robot |
JP2004154918A (en) * | 2002-11-08 | 2004-06-03 | Nissan Motor Co Ltd | Robot arm moving mechanism and car navigation system |
JP2005293052A (en) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | Robot for dealing with customer |
JP4601458B2 (en) * | 2004-07-07 | 2010-12-22 | 株式会社内田洋行 | Direction indicator |
JP2006231447A (en) * | 2005-02-23 | 2006-09-07 | Mitsubishi Heavy Ind Ltd | Confirmation method for indicating position or specific object and method and device for coordinate acquisition |
JP2010231315A (en) * | 2009-03-26 | 2010-10-14 | Fujitsu Ltd | Information providing device |
JP5391505B2 (en) * | 2010-02-26 | 2014-01-15 | 株式会社国際電気通信基礎技術研究所 | Area dividing device, area dividing program, area dividing method, and communication robot |
JP5617562B2 (en) * | 2010-11-26 | 2014-11-05 | 株式会社国際電気通信基礎技術研究所 | Mobile robot |
-
2013
- 2013-09-27 JP JP2013202688A patent/JP6158665B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10444876B2 (en) * | 2014-09-02 | 2019-10-15 | Spring Power Holdings Limited | Human-computer interface device and system |
Also Published As
Publication number | Publication date |
---|---|
JP2015066632A (en) | 2015-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8380348B2 (en) | Robot | |
US8577126B2 (en) | System and method for cooperative remote vehicle behavior | |
JP4565229B2 (en) | robot | |
KR101789064B1 (en) | Method and system for hand control of a teleoperated minimally invasive slave surgical instrument | |
KR101785360B1 (en) | Method and system for hand presence detection in a minimally invasive surgical system | |
US10913151B1 (en) | Object hand-over between robot and actor | |
US8924020B2 (en) | Apparatus for controlling robot and control method thereof | |
JP7111114B2 (en) | Information processing device, information processing method, and information processing system | |
US8855814B2 (en) | Robot and control method thereof | |
US20090180668A1 (en) | System and method for cooperative remote vehicle behavior | |
KR20120102647A (en) | A master finger tracking device and method of use in a minimally invasive surgical system | |
KR20130027006A (en) | Method and apparatus for hand gesture control in a minimally invasive surgical system | |
JP2007181888A (en) | Communication robot system | |
KR102170638B1 (en) | Method for controlling interaction in virtual reality by tracking fingertips and VR system using it | |
JP6158665B2 (en) | Robot, robot control method, and robot control program | |
WO2009096408A1 (en) | Articulated structure teaching device | |
US9193070B2 (en) | Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object | |
KR101818869B1 (en) | Broadcasting Image Equipment using Multi-Joint Movement Manipulator and Method of Controlling thereof | |
Omrčen et al. | Redundant control of a humanoid robot head with foveated vision for object tracking | |
Cabrera et al. | Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories | |
JP2007125653A (en) | Gripping control device of robot hand | |
JP2003062775A (en) | Teaching system for human hand type robot | |
JP4878462B2 (en) | Communication robot | |
CN110877335A (en) | Self-adaptive unmarked mechanical arm track tracking method based on hybrid filter | |
JP6647143B2 (en) | Functional device, control device and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6158665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |