JP2015066632A - ロボット、ロボット制御方法、およびロボット制御プログラム - Google Patents

ロボット、ロボット制御方法、およびロボット制御プログラム Download PDF

Info

Publication number
JP2015066632A
JP2015066632A JP2013202688A JP2013202688A JP2015066632A JP 2015066632 A JP2015066632 A JP 2015066632A JP 2013202688 A JP2013202688 A JP 2013202688A JP 2013202688 A JP2013202688 A JP 2013202688A JP 2015066632 A JP2015066632 A JP 2015066632A
Authority
JP
Japan
Prior art keywords
unit
robot
indicator
person
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013202688A
Other languages
English (en)
Other versions
JP6158665B2 (ja
Inventor
浩司 川邊
Koji Kawabe
浩司 川邊
横山 太郎
Taro Yokoyama
太郎 横山
神田 崇行
Takayuki Kanda
崇行 神田
聡 佐竹
Satoshi Satake
聡 佐竹
尊優 飯尾
Takamasa Iio
尊優 飯尾
林 宏太郎
Kotaro Hayashi
宏太郎 林
フェレリ フローラン
Ferreri Flolan
フェレリ フローラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Honda Motor Co Ltd
Priority to JP2013202688A priority Critical patent/JP6158665B2/ja
Priority to US14/498,871 priority patent/US9517559B2/en
Publication of JP2015066632A publication Critical patent/JP2015066632A/ja
Application granted granted Critical
Publication of JP6158665B2 publication Critical patent/JP6158665B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】案内を受ける人の視線を、より効果的に誘導することが可能なロボット、ロボット制御方法、およびロボット制御プログラムを提供すること。
【解決手段】方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する制御部と、を備えるロボット。
【選択図】図9

Description

本発明は、ロボット、ロボット制御方法、およびロボット制御プログラムに関する。
従来、展示品等を案内するロボットについて研究が進められている。例えば、2本のアーム部を備え、いずれかのアーム部で対象を指し示す動作を行うロボットの発明が開示されている(例えば、特許文献1参照)。
また、関連する技術として、展示品の説明ロボットとは別にレーザ表示装置を備え、レーザ光を照射した展示品についての案内音声を再生する技術が開示されている(例えば、特許文献2参照)。また、展示品に対して向けられた見物人の視線を遮らずに、展示物について説明を行う位置に移動するロボットの発明が開示されている(例えば、特許文献3参照)。
特開2011−224737号公報 特開2011―20223号公報 特許第5077077号明細書
従来の技術では、自律的に移動するロボットが案内の対象物を指し示す際に、案内を受ける人の視線を効果的に誘導することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、案内を受ける人の視線を、より効果的に誘導することが可能なロボット、ロボット制御方法、およびロボット制御プログラムを提供することを目的の一つとする。
請求項1記載のロボット(例えば実施形態のロボット1)は、方向を指し示すための指示体(例えば実施形態の人差し指部43)と、前記指示体を駆動する駆動部(例えば実施形態のアクチュエータ群60)と、前記駆動部が取り付けられたボディ部を移動させる移動部(例えば実施形態の脚部50)と、前記指示体に対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する前記駆動部を制御する制御部(例えば実施形態の姿勢制御部94)と、を備える。
請求項2記載のロボットは、請求項1記載のロボットであって、前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する。
請求項3記載のロボットは、請求項2記載のロボットであって、前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部(例えば実施形態の肘関節部34)を備える連結部(例えば実施形態の腕部30)を含み、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる。
請求項4記載のロボットは、請求項3記載のロボットであって、前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる。
請求項5記載のロボットは、請求項3または4記載のロボットであって、前記駆動部は、前記連結部を前記ボディ部における所定箇所(例えば実施形態の肩関節部24における回転中心24A)を中心として回転駆動する。
請求項6記載のロボットは、請求項1から5のうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する。
請求項7記載のロボットは、請求項6記載のロボットであって、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する。
請求項8記載のロボットは、請求項1から7のうちいずれか1項記載のロボットであって、人の位置を検知する検知部(例えば実施形態のカメラ12、環境認識部92)を備え、前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する。
請求項9記載のロボットは、請求項8記載のロボットであって、音声を出力する出力部(例えば実施形態のスピーカ70)を備え、前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する。
請求項10記載のロボットは、請求項9記載のロボットであって、前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する。
請求項11記載のロボットは、請求項1から10のうちいずれか1項記載のロボットであって、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する。
請求項12記載のロボットは、請求項1から11のうちいずれか1項記載のロボットであって、2つのアーム部の先端に前記指示体が取り付けられ、前記移動部は、2つの脚部を備える。
請求項13記載のロボット制御方法は、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、を備えるロボットの制御方法であって、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置するように前記駆動部を制御するステップと、を備える。
請求項14記載のロボット制御プログラムは、方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、を備えるロボットの制御プログラムであって、コンピュータに、前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、前記計算した位置に前記指示体が位置するように前記駆動部を制御するステップと、を実行させる。
請求項1〜5、13、14記載の発明によれば、ボディ部における所定の箇所と対象物の位置を結ぶ直線上に指示体の少なくとも一部が延在するように制御するため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、更に効果的に誘導することができる。
請求項2記載の発明によれば、移動部によりボディ部が移動する前後において、指示体の指し示す方向に対象物が位置する状態が維持されるため、案内を受ける人は、ロボットが指し示す方向を、直感的に把握することができる。この結果、案内を受ける人の視線を、より効果的に誘導することができる。
請求項6記載の発明によれば、人の位置を検知する検知部を備え、前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御するため、人との干渉を防止することができる。
請求項7記載の発明によれば、前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御するため、旋回によって人と干渉することを防止することができる。
請求項8〜10記載の発明によれば、指示体に対象物の方向を指示させる前に、ボディ部が対象物の位置を基準とした初期位置に移動するように移動部を制御し、その後、人がボディ部に接近することが検知部により検知された場合に、ボディ部が初期位置から離れるように移動部を制御するため、対象物を見やすい位置に人を誘導することができる。
請求項11記載の発明によれば、ボディ部の位置と検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、ボディ部の位置と対象物の位置との間の距離が第2の所定距離以上となるように制御するため、人や対象物との干渉を避けつつ、スムーズに移動することができる。
一実施形態に係るロボット1の外観構成の一例を示す図である。 ロボット1が備える機能構成の一例を示す図である。 ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。 手部40を拡大して示す図である。 制御部90の機能構成を、より詳細に示す図である。 ロボット1の移動原理を説明するための図である。 ロボット1が人との干渉を避ける様子を示す図である。 干渉計算部94Aが立ち位置を計算する処理を説明するための図である。 ロボット1が対象物を指し示す際の姿勢の一例を示す図である。 ロボット1が対象物を指し示す際の姿勢の一例を示す図である。 ロボット1が人差し指部43の延在方向を位置OB1に向け続ける様子を示す図である。 ロボット1が対象物を指し示す際の姿勢の他の例を示す図である。 ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。 ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。 手首方位計算部94Eaによる処理を説明するための図である。 位置OB1が角度範囲AR、ALの重複部分に存在する場合に、指し示す腕が決定される様子を示す図である。 腰/腕分配部94Ebがひねりの量を分配する際の分配傾向の一例を示す図である。 制御部90により実行される処理の流れを示すフローチャートの一例である。 ロボット1が、人Hを好適位置WAに誘導する様子を示す図である。 ロボット1が、人Hを好適位置WAに誘導する際に実行される処理の流れを示すフローチャートの一例である。
以下、図面を参照し、ロボット、ロボット制御方法、およびロボット制御プログラムの実施形態について説明する。以下に説明するロボットは、例えば、左右一対の脚部と左右一対の腕部とを備え、脚部の動作によって移動可能な人型ロボットである。なお、これに限らず、ロボットは、車輪やホバークラフト等によって移動可能なロボットであってもよいし、腕部を一つまたは三つ以上有するものであってもよい。
[構成]
図1は、一実施形態に係るロボット1の外観構成の一例を示す図である。また、図2は、ロボット1が備える機能構成の一例を示す図である。ロボット1は、例えば、頭部10と、ボディ部20と、左右一対の腕部30と、左右一対の手部40と、左右一対の脚部50とを備える。なお、以下では、左右一対の構成要素について、左右いずれの構成要素であるかを区別せずに説明する。
頭部10には、左右一対のカメラ12が取り付けられている。カメラ12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を有するカメラである。カメラ12は、可視光または赤外光を撮像し、撮像した画像を制御部90に送信する。
ボディ部20は、首関節部22を介して頭部10と連結され、肩関節部24を介して腕部30と連結され、腰関節部26および股関節部28を介して脚部50と連結される。首関節部22は、頭部10をボディ部20に対して、例えばロール方向に1自由度で回動させる。以下の説明では、回動方向をヨー方向、ピッチ方向、ロール方向と表現して説明する。図3は、ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。図示するように、関節部Aから見た被駆動部材Bの方向Cを軸として被駆動部材Bを回動させる方向をロール方向と定義する。また、方向C自体を第1の方向に回動させる方向をピッチ方向と、方向C自体を第1の方向に直交する第2の方向に回動させる方向をヨー方向と定義する。
肩関節部24は、腕部30をボディ部20に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。腰関節部26は、股関節部28をボディ部に対して、例えばロール方向に1自由度で回動させる。股関節部28は、脚部50を腰関節部26に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。なお、ボディ部20には、図示しない腰カメラ等が内蔵されてよい。
腕部30は、例えば、二の腕に相当する腕第1リンク部32と、肘関節部34と、前腕部に相当する腕第2リンク部36と、手首関節部38とを備える。肘関節部34は、腕第2リンク部36を腕第1リンク部32に対して、例えばピッチ方向に(腕の内側に)1自由度で回動させる。手首関節部38は、手部40を腕第2リンク部36に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。
手部40は、例えば、掌部41と、親指部42と、人差し指部43と、中指部44と、薬指部45と、小指部46とを備える。図4は、手部40を拡大して示す図である。各指部は掌部41に対して、基節関節部41A〜41Eにより、ピッチ方向およびロール方向に2自由度で回動することができる。親指部42は、親指先端部42Aと、親指第1関節部42Bと、親指第1リンク部42Cとを備える。親指第1関節部42Bは、親指先端部42Aを親指第1リンク部42Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指部43は、人差し指先端部43Aと、人差し指第1関節部43Bと、人差し指第1リンク部43Cと、人差し指第2関節部43Dと、人差し指第2リンク部43Eとを備える。人差し指第1関節部43Bは、人差し指先端部43Aを人差し指第1リンク部43Cに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。人差し指第2関節部43Dは、人差し指第1リンク部43Cを人差し指第2リンク部43Eに対して、ピッチ方向に(手のひら側に)1自由度で回動させる。中指部44、薬指部45、小指部46の構成については人差し指部43と同様に先端部、第1関節部、第1リンク部、第2関節部、第2リンク部を備える。これらについての詳細な説明は省略する。
脚部50は、例えば、脚第1リンク部51と、膝関節部52と、脚第2リンク部53と、足首関節部54と、足部55とを備える。膝関節部52は、脚第2リンク部53を脚第1リンク部51に対して、例えばピッチ方向に1自由度で回動させる。足首関節部54は、足部55を脚第2リンク部53に対して、例えばピッチ方向およびロール方向に2自由度で回動させる。
ロボット1は、関節部に回動力を付与し、被駆動部材(膝関節部52であれば脚第2リンク部53)を連結元部材(膝関節部52であれば脚第1リンク部51)に対して回動させるアクチュエータ群60を備える。アクチュエータ群60の各アクチュエータは、関節部毎に設けられてもよいし、複数の関節部に回動力を付与するアクチュエータが存在してもよい。また、アクチュエータは、関節部に内蔵されてもよいし、関節部の外に配置されてもよい。後者の場合、アクチュエータは、ワイヤーやベルト、プーリ、油圧機構等によって関節部や被駆動部材と接続されることで、関節部に回動力を付与する。
また、アクチュエータ群60に含まれる各アクチュエータには、ロータリーエンコーダ群62に含まれる各ロータリーエンコーダが取り付けられる。各ロータリーエンコーダは、対応するアクチュエータの回転角度をそれぞれ検出して制御部90に送信する。なお、ロータリーエンコーダ群62は、アクチュエータ群60の回転角度ではなく、関節部の回転角度を検出してもよい。
ロボット1は、音声を出力するためのスピーカ70を備える。スピーカ70が出力する音声の内容は、制御部90によって決定される。ロボット1は、更に、記憶部80と制御部90を備える。記憶部80は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等を含む。記憶部80には、制御部90が備えるCPU(Central Processing Unit)等のプロセッサが実行する制御プログラム82、ロボット1が案内の対象とする対象物OBの位置を示す対象物座標データ84、案内用音声データ86等のデータが格納される。制御プログラム82は、予め記憶部80に格納されていてもよいし、インターネットを介して他のコンピュータ装置からダウンロードされてもよい。また、可搬型記憶媒体に格納された制御プログラム82が記憶部80にインストールされてもよい。
制御部90は、例えば、環境認識部92と、姿勢制御部94と、音声案内制御部96とを備える。これらの機能部のうち一部または全部は、制御部90のプロセッサが、制御プログラム82を実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
環境認識部92は、カメラ12から入力された撮像画像を解析し、前述した対象物や、人の位置を把握する。なお、ロボット1には、例えば対象物OBの置かれた家屋の天井等に取り付けられたカメラの撮像画像が入力され、この撮像画像を解析することで対象物や人の位置を把握してもよい。こうすれば、俯瞰的な情報を得ることができるため、より正確に環境を認識することができる。また、環境認識部92は、赤外線レーダや超音波レーダ等によって物体の位置を把握してもよい。姿勢制御部94は、対象物について案内をする際に、手部40によって対象物を指し示すようにアクチュエータ群を制御する。音声案内制御部96は、対象物を案内する音声を出力するようにスピーカ70を制御する。
図5は、制御部90の機能構成を、より詳細に示す図である。姿勢制御部94は、干渉計算部94Aと、立ち位置決定部94Bと、移動指令計算部94Cと、指差しタイミング計算部94Dと、指差し指令計算部94Eと、腕制御部94Fと、腰・脚制御部94Gとを備える。指差し指令計算部94Eは、更に、手首方位計算部94Eaと、腰/腕分配部94Ebと、手首位置計算部94Ecと、手先姿勢計算部94Edとを備える。
[ロボット1の移動]
ロボット1は、対象物OBとの位置や案内を受ける人の位置に応じて移動する。そして、移動する前後において、例えば人差し指部43の指し示す方向に、対象物OBの所定の位置OB1が位置する状態を維持するように、アクチュエータ群60を制御する。以下、これについて説明する。
図6は、ロボット1の移動原理を説明するための図である。ロボット1は、対象物OBの位置領域を対象物座標データ84として格納しており、立ち位置決定部94Bは、その位置領域の外縁から所定距離以内の領域を禁止領域BAとして設定する。また、対象物OBの位置OB1は、対象物OBを視認するのに適した代表的な位置として予め対象物座標データ84に記述されている。そして、位置OB1の正面に位置し、位置OB1を中心とした扇型領域から禁止領域BAを除外した好適領域WAは、人Hが対象物OBの代表点である位置OB1を視認するのに最適な領域となっている。また、好適領域WAの両側に位置し、位置OB1を中心とした好適領域WAよりも角度範囲の広い扇型領域から禁止領域BAを除外した領域が、移動可能領域MAが設定される。ロボット1は、対象物OBの音声案内をするときには、移動領域MAと好適領域WAを合わせた領域内で移動するように制御される。立ち位置決定部94Bは、このような領域内にロボット1の立ち位置を決定し、移動指令計算部94Cに出力する。移動指令計算部94Cは、立ち位置決定部94Bにより決定された立ち位置に移動するように、腰・脚制御部94Gに指示する。腰・脚制御部94Gは、移動指令計算部94Cからの指示に応じて移動するように、腰関節部26から下側の関節部に取り付けられたアクチュエータを制御する。
干渉計算部94Aは、ロボット1が案内を受ける人に干渉(接触)しないための計算を行う。図7は、ロボット1が人との干渉を避ける様子を示す図である。干渉計算部94Aは、環境認識部92から入力される人Hの位置が、ボディ部20や腕部30、手部40の位置から所定距離以内であるか否かを判定する。そして、干渉計算部94Aは、所定距離以内である場合に、腕部30を引っ込めたり、ロボット1を後退させるための制御量(腕の縮み量や立ち位置)を、立ち位置決定部94Bや指差し指令計算部94Eに出力する。図7に示すように、ロボット1は、人Hが接近して来ると、図7(B)における矢印方向に腕部30を縮めて人Hから遠ざけ、肩からの干渉半径を短くすると共に、図7(C)における矢印方向(人Hと反対の方向)に後退する。
図8は、干渉計算部94Aが立ち位置を計算する処理を説明するための図である。図中、P1点が、元々ロボット1の立ち位置である。人Hが接近すると(例えば所定距離以内となると)、干渉計算部94Aは、まず、人Hの位置から直線的に遠ざかる位置P2に仮の立ち位置を決定する。そして、干渉計算部94Aは、仮の立ち位置P2が禁止領域BA内であるか否かを判定し、禁止領域BA内である場合には、例えば対象物OBの最も近い位置OB2(OB1でもよいし、対象物OBの領域の中心点でもよい)から直線的に遠ざかる位置であって、好適領域WAまたは移動可能領域MA内に位置P3を、新たな立ち位置として決定する。この際に、干渉計算部94Aは、ボディ部20や腕部30の向きを変えずに移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これによって、ロボット1は、ボディ部20や腕部30の旋回によって人Hと干渉することを防止することができる。その後、干渉計算部94Aは、ロボット1の向きを旋回させて(図8の場合は左に旋回させて)、位置P3まで移動するように、立ち位置決定部94Bや移動指令計算部94Cを介して腕制御部94Fや腰・脚制御部94Gに指示する。これらによって、ロボット1は、人や対象物OBとの干渉を避けつつ、スムーズに移動することができる。
[案内姿勢、および動作]
図9および図10は、ロボット1が対象物を指し示す際の姿勢の一例を示す図である。図9は上面視であり、図10は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24A(ボディ部20における「所定の箇所」の一例である)と、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成する。ロボット1は、対象部OBにおける所定の位置OB1の座標の情報を、対象物座標データ84として記憶部80に格納している。姿勢制御部94は、このような姿勢を実現するように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
また、ロボット1は、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持する。図11は、ロボット1が人差し指部43の延在方向を位置OB1に向け続ける様子を示す図である。これによって、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
なお、「指示体」の一例として人差し指部43を例示したが、これに限定されるものではない。例えば、ロボット1は、手部40全体と指示体として扱ってもよい。ロボット1は、例えば全ての指部を伸ばした状態で、手部40を対象物OBに向けてもよい。この場合、姿勢制御部94は、直線L上に手部40全体が延在する姿勢をとるように、肩関節部24、肘関節部34、手首関節部38、および手部40の関節部のアクチュエータを制御する。図12は、係る姿勢を示す図であり、ロボット1が対象物を指し示す際の姿勢の他の例を示す図である(上面視は図5とほぼ同じであるため、側面視のみ示す)。また、ロボット1は、指示棒などの道具を手部40で把持し、その把持した指示棒などを対象物OBに向けてもよい。
なお、図9および図10では、「直線L上に人差し指部43が延在する」ことが三次元空間上の意味をもつものとしたが、二次元空間上の意味をもつものであってもよい。すなわち、「特定の方向から見た場合に直線L上に人差し指部43が延在する」ものであっても構わない。
また、図13および図14は、ロボット1が対象物を指し示す際に行う動作を模式的に示す図である。図13は上面視であり、図14は側面視である。図示するように、ロボット1は、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行う。姿勢制御部94は、このような動作を実現するように、肩関節部24、肘関節部34、および手首関節部38のアクチュエータを制御する。これによって、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。すなわち、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。なお、このような動作は、ロボット1の腕部30から先の部材が対象物OBや人に干渉する場合にも行われる。
以下、図9〜14で説明した姿勢が実現されるまでの処理の流れについて、図5を参照しながら説明する。指差し指令計算部94Eには、例えば、指差しタイミング計算部94Dから指示タイミング信号や対象物OBの識別情報が、干渉計算部94Aから腕の縮み量を指定する情報が、対象物座標データ84から全ての対象物OBの位置が、それぞれ入力される。
手首方位計算部94Eaは、まず、対象物OBの識別情報を用いて全ての対象物OBの位置から、案内を行う対象物OBの位置OB1を特定する。この位置OB1は、例えば、実座標系上の位置(展示会場を平面とした場合の位置)として記述されている。手首方位計算部94Eaは、実座標系上の位置からロボット座標系上の位置に変換する処理を行う。図15は、手首方位計算部94Eaによる処理を説明するための図である。図中、破線矢印でしめすx軸、y軸が実座標系の座標軸を示し、実線矢印で示すX軸、Y軸がロボット座標系の座標軸を示す。ロボット座標系のX軸は、例えば、ロボット1のつま先に相当する部位の向く方向と定義される。実座標系上の位置からロボット座標系上の位置への変換は、実座標系上のロボット1の位置および方位に基づいて行われる。
また、手首方位計算部94Eaは、上記の変換によって位置OB1のロボット座標系上の位置および方位が求められると、位置OB1を右腕部で指し示すか、左腕部で指し示すかを決定する。図15において、角度範囲ARは右腕で指し示すことの可能な範囲を示し、角度範囲ALは左腕で指し示すことの可能な範囲を示している。手首方位計算部94Eaは、基本的に、位置OB1の方位が角度範囲ARの範囲内であれば右腕で、位置OB1の方位が角度範囲ALの範囲内であれば左腕で指し示すと決定する。
ここで、角度範囲AR、ALのいずれにも含まれない範囲は、その立ち位置からは指し示すことが不可能な範囲である。この場合、例えば、手首方位計算部94Eaは、音声案内制御部96に指し示すことが不能である旨の情報を出力し、音声案内制御部96は、指差しをしながら行う必要のない音声案内に切り替える制御を行う。また、図15において、角度範囲AR、ALの重複部分が存在する。この範囲内に位置OB1が存在する場合、手首方位計算部94Eaは、例えば人の位置に応じていずれの腕で指し示すかを決定する。図16は、位置OB1が角度範囲AR、ALの重複部分に存在する場合に、指し示す腕が決定される様子を示す図である。ロボット1は、例えば人Hに対して頭部10の頭部正面14(カメラ12の存在する面)を正対させて説明を行う。そして、手首方位計算部94Eaは、肩関節部24の回転中心24A、手部40、位置OB1を結ぶ直線Lが、頭部10と人とを結ぶ直線と交わらないように、いずれの腕で指し示すかを決定する。図16に示すような場面では、仮に左腕で位置OB1を指し示した場合、回転中心24A、手部40、位置OB1を結ぶ直線が、頭部正面14と人とを結ぶ直線と交差してしまい、見かけ上、不自然な姿勢となってしまう。従って、手首方位計算部94Eaは、図16に示すような場面では、右腕によって位置OB1を指し示して音声案内を行うものと決定する。
手首方位計算部94Eaによって、位置OB1の方位、すなわち人差し指部43の延在方向を決定付ける手部40の方位が決定されると、腰/腕分配部94Ebが、ロボット座標系上のX方向と人差し指部43の延在方向との角度差(例えば図15における、X軸と直線Lのなす角度)を実現するための各関節部の「ひねり」を、腰関節部26と、肩から腕にかけての関節部(肩関節部24、肘関節部34、および手首関節部38)とに分配する。腰/腕分配部94Ebは、例えば、角度差が大きくなるほど腰関節部26のひねりの割合が大きくなるように、ひねりの量を分配する。図17は、腰/腕分配部94Ebがひねりの量を分配する際の分配傾向の一例を示す図である。腰関節部26のひねり量θ26は、X軸と直線Lのなす角度をθXLとすると、例えば式(1)で求められる。
θ26=―θXL×{1―exp(|θXL/π|)} ‥(1)
腰/腕分配部94Ebによって、ひねり量の分配程度が決定されると、分配されたひねり量を実現するように、腰・脚制御部94Gによって腰関節部26に取り付けられたアクチュエータが制御される。また、手首位置計算部94Ecにより、ロボット座標系上における手部40の位置(x,y,z)が計算される。また、手先姿勢計算部により、人差し指部43の掌部41に対してなす角度が計算される。これらの計算結果を用いて腕制御部94Fが肩関節部24から先の関節部に取り付けられたアクチュエータを駆動することで、図9、10等に示した姿勢が実現される。
[処理フロー]
以下、ロボット1の立ち位置が決定されて音声案内が行われるまでの処理の流れについて、フローチャートの形式で説明する。図18は、制御部90により実行される処理の流れを示すフローチャートの一例である。まず、制御部90は、対象物OBと案内内容を決定する(ステップS100)。次に、制御部90は、指差しの必要な案内内容であるか否かを判定する(ステップS102)。指差しの必要な案内内容でない場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。
指差しの必要な案内内容である場合、対象物OBに干渉しない位置に立ち位置を決定する(ステップS104)。次に、姿勢制御部94は、人に接近歩行し、頭部10の正面14が人の方向を向くようにアクチュエータ群60を制御する(ステップS106)。
次に、姿勢制御部94は、ジェスチャが制限されている位置関係であるか否かを判定する(ステップS108)。ジェスチャが制限されている位置関係である場合、姿勢制御部94は、離脱歩行を行い(ステップS110)、再度、ステップS108の判定を行う。
ジェスチャが制限されている位置関係でない場合、姿勢制御部94は、指差しをする腕を決定する(ステップS112)。次に、姿勢制御部94は、指差し可能な位置を決定できたか否かを判定する(ステップS114)。指差し可能な位置を決定できなかった場合、指差しをせずに、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS116)。
指差し可能な位置を決定できた場合、前述したように、姿勢制御部94は、手首方位角度を決定し(ステップS118)、腰/腕分配比を決定し(ステップS120)、手首位置を決定し(ステップS122)、手先姿勢を決定する(ステップS124)。そして、姿勢制御部は、指差しが人と干渉するか否かを判定する(ステップS126)。指差しが人と干渉する場合、姿勢制御部94は、離脱歩行を行い(ステップS128)、ステップS118に戻る。
一方、指差しが人と干渉しない場合、姿勢制御部94が指差し姿勢を形成するようにアクチュエータ群60を制御しつつ、音声案内制御部96が音声案内を出力するようにスピーカ70を制御する(ステップS130)。その後、制御部90は、音声案内が終了したか否かを判定する(ステップS132)。音声案内が終了していない場合は、アクチュエータ群60の動作履歴やカメラ12の撮像画像解析によって、ロボット1の位置を取得し(ステップS134)、ステップS118に戻る。音声案内が終了した場合、本フローチャートの1ルーチンが終了する。
[呼びかけ制御]
ロボット1は、以下に説明するように、対象物OBについての音声案内を行う前に、人Hを好適位置WAに誘導する動作を行ってもよい。図19は、ロボット1が、人Hを好適位置WAに誘導する様子を示す図である。図19(A)に示すように、ロボット1は、まず好適領域WA内に立ち、対象物OBを指し示しながら人Hに対して自己の位置に来るように呼びかける音声(「こっちだよ」など)を出力する。そして、図19(B)に示すように、人Hが接近して来るのに応じて対象物OBを指し示しながら移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力する。係る制御によって、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。
図20は、ロボット1が、人Hを好適位置WAに誘導する際に実行される処理の流れを示すフローチャートの一例である。まず、姿勢制御部94は、好適領域WAまたは移動可能領域MA内に人がいないか否かを判定する(ステップS200)。好適領域WAまたは移動可能領域MA内に人がいる場合は、本フローチャートの1ルーチンが終了される。この場合、例えば図18のフローチャートの処理が実行される。
好適領域WAまたは移動可能領域MA内に人がいない場合、姿勢制御部94は、ロボット1を好適領域WA内に移動させる(ステップS202)。そして、環境認識部92により遠い位置で人が検知されたか否かを判定する(ステップS204)。「遠い位置」とは、好適領域WAと移動可能領域MAの領域外の位置を意味してもよいし、好適領域WAと移動可能領域MAの外縁から所定距離以上、或いはロボット1から所定距離以上の位置を意味してもよい。遠い位置で人が検知されなかった場合は、本フローチャートの1ルーチンが終了される。
遠い位置で人が検知された場合、ロボット1は、人に対して自己の位置に来るように呼びかける音声を出力する(ステップS206)。そして、姿勢制御部94は、人が接近しているか否かを判定する(ステップS208)。人が接近している場合、姿勢制御部94は、人の接近に応じてロボット1を後退させる(ステップS210)。
次に、姿勢制御部94は、人が好適領域WAに入ったか否かを判定する(ステップS212)。人が好適領域WAに入ると、音声案内制御部96は、対象物OBについての音声案内を開始するようにスピーカ70を制御する(ステップS214)。なお、ステップS208またはS212で否定的な判定が得られた場合、ステップS204の判定処理に戻る。
以上説明した本実施形態のロボット1によれば、干渉計算部94Aの処理等によって移動する前後において、人差し指部43の延在方向(指示方向)が位置OB1に向く状態を維持するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、肩関節部24における腕第1リンク部32の回転中心24Aと、特定の位置OB1を結ぶ直線L上に人差し指部43が延在する姿勢を形成するため、案内を受ける人は、ロボット1が指し示す方向を、直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、より効果的に誘導することができる。
また、本実施形態のロボット1によれば、対象物OBにおける特定の位置OB1の方向を指し示すとき、人差し指部43が直線L上に延在する状態を維持したまま、人差し指部43が直線L上を行ったり来たりする動作を行うため、案内を受ける人は、ロボット1が指し示す方向を、更に直感的に把握することができる。この結果、ロボット1は、案内を受ける人の視線を、更に効果的に誘導することができる。
また、本実施形態のロボット1によれば、まず好適領域WA内に立ち、人Hに対して自己の位置に来るように呼びかける音声を出力し、人Hが接近して来るのに応じて移動可能領域MAに後退し、人Hが好適領域WAに入ると、対象物OBについての音声案内を出力するため、ロボット1は、対象物OBを見やすい位置に人を誘導することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 ロボット(ロボット)
10 頭部
12 カメラ(検知部)
20 ボディ部(ボディ部)
24 肩関節部
30 腕部(連結部)
32 腕第1リンク部
34 肘関節部(中間関節部)
36 腕第2リンク部
38 手首関節部
40 手部
50 脚部
41 掌部
42 親指部
43 人差し指部(指示体)
44 中指部
45 薬指部
41A〜41E 基節関節部
43A 人差し指先端部
43B 人差し指第1関節部
43C 人差し指第1リンク部
43D 人差し指第2関節部
43E 人差し指第2リンク部
60 アクチュエータ群(駆動部)
62 ロータリーエンコーダ群
70 スピーカ(出力部)
80 記憶部
90 制御部
92 環境認識部
94 姿勢制御部(制御部)
96 音声案内制御部

Claims (14)

  1. 方向を指し示すための指示体と、
    前記指示体を駆動する駆動部と、
    前記駆動部が取り付けられたボディ部を移動させる移動部と、
    前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御する制御部と、
    を備えるロボット。
  2. 請求項1記載のロボットであって、
    前記制御部は、前記移動部により前記ボディ部が移動する前後において、前記指示体の指し示す方向に前記対象物が位置する状態を維持するように、前記駆動部を制御する、
    ロボット。
  3. 請求項2記載のロボットであって、
    前記ボディ部と前記指示体とを連結し、前記ボディ部との連結箇所と前記指示体との連結箇所の間に一以上の中間関節部を備える連結部を備え、
    前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部のうち少なくとも1つが前記直線上から逸脱した状態で、前記直線上に前記指示体の少なくとも一部が延在するように、前記駆動部を制御することができる、
    ロボット。
  4. 請求項3記載のロボットであって、
    前記制御部は、前記指示体に前記対象物の方向を指示させるとき、前記一以上の中間関節部が前記直線から逸脱した状態で、前記直線上を前記指示体が往復移動するように、前記駆動部を制御することができる、
    ロボット。
  5. 請求項3または4のうちいずれか1項記載のロボットであって、
    前記駆動部は、前記連結部を前記ボディ部における所定箇所を中心として回転駆動する、
    ロボット。
  6. 請求項1から5のうちいずれか1項記載のロボットであって、
    人の位置を検知する検知部を備え、
    前記制御部は、前記ボディ部が人を中心とした領域内にある場合に、前記ボディ部が前記人から離れるように前記移動部を制御する、
    ロボット。
  7. 請求項6記載のロボットであって、
    前記制御部は、前記ボディ部が前記人から離れるように前記移動部を制御する際に、前記ボディ部の向きを変えずに移動するように前記移動部を制御し、その後、前記ボディ部を旋回させて、前記前記対象物の位置に基づいて決定される目標位置まで前記ボディ部が移動するように前記移動部を制御する、
    ロボット。
  8. 請求項1から7のうちいずれか1項記載のロボットであって、
    人の位置を検知する検知部を備え、
    前記制御部は、前記指示体に前記対象物の方向を指示させる前に、前記ボディ部が前記対象物の位置を基準とした初期位置に移動するように前記移動部を制御し、その後、人が前記ボディ部に接近することが前記検知部により検知された場合に、前記ボディ部が前記初期位置から離れるように前記移動部を制御する、
    ロボット。
  9. 請求項8記載のロボットであって、
    音声を出力する出力部を備え、
    前記制御部は、前記ボディ部が前記初期位置に移動したときに、前記初期位置に来るように人に呼び掛ける音声を出力するように、前記出力部を制御する、
    ロボット。
  10. 請求項9記載のロボットであって、
    前記制御部は、人が前記初期位置に移動したときに、音声による前記対象物についての案内を開始するように前記出力部を制御する、
    ロボット。
  11. 請求項1から10のうちいずれか1項記載のロボットであって、
    人の位置を検知する検知部を備え、
    前記制御部は、前記ボディ部の位置と前記検知部により検知された人の位置との間の距離が第1の所定距離以上となり、且つ、前記ボディ部の位置と前記対象物の位置との間の距離が第2の所定距離以上となるように、前記移動部を制御する、
    ロボット。
  12. 請求項1から11のうちいずれか1項記載のロボットであって、
    2つのアーム部の先端に前記指示体が取り付けられ、
    前記移動部は、2つの脚部を備える、
    ロボット。
  13. 方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、を備えるロボットの制御方法であって、
    前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
    前記計算した位置に前記指示体が位置するように前記駆動部を制御するステップと、
    を備えるロボット制御方法。
  14. 方向を指し示すための指示体と、前記指示体を駆動する駆動部と、前記駆動部が取り付けられたボディ部を移動させる移動部と、を備えるロボットの制御プログラムであって、
    コンピュータに、
    前記指示体に前記対象物の方向を指示させるとき、前記ボディ部における所定の箇所と前記対象物の位置を結ぶ直線上に前記指示体の位置を計算するステップと、
    前記計算した位置に前記指示体が位置するように前記駆動部を制御するステップと、
    を実行させるロボット制御プログラム。
JP2013202688A 2013-09-27 2013-09-27 ロボット、ロボット制御方法、およびロボット制御プログラム Expired - Fee Related JP6158665B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013202688A JP6158665B2 (ja) 2013-09-27 2013-09-27 ロボット、ロボット制御方法、およびロボット制御プログラム
US14/498,871 US9517559B2 (en) 2013-09-27 2014-09-26 Robot control system, robot control method and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202688A JP6158665B2 (ja) 2013-09-27 2013-09-27 ロボット、ロボット制御方法、およびロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2015066632A true JP2015066632A (ja) 2015-04-13
JP6158665B2 JP6158665B2 (ja) 2017-07-05

Family

ID=52833920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202688A Expired - Fee Related JP6158665B2 (ja) 2013-09-27 2013-09-27 ロボット、ロボット制御方法、およびロボット制御プログラム

Country Status (1)

Country Link
JP (1) JP6158665B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144732A (ja) * 2018-02-19 2019-08-29 日本電信電話株式会社 動作指示生成システム、方法およびプログラム
WO2022091907A1 (ja) * 2020-10-30 2022-05-05 川崎重工業株式会社 無人配送システム及び無人配送方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016034026A1 (en) * 2014-09-02 2016-03-10 Spring Power Holdings Limited A human-computer interface device and system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328086A (ja) * 2000-05-22 2001-11-27 Nippon Telegr & Teleph Corp <Ntt> ロボットおよび該ロボットを用いた電子商取引システム
JP2004154918A (ja) * 2002-11-08 2004-06-03 Nissan Motor Co Ltd ロボットの腕動作機構およびカーナビゲーションシステム
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP2006048634A (ja) * 2004-07-07 2006-02-16 Cabin Industrial Co Ltd 方向指示装置
JP2006231447A (ja) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 指示位置または特定物の確認方法及び座標獲得方法並びに装置
JP2010231315A (ja) * 2009-03-26 2010-10-14 Fujitsu Ltd 情報提供装置
JP2011180660A (ja) * 2010-02-26 2011-09-15 Advanced Telecommunication Research Institute International 領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボット
JP2012111011A (ja) * 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International 移動ロボット

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328086A (ja) * 2000-05-22 2001-11-27 Nippon Telegr & Teleph Corp <Ntt> ロボットおよび該ロボットを用いた電子商取引システム
JP2004154918A (ja) * 2002-11-08 2004-06-03 Nissan Motor Co Ltd ロボットの腕動作機構およびカーナビゲーションシステム
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP2006048634A (ja) * 2004-07-07 2006-02-16 Cabin Industrial Co Ltd 方向指示装置
JP2006231447A (ja) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 指示位置または特定物の確認方法及び座標獲得方法並びに装置
JP2010231315A (ja) * 2009-03-26 2010-10-14 Fujitsu Ltd 情報提供装置
JP2011180660A (ja) * 2010-02-26 2011-09-15 Advanced Telecommunication Research Institute International 領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボット
JP2012111011A (ja) * 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International 移動ロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144732A (ja) * 2018-02-19 2019-08-29 日本電信電話株式会社 動作指示生成システム、方法およびプログラム
WO2022091907A1 (ja) * 2020-10-30 2022-05-05 川崎重工業株式会社 無人配送システム及び無人配送方法
JP7522007B2 (ja) 2020-10-30 2024-07-24 川崎重工業株式会社 無人配送システム及び無人配送方法

Also Published As

Publication number Publication date
JP6158665B2 (ja) 2017-07-05

Similar Documents

Publication Publication Date Title
US8380348B2 (en) Robot
US10913151B1 (en) Object hand-over between robot and actor
US8577126B2 (en) System and method for cooperative remote vehicle behavior
Fang et al. Adaptive active visual servoing of nonholonomic mobile robots
JP4565229B2 (ja) ロボット
US8924020B2 (en) Apparatus for controlling robot and control method thereof
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
US20090180668A1 (en) System and method for cooperative remote vehicle behavior
US8855814B2 (en) Robot and control method thereof
CN110825076B (zh) 基于视线和力反馈的移动机器人编队导航半自主控制方法
JP5108032B2 (ja) 多関節構造体教示装置
JP2007181888A (ja) コミュニケーションロボットシステム
KR102170638B1 (ko) 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템
JP6158665B2 (ja) ロボット、ロボット制御方法、およびロボット制御プログラム
Yang et al. Real-time human-robot interaction in complex environment using kinect v2 image recognition
US9193070B2 (en) Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object
JP2006026875A (ja) ロボットハンドの把持制御装置
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
Omrčen et al. Redundant control of a humanoid robot head with foveated vision for object tracking
Chen et al. Human-aided robotic grasping
US20220415094A1 (en) Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium
JP2007125653A (ja) ロボットハンドの把持制御装置
US20240149458A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
Tooyama et al. Development of an assistive system for position control of a human hand with high speed and high accuracy
JP2003062775A (ja) 人間型ハンドロボット用教示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170608

R150 Certificate of patent or registration of utility model

Ref document number: 6158665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees