JP4715787B2 - 移動ロボット及びロボット移動制御方法 - Google Patents

移動ロボット及びロボット移動制御方法 Download PDF

Info

Publication number
JP4715787B2
JP4715787B2 JP2007074295A JP2007074295A JP4715787B2 JP 4715787 B2 JP4715787 B2 JP 4715787B2 JP 2007074295 A JP2007074295 A JP 2007074295A JP 2007074295 A JP2007074295 A JP 2007074295A JP 4715787 B2 JP4715787 B2 JP 4715787B2
Authority
JP
Japan
Prior art keywords
mobile robot
tracking target
robot
target
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007074295A
Other languages
English (en)
Other versions
JP2008234404A (ja
Inventor
和宏 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007074295A priority Critical patent/JP4715787B2/ja
Publication of JP2008234404A publication Critical patent/JP2008234404A/ja
Application granted granted Critical
Publication of JP4715787B2 publication Critical patent/JP4715787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動ロボット及びロボット移動制御方法に関し、特に追従対象に対して追従して移動する移動ロボットの移動制御に関する。
移動ロボットは、予め定められた移動経路またはリアルタイムに修正する移動経路に従って移動することができる。このような移動ロボットにおいて、人間等の追従対象の移動に追従して移動制御を行う移動ロボットが提案されている。例えば、この移動ロボットは、人間に対して追従する買い物カート型ロボットやベビーカー型ロボットとして応用される。
図8は、このような機能を有する移動ロボットと追従対象である人を上からみた模式図である。移動ロボット1は、追従対象2の前方右側の所定の相対位置に常に位置するように移動制御される。図8では、人の進行方向をx方向とし、それと垂直な方向をy方向とするxy座標系により表している。そして、移動ロボット1は、追従対象2の位置座標を取得しつつ、その位置座標に対して所定の相対位置関係にある自己位置を保つように移動経路を作成する。
このように、図8に示す例では、移動ロボット1は、追従対象2の前方右側の相対位置に位置しなければならないため、追従対象2の「前方」がどちらかをを判断する必要がある。従来の技術では、これを追従対象2の移動方向を「前方」であるとみなすことによって、移動ロボット1は判断していた。
なお、特許文献1には、所定のICタグより作業指示を受けて次に向かうべき他のICタグに向かって移動するロボットが開示されている。しかしながら、この特許文献1においてロボットが移動する先のICタグは、床面に貼り付けられたものであり、それ自身が移動するものではない。
特開2004−108782号公報
従来の技術によれば、追従対象2の前方を判断するために、追従対象2の移動方向を「前方」であるとみなしていたが、追従対象2が後ろ方向に進む動きをした場合には、その後ろ方向が前方であると判定してしまい、所定の相対位置関係を保つことができないという問題が発生した。特に、追従対象2が前後への動きを繰り返すと、その動作の度に、移動ロボット1は、追従対象2の前方と後方に繰り返して移動しなければならず、不自然な動きとなる。
本発明は、かかる課題を解決するためになされたものであり、移動する追従対象に対して自然に追従することが可能な移動ロボット及びロボット移動制御方法を提供することを目的とする。
本発明にかかる移動ロボットは、移動する追従対象に対して相対的な所定位置を維持して追従動作を行う移動ロボットであって、前記追従対象の向きを検出する向き検出手段と、前記検出手段により検出された追従対象の向きに応じて、当該移動ロボットの目標位置を決定する目標位置決定手段とを備えたものである。
ここで、前記向き検出手段は、前記追従対象を撮影する撮影手段と、前記撮影手段により取得した画像情報に基づき関節位置を認識する認識手段と、前記認識手段によって認識された関節位置に基づき追従対象の向きを判定する判定手段とを備えたものである。
また、前記向き検出手段によって検出された追従対象の向きに応じて、当該移動ロボットの向きを制御する向き制御手段をさらに備えることが好ましい。
さらに、前記向き制御手段は、前記追従対象の向きと前記移動ロボットの向きが一致するように当該移動ロボットの向きを制御することが望ましい。
また、前記移動ロボットの現在位置から前記目標位置決定手段によって決定された移動ロボットの目標位置までの移動経路を算出する移動経路算出手段と、前記移動経路算出手段によって算出された移動経路に基づいて移動ロボットの向きを制御する向き制御手段をさらに備えるようにしてもよい。
典型的には、前記移動ロボットは、車輪型ロボットである。
本発明にかかるロボット移動制御方法は、移動する追従対象に対して相対的な所定位置を維持して追従動作を行うロボット移動制御方法であって、前記追従対象の向きを検出するステップと、検出された追従対象の向きに応じて、当該移動ロボットの目標位置を決定するステップとを備えたものである。
ここで、前記追従対象の向きを検出するステップは、前記追従対象を撮影し、画像情報を取得するステップと、前記画像情報に基づき関節位置を認識するステップと、認識された関節位置に基づき追従対象の向きを判定するステップとを備えたものであることが望ましい。
また、検出された追従対象の向きに応じて、当該移動ロボットの向きを決定するステップをさらに備えるようにしてもよい。
特に、前記追従対象の向きと前記移動ロボットの向きが一致するように当該移動ロボットの向きを決定することが望ましい。
また、前記移動ロボットの現在位置から目標位置までの移動経路を算出するステップと、算出された移動経路に基づいて移動ロボットの向きを決定するステップをさらに備えるようにしてもよい。
典型的には、前記移動ロボットは、車輪型ロボットである。
本発明によれば、移動する追従対象に対して自然に追従することが可能な移動ロボット及びロボット移動制御方法を提供することができる。
発明の実施の形態1.
本実施の形態1にかかるロボット移動制御方法について、図1、2を用いて説明する。図1に示されるように、移動ロボット1は追従対象2の位置座標を取得しつつ、その位置座標に対して所定の相対位置関係にある自己位置を保つように移動経路を作成する。図1における移動ロボット1の具体的な構成については後に詳述する。この移動ロボット1は、典型的には真横に動けない非ホロノミック系の車輪型ロボットであるが、自律歩行型ロボットであってもよい。追従対象2は、自ら移動する機能を有するものであり、典型的には人であるが、他のロボットや乗り物であってもよい。図において、追従対象2の向き(前方向)は、隅部を黒塗りすることで示している。
図1(a)に示されるように、移動ロボット1は、追従対象2の右斜め前の所定位置(ここでは、前方にxt、横方向にytだけ進んだ位置)を維持するように移動経路を作成し、移動制御される。図1において、R1は移動ロボット1の現在位置を示し、T1は追従対象2の現在位置を示す。移動ロボット1の現在位置R1は、xy座標系において、追従対象2の現在位置T1を原点(0,0)としたとき、(xt,yt)となる。このとき、移動ロボット1と追従対象2の位置関係について、位置R1から位置T1の距離dtと、位置R1と位置T1を結ぶ線と位置R1から前後方向へ延ばした線の間の角度θtによって特定するようにしてもよい。
このとき、紙面において上側を向いていた追従対象2が向きを変え、左回りに180度旋回し、紙面において下側に向いたとする。本実施の形態1にかかる移動ロボット1は、追従対象2の向きを直接検出し、このような向きの変更を認識する。例えば、移動ロボット1は、追従対象2と同じように、左回りに180度旋回し、同じ向きを向くように制御される。または、追従対象2の向きを検出して、その向きに応じた、移動ロボット1の目標位置を決定し、さらに、現在位置から目標位置までの移動経路を決定し、この移動経路を移動する場合に現在位置において向くべき方向(即ち、現在位置における移動経路に沿った向き)に、当該移動ロボット1が向きを変えるようにしてもよい。
追従対象2が180度向きを変えた場合には、図1(c)に示されるように、移動ロボット1は、追従対象2の右斜め前の所定位置に位置しなければならないため、紙面の右上から左下の位置に移動する必要がある。このため、かかる左下の位置(これは、追従対象2にとって右斜め前の所定位置)を目標位置として、現在位置から線路計画を行い移動経路を決定する。図1(c)における点線の矢印が移動経路であり、追従対象2を障害物として避けるように移動経路が作成されている。
移動ロボット1がこの移動経路に従って移動を開始する条件については、様々な条件が適用しうる。例えば、追従対象2がその向き(本例では紙面の下側)に動き始めたこと、若しくは予め定めた距離だけその向きに移動したことを移動ロボット1が検知したときに、移動ロボット1が移動を開始する。また、追従対象2が向きを変える動作(即ち、旋回動作)を停止した後、予め定められた時間が経過したときに、移動ロボット1が移動を開始するようにしてもよい。
図2(a)に示されるように、追従対象2が向きを変えずに後ずさりした場合を考える。この場合、従来の技術においては、移動方向を追従対象2の向きであると判断したため、図1(c)で示したような移動経路を作成し、移動を開始する制御を行っていた。これに対して、本実施の形態によれば、移動ロボット1は、追従対象2の向きを直接検出し、後ろ方向に移動したとしても向きはそのままであることを認識するため、図1(c)で示したような移動経路は作成しない。本実施の形態にかかる移動ロボット1は、単に、追従対象2との相対的な位置関係を維持するために、追従対象2の後方への移動に伴って、同じように後方へ移動するだけである。したがって、本実施の形態にかかる移動制御方法によれば、無駄な回り込み移動や旋回動作を行うことがないため、自然な追従動作を実現できる。
ここで、本実施の形態1にかかる移動ロボットの構成例を説明する。図3に示すように、移動ロボット1は、箱型の本体1aと、1対の対向する車輪11a、11bと、キャスタ12を備える対向2輪型の移動ロボットであり、これらの車輪11a、11b、キャスタ12とで本体1aを水平に支持するものである。さらに、本体1aの内部には、車輪11a、11bをそれぞれ駆動する駆動部(モータ)13a、13bと、車輪の回転数を検出するためのカウンタ14と、車輪を駆動するための制御信号を作成し、駆動部13a、13bにその制御信号を送信する演算部15が備えられている。本例において、演算部15は、追従アルゴリズムに従い、前後動作出力と旋回動作出力を算出し、これらに従った動作が実行されるような動作出力値を含む制御信号を作成する。そして、演算部15内部に備えられた記憶部としてのメモリなどの記憶領域15aには、制御信号に基づいて車両10の移動速度や移動方向、移動距離などを制御するためのプログラムが記録されている。移動速度や移動距離などは、カウンタ14で検知された車輪11a、11bの回転数に基づいて求められている。
また、本体1aの前面には、移動する方向に現れた障害物等を認識するためのカメラ等の障害物検知手段16が固定されており、この障害物検知手段16で認識した障害物の画像や映像等の情報が演算部15に入力される。本体1aの上面には、自己位置を認識するためのアンテナ17が備えられており、例えば図示しないGPS等からの位置情報を受け取り、演算部15においてその位置情報を解析することにより、自己の位置を正確に認識することができる。その結果、プログラムに従って車両の移動する方向や速度等が決定される。また、本体1aの後面には、追従対象2を認識するためのカメラ等の追従対象検知手段18が固定されており、この追従対象検知手段18で認識した追従対象2の画像や映像等の情報が演算部15に入力される。演算部15は、この追従対象2の画像や映像等の情報に基づき、解析を行い、追従対象2と移動ロボット1の相対的な位置を正確に認識することができる。特に、本実施の形態1においては、この追従対象検知手段18は、追従対象の向きを検知する機能を備えている。この機能については、後に詳述する。
続いて、本実施の形態1にかかるロボット移動制御方法について、図4に示すフローチャートを用いて説明する。
最初に、移動ロボット1の演算部15は、追従対象検知手段18により取得された画像や映像等の情報に基づいて、追従対象2の位置計測を実行し、この結果、得られた位置情報と、過去の位置情報に基づいて、追従対象2の移動ベクトルを算出する(S101)。
次に、移動ロボット1の演算部15は、算出した移動ベクトルに基づいて、追従対象2が移動しているかどうかを判定する(S102)。判定の結果、移動していると判定した場合には、目標位置を設定し、経路計画を行い、移動する(S106)。他方、移動していない、即ち静止していると判定した場合には、さらに、演算部15は、移動ロボット1は目標位置にいるかどうかを判定する(S103)。
演算部15は、移動ロボット1が目標位置にいないと判定した場合には、目標位置を設定し、経路計画を行い、移動する(S106)。他方、演算部15は、移動ロボット1が目標位置にいると判定した場合には、追従対象検知手段18により検知した追従対象2の向きが、移動ロボット1の向きと一致しているかどうかを判定する(S104)。
演算部15は、追従対象2の向きが、移動ロボット1の向きと一致していると判定した場合には、ステップS101に移行する。他方、演算部15は、追従対象2の向きが、移動ロボット1の向きと一致していないと判定した場合には、移動ロボット1を旋回させて、移動ロボット1の向きと追従対象2の向きとを一致させる(S105)。その後、ステップS101に移行する。
なお、移動ロボット1の向きと、追従対象2の向きについては、このように一致か不一致かを判定した上で一致するように移動制御する方法以外にも、移動ロボット1の向きと追従対象2の向きが180度異なる、即ち反対方向を向くようにしてもよい。移動ロボット1は、基本的に前方と後方への移動性能は変わらず、特に車輪型の場合には、前方向のみならず、後ろ方向へも移動が容易であるため、後ろ方向へ移動させることにより、用意に目標位置まで到達できるからである。このとき、移動ロボット1の向きと追従対象2の向きを一致させるのか、180度逆方向にするのかは、一致させるために必要な旋回角度と、180度逆方向にするために必要な旋回角度とを比較し、小さい方を選択するようにすればよい。
ここで、ステップS106においては、図1、図2において説明したように、演算部15は、追従対象2の向きを反映した位置関係に設定する。さらに、追従対象2の移動速度や、移動ロボット1の走行速度により求まる到達時間もパラメータとして、追従対象2に対する所定の相対位置である目標位置に、移動ロボット1が遅れがでずに移動できるように目標位置を設定する。
図4に示すフローチャートに従うと、例えば、追従対象2が後ずさりした場合は移動ロボット1も後ずさりをし、追従対象2が止まって旋回した場合は移動ロボット1も旋回し、さらに、追従対象2が移動し始めたら(人が歩き出したら)、移動ロボット1も移動を開始する。このように、移動ロボット1は無駄な動きを行わずに、追従移動に必要な動きのみを実行する。
続いて、本実施の形態1にかかる他のロボット移動制御方法について、図5に示すフローチャートを用いて説明する。
最初に、移動ロボット1の演算部15は、追従対象検知手段18により取得された画像や映像等の情報に基づいて、追従対象2の位置計測を実行し、この結果、得られた位置情報と、過去の位置情報に基づいて、追従対象2の移動ベクトルを算出する(S201)。
次に、演算部15は、目標位置を設定し、経路計画を行う(S202)。さらに、演算部15は、ステップS201において算出した移動ベクトルに基づいて、追従対象2が移動しているかどうかを判定する(S203)。判定の結果、移動していると判定した場合には、ステップS202において算出した経路計画に従って移動する(S207)。他方、移動していない、即ち静止していると判定した場合には、さらに、演算部15は、移動ロボット1は目標位置にいるかどうかを判定する(S204)。
演算部15は、移動ロボット1が目標位置にいないと判定した場合には、ステップS202において算出した経路計画に従って移動する(S207)。他方、演算部15は、移動ロボット1が目標位置にいると判定した場合には、追従対象検知手段18により検知した追従対象2の向きが、移動ロボット1の向きと一致しているかどうかを判定する(S205)。
演算部15は、追従対象2の向きが、移動ロボット1の向きと一致していると判定した場合には、ステップS201に移行する。他方、演算部15は、追従対象2の向きが、移動ロボット1の向きと一致していないと判定した場合には、移動ロボット1を旋回させて、移動ロボット1の向きと追従対象2の向きとを一致させる(S206)。その後、ステップS101に移行する。
ここで、ステップS202においては、図1、図2において説明したように、演算部15は、追従対象2の向きを反映した位置関係に設定する。さらに、追従対象2の移動速度や、移動ロボット1の走行速度により求まる到達時間もパラメータとして、追従対象2に対する所定の相対位置である目標位置に、移動ロボット1が遅れがでずに移動できるように目標位置を設定する。
続いて、追従対象検知手段18の備える、追従対象の向きを検知する機能について、図6及び図7を用いて詳述する。
追従対象の向きを検知する手段は、例えば、図6に示されるように2台のカメラ21a,21bと、ステレオ画像処理部22と、姿勢推定部23と、頭部前後判定部24と、身体部位2次元モデル処理部25と、モデル適応部26によって構成可能である。
このような構成においては、まず、カメラ21a,21bが追従対象2を撮影し、濃淡画像情報を取得し、ステレオ画像処理部22に出力する。かかるステレオ画像処理部22は、濃淡画像情報より奥行き情報を抽出して、姿勢推定部23に出力する。姿勢推定部23は、奥行き情報に基づいて、モデルとの線形マッチングを行い、幾何拘束(関節角)等を適用して、関節や頭部の位置認識を行い、3D位置情報及び姿勢データを取得する。この姿勢データに、関節や頭部の位置データが含まれている。このとき、モデル適応部26は、3D位置情報や姿勢データを取得して補正データを生成し、身体部位3次元モデル処理部25に出力する。身体部位3次元モデル処理部25は、補正データに基づき補正したモデルデータを姿勢推定部23に出力し、フィードバック制御を行う。また、頭部前後判定部24は、カメラ21aの濃淡画像及び姿勢推定部23より出力された頭部位置データに基づいて、頭部の前後を判定し、その判定結果を姿勢推定部23に出力する。姿勢推定部23はこれにより判定率を向上させることができる。姿勢推定部23が出力した3D位置情報及び姿勢データにより人の向きを判定することができる。
2つのカメラ21a,21bでなくとも一つのカメラ21bによって人の向きを検知することも可能である。単眼のシステム30において、カメラ21bから出力された濃淡画像情報は、特徴抽出部31に入力される。特徴抽出部31は、濃淡画像情報において特徴の抽出処理を行い、エッジヒストグラムを生成し、出力する。高速パターンマッチング部32は、エッジヒストグラムを入力し、大容量2次元画像DB33に格納された2次元画像とのパターンマッチング処理を実行し、3D位置情報や姿勢データを生成する。かかる3D位置情報や姿勢データにより人の向きを判定することができる。
次に、図7を用いて、追従対象2が人の場合における向きの検出処理について具体的に説明する。上述のジェスチャ解析によって、右肩関節41aと左肩関節41bの位置を認識する。そして、右肩関節41aを起点とし左肩関節41bを終点とするベクトルVAを算出する。さらに、右肩関節41aと左肩関節41b間の中点42を求める。
また、上述のジェスチャ解析によって、右脚付け根関節44aと左脚付け根関節44bの位置を認識する。そして、右脚付け根関節44aを起点とし左脚付け根関節44bを終点とするベクトルVCを算出する。さらに、右脚付け根関節44aと左脚付け根関節44b間の中点45を求める。
右肩関節41aと左肩関節41b間の中点42と、右脚付け根関節44aと左脚付け根関節44b間の中点45とを結ぶ線分43を求める。そして、追従対象2の上体の向きである上体向きベクトルVBを、右肩関節41aと左肩関節41b間の中点42を起点として、上述したベクトルVAと線分43に対して垂直なベクトルとして求める。また、追従対象2の腰の向きである腰向きベクトルVDを、右脚付け根関節44aと左脚付け根関節44b間の中点45を起点として、上述したベクトルVCと線分43に対して垂直なベクトルとして求める。
このようにして求めた上体向きベクトルVBを人の向きとしてもよいし、腰向きベクトルVDを人の向きとしてもよい。さらには、上体向きベクトルVBと腰向きベクトルVDの中間(平均)方向を人の向きとしてもよい。
また、ジェスチャ解析により膝関節を求めて、その膝関節が曲がっている場合には、膝関節の軸に垂直な前方向を人の向きとすることも可能である。また、両足の膝関節が曲がっている場合には、床についている脚の方向を人の向きとすることができ、また両脚の向きの平均方向を人の向きとすることも可能である。
本発明にかかるロボット移動制御方法を説明するための説明図である。 本発明にかかるロボット移動制御方法を説明するための説明図である。 本発明にかかる移動ロボットの構成例を示す概略構成図である。 本発明にかかるロボット移動制御方法における制御の流れを示すフローチャートである。 本発明にかかるロボット移動制御方法における制御の流れを示すフローチャートである。 本発明にかかる移動ロボットにおいて、追従対象の向きを検知するシステムの構成を示すブロック図である。 本発明にかかる移動ロボットにおいて、追従対象の向きを検知する方法を示す説明図である。 従来のロボット移動制御方法を説明するための説明図である。
符号の説明
1 移動ロボット
2 追従対象
1a 本体
11a,11b 車輪
12 キャスタ
13a,13b 駆動部
14 カウンタ
15 演算部
16 障害物検知手段
17 アンテナ
18 追従対象検知手段

Claims (8)

  1. 移動する追従対象に対して相対的な所定位置を維持して追従動作を行う移動ロボットであって、
    前記追従対象の前方側が向く方向である前記追従対象の向きを検出する向き検出手段と、
    前記検出手段により検出された追従対象の向きに応じて、当該移動ロボットの目標位置を決定する目標位置決定手段と
    前記向き検出手段によって検出された追従対象の向きと、前記移動ロボットの前方側が向く方向である前記移動ロボットの向きと、が一致するように当該移動ロボットの向きを制御する向き制御手段と、を備えた移動ロボット。
  2. 前記向き検出手段は、
    前記追従対象を撮影する撮影手段と、
    前記撮影手段により取得した画像情報に基づき関節位置を認識する認識手段と、
    前記認識手段によって認識された関節位置に基づき追従対象の向きを判定する判定手段と、を備えたことを特徴とする請求項1記載の移動ロボット。
  3. 前記移動ロボットの現在位置から前記目標位置決定手段によって決定された移動ロボットの目標位置までの移動経路を算出する移動経路算出手段と、
    前記移動経路算出手段によって算出された移動経路に基づいて移動ロボットの向きを制御する向き制御手段をさらに備えたことを特徴とする請求項1又は2記載の移動ロボット。
  4. 前記移動ロボットは、車輪型ロボットであることを特徴とする請求項1〜いずれかに記載の移動ロボット。
  5. 移動する追従対象に対して相対的な所定位置を維持して追従動作を行うロボット移動制御方法であって、
    前記追従対象の前方側が向く方向である前記追従対象の向きを検出するステップと、
    前記検出された追従対象の向きに応じて、当該移動ロボットの目標位置を決定するステップと
    前記検出された追従対象の向きと、前記移動ロボットの前方側が向く方向である前記移動ロボットの向きが一致するように当該移動ロボットの向きを決定するステップと、
    を備えたロボット移動制御方法。
  6. 前記追従対象の向きを検出するステップは、
    前記追従対象を撮影し、画像情報を取得するステップと、
    前記画像情報に基づき関節位置を認識するステップと、
    認識された関節位置に基づき追従対象の向きを判定するステップとを備えたことを特徴とする請求項記載のロボット移動制御方法。
  7. 前記移動ロボットの現在位置から目標位置までの移動経路を算出するステップと、
    算出された移動経路に基づいて移動ロボットの向きを決定するステップをさらに備えたことを特徴とする請求項5又は6記載のロボット移動制御方法。
  8. 前記移動ロボットは、車輪型ロボットであることを特徴とする請求項5〜7いずれかに記載のロボット移動制御方法。
JP2007074295A 2007-03-22 2007-03-22 移動ロボット及びロボット移動制御方法 Active JP4715787B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007074295A JP4715787B2 (ja) 2007-03-22 2007-03-22 移動ロボット及びロボット移動制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007074295A JP4715787B2 (ja) 2007-03-22 2007-03-22 移動ロボット及びロボット移動制御方法

Publications (2)

Publication Number Publication Date
JP2008234404A JP2008234404A (ja) 2008-10-02
JP4715787B2 true JP4715787B2 (ja) 2011-07-06

Family

ID=39907091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007074295A Active JP4715787B2 (ja) 2007-03-22 2007-03-22 移動ロボット及びロボット移動制御方法

Country Status (1)

Country Link
JP (1) JP4715787B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10362277B2 (en) 2016-11-23 2019-07-23 Hanwha Defense Co., Ltd. Following apparatus and following system

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6029446B2 (ja) * 2012-12-13 2016-11-24 セコム株式会社 自律飛行ロボット
JP5990453B2 (ja) * 2012-12-14 2016-09-14 セコム株式会社 自律移動ロボット
JP6140458B2 (ja) * 2013-01-24 2017-05-31 セコム株式会社 自律移動ロボット
KR101795843B1 (ko) * 2014-12-23 2017-12-04 한국해양대학교 산학협력단 추종로봇 및 그 제어방법
JP6836100B2 (ja) * 2016-01-18 2021-02-24 株式会社エクォス・リサーチ 移動体
JP6894595B2 (ja) * 2018-03-28 2021-06-30 株式会社エクォス・リサーチ 移動体
JP6894596B2 (ja) 2018-03-29 2021-06-30 株式会社エクォス・リサーチ 移動体
CN113329798B (zh) * 2019-01-31 2023-04-28 索尼集团公司 机器人控制装置、机器人控制方法及程序
JP2020166708A (ja) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ 移動体
JP7295771B2 (ja) * 2019-10-07 2023-06-21 株式会社カーメイト 電動ベビーカー
US20230085884A1 (en) * 2020-01-30 2023-03-23 Lg Electronics Inc. Mobile robot system, and method for generating boundary information of mobile robot system
KR20220058279A (ko) 2020-10-30 2022-05-09 한화디펜스 주식회사 무인 추종 차량
CN114630052B (zh) * 2022-05-13 2022-07-15 常州市天磊传动机械有限公司 一种用于公共安全的移动目标高清采集装置及采集方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171533A (ja) * 1996-12-06 1998-06-26 Cosmo Ii C Kk 自動追尾式飼犬先導車
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171533A (ja) * 1996-12-06 1998-06-26 Cosmo Ii C Kk 自動追尾式飼犬先導車
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10362277B2 (en) 2016-11-23 2019-07-23 Hanwha Defense Co., Ltd. Following apparatus and following system

Also Published As

Publication number Publication date
JP2008234404A (ja) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4715787B2 (ja) 移動ロボット及びロボット移動制御方法
Ido et al. Indoor navigation for a humanoid robot using a view sequence
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR101534742B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
Doisy et al. Adaptive person-following algorithm based on depth images and mapping
JP7199937B2 (ja) 駐車支援装置
JP5310285B2 (ja) 自己位置推定装置及び自己位置推定方法
WO2008099652A1 (ja) 環境地図の生成方法及び移動ロボット
JP2014516816A (ja) モバイルロボットによる移動対象物のトラッキング及びフォローイング
JP4670807B2 (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
KR20150144730A (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
López-Nicolás et al. Switching visual control based on epipoles for mobile robots
JP2008142841A (ja) 移動ロボット
JP7372708B2 (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
TW202213015A (zh) 自走車導航裝置及其方法
US20220276720A1 (en) Gesture recognition apparatus, mobile object, gesture recognition method, and storage medium
Okada et al. Autonomous 3D walking system for a humanoid robot based on visual step recognition and 3D foot step planner
JP2010079639A (ja) 車両の歩行者検出装置
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
JP4697164B2 (ja) 移動ロボット及びロボット移動制御方法
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
Mohareri et al. Autonomous humanoid robot navigation using augmented reality technique
Vincze et al. Edge-projected integration of image and model cues for robust model-based object tracking
Al-Shanoon et al. Mobile robot regulation with position based visual servoing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110314

R151 Written notification of patent or utility model registration

Ref document number: 4715787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3