JP2004299001A - 2足歩行ロボットの制御装置 - Google Patents

2足歩行ロボットの制御装置 Download PDF

Info

Publication number
JP2004299001A
JP2004299001A JP2003095484A JP2003095484A JP2004299001A JP 2004299001 A JP2004299001 A JP 2004299001A JP 2003095484 A JP2003095484 A JP 2003095484A JP 2003095484 A JP2003095484 A JP 2003095484A JP 2004299001 A JP2004299001 A JP 2004299001A
Authority
JP
Japan
Prior art keywords
robot
image
walking
distance
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003095484A
Other languages
English (en)
Other versions
JP4080932B2 (ja
Inventor
Nobuo Higaki
信男 檜垣
Takamichi Shimada
貴通 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003095484A priority Critical patent/JP4080932B2/ja
Priority to US10/808,336 priority patent/US7398136B2/en
Publication of JP2004299001A publication Critical patent/JP2004299001A/ja
Application granted granted Critical
Publication of JP4080932B2 publication Critical patent/JP4080932B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Toys (AREA)

Abstract

【課題】移動体との衝突を回避することができるようにした2足歩行ロボットの制御装置を提供する。
【解決手段】CCDカメラ50R(L)から入力された画像を解析し(70A)、それに基づいて移動体を検出して移動体情報を算出し(70B)、算出された移動体情報に基づいて2足歩行ロボットの歩行を停止すべきと判定されたとき(70k)、ロボットが停止するように脚部を駆動する電動モータMの制御値を算出する(70l)と共に、CCDカメラ50R(L)で画像が撮像されてからロボットの歩行が停止されるまでにロボットが移動する停止時移動距離が、所定の距離以内となるように、入力画像の解析処理と、移動体情報の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の制御値の算出処理とを行う。
【選択図】 図5

Description

【0001】
【産業上の利用分野】
この発明は2足歩行ロボットの制御装置に関し、より詳しくは、撮像した画像に基づいて物体や人などの移動体を検出し、検出した移動体の位置に応じて脚部の駆動を制御するようにした2足歩行ロボットの制御装置に関する。
【0002】
【従来の技術】
撮像した画像に基づいて脚部の駆動を制御するようにした2足歩行ロボットの制御装置として、従来、例えば特許文献1に記載される技術が知られている。かかる技術にあっては、歩行環境の地図を障害物情報を含めて予めROMに記述しておくと共に、CCDカメラで撮像して得た画像に基づいて移動環境内の自己(ロボット)の位置を認識し、ロボットが障害物に衝突しないように脚部の駆動を制御している。
【0003】
【特許文献1】
特許第3176701号公報(段落0013から0027など)
【0004】
【発明が解決しようとする課題】
上記した従来技術にあっては、予め記述された障害物(静止物)との衝突は回避することができるが、予め記述された障害物以外、例えば人など、歩行空間内を自由に移動する移動体に対しては、衝突を回避しきれないという不都合があった。
【0005】
従って、この発明の目的は上記した不都合を解消し、移動体との衝突を回避することができるようにした2足歩行ロボットの制御装置を提供することにある。
【0006】
【課題を解決するための手段】
上記した課題を解決するために、請求項1項においては、上体に連結された2本の脚部を備えると共に、撮像手段で撮像して得た画像に基づいて移動体を検出し、前記検出した移動体の位置に応じて前記脚部の駆動を制御する2足歩行ロボットの制御装置において、前記撮像手段から入力された画像を解析する入力画像解析手段、前記解析された撮像画像に基づいて移動体を検出し、前記ロボットと移動体の相対距離および相対角度を算出する移動体検出手段、前記算出された相対距離および相対角度に基づいて前記ロボットの歩行を停止すべきか否か判定する歩行停止判定手段、および前記歩行停止判定手段によって前記ロボットの歩行を停止すべきと判定されたとき、前記ロボットが停止するように前記脚部を駆動する脚部駆動手段、を備えると共に、前記撮像手段で画像が撮像されてから前記ロボットの歩行が停止されるまでに前記ロボットが移動する停止時移動距離が、所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行う如く構成した。
【0007】
このように、請求項1項においては、撮像手段から入力された画像を解析し、解析された撮像画像に基づいて移動体を検出してロボットと移動体の相対距離および相対角度を算出し、算出された相対距離および相対角度に基づいてロボットの歩行を停止すべきと判定されたとき、前記ロボットが停止するように脚部を駆動すると共に、前記撮像手段で画像が撮像されてから前記ロボットの歩行が停止されるまでに前記ロボットが移動する停止時移動距離が、所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体の相対距離および相対角度の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、歩行中のロボットが移動体に接近したとき、ロボットを所定の距離内で停止させることができるため、ロボットと移動体の衝突を回避することができる。
【0008】
尚、この明細書において「移動体」とは、人などの生物であっても良いし、非生物であっても良い。また、物体の一部(人でいえば腕や足など)であるか全部(人でいえば全身)であるかも問わない。
【0009】
また、請求項2項にあっては、前記ロボットと移動体の相対速度が所定の値であるときの前記停止時移動距離が、前記所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行う如く構成した。
【0010】
このように、請求項2項にあっては、ロボットと移動体の相対速度が所定の値であるときの前記停止時移動距離が所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体までの相対距離および相対角度の算出処理を含む移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、請求1項で述べた効果をより効果的に得ることができる。
【0011】
また、請求項3項にあっては、前記ロボットと移動体の相対速度が大きいときの前記停止時移動距離が、前記所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行う如く構成した。
【0012】
このように、請求項3項にあっては、ロボットと移動体の相対速度が大きいときの前記停止時歩行距離が所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体までの相対距離および相対角度の算出処理を含む移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、請求1項で述べた効果をより効果的に得ることができる。
【0013】
【発明の実施の形態】
以下、添付図面を参照してこの発明の一つの実施の形態に係る2足歩行ロボットの制御装置を説明する。
【0014】
図1はその2足歩行ロボット(以下「ロボット」という)1の正面図、図2はその側面図である。
【0015】
図1に示すように、ロボット1は、2本の脚部2を備えると共に、その上方には上体(基体)3が設けられる。上体3の上部には頭部4が設けられると共に、上体3の両側には2本の腕部5が連結される。また、図2に示すように、上体3の背部には格納部6が設けられ、その内部にはECU(電子制御ユニット。後述)およびロボット1の関節を駆動する電動モータのバッテリ電源(図示せず)などが収容される。尚、図1および図2に示すロボット1は、内部構造を保護するためのカバーが取着されたものを示す。
【0016】
図3を参照して上記したロボット1の内部構造を関節を中心に説明する。
【0017】
図示の如く、ロボット1は、左右それぞれの脚部2に6個の関節を備える。計12個の関節は、腰部の脚回旋用の鉛直軸(Z軸あるいは重力軸)まわりの関節10R,10L(右側をR、左側をLとする。以下同じ)、股(腰部)のロール方向(X軸まわり)の関節12R,12L、股(腰部)のピッチ方向(Y軸まわり)の関節14R,14L、膝部のピッチ方向(Y軸まわり)の関節16R,16L、足首のピッチ方向(Y軸まわり)の関節18R,18L、および同ロール方向(X軸まわり)の関節20R,20Lから構成される。脚部2R(L)の下部には足平(足部)22R,22Lが取着される。
【0018】
このように、脚部2は、股関節(腰関節)10R(L),12R(L),14R(L)、膝関節16R(L)、および足関節18R(L),20R(L)から構成される。股関節と膝関節は大腿リンク24R(L)で、膝関節と足関節は下腿リンク26R(L)で連結される。
【0019】
脚部2は股関節を介して上体3に連結されるが、図3では上体3を上体リンク28として簡略的に示す。前記したように、上体3には腕部5が連結される。腕部5は、肩部のピッチ方向の関節30R,30L、同ロール方向の関節32R,32L、腕の回旋用の鉛直軸まわりの関節34R,34L、肘部のピッチ軸まわりの関節36R,36L、手首回旋用の鉛直軸まわりの関節38R,38Lから構成される。手首の先にはハンド(エンドエフェクタ)40R,40Lが取着される。
【0020】
このように、腕部5は、肩関節30R(L),32R(L),34R(L)、肘関節36R(L)、手首関節38R(L)から構成される。また肩関節と肘関節とは上腕部リンク42R(L)で、肘関節とハンドとは下腕部リンク44R(L)で連結される。
【0021】
頭部4は、鉛直軸まわりの首関節46およびそれと直交する軸で頭部4を回転させる頭部揺動機構48から構成される。頭部4の内部には、2個のCCDカメラ(撮像手段)50R(L)が、左右に並列してステレオ視(複眼視)自在に取りつけられる。CCDカメラ50R(L)がそれぞれ撮像して得た画像(カラー画像)はECUに送られ、そこで後述する移動体の検出処理が行われる。尚、CCDカメラ50R(L)はそれぞれ、320×240の画素を備えると共に、水平60度、垂直40度の視野を有する。
【0022】
ロボット1は、上記の如く、左右の脚部2R(L)について合計12の自由度を与えられ、歩行中にこれらの12個の関節を適宜な角度で駆動することで、足全体に所望の動きを与えることができ、任意に3次元空間を歩行させることができる。また、腕部5も左右の腕についてそれぞれ5つの自由度を与えられ、これらの関節を適宜な角度で駆動することで所望の作業を行わせることができる。尚、ロボット1の身長は約1.2mであり、歩行時の一歩の歩幅は0.335mである。また、ロボット1の最大歩行速度は、3.6km/hである。
【0023】
また、足関節の下方の足部22R(L)には公知の6軸力センサ54R(L)が取着され、ロボットに作用する外力の内、接地面からロボットに作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。さらに、上体3には傾斜センサ56が設置され、鉛直軸に対する傾きとその角速度を示す信号を出力する。
【0024】
前述したとおり、格納部6の内部にはマイクロコンピュータからなるECU60などが収容され、6軸力センサ54R(L)などのセンサ出力およびCCDカメラ50R(L)の画像出力は、ECU60に送られる。
【0025】
図4は、ECU60の構成を詳細に示すブロック部である。図示の如く、6軸力センサ54R(L)やCCDカメラ50R(L)などの出力は、ECU60の内部においてA/D変換器62でデジタル値に変換された後、バス64を介してRAM66に送られ、記憶される。RAM66には、さらに、上記した各関節を駆動する電動モータMに隣接して配置されるエンコーダEの出力が、カウンタ68を介して入力される。
【0026】
また、ECU60には、CPU70が設けられる。CPU70は、周波数1.2GHzで動作し、ROM72に格納されている各種データおよびRAM66に記憶された各種出力に基づいて各関節の駆動に必要な電動モータMの制御値(操作量)を算出してD/A変換器74とアンプAを介して電動モータMに出力する。
【0027】
図5は、ECU60の動作、より具体的には、その内部のCPU70の動作を機能的に示すブロック図である。
【0028】
以下、同図を参照して説明する。
【0029】
図示の如く、CPU70の動作は、左右のCCDカメラ50R,50Lから入力された画像を解析する入力画像解析ブロック70Aと、解析された画像から移動体を検出してロボット1と移動体の相対距離および相対角度を算出する移動体検出ブロック70Bと、算出された相対距離および相対角度に基づき、必要に応じて移動体とロボット1の衝突を回避すべくロボット1の歩行を停止させる衝突回避ブロック70Cとで構成される。
【0030】
入力画像解析ブロック70Aは、距離画像生成部70aと、差分画像生成部70bと、エッジ画像生成部70cと、肌色領域画像生成部70dとからなる。
【0031】
距離画像生成部70aは、同時刻に左側のCCDカメラ50Lと右側のCCDカメラ50Rで撮像された2つの画像の視差に基づき、ロボット1から撮像対象までの距離(奥行き)を示す距離画像DeIを生成する。具体的には、距離画像生成部70aは、左側のCCDカメラ50Lを基準カメラとし、この基準とされた左側のCCDカメラ50Lで撮像された画像(以下「基準画像BI」という)と、右側のCCDカメラ50Rで同時刻に撮像された画像(以下「同時刻画像」という)とを、所定の大きさのブロック(例えば16×16画素)でブロックマッチングし、基準画像からの視差を計測すると共に、計測した視差の大きさ(視差量)を基準画像の各画素に対応付けて距離画像DeIを生成する。尚、視差は、その値が大きいほどCCDカメラ50R(L)から近いことを示し、小さいほど遠く離れていることを示す。
【0032】
図6に、左側のCCDカメラ50Lで撮像された基準画像BI示す。以降、図6に示す3人の人(人間)が撮像された画像に基づいて説明を続ける。尚、基準画像BIにおいて、右側(図に向かって右側)の人を人Aとし、中央の人を人Bとし、左側の人を人Cとする。図示の如く、人Aは、右手Arhを頭部Ahの右横に挙げている。また、人Aと人Bは、実空間において、CCDカメラ50R(L)から1.63mだけ離間した位置に起立しており、人Cは、CCDカメラ50R(L)から1.96mだけ離間した位置に起立しているものとする。
【0033】
図7に、距離画像生成部70aで生成された距離画像DeIを示す。距離画像DeIは、視差を画素値として表現するため、図7に示すように、CCDカメラ50R(L)に近いほど明るく(人A、人B)、遠いほど暗い(人C)画像になる。尚、図7では、理解の便宜のため、画像の濃淡を斜線の間隔を相違させることによって示す。即ち、図7においては、斜線の間隔が広い領域ほど明るく(近く)、間隔が狭い領域ほど暗い(遠い)ことを意味する。また、黒く塗られた点は、人A,B,Cより遠く離れている(視差が小さい)ことを示す。
【0034】
図5の説明に戻ると、差分画像生成部70bは、左側のCCDカメラ50Lで時系列に撮像された2つの基準画像BIの差分をとり、差分画像DiIを生成する。具体的には、差分画像生成部70bは、左側のCCDカメラ50Lで時系列(時刻tと時刻t+Δt)に撮像された2つの基準画像BIの差分を求め、差のあった画素には動き(移動)のあった画素として画素値1を与えると共に、差のなかった画素には動き(移動)のなかった画素として画素値0を与えることで、差分画像DiIを生成する。尚、差分画像生成部70bでは、生成した差分画像DiIに対してさらにメディアンフィルタなどの適宜なフィルタ処理を施すことにより、ノイズを除去する。また、ロボット1が移動することによって時刻tと時刻t+Δtの基準画像BI内の背景が変化する場合は、CCDカメラ50Lの移動量に基づいて時刻t+Δtに撮像した基準画像BIを補正することで、移動体の動きのみを差分として検出するようにする。
【0035】
図8に、差分画像生成部70bで生成された差分画像DiIを示す。同図において、黒で示す領域が画素値1を与えた領域、即ち、動きのあった画素を示し、白で示す領域が画素値0を与えた領域、即ち、動きのなかった画素を示す。従って同図は、時刻tから時刻t+Δtまでの間に、人Aの右手Arhや頭部Ah、人Bの右手Brhに最も大きな動き(移動)が生じたことを示す。
【0036】
図5の説明に戻ると、エッジ画像生成部70cは、左側のCCDカメラ50Lで撮像された基準画像BIに基づいてエッジ画像EIを生成する。具体的には、エッジ画像生成部70cは、前記基準画像BIの輝度が所定レベル以上変化する画素をエッジとして検出し、検出したエッジのみからなるエッジ画像EIを生成する。尚、エッジの検出は、より具体的には、画像全体に所定の重み係数を有するオペレータ(Sovelオペレータなど)を当て、対応する画素輝度値の積を算出し、行または列単位で隣の線分と所定値以上の差を有する線分をエッジとして検出することによって行う。
【0037】
図9に、エッジ画像生成部70cで生成されたエッジ画像EIを示す。図示の如く、輝度が大きく変化する背景と各人A,B,Cの境界線が、エッジとして検出される。
【0038】
図5の説明に戻ると、肌色領域画像生成部70dは、左側のCCDカメラ50Lで撮像された基準画像BIから肌色の領域を抽出して肌色領域画像CIを生成する。具体的には、肌色領域画像生成部70dは、前記基準画像BIをRGB値(Red,Green,Blue)からHLS空間(色相、明度、彩度)に変換し、色相、明度および彩度の全てが予め設定された肌色に関するしきい値を超えた画素に肌色を呈する画素として画素値1を与え、他の画素に肌色以外の色彩を呈する画素として画素値0を与えることで、肌色領域画像CIを生成する。また、肌色領域画像生成部70dでは、生成した肌色領域画像CIに対してさらにメディアンフィルタなどの適宜なフィルタ処理を施すことにより、ノイズを除去する。
【0039】
図10に、肌色領域画像生成部70dで生成された肌色領域画像CIを示す。同図において、黒で示す領域が画素値1を与えた領域、即ち、肌色を呈する画素を示し、白で示す領域が画素値0を与えた領域、即ち、肌色以外の色彩を呈する画素を示す。図示の如く、基準画像BIのうち、人A,B,Cの肌色部分(肌が露出した部分)、即ち、それぞれの頭部(より詳しくは顔部)Ah,Bh,Chと、人A,Bの右手(より詳しくは手のひら)Arh,Brhと、人A,Bの左手(より詳しくは手のひら)Alh,Blhが肌色領域として抽出される。尚、人Cの両手は、図6に示す如く体の後ろで組まれていることから、肌色領域として抽出されない。
【0040】
図5の説明に戻ると、移動体検出ブロック70Bは、移動体距離設定部70eと、移動体距離画像生成部70fと、輪郭抽出領域設定部70gと、中心線補正部70hと、移動体検出部70iと、距離画像更新部70jとからなる。
【0041】
移動体距離設定部70eは、前記した距離画像DeIと差分画像DiIに基づいて移動体(人A,B,C)が存在すると推定される位置までの距離(以下「移動体距離」という)を設定する。具体的には、移動体距離設定部70eは、距離画像DeIで表された視差(距離)ごとに、その視差に対応する位置にある差分画像DiIの画素数を累計すると共に、累計値が最大となる視差(距離)に移動体が存在していると推定し、移動体距離として設定する。
【0042】
図8に示した差分画像では、人Aの右手Arhや頭部Ah、人Bの右手Brhに最も大きな動き(移動)が生じていることから、図7に示す距離画像DeIにおいて、CCDカメラ50R(L)から1.63mの距離を示す視差が移動体距離として設定されることになる。尚、移動体距離設定部70eは、入力された距離画像DeIと差分画像DiIを、前記したRAM66に記憶させる。
【0043】
図5の説明を続けると、移動体距離設定部70eで設定された移動体距離は、移動体距離画像生成部70fに送出される。移動体距離画像生成部70fは、エッジ画像EIから前記移動体距離に対応する画素を抽出して移動体距離画像TDeIを生成する。
【0044】
具体的には、移動体距離画像生成部70fは、前記移動体距離±αの視差の幅(奥行き)を、最も動きの大きい移動体が存在する視差の範囲として設定する。ここで、αの値は、移動体を人と仮定した場合、例えば0.5mに設定される。従って、図11に示すように、移動体距離画像TDeIには、人A,Bを示すエッジの他、人A,Bから0.33m後方に位置する人Cを示すエッジも抽出される。一方、それより後方に位置する背景を示すエッジは、削除される。
【0045】
移動体距離画像生成部70fで生成された移動体距離画像TDeIは、輪郭抽出領域設定部70gに送出される。輪郭抽出領域設定部70gは、前記移動体距離画像TDeI内の画素数を累計してヒストグラム化すると共に、累計した画素数が最大となる位置を中心線として、移動体距離画像TDeIに、移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定する。
【0046】
具体的には、輪郭抽出領域設定部70gは、移動体距離画像生成部70fで生成された移動体距離画像TDeIの垂直方向の画素数を累計し、ヒストグラム化する。図12に、移動体距離画像TDeIの垂直方向の画素(符号PE)と、作成したヒストグラム(符号H)を示す。尚、同図(および後述の図13と図14)において、理解の便宜のため、画素PEの背景に図6で示した基準画像BIを重畳して示す。
【0047】
輪郭抽出領域設定部70gは、さらに、作成したヒストグラムHが最大となる位置に中心線CLを設定する。そして、設定した中心線CLを中心に、図13に示す如く、移動体の輪郭の抽出(後述)を実行すべき輪郭抽出領域Tを設定する。より具体的には、中心線CLを中心として水平方向に所定の幅を有すると共に、垂直方向に所定の幅を有する範囲を、輪郭抽出領域Tとして設定する。
【0048】
これにより、移動体(人Aと人B)が隣接して存在している場合であっても、それらを個別の移動体として分割した上で輪郭の抽出を実行することができる。尚、水平方向の所定の幅は、移動体を人と仮定した場合、肩幅程度の値、具体的には0.5mに設定する。また、垂直方向の所定の幅は、移動体までの距離とカメラパラメータ(CCDカメラ50R(L)のパン、チルト角など)の値に基づき、移動体を十分に覆うことのできる範囲(移動体を人と仮定した場合、例えば2.0m)に設定する。
【0049】
ここで、ヒストグラムHが最大となる位置を輪郭抽出領域Tの中心に設定するのは、そこに移動体の中心(図13を例にとって説明すれば、人Aの頭部Ah)が存在すると考えられるためである。しかしながら、移動体距離画像TDeIは、エッジ画像EIをベースとして生成されているため、頭部と背景の境界線付近に多くの画素が存在する。
【0050】
従って、図13に示すように、ヒストグラムHが最大となる位置、即ち、中心線CLが、頭部(人Aの頭部Ah)の中心から端部方向へとずれる場合がある。輪郭抽出領域Tは、検出すべき移動体に対応した大きさの範囲に設定されるため、中心線CLが移動体の中心からずれると、図13に示すように、移動体の一部(人Aの右手Arh)が輪郭抽出領域Tの外方に突出してしまい、移動体を正確に検出できないおそれがある。尚、輪郭抽出領域Tを拡大すれば移動体の全てを領域内に収めることができるが、輪郭抽出領域Tは、移動体の輪郭の抽出が行われる領域であるので、処理の負担上、領域を拡大するのは好ましくない。
【0051】
そこで、この実施の形態にあっては、輪郭抽出領域Tが適正な位置となるように、輪郭抽出領域設定部70gで設定した中心線CLを補正するようにした。
【0052】
図5の説明に戻ると、輪郭抽出領域設定部70gで設定された中心線CLと輪郭抽出領域Tは、中心線補正部70hに送出され、そこで前記エッジ画像EIに基づいて中心線CLの位置と輪郭抽出領域Tが補正される。
【0053】
具体的には、中心線補正部70hは、エッジ画像EIと、中心線CLおよび輪郭抽出領域Tが設定された移動体距離画像TDeIを入力し、エッジ画像EIと移動体距離画像TDeIを重ね合わせて中心線CLを補正する。
【0054】
エッジ画像EIは、移動体の外形線によく合致しているため、前記中心線CLを、エッジ画像EIで垂直方向のピークが現れる位置(即ち、移動体で最も高い位置に存在する頭部の中心)に補正することで、中心線CLを移動体の中心に正確に位置させることができる。
【0055】
しかしながら、図9の人Aのように、手を頭部と同じ高さ付近まで挙げている場合などにあっては、エッジ画像EIに複数のピークが存在するため、どのピークを頭部として認識すべきかという問題が生じる。
【0056】
そこで、中心線補正部70hでは、前記した肌色領域画像生成部70dで生成された肌色領域画像CIを入力し、入力した肌色領域画像CIを、データベースDB(図14に示す)に記憶された複数の肌色領域の配置パターンと比較すると共に、最も近似する配置パターンに基づき、頭部として認識すべきエッジ画像のピークを判定するようにした。尚、データベースDBは、前記したROM72に格納される。
【0057】
上記について敷衍すると、データベースDBには、図14に示す如く、頭部(顔部)と手(手のひら)からなる肌色領域(斜線で示す)の配置パターンが複数記憶される。肌色領域の配置パターンとしては、例えば、頭部の横に手を位置させる(パターン1)、手を頭部より上方に挙げる(パターン2)、握手を求める位置に手を配置する(パターン3)、などのパターンが記憶される。中心線補正部70hは、それら配置パターンと肌色領域画像CIとを比較し、最も近似する配置パターンを選択することで、肌色領域画像CIにおいて、どの肌色領域が頭部を表しているのかを判定することができる。尚、データベースDBに記憶された各パターンは、前記移動体距離設定部70eで設定された移動体距離に応じて適宜補正されることは言うまでもない。
【0058】
そして、中心線補正部70hは、頭部と認識された肌色領域画像CIの肌色領域に対応するエッジ画像EIのピークに、前記した輪郭抽出領域Tの中心線CLを位置させる(補正する)。これにより、エッジ画像EIのピークが複数存在する場合であっても、中心線CLを移動体の中心に正確に位置させることができる。図15に、補正後の中心線CCLと輪郭抽出領域CTを示す。
【0059】
図5の説明に戻ると、中心線補正部70hで設定された補正後の中心線CCLと輪郭抽出領域CTは、移動体検出部70iに送出される。
【0060】
移動体検出部70iは、補正後の輪郭抽出領域CT内において、公知の動的輪郭モデル(スネーク:Snakes)によって移動体(人A)の輪郭(図15で符号Oで示す)を抽出して移動体を検出する。また、図15に示す如く、移動体の重心位置(輪郭Oを含む内部領域の重心位置)を算出すると共に、移動体の重心位置とロボット1との距離(相対距離)[m]および方向(相対角度)[deg]を算出する。
【0061】
移動体検出部70iで抽出された移動体の輪郭O、および算出された距離と方向は、移動体情報として距離画像更新部70jに送出される。距離画像更新部70jは、移動体検出部70iで算出された移動体情報に基づき、移動体距離設定部70eで記憶させた距離画像DeIを更新する。
【0062】
具体的には、輪郭Oを含む内部領域に対応する距離画像DeIの画素値を0に設定する。換言すれば、輪郭の抽出が完了した移動体の存在領域を、距離画像DeIから削除する。距離画像更新部70jによって距離画像DeIを更新されると、その情報は更新情報として移動体距離設定部70eに送出される。これにより、上述の移動体の検出処理を継続することで、次回以降の処理において、人Bや人Cを個別の移動体として検出することができる。
【0063】
また、衝突回避ブロック70Cは、図示の如く、歩行停止判定部70kと、制御値算出部70lとからなる。
【0064】
歩行停止判定部70kは、移動体検出部70iで算出された移動体情報を入力し、それに基づいてロボット1の歩行を停止すべきか否か判定する。
【0065】
具体的には、歩行停止判定部70kは、入力された移動体情報に基づき、ロボット1が予定している歩行経路上に移動体が存在し、かつ、所定の距離以内(例えば0.9m以内)に接近しているか否か判断する。そして、移動体が歩行経路において0.9m以内に接近しているときは歩行停止指示を出力する一方で、移動体が歩行経路上に存在しない、あるいは歩行経路上に存在するが0.9m以内に接近していないときは、歩行継続指示を出力する。
【0066】
歩行停止判定部70kから出力された歩行停止指示あるいは歩行継続指示は、制御値算出部70lに入力される。
【0067】
制御値算出部70lは、歩行停止指示が入力されたとき、ロボット1の歩行が停止するように各関節を駆動する電動モータMの制御値を算出し、前記したアンプなどを介して電動モータMに出力する。他方、歩行継続指示が入力されたときは、ロボット1が予定した経路の歩行を継続するように電動モータMの制御値を算出して出力する。尚、ロボット1の歩容の生成手法に関しては、本出願人が先に提案した特開2002−326173号公報などに詳しく記載されているため、ここでの説明は省略する。
【0068】
ところで、ロボット1の歩行を安定して停止させるには、通常、1歩では足らず、2歩分の歩容が必要となる。前述したように、ロボット1の一歩の歩幅は0.335mであるから、ロボット1を安定に停止させるには、停止歩容(歩行から停止へと安定に移行させるための歩容)が開始された地点から最低でも0.67m(2歩分)移動することになる。さらに、CCDカメラ50R(L)で対象を撮像してから画像を解析し、移動体を検出して停止判定を行い、制御値を算出して出力するまでの間も、ロボット1は歩行速度に応じた距離だけ移動していることから、実空間内でロボット1と移動体が所定の距離(0.9m)に接近したことを示す画像がCCDカメラ50R(L)によって撮像されてから、ロボット1が実際に停止するまでには、ロボット1は0.67m以上移動することになる。
【0069】
そこで、この実施の形態にあっては、ロボット1と移動体の衝突を回避させるべく、CCDカメラ50R(L)で対象を撮像してから電動モータMの制御値を算出して出力するまでの処理時間を、所定の条件に従って設定するようにした。
【0070】
ここで、所定の条件とは、ロボット1と移動体の相対速度が所定の値であるとき、より具体的には、ロボット1が最大歩行速度で歩行している場合を意味する。別言すれば、ロボット1と移動体の相対速度が大きいときを意味する。ロボット1を移動体に衝突する前に停止させるには、上記の処理を実行しているときのロボット1の移動距離が、0.9−0.67=0.23m以内であれば良い。また、処理中の移動移離は、処理時間×ロボット1の歩行速度で表される。従って、ロボット1が最大歩行速度(前記したように3.6km/h)で歩行しているときの処理中の移動距離が、0.23m以内となるように処理時間を設定することで、ロボット1と移動体の衝突を回避することができる。
【0071】
図16は、ロボット1が停止するまでの各種処理とそれに要する時間などを示すタイム・チャートである。
【0072】
図16に示すように、カメラ画像を取得してから制御値を算出して出力するまでの処理時間を、最大192.5msecに設定した。
【0073】
具体的には、CCDカメラ50R(L)で対象を撮像し、適宜な補正を施して基準画像BIおよび同時刻画像を得るまでに要する処理時間を10msecとし、それらに基づいて距離画像DeI、差分画像DiI、エッジ画像EIおよび肌色領域画像CIを生成するまでに要する処理時間を37.5msecとする。即ち、入力画像解析ブロック70Aで実行される入力画像の解析処理に要する時間を、合計47.5msecとする。
【0074】
また、距離画像DeIと差分画像DiIに基づいて移動体距離を設定して移動体距離画像TDeIを生成すると共に、移動体距離画像TDeIに輪郭抽出領域Tを設定し、さらにその中心線CLを補正するのに要する処理時間を25msecとする。また、補正後の輪郭抽出領域CT内において動的輪郭モデルを用いて輪郭Oを抽出して移動体を検出し、移動体情報を算出するのに要する処理時間を12.5msecとする。即ち、移動体検出ブロック70Bで実行される、移動体情報(相対距離や相対角度など)の算出処理を含めた移動体の検出処理に要する時間を、合計37.5msecとする。
【0075】
さらに、算出した移動体情報に基づいてロボット1の歩行を停止すべきか否かを判定するのに要する処理時間を7.5msecとすると共に、歩行停止指示が出力されたときに停止歩容を実現する制御値を算出して出力するまでに要する処理時間を最大100msecとする。即ち、衝突回避ブロック70Cで実行される処理に要する時間の合計を、最大107.5msecとする。
【0076】
このように、ロボット1がCCDカメラ50R(L)で対象を撮像してから電動モータMの制御値を算出して出力するまでの処理時間の合計を、192.5msecに設定したので、上記処理中にロボット1が移動する距離は、0.23m以下の0.1925mとなる。従って、実空間内でロボット1と移動体が所定の距離(0.9m)に接近したことを示す画像がCCDカメラ50R(L)によって撮像されてから、ロボット1が実際に停止するまでの移動距離(停止時移動距離)は、最大で0.8625m(0.1925+0.67)となり、よってロボット1と移動体が衝突する前にロボット1を停止させることができる。
【0077】
このように、この実施の形態にあっては、CCDカメラ50R(L)から入力された画像を解析し、それに基づいて移動体を検出して移動体情報を算出し、算出された移動体情報に基づいてロボット1の歩行を停止すべきと判定されたとき、ロボット1が停止するように脚部2R(L)を駆動する電動モータMの制御値を算出すると共に、CCDカメラ50R(L)で画像が撮像されてからロボット1の歩行が停止されるまでの停止時移動距離が所定の距離(0.9m)以内となるように、入力画像の解析処理と、移動体情報の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理(制御値の算出処理)とを行うように構成したので、歩行中のロボット1が移動体に接近したとき、ロボット1を所定の距離以内で停止させることができるため、ロボット1と移動体の衝突を回避することができる。
【0078】
より具体的には、ロボット1と移動体の相対速度が所定の値(ロボット1の最大歩行速度。3.6km/h)のとき、別言すれば、ロボット1と移動体の相対速度が大きいとき、ロボット1が前記所定の距離以内で停止するように上記各処理を行うように構成したので、ロボット1と移動体の衝突をより効果的に回避することができる。
【0079】
以上のように、この発明の一つの実施の形態にあっては、上体3に連結された2本の脚部2R(L)を備えると共に、撮像手段(CCDカメラ50R(L))で撮像して得た画像(基準画像BIと同時刻画像)に基づいて移動体(人A,B,C)を検出し、前記検出した移動体の位置に応じて前記脚部2R(L)の駆動を制御する2足歩行ロボット1の制御装置において、前記撮像手段から入力された画像を解析する入力画像解析手段(入力画像解析ブロック70A)、前記解析された撮像画像(距離画像DeI、差分画像DiI、エッジ画像EIおよび肌色領域画像CI)に基づいて移動体を検出し、前記ロボット1と移動体の相対距離および相対角度(移動体情報)を算出する移動体検出手段(移動体検出ブロック70B)、前記算出された相対距離および相対角度に基づいて前記ロボット1の歩行を停止すべきか否か判定する歩行停止判定手段(歩行停止判定部70k)、および前記歩行停止判定手段によって前記ロボット1の歩行を停止すべきと判定されたとき(歩行停止指示が出力されたとき)、前記ロボット1が停止するように前記脚部2R(L)を駆動する脚部駆動手段(制御値算出部74l)、を備えると共に、前記撮像手段で画像が撮像されてから前記ロボット1の歩行が停止されるまでに前記ロボット1が移動する停止時移動距離が、所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行う如く構成した。
【0080】
より具体的には、前記ロボット1と移動体の相対速度が所定の値(ロボット1の最大歩行速度。3.6km/h)のとき、別言すれば、前記ロボット1と移動体の相対速度が大きいときの前記停止時移動距離が、前記所定の距離(0.9m)以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行う如く構成した。
【0081】
尚、上記において、所定の距離を0.9mに設定したが、それに限られるものではなく、ロボットの歩幅や最大歩行速度(所定の条件)、CPUの処理能力などに応じて適宜設定して良い。
【0082】
また、所定の条件を、ロボット1が最大歩行速度で歩行しているときとしたが、移動体自身もロボットに接近してくる場合を考慮に入れて設定するようにしても良い。即ち、所定の条件を、ロボットの歩行速度と移動体の移動速度(接近速度)の和とするようにしても良い。その意味から、請求項2項および3項において、「ロボットと移動体の相対速度」と記載した。
【0083】
さらに、移動体の移動速度(接近速度)は一意ではないことから、ロボットと移動体の相対速度に応じて前記所定の距離を変更するようにしても良い。移動体の移動速度は、例えば、時刻tに算出された移動体情報と時刻t+Δtに算出された移動体情報との差分を求めることなどによって算出することができる。尚、移動体以外の障害物、即ち、静止物に対しては、静止物までの距離とロボット1の歩行速度に基づいて歩行停止の要否判定を行えば良い。
【0084】
また、基準画像BIから肌色領域を抽出して肌色領域画像CIを生成するようにしたが、移動体の特徴(特に姿勢の特徴)を認識できる色彩であれば、他の色彩であっても良い。
【0085】
【発明の効果】
請求項1項にあっては、撮像手段から入力された画像を解析し、解析された撮像画像に基づいて移動体を検出してロボットと移動体の相対距離および相対角度を算出し、算出された相対距離および相対角度に基づいてロボットの歩行を停止すべきと判定されたとき、前記ロボットが停止するように脚部を駆動すると共に、前記撮像手段で画像が撮像されてから前記ロボットの歩行が停止されるまでに前記ロボットが移動する停止時移動距離が、所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体の相対距離および相対角度の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、歩行中のロボットが移動体に接近したとき、ロボットを所定の距離内で停止させることができるため、ロボットと移動体の衝突を回避することができる。
【0086】
請求項2項においては、ロボットと移動体の相対速度が所定の値であるときの前記停止時移動距離が所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体までの相対距離および相対角度の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、請求1項で述べた効果をより効果的に得ることができる。
【0087】
請求項3項においては、ロボットと移動体の相対速度が大きいときの前記停止時移動距離が所定の距離以内となるように、入力画像の解析処理と、ロボットと移動体までの相対距離および相対角度の算出処理を含めた移動体の検出処理と、歩行の停止判定処理と、脚部の駆動処理とを行うように構成したので、請求1項で述べた効果をより効果的に得ることができる。
【図面の簡単な説明】
【図1】この発明の一つの実施の形態に係る2足歩行ロボットの制御装置が搭載される、2足歩行ロボットの正面図である。
【図2】図1に示す2足歩行ロボットの右側面図である。
【図3】図1に示す2足歩行ロボットの内部構造を関節を中心に全体的に示す概略図である。
【図4】図3に示すECUの構成を詳細に示すブロック図である。
【図5】図4に示すECUの動作、より具体的には、その内部のCPUの動作を機能的に示すブロック図である。
【図6】図5に示すCCDカメラのうち、左側のCCDカメラで撮像した基準画像を示す説明図である。
【図7】図5に示す距離画像生成部で生成される距離画像を示す説明図である。
【図8】図5に示す差分画像生成部で生成される差分画像を示す説明図である。
【図9】図5に示すエッジ画像生成部で生成されるエッジ画像を示す説明図である。
【図10】図5に示す肌色領域画像生成部で生成される肌色領域画像を示す説明図である。
【図11】図5に示す移動体距離画像生成部で生成される移動体距離画像を示す説明図である。
【図12】図5に示す輪郭抽出領域設定部で設定されるヒストグラムと中心線を示す説明図である。
【図13】図5に示す輪郭抽出領域設定部で設定される輪郭抽出領域を示す説明図である。
【図14】図5に示す中心線補正部で使用されるデータベースを示す説明図である。
【図15】図5に示す中心線補正部で補正された中心線と輪郭抽出領域を示す説明図である。
【図16】図1に示す2足歩行ロボットが停止するまでの各種処理とそれに要する時間などを示すタイム・チャートである。
【符号の説明】
1 2足歩行ロボット
2 脚部
3 上体
5 腕部
50R (右側の)CCDカメラ(撮像手段)
50L (左側の)CCDカメラ(撮像手段)
60 ECU
70 CPU
70A 入力画像解析ブロック(入力画像解析手段)
70B 移動体検出ブロック(移動体検出手段)
70k 歩行停止判定部(歩行停止判定手段)
70l 制御値算出部(脚部駆動手段)
A 人(移動体)
B 人(移動体)
BI 基準画像(撮像画像)
C 人(移動体)
CI 肌色領域画像(解析された撮像画像)
DeI 距離画像(解析された撮像画像)
DiI 差分画像(解析された撮像画像)
EI エッジ画像(解析された撮像画像)
M 電動モータ(脚部駆動手段)

Claims (3)

  1. 上体に連結された2本の脚部を備えると共に、撮像手段で撮像して得た画像に基づいて移動体を検出し、前記検出した移動体の位置に応じて前記脚部の駆動を制御する2足歩行ロボットの制御装置において、
    a.前記撮像手段から入力された画像を解析する入力画像解析手段、
    b.前記解析された撮像画像に基づいて移動体を検出し、前記ロボットと移動体の相対距離および相対角度を算出する移動体検出手段、
    c.前記算出された相対距離および相対角度に基づいて前記ロボットの歩行を停止すべきか否か判定する歩行停止判定手段、
    および
    d.前記歩行停止判定手段によって前記ロボットの歩行を停止すべきと判定されたとき、前記ロボットが停止するように前記脚部を駆動する脚部駆動手段、を備えると共に、前記撮像手段で画像が撮像されてから前記ロボットの歩行が停止されるまでに前記ロボットが移動する停止時移動距離が、所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行うことを特徴とする2足歩行ロボットの制御装置。
  2. 前記ロボットと移動体の相対速度が所定の値であるときの前記停止時移動距離が、前記所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行うことを特徴とする請求項1項記載の2足歩行ロボットの制御装置。
  3. 前記ロボットと移動体の相対速度が大きいときの前記停止時移動距離が、前記所定の距離以内となるように、前記入力画像解析手段、移動体検出手段、歩行停止判定手段および脚部駆動手段の処理を行うことを特徴とする請求項1項記載の2足歩行ロボットの制御装置。
JP2003095484A 2003-03-31 2003-03-31 2足歩行ロボットの制御装置 Expired - Fee Related JP4080932B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003095484A JP4080932B2 (ja) 2003-03-31 2003-03-31 2足歩行ロボットの制御装置
US10/808,336 US7398136B2 (en) 2003-03-31 2004-03-25 Biped robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003095484A JP4080932B2 (ja) 2003-03-31 2003-03-31 2足歩行ロボットの制御装置

Publications (2)

Publication Number Publication Date
JP2004299001A true JP2004299001A (ja) 2004-10-28
JP4080932B2 JP4080932B2 (ja) 2008-04-23

Family

ID=32985464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003095484A Expired - Fee Related JP4080932B2 (ja) 2003-03-31 2003-03-31 2足歩行ロボットの制御装置

Country Status (2)

Country Link
US (1) US7398136B2 (ja)
JP (1) JP4080932B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123127A (ja) * 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法
JP2006262980A (ja) * 2005-03-22 2006-10-05 Olympus Corp 情報端末装置及び仮想ペット表示方法
JP2007160438A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボット
JP2008275606A (ja) * 2007-04-06 2008-11-13 Honda Motor Co Ltd 自律移動体のための物体認識装置
JP2009140251A (ja) * 2007-12-06 2009-06-25 Mori Seiki Co Ltd 干渉確認装置
WO2009098927A1 (ja) 2008-02-07 2009-08-13 Toyota Jidosha Kabushiki Kaisha 自律移動体、その制御方法、及び制御システム
JP2015080832A (ja) * 2013-10-22 2015-04-27 本田技研工業株式会社 脚式移動ロボットの制御システム
US9164512B2 (en) 2009-11-27 2015-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous moving body and control method thereof

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7626608B2 (en) * 2003-07-10 2009-12-01 Sony Corporation Object detecting apparatus and method, program and recording medium used therewith, monitoring system and method, information processing apparatus and method, and recording medium and program used therewith
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
US7890235B2 (en) * 2005-05-27 2011-02-15 The Charles Machine Works, Inc. Determination of remote control operator position
KR100727033B1 (ko) * 2005-12-07 2007-06-12 한국전자통신연구원 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템
KR100769909B1 (ko) * 2006-09-06 2007-10-24 엘지전자 주식회사 이동 로봇 및 그 동작방법
JP2008080472A (ja) * 2006-09-29 2008-04-10 Toshiba Corp ロボット装置及びその制御方法
EP1978432B1 (en) * 2007-04-06 2012-03-21 Honda Motor Co., Ltd. Routing apparatus for autonomous mobile unit
JP4975503B2 (ja) * 2007-04-06 2012-07-11 本田技研工業株式会社 脚式移動ロボット
JP4576445B2 (ja) * 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
US7693758B1 (en) * 2007-06-13 2010-04-06 Amazon Technologies, Inc. Activity verification
JP4371153B2 (ja) * 2007-06-15 2009-11-25 トヨタ自動車株式会社 自律移動装置
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
US20090202148A1 (en) * 2008-02-11 2009-08-13 Texmag Gmbh Vertriebsgesellschaft Image Capturing System and Method for the Analysis of Image Data
US20100169792A1 (en) * 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US8675060B2 (en) * 2009-08-28 2014-03-18 Indian Institute Of Science Machine vision based obstacle avoidance system
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
CN104062972B (zh) * 2014-06-20 2017-11-10 惠州Tcl移动通信有限公司 一种可移动家用设备与人相对位置调整控制方法及其系统
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US9387588B1 (en) 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US10081098B1 (en) 2014-08-25 2018-09-25 Boston Dynamics, Inc. Generalized coordinate surrogates for integrated estimation and control
US10055850B2 (en) * 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US9446518B1 (en) * 2014-11-11 2016-09-20 Google Inc. Leg collision avoidance in a robotic device
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9565363B1 (en) * 2015-08-10 2017-02-07 X Development Llc Stabilization of captured images for teleoperated walking biped robots
US9586316B1 (en) 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
US10344450B2 (en) 2015-12-01 2019-07-09 The Charles Machine Works, Inc. Object detection system and method
US11449064B1 (en) * 2017-03-02 2022-09-20 AI Incorporated Robotic fire extinguisher
US10436810B1 (en) * 2018-04-17 2019-10-08 Al Incorporated Method for tracking movement of a mobile robotic device
US9789919B1 (en) 2016-03-22 2017-10-17 Google Inc. Mitigating sensor noise in legged robots
CN108733080B (zh) * 2017-12-28 2021-07-20 北京猎户星空科技有限公司 一种状态切换方法及装置
US11241791B1 (en) 2018-04-17 2022-02-08 AI Incorporated Method for tracking movement of a mobile robotic device
CN113031639B (zh) * 2021-03-22 2024-03-12 深圳市优必选科技股份有限公司 机器人步长处理方法、装置、机器人控制设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0593778A (ja) 1991-09-30 1993-04-16 Nec Corp 合成開口レーダ装置
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
JPH10143245A (ja) 1996-11-07 1998-05-29 Komatsu Ltd 移動体の障害物衝突防止装置
JP3726032B2 (ja) * 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
JP4642287B2 (ja) 2001-08-07 2011-03-02 本田技研工業株式会社 自律移動ロボット

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123127A (ja) * 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法
JP4539291B2 (ja) * 2004-10-29 2010-09-08 ソニー株式会社 ロボット装置及びその動作制御方法
JP2006262980A (ja) * 2005-03-22 2006-10-05 Olympus Corp 情報端末装置及び仮想ペット表示方法
JP2007160438A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボット
JP2008275606A (ja) * 2007-04-06 2008-11-13 Honda Motor Co Ltd 自律移動体のための物体認識装置
JP2009140251A (ja) * 2007-12-06 2009-06-25 Mori Seiki Co Ltd 干渉確認装置
WO2009098927A1 (ja) 2008-02-07 2009-08-13 Toyota Jidosha Kabushiki Kaisha 自律移動体、その制御方法、及び制御システム
US9182762B2 (en) 2008-02-07 2015-11-10 Toyota Jidosha Kabushiki Kaisha Autonomous moving body, its control method, and control system
US9164512B2 (en) 2009-11-27 2015-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous moving body and control method thereof
JP2015080832A (ja) * 2013-10-22 2015-04-27 本田技研工業株式会社 脚式移動ロボットの制御システム

Also Published As

Publication number Publication date
US20040193323A1 (en) 2004-09-30
JP4080932B2 (ja) 2008-04-23
US7398136B2 (en) 2008-07-08

Similar Documents

Publication Publication Date Title
JP4080932B2 (ja) 2足歩行ロボットの制御装置
JP4231320B2 (ja) 移動体の検出装置
EP2124122B1 (en) Environment map drawing method and mobile robot
KR102172954B1 (ko) 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
EP1795437B1 (en) Legged mobile robot controller, legged mobile robot and legged mobile robot control method
JP4511919B2 (ja) 多面体認識装置
KR100807449B1 (ko) 레그식 로봇의 제어 장치
EP1975046B1 (en) Legged locomotion robot
WO2013011644A1 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
US20160184998A1 (en) Robot identification system
CN108563220A (zh) 仿人足球机器人的运动规划
CA2945860C (en) A method for localizing a robot in a localization plane
JP4940698B2 (ja) 自律移動型ロボット
JP7375456B2 (ja) 爪先位置推定装置および指先位置推定装置
KR20130078913A (ko) 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
CN112230652A (zh) 行走机器人及其移动控制的方法、计算机存储介质
Bazeille et al. Vision enhanced reactive locomotion control for trotting on rough terrain
JP2000293693A (ja) 障害物検出方法および装置
KR100824744B1 (ko) 모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템 및방법
CN114092636A (zh) 一种采用神经网络的虚拟人物建模参数估计方法
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP6841553B2 (ja) 撮像装置
Novak et al. Simple stereo vision system for real-time object recognition for an autonomous mobile robot
KR20170008941A (ko) 로봇의 보행 제어 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4080932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees