JP2004306251A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法 Download PDFInfo
- Publication number
- JP2004306251A JP2004306251A JP2004083362A JP2004083362A JP2004306251A JP 2004306251 A JP2004306251 A JP 2004306251A JP 2004083362 A JP2004083362 A JP 2004083362A JP 2004083362 A JP2004083362 A JP 2004083362A JP 2004306251 A JP2004306251 A JP 2004306251A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- robot device
- state
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】
本発明は、エンターテインメント性を格段と向上し得るロボット装置及びその制御方法を実現するものである。
【解決手段】
胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置及びその制御方法において、外部及び又は内部の状態を検知した後、当該検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断し、当該判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御するようにした。
【選択図】 図6
本発明は、エンターテインメント性を格段と向上し得るロボット装置及びその制御方法を実現するものである。
【解決手段】
胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置及びその制御方法において、外部及び又は内部の状態を検知した後、当該検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断し、当該判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御するようにした。
【選択図】 図6
Description
本発明はロボット装置及びその制御方法に関し、例えばヒューマノイド型のロボットに適用して好適なものである。
近年、2足歩行型のヒューマノイド型のロボットが多くの企業等において開発され、商品化されている。そしてこのようなロボットの中には、CCD(Charge Coupled Device)カメラやマイクロホン等の各種外部センサが搭載され、これら外部センサの出力に基づいて外部状況を認識し、認識結果に基づいて自律的に行動し得るようになされたものなどもある。
また最近に至っては、自律型のヒューマノイド型ロボットのうちの比較的小型のものについて、ユーザに抱き上げられたときに、その抱上げ状態を検出し、当該検出結果に応じて、自己の姿勢をユーザが抱き易いと考えられる所定姿勢(以下、これを抱上げ姿勢と呼ぶ)に移行させたり、体全体を脱力させる機能を備えたものも提案されている。
しかしながら、図25(A)に示すように、上述のようにロボットRBが自己の姿勢を所定の抱上げ姿勢に移行させたとしても、関節部分が硬い状態のままではロボットRBの重心の偏り等のためにユーザに抱き難さを感じさせ(図25(B))、逆にロボットRBを脱力状態にして関節部分を柔らかい状態にし過ぎてもユーザの腕の中での据わりが悪いため抱き難さを感じさせる(図25(C))問題がある。
またユーザは、ロボットRBを持ち上げて腕の中に収めた抱き上げた状態において、あたかもぬいぐるみのように、そのロボットRBの姿勢を自分の手で様々な姿勢に変化させたいと思うとも考えられる。そのためにはロボットRBを完全に脱力状態にさせる必要があるが、このようにすると各種アクチュエータに逆起電力を発生させるといったハードウェア的な弊害をもたらす問題がある。
そこで、各関節を若干柔らかくしながらも一定の硬さを保ち、かつユーザの抱き方に対して倣うような制御をロボットにかけるようにすれば、ロボットの抱き心地を人間の子供を抱き上げたときの抱き心地と近いものとすることができ、また各種アクチュエータに逆起電力を発生させるといったハードウェア的な弊害を有効に防止し得るものと考えられる。
一方、上述のような抱上げ制御機能が搭載されたロボットにおいては、ユーザに抱き上げられたこと確実に検出するための仕組みが必要となる。例えばロボットがユーザに抱き上げられた場合にこれを検知できず、床面上に置かれた状態と同様に稼働していると、関節部分にユーザの指を挟んだり、ロボットの手足がユーザにぶつかるなどして、ユーザに思わぬ怪我を負わせることにもなりかねない。
さらにこのようにユーザにより抱き上げられることを前提としたロボットでは、抱き上げられた状態でのロボットの姿勢や状態のみならず、床面に下ろされる際のロボットの機体の姿勢や状態についても考慮する必要がある。
実際上、床面に下ろされる直前や下ろされた後もかかる抱上げ姿勢や脱力状態が維持されるようでは、抱き下ろす際のロボットの取り扱いが面倒であり、またヒューマノイド型でありながら生物感のない不自然さをユーザに感じさせることにより、エンターテインメントロボットとしてのエンターテインメント性を損なう問題がある。
また上述のような抱上げ姿勢や脱力状態はロボットにとって不安定な姿勢や状態であることから、接地後にバランスを崩して転倒し、機体に傷が生じたり、または収納されたデバイスが破損するといった事故が生じるおそれもある。
本発明は以上の点を考慮してなされたもので、エンターテインメント性や安全性を格段と向上し得るロボット装置及びその制御方法を提案しようとするものである。
かかる課題を解決するため本発明においては、可動部を有するロボット装置において、ロボット装置に外力が作用する作用点を検出する作用点検出手段と、ロボット装置の重心を検出する重心検出手段と、ロボット装置の一部が床面と接地する接地予定領域を算出する接地予定領域算出手段とを設け、制御手段が、ロボット装置が外力により離床された際に、駆動手段を制御することにより、作用点及び重心を接地予定領域上の空間内に収納されるように可動部を制御するようにした。
この結果このロボット装置は、接地後の転倒を未然かつ有効に防止すると共に、通常、人間が行う接地の際の身構えるかのような動作を発現することができる。
また本発明においては、可動部を有するロボット装置の制御方法において、ロボット装置に外力が作用する作用点及びロボット装置の重心を検出すると共に、ロボット装置の一部が床面と接地する接地予定領域を算出する第1のステップと、ロボット装置が外力により離床された際に、作用点及び重心を接地予定領域上の空間内に収納されるように可動部を制御する第2のステップとを設けるようにした。
この結果このロボット装置の制御方法によれば、接地後のロボット装置の転倒を未然かつ有効に防止すると共に、通常、人間が行う接地の際の身構えるかのような動作をロボット装置に発現させることができる。
さらに本発明においては、可動部を有するロボット装置において、ロボット装置の重心を検出する重心検出手段とロボット装置と床面との接地部位を算出する接地部位算出手段と、ロボット装置の重心と接地部位との距離を算出する距離算出手段とを設け、ロボット装置の重心と接地部位との距離に基づいて抱上げ検出を行うようにした。
この結果このロボット装置では、特別なセンサ等を必要とすることなく、持ち上げられたことを確実に検知することができ、かくして持上げ状態時におけるロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、ユーザの安全性を確保することができる。
さらに本発明においては、可動部を有するロボット装置の制御方法において、ロボット装置の重心を検出すると共に、ロボット装置と床面との接地部位を算出する第1のステップと、ロボット装置の重心と接地部位との距離を算出する第2のステップと、算出した距離に基づいて抱上げ検出を行う第3のステップとを設けるようにした。
この結果このロボット装置の制御方法によれば、特別なセンサ等を必要とすることなく、持ち上げられたことを確実に検知することができ、かくして持上げ状態時におけるロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、ユーザの安全性を確保することができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、外部及び又は内部の状態を検知するセンサ手段と、センサ手段によって検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する状態判断手段と、状態判断手段による判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御する制御手段とを設けるようにした。
この結果このロボット装置では、ユーザによって抱上げられた状態又は持ち上げられた状態で、各脚部を動かすことを未然に防止することによって、ユーザの安全性を確保することができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、ユーザの腕によって抱上げられた状態にあるとき、各脚部の姿勢を腕に対して倣わせるように、各関節機構を動作させる駆動系を制御する制御手段を設けるようにした。
この結果このロボット装置では、ユーザによって抱上げられた状態にあるとき、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、当該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御する制御手段を設けるようにした。
この結果このロボット装置は、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表現することができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、外部及び又は内部の状態を検知した後、当該検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断し、当該判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御するようにした。
この結果このロボット装置の制御方法では、ユーザによって抱き上げられた状態又は持ち上げられた状態で、各脚部を動かすことを未然に防止することによって、ユーザの安全性を確保することができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、ユーザによって抱き上げられた状態にあるとき、各脚部の姿勢を腕に対して倣わせるように、各関節機構を動作させる駆動系を制御するようにした。
この結果このロボット装置の制御方法では、ユーザの腕によって抱上げられた状態にあるとき、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができる。
さらに本発明においては、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、ユーザによって抱き上げられた状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、当該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御するようにした。
この結果このロボット装置の制御方法では、ユーザによって抱き上げられた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表現することができる。
本発明によれば、可動部を有するロボット装置において、ロボット装置に外力が作用する作用点を検出する作用点検出手段と、ロボット装置の重心を検出する重心検出手段と、ロボット装置の一部が床面と接地する接地予定領域を算出する接地予定領域算出手段とを設け、制御手段が、ロボット装置が外力により離床された際に、駆動手段を制御することにより、作用点及び重心を接地予定領域上の空間内に収納されるように可動部を制御するようにしたことにより、接地後の転倒を未然かつ有効に防止すると共に、あたかも人間が行うような接地の際に身を整えるかのような動作を発現することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。
また本発明によれば、可動部を有するロボット装置の制御方法において、ロボット装置に外力が作用する作用点及びロボット装置の重心を検出すると共に、ロボット装置の一部が床面と接地する接地予定領域を算出する第1のステップと、ロボット装置が外力により離床された際に、作用点及び重心を接地予定領域上の空間内に収納されるように可動部を制御する第2のステップとを設けるようにしたことにより、接地後のロボット装置の転倒を未然かつ有効に防止すると共に、あたかも人間が行うような接地の際に身を整えるかのような動作をロボット装置に発現させることができ、かくしてエンターテインメント性を格段と向上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、可動部を有するロボット装置において、ロボット装置の重心を検出する重心検出手段とロボット装置と床面との接地部位を算出する接地部位算出手段と、ロボット装置の重心と接地部位との距離を算出する距離算出手段とを設け、ロボット装置の重心と接地部位との距離に基づいて抱上げ検出を行うようにしたことにより、特別なセンサ等を必要とすることなく、持ち上げられたことを確実に検知することができる。かくするにつき持上げ状態時におけるロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、ユーザの安全性を確保することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。
さらに本発明においては、可動部を有するロボット装置の制御方法において、ロボット装置の重心を検出すると共に、ロボット装置と床面との接地部位を算出する第1のステップと、ロボット装置の重心と接地部位との距離を算出する第2のステップと、 算出した距離に基づいて抱上げ検出を行う第3のステップとを設けるようにしたことにより、特別なセンサ等を必要とすることなく、持ち上げられたことを確実に検知することができる。かくするにつき持上げ状態時におけるロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、ユーザの安全性を確保することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、外部及び又は内部の状態を検知するセンサ手段と、センサ手段によって検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する状態判断手段と、状態判断手段による判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御する制御手段とを設けたことにより、ユーザによって抱上げられた状態又は持ち上げられた状態でのユーザの安全性を確保することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、ユーザの腕によって抱上げられた状態にあるとき、各脚部の姿勢を腕に対して倣わせるように、各関節機構を動作させる駆動系を制御する制御手段を設けたことにより、ユーザによって抱上げられた状態にあるときに、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができ、かくしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、当該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御する制御手段を設けたことにより、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表現することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、外部及び又は内部の状態を検知した後、当該検知された外部及び又は内部の状態が、ユーザによって抱き上げられた状態又は持ち上げられた状態にあるか否かを判断し、当該判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御するようにしたことにより、ユーザによって抱き上げられた状態又は持ち上げられた状態でのユーザの安全性を確保することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、ユーザによって抱き上げられた状態にあるとき、各脚部の姿勢をユーザの腕に対して倣わせるように、各関節機構を動作させる駆動系を制御するようにしたことにより、ユーザによって抱上げられた状態にあるときに、ユーザに対してあたかも人間の子供を抱き上げた時に近い反応を持たせることができ、かくしてエンターテインメント性を格段と向上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、ユーザによって抱き上げられた状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、当該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御するようにしたことにより、抱き上げられた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表現することができ、かくしてエンターテインメント性を格段と向上し得るロボット装置の制御方法を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態
(1−1)ロボット1の全体構成
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
(1−1)ロボット1の全体構成
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
この場合、首部3は、図3に示すように、首関節ピッチ軸10回り、首関節ヨー軸11回り及び首関節ピッチ軸12回りの自由度を有する首関節機構部13により保持されている。また頭部ユニット4は、この首部3の先端部に図3のように首部ロール軸14回りの自由度をもって取り付けられている。これによりこのロボット1においては、頭部ユニット4を前後、左右及び斜めの所望方向に向かせることができるようになされている。
また各腕部ユニット5Aは、図1及び図2において明らかなように、上腕部ブロック15、前腕部ブロック16及び手先部ブロック17の3つのブロックから構成され、上腕部ブロック15の上端部が図3のように肩ピッチ軸18回り及び肩ロール軸19回りの自由度を有する肩関節機構部20を介して胴体部ユニット2に連結されている。
このとき前腕部ブロック16は、図3のように上腕部ブロック15に上腕ヨー軸21回りの自由度をもって連結されている。また手先部ブロック17は、図3のように前腕部ブロック16に手首ヨー軸22回りの自由度をもって連結されている。さらに前腕部ブロック16には、肘ピッチ軸23回りの自由度を有する肘関節機構部24が設けられている。
これによりロボット1においては、これら腕部ユニット5A、5Bを全体としてほぼ人間の腕部と同様の自由度をもって動かすことができ、かくして片手を上げた挨拶や腕部ユニット5A、5Bを振り回すダンスなどの当該腕部ユニット5A、5Bを用いた各種行動を行い得るようになされている。
さらに手先部ブロック17の先端部には、5本の指部25がそれぞれ屈曲及び伸長自在に取り付けられており、これによりこれら指部を使って物を摘んだり、把持することができるようになされている。
他方、各脚部ユニット6A、6Bは、図1及び図2において明らかなように、大腿部ブロック30、脛部ブロック31及び足平部ブロック32の3つのブロックから構成され、大腿部ブロック30の上端部が図3のように股関節ヨー軸33回り、股関節ロール軸34回り及び股関節ピッチ軸35回りの自由度を有する股関節機構部36を介して胴体部ユニット2に連結されている。
このとき大腿部ブロック30及び脛部ブロック31は、図3のように脛ピッチ軸37回りの自由度を有する膝関節機構部38を介して連結されると共に、脛ブロック31及び足平ブロック32は、図3のように足首ピッチ軸39回り及び足首ロール軸40回りの自由度を有する足首関節機構部41を介して連結されている。
これによりロボット1においては、これら脚部ユニット6A、6Bを人間の脚部とほぼ同様の自由度をもって動かすことができ、かくして歩行やボールを蹴るなどの脚部ユニット6A、6Bを用いた各種行動を行い得るようになされている。
さらに胴体部ユニット2の後側上部には、首部3を囲むようにグリップハンドル2Aが設けられており、かくしてユーザがこのグリップハンドル2Aを手掛かりとして、ロボット1全体を持ち上げることができるようになされている。
なおこのロボット1の場合、各股関節機構部36は、図3のように体幹ロール軸42回り及び体幹ピッチ軸43回りの自由度を有する腰関節機構部44により支持されており、これにより胴体部ユニット2を前後、左右方向に自在に傾かせることもできるようになされている。
ここでロボット1においては、上述のように頭部ユニット4、各腕部ユニット5A、5B、各脚部ユニット6A、6B及び胴体部ユニット2を動かすための動力源として、図4に示すように、首関節機構部13及び肩関節機構部20等の各関節機構部を含む各自由度を有する部位に、それぞれその自由度数分のアクチュエータA1〜A17が配設されている。
また胴体部ユニット2には、当該ロボット1全体の動作制御を司るメイン制御部50と、電源回路及び通信回路などの周辺回路51と、バッテリ52(図5)となどが収納されると共に、各構成ユニット(胴体部ユニット2、頭部ユニット4、各腕部ユニット5A、5B及び各脚部ユニット6A、6B)内には、それぞれメイン制御部50と電気的に接続されたサブ制御部53A〜53Dが収納されている。
さらに頭部ユニット4には、図5に示すように、このロボット1の「目」として機能する一対のCCD(Charge Coupled Device)カメラ60A、60B及び「耳」として機能するマイクロホン61などの各種外部センサと、「口」として機能するスピーカ62となどがそれぞれ所定位置に配設されている。
また各脚部ユニット6A、6Bにおける足平部ブロック32の裏面や、グリップハンドル2Aの把持部分等の各所定部位には外部センサとしてのタッチセンサ63が配設されている。なお、以下においては、各脚分ユニット6A、6Bにおける足平部ブロック32の裏面に設けられたタッチセンサ63を足底力センサ63L、63Rと呼び、グリップハンドル2Aの把持部分に設けられたタクトスイッチでなるタッチセンサ63をグリップスイッチ63Gと呼ぶものとする。
さらに胴体部ユニット2内には、バッテリセンサ64及び加速度センサ65などの各種内部センサが配設されると共に、各構成ユニット内には、それぞれ各アクチュエータA1〜A17にそれぞれ対応させて、対応するアクチュエータA1〜A17の出力軸の回転角度を検出する内部センサとしてのポテンショメータP1〜P17が設けられている。
そして各CCDカメラ60A、60Bは、周囲の状況を撮像し、得られた画像信号S1Aをサブ制御部53B(図5において図示せず)を介してメイン制御部50に送出する一方、マイクロホン61は、各種外部音を集音し、かくして得られた音声信号S1Bをサブ制御部53Bを介してメイン制御部50に送出する。また各タッチセンサ63は、ユーザからの物理的な働きかけや、外部との物理的な接触を検出し、検出結果を圧力検出信号S1Cとして対応するサブ制御部53A〜53D(図5において図示せず)を介してメイン制御部50に送出する。
さらにバッテリセンサ64は、バッテリ52のエネルギ残量を所定周期で検出し、検出結果をバッテリ残量信号S2Aとしてメイン制御部50に送出する一方、加速度センサ65は、3軸(x軸、y軸及びz軸)の加速度を所定周期で検出し、検出結果を加速度検出信号S2Bとしてメイン制御部50に送出する。また各ポテンショメータP1〜P17は、対応するアクチュエータA1〜A17の出力軸の回転角度を検出し、検出結果を所定周期で角度検出信号S2C1〜S2C17として対応するサブ制御部53A〜53Dを介してメイン制御部50に送出する。
メイン制御部50は、CCDカメラ60A、60B、マイクロホン61及び各タッチセンサ63等の各種外部センサからそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1C等の外部センサ信号S1と、バッテリセンサ64、加速度センサ65及び各ポテンショメータP1〜P17等の各種内部センサからそれぞれ供給されるエネルギ残量信号S2A、加速度検出信号S2B及び各角度検出信号S2C1〜S2C17等の内部センサ信号S2とに基づいて、ロボット1の外部及び内部の状況や、ユーザの物理的な働きかけの有無等を判断する。
そしてメイン制御部50は、この判断結果と、予め内部メモリ50Aに格納されている制御プログラムと、そのとき装填されている外部メモリ66に格納されている各種制御パラメータとなどに基づいて続くロボット1の行動を決定し、当該決定結果に基づく制御コマンドを対応するサブ制御部53A〜53D(図4)に送出する。
この結果、この制御コマンドに基づき、そのサブ制御部53A〜53Dの制御のもとに、対応するアクチュエータA1〜A17が駆動され、かくして頭部ユニット4を上下左右に揺動させたり、腕部ユニット5A、5Bを上に上げたり、歩行するなどの各種行動がロボット1により発現される。
このようにしてこのロボット1においては、外部及び内部の状況等に基づいて自律的に行動することができるようになされている。
(1−2)ロボット1に搭載された抱上げ制御機能
次に、このロボット1に搭載された抱上げ制御機能について説明する。
次に、このロボット1に搭載された抱上げ制御機能について説明する。
このロボット1には、あたかも人間の子供を抱上げた時の反応に近い状態である最適な抱上げ状態をユーザに提供する機能(以下、これを抱上げ制御機能と呼ぶ)が搭載されている。そして、この抱上げ制御機能は、メイン制御部50が、内部メモリ50Aに格納された制御プログラムに基づき、図6に示す抱上げ制御機能処理手順RT1に従って所定の制御処理を実行することによってロボット1により発揮される。
すなわちメイン制御部50は、ロボット1のメイン電源が投入されると、この抱上げ制御機能処理手順RT1をステップSP0において開始し、続くステップSP1において、各種外部センサからの外部センサ信号S1と、各種内部センサからの内部センサ信号S2とを取得する。
続いてメイン制御部50は、ステップSP2に進んで、これら外部センサ信号S1及び内部センサ信号S2に基づいて、現在ロボット1がユーザによって図25(A)のように抱き上げられた状態(以下、これを抱上げ状態と呼ぶ)にあるか否かを判断する。
ここで、このステップSP2において肯定結果を得ることは、既にロボット1がユーザにより抱き上げられた抱上げ状態(又は後述する初期抱上げ姿勢)にあることを意味し、かくしてこのときメイン制御部50は、ステップSP6に進む。
これに対して、このステップSP2において否定結果を得ることは、未だロボット1がユーザにより抱き上げられた抱上げ状態にないことを意味し、かくしてこのときメイン制御部50は、ステップSP3に進んで、抱き上げる際の前段階として、現在ロボット1がユーザにより持ち上げられている状態(以下、これを持上げ状態と呼ぶ)にあるか否かを判断する。
そしてメイン制御部50は、このステップSP3において否定結果を得ると、ステップSP1に戻り、この後ステップSP2又はステップSP3において肯定結果を得るまでステップSP1〜ステップSP3−ステップSP1のループを繰り返す。
さらにメイン制御部50は、やがてロボット1がユーザに持ち上げられることによりステップSP3において肯定結果が得られると、ステップSP4に進んで対応するアクチュエータA1〜A17を制御することにより、現在のロボット1の動作を全て停止させる。
またメイン制御部50は、その後ステップSP5に進んで、対応するアクチュエータA1〜A17を制御することにより、ロボット1の姿勢を予めデフォルトとして設定された所定の抱上げ姿勢(以下、これを初期抱上げ姿勢と呼ぶ)に移行させ、この後ステップSP6に進む。
そしてメイン制御部50は、このステップSP6に進むと、現在の抱上げ状態から最適な抱上げ状態を維持するような各種の関節制御(以下、これを抱上げ制御と呼ぶ)動作を実行し、この後ステップSP7に進んで、抱上げ状態が解除される(すなわちロボット1が床面上に下ろされる)のを待ち受ける。
そしてメイン制御部50は、やがてロボット1が床面上に下ろされたことを外部センサ信号S1及び内部センサ信号S2に基づき検出することにより、このステップSP7において肯定結果を得ると、ステップSP8に進んで、各ポテンショメータP1〜P17からそれぞれ供給される角度検出信号S2C1〜S2C17に基づいて、現在ロボット1がどのような姿勢にあるかを判断した後、必要に応じて対応するアクチュエータA1〜A17を制御することによりロボット1の姿勢を所定の立ち姿勢や寝姿勢に移行させる。
さらにメイン制御部50は、この後ステップSP1に戻ってこの後ステップSP1〜ステップSP8を同様に繰り返し、やがてロボット1のメイン電源がオフされるとこの抱上げ制御機能処理手順RT1を終了する。
(1−2−1)持上げ状態検出処理
ここでメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP1〜SP3において、図7に示すように、現在ロボット1がグリップハンドル2Aが把持されるようにして持ち上げられている持上げ状態にあることを検出するため、現在のロボット1の状態が以下の第1〜第3の条件を全て満たすか否かを常時監視する。
ここでメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP1〜SP3において、図7に示すように、現在ロボット1がグリップハンドル2Aが把持されるようにして持ち上げられている持上げ状態にあることを検出するため、現在のロボット1の状態が以下の第1〜第3の条件を全て満たすか否かを常時監視する。
すなわち第1の条件は、グリップスイッチ63Gが圧力を検出している状態(オン状態)にあることであり、ロボット1が持ち上げられている最中にあることを明確に把握するためにグリップハンドル2Aが把持されていることを前提条件とする。第2の条件は、両方の足底力センサ63L、63Rがオフ状態(すなわちセンサ値がほぼ0)であることであり、ロボット1の両方の足平部ブロック32が接地状態にないことも条件とする。
第3の条件は、加速度センサ65の検出結果がロボット1が重力と反対方向(図7の矢印a方向)に加速されたことを検知したことであり、ロボット1が重力方向と逆向きの鉛直方向に持ち上げられたことも条件とする。この第3の条件は、ロボット1が床等に寝ている状態でも上述の第1及び第2の条件を満たす場合があることから、これを補完するために必要とされる条件である。
このようにこれら第1〜第3の条件を全て満たした場合にのみ、メイン制御部50は現在ロボット1が持上げ状態にあると判断して、即座に後続する処理動作(すなわちステップSP4)へ移行する。
(1−2−2)持上げ状態検出時の動作
またメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP4では、現在ロボット1が持上げ状態にあることを検出したときに、即座に全ての動作を停止させるように各種アクチュエータA1〜A17(図4)の駆動を停止させる。
またメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP4では、現在ロボット1が持上げ状態にあることを検出したときに、即座に全ての動作を停止させるように各種アクチュエータA1〜A17(図4)の駆動を停止させる。
これによりメイン制御部50は、ロボット1が、ユーザにより持ち上げられている状態のときに手足をばたばた動かすことを未然に防止する。そしてメイン制御部50は、その後対応するアクチュエータA1〜A17を制御することにより、ロボット1の姿勢を初期抱上げ姿勢に遷移させる(ステップSP5)。
(1−2−3)定常抱上げ状態での関節制御
さらにメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP5では、デフォルトとしての初期抱上げ姿勢からユーザにとって常に最適な抱上げ状態を維持できるように抱上げ制御動作を実行する。
さらにメイン制御部50は、図6に示す抱上げ制御機能処理手順RT1におけるステップSP5では、デフォルトとしての初期抱上げ姿勢からユーザにとって常に最適な抱上げ状態を維持できるように抱上げ制御動作を実行する。
この抱上げ制御動作としては、抱上げ状態のときには、一般的にロボットが体を柔らかくして、ユーザの抱き方に倣うような制御を行った方がユーザにとっても抱き易いと考えられることから、以下に説明する3通りの抱上げ制御方法を組み合わせたものを適用する。
因みに、ユーザの腕と接触することが想定させる箇所全面に力センサを搭載しておき、インピーダンス制御などをかけることによって抱上げ制御動作を実現することが理想的であるが、ロボット1全体の構成が煩雑になる等の観点から現実的ではない。そこで、かかる3通りの抱上げ制御方法には、このような複数の力センサを使用しない手法が採用されている。
(1−2−3−1)サーボゲイン制御による抱上げ制御方法
ロボット1において、各アクチュエータA1〜A17(図4)のうちユーザによる抱上げ時に必要なものについてサーボゲインを比較的小さく制御することにより、ロボット1の姿勢をユーザの腕に対して倣わすことができる。
ロボット1において、各アクチュエータA1〜A17(図4)のうちユーザによる抱上げ時に必要なものについてサーボゲインを比較的小さく制御することにより、ロボット1の姿勢をユーザの腕に対して倣わすことができる。
但し、ロボット1の各関節部分にある程度の硬さを保っていなければユーザの腕の中で据わりの悪い状態となると共に持ち易さも損ねることとなるため、各アクチュエータA1〜A17の出力トルクや粘性を考慮して、ロボット1の各関節を若干柔らかくしながらも一定の硬さを保つように各アクチュエータA1〜A17の出力トルクを制御する。
(1−2−3−2)重力に応じた関節ゲイン制御による抱上げ制御方法
ロボット1について、重力方向に対する身体の向きに合わせて、各関節ゲインの調整レベルを変化させることにより、ユーザが抱上げ状態から床等に置き易くすることができる。
ロボット1について、重力方向に対する身体の向きに合わせて、各関節ゲインの調整レベルを変化させることにより、ユーザが抱上げ状態から床等に置き易くすることができる。
すなわちロボット1がユーザの両手で抱きかかえられて横向き状態にあるとき、ロボット1の下半身に関する各関節が柔らかくなるように、対応する各アクチュエータA1〜A17のゲインを制御する。一方、ロボット1がユーザの片手で持ち上げられて縦向き状態にあるとき、ロボット1の下半身に関する各関節が硬くなるように、対応する各アクチュエータA1〜A17のゲインを制御する。
このように各アクチュエータA1〜A17のゲインを制御することによって、ユーザがロボット1を両手で抱いている(下半身が横向きの)状態のときは、ユーザの抱き易さを重視でき、片手でロボット1を持ち上げている(下半身が下向き)状態のときは、ロボット1を地面に置く際にロボット1の姿勢を安定させて置き易くなるといった効果を得ることができる。
またこのように各アクチュエータA1〜A17のゲインを制御することによって、ユーザが両手でロボット1を抱上げている状態からグリップハンドル2Aのみを把持して片手で持ち上げるようにロボット1の持ち方を変えた場合に、ロボット1の下半身が下向きになったときに当該下半身に関する各関節が硬くなることから、次第にロボット1の姿勢が直立状態に戻ってゆき、再度ロボット1を地面に置くことが非常に容易になるという効果をも得ることができる。
(1−2−3−3)擬似コンプライアンス制御による抱上げ制御方法
ロボット1において、全身の動きをある姿勢範囲でしか動かせないように一定の拘束を加えることにより、抱上げ状態時のロボット1の姿勢もデザイン対象とすることが可能となる。
ロボット1において、全身の動きをある姿勢範囲でしか動かせないように一定の拘束を加えることにより、抱上げ状態時のロボット1の姿勢もデザイン対象とすることが可能となる。
かかる拘束をロボット1に加えるべく、図8に示すような擬似コンプライアンス制御処理手順RT2を実行することにより、ロボット1の足先や腕先にユーザの抱き方によって偏差が生じた場合でも、当該偏差にロボット1の各リンクを追従させることができる。
実際には、メイン制御部50(図4及び図5)は、第1の抱上げ制御処理手順RT1のステップSP6に進むと、図8の擬似コンプライアンス制御処理手順をステップSP10において開始し、続くステップSP11において、ロボット1の各関節の目標角度と、該当する各ポテンショメータP1〜P17等による実測角度とをそれぞれ用い、ダイレクトキネマティクスを適用して、ロボット1の足先や腕先等の目標位置及び計測位置を算出する。
続くステップSP12において、メイン制御部50は、目標位置に対する計測位置の偏差を求めた後、当該偏差に対して所定レートを乗算したオフセット量を当該目標位置に付加するようにして参照位置を算出する。
そしてメイン制御部50は、この後ステップSP13に進んで、求めた参照位置を用いてインバースキネマティスクを用いて各関節制御量を算出した後、ステップSP14に進んで、求めた関節制御量を対応するアクチュエータA1〜A17(図5)に適用し、この後ステップSP11に戻って上述と同様の処理を繰り返す。
これによりユーザの抱き方に倣った擬似コンプライアンス制御を実現することができ、この結果としてユーザにあたかもロボットが脱力しユーザの抱き方に倣っているように感じさせることができる。
具体的な例として、各脚部ユニット6A、6Bにおいて、あたかも椅子に座った状態から脚を前方に伸ばすようにして足先を上にあげる場合について説明する。図9に示すXYZ座標系において、各脚部ユニット6A、6Bの股関節機構部36の股関節ピッチ軸35、膝関節機構部38の脛ピッチ軸37及び足首関節機構部41の足首ピッチ軸39をY軸としたXZ平面上に表されることとする。
まず初期抱上げ姿勢での各脚部ユニット6A、6Bの足平部ブロック32の位置(以下、これを目標足先位置と呼ぶ)Pp(Xp,Yp,Zp)を、股関節機構部36の股関節ピッチ軸35を中心とした角度(以下、これを目標角度)θp1、膝関節機構部38の脛ピッチ軸37を中心とした目標角度θp2、及び足首関節機構部41の足首ピッチ軸39を中心とした目標角度θp3を用いてダイレクトキネマティクスにより算出する。
続いてこの初期抱上げ姿勢であっても実際にユーザによって抱上げられたときに外力が加わったとき、そのときの姿勢での足平部ブロック32の位置(以下、これを実測足先位置と呼ぶ)Pm(Xm,Ym,Zm)を、股関節機構部36の股関節ピッチ軸35を中心とした角度(以下、これを実測角度)θm1、膝関節機構部38の脛ピッチ軸37を中心とした実測角度θm2、及び足首関節機構部41の足首ピッチ軸39を中心とした実測角度θm3を用いてダイレクトキネマティクスにより算出する。
このとき各脚部ユニット6A、6Bをある姿勢範囲でしか動かせないように一定の拘束をかけたときの足平部ブロック32の位置(以下、これを参照足先位置と呼ぶ)Pr(Xr,Yr,Zr)は、目標足先位置Ppの各要素と、当該目標足先位置Ppに対する実測足先位置Pmの偏差Pd(=Pm−Pp)の各要素にそれぞれの要素のレートRATE(rx,ry,rz)分を乗算したオフセット量(=Pd×RATE)との和として求められる。
このレートRATE(rx,ry,rz)は、股関節機構部36、膝関節機構部38及び足首関節機構部41の各回転方向のトルクを決定するためのパラメータであり、0≦rx≦1、0≦ry≦1及び0≦rz≦1の範囲で表される。rx、ry及びrzが1に近づくほどトルクが小さく関節部分が柔軟になる一方、0に近づくほどトルクが大きく関節部分が強固になる。例えばレートRATE(rx,ry,rz)=(0.5,0.9,0.5)とするとy方向には簡単に動かせるが、x方向、z方向には若干硬い動きとなる。
この参照足先位置Pr(Xr,Yr,Zr)では、股関節機構部36の股関節ピッチ軸35を中心とした角度(以下、これを参照目的角度)θr1、膝関節機構部38の脛ピッチ軸37を中心とした参照目的角度θr2、及び足首関節機構部41の足首ピッチ軸39を中心とした参照目的角度θr3となる。
このようにしてロボット1が例えば女性的特徴をもつようにしたとき、レートRATE(rx,ry,rz)=(1,0,1)と設定することにより、y方向の動きが制限され、足を開かない(見た目が上品な)方向にのみ動く制御となる。
因みにレートRATEの成分rx、ry、rzを、それぞれ加速度センサ65の出力による関数にしておけば、ロボット1の姿勢により擬似コンプライアンス制御の度合いを制御することができる。例えば対数の関数にしておけば急激に重力方向の変化により急激に柔らかさを増したりといった制御が可能となる。
またピッチ軸を中心とした回転方向のみならず、ロール軸やヨー軸を中心とした回転方向についても上述と同様な擬似コンプライアンス制御を適用することにより、さらに細かな制御を行うことが可能となる。加えて、目標位置を置き姿勢と同様の位置に設定しておけば、上述した抱上げ検出時の動作と同様に再度地面に置きやすいといった利点が得られる。
(1−2−3−4)置き姿勢制御処理
さらに第1の抱上げ制御処理手順RT1のステップSP7において、メイン制御部50は、抱上げ状態が解除されたか否か(ロボット1が床面上に下ろされたか否か)の判断要因として、床面に下ろされる際に、置き姿勢制御処理を実行することにより、床面との接地時に姿勢が不安定になるのを未然に防止する。
さらに第1の抱上げ制御処理手順RT1のステップSP7において、メイン制御部50は、抱上げ状態が解除されたか否か(ロボット1が床面上に下ろされたか否か)の判断要因として、床面に下ろされる際に、置き姿勢制御処理を実行することにより、床面との接地時に姿勢が不安定になるのを未然に防止する。
この置き姿勢制御処理は、図10に示すように、床面FLとの接地時に、グリップハンドル2A、ロボット1全体の重心G、足平部ブロック32が一直線上になるように、ロボット1の姿勢を遷移させながら、足底力センサ63L、63Rに加重が加わったと判断した時点で立ち姿勢へ遷移させる制御である。
ここで上述した擬似コンプライアンス制御において、目標位置を常に置き姿勢にしておき、さらに重力加速度方向にロボット1の下半身が向いた場合に、コンプライアンス制御のパラメータを増減して、ユーザがロボット1を置く向きに近づけることにより、ユーザにとってより一層置き易い姿勢を実現できる。
(1−2−4)抱上げ姿勢からの復帰制御
さらに第1の抱上げ制御処理手順RT1のステップSP8において、メイン制御部50は、現在の姿勢を判断して、元の立ち姿勢や寝姿勢へ移行するように姿勢を復帰させる。
さらに第1の抱上げ制御処理手順RT1のステップSP8において、メイン制御部50は、現在の姿勢を判断して、元の立ち姿勢や寝姿勢へ移行するように姿勢を復帰させる。
すなわちロボット1を抱上げ姿勢から通常の立ち姿勢に復帰させるには、例えばロボット1が置き姿勢になっていると同時に足底力センサ63L、63Rに加重が加わりつつあれば、今現在抱き下ろし状態であると判断することにより、ロボット1を安全に立ち姿勢に遷移させることができる。
また加速度センサ65の検知結果に基づいて、ロボット1が重力方向に対して垂直な状態になっている場合には、現在ロボット1は横向きになっていると判断することができる。併せてグリップスイッチ2Aがオフ状態になっていることも条件に加えると現在ロボット1が床に置かれている状態だと判断することができ、ロボット1を寝姿勢に復帰させることが最善であると判断できる。
なお、上述のような復帰制御を行う際には、ロボット1が姿勢を復帰する際のトリガをユーザによってロボット1の肩部分に配設されたタッチセンサ63やその他の入力デバイスを用いて入力させるようにしておけば、ユーザがロボット1を抱上げている最中に復帰動作が表出してしまうといった誤動作を未然に回避することができる。
(1−3)第1の実施の形態による動作及び効果
以上の構成において、このロボット1は、胴体ユニット2のグリップハンドル2Aが把持されたことをグリップスイッチ63Gにより検知すると共に、ロボット1の両方の足平部ブロック32が接地状態にないことを足底力センサ63L、63Rにより検知し、さらにロボット1が反重力方向の鉛直方向に持ち上げられたことを加速度センサ65により検知したときに、ユーザによって抱き上げ(又は持ち上げ)られた状態にあると認識する。従って、ロボット1は、床等に寝ている状態などのような姿勢であっても確実にユーザによって抱き上げ(又は持ち上げ)られたことを認識することができる。
以上の構成において、このロボット1は、胴体ユニット2のグリップハンドル2Aが把持されたことをグリップスイッチ63Gにより検知すると共に、ロボット1の両方の足平部ブロック32が接地状態にないことを足底力センサ63L、63Rにより検知し、さらにロボット1が反重力方向の鉛直方向に持ち上げられたことを加速度センサ65により検知したときに、ユーザによって抱き上げ(又は持ち上げ)られた状態にあると認識する。従って、ロボット1は、床等に寝ている状態などのような姿勢であっても確実にユーザによって抱き上げ(又は持ち上げ)られたことを認識することができる。
そしてロボット1は、抱上げ状態を認識したとき、即座に各種アクチュエータA1〜A17を駆動停止させて全ての動作を停止させた後、そのまま初期抱上げ状態に遷移する。従って、このロボット1においては、抱上げ状態で手足をばたばた動かすことを未然に防止することができ、この結果としてユーザの安全性を確保することができる。
さらにロボット1は、この初期抱上げ状態からユーザにとって最適な抱上げ状態を維持するような各種の関節制御による抱上げ制御動作を実行する。従って、このロボット1は、抱上げ時に体を柔らかくしてユーザの抱き方に対して倣わせることができる。
その際ロボット1は、ユーザによる抱上げ時に必要な各アクチュエータA1〜A17についてサーボゲインを比較的小さく制御するため、自己の姿勢をユーザの腕に対して倣わすことができる。
またロボット1は、ユーザの両手で抱上げられて横向き状態にあるときには下半身に関する各関節が柔らかくなるように各関節ゲインを制御する一方、縦向き状態にあるときには下半身に関する各関節が硬くなるように各関節ゲインを制御するため、ユーザが両手で抱いている(下半身が横向きの)状態のときは、ユーザの抱き易さを重視する一方、片手で持ち上げている(下半身が下向き)状態のときは、ユーザが再度地面にロボットを置く際にロボットの姿勢が安定していて置き易くなるような、あたかも人間の子供を抱上げた時に近い反応を持たせることができる。
さらにロボット1は、擬似コンプライアンス制御を実行して、ロボット1の足先や腕先がユーザの抱き方により偏差が生じた場合でも、当該偏差にロボット1の各リンクを追従させるため、全身の動きをある姿勢範囲でしか動かせないように一定の拘束を加えることができ、この結果、ユーザによる抱上げ状態の姿勢も見た目を良くさせることができる。
そしてロボット1は、かかる抱上げ制御動作を実行しながら、抱上げ状態が解除されたことを認識したときに、ロボット1が抱き下ろし状態であるときには安全な立ち姿勢に復帰し、又はロボット1が横向きになっているときには寝姿勢に復帰させるように、現在の姿勢を判断して元の立ち姿勢や寝姿勢へ移行するように姿勢を復帰することから、抱上げ状態の後の安全性の確保や見た目の自然さを表出させることができる。
以上の構成によれば、ロボット1が、ユーザによって抱上げ状態にされたことを各種センサの検知結果に基づいて認識したときには、現在の動作を全て停止させて初期抱上げ状態に遷移した後、ユーザにとって最適な抱上げ状態を維持するような各種の関節制御による抱上げ制御動作を実行する一方、その後抱上げ状態が解除されたことを認識したときには、現在の姿勢に応じた立ち姿勢や寝姿勢へ遷移するような一連の制御動作を実行するようにしたことにより、あたかも人間の子供を抱上げた時の反応に近い状態である最適な抱上げ状態をユーザに提供することができ、かくしてエンターテインメント性を格段と向上し得るロボットを実現できる。
(2)第2の実施の形態
(2−1)本実施の形態によるロボットの構成
図1〜図4において、70は全体として第2の実施の形態によるロボットを示し、グリップハンドル2A以外の部位を把持されて持ち上げられた場合においても、これを検出し得るようになされた点を除いて第1の実施の形態によるロボット1と同様に構成されている。
(2−1)本実施の形態によるロボットの構成
図1〜図4において、70は全体として第2の実施の形態によるロボットを示し、グリップハンドル2A以外の部位を把持されて持ち上げられた場合においても、これを検出し得るようになされた点を除いて第1の実施の形態によるロボット1と同様に構成されている。
すなわち、ユーザがロボット70を持ち上げる際に必ずグリップハンドル2Aを把持するとは限らない。例えば図11(A)に示すように、ロボット70を、その両肩を把持するようにして持ち上げる場合や、図11(B)に示すように、頭部ユニット4を把持するようにして持ち上げる場合などもあり得る。
この場合、例えば図11(A)のように両肩を把持するようにして持ち上げられた場合や、図11(B)のように頭部ユニット4を把持するようにして持ち上げられた場合など、ロボット70がグリップハンドル2A以外の部位を把持されて持ち上げられた場合には、その把持された部位と胴体部ユニット2とを連結する肩関節機構部20、首関節機構部13などの対応する関節機構部に、当該ロボット1の自重を支えるだけの重力と反対方向の力が作用する。
従って、いずれかの関節機構部に重力と反対方向の所定レベル以上の力が作用すると共に、ロボット70に重力と反対方向の加速度が発生し、かつ各脚部ユニット6A、6Bの足底力センサ63L、63Rのいずれもが圧力を検出していないオフ状態のときには、ロボット70が、当該関節機構部を介して胴体部ユニット2と連結された部位を把持されて抱き上げられていると判断することができる。
そこでこのロボット70においては、図5との対応部分に同一符号を付した図12に示すように、各アクチュエータA1〜A17にそれぞれ対応させて力センサFS1〜FS17が設けられ、いずれかのアクチュエータA1〜A17の出力軸に当該出力軸と垂直な方向の力が作用したときに、これを対応する力センサFS1〜FS17によって検出し得るようになされている。また各力センサFS1〜FS17は、かかる力を検出したときには、これを力検出信号S1D1〜S1D17として、このロボット70全体の動作制御を司るメイン制御部71に送出するようになされている。
そしてメイン制御部71や、これら力センサFS1〜FS17からの力検出信号S1D1〜S1D17や加速度センサ65からの加速度検出信号S2Bなどに基づいてグリップハンドル2A以外の部位を把持されて持ち上げられたことを検知した場合には、グリップハンドル2Aを把持されて持ち上げられた場合と同様の制御処理を実行する一方、かかる把持された部位が構造的に弱い関節機構部を介して胴体部ユニット2と連結されている場合には、これを止めるように警告を発するようになされている。
このようにこのロボット70においては、グリップハンドル2A以外の部位を把持されて持ち上げられた場合においても、グリップハンドル2Aを把持されて持ち上げられた場合と同様に動作することで、持上げ状態時や抱上げ状態時においてロボット70が手足を動かすことに起因するユーザの怪我の発生を未然かつ有効に防止し、より一層のユーザの安全性を確保することができるようになされている。
ここで、このような持上げ状態の検知処理は、メイン制御部71の制御のもとに、その内部メモリ71Aに格納された制御プログラムに基づき、図13に示す持上げ状態検知処理手順RT3に従って行われる。
実際上、メイン制御部71は、第1の抱上げ制御処理手順RT1(図6)のステップSP3に進むと、この持上げ状態検知処理手順RT3をステップSP20において開始し、続くステップSP21において、対応するタッチセンサ63から供給される圧力検出信号S1Cと、加速度センサ65から供給される加速度検出信号S2Bとに基づいて、現在のロボット70の状態が、このステップSP3について第1の実施の形態において上述した、グリップスイッチ63Gがオン状態にあるという第1の条件と、両方の足底力センサ63L、63Rがオフ状態にあるという第2の条件と、加速度センサ65が重力と反対方向の加速度を検出したという第3の条件との全てを満たしているか否かを判断する。
このステップSP21において肯定結果を得ることは、ロボット1がグリップハンドル2Aを把持されて持ち上げられている状態(持上げ状態)であることを意味する。かくしてこのときメイン制御部71は、ステップSP25に進んで、ロボット1が持上げ状態にあると判定した後、ステップSP27に進んでこの持上げ状態検知処理手順RT3を終了する。そしてメイン制御部71は、この後第1の抱上げ制御処理手順RT1(図6)に戻ってそのステップSP4に進み、この後この第1の抱上げ制御処理手順RT1(図6)のステップSP4〜ステップSP8を上述のように処理する。
これに対してステップSP21において否定結果を得ることは、ロボット1がグリップハンドル2Aを把持されて持ち上げられている状態(持上げ状態)でないことを意味する。かくしてこのときメイン制御部71は、ステップSP22に進んで、対応するタッチセンサ63から供給される圧力検出信号S1Cと、加速度センサ65から供給される加速度検出信号S2Bと、各力センサFS1〜FS17から与えられる力検出信号S1D1〜S1D17とに基づいて、上述の第2及び第3の条件に加えて、いずれかのアクチュエータA1〜A17の出力軸に当該出力軸と垂直な方向の力が作用するという第4の条件の全てを満たすか否かを判断する。
このステップSP22において肯定結果を得ることは、ロボット1がグリップハンドル2A以外の部位を把持されて持ち上げられている状態(持上げ状態)にあることを意味する。かくしてこのときメイン制御部71は、ステップSP23に進んで、対応する力センサFS1〜FS17から与えられる力検出信号S1D1〜S1D17に基づいて、そのとき把持されている部位と胴体部ユニット2とを連結する関節機構部が、例えば首関節機構部13などの構造的に負荷に弱い部位として予め定められている関節機構部であるか否かを判断する。
そしてメイン制御部71は、このステップSP23において肯定結果を得ると、対応する音声信号S3(図12)をスピーカ62(図12)に送出することにより、例えば『そこを持たないで』、『降ろして』といった音声を出力させ、又は対応するアクチュエータA1〜A17を駆動させることにより所定の動作をロボット1に発現させることにより、ユーザに警告を与える。そしてメイン制御部71は、この後ステップSP21に戻る。
これに対してメイン制御部71は、ステップSP23において否定結果を得ると、ステップSP25に進んで、ロボット1が持ち上げられている状態(持上げ状態)であると判定した後、ステップSP27に進んでこの持上げ状態検知処理手順RT3を終了する。そしてメイン制御部71は、この後第1の抱上げ制御処理手順RT1(図6)に戻ってそのステップSP4に進み、この後この第1の抱上げ制御処理手順RT1のステップSP4〜ステップSP8を上述のように処理する。
なお、ステップSP22において否定結果を得ることは、現在ロボット1が持ち上げられている状態(持上げ状態)でないことを意味し、このときメイン制御部71は、ステップSP26に進んで、ロボット1が持上げ状態でないと判定した後、ステップSP27に進んでこの持上げ状態検知処理手順RT3を終了する。そしてメイン制御部71は、この後第1の抱上げ制御処理手順RT1(図6)に戻って、この後この第1の抱上げ制御処理手順RT1のステップSP3に戻る。
このようにしてメイン制御部71は、グリップハンドル2A以外の部分が把持されてロボット1が持ち上げられた場合においてもこれを確実に検知して、必要な制御処理を実行し得るようになされている。
(2−2)本実施の形態の動作及び効果
以上の構成において、ロボット70は、両方の足底力センサ63L、63Rがオフ状態にあるという第2の条件と、加速度センサ65が重力と反対方向の加速度を検出したという第3の条件と、いずれかのアクチュエータA1〜A17の出力軸に当該出力軸と垂直な方向の外力が作用するという第4の条件の全てを満たした場合に持上げ状態であると判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行する。
以上の構成において、ロボット70は、両方の足底力センサ63L、63Rがオフ状態にあるという第2の条件と、加速度センサ65が重力と反対方向の加速度を検出したという第3の条件と、いずれかのアクチュエータA1〜A17の出力軸に当該出力軸と垂直な方向の外力が作用するという第4の条件の全てを満たした場合に持上げ状態であると判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行する。
従って、ロボット70によれば、グリップハンドル2Aを把持されて持ち上げられた場合のみならず、グリップハンドル2A以外の部位を把持されて持ち上げられた場合にもこれを確実に検知することができ、その分リップハンドル2A以外の部位を把持されて持ち上げられた場合にあっても持上げ状態時や抱上げ状態時にロボット70が手足を動かすことに起因するユーザの怪我の発生を未然かつ有効に防止して、より一層のユーザの安全性を確保することができる。
またこのようにリップハンドル2A以外の部位を把持して持ち上げた場合の持上げ状態時にも第1の実施の形態において上述した抱上げ制御動作を行い得るようにすることで、リップハンドル2Aを把持して持ち上げたとき以外には抱上げ制御動作が発現されないとする場合と比べて、より人間の子供を抱上げたときの感覚に近い感覚をユーザに提供することができる。
以上の構成によれば、両方の足底力センサ63L、63Rがオフ状態にあるという第2の条件と、加速度センサ65が重力と反対方向の加速度を検出したという第3の条件と、いずれかのアクチュエータA1〜A17の出力軸に当該出力軸と垂直な方向の外力が作用するという第4の条件の全てを満たした場合に持ち上げられたと判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行するようにしたことにより、グリップハンドル2A以外の部位を把持されて持ち上げられた場合にもこれを確実に検知することができる。かくするにつきリップハンドル2A以外の部位を把持されて持ち上げられた場合の持上げ状態時や抱上げ状態時においても、より一層のユーザの安全性を確保しながら、より人間の子供を抱上げたときの感覚に近い感覚をユーザに提供することができ、かくしてエンターテインメント性を格段と向上し得るロボットを実現できる。
(3)第3の実施の形態
(3−1)本実施の形態によるロボットの構成
図1〜図4において、80は全体として第3の実施の形態によるロボットを示し、持ち上げられたことや、抱上げ状態が解除された(ロボット80が床面上に下ろされた)ことをサーボ偏差を利用して検知するようになされた点を除いて第1の実施の形態によるロボット1(図1〜図4)と同様に構成されている。
(3−1)本実施の形態によるロボットの構成
図1〜図4において、80は全体として第3の実施の形態によるロボットを示し、持ち上げられたことや、抱上げ状態が解除された(ロボット80が床面上に下ろされた)ことをサーボ偏差を利用して検知するようになされた点を除いて第1の実施の形態によるロボット1(図1〜図4)と同様に構成されている。
すなわち、通常、ロボット1は、姿勢ごとに各関節機構部の関節角がそれぞれ予め定められており、動作時には、各関節機構部の関節角をそれぞれそのとき目標とする姿勢(以下、これを目標姿勢と呼ぶ)について定められた角度となるように各アクチュエータA1〜A17をそれぞれ制御することによって、ロボット1全体としてその目標姿勢をとることができるようになされている。
しかしながら、ロボット1が機体の一部を床面に接地させてその部位において自重を支えている床接地状態のときには、自重を支える各関節機構部に当該関節機構部よりも上側の機体部分の自重が負荷となって与えられる。このため、その関節機構部内の対応するアクチュエータA1〜A17がこの負荷の影響によって、出力軸の回転角度をそのときの目標姿勢(例えば図14(A)や図15(A))について予め定められた角度(以下、これを目標角度と呼ぶ)に維持することができず、当該アクチュエータA1〜A17の出力軸の回転角度が目標角度よりも小さくなるというサーボ偏差が発生する。
この結果図14(C)や図15(C)に示すように、このときロボット1の自重を支える関節機構部の関節角が目標姿勢時(図14(A)、図15(A))における関節角よりも小さくなるという現象が生じ、これにより床接地状態時には、ロボット1における床面から離れた任意の部位(例えばロボット1の重心G)から当該ロボット1におけるそのとき床面に近い任意の他の部位(例えばロボット1の足裏や手の指先)までの重力方向の距離H2が、その目標姿勢時における距離H1に比べて小さくなる。
一方、ロボット1が機体の一部を把持されて持ち上げられた浮遊状態時のときには、当該ユーザに把持された部位よりも下側の各関節機構部に、その関節機構部よりもさらに下側の機体部分の重量が負荷となって与えられる。このため、その関節機構部内の対応するアクチュエータA1〜A17がこの負荷の影響によって、出力軸の回転角度をそのときの目標姿勢(図14(A)、図15(A))について予め定められた目標角度に維持することができず、当該アクチュエータA1〜A17の出力軸の回転角度が目標角度よりも大きくなるというサーボ偏差が発生する。
この結果図14(B)や図15(B)に示すように、このときロボット1のユーザにより把持された部位よりも下側に位置する関節機構部の関節角が目標姿勢時における関節角よりも大きくなるという現象が生じ、これにより持ち上げられた状態のとき時には、ロボット1における床面から離れた任意の部位(例えばロボット1の重心G)から当該ロボット1におけるそのとき床面に近い任意の他の部位(例えばロボット1の足裏や手の指先)までの重力方向の距離H3が、その目標姿勢時における距離H1に比べて大きくなる。
そこで、この第3の実施の形態によるロボット80においては、第1の抱上げ制御処理手順RT1(図6)のステップSP3における持上げ状態の検知処理やステップSP8における抱上げ状態の解除の検知処理を、そのときの目標姿勢時におけるロボット80の重心Gからその目標姿勢のときの接地部位までの重力方向の距離(以下、これを目標重心高さと呼ぶ)と、現在のロボット80の重心Gから接地部位までの重力方向の距離(以下、これを実測重心高さと呼ぶ)とを順運動学によりそれぞれ算出し、これらの大小を比較するようにして行うようになされている。
ただしこの場合において、ユーザによるロボット80の持ち上げ又は抱上げ状態の解除以外の何らかの理由によって、床面からロボット80の実測重心高さが目標重心高さよりも小さく又は大きくなっている場合も考えられるため、誤認識を避けるための何らかの対応策が必要となる。
そこで、このロボット80においては、第1に、かかるロボット80の実測重心高さがそのときの目標重心高さよりも大きい又は小さい状態が一定時間満たされること、第2に、加速度センサ65(図5)により検出される重力方向が静定している(すなわちロボット80の姿勢が安定していること)、第3に、床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言えることの3つの条件を満たすことを要件として、上述のような持上げ状態や抱上げ状態の解除にあると判断するようになされている。
ここで、このような持上げ状態や抱上げ状態の解除の検知処理は、このロボット80全体の動作制御を司る図5に示すメイン制御部81の制御のもとに、その内部メモリ81A(図5)に格納された制御プログラムに基づき、図16に示す持上げ状態検知処理手順RT4又は図16に示す抱上げ状態解除検知処理手順RT5に従って行われる。
実際上、メイン制御部81は、第1の抱上げ制御処理手順RT1(図6)のステップSP3に進むと、図16に示す持上げ状態検知処理手順RT4をステップSP30において開始し、続くステップSP31において、第1の抱上げ制御処理手順RT1(図6)のステップSP1において取得した加速度センサ65からの加速度検出信号S2Bの値に基づいてロボット80の姿勢が安定しているか否かを判断する。
そしてメイン制御部81は、このステップSP31において否定結果を得ると、ステップSP38に進んで現在ロボット80は持上げ状態でないと判定した後ステップSP39に進んでこの持上げ状態検知処理手順RT4を終了し、この後第1の抱上げ制御処理手順RT1のステップSP1に戻る。
これに対してメイン制御部81は、ステップSP31において肯定結果を得ると、ステップSP32に進んで、第1の抱上げ制御処理手順RT1(図6)のステップSP1において取得した加速度センサ65からの加速度検出信号S2Bの値に基づいて重力方向を検出する。
そしてメイン制御部81は、この後ステップSP33に進んで、現在の各アクチュエータA1〜A17の目標角度に基づいて、そのときのロボット80の目標姿勢と、当該目標姿勢時における目標重心高さとを順運動学に基づいて算出する。
具体的に、メイン制御部81は、目標姿勢時におけるロボット80の重心から接地部位までの間にある各関節機構部の関節角の各目標角度をそれぞれθr1〜θrnとし、これらを利用した順運動学に基づく目標重心高さを求める演算式をL(θi)(i=1,2,……,n)として、次式
により、目標重心高さLrを算出する。
さらにメイン制御部81は、続くステップSP34において、第1の抱上げ制御処理手順RT1(図6)のステップSP1において取得した各ポテンショメータP1〜P17からの角度検出信号S2D1〜S2D17に基づき得られる対応するアクチュエータA1〜A17の現在の出力軸の角度に基づいて、現在のロボット80の姿勢と、現在の実測重心高さLmとを順運動学に基づいて算出する。
具体的には、メイン制御部50は、ロボットの重心から接地部位までの間にある各関節機構部の関節角の現在の実測値をそれぞれθm1〜θmnとして、次式
により、実測重心高さLmを算出する。
この際メイン制御部50は、この実測重心高さLmを、その姿勢においてそのとき接地している複数の部位、例えば図14のような立脚姿勢であれば左右の足裏に関して、図15のような四つん這い姿勢であれば両手先及び両足裏に関してそれぞれ算出する。
そしてメイン制御部81は、この後ステップSP35に進んで、ステップSP44において算出した全ての実測重心高さLmが目標重心高さLrよりも大きいか否かを判断する。
ここでこのステップSP35において否定結果を得ることは、実測重心高さLmが目標重心高さLrよりも小さい、つまり図14(A)や図15(A)のようなそのときの目標姿勢に対して、現在のロボット80の姿勢が図14(C)や図15(C)のような床接地状態時の姿勢(以下、これを床接地状態姿勢と呼ぶ)にあると判断できることを意味する。
かくしてこのときメイン制御部81は、ステップSP38に進んで、現在ロボット80は持上げ状態でないと判定した後、ステップSP39に進んでこの持上げ状態検知処理手順RT4を終了し、この後第1の抱上げ制御処理手順RT1(図6)のステップSP1に戻る。
これに対してステップSP35において肯定結果を得ることは、実測重心高さLmが目標重心高さLrよりも大きい、つまり図14(A)や図15(A)のようなそのときの目標姿勢に対して、現在のロボット80の姿勢が図14(B)や図15(B)のような浮遊状態時の姿勢(以下、これを浮遊状態姿勢と呼ぶ)にあると判断できることを意味する。
かくしてこのときメイン制御部81は、ステップSP36に進んで実測重心高さLmが目標重心高さLrよりも大きい状態が予め定められた一定時間継続したか否かを判断し、否定結果を得るとステップSP38に進んで、現在ロボット80は持上げ状態でないと判定する。そしてメイン制御部81は、この後ステップSP39に進んでこの持上げ状態検知処理手順RT4を終了し、さらにこの後第1の抱上げ制御処理手順RT1(図6)のステップSP1に戻る。
これに対してメイン制御部81は、ステップSP36において肯定結果を得るとステップSP37に進んで、現在ロボット80は持上げ状態であると判定した後、ステップSP39に進んでこの持上げ状態検知処理手順RT4を終了し、この後第1の抱上げ制御処理手順RT1(図6)のステップSP4に進む。
一方、メイン制御部81は、第1の抱上げ制御処理手順RT1のステップSP7に進むと、図17に示す抱上げ状態解除検知処理手順RT5をステップSP40において開始し、続くステップSP41〜ステップSP44を持上げ状態検知処理手順RT4(図16)のステップSP31〜ステップSP34と同様に処理する。
そしてメイン制御部81は、この後ステップSP45に進んで、ステップSP44において算出した実測重心高さLmが、ステップSP43において算出した目標重心高さLrよりも小さいか否かを判断する。
ここでこのステップSP45において否定結果を得ることは、実測重心高さLmが目標重心高さLrよりも大きい、つまり図14(A)や図15(A)のようなそのときの目標姿勢に対して、現在のロボット80の姿勢が図14(B)や図14(B)のような浮遊状態姿勢にあると判断できることを意味する。
かくしてこのときメイン制御部81は、ステップSP48に進んで、現在ロボット80は未だ抱上げ状態が解除されていないと判定した後、ステップSP49に進んでこの抱上げ状態解除検知処理手順RT5を終了し、この後第1の抱上げ制御処理手順RT1(図6)のステップSP7に戻る。
これに対してステップSP45において肯定結果を得ることは、実測重心高さLmが目標重心高さLrよりも小さい、つまり図14(A)や図15(A)のようなそのときの目標姿勢に対して、現在のロボットの姿勢が図14(C)や図15(C)のような床接地状態姿勢にあると判断できることを意味する。
かくしてこのときメイン制御部81は、ステップSP46に進んで、実測重心高さLmが目標重心高さLrよりも小さい状態が予め定められた一定時間継続したか否かを判定し、否定結果を得るとステップSP48に進んで、現在ロボット80は抱上げ状態が解除されていないと判断する。そしてメイン制御部81は、この後ステップSP49に進んでこの抱上げ状態解除検知処理手順RT5を終了し、さらにこの後第1の抱上げ制御処理手順RT1(図6)のステップSP7に戻る。
これに対してメイン制御部81は、ステップSP46において肯定結果を得るとステップSP47に進んで、現在ロボット80は抱き上げられていないと判定した後、ステップSP49に進んでこの抱上げ状態解除検知処理手順RT5を終了し、この後第1の抱上げ制御処理手順RT1(図6)のステップSP8に進む。
このようにしてこのメイン制御部81は、持上げ状態や、抱上げ状態が解除されたことをサーボ偏差を利用して検知し得るようになされている。
(3−2)本実施の形態の動作及び効果
以上の構成において、ロボット80は、実測重心高さがそのときの目標重心高さよりも大きい状態が一定時間継続され、そのときのロボット80の姿勢が安定し、さらに床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言える場合に、現在ロボット80が持上げ状態にあると判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行する。
以上の構成において、ロボット80は、実測重心高さがそのときの目標重心高さよりも大きい状態が一定時間継続され、そのときのロボット80の姿勢が安定し、さらに床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言える場合に、現在ロボット80が持上げ状態にあると判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行する。
またロボット80は、実測重心高さがそのときの目標重心高さよりも小さい状態が一定時間継続され、そのときのロボット80の姿勢が安定し、さらに床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言える場合に、抱上げ状態が解除されたと判断し、その後現在の姿勢を判断して、立ち姿勢や寝姿勢に移行する。
従って、ロボット80によれば、第2の実施の形態によるロボット70と同様に、グリップハンドル2Aを把持されて持ち上げられた場合のみならず、グリップハンドル2A以外の部位を把持されて持ち上げられた場合にもこれを確実に検知することができ、その分リップハンドル2A以外の部位を把持されて持ち上げられた場合の抱上げ状態においても、ロボット70が手足を動かすことに起因するユーザの怪我の発生を未然かつ有効に防止し、より一層のユーザの安全性を確保することができる。
またこのロボット80によれば、かかる持上げ状態又は抱上げ状態の解除の検知処理のための新たなセンサ等のデバイスを必要としないため、例えば第2の実施の形態によるロボット70に比してより軽量かつ小型に構築することができる。
以上の構成によれば、実測重心高さがそのときの目標重心高さよりも大きい状態が一定時間継続され、そのときのロボット80の姿勢が安定し、さらに床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言える場合に、ロボット80が持上げ状態であると判断し、その後現在の動作を全て停止させ、初期抱上げ姿勢に移行した後、抱上げ制御動作を実行する一方、実測重心高さがそのときの目標重心高さよりも小さい状態が一定時間継続され、そのときのロボット80の姿勢が安定し、さらに床面に近い複数の部位に関してロボット80の実測重心高さについて同様のことが言える場合に、ロボット80が抱上げ状態が解除されたと判断し、その後現在の姿勢を判断して、立ち姿勢や寝姿勢に移行するようにしたことにより、第2の実施の形態と同様の効果を得ることができることに加え、さらに第2の実施の形態によるロボットに比してより軽量かつ小型に構築することができ、かくしてエンターテインメント性を格段と向上し得るロボットを実現できる。
(4)第4の実施の形態
(4−1)本実施の形態によるロボットの構成
図1〜図4において、90は全体として第4の実施の形態によるロボットを示し、抱上げ状態時、ユーザの要求に応じて自己の姿勢を所定の置き姿勢に遷移させるようになされた点を除いて第2の実施の形態によるロボット70と同様に構成されている。
(4−1)本実施の形態によるロボットの構成
図1〜図4において、90は全体として第4の実施の形態によるロボットを示し、抱上げ状態時、ユーザの要求に応じて自己の姿勢を所定の置き姿勢に遷移させるようになされた点を除いて第2の実施の形態によるロボット70と同様に構成されている。
すなわち、ユーザが抱き上げているロボット90を床面上に下ろす際に、必ずグリップハンドルを把持するとは限らない。例えば図18に示すように、横向きにして、下側の肩部及び下側の腰部を支持するようにしてロボット90を保持する場合などもあり得る。
そしてこのような場合にロボット1が何らの置き姿勢にも遷移しないとすれば、接地時におけるロボット90の姿勢が不安定となって接地後に転がるなどの事態が発生することにより、機体に傷が生じたり、機体内部に収納された各種外部センサ及び内部センサ等の精密部品に不具合が生じるおそれがある。
そこでこの第3の実施の形態によるロボット90においては、第1の抱上げ制御処理手順RT1(図6)のステップSP7において、置き姿勢に遷移すべき旨のユーザからの意思表示があった場合に、図18のようにロボット90の接地部位によって挟まれ又は囲まれる床面上の領域(以下、これを接地予定領域と呼ぶ)AR内にロボット90の重心Gの投影点(以下、これを重心投影点と呼ぶ)PGが位置するように、接地させるべき部位を予め決定し、その部位からロボット90が接地するように腕部ユニット5A、5B及び脚部ユニット6A、6Bなどの可動部位を動かすようになされている。
この際、図19(A)に示すように、ロボット90の構造的な制約やユーザによる拘束などから腕部ユニット5A、5B及び脚部ユニット6A、6Bによって重心投影点PGを含むような接地予定領域ARを形成できない場合も生ずるが、この場合には、図19(B)に示すように、CCDカメラ60A、60Bやマイクロホン61などの精密なデバイスが密集している頭部ユニット4で自重を支えるのを避けて、構造上比較的頑強である例えば胴体部ユニット2等の部位を接地させるように、接地部位を選択するようになされている。
ここで、このような置き姿勢制御処理は、このロボット90全体の動作制御を司る図12に示すメイン制御部91の制御のもとに、その内部メモリ91A(図12)に格納された制御プログラムに基づき、図20に示す置き姿勢制御処理手順RT6に従って行われる。
実際上、メイン制御部91は、第1の抱上げ制御処理手順RT1(図6)のステップSP7において、『置くよ』等の話しかけや、肩部分に配設されたタッチセンサ63が押圧操作されるなどのユーザからの置き姿勢に遷移すべき旨の意思表示が与えられると、この置き姿勢制御処理手順RT6をステップSP50において開始し、続くステップSP51において、加速度センサ65(図12)から与えられる加速度検出信号S2Bに基づいて重力方向を検出する。
続いて、メイン制御部91は、ステップSP52に進んで、ロボット90の機体の各部位i(i=1,2,……)の質量をmi、その部位の重心からのx方向及びy方向の距離をそれぞれxi、yiとして、次式
により、そのときのロボット90の重心投影点の位置G(x,y)を求める。
さらにメイン制御部91は、この後ステップSP53に進んで、各ポテンショメータP1〜P17(図12)から供給される角度検出信号S2D1〜S2D17及び加速度センサ65(図12)から供給される加速度検出信号S2Bに基づき認識されるそのときのロボット90の姿勢と、各力センサFS1〜FS17から与えられる力検出信号S1D1〜S1D17に基づき認識される拘束されていない部位との各認識結果に基づいて、ロボット90における地面に最も近く、かつ拘束されていない部位を接地する際の部位の候補(以下、これを接地候補と呼ぶ)として選択する。この際、メイン制御部91は、精密なデバイスが密集している頭部ユニット4や、その他構造的に弱い部位を除外してかかる接地候補を選択する。
続いてメイン制御部91は、ステップSP54に進んで、必要に応じて拘束されていないいずれかの関節機構部を動かすことで、ステップSP53において選択した接地部位候補によって重心投影点PGを含むように接地予定領域ARを形成することができるか否かを判断する。
そしてメイン制御部91は、このステップSP54において否定結果を得るとステップSP53に戻り、先行して接地候補として選択した部位の次に床面に近い部位を接地候補として選択した後ステップSP54に進み、先行して接地候補として選択した部位と今回接地候補として選択した部位とを同時に用いて重心投影点PGを含むように接地予定領域ARを形成することができるか否かを判断する。
そしてメイン制御部91は、このステップSP54において否定結果を得るとステップSP53に戻り、この後同様に接地候補としてなるべく床面に近い部位を順次選択しながらステップSP54において肯定結果を得るまで、ステップSP53−SP54−SP53のループを繰り返す。
そしてメイン制御部91は、やがて重心投影点PGを内部に含む接地予定領域ARを形成するための幾つかの候補(部位)を選択し終えることにより、ステップSP54において肯定結果を得ると、ステップSP55に進んで、対応する接地予定領域ARを形成することができるように、対応するアクチュエータA1〜A17を駆動させる。
この結果、例えば接地候補として右側の腕部ユニット5Bと右側の脚部ユニット6Bとが選択された場合には、図18に示すように、これら腕部ユニット5B及び脚部ユニット6Bが胴体部ユニット2に先行して接地するように、かつその接地時にこれら腕部ユニット5B及び脚部ユニット6Bによって形成される接地予定領域AR内に重心投影点PGが位置するように、腕部ユニット5B及び脚部ユニット6B等が駆動される。
また、例えば接地候補として左右の両腕部ユニット5A、5Bと胴体部ユニット2の胸部分とが選択された場合には、図19に示すように、これら各腕部ユニット5A、5B及び胴体部ユニット2の胸部分が同時に接地するように、かつその接地時にこれら腕部ユニット5A、5B及び胴体部ユニット2の胸部分によって形成される接地予定領域AR内に重心投影点PGが位置するように、各腕部ユニット5A、5B等が駆動される。なおこの際、各腕部ユニット5A、5B及び胴体部ユニット2の胸部分の接地時に頭部ユニット4が接地しないように、頭部ユニット4が後ろに反らすように駆動される。
そしてメイン制御部91は、この後ステップSP56に進んで、加速度センサ65(図12)からの加速度検出信号S2B及び対応するタッチセンサ63(図12)からの圧力検出信号S1C等に基づいて、ロボット90の機体が接地したか否かを判断し、否定結果を得るとステップSP51に戻って、この後ステップSP56において肯定結果を得るまでステップSP51〜SP56−SP51のルールを繰り返す。
そしてメイン制御部91は、やがて加速度センサ65からの加速度検出信号S2B及び対応するタッチセンサ63からの圧力検出信号S1C等に基づいてロボット90の機体が接地したことを検出すると、ステップSP57に進んでこの置き姿勢制御処理手順RT6を終了し、この後第1の抱上げ制御処理手順RT1(図6)のステップSP8に進む。
このようにしてメイン制御部91においては、ユーザからの命令に応じてロボット90の姿勢をそのときの姿勢に応じた所定の置き姿勢に遷移させ得るようになされている。
(4−2)本実施の形態の動作及び効果
以上の構成において、ロボット90は、置き姿勢に遷移すべき旨のユーザからの意思表示に応じて、接地予定領域AR内に重心投影点PGが位置するように接地部位を選択し、その部位から接地するように腕部ユニット5A、5B及び脚部ユニット6A、6Bなどの可動部位を動かす。
以上の構成において、ロボット90は、置き姿勢に遷移すべき旨のユーザからの意思表示に応じて、接地予定領域AR内に重心投影点PGが位置するように接地部位を選択し、その部位から接地するように腕部ユニット5A、5B及び脚部ユニット6A、6Bなどの可動部位を動かす。
従って、このロボット90では、接地時におけるロボット90の姿勢が不安定となって接地後に転がるなどの事態が発生することにより、機体に傷が生じたり、機体内部に収納された各種外部センサ及び内部センサ等の精密部品に不具合が生じるおそれを未然かつ有効に防止することができる。
またこのようにロボット90を動作させることによって、通常、人間が接地の際に行う身構える仕草を表現することができ、その分ヒューマノイド型エンターテインメントとしてのエンターテインメント性を向上することができる。
以上の構成によれば、置き姿勢に遷移すべき旨のユーザからの意思表示に応じて、接地予定領域AR内に重心投影点PGが位置するように接地部位を選択し、その部位から接地するように自己の姿勢を必要に応じて変化させるようにしたことにより、持ち下ろす際の傷の発生や精密部品の不具合の発生を未然かつ有効に防止しながら、人間らしい仕草を表現することができ、かくして機体保全を確保しながらエンターテインメント性を向上し得るロボットを実現できる。
(5)第5の実施の形態
(5−1)本実施の形態によるロボットの構成
図1〜図4において、100は全体として第5の実施の形態によるロボットを示し、機体が不安定な姿勢で持ち上げられたときに、当該姿勢を安定化させるように動作するようになされた点を除いて第4の実施の形態によるロボット90と同様に構成されている。
(5−1)本実施の形態によるロボットの構成
図1〜図4において、100は全体として第5の実施の形態によるロボットを示し、機体が不安定な姿勢で持ち上げられたときに、当該姿勢を安定化させるように動作するようになされた点を除いて第4の実施の形態によるロボット90と同様に構成されている。
すなわち、ユーザがロボット100を持ち上げる際に、常に持ち上げ後のロボットの機体安定性を考慮して把持する部位を選択するとは限らない。例えば図21(A)のようにロボット100が片方の腕部ユニット5Aを上げたときに、図21(B)のようにこの腕部ユニット5Aの先端部を把持してロボット100を持ち上げる場合や、図23(A)のようにロボット100の両肩を把持して機体が傾いた状態で持ち上げる場合もあり得る。
そして、例えば図21(B)のように片方の腕部ユニット5Aが把持されて持ち上げられた場合、ロボット100の重心位置と作用点(ユーザにより把持された点)とのバランスから、持ち上げられたロボット100の機体が振り子状に振動し、その後図21(B)のようにロボット100の重心位置と作用点とが釣り合った状態でロボット100の機体が静定することになる。また図23(A)のようにロボット100の両肩を把持して機体が傾いた状態で持ち上げた場合には、ロボット100はその状態で静定することとなる。
この場合、このようにロボット100の機体が不安定な姿勢で静定した状態において、肩関節機構部13のアクチュエータA5〜A7(図4参照)や肘関節機構部24のアクチュエータA8(図4参照)のサーボゲインを上げたままにしておくと、これらアクチュエータA5〜A8にロボット100の重量分の大きな負荷が与えられる一方、持ち上げているユーザにもロボット100の機体の重量だけでなく、不安定な姿勢にあるロボット100の回転モーメントによる負荷が与えられる。
そこでこの第5の実施の形態によるロボット100では、機体が不安定な姿勢で持ち上げられたときに、そのときユーザにより拘束されている部位から胴体部ユニット2までの間に存在する各関節機構部内のアクチュエータA1〜A17のサーボゲインを十分に下げることによって、そのときロボット100の自重を支えるアクチュエータA1〜A17に与えられる負荷と、ロボット100を持ち上げたユーザに与えられる負荷とを共に軽減し得るようになされている。
例えば図21の例では、ロボット1は、かかる持ち上げを検出すると、拘束された腕部ユニット5Aと対応する肩関節機構部15及び肘関節機構部24内の全てのアクチュエータA5〜A8のサーボゲインを十分に下げる。この結果、図22(A)に示すように、拘束された腕部ユニット5Aを基準として、重心が拘束点(作用点)の鉛直下側に位置した安定した姿勢に遷移するように、ロボット100の機体の傾きが自重により変化することとなる。
また図23の例では、両方の肩関節機構部13内の全てのアクチュエータA5〜A7のサーボゲインを十分に下げる。この結果、図23(B)に示すように、各腕部ユニット5A、5Bを中心として、ロボット100の重心位置が側面から見て拘束点(作用点)の鉛直下側に位置した安定した姿勢に遷移するように、ロボット100の機体の傾きが変化することとなる。
一方、このように機体が不安定となる部位を拘束されてロボット100が持ち上げられた場合には、図6の第1の抱上げ制御処理手順RT1のステップSP4〜ステップSP7について上述したような抱上げ制御処理に移行するよりも、ユーザがロボット100を直ぐに床面に置くことが予想されることから、直ちに置き姿勢制御処理に移行した方が望ましいと考えられる。
そこで、このロボット100においては、機体が不安定な姿勢で持ち上げられたことを検出した場合には、例えば図22(B)や図23(B)に示すように、拘束点(作用点)とロボット100の重心Gとが図18及び図19について上述した接地可能領域AR(図18、図19)上の空間内に収納されるように図20について上述した置き姿勢制御処理を実行するようになされ、これにより直ちに床面FL上に置かれた場合にも安定した姿勢で接地することができるようになされている。
ここでこのようなロボット100の抱上げ制御処理は、このロボット100全体の動作制御を司る図12に示すメイン制御部101の制御のもとに、その内部メモリ101A(図12)に格納された制御プログラムに基づき、図24に示す第2の抱上げ制御処理手順RT7に従って行われる。
すなわち、メイン制御部101は、ロボット100の電源が投入されると、この第2の抱上げ制御処理手順RT7をステップSP60において開始し、続くステップSP61〜ステップSP63を図6について上述した第1の抱上げ制御処理手順RT1のステップSP1〜ステップSP3と同様に処理する。
そしてメイン制御部101は、ステップSP63において肯定結果を得ると、ステップSP64に進んで、各力センサFS1〜FS17からそれぞれ供給される力検出信号S1D1〜S1D17に基づいて、ユーザにより拘束されている部位(拘束部位)を特定する。
続いてメイン制御部101は、ステップSP65に進んで、このとき各ポテンショメータP1〜P17(図12)からそれぞれ供給される角度検出信号S2D1〜S2D17に基づき認識される現在のロボット100の姿勢と、加速度センサ65(図12)から供給される加速度検出信号S2Bに基づき認識される重力方向と、ステップSP64において特定したユーザにより拘束された部位との各認識結果に基づいて、現在ロボット100が不安定な姿勢にあるか否かを判断する。
そしてメイン制御部101は、このステップSP65において否定結果を得ると、ステップSP66に進んで、この後ステップSP66〜ステップSP70を図6について上述した第1の抱上げ制御処理手順RT1のステップSP4〜ステップSP8と同様に処理する。
これに対してメイン制御部101は、このステップSP65において否定結果を得ると、ステップSP71に進んで、ステップSP64において特定したユーザにより拘束された部位から胴体部ユニット2までの間に存在する全ての関節機構部内の全てのアクチュエータA1〜A17のサーボゲインを十分に小さい値(例えば「0」又はこれに近い所定の値)にまで下げる。
そしてメイン制御部101は、この後ステップSP72に進んで、図20について上述した置き姿勢処理手順RT6に従って接地予定領域AR(図18及び図19)内に重心投影点PG(図18及び図19)が位置するように接地部位を選択し、その部位から接地するように自己の姿勢を必要に応じて変化させる。
そしてメイン制御部101は、この後ステップSP69に進んで、この後ステップSP69及びステップSP70を図6について上述した第1の抱上げ制御処理手順RT1のステップSP7及びステップSP8と同様に処理する。
このようにしてメイン制御部101は、ロボット100が不安定な姿勢で持ち上げられたときの抱上げ制御処理を行うようになされている。
(5−2)本実施の形態の動作及び効果
以上の構成において、ロボット100は、機体が不安定な姿勢で持ち上げられたときに、そのときユーザにより拘束されている部位から胴体部ユニット2までの間に存在する各関節機構部内のアクチュエータA1〜A17のサーボゲインを十分に下げ、この後直ちに置き姿勢制御処理を実行する。
以上の構成において、ロボット100は、機体が不安定な姿勢で持ち上げられたときに、そのときユーザにより拘束されている部位から胴体部ユニット2までの間に存在する各関節機構部内のアクチュエータA1〜A17のサーボゲインを十分に下げ、この後直ちに置き姿勢制御処理を実行する。
従って、このロボット100では、機体が不安定な姿勢で持ち上げられた場合においても、対応するアクチュエータA1〜A17にロボット100の重量分の大きな負荷が与えられると共に、持ち上げているユーザに不安定な姿勢にあるロボット100の回転モーメントによる負荷が与えられるのを有効に防止することができ、その分かかる持ち上げに起因する破損を防止しながら、ロボット100を持ち上げるユーザの負担を有効に軽減させることができる。
またこの場合において、このロボット100は、拘束点(作用点)とロボット100の重心Gとが接地可能領域AR上の空間内に収納されるように置き姿勢制御処理を実行するようになされているため、直ちに床面FL上に置かれた場合にも安定した姿勢で接地することができ、その分接地後の転倒を未然かつ有効に防止すると共に、通常、人間が行う接地の際の身構えるような動作を表現することができる。
以上の構成によれば、ロボット100の機体が不安定な姿勢で持ち上げられたときに、そのときユーザにより拘束されている部位から胴体部ユニット2までの間に存在する各関節機構部内のアクチュエータA1〜A17のサーボゲインを十分に下げ、この後直ちに置き姿勢制御処理を実行するようにしたことにより、かかる持ち上げに起因する破損を防止しながら、ロボット100を持ち上げるユーザの負担を有効に軽減させることができ、かくしてエンターテインメント性を向上させ得るロボットを実現できる。
また以上の構成によれば、拘束点(作用点)とロボット100の重心Gとが接地可能領域AR上の空間内に収納されるように置き姿勢制御処理を実行するようにしたことにより、接地後の転倒を未然かつ有効に防止すると共に、あたかも人間が行うような接地の際に身を整えるかのような動作を表現することができ、かくしてエンターテインメント性を向上し得るロボットを実現できる。
(6)他の実施の形態
なお上述の実施の形態においては、本発明を図1〜図4のように、胴体部ユニット2に多段階の関節機構を有する複数の脚部ユニット6A、6Bがそれぞれ連結されたロボット1、70、80、90、100に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のロボット装置に広く適用することができる。
なお上述の実施の形態においては、本発明を図1〜図4のように、胴体部ユニット2に多段階の関節機構を有する複数の脚部ユニット6A、6Bがそれぞれ連結されたロボット1、70、80、90、100に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のロボット装置に広く適用することができる。
また上述の実施の形態においては、外部及び又は内部の状態を検知するセンサ手段と、グリップハンドル(把持部)2Aに設けられたグリップスイッチ(把持センサ)63G、足平部ブロック32に設けられた足底力センサ63L、63R、加速度センサ65を適用するようにした場合について述べたが、本発明はこれに限らず、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かの判断に供することができれば、この他種々のセンサ手段に広く適用するようにしても良い。
さらに上述の実施の形態においては、外部及び又は内部の状態がユーザの腕によって抱き上げられた状態又は持ち上げられた状態にあるか否かを判断した後、当該判断結果に基づいて、股関節機構部36、膝関節機構部38及び足首関節機構部41の動作を停止させるようにアクチュエータ(駆動系)A1〜A17を制御する制御手段として、胴体部ユニット2に設けられたメイン制御部50を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる制御手段に広く適用するようにしても良い。
また各関節機構として、首部3における首関節機構部13と、各腕部ユニット5A、5Bにおける肩関節機構部20及び肘関節機構部24とを含むようにしても良い。この場合、制御手段としてのメイン制御部50は、抱上げられた状態又は持ち上げられた状態にあるか否かを判断したときには、首関節機構部13、肩関節機構部20及び肘関節機構部24の動作を停止させるようにアクチュエータ(駆動系)A1〜A17を制御すれば良い。
さらに上述の実施の形態においては、制御手段としてのメイン制御部50は、ユーザの腕によって抱上げられた状態にあるとき、各脚部ユニット6A、6Bの姿勢を腕に対して倣わせるように、股関節機構部36、膝関節機構部38及び足首関節機構部41を動作させるアクチュエータ(駆動系)A1〜A17を制御するようにした場合について述べたが、本発明はこれに限らず、要は、ユーザの腕によって抱上げられた状態にあるとき、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができれば、この他種々の制御方法を採用するようにしても良い。
また各関節機構として、首部3における首関節機構部13と、各腕部ユニット5A、5Bにおける肩関節機構部20及び肘関節機構部24とを含むようにしても良い。この場合、制御手段としてのメイン制御部50は、ユーザの腕によって抱上げられた状態にあるとき、首部3及び各腕部ユニット5A、5Bの姿勢を腕に対して倣わせるように首関節機構部13、肩関節機構部20及び肘関節機構部24を動作させるアクチュエータ(駆動系)A1〜A17を制御すれば良い。
さらに上述の実施の形態においては、制御手段としてのメイン制御部50は、抱上げられた状態で胴体部ユニット2が横向きであるとき、各脚部ユニット6A、6Bに対応する股関節機構部36、膝関節機構部38及び足首関節機構部41が柔らかくなるようにアクチュエータ(駆動系)A1〜A17を制御する一方、胴体部ユニット2が縦向きであるとき、各脚部ユニット6A、6Bに対応する股関節機構部36、膝関節機構部38及び足首関節機構部41が硬くなるようにアクチュエータ(駆動系)A1〜A17を制御するようにした場合について述べたが、本発明はこれに限らず、要は、ユーザの腕によって抱上げられた状態にあるとき、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができれば、この他種々の制御方法を採用するようにしても良い。
また各関節機構として、首部3における首関節機構部13と、各腕部ユニット5A、5Bにおける肩関節機構部20及び肘関節機構部24とを含むようにしても良い。この場合、制御手段としてのメイン制御部50は、抱上げられた状態で胴体部ユニット2が横向きであるとき、首部3及び各腕部ユニット5A、5Bに対応する首関節機構部13、肩関節機構部20及び肘関節機構部24が柔らかくなるようにアクチュエータ(駆動系)A1〜A17を制御する一方、胴体部ユニット2が縦向きであるとき、首部3及び各腕部ユニット5A、5Bに対応する首関節機構部13、肩関節機構部20及び肘関節機構部24が硬くなるようにアクチュエータ(駆動系)A1〜A17を制御する
さらに上述の実施の形態においては、制御手段としてのメイン制御部50が、股関節機構部36、膝関節機構部38及び足首関節機構部41の追従の度合いを設定しておき、抱上げられた状態に応じて各脚部ユニット6A、6Bの姿勢に偏差が生じた場合、当該偏差に追従の度合いを付加した制御量に従ってアクチュエータ(駆動系)A1〜A17を制御するような擬似コンプライアンス制御を適用した場合について述べたが、本発明はこれに限らず、要は、ユーザの腕によって抱上げられた状態にあるとき、ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることができれば、この他種々の制御方法を採用するようにしても良い。
また各関節機構として、首部3における首関節機構部13と、各腕部ユニット5A、5Bにおける肩関節機構部20及び肘関節機構部24とを含むようにしても良い。この場合、制御手段としてのメイン制御部50は、首関節機構部13、肩関節機構部20及び肘関節機構部24の追従の度合いを設定しておき、抱上げられた状態に応じて首部3及び各腕部ユニット5A、5Bの姿勢に偏差が生じた場合、当該偏差に追従の度合いを付加した制御量に従ってアクチュエータ(駆動系)A1〜A17を制御すれば良い。
さらに上述の実施の形態においては、制御手段としてのメイン制御部50が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの胴体部ユニット2の姿勢を判断して、当該判断結果に従って各脚部ユニット6A、6Bに対応する股関節機構部36、膝関節機構部38及び足首関節機構部41を動作させるアクチュエータ(駆動系)A1〜A17を制御するようにした場合について述べたが、本発明はこれに限らず、要は、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表出させることができれば、この他種々の制御方法を採用するようにしても良い。
また各関節機構として、首部3における首関節機構部13と、各腕部ユニット5A、5Bにおける肩関節機構部20及び肘関節機構部24とを含むようにしても良い。この場合、制御手段としてのメイン制御部50は、ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの胴体部ユニット2の姿勢を判断して、当該判断結果に従って首部3及び各腕部ユニット5A、5Bに対応する首関節機構部13、肩関節機構部20及び肘関節機構部24を動作させるアクチュエータ(駆動系)A1〜A17を制御すれば良い。
さらに上述の第5の実施の形態においては、ロボット100に外力が作用する作用点及びロボット100の重心Gを検出すると共に、ロボット100の一部が床面に接地する接地予定領域ARを算出し、ロボット100が外力により離床された際に、作用点及び重心Gが接地予定領域AR上の空間内に収納するような姿勢制御処理を行うようにした場合について述べたが、本発明はこれに限らず、重心Gに代えてZMP(Zero Moment Point)を検出し、ロボット100が外力により離床された際に、作用点及び重心Gが接地予定領域AR上の空間内に収納するような姿勢制御処理を行うようにしても良い。
本発明は、ヒューマノイドロボットの他、種々の形態のロボット装置に広く適用することができる。
1、70、80、90、100……ロボット、2……胴体部ユニット、2A……グリップハンドル、3……首部、4……頭部ユニット、5A、5B……腕部ユニット、6A、6B……脚部ユニット、13……首関節機構部、20……肩関節機構部、24……肘関節機構部、32……足平部ブロック、36……股関節機構部、38……膝関節機構部、41……足首関節機構部、50、71、81、91、101……メイン制御部、63……タッチセンサ、63G……グリップスイッチ、63L、63R……足底力センサ、65……加速度センサ、A1〜A17……アクチュエータ、RT1……第1の抱上げ制御処理手順、RT2……擬似コンプライアンス制御処理手順、RT33……持上げ状態検知処理手順、RT4……持上げ状態検知処理手順、RT5……抱上げ状態解除検知処理手順、RT6……置き姿勢制御処理手順、RT7……第2の抱上げ制御処理手順。
Claims (15)
- 可動部を有するロボット装置において、
上記可動部を駆動する駆動手段と、
上記駆動手段を制御する制御手段と、
上記ロボット装置に外力が作用する作用点を検出する作用点検出手段と、
上記ロボット装置の重心を検出する重心検出手段と、
上記ロボット装置の一部が床面と接地する接地予定領域を算出する接地予定領域算出手段と
を具え、
上記制御手段は、
上記ロボット装置が外力により離床された際に、上記駆動手段を制御することにより、上記作用点及び上記重心を上記接地予定領域上の空間内に収納されるように上記可動部を制御する
ことを特徴とするロボット装置。 - 可動部を有するロボット装置の制御方法において、
上記ロボット装置に外力が作用する作用点及び上記ロボット装置の重心を検出すると共に、上記ロボット装置の一部が床面と接地する接地予定領域を算出する第1のステップと、
上記ロボット装置が外力により離床された際に、上記作用点及び上記重心を上記接地予定領域上の空間内に収納されるように上記可動部を制御する第2のステップと
を具えることを特徴とするロボット装置の制御方法。 - 可動部を有するロボット装置において、
上記ロボット装置の重心を検出する重心検出手段と、
上記ロボット装置と床面との接地部位を算出する接地部位算出手段と、
上記ロボット装置の上記重心と上記接地部位との上記距離を算出する距離算出手段と
を具え、
上記ロボット装置の上記重心と上記接地部位との距離に基づいて抱上げ検出を行う
ことを特徴とするロボット装置。 - 可動部を有するロボット装置の制御方法において、
上記ロボット装置の重心を検出すると共に、上記ロボット装置と床面との接地部位を算出する第1のステップと、
上記ロボット装置の上記重心と上記接地部位との距離を算出する第2のステップと、
算出した上記距離に基づいて抱上げ検出を行う第3のステップと
を具えることを特徴とするロボット装置の制御方法。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、
外部及び又は内部の状態を検知するセンサ手段と、
上記センサ手段によって検知された上記外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する状態判断手段と、
上記状態判断手段による判断結果に基づいて、各上記関節機構の動作を停止させるように駆動系を制御する制御手段と
を具えることを特徴とするロボット装置。 - 上記胴体部に設けられ、ユーザが持ち上げる際に把持する把持部と、
各上記脚部に設けられ、直立時にそれぞれ接地する足平部と
を具え、
上記センサ手段は、
上記把持部に設けられたユーザの腕によって把持されたか否かを検知する把持センサと、各上記足平部に設けられた接地状態にあるか否かを検知する足底力センサとからなる
ことを特徴とする請求項5に記載のロボット装置。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、
ユーザの腕によって抱上げられた状態にあるとき、各上記脚部の姿勢を上記腕に対して倣わせるように、各上記関節機構を動作させる駆動系を制御する制御手段
を具えることを特徴とするロボット装置。 - 上記制御手段は、
上記抱上げられた状態で上記胴体部が横向きであるとき、各上記脚部に対応する各上記関節機構が柔らかくなるように上記駆動系を制御する一方、上記胴体部が縦向きであるとき、各上記脚部に対応する各上記関節機構が硬くなるように上記駆動系を制御する
ことを特徴とする請求項7に記載のロボット装置。 - 上記制御手段は、
各上記関節機構の追従の度合いを設定しておき、上記抱上げられた状態に応じて各上記脚部の姿勢に偏差が生じた場合、当該偏差に上記追従の度合いを付加した制御量に従って上記駆動系を制御する
ことを特徴とする請求項7に記載のロボット装置。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置において、
ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの上記胴体部の姿勢を判断して、当該判断結果に従って各上記脚部に対応する各上記関節機構を動作させる駆動系を制御する制御手段
を具えることを特徴とするロボット装置。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、
外部及び又は内部の状態を検知する第1のステップと、
検知された上記外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する第2のステップと、
上記判断結果に基づいて、各上記関節機構の動作を停止させるように駆動系を制御する第3のステップと
を具えることを特徴とするロボット装置の制御方法。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、
ユーザの腕によって抱上げられた状態にあるとき、各上記脚部の姿勢を上記腕に対して倣わせるように、各上記関節機構を動作させる駆動系を制御する
ことを特徴とするロボット装置の制御方法。 - 上記抱上げられた状態で上記胴体部が横向きであるとき、各上記脚部に対応する各上記関節機構が柔らかくなるように上記駆動系を制御する一方、上記胴体部が縦向きであるとき、各上記脚部に対応する各上記関節機構が硬くなるように上記駆動系を制御する
ことを特徴とする請求項12に記載のロボット装置の制御方法。 - 各上記関節機構の追従の度合いを設定しておき、上記抱上げられた状態に応じて各上記脚部の姿勢に偏差が生じた場合、当該偏差に上記追従の度合いを付加した制御量に従って上記駆動系を制御する
ことを特徴とする請求項12に記載のロボット装置の制御方法。 - 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置の制御方法において、
ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたときの上記胴体部の姿勢を判断して、当該判断結果に従って各上記脚部に対応する各上記関節機構を動作させる駆動系を制御する
ことを特徴とするロボット装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004083362A JP2004306251A (ja) | 2003-03-23 | 2004-03-22 | ロボット装置及びその制御方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003122886 | 2003-03-23 | ||
JP2004083362A JP2004306251A (ja) | 2003-03-23 | 2004-03-22 | ロボット装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004306251A true JP2004306251A (ja) | 2004-11-04 |
Family
ID=33478926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004083362A Pending JP2004306251A (ja) | 2003-03-23 | 2004-03-22 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004306251A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334896A (ja) * | 2006-06-16 | 2007-12-27 | Samsung Electronics Co Ltd | 位置補正機能を提供する移動装置及び位置補正方法 |
WO2016002673A1 (ja) * | 2014-07-01 | 2016-01-07 | シャープ株式会社 | 姿勢制御装置、ロボット、およびプログラム |
WO2017199502A1 (ja) * | 2016-05-20 | 2017-11-23 | シャープ株式会社 | ロボットおよびその制御方法、ならびに制御プログラム |
WO2018012219A1 (ja) * | 2016-07-11 | 2018-01-18 | Groove X株式会社 | 自律行動型ロボット |
JP2018058177A (ja) * | 2016-10-06 | 2018-04-12 | シャープ株式会社 | ロボット、姿勢制御装置、姿勢制御方法、および制御プログラム |
JPWO2017119348A1 (ja) * | 2016-01-07 | 2018-08-30 | シャープ株式会社 | ロボット、ロボットの制御方法、およびプログラム |
EP3428764A1 (en) | 2017-07-14 | 2019-01-16 | Panasonic Intellectual Property Management Co., Ltd. | Torque losses estimation of a sperical robot |
EP3428763A1 (en) | 2017-07-14 | 2019-01-16 | Panasonic Intellectual Property Management Co., Ltd. | Robot |
WO2019131696A1 (ja) * | 2017-12-28 | 2019-07-04 | Groove X株式会社 | 移動機構を収容するロボット |
CN110181542A (zh) * | 2018-02-23 | 2019-08-30 | 松下知识产权经营株式会社 | 互动装置、互动方法、互动程序以及机器人 |
CN113329798A (zh) * | 2019-01-31 | 2021-08-31 | 索尼集团公司 | 机器人控制装置、机器人控制方法及程序 |
-
2004
- 2004-03-22 JP JP2004083362A patent/JP2004306251A/ja active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7768417B2 (en) | 2006-06-16 | 2010-08-03 | Samsung Electronics Co., Ltd. | Moving apparatus, method, and medium for compensating position of the moving apparatus |
JP4718518B2 (ja) * | 2006-06-16 | 2011-07-06 | 三星電子株式会社 | 位置補正機能を提供する移動装置 |
JP2007334896A (ja) * | 2006-06-16 | 2007-12-27 | Samsung Electronics Co Ltd | 位置補正機能を提供する移動装置及び位置補正方法 |
WO2016002673A1 (ja) * | 2014-07-01 | 2016-01-07 | シャープ株式会社 | 姿勢制御装置、ロボット、およびプログラム |
JPWO2016002673A1 (ja) * | 2014-07-01 | 2017-04-27 | シャープ株式会社 | 姿勢制御装置、ロボット、プログラム、および姿勢制御方法 |
US10350763B2 (en) | 2014-07-01 | 2019-07-16 | Sharp Kabushiki Kaisha | Posture control device, robot, and posture control method |
JPWO2017119348A1 (ja) * | 2016-01-07 | 2018-08-30 | シャープ株式会社 | ロボット、ロボットの制御方法、およびプログラム |
JPWO2017199502A1 (ja) * | 2016-05-20 | 2019-01-31 | シャープ株式会社 | ロボットおよびその制御方法、ならびに制御プログラム |
WO2017199502A1 (ja) * | 2016-05-20 | 2017-11-23 | シャープ株式会社 | ロボットおよびその制御方法、ならびに制御プログラム |
CN109476012B (zh) * | 2016-05-20 | 2021-12-28 | 夏普株式会社 | 机器人及其控制方法,以及记录介质 |
CN109476012A (zh) * | 2016-05-20 | 2019-03-15 | 夏普株式会社 | 机器人及其制造方法,以及控制程序 |
WO2018012219A1 (ja) * | 2016-07-11 | 2018-01-18 | Groove X株式会社 | 自律行動型ロボット |
GB2565959B (en) * | 2016-07-11 | 2021-10-13 | Groove X Inc | Autonomously acting robot |
GB2565959A (en) * | 2016-07-11 | 2019-02-27 | Groove X Inc | Autonomous-behavior-type robot |
US11213763B2 (en) | 2016-07-11 | 2022-01-04 | Groove X, Inc. | Autonomously acting robot |
JPWO2018012219A1 (ja) * | 2016-07-11 | 2018-07-19 | Groove X株式会社 | 自律行動型ロボット |
JP2018058177A (ja) * | 2016-10-06 | 2018-04-12 | シャープ株式会社 | ロボット、姿勢制御装置、姿勢制御方法、および制御プログラム |
US10507400B2 (en) | 2017-07-14 | 2019-12-17 | Panasonic Intellectual Property Management Co., Ltd. | Robot |
EP3428763A1 (en) | 2017-07-14 | 2019-01-16 | Panasonic Intellectual Property Management Co., Ltd. | Robot |
EP3428764A1 (en) | 2017-07-14 | 2019-01-16 | Panasonic Intellectual Property Management Co., Ltd. | Torque losses estimation of a sperical robot |
JPWO2019131696A1 (ja) * | 2017-12-28 | 2020-12-24 | Groove X株式会社 | 移動機構を収容するロボット |
WO2019131696A1 (ja) * | 2017-12-28 | 2019-07-04 | Groove X株式会社 | 移動機構を収容するロボット |
US11547947B2 (en) | 2017-12-28 | 2023-01-10 | Groove X, Inc. | Robot housing movement mechanism |
JP7444433B2 (ja) | 2017-12-28 | 2024-03-06 | Groove X株式会社 | 移動機構を収容するロボット |
CN110181542A (zh) * | 2018-02-23 | 2019-08-30 | 松下知识产权经营株式会社 | 互动装置、互动方法、互动程序以及机器人 |
CN113329798A (zh) * | 2019-01-31 | 2021-08-31 | 索尼集团公司 | 机器人控制装置、机器人控制方法及程序 |
CN113329798B (zh) * | 2019-01-31 | 2023-04-28 | 索尼集团公司 | 机器人控制装置、机器人控制方法及程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1607191A1 (en) | Robot device and method of controlling the same | |
JP7174705B2 (ja) | 外骨格を動かすための方法 | |
JP3615702B2 (ja) | 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット | |
KR100977348B1 (ko) | 다리식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치 | |
US6832131B2 (en) | Legged mobile robot and method of controlling operation of the same | |
JP2019005595A (ja) | 下肢装具用のヒューマンマシンインターフェース | |
JP2004306251A (ja) | ロボット装置及びその制御方法 | |
WO2002040223A1 (fr) | Robot mobile a deux jambes et son procede de commande, sa structure jambes, et unite jambe mobile destinee a ce robot | |
JP2009207840A (ja) | 歩行動作補助装置 | |
US10406683B2 (en) | Robot and control method thereof | |
JP2022522069A (ja) | ロボットの脚式移動を改善する方法及びシステム | |
WO2004033160A1 (ja) | ロボット装置の動作制御装置及び動作制御方法 | |
JP3528171B2 (ja) | 移動ロボット装置及び移動ロボット装置の転倒制御方法 | |
JP4475708B2 (ja) | 脚式移動ロボット及びその動作制御方法 | |
JP4660870B2 (ja) | 脚式移動ロボット及びその制御方法 | |
JP4770990B2 (ja) | 脚式移動ロボット及びその制御方法 | |
JP4289446B2 (ja) | 脚式移動ロボット | |
JPH1110567A (ja) | 二足歩行型ロボットの遠隔制御システム | |
JP4110525B2 (ja) | ロボット装置及びその動作制御方法 | |
JP2006247800A (ja) | 脚式移動ロボットの制御装置 | |
JP3813102B2 (ja) | 脚式ロボットの姿勢制御装置及び姿勢制御方法 | |
JP2004174644A (ja) | 脚式移動ロボットの制御装置 | |
CN110890148A (zh) | 一种基于康复训练器的安全防护系统及方法 | |
JP2007044836A (ja) | 脚式二足ロボット | |
JP4311159B2 (ja) | ロボットの歩容データ作成装置及びシステム |