JP3986848B2 - Group robot system and pheromone robot used in it - Google Patents

Group robot system and pheromone robot used in it Download PDF

Info

Publication number
JP3986848B2
JP3986848B2 JP2002051279A JP2002051279A JP3986848B2 JP 3986848 B2 JP3986848 B2 JP 3986848B2 JP 2002051279 A JP2002051279 A JP 2002051279A JP 2002051279 A JP2002051279 A JP 2002051279A JP 3986848 B2 JP3986848 B2 JP 3986848B2
Authority
JP
Japan
Prior art keywords
robot
sensing
base station
communication
flapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002051279A
Other languages
Japanese (ja)
Other versions
JP2003162326A (en
Inventor
圭太 原
将樹 濱本
佳似 太田
慎一郎 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002051279A priority Critical patent/JP3986848B2/en
Publication of JP2003162326A publication Critical patent/JP2003162326A/en
Application granted granted Critical
Publication of JP3986848B2 publication Critical patent/JP3986848B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、対象物を探索するためのロボットが多数集まり群として動作する群ロボットシステムに関するものである。
【0002】
【従来の技術】
特開平7−93028号公報には、図48に示すように、ベースステーションの一例としての1個の親ロボットと、センシングロボットの一例としての複数の子ロボットとからなる移動ロボット群を含む群ロボットシステムが開示されている。その群ロボットシステムにおいては、親ロボットには非接触センサによるセンシング機能を持たせ、子ロボットには接触型センサによるセンシング機能を持たせ、親ロボットは子ロボットの配置と移動経路を決定して子ロボットに位置と移動距離の指令を与えるものである。
【0003】
また、前述のシステムにおいては、ベースステーションのセンシングによる情報とセンシングロボットのセンシングによる情報とを使用して、経路計画法によってベースステーションが出発地から目的地まで移動する経路を計画して実行するようになっている。
【0004】
【発明が解決しようとする課題】
上記特開平7−93028号公報に記載された構成では、ベースステーションとセンシングロボットとは1対1の関係で通信を行なっているため、広い探索範囲を探索する場合に、全てのセンシングロボットに長距離の通信を行なう必要性が生じることがある。そのため、前述のような群ロボットシステムでは、ベースステーションが停止している場合には、センシングロボットそれぞれに最大通信距離が長い通信機構、すなわち、大型化または重量化した通信機構が必要とされていた。
【0005】
また、通信機構を大きくすると個々のセンシングロボットも大型化または重量化し、センシングロボットの探索機能に支障をきたすことが考えられる。そのため、ベースステーションが停止している状態での群ロボットシステム全体の探索範囲を広げることが困難であった。
【0006】
また、上記従来の群ロボットシステムのように、ベースステーションとセンシングロボットとが1対1の関係で通信を行なっている場合は、ベースステーションと個々のセンシングロボットとがそれぞれ通信する必要があった。そのため、ベースステーションが停止している状態での群ロボットシステム全体の探索範囲を広げようとすると、ベースステーションにおいてもそれぞれのセンシングロボットと長距離通信できるように大きな通信機構を備える必要があった。この観点からも、ベースステーションが停止している状態での群ロボットシステム全体の探索範囲を広げることが困難であった。
【0007】
本発明は、上記の問題を解決するためになされたものであり、センシングロボットまたはベースステーションの通信機構の小型化または軽量化を図りながら、ベースステーションが停止している状態での探索範囲を広げることができる群ロボットシステムを提供することである。
【0008】
また、さらに、前述の群ロボットシステムの探索範囲を広げるにあったて、センシングロボットの制御をより確実にする必要がある。その場合に、センシングロボットの移動を制限することにより、さらに通信制御によるコントロールを確実にしようとすると、センシングロボットの移動をコントロールするロボット、たとえば、フェロモンロボットが必要であると考えられる。
【0009】
そこで、本発明の他の目的は、群ロボットシステムの探索範囲を広げるにあったて、センシングロボットの移動を制限して群ロボットシステムにおけるセンシングロボットのコントロールをより確実にすることができるフェロモンロボットを提供することである。
【0010】
【課題を解決するための手段】
本発明の群ロボットシステム(又は、群ロボットの制御方法)は、対象物の探索に用いられる複数のセンシングロボットと、複数のセンシングロボットを通信により制御するためのベースステーションとを備えた群ロボットシステム(又は、群ロボットシステムに適用される制御方法)であって、群ロボットシステムの通信体系が、ベースステーションを最上層として、複数のセンシングロボット同士で複数層を構成する階層構造をなし、階層構造において、ベースステーションからは、複数のセンシングロボットそれぞれまで階層構造の下層側へ順に、複数のセンシングロボットそれぞれの動作の制御に関する情報が伝達され(ステップ1)、複数のセンシングロボットそれぞれからは、べースステーションまで階層構造の上層側へ順に、複数のセンシングロボットそれぞれの対象物の探索に関する情報が伝達される(ステップ2)。階層構造の上層側のセンシングロボットがベースステーションに近い位置にあり、階層構造の下層側のセンシングロボットがベースステーションから遠い位置にあり、かつ、複数のセンシングロボットがベースステーションを中心とした同心円状に配置された状態で、複数のセンシングロボットおよびベースステーションが移動するように、ベースステーションによって制御される。
【0011】
上記のような構成にすることにより、センシングロボットそれぞれの通信機構の小型化または軽量化を図りながら、ベースステーションが停止している場合の探索範囲を広げることができる。
【0012】
本発明の群ロボットシステムは、より好ましくは、階層構造の上層から下層へ向かってはベースステーションから複数のセンシングロボットそれぞれへの通信ルートが必ず1つとなるように設定されている。このような構成にすることにより、通信による制御命令の混乱を避けることができる。
【0013】
本発明の群ロボットシステムは、より好ましくは、ベースステーションとの通信により、複数のセンシングロボットが前記フェロモンロボットとベースステーションとの間に存在するように、複数のセンシングロボットのうちベースステーションからの距離が最も遠い位置にあるセンシングロボットの移動を制限する制御を行なうフェロモンロボットをさらに備えている。このような構成にすることにより、階層構造の最下層にあるセンシングロボットがベースステーションの指示が届かない位置に移動してしまうことによって、最下層にあるセンシングロボットの制御が不能となることを抑制することができる。
【0014】
本発明の群ロボットシステムは、より好ましくは、ベースステーションからフェロモンロボットを経て複数のセンシングロボットそれぞれへ情報を伝達することが可能である。このような構成にすることにより、ベースステーションからの情報の伝達系統が、階層構造の上層側から下層側へ、および、下層側から上層側への2系統となるため、ベースステーションからセンシングロボットへの情報の伝達不能のおそれを低減することができる。
【0015】
なお、本発明の群ロボットシステムは、フェロモンロボットを使用する場合には、フェロモンロボットとベースステーションとの最大通信距離が、ベースステーションと階層構造の最上層にあるセンシングロボットとの間の最大通信距離、フェロモンロボットと階層構造の最下層にあるセンシングロボットとの間の最大通信距離、および、複数のセンシングロボット同士の間の最大通信距離のいずれかよりも大きくなるように設定されていることが、フェロモンロボットを有効に機能させるための前提条件である。
【0016】
本発明の群ロボットシステムは、より好ましくは、フェロモンロボットとベースステーションとの最大通信距離が、ベースステーションと階層構造の最上層にあるセンシングロボットとの間の最大通信距離と、フェロモンロボットと階層構造の最下層にあるセンシングロボットとの間の最大通信距離と、複数のセンシングロボット同士の間の最大通信距離の和とを加えた距離よりも大きくなるように設定されている。このような構成にすることにより、階層構造の最下層のセンシングロボットまでのベースステーションからの通信可能距離が最も長くなるように効率的にセンシングロボットを使用することができる。
【0017】
本発明の群ロボットシステムは、より好ましくは、対象物の探索にあたっては、ベースステーションに対するフェロモンロボットの位置関係を決定することにより、全体の探索範囲が決定されるように設定されている。このような構成にすることにより、対象物の探索範囲の決定が容易になる。
【0018】
本発明の群ロボットシステムは、さらに好ましくは、全体の探索範囲に基づいて、複数のセンシングロボットの個々の探索範囲が決定されるように設定されている。このような構成にすることにより、センシングロボットの個々の探索範囲の決定が容易になる。
【0019】
本発明の群ロボットシステムは、またさらに好ましくは、個々の探索範囲に基づいて、複数のセンシングロボット個々の対象物の探索能力および通信強度のうち少なくともいずれか一方が決定されるように設定されている。このような構成にすることにより、対象物の探索能力および通信強度のうち少なくともいずれか一方を的確に決定することができる。
【0020】
本発明の群ロボットシステムは、より好ましくは、複数のセンシングロボットそれぞれは、階層構造の1つ上層にある、センシングロボットまたはベースステーションからの通信強度が予め決められた基準レベルを下回った場合に、通信強度が基準レベルを上回るような方向へ移動するように設定されている。このような構成にすることにより、あるセンシングロボットとの通信が不能になり、そのセンシングロボットをベースステーションで制御することができないという不都合の発生を抑制することができる。
【0021】
本発明の群ロボットシステムは、より好ましくは、階層構造の通信においては、互いに隣接する階層の複数のセンシングロボット同士の間の通信、または、最上層のセンシングロボットとベースステーションとの間の通信は、互いに同じ通信強度となるように設定されており、複数のセンシングロボットそれぞれが、階層構造の1つ上層にある、センシングロボットまたはベースステーションからの通信強度が予め決められた基準レベルを下回った場合に、通信強度が基準レベルを上回るまで互いの通信強度を強くするように設定されている。このような構成にすることにより、あるセンシングロボットとの通信が不能になり、そのセンシングロボットをベースステーションで制御することができないという不都合の発生を抑制することができる。
【0022】
本発明の群ロボットシステムは、より好ましくは、階層構造における通信方式が、スペクトラム拡散通信方式である。このような構成にすることにより、群ロボットシステムの通信体系に混乱を生じさせることなく、群ロボットシステムを機能させることができる。
【0023】
本発明の群ロボットシステムは、また、スペクトラム拡散通信方式において、階層構造の1つ上層にあるセンシングロボットおよび1つ下層にあるセンシングロボットの識別を、拡散符号により行なうように設定されている。このような構成にすることにより、階層の上下の通信の体系に混乱を生じさせることなく、群ロボットシステムを機能させることができる。
【0024】
本発明の群ロボットシステムは、また、スペクトラム拡散通信方式において、階層構造の同階層での他のセンシングロボットの識別を、拡散符号により行なうように設定されている。このような構成にすることにより、階層の同層の通信の体系に混乱を生じさせることなく、群ロボットシステムを機能させることができる。
【0025】
本発明の群ロボットシステムは、スペクトラム拡散通信方式には、同期確定のための通信層および拡散符号、1つ上層にあるセンシングロボットを識別するための通信層および拡散符号、ならびに、1つ下層にあるセンシングロボットを識別するための通信層および拡散符号が用いられる。
【0027】
本発明の群ロボットシステムは、階層構造がツリー構造である。このような構成にすることにより、ベースステーションからそれぞれのセンシングロボットへの指令系統を1本化することができる。
【0028】
本発明のセンシングロボットは、ベースステーションにより制御されて対象物の探索を行なうセンシングロボットであって、通信体系が、ベースステーションを最上層として、複数のセンシングロボット同士で複数層を構成する階層構造をなすように設定された群ロボットシステムにおいて用いられ、階層構造の上層側へ自己より下側の階層のセンシングロボットの対象物の探索に関する情報を伝達する機能と、階層構造の1つ下層側へ自己より下側の階層のセンシングロボットの動作に関する情報を伝達する機能とを備えている。
【0029】
上記のような構成にすることにより、センシングロボットそれぞれの通信機構の小型化または軽量化を図りながら、ベースステーションが停止している場合の探索範囲を広げることができる。
【0030】
なお、コンピュータに、前述のセンシングロボットを動作させるためのプログラムが実行されて、センシングロボットは群ロボットシステムにおいて機能する。なお、このプログラムは、CDROMなどの記録媒体に記録されていているものがロボットに読込まれてもよいとともに、インターネットなどの情報伝達網からインストールされてロボットに読込まれてもよい。
【0034】
本発明のフェロモンロボットは、対象物の探索に用いられる複数のセンシングロボットと、通信により該複数のセンシングロボットを制御するためのベースステーションとを備えている。通信体系が、ベースステーションを最上層として、複数のセンシングロボット同士で複数層を構成する階層構造をなすように設定されている。階層構造において、ベースステーションからは、複数のセンシングロボットそれぞれまで階層構造の下層側へ順に、複数のセンシングロボットそれぞれの動作の制御に関する情報が伝達される。複数のセンシングロボットそれぞれからは、ベースステーションまで階層構造の上層側へ順に、複数のセンシングロボットそれぞれの対象物の探索に関する情報が伝達される。階層構造の上層側のセンシングロボットがベースステーションに近い位置にあり、階層構造の下層側のセンシングロボットがベースステーションから遠い位置にあり、かつ、複数のセンシングロボットがベースステーションを中心とした同心円状に配置された状態で、複数のセンシングロボットおよびベースステーションが移動するように、ベースステーションによって制御される群ロボットシステムにおいて用いられる。フェロモンロボットは、ベースステーションとの通信により、複数のセンシングロボットがフェロモンロボットとベースステーションとの間に存在するように、複数のセンシングロボットのうちベースステーションからの距離が最も遠い位置にあるセンシングロボットの移動を制限する制御を行なう。
【0035】
このような構成にすることにより、複数のセンシングロボットを、ベースステーションによる制御が可能な範囲に位置するように、センシングロボットの移動を制限する制御を行なうことにより、センシングボットがベースステーションの指示が届かない位置に移動してしまうことによって、複数のセンシングロボットうちいずれかのセンシングロボットの制御が不能となることを抑制することにより、ベースステーションが停止している場合の探索範囲を広げることができる。
【0036】
本発明のフェロモンロボットは、より好ましくは、ベースステーションとの通信により複数のセンシングロボットのうちベースステーションからの距離が最も遠い位置にあるセンシングロボットの移動を制限する制御を行なう。
【0037】
このような構成にすることにより、複数のセンシングロボットのうちベースステーションからの距離が最も遠い位置にあるセンシングロボットがベースステーションの指示が届かない位置に移動してしまうことによって、複数のセンシングロボットのうちベースステーションからの距離が最も遠い位置にあるセンシングロボットの制御が不能となることを抑制することにより、ベースステーションが停止している場合の探索範囲を広げることができる。
【0038】
本発明のフェロモンロボットは、より好ましくは、通信体系が、ベースステーションを最上層として、複数のセンシングロボット同士で複数層を構成する階層構造をなすように設定された群ロボットシステムにおいて用いられ、ベースステーションとの通信により複数のセンシングロボットのうち階層構造の最下層にあるセンシングロボットの移動を制限する制御を行なう。
【0039】
このような構成にすることにより、階層構造の最下層にあるセンシングロボットがベースステーションの指示が届かない位置に移動してしまうことによって、階層構造の最下層にあるセンシングロボットの制御が不能となることを抑制することにより、ベースステーションが停止している場合の探索範囲を広げることができる。
【0040】
なお、コンピュータに、前述のフェロモンロボットを動作させるためのプログラムが実行されて、フェロモンロボットは群ロボットシステムにおいて機能する。なお、このプログラムは、CDROMなどの記録媒体に記録されていているものがロボットに読込まれてもよいとともに、インターネットなどの情報伝達網からインストールされてロボットに読込まれてもよい。
【0041】
本発明のフェロモンロボットは、より好ましくは、ベースステーションに対して指向性を有する通信機構を備えている。このような構成にすることにより、全方位に対して通信を行なう必要がないフェロモンロボットにおいて、より容易に正確な通信を実現することができる。
【0042】
【発明の実施の形態】
本実施の形態のロボットを含む群ロボットシステムを、図1〜図6を用いて説明する。本実施の形態のロボットを含む群ロボットシステムを、たとえば、1辺、最小数10メートルから最大数キロメートル平方の面積の部分から火事や人などの熱源の探索、COなどの有毒ガスや有毒放射線の探索、地雷などの金属探査、都市設計のためのVRデータ収集のための3次元の画像データの収集などを行なうものを例にして説明する。
【0043】
本実施の形態においては、都市全体の有毒ガスや有毒放射線の探索を行なう場合には、群ロボットが一度にすべての市街地を探索するのではなく、数分の1に分割された市街地を、ベースステーションを同心円状の中心に据えた、探索羽ばたきロボット群が目的物の探索を行なう。羽ばたきロボット群が、上記の数分の1に分割された市街地の、有毒ガスや有毒放射能の探索を終えると、ベースステーションが次の数分の1に分割された市街地の探索をするために、徐々に移動を始め、目的地の市街地区域に来るとベースステーションを停止する。
【0044】
ベースステーションの移動に追従して、フェロモンロボット、センシングロボットが移動を始める。ベースステーションが次の市街地区域で移動を停止すると、センシングロボット群は、ベースステーションを同心円状の中心にして、分割された市街地の有毒ガスや有毒放射線の探索を行なう。このようにして、本実施の形態の群ロボットシステムにおいては、分割された区域をロボット群で探索し、探索結果をベースステーションに送りながら、区域の探索終了後、全体のロボット群は、ベースステーション中心に移動しながら次の区域の探索を行なうことにより、この移動の動作を繰返しながら全体面積の探索を行なう。
【0045】
本実施の形態の群ロボットシステムについては、図1〜図6に基づいて説明すれば以下のとおりである。本実施の形態に使用する群ロボットシステム100は、図1に示すように、ベースステーションBS、複数の羽ばたきセンシングロボットCS、複数の羽ばたきフェロモンロボットFEとで構成されている。
【0046】
図1は、群ロボットシステムの全体イメージを模式的に描いたものである。図2において、群ロボットシステムのセンシングロボットCS同士およびセンシングロボットCSとベースステーションBSとの間の通信における階層構造と位置の関係を示す。本実施の形態においては、複数の羽ばたきセンシングロボットCSは、ベースステーションBSに最も近いグループ102(CS11〜CS1i)、次に近いグループ103(CS21〜CS2j)、最も遠いグループ104(CS31〜CS3k)の3個のグループに分かれている。本実施の形態では、3個のグループに分かれているが、3個のグループに限るものではなく、複数のグループが存在すればよい。
【0047】
ベースステーションBSから最も遠い羽ばたきセンシングロボット104(CS31〜CS3k)の時間あたりの移動距離は、次に遠い羽ばたきセンシングロボット103(CS21〜CS2j)に比べて大きい。つまり、羽ばたきセンシングロボット104(CS31〜CS3k)の羽ばたきの周波数が、羽ばたきセンシングロボット103(CS21〜CS2j)の羽ばたき周波数に比べて大きい。
【0048】
同様にして、センシングロボット103(CS21〜CS2j)の時間あたりの移動距離は、最もベースステーションBSに近いセンシングロボット102(CS11〜CS1i)に比べて大きい。つまり、羽ばたきセンシングロボット103(CS21〜CS2j)の羽ばたきの周波数が、羽ばたきセンシングロボット102(CS11〜CS1i)の羽ばたき周波数に比べて大きい。
【0049】
センシングの分解能については、すべてのセンシングロボットCSにおいて、センサの精度、サンプリング速度が同じである場合には、上記の単位時間あたりの移動距離との関係から、ベースステーションBS101から最も遠い羽ばたきセンシングロボット104(CS31〜CS3k)の目的物検出のための空間分解能は、次に遠い羽ばたきセンシングロボット103(CS21〜CS2j)が目的検出のための空間分解能に比べて低分解能である。
【0050】
つまり、ベースステーションBS101から最も遠い羽ばたきセンシングロボット104(CS31〜CS3k)は、次に遠い羽ばたきセンシングロボット103(CS21〜CS2j)に比べて、目的物検出のための位置検出の精度あるいは障害物の大きさの測定値の精度が粗くなる。
【0051】
同様にして、すべてのセンシングロボットCSにおいて、センサの精度、サンプリング速度が同じである場合には、上記単位時間あたりの移動距離との関係から、羽ばたきセンシングロボット103(CS21〜CS2j)の目的検出のための分解能は、ベースステーションBS101から最も近い位置にある羽ばたきセンシングロボット102(CS11〜CS1i)の目的物検出のための空間分解能に比べて低分解能である。
【0052】
つまり、センシングロボット103(CS21〜CS2j)は、ベースステーションBS101から最も近い位置にある羽ばたきセンシングロボット102(CS11〜CS1i)に比べて目的物検出のための位置検索の制度あるいは障害物の大きさの測定値の精度は粗くなる。
【0053】
上記の例では、サンプリング速度が同じで、単位時間あたりの移動距離の大きさから空間分解能に違いを出しているが、すべての羽ばたきセンシングロボットCSが、ほぼ同じ早さで移動している場合には、サンプリングの速度を変えることにより、空間分解能を変える方法ということも考えられる。
【0054】
あるセンシングロボットCSが目的物を検出すると、後述する方法によりベースステーションBS101に目的物の有無、位置情報などが伝えられる。伝えられた情報により、ベースステーションBS101が、目的物に向けて徐々に移動を始める。ベースステーションBS101の移動に伴い、ほぼ同心円状に存在するセンシングロボットCSも目的物に向かって移動する。ベースステーションBSに近いセンシングロボットCSほど空間分解能が高いため、ベースステーションBSが目的物に近づくに従い目的物検出のための位置検出の精度あるいは障害物の大きさのセンシング情報はより精度の高いものがベースステーションBSに送られる。
【0055】
あるいは、あるセンシングロボットCSが目的物を検出すると、検出したロボット自身が分解能を上げて、同時に後述する方法によりベースステーションBS101に目的物の有無、位置情報などが伝えられることが考えられる。つまり、検出したセンシングロボットは、目的物検出後、サンプリング速度を速くすることにより空間分解能を高くするあるいは羽ばたき周波数を落として分解能を高くする。その後、目的物検出信号がベースステーションBSに伝わることにより、ベースステーションBSからすべてのセンシングロボットCSに対し、サンプリング速度を速くすることにより分解能を高くするか、または、羽ばたき周波数を落とし分解能を高くすることが伝達され、目的物検出後は、目的物の一致検出の精度、または、障害物の大きさの情報のより精度の高いものがベースステーションBSに送られる。
【0056】
また、たとえば、センシングロボットCSは、目的物を検出するまでは超音波センサあるいは赤外線センサで検出を行ない、あるセンシングロボットCSが目的物を検出すると、検出したセンシングロボットCSは、センサの種類をCCDあるいはCMOSイメージセンサに変更し、目的物の詳細な全体画像情報を送信することができる。なお、他のセンサを搭載することが可能であれば、音声情報、温度情報、湿度情報、または、飛行区域の雰囲気の状態(ガスの種類など)等の探索に関する情報を送信してもよい。
【0057】
同時に後述する方法によりベースステーションBS101に目的物の有無、位置情報などが伝えられることにより、検出したセンシングロボットCSが属する上位のセンシングロボットCSに同じように支配される、目的物の周辺のセンシングロボットCSのセンサの種類を、CCDあるいはCMOSイメージセンサに変更することにより、短時間で効率的に目的物の詳細な全体画像情報を送付することができる。
【0058】
また、たとえば、センシングロボットCSは、目的物を検出するまではエッジ検出の画像処理を行ない、あるセンシングロボットCSが目的物を検出すると、検出したセンシングロボットCSは、色検出処理に変更することも考えられる。つまり、センサのハードウェアは同じで、目的物検出後は、センサ情報の処理の方法を変える結果である。
【0059】
また、センシングロボットCSが、目的物を検出せずとも、決められたセンシングロボットCS群による予め決められた面積のスキャン作業が終了するまでは、センシングロボットCSの空間分解能やセンサの種類、画像処理の方法は変更せず、予め決められた面積のスキャン作業が終了し、検出信号があった場合に同じ場所を、センシングロボットCS群で、センサの空間分解能やセンサの種類、画像処理の方法を変更して再度目的値の違った情報の検出作業を行なうことも考えられる。
【0060】
図1〜図3に示すように、ベースステーションBS101と複数のセンシングロボットとの間の通信構造は、階層構造になっている。より具体的には、図3に示すように、1つのセンシングロボットCSにはベースステーションBS101からの通信ルートが必ず1つとなるツリー構造になっている。ベースステーションBS101は、同心円状にベースステーションに最も近いグループであるセンシングロボット102(CS11〜CS1i)の通信を行なう。上流であるベースステーションBSからは、羽ばたきセンシングロボット102(CS11〜CS1i)に対しては、羽ばたき周波数、方向などの羽ばたきの変更点が送信される。下流であるセンシングロボット102(CS11〜CS1i)からは、目的物の有無、位置情報などがベースステーションBSに送信される。
【0061】
次に、センシングロボット102(CS11〜CS1i)は、隣で接しているグループであるセンシングロボット103(CS21〜CS2j)と通信を行なう。上流であるセンシングロボット102(CS11〜CS1i)からは、センシングロボット103(CS21〜CS2j)に対して、ベースステーションBS101からセンシングロボット102(CS11〜CS1i)に送信されたセンシングロボット103(CS21〜CS2j)用の羽ばたき周波数、方向などの羽ばたきの変更点が送信される。逆に下流であるセンシングロボット103(CS21〜CS2j)からは、目的物の有無、位置情報などがセンシングロボット102(CS11〜CS1i)に送信される。
【0062】
次に、センシングロボット103(CS21〜CS2j)は、隣で接しているグループであるセンシングロボット104(CS31〜CS3k)と通信を行なう。上流であるセンシングロボット103(CS21〜CS2j)からは、センシングロボット104(CS31〜CS3k)に対して、ベースステーションBS101からセンシングロボット102(CS11〜CS1i)を介してセンシングロボット103(CS21〜CS2j)に送信されたセンシングロボット104(CS31〜CS3k)用の羽ばたき周波数、方向などの羽ばたきの変更点が送信される。逆に下流であるセンシングロボット104(CS31〜CS3k)からは、目的物の有無、位置情報などが上位のセンシングロボット103(CS21〜CS2j)に送信される。
【0063】
つまり、目的物がセンシングロボットCS31の探索域で検出された場合、検出信号が上位のセンシングロボットCS21に伝えられ、センシングロボットCS21からより上位のセンシングロボットCS11に伝えられる。そして、最後のセンシングロボットCS11からベースステーションBSに目的物の検出が伝えられる。ベースステーションBSの通信強度は、すべての羽ばたきセンシングロボットCSの通信エリアをカバーする通信強度である必要がなく、ベースステーションを取巻く同心円状の最も近いグループのセンシングロボットCS群のみの通信を確保できる通信強度さえあればよい。よって、すべてのセンシングロボットとの通信を確保できる通信強度に比べ、弱い通信強度でよく、通信のための消費電力が少なくて済む。
【0064】
羽ばたきセンシングロボットCS11とベースステーションBSとの通信強度が予め決められた強度を下回った場合、羽ばたきセンシングロボットCS11は、通信強度が再度予め定められたレベルを超えるまで、ベースステーションBS側に移動する。同様に上位の羽ばたきセンシングロボットCSがセンシングロボット102(CS11〜CS14)であり、下流の羽ばたきセンシングロボットCSがセンシングロボット103(CS21〜CS24)である場合であっても同様に、通信強度が再度予め定められたレベルを超えるまで、センシングロボット103(CS21〜CS24)が移動する。
【0065】
また、上記の例では、下位用のセンシングロボットCSは通信強度が予め定められたレベルより強くなるまで移動したが、階層構造において互いに上下となる層のセンシングロボットCS同士の間の通信強度またはベースステーションBSとセンシングロボットCSとの間の通信強度が略同一となるように定めておき、互いの通信強度が予め決められたレベルを下回った場合には、センシングロボットCSとその上位のセンシングロボットCSとのお互いの通信強度をある基準値になるまで上げることにより、上位にあるセンシングロボットとそのセンシングロボットCSの支配下にある下位のセンシングロボットCSとの間の通信強度を確保してもよい。
【0066】
図2において、本実施の形態の群ロボットシステムの、ベースステーション、センシングロボットおよびフェロモンロボットの階層構造およびその位置の関係を示す。
【0067】
ベースステーションBSを中心として、ベースステーションBSの通信範囲を示す円内(BC2)に、ベースステーションBSが支配するセンシングロボットCS1iが存在する。次に、センシングロボットCS1iを中心として、センシングロボットCS1iの通信範囲を示す円内(C1)にセンシングロボットCS1iが支配するセンシングロボットCS2jが存在する。
【0068】
同じように、センシングロボットCS2jを中心として、センシングロボットCS2jの通信範囲を示す円内(C2)に、センシングロボットCS2jが支配するセンシングロボットCS3kが存在する。センシングロボットCS2jの通信支配円内には、CS2jが支配する複数のセンシングロボットCS3kが存在することになる。
【0069】
センシングロボットCS3kが、最も外側に位置するセンシングロボットCSである場合には、センシングロボットCS3kは、フェロモンロボットFEにも支配されることになる。つまり、センシングロボットCS3kは、フェロモンロボットを中心として、フェロモンロボットFEの通信範囲を示す円内(FC2)に存在する。
【0070】
フェロモンロボットFEとベースステーションBSの通信強度は、他の通信強度に比べて大きなパワーで通信を行なっている。上記のフェロモンロボットFEは、ベースステーションBSを中心にした場合、基本的に探索分割区域の最も外側に存在する。フェロモンロボットFEはベースステーションBSを中心として、ベースステーションBSとフェロモンロボットFE用の強い通信範囲を示す円内(BC1)に存在する。フェロモンロボットFEからベースステーションBSへの通信範囲は、全方位をカバーする必要がないため指向性が強い楕円型になる(FC1)。
【0071】
フェロモンロボットFE群105について説明する。フェロモンロボットFE群105は、ベースステーションBS101を中心にした場合、センシングロボット群100の外側に位置し、センシングロボットCSの移動制御用であり、また、探索範囲を決定するロボットである。つまり、センシングロボットCSは、ベースステーションBS101とフェロモンロボットFE105との間に存在することになる。フェロモンロボットFE105の上位のロボットは、ベースステーションBS101であり、下位のロボットは、ベースステーションBS101の同心円状で最も外側に位置するセンシングロボット群104(CS31〜CS3k)である。
【0072】
例では、センシングロボット群104(CS31〜CS3k)である。フェロモンロボットFE105と下流であるセンシングロボット104(CS31〜CS3k)との通信強度は、ベースステーションBSとセンシングロボットCSおよびセンシングロボットCS同士の間の通信強度と同じであるが、フェロモンロボットFE105とベースステーションBS101との通信強度は、他の通信強度に比べて大きなパワーで通信を行なっている。
【0073】
たとえば、本実施の形態の群ロボットシステムにおいては、フェロモンロボットFEとベースステーションBSとの最大通信距離が、ベースステーションBSと階層構造の最上層にあるセンシングロボット(CS11〜CS1i)との間の最大通信距離と、フェロモンロボットFEと階層構造の最下層にあるセンシングロボット(CS31〜CS3k)との間の最大通信距離と、複数のセンシングロボットCS同士の間の最大通信距離の和とを加えた距離よりも大きくなるように設定することが好ましい。それにより、階層構造の最下層のセンシングロボット(CS31〜CS3k)までのベースステーションBSからの通信可能距離を直線にして、それぞれが有する通信距離を最大限利用して、効率的にセンシングロボットCSを使用することができる。
【0074】
ベースステーションBS101は、ベースステーションBS101を中心としたほぼ同心円状の探索部分の外径部分に、フェロモンロボットFEnを配置し、探索部分を決定する。次に、階層構造の数に応じて、同心円状の階層範囲を決定する。次に、階層の中の羽ばたきセンシングロボットの数に応じたセルの範囲(階層構造における同層のセンシングロボットそれぞれの探索範囲)を決定し、センシングロボットの探索空間分解能を決定する。最後に下位操作による同心円の半径の差、同心円で表されたセンシングロボット各々が探索する範囲を規定するセルのセル面積に応じたベースステーションBSとセンシングロボットCSおよびセンシングロボットCS同士間の通信強度を決定する。
【0075】
探索区域を変更する場合、ベースステーションBS101は、ベースステーションBS101の移動距離と移動方向とを、まず、フェロモンロボットFE105に通信する。その後、ベースステーションBS101は、センシングロボット102(CS11〜CS1i)に移動距離と方向を送信する。それにより、図1の矢印の方向にベースステーションBS101が移動することに伴って、群ロボットシステム全体が図1の矢印の方向に移動することになる。
【0076】
より具体的には、ベースステーションBSから群ロボットシステム全体の移動を示す信号を受信したセンシングロボット102(CS11〜CS1i)は、移動距離と移動方向とを、下位のセンシングロボット103(CS21〜CS2j)に送信後に、図1の矢印の方向に自らが移動する。一方、フェロモンロボットFE105は、移動距離と移動方向とを最下位のセンシングロボット104(CS31〜CS3k)に送信後、ベースステーションBSと同じように図1の矢印の方向に移動する。
【0077】
このように、探索空間を変更する場合、ベースステーションBSからセンシングロボットCS、上位のセンシングロボットCSから下位のセンシングロボットCSへの上流から下流への移動情報の伝達と、フェロモンロボットFEからセンシングロボットCS、下位のセンシングロボットCSから上位のセンシングロボットCSへの下流から上流への移動情報の伝達がほぼ同時に流れる。
【0078】
探索エリアの最も外側に位置するフェロモンロボット105は、センシングロボットの最も外側にあるグループ(すなわち、階層構造の最下層)のセンシングロボット104(CS31〜CS3k)を直接の管理下に置く。フェロモンロボットFEは、PN符号で特定されるセンシングロボットFEを常に通信圏内に置く。
【0079】
たとえば、監視下の羽ばたきセンシングロボットCS3kとフェロモンロボットFE105との通信強度が予め定められたレベルを下回った場合、羽ばたきセンシングロボットCS3kは、通信強度が再度予め決められたレベルを超えるまで、フェロモンロボットFE側105に移動する。また、フェロモンロボット105は、ベースステーションBS101の監視下にあるため、通信の同期遅延によりベースステーションBSからの距離を制御し、常にベースステーションBS101からの決められた距離をほぼ守ることができる。その結果、群全体の探索エリアを、常に同じように定めることができる。
【0080】
図3において、階層構造の通信体系における信号の流れを示す。
図の実線は、動き制御信号(ダウンストリーム)、検出信号(アップストリーム)、点線は電力信号を示す。
【0081】
羽ばたきセンシングロボットとベースステーションとの間、羽ばたきセンシングロボット同士の間の通信は、双方向通信である。上流から下流への信号は、ロボット羽ばたき周波数、方向などのセンシングロボットの動き制御信号あるいはセンサ制御のための制御信号である。下流から上流への信号は、目的物の有無、位置情報などの検出信号である。また、コントロールする上流ロボットとコントロールされる下流ロボットとの通信における連鎖の関係は、1対多あるいは1対1、すなわち、全体としてツリー構造の通信ルートとなるようになっている。これにより、ベースステーションBSからのそれぞれのセンシングロボットCSへの通信ルートが必ず1つになるようになるため、通信系統の混乱が生じ難くなっている。
【0082】
ベースステーションBSとフェロモンロボットFEとの間の通信も、双方向通信である。ベースステーションBSからフェロモンロボットFEへの信号は、ベースステーションBSの移動の早さ、方向信号である。フェロモンロボットFEは、この信号に基づき、自身の移動の早さおよび方向を決定し、センシングロボットCSに羽ばたき周波数、方向などの制御信号を送信する。フェロモンロボットFEからベースステーションBSへの信号は、受信電力測定用の信号である。
【0083】
ベースステーションBSでフェロモンロボットFEからの送信信号を受信し、その電力を測定することにより、間接的にベースステーションBSとフェロモンロボットFEとの間の距離の大きさを想定し、電力の大きさにより、フェロモンロボットFEを近づけさせたりベースステーションBSからフェロモンロボットFEへの送信信号を強くしたりする。また、ベースステーションBSとフェロモンロボットFEとの数の関係は1対多あるいは1対1である。
【0084】
フェロモンロボットFEと羽ばたきセンシングロボットCSとの間の通信も、双方向通信である。フェロモンロボットFEからセンシングロボットCSへの信号は、ロボットの羽ばたき周波数および方向などのセンシングロボットCSの動き制御信号あるいはセンサ制御のための制御信号である。羽ばたきセンシングロボットCSからフェロモンロボットFEへの信号は、受信電力測定用の信号である。
【0085】
フェロモンロボットFEでセンシングロボットCSからの送信信号を受信し、その電力を測定することにより、間接的にフェロモンロボットFEとセンシングロボットCSとの間の距離の大きさを想定し、電力の大きさより、センシングロボットCSをフェロモンロボットFEに近づけさせたりする。また、フェロモンロボットFEとセンシングロボットCSとの数の関係は、1対多あるいは1対1である。
【0086】
図4に、階層構造の群ロボットシステムにおけるロボット群の移動手順の例をフローで示す。
【0087】
まず、動き制御信号の流れを図4(a)を用いて説明する。この図4(a)において、横の実線は動き制御信号の流れを示すものであり、点線は電力信号の流れを示すものであり、縦の実線は時間遅延を示すためのものである。
【0088】
最初に、ベースステーションBSからセンシングロボットCS11とセンシングロボットCS12に、羽ばたきセンシングロボットとしての羽ばたき周波数、方向などのセンシングロボットCSの動き制御信号、または、センサ制御のための制御信号が伝えられる。同時に、ベースステーションBSからフェロモンロボットFEにベースステーションBSの移動の速さ、方向が伝えられる。フェロモンロボットFEからベースステーションBSには、ベースステーションBSとフェロモンロボットFEとの間の距離測定用の電力測定用の信号が送られる。
【0089】
次に、センシングロボットCS11は、センシングロボットCS20、CS21に、羽ばたきセンシングロボットとしての羽ばたき周波数および方向などのセンシングロボットの動き制御信号、または、センサ制御のための制御信号を伝える。センシングロボットCS12は、センシングロボットCS22に、ロボットの羽ばたき周波数および方向などのセンシングロボットCSの動き制御信号あるいはセンサ制御のための制御信号を伝える。
【0090】
また、フェロモンロボットFE1は、センシングロボットCS30、CS31に、羽ばたきセンシングロボットとしての羽ばたき周波数および方向などのセンシングロボットCSの動き制御信号あるいはセンサ制御のための制御信号を伝える。
【0091】
フェロモンロボットFE2は、センシングロボットCS32、CS33、CS34に、羽ばたきロボットとしての羽ばたき周波数および方向などのセンシングロボットCSの動き制御信号あるいはセンサ制御のための制御信号を伝える。センシングロボットCS30、CS31からフェロモンロボットFE1には、センシングロボットCS30、CS31とフェロモンロボットFE1間の距離測定用の電力測定用の信号が送られる。
【0092】
センシングロボットCS32、CS33、CS34からフェロモンロボットFE2には、センシングロボットCS32、CS33、CS34とフェロモンロボットFE2間の距離測定用の電力測定用の信号が送られる。
【0093】
最後に、センシングロボットCS20は、センシングロボットCS30、CS31に、ロボットの羽ばたき周波数および方向などのセンシングロボットの動き制御信号またはセンサ制御のための制御信号を伝える。センシングロボットCS21は、センシングロボットCS32、CS33、CS34に、ロボットの羽ばたき周波数および方向などのセンシングロボットCSの動き制御信号またはセンサ制御のための制御信号を伝える。
【0094】
次に、図4(b)を用いて検出信号の流れを説明する。図4(b)において、横の実線は検出信号の流れを示すものであり、縦の実線は時間遅延を示すためのものである。
【0095】
まず、センシングロボットCS30、CS31からのセンシングロボットCS20に目的物の有無、位置情報などの検出信号が伝えられる。センシングロボットCS32、CS33、CS34からのセンシングロボットCS21に、目的物の有無、位置情報などの検出信号が伝えられる。
【0096】
次に、センシングロボットCS20からセンシングロボットCS11に目的物の有無、位置情報などの検出信号が伝えられる。センシングロボットCS21、CS22からセンシングロボットCS12に、目的物の有無および位置情報などの検出信号が伝えられる。
【0097】
最後に、センシングロボットCS11、CS12からベースステーションBSに、目的物の有無および位置情報などの検出信号が伝えられる。
【0098】
例では、センシングロボットCS3kの層から、情報が上がってきているが、センシングロボットCS2j、CS1iの層で目的物を検出した場合には、当然その検出した層から情報が始まり、ベースステーションBSに情報が上がってくる。
【0099】
なお、羽ばたきセンシングロボットCSとベースステーションBSとの間、羽ばたきセンシングロボットCS同士の間、ベースステーションBSとフェロモンロボットFEとの間の通信方式は、同期通信方式であるスペクトラム拡散通信方式により行なう。このスペクトラム拡散通信方式を、図5および図6に基づいて説明すれば以下のとおりである。
【0100】
本実施の形態の群ロボットシステムのロボット群は、基本的に同期確定のためのA層、上流ロボットとの通信のためのB層、下流ロボットの通信のためのC層の3層の通信層を持っている。A層のPN符号については、ベースステーション101、センシングロボットCS群102,103,104、フェロモンロボットFE105のいずれも同じ符号0である。符号0は、たとえば、256タップのPN(Pseudorandom Noise)符号の1つであるとする。
【0101】
まず、ベースステーションBS101と下流のセンシングロボット群102(CS11〜CS1i)との通信を説明する。ベースステーションBS101はA層の通信として、スペクトラム拡散によりPN符号0を、センシングロボット群102(CS11〜CS1i)に通信する。センシングロボット102(CS11〜CS1i)は、受信波に同じPN符号である符号0を乗算することにより逆拡散する。マッチドフィルタなどにより逆拡散することにより、PN符号を1周期分逆拡散すると、必ずPN符号がマッチする同期点が見つかる。
【0102】
図5の▲1▼が、ベースステーションBS101の同期時間とすると、センシングロボット群102(CS11〜CS1i)での同期点(時間)が、▲2▼のように、ベースステーションBS101とセンシングロボット群102(CS11〜CS1i)との距離分だけ遅れた時間でマッチドフィルタのピークがあり、同期が見つかる。
【0103】
同様にして、センシングロボット群102(CS11〜CS1i)が、A層の通信として、スペクトラム拡散によりPN符号0を、センシングロボット群103(CS21〜CS2j)に送信する。ベースステーションBS101とセンシングロボット群103(CS21〜CS2j)との間の距離は、ベースステーションBS101とセンシングロボット102(CS11〜CS1i)との間の距離に、センシングロボット102(CS11〜CS1i)とセンシングロボット103(CS21〜CS2j)との間の距離が加算されるため、センシングロボット102(CS11〜CS1i)よりもさらに遅れたセンシングロボット103(CS21〜CS2j)の同期点は、図5の▲3▼になる。
【0104】
また、同様にして、センシングロボット群103(CS21〜CS2j)はA層の通信としてスペクトラム拡散によりPN符号0を、センシングロボット104群(CS31〜CS3k)に通信する。ベースステーションBS101と、センシングロボット群104(CS31〜CS3k)の距離は、ベースステーションBS101とセンシングロボット103(CS21〜CS2j)の距離に、センシングロボット103(CS21〜CS2j)とセンシングロボット104(CS31〜CS3k)との間の距離が加算されるため、センシングロボット103(CS21〜CS2j)よりもさらに遅れたセンシングロボット群104(CS31〜CS3k)の同期点は、図5の▲4▼になる。
【0105】
ベースステーションBS101と、後で説明する移動制御用のフェロモンロボットFE105の距離は、ベースステーションBS101とセンシングロボットCS群104(CS31〜CS3k)との間の距離よりも大きいため、センシングロボットCS群104(CS31〜CS3k)よりもさらに遅れたフェロモンロボット105の同期点は、図5の▲5▼になる。
【0106】
上記の各々のロボットの同期点の確定は、断続的に繰返され、同期点は常に更新される。センシングロボット102(CS11〜CS1i)の同期点は、図5の▲2▼になる。
【0107】
センシングロボット102(CS11〜CS1i)は、上流であるベースステーションBS101との通信の確立用に、B層のPN符号10により逆拡散、復調する。B層のPN符号の同期点は、A層の符号0により確定された図5の▲2▼である。また、センシングロボット102(CS11〜CS1i)のB層のPN符号10は、ベースステーションBS101の下流のセンシングロボットとの通信確立用のC層のPN符号10と同じである。つまり、ベースステーションBS101のC層と同じPN符号10を、B層で使っているセンシングロボット(CS11〜CS1i)群102のみが、ベースステーションBSと通信することができる。
【0108】
図6の例では、CS1(i−2)、CS1(i−1)、CS1iのB層は、符号10であるため、ベースステーションBSと通信ができるが、B層のPN符号が符号10でないセンシングロボットCSは、符号10との相関ピークが検出されないためベースステーションBSとは通信できない。
【0109】
センシングロボット102(CS11〜CS1i)には、下流であるセンシングロボット103(CS21〜CS2j)との通信の確立用に、C層のPN符号20、符号21、符号22により逆拡散、復調する。C層のPN符号の同期点は、A層の符号0により確定された図5の▲2▼である。また、センシングロボット102(CS11〜CS1i)のC層のPN符号20,21,22は、センシングロボット103(CS21〜CS2j)の上流のセンシングロボットとの通信の確立用のB層のPN符号20,21,22と同じである。
【0110】
つまり、センシングロボット103(CS21〜CS2j)のB層と同じPN符号を、C層で使っているセンシングロボット102(CS11〜CS1i)のみが、下流であるセンシングロボット103(CS21〜CS2j)と通信することができる。たとえば、CS1(i−2)が、CS2(j−3)と、CS2(j−2)と通信可能であり、CS1(i−1)が、CS2(j−1)と通信可能であり、CS1iは、CS2jと通信可能である。
【0111】
センシングロボット103(CS21〜CS2j)の同期点は、図5の▲3▼になる。センシングロボット103(CS21〜CS2j)は、上流であるセンシングロボット102(CS11〜CS1i)との通信の確立用に、B層のPN符号20,21,22により逆拡散、復調する。B層のPN符号の同期点は、A層の符号0により確立された図5の▲3▼である。センシングロボット103(CS21〜CS2j)とセンシングロボット102(CS11〜CS1i)の通信については、前述で説明しているためここでは省略する。
【0112】
センシングロボット103(CS21〜CS2j)は、下流であるセンシングロボット104(CS31〜CS3k)との通信の確立用に、C層のPN符号31,32,33により逆拡散、復調する。C層のPN符号の同期点は、A層の符号0により確立された図5の▲3▼である。また、センシングロボット103(CS21〜CS2j)のC層のPN符号30,31,32,33は、センシングロボット104(CS31〜CS3k)の上流のセンシングロボットCSの通信の確立用のB層のPN符号30,31,32と同じである。
【0113】
つまり、センシングロボット104(CS31〜CS3k)のB層と同じPN符号を、C層で使っているセンシングロボット103(CS21〜CS2j)のみが、下流であるセンシングロボット104(CS31〜CS3k)と通信することができる。たとえば、CS2(j−3)は、CS3(k−3)、CS3(k−2)、CS3(k−1)と通信可能であり、CS2(j−2)は、CS3kと通信可能であり、CS1iは、CS2jと通信可能である。
【0114】
センシングロボット104(CS31〜CS3k)の同期点は、図5の▲4▼になる。センシングロボット104(CS31〜CS3k)は、上流であるセンシングロボット103(CS21〜CS2j)との通信の確立用に、B層のPN符号30,31により逆拡散および復調する。B層のPN符号の同期点は、A層の符号0により確立された図5の▲4▼である。センシングロボット104(CS31〜CS3k)とセンシングロボット103(CS21〜CS2j)の通信については、前述で説明しているためここでは省略する。
【0115】
フェロモンロボットFE105は、上流であるベースステーションBS101と通信の確立用に、B層のPN符号10により逆拡散および復調する。B層のPN符号の同期点は、A層の符号0により確定された図5の▲5▼である。A層の同期のためのPN符号は他のセンシングロボットCSと同じ符号0である。B層のPN符号10は、ベースステーションBSの下流のセンシングロボットCSとの通信の確立用のC層のPN符号10と同じである。B層のPN符号が符号10でない場合は、フェロモンロボットFEは、ベースステーションBSの符号10と相関ピークが検出されないため、ベースステーションBSと通信できなくなる。
【0116】
フェロモンロボットFEnには、下流であるセンシングロボット104(CS31〜CS3k)との通信の確立用に、C層のPN符号40により逆拡散および復調する。C層のPN符号の同期点は、A層の符号0により確立された図5の▲5▼である。また、フェロモンロボットFEnのC層のPN符号40は、最も外側に位置するセンシングロボット104(CS31〜CS3k)とフェロモンロボットFEの通信確立用のC層のPN符号40と同じである。
【0117】
つまり、センシングロボット104(CS31〜CS3k)のC層と同じPN符号を、C層で使っているフェロモンロボットFEnのみが、下流であるセンシングロボット104(CS31〜CS3k)と通信することができる。図6の例では、フェロモンロボットFEnは、センシングロボットCS3(k−3)、CS3(k−2)、CS3(k−1)と通信可能であり、CS3kとは拡散符号が違うため通信できない。
【0118】
なお、スペクトラム拡散通信の詳細については、著者:山内雪路、出版局:東京電機大学出版局のスペクトラム拡散通信(次世代高性能化に向けて)に記載されており、本実施の形態のスペクトラム拡散通信においては、一例として本願の発明者らにより発明されたスペクトラム拡散通信装置(特開平11−168407号公報)を適用することとする。
【0119】
次に、上記の群ロボットシステムに用いる羽ばたきセンシングロボット1体を制御するための制御システム(羽ばたきセンシングロボット1体とベースステーションとの関係)を説明する。なお、ここでは、ベースステーションBSによるセンシングロボットCSの制御の一例として、ベースステーションBSが直接センシングロボットCSを制御する場合のみを示すが、ベースステーションBSが階層構造の上層のセンシングロボットCSを介して下層のセンシングロボットCSを制御する場合には、以下の例で示す制御信号を用いて、より上層のセンシングロボットCSからより下層のセンシングロボットCSへと羽ばたき動作等に関する制御信号が伝達されるとともに、より下層のセンシングロボットCSからより上層のセンシングロボットCSへとセンサにより得られた信号が伝達される。
【0120】
(システム構成)
まず、本実施の形態の羽ばたきセンシングロボット1体におけるシステムの構成を、図7を用いて説明する。
【0121】
本実施の形態における羽ばたきセンシングロボットの制御システムは、たとえば、図2に示す探索区域Cの一例としての作業空間92と、作業空間92に配置された、この空間内を浮上移動することができ、この空間内における物理量を取得もしくは変更できる羽ばたきセンシングロボットCSの一例としてのロボット90と、ロボット90と情報を交換できるベースステーションBSの一例としてのベースステーション91とからなる。
【0122】
以下においては、たとえば、本発明の探索の対象物を人として説明する。
たとえば、本実施の形態の羽ばたきセンシングロボットCSの一例としてのロボット90は、自身に搭載された赤外線センサによって赤外線量を取得することによって、探索対象としての人93を検出し、検出された人93に対して発光ダイオード8を用いて可視光を照射することによって人93に何らかの情報を報知することが可能である。
【0123】
(本実施の形態の羽ばたきセンシングロボットの詳細な説明)
(ロボット90の説明)
(主要な構成と主要な機能)
まず、本発明のセンシングロボットの一例としてのロボット90の主要な構成について図8を用いて説明する。
【0124】
図8に示すように、ロボット90は支持構造1を主構造とし、これに各構成部品が配されている。支持行動1の上部には、右アクチュエータ21と左アクチュエータ22とが固定されている。右アクチュエータ21には右羽根31が取付けられ、左アクチュエータ22には左羽根32が取付けられている。また、下部に電極61が配されている。
【0125】
各アクチュエータ21,22はそれぞれ取付けられた羽31,32をアクチュエータの支点をほぼ中心として3自由度をもって回転させることができる。各アクチュエータ21,22の回転は、支持構造1に搭載された制御回路4によって制御される。各アクチュエータの詳細な構造については後述する。
【0126】
なお、図8の状態におけるロボット90の重心Oは、左右アクチュエータ21,22の回転中心の中点A0よりも鉛直下方にある。また、支持構造1には、加速度センサ51、角加速度センサ52、および、焦電型赤外線センサ53が搭載されている。また、支持構造1には通信装置7が配されている。通信装置7はベースステーション91との情報の送受信を行なう。
【0127】
制御装置4では、加速度センサ51および角加速度センサ52から送られてくる情報によって羽ばたきセンシングロボットとしのロボット90の浮上の状態が検知されるとともに、焦電型赤外線センサ53から送られてくる情報によって、焦電型赤外線センサ検出領域531内における発熱源の情報が取得される。そして、これらの情報が、通信装置7を介してベースステーション91に送信される。
【0128】
また、制御装置4は支持構造1に配された発光ダイオード8のON/OFFを制御する。また、通信装置7はベースステーションからの指示信号を受信する。制御装置4は、この指示信号に応じて各アクチュエータ21,22や発光ダイオード8の動作を算出し、それぞれの駆動を決定する。左右アクチュエータ21,22、制御装置4、センサ51〜センサ53、通信装置7、発光ダイオード8などの駆動動力は電源6により供給される。
【0129】
電源6は、2次電池であり、電極61を経由して供給される電力によって充電される。また、電極61は、位置決めピンの役割も兼ねており、ベースステーション91における位置決め穴に決まった姿勢で定位が可能である。
【0130】
なお、図7においては、電極61は、正極、負極の2本のピンからなっているが、充電状態検出用ピンなどを含む3本以上のピンからなる構成も可能である。
【0131】
(支持構造)
次に、支持構造1について図8を用いてより詳細に説明する。
【0132】
支持構造1は、機械的強度を確保した上で十分軽量であることが好ましい。この羽ばたきセンシングロボットとしてのロボット90の支持構造1では、ほぼ球殻状に整列したポリエチレンテレフタレート(PET)が用いられている。支持構造1下部には、着地の際に転倒せぬよう、支持脚11が配されている。この支持脚11は、着地時の安定性が確保されるか、もしくは、着地時の安定性が機能的に問題にならないのであればこれは必須ではない。
【0133】
また、支持構造1の材料や形状は飛行に性能を損なわないならば、図8に示すものに限られるものではない。支持構造1の材料は特に、軽量で剛性が高いことが望ましい。
【0134】
たとえば、カニやエビなどの生物に使われているキトサンなどの有機物と、シリカゲルなどの無機物とを分子レベルでハイブリッド化した複合材料を用いることにより、カニやエビの外骨格が持っている軽くて丈夫な性質を持ってはいるが、形状加工が容易で、生物が本来持っている最適な組成値をそのまま転用することができる。また、環境に対しても害が少ない。
【0135】
また、貝殻の材料である炭酸カルシウムを前述のキトサンの代わりに用いることでも、剛性の高い支持構造を構築することができる。
【0136】
また、アクチュエータや羽根の配置形状についても、本実施の形態に示した態様に限られるものではない。
【0137】
特に、本実施の形態では、浮上の安定性を重視して、自然に図8に示した姿勢となるように、重心の位置を羽根の力学的作用中心点よりも下に位置させたが、重心と力学的作用点の位置とを一致させる方が姿勢制御に必要な左右の羽根の流体力の差が最も小さくて済むので、ロボット90の姿勢を容易に変更することができる。よって、アプリケーションによってはこのような姿勢制御の容易さを優先した設計も考えられる。
【0138】
(浮上機構)
(羽根とその動作)
次に、羽根とその動作について図9〜図11を用いて説明する。
【0139】
説明の簡便のため、図8における座標系を定義する。まず、支持構造1のほぼ中央を原点とする。また、重力加速度の方向を下方向、その逆を上方向とする。原点から上方向に向かってz軸を定義する。次に、右アクチュエータ21の形状中心と左アクチュエータ22の形状中心とを結ぶ方向を左右方向とし、原点から左羽根に向かってy軸を定義する。また、原点からy軸とz軸との右手系における外積方向にx軸を定義し、以後これを前方、その反対方向を後方と称する。
【0140】
また、図8は、右羽根31の右アクチュエータ21に対する力学的作用点A1と、左羽根32の左アクチュエータ22に対する力学的作用点A2の中点A0から重力加速度方向に下ろした線上に羽ばたきセンシングロボットの一例としてのロボット90の重心Oが位置する状態である。本実施の形態においては、左アクチュエータのロータ229はほぼ球状であり、主軸321の延長線上にこのロータ229の球心が位置するように左羽根32が配置されている。左アクチュエータ22に対する力学的作用点A2および主軸321の回転運動の支点はこの球心に位置している。右アクチュエータ21についても同様である。
【0141】
以後、前述したx軸、y軸、z軸は図8の状態において支持構造1に対して固定された、ロボット90固有の座標系であるとする。
【0142】
一方、ロボット90の固定された座標系に対して、空間に固定された任意の点を原点とする空間座標としてx′軸、y′軸およびz′軸を定義する。これにより、ロボット90が移動する作業空間92の座標はx′軸、y′軸およびz′軸のそれぞれの座標を用いて表わされ、ロボット90における固有の座標はx軸、y軸およびz軸のそれぞれの座標を用いて表わされる。
【0143】
次に、羽根の構造について説明する。たとえば、左羽根32は主軸321の枝322が生えた支持部材に、膜323を張ることで形成されている。主軸321は左羽根322において前方寄りの位置に配されている。また、枝322は先に行くほど下方に向いている。
【0144】
左羽根32は上に凸状の断面形状を有する。これによって、特に打ち下ろしの際に流体から受ける力に対して高い剛性が得られる。主軸321と枝322は軽量化のため、それぞれカーボングラファイトの中空構造となっている。膜323はその内面において収縮する方向に自発的な張力を有しており、羽根全体の剛性を高める働きをしている。
【0145】
本発明者らが実験に用いた羽根の主軸321の直径は、支持構造1に支持された根元の部分では100μm、先端部では50μmであり、主軸321は根元から先端部へ向かって細くなったテーパ形状である。また、膜323はポリイミドであり、大きさは前後方向約1cm、左右方向約4cm、厚さは約2μmである。
【0146】
なお、図9に示された左羽根32では、説明のために主軸321はその太さが拡大されている。図示されていない右羽根31はxz平面を挟んで左羽根32と鏡面対称になるように支持構造に取付けられている。
【0147】
次に、羽根の動作の表現について左羽根32を例に挙げて説明する。
左アクチュエータ22は、左羽根32を回転3自由度で動かすことが可能である。つまり、左羽根32の駆動状態は、その姿勢で表わすことができる。以後説明の簡便のため、左羽根32の姿勢を、図8の状態に基づき以下のように定義する。
【0148】
まず、図10に示すように、軸の回転運動の支点(力学的作用点A2)と、x軸およびy軸にそれぞれ平行な軸(//x、//y)を含むxy平面に平行な平面を基準として、点A2と左羽根32の主軸321の根元を結ぶ線分がその平面となす角度を、羽ばたきのストローク角θとする。また、軸の回転運動の支点(力学的作用点A2)と、y軸およびz軸それぞれに平行な軸(//y、//z)を含むyz平面に平行な平面を基準として、点A2と左羽根32の主軸321の根元とを結ぶ線分がその平面となす角度を偏角αとする。
【0149】
このとき、ストローク角θはxy平面に平行に平面より上方では正とし、下方では負とする。また、偏角αはyz平面に平行な平面よりも前方では正とし、後方では負とする。
【0150】
そして、図11に示すように、左羽根32の主軸321の根元における膜323の接平面p1が、点A2を通りx軸と平行な軸(//x)と主軸321を含む平面p0とをなす角度をねじり角βとする。このときねじり角βは主軸321の根元から先端に向かって見たときの時計回りを正とする。
【0151】
(アクチュエータ)
次に、アクチュエータについて図12および図13を用いて説明する。
【0152】
本実施の形態のロボット90の羽部を動作させるアクチュエータについては、トルクが大きいこと、往復運動が簡単に実現できること、構造が単純なことから、圧電素子(ピエゾ素子)を用いて発生した信号波によって駆動する。一般的に超音波モータと呼ばれるアクチュエータを用いる。
【0153】
図12に示すのは市販の超音波モータ23である。これは、図12(a)に示す、下面に圧電素子230を貼付けてあるアルミニウムの円板231上に突起232〜突起237が、円板の中心を重心とする正六角形をなすように6ヵ所配置され、さらにこの圧電素子230の下面には円周方向に12分割された電極238が配置されている構造をしている。この構造の概略を図12(b)に示す。各電極は1つおきに電気的に短絡されており、それぞれ、円板231を基準に電圧が印加される。
【0154】
すなわち、圧電素子230は位相の異なる電圧が加えられる。この様子を図12(c)に、ハッチングの部分とのハッチング以外の部分に分けて示す。このそれぞれに異なる時間的パターンで電圧を加えることによって円板231上に信号波が発生し、突起232〜突起237先端が楕円運動を行なう。以上でステータが構成され、このステータはステータ上に接触して配置されたロータ239を上述の突起232〜突起237先端の楕円運動より円周方向に回転するように搬送することができる。
【0155】
この超音波23のトルクは1.0gf・cmで、無負荷回転速度は800rpmである。また、最大消費電流は20mAである。また、円板231の直径は8mm、突起232〜突起237の配されている間隔は2mmである。円板231の厚さは0.4mm、突起232〜突起237の高さは約0.4mmである。また、圧電素子230の駆動周波数は341kHzであった。
【0156】
本実施の形態では、このステータの部分を利用したアクチュエータを用いる。右アクチュエータ31は、図13(b)に示すごとく、球殻状のロータ219を、上述のステータと同様のステータ210とベアリング211で挟み込んで保持する構造をしている。
【0157】
ただし、ステータ210のロータ219との接触部分はロータ表面と一致する形状に加工されている。ロータ219は外形3.1mm、内径2.9mmの球殻で、表面に右羽根主軸311が配されている。ステータ210の突起のある面に向かって見て時計回り(以後、これを正回転、この逆の回転を逆回転と呼ぶ)にロータ219を搬送させる操作を行なうと、右羽根主軸311は図13(b)に示すθの方向に移動する。
【0158】
さらにこのロータ219を3自由度で駆動するために、上部補助ステータ212と下部補助ステータ213をベアリング214,215とともにステータ210、ベアリング211と同様に図13(a)に示すように配する。各補助ステータの大きさはステータ210の0.7倍である。
【0159】
各ステータの駆動方向は必ずしも直交していないが、それぞれ独立した要素への回転を与えるため、これらの運動の組合せによってロータ219を3自由度で駆動することができる。
【0160】
たとえば、ロータ219に対して、上部補助ステータ212によって正回転を、下部補助ステータ213によって同じく正回転を与えれば、ロータ219がこの構成であるβ方向に、上部補助ステータ212によって逆回転を、下部補助ステータ213によって正回転を与えればα方向に回転する。
【0161】
実際の駆動に際しては、回転中心の異なる2つの回転を行なわせることは摩擦によって効率を低下させてしまうので、たとえば、上部補助ステータ212と下部補助ステータ213をごく短時間周期で交互に動作させ、その間、動作していないステータの突起はロータ219に接触しない、などの駆動方法が望ましい。これは、ステータの電極すべてに圧電素子の収縮方向に電圧を印加することで、特別に構成要素を付加することなく実現できる。
【0162】
また、圧電素子の周波数が300kHz以上と、せいぜい100Hz程度である羽ばたき周波数に比べて十分高速であるので、交互にアクチュエータを動作させても実質上滑らかな動きを右羽根主軸311に与えることができる。以上により、本発明者らが検討に用いた市販の超音波モータと同等の特性を有する3自由度アクチュエータが構成される。
【0163】
ステータの発生中信号波の振幅がサブミクロンオーダであり、このロータはこのオーダの真球度であることが要求される。民生用の光学製品に用いられている放物面鏡の加工精度は数十nmであり、また、光学干渉計に用いられている光学部品の加工精度は数nm程度であることからこのようなロータは現在の加工方法技術で作製することが可能である。
【0164】
当然、これは本発明における3自由度の運動を羽根に与えるアクチュエータを超音波モータで構成した例の1つに過ぎず、各構成要素の配置、サイズ、材質、駆動方法などは、羽ばたき飛行に要求される物理的機能たとえばトルクなどが実現できるならこの限りではない。
【0165】
また、当然、羽根の駆動機構やそれに用いるアクチュエータの種類についても、特に本実施の形態に示したものにはよらない。たとえば、特開平5−169567号公報に見られるような、外骨格構造とリニアアクチュエータとを組合せて用いた羽ばたき飛行も、本実施の形態に示すアクチュエータと等価な羽根の動作を実現できるため可能である。
【0166】
また、駆動エネルギとして電力を用いたが、内燃機関を用いることも可能である。さらに、昆虫の筋肉に見られるような、生理的酸化還元反応により、化学的エネルギを運動エネルギに変換するアクチュエータを用いることも可能である。たとえば、昆虫から採取した筋肉をリニアアクチュエータとして用いる方法や、虫の筋肉のタンパク質のアミノ酸と無機物とを材料として分子レベルでこれを複合化させて作った複合材料の人工筋肉をリニアアクチュエータとして用いるなどの方法がある。
【0167】
なお、基本的な駆動力の上述の内燃機関などのエネルギ効率が高いアクチュエータを得て、これらの制御もしくは補助として電力で駆動するアクチュエータを用いる手法も可能である。
【0168】
(浮上方法)
次に、浮上方法について図14〜図20を用いて説明する。
【0169】
なお、ここでは、羽根が流体から受ける力を流体力と呼ぶ。また、説明の簡便のため空気の流れを羽ばたきによってのみ起こる状態、すなわち、無風状態を仮定して説明する。
【0170】
説明の簡便のため、ロボット90に及ぼされる外力は羽根に流体から作用する力すなわち流体力と重力のみであるとする。
【0171】
ロボット90が恒常的に浮上するには、1回の羽ばたき動作の間で平均して、(羽根にかかる上方向の流体力の総和)>(ロボット90にかかる重力)であることが必要である。
【0172】
ここでは、昆虫の羽ばたきを単純化した羽ばたき方により、打ち下ろし時の流体力を、打ち上げ時の流体力よりも大きくする方法について説明する。説明の簡便のため、流体の挙動もしくはそれが羽根に及ぼす力については、その主用成分を挙げて説明する。また、この羽ばたき方によりロボット90に作用する浮上力と重力との大小については後述する。
【0173】
羽根には、羽根が運動する方向と逆方向の流体力が作用するので、羽根の打ち下ろし時には羽根の上向きに流体力が作用し、打ち上げ時には羽根の下向きに流体力が作用する。そこで、打ち下ろし時に流体力を大きくし、打ち上げ時には流体力を小さくすることで、1回の羽ばたき動作(打ち下ろし動作と打ち上げ動作)の間で時間平均すると上方向の流体力が得られることになる。
【0174】
そのためには、まず、打ち下ろし時には羽根が移動する空間の体積が最大になるように打ち下ろせば、羽根にはほぼ最大の流体力が作用する。これは、羽根の接する平面とほぼ垂直に羽根を打ち下ろすことに相当する。
【0175】
一方、打ち上げ時には羽根が移動する空間の体積が最小になるように打ち上げれば、羽根に及ぼされる流体力がほぼ最小となる。これは羽根の断面の曲線にほぼ沿って羽根を打ち上げることに相当する。
【0176】
このような羽根の動作について羽根の主軸321に垂直な断面を用いて説明する。まず、図14の羽根は移動する空間の体積が最大になるように打ち下ろした場合、図15が羽根の移動する空間の体積が最小になるように打ち上げた場合を示す。
【0177】
図14および図15では、移動前の羽根の位置が破線で示され、移動後の羽根の位置は実線で示されている。また、羽根の移動方向が一点鎖線の矢印によって示されている。同図に示すように、流体力は羽根の移動方向とは逆向きに羽根に作用する。
【0178】
このように、打ち上げ時における羽根が移動する空間の体積が打ち下ろし時における羽根が移動する空間の体積よりも大きくなるように羽根の姿勢を羽根の移動方向に対して変化させて、1回の羽ばたき動作の間の時間平均において、羽根に作用する上方向の流体力を羽ばたきセンシングロボットとしてのロボット90に作用する重力よりも大きくすることができる。
【0179】
本実施の形態においては、羽根のねじり角βが制御可能であり、これを時間的に変化させることによって上述の羽根の運動が実現される。
【0180】
具体的には、以下のステップS1〜S4が繰返される。まず、ステップS1では、図16に示すように羽根の打ち下ろし(ストローク角θ=+θ0→−θ0)が行なわれる。ステップS2では、図17に示すように羽根の回転1(羽根のねじり角β=β0→β1)動作が行なわれる。ステップ3では、図18に示すように羽根の打ち上げ(ストローク角θ=−θ0→+θ0、ねじり角β=β1→β2(羽根の曲面に沿った運動により、流体力を最小限にとどめる運動))が行なわれる。ステップS4では、図19に示すように、羽根の回転2(羽根のねじり角β=β2→β0)動作が行なわれる。
【0181】
ステップS1およびステップS3における羽根に作用する流体力を時間平均すると、上述のように羽根の移動する空間の体積の違いから、上向きの流体力となる。この上向きの流体力の鉛直成分と重力との大小関係については後述する。
【0182】
当然、ステップS2,ステップS4においても、羽根に作用する流体力の時間平均が上向きの流体力であることが望ましい。
【0183】
ロボット90の羽根においては、図16〜図19に示すように、羽根の前縁近傍に羽根の回転中心(主軸321部分)が位置している。つまり、主軸321から羽根の後縁までの長さの方が主軸321から羽根の前縁までの長さよりも長くなっている。このため、図17および図19に示すように、羽根の回転動作においては羽根の回転方向に沿って生じる流体の流れに加えて、主軸321から羽根の後縁に向かう方向に沿って流体の流れが生じることになる。
【0184】
そして、羽根にはこのような流体の流れの反作用としてそれぞれの流れの向きとは逆向きの力が作用することになり、図17に示すステップS2では、実質的に上向きの流体力が羽根に与えられ、図19に示すステップS4では、主に下向きの流体力が羽根に与えられることになる。
【0185】
図18に示すステップS3では、羽根の断面の曲線に沿うように羽根のねじり角βをβ1からβ2に変化させながら打ち上げ動作が行なわれる。また、図17に示すステップS2における羽根の回転角は図19に示すステップS4における羽根の回転角よりも大きい。これによりステップS2およびステップS4においても羽根に上向きに作用する流体力が下向きに作用する流体力に勝って、時間平均すると上向きの流体力が羽根に作用することになる。
【0186】
なお、図16〜図19では、それぞれのステップS1〜S4における羽根の移動前の姿勢が波線で示され、移動後の姿勢が実線で示されている。各ステップS1〜S4における羽根の移動方向が一点鎖線の矢印によって示されている。また、各ステップS1〜S4において主に発生する流体の流れが実線の矢印によって示されている。
【0187】
次に、ストローク角θおよびねじり角βの値を時間の関数として表わしたグラフを図20に示す。ただし、図20では、ストローク角θおよびねじり角βのそれぞれの縦軸の比率が異なっている。
【0188】
本発明者らの行なった実験においては、θ0は、たとえば60°である。β0は、たとえば0°である。β1は、たとえば−120°である。β2は、たとえば−70°である。
【0189】
上述した説明では、説明の簡便のためステップS1〜S4は独立した動作として記述したがたとえばステップS1において羽根を打ち下ろしながら羽根のねじり角を大きくしていくような動作も可能である。
【0190】
また、上述した例は第1近似的な考察から説明されるものであり、実際に浮上可能な羽ばたき方法はこれに限定されるものではない。
【0191】
また、ここでは左羽根について説明したが、右羽根についてもxz平面に関して鏡面対称に左手系に基づくストローク角θ、偏角αおよびねじり角βを定義すれば同一の議論が成り立つ。以下、羽根に作用する上向きの流体力を浮上力とし、羽根に作用する前向きの流体力を推進力とする。
【0192】
(制御方法)
次に、羽ばたき装置、すなわち、ロボット90に任意の運動を行なわせる制御手法について説明する。ここでは、ロボット90の左羽については右手形に基づくストローク角θ、偏角αおよび捻り角βを用い、そして、右羽についてはxz平面に対して鏡面対称の左手形に基づくストローク角θ、偏角αおよび捻り角βを用いて羽の姿勢を示す。
【0193】
(制御フロー)
羽ばたきによる浮上移動は羽にかかる流体力によって行なわれるので、羽の運動により直接制御されるのは、ロボット90に与えられる加速度と角加速度である。
【0194】
まず、Sを目標とする浮上状態と現在の浮上状態との差異、T(S)を浮上状態から加速度、角加速度への変換を表わす関数、sを加速度、角加速度Fα(s)を、加速度センサ51、角加速度センサ53のセンサ応答を含めた制御アルゴリズムを表す関数、sαをアクチュエータ制御量、GW(sα)をアクチュエータと羽の応答を表す関数、sWを羽の運動、GfS(sW)を羽の運動により本羽ばたき装置に及ぼされる加速度もしくは角加速度seを表す関数、Seがこの一連のプロセスにより行なわれる浮上状態の変更とすると、入力Sより出力Seが得られるプロセスは図45に示すようなものとなる。
【0195】
また、実際には、羽と流体の慣性力により、現在までの羽の運動、流体の運動の時刻歴に依存する影響RWとRfSがGWとGfSに加わることになる。
【0196】
(動作分割)
当然、Fα以外のすべての関数を正確に求め、これによりS=Seとなる制御アルゴリズムFαを算出する手法もあり得るが、本羽ばたき装置周囲の流体の流れと羽の運動の時刻歴が必要であり、膨大なデータ量と演算速度を必要とする。また、流体と行動の連成した挙動は複雑で、多くの場合カオティックな応答になってしまうため、実用的でない。
【0197】
そこで、予め基本的な動作パターンを用意しておき、目標とする浮上状態を分割してこれらの基本動作パターンを時系列にて組合わせて実現する手法が簡便で望ましい。
【0198】
物体の運動にはx方向、y方向、z方向の3自由度の並進自由度と、θx方向、θy方向、θz方向の3自由度の回転自由度、つまり6自由度が存在する。すなわち、前後、左右、上下、そしてこれらの方向を軸とする回転である。
【0199】
このうち、左右への移動は、θz方向の回転と前後方向への移動を組合わせて行なうことができる。そこで、ここでは、前後方向、すなわちx軸方向への並進移動、上下方向、すなわちz軸方向への並進動作、また、x軸、y軸、z軸回りの回転動作についてそれぞれの実現方法を説明する。
【0200】
(動作)
(1) 上下方向(z軸方向)の動作
羽が移動することで、羽が流体から受ける力は羽の移動速度に依存するので、羽に及ぼされる上向きの流体力を大きく(小さく)するには、
A:ストローク角θの振幅を大きく(小さく)する
B:羽ばたき周波数を大きく(小さく)する
などの方法がある。これらによってロボット90は上昇(下降)することができる。ただし、流体力には負の値も含まれる。
【0201】
なお、これらの手法によれば、羽が流体から受ける流体力そのものが大きくなるので、羽が流体力を上下方向以外から受けることによって、羽の力学的支点に羽から上下方向以外の力が及ぼされている際には、上昇とともにその方向へこの支点にかかる力の増加も伴う。たとえば、前方にほぼ等速直線運動を行なっている際に、羽ばたき周波数を大きくすると、ロボット90は速度増加を伴って上昇する。このように、現時点での羽ばたき方によって、副次的にこういった他の運動を伴うが、以後特に断らない限り、停空状態からの制御について説明する。
【0202】
また、羽の捻り角βを変えて、羽が移動する空間の体積を変化させることによっても浮上力は変化する。たとえば、打ち上げ時における羽が移動する空間の体積がより大きく、もしくは、打ち下ろし時における羽が移動する空間の体積がより小さくなるようなβを与えることで、羽に作用する上向きの流体力の時間平均は小さくなる。
【0203】
実際には、羽は剛体ではなく変形を伴うため、同一のβによっても羽が移動する空間の体積は変化するが、第1原理的には、羽の移動する方向に垂直なβが最も大きな羽が移動する空間の体積を与える。また、羽が移動する方向に平行なβが最も小さな羽が移動する空間の体積を与える。
【0204】
なお、この場合、副次的に、羽ばたきと垂直方向にも流体力が作用するため、これが制御上支障を生じるレベルである場合はこれを打ち消す羽の動きを付加する必要がある。最も単純には偏角αの変更により実現できる。
【0205】
また、前記のステップS2もしくはステップS4において羽の回転角速度を変化させることによってもz軸方向の動作を行なうことは可能である。たとえば、ステップS2において羽の回転角速度(−dβ/dt)を大きくすると、この回転によって生じる流体の下方向への流速が大きくなるため、この反作用によって羽に作用する上向きの流体力が大きくなる。
【0206】
なお、この場合、ロボット90に及ぼされる、羽の主軸を回転軸とするトルクが副次的に変化する。よって、この変化が制御上支障ない範囲に収まる範囲内でこの回転角速度変化を行なうことが望ましい。
【0207】
また、この場合、ロボット90に及ぼされる、前後方向への力も副次的に変化する。よって、この変化が制御上支障をきたす場合は、(2)として後述する前後方向への力の制御も同時に行なうことが望ましい。
【0208】
(2) 前後方向(x軸方向)の動作
前述した羽ばたき方法では、主にステップS2とステップS4にて、x方向の向きへの流体力が羽に作用する。したがって、この羽の動かし方においては前進を伴い浮上する。
【0209】
また、打ち下ろしの際に偏角αを増加し羽を前方に移動させることで、羽には後向きの流体力が作用することになる。したがって、打ち下ろしの際の、すなわち、ステップS1における偏角αを制御して、ステップS1における羽に作用する後向きの流体力を、他の主にステップS2とステップS4における前向きの流体力よりも大きくすれば後退し、小さくすれば前進することができる。また、この2力がほぼ釣り合えば前後方向に静止することができる。
【0210】
特に、ロボット90が前後方向に静止しており、左右の羽がほぼ対称な運動を行ない、重力と本羽ばたき装置における浮上力が釣り合っているならば、ホバリング状態が実現できる。
【0211】
なお、偏角αの変更に伴い副次的に、羽に及ぼされる流体力の鉛直方向成分が変化するので、これが制御上支障を生じるレベルにある場合にはこれを打ち消す羽の動きを付加する必要がある。これは、主に、前述の(1)の上下方向の動作によって行なうのが簡便である。
【0212】
さらに、前述したステップS2とステップS4において羽の回転動作の角速度を大きくすると前向きの流体力が増加し、小さくすると減少する。これによっても前後方向の動作を変化させることができる。
【0213】
また、(1)に述べた羽の捻り角βの変更に伴う副次的な流体力のうち、x軸方向成分を利用する手法も可能である。つまり、打ち下ろし時にβ>0なら前方向への、β<0なら後方向への力が働く。
【0214】
なお、打ち上げ時のβ、α、θの関係はある程度拘束されているが、以上の流体力の制御はステップS3においても可能である。
【0215】
(3) z軸を回転軸とする回転動作
(2)において述べた前後方向への制御を、左羽と右羽について個別に行ない、これを異ならせることでロボット90にトルクを与えることができる。
【0216】
すなわち、右羽の前向きの流体力を左羽のそれに対して高くすれば本羽ばたき装置はx軸正の向きに向かって左方向を向き、低くすれば同じく右方向を向く。
【0217】
(4) x軸を回転軸とする回転動作
(3)と同様に、右羽の上向きの流体力を左羽のそれに対して大きくすれば右側が持ち上がり、小さくすれば左側が持ち上がる。これによって、x軸を回転軸とする回転動作を行なわせることができる。
【0218】
(5) y軸を回転軸とする回転動作
(2)に述べた、羽の捻り角βの角速度変更によって、ロボット90にかかるy軸周りのトルクを変化させることができる。これにより、y軸を回転軸とする回転動作を行なうことができる。たとえば、ステップS1における捻り角βの回転角速度を大きくすると本羽ばたき装置は機首を下げ、逆に小さくすると機首を上げる。
【0219】
(6) ホバリング(停空飛翔)
ロボット90を停空させる際のストローク角θおよび偏角αならびに捻り角βの値を時間の関数として表したグラフを図21に示す。ただし、図21ではそれぞれの角度の縦軸の比率と異なっている。
【0220】
本発明者らが行なった実験においては、θ0はたとえば60°である。β0はたとえば−10°である。α1はたとえば30°である。β1はたとえば−100°である。β2はたとえば−60°である。
【0221】
各ステップにおける左羽の運動と、それにより左羽の力学的支点A2に生じる加速度、角加速度を図46に示す。ただし、(3)(4)のx軸、z軸を回転軸とする回転動作については略してある。これらは、前述のとおり、左右の羽の運動の非対称によって起こされる。
【0222】
(制御方法決定手法)
現在の浮上状態は、ロボット90に搭載された加速度センサ51や角加速度センサ52が取得した値を適宜変更した値を用いて求められる。たとえば、速度は、加速度を時間積分した値に速度の初期値を与えることで求められる。また、位置は、速度を時間積分した値に位置の初期値を与えることで求められる。なお、浮上状態に、浮上状態の時刻歴を含む手法も可能である。
【0223】
制御装置4は、加速度センサ51および角加速度センサ52から得られる現在の浮上状態と、目的とする浮上状態から、ロボット90の動作を決定する。この制御は、三次元で行なわれる点以外は従来から行なわれている制御手法を適用することができる。
【0224】
ロボット90の動作は、制御装置4にて、アクチュエータの駆動に変換される。この変換には、テーブル参照、もしくはその補完を用いるのが高速である。たとえば、図47に示すように、基本となる動作と、それを実現するアクチュエータの駆動の組合せを予め用意しておく。なお、図47の左端列は目的とする動作、羽ばたきにおけるAとBは、Aは前進時の羽ばたき方、Bは停空時の羽ばたき方であり、より具体的にはそれぞれ図20、図21にグラフで示されるα、β、θの時刻歴を時間的に離散化したものである。制御装置4は、ロボット90の動作から、この駆動もしくはその補完した駆動をこのテーブルより算出する。
【0225】
ここでは、説明のため一旦ロボット90の動作を算出し、これをアクチュエータの駆動に変換するという手法を用いたが、浮上状態から直接アクチュエータの駆動を選択する手法も可能である。
【0226】
たとえば、定位制御を行なう場合、現在位置と目標位置との差によって、上述したアクチュエータの駆動のいずれか、もしくはそれを補完した駆動を直接算出する手法も可能である。
【0227】
また、当然、ロボット90の浮上状態を表す物理量はここに示した位置、速度、加速度などに限らない。
【0228】
また、当然、アクチュエータの駆動を決定する手法はこの態様に限らない。
(浮上可能重量)
次に、本実施の形態におけるロボット90の構成で浮上が可能な条件を、図22を用いて示す。本発明者の実験環境ではアクチュエータとして進行波アクチュエータを用いた。この進行波アクチュエータによれば、ステータ210が超音波モータ23と同等であるので、θ方向の羽ばたきに関してはトルク1.0gf・cmである。そこで、本発明者らはシミュレーションによりこのトルクで羽ばたいた際の流体力を算出した。
【0229】
羽根はアクチュエータから離れる方向が長辺で、長辺4cm、短辺1cmの矩形で、羽根の変形は無視する。また、幅8mm、長さ33mmのとんぼの羽根が約2mgであったので、これに倣い、羽根の質量は3mgとした。
【0230】
さらに、超音波モータ23は、突起先端の微小な楕円運動の累積によってロータを駆動するため、実際の駆動トルクの立上がり立下がりはダイヤモンドの周期オーダ、すなわち105ヘルツオーダであるが、計算の安定性から制約上±250gf・c/secであるとした。すなわち、トルクは0.004秒に1gf・cm上昇する。
【0231】
この羽根を、一方の短辺をこの辺を回転軸とする回転自由度のみ残して固定し、この回転自由度にトルクを与え、この回転軸にかかる反力を算出した結果が図22である。ただし、前に定義するところの偏角α=0(度)、2次角β=0(度)である。
【0232】
時刻0においては、羽根は水平すなわちストローク角θ=0(度)である。ここから時刻0.004秒までの間にトルクを1gf・cmまで直線的に向上させ、0.004秒から0.01秒まで、1gf・cmを保つ。そして時刻0.01秒から0.018秒までの間にトルク1gf・cmから−1gf・cmまで直線的に変化させ、同0.018秒から0.03秒までは−1gf・cmを保ち、同0.03秒から0.038秒までの間に再び1gf・cmへと直線的に変化する。
【0233】
これにより得られた接点反力を、打ち下ろしの間すなわちトルクが負である時間である時刻0.014秒から0.034秒までの間で平均すると約0.29gfであった。
【0234】
以上のシミュレーションは、1自由端羽ばたきの結果であるため、打ちが上げ時の流体力の作用は不明である。しかし、断面積に比して流体の抵抗が減少するので、打上げ時に働く下向きの始点反力は小さいこと、かつ、打下ろし時と同じトルクで打上げることが可能なため、打上げに要する時間は打下ろしに要する時間よりもはるかに短い。
【0235】
すなわち、打上げの際の力が作用する時間は短いこと、また、打下ろし以外にも羽根の回転などを用いて浮上力がさらに得られることから、トルク1gf・cmのアクチュエータを用いて、0.29g程度の質量を浮上させることは可能であるといえる。すなわち、実施の形態における羽ばたきセンシングロボット全体の質量が0.58g以下であれば浮上が可能である。以下、装置全体の重量について検討する。
【0236】
まず、ステータ210の質量は、電極と圧電素子が薄いため、比重2.7、厚さ0.4mm、半径4mmの円板と同等であるので、0.054gである。
【0237】
また、補助ステータの重量は、ステータの直径が0.7倍であることから0.019gである。
【0238】
3つのベアリングはいずれも外径4.2mm、内径3.8mm、厚さ0.4mmのドーナツ状のボールベアリングである。材質は比重4.8のチタンで、約30%の空隙があるため、ベアリングの質量は約0.013gである。また、ロータ219は材質がアルミで壁中央半径3mm、厚さが0.2mmであるため、約0.061gである。これらの総和から、アクチュエータ21の質量は0.192gである。また、羽根31は前述のとおり0.003gである。以上の構成が左右系2つあるので、0.390gである。
【0239】
また、本発明者らが採用した図1に示す指示構造1は、直径1cm、比重0.9、厚さ0.1mmの球体であるので質量が約0.028gである。また、本発明者らが採用した制御装置4、通信装置7、加速度センサ51、角加速度センサ52、焦電型赤外線センサ53はそれぞれ5mm×4mmの半導体ベアチップで、角約0.008gである。すなわちこれらの質量の総和は0.04gである。
【0240】
また、本発明者らが採用した電源6の重量は0.13gである。
以上、すべての構成要素の重量の合計は0.579gとなる。1対の羽根で浮上力0.58gfを得ているので、この構成で浮上することが可能である。
【0241】
(通信装置)
次に、通信装置7について説明する。
【0242】
通信装置7は送信機能を備え、各種センサの測定値を送信する。これにより、ベースステーション91が、ロボット90の情報を得ることができる。
【0243】
ベースステーション91が得る情報は、ロボット90もしくはその周囲の物理量である。より具体的には、前者の一例としては、加速度センサから得られたロボット90の加速度情報、または、角加速度センサ52が得られたロボット90の角加速度情報、後者の一例としては、焦電型赤外線センサ53より得られた赤外線量情報である。
【0244】
また、通信装置7は、受信機能を備え、制御信号を受信する。これによりベースステーション91がロボット90に対して制御を行なうことができる。
【0245】
ベースステーション91より送信される制御信号を、ロボット90の浮上状態に対する制御信号と、ロボット90の周囲に与える物理量変更における制御信号とである。
【0246】
より具体的には、前者の一例としては、ロボット90に与えられるべき加速度と角加速度とを指定する信号、後者の一例としては、発光ダイオード8の光量を指定する信号である。
【0247】
なお、本実施の形態においては、ここに例示した情報を送受信するものとして以後の説明を行なう。
【0248】
もちろん、送受信すべき情報はここに示した限りではない。たとえば、ベースステーション91より発せられた制御信号を、ロボット90が正しく受信したか否か確認する応答信号なども送受信可能な情報である。
【0249】
(制御装置)
次に、制御装置4について、図8および図24を用いて説明する。
【0250】
図8に示すように、制御装置4は、演算装置41とメモリ42とからなる。演算装置41は、通信装置7を経て、ロボット90における各種センサによって得られた情報を送信する機能を有する。また、演算装置41は、通信装置7を経て得られた制御信号に基づき、各構成要素の動作を制御する機能を有する。また、メモリ42はこれら送受信されたデータを保持する機能を有する。
【0251】
本実施の形態においてより具体的には、演算装置41は加速度センサ51および角加速度センサ52からの情報によりロボット90の加速度および角加速度を算出し、通信装置7を経由してベースステーション91にこの情報を送信する。また、ベースステーション91からは現在ロボット90に与えられるべき加速度の情報と、角加速度の情報とが送信される。これらの情報を、通信装置7を経て受信し、演算装置41はこの受信された加速度と角加速度とにより各アクチュエータの動作パラメータを決定する機能を有する。
【0252】
さらにより具体的には、演算装置41は、ロボット90に与えられるべき代表的な加速度と角加速度との組合せに対応したα、β、θの時系列値をテーブルとして有しており、これらの値、もしくはその補間値を各アクチュエータの動作のパラメータとする。なお、α、β、θの時系列値とは、たとえば、加速度、角加速度ともに0であるホバリングの場合は図20にグラフで示される値を離散化したものである。
【0253】
当然、ここで挙げるα、β、θは制御パラメータの一例であり、説明の簡便のためこれらのパラメータを指定することでアクチュエータが駆動されることを前提に記述したが、たとえば、より直線的にこれらを実現する各アクチュエータへの駆動電圧や制御電圧に変換したものを用いることが効率的である。しかし、これらが既存のアクチュエータ制御方式と特に異なるものではないので、代表的なパラメータとしてα、β、θを挙げているにすぎず、このパラメータのみに限るものではない。
【0254】
また、別なる機能の具体例として、演算装置41は、焦電型赤外線センサ53から送られてくる情報を、通信装置7を介して送信する機能を有する。
【0255】
これによりベースステーション91がロボット90に搭載された焦電型赤外線センサ53における赤外線情報検出領域531における赤外線情報を取得することが可能になる。
【0256】
また、演算装置41は、ベースステーション91から送信された発光ダイオード8の発光制御信号を、通信装置7を介して受信して、この制御信号に従い発光ダイオード8に流れる電流を制御する機能を有する。これにより、ベースステーション91が発光ダイオード8の発光を制御することが可能になる。なお、制御装置4の機能はここに示したものに限らない。
【0257】
飛行制御は時間的に連携するものであるので、羽根の動作時刻歴を、制御装置4におけるメモリ42に記憶させておき、ベースステーション91からの制御信号をこの時刻歴情報によって補正する手段も可能である。
【0258】
また、ロボット90の浮上移動を優先する場合、通信の帯域からの送信不可能なデータが発生することも考えられる。また、通信が途絶する場合も考えられる。これらをはじめとして、重量の増加が浮上移動に障害をもたらさない範囲内ならば、メモリ42を搭載することは有効である。
【0259】
また、逆に、演算装置41におけるレジスタの類を除き、ロボット90の機能によっては明示的に必須ではない。
【0260】
(駆動エネルギ源)
次に、駆動エネルギ源、すなわち、電源6について説明する。
【0261】
左右アクチュエータ21,22、制御装置4、センサ51〜センサ53、を駆動する電力は電源6により供給される。
【0262】
電源6はリチウムイオンポリマを電解質としているので支持構造1により封入しておけばよい。これにより液漏れを防ぐための余分な構造が不用であり、実質的なエネルギ密度を高めることができる。
【0263】
なお、現在市販されているリチウムイオン2次電池の一般的な質量エネルギ密度は150Wh/kgであり、本実施の形態においてはアクチュエータにおける消費電流は最大40mAであるので、電源6の電解質重量を約0.1gとすると、本実施の形態においては約7.5分の飛行が可能である。また、本実施の形態におけるアクチュエータの最大消費電流は左右合計40mAである。
【0264】
また、電源電圧3Vである。電解質重量が0.1gであるので、0.12W/g、つまり、1200W/kgの重量パワー密度を持つ電源6の実現が求められる。市販品で実現されているリチウムイオンポリマ2次電池の重量パワー密度は約600W/kgであるが、これは携帯電話などの情報機器に用いられている10g以上の製品などである。
【0265】
一般に、電解質質量に対する電極面積の比は正負に反比例するので、実施の形態における電源6は、前述の情報機器用に用いられている2次電池の10倍以上の電極面積比を持つので、10倍程度の質量パワー密度が達成可能であり、冒頭の出力パワー密度は十分達成可能である。
【0266】
アクチュエータの駆動エネルギを外部から供給する方法も可能である。たとえば、電力エネルギを外部から供給する媒体については温度差、電磁波などが挙げられ、これを駆動エネルギに変換する機構としてはそれぞれ熱電素子およびコイルなどが挙げられる。
【0267】
当然、異なる種類のエネルギ源を混載する手法も可能である。電力以外のエネルギ源を用いる場合、基本的には制御は制御装置4からの電気的信号を用いることになると考えられている。
【0268】
(センサ類(物理量入力部))
次にセンサについて説明する。
【0269】
加速度センサ51は支持構造1の3自由度並進加速度を、角加速度センサ52の支持構造1の3自由度回転加速度、焦電型赤外線センサ53は焦電型赤外線センサ検出領域531における赤外線量を検出する。これらのセンサ51〜センサ53の検出結果は制御装置4に送られる。
【0270】
本発明者が用いた加速度センサは帯域40Hzである。なお、加速度センサ51や角加速度センサ52は帯域が高いほど時間的に緻密な制御が可能であるが、ロボット90の浮上状態の変更は1回以上の羽ばたきの結果起きるものであると考えられるので、現在市販されている帯域が数10Hz程度のセンサでも実用可能になる。
【0271】
本実施の形態では加速度センサと角加速度センサとにロボット90の位置および姿勢を検出するものとしたが、ロボット90の位置と姿勢が計測可能な手段であるかどうかは上記センサには限らない。たとえば、互いに直交する3軸方向の加速度を測定可能な加速度センサを少なくとも2つそれぞれ支持構造1の異なる位置に配置させ、角加速度センサから得られる加速度情報に基づいてロボット90の姿勢を算出することも可能である。
【0272】
また、作業空間92内に地上波を明示的に組込んでおき、これをロボット90が検出して位置および姿勢を算出する方法も可能である。たとえば、作業空間92内に磁場分布を設けておき、磁気センサによりこの磁場分布を検知することで、ロボット90の位置と姿勢を算出する手法も可能である。また、GPSセンサ等を用いる手法も考えられる。
【0273】
また、後述するベースステーション91など、ロボット90以外においてロボット90の位置と姿勢とを直接検出する手法も考えられる。たとえば、ベースステーション91がカメラを有し、画像処理によってロボット91の位置を算出する手法も可能である。当然この場合ロボット90における加速度センサ51などは必須ではない。
【0274】
また、加速度センサ51、角加速度センサ52をはじめとするセンサ類は、制御装置4とは別部品として表現されたが、軽量化の観点から、マイクロマシニング技術によって制御装置4と一体で同一のシリコン基板上に形成してもよい。
【0275】
当然本実施の形態におけるセンサは、アプリケーションすなわち警備の目的を達成する最低限の構成要素であって、センサの種類、個数、構成についてはここに示す限りではない。
【0276】
たとえば、ロボット90における羽根の駆動には、フィードバックのない制御を用いているが、羽根のつけ根に羽根の角度センサを設け、ここから得られる角度情報によりフィードバックを行ない、より正確に羽根を駆動する方法も可能である。
【0277】
また、逆に、浮上する領域における気流が既知であり、予め定められた羽ばたき方のみによって目的位置に定位することが可能ならば、ロボット90の浮上状態を検出することは不用となるので加速度センサ51や角加速度センサ52は必須ではない。人体検出については、焦電型赤外線センサ53を用いて、従来のロボットに採用されている手法と同様に行なえる。
【0278】
なお、本実施の形態で例示する探索対象物としての人93もロボット90に対して移動の障害となるが、焦電型赤外線センサ検出領域531をロボット90の下方に配することで、ロボット90が侵入者の情報を飛行しても人93を検出することが可能であるため、人93を障害とせず、かつ、人93を検出することが可能である。
【0279】
また、人体検出センサとして、現在広く安価に用いられている焦電型赤外線センサを例として挙げたが、当然これも人体を検出するという機能が達成されるならばこの限りではない。
【0280】
(発光ダイオード(物理量出力部))
次に、発光ダイオード8について説明する。
【0281】
発光ダイオード8は、焦電型赤外線センサ53における焦電型赤外線センサ検出領域531を概ね包含する可視光照射領域を有する。また、発光ダイオード8の動作は制御装置4によって制御される。
【0282】
以上の構成より、焦電型赤外線センサ検出領域531内に検出された赤外線放射源を人93であると制御装置4が判断すれば、これに対して可視光を照射する動作を行なうことができる。なお、本実施の形態では、物理量出力部として発光ダイオード8を例示したが、これに限定されるわけではない。
【0283】
上述の構成要素の決定の際、ロボット90の機動性を損なわないためには、当該構成要素の機能を損なわない範囲内で軽量であることが望ましい。
【0284】
(ベースステーションの説明)
(主要な構成と主要な機能)
まず、図23を用いてベースステーション91の主要な構成と機能とを説明する。ただし、ベースステーションの主要な目的はロボット90からの情報取得とこれに基づくロボット90の制御であるので、図23はこれを具体化した一例にすぎず、外観、形状、また付帯的な構成要素の有無については上述の目的を害しない限りここに記す限りではない。
【0285】
図23に示すように、ベースステーション91は、演算装置911とメモリ912および通信装置917を備えている。通信装置917は、ロボット90より送信された信号を受信する機能を有する。また、ロボット90に信号を送信する機能を有する。
【0286】
ベースステーション91は、メモリ912に格納された作業空間92のマップデータなどと、ロボット90より通信装置917を介して受信したロボット90の加速度情報を初めとする各種情報から、ロボット90の行動を決定する機能を有する。また、この行動を通信装置917を介してロボット90に送信する機能を有する。
【0287】
前述の受信機能と行動決定機能と送信機能によってベースステーション91はロボット90自身もしくはその周辺環境情報に基づき通信機能を介してロボット90を制御することができる。
【0288】
ベースステーション91は、その上面をロボット90の離発着台として用いている。すなわち、ベースステーション91上面には充電器913が備わっており、充電孔914にロボット90における電極61が結合することで電気的に電源6に接続され、充電が可能な状態になる。本実施の形態においては節電のため、充電器913は演算装置911により制御され、ロボット90がベースステーション91に結合している際も動作して充電を行なう。
【0289】
また、この充電孔914は位置決め孔の役割も兼ねている。さらに、ベースステーション91には電磁石915が備えられており、必要に応じてロボット90を吸着している。すなわち、離陸前のロボット90におけるベースステーション91に対する相対位置は、電磁石915を動作させることにより固定されており、また相対速度は0である。
【0290】
(動作指示)
本実施の形態においてはベースステーション91は、演算装置911とメモリ912および通信装置917を備えており、メモリ912に格納された作業空間92のマップデータと、予め設定された目的を達成するロボット90の作業空間92における予定経路に対して、ロボット90より受信したロボット90の加速度情報をはじめとする各種情報からロボット90に与えるべき加速度、角加速度を、通信装置917を介してロボット90に送信する機能を有する。たとえば、ロボット90の角加速度情報を2回積分することでロボット90の姿勢を算出することができる。
【0291】
また、これとロボット90の加速度情報を前出るの姿勢で回転変換して得た絶対座標系における加速度情報を2回積分することでロボット90の位置を算出することができる。なお、これらの積分定数は、離陸前の速度、角速度がともに0であり、位置、姿勢はベースステーション91に対して充電孔914に固定されているためいつでも既知である。このようにして演算装置911はロボット90の位置と姿勢を算出し、上述のロボット90への制御指示を行なうことができる。
【0292】
以上の機能により、ベースステーション91が、ロボット90に作業空間92内を巡回させるように制御することが可能になる。これらの機能は互いに相関することも当然可能である。たとえば、前述のロボット90における加速度情報と角加速度情報より焦電型赤外線センサ53における赤外線検出領域531の作業空間92における位置を算出することができる。
【0293】
この位置と赤外線量をマッピングすることで赤外線放射源の位置、形状、動作などを算出し、赤外線放射源の重心付近に向けてダイオードを発光させるといった手法も可能である。当然これらのバリエーションは多岐にわたり、アプリケーションによって最適なものをデザインするものであって、ここに示した形態に限るものではない。
【0294】
(巡回手法)
ロボット90における巡回手法は、従来から提案されている車輪などで床面を移動するロボットに用いられてきた巡回手法に、高さ方向の自由度を加えて構築することが可能である。
【0295】
たとえば、まず概ね一定の高さでの巡回を行ない、これが終了した後、ロボット90の高度を変更してまた別の高さで巡回を行なうといった手法で、2次元平面上での巡回の高さ方向の自由度を加え、3次元空間を巡回する手法が実現される。
【0296】
また、焦電型赤外線センサ53の検出距離によっては、ある高さで巡回すれば作業空間92の全域において人を検出することが実質的に可能な場合も考えられる。この場合は、従来から提案されている2次元平面での巡回を行なうアルゴリズムのみで巡回が可能である。
【0297】
これら巡回経路は、ある定まった経路をメモリ912内に予め用意していてもよいし、メモリ912におけるマップデータからある情報を基準に演算装置911が算出する方法も可能である。たとえば、作業空間92における監視上の重要度などを指定し、この重要度に応じて巡回頻度を高く設定するなどの手法が考えられる。また、巡回中においても経路の変更は可能である。たとえば、人検出時などに、人を検出した位置でホバリングするなどの変更が考えられる。
【0298】
以上に示したのはロボット90の作業空間92の巡回手法の単純な一例であり、この限りではない。ベースステーション91の質量はロボット90の浮上には影響しないため、これらの巡回経路や手法の策定を高度に複雑に行なうことは容易である。
【0299】
(離着陸補助)
羽ばたきの開始もしくは終了時、すなわち、ロボット90の離着陸の際は、羽ばたきによって起こる気流が急激に増加もしくは減少し不安定であるため、ロボット90の位置および姿勢を制御することは難しい。本実施の形態では、離陸前の段階において、ベースステーション91に備えられた電磁石915がロボット90を吸着している。離陸の際は羽ばたきによる気流が安定するまで電磁石915を作動させ、気流が安定した時点で電磁石915による吸着を停止するなどの手法で安定した離陸が可能である。
【0300】
着陸においては、大まかに電極61が充電孔914の上部に位置するようロボット90を移動させ、この状態で電磁石915を作動させ、ロボット90をベースステーション91に吸着する。しかる後に羽ばたきを停止させれば、気流がG不安定である状態で着陸時の位置と姿勢を安定させることができる。なお、定位を容易にするため、電極61もしくは充電孔914の少なくとも一方がテーパ状をしていることが望ましい。
【0301】
なお、重量が許すなら、ロボット90が電磁石915を有する構成も可能である。また、この構成により、ロボット90はベースステーション91に限らず、強磁性もしくは軟磁性材料で構成される物質すべてに対して安定した離着陸が可能になる。また、より加速度の小さい離陸を行なうために、電磁石915に力覚センサを配し、この力覚センサにかかる力によって電磁石915の吸引力を制御する手法も可能である。
【0302】
また、ここに示したのは離着陸時の気流不安定性に伴うロボット90の不安定浮上を防ぐ手法の一例にすぎず、離着陸時にロボット90を一時的に保持する機構であれば他の手段も可能である。たとえば、電磁石915の代わりに空気を用いて吸引する手法も可能である。また、レールなどのガイド機構に沿って離着陸を行なう等の手法も可能である。
【0303】
(システムの動作)
ロボット90はベースステーション91からの指示により作業空間92を巡回し、人を検出する。これをより具体的に一例として記述したものを例として図24および図25を用いて説明する。なお、以下の記述は一例であり、本願の権利請求の範囲を絞るものではない。
【0304】
(静止状態)
ロボット90の動作開始前はロボット90はベースステーション91における充電孔914に電極61が接続され固定されている。また、必要に応じて電源6に対して充電が行なわれている。ベースステーション91における演算装置911、メモリ912は既に動作しているものとする。また、ロボット90の巡回経路は既に演算装置911によって算出されているものとする。また、人を検出した際のロボット90のダイオードの発光動作は既に演算装置911によって算出されているものとする。上記巡回経路、ダイオードの発光動作をメモリ912に格納しておくことが望ましい。
【0305】
(離陸、上昇)
ベースステーション91における電磁石915が動作し、ロボット90はベースステーション91に吸着される。この状態でロボット90は垂直方向への上昇のための羽ばたき動作を開始する。遅くとも電磁石915が吸着を解除するまでには、ロボット90における加速度センサ51、角加速度センサ52、制御装置4、および通信装置7は動作を開始している。また、この際には、ベースステーション91においても通信装置917が動作を開始しており、演算装置911がロボット90の浮上状態を検出できる状態に達している必要がある。
【0306】
羽ばたきによる気流が安定した時点で、電磁石915はロボット90の吸着を止めていく。電磁石915の吸着力とロボット90の浮力がバランスする点よりさらに電磁石915の吸着力を弱めた時点でロボット90が浮上を開始する。
【0307】
また、少なくともロボット90が浮上を開始するまでに、ベースステーション91における演算装置911は、ロボット90の位置と姿勢を求める演算を開始している必要がある。
【0308】
ロボット90はベースステーション91に加速度情報、角加速度情報を送信しつつ上昇する。ベースステーション91はこの情報と目的とする経路より算出されるロボット90の位置と姿勢によりロボット90に現在与えられるべき加速度を算出し、ロボット90に指示する。予め指定された位置にロボット90が到達すると、ベースステーション91の指示によりロボット90はこの高さで巡回を開始する。
【0309】
(巡回)
巡回開始以前に焦電型赤外線センサ53を動作させる。この赤外線情報が通信によって演算装置911に送られる。巡回は、ベースステーション91はロボット90の移動を指示しつつ、赤外線情報を監視し、赤外線発信源すなわち発熱源の有無を判定することで行なわれる。ロボットは、障害物を避けるために、一般的な侵入者の身長以上の高さ、たとえば、概ね2m程度の高さを巡回する。また、ロボット90は、たとえば、赤外線情報検出領域531の幅の60%程度の幅ずつずらしながら往復するなどの手法を用いて、作業領域92をくまなく巡回する。
【0310】
(着陸)
巡回終了時以後、ロボット90における焦電型赤外線センサ53は動作を停止する。巡回終了時には、ロボット90における電極61がベースステーション91における充電孔914の鉛直上方に位置するように位置および姿勢を保ちながらロボット90が下降するようにベースステーション91がロボット90を制御する。電磁石915がロボット90の吸着可能な位置にロボット90が位置したと判断した時点で、電磁石915を作動させ、ロボット90をベースステーション91に固定する。
【0311】
ベースステーション91にロボット90が固定された以後、ロボット90における加速度センサ51、角加速度センサ52は動作を停止する。ベースステーション91にロボット90が固定されて以後、ベースステーション91はロボット90へ羽ばたきの停止を指示する。これ以後、通信装置7、制御装置4などは停止させてもよい。
【0312】
(フローチャート)
本実施の形態における各情報の流れを図24に示す。また、上記動作のフローチャートを図25に示す。当然これらは一例であり、本実施の形態における対象物の探索を行なうセンシングロボットというアプリケーションを満足するロボット90の動作はこの限りではなく、また、これまでアプリケーションに用いられる場合、当然この動作は異なったものとなり得る。
【0313】
(通信)
本実施の形態における通信手法について、図26〜図28を用いて説明する。
【0314】
なお、ここでは通信されるデータに対する解説を主に行なう。たとえば、通信のプロトコル、ハンドシェイクのタイミングといった通信の手法の細部についてはさまざまな手法があるが、ここで説明するデータのやり取りが行なえるものであればよい。
【0315】
(静止状態、離陸)
まず、静止状態〜離陸時の通信動作について図26を用いて説明する。
【0316】
まず、ベースステーション91の演算装置911、通信装置917とロボット90の制御装置4、通信装置7を動作させ、ロボット90とベースステーション91のコネクションを確立させる。そしてベースステーション91における電磁石915を動作させ、ロボット90を吸着し、離陸時の不安定な気流によるロボット90の転倒を防止する。
【0317】
ロボット90における加速度センサ51、角加速度センサ52はロボット90の位置と姿勢を正しく把握するために、ロボットが浮上、すなわち加速度もしくは角加速度が0でなくなる以前に動作している必要があるので、羽ばたき開始以前にセンシングを開始しておく。
【0318】
ベースステーション91は、ロボット90に浮上用の羽ばたきを指示する。本実施の形態では鉛直上向きに浮上するような羽ばたきを行なうようにロボット90に加速度、角加速度の指示を行なう。
【0319】
ロボット90においては、予め用意された制御テーブルから、鉛直上向きに上昇するためのα、β、θの時系列のパターンを選び、これに従った羽ばたきを開始するため、左右アクチュエータを駆動する。
【0320】
ベースステーション91は、タイマで一定時間経過を検出するなどの手法で、ロボットの羽ばたきによる気流が安定するまで待機し、その後、電磁石915の吸着力を低下させていく。
【0321】
その間、ロボット90は自身の加速度情報と角加速度情報とを通信によってベースステーション91に送信する。電磁石915の吸着力が浮力を下回った時点でロボットは浮上する。これはロボットの速度が0でなくなることによって検出される。浮上が完了すれば、ベースステーション91よりロボット90に浮上完了信号が送信され、巡回モードに入る。
【0322】
(巡回)
続いて、巡回時における通信動作を図27を用いて説明する。
【0323】
まず、巡回モードに移行するまでに、ロボット90は赤外線センサを動作させる(図示なし)。
【0324】
次に、ロボット90は各種センサの情報取得を行なう。そして、取得したセンサ情報を、通信を介してベースステーションに送信する。
【0325】
ベースステーション91は受信したロボット90のセンサ情報のうち、赤外線情報をマッピングし、作業領域92内での赤外線放射分布を求める。また、加速度情報、角加速度情報から、ロボット90の位置と姿勢を算出する。これらの位置、姿勢算出処理、赤外線マッピング処理は巡回行動中継続的に行なわれているものとする。
【0326】
得られた赤外線マッピングの結果、メモリ912におけるマップデータに存在しない赤外線放射源が確認されれば人とみなして発光ダイオードによる報知動作を行なうことも可能である。そうでない場合は巡回を継続する。これら次の行動をベースステーション91は決定し、ロボット90に与えるべき加速度、角加速度をロボット90に指示情報として送信する。
【0327】
ロボット90は受信した指示情報のうちの加速度指示と角加速度指示より、予め用意された制御テーブルより左右アクチュエータの駆動を算出し、これを駆動する。また、報知動作指示が行なわれている場合は、これに従ってLEDの駆動を行なう。報知動作においても、通信態様は、LED駆動を除いて巡回動作と同様である。
【0328】
ベースステーション91が、ロボット90が巡回終了に達したと判断した場合、ロボット90に巡回終了信号を送信し、着陸モードに移行する。
【0329】
(着陸)
続いて、図28を用いて着陸における通信について説明する。
【0330】
ロボット90は、巡回終了後、焦電型赤外線センサ53の動作を停止させる。ベースステーション91は、着陸地点直上、より具体的には、電磁石915によってロボット90を初期位置に吸着可能な領域にロボット90を誘導する。この誘導は巡回時の制御と同様に、ロボット90より受信した加速度情報、角加速度情報より算出したロボット90の位置と姿勢を用いて行なわれる。すなわち、巡回動作と同様の通信態様によって行なわれる。
【0331】
ロボット90が着陸地点直上に来たら、電磁石915を動作させ、ロボット90をベースステーションに吸着する。その後、継続して動作させる必要がなければ、ベースステーション91はロボット90に対し動作終了を指示する。これによりロボット90は羽ばたき動作、通信動作、センシングを終了させる。
【0332】
なお、通信形態は1系であり、ロボット90のセンサ情報によりベースステーションがロボット90の行動指示を行なうのであればここで挙げたものに限られない。
【0333】
また、実施の形態では、センサは連続して動作するものとしたが、ベースステーション91によりセンサ情報要求信号を受信したときのみセンサを動作させるといったように、センサの動作を、ベースステーション91からの指示により間欠的に行なう手法も可能である。
【0334】
(機能分担)
本実施の形態におけるロボット90における制御装置4と、ベースステーション91における情報処理の機能分担について以下に示す。
【0335】
ロボット90とベースステーション91は通信路を通じて情報交換可能なので、各々の機能分担をさまざまな形が可能である。たとえば、上記実施の形態のごとく、ベースステーション91の機能をすべてロボット90に収め、ベースステーション91を廃した、いわゆる、スタンドアロンタイプも可能である。しかし、ロボット90に過剰な質量を搭載すると浮上が困難になる。
【0336】
また、ロボット90が軽量である方が機敏な動きが可能になり、システム動作効率を上げることができる。つまり、一般に、情報処理の大部分はベースステーション91にて行ない、ロボット90を軽量に設計することが望ましい。特に、作業空間92におけるマップデータはその作業空間の大きさ、障害物の多さに依存して大きくなる。
【0337】
このため、ロボット90の搭載重量の増加に繋がらないメモリ912が用意されていることが望ましい。先の項で示した、赤外線放射源の位置特定なども、ベースステーション91における演算装置911にて行なえば、ロボット90における制御装置4には簡素なデバイスを用いることができるため、軽量化が可能である。
【0338】
上述の議論に加え、ロボット90における制御装置4と、ベースステーション91における情報処理の機能分担については、通信速度の向上が重量増加に繋がる点を考慮する必要がある。
【0339】
たとえば、電波を用いた通信の場合、通信速度が高速になると、キャリアとしてのエネルギの高い、高周波数の電波を用いなくてはならないため消費電力が大きくなる。このため、電源6の重量増加に繋がる。また、補償回路などを用いて信号品質を向上させなくてはならず、構成要素が増えるため、通信機能の重量増加に繋がる。総合的にはこれらのトレードオフを考慮して、実際の機能分担をデザインする必要がある。
【0340】
たとえば、羽ばたきの細部、すなわち、羽根の角度α、β、θをもベースステーション91が指示する場合を考えると、一般に羽ばたき以降の周波数は数10Hz以上であるため、α、β、θの制御周波数帯域はkHzオーダである。この場合、α、β、θのデータがそれぞれ8ビットであるとして、各々1kHzで制御するには、単一の通信路で8(bit)×1(kHz)×3×2(アクチュエータの個数)=48(kbps)の通信速度が必要である。これは送信のみの速度であり、実際には受信のための帯域も必要となる。これに通信のオーバーヘッド、また、焦電型赤外線センサ53などのセンサからのデータも加わるため、100kbps程度の通信速度を持った通信方法が必要となる。
【0341】
ところで、ロボット90における前進や後退、左右への旋回といった基本的な動作については、各々の動作に対応した一定のパターンの羽ばたき方を用意することができる。よってこれら基本動作とそれをもたらす羽ばたき方のパターンをロボット90に内包しておき、ベースステーション91が予定経路にふさわしい基本動作を算出し、ロボット90に指示し、ロボット90は指示された基本動作から内包された羽ばたき方のパターンを選択するなどの手法を用いても、ロボット90に所望の経路を飛行させることができる。
【0342】
このように、ロボット90は羽ばたき方そのものの制御に代表される高い周波数帯域の制御、ベースステーション91は経路制御に代表される低い周波数帯域での制御を受け持つ形態が、制御装置の演算量の軽減、通信経路のトラフィックス軽減の観点から望ましい。なお、これらの基本動作とそれをもたらす羽ばたき方のパターンは、テーブルとして制御装置4に用意しておくのが、処理速度、制御装置4における演算量の低減の観点から望ましい。
【0343】
当然、特に制御装置4に代表される演算装置の演算能力や通信速度は今後大きく向上することが期待されるので、ここで記したロボット90とベースステーション91における情報処理の態様は、現状をもとに基本となる考えを例示したものであり、具体的な機能分担については、今後ここに記した限りではない。
【0344】
(高度制御)
本実施の形態においては、高度制御により容易に異なる階への移動が行なえる。すなわち、マップデータに高さ情報を含めれば、従来の床面移動ロボット制御手法に、高さ方向の制御を加えるだけで、巡回経路の高さ変更を行なうことが可能である。すなわち、階段のマップデータに従って、たとえば、階段における鉛直下方面よりほぼ一定の鉛直方向距離を保つなどのアルゴリズムによって高さを変更しながら浮上移動することで、階段の上り下りが容易に実現できる。
【0345】
当然、先に示した異なる階の移動に階段を用いるのは、異なる階を移動する手法の一例であり、これに限らない。たとえば、通風口や吹きぬけなどを用いることも可能である。
【0346】
(複数の巡回について)
本実施の形態においては、単一の巡回のみを例示したが、巡回の態様については当然これに限らない。本実施の形態に例示したような巡回行動を繰返し行なうことも可能である。
【0347】
また、このような巡回方法で新たに巡回を行なうことも可能である。また、本実施の形態においては巡回終了後、ベースステーションに帰還する行動形式を例として示したが、これは一例であり、この限りではない。たとえば、作業空間92に複数のベースステーションを配し、この間を巡回していく手法も可能である。
【0348】
(エネルギ補充機構について)
当然、電源6の充電方法や形態は、軽量稼働継続使用を両立させるために一般的に用いられるエネルギ補充の一形態を例示したのみで、電源として機能を満たすものであれば電源6とその充電機構の態様はここに例示した限りではない。
【0349】
たとえば、羽根に金属薄膜スパッタリングによってコイルを構成し、外部から電波を与え、これをそのコイルで電力に変換、整流して電源6を充電する方法も可能である。
【0350】
また、たとえば、ベースステーション91以外に充電のみを目的とする充電ステーションが存在し、そこで充電を行なうことも可能である。
【0351】
また、電力以外のエネルギを用いる場合、これに適したエネルギ補充方法が必要となる。もちろん、電極61と充電孔914の形状は本実施の形態に示したものとは限らない。また、本実施の形態に示したように位置決めの役割を兼用していることは必須ではない。
【0352】
(通信について)
本実施の形態においては、ベースステーション91は常にロボット90の情報を得てこれを制御するものとしたが、ロボット90に自立的動作が可能である場合など、常にベースステーション91がロボット90を制御することは必ずしも必要ではない。
【0353】
また、メモリ42に情報を一時的に保存しておくことで、ベースステーション91とロボット90の通信の頻度を下げることができる。これは後述するロボットやベースステーションが複数存在する場合など、通信路のトラフィック低減が求められる場合などに有効である。
【0354】
ロボット90とベースステーション91とのコネクションは、途絶する可能性を前提として設計することが望ましい。ここで、ロボット90に通信路が途絶した場合の行動形式を予め組込んでおけば、コネクションが再開された際通信途絶に起因する悪影響を最小限に抑えることができる。
【0355】
一例として通信路が途絶した場合、ロボット90はホバリングを行なうことで浮上状態を一定に保つ機能を備えておけば、ホバリングせずに移動し続ける場合に比べて障害物に衝突する可能性が小さくなる。
【0356】
また、メモリ42にある程度先の動作モデルをバッファリングしておくことで、通信路が途絶した場合でもロボット90が飛行を続けることができ、逆に、メモリ42にセンサの検出した情報をバッファリングしておき、通信路が回復した際にこれをベースステーション91がやることで、通信路が途絶している間のセンサ情報をベースステーションが得ることができる。
【0357】
また、逆にこういったバッファリングを用いることで、障害物が多く電波がさえぎられやすい環境においてもより微弱な電波で群ロボットシステムの機能を達成することができるため、省電力化が可能であり、電源6の軽量化に繋がるため、ロボット90の機動性を高めることができる。
【0358】
(環境変化について)
本実施の形態においては説明の簡便のため、作業空間92における環境は変化しないものとしたが、実際の使用においては環境は変化する。主要な環境辺かとしての気流の発生と障害物の変化が挙げられる。なお、これらの環境変化が存在する場合はその補正手段を用意する必要がある。
【0359】
気流については、羽ばたき飛行であっても一般の航空機と同様の影響を受けるため、この補正は一般的な航空機の経路計画に用いられる手法がそのまま応用可能である。
【0360】
障害物の変化についても、その対処方法は従来の遠隔操作ロボットのシステムに採用されている手法がそのまま適用可能である。たとえば、光センサなどの障害物検出手段をロボット90に設け、その障害物検出データベースをベースステーション91に送信し、ベースステーション91はその情報からマップデータを更新するなどの手法が考えられる。
【0361】
(システム構成(台数について))
本実施の形態においては説明の簡便のためベースステーションは1台としたが、複数のベースステーションによってロボット90を制御することも当然可能である。一例として、ベースステーション91とロボット90の通信可能範囲よりも作業空間92が広い場合、作業空間92をカバーするように複数のベースステーションを設け、ロボット90の制御を空間的に分担する手法が挙げられる。
【0362】
また、本実施の形態においては、ベースステーション91に、ロボット90の制御機能と離着陸補助機能とエネルギ補充機能すなわち充電機能を統合したが、当然これらの機能がベースステーションに統合されていることは必須ではない。たとえば、通信可能範囲に比べ、航続飛行距離、すなわち、外部から駆動エネルギを補充することなく飛び続けることができる距離が短い場合、1台のベースステーションがカバーする通信範囲内に、他のエネルギ補充ステーションが存在するといった形態が考えられる。
【0363】
逆に、ロボット90も単一である必要はなく、複数のロボットを用いた方が作業空間92の検索効率を高めることができる。たとえば、本実施の形態に示す人の探索の目的の場合、作業空間92をロボット90Aが1回検索するのにかかる時間T1(秒)とすると、ロボット90Aが検索を開始してからT1/2(秒)後にロボット90Bに検索を開始させれば作業空間92におけるある位置の検索頻度は毎秒2/T1(回)となり、2倍の頻度で検索されるため、人を発見する確率が上がる。また、魚群の回遊をモデルとした群行動を行なうロボットを用いてもよい。
【0364】
また、当然、ベースステーション91の機能すべてをロボット90に内包でき、かつ、浮上が可能な重量であるならばスタンドアロンタイプとしてロボット90単独での使用形態も可能である。逆に、ほとんどの情報処理をベースステーション91が担い、ロボット90の制御部はアクチュエータのみである形態も可能である。
【0365】
本実施の形態の群ロボットシステムによれば、ロボットは浮力を得て地面を離れて移動することができるので、たとえば家具などのさまざまな物体が置かれ、そしてそのような物体の位置が時間的に変化する屋内において、そのような障害物を避けて移動することができて、各部屋の状態把握などの所定の作業を行なうことができる。また、屋外においては、たとえば、災害地における障害物や一般のフィールドなどにおける地形などに左右されることなく移動することができて情報収集などの作業を容易に行なうことができる。また、既存作業空間への導入を安価に、簡便に実現できる。
【0366】
本実施の形態の群ロボットシステムによれば、物理量取得手段と通信手段とを有する上記ロボットと、このロボットと通信によりロボットからの情報を得る、もしくはロボットを制御することが可能なベースステーションとの構成により、ロボットにおける情報処理を浮上に影響しない構成要素にて行なうことができるため、ロボットの起動力を損なうことなく情報処理量を増やすことができる。
【0367】
次に、上記ロボットの別実施の形態を説明する。
(別実施の形態)
別実施の形態に係る羽ばたきセンシングロボットを用いた群ロボットシステムについて説明する。本実施の形態の群ロボットシステムは、前述の実施の形態と略同様であるが、羽ばたきセンシングロボットの構造のみが異なる。すなわち、本実施の形態の羽ばたきセンシングロボットは、前述の実施の形態の群ロボットシステムにおいて用いられ、ベースステーションと通信制御の関係は同様の関係で用いられる。また、羽ばたきセンシングロボットがフェロモンロボットとして用いられる場合も同様である。さらに、本実施の形態では、羽ばたきセンシングロボットの羽ばたき飛行に関してのみ説明するが、羽ばたきセンシングロボットには対象物を検出するためのセンサとして前述の実施の形態と同様のセンサが設けられており、階層構造においてスペクトラム拡散通信を用いて、他の羽ばたきセンシングロボット、フェロモンロボットまたはベースステーションと通信可能な通信機構においても前述の実施の形態と同様の通信機構が設けられている。
【0368】
図29(a)および図29(b)は、羽部として2本の羽軸を有する羽ばたきセンシングロボットを示す図である。図29(a)では、羽ばたきセンシングロボットの前方正面部分が示され、図29(b)では、羽ばたきセンシングロボットの前方正面に向かって左側面部分が示されている。
【0369】
なお、図29(a)および図29(b)では羽ばたきセンシングロボットの前方正面に向かって左羽しか示されていないが、実際には、胴体部105の中心軸を挟んで左右対称に右羽も形成されている。また、説明を簡単にするため、胴体部105が延びる方向に沿った軸(胴体軸801)は水平面内にあり、重心を通る中心軸802は鉛直方向に保たれているとする。
【0370】
図29(a)および図29(b)に示すように、羽ばたきセンシングロボットの胴体部105には、前羽軸103および後羽軸104と、その前羽軸103と後羽軸104との間を渡すように設けられた羽の膜106とを有する羽(左羽)が形成されている。
【0371】
また、胴体部105には、前羽軸103を駆動するための回転型アクチュエータ101と後羽軸104を駆動するための回転型アクチュエータ102とが搭載されている。このようなアクチュエータ101、102の配置や前羽軸103、後羽軸104および羽の膜106を含む羽の形状は、飛行の性能が損なわれないならばこれに限られるものではない。
【0372】
さらに、この羽ばたきセンシングロボットの場合、羽の断面形状を鉛直上方に凸となるようにしておけば、水平方向への飛行に際して抗力だけでなく揚力も発生して、より大きな浮上力が得られることになる。
【0373】
また、この羽ばたきセンシングロボットの重心の位置は、羽ばたきセンシングロボットの安定性を重視するために羽が周囲の流体により受ける力のアクチュエータに対する作用点の位置よりも下方になるように設定されている。一方、羽ばたきセンシングロボットの姿勢を容易に変更する観点からは重心とその作用点を略一致させておくことが望ましく、この場合には、姿勢制御に必要な左右の羽が流体から受ける力の差が小さくなって、羽ばたきセンシングロボットの姿勢変更を容易に行なうことができる。
【0374】
2つの回転型アクチュエータ101、102は互いに回転軸800を共有している。この回転軸800は胴体軸とは所定の角度(90°−θ)をなしている。前(後)羽軸103、104はアクチュエータ101、102を支点として回転軸800と直交する平面内を往復運動する。この回転軸800と直交する平面と胴体軸801とのなす角度が仰角θとなる。
【0375】
胴体部105としては、機械的強度を確保するとともに、十分な軽量化を図るために、ポリエチレンテレフタレート(PET)などを円筒状に成形したものが望ましいが、このような材料や形状に限定されるものではない。
【0376】
アクチュエータ101、102としては、起動トルクが大きいこと、往復運動が簡単に実現できること、構造が単純なことなどから、圧電素子(ピエゾ)を用いた超音波進行波アクチュエータを用いるのが望ましい。これには、回転型アクチュエータとリニア型アクチュエータとの2つの種類がある。図29(a)および図29(b)では、回転型アクチュエータが用いられている。
【0377】
ここでは、進行波を用いた超音波素子によって羽を直接駆動する方法を中心に説明するが、この羽を駆動するための機構や、それに用いるアクチュエータの種類については特に本実施の形態に示したものに限られない。
【0378】
回転型アクチュエータとしては、図29(a)および図29(b)に示された回転型アクチュエータ101、102の他に、たとえば、図39に示される回転型アクチュエータ401を用いてもよい。
【0379】
図39に示された羽ばたきセンシングロボットでは、胴体部404に搭載された回転型アクチュエータ401に羽403が取付けられている。羽403は回転型アクチュエータ401の回転軸402を中心として往復運動をする。
【0380】
また、羽を駆動するための機構としては、特開平5−1695675号公報に記載されているような外骨格構造とリニアアクチュエータを組合わせた機構を適用して、たとえば図40または図41に示すような羽ばたきセンシングロボットを構成してもよい。
【0381】
図40に示された羽ばたきセンシングロボットでは、リニアアクチュエータ501の一端に、前羽軸または後羽軸503が接続されている。胴体部504に装着されたヒンジ502を介してリニアアクチュエータ501の運動が前羽軸または後羽軸503に伝えられることで羽ばたき運動が行なわれる。この羽ばたき運動は、羽を直接筋肉で駆動するトンボの羽ばたき運動にヒントを得たものである。
【0382】
図41に示された羽ばたきセンシングロボットでは、胴体部は上面胴体部603と下面胴体部604に分けられている。下面胴体部604に固定されたリニアアクチュエータ601の運動が上面胴体部603に伝えられる。そして、その上面胴体部603の運動がヒンジ602を介して前羽軸または後羽軸603に伝えられることで羽ばたき運動が行なわれる。この羽ばたき運動は、トンボ以外のハチなどが用いている羽ばたき運動にヒントを得たものである。
【0383】
図41に示す羽ばたきセンシングロボットの場合、1つのアクチュエータ601によって左右の羽軸603が同時に駆動されるため、左右の羽軸を別々に駆動することができず、細かな飛行制御を行なうことはできないが、アクチュエータの数を減らすことができて、軽量化および消費電力の低減を図ることが可能である。
【0384】
さて、図29(a)および図29(b)に示された羽ばたきセンシングロボットでは、回転型アクチュエータ101、102には前羽軸103と後羽軸104とがそれぞれ接続されている。前羽軸103と後羽軸104と間には羽の膜106が張られている。羽の膜106はその面内において収縮する方向に自発的な張力を有しており、羽全体の剛性を高める働きをしている。
【0385】
軽量化のため前羽軸103と後羽軸104は中空構造であり、それぞれカーボングラファイトから形成されている。このため、前羽軸103と後羽軸104には弾力性があり、前羽軸103と後羽軸104とは羽の膜106の張力により変形可能である。
【0386】
図42は本羽ばたきセンシングの全体の構造を示す図である。なお、前方方向(紙面に向かって上)に向かって左側の羽は省略されている。胴体部700には、超音波センサ701、赤外線センサ702、加速度センサ703および角加速度センサ704が配されている。これらのセンサによる検出結果は羽ばたき制御部705に送られる。
【0387】
羽ばたき制御部705では、超音波センサ701や赤外線センサ702によって検出された結果から羽ばたきセンシングロボットと周囲の障害物や人間との距離などが情報が処理される。また、加速度センサ703や角加速度センサ704によって検知された結果から、羽ばたきセンシングロボットの浮上状態、目的位置または姿勢などの情報が処理処理されて、左右のアクチュエータ706および重心制御部707の駆動制御が決定される。
【0388】
なお、ここでは、本羽ばたきセンシングロボットの周囲に存在する障害物を検出する手段として超音波センサ701および赤外線センサ702を用い、本羽ばたきセンシングロボットの位置および姿勢を検出する手段として加速度センサ703および角加速度センサ704を用いたが、本羽ばたきセンシングロボットの周囲環境や位置と姿勢が計測可能なセンサであれば、上記センサに限られない。
【0389】
たとえば、直交する3軸方向の加速度を測定可能な加速度センサ2つをそれぞれ胴体部700の異なる位置に配して得られる加速度情報からも、本羽ばたきセンシングロボットの姿勢を算出することは可能である。また、本羽ばたきセンシングロボットが移動する空間内に磁場分布を設けておき、磁気センサによってこの磁場分布を検知することで本羽ばたきセンシングロボットの位置と姿勢を算出することも可能である。
【0390】
また、図42では、加速度センサ703および角加速度センサ704をはじめとするセンサ類は、羽ばたき制御部705とは別部品として示されているが、軽量化の観点から、たとえばマイクロマシニング技術により羽ばたき制御部705と一体で同一基板上に形成してもよい。
【0391】
また、本羽ばたきセンシングロボットでは羽の駆動をオープンループ制御としているが、羽の付け根に羽の角度センサを設け、この角度センサから得られる角度情報によりクローズドループ制御を行なうことも可能である。
【0392】
なお、浮上する空間における流体の流れが既知であり、予め定められた羽ばたき方法によって浮上することが可能ならば、ここに挙げたセンサ類は必須ではない。
【0393】
羽ばたき制御部705はメモリ部708と接続されており、羽ばたき制御に必要な既存のデータをメモリ部708から読出すことができる。また、各センサ701〜704によって得られた情報をメモリ部708に送込み、必要に応じてメモリ部708の情報を書換えることもでき、羽ばたきセンシングロボットとして学習機能を持たせることができる。
【0394】
なお、各センサ701〜704によって得られた情報をメモリ部708に蓄積するだけであれば、羽ばたき制御部705を介さずにメモリ部708と各センサ701〜704とが直接接続されていてもよい。また、羽ばたき制御部705は通信制御部709と接続されて、通信制御部709とデータの入出力を行なうことができる。通信制御部709は、アンテナ部710を介して外部の装置(他の羽ばたきセンシングロボットやベースステーションなど)とのデータの送受信を行なう。
【0395】
このような通信機能により、羽ばたきセンシングロボットが取得してメモリ部708に蓄えられたデータを速やかに外部の装置に転送することができる。また、羽ばたきセンシングロボットでは入手できない情報を外部の装置から受取り、そのような情報をメモリ部708に蓄積することで、羽ばたきの制御に利用することもできる。たとえば、大きなマップ情報のすべてを羽ばたきセンシングロボットに記憶さなくても、随時、必要な範囲のマップ情報をベースステーションなどから入手することなどが可能となる。
【0396】
なお、図42では、アンテナ部710は胴体部700の端から突き出た棒状のものとして示されているが、アンテナの機能を有するものであれば、形状、配置などこれに限られない。たとえば、前羽軸712や後羽軸713を利用して、羽の上にループ状のアンテナを形成してもよい。また、胴体部700にアンテナを内蔵した形態でも、あるいは、アンテナと通信制御部709とを一体化させた形態でもよい。
【0397】
超音波センサ701、赤外線センサ702、加速度センサ703、角加速度センサ704、羽ばたき制御部705、左右のアクチュエータ706、重心制御部707、メモリ部708、通信制御部709およびアンテナ部710などは、電源部711により供給される電流によって駆動される。
【0398】
ここでは、駆動エネルギーとして電力を用いたが、内燃機関を用いることも可能である。また、昆虫の筋肉に見られるような、生理的酸化還元反応を用いたアクチュエータを用いることも可能である。あるいは、アクチュエータの駆動エネルギーを外部から取得する方法も採用できる。たとえば、電力については熱電素子、電磁波などが挙げられる。
【0399】
(浮上方法)
説明の簡便のため、本羽ばたきセンシングロボットに作用する外力は、羽が流体から受ける流体力と羽ばたきセンシングロボットに作用する重力(羽ばたきセンシングロボットの質量と重力加速度との積)のみであるとする。本羽ばたきセンシングロボットが恒常的に浮上するためには1回の羽ばたき動作の間の時間平均において、次の関係、
(羽に作用する鉛直上方向の流体力)>(本羽ばたきセンシングロボットに作用する重力)
を満たすことが必要とされる。1回の羽ばたき動作とは、羽を打ち下ろし次に羽を打ち上げる動作をいう。
【0400】
さらに、鉛直上向きの流体力を卓越させて上昇させるためには、
(打ち下ろし動作において羽に作用する鉛直上向きの流体力)>(打ち上げ動作において羽に作用する鉛直下向きの流体力)
となる必要がある。
【0401】
ここでは、昆虫の羽ばたき方を単純化した羽ばたき方法により、打ち下ろし動作において羽に作用する鉛直上向きの流体力(以下「打ち下ろし時の流体力」と記す。)を、打ち上げ動作において羽に作用する鉛直下向きの流体力(以下「打ち上げ時の流体力」と記す。)より大きくする方法について説明する。
【0402】
説明の簡便のため、流体の挙動もしくは流体が羽に及ぼす力については、その主要成分を挙げて説明する。また、この羽ばたき方法により得られる浮上力と、本羽ばたきセンシングロボットに作用する重力(以下「重量」と記す。)の大小については後述する。
【0403】
打ち下ろし時の流体力を打ち上げ時の流体力よりも大きくするためには、打ち下ろし時に羽の膜106が移動する空間の体積が最大になるように打ち下ろせばよい。そのためには、羽の膜106を水平面と略平行に打ち下ろせばよく、これにより、ほぼ最大の流体力を得ることができる。
【0404】
反対に、打ち上げ時には羽の膜106が移動する空間の体積が最小になるように打ち上げればよい。そのためには、羽の膜106を水平面に対して略直角に近い角度で打ち上げればよく、これにより、羽に及ぼされる流体力はほぼ最小となる。
【0405】
そこで、回転型アクチュエータ101、102により回転軸800の周りに両羽軸103、104を往復運動させる際に、各羽軸103、104が水平面と略一致する位置を中心として上方と下方とにそれぞれ角度γだけ往復運動させるとする。さらに、図30に示すように、前羽軸103の往復運動に対して後羽軸104の往復運動を適当な位相φだけ遅れさせる。
【0406】
これにより、図31〜図38(ここではφ=20°として描いた)に示す一連の羽の往復運動のうち、図31〜図34に示された打ち下ろし時においては、より高い位置にある回転型アクチュエータ301の前羽軸303が先に打ち下ろされるため、前羽軸303および後羽軸304の先端と羽の膜306が水平に近づく。
【0407】
一方、図35〜図38に示された打ち上げ時においては、両羽軸103、104の先端の高さの差が拡大されて、羽の膜306も垂直に近づく。この結果、前羽軸303と後羽軸304に張られた羽の膜106が流体を押し下げ、あるいは、押し上げる量に差異が生じ、この羽ばたきセンシングロボットの場合には、打ち下ろし時の流体力の方が打ち上げ時の流体力よりも大きくなって浮上力が得られることになる。
【0408】
この浮上力のベクトルは、位相差φを変化させることにより前後に傾く。前方に傾けば推進運動、後方に傾けば後退運動、真上に向けば停空飛翔(ホバリング)状態となる。なお、実際の飛行では、位相差φ以外にも、羽ばたき周波数fや羽ばたき角γを制御することが可能である。また、この羽ばたきセンシングロボットでは、羽ばたき仰角θを固定しているが、これを変化させる機能を追加して、自由度を増やしても構わない。
【0409】
(羽ばたき制御)
実際の羽ばたき制御についてさらに詳細に説明する。上述した羽ばたきセンシングロボットでは、打ち下ろし動作または打ち上げ動作の際に、羽の先端部がなす捻り角αは、羽の長さ(羽の膜の前羽軸および後羽軸に沿った長さ)をl、羽の幅(前羽軸と後羽軸の間隔)をw、羽ばたき角をγ、羽ばたき運動の位相をτ(最も打ち上げた瞬間を0°、最も打ち下ろした瞬間を180°とする)、前羽軸と後羽軸の位相差をφとすれば(図31、37、38を参照)、およそ以下の式で表わされる。
【0410】
tanα=(w/l)・〔sin(γ・cosτ)−sin{γ・cos(τ+φ)}〕
実際には、前羽軸や後羽軸には弾性があり変形可能であるので、この捻り角αは多少違った値をとる。また、羽軸の根元ほどこの角度は小さい。しかし、以下の議論では簡便のため、上の式のαを用いて説明する。
【0411】
捻りを加えていない羽に作用する流体力の鉛直方向成分Fは、流体の密度をρ、羽ばたき角度をγ、羽ばたき周波数をfとして、およそ
F=(4/3)・π2ρwγ223・sin2τ・cos(γ・cosτ)
となる。なお、羽に作用する流体力の水平方向成分は、左右の羽が同じ運動をすれば互いに打ち消し合うことになる。
【0412】
羽に捻り角αをもたせると、上記成分Fの羽ばたき運動平面に垂直な成分Lと、水平な成分Dはそれぞれ次のようになる。
【0413】
L=F・cosα・sinα
D=F・cos2α
これに、羽ばたき仰角θを考慮すると、重量と釣り合うべき鉛直方向の成分Aと、前後運動の推力となる水平方向成分Jは、打ち下ろし時では、
A↓=−L・cosθ+D・sinθ
J↓=−L・sinθ−D・cosθ
打ち上げ時では、
A↑=L・cosθ−D・sinθ
J↑=L・sinθ+D・cosθ
となる。実際の浮力や推進力は、羽ばたき運動の1周期分を積分したものとなる。
【0414】
以上より、この飛行制御の一例として、羽ばたきセンシングロボットの羽の長さl=4cm、羽の幅w=1cm、羽ばたき仰角θ=30°、羽ばたき角γ=60°、羽ばたき周波数f=50Hz、打ち下ろし時の位相差φ↓=4°、打ち上げ時の位相差φ↑=16°とした場合における鉛直方向成分Aと水平方向成分Bの時間変化を各角度の時間変化とともに図43に示す。
【0415】
横軸は1周期分の時間が位相τとして表わされている。前半が打ち下ろし、後半が打ち上げを示している。各グラフの曲線は前羽軸の羽ばたき角γf、後羽軸の羽ばたき角γb、水平面からの羽の捻り角(α+θ)、流体力の鉛直方向成分Aおよび水平方向成分Jの時間変化をそれぞれ示している。
【0416】
この例では、単位時間当りの流体力の鉛直方向成分Aにおいては打ち下ろし時の方が打ち上げ時よりも大きいため、1周期の平均で約500dynの鉛直上向きの流体力が1枚の羽で得られる。したがって、2枚の羽では羽ばたきセンシングロボットの重量が約1g以下であれば浮上することができることになる。また、単位時間当りの流体力の水平方向成分Jは、1周期の間にほぼ打ち消されるため、重量1g程度の羽ばたきセンシングロボットであればホバリング可能となる。
【0417】
ここで、打ち下ろし時の位相差φ↓を大きく、もしくは、打ち上げ時の位相差φ↑を小さくすれば、前進することができる。このとき、水平に前進させるためには、周波数fを少し小さくするのが望ましい。逆に、打ち下ろし時の位相差φ↓を小さくし、もしくは、打ち上げ時の位相差φ↑を大きくすれば後退することができる。このとき、水平に後退させるためには、周波数fを少し大きくすることが望ましい。
【0418】
この羽ばたきセンシングロボットでは、たとえば、打ち上げ時の位相差φ↑を16°に保ったまま打ち下ろし時の位相差φ↓を7°と大きくするか、打ち下ろし時の位相差φ↓を4°に保ったまま打ち上げ時の位相差φ↑を11°と小さくし、そして、羽ばたき周波数f=48Hzに下げることで、最初の1秒間におよそ1mの速度で水平に前進することができる。
【0419】
また、たとえば、打ち上げ時の位相差φ↑を16°に保ったまま打ち下ろし時の位相差φ↓を1°と小さくするか、打ち下ろし時の位相差φ↓を4°に保ったまま打ち上げ時の位相差φ↑を24°と大きくし、そして、羽ばたき周波数f=54Hzに上げることで、最初の1秒間におよそ1mの速度で水平に後退することができる。
【0420】
ホバリング状態のまま、羽ばたきセンシングを上昇または下降させるためには、周波数fを上げるかまたは下げるかすればよい。水平飛行中でも、上昇と下降については、主に周波数fによって制御が可能である。周波数fを上げることで羽ばたきセンシングロボットは上昇し、周波数を下げることで羽ばたきセンシングロボットは下降する。
【0421】
この例では、打ち上げ動作中もしくは打ち下ろし動作中にも、羽の捻り角αをゆっくり変化させているが、これは、アクチュエータへの負荷を減らすためである。浮力を得るための羽ばたき運動としては、打ち上げ動作中や打ち下ろし動作中は羽の捻り角αを一定の値に設定して、打ち下ろし動作から打ち上げ動作、もしくは、打ち上げ動作から打ち下ろし動作への変化点において捻り角αを急激に変化させるようにしてもよい。
【0422】
羽ばたき仰角θ=0°とした場合の鉛直方向成分Aと水平方向成分Bの時間変化を各角度の時間変化とともに図44に示す。この場合は、ハチドリのホバリングにヒントを得た羽ばたき運動である。なお、左右への舵取りは、左右の羽の羽ばたき運動を別々に制御できる場合、それぞれの羽による推力に差を持たせればよい。
【0423】
たとえば、前方へ飛行中に右方向へ旋回するには、右羽の羽ばたき角γを左羽よりも小さくする、または、右羽の前羽軸と後羽軸の位相差を、左羽より大きくする、あるいは、羽ばたき仰角θが制御できるような場合には、右羽のθを左羽よりも小さくするといった制御を行なう。これにより、右羽の推進力が左羽の推進力に比べて相対的に下がり右に旋回することができる。羽ばたきセンシングロボットを左へ旋回させる場合には、その逆の制御を行なえばよい。
【0424】
一方、図41に示された羽ばたきセンシングロボットのように、左右の羽を別々に制御することができないような場合には、図42に示された羽ばたきセンシングロボットに搭載されているような重心制御部707をこの羽ばたきセンシングロボットに搭載して、羽ばたきセンシングロボットの重心を左右にずらすことで左右への旋回を行なうことができる。
【0425】
たとえば、重心を右にずらして右羽を下方へ左羽を上方へ傾け、そして、周波数fを大きくすることで、羽ばたきセンシングロボットを右へ旋回させることができる。重心を左にずらして、同様に、周波数fを大きくすることで、羽ばたきセンシングロボットを左に旋回させることができる。なお、この方法は2つの羽を別々に制御することができる場合にも適用することができる。また、いずれの羽ばたきセンシングロボットにおいても、姿勢の安定を保つために、左右のそれぞれの羽ばたきの周波数fを同じ値に設定しておくことが望ましい。
【0426】
なお、上記2つの実施の形態のおいては、センシングロボットに羽ばたきセンシングロボットを用いた群ロボットシステムを説明したが、リモートコントロール可能なヘリコブター、2脚歩行する人型ロボット、魚型のロボットを用いた魚群ロボットなど、ベースステーションにより群ロボットシステムとして、動作、対象物の検出、および通信等の制御が行なえるものであれば他のロボットであってもよい。
【0427】
最後に、本実施の形態の群ロボットシステムに用いられる羽ばたきセンシングロボット(または羽ばたきフェロモンロボット)の構成およびその効果をまとめて記載しておく。
【0428】
本実施の形態の羽ばたきセンシングロボットは、流体が存在する空間を羽ばたくための羽部と駆動部と胴体部とを含む浮上本体部を備えている。駆動部は、羽部を上方から下方に向かって打ち下ろす打ち下ろし動作と、羽部を下方から上方に向かって打ち上げる打ち上げ動作とを行なう。胴体部には羽部が取付けられ、駆動部が搭載される。そして、一連の打ち下ろし動作および打ち上げ動作の間の時間平均では、羽部が流体から受ける力のうち鉛直上向きの力が浮上本体部に作用する重力よりも大きくなる。
【0429】
この構造によれば、羽部の羽ばたき動作において打ち下ろし動作および打ち上げ動作の間の時間平均では、羽部が流体から受ける力のうち鉛直上向きの力が浮上本体部に作用する重力よりも大きくなることで、浮上本体部に浮力が与えられることになる。その結果、浮上本体部は地面に接することなく移動することができる。
【0430】
浮上本体部に浮力を与えるためには、打ち下ろしの動作の際に羽部が移動する空間の体積は打ち上げの動作の際に羽部が移動する空間の体積よりも大きいことが望ましく、たとえば、浮力と浮上本体部に作用する重力とを釣り合わせることで地面から離れた状態で空間に留まる停空飛翔(ホバリング)も可能になる。
【0431】
このような浮上本体部は、屋内において所定の作業を行なうための移動手段として用いられること、または、屋外において所定の作業を行なうための移動手段として用いられることが望ましい。
【0432】
浮上本体部は浮力を得て地面を離れて移動することができるので、たとえば家具等のさまざまな物体が置かれ、そして、そのような物体の位置が時間的に変化する屋内において、そのような障害物を避けて移動することができて各部屋の状況把握等の所定の作業を容易に行なうことができる。また、屋外においては、たとえば災害地における障害物や一般のフィールドなどにおける地形等に左右されることなくに移動することができて、情報収集等の所定の作業を容易に行なうことができる。
【0433】
具体的に、羽部は羽本体部と羽本体部を支持する羽軸部とを有し、駆動部は、羽軸部を駆動させることにより羽本体部の先端部と仮想の所定の基準面とのなす捻り角を変化させることが望ましい。
【0434】
これにより、羽部が流体から浮ける流体力の大きさや向きが変化して、浮上本体部を上昇、下降、前進または後退させることができる。
【0435】
また、打ち下ろしの動作の際に羽部が移動する空間の体積を打ち上げの動作の際に羽部が移動する空間の体積よりも大きくするために、駆動部は打ち下ろし動作における捻り角と打ち上げ動作における捻り角とを異ならせる必要がある。
【0436】
さらに、駆動部は捻り角を時間的に変化させることが望ましい。
この場合には、羽部の姿勢を滑らかに変化させることができて、羽部に急激に流体力が作用するのを抑制することができる。
【0437】
また、羽軸部は一方側羽軸部と他方側羽軸部とを含み、羽本体部は一方側羽軸部と他方側羽軸部との間を渡すように形成された膜部を含み、駆動部は一方側羽軸部と他方側羽軸部とを個々に駆動させることが望ましい。
【0438】
この場合、一方側羽軸部と他方側羽軸部とを個々に駆動させることで、捻り角を容易に変えることができる。
【0439】
そして、羽軸部は駆動部を支点として仮想の一平面上を往復運動し、胴体部は一方向に向かって延び、胴体部が延びる方向と仮想の一平面とがなす仰角が変えられることが望ましい。
【0440】
この場合には、羽ばたき運動の自由度が増えて、より複雑な羽ばたき運動を実現することができる。また、この仰角をより大きくし捻り角を制御することで、より高速な飛行を行なうことができる。さらに、この仰角を実質的に0°にすることで、機動性に優れハチドリのようなホバリングを行なうことができる。
【0441】
また具体的に、羽部は主軸部とその主軸部から主軸部が延びる方向と略直交する方向に形成された羽本体部とを有し、駆動部は主軸部を駆動させることにより羽本体部に接する仮想の一平面と主軸部を含む仮想の所定の基準面とのなす捻り角を変化させることが望ましい。
【0442】
これにより、羽部が流体から浮ける流体力の大きさや向きが変化して、浮上本体部を上昇、下降、前進または後退させることができる。
【0443】
このような主軸部にて羽部の姿勢を変えるためには、駆動部は少なくとも3自由度を有するアクチュエータを含んでいることが望ましい。
【0444】
また、羽部は胴体部の略中心を挟んで一方側と他方側とにそれぞれ形成され、駆動部は一方側に形成された羽部と他方側に形成された羽部とを個々に駆動させることが望ましい。
【0445】
この場合には、一方側に形成された羽部と他方側に形成された羽部の姿勢を個々に変化させることができて、容易に浮上本体部の向きを変えることができる。
【0446】
さらに、周囲の状況を把握するためのセンサ部、情報を記憶するためのメモリ部、あるいは、情報を送受信するための通信部を備えていることが望ましい。
【0447】
センサ部を備えることで、浮上本体部の位置や姿勢、速度、周囲の障害物の位置や移動速度、温度や明るさなどの環境情報を入手し、より適切な羽ばたき制御を行なうことができる。また、メモリ部を備えることで、得られた環境情報を蓄積することができて、浮上本体部に学習機能をもたせることができる。さらに、通信部を備えていることで、複数の浮上本体部とベースステーションとの間で情報のやり取りを行なうことができ、取得した情報を交換することで複数の浮上本体部間で協調行動などを容易に行なうことができる。
【0448】
なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0449】
【発明の効果】
本発明の群ロボットシステムによれば、階層構造において通信を行なうため、それぞれのセンシングロボット同士の間またはベースステーションとセンシングロボットとの間の通信の距離を、ベースステーションとセンシングロボットとが1対1で通信を行なう場合に比較して短くすることができる。そのため、センシングロボットそれぞれの通信機構の小型化または軽量化を図りながら、ベースステーションが停止している状態での探索範囲を広げることができる。
【0450】
本発明のセンシングロボットによれば、階層構造において通信を行なうため、それぞれのセンシングロボット同士の間またはベースステーションとセンシングロボットとの間の通信の距離を、ベースステーションとセンシングロボットとが1対1で通信を行なう場合に比較して短くすることができる。そのため、センシングロボットそれぞれの通信機構の小型化または軽量化を図りながら、ベースステーションが停止している状態での探索範囲を広げることができる。
【0451】
本発明のベースステーションによれば、ベースステーションが群ロボットシステムの全てのセンシングロボットそれぞれと通信できる機能を有しなくてもよいため、ベーステーションの通信機構の小型化を図りながら、ベースステーションが停止している状態での群ロボットシステムの探索範囲を広げることができる。
【0452】
本発明のフェロモンロボットによれば、複数のセンシングロボットを、ベースステーションによる制御が可能な範囲に位置するように、センシングロボットの移動を制限する制御を行なうことにより、センシングロボットがベースステーションの指示が届かない位置に移動してしまうことによって、センシングロボットの制御が不能となるセンシングロボットが発生することを抑制することにより、群ロボットシステムの探索範囲を広げるにあったて、群ロボットシステムにおけるセンシングロボットのコントロールをより確実に行なうことができる。
【図面の簡単な説明】
【図1】 本実施の形態の群ロボットシステムを示す図である。
【図2】 本実施の形態の群ロボットシステムの通信体系が階層構造となっていることを説明するための図である。
【図3】 本実施の形態の群ロボットシステムの通信体系がツリー構造となっていることを説明するための図である。
【図4】 本実施の形態の群ロボットシステムの羽ばたきセンシングロボットの制御信号のフローを示す図である。
【図5】 本実施の形態の群ロボットシステムのスペクトラム拡散通信における制御信号の遅延プロファイルを示す図である。
【図6】 本実施の形態の群ロボットシステムのスペクトラム拡散通信における拡散符号を示す図である。
【図7】 本実施の形態の羽ばたきセンシングロボットとベースステーションとの通信の関係を示す概略の一例を説明するための図である。
【図8】 本実施の形態の羽ばたきセンシングロボットの構造を示す正面図である。
【図9】 本実施の形態の羽ばたきセンシングロボットの羽根を示す拡大斜視図である。
【図10】 本実施の形態の羽ばたきセンシングロボットの羽根のストローク角θと偏角αを示す図である。
【図11】 本実施の形態の羽ばたきセンシングロボットの羽根のねじり角βを示す図である。
【図12】 本実施の形態の羽ばたきセンシングロボットの羽ばたきに用いるアクチュエータのステータ部分を解説するための図である。
【図13】 本実施の形態の羽ばたきセンシングロボットの羽ばたきに用いるステータを用いて構成したアクチュエータを解説するための図である。
【図14】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における打下ろし動作を示す図である。
【図15】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における打上げ動作を示す図である。
【図16】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における第1の状態を示す図である。
【図17】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における第2の状態を示す図である。
【図18】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における第3の状態を示す図である。
【図19】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における第4の状態を示す図である。
【図20】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における羽根の駆動の時間依存を示す第1のグラフである。
【図21】 本実施の形態の羽ばたきセンシングロボットの羽ばたき動作における羽根の駆動の時間依存を示す第2のグラフである。
【図22】 本実施の形態の羽ばたきセンシングロボットの羽根を駆動する際のアクチュエータのトルクと始点反力とのシミュレーション結果を示すグラフである。
【図23】 本実施の形態の羽ばたきセンシングロボットを制御するベースステーションの構成を示す概念図である。
【図24】 本実施の形態の羽ばたきセンシングロボットとベースステーションとの関連を示す説明図である。
【図25】 本実施の形態の羽ばたきセンシングロボットのシステムにの動作の一例を示すフローチャートである。
【図26】 本実施の形態の羽ばたきセンシングロボットの離陸過程における情報処理を表わす説明図である。
【図27】 本実施の形態の羽ばたきセンシングロボットの巡回過程における情報処理を表わす説明図である。
【図28】 本実施の形態の羽ばたきセンシングロボットの着陸過程における情報処理を示す説明図である。
【図29】 別実施の形態に係る羽ばたきセンシングロボットを示す図であり、(a)はその部分正面図であり、(b)はその部分側面図である。
【図30】 別実施の形態において、羽ばたき運動と羽ばたき運動の位相との関係を示すグラフである。
【図31】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第1の状態を示す図である。
【図32】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第2の状態を示す図である。
【図33】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第3の状態を示す図である。
【図34】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第4の状態を示す図である。
【図35】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第5の状態を示す図である。
【図36】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第6の状態を示す図である。
【図37】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第7の状態を示す図である。
【図38】 別実施の形態において、羽ばたきセンシングロボットにおける羽ばたき動作の第8の状態を示す図である。
【図39】 別実施の形態において、一変形例に係る羽ばたきセンシングロボットを示す正面模式図である。
【図40】 別実施の形態において、他の変形例に係る羽ばたきセンシングロボットを示す正面模式図である。
【図41】 別実施の形態において、さらに他の変形例に係る羽ばたきセンシングロボットを示す正面模式図である。
【図42】 別実施の形態の羽ばたきセンシングロボットの構造を示す平面模式図である。
【図43】 別実施の形態において、羽に作用する力および各角度のそれぞれの羽ばたき運動の位相に対する変化を示す第1のグラフである。
【図44】 別実施の形態において、羽に作用する力および各角度のそれぞれの羽ばたき運動の位相に対する変化を示す第2のグラフである。
【図45】 羽ばたき浮上制御の制御関数を説明するための説明図である。
【図46】 左羽の羽ばたかせ方の変化と、それに伴って起きる浮上状態の変化とを対応づけた対応表を示す図である。
【図47】 羽ばたき浮上の基本動作を実現するための羽ばたかせ方のパターンを示した対応表を示す図である。
【図48】 従来の親子ロボットによる群ロボットシステムを示す図である。
【符号の説明】
90 羽ばたきセンシングロボット、100 群ロボットシステム、101 ベースステーション、102,103,104 羽ばたきセンシングロボット群、105 フェロモンロボット群。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a group robot system in which a large number of robots for searching for an object gather and operate as a group.
[0002]
[Prior art]
As shown in FIG. 48, Japanese Patent Laid-Open No. 7-93028 discloses a group robot including a mobile robot group including one parent robot as an example of a base station and a plurality of child robots as an example of a sensing robot. A system is disclosed. In the group robot system, the parent robot is provided with a sensing function using a non-contact sensor, the child robot is provided with a sensing function using a contact sensor, and the parent robot determines the arrangement and movement path of the child robot to determine the child robot. It gives the robot a command for position and travel distance.
[0003]
In the above-described system, the route by which the base station moves from the starting point to the destination is planned and executed by the route planning method using the information obtained by sensing the base station and the sensing robot. It has become.
[0004]
[Problems to be solved by the invention]
In the configuration described in JP-A-7-93028, the base station and the sensing robot communicate with each other in a one-to-one relationship. Therefore, when searching for a wide search range, all sensing robots are long. There may be a need to communicate over distance. Therefore, in the group robot system as described above, when the base station is stopped, each sensing robot needs a communication mechanism having a long maximum communication distance, that is, a communication mechanism having an increased size or weight. .
[0005]
In addition, if the communication mechanism is increased, each sensing robot is also increased in size or weight, which may hinder the search function of the sensing robot. Therefore, it is difficult to widen the search range of the entire group robot system when the base station is stopped.
[0006]
Further, when the base station and the sensing robot communicate with each other in a one-to-one relationship as in the conventional group robot system, it is necessary for the base station and each sensing robot to communicate with each other. Therefore, in order to expand the search range of the entire group robot system when the base station is stopped, it is necessary to provide a large communication mechanism so that the base station can communicate with each sensing robot over a long distance. From this point of view, it is difficult to widen the search range of the entire group robot system when the base station is stopped.
[0007]
  The present invention has been made to solve the above-described problem, and expands the search range when the base station is stopped while reducing the size or weight of the communication mechanism of the sensing robot or the base station. Multi-robot system that canTheIs to provide.
[0008]
Furthermore, it is necessary to make the control of the sensing robot more reliable as the search range of the group robot system is expanded. In that case, it is considered that a robot that controls the movement of the sensing robot, for example, a pheromone robot, is required to further control the communication robot by restricting the movement of the sensing robot.
[0009]
Therefore, another object of the present invention is to provide a pheromone robot that can control the sensing robot in the group robot system by restricting the movement of the sensing robot by expanding the search range of the group robot system. Is to provide.
[0010]
[Means for Solving the Problems]
  A group robot system (or group robot control method) according to the present invention includes a plurality of sensing robots used for searching for an object and a base station for controlling the plurality of sensing robots by communication. (Or a control method applied to a group robot system), in which the communication system of the group robot system has a hierarchical structure in which a plurality of sensing robots constitute a plurality of layers with the base station as the top layer, and the hierarchical structure In this case, from the base station, information on the operation control of each of the plurality of sensing robots is transmitted in order to each of the plurality of sensing robots to the lower layer side of the hierarchical structure (step 1). In order to the upper side of the hierarchical structure, Information about the search for the number of sensing robots each object is transmitted (Step 2).The upper level sensing robot in the hierarchical structure is close to the base station, the lower level sensing robot in the hierarchical structure is far from the base station, and multiple sensing robots are concentrically centered on the base station. The base station is controlled so that the plurality of sensing robots and the base station move in the arranged state.
[0011]
With the above-described configuration, the search range when the base station is stopped can be expanded while reducing the size or weight of the communication mechanism of each sensing robot.
[0012]
More preferably, the group robot system of the present invention is set such that there is always one communication route from the base station to each of the plurality of sensing robots from the upper layer to the lower layer of the hierarchical structure. By adopting such a configuration, confusion of control commands due to communication can be avoided.
[0013]
  More preferably, the group robot system of the present invention is based on communication with a base station.The distance from the base station is the farthest among the plurality of sensing robots such that the plurality of sensing robots exist between the pheromone robot and the base station.A pheromone robot that controls the movement of the sensing robot is further provided. By adopting such a configuration, it is possible to prevent the sensing robot at the bottom layer from being disabled by the sensing robot at the bottom layer of the hierarchical structure moving to a position where the instruction of the base station does not reach. can do.
[0014]
More preferably, the group robot system of the present invention can transmit information from a base station to each of a plurality of sensing robots via a pheromone robot. With this configuration, the information transmission system from the base station becomes two systems from the upper layer side to the lower layer side and from the lower layer side to the upper layer side of the hierarchical structure. It is possible to reduce the possibility of information transmission failure.
[0015]
In the group robot system of the present invention, when a pheromone robot is used, the maximum communication distance between the pheromone robot and the base station is the maximum communication distance between the base station and the sensing robot at the top layer of the hierarchical structure. The maximum communication distance between the pheromone robot and the sensing robot at the lowest layer of the hierarchical structure, and the maximum communication distance between a plurality of sensing robots is set to be larger than either, This is a precondition for enabling the pheromone robot to function effectively.
[0016]
In the group robot system of the present invention, more preferably, the maximum communication distance between the pheromone robot and the base station is the maximum communication distance between the base station and the sensing robot at the top layer of the hierarchical structure, and the pheromone robot and the hierarchical structure. Is set to be larger than a distance obtained by adding the maximum communication distance between the sensing robots in the lowermost layer and the sum of the maximum communication distances between the plurality of sensing robots. With such a configuration, the sensing robot can be used efficiently so that the communicable distance from the base station to the lowest-layer sensing robot in the hierarchical structure is the longest.
[0017]
More preferably, in the group robot system of the present invention, when searching for an object, the entire search range is determined by determining the positional relationship of the pheromone robot with respect to the base station. By adopting such a configuration, it becomes easy to determine the search range of the object.
[0018]
More preferably, the group robot system of the present invention is set such that individual search ranges of a plurality of sensing robots are determined based on the entire search range. With such a configuration, it becomes easy to determine individual search ranges of the sensing robot.
[0019]
More preferably, the group robot system of the present invention is set such that at least one of the search capability and the communication strength of the object of each of the plurality of sensing robots is determined based on each search range. Yes. With such a configuration, it is possible to accurately determine at least one of the object search capability and the communication strength.
[0020]
More preferably, in the group robot system of the present invention, when each of the plurality of sensing robots has a communication strength from a sensing robot or a base station, which is one layer above the hierarchical structure, below a predetermined reference level, It is set to move in a direction in which the communication strength exceeds the reference level. By adopting such a configuration, it is possible to suppress the occurrence of inconvenience that communication with a certain sensing robot becomes impossible and the sensing robot cannot be controlled by the base station.
[0021]
In the group robot system of the present invention, more preferably, in hierarchical communication, communication between a plurality of sensing robots in adjacent layers or communication between the uppermost sensing robot and a base station is performed. , When the communication strength is set to be the same as each other, and each of the plurality of sensing robots has a communication strength from the sensing robot or base station that is one layer higher in the hierarchical structure than a predetermined reference level. In addition, the communication strength is set to be increased until the communication strength exceeds the reference level. By adopting such a configuration, it is possible to suppress the occurrence of inconvenience that communication with a certain sensing robot becomes impossible and the sensing robot cannot be controlled by the base station.
[0022]
In the group robot system of the present invention, more preferably, the communication system in the hierarchical structure is a spread spectrum communication system. With such a configuration, the group robot system can be functioned without causing confusion in the communication system of the group robot system.
[0023]
The group robot system of the present invention is also set to perform identification of the sensing robot in the upper layer of the hierarchical structure and the sensing robot in the lower layer of the hierarchical structure in the spread spectrum communication method by the spread code. With such a configuration, the group robot system can function without causing confusion in the communication system above and below the hierarchy.
[0024]
The group robot system of the present invention is also set to perform identification of other sensing robots in the same layer of the hierarchical structure in the spread spectrum communication system using the spread code. With such a configuration, the group robot system can function without causing confusion in the communication system of the same layer in the hierarchy.
[0025]
The group robot system of the present invention includes a communication layer and spreading code for determining synchronization, a communication layer and spreading code for identifying a sensing robot in the upper layer, and a lower layer in the spread spectrum communication system. A communication layer and a spreading code for identifying a certain sensing robot are used.
[0027]
In the group robot system of the present invention, the hierarchical structure is a tree structure. With this configuration, it is possible to unify the command system from the base station to each sensing robot.
[0028]
The sensing robot of the present invention is a sensing robot that is controlled by a base station to search for an object, and the communication system has a hierarchical structure in which a plurality of sensing robots are configured with a plurality of sensing robots with the base station as the top layer. This function is used in a group robot system that is set up to be configured to transmit information related to the search for objects of sensing robots below the self to the upper layer of the hierarchical structure, and to the lower layer of the hierarchical structure And a function of transmitting information related to the operation of the lower level sensing robot.
[0029]
With the above-described configuration, the search range when the base station is stopped can be expanded while reducing the size or weight of the communication mechanism of each sensing robot.
[0030]
Note that a program for causing the computer to operate the above-described sensing robot is executed, and the sensing robot functions in the group robot system. The program recorded in a recording medium such as a CDROM may be read by the robot, or may be installed from an information transmission network such as the Internet and read by the robot.
[0034]
  The pheromone robot of the present invention includes a plurality of sensing robots used for searching for an object and a base station for controlling the plurality of sensing robots by communication.ing. The communication system is set to have a hierarchical structure in which a plurality of sensing robots constitute a plurality of layers with the base station as the top layer. In the hierarchical structure, information related to operation control of each of the plurality of sensing robots is sequentially transmitted from the base station to the lower layer side of the hierarchical structure to each of the plurality of sensing robots. From each of the plurality of sensing robots, information related to the search for the object of each of the plurality of sensing robots is transmitted in order to the upper layer side of the hierarchical structure to the base station. The upper level sensing robot in the hierarchical structure is close to the base station, the lower level sensing robot in the hierarchical structure is far from the base station, and multiple sensing robots are concentrically centered on the base station. It is used in a group robot system controlled by a base station so that a plurality of sensing robots and the base station move in the arranged state. Pheromone robotBy communicating with the base station,The distance from the base station is the farthest among the multiple sensing robots so that multiple sensing robots exist between the pheromone robot and the base stationControl to limit the movement of the sensing robot.
[0035]
By adopting such a configuration, the sensing bot is instructed by the base station by controlling the movement of the sensing robot so that the plurality of sensing robots are located within a range that can be controlled by the base station. It is possible to widen the search range when the base station is stopped by suppressing the control of any of the plurality of sensing robots by moving to an unreachable position. .
[0036]
More preferably, the pheromone robot of the present invention performs control to limit the movement of the sensing robot at the farthest position from the base station among the plurality of sensing robots by communication with the base station.
[0037]
By adopting such a configuration, the sensing robot having the furthest distance from the base station among the plurality of sensing robots moves to a position where the instruction from the base station does not reach. By suppressing the control of the sensing robot located farthest from the base station from being disabled, the search range when the base station is stopped can be expanded.
[0038]
More preferably, the pheromone robot of the present invention is used in a group robot system in which a communication system is set so as to form a hierarchical structure in which a plurality of sensing robots form a plurality of layers with the base station as the top layer. Control is performed to limit the movement of the sensing robot at the lowest layer of the hierarchical structure among a plurality of sensing robots through communication with the station.
[0039]
By adopting such a configuration, the sensing robot at the bottom layer of the hierarchical structure moves to a position where the instruction of the base station does not reach, thereby making it impossible to control the sensing robot at the bottom layer of the hierarchical structure. By suppressing this, the search range when the base station is stopped can be expanded.
[0040]
A program for operating the above-described pheromone robot is executed on the computer, and the pheromone robot functions in the group robot system. The program recorded in a recording medium such as a CDROM may be read by the robot, or may be installed from an information transmission network such as the Internet and read by the robot.
[0041]
More preferably, the pheromone robot of the present invention includes a communication mechanism having directivity with respect to the base station. With such a configuration, accurate communication can be realized more easily in a pheromone robot that does not need to communicate in all directions.
[0042]
DETAILED DESCRIPTION OF THE INVENTION
A group robot system including the robot according to the present embodiment will be described with reference to FIGS. The group robot system including the robot according to the present embodiment is configured to search for a heat source such as a fire or a person from one side, a minimum area of several tens of meters to a maximum of several kilometers square, toxic gas such as CO, and toxic radiation. An example will be described in which search, metal exploration of landmines, etc., and collection of three-dimensional image data for VR data collection for urban design are performed.
[0043]
In the present embodiment, when searching for toxic gas and toxic radiation of the entire city, the group robot does not search all the urban areas at once, but the urban area divided into a fraction is used as the base. A group of search flapping robots with a station at the center of a concentric circle searches for an object. When the flapping robot group finishes searching for the toxic gas and toxic radioactivity in the city area divided into the above-mentioned fractions, the base station searches for the city area divided into the following fractions. Start moving slowly and stop the base station when you come to the destination city area.
[0044]
Following the movement of the base station, the pheromone robot and sensing robot start moving. When the base station stops moving in the next urban area, the sensing robot group searches for the toxic gas and radiation in the divided urban area with the base station as a concentric center. Thus, in the group robot system of the present embodiment, the robot group searches for the divided areas and sends the search result to the base station. By searching for the next area while moving to the center, the entire area is searched while repeating this movement.
[0045]
The group robot system of the present embodiment will be described as follows based on FIGS. As shown in FIG. 1, the group robot system 100 used in the present embodiment includes a base station BS, a plurality of flapping sensing robots CS, and a plurality of flapping pheromone robots FE.
[0046]
FIG. 1 schematically illustrates the entire image of the group robot system. FIG. 2 shows a hierarchical structure and a positional relationship in the communication between the sensing robots CS of the group robot system and between the sensing robot CS and the base station BS. In the present embodiment, the plurality of flapping sensing robots CS include groups 102 (CS11 to CS1i) closest to the base station BS, groups 103 (CS21 to CS2j) closest to the base station BS, and groups 104 (CS31 to CS3k) farthest away. Divided into three groups. In this embodiment, it is divided into three groups. However, the present invention is not limited to three groups, and a plurality of groups may be present.
[0047]
The movement distance per hour of the flapping sensing robot 104 (CS31 to CS3k) farthest from the base station BS is larger than that of the next flapping sensing robot 103 (CS21 to CS2j). That is, the flapping frequency of the flapping sensing robot 104 (CS31 to CS3k) is larger than the flapping frequency of the flapping sensing robot 103 (CS21 to CS2j).
[0048]
Similarly, the moving distance per time of the sensing robot 103 (CS21 to CS2j) is larger than that of the sensing robot 102 (CS11 to CS1i) closest to the base station BS. That is, the flapping frequency of the flapping sensing robot 103 (CS21 to CS2j) is larger than the flapping frequency of the flapping sensing robot 102 (CS11 to CS1i).
[0049]
Regarding the sensing resolution, if the accuracy and sampling speed of the sensor are the same in all the sensing robots CS, the flapping sensing robot 104 farthest from the base station BS101 from the relationship with the moving distance per unit time described above. The spatial resolution for detecting the object of (CS31 to CS3k) is lower than the spatial resolution for detecting the object of the next flapping sensing robot 103 (CS21 to CS2j).
[0050]
That is, the flapping sensing robot 104 (CS31 to CS3k) farthest from the base station BS101 is more accurate in position detection for detecting an object or the size of the obstacle than the next flapping sensing robot 103 (CS21 to CS2j). The accuracy of the measured value becomes coarse.
[0051]
Similarly, when all the sensing robots CS have the same sensor accuracy and sampling speed, the detection of the purpose of the flapping sensing robot 103 (CS21 to CS2j) is detected from the relationship with the movement distance per unit time. Therefore, the resolution is lower than the spatial resolution for detecting an object of the flapping sensing robot 102 (CS11 to CS1i) located closest to the base station BS101.
[0052]
That is, the sensing robot 103 (CS21 to CS2j) has a position search system for detecting an object or the size of an obstacle compared to the flapping sensing robot 102 (CS11 to CS1i) closest to the base station BS101. The accuracy of the measured value becomes coarse.
[0053]
In the above example, the sampling speed is the same, and the spatial resolution differs from the size of the moving distance per unit time. However, when all flapping sensing robots CS are moving at almost the same speed. Can also be considered as a method of changing the spatial resolution by changing the sampling speed.
[0054]
When a sensing robot CS detects an object, the presence / absence of the object, position information, etc. are transmitted to the base station BS101 by a method described later. Based on the transmitted information, the base station BS101 gradually starts moving toward the object. As the base station BS101 moves, the sensing robot CS that exists in a substantially concentric manner also moves toward the object. Since the sensing robot CS closer to the base station BS has higher spatial resolution, the position detection accuracy for detecting the object or the sensing information of the size of the obstacle is more accurate as the base station BS approaches the object. Sent to base station BS.
[0055]
Alternatively, when a sensing robot CS detects an object, the detected robot itself may increase the resolution, and at the same time, the presence / absence of the object, position information, etc. may be transmitted to the base station BS101 by a method described later. That is, the detected sensing robot increases the spatial resolution by increasing the sampling speed or lowering the flapping frequency after detecting the target object. After that, the object detection signal is transmitted to the base station BS, so that the resolution is increased by increasing the sampling speed from the base station BS to all the sensing robots CS, or the flapping frequency is lowered and the resolution is increased. After the object detection, the accuracy of the object coincidence detection or the more accurate information on the size of the obstacle is sent to the base station BS.
[0056]
Further, for example, the sensing robot CS performs detection with an ultrasonic sensor or an infrared sensor until the target object is detected. When a certain sensing robot CS detects the target object, the detected sensing robot CS sets the type of sensor to the CCD. Or it can change to a CMOS image sensor and the detailed whole image information of a target object can be transmitted. If other sensors can be mounted, audio information, temperature information, humidity information, or information related to a search such as a flight area atmosphere state (gas type, etc.) may be transmitted.
[0057]
At the same time, the presence / absence / position information of the target object is transmitted to the base station BS101 by a method described later, and the sensing robot around the target object is controlled in the same manner by the upper sensing robot CS to which the detected sensing robot CS belongs. By changing the CS sensor type to a CCD or CMOS image sensor, it is possible to efficiently send detailed overall image information of the object in a short time.
[0058]
Further, for example, the sensing robot CS performs edge detection image processing until the target object is detected, and when a certain sensing robot CS detects the target object, the detected sensing robot CS may be changed to color detection processing. Conceivable. That is, the sensor hardware is the same, and after the object is detected, the sensor information processing method is changed.
[0059]
In addition, even if the sensing robot CS does not detect the target object, the spatial resolution of the sensing robot CS, the sensor type, image processing, and the like until the scanning operation of the predetermined area by the determined sensing robot CS group is completed. This method is not changed, the scanning operation of a predetermined area is completed, and when there is a detection signal, the same location is detected by the sensing robot CS group, the spatial resolution of the sensor, the type of sensor, and the image processing method. It may be possible to change and perform detection of information with a different target value again.
[0060]
As shown in FIGS. 1 to 3, the communication structure between the base station BS101 and the plurality of sensing robots has a hierarchical structure. More specifically, as shown in FIG. 3, each sensing robot CS has a tree structure in which there is always one communication route from the base station BS101. The base station BS101 communicates with the sensing robot 102 (CS11 to CS1i) which is a group closest to the base station concentrically. From the upstream base station BS, flapping changes such as flapping frequency and direction are transmitted to the flapping sensing robot 102 (CS11 to CS1i). From the downstream sensing robot 102 (CS11 to CS1i), the presence / absence of the object, position information, and the like are transmitted to the base station BS.
[0061]
Next, the sensing robot 102 (CS11 to CS1i) communicates with the sensing robot 103 (CS21 to CS2j) which is a group in contact with the sensing robot 102 (CS11 to CS1i). From the upstream sensing robot 102 (CS11 to CS1i), the sensing robot 103 (CS21 to CS2j) transmitted from the base station BS101 to the sensing robot 102 (CS11 to CS1i) is sent to the sensing robot 103 (CS21 to CS2j). Flapping changes such as flapping frequency and direction are transmitted. Conversely, from the downstream sensing robot 103 (CS21 to CS2j), the presence / absence of the target object, position information, and the like are transmitted to the sensing robot 102 (CS11 to CS1i).
[0062]
Next, the sensing robot 103 (CS21 to CS2j) communicates with the sensing robot 104 (CS31 to CS3k) that is a group in contact with the sensing robot 103 (CS21 to CS2j). From the upstream sensing robot 103 (CS21 to CS2j), to the sensing robot 104 (CS31 to CS3k), the base station BS101 passes the sensing robot 102 (CS11 to CS1i) to the sensing robot 103 (CS21 to CS2j). The flapping change points such as flapping frequency and direction for the transmitted sensing robot 104 (CS31 to CS3k) are transmitted. Conversely, from the downstream sensing robot 104 (CS31 to CS3k), the presence / absence of the object, position information, and the like are transmitted to the upper sensing robot 103 (CS21 to CS2j).
[0063]
That is, when the object is detected in the search area of the sensing robot CS31, the detection signal is transmitted to the upper sensing robot CS21, and is transmitted from the sensing robot CS21 to the upper sensing robot CS11. Then, the detection of the object is transmitted from the last sensing robot CS11 to the base station BS. The communication strength of the base station BS does not need to be a communication strength that covers the communication area of all flapping sensing robots CS, and communication that can ensure communication only with the nearest concentric sensing robot CS group surrounding the base station. You only need strength. Therefore, compared with the communication intensity that can ensure communication with all the sensing robots, the communication intensity may be weak and the power consumption for communication may be small.
[0064]
When the communication strength between the flapping sensing robot CS11 and the base station BS falls below a predetermined strength, the flapping sensing robot CS11 moves toward the base station BS until the communication strength exceeds a predetermined level again. Similarly, even when the upper flapping sensing robot CS is the sensing robot 102 (CS11 to CS14) and the downstream flapping sensing robot CS is the sensing robot 103 (CS21 to CS24), the communication strength is again set in advance. The sensing robot 103 (CS21 to CS24) moves until a predetermined level is exceeded.
[0065]
In the above example, the lower-level sensing robot CS has moved until the communication strength becomes higher than a predetermined level. However, the communication strength or base between the sensing robots CS in the upper and lower layers in the hierarchical structure. If the communication strength between the station BS and the sensing robot CS is determined to be substantially the same, and the mutual communication strength is lower than a predetermined level, the sensing robot CS and its upper sensing robot CS The communication strength between the upper sensing robot and the lower sensing robot CS under the control of the sensing robot CS may be ensured by increasing the mutual communication strength with each other until reaching a certain reference value.
[0066]
In FIG. 2, the hierarchical structure of the base station, the sensing robot, and the pheromone robot in the group robot system of the present embodiment and the positional relationship thereof are shown.
[0067]
A sensing robot CS1i controlled by the base station BS exists in a circle (BC2) indicating the communication range of the base station BS with the base station BS as a center. Next, a sensing robot CS2j controlled by the sensing robot CS1i exists in a circle (C1) indicating the communication range of the sensing robot CS1i with the sensing robot CS1i as a center.
[0068]
Similarly, a sensing robot CS3k controlled by the sensing robot CS2j exists in a circle (C2) indicating the communication range of the sensing robot CS2j with the sensing robot CS2j as the center. There are a plurality of sensing robots CS3k controlled by CS2j within the communication control circle of the sensing robot CS2j.
[0069]
When the sensing robot CS3k is the outermost sensing robot CS, the sensing robot CS3k is also controlled by the pheromone robot FE. That is, the sensing robot CS3k exists in a circle (FC2) indicating the communication range of the pheromone robot FE with the pheromone robot as a center.
[0070]
Communication strength between the pheromone robot FE and the base station BS is higher than that of other communication strengths. The above-described pheromone robot FE basically exists on the outermost side of the search divisional area when the base station BS is the center. The pheromone robot FE exists in a circle (BC1) indicating a strong communication range for the base station BS and the pheromone robot FE with the base station BS as the center. The communication range from the pheromone robot FE to the base station BS does not need to cover all directions, and thus has an elliptical shape with strong directivity (FC1).
[0071]
The pheromone robot FE group 105 will be described. The pheromone robot FE group 105 is located outside the sensing robot group 100 with the base station BS101 as the center, is used for movement control of the sensing robot CS, and is a robot that determines a search range. That is, the sensing robot CS exists between the base station BS101 and the pheromone robot FE105. The upper robot of the pheromone robot FE105 is the base station BS101, and the lower robot is the concentric outermost sensing robot group 104 (CS31 to CS3k) of the base station BS101.
[0072]
In the example, the sensing robot group 104 (CS31 to CS3k). The communication strength between the pheromone robot FE105 and the downstream sensing robot 104 (CS31 to CS3k) is the same as the communication strength between the base station BS, the sensing robot CS, and the sensing robot CS, but the pheromone robot FE105 and the base station. Communication intensity with BS101 is communicating with big power compared with other communication intensity.
[0073]
For example, in the group robot system of the present embodiment, the maximum communication distance between the pheromone robot FE and the base station BS is the maximum between the base station BS and the sensing robots (CS11 to CS1i) at the top layer of the hierarchical structure. Distance obtained by adding the communication distance, the maximum communication distance between the pheromone robot FE and the sensing robots (CS31 to CS3k) at the lowest layer of the hierarchical structure, and the sum of the maximum communication distances between the plurality of sensing robots CS It is preferable to set it to be larger. As a result, the communicable distance from the base station BS to the lowermost sensing robot (CS31 to CS3k) of the hierarchical structure is made a straight line, and each sensing robot CS is efficiently used by making the best use of the communication distance of each. Can be used.
[0074]
The base station BS101 arranges the pheromone robot FEn on the outer diameter portion of the substantially concentric search portion centered on the base station BS101, and determines the search portion. Next, a concentric hierarchical range is determined according to the number of hierarchical structures. Next, the cell range (search range of each sensing robot in the same layer in the hierarchical structure) corresponding to the number of flapping sensing robots in the hierarchy is determined, and the search spatial resolution of the sensing robot is determined. Finally, the communication strength between the base station BS, the sensing robot CS, and the sensing robot CS according to the difference in the radius of the concentric circles by the subordinate operation and the cell area of the cell that defines the range to be searched by each sensing robot represented by the concentric circles. decide.
[0075]
When changing the search area, the base station BS101 first communicates the distance and direction of movement of the base station BS101 to the pheromone robot FE105. Thereafter, the base station BS101 transmits the moving distance and direction to the sensing robot 102 (CS11 to CS1i). Thus, as the base station BS101 moves in the direction of the arrow in FIG. 1, the entire group robot system moves in the direction of the arrow in FIG.
[0076]
More specifically, the sensing robot 102 (CS11 to CS1i) that has received a signal indicating the movement of the entire group robot system from the base station BS determines the movement distance and the movement direction as the lower sensing robot 103 (CS21 to CS2j). After the transmission, it moves in the direction of the arrow in FIG. On the other hand, the pheromone robot FE105 moves in the direction of the arrow in FIG. 1 like the base station BS after transmitting the moving distance and moving direction to the lowest sensing robot 104 (CS31 to CS3k).
[0077]
As described above, when changing the search space, the transfer of the movement information from the base station BS to the sensing robot CS, the upper sensing robot CS to the lower sensing robot CS, and the pheromone robot FE to the sensing robot CS. The transfer of the movement information from the lower sensing robot CS to the upper sensing robot CS from the downstream to the upstream flows almost simultaneously.
[0078]
The pheromone robot 105 located on the outermost side of the search area places the sensing robots 104 (CS31 to CS3k) of the outermost group of the sensing robots (that is, the lowest layer of the hierarchical structure) under direct management. The pheromone robot FE always places the sensing robot FE specified by the PN code in the communication range.
[0079]
For example, if the communication strength between the flapping sensing robot CS3k being monitored and the pheromone robot FE105 falls below a predetermined level, the flapping sensing robot CS3k continues to have the pheromone robot FE until the communication strength exceeds the predetermined level again. Move to side 105. In addition, since the pheromone robot 105 is under the monitoring of the base station BS101, the distance from the base station BS can be controlled by the synchronization delay of communication, and the determined distance from the base station BS101 can be almost always kept. As a result, the search area for the entire group can always be determined in the same way.
[0080]
FIG. 3 shows a signal flow in a hierarchical communication system.
A solid line in the figure indicates a motion control signal (downstream), a detection signal (upstream), and a dotted line indicates a power signal.
[0081]
The communication between the flapping sensing robot and the base station and between the flapping sensing robots are two-way communication. The signal from the upstream to the downstream is a motion control signal of the sensing robot such as the flapping frequency and direction of the robot or a control signal for sensor control. The signal from the downstream to the upstream is a detection signal such as the presence / absence of the target object and position information. The chain relationship in communication between the upstream robot to be controlled and the downstream robot to be controlled is one-to-many or one-to-one, that is, a communication path having a tree structure as a whole. As a result, there is always one communication route from the base station BS to each sensing robot CS, so that the communication system is hardly disrupted.
[0082]
Communication between the base station BS and the pheromone robot FE is also bidirectional communication. The signal from the base station BS to the pheromone robot FE is a speed / direction signal of the movement of the base station BS. Based on this signal, the pheromone robot FE determines the speed and direction of its own movement, and transmits control signals such as the flapping frequency and direction to the sensing robot CS. A signal from the pheromone robot FE to the base station BS is a signal for measuring received power.
[0083]
By receiving the transmission signal from the pheromone robot FE at the base station BS and measuring its power, it is assumed that the distance between the base station BS and the pheromone robot FE is indirectly, Then, the pheromone robot FE is brought closer, or the transmission signal from the base station BS to the pheromone robot FE is strengthened. The number relationship between the base station BS and the pheromone robot FE is one-to-many or one-to-one.
[0084]
Communication between the pheromone robot FE and the flapping sensing robot CS is also bidirectional communication. A signal from the pheromone robot FE to the sensing robot CS is a motion control signal of the sensing robot CS or a control signal for sensor control, such as the flapping frequency and direction of the robot. The signal from the flapping sensing robot CS to the pheromone robot FE is a signal for measuring received power.
[0085]
The pheromone robot FE receives a transmission signal from the sensing robot CS and measures its power to indirectly assume the distance between the pheromone robot FE and the sensing robot CS. The sensing robot CS is brought close to the pheromone robot FE. The number relationship between the pheromone robot FE and the sensing robot CS is one-to-many or one-to-one.
[0086]
FIG. 4 is a flowchart showing an example of the moving procedure of the robot group in the hierarchical group robot system.
[0087]
First, the flow of the motion control signal will be described with reference to FIG. In FIG. 4A, the horizontal solid line indicates the flow of the motion control signal, the dotted line indicates the flow of the power signal, and the vertical solid line indicates the time delay.
[0088]
First, a motion control signal of the sensing robot CS such as a flapping frequency and direction as a flapping sensing robot or a control signal for sensor control is transmitted from the base station BS to the sensing robot CS11 and the sensing robot CS12. At the same time, the speed and direction of movement of the base station BS are transmitted from the base station BS to the pheromone robot FE. A signal for measuring the power for measuring the distance between the base station BS and the pheromone robot FE is sent from the pheromone robot FE to the base station BS.
[0089]
Next, the sensing robot CS11 transmits to the sensing robots CS20 and CS21 a motion control signal of the sensing robot such as a flapping frequency and direction as a flapping sensing robot, or a control signal for sensor control. The sensing robot CS12 transmits to the sensing robot CS22 a motion control signal of the sensing robot CS such as a flapping frequency and direction of the robot or a control signal for sensor control.
[0090]
Further, the pheromone robot FE1 transmits to the sensing robots CS30 and CS31 a motion control signal of the sensing robot CS such as a flapping frequency and direction as a flapping sensing robot or a control signal for sensor control.
[0091]
The pheromone robot FE2 transmits to the sensing robots CS32, CS33, and CS34 a motion control signal of the sensing robot CS such as a flapping frequency and direction as a flapping robot or a control signal for sensor control. Sensing robots CS30 and CS31 send power measurement signals for distance measurement between sensing robots CS30 and CS31 and pheromone robot FE1 to pheromone robot FE1.
[0092]
Sensing robots CS32, CS33, CS34 send power measurement signals for distance measurement between sensing robots CS32, CS33, CS34 and pheromone robot FE2 to pheromone robot FE2.
[0093]
Finally, the sensing robot CS20 transmits to the sensing robots CS30 and CS31 a motion control signal for the sensing robot such as a flapping frequency and direction of the robot or a control signal for sensor control. The sensing robot CS21 transmits to the sensing robots CS32, CS33, and CS34 motion control signals for the sensing robot CS such as flapping frequency and direction of the robot or control signals for sensor control.
[0094]
Next, the flow of the detection signal will be described with reference to FIG. In FIG. 4B, the horizontal solid line shows the flow of the detection signal, and the vertical solid line shows the time delay.
[0095]
First, detection signals such as the presence / absence of an object and position information are transmitted from the sensing robots CS30 and CS31 to the sensing robot CS20. Detection signals such as the presence / absence of an object and position information are transmitted from the sensing robots CS32, CS33, and CS34 to the sensing robot CS21.
[0096]
Next, detection signals such as the presence / absence of an object and position information are transmitted from the sensing robot CS20 to the sensing robot CS11. Detection signals such as the presence / absence of a target object and position information are transmitted from the sensing robots CS21 and CS22 to the sensing robot CS12.
[0097]
Finally, detection signals such as the presence / absence of an object and position information are transmitted from the sensing robots CS11 and CS12 to the base station BS.
[0098]
In the example, information is rising from the layer of the sensing robot CS3k. However, when an object is detected in the layers of the sensing robots CS2j and CS1i, the information naturally starts from the detected layer and is sent to the base station BS. Comes up.
[0099]
Note that the communication method between the flapping sensing robot CS and the base station BS, between the flapping sensing robots CS, and between the base station BS and the pheromone robot FE is performed by a spread spectrum communication method which is a synchronous communication method. This spread spectrum communication system will be described as follows based on FIG. 5 and FIG.
[0100]
The robot group of the group robot system according to the present embodiment basically has three communication layers: layer A for synchronization determination, layer B for communication with the upstream robot, and layer C for communication with the downstream robot. have. Regarding the PN code of the A layer, the base station 101, the sensing robot CS groups 102, 103, 104, and the pheromone robot FE105 are all the same code 0. The code 0 is assumed to be one of 256 tap PN (Pseudorandom Noise) codes, for example.
[0101]
First, communication between the base station BS101 and the downstream sensing robot group 102 (CS11 to CS1i) will be described. The base station BS101 communicates the PN code 0 to the sensing robot group 102 (CS11 to CS1i) by spread spectrum as layer A communication. The sensing robot 102 (CS11 to CS1i) performs despreading by multiplying the received wave by a code 0 that is the same PN code. When the PN code is despread for one period by despreading using a matched filter or the like, a synchronization point where the PN code matches is always found.
[0102]
If (1) in FIG. 5 is the synchronization time of the base station BS101, the synchronization point (time) in the sensing robot group 102 (CS11 to CS1i) is the base station BS101 and the sensing robot group 102 as shown in (2). There is a peak of the matched filter at a time delayed by a distance from (CS11 to CS1i), and synchronization is found.
[0103]
Similarly, the sensing robot group 102 (CS11 to CS1i) transmits a PN code 0 to the sensing robot group 103 (CS21 to CS2j) by spread spectrum as communication of the A layer. The distance between the base station BS101 and the sensing robot group 103 (CS21 to CS2j) is the same as the distance between the base station BS101 and the sensing robot 102 (CS11 to CS1i), and the sensing robot 102 (CS11 to CS1i) and the sensing robot. 103 (CS21 to CS2j) is added, the synchronization point of the sensing robot 103 (CS21 to CS2j) that is further delayed than the sensing robot 102 (CS11 to CS1i) is shown in (3) in FIG. Become.
[0104]
Similarly, the sensing robot group 103 (CS21 to CS2j) communicates the PN code 0 to the sensing robot 104 group (CS31 to CS3k) by spread spectrum as communication of the A layer. The distance between the base station BS101 and the sensing robot group 104 (CS31 to CS3k) is equal to the distance between the base station BS101 and the sensing robot 103 (CS21 to CS2j), and the sensing robot 103 (CS21 to CS2j) and the sensing robot 104 (CS31 to CS3k). ), The synchronization point of the sensing robot group 104 (CS31 to CS3k) that is further delayed than the sensing robot 103 (CS21 to CS2j) is indicated by (4) in FIG.
[0105]
Since the distance between the base station BS101 and a pheromone robot FE105 for movement control described later is larger than the distance between the base station BS101 and the sensing robot CS group 104 (CS31 to CS3k), the sensing robot CS group 104 ( The synchronization point of the pheromone robot 105 further delayed from CS31 to CS3k) is (5) in FIG.
[0106]
The determination of the synchronization point of each robot is repeated intermittently, and the synchronization point is constantly updated. The synchronization point of the sensing robot 102 (CS11 to CS1i) is (2) in FIG.
[0107]
The sensing robot 102 (CS11 to CS1i) performs despreading and demodulation by the PN code 10 of the B layer for establishing communication with the upstream base station BS101. The synchronization point of the PN code of the B layer is (2) in FIG. 5 determined by the code 0 of the A layer. The B layer PN code 10 of the sensing robot 102 (CS11 to CS1i) is the same as the C layer PN code 10 for establishing communication with the sensing robot downstream of the base station BS101. That is, only the sensing robots (CS11 to CS1i) 102 that use the same PN code 10 as the C layer of the base station BS101 in the B layer can communicate with the base station BS.
[0108]
In the example of FIG. 6, the B layer of CS1 (i-2), CS1 (i-1), and CS1i is code 10, so that communication with the base station BS is possible, but the PN code of layer B is not code 10. The sensing robot CS cannot communicate with the base station BS because the correlation peak with the reference numeral 10 is not detected.
[0109]
The sensing robot 102 (CS11 to CS1i) is despread and demodulated by the PN code 20, code 21, and code 22 of the C layer for establishing communication with the downstream sensing robot 103 (CS21 to CS2j). The synchronization point of the PN code of the C layer is (2) in FIG. 5 determined by the code 0 of the A layer. Also, the C layer PN codes 20, 21, and 22 of the sensing robot 102 (CS11 to CS1i) are the B layer PN codes 20 for establishing communication with the sensing robot upstream of the sensing robot 103 (CS21 to CS2j). 21 and 22 are the same.
[0110]
That is, only the sensing robot 102 (CS11 to CS1i) using the same PN code as the B layer of the sensing robot 103 (CS21 to CS2j) in the C layer communicates with the downstream sensing robot 103 (CS21 to CS2j). be able to. For example, CS1 (i-2) can communicate with CS2 (j-3) and CS2 (j-2), CS1 (i-1) can communicate with CS2 (j-1), CS1i can communicate with CS2j.
[0111]
The synchronization point of the sensing robot 103 (CS21 to CS2j) is indicated by (3) in FIG. The sensing robot 103 (CS21 to CS2j) performs despreading and demodulation using the B layer PN codes 20, 21, and 22 for establishing communication with the upstream sensing robot 102 (CS11 to CS1i). The synchronization point of the PN code in the B layer is (3) in FIG. 5 established by the code 0 in the A layer. Since the communication between the sensing robot 103 (CS21 to CS2j) and the sensing robot 102 (CS11 to CS1i) has been described above, it is omitted here.
[0112]
The sensing robot 103 (CS21 to CS2j) performs despreading and demodulation by the C layer PN codes 31, 32, and 33 for establishing communication with the downstream sensing robot 104 (CS31 to CS3k). The synchronization point of the PN code of the C layer is (3) in FIG. 5 established by the code 0 of the A layer. Also, the C layer PN codes 30, 31, 32, and 33 of the sensing robot 103 (CS21 to CS2j) are the B layer PN codes for establishing communication with the sensing robot CS upstream of the sensing robot 104 (CS31 to CS3k). Same as 30, 31, 32.
[0113]
That is, only the sensing robot 103 (CS21 to CS2j) using the same PN code as the B layer of the sensing robot 104 (CS31 to CS3k) in the C layer communicates with the downstream sensing robot 104 (CS31 to CS3k). be able to. For example, CS2 (j-3) can communicate with CS3 (k-3), CS3 (k-2), and CS3 (k-1), and CS2 (j-2) can communicate with CS3k. , CS1i can communicate with CS2j.
[0114]
The synchronization point of the sensing robot 104 (CS31 to CS3k) is (4) in FIG. The sensing robot 104 (CS31 to CS3k) performs despreading and demodulation by the PN codes 30 and 31 of the B layer for establishing communication with the upstream sensing robot 103 (CS21 to CS2j). The synchronization point of the PN code of the B layer is (4) in FIG. 5 established by the code 0 of the A layer. Since the communication between the sensing robot 104 (CS31 to CS3k) and the sensing robot 103 (CS21 to CS2j) has been described above, it is omitted here.
[0115]
The pheromone robot FE105 performs despreading and demodulation using the B layer PN code 10 to establish communication with the upstream base station BS101. The synchronization point of the PN code of the B layer is (5) in FIG. 5 determined by the code 0 of the A layer. The PN code for synchronization of layer A is the same code 0 as other sensing robots CS. The B layer PN code 10 is the same as the C layer PN code 10 for establishing communication with the sensing robot CS downstream of the base station BS. If the B layer PN code is not code 10, the pheromone robot FE cannot communicate with the base station BS because the correlation peak with the code 10 of the base station BS is not detected.
[0116]
The pheromone robot FEn performs despreading and demodulation using the C layer PN code 40 for establishing communication with the sensing robot 104 (CS31 to CS3k) downstream. The synchronization point of the PN code of the C layer is (5) in FIG. 5 established by the code 0 of the A layer. The PN code 40 of the C layer of the pheromone robot FEn is the same as the PN code 40 of the C layer for establishing communication between the outermost sensing robot 104 (CS31 to CS3k) and the pheromone robot FE.
[0117]
That is, only the pheromone robot FEn using the same PN code as the C layer of the sensing robot 104 (CS31 to CS3k) in the C layer can communicate with the downstream sensing robot 104 (CS31 to CS3k). In the example of FIG. 6, the pheromone robot FEn can communicate with the sensing robots CS3 (k-3), CS3 (k-2), and CS3 (k-1), and cannot communicate with CS3k because the spreading code is different.
[0118]
The details of spread spectrum communication are described in the spread spectrum communication (for the next generation of high performance) by the author: Yukiji Yamauchi and the publisher: Tokyo Denki University Press. In spread communication, as an example, a spread spectrum communication device (Japanese Patent Laid-Open No. 11-168407) invented by the inventors of the present application is applied.
[0119]
Next, a control system (relationship between one flapping sensing robot and a base station) for controlling one flapping sensing robot used in the group robot system will be described. Here, as an example of the control of the sensing robot CS by the base station BS, only the case where the base station BS directly controls the sensing robot CS is shown. However, the base station BS passes through the upper-layer sensing robot CS. When controlling the lower sensing robot CS, the control signal shown in the following example is used to transmit a control signal related to the flapping operation from the upper sensing robot CS to the lower sensing robot CS, A signal obtained by the sensor is transmitted from the lower sensing robot CS to the upper sensing robot CS.
[0120]
(System configuration)
First, a system configuration of one flapping sensing robot according to the present embodiment will be described with reference to FIG.
[0121]
The flapping sensing robot control system according to the present embodiment can, for example, move up and move in a work space 92 as an example of the search area C shown in FIG. The robot 90 is an example of a flapping sensing robot CS that can acquire or change a physical quantity in the space, and a base station 91 is an example of a base station BS that can exchange information with the robot 90.
[0122]
In the following, for example, the search object of the present invention will be described as a person.
For example, the robot 90 as an example of the flapping sensing robot CS of the present embodiment detects the person 93 as a search target by acquiring the amount of infrared rays by using an infrared sensor mounted on the robot 90, and detects the detected person 93. It is possible to notify the person 93 of some information by irradiating visible light using the light emitting diode 8.
[0123]
(Detailed description of flapping sensing robot of this embodiment)
(Description of robot 90)
(Main configuration and main functions)
First, a main configuration of the robot 90 as an example of the sensing robot of the present invention will be described with reference to FIG.
[0124]
As shown in FIG. 8, the robot 90 has a support structure 1 as a main structure, and each component is arranged thereon. A right actuator 21 and a left actuator 22 are fixed to the upper part of the supporting action 1. A right blade 31 is attached to the right actuator 21, and a left blade 32 is attached to the left actuator 22. In addition, an electrode 61 is disposed in the lower part.
[0125]
Each of the actuators 21 and 22 can rotate the attached wings 31 and 32 with three degrees of freedom around the fulcrum of the actuator. The rotation of each actuator 21, 22 is controlled by a control circuit 4 mounted on the support structure 1. The detailed structure of each actuator will be described later.
[0126]
Note that the center of gravity O of the robot 90 in the state of FIG. 8 is vertically below the midpoint A0 of the rotation center of the left and right actuators 21 and 22. The support structure 1 includes an acceleration sensor 51, an angular acceleration sensor 52, and a pyroelectric infrared sensor 53. A communication device 7 is disposed on the support structure 1. The communication device 7 transmits / receives information to / from the base station 91.
[0127]
In the control device 4, the flying state of the robot 90 as the flapping sensing robot is detected by the information sent from the acceleration sensor 51 and the angular acceleration sensor 52, and the information sent from the pyroelectric infrared sensor 53 is used. Information on the heat source in the pyroelectric infrared sensor detection region 531 is acquired. These pieces of information are transmitted to the base station 91 via the communication device 7.
[0128]
Further, the control device 4 controls ON / OFF of the light emitting diodes 8 arranged on the support structure 1. Further, the communication device 7 receives an instruction signal from the base station. The control device 4 calculates the operation of each of the actuators 21 and 22 and the light emitting diode 8 according to this instruction signal, and determines the respective driving. Driving power for the left and right actuators 21 and 22, the control device 4, the sensors 51 to 53, the communication device 7, the light emitting diode 8, and the like is supplied by a power source 6.
[0129]
The power source 6 is a secondary battery, and is charged by electric power supplied via the electrode 61. Further, the electrode 61 also serves as a positioning pin, and can be localized in a posture determined by the positioning hole in the base station 91.
[0130]
In FIG. 7, the electrode 61 includes two pins, a positive electrode and a negative electrode, but a configuration including three or more pins including a charge state detection pin is also possible.
[0131]
(Support structure)
Next, the support structure 1 will be described in more detail with reference to FIG.
[0132]
It is preferable that the support structure 1 is sufficiently lightweight while ensuring mechanical strength. In the support structure 1 of the robot 90 as the flapping sensing robot, polyethylene terephthalate (PET) aligned in a substantially spherical shell shape is used. Support legs 11 are arranged at the lower part of the support structure 1 so as not to fall down when landing. This support leg 11 is not essential if the landing stability is ensured or the landing stability is not a functional problem.
[0133]
Further, the material and shape of the support structure 1 are not limited to those shown in FIG. 8 as long as the performance is not impaired in flight. In particular, the material of the support structure 1 is preferably lightweight and highly rigid.
[0134]
For example, by using a composite material in which organic substances such as chitosan used in organisms such as crabs and shrimps and inorganic substances such as silica gel are hybridized at the molecular level, the crab and shrimp exoskeleton has a light weight. Although it has a strong property, it is easy to shape, and the optimal composition value originally possessed by a living organism can be used as it is. It is also less harmful to the environment.
[0135]
Moreover, a highly rigid support structure can also be constructed by using calcium carbonate, which is a shell material, instead of the aforementioned chitosan.
[0136]
Further, the arrangement shape of the actuators and the blades is not limited to the mode shown in the present embodiment.
[0137]
In particular, in the present embodiment, with emphasis on the stability of levitation, the position of the center of gravity is positioned below the mechanical action center point of the blade so that the posture naturally shown in FIG. Since the difference between the fluid forces of the left and right blades necessary for posture control is minimized by matching the center of gravity and the position of the mechanical action point, the posture of the robot 90 can be easily changed. Therefore, depending on the application, a design that prioritizes such ease of posture control can be considered.
[0138]
(Floating mechanism)
(Feather and its movement)
Next, the blade and its operation will be described with reference to FIGS.
[0139]
For convenience of explanation, a coordinate system in FIG. 8 is defined. First, the center of the support structure 1 is the origin. Further, the direction of gravitational acceleration is assumed to be the downward direction, and the opposite is the upward direction. The z-axis is defined upward from the origin. Next, the direction connecting the shape center of the right actuator 21 and the shape center of the left actuator 22 is defined as the left-right direction, and the y-axis is defined from the origin toward the left blade. Further, the x-axis is defined as the cross product direction in the right-hand system of the y-axis and the z-axis from the origin, and hereinafter this is referred to as the front and the opposite direction is referred to as the rear.
[0140]
Further, FIG. 8 shows a sensing robot flapping on a line drawn in the direction of gravitational acceleration from a midpoint A0 of a mechanical action point A1 of the right blade 31 with respect to the right actuator 21 and a mechanical action point A2 of the left blade 32 with respect to the left actuator 22. As an example, the center of gravity O of the robot 90 is located. In the present embodiment, the rotor 229 of the left actuator is substantially spherical, and the left blade 32 is disposed so that the spherical center of the rotor 229 is positioned on the extension line of the main shaft 321. The mechanical action point A2 for the left actuator 22 and the fulcrum of the rotational movement of the main shaft 321 are located at this spherical center. The same applies to the right actuator 21.
[0141]
Hereinafter, it is assumed that the above-described x-axis, y-axis, and z-axis are coordinate systems unique to the robot 90 fixed to the support structure 1 in the state of FIG.
[0142]
On the other hand, the x ′ axis, the y ′ axis, and the z ′ axis are defined as space coordinates with an arbitrary point fixed in space as the origin, with respect to the fixed coordinate system of the robot 90. As a result, the coordinates of the work space 92 in which the robot 90 moves are represented using the coordinates of the x ′ axis, the y ′ axis, and the z ′ axis, and the unique coordinates in the robot 90 are the x axis, the y axis, and the z axis. It is expressed using the coordinates of each axis.
[0143]
Next, the structure of the blade will be described. For example, the left blade 32 is formed by stretching a film 323 on a support member on which a branch 322 of the main shaft 321 is grown. The main shaft 321 is arranged at a position closer to the front in the left blade 322. Further, the branch 322 faces downward as it goes forward.
[0144]
The left blade 32 has an upward convex cross-sectional shape. As a result, a high rigidity can be obtained with respect to the force received from the fluid, particularly during downing. The main shaft 321 and the branch 322 each have a carbon graphite hollow structure for weight reduction. The membrane 323 has a spontaneous tension in the shrinking direction on its inner surface, and functions to increase the rigidity of the entire blade.
[0145]
The diameter of the main shaft 321 of the blade used in the experiments by the present inventors was 100 μm at the base portion supported by the support structure 1 and 50 μm at the tip portion, and the main shaft 321 became thinner from the root toward the tip portion. Tapered shape. The film 323 is made of polyimide and has a size of about 1 cm in the front-rear direction, about 4 cm in the left-right direction, and a thickness of about 2 μm.
[0146]
In the left blade 32 shown in FIG. 9, the thickness of the main shaft 321 is enlarged for explanation. The right blade 31 (not shown) is attached to the support structure so as to be mirror-symmetrical with the left blade 32 across the xz plane.
[0147]
Next, the expression of the operation of the blade will be described using the left blade 32 as an example.
The left actuator 22 can move the left blade 32 with three degrees of freedom of rotation. That is, the driving state of the left blade 32 can be represented by its posture. For the sake of simplicity, the posture of the left blade 32 is defined as follows based on the state shown in FIG.
[0148]
First, as shown in FIG. 10, the axis is parallel to the xy plane including the fulcrum of rotation (mechanical action point A2) and the axes (// x, // y) parallel to the x-axis and y-axis, respectively. The angle formed by the line connecting the point A2 and the root of the main shaft 321 of the left blade 32 with respect to the plane is defined as the flapping stroke angle θ. The point A2 is based on a plane parallel to the yz plane including the fulcrum (mechanical action point A2) of the rotational movement of the shaft and the axes (/ y, // z) parallel to the y axis and the z axis, respectively. An angle formed by the line segment connecting the base of the main axis 321 of the left blade 32 and the plane is the declination α.
[0149]
At this time, the stroke angle θ is assumed to be positive above the plane parallel to the xy plane and negative below the plane. The declination α is positive in front of a plane parallel to the yz plane and negative in back.
[0150]
Then, as shown in FIG. 11, the tangent plane p1 of the film 323 at the base of the main axis 321 of the left blade 32 has an axis (// x) passing through the point A2 and parallel to the x axis and a plane p0 including the main axis 321. The angle formed is defined as the twist angle β. At this time, the torsion angle β is positive when viewed clockwise from the root of the main shaft 321 toward the tip.
[0151]
(Actuator)
Next, the actuator will be described with reference to FIGS.
[0152]
The actuator that operates the wings of the robot 90 according to the present embodiment has a large torque, can easily realize reciprocating motion, and has a simple structure. Therefore, a signal wave generated using a piezoelectric element (piezo element). Drive by. An actuator generally called an ultrasonic motor is used.
[0153]
FIG. 12 shows a commercially available ultrasonic motor 23. As shown in FIG. 12A, the protrusions 232 to 237 are formed on the aluminum disk 231 with the piezoelectric element 230 attached to the lower surface so as to form a regular hexagon with the center of the disk as the center of gravity. Further, the piezoelectric element 230 has a structure in which an electrode 238 divided into 12 parts in the circumferential direction is disposed on the lower surface of the piezoelectric element 230. An outline of this structure is shown in FIG. Every other electrode is electrically short-circuited, and a voltage is applied with reference to the disk 231.
[0154]
That is, voltages with different phases are applied to the piezoelectric element 230. This state is shown in FIG. 12 (c) by dividing it into a portion other than the hatched portion. By applying a voltage with a different temporal pattern to each of these, a signal wave is generated on the disk 231 and the tips of the protrusions 232 to 237 perform elliptical motion. The stator is configured as described above, and this stator can convey the rotor 239 disposed in contact with the stator so as to rotate in the circumferential direction by the elliptical motion of the protrusions 232 to 237.
[0155]
The torque of the ultrasonic wave 23 is 1.0 gf · cm, and the no-load rotation speed is 800 rpm. The maximum current consumption is 20 mA. The diameter of the disk 231 is 8 mm, and the interval between the protrusions 232 to 237 is 2 mm. The thickness of the disc 231 is 0.4 mm, and the height of the protrusions 232 to 237 is about 0.4 mm. The driving frequency of the piezoelectric element 230 was 341 kHz.
[0156]
In the present embodiment, an actuator using the stator portion is used. As shown in FIG. 13B, the right actuator 31 has a structure in which a spherical shell-shaped rotor 219 is sandwiched and held by a stator 210 and a bearing 211 similar to the above-described stator.
[0157]
However, the contact portion of the stator 210 with the rotor 219 is processed into a shape that matches the rotor surface. The rotor 219 is a spherical shell having an outer diameter of 3.1 mm and an inner diameter of 2.9 mm, and a right blade main shaft 311 is disposed on the surface. When the rotor 219 is conveyed clockwise when viewed from the surface with the protrusion of the stator 210 (hereinafter referred to as forward rotation and reverse rotation is referred to as reverse rotation), the right blade main shaft 311 is moved to FIG. It moves in the direction of θ shown in (b).
[0158]
Further, in order to drive the rotor 219 with three degrees of freedom, the upper auxiliary stator 212 and the lower auxiliary stator 213 are arranged together with the bearings 214 and 215 as shown in FIG. Each auxiliary stator is 0.7 times as large as the stator 210.
[0159]
Although the driving directions of the stators are not necessarily orthogonal, the rotor 219 can be driven with three degrees of freedom by a combination of these movements in order to give rotation to independent elements.
[0160]
For example, if the rotor 219 is forwardly rotated by the upper auxiliary stator 212 and is also forwardly rotated by the lower auxiliary stator 213, the rotor 219 is reversely rotated by the upper auxiliary stator 212 in the β direction, which is the configuration, If a positive rotation is given by the auxiliary stator 213, the auxiliary stator 213 rotates in the α direction.
[0161]
In actual driving, if two rotations having different rotation centers are performed, the efficiency decreases due to friction. For example, the upper auxiliary stator 212 and the lower auxiliary stator 213 are alternately operated in a very short period, In the meantime, it is desirable to use a driving method in which the protrusion of the stator that is not operating does not contact the rotor 219. This can be realized by adding a voltage in the contraction direction of the piezoelectric element to all the electrodes of the stator without adding any special component.
[0162]
In addition, since the frequency of the piezoelectric element is 300 kHz or more, which is sufficiently high compared with the flapping frequency of about 100 Hz at most, even if the actuator is operated alternately, a substantially smooth movement can be given to the right blade main shaft 311. . As described above, a three-degree-of-freedom actuator having characteristics equivalent to those of a commercially available ultrasonic motor used by the present inventors for study is configured.
[0163]
During generation of the stator, the amplitude of the signal wave is on the order of submicrons, and this rotor is required to have a sphericity of this order. The processing accuracy of parabolic mirrors used in consumer optical products is several tens of nm, and the processing accuracy of optical components used in optical interferometers is about several nanometers. The rotor can be manufactured by the current processing method technology.
[0164]
Naturally, this is just one example of an ultrasonic motor that constitutes an actuator that imparts three-degree-of-freedom motion to the blade according to the present invention, and the arrangement, size, material, driving method, etc. of each component are suitable for flapping flight. This is not the case as long as the required physical function such as torque can be realized.
[0165]
Naturally, the blade drive mechanism and the type of actuator used therefor are not particularly limited to those shown in the present embodiment. For example, flapping flight using a combination of an exoskeleton structure and a linear actuator as seen in Japanese Patent Laid-Open No. 5-169567 is possible because the operation of the blade equivalent to the actuator shown in this embodiment can be realized. is there.
[0166]
Further, although electric power is used as driving energy, an internal combustion engine can also be used. Furthermore, it is also possible to use an actuator that converts chemical energy into kinetic energy by a physiological redox reaction, as found in insect muscles. For example, using muscles collected from insects as linear actuators, or using artificial muscles of composite materials made by combining amino acids and inorganic substances of insect muscle proteins at the molecular level as linear actuators, etc. There is a way.
[0167]
It is also possible to obtain an actuator with high energy efficiency, such as the above-mentioned internal combustion engine having a basic driving force, and use an actuator driven by electric power as a control or assist for these.
[0168]
(Floating method)
Next, the levitation method will be described with reference to FIGS.
[0169]
Here, the force that the blade receives from the fluid is referred to as fluid force. Further, for the sake of simplicity of explanation, the description will be made assuming a state in which the air flow occurs only by flapping, that is, a windless state.
[0170]
For simplicity of explanation, it is assumed that the external force exerted on the robot 90 is only the force acting on the blade from the fluid, that is, the fluid force and gravity.
[0171]
In order for the robot 90 to be constantly lifted, it is necessary that, on average during one flapping operation, (the sum of upward fluid forces applied to the blades)> (gravity applied to the robot 90). .
[0172]
Here, a description will be given of a method of making the fluid force at the time of downfall greater than the fluid force at the time of launch by using a method of flapping the insects. For the convenience of explanation, the behavior of the fluid or the force it exerts on the blades will be described with reference to the main components. The magnitude of the levitation force and gravity acting on the robot 90 by this flapping method will be described later.
[0173]
Since the fluid force in the direction opposite to the direction in which the blade moves is applied to the blade, the fluid force acts upward when the blade is lowered, and the fluid force acts downward when the blade is launched. Therefore, by increasing the fluid force at the time of downstroke and decreasing the fluid force at the time of launch, it is possible to obtain an upward fluid force on a time average during one flapping operation (downward motion and launch motion). Become.
[0174]
For this purpose, first, if the space is moved down so that the volume of the space in which the blade moves is maximized, the maximum fluid force acts on the blade. This corresponds to dropping the blade substantially perpendicular to the plane in contact with the blade.
[0175]
On the other hand, when the launch is performed so that the volume of the space in which the blade moves is minimized, the fluid force exerted on the blade is substantially minimized. This corresponds to launching the blade substantially along the curve of the blade cross section.
[0176]
The operation of such a blade will be described using a cross section perpendicular to the main shaft 321 of the blade. First, the blade of FIG. 14 shows a case where the blade is moved down so that the volume of the moving space is maximized, and FIG. 15 is a case where the blade is launched so that the volume of the space where the blade moves is minimized.
[0177]
14 and 15, the position of the blade before movement is indicated by a broken line, and the position of the blade after movement is indicated by a solid line. Further, the moving direction of the blades is indicated by a dashed-dotted arrow. As shown in the figure, the fluid force acts on the blade in the direction opposite to the moving direction of the blade.
[0178]
In this manner, the posture of the blade is changed with respect to the moving direction of the blade so that the volume of the space in which the blade moves at the time of launch is larger than the volume of the space in which the blade moves at the time of downstroke. In the time average during the flapping operation, the upward fluid force acting on the feather can be made larger than the gravity acting on the robot 90 as the flapping sensing robot.
[0179]
In the present embodiment, the torsion angle β of the blade can be controlled, and the above-described movement of the blade is realized by changing this with time.
[0180]
Specifically, the following steps S1 to S4 are repeated. First, in step S1, the blade is moved down (stroke angle θ = + θ0 → −θ0) as shown in FIG. In step S2, the blade rotation 1 (blade twist angle β = β0 → β1) operation is performed as shown in FIG. In step 3, as shown in FIG. 18, the blade is launched (stroke angle θ = −θ0 → + θ0, torsion angle β = β1 → β2 (movement that minimizes fluid force by movement along the curved surface of the blade)). Is done. In step S4, as shown in FIG. 19, a blade rotation 2 (blade torsion angle β = β2 → β0) operation is performed.
[0181]
When the fluid force acting on the blades in step S1 and step S3 is time-averaged, the fluid force is upward due to the difference in volume of the space in which the blades move as described above. The magnitude relationship between the vertical component of the upward fluid force and gravity will be described later.
[0182]
Of course, also in step S2 and step S4, it is desirable that the time average of the fluid force acting on the blade is an upward fluid force.
[0183]
In the blades of the robot 90, as shown in FIGS. 16 to 19, the rotation center of the blades (main shaft 321 portion) is located in the vicinity of the leading edge of the blades. That is, the length from the main shaft 321 to the trailing edge of the blade is longer than the length from the main shaft 321 to the leading edge of the blade. For this reason, as shown in FIGS. 17 and 19, in addition to the flow of the fluid generated along the rotation direction of the blade in the rotation operation of the blade, the flow of the fluid along the direction from the main shaft 321 toward the trailing edge of the blade. Will occur.
[0184]
As a reaction of the fluid flow, a force in the direction opposite to the flow direction acts on the blade. In step S2 shown in FIG. 17, a substantially upward fluid force is applied to the blade. In step S4 shown in FIG. 19, a downward fluid force is mainly applied to the blade.
[0185]
In step S3 shown in FIG. 18, the launching operation is performed while changing the torsion angle β of the blade from β1 to β2 along the curve of the cross section of the blade. Also, the blade rotation angle in step S2 shown in FIG. 17 is larger than the blade rotation angle in step S4 shown in FIG. As a result, also in step S2 and step S4, the fluid force acting upward on the blades overcomes the fluid force acting downwards, and the time-averaged fluid force acts on the blades.
[0186]
16 to 19, the postures before the movement of the blades in the respective steps S <b> 1 to S <b> 4 are indicated by wavy lines, and the postures after the movement are indicated by solid lines. The moving direction of the blade in each of steps S1 to S4 is indicated by a one-dot chain line arrow. In addition, the flow of fluid mainly generated in each of steps S1 to S4 is indicated by solid arrows.
[0187]
Next, a graph showing the values of the stroke angle θ and the torsion angle β as a function of time is shown in FIG. However, in FIG. 20, the ratios of the vertical axes of the stroke angle θ and the torsion angle β are different.
[0188]
In the experiment conducted by the present inventors, θ0 is, for example, 60 °. β0 is, for example, 0 °. β1 is, for example, −120 °. β2 is, for example, −70 °.
[0189]
In the above description, steps S1 to S4 have been described as independent operations for the sake of simplicity of explanation, but for example, an operation of increasing the torsion angle of the blade while dropping the blade in step S1 is also possible.
[0190]
Further, the above-described example is described from the first approximate consideration, and the flapping method that can actually fly is not limited to this.
[0191]
Although the left wing has been described here, the same argument holds for the right wing by defining the stroke angle θ, the deflection angle α, and the torsion angle β based on the left-handed system in mirror symmetry with respect to the xz plane. Hereinafter, the upward fluid force acting on the blade is referred to as levitation force, and the forward fluid force acting on the blade is referred to as propulsive force.
[0192]
(Control method)
Next, a control method for causing the flapping apparatus, that is, the robot 90 to perform an arbitrary motion will be described. Here, the stroke angle θ based on the right handprint, the deflection angle α, and the twist angle β are used for the left wing of the robot 90, and the stroke angle θ based on the left handprint that is mirror-symmetrical with respect to the xz plane is used for the right wing. The posture of the wing is shown using the deflection angle α and the twist angle β.
[0193]
(Control flow)
Since the floating movement by flapping is performed by the fluid force applied to the wing, it is the acceleration and angular acceleration that are given to the robot 90 that are directly controlled by the movement of the wing.
[0194]
First, the difference between the floating state where S is the target and the current floating state, T (S) is a function representing conversion from the floating state to acceleration and angular acceleration, s is acceleration, and angular acceleration Fα (s) is acceleration. A function representing a control algorithm including sensor responses of the sensor 51 and the angular acceleration sensor 53, sα is an actuator control amount, GW(Sα) is a function representing the response of the actuator and the wing, sWWing movement, GfS(SW) Acceleration or angular acceleration s exerted on the flapping apparatus by the movement of the wingse45, the process for obtaining the output Se from the input S is as shown in FIG.
[0195]
In practice, the influence R depending on the inertial force of the wing and the fluid depends on the movement of the wing to date and the time history of the movement of the fluid.WAnd RfSIs GWAnd GfSWill join.
[0196]
(Operation division)
Of course, there may be a method for accurately obtaining all functions other than Fα and calculating a control algorithm Fα in which S = Se is obtained. However, a fluid flow around the flapping apparatus and a time history of wing movement are required. Yes, it requires a huge amount of data and calculation speed. In addition, the coupled behavior of fluid and behavior is complex and often results in a chaotic response, which is not practical.
[0197]
Therefore, a method that prepares basic operation patterns in advance, divides the target ascending state, and combines these basic operation patterns in time series is simple and desirable.
[0198]
For the motion of an object, there are three degrees of freedom in translation in the x, y and z directions, and θxDirection, θyDirection, θzThere are three degrees of freedom in the direction of rotation, ie six degrees of freedom. That is, forward / backward, left / right, up / down, and rotation around these directions.
[0199]
Of these, the movement to the left and right is θzThe rotation in the direction and the movement in the front-rear direction can be combined. Therefore, here, the respective realization methods for the translation movement in the front-rear direction, that is, the x-axis direction, the translation operation in the up-down direction, that is, the z-axis direction, and the rotation operations around the x-axis, y-axis, and z-axis are described. To do.
[0200]
(Operation)
(1) Vertical movement (z-axis direction)
As the wing moves, the force that the wing receives from the fluid depends on the moving speed of the wing. To increase (reduce) the upward fluid force exerted on the wing,
A: Increase (decrease) the amplitude of the stroke angle θ.
B: Increase (decrease) flapping frequency
There are methods. By these, the robot 90 can be raised (lowered). However, the fluid force includes a negative value.
[0201]
In addition, according to these methods, since the fluid force itself that the wing receives from the fluid is increased, the wing receives the fluid force from other than the vertical direction, so that the force other than the vertical direction from the wing is exerted on the mechanical fulcrum of the wing. When it is done, it is accompanied by an increase in the force applied to this fulcrum in that direction as it rises. For example, when the flapping frequency is increased while performing a substantially constant linear motion forward, the robot 90 rises with an increase in speed. As described above, depending on the way of flapping at the present time, such other movements are accompanied by secondary movements. Hereinafter, control from a stationary state will be described unless otherwise specified.
[0202]
The levitation force can also be changed by changing the wing twist angle β to change the volume of the space in which the wing moves. For example, by giving β such that the volume of the space in which the wing moves at launch is larger, or the volume of the space in which the wing moves at lowering is smaller, the upward fluid force acting on the wing The time average becomes smaller.
[0203]
Actually, since the wing is not a rigid body and is deformed, the volume of the space in which the wing moves is changed by the same β, but in the first principle, β perpendicular to the direction in which the wing moves is the largest. Gives the volume of space in which the wing moves. Further, β parallel to the direction in which the wing moves moves gives the volume of the space in which the wing moves.
[0204]
In this case, since the fluid force acts also in the direction perpendicular to the flapping, it is necessary to add a movement of the wing to counteract this when it is at a level causing trouble in control. Most simply, it can be realized by changing the deflection angle α.
[0205]
Further, it is possible to perform the operation in the z-axis direction by changing the rotational angular velocity of the wing in the step S2 or step S4. For example, if the rotational angular velocity (−dβ / dt) of the wing is increased in step S2, the downward flow velocity of the fluid generated by this rotation increases, so the upward fluid force acting on the wing increases due to this reaction.
[0206]
In this case, the torque applied to the robot 90 with the main axis of the wing as the rotation axis changes secondary. Therefore, it is desirable to perform this rotational angular velocity change within a range in which this change is within a range that does not hinder control.
[0207]
In this case, the force applied to the robot 90 in the front-rear direction also changes secondary. Therefore, when this change hinders control, it is desirable to simultaneously control the force in the front-rear direction described later as (2).
[0208]
(2) Operation in the front-rear direction (x-axis direction)
In the above-described flapping method, mainly in step S2 and step S4, the fluid force in the x direction acts on the wing. Therefore, in this way of moving the wing, it rises with advancement.
[0209]
Further, when the deflection angle α is increased and the wing is moved forward, a backward fluid force acts on the wing. Therefore, the downward fluid force acting on the wing in step S1 is controlled more than the forward fluid force mainly in steps S2 and S4 by controlling the deflection angle α in step S1, that is, in the down stroke. You can move backward if you increase it, and you can move forward if you decrease it. Moreover, if these two forces are substantially balanced, it can be stopped in the front-rear direction.
[0210]
In particular, if the robot 90 is stationary in the front-rear direction, the left and right wings move substantially symmetrically, and the gravity and the flying force in the flapping apparatus are balanced, the hovering state can be realized.
[0211]
In addition, since the vertical direction component of the fluid force exerted on the wing changes secondaryly with the change of the deflection angle α, if this is at a level causing trouble in control, the movement of the wing that cancels this is added. There is a need. This is easy to perform mainly by the above-described vertical movement of (1).
[0212]
Further, if the angular velocity of the wing rotation operation is increased in steps S2 and S4 described above, the forward fluid force increases, and if it is decreased, it decreases. This also makes it possible to change the operation in the front-rear direction.
[0213]
Further, a method using the x-axis direction component of the secondary fluid force accompanying the change of the wing twist angle β described in (1) is also possible. In other words, when β> 0 at the time of downstroke, a forward force is applied, and when β <0, a backward force is applied.
[0214]
Note that the relationship between β, α, and θ at the time of launch is restricted to some extent, but the above fluid force control is also possible in step S3.
[0215]
(3) Rotation operation with the z axis as the rotation axis
By performing the control in the front-rear direction described in (2) separately for the left wing and the right wing and making them different, torque can be applied to the robot 90.
[0216]
That is, if the forward hydrodynamic force of the right wing is increased relative to that of the left wing, the flapping apparatus is directed leftward in the positive direction of the x-axis, and if it is lowered, the flapping device is directed rightward.
[0217]
(4) Rotation operation with the x axis as the rotation axis
As in (3), if the upward fluid force of the right wing is increased relative to that of the left wing, the right side will be lifted, and if it is decreased, the left side will be lifted. As a result, a rotation operation with the x axis as the rotation axis can be performed.
[0218]
(5) Rotation operation with the y-axis as the rotation axis
The torque around the y axis applied to the robot 90 can be changed by changing the angular velocity of the wing twist angle β described in (2). As a result, a rotation operation with the y axis as the rotation axis can be performed. For example, if the rotational angular velocity of the twist angle β in step S1 is increased, the flapping apparatus lowers the nose, and conversely if it is decreased, the nose is raised.
[0219]
(6) Hovering (stop flying)
FIG. 21 shows a graph in which the values of the stroke angle θ, the declination angle α, and the twist angle β when the robot 90 is stopped are expressed as a function of time. However, in FIG. 21, it differs from the ratio of the vertical axis | shaft of each angle.
[0220]
In experiments conducted by the inventors, θ0Is, for example, 60 °. β0Is, for example, −10 °. α1Is, for example, 30 °. β1Is, for example, −100 °. β2Is, for example, −60 °.
[0221]
FIG. 46 shows the motion of the left wing in each step and the acceleration and angular acceleration generated thereby at the mechanical fulcrum A2 of the left wing. However, the rotation operations with the x-axis and z-axis as the rotation axes in (3) and (4) are omitted. These are caused by the asymmetry of the movements of the left and right wings as described above.
[0222]
(Control method decision method)
The current floating state is obtained using a value obtained by appropriately changing the values acquired by the acceleration sensor 51 and the angular acceleration sensor 52 mounted on the robot 90. For example, the speed can be obtained by giving an initial value of the speed to a value obtained by integrating the acceleration with time. The position can be obtained by giving an initial position value to a value obtained by integrating the speed over time. Note that a method of including the time history of the rising state in the rising state is also possible.
[0223]
The control device 4 determines the operation of the robot 90 from the current flying state obtained from the acceleration sensor 51 and the angular acceleration sensor 52 and the target flying state. This control can be performed by a conventional control method except that it is performed in three dimensions.
[0224]
The operation of the robot 90 is converted into drive of the actuator by the control device 4. For this conversion, it is fast to use a table reference or its complement. For example, as shown in FIG. 47, a combination of a basic operation and an actuator drive that realizes the basic operation is prepared in advance. The left end column in FIG. 47 is the intended operation, and A and B in flapping are A for flapping during forward movement and B for flapping during stationary, more specifically, FIG. 20 and FIG. The time history of α, β, θ shown in the graph is discretized in terms of time. The control device 4 calculates this drive or its complementary drive from this table from the operation of the robot 90.
[0225]
Here, for the sake of explanation, the method of calculating the operation of the robot 90 once and converting it to the drive of the actuator is used, but a method of directly selecting the drive of the actuator from the floating state is also possible.
[0226]
For example, when the localization control is performed, a method of directly calculating one of the above-described actuator driving or a driving complementing the driving based on the difference between the current position and the target position is also possible.
[0227]
Naturally, the physical quantity representing the flying state of the robot 90 is not limited to the position, speed, acceleration, and the like shown here.
[0228]
Of course, the method for determining the drive of the actuator is not limited to this mode.
(Weight possible)
Next, the conditions under which the robot 90 can fly with the configuration of the robot 90 in the present embodiment will be described with reference to FIG. In the experiment environment of the present inventors, a traveling wave actuator was used as the actuator. According to this traveling wave actuator, since the stator 210 is equivalent to the ultrasonic motor 23, the torque for the flapping in the θ direction is 1.0 gf · cm. Therefore, the present inventors calculated the fluid force when flapping with this torque by simulation.
[0229]
The blade is a rectangle having a long side in the direction away from the actuator, a long side of 4 cm, and a short side of 1 cm, and the deformation of the blade is ignored. Moreover, since the blade of a dragonfly having a width of 8 mm and a length of 33 mm was about 2 mg, the weight of the blade was set to 3 mg.
[0230]
Furthermore, since the ultrasonic motor 23 drives the rotor by accumulating minute elliptical motions at the tips of the protrusions, the actual rising and falling of the driving torque has a period order of diamond, that is, 10FiveAlthough it is in the hertz order, it is assumed to be ± 250 gf · c / sec due to the stability of calculation. That is, the torque increases by 1 gf · cm in 0.004 seconds.
[0231]
FIG. 22 shows the result of calculating the reaction force applied to this blade while fixing the blade while leaving one short side only with the degree of freedom of rotation with this side as the axis of rotation, giving torque to this degree of freedom of rotation. However, the declination angle α = 0 (degrees) and the secondary angle β = 0 (degrees) as defined above.
[0232]
At time 0, the blades are horizontal, that is, the stroke angle θ = 0 (degrees). From here to 0.004 seconds, the torque is linearly increased to 1 gf · cm, and 1 gf · cm is maintained from 0.004 seconds to 0.01 seconds. Then, the torque is linearly changed from 0.01 gf · cm to −1 gf · cm from 0.01 second to 0.018 second, and is kept at −1 gf · cm from 0.018 second to 0.03 second. From 0.03 seconds to 0.038 seconds, it linearly changes to 1 gf · cm again.
[0233]
The contact reaction force thus obtained was about 0.29 gf when averaged from the time 0.014 seconds to 0.034 seconds, which is the time during which the torque is negative, that is, the time during which the torque is negative.
[0234]
Since the above simulation is the result of flapping one free end, the action of the fluid force at the time of launch is unknown. However, since the resistance of the fluid is reduced compared to the cross-sectional area, the downward starting point reaction force acting at the time of launch is small, and it is possible to launch with the same torque as at the time of launch, so the time required for launch is Much shorter than the time it takes to get down.
[0235]
That is, since the time during which the force at the time of launching acts is short, and the levitation force can be further obtained by using the rotation of the blades other than the downstroke, an actuator with a torque of 1 gf · cm is used. It can be said that a mass of about 29 g can be levitated. That is, if the mass of the entire flapping sensing robot in the embodiment is 0.58 g or less, it is possible to ascend. Hereinafter, the weight of the entire apparatus will be examined.
[0236]
First, the mass of the stator 210 is 0.054 g because the electrode and the piezoelectric element are thin, which is equivalent to a disk having a specific gravity of 2.7, a thickness of 0.4 mm, and a radius of 4 mm.
[0237]
The weight of the auxiliary stator is 0.019 g because the stator diameter is 0.7 times.
[0238]
All of the three bearings are donut-shaped ball bearings having an outer diameter of 4.2 mm, an inner diameter of 3.8 mm, and a thickness of 0.4 mm. Since the material is titanium with a specific gravity of 4.8 and there is a gap of about 30%, the mass of the bearing is about 0.013 g. The rotor 219 is made of aluminum, has a wall center radius of 3 mm, and a thickness of 0.2 mm. From the sum of these, the mass of the actuator 21 is 0.192 g. The blade 31 is 0.003 g as described above. Since there are two left and right systems as described above, the weight is 0.390 g.
[0239]
Moreover, since the indicating structure 1 shown in FIG. 1 adopted by the present inventors is a sphere having a diameter of 1 cm, a specific gravity of 0.9, and a thickness of 0.1 mm, the mass is about 0.028 g. Further, the control device 4, the communication device 7, the acceleration sensor 51, the angular acceleration sensor 52, and the pyroelectric infrared sensor 53 employed by the present inventors are each 5 mm × 4 mm semiconductor bare chips and have a corner of about 0.008 g. That is, the total sum of these masses is 0.04 g.
[0240]
The weight of the power source 6 adopted by the present inventors is 0.13 g.
As described above, the total weight of all the components is 0.579 g. Since a levitating force of 0.58 gf is obtained with a pair of blades, it is possible to ascend with this configuration.
[0241]
(Communication device)
Next, the communication device 7 will be described.
[0242]
The communication device 7 has a transmission function and transmits measurement values of various sensors. Thereby, the base station 91 can obtain the information of the robot 90.
[0243]
Information obtained by the base station 91 is the physical quantity of the robot 90 or its surroundings. More specifically, as an example of the former, the acceleration information of the robot 90 obtained from the acceleration sensor, or the angular acceleration information of the robot 90 obtained from the angular acceleration sensor 52, and as an example of the latter, a pyroelectric type This is infrared amount information obtained from the infrared sensor 53.
[0244]
Further, the communication device 7 has a reception function and receives a control signal. As a result, the base station 91 can control the robot 90.
[0245]
The control signal transmitted from the base station 91 is a control signal for the floating state of the robot 90 and a control signal for changing the physical quantity given to the surroundings of the robot 90.
[0246]
More specifically, an example of the former is a signal designating an acceleration and an angular acceleration to be given to the robot 90, and an example of the latter is a signal designating an amount of light of the light emitting diode 8.
[0247]
In the present embodiment, the following description will be made assuming that the information exemplified here is transmitted and received.
[0248]
Of course, the information to be transmitted / received is not limited to that shown here. For example, information such as a response signal for confirming whether or not the robot 90 has correctly received the control signal issued from the base station 91 can be transmitted and received.
[0249]
(Control device)
Next, the control device 4 will be described with reference to FIGS.
[0250]
As shown in FIG. 8, the control device 4 includes an arithmetic device 41 and a memory 42. The arithmetic device 41 has a function of transmitting information obtained by various sensors in the robot 90 via the communication device 7. The arithmetic device 41 has a function of controlling the operation of each component based on a control signal obtained through the communication device 7. The memory 42 has a function of holding these transmitted and received data.
[0251]
More specifically, in the present embodiment, the computing device 41 calculates the acceleration and angular acceleration of the robot 90 based on information from the acceleration sensor 51 and the angular acceleration sensor 52, and sends this to the base station 91 via the communication device 7. Send information. The base station 91 transmits information on acceleration that should be given to the robot 90 and information on angular acceleration. These pieces of information are received via the communication device 7, and the arithmetic unit 41 has a function of determining the operation parameters of each actuator based on the received acceleration and angular acceleration.
[0252]
More specifically, the computing device 41 has α, β, θ time series values corresponding to combinations of typical accelerations and angular accelerations to be given to the robot 90 as a table. The value or its interpolation value is used as an operation parameter for each actuator. Note that the time series values of α, β, and θ are obtained by discretizing the values shown in the graph of FIG. 20 in the case of hovering in which both acceleration and angular acceleration are 0, for example.
[0253]
Of course, α, β, and θ listed here are examples of control parameters, and for the sake of simplicity of description, it has been described on the assumption that the actuator is driven by specifying these parameters. It is efficient to use a drive voltage or control voltage converted to each actuator that realizes these. However, since these are not particularly different from existing actuator control systems, only α, β, and θ are listed as typical parameters, and the parameters are not limited to these.
[0254]
As a specific example of another function, the arithmetic device 41 has a function of transmitting information sent from the pyroelectric infrared sensor 53 via the communication device 7.
[0255]
As a result, the base station 91 can acquire infrared information in the infrared information detection area 531 in the pyroelectric infrared sensor 53 mounted on the robot 90.
[0256]
The computing device 41 has a function of receiving the light emission control signal of the light emitting diode 8 transmitted from the base station 91 via the communication device 7 and controlling the current flowing through the light emitting diode 8 according to the control signal. Thereby, the base station 91 can control the light emission of the light emitting diode 8. The function of the control device 4 is not limited to that shown here.
[0257]
Since flight control is coordinated in time, it is possible to store the operation time history of the blades in the memory 42 in the control device 4 and correct the control signal from the base station 91 by this time history information. It is.
[0258]
In addition, when priority is given to the rising movement of the robot 90, data that cannot be transmitted from the communication band may be generated. Moreover, the case where communication is interrupted is also considered. Including these, it is effective to mount the memory 42 if the increase in weight is within a range that does not hinder the rising movement.
[0259]
Conversely, except for the type of registers in the arithmetic unit 41, some functions of the robot 90 are not explicitly essential.
[0260]
(Drive energy source)
Next, the drive energy source, that is, the power source 6 will be described.
[0261]
Power for driving the left and right actuators 21 and 22, the control device 4, and the sensors 51 to 53 is supplied by a power source 6.
[0262]
Since the power source 6 uses lithium ion polymer as an electrolyte, it may be sealed by the support structure 1. Thereby, an extra structure for preventing liquid leakage is unnecessary, and the substantial energy density can be increased.
[0263]
Note that the general mass energy density of a lithium ion secondary battery currently on the market is 150 Wh / kg, and in this embodiment, the current consumption in the actuator is 40 mA at maximum, so the electrolyte weight of the power source 6 is about Assuming 0.1 g, flight in this embodiment is possible for about 7.5 minutes. In addition, the maximum current consumption of the actuator in this embodiment is 40 mA in total on the left and right.
[0264]
The power supply voltage is 3V. Since the electrolyte weight is 0.1 g, realization of the power source 6 having a weight power density of 0.12 W / g, that is, 1200 W / kg is required. The weight power density of the lithium ion polymer secondary battery realized as a commercial product is about 600 W / kg, which is a product of 10 g or more used for information equipment such as a mobile phone.
[0265]
In general, since the ratio of the electrode area to the electrolyte mass is inversely proportional to positive and negative, the power source 6 in the embodiment has an electrode area ratio that is 10 times or more that of the secondary battery used for the information device described above. About twice the mass power density can be achieved, and the initial output power density can be sufficiently achieved.
[0266]
A method of supplying the driving energy of the actuator from the outside is also possible. For example, a medium for supplying electric energy from the outside includes a temperature difference, an electromagnetic wave, and the like, and a mechanism for converting this into driving energy includes a thermoelectric element and a coil, respectively.
[0267]
Of course, a method of mixing different types of energy sources is also possible. When an energy source other than electric power is used, it is basically considered that the control uses an electrical signal from the control device 4.
[0268]
(Sensors (physical quantity input part))
Next, the sensor will be described.
[0269]
The acceleration sensor 51 detects the three-degree-of-freedom translational acceleration of the support structure 1, the angular acceleration sensor 52 detects the three-degree-of-freedom rotational acceleration of the support structure 1, and the pyroelectric infrared sensor 53 detects the amount of infrared rays in the pyroelectric infrared sensor detection region 531. To do. The detection results of these sensors 51 to 53 are sent to the control device 4.
[0270]
The acceleration sensor used by the present inventor has a bandwidth of 40 Hz. The acceleration sensor 51 and the angular acceleration sensor 52 can be controlled more precisely in time as the band is higher. However, the change in the flying state of the robot 90 is considered to occur as a result of one or more flappings. Therefore, even a sensor with a band currently on the market of about several tens of Hz can be put into practical use.
[0271]
In the present embodiment, the position and orientation of the robot 90 are detected by the acceleration sensor and the angular acceleration sensor. However, whether the position and orientation of the robot 90 can be measured is not limited to the above sensor. For example, at least two acceleration sensors that can measure acceleration in three axis directions orthogonal to each other are arranged at different positions on the support structure 1 and the posture of the robot 90 is calculated based on acceleration information obtained from the angular acceleration sensor. Is also possible.
[0272]
A method is also possible in which a ground wave is explicitly incorporated in the work space 92 and the robot 90 detects the ground wave and calculates the position and orientation. For example, a method of calculating the position and orientation of the robot 90 by providing a magnetic field distribution in the work space 92 and detecting the magnetic field distribution by a magnetic sensor is also possible. A method using a GPS sensor or the like is also conceivable.
[0273]
A method of directly detecting the position and posture of the robot 90 other than the robot 90, such as a base station 91 described later, is also conceivable. For example, a method in which the base station 91 has a camera and the position of the robot 91 is calculated by image processing is also possible. Of course, in this case, the acceleration sensor 51 and the like in the robot 90 are not essential.
[0274]
In addition, the sensors including the acceleration sensor 51 and the angular acceleration sensor 52 are expressed as separate parts from the control device 4, but from the viewpoint of weight reduction, the same silicon is integrally formed with the control device 4 by micromachining technology. You may form on a board | substrate.
[0275]
Naturally, the sensor in the present embodiment is a minimum component that achieves the purpose of application, that is, security, and the type, number, and configuration of the sensor are not limited to those shown here.
[0276]
For example, although the control without feedback is used for driving the blade in the robot 90, a blade angle sensor is provided at the base of the blade, and feedback is performed based on the angle information obtained from the sensor, thereby driving the blade more accurately. A method is also possible.
[0277]
On the other hand, if the airflow in the rising area is known and can be localized at the target position only by a predetermined way of flapping, it is not necessary to detect the flying state of the robot 90, so that the acceleration sensor 51 and the angular acceleration sensor 52 are not essential. Human body detection can be performed using the pyroelectric infrared sensor 53 in the same manner as that employed in conventional robots.
[0278]
It should be noted that the person 93 as a search object exemplified in the present embodiment also becomes an obstacle to movement with respect to the robot 90, but by arranging the pyroelectric infrared sensor detection region 531 below the robot 90, the robot 90 Since it is possible to detect the person 93 even if the information of the intruder flies, it is possible to detect the person 93 without causing the person 93 to be an obstacle.
[0279]
In addition, a pyroelectric infrared sensor that is currently widely used at low cost is given as an example of the human body detection sensor. However, this is not limited to this as long as the function of detecting a human body is achieved.
[0280]
(Light-emitting diode (physical quantity output unit))
Next, the light emitting diode 8 will be described.
[0281]
The light emitting diode 8 has a visible light irradiation region that substantially includes the pyroelectric infrared sensor detection region 531 in the pyroelectric infrared sensor 53. The operation of the light emitting diode 8 is controlled by the control device 4.
[0282]
With the above configuration, if the control device 4 determines that the infrared radiation source detected in the pyroelectric infrared sensor detection region 531 is a person 93, an operation of irradiating visible light can be performed on the infrared radiation source. . In the present embodiment, the light emitting diode 8 is exemplified as the physical quantity output unit, but the present invention is not limited to this.
[0283]
In determining the above-described constituent elements, in order not to impair the mobility of the robot 90, it is desirable that the weight is light within a range that does not impair the functions of the constituent elements.
[0284]
(Description of base station)
(Main configuration and main functions)
First, the main configuration and functions of the base station 91 will be described with reference to FIG. However, since the main purpose of the base station is to acquire information from the robot 90 and to control the robot 90 based on the information, FIG. 23 is merely an example embodying this, and the appearance, shape, and incidental components. The presence or absence of is not limited as long as it does not impair the above-mentioned purpose.
[0285]
As shown in FIG. 23, the base station 91 includes an arithmetic device 911, a memory 912, and a communication device 917. The communication device 917 has a function of receiving a signal transmitted from the robot 90. Further, it has a function of transmitting a signal to the robot 90.
[0286]
The base station 91 determines the action of the robot 90 from the map data of the work space 92 stored in the memory 912 and various information including the acceleration information of the robot 90 received from the robot 90 via the communication device 917. It has the function to do. Further, it has a function of transmitting this action to the robot 90 via the communication device 917.
[0287]
The base station 91 can control the robot 90 via the communication function based on the robot 90 itself or its surrounding environment information by the reception function, action determination function, and transmission function described above.
[0288]
The upper surface of the base station 91 is used as a take-off and landing table for the robot 90. In other words, the charger 913 is provided on the upper surface of the base station 91, and the electrode 61 in the robot 90 is coupled to the charging hole 914 so that it is electrically connected to the power source 6 and can be charged. In this embodiment, for power saving, the charger 913 is controlled by the arithmetic device 911 and operates even when the robot 90 is coupled to the base station 91 to perform charging.
[0289]
The charging hole 914 also serves as a positioning hole. Furthermore, the base station 91 is provided with an electromagnet 915, which attracts the robot 90 as necessary. That is, the relative position of the robot 90 before take-off with respect to the base station 91 is fixed by operating the electromagnet 915, and the relative speed is zero.
[0290]
(Operation instruction)
In this embodiment, the base station 91 includes an arithmetic device 911, a memory 912, and a communication device 917. The map 90 of the work space 92 stored in the memory 912 and a robot 90 that achieves a preset purpose. , The acceleration and angular acceleration to be given to the robot 90 from various information including the acceleration information of the robot 90 received from the robot 90 are transmitted to the robot 90 via the communication device 917. It has a function. For example, the posture of the robot 90 can be calculated by integrating the angular acceleration information of the robot 90 twice.
[0291]
Further, the position of the robot 90 can be calculated by integrating twice the acceleration information in the absolute coordinate system obtained by rotationally transforming this and the acceleration information of the robot 90 in the forward posture. These integral constants are known at any time because both the speed before takeoff and the angular velocity are 0, and the position and orientation are fixed to the charging hole 914 with respect to the base station 91. In this way, the arithmetic device 911 can calculate the position and orientation of the robot 90 and can give control instructions to the robot 90 described above.
[0292]
With the above function, the base station 91 can be controlled to make the robot 90 circulate in the work space 92. Of course, these functions can be correlated with each other. For example, the position of the infrared detection area 531 in the pyroelectric infrared sensor 53 in the work space 92 can be calculated from the acceleration information and the angular acceleration information in the robot 90 described above.
[0293]
It is also possible to calculate the position, shape, operation, etc. of the infrared radiation source by mapping this position and the amount of infrared radiation, and to emit a diode toward the vicinity of the center of gravity of the infrared radiation source. Naturally, these variations are diverse, and the optimum one is designed according to the application, and is not limited to the form shown here.
[0294]
(Patrol method)
The patrol method in the robot 90 can be constructed by adding a degree of freedom in the height direction to the patrol method that has been conventionally used for a robot that moves on the floor surface with wheels or the like.
[0295]
For example, first, a tour at a substantially constant height is performed, and after this is completed, the height of the tour on the two-dimensional plane is changed by changing the altitude of the robot 90 and performing a tour at another height. A method of adding a degree of freedom in the direction and moving around the three-dimensional space is realized.
[0296]
Further, depending on the detection distance of the pyroelectric infrared sensor 53, there may be a case where it is possible to detect a person in the entire work space 92 by patroling at a certain height. In this case, the patrol can be performed only by a conventionally proposed algorithm for patrol on a two-dimensional plane.
[0297]
For these cyclic routes, a predetermined route may be prepared in the memory 912 in advance, or a method in which the arithmetic device 911 calculates based on certain information from map data in the memory 912 is also possible. For example, a method may be considered in which the importance level for monitoring in the work space 92 is designated, and the circulation frequency is set high according to the importance level. It is also possible to change the route during the patrol. For example, when a person is detected, a change such as hovering at a position where a person is detected can be considered.
[0298]
The above is a simple example of the patrol method of the work space 92 of the robot 90, and is not limited to this. Since the mass of the base station 91 does not affect the flying of the robot 90, it is easy to make these patrol routes and methods highly complicated.
[0299]
(Takeoff and landing assistance)
At the start or end of flapping, that is, when the robot 90 takes off and landing, the airflow caused by flapping increases or decreases rapidly and is unstable, so it is difficult to control the position and posture of the robot 90. In the present embodiment, the electromagnet 915 provided in the base station 91 attracts the robot 90 at the stage before takeoff. At the time of take-off, stable take-off is possible by a method such as operating the electromagnet 915 until the airflow caused by flapping is stabilized and stopping the adsorption by the electromagnet 915 when the airflow is stabilized.
[0300]
In landing, the robot 90 is moved so that the electrode 61 is roughly positioned above the charging hole 914, the electromagnet 915 is operated in this state, and the robot 90 is attracted to the base station 91. If flapping is stopped thereafter, the position and posture at the time of landing can be stabilized in a state where the airflow is unstable. In order to facilitate localization, it is desirable that at least one of the electrode 61 or the charging hole 914 is tapered.
[0301]
If the weight allows, a configuration in which the robot 90 includes an electromagnet 915 is also possible. Also, with this configuration, the robot 90 can stably take off and land not only on the base station 91 but also on all materials composed of ferromagnetic or soft magnetic materials. In addition, in order to take off with a smaller acceleration, a force sensor may be arranged on the electromagnet 915 and the attraction force of the electromagnet 915 may be controlled by the force applied to the force sensor.
[0302]
In addition, what is shown here is only an example of a technique for preventing the unstable flying of the robot 90 due to airflow instability during takeoff and landing, and other means are possible as long as it is a mechanism that temporarily holds the robot 90 during takeoff and landing. It is. For example, a method of using air instead of the electromagnet 915 is also possible. Further, a technique such as taking off and landing along a guide mechanism such as a rail is also possible.
[0303]
(System operation)
The robot 90 circulates the work space 92 according to an instruction from the base station 91 and detects a person. This will be described more specifically with reference to FIGS. 24 and 25. Note that the following description is an example and does not limit the scope of the claims of the present application.
[0304]
(Still state)
Before the operation of the robot 90 starts, the robot 90 is fixed with the electrode 61 connected to the charging hole 914 in the base station 91. Further, the power source 6 is charged as necessary. It is assumed that the arithmetic device 911 and the memory 912 in the base station 91 are already operating. It is assumed that the traveling route of the robot 90 has already been calculated by the arithmetic device 911. Further, it is assumed that the light emitting operation of the diode of the robot 90 when a person is detected has already been calculated by the arithmetic unit 911. It is desirable to store the circuit route and the light emitting operation of the diode in the memory 912.
[0305]
(Take off, rise)
The electromagnet 915 in the base station 91 operates, and the robot 90 is attracted to the base station 91. In this state, the robot 90 starts flapping motion for ascending in the vertical direction. By the time the electromagnet 915 releases the suction at the latest, the acceleration sensor 51, the angular acceleration sensor 52, the control device 4, and the communication device 7 in the robot 90 have started to operate. At this time, it is necessary that the communication device 917 also starts operating in the base station 91 and has reached a state in which the arithmetic device 911 can detect the floating state of the robot 90.
[0306]
The electromagnet 915 stops attracting the robot 90 when the airflow caused by flapping is stabilized. When the attraction force of the electromagnet 915 is further weakened from the point where the attraction force of the electromagnet 915 and the buoyancy of the robot 90 are balanced, the robot 90 starts to rise.
[0307]
In addition, at least before the robot 90 starts to fly, the arithmetic device 911 in the base station 91 needs to start a calculation for obtaining the position and posture of the robot 90.
[0308]
The robot 90 moves up while transmitting acceleration information and angular acceleration information to the base station 91. The base station 91 calculates the acceleration to be given to the robot 90 from the position and posture of the robot 90 calculated from this information and the target route, and instructs the robot 90. When the robot 90 reaches a position designated in advance, the robot 90 starts patrol at this height according to an instruction from the base station 91.
[0309]
(Patrol)
Prior to the patrol start, the pyroelectric infrared sensor 53 is operated. This infrared information is sent to the arithmetic unit 911 by communication. The patrol is performed by the base station 91 monitoring the infrared information while instructing the movement of the robot 90 and determining the presence or absence of an infrared transmission source, that is, a heat generation source. In order to avoid obstacles, the robot patrols a height higher than that of a general intruder, for example, about 2 m. Further, the robot 90 circulates all over the work area 92 using, for example, a method of reciprocating while shifting by about 60% of the width of the infrared information detection area 531.
[0310]
(landing)
After the end of patrol, the pyroelectric infrared sensor 53 in the robot 90 stops operating. At the end of patrol, the base station 91 controls the robot 90 so that the robot 90 descends while maintaining the position and posture so that the electrode 61 in the robot 90 is positioned vertically above the charging hole 914 in the base station 91. When it is determined that the robot 90 is positioned at a position where the electromagnet 915 can attract the robot 90, the electromagnet 915 is operated to fix the robot 90 to the base station 91.
[0311]
After the robot 90 is fixed to the base station 91, the acceleration sensor 51 and the angular acceleration sensor 52 in the robot 90 stop operating. After the robot 90 is fixed to the base station 91, the base station 91 instructs the robot 90 to stop flapping. Thereafter, the communication device 7, the control device 4, etc. may be stopped.
[0312]
(flowchart)
The flow of each information in the present embodiment is shown in FIG. A flowchart of the above operation is shown in FIG. Of course, these are merely examples, and the operation of the robot 90 that satisfies the application of the sensing robot for searching for an object in the present embodiment is not limited to this, and this operation is naturally different when used in applications so far. It can be a thing.
[0313]
(communication)
A communication method according to the present embodiment will be described with reference to FIGS.
[0314]
Here, explanations are mainly given for data to be communicated. For example, there are various methods for communication methods such as communication protocol and handshake timing. Any method can be used as long as it can exchange data described here.
[0315]
(Static state, takeoff)
First, a communication operation from a stationary state to takeoff will be described with reference to FIG.
[0316]
First, the arithmetic device 911, the communication device 917 of the base station 91, the control device 4 of the robot 90, and the communication device 7 are operated to establish a connection between the robot 90 and the base station 91. Then, the electromagnet 915 in the base station 91 is operated to attract the robot 90 and prevent the robot 90 from being overturned by an unstable air flow at takeoff.
[0317]
Since the acceleration sensor 51 and the angular acceleration sensor 52 in the robot 90 need to operate before the robot flies, that is, the acceleration or angular acceleration becomes zero, in order to correctly grasp the position and posture of the robot 90, Start sensing before it starts.
[0318]
The base station 91 instructs the robot 90 to flapping for flying. In the present embodiment, an instruction for acceleration and angular acceleration is given to the robot 90 so as to perform flapping that floats vertically upward.
[0319]
In the robot 90, a time-series pattern of α, β, and θ for ascending vertically upward is selected from a control table prepared in advance, and the left and right actuators are driven in order to start flapping according to this.
[0320]
The base station 91 waits until the airflow caused by the flapping of the robot is stabilized by a method such as detecting the passage of a certain time with a timer, and then reduces the attracting force of the electromagnet 915.
[0321]
Meanwhile, the robot 90 transmits its own acceleration information and angular acceleration information to the base station 91 by communication. When the attracting force of the electromagnet 915 falls below the buoyancy, the robot rises. This is detected when the speed of the robot is not zero. When the ascent is completed, an ascent completion signal is transmitted from the base station 91 to the robot 90, and the patrol mode is entered.
[0322]
(Patrol)
Next, a communication operation during patrol will be described with reference to FIG.
[0323]
First, the robot 90 operates the infrared sensor (not shown) before shifting to the patrol mode.
[0324]
Next, the robot 90 acquires information of various sensors. Then, the acquired sensor information is transmitted to the base station via communication.
[0325]
The base station 91 maps infrared information among the received sensor information of the robot 90 to obtain an infrared radiation distribution in the work area 92. Further, the position and orientation of the robot 90 are calculated from the acceleration information and the angular acceleration information. It is assumed that these position, orientation calculation processing, and infrared mapping processing are continuously performed during the patrol action.
[0326]
As a result of the obtained infrared mapping, if an infrared radiation source that does not exist in the map data in the memory 912 is confirmed, it can be regarded as a person and a notification operation by a light emitting diode can be performed. If not, continue the patrol. The base station 91 determines these next actions, and transmits the acceleration and angular acceleration to be given to the robot 90 to the robot 90 as instruction information.
[0327]
The robot 90 calculates the drive of the left and right actuators from the control table prepared in advance based on the acceleration instruction and the angular acceleration instruction in the received instruction information, and drives it. Further, when a notification operation instruction is performed, the LED is driven according to the instruction. Also in the notification operation, the communication mode is the same as that in the cyclic operation except for LED driving.
[0328]
When the base station 91 determines that the robot 90 has reached the patrol end, it transmits a patrol end signal to the robot 90 and shifts to the landing mode.
[0329]
(landing)
Next, communication in landing will be described with reference to FIG.
[0330]
The robot 90 stops the operation of the pyroelectric infrared sensor 53 after the patrol is completed. The base station 91 guides the robot 90 directly above the landing point, more specifically, to an area where the robot 90 can be attracted to the initial position by the electromagnet 915. This guidance is performed using the position and orientation of the robot 90 calculated from the acceleration information received from the robot 90 and the angular acceleration information, similarly to the control at the time of patrol. That is, it is performed by the same communication mode as the cyclic operation.
[0331]
When the robot 90 comes directly above the landing point, the electromagnet 915 is operated to attract the robot 90 to the base station. Thereafter, if it is not necessary to continue the operation, the base station 91 instructs the robot 90 to end the operation. As a result, the robot 90 ends the flapping operation, the communication operation, and the sensing.
[0332]
Note that the communication mode is system 1, and the base station is not limited to the one described here as long as the base station instructs the action of the robot 90 based on the sensor information of the robot 90.
[0333]
In the embodiment, the sensor operates continuously. However, the sensor operation from the base station 91 is performed only when the sensor information request signal is received by the base station 91. A method of intermittently performing according to an instruction is also possible.
[0334]
(Function sharing)
The function sharing of information processing in the control device 4 in the robot 90 and the base station 91 in the present embodiment will be described below.
[0335]
Since the robot 90 and the base station 91 can exchange information through a communication path, various functions can be shared. For example, as in the above embodiment, a so-called stand-alone type in which all the functions of the base station 91 are accommodated in the robot 90 and the base station 91 is eliminated is possible. However, if an excessive mass is mounted on the robot 90, it becomes difficult to ascend.
[0336]
In addition, the lighter robot 90 can move more quickly, and the system operation efficiency can be increased. That is, generally, it is desirable that most of the information processing is performed at the base station 91 and the robot 90 is designed to be lightweight. In particular, the map data in the work space 92 increases depending on the size of the work space and the number of obstacles.
[0337]
For this reason, it is desirable that a memory 912 that does not increase the weight of the robot 90 is prepared. If the position of the infrared radiation source shown in the previous section is also determined by the arithmetic unit 911 in the base station 91, a simple device can be used for the control unit 4 in the robot 90, so that the weight can be reduced. It is.
[0338]
In addition to the above discussion, it is necessary to consider that the communication speed increases the weight of the control device 4 in the robot 90 and the information processing function sharing in the base station 91.
[0339]
For example, in the case of communication using radio waves, if the communication speed increases, power consumption increases because high energy radio waves having high energy as a carrier must be used. For this reason, it leads to the weight increase of the power supply 6. FIG. In addition, the signal quality must be improved using a compensation circuit or the like, and the number of components increases, leading to an increase in the weight of the communication function. Overall, it is necessary to design the actual function sharing in consideration of these trade-offs.
[0340]
For example, considering the details of flapping, that is, the case where the base station 91 also indicates the angles α, β, and θ of the flapping, since the frequency after flapping is generally several tens Hz or more, the control frequencies of α, β, and θ The band is on the order of kHz. In this case, assuming that the data of α, β, and θ are 8 bits each, to control at 1 kHz each, 8 (bit) × 1 (kHz) × 3 × 2 (number of actuators) in a single communication path A communication speed of = 48 (kbps) is required. This is a transmission-only speed, and actually requires a band for reception. Since communication overhead and data from sensors such as the pyroelectric infrared sensor 53 are added to this, a communication method having a communication speed of about 100 kbps is required.
[0341]
By the way, with respect to basic operations such as forward and backward movement and left and right turn in the robot 90, it is possible to prepare a way of flapping with a certain pattern corresponding to each operation. Therefore, these basic motions and the flapping pattern that brings them in are included in the robot 90, the base station 91 calculates the basic motion suitable for the planned route, and instructs the robot 90. The robot 90 starts from the instructed basic motion. The robot 90 can be caused to fly along a desired route even by using a method such as selecting a flapping pattern included therein.
[0342]
As described above, the robot 90 is in charge of control in a high frequency band typified by flapping control itself, and the base station 91 is in charge of control in a low frequency band typified by path control. From the viewpoint of reducing traffic on the communication path. It is desirable to prepare these basic operations and flapping patterns that bring them as a table in the control device 4 from the viewpoint of processing speed and reduction in the amount of calculation in the control device 4.
[0343]
Naturally, since the computing capability and communication speed of the arithmetic device represented by the control device 4 are expected to be greatly improved in the future, the information processing mode in the robot 90 and the base station 91 described here is the current situation. The basic idea is illustrated as an example, and the specific function sharing is not limited to what is described here.
[0344]
(Advanced control)
In the present embodiment, it is possible to easily move to a different floor by advanced control. That is, if the height information is included in the map data, it is possible to change the height of the patrol route only by adding control in the height direction to the conventional floor surface mobile robot control method. That is, according to the map data of the stairs, for example, the ascending and descending of the stairs can be easily realized by rising and moving while changing the height by an algorithm such as maintaining a substantially constant vertical distance from the vertical lower surface of the stairs.
[0345]
Naturally, the use of stairs for the movement of different floors described above is an example of a technique for moving between different floors, and is not limited thereto. For example, it is possible to use a vent or a blowout.
[0346]
(About multiple tours)
In the present embodiment, only a single tour is illustrated, but the mode of the tour is not limited to this. It is also possible to repeatedly perform a patrol action as exemplified in the present embodiment.
[0347]
It is also possible to perform a new patrol with such a patrol method. Further, in the present embodiment, the behavior form returning to the base station after the end of the tour is shown as an example, but this is an example, and the present invention is not limited to this. For example, a method of arranging a plurality of base stations in the work space 92 and circulating between them is also possible.
[0348]
(About energy replenishment mechanism)
Of course, the charging method and form of the power source 6 are only examples of energy replenishment that is generally used in order to achieve both lightweight operation and continuous use. The mode of the mechanism is not limited to that exemplified here.
[0349]
For example, it is possible to charge the power source 6 by forming a coil on the blade by sputtering with a metal thin film, applying a radio wave from the outside, converting this into electric power with the coil, and rectifying it.
[0350]
In addition, for example, there is a charging station only for charging other than the base station 91, and charging can be performed there.
[0351]
Moreover, when energy other than electric power is used, an energy replenishment method suitable for this is required. Of course, the shapes of the electrode 61 and the charging hole 914 are not limited to those shown in this embodiment mode. In addition, it is not essential to have a role of positioning as shown in the present embodiment.
[0352]
(About communication)
In the present embodiment, the base station 91 always obtains and controls the information of the robot 90. However, the base station 91 always controls the robot 90 when the robot 90 can operate autonomously. It is not always necessary to do.
[0353]
Further, by temporarily storing information in the memory 42, the frequency of communication between the base station 91 and the robot 90 can be reduced. This is effective when there is a need to reduce traffic on the communication path, such as when there are a plurality of robots and base stations described later.
[0354]
It is desirable to design the connection between the robot 90 and the base station 91 on the assumption that there is a possibility of interruption. Here, if an action form in the case where the communication path is interrupted is incorporated in the robot 90 in advance, adverse effects caused by the communication interruption when the connection is resumed can be minimized.
[0355]
As an example, if the communication path is interrupted, the robot 90 has a function of keeping the flying state constant by performing hovering, so that the possibility of colliding with an obstacle is smaller than when the robot 90 continues to move without hovering. Become.
[0356]
In addition, by buffering the motion model ahead to some extent in the memory 42, the robot 90 can continue to fly even when the communication path is interrupted. Conversely, the information detected by the sensor is buffered in the memory 42. In addition, when the communication path is restored, the base station 91 can do this so that the base station can obtain sensor information while the communication path is interrupted.
[0357]
On the other hand, by using such buffering, the functions of the group robot system can be achieved with weaker radio waves even in an environment where there are many obstacles and radio waves are easily interrupted. In addition, since the power source 6 is reduced in weight, the mobility of the robot 90 can be improved.
[0358]
(Regarding environmental changes)
In the present embodiment, for simplicity of explanation, the environment in the work space 92 is not changed. However, the environment changes in actual use. The generation of airflow and the change of obstacles as the main environmental area. If these environmental changes exist, it is necessary to prepare correction means.
[0359]
Since the airflow is affected in the same manner as a general aircraft even in a flapping flight, a method used for general aircraft route planning can be applied to this correction as it is.
[0360]
For the change of the obstacle, the method adopted for the conventional remote control robot system can be applied as it is. For example, a method may be considered in which obstacle detection means such as an optical sensor is provided in the robot 90, the obstacle detection database is transmitted to the base station 91, and the base station 91 updates the map data from the information.
[0361]
(System configuration (number of units))
In the present embodiment, one base station is used for ease of explanation, but it is naturally possible to control the robot 90 by a plurality of base stations. As an example, when the work space 92 is wider than the communicable range of the base station 91 and the robot 90, a method of providing a plurality of base stations so as to cover the work space 92 and spatially sharing the control of the robot 90 is given. It is done.
[0362]
In the present embodiment, the control function of the robot 90, the take-off and landing assist function, and the energy replenishment function, that is, the charging function are integrated into the base station 91, but it is essential that these functions are integrated into the base station. is not. For example, when the cruising flight distance, that is, the distance that can continue to fly without replenishing drive energy from the outside is shorter than the communicable range, other energy supplements are within the communication range covered by one base station. A form in which a station exists can be considered.
[0363]
Conversely, the robot 90 does not need to be single, and the search efficiency of the work space 92 can be improved by using a plurality of robots. For example, in the case of the purpose of searching for a person shown in the present embodiment, if the time T1 (seconds) required for the robot 90A to search the work space 92 once is T1 (seconds), T1 / 2 after the robot 90A starts the search. If the robot 90B starts searching after (seconds), the search frequency of a certain position in the work space 92 is 2 / T1 (times) per second, and the search is performed twice as frequently, so the probability of finding a person increases. Further, a robot that performs group behavior using a migration of a school of fish as a model may be used.
[0364]
Needless to say, all the functions of the base station 91 can be included in the robot 90 and the robot 90 alone can be used as a stand-alone type as long as it has a weight capable of floating. On the contrary, the base station 91 is responsible for most information processing, and the control unit of the robot 90 may be an actuator only.
[0365]
According to the group robot system of the present embodiment, since the robot can move away from the ground with buoyancy, various objects such as furniture are placed, and the position of such objects is temporal. It is possible to move while avoiding such obstacles in a room that changes, and to perform predetermined work such as grasping the state of each room. In addition, outdoors, for example, it is possible to move without being affected by obstacles in a disaster area, topography in a general field, etc., so that operations such as information collection can be easily performed. Moreover, the introduction into the existing work space can be realized easily at low cost.
[0366]
According to the group robot system of the present embodiment, the robot having the physical quantity acquisition unit and the communication unit, and the base station capable of obtaining information from the robot or communicating with the robot or controlling the robot With the configuration, the information processing in the robot can be performed with components that do not affect the flying, so the amount of information processing can be increased without impairing the starting force of the robot.
[0367]
Next, another embodiment of the robot will be described.
(Another embodiment)
A group robot system using a flapping sensing robot according to another embodiment will be described. The group robot system of the present embodiment is substantially the same as that of the above-described embodiment, but only the structure of the flapping sensing robot is different. That is, the flapping sensing robot of this embodiment is used in the group robot system of the above-described embodiment, and the relationship between the base station and the communication control is used in the same relationship. The same applies when the flapping sensing robot is used as a pheromone robot. Furthermore, in the present embodiment, only the flapping flight of the flapping sensing robot will be described, but the flapping sensing robot is provided with a sensor similar to the above-described embodiment as a sensor for detecting an object, and A communication mechanism that can communicate with other flapping sensing robots, pheromone robots, or base stations using spread spectrum communication in the structure is also provided with the same communication mechanism as that of the above-described embodiment.
[0368]
FIG. 29A and FIG. 29B are diagrams showing a flapping sensing robot having two wing shafts as wing parts. FIG. 29A shows a front front portion of the flapping sensing robot, and FIG. 29B shows a left side portion of the flapping sensing robot toward the front front.
[0369]
29 (a) and 29 (b), only the left wing is shown in front of the flapping sensing robot, but in reality, the right wing is symmetrically arranged with the central axis of the body portion 105 in between. Is also formed. For simplicity, it is assumed that an axis (body axis 801) along the direction in which the body part 105 extends is in a horizontal plane, and a center axis 802 passing through the center of gravity is maintained in the vertical direction.
[0370]
As shown in FIGS. 29 (a) and 29 (b), the body portion 105 of the flapping sensing robot includes a front wing shaft 103 and a rear wing shaft 104, and a space between the front wing shaft 103 and the rear wing shaft 104. A wing (left wing) having a wing film 106 provided so as to pass is formed.
[0371]
In addition, a rotary actuator 101 for driving the front wing shaft 103 and a rotary actuator 102 for driving the rear wing shaft 104 are mounted on the body portion 105. The arrangement of the actuators 101 and 102 and the shape of the wing including the front wing shaft 103, the rear wing shaft 104, and the wing film 106 are not limited to this as long as the flight performance is not impaired.
[0372]
Furthermore, in the case of this flapping sensing robot, if the cross-sectional shape of the wings is made to protrude vertically upward, not only drag but also lift will be generated when flying in the horizontal direction, and a greater levitation force can be obtained. become.
[0373]
Further, the position of the center of gravity of the flapping sensing robot is set to be lower than the position of the point of application of the force that the wing receives with the surrounding fluid to the actuator in order to emphasize the stability of the flapping sensing robot. On the other hand, from the viewpoint of easily changing the posture of the flapping sensing robot, it is desirable to make the center of gravity and its action point substantially coincide with each other, and in this case, the difference in force that the left and right wings required for posture control receive from the fluid Therefore, the posture of the flapping sensing robot can be easily changed.
[0374]
The two rotary actuators 101 and 102 share the rotation axis 800 with each other. The rotation shaft 800 forms a predetermined angle (90 ° −θ) with the body shaft. The front (rear) wing shafts 103 and 104 reciprocate in a plane orthogonal to the rotation shaft 800 with the actuators 101 and 102 as fulcrums. The angle formed by the plane perpendicular to the rotation axis 800 and the body axis 801 is the elevation angle θ.
[0375]
The body portion 105 is preferably formed of a cylindrical shape of polyethylene terephthalate (PET) or the like in order to ensure mechanical strength and achieve sufficient weight reduction, but is limited to such materials and shapes. It is not a thing.
[0376]
As the actuators 101 and 102, it is desirable to use an ultrasonic traveling wave actuator using a piezoelectric element (piezo) because the starting torque is large, the reciprocating motion can be easily realized, and the structure is simple. There are two types, a rotary actuator and a linear actuator. In FIG. 29 (a) and FIG. 29 (b), a rotary actuator is used.
[0377]
Here, the method of directly driving a wing by an ultrasonic element using a traveling wave will be mainly described, but the mechanism for driving the wing and the type of actuator used therefor are particularly shown in this embodiment. It is not limited to things.
[0378]
As the rotary actuator, for example, the rotary actuator 401 shown in FIG. 39 may be used in addition to the rotary actuators 101 and 102 shown in FIGS. 29 (a) and 29 (b).
[0379]
In the flapping sensing robot shown in FIG. 39, a wing 403 is attached to a rotary actuator 401 mounted on a body portion 404. The wing 403 reciprocates around the rotation axis 402 of the rotary actuator 401.
[0380]
Further, as a mechanism for driving the wing, a mechanism combining an exoskeleton structure and a linear actuator as described in JP-A-5-1695675 is applied, for example, as shown in FIG. 40 or FIG. Such flapping sensing robot may be configured.
[0381]
In the flapping sensing robot shown in FIG. 40, a front wing shaft or a rear wing shaft 503 is connected to one end of a linear actuator 501. The movement of the linear actuator 501 is transmitted to the front wing shaft or the rear wing shaft 503 through the hinge 502 attached to the body portion 504, whereby the flapping motion is performed. This flapping movement is inspired by the flapping movement of a dragonfly that directly drives its wings with muscles.
[0382]
In the flapping sensing robot shown in FIG. 41, the body part is divided into an upper body part 603 and a lower body part 604. The movement of the linear actuator 601 fixed to the lower body part 604 is transmitted to the upper body part 603. Then, the movement of the upper body part 603 is transmitted to the front wing shaft or the rear wing shaft 603 via the hinge 602, whereby the flapping motion is performed. This flapping movement is inspired by the flapping movement used by bees other than dragonflies.
[0383]
In the case of the flapping sensing robot shown in FIG. 41, since the left and right wing shafts 603 are simultaneously driven by one actuator 601, the left and right wing shafts cannot be driven separately, and detailed flight control cannot be performed. However, the number of actuators can be reduced, and the weight can be reduced and the power consumption can be reduced.
[0384]
Now, in the flapping sensing robot shown in FIGS. 29 (a) and 29 (b), a front wing shaft 103 and a rear wing shaft 104 are connected to the rotary actuators 101 and 102, respectively. A wing film 106 is stretched between the front wing shaft 103 and the rear wing shaft 104. The wing film 106 has a spontaneous tension in the direction of contraction in the plane thereof, and functions to increase the rigidity of the entire wing.
[0385]
For weight reduction, the front wing shaft 103 and the rear wing shaft 104 have a hollow structure and are each formed of carbon graphite. For this reason, the front wing shaft 103 and the rear wing shaft 104 are elastic, and the front wing shaft 103 and the rear wing shaft 104 can be deformed by the tension of the wing film 106.
[0386]
FIG. 42 shows the overall structure of flapping sensing. Note that the left wing is omitted in the forward direction (upward in the drawing). An ultrasonic sensor 701, an infrared sensor 702, an acceleration sensor 703, and an angular acceleration sensor 704 are disposed on the body 700. The detection results by these sensors are sent to the flapping control unit 705.
[0387]
The flapping control unit 705 processes information such as the distance between the flapping sensing robot and surrounding obstacles and humans from the results detected by the ultrasonic sensor 701 and the infrared sensor 702. Also, information such as the flying state of the flapping sensing robot, the target position or the posture is processed from the results detected by the acceleration sensor 703 and the angular acceleration sensor 704, and the drive control of the left and right actuators 706 and the center of gravity control unit 707 is performed. It is determined.
[0388]
Here, the ultrasonic sensor 701 and the infrared sensor 702 are used as means for detecting an obstacle existing around the flapping sensing robot, and the acceleration sensor 703 and the corner are used as means for detecting the position and posture of the flapping sensing robot. Although the acceleration sensor 704 is used, the sensor is not limited to the above sensor as long as the sensor can measure the surrounding environment, position, and orientation of the flapping sensing robot.
[0389]
For example, it is possible to calculate the posture of the flapping sensing robot from acceleration information obtained by arranging two acceleration sensors capable of measuring accelerations in three orthogonal directions at different positions on the body 700. . It is also possible to calculate the position and orientation of the flapping sensing robot by providing a magnetic field distribution in the space where the flapping sensing robot moves and detecting the magnetic field distribution with a magnetic sensor.
[0390]
In FIG. 42, sensors such as the acceleration sensor 703 and the angular acceleration sensor 704 are shown as separate parts from the flapping control unit 705. From the viewpoint of weight reduction, for example, flapping control is performed by a micromachining technique. It may be formed on the same substrate integrally with the portion 705.
[0390]
In addition, the flapping sensing robot uses open-loop control to drive the wing, but it is also possible to provide a wing angle sensor at the base of the wing and perform closed-loop control based on angle information obtained from the angle sensor.
[0392]
Note that the sensors listed here are not essential if the flow of the fluid in the rising space is known and can float by a predetermined flapping method.
[0393]
The flapping control unit 705 is connected to the memory unit 708 and can read existing data necessary for flapping control from the memory unit 708. In addition, information obtained by the sensors 701 to 704 can be sent to the memory unit 708 and the information in the memory unit 708 can be rewritten as necessary, and a learning function can be provided as a flapping sensing robot.
[0394]
In addition, as long as the information obtained by the sensors 701 to 704 is only stored in the memory unit 708, the memory unit 708 and the sensors 701 to 704 may be directly connected without using the flapping control unit 705. . Flapping control unit 705 is connected to communication control unit 709 and can input / output data to / from communication control unit 709. The communication control unit 709 transmits and receives data to and from an external device (such as another flapping sensing robot or base station) via the antenna unit 710.
[0395]
With such a communication function, data acquired by the flapping sensing robot and stored in the memory unit 708 can be quickly transferred to an external device. In addition, information that cannot be obtained by the flapping sensing robot is received from an external device, and such information is stored in the memory unit 708 so that it can be used for flapping control. For example, it is possible to obtain necessary map information from a base station or the like at any time without having to store all of the large map information in the flapping sensing robot.
[0396]
In FIG. 42, the antenna portion 710 is shown as a rod-like member protruding from the end of the body portion 700. However, the shape and arrangement of the antenna portion 710 are not limited thereto as long as they have an antenna function. For example, a loop antenna may be formed on the wing using the front wing shaft 712 and the rear wing shaft 713. Moreover, the form which incorporated the antenna in the trunk | drum 700, or the form which integrated the antenna and the communication control part 709 may be sufficient.
[0397]
The ultrasonic sensor 701, infrared sensor 702, acceleration sensor 703, angular acceleration sensor 704, flapping control unit 705, left and right actuator 706, center of gravity control unit 707, memory unit 708, communication control unit 709, antenna unit 710, etc. It is driven by the current supplied by 711.
[0398]
Here, electric power is used as drive energy, but an internal combustion engine can also be used. It is also possible to use an actuator using a physiological redox reaction as seen in insect muscles. Alternatively, a method of acquiring the driving energy of the actuator from the outside can also be adopted. For example, for electric power, thermoelectric elements, electromagnetic waves and the like can be mentioned.
[0399]
(Floating method)
For simplicity of explanation, it is assumed that the external force acting on the flapping sensing robot is only the fluid force that the wing receives from the fluid and the gravity acting on the flapping sensing robot (the product of the mass of the flapping sensing robot and the gravitational acceleration). In order for the flapping sensing robot to surface constantly, the following relationship is found in the time average during one flapping motion:
(Vertical fluid force acting on the wing)> (Gravity acting on the flapping sensing robot)
It is necessary to meet. One flapping operation refers to an operation of lowering a wing and then raising the wing.
[0400]
In addition, in order to raise the fluid force upward vertically,
(Vertical upward fluid force acting on the wing in the down motion)> (Vertical downward fluid force acting on the wing in the launch motion)
It is necessary to become.
[0401]
Here, the vertical upward fluid force acting on the wing during the down motion (hereinafter referred to as “the fluid force during the down motion”) is applied to the wing during the launch operation, using a simplified method of flapping the insects. A method of increasing the vertical downward fluid force (hereinafter referred to as “fluid force at launch”) will be described.
[0402]
For simplicity of explanation, the behavior of the fluid or the force exerted by the fluid on the wing will be described with reference to its main components. Further, the levitation force obtained by this flapping method and the magnitude of gravity (hereinafter referred to as “weight”) acting on the flapping sensing robot will be described later.
[0403]
In order to make the fluid force at the time of downstroke greater than the fluid force at the time of launch, the fluid force may be lowered so that the volume of the space in which the wing film 106 moves during the downstroke is maximized. For this purpose, the wing film 106 may be pushed down substantially in parallel with the horizontal plane, whereby a substantially maximum fluid force can be obtained.
[0404]
On the other hand, the launch may be performed so that the volume of the space in which the feather film 106 moves is minimized. For this purpose, the wing film 106 may be launched at an angle close to a substantially right angle with respect to the horizontal plane, so that the fluid force exerted on the wing is substantially minimized.
[0405]
Therefore, when the rotary shafts 101 and 102 are reciprocated around the rotary shaft 800 by the rotary actuators 101 and 102, the upper and lower sides are respectively centered on the positions where the blade shafts 103 and 104 substantially coincide with the horizontal plane. Let it be reciprocated by an angle γ. Further, as shown in FIG. 30, the reciprocating motion of the rear wing shaft 104 is delayed by an appropriate phase φ with respect to the reciprocating motion of the front wing shaft 103.
[0406]
Accordingly, in the reciprocating motion of the wing shown in FIGS. 31 to 38 (illustrated as φ = 20 ° here), it is at a higher position when it is downed as shown in FIGS. Since the front wing shaft 303 of the rotary actuator 301 is pushed down first, the tips of the front wing shaft 303 and the rear wing shaft 304 and the wing film 306 approach the horizontal.
[0407]
On the other hand, at the time of launching shown in FIGS. 35 to 38, the difference in height between the tips of both wing shafts 103 and 104 is enlarged, and the wing film 306 also approaches the vertical. As a result, the wing film 106 stretched between the front wing shaft 303 and the rear wing shaft 304 pushes down the fluid, or a difference occurs in the amount pushed up. In the case of this flapping sensing robot, the fluid force at the time of the downstroke is reduced. The direction becomes larger than the fluid force at the time of launch, and the levitation force is obtained.
[0408]
The levitation force vector is tilted back and forth by changing the phase difference φ. If you tilt it forward, you will get a propulsion movement, if you tilt it backward, you will move backward, and if you point it straight up, you will be in a hovering state. In actual flight, it is possible to control the flapping frequency f and the flapping angle γ in addition to the phase difference φ. Further, in this flapping sensing robot, the flapping elevation angle θ is fixed, but a function for changing this may be added to increase the degree of freedom.
[0409]
(Flapping control)
The actual flapping control will be described in more detail. In the above-described flapping sensing robot, the twist angle α formed by the tip of the wing during the down or up motion is the length of the wing (the length along the front and rear wing axes of the wing membrane). , L is the wing width (the distance between the front and rear wing axes), w is the flapping angle, γ is the flapping phase, and τ is the fluttering movement phase is 0 ° (the most instantaneous moment is the maximum) ), If the phase difference between the front wing shaft and the rear wing shaft is φ (see FIGS. 31, 37, and 38), it is approximately expressed by the following equation.
[0410]
tan α = (w / l) · [sin (γ · cos τ) −sin {γ · cos (τ + φ)}]
Actually, since the front wing shaft and the rear wing shaft are elastic and can be deformed, the twist angle α takes a slightly different value. Moreover, this angle is smaller as the root of the wing shaft. However, in the following discussion, for convenience, explanation will be made using α in the above formula.
[0411]
The vertical component F of the fluid force acting on the untwisted wing is approximately ρ, where the fluid density is ρ, the flapping angle is γ, and the flapping frequency is f.
F = (4/3) · π2ρwγ2f2lThree・ Sin2τ · cos (γ · cos τ)
It becomes. The horizontal component of the fluid force acting on the wings cancels each other if the left and right wings make the same movement.
[0412]
When the twist angle α is given to the wing, the component L perpendicular to the flapping motion plane of the component F and the horizontal component D are as follows.
[0413]
L = F ・ cosα ・ sinα
D = F · cos2α
In consideration of the flapping elevation angle θ, the vertical component A to be balanced with the weight and the horizontal component J that is the thrust of the longitudinal motion are as follows:
A ↓ = -L · cos θ + D · sin θ
J ↓ = -L · sinθ-D · cosθ
At launch,
A ↑ = L ・ cos θ−D ・ sin θ
J ↑ = L · sinθ + D · cosθ
It becomes. The actual buoyancy and propulsive force are obtained by integrating one cycle of flapping motion.
[0414]
From the above, as an example of this flight control, the flapping sensing robot has a wing length l = 4 cm, a wing width w = 1 cm, a flapping elevation angle θ = 30 °, a flapping angle γ = 60 °, a flapping frequency f = 50 Hz, FIG. 43 shows temporal changes of the vertical direction component A and the horizontal direction component B when the phase difference φ ↓ = 4 ° at the time of lowering and the phase difference φ ↑ = 16 ° at the time of launching, together with the time change of each angle.
[0415]
The horizontal axis represents the time for one period as the phase τ. The first half is down, and the second half is up. The curves in each graph show the temporal changes of the flapping angle γf of the front wing shaft, the flapping angle γb of the rear wing shaft, the wing twist angle (α + θ) from the horizontal plane, the vertical component A and the horizontal component J of the fluid force, respectively. ing.
[0416]
In this example, in the vertical direction component A of the fluid force per unit time, the downward force is greater than the launch time, so an average upward fluid force of about 500 dyn per cycle can be obtained with one wing. It is done. Therefore, if the weight of the flapping sensing robot is about 1 g or less, the two wings can float. In addition, since the horizontal component J of the fluid force per unit time is almost canceled during one cycle, a flapping sensing robot having a weight of about 1 g can be hovered.
[0417]
Here, it is possible to move forward by increasing the phase difference φ ↓ at the time of downstroke or by reducing the phase difference φ ↑ at the time of launch. At this time, in order to advance horizontally, it is desirable to slightly reduce the frequency f. On the contrary, it is possible to move backward by reducing the phase difference φ ↓ at the time of downstroke or by increasing the phase difference φ ↑ at the time of launch. At this time, in order to move backward horizontally, it is desirable to slightly increase the frequency f.
[0418]
In this flapping sensing robot, for example, the phase difference φ ↓ at the time of launch is increased to 7 ° while keeping the phase difference φ ↑ at the time of launch at 16 °, or the phase difference φ ↓ at the time of launch is set to 4 °. The phase difference φ ↑ upon launching is kept as small as 11 ° while being maintained, and the flapping frequency is lowered to f = 48 Hz, so that the vehicle can advance horizontally at a speed of approximately 1 m in the first second.
[0419]
In addition, for example, the phase difference φ ↓ at the time of launch is kept at 16 ° while the phase difference φ ↓ at the time of launch is reduced to 1 °, or the phase difference φ ↓ at the time of launch is kept at 4 °. By increasing the time phase difference φ ↑ to 24 ° and raising the flapping frequency f to 54 Hz, it is possible to move backward horizontally at a speed of approximately 1 m in the first second.
[0420]
In order to raise or lower the flapping sensing in the hovering state, the frequency f may be increased or decreased. Even during level flight, ascent and descent can be controlled mainly by the frequency f. Increasing the frequency f raises the flapping sensing robot, and lowering the frequency lowers the flapping sensing robot.
[0421]
In this example, the torsion angle α of the wing is slowly changed during the launching operation or the downing operation, in order to reduce the load on the actuator. As a flapping motion to obtain buoyancy, set the torsion angle α of the wing to a constant value during the launching operation or downing operation, and from the downing operation to the launching operation, or from the launching operation to the downing operation You may make it change the twist angle (alpha) rapidly in a change point.
[0422]
FIG. 44 shows temporal changes of the vertical direction component A and the horizontal direction component B together with the temporal change of each angle when the flapping elevation angle θ = 0 °. In this case, it is a flapping movement inspired by hummingbird hovering. In the case of steering to the left and right, if the flapping motion of the left and right wings can be controlled separately, it is only necessary to give a difference in the thrust by each wing.
[0423]
For example, to turn right while flying forward, the flapping angle γ of the right wing is made smaller than that of the left wing, or the phase difference between the front and rear wing axes of the right wing is made larger than that of the left wing. If the flapping elevation angle θ can be controlled, control is performed such that θ of the right wing is made smaller than that of the left wing. As a result, the right wing propulsive force is relatively lower than the left wing propulsive force, and the vehicle can turn right. When the flapping sensing robot is turned to the left, the opposite control may be performed.
[0424]
On the other hand, when the left and right wings cannot be controlled separately as in the flapping sensing robot shown in FIG. 41, the center-of-gravity control as installed in the flapping sensing robot shown in FIG. The part 707 is mounted on the flapping sensing robot, and the flapping sensing robot can be turned left and right by shifting the center of gravity of the flapping sensing robot to the left and right.
[0425]
For example, the flapping sensing robot can be turned to the right by shifting the center of gravity to the right, tilting the right wing downward and the left wing upward, and increasing the frequency f. Similarly, by shifting the center of gravity to the left and increasing the frequency f, the flapping sensing robot can be turned to the left. This method can also be applied to the case where the two wings can be controlled separately. In any flapping sensing robot, it is desirable to set the left and right flapping frequencies f to the same value in order to keep the posture stable.
[0426]
In the above two embodiments, the group robot system using the flapping sensing robot as the sensing robot has been described. However, a remotely controlled helicopter, a humanoid robot walking with two legs, and a fish robot are used. Other robots may be used as long as they can control operations, object detection, communication, etc. as a group robot system by a base station such as a fish school robot.
[0427]
Finally, the configuration and effect of the flapping sensing robot (or flapping pheromone robot) used in the group robot system of the present embodiment will be described together.
[0428]
The flapping sensing robot according to the present embodiment includes a floating main body portion including a wing portion, a driving portion, and a trunk portion for flapping a space in which a fluid exists. The drive unit performs a down operation for lowering the wing part from above to below and a launch operation for raising the wing part from below to above. A wing part is attached to the body part, and a drive part is mounted. Then, in a time average between a series of the down-motion operation and the up-motion operation, a vertically upward force among the forces received by the wing portion from the fluid is larger than the gravity acting on the floating main body portion.
[0429]
According to this structure, in the time average between the down-motion operation and the up-motion operation in the flapping operation of the wing portion, the vertically upward force out of the force that the wing portion receives from the fluid is larger than the gravity acting on the floating main body portion. Thus, buoyancy is given to the floating main body. As a result, the levitating main body can move without touching the ground.
[0430]
In order to give buoyancy to the levitation body, it is desirable that the volume of the space in which the wing moves during the down motion is larger than the volume of the space in which the wing moves during the launch operation, for example, By balancing the buoyancy and the gravity acting on the levitation body, it is also possible to make a flying flight (hovering) that stays in the space away from the ground.
[0431]
Such a floating main body is preferably used as a moving means for performing a predetermined work indoors or as a moving means for performing a predetermined work outdoors.
[0432]
The levitation body part can move away from the ground with buoyancy, so that various objects such as furniture are placed, and such an object is placed indoors where the position of such objects changes over time. It is possible to move while avoiding obstacles, and it is possible to easily perform predetermined work such as grasping the situation of each room. In addition, outdoors, for example, it is possible to move without being influenced by obstacles in a disaster area, topography in a general field, etc., and predetermined operations such as information collection can be easily performed.
[0433]
Specifically, the wing portion has a wing body portion and a wing shaft portion that supports the wing body portion, and the driving portion drives the wing shaft portion to drive the tip portion of the wing body portion and a virtual predetermined reference plane. It is desirable to change the torsion angle between
[0434]
Thereby, the magnitude | size and direction of the fluid force which a wing | blade part floats from a fluid change, and a floating main-body part can be raised, descended, advanced, or retracted.
[0435]
In order to make the volume of the space in which the wings move during the down motion larger than the volume of the space in which the wings move during the launch operation, the drive unit has a twist angle and the launch in the down motion. It is necessary to vary the twist angle in the operation.
[0436]
Furthermore, it is desirable for the drive unit to change the twist angle with time.
In this case, the posture of the wing portion can be changed smoothly, and it is possible to suppress the sudden application of fluid force to the wing portion.
[0437]
The wing shaft portion includes one wing shaft portion and the other wing shaft portion, and the wing body portion includes a film portion formed so as to pass between the one wing shaft portion and the other wing shaft portion. The drive unit preferably drives the one side wing shaft part and the other side wing shaft part individually.
[0438]
In this case, the twist angle can be easily changed by individually driving the one-side wing shaft portion and the other-side wing shaft portion.
[0439]
The wing shaft portion reciprocates on a virtual plane with the driving portion as a fulcrum, the trunk portion extends in one direction, and the elevation angle formed by the direction in which the trunk portion extends and the virtual plane can be changed. desirable.
[0440]
In this case, the degree of freedom of the flapping motion increases, and a more complex flapping motion can be realized. Further, by increasing the elevation angle and controlling the twist angle, higher-speed flight can be performed. Further, by making the elevation angle substantially 0 °, hovering such as a hummingbird can be performed with excellent mobility.
[0441]
More specifically, the wing portion has a main shaft portion and a wing main body portion formed in a direction substantially orthogonal to the direction in which the main shaft portion extends from the main shaft portion, and the drive portion drives the main shaft portion to drive the wing main body portion. It is desirable to change the torsion angle between a virtual plane in contact with the virtual predetermined reference plane including the main shaft portion.
[0442]
Thereby, the magnitude | size and direction of the fluid force which a wing | blade part floats from a fluid change, and a floating main-body part can be raised, descended, advanced, or retracted.
[0443]
In order to change the posture of the wing part in such a main shaft part, it is desirable that the drive part includes an actuator having at least three degrees of freedom.
[0444]
In addition, the wing part is formed on one side and the other side, respectively, across the approximate center of the body part, and the drive part individually drives the wing part formed on one side and the wing part formed on the other side. It is desirable.
[0445]
In this case, the postures of the wings formed on one side and the wings formed on the other side can be individually changed, and the orientation of the floating main body can be easily changed.
[0446]
Furthermore, it is desirable to include a sensor unit for grasping the surrounding situation, a memory unit for storing information, or a communication unit for transmitting and receiving information.
[0447]
By providing the sensor unit, it is possible to obtain environmental information such as the position, posture and speed of the levitation main body unit, the position and movement speed of surrounding obstacles, temperature and brightness, and perform more appropriate flapping control. Further, by providing the memory unit, the obtained environmental information can be accumulated, and the levitating body unit can have a learning function. Furthermore, by providing a communication unit, information can be exchanged between a plurality of levitating main body units and a base station, and cooperative actions between a plurality of levitating main body units by exchanging acquired information Can be easily performed.
[0448]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[0449]
【The invention's effect】
According to the group robot system of the present invention, since communication is performed in a hierarchical structure, the communication distance between the sensing robots or between the base station and the sensing robot is one-to-one. It can be shortened compared with the case where it communicates by. Therefore, it is possible to widen the search range when the base station is stopped, while reducing the size or weight of the communication mechanism of each sensing robot.
[0450]
According to the sensing robot of the present invention, since communication is performed in a hierarchical structure, the base station and the sensing robot have a one-to-one communication distance between the sensing robots or between the base station and the sensing robot. This can be shortened compared to the case where communication is performed. Therefore, it is possible to widen the search range when the base station is stopped, while reducing the size or weight of the communication mechanism of each sensing robot.
[0451]
According to the base station of the present invention, the base station does not have to have a function capable of communicating with all the sensing robots of the group robot system, so that the base station is stopped while reducing the communication mechanism of the base station. It is possible to widen the search range of the group robot system in a state where the robot is in the state of being.
[0452]
According to the pheromone robot of the present invention, the sensing robot instructs the base station to perform the control to limit the movement of the sensing robot so that the plurality of sensing robots are located in a range that can be controlled by the base station. In order to expand the search range of the group robot system by suppressing the occurrence of a sensing robot that cannot control the sensing robot by moving to an unreachable position, the sensing robot in the group robot system Can be controlled more reliably.
[Brief description of the drawings]
FIG. 1 is a diagram showing a group robot system of an embodiment.
FIG. 2 is a diagram for explaining that the communication system of the group robot system according to the present embodiment has a hierarchical structure.
FIG. 3 is a diagram for explaining that the communication system of the group robot system according to the present embodiment has a tree structure;
FIG. 4 is a diagram illustrating a flow of control signals of a flapping sensing robot of the group robot system according to the present embodiment.
FIG. 5 is a diagram showing a delay profile of a control signal in spread spectrum communication of the group robot system of the present embodiment.
FIG. 6 is a diagram showing spread codes in spread spectrum communication of the group robot system of the present embodiment.
FIG. 7 is a diagram for explaining an example of a schematic illustrating a communication relationship between a flapping sensing robot and a base station according to the present embodiment.
FIG. 8 is a front view showing the structure of the flapping sensing robot of the present embodiment.
FIG. 9 is an enlarged perspective view showing a blade of the flapping sensing robot of the present embodiment.
FIG. 10 is a diagram showing the stroke angle θ and the deflection angle α of the blade of the flapping sensing robot of the present embodiment.
FIG. 11 is a diagram showing a twist angle β of a blade of the flapping sensing robot according to the present embodiment.
FIG. 12 is a diagram for explaining a stator portion of an actuator used for flapping of the flapping sensing robot according to the present embodiment.
FIG. 13 is a diagram for explaining an actuator configured using a stator used for flapping of the flapping sensing robot according to the present embodiment.
FIG. 14 is a diagram showing a down stroke operation in the flapping motion of the flapping sensing robot of the present embodiment.
FIG. 15 is a diagram illustrating a launching operation in a flapping operation of the flapping sensing robot according to the present embodiment.
FIG. 16 is a diagram showing a first state in a flapping operation of the flapping sensing robot of the present embodiment.
FIG. 17 is a diagram showing a second state in the flapping operation of the flapping sensing robot of the present embodiment.
FIG. 18 is a diagram showing a third state in the flapping operation of the flapping sensing robot of the present embodiment.
FIG. 19 is a diagram showing a fourth state in the flapping operation of the flapping sensing robot of the present embodiment.
FIG. 20 is a first graph showing time dependency of blade driving in the flapping operation of the flapping sensing robot of the present embodiment.
FIG. 21 is a second graph showing time dependency of blade driving in the flapping operation of the flapping sensing robot of the present embodiment.
FIG. 22 is a graph showing simulation results of the torque of the actuator and the starting point reaction force when driving the blades of the flapping sensing robot of the present embodiment.
FIG. 23 is a conceptual diagram showing the configuration of a base station that controls the flapping sensing robot of the present embodiment.
FIG. 24 is an explanatory diagram showing a relationship between a flapping sensing robot and a base station according to the present embodiment.
FIG. 25 is a flowchart showing an example of the operation of the flapping sensing robot system of the present embodiment.
FIG. 26 is an explanatory diagram showing information processing in the takeoff process of the flapping sensing robot of the present embodiment.
FIG. 27 is an explanatory diagram illustrating information processing in a patrol process of the flapping sensing robot of the present embodiment.
FIG. 28 is an explanatory diagram showing information processing in the landing process of the flapping sensing robot of the present embodiment.
FIG. 29 is a view showing a flapping sensing robot according to another embodiment, wherein (a) is a partial front view thereof, and (b) is a partial side view thereof.
FIG. 30 is a graph showing the relationship between the flapping motion and the phase of the flapping motion in another embodiment.
FIG. 31 is a diagram showing a first state of a flapping operation in the flapping sensing robot in another embodiment.
FIG. 32 is a diagram showing a second state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 33 is a diagram showing a third state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 34 is a diagram showing a fourth state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 35 is a diagram showing a fifth state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 36 is a diagram showing a sixth state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 37 is a diagram showing a seventh state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 38 is a diagram showing an eighth state of the flapping motion in the flapping sensing robot in another embodiment.
FIG. 39 is a schematic front view showing a flapping sensing robot according to a modified example in another embodiment.
FIG. 40 is a schematic front view showing a flapping sensing robot according to another modified example in another embodiment.
FIG. 41 is a schematic front view showing a flapping sensing robot according to still another modification example in another embodiment.
FIG. 42 is a schematic plan view showing the structure of a flapping sensing robot according to another embodiment.
FIG. 43 is a first graph showing the force acting on the wing and the change of each angle with respect to the phase of the flapping motion in another embodiment;
FIG. 44 is a second graph showing the force acting on the wing and the change of each angle with respect to the phase of the flapping motion in another embodiment.
FIG. 45 is an explanatory diagram for explaining a control function of flapping flying control;
FIG. 46 is a diagram showing a correspondence table in which changes in how the left wing flutters are associated with changes in the flying state that accompany it.
FIG. 47 is a diagram showing a correspondence table showing flapping patterns for realizing the basic motion of flapping and floating.
FIG. 48 is a diagram showing a group robot system by a conventional parent-child robot.
[Explanation of symbols]
90 flapping sensing robot, 100 group robot system, 101 base station, 102, 103, 104 flapping sensing robot group, 105 pheromone robot group.

Claims (18)

対象物の探索に用いられる複数のセンシングロボットと、
該複数のセンシングロボットを通信により制御するためのベースステーションとを備えた群ロボットシステムであって、
該群ロボットシステムの通信体系が、前記ベースステーションを最上層として、前記複数のセンシングロボット同士で複数層を構成する階層構造をなし、
該階層構造において、
前記ベースステーションからは、前記複数のセンシングロボットそれぞれまで前記階層構造の下層側へ順に、前記複数のセンシングロボットそれぞれの動作の制御に関する情報が伝達され、
前記複数のセンシングロボットそれぞれからは、前記ベースステーションまで前記階層構造の上層側へ順に、前記複数のセンシングロボットそれぞれの前記対象物の探索に関する情報が伝達され
前記階層構造の上層側のセンシングロボットが前記ベースステーションに近い位置にあり、前記階層構造の下層側のセンシングロボットが前記ベースステーションから遠い位置にあり、かつ、前記複数のセンシングロボットが前記ベースステーションを中心とした同心円状に配置された状態で、前記複数のセンシングロボットおよび前記ベースステーションが移動するように、前記ベースステーションによって制御される、群ロボットシステム。
Multiple sensing robots used to search for objects;
A group robot system comprising a base station for controlling the plurality of sensing robots by communication,
The communication system of the group robot system has a hierarchical structure in which the base station is the top layer and the plurality of sensing robots constitute a plurality of layers,
In the hierarchical structure,
From the base station, in order to each of the plurality of sensing robots, information regarding the control of the operation of each of the plurality of sensing robots is sequentially transmitted to the lower layer side of the hierarchical structure,
From each of the plurality of sensing robots, information on the search for the object of each of the plurality of sensing robots is transmitted in order to the upper layer side of the hierarchical structure to the base station ,
A sensing robot on the upper layer side of the hierarchical structure is at a position close to the base station, a sensing robot on a lower layer side of the hierarchical structure is at a position far from the base station, and the plurality of sensing robots move the base station. A group robot system controlled by the base station so that the plurality of sensing robots and the base station move in a concentric arrangement with a center .
前記階層構造の上層から下層へ向かっては前記ベースステーションから前記複数のセンシングロボットそれぞれへの通信ルートが必ず1つとなるように設定された、請求項1に記載の群ロボットシステム。  2. The group robot system according to claim 1, wherein a communication route from the base station to each of the plurality of sensing robots is always set to one from the upper layer to the lower layer of the hierarchical structure. 前記ベースステーションとの通信により、前記複数のセンシングロボットが前記フェロモンロボットと前記ベースステーションとの間に存在するように、前記複数のセンシングロボットのうち前記ベースステーションからの距離が最も遠い位置にあるセンシングロボットの移動を制限する制御を行なうフェロモンロボットをさらに備えた、請求項1または2に記載の群ロボットシステム。Sensing at a position farthest from the base station among the plurality of sensing robots such that the plurality of sensing robots exist between the pheromone robot and the base station by communication with the base station. The group robot system according to claim 1, further comprising a pheromone robot that performs control for limiting movement of the robot. 前記ベースステーションから前記フェロモンロボットを経て前記複数のセンシングロボットそれぞれへ情報を伝達することが可能である、請求項3に記載の群ロボットシステム。  The group robot system according to claim 3, wherein information can be transmitted from the base station to each of the plurality of sensing robots via the pheromone robot. 前記フェロモンロボットと前記ベースステーションとの最大通信距離が、前記ベースステーションと前記階層構造の最上層にあるセンシングロボットとの間の最大通信距離、前記フェロモンロボットと前記階層構造の最下層にあるセンシングロボットとの間の最大通信距離、および、前記複数のセンシングロボット同士の間の最大通信距離のいずれかよりも大きくなるように設定された、請求項3または請求項4に記載の群ロボットシステム。  The maximum communication distance between the pheromone robot and the base station is the maximum communication distance between the base station and the sensing robot at the top layer of the hierarchical structure, and the sensing robot at the bottom layer of the pheromone robot and the hierarchical structure 5. The group robot system according to claim 3, wherein the group robot system is set to be larger than any one of a maximum communication distance between the plurality of sensing robots and a maximum communication distance between the plurality of sensing robots. 前記フェロモンロボットと前記ベースステーションとの最大通信距離が、前記ベースステーションと前記階層構造の最上層にあるセンシングロボットとの間の最大通信距離と、前記フェロモンロボットと前記階層構造の最下層にあるセンシングロボットとの間の最大通信距離と、前記複数のセンシングロボット同士の間の最大通信距離の和とを加えた距離よりも大きくなるように設定された、請求項5に記載の群ロボットシステム。  The maximum communication distance between the pheromone robot and the base station is the maximum communication distance between the base station and the sensing robot at the top layer of the hierarchical structure, and the sensing at the bottom layer of the pheromone robot and the hierarchical structure. The group robot system according to claim 5, wherein the group robot system is set to be larger than a distance obtained by adding a maximum communication distance to the robot and a sum of the maximum communication distances between the plurality of sensing robots. 前記対象物の探索にあたっては、前記ベースステーションに対する前記フェロモンロボットの位置関係を決定することにより、全体の探索範囲が決定されるように設定された、請求項3〜請求項6のいずれかに記載の群ロボットシステム。  The search for the object is set so that the entire search range is determined by determining the positional relationship of the pheromone robot with respect to the base station. Group robot system. 前記全体の探索範囲に基づいて、前記複数のセンシングロボットの個々の探索範囲が決定されるように設定された、請求項7に記載の群ロボットシステム。  The group robot system according to claim 7, wherein the group search system is set such that individual search ranges of the plurality of sensing robots are determined based on the entire search range. 前記個々の探索範囲に基づいて、前記複数のセンシングロボット個々の対象物の探索能力および通信強度のうち少なくともいずれか一方が決定されるように設定された、請求項8に記載の群ロボットシステム。  9. The group robot system according to claim 8, wherein the group robot system is set such that at least one of a search capability and a communication strength of an object of each of the plurality of sensing robots is determined based on the individual search ranges. 前記複数のセンシングロボットそれぞれは、前記階層構造の1つ上層にある、前記センシングロボットまたは前記ベースステーションからの通信強度が予め決められた基準レベルを下回った場合に、該通信強度が前記基準レベルを上回るような方向へ移動するように設定された、請求項1〜請求項9のいずれかに記載の群ロボットシステム。  Each of the plurality of sensing robots has a communication strength that falls below the reference level when the communication strength from the sensing robot or the base station, which is one layer above the hierarchical structure, falls below a predetermined reference level. The group robot system according to any one of claims 1 to 9, wherein the group robot system is set to move in such a direction as to exceed. 前記階層構造の通信においては、互いに隣接する階層の前記複数のセンシングロボット同士の間の通信、または、最上層の前記センシングロボットと前記ベースステーションとの間の通信は、互いに同じ通信強度となるように設定されており、
前記複数のセンシングロボットそれぞれは、前記階層構造の1つ上層にある、前記センシングロボットまたは前記ベースステーションからの通信強度が予め決められた基準レベルを下回った場合に、該通信強度が前記基準レベルを上回るまで互いの通信強度を強くするように設定された、請求項1〜請求項10のいずれかに記載の群ロボットシステム。
In the hierarchical communication, communication between the plurality of sensing robots in adjacent layers, or communication between the uppermost sensing robot and the base station has the same communication strength. Is set to
Each of the plurality of sensing robots has a communication strength that falls below the reference level when the communication strength from the sensing robot or the base station, which is one layer above the hierarchical structure, falls below a predetermined reference level. The group robot system according to any one of claims 1 to 10, wherein the group robot system is set so as to increase the communication strength of each other until it exceeds.
前記階層構造における通信方式が、スペクトラム拡散通信方式である、請求項1〜請求項11のいずれかに記載の群ロボットシステム。  The group robot system according to any one of claims 1 to 11, wherein a communication method in the hierarchical structure is a spread spectrum communication method. 前記スペクトラム拡散通信方式において、前記階層構造の1つ上層にある前記センシングロボットおよび1つ下層にある前記センシングロボットの識別を、拡散符号により行なうように設定された、請求項12に記載の群ロボットシステム。  13. The group robot according to claim 12, wherein in the spread spectrum communication method, identification is made by using a spreading code to identify the sensing robot that is one layer above the hierarchical structure and the sensing robot that is one layer below. system. 前記スペクトラム拡散通信方式において、前記階層構造の同階層での他の前記センシングロボットの識別を、拡散符号により行なうように設定された、請求項12または請求項13に記載の群ロボットシステム。  The group robot system according to claim 12 or 13, wherein, in the spread spectrum communication system, the other sensing robots in the same hierarchy of the hierarchical structure are set to be identified by a spread code. 前記スペクトラム拡散通信方式には、同期確定のための通信層および拡散符号、1つ上層にある前記センシングロボットを識別するための通信層および拡散符号、ならびに、1つ下層にある前記センシングロボットを識別するための通信層および拡散符号が用いられる、請求項12〜請求項14のいずれかに記載の群ロボットシステム。  In the spread spectrum communication method, a communication layer and spreading code for determining synchronization, a communication layer and spreading code for identifying the sensing robot in the upper layer, and the sensing robot in the lower layer are identified. The group robot system according to any one of claims 12 to 14, wherein a communication layer and a spreading code are used. 前記階層構造はツリー構造である、請求項1〜請求項15のいずれかに記載の群ロボットシステム。The group robot system according to any one of claims 1 to 15 , wherein the hierarchical structure is a tree structure. 対象物の探索に用いられる複数のセンシングロボットと、通信により該複数のセンシングロボットを制御するためのベースステーションとを備え、
通信体系が、前記ベースステーションを最上層として、前記複数のセンシングロボット同士で複数層を構成する階層構造をなすように設定されており、
該階層構造において、
前記ベースステーションからは、前記複数のセンシングロボットそれぞれまで前記階層構造の下層側へ順に、前記複数のセンシングロボットそれぞれの動作の制御に関する情報が伝達され、
前記複数のセンシングロボットそれぞれからは、前記ベースステーションまで前記階層構造の上層側へ順に、前記複数のセンシングロボットそれぞれの前記対象物の探索に関する情報が伝達され、
前記階層構造の上層側のセンシングロボットが前記ベースステーションに近い位置にあり、前記階層構造の下層側のセンシングロボットが前記ベースステーションから遠い位置にあり、かつ、前記複数のセンシングロボットが前記ベースステーションを中心とした同心円状に配置された状態で、前記複数のセンシングロボットおよび前記ベースステーションが移動するように、前記ベースステーションによって制御される群ロボットシステムにおいて用いられ、
前記ベースステーションとの通信により、前記複数のセンシングロボットが前記フェロモンロボットと前記ベースステーションとの間に存在するように、前記複数のセンシングロボットのうち前記ベースステーションからの距離が最も遠い位置にあるセンシングロボットの移動を制限する制御を行なう、フェロモンロボット。
A plurality of sensing robots used for searching for an object, and a base station for controlling the plurality of sensing robots by communication,
The communication system is set to have a hierarchical structure in which the base station is the top layer and the plurality of sensing robots constitute a plurality of layers,
In the hierarchical structure,
From the base station, in order to each of the plurality of sensing robots, information regarding the control of the operation of each of the plurality of sensing robots is sequentially transmitted to the lower layer side of the hierarchical structure,
From each of the plurality of sensing robots, information on the search for the object of each of the plurality of sensing robots is transmitted in order to the upper layer side of the hierarchical structure to the base station,
A sensing robot on the upper layer side of the hierarchical structure is at a position close to the base station, a sensing robot on a lower layer side of the hierarchical structure is at a position far from the base station, and the plurality of sensing robots move the base station. Used in a group robot system controlled by the base station such that the plurality of sensing robots and the base station move in a concentric arrangement with a center,
Sensing at a position farthest from the base station among the plurality of sensing robots such that the plurality of sensing robots exist between the pheromone robot and the base station by communication with the base station. A pheromone robot that controls the movement of the robot.
前記該ベースステーションに対して指向性を有する通信機構を備えた、請求項17に記載のフェロモンロボット。The pheromone robot according to claim 17 , further comprising a communication mechanism having directivity with respect to the base station.
JP2002051279A 2001-09-13 2002-02-27 Group robot system and pheromone robot used in it Expired - Fee Related JP3986848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002051279A JP3986848B2 (en) 2001-09-13 2002-02-27 Group robot system and pheromone robot used in it

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001278176 2001-09-13
JP2001-278176 2001-09-13
JP2002051279A JP3986848B2 (en) 2001-09-13 2002-02-27 Group robot system and pheromone robot used in it

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007153195A Division JP4651645B2 (en) 2001-09-13 2007-06-08 Group robot system

Publications (2)

Publication Number Publication Date
JP2003162326A JP2003162326A (en) 2003-06-06
JP3986848B2 true JP3986848B2 (en) 2007-10-03

Family

ID=26622155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002051279A Expired - Fee Related JP3986848B2 (en) 2001-09-13 2002-02-27 Group robot system and pheromone robot used in it

Country Status (1)

Country Link
JP (1) JP3986848B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4431757B2 (en) * 2004-03-30 2010-03-17 株式会社国際電気通信基礎技術研究所 Robot system
KR101277452B1 (en) 2009-12-09 2013-07-05 한국전자통신연구원 Mobile robot based on a crowed intelligence, method for controlling the same and watching robot system
JP6714815B2 (en) * 2016-01-06 2020-07-01 セイコーエプソン株式会社 Drive device and robot
JPWO2018154633A1 (en) 2017-02-21 2019-11-14 日本電気株式会社 Control device, control method and program
CN112621761B (en) * 2020-12-24 2022-06-24 中国科学院重庆绿色智能技术研究院 Communication time lag-oriented mechanical arm system multi-stage optimization coordination control method
CN113268040A (en) * 2021-04-30 2021-08-17 河北工业大学 Optimization method for control parameters of servo feeding system of numerical control machine tool
CN116755452B (en) * 2023-08-17 2023-11-03 深圳安培时代数字能源科技有限公司 Mobile power supply autonomous patrol method and device based on battery protection box

Also Published As

Publication number Publication date
JP2003162326A (en) 2003-06-06

Similar Documents

Publication Publication Date Title
JP4087104B2 (en) Group robot system
JP4651645B2 (en) Group robot system
JP3889956B2 (en) Mobile device
JP4007947B2 (en) Group robot system, sensing robot included in group robot system, base station included in group robot system, and control robot included in group robot system
JP4043289B2 (en) Search robot system
JP4142034B2 (en) Mobile device
JP2003341599A (en) Information presenting device and information presenting system
JP3986848B2 (en) Group robot system and pheromone robot used in it
JP3946487B2 (en) Takeoff and landing assistance mechanism and takeoff and landing assistance device
JP4540639B2 (en) Takeoff and landing assistance device
JP2007253946A (en) Robot system, flapping device used for it and flapping flight controller
JP3989707B2 (en) Robot system, flapping apparatus and flapping flight control apparatus used therefor
JP3920076B2 (en) Flapping flight equipment
JP4467442B2 (en) Mobile device
JP4007940B2 (en) Group robot system, sensing robot included in the group robot system, base station included in the group robot system, and control robot included in the group robot system
Du et al. Unified switching between active flying and perching of a bioinspired robot using impedance control
JP3860077B2 (en) Alarm system and alarm clock
JP2005125466A (en) Group robot system, sensing robot included in group robot system, base station included in group robot system and pheromone robot included in group robot system
JP3893270B2 (en) Microphone system and levitating device used in the microphone system
JP2005173968A (en) Tracking robot system and tracking robot used therefor
JP4121970B2 (en) Mobile device
JP2005349517A (en) Mobile robot with buoyancy generating mechanism, and mobile robot group
JP2005199377A (en) Tracking robot system and tracking robot using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees