JP4782816B2 - センサユニット - Google Patents

センサユニット Download PDF

Info

Publication number
JP4782816B2
JP4782816B2 JP2008243239A JP2008243239A JP4782816B2 JP 4782816 B2 JP4782816 B2 JP 4782816B2 JP 2008243239 A JP2008243239 A JP 2008243239A JP 2008243239 A JP2008243239 A JP 2008243239A JP 4782816 B2 JP4782816 B2 JP 4782816B2
Authority
JP
Japan
Prior art keywords
sensor
physical quantity
gyro
artificial retina
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008243239A
Other languages
English (en)
Other versions
JP2009063582A (ja
Inventor
通保 田野
Original Assignee
株式会社データ・テック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社データ・テック filed Critical 株式会社データ・テック
Priority to JP2008243239A priority Critical patent/JP4782816B2/ja
Publication of JP2009063582A publication Critical patent/JP2009063582A/ja
Application granted granted Critical
Publication of JP4782816B2 publication Critical patent/JP4782816B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Gyroscopes (AREA)
  • Navigation (AREA)

Description

本発明は、人間、ロボット、車両、航空機等の被検体の姿勢、動き成分、位置等を複合的に検出し、必要に応じて他の検出データに基づいて計器の誤差分を自律的に補正することにより高精度の検出結果を恒常的に得る、センサユニットに関する。
被検体の姿勢や動きを検出し、この検出結果と映像の表現データとを実時間でリンクさせることにより、被検体の姿勢等に応じた映像を表示手段に表示させる技術がある。このような技術において、被検体の姿勢や動きを検出する場合、従来は、主として以下の二つの方式が採用されている。第1の方式は、角速度を検出するジャイロセンサと加速度を検出する加速度計とをそれぞれ二次元又は三次元の軸線上に配置したセンサユニットを用い、このセンサユニットを取り付けた被検体の姿勢や動きを検出する方式である。第2の方式は、三次元的な微弱磁場を発磁コイルから発生し、その磁場の変化を磁力センサを用いて被検体の姿勢等を検出する方式である。この方式では、磁場の影響が及ぶ数メートル範囲での方向及び場所でセンシングすることになる。
しかしながら、従来方式には、以下のような問題点があった。第1の方式では、ジャイロセンサが早い動きに追随できる利点はあるが、センサ特有のドリフトが発生しやすく、被検体の向きに対して高精度の検出ができない。ジャイロセンサでは、検出した角速度を積分して角度に変換することになるため、僅かな誤差でもそれが累乗に蓄積されることになる。このような誤差の原因としては、電気回路部の温度特性の変化によるものがある。これは、抵抗やアンプなどの温度により特性の変化を拾ってしまい、それが検出データのドリフトとして現れるのである。また、ジャイロセンサの特性によるものがある。この種のジャイロセンサとしては振動型のものが主流であるが、使用に際して剛体が振動するため、安定振動にいたるまでに時間を要し、それがドリフトとして現れるのである。このようなドリフトの発生は、ジャイロセンサを採用する以上、不可避となる。ジャイロセンサは、このドリフトを自律的に補正することができないため、例えば被検体が正面を向いたことを感知できる赤外線センサ等を利用したリファレンス装置を用いて補正していくことになる。このようなリファレンス装置は、設置場所が固定されるのが通常なので、ドリフト補正を逐次行おうとするとセンサユニットの使用範囲が限定されてしまい、野外での使用や携帯しての使用は不可能である。
第2の方式では、外乱の影響を受けやすいため様々なフィルタリング処理が必要となり、微弱磁場を利用することとも相まって、検出結果を画定するまでに要する時間が長いという問題がある。つまり、応答性が悪いという問題である。この結果、被検体の実際の動きを実時間で出力することができず、一定の時間経過後に出力されることになり、実時間処理を要する用途には不向きとなる。磁場を強くしてノイズに強くすれば応答性はある程度解決するが、被検体が人間の場合、磁場の人体への悪影響の心配や、医療分野のおいて心臓のペースメーカーへの影響などで、磁場を極力弱くすることが市場から要求されており、この時間的な遅れの解決は不可能に近いといえる。第2の方式では、発磁コイルを設置することから限られた場所内で被検体の姿勢等を計測することになり、第1の方式の場合と同様、自由な空間でのセンシングが不可能である。
本発明は、以上の背景に鑑み、使用する環境に依存せず、姿勢等の高精度のセンシングを可能にするセンサユニットを提供することにある。
本願出願人は、人間の知覚動作を模擬するセンサユニットであって、自己の姿勢及びその動き成分を計測する三半規管に相当する第1センサと、撮像素子を含み、この撮像素子で撮像した自己の周囲に存在する目標物の位置、視野角又は動き成分を計測する目に相当する第2センサと、音源から到達する音の経路差に基づいて自己の周囲における音源の方向を検出する耳に相当する第3センサと、前記第1センサ、前記第2センサ及び前記第3センサの計測結果を取り込み、これらの計測結果を所定の記録領域の情報空間内に時間情報と共に更新自在に記録するとともに、この規則された計測結果に基づいて前記情報空間内において自己に対する前記目標物の位置、方向及び動きを特定するコントローラとを有する、センサユニットにより、上記課題を解決するものである。
ある実施の態様では、 前記第1センサは、ドリフト成分を蓄積させるジャイロセンサを含み、前記第2センサは、前記ジャイロセンサにより検出される物理量と同じ物理量を当該ジャイロセンサよりも長い時間で検出するための部品を含んで構成されており、前記コントローラは、前記第1センサの計測結果に基づく前記物理量を前記第2センサによる計測に要する時間分だけ積算するとともに、前記第2センサの計測結果に基づく前記物理量の検出が終了した時点で当該検出結果と前記積算の結果とを比較し、両者の差分が予め定めた所定の範囲外のときは前記第1センサの計測結果を採用し、他方、両者の差分が前記範囲内のときは前記第2センサの計測結果を採用することにより、前記相対的な動きを特定するように、センサユニットを構成する。
ある実施の態様では、前記コントローラは、前記第2センサの計測結果を採用するときは、前記差分により前記第1センサの計測結果を補正する。
また、ある実施の態様では、前記コントローラは、前記第2センサにより検出される物理量に変化がなく、且つ前記ジャイロセンサにより検出される物理量が0であるときは、両者の物理量を初期値にし、他方、前記第2センサにより検出される物理量に変化がないが前記ジャイロセンサにより検出される物理量が有限値であった場合は前記有限値を0に補正する。
さらに他の実施の態様では、前記コントローラは、前記第1センサ、前記第2センサ及び前記第3センサのそれぞれの計測結果に基づいて検出される物理量が所定の条件を満たすときに、検出結果として外部に出力する。
本発明のセンサユニットによれば、複数のセンサの検出結果を補完させてセンサの利点同士を活かし、欠点については他のセンサの利点で補うようにしたので、検出精度を高く維持できるようになる。また、ジャイロセンサを含む場合に、そのドリフト成分を他のセンサの検出結果をもとに自律的に補正するようにしたので、使用環境を問わないセンシングが可能になる。さらに、時々刻々センスされるデータのみならず、空間的、時間的に統合されたデータに基づく検出結果が得られるため、人間の知覚動作に近い検出結果が正確に得られるようになり、従来のセンサ乃至センサユニットでは不可能であった用途に広く応用することが可能になる。
以下、本発明を人間の知覚動作を模擬するセンサユニットに適用した場合の実施の形態を説明する。図1(a)は人間の知覚を示す説明図である。人間の知覚は、平行感覚を司る三半規管1、視覚を司る目2、聴覚を司る耳3、及びこれらの器官を統括的に管理する頭脳4の相互作用によって実現される。
三半規管1は、自己の相対的な姿勢やその動き、方向を感知するものであり、その原理は、水成分の動きから頭の前後左右の傾き度合いや方向を感知するというものである。しかし、三半規管1のみでは、例えば暗い部屋で何回か回転すると目的とする方向を見失ってしまったり、目をつぶりながら片足で立ち続けることができずに目をあけてしまったり、両足で立ってしまうことがある。このような場合、絶対的な方向や傾斜は、目2からの視覚情報や耳3からの音源情報で補完される。
目2は、自己の姿勢や周囲の事物に対する自己の相対位置、自己の動き、相手との相対速度、相手との距離等を感知するが、目2からの情報のみでは、自己や相手の速い動きに対応しにくかったり、暗い状態では感知精度が低いことは良く経験するところである。このような場合、三半規管1及び耳3からの情報によって感知情報が補完される。
耳3は、音源の存在や、その音源と自己との距離・方向等を感知するが、耳3からの情報のみでは感知精度が低いため、やはり、目2や三半規管1からの情報によって感知精度の補完が行われる。
頭脳4は、三半規管1、目2、耳3からの情報に基づいて情報相互の補完や事象の発生確認、その他の判断を行う。例えば現在又は過去の視覚情報及び音情報をもとに、自己の周辺の事物の存在や配置等を空間的に認識する。人が肩を叩かれたときに振り向くことが出来るのは、後ろに障害になる物が無いことを知っているからである。つまり、頭脳4は、現在認識されるいる情報のみに基づくのではなく、事前に取得してある情報をも加味することによって常に空間的に存在する情報を整理しておくのである。このようにして、自己の動きにあった空間を作りだし、人は安心して歩行できる。
このような人間の知覚と等価の機能を実現するため、本実施形態では、図1(b)のような構成のセンサユニットを構成する。このセンサユニットは、可搬性の筐体に、頭脳4に相当するコントローラ5、三半規管1に相当するジャイロユニット6、目2に相当する人工網膜IC7、耳に相当する音響センサ8、及び、D‐GPS9(differential‐globalpositioning systemの略称である。)、及びこれらの電源(図示省略)を装着して構成される。
ジャイロユニット6は、複数のジャイロセンサ及び加速度計を含んで成り、これらの計器によって、筐体の姿勢やその動きを検出するものである。ジャイロセンサは、筐体内に形成されるX,Y,Z軸(ピッチ、ロール、ヨー)又はX,Y軸上に配置され、各軸線回りの角速度を計測する。加速度計は、X,Y,Z軸又はX,Y軸上に配置され、軸線傾斜による重力加速度と運動加速度との和を計測する。本実施形態では、ジャイロセンサは筐体の旋回角度を含む姿勢の計測に利用し、加速度計は、筐体の加速・停止加速度の計測、旋回による横加速度等の計測に利用する。この計測により得られたデータ(以下、この実施形態では「計測データ」と称する)は、必要に応じて増幅器(図示省略)によって増幅され、時系列にコントローラ5に出力されるようになっている。なお、方位計を含んでジャイロユニットを構成しても良い。この場合は、上記計測データに絶対方位に対する筐体の相対方位を表すデータが付加される。
ジャイロセンサは、温度変化がその計測データに影響を与える場合があるので、寒冷地方や温暖地方で使用する場合は、計測データを温度係数で補正する温度補正手段を付加することが望ましい。ジャイロユニット(特にジャイロセンサ)6は、筐体の動きにダイレクトに反応して計測データを出力することができ、しかも軸線回りの動き成分に基づいて計測データを出力するものであるから高周波の動きに対しては精度が高いが、軸線回りの動きが少ない場合、つまり低周波の動きに対しては精度を確保することが比較的困難である。また、ジャイロセンサについては、前述のように計測データにドリフト成分が蓄積されるという本質的な問題がある。
人工網膜IC7は、筐体の周囲における目標物の存在を認識し、認識した目標物の位置関係や自己又は目標物の動き成分を検出するセンサである。人工網膜IC7は、例えば特開平10−340349号公報に開示されたものを用いることができる。この開示された人工網膜ICは、CCD(charge coupleddevice)の機能や画像の輪郭抽出機能などを選択することができ、ロジックゲートアレイで画像入力のためのクロックを生成し、内容で処理した結果をチップ内メモリに記憶できるようなものである。
本実施形態では、この人工網膜IC7を用いて自己の視野にある目標物を動画として映しだし、これにより得られたそれぞれの画像の輪郭情報を抽出するとともに、抽出した輪郭情報の差分から自己に対する目標物の相対的な動き成分を表す物理量、具体的には角速度、速度、移動方向、移動量、移動後の方位等の演算を行う。そのために、まず自己と目標物との間で発生する動きベクトルを検出する。
図2は、人工網膜IC7における動きベクトルの検出手順を示した図であり、図3はその概念図である。人工網膜IC7では、図2に示されるように、まず、目標物を映した動画から1画面分の画像を入力し、その目標物の画像の輪郭情報を抽出する(ステップS101、S102)。
図3(a)はこの処理を概念的に示したものである。抽出された1画面分の輪郭情報は、図3(b)のような形態で図示しないチップ内メモリに記録される(ステップS103)。一定時間経過後、同一目標物を同じ角度で映し出し、同様の処理を行う。ここでは、直前に映した画像を前回画像、その後に映した画像を今回画像とすると、図3(c)のように、前回画像の輪郭情報と今回画像の輪郭情報の特定部位を基準として、量及び方向をパラメータとするベクトル成分を論理演算によって抽出することができる。例えば前回画像の輪郭情報(ドット)と今回画像の輪郭情報(ドット)の排他的論理和を判定することで、移動したドットのみを抽出することができる。人工網膜IC7では、このベクトル成分をその画像についての動きベクトルとして検出する(ステップS104,S105)。
移動ベクトルの検出に際しては、目標物の移動速度を予測して移動したドットの探索範囲を決めていく。探索範囲では、最初に横方向に移動して探索範囲をスキャンし、次に上下方向に移動して探索範囲をスキャンする。そして、探索できたドットの色情報を参照し、それが特定部位のドット(起点ドット)のものと同様であれば、そのドットを移動先ドットとする。以上は目標物が動いている場合の手順であるが、目標物自体は動かず、人工網膜IC7が動いている場合もほぼ同様の手順で動きベクトルを検出することができる。
この人工網膜IC7は、機能的には、CCDと画像処理手段とを組み合わせたものであるが、本実施形態では、上記のように目標物の動きベクトルを検出できれば足りるので、目標物の画像の輪郭情報に基づく動き成分を簡易に抽出できる人工網膜ICを用いることとしたものである。従って、同機能をもつセンサでこれを代用することを否定するものではない。
人工網膜IC7は、単独でも使用可能であるが、人間の目のように二つの人工網膜IC7を所定間隔で併設し、同一目標物の動き等を二つの人工網膜IC7で同時に検出するような形態も可能である。このようにすれば、各人工網膜IC7のチップ内メモリに記録される目標物の輪郭情報の相対位置からセンサユニットからその目標物までの距離を演算できるようになる。車両に搭載する場合には、車間距離計として利用することができる。
人工網膜IC7は、実際に映しだした目標物の画像に基づいて動き成分を演算するため、低周波の動きに対しては検出精度が高いが、画像処理を行うことから2値化処理を伴い、また、通常は目標物の位置の相対変化等を認識する処理が伴うため、目標物の高周波の動きに対して精度を高く維持することは困難である。
音響センサ8は、同一音源からの音信号を複数の方向から計測し、計測された音信号の到達時間差からその音源の方向を特定できるようにしたセンサである。音響センサ8の具体的な構成としては、音源からの音信号を検出する指向性マイクとこの指向性マイクで受信した音信号から特定周波数、例えば50〜100Hzの低周波領域の音信号を抽出し、抽出した音信号の到達時間差から音源方向を特定するための演算処理を行う処理手段を含んで構成する。人間の耳のように、2つの指向性マイクを一定間隔で配置し、この2つの指向性マイクに同時に入力された音信号の到達時間差から音源方向を特定できるようにしても良い。なお、処理手段では、上記低周波領域の音の強度変化パターンをバンドパスフィルタで切り取り、その切り取ったパターンとそのときの音源の方向とを記憶しておいて、同様のパターンが発生したときにその方向の角度を参考値にするようにして処理の効率化を図ることも可能である。
D‐GPS9はGPSの一種であり、GPS信号をGPEX(衛星測位情報センタ)の固定基準局で受信し、誤差を計算した後、補正データをFM多重放送で送信するシステムであり、自己の絶対位置や速度をワールド座標系でコントローラ5に出力するものである。このD−GPS9は、一般のGPSに比べて10倍以上の検出精度が得られることは良く知られている。
コントローラ5は、例えばROM等に記録された所定のプログラムをCPUが読み込んで実行することにより形成されるもので、各センサ6〜9の動作を制御することを主たる機能とするが、各センサ6〜9からの計測データをRAM等の内部メモリに形成される情報空間に統合化する機能、統合された計測データをもとに各センサ6〜9の利点を引き出し、弱点については他のセンサの計測データで補正する機能、時々刻々センスされ、統合される計測データに基づいて次の計測データを予測し、この予測値に対して合理性のある(ある許容範囲内の)結果から自己(センサユニット)の動きや目標物の動きを認識する機能を有するものである。
内部メモリの情報空間には、例えば−180〜0〜+180のように360度に渡る各センサ6〜9の計測結果を時間情報と共に随時更新自在に記録されるようになっており、これによって、空間的、時間的なデータの統合、及び統合されたデータを利用したデータ予測その他の判断処理を可能にしている。
次に、本実施形態によるセンサユニットの動作を説明する。このセンサユニットでは、人間の三半規管を模擬した三半規管動作、視覚を模擬した視覚動作、聴覚を模擬した聴覚動作を行う。
<三半規管動作>
センサユニットにおける三半規管動作は、主としてジャイロユニット6の計測データに基づいて、筐体、筐体取付体等の被検体の姿勢(傾き、向き等)及びその動きをコントローラ5を通じて認識することにより実現される。但し、ジャイロユニット6のみでは、センサユニットを取り付けた被検体が、例えば電源断後再立ち上げ後に何回か回転したときに、その被検体の正しい姿勢を確定することが困難となる場合がある。
このような場合を想定し、本実施形態では、三半規管動作を模擬するためのデータについては、人工網膜IC7より得られた視覚情報、人工網膜IC7からの計測データに基づいて演算された物理量の情報、音響センサ8によって検出された情報やそれに基づく物理量の情報で補完するようにしている。また、動きの度合い(検出周波数)によっては、ジャイロユニット6の計測データに代えて、人工網膜IC7からの計測データを用いる。
<視覚動作>
センサユニットにおける視覚動作は、主として人工網膜IC7の計測結果に基づいて、目標物の存在、被検体自体又は目標物の相対的な動き、被検体の姿勢や位置、向きをコントローラ5を通じて認識することにより実現される。
但し、人工網膜IC7のみでは、被検体や目標物の速い動きに対応しにくかったり、夜間等の暗い環境では、目標物や被検体の絶対的な位置や姿勢等を正しく認識できなかったりする。このような場合を想定し、本実施形態では、速い動きの場合にはジャイロユニット6の計測データに基づく姿勢や向きの情報で人工網膜IC7による検出結果を補完し、位置や方位については、音響センサ8によって検出された情報やそれに基づいて演算された物理量の情報、D−GPS9によって検出された位置情報で補完する。
<聴覚動作>
センサユニットにおける聴覚動作は、主として音響センサ8の計測結果に基づいて被検体の向きや音源までの距離をコントローラ5を通じて認識することにより実現される。但し、音響センサ8からの情報のみでは、音信号の強度が弱すぎたり、音源に対する2方向の角度が小さい場合には精度を十分に確保することができない場合がある。一方、音源の方向を検出する際に、人工網膜IC7で実際に映しだした画像をもとに音源の方向を予測することによって、音源方向の探索に要する時間の短縮化が可能になる。そこで、本実施形態では、人工網膜IC7により検出された情報を聴覚動作の補完に用いる。
<コントローラによる統合処理>
上記の三半規管動作、視覚動作、聴覚動作は、センサユニットのコントローラ5が各センサ6〜9から時々刻々収集した情報をメモリ領域に空間的、時間的にそれぞれ更新自在に統合的に記録しておき、これらの情報に基づいて情報相互の補完、予測等を行うことによって実現される。
コントローラでは、上記各動作のサポートのほか、被検体の周辺で発生した事象の認識その他の各種判断処理を行う。以下、各処理の内容を詳細に説明する。
人工網膜IC7で画像処理を通じて目標物の動きを検出(演算)する場合、入力された目標物の映像の動きが自己が動いた結果なのか、目標物が動いた結果なのかを区別する必要がある。
コントローラ5は、この場合の判定に、ジャイロユニット6の計測データを利用する。図4(a)は、人工網膜IC7自身が目標物(楕円で図示)41に向かって前進している場合の映像例、図4(b)は、人工網膜IC7は移動せず、目標物41が図中央から左側に動く場合の例である。図4(a)において、目標物41は、人工網膜IC7が前進するにつれて大きくなるが、ジャイロユニット6の角速度は変化していない。この場合、人工網膜IC7が移動していることを示す映像であると認識できる。他方、図4(b)において、目標物41は大きさが同一のまま左側に移動しているが、ジャイロユニット6の角速度は変化しない。このような場合、目標物41が動いているという認識ができる。
また、人工網膜IC7と目標物とが共に動く場合もジャイロユニット6の検出結果を利用して実際の動き成分を正確なものに補正することができる。例えば図5(a)のように、人工網膜IC7が固定されていることが判っているとき、動き成分があればそれは目標物が動いた結果であり、目標物における設定部位の動きベクトル51のみで目標物の動きに関する物理量を演算することができる。
しかし、図5(b)のように、目標物と人工網膜IC7とが共に動いている場合(図示の場合は同一方向の移動)は、目標物についての動きベクトル52のほか、ジャイロユニットによる動き(ベクトル量)53を考慮する必要がある。
図5(c)は、両ベクトルの差分54を示したものであり、この差分ベクトルが実際の動きベクトルを表すことになる。このように動きベクトルを補正することにより、動きの検出精度を高めることができる。
ジャイロユニット6が高周波の動きに対しては精度が高く、他方、人工網膜IC7が低周波の動きに対して精度が高いことは前述のとおりである。
コントローラ5では、この点に着目して、ジャイロセンサ6からの出力データのうち第1周波数帯のデータと人工網膜IC7からの出力データのうち第1周波数帯とは異なる第2周波数帯のデータとを統合し、両周波数域をカバーする統合的な計測データを得るようにする。
具体的には、ジャイロユニット6の検出信号からハイパスフィルタで低周波成分を除去し、60Hz〜0.5Hz程度の信号を出力するようにし、逆に、人工網膜IC7の検出信号は、ローパスフィルタで高周波成分を除去し、0.5Hz以下の信号を出力する。そして、両信号を統合する。また、例えば60Hzでセンシングしたとすると、角速度は、ジャイロセンサ6の計測データでは60Hzで演算可能であるが、人工網膜IC7では、最大で20Hzでの演算になる。これは、人工網膜IC7では、時間的に離れた3つのポイント(三角形ポイント)の差分で角速度の演算がなされるためである。つまり、三角形の一頂点である第1ポイントと他の頂点である第2ポイントとの差分で速度を演算し、第1、第2、第3ポイントの差分で角速度を演算することになるからである。
ジャイロユニット6の場合は、それぞれのポイントでの角速度演算が可能である。このように周波数特性の異なる2種類のセンサ6,7からの計測データを、それぞれの周波数特性に合ったフィルタを通してミキシングする。上記例でいえば、3つのポイントのうち1回は人工網膜IC7で計測し、その間はジャイロセンサ6で計測して両者をミキシングする。これにより、ジャイロユニット6の利点と人工網膜IC7の利点とを融合させて、精度が高い領域での計測データに基づく検出結果を得ることができる。
ジャイロユニット6による計測データと人工網膜ICセンサ7による演算結果とを相互にリファレンスして姿勢等の検出精度を高めることもできる。
図6は、この場合のコントローラ5の処理手順説明図である。
コントローラ5では、ジャイロユニット6による計測データ(角速度を表すデータ)を人工網膜IC7での演算に要する時間分だけ積算(積分)し(ステップS201)、人工網膜IC7において演算される角速度を予測しておく(ステップS202)。このジャイロユニット6の計測データをもとに人工網膜IC7によって演算される角速度を予測するのは、以下の理由による。
ジャイロユニット6により得られる角速度は瞬間的な計測データを積分することにより得られるのに対し、人工網膜IC7の場合は、積分を要さずにそれがダイレクトに得られる。しかし、人工網膜IC7では、前述のように画像の2値化のための処理を伴うことから、演算までに一定の時間を要する。両者の動作が正常であった場合は結果がほぼ同じになるので問題はないが、人工網膜IC7のいて処理の誤り等があった場合には、演算結果に誤差が生じる。しかし、そのことは、実際に演算されてみて初めて判る。
そこで、まずジャイロユニット6の計測データを信頼し、人工網膜IC7における演算の後に異常の有無を判定することとしたものである。
人工網膜IC7により演算された角速度が所定の範囲外、すなわちジャイロセンサ6で予測された値を超えているかどうかを判定し、超えていた場合はジャイロユニット6による角速度を採用し(ステップS203、S204:No、S205)、ステップS201の処理に戻る。このような事態は、主として動きが高い周波数のものであった場合に生じる。一方、両者の演算結果が所定範囲以内であった場合は、相対的に精度が高い人工網膜IC7で演算された角速度を採用する(ステップS203,S204:Yes、S206)。
その後、採用された角速度とジャイロユニット6により計測された角速度との差分を求める。人工網膜IC7ではドリフト成分が発生しないので、両者に差がある場合は、その差は通常はジャイロセンサのドリフト成分である。そこで、上記差分をフィードバック補正する(ステップS208)。
ジャイロセンサ6の計測データ及び人工網膜IC7の計測データを相互に確認することによって、ジャイロセンサのドリフト成分を補正することもできる。ここでは、単位時間(例えば1秒)毎に人工網膜IC7及びジャイロユニット6により得られる動き成分を表す計測データがコントローラ5に入力されるものとする。
コントローラ5では、人工網膜IC7で動き成分が検出されておらず、且つジャイロユニット6の角速度が0であるときは、ジャイロユニット6に誤差がないことになるので、両者の値を初期値にする。一方、人工網膜IC7では動き成分が検出されていないがジャイロユニット6の角速度が有限値であった場合は、ジャイロユニット6により得られる角速度はドリフト成分であることになるので、この有限値を0に補正する。
このように、ジャイロユニット6及び人工網膜IC7の欠点を互いの利点によってカバーしあうことができ、精度の高い姿勢検出等が可能になる。また、従来のドリフト成分の自律補正が可能なセンサユニットを構成することが可能になる。
上述の聴覚動作によって、例えば被検体の正面からのずれ量を検出することができる。従って、人工網膜IC7等によって検出(演算)された被検体の正面方向を聴覚動作によって補完することができる。
また、音源の方向検出の応用として、単位時間における音源の移動量を音響センサ8で検出してその音源の移動速度を演算することができ、さらに、音源が固定されている状態で音源の移動成分を検出することでセンサユニットの移動の事実や移動量、移動方向等を検出することができる。
前述のように、人工網膜IC7では、夜間等で目標物の動き等を正しく検出することが困難であるが、人工網膜IC7による計測と同期させて音響センサ8で音源の移動成分を検出し、その検出結果を人工網膜IC7による検出動作に反映させることで、人工網膜IC7による検出精度を高めることができる。
ジャイロユニット6、人工網膜IC7、音響センサ8、D−GPS9からのデータに基づいてそれぞれ共通の物理量を検出することができる。
例えば、ジャイロユニット6に含まれる加速度計から被検体の移動速度及び移動量を検出できるし、人工網膜IC7の動き成分を積算することでも被検体の移動量や移動速度を検出することができる。さらに、上述のように音響センサ8によっても音源又は被検体の移動速度や移動量を検出することができる。また、D−GPS9によっても速度を演算することができる。
そこで、これらの共通の物理量を互いに他のセンサのものと比較し、それぞれが一定の許容範囲に入っていることを確認した上で検出結果として外部に出力するような使用形態も可能である。
また、予め物理量毎に基準となるセンサを決めておき、この基準となるセンサによる検出結果を優先的に使用する形態、あるいは優先度の高いセンサからのずれを検出して他のセンサの動作の不具合を検出するような形態も可能である。この点については、被検体の姿勢を表すデータについても同様である。
さらに、上記のように共通の物理量をもとに、他のセンサによる検出結果による計測結果の不具合を予測することができる。例えば、D−GPS9では衛星情報で位置等を検出するが、電波はビルディング等の反射によってマルチパス(複数経路)を発生させ、位置の情報に「飛び」が発生する。具体的には、急に200m程度位置が飛んだりする。ところが、ジャイロセンサ6に含まれる加速度データ予想される速度に比べて1秒間に200mの移動がありえなければ(予測結果が否定的であった場合)、それが明らかなマルチパスの発生であるとして、D−GPS9による計測データを無視する。
このように、本実施形態のセンサユニットによれば、人間の知覚動作を模擬したセンシングを行い、各センサ3〜9における利点を統合し、欠点については、他のセンサでそれを補うようにしたので、従来にはない高精度のセンシングが可能になる。また、可搬性の筐体に各センサ3〜9及びコントローラ5を収容したので、使用環境に依存しないセンシングが可能になる。
次に、本実施形態のセンサユニットの適用場面を具体的に説明する。
<自律歩行ロボット>
本発明のセンサユニットは、自律歩行型の二足ロボットの姿勢センサとして適用することができる。図7は、本発明のセンサユニットVをロボットWの頭部に配置した状態を示した図である。センサユニットVはロボットWの目、耳、三半規管として機能させる。つまり、人間の知覚と同様、ロボットW自身の位置、向いている方向、姿勢、動きを検出する。また、目標物との間の距離や相対的な動きを出力する。
ロボットWは、人間と同様の歩行動作を行うために関節部分にサーボモータが設けられており、各サーボモータが主制御装置Uによって制御されるようになっている。
主制御装置Uは、センサユニットVからの検出情報をもとに現在のロボットWの等をセンサユニットVで検出し、これらの検出情報に基づいて、該当するサーボモータの最適な制御量(目的の姿勢、移動形態を実現するための制御量)を演算する。例えば、ロボットWが水平から5度だけ傾斜していた場合、それを最適な速度で水平にするような演算を行い、所定のモデリングカーブに従う制御量を演算する。モデリングカーブは、例えばロボットWの傾斜を3秒後に水平に戻す際に、そのための角速度を直線的にするかとか、最初は早い角速度にしてその後ゆっくりにするかというような制御のタイミングを決定するためのカーブをいう。このモデリングカーブは、個々のサーボモータのトルクやロボットWの制御の場所等によって異なる。
最適な制御量を演算した後は、モデリングカーブを所定の制御タイミング(例えば10Hz)で分割し、該当するサーボモータに駆動電力を出力する。この駆動電力の出力によってロボットWが実際に動いた量をセンサユニットVで検出してサーボモータの次の制御量を確認する、という手順を繰り返す。このようにしてロボット全体の重心を安定させながら自律歩行を実現する。
なお、センサユニットVのコントローラでは、次の制御タイミングでの計測結果を予測し、これをロボットWの制御装置に伝える。主制御装置U側でも先に決定した最適制御量から予想される結果を予測することができるので、両者の差分が許容範囲内であれば、通常のフィードバック制御を行う。一方、両者の差分が許容範囲を超える場合は、ロボットWとセンサユニットWのいずれかに異常があるとして、制御を中止させる。このように、本発明のセンサユニットを適用することにより、自律歩行型の二足ロボットを容易に実現できるようになる。
<無人搬送車>
本発明のセンサユニットは、二足ロボットと同様の主制御装置Uをもって自律的に移動する無人搬送車、例えば過酷な環境や時間での物体搬送や清掃車等の知覚センサとして利用することもできる。この場合の利用形態、例えばコントローラによる制御形態は、二足ロボットの場合と同様となる。
<飛行体>
本発明のセンサユニットは、飛行体の姿勢検出センサ、例えばラジコンで操作するヘリコプタに搭載され、そのヘリコプタの高度や姿勢等を検出するためのセンサとして利用することができる。例えば、図8(a)〜(d)の右側に示される円内の目印の図形を着地点に記しておき、この図形の変化を検出することで、ヘリコプタの高度や姿勢等を認識することができる。この場合、ヘリコプタの動きを表す動きベクトルは、ヘリコプタ自体の移動によるものであり、着地点の図形自体は動かないので、ベクトル演算のみによって検出結果を得ることができる。
なお、ヘリコプタに二足ロボットにおける主制御装置Uの如きものが搭載されている場合は、外部指示に応じて自律的に自己の姿勢を修正できるようになる。また、ヘリコプタでは、風、燃料消費による自重の変化等、種々の外乱が発生するが、これらの外乱を本発明のセンサユニットで検出して、その結果を飛行制御に反映させることも可能である。
<車両>
本発明のセンサユニットは、車両に搭載して各種センサとして利用することもできる。例えば、コントローラ5による予測動作を利用して運転中における障害物及び危険物の認知や子供の飛び出しなどの危険回避等に利用することができる。
すなわち、予測される検出結果と実際の検出結果とを常時比較し、運転中のある時期における実際の検出結果が予測される検出結果と合致しなかった場合(否定的であった場合)、車両の近傍に障害物が存在すると認識することができる。
また、D−GPS9で検出された自己の速度が4Km/hのときに、人工網膜IC7で検出された速度がスタート直後の速度であった場合、D−GPS9の検出結果を当該車両の初速として認識するが、このとき、横方向に10km/hの変位が認識され、且つジャイロユニット6で角速度が検出されていなければ、それは予期しない物体の動作、つまり急に飛び出した物体があると認識され、車両の停止動作を促すことが可能になる。
センサユニットは、車間距離計として利用することもできる。すなわち、先行車両までの視野角を人工網膜IC7で求め、この視野角から先行車両までの距離を演算することができる。路面上で断続的なパターンが続くセンターラインの映像を映すことにより、センサユニットを速度計として使用することができる。すなわち、人工網膜IC7からセンターラインまでの視野角を求め、さらに、センターラインのリズミカルなパターンの変化を人工網膜IC7で動きベクトルとして検出することで、当該センサユニットを搭載した車両の速度を演算することができる。
(a)は、人間の知覚動作を示した説明図、(b)は、本発明のセンサユニットの構成図。 人工網膜ICにおける動作ベクトルの抽出手順を示した図。 (a)〜(c)は人工網膜ICにおける動作ベクトルの抽出概要を示した図。 人工網膜ICにおける動きの主体を区別するための説明図であり,(a)は人工網膜IC自身が目標物に向かって前進している場合の映像例、(b)は、人工網膜ICは移動せず、目標物が図中央から左側に動く場合の例である。 人工網膜ICにおける動きの補正概要を示すための説明図であり、(a)は目標物だけが移動する場合、(b)は、人工網膜ICと目標物とが共に移動する場合、(c)は補正後の動き量を示した図である。 ジャイロユニットと人工網膜ICセンサの相互補完の処理手順を示した図。 本発明を自律歩行ロボットに適用した場合の概念図。 (a)〜(d)は、本発明をヘリコプタヘリへ応用した場合の処理概要を示した図である。
符号の説明
5 コントローラ
6 ジャイロユニット
7 人工網膜ICセンサ
8 音響センサ
9D‐GPS

Claims (4)

  1. 人間の知覚動作を模擬するセンサユニットであって、
    ドリフト成分を蓄積させるジャイロセンサを含み、自己の姿勢及びその動き成分を計測する三半規管に相当する第1センサと、
    前記ジャイロセンサにより検出される物理量と同じ物理量を当該ジャイロセンサよりも長い時間で検出するための人工網膜を含み、自己の周囲に存在する目標物の位置、視野角又は動き成分を計測する目に相当する第2センサと、
    音源から到達する音の経路差に基づいて自己の周囲における音源の方向を検出する耳に相当する第3センサと、
    前記第1センサ、前記第2センサ及び前記第3センサの計測結果を取り込み、これらの計測結果を所定の記録領域の情報空間内に時間情報と共に更新自在に記録するとともに、前記第1センサの計測結果に基づく前記物理量を前記第2センサによる計測に要する時間分だけ積算して、前記第2センサの計測結果に基づく前記物理量の検出が終了した時点で当該検出結果と前記積算の結果とを比較し、両者の差分が予め定めた所定の範囲外のときは前記第1センサの計測結果と前記第3センサの計測結果とに基づいて、他方、両者の差分が前記範囲内のときは前記第2センサの計測結果と前記第3センサの計測結果とに基づいて、前記情報空間内において自己に対する前記目標物の位置、方向及び動きを特定するコントローラとを有する、
    センサユニット。
  2. 前記コントローラは、前記第2センサの計測結果を採用するときは、前記差分により前記第1センサの計測結果を補正する、
    請求項記載のセンサユニット。
  3. 前記コントローラは、前記第2センサにより検出される物理量に変化がなく、且つ前記ジャイロセンサにより検出される物理量が0であるときは、両者の物理量を初期値にし、他方、前記第2センサにより検出される物理量に変化がないが前記ジャイロセンサにより検出される物理量が有限値であった場合は前記有限値を0に補正する、
    請求項記載のセンサユニット。
  4. 前記コントローラは、前記第1センサ、前記第2センサ及び前記第3センサのそれぞれの計測結果に基づいて検出される物理量が所定の条件を満たすときに、検出結果として外部に出力する、
    請求項1乃至のいずれかの項記載のセンサユニット。
JP2008243239A 2008-09-22 2008-09-22 センサユニット Expired - Fee Related JP4782816B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008243239A JP4782816B2 (ja) 2008-09-22 2008-09-22 センサユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008243239A JP4782816B2 (ja) 2008-09-22 2008-09-22 センサユニット

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP26420699A Division JP4425383B2 (ja) 1999-09-17 1999-09-17 センサユニット

Publications (2)

Publication Number Publication Date
JP2009063582A JP2009063582A (ja) 2009-03-26
JP4782816B2 true JP4782816B2 (ja) 2011-09-28

Family

ID=40558251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008243239A Expired - Fee Related JP4782816B2 (ja) 2008-09-22 2008-09-22 センサユニット

Country Status (1)

Country Link
JP (1) JP4782816B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101253451B1 (ko) * 2012-02-29 2013-04-11 주식회사 팬택 음원의 위치를 감지할 수 있는 모바일 디바이스 및 그 제어 방법
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
WO2016040271A1 (en) * 2014-09-10 2016-03-17 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
CN109382837A (zh) * 2018-12-06 2019-02-26 何勇 一种具有人机互动交流功能的智能机器人

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63124114A (ja) * 1986-11-14 1988-05-27 Hitachi Ltd 移動体用環境認識装置
JPH03285190A (ja) * 1990-03-30 1991-12-16 Toppan Printing Co Ltd 音源検出装置
JPH07193742A (ja) * 1993-12-27 1995-07-28 Hitachi Ltd ビデオカメラ
JPH0942982A (ja) * 1995-08-03 1997-02-14 Alpine Electron Inc 車載用ナビゲーション装置

Also Published As

Publication number Publication date
JP2009063582A (ja) 2009-03-26

Similar Documents

Publication Publication Date Title
Nobili et al. Heterogeneous sensor fusion for accurate state estimation of dynamic legged robots
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
US9367067B2 (en) Digital tethering for tracking with autonomous aerial robot
JP7013991B2 (ja) センサーユニット、移動体測位装置、携帯型電子機器、電子機器、移動体および表示装置
KR101762297B1 (ko) 가상 현실 시스템의 캘리브레이션
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
US7395181B2 (en) Motion tracking system
CN107567412A (zh) 利用汽车相机使用车辆运动数据的对象位置测量
JP6756327B2 (ja) 姿勢検出装置、及び姿勢検出プログラム
US11914762B2 (en) Controller position tracking using inertial measurement units and machine learning
JP2008136171A (ja) 移動プラットフォーム上のカメラからの移動物体の追跡
JP4782816B2 (ja) センサユニット
US11958485B2 (en) Vehicle control method and apparatus
JP2020064056A (ja) 位置推定装置及び方法
CN110402368A (zh) 用在交通工具导航中的集成式的基于视觉的惯性传感器系统
JP2005098853A (ja) 地図データ更新方法および地図データ更新装置
CN106814753A (zh) 一种目标位置矫正方法、装置及系统
JP2019136165A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
CN109974696B (zh) 基于slam与步态imu融合的室内人员自主定位方法
JP6418342B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP4425383B2 (ja) センサユニット
JP7204612B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
JP2004037220A (ja) 車両の操縦安定性評価装置、車両の操縦安定性評価方法、及び、車両の操縦安定性評価用プログラム
GB2571585A (en) Vehicle control method and apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110707

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees