JP4782816B2 - センサユニット - Google Patents
センサユニット Download PDFInfo
- Publication number
- JP4782816B2 JP4782816B2 JP2008243239A JP2008243239A JP4782816B2 JP 4782816 B2 JP4782816 B2 JP 4782816B2 JP 2008243239 A JP2008243239 A JP 2008243239A JP 2008243239 A JP2008243239 A JP 2008243239A JP 4782816 B2 JP4782816 B2 JP 4782816B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- physical quantity
- gyro
- artificial retina
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Gyroscopes (AREA)
- Navigation (AREA)
Description
図2は、人工網膜IC7における動きベクトルの検出手順を示した図であり、図3はその概念図である。人工網膜IC7では、図2に示されるように、まず、目標物を映した動画から1画面分の画像を入力し、その目標物の画像の輪郭情報を抽出する(ステップS101、S102)。
図3(a)はこの処理を概念的に示したものである。抽出された1画面分の輪郭情報は、図3(b)のような形態で図示しないチップ内メモリに記録される(ステップS103)。一定時間経過後、同一目標物を同じ角度で映し出し、同様の処理を行う。ここでは、直前に映した画像を前回画像、その後に映した画像を今回画像とすると、図3(c)のように、前回画像の輪郭情報と今回画像の輪郭情報の特定部位を基準として、量及び方向をパラメータとするベクトル成分を論理演算によって抽出することができる。例えば前回画像の輪郭情報(ドット)と今回画像の輪郭情報(ドット)の排他的論理和を判定することで、移動したドットのみを抽出することができる。人工網膜IC7では、このベクトル成分をその画像についての動きベクトルとして検出する(ステップS104,S105)。
内部メモリの情報空間には、例えば−180〜0〜+180のように360度に渡る各センサ6〜9の計測結果を時間情報と共に随時更新自在に記録されるようになっており、これによって、空間的、時間的なデータの統合、及び統合されたデータを利用したデータ予測その他の判断処理を可能にしている。
センサユニットにおける三半規管動作は、主としてジャイロユニット6の計測データに基づいて、筐体、筐体取付体等の被検体の姿勢(傾き、向き等)及びその動きをコントローラ5を通じて認識することにより実現される。但し、ジャイロユニット6のみでは、センサユニットを取り付けた被検体が、例えば電源断後再立ち上げ後に何回か回転したときに、その被検体の正しい姿勢を確定することが困難となる場合がある。
このような場合を想定し、本実施形態では、三半規管動作を模擬するためのデータについては、人工網膜IC7より得られた視覚情報、人工網膜IC7からの計測データに基づいて演算された物理量の情報、音響センサ8によって検出された情報やそれに基づく物理量の情報で補完するようにしている。また、動きの度合い(検出周波数)によっては、ジャイロユニット6の計測データに代えて、人工網膜IC7からの計測データを用いる。
センサユニットにおける視覚動作は、主として人工網膜IC7の計測結果に基づいて、目標物の存在、被検体自体又は目標物の相対的な動き、被検体の姿勢や位置、向きをコントローラ5を通じて認識することにより実現される。
但し、人工網膜IC7のみでは、被検体や目標物の速い動きに対応しにくかったり、夜間等の暗い環境では、目標物や被検体の絶対的な位置や姿勢等を正しく認識できなかったりする。このような場合を想定し、本実施形態では、速い動きの場合にはジャイロユニット6の計測データに基づく姿勢や向きの情報で人工網膜IC7による検出結果を補完し、位置や方位については、音響センサ8によって検出された情報やそれに基づいて演算された物理量の情報、D−GPS9によって検出された位置情報で補完する。
センサユニットにおける聴覚動作は、主として音響センサ8の計測結果に基づいて被検体の向きや音源までの距離をコントローラ5を通じて認識することにより実現される。但し、音響センサ8からの情報のみでは、音信号の強度が弱すぎたり、音源に対する2方向の角度が小さい場合には精度を十分に確保することができない場合がある。一方、音源の方向を検出する際に、人工網膜IC7で実際に映しだした画像をもとに音源の方向を予測することによって、音源方向の探索に要する時間の短縮化が可能になる。そこで、本実施形態では、人工網膜IC7により検出された情報を聴覚動作の補完に用いる。
上記の三半規管動作、視覚動作、聴覚動作は、センサユニットのコントローラ5が各センサ6〜9から時々刻々収集した情報をメモリ領域に空間的、時間的にそれぞれ更新自在に統合的に記録しておき、これらの情報に基づいて情報相互の補完、予測等を行うことによって実現される。
コントローラでは、上記各動作のサポートのほか、被検体の周辺で発生した事象の認識その他の各種判断処理を行う。以下、各処理の内容を詳細に説明する。
コントローラ5は、この場合の判定に、ジャイロユニット6の計測データを利用する。図4(a)は、人工網膜IC7自身が目標物(楕円で図示)41に向かって前進している場合の映像例、図4(b)は、人工網膜IC7は移動せず、目標物41が図中央から左側に動く場合の例である。図4(a)において、目標物41は、人工網膜IC7が前進するにつれて大きくなるが、ジャイロユニット6の角速度は変化していない。この場合、人工網膜IC7が移動していることを示す映像であると認識できる。他方、図4(b)において、目標物41は大きさが同一のまま左側に移動しているが、ジャイロユニット6の角速度は変化しない。このような場合、目標物41が動いているという認識ができる。
しかし、図5(b)のように、目標物と人工網膜IC7とが共に動いている場合(図示の場合は同一方向の移動)は、目標物についての動きベクトル52のほか、ジャイロユニットによる動き(ベクトル量)53を考慮する必要がある。
図5(c)は、両ベクトルの差分54を示したものであり、この差分ベクトルが実際の動きベクトルを表すことになる。このように動きベクトルを補正することにより、動きの検出精度を高めることができる。
コントローラ5では、この点に着目して、ジャイロセンサ6からの出力データのうち第1周波数帯のデータと人工網膜IC7からの出力データのうち第1周波数帯とは異なる第2周波数帯のデータとを統合し、両周波数域をカバーする統合的な計測データを得るようにする。
具体的には、ジャイロユニット6の検出信号からハイパスフィルタで低周波成分を除去し、60Hz〜0.5Hz程度の信号を出力するようにし、逆に、人工網膜IC7の検出信号は、ローパスフィルタで高周波成分を除去し、0.5Hz以下の信号を出力する。そして、両信号を統合する。また、例えば60Hzでセンシングしたとすると、角速度は、ジャイロセンサ6の計測データでは60Hzで演算可能であるが、人工網膜IC7では、最大で20Hzでの演算になる。これは、人工網膜IC7では、時間的に離れた3つのポイント(三角形ポイント)の差分で角速度の演算がなされるためである。つまり、三角形の一頂点である第1ポイントと他の頂点である第2ポイントとの差分で速度を演算し、第1、第2、第3ポイントの差分で角速度を演算することになるからである。
ジャイロユニット6の場合は、それぞれのポイントでの角速度演算が可能である。このように周波数特性の異なる2種類のセンサ6,7からの計測データを、それぞれの周波数特性に合ったフィルタを通してミキシングする。上記例でいえば、3つのポイントのうち1回は人工網膜IC7で計測し、その間はジャイロセンサ6で計測して両者をミキシングする。これにより、ジャイロユニット6の利点と人工網膜IC7の利点とを融合させて、精度が高い領域での計測データに基づく検出結果を得ることができる。
図6は、この場合のコントローラ5の処理手順説明図である。
コントローラ5では、ジャイロユニット6による計測データ(角速度を表すデータ)を人工網膜IC7での演算に要する時間分だけ積算(積分)し(ステップS201)、人工網膜IC7において演算される角速度を予測しておく(ステップS202)。このジャイロユニット6の計測データをもとに人工網膜IC7によって演算される角速度を予測するのは、以下の理由による。
ジャイロユニット6により得られる角速度は瞬間的な計測データを積分することにより得られるのに対し、人工網膜IC7の場合は、積分を要さずにそれがダイレクトに得られる。しかし、人工網膜IC7では、前述のように画像の2値化のための処理を伴うことから、演算までに一定の時間を要する。両者の動作が正常であった場合は結果がほぼ同じになるので問題はないが、人工網膜IC7のいて処理の誤り等があった場合には、演算結果に誤差が生じる。しかし、そのことは、実際に演算されてみて初めて判る。
そこで、まずジャイロユニット6の計測データを信頼し、人工網膜IC7における演算の後に異常の有無を判定することとしたものである。
その後、採用された角速度とジャイロユニット6により計測された角速度との差分を求める。人工網膜IC7ではドリフト成分が発生しないので、両者に差がある場合は、その差は通常はジャイロセンサのドリフト成分である。そこで、上記差分をフィードバック補正する(ステップS208)。
コントローラ5では、人工網膜IC7で動き成分が検出されておらず、且つジャイロユニット6の角速度が0であるときは、ジャイロユニット6に誤差がないことになるので、両者の値を初期値にする。一方、人工網膜IC7では動き成分が検出されていないがジャイロユニット6の角速度が有限値であった場合は、ジャイロユニット6により得られる角速度はドリフト成分であることになるので、この有限値を0に補正する。
このように、ジャイロユニット6及び人工網膜IC7の欠点を互いの利点によってカバーしあうことができ、精度の高い姿勢検出等が可能になる。また、従来のドリフト成分の自律補正が可能なセンサユニットを構成することが可能になる。
また、音源の方向検出の応用として、単位時間における音源の移動量を音響センサ8で検出してその音源の移動速度を演算することができ、さらに、音源が固定されている状態で音源の移動成分を検出することでセンサユニットの移動の事実や移動量、移動方向等を検出することができる。
前述のように、人工網膜IC7では、夜間等で目標物の動き等を正しく検出することが困難であるが、人工網膜IC7による計測と同期させて音響センサ8で音源の移動成分を検出し、その検出結果を人工網膜IC7による検出動作に反映させることで、人工網膜IC7による検出精度を高めることができる。
例えば、ジャイロユニット6に含まれる加速度計から被検体の移動速度及び移動量を検出できるし、人工網膜IC7の動き成分を積算することでも被検体の移動量や移動速度を検出することができる。さらに、上述のように音響センサ8によっても音源又は被検体の移動速度や移動量を検出することができる。また、D−GPS9によっても速度を演算することができる。
そこで、これらの共通の物理量を互いに他のセンサのものと比較し、それぞれが一定の許容範囲に入っていることを確認した上で検出結果として外部に出力するような使用形態も可能である。
また、予め物理量毎に基準となるセンサを決めておき、この基準となるセンサによる検出結果を優先的に使用する形態、あるいは優先度の高いセンサからのずれを検出して他のセンサの動作の不具合を検出するような形態も可能である。この点については、被検体の姿勢を表すデータについても同様である。
<自律歩行ロボット>
本発明のセンサユニットは、自律歩行型の二足ロボットの姿勢センサとして適用することができる。図7は、本発明のセンサユニットVをロボットWの頭部に配置した状態を示した図である。センサユニットVはロボットWの目、耳、三半規管として機能させる。つまり、人間の知覚と同様、ロボットW自身の位置、向いている方向、姿勢、動きを検出する。また、目標物との間の距離や相対的な動きを出力する。
本発明のセンサユニットは、二足ロボットと同様の主制御装置Uをもって自律的に移動する無人搬送車、例えば過酷な環境や時間での物体搬送や清掃車等の知覚センサとして利用することもできる。この場合の利用形態、例えばコントローラによる制御形態は、二足ロボットの場合と同様となる。
本発明のセンサユニットは、飛行体の姿勢検出センサ、例えばラジコンで操作するヘリコプタに搭載され、そのヘリコプタの高度や姿勢等を検出するためのセンサとして利用することができる。例えば、図8(a)〜(d)の右側に示される円内の目印の図形を着地点に記しておき、この図形の変化を検出することで、ヘリコプタの高度や姿勢等を認識することができる。この場合、ヘリコプタの動きを表す動きベクトルは、ヘリコプタ自体の移動によるものであり、着地点の図形自体は動かないので、ベクトル演算のみによって検出結果を得ることができる。
本発明のセンサユニットは、車両に搭載して各種センサとして利用することもできる。例えば、コントローラ5による予測動作を利用して運転中における障害物及び危険物の認知や子供の飛び出しなどの危険回避等に利用することができる。
すなわち、予測される検出結果と実際の検出結果とを常時比較し、運転中のある時期における実際の検出結果が予測される検出結果と合致しなかった場合(否定的であった場合)、車両の近傍に障害物が存在すると認識することができる。
また、D−GPS9で検出された自己の速度が4Km/hのときに、人工網膜IC7で検出された速度がスタート直後の速度であった場合、D−GPS9の検出結果を当該車両の初速として認識するが、このとき、横方向に10km/hの変位が認識され、且つジャイロユニット6で角速度が検出されていなければ、それは予期しない物体の動作、つまり急に飛び出した物体があると認識され、車両の停止動作を促すことが可能になる。
6 ジャイロユニット
7 人工網膜ICセンサ
8 音響センサ
9D‐GPS
Claims (4)
- 人間の知覚動作を模擬するセンサユニットであって、
ドリフト成分を蓄積させるジャイロセンサを含み、自己の姿勢及びその動き成分を計測する三半規管に相当する第1センサと、
前記ジャイロセンサにより検出される物理量と同じ物理量を当該ジャイロセンサよりも長い時間で検出するための人工網膜を含み、自己の周囲に存在する目標物の位置、視野角又は動き成分を計測する目に相当する第2センサと、
音源から到達する音の経路差に基づいて自己の周囲における音源の方向を検出する耳に相当する第3センサと、
前記第1センサ、前記第2センサ及び前記第3センサの計測結果を取り込み、これらの計測結果を所定の記録領域の情報空間内に時間情報と共に更新自在に記録するとともに、前記第1センサの計測結果に基づく前記物理量を前記第2センサによる計測に要する時間分だけ積算して、前記第2センサの計測結果に基づく前記物理量の検出が終了した時点で当該検出結果と前記積算の結果とを比較し、両者の差分が予め定めた所定の範囲外のときは前記第1センサの計測結果と前記第3センサの計測結果とに基づいて、他方、両者の差分が前記範囲内のときは前記第2センサの計測結果と前記第3センサの計測結果とに基づいて、前記情報空間内において自己に対する前記目標物の位置、方向及び動きを特定するコントローラとを有する、
センサユニット。 - 前記コントローラは、前記第2センサの計測結果を採用するときは、前記差分により前記第1センサの計測結果を補正する、
請求項1記載のセンサユニット。 - 前記コントローラは、前記第2センサにより検出される物理量に変化がなく、且つ前記ジャイロセンサにより検出される物理量が0であるときは、両者の物理量を初期値にし、他方、前記第2センサにより検出される物理量に変化がないが前記ジャイロセンサにより検出される物理量が有限値であった場合は前記有限値を0に補正する、
請求項1記載のセンサユニット。 - 前記コントローラは、前記第1センサ、前記第2センサ及び前記第3センサのそれぞれの計測結果に基づいて検出される物理量が所定の条件を満たすときに、検出結果として外部に出力する、
請求項1乃至3のいずれかの項記載のセンサユニット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008243239A JP4782816B2 (ja) | 2008-09-22 | 2008-09-22 | センサユニット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008243239A JP4782816B2 (ja) | 2008-09-22 | 2008-09-22 | センサユニット |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26420699A Division JP4425383B2 (ja) | 1999-09-17 | 1999-09-17 | センサユニット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009063582A JP2009063582A (ja) | 2009-03-26 |
JP4782816B2 true JP4782816B2 (ja) | 2011-09-28 |
Family
ID=40558251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008243239A Expired - Fee Related JP4782816B2 (ja) | 2008-09-22 | 2008-09-22 | センサユニット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4782816B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101253451B1 (ko) * | 2012-02-29 | 2013-04-11 | 주식회사 팬택 | 음원의 위치를 감지할 수 있는 모바일 디바이스 및 그 제어 방법 |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
WO2016040271A1 (en) * | 2014-09-10 | 2016-03-17 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
CN109382837A (zh) * | 2018-12-06 | 2019-02-26 | 何勇 | 一种具有人机互动交流功能的智能机器人 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63124114A (ja) * | 1986-11-14 | 1988-05-27 | Hitachi Ltd | 移動体用環境認識装置 |
JPH03285190A (ja) * | 1990-03-30 | 1991-12-16 | Toppan Printing Co Ltd | 音源検出装置 |
JPH07193742A (ja) * | 1993-12-27 | 1995-07-28 | Hitachi Ltd | ビデオカメラ |
JPH0942982A (ja) * | 1995-08-03 | 1997-02-14 | Alpine Electron Inc | 車載用ナビゲーション装置 |
-
2008
- 2008-09-22 JP JP2008243239A patent/JP4782816B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009063582A (ja) | 2009-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nobili et al. | Heterogeneous sensor fusion for accurate state estimation of dynamic legged robots | |
JP7052174B2 (ja) | 将来経路を推定するシステム及び方法 | |
US9367067B2 (en) | Digital tethering for tracking with autonomous aerial robot | |
JP7013991B2 (ja) | センサーユニット、移動体測位装置、携帯型電子機器、電子機器、移動体および表示装置 | |
KR101762297B1 (ko) | 가상 현실 시스템의 캘리브레이션 | |
US7873448B2 (en) | Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles | |
US7395181B2 (en) | Motion tracking system | |
CN107567412A (zh) | 利用汽车相机使用车辆运动数据的对象位置测量 | |
JP6756327B2 (ja) | 姿勢検出装置、及び姿勢検出プログラム | |
US11914762B2 (en) | Controller position tracking using inertial measurement units and machine learning | |
JP2008136171A (ja) | 移動プラットフォーム上のカメラからの移動物体の追跡 | |
JP4782816B2 (ja) | センサユニット | |
US11958485B2 (en) | Vehicle control method and apparatus | |
JP2020064056A (ja) | 位置推定装置及び方法 | |
CN110402368A (zh) | 用在交通工具导航中的集成式的基于视觉的惯性传感器系统 | |
JP2005098853A (ja) | 地図データ更新方法および地図データ更新装置 | |
CN106814753A (zh) | 一种目标位置矫正方法、装置及系统 | |
JP2019136165A (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム | |
CN109974696B (zh) | 基于slam与步态imu融合的室内人员自主定位方法 | |
JP6418342B1 (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム | |
JP4425383B2 (ja) | センサユニット | |
JP7204612B2 (ja) | 位置姿勢推定装置、位置姿勢推定方法及びプログラム | |
WO2022146858A1 (en) | Controller position tracking using inertial measurement units and machine learning | |
JP2004037220A (ja) | 車両の操縦安定性評価装置、車両の操縦安定性評価方法、及び、車両の操縦安定性評価用プログラム | |
GB2571585A (en) | Vehicle control method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110705 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110707 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |