JP2001091289A - Sensor unit - Google Patents

Sensor unit

Info

Publication number
JP2001091289A
JP2001091289A JP26420699A JP26420699A JP2001091289A JP 2001091289 A JP2001091289 A JP 2001091289A JP 26420699 A JP26420699 A JP 26420699A JP 26420699 A JP26420699 A JP 26420699A JP 2001091289 A JP2001091289 A JP 2001091289A
Authority
JP
Japan
Prior art keywords
sensor
controller
sensor unit
detecting
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26420699A
Other languages
Japanese (ja)
Other versions
JP4425383B2 (en
Inventor
Michiyasu Tano
通保 田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Data Tec Co Ltd
Original Assignee
Data Tec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Data Tec Co Ltd filed Critical Data Tec Co Ltd
Priority to JP26420699A priority Critical patent/JP4425383B2/en
Priority to TW90106090A priority patent/TW479132B/en
Publication of JP2001091289A publication Critical patent/JP2001091289A/en
Application granted granted Critical
Publication of JP4425383B2 publication Critical patent/JP4425383B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Gyroscopes (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sensor unit capable of precisely sensing an attitude, without depending on the service environment. SOLUTION: This sensor unit is formed by storing in a portable casing a gyro unit 6 for detecting an attitude and a movement, an artificial retina IC 7 for detecting the relative attitude and the movement of an object in a view, acoustic sensors 8 for detecting the presence of a sound source present around the periphery, D-GPS9, and a controller 5 for controlling the operation of these sensors. The controller 5 accepts the results of detection by the sensors 3 to 9 in real time, records these results of detection in updatable manner in an information space formed in a specified memory area and, based on the recorded results of detection, induces the information indicating the events produced around the casing. Thus, the movement simulating human perceptual actions can be detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人間、ロボット、
車両、航空機等の被検体の姿勢、動き成分、位置等を複
合的に検出し、必要に応じて他の検出データに基づいて
計器の誤差分を自律的に補正することにより高精度の検
出結果を恒常的に得る、センサユニットに関する。
[0001] The present invention relates to humans, robots,
High-precision detection results by detecting the posture, motion component, position, etc. of the subject such as vehicles and aircraft in a complex manner, and autonomously correcting the instrument error based on other detection data as necessary To a sensor unit that constantly obtains

【0002】[0002]

【発明の背景】被検体の姿勢や動きを検出し、この検出
結果と映像の表現データとを実時間でリンクさせること
により、被検体の姿勢等に応じた映像を表示手段に表示
させる技術がある。このような技術において、被検体の
姿勢や動きを検出する場合、従来は、主として以下の二
つの方式が採用されている。第1の方式は、角速度を検
出するジャイロセンサと加速度を検出する加速度計とを
それぞれ二次元又は三次元の軸線上に配置したセンサユ
ニットを用い、このセンサユニットを取り付けた被検体
の姿勢や動きを検出する方式である。第2の方式は、三
次元的な微弱磁場を発磁コイルから発生し、その磁場の
変化を磁力センサを用いて被検体の姿勢等を検出する方
式である。この方式では、磁場の影響が及ぶ数メートル
範囲での方向及び場所でセンシングすることになる。
2. Description of the Related Art A technique for detecting a posture and a movement of a subject and linking the detection result and expression data of the video in real time to display a video corresponding to the posture of the subject on a display means has been proposed. is there. In such a technique, when detecting the posture or movement of the subject, conventionally, the following two methods are mainly employed. The first method uses a sensor unit in which a gyro sensor for detecting angular velocity and an accelerometer for detecting acceleration are respectively arranged on a two-dimensional or three-dimensional axis, and the posture and movement of a subject to which the sensor unit is attached. Is a method of detecting The second method is a method in which a three-dimensional weak magnetic field is generated from a magnetizing coil, and a change in the magnetic field is detected by using a magnetic force sensor to detect the posture or the like of the subject. In this method, sensing is performed in directions and places within a range of several meters affected by the magnetic field.

【0003】しかしながら、従来方式には、以下のよう
な問題点があった。第1の方式では、ジャイロセンサが
早い動きに追随できる利点はあるが、センサ特有のドリ
フトが発生しやすく、被検体の向きに対して高精度の検
出ができない。ジャイロセンサでは、検出した角速度を
積分して角度に変換することになるため、僅かな誤差で
もそれが累乗に蓄積されることになる。このような誤差
の原因としては、電気回路部の温度特性の変化によるも
のがある。これは、抵抗やアンプなどの温度により特性
の変化を拾ってしまい、それが検出データのドリフトと
して現れるのである。また、ジャイロセンサの特性によ
るものがある。この種のジャイロセンサとしては振動型
のものが主流であるが、使用に際して剛体が振動するた
め、安定振動にいたるまでに時間を要し、それがドリフ
トとして現れるのである。このようなドリフトの発生
は、ジャイロセンサを採用する以上、不可避となる。ジ
ャイロセンサは、このドリフトを自律的に補正すること
ができないため、例えば被検体が正面を向いたことを感
知できる赤外線センサ等を利用したリファレンス装置を
用いて補正していくことになる。このようなリファレン
ス装置は、設置場所が固定されるのが通常なので、ドリ
フト補正を逐次行おうとするとセンサユニットの使用範
囲が限定されてしまい、野外での使用や携帯しての使用
は不可能である。
[0003] However, the conventional method has the following problems. The first method has an advantage that the gyro sensor can follow a fast movement, but a drift peculiar to the sensor easily occurs, and high-precision detection of the direction of the subject cannot be performed. In the gyro sensor, the detected angular velocity is integrated and converted into an angle, so that even a small error is accumulated in a power. Such errors are caused by changes in the temperature characteristics of the electric circuit section. This causes a change in the characteristic to be picked up by the temperature of the resistor or the amplifier, which appears as a drift in the detection data. In addition, there is one due to the characteristics of the gyro sensor. Vibratory gyro sensors of this type are mainly used, but a rigid body vibrates during use, so that it takes time to reach stable vibration, which appears as drift. Such a drift is inevitable as long as the gyro sensor is employed. Since the gyro sensor cannot autonomously correct the drift, the gyro sensor needs to correct the drift by using a reference device using an infrared sensor or the like that can detect that the subject is facing front. Since such a reference device is usually installed at a fixed location, if drift correction is performed sequentially, the range of use of the sensor unit will be limited, and it will not be possible to use it outdoors or with a portable device. is there.

【0004】第2の方式では、外乱の影響を受けやすい
ため様々なフィルタリング処理が必要となり、微弱磁場
を利用することとも相まって、検出結果を画定するまで
に要する時間が長いという問題がある。つまり、応答性
が悪いという問題である。この結果、被検体の実際の動
きを実時間で出力することができず、一定の時間経過後
に出力されることになり、実時間処理を要する用途には
不向きとなる。磁場を強くしてノイズに強くすれば応答
性はある程度解決するが、被検体が人間の場合、磁場の
人体への悪影響の心配や、医療分野のおいて心臓のペー
スメーカーへの影響などで、磁場を極力弱くすることが
市場から要求されており、この時間的な遅れの解決は不
可能に近いといえる。第2の方式では、発磁コイルを設
置することから限られた場所内で被検体の姿勢等を計測
することになり、第1の方式の場合と同様、自由な空間
でのセンシングが不可能である。
[0004] The second method is susceptible to disturbance and requires various filtering processes. In addition to the use of a weak magnetic field, there is a problem that the time required for defining a detection result is long. That is, there is a problem that responsiveness is poor. As a result, the actual movement of the subject cannot be output in real time, but is output after a certain period of time, which is not suitable for applications requiring real-time processing. Responsiveness can be solved to some extent by strengthening the magnetic field and making it more resistant to noise.However, if the subject is a human, the magnetic field may be affected due to concerns about the adverse effect of the magnetic field on the human body, or the effect on the cardiac pacemaker in the medical field. Is required by the market as much as possible, and it can be said that solving this time delay is almost impossible. In the second method, the posture and the like of the subject are measured in a limited place because the magnetizing coil is installed. As in the case of the first method, sensing in a free space is impossible. It is.

【0005】本発明は、以上の背景に鑑み、使用する環
境に依存せず、姿勢等の高精度のセンシングを可能にす
るセンサユニットを提供することにある。
SUMMARY OF THE INVENTION In view of the above background, an object of the present invention is to provide a sensor unit that enables high-precision sensing of a posture and the like without depending on a use environment.

【0006】[0006]

【課題を解決するための手段】本願出願人は、従来は存
在しない人間の知覚動作を模擬することができるセンサ
ユニットを構成することで、上記課題の解決を図るもの
である。
Means for Solving the Problems The present applicant solves the above-mentioned problems by constructing a sensor unit capable of simulating a human perceptual operation which does not exist conventionally.

【0007】−第1のセンサユニット− 第1のセンサユニットは、自己の姿勢及び動きを検出す
る第1センサ、自己の視野にある物体の相対姿勢及びそ
の動きを検出する第2センサ、自己の周辺に存する音源
の存在を検出する第3センサのうち少なくとも二つのセ
ンサと、これらのセンサの動作を制御するコントローラ
とを所定の筐体に収容して成り、前記コントローラが、
各センサによる検出結果を実時間で受け入れ、これらの
検出結果を所定のメモリ領域上に形成された情報空間内
に更新自在に記録し、この記録された検出結果をもとに
前記筐体の周辺で発生する事象を表す情報を導出するよ
うに構成されているものである。
-First sensor unit- The first sensor unit includes a first sensor for detecting its own posture and movement, a second sensor for detecting the relative posture of an object in its own field of view and its movement, At least two sensors among the third sensors that detect the presence of a sound source present in the surroundings, and a controller that controls the operation of these sensors are housed in a predetermined housing, and the controller is
The detection results of each sensor are received in real time, and these detection results are renewably recorded in an information space formed on a predetermined memory area. It is configured to derive information representing an event that occurs in.

【0008】第1のセンサユニットにおける好ましい実
施の形態としては、前記コントローラを、各センサから
出力されるデータを相互に補完することにより各センサ
に共通する一つの物理量を導出するように構成する。第
1センサと第2センサとを含んでセンサユニットを構成
する場合、第1センサからの出力データに基づいて第2
センサの出力データを予測し、予測結果が肯定的である
場合に、予測されたデータをもとに第1センサによる誤
差成分を自律的に補正するように構成する。
In a preferred embodiment of the first sensor unit, the controller is configured to derive one common physical quantity common to each sensor by mutually complementing data output from each sensor. When the sensor unit is configured to include the first sensor and the second sensor, the second sensor is configured based on output data from the first sensor.
The output data of the sensor is predicted, and when the prediction result is positive, the error component by the first sensor is autonomously corrected based on the predicted data.

【0009】第1センサが前記筐体上に形成される複数
次元の軸線回りの角速度を計測する複数のジャイロセン
サを含むものであり、第2センサが入力画像から画像輪
郭を抽出してその画像輪郭の動き成分を演算によって導
出する手段を有するものであるとき、前記コントローラ
は、第1センサからの出力データのうち第1周波数帯の
データと、第2センサからの出力データのうち第1周波
数帯とは異なる第2周波数帯のデータとを統合するよう
に構成する。
The first sensor includes a plurality of gyro sensors for measuring angular velocities around a multi-dimensional axis formed on the housing, and the second sensor extracts an image contour from an input image and outputs the image outline. When the controller has means for deriving a motion component of the contour by calculation, the controller outputs the first frequency band data out of the output data from the first sensor and the first frequency band out of the output data from the second sensor. It is configured to integrate data of a second frequency band different from the band.

【0010】構成を簡略化する観点からは、第2センサ
として、目標物を映し出す手段と前記目標物の画像輪郭
を抽出してその画像輪郭の動き成分を演算によって導出
する手段とを1チップ化した人工網膜ICを用いる。
[0010] From the viewpoint of simplifying the configuration, the means for projecting the target and the means for extracting the image contour of the target and deriving the motion component of the image contour by calculation are formed as one chip as the second sensor. The artificial retinal IC that has been used is used.

【0011】第3センサは、例えば、音信号の強度を計
測する1又は複数の指向性マイクを含む音響センサであ
り、同一の音源からの音信号の強度を異なる角度から計
測することで自己に対する当該音源の方向を検出するも
のである。
The third sensor is, for example, an acoustic sensor including one or a plurality of directional microphones for measuring the intensity of a sound signal. It detects the direction of the sound source.

【0012】なお、絶対位置を検出するGPSセンサと
絶対方位を検出する方位センサの少なくとも一方を前記
筐体にさらに収容してセンサユニットを構成し、前記コ
ントローラが、これらのセンサにより検出された情報を
考慮して前記筐体の現在位置を導出するようにしても良
い。
[0012] At least one of a GPS sensor for detecting an absolute position and an azimuth sensor for detecting an absolute azimuth is further housed in the housing to form a sensor unit, and the controller detects information detected by these sensors. In consideration of the above, the current position of the housing may be derived.

【0013】−第2のセンサユニット− 第2のセンサユニットは、センシング対象となる被検体
に取り付けられるもので、前記被検体の姿勢及び動きを
検出する第1センサと、前記被検体から見た物体の相対
姿勢及びその動きを検出する第2センサと、各センサの
動作を制御するコントローラとを有し、該コントローラ
が、各センサによる検出結果を実時間で受け入れ、これ
らの検出結果を所定のメモリ領域上に形成された情報空
間内に更新自在に記録し、この記録された検出結果を相
互に補完するとともに補完後の検出結果をもとに前記被
検体の周辺で発生する事象を表す情報を導出するように
構成されているものである。
-Second sensor unit- The second sensor unit is attached to the subject to be sensed, and includes a first sensor for detecting the posture and movement of the subject, and a second sensor unit viewed from the subject. A second sensor for detecting the relative attitude of the object and its movement, and a controller for controlling the operation of each sensor, the controller accepting the detection results of each sensor in real time, and Information that is renewably recorded in an information space formed on a memory area, complements each other with the recorded detection results, and indicates an event that occurs around the subject based on the complemented detection results. Is derived.

【0014】第2のセンサユニットは、自己の動作姿勢
又は動きを制御する主制御手段を有する被検体に取り付
け、前記コントローラで導出した情報を前記主制御手段
に伝えるように構成することができる。この場合の被検
体は、例えば自律歩行型のロボット、飛行体、車両等で
ある。
The second sensor unit may be configured to be attached to a subject having main control means for controlling its own operating posture or movement, and to transmit information derived by the controller to the main control means. The subject in this case is, for example, an autonomous walking robot, a flying object, a vehicle, or the like.

【0015】この第2のセンサユニットの好ましい実施
の形態としては、前記コントローラを、各センサから実
時間で出力されるデータに基づいて次に検出されるデー
タの範囲を常時予測し、予測結果に応じて異なる情報を
生成するように構成する。例えば、予測結果が否定的と
なる事態が発生した場合に、自律的にそれを無視するよ
うな制御信号を生成したり、前記主制御手段への通知情
報を生成したりする。また、前記被検体の周辺の音源の
存在を検出する第3センサ、前記被検体の絶対位置を検
出する第4センサ、基準方位に対する前記被検体の方位
を検出する第5センサの少なくとも一つをさらに備える
ようにし、前記コントローラが、第3、第4又は第5の
センサから出力されるデータを前記事象を表す情報に反
映させるように構成する。
In a preferred embodiment of the second sensor unit, the controller constantly predicts a range of data to be detected next based on data output from each sensor in real time, and generates a prediction result. It is configured to generate different information according to the information. For example, when a situation in which the prediction result is negative occurs, a control signal that autonomously ignores the situation or a notification information to the main control unit is generated. Also, at least one of a third sensor for detecting the presence of a sound source around the subject, a fourth sensor for detecting the absolute position of the subject, and a fifth sensor for detecting the orientation of the subject with respect to a reference orientation. Further, the controller is configured to reflect data output from the third, fourth, or fifth sensor in the information representing the event.

【0016】[0016]

【発明の実施の形態】以下、本発明を人間の知覚動作を
模擬するセンサユニットに適用した場合の実施の形態を
説明する。図1(a)は人間の知覚を示す説明図であ
る。人間の知覚は、平行感覚を司る三半規管1、視覚を
司る目2、聴覚を司る耳3、及びこれらの器官を統括的
に管理する頭脳4の相互作用によって実現される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a sensor unit that simulates human perception will be described below. FIG. 1A is an explanatory diagram showing human perception. Human perception is realized by the interaction of a semicircular canal 1 that controls parallel sensation, an eye 2 that controls vision, an ear 3 that controls hearing, and a brain 4 that integrally manages these organs.

【0017】三半規管1は、自己の相対的な姿勢やその
動き、方向を感知するものであり、その原理は、水成分
の動きから頭の前後左右の傾き度合いや方向を感知する
というものである。しかし、三半規管1のみでは、例え
ば暗い部屋で何回か回転すると目的とする方向を見失っ
てしまったり、目をつぶりながら片足で立ち続けること
ができずに目をあけてしまったり、両足で立ってしまう
ことがある。このような場合、絶対的な方向や傾斜は、
目2からの視覚情報や耳3からの音源情報で補完され
る。
The semicircular canal 1 senses its own relative posture, its movement and direction, and its principle is to sense the degree of inclination and direction of the front, rear, left and right of the head from the movement of the water component. . However, with the semicircular canal 1 alone, for example, if you rotate several times in a dark room, you lose your target direction, you can't keep standing on one leg with your eyes closed, you open your eyes, or you stand on both legs. Sometimes. In such a case, the absolute direction and inclination
It is complemented by visual information from the eyes 2 and sound source information from the ears 3.

【0018】目2は、自己の姿勢や周囲の事物に対する
自己の相対位置、自己の動き、相手との相対速度、相手
との距離等を感知するが、目2からの情報のみでは、自
己や相手の速い動きに対応しにくかったり、暗い状態で
は感知精度が低いことは良く経験するところである。こ
のような場合、三半規管1及び耳3からの情報によって
感知情報が補完される。
The eye 2 senses its own posture, its own relative position with respect to surrounding objects, its own movement, its relative speed with its opponent, its distance to the opponent, and the like. It is often experienced that it is difficult to cope with the opponent's fast movement or that the sensing accuracy is low in a dark state. In such a case, the sensed information is complemented by information from the semicircular canal 1 and the ear 3.

【0019】耳3は、音源の存在や、その音源と自己と
の距離・方向等を感知するが、耳3からの情報のみでは
感知精度が低いため、やはり、目2や三半規管1からの
情報によって感知精度の補完が行われる。
The ear 3 senses the presence of the sound source and the distance / direction between the sound source and itself, but the information from the ear 3 alone has low sensing accuracy. This complements the sensing accuracy.

【0020】頭脳4は、三半規管1、目2、耳3からの
情報に基づいて情報相互の補完や事象の発生確認、その
他の判断を行う。例えば現在又は過去の視覚情報及び音
情報をもとに、自己の周辺の事物の存在や配置等を空間
的に認識する。人が肩を叩かれたときに振り向くことが
出来るのは、後ろに障害になる物が無いことを知ってい
るからである。つまり、頭脳4は、現在認識されるいる
情報のみに基づくのではなく、事前に取得してある情報
をも加味することによって常に空間的に存在する情報を
整理しておくのである。このようにして、自己の動きに
あった空間を作りだし、人は安心して歩行できる。
The brain 4 performs mutual complementation of information, confirmation of occurrence of an event, and other judgments based on information from the semicircular canals 1, eyes 2, and ears 3. For example, based on current or past visual information and sound information, the presence or arrangement of things around the user is spatially recognized. People can turn around when they tap on their shoulders because they know that there is nothing behind them. That is, the brain 4 sorts information that always exists spatially by taking into account not only information that is currently recognized but also information that has been acquired in advance. In this way, a space suitable for one's own movement is created, and people can walk with peace of mind.

【0021】このような人間の知覚と等価の機能を実現
するため、本実施形態では、図1(b)のような構成の
センサユニットを構成する。このセンサユニットは、可
搬性の筐体に、頭脳4に相当するコントローラ5、三半
規管1に相当するジャイロユニット6、目2に相当する
人工網膜IC7、耳に相当する音響センサ8、及び、D
‐GPS9(differential‐globalpositioning syste
mの略称である。)、及びこれらの電源(図示省略)を
装着して構成される。
In order to realize a function equivalent to such a human perception, in the present embodiment, a sensor unit having a configuration as shown in FIG. This sensor unit includes, in a portable housing, a controller 5 corresponding to the brain 4, a gyro unit 6 corresponding to the semicircular canal 1, an artificial retinal IC 7 corresponding to the eye 2, an acoustic sensor 8 corresponding to the ear, and D
-GPS9 (differential-globalpositioning syste
It is an abbreviation for m. ) And these power supplies (not shown).

【0022】ジャイロユニット6は、複数のジャイロセ
ンサ及び加速度計を含んで成り、これらの計器によっ
て、筐体の姿勢やその動きを検出するものである。ジャ
イロセンサは、筐体内に形成されるX,Y,Z軸(ピッ
チ、ロール、ヨー)又はX,Y軸上に配置され、各軸線
回りの角速度を計測する。加速度計は、X,Y,Z軸又
はX,Y軸上に配置され、軸線傾斜による重力加速度と
運動加速度との和を計測する。本実施形態では、ジャイ
ロセンサは筐体の旋回角度を含む姿勢の計測に利用し、
加速度計は、筐体の加速・停止加速度の計測、旋回によ
る横加速度等の計測に利用する。この計測により得られ
たデータ(以下、この実施形態では「計測データ」と称
する)は、必要に応じて増幅器(図示省略)によって増
幅され、時系列にコントローラ5に出力されるようにな
っている。なお、方位計を含んでジャイロユニットを構
成しても良い。この場合は、上記計測データに絶対方位
に対する筐体の相対方位を表すデータが付加される。
The gyro unit 6 includes a plurality of gyro sensors and an accelerometer, and detects the posture of the housing and the movement thereof by using these instruments. The gyro sensor is arranged on X, Y, Z axes (pitch, roll, yaw) or X, Y axes formed in the housing, and measures an angular velocity around each axis. The accelerometer is arranged on the X, Y, Z axes or the X, Y axes, and measures the sum of the gravitational acceleration and the motion acceleration due to the inclination of the axis. In the present embodiment, the gyro sensor is used for measuring the posture including the turning angle of the housing,
The accelerometer is used for measuring the acceleration / stop acceleration of the housing, the lateral acceleration due to turning, and the like. Data obtained by this measurement (hereinafter, referred to as “measurement data” in this embodiment) is amplified by an amplifier (not shown) as necessary, and output to the controller 5 in a time series. . The gyro unit may include a compass. In this case, data representing the relative orientation of the housing with respect to the absolute orientation is added to the above measurement data.

【0023】ジャイロセンサは、温度変化がその計測デ
ータに影響を与える場合があるので、寒冷地方や温暖地
方で使用する場合は、計測データを温度係数で補正する
温度補正手段を付加することが望ましい。ジャイロユニ
ット(特にジャイロセンサ)6は、筐体の動きにダイレ
クトに反応して計測データを出力することができ、しか
も軸線回りの動き成分に基づいて計測データを出力する
ものであるから高周波の動きに対しては精度が高いが、
軸線回りの動きが少ない場合、つまり低周波の動きに対
しては精度を確保することが比較的困難である。また、
ジャイロセンサについては、前述のように計測データに
ドリフト成分が蓄積されるという本質的な問題がある。
In the gyro sensor, a temperature change may affect the measured data, and therefore, when the gyro sensor is used in a cold region or a warm region, it is desirable to add a temperature correcting means for correcting the measured data with a temperature coefficient. . The gyro unit (especially the gyro sensor) 6 can output measurement data in direct response to the movement of the housing, and outputs the measurement data based on the motion component around the axis. Is more accurate for
It is relatively difficult to ensure accuracy when the movement around the axis is small, that is, for movement at low frequencies. Also,
The gyro sensor has an essential problem that a drift component is accumulated in the measurement data as described above.

【0024】人工網膜IC7は、筐体の周囲における目
標物の存在を認識し、認識した目標物の位置関係や自己
又は目標物の動き成分を検出するセンサである。人工網
膜IC7は、例えば特開平10−340349号公報に
開示されたものを用いることができる。この開示された
人工網膜ICは、CCD(charge coupleddevice)の
機能や画像の輪郭抽出機能などを選択することができ、
ロジックゲートアレイで画像入力のためのクロックを生
成し、内容で処理した結果をチップ内メモリに記憶でき
るようなものである。
The artificial retinal IC 7 is a sensor that recognizes the presence of a target around the housing and detects the positional relationship of the recognized target and the movement component of the target or the target itself. As the retinal prosthesis IC7, for example, one disclosed in JP-A-10-340349 can be used. The disclosed retinal prosthesis IC can select a CCD (charge coupled device) function, an image contour extraction function, and the like.
A logic gate array generates a clock for inputting an image, and the result of processing with the content can be stored in an on-chip memory.

【0025】本実施形態では、この人工網膜IC7を用
いて自己の視野にある目標物を動画として映しだし、こ
れにより得られたそれぞれの画像の輪郭情報を抽出する
とともに、抽出した輪郭情報の差分から自己に対する目
標物の相対的な動き成分を表す物理量、具体的には角速
度、速度、移動方向、移動量、移動後の方位等の演算を
行う。そのために、まず自己と目標物との間で発生する
動きベクトルを検出する。図2は、人工網膜IC7にお
ける動きベクトルの検出手順を示した図であり、図3は
その概念図である。人工網膜IC7では、図2に示され
るように、まず、目標物を映した動画から1画面分の画
像を入力し、その目標物の画像の輪郭情報を抽出する
(ステップS101、S102)。図3(a)はこの処
理を概念的に示したものである。抽出された1画面分の
輪郭情報は、図3(b)のような形態で図示しないチッ
プ内メモリに記録される(ステップS103)。一定時
間経過後、同一目標物を同じ角度で映し出し、同様の処
理を行う。ここでは、直前に映した画像を前回画像、そ
の後に映した画像を今回画像とすると、図3(c)のよ
うに、前回画像の輪郭情報と今回画像の輪郭情報の特定
部位を基準として、量及び方向をパラメータとするベク
トル成分を論理演算によって抽出することができる。例
えば前回画像の輪郭情報(ドット)と今回画像の輪郭情
報(ドット)の排他的論理和を判定することで、移動し
たドットのみを抽出することができる。人工網膜IC7
では、このベクトル成分をその画像についての動きベク
トルとして検出する(ステップS104,S105)。
In the present embodiment, a target object in its own field of view is projected as a moving image using the artificial retinal IC 7, and the outline information of each image obtained thereby is extracted, and the difference between the extracted outline information is extracted. Then, a physical quantity representing a relative motion component of the target object with respect to itself, specifically, an angular velocity, a speed, a moving direction, a moving amount, a azimuth after the movement, and the like are calculated. For this purpose, first, a motion vector generated between itself and a target is detected. FIG. 2 is a diagram showing a procedure for detecting a motion vector in the retinal prosthesis IC7, and FIG. 3 is a conceptual diagram thereof. In the retinal prosthesis IC7, as shown in FIG. 2, first, an image for one screen is input from a moving image showing a target, and contour information of the image of the target is extracted (steps S101 and S102). FIG. 3A conceptually illustrates this processing. The extracted outline information for one screen is recorded in an in-chip memory (not shown) in a form as shown in FIG. 3B (step S103). After a certain period of time, the same target is projected at the same angle, and the same processing is performed. Here, assuming that the image projected immediately before is the previous image, and the image projected thereafter is the current image, as shown in FIG. 3C, based on the contour information of the previous image and the specific part of the contour information of the current image, A vector component having the quantity and direction as parameters can be extracted by a logical operation. For example, only the moved dot can be extracted by determining the exclusive OR of the contour information (dot) of the previous image and the contour information (dot) of the current image. Artificial retina IC7
Then, this vector component is detected as a motion vector for the image (steps S104 and S105).

【0026】移動ベクトルの検出に際しては、目標物の
移動速度を予測して移動したドットの探索範囲を決めて
いく。探索範囲では、最初に横方向に移動して探索範囲
をスキャンし、次に上下方向に移動して探索範囲をスキ
ャンする。そして、探索できたドットの色情報を参照
し、それが特定部位のドット(起点ドット)のものと同
様であれば、そのドットを移動先ドットとする。以上は
目標物が動いている場合の手順であるが、目標物自体は
動かず、人工網膜IC7が動いている場合もほぼ同様の
手順で動きベクトルを検出することができる。
In detecting the movement vector, the search speed of the moved dot is determined by predicting the movement speed of the target. In the search range, the search range is first scanned in the horizontal direction, and then the search range is scanned in the vertical direction. Then, the color information of the searched dot is referred to, and if the color information is the same as that of the dot of the specific portion (starting dot), the dot is set as the destination dot. The above is the procedure when the target is moving. However, even when the target itself does not move and the artificial retinal IC 7 is moving, the motion vector can be detected in substantially the same procedure.

【0027】この人工網膜IC7は、機能的には、CC
Dと画像処理手段とを組み合わせたものであるが、本実
施形態では、上記のように目標物の動きベクトルを検出
できれば足りるので、目標物の画像の輪郭情報に基づく
動き成分を簡易に抽出できる人工網膜ICを用いること
としたものである。従って、同機能をもつセンサでこれ
を代用することを否定するものではない。
The artificial retinal IC 7 is functionally CC
In this embodiment, since it is sufficient to detect the motion vector of the target as described above, the motion component based on the contour information of the image of the target can be easily extracted. In this case, an artificial retinal IC is used. Therefore, it is not denied that a sensor having the same function is used instead.

【0028】人工網膜IC7は、単独でも使用可能であ
るが、人間の目のように二つの人工網膜IC7を所定間
隔で併設し、同一目標物の動き等を二つの人工網膜IC
7で同時に検出するような形態も可能である。このよう
にすれば、各人工網膜IC7のチップ内メモリに記録さ
れる目標物の輪郭情報の相対位置からセンサユニットか
らその目標物までの距離を演算できるようになる。車両
に搭載する場合には、車間距離計として利用することが
できる。
Although the artificial retinal IC 7 can be used alone, two artificial retinal ICs 7 are provided side by side at a predetermined interval like the human eye, and the movement of the same target and the like are controlled by the two artificial retinal ICs.
A configuration in which detection is performed simultaneously in step 7 is also possible. In this way, the distance from the sensor unit to the target can be calculated from the relative position of the contour information of the target recorded in the in-chip memory of each retinal prosthesis IC7. When mounted on a vehicle, it can be used as an inter-vehicle distance meter.

【0029】人工網膜IC7は、実際に映しだした目標
物の画像に基づいて動き成分を演算するため、低周波の
動きに対しては検出精度が高いが、画像処理を行うこと
から2値化処理を伴い、また、通常は目標物の位置の相
対変化等を認識する処理が伴うため、目標物の高周波の
動きに対して精度を高く維持することは困難である。
The retinal prosthesis IC7 calculates the motion component based on the image of the target actually projected, and therefore has high detection accuracy for low-frequency motion, but is binarized because of performing image processing. Since it involves processing and usually involves processing for recognizing a relative change in the position of the target, it is difficult to maintain high accuracy with respect to high-frequency movement of the target.

【0030】音響センサ8は、同一音源からの音信号を
複数の方向から計測し、計測された音信号の到達時間差
からその音源の方向を特定できるようにしたセンサであ
る。音響センサ8の具体的な構成としては、音源からの
音信号を検出する指向性マイクとこの指向性マイクで受
信した音信号から特定周波数、例えば50〜100Hz
の低周波領域の音信号を抽出し、抽出した音信号の到達
時間差から音源方向を特定するための演算処理を行う処
理手段を含んで構成する。人間の耳のように、2つの指
向性マイクを一定間隔で配置し、この2つの指向性マイ
クに同時に入力された音信号の到達時間差から音源方向
を特定できるようにしても良い。なお、処理手段では、
上記低周波領域の音の強度変化パターンをバンドパスフ
ィルタで切り取り、その切り取ったパターンとそのとき
の音源の方向とを記憶しておいて、同様のパターンが発
生したときにその方向の角度を参考値にするようにして
処理の効率化を図ることも可能である。
The acoustic sensor 8 is a sensor that measures sound signals from the same sound source from a plurality of directions, and can specify the direction of the sound source based on the arrival time difference of the measured sound signals. The specific configuration of the acoustic sensor 8 includes a directional microphone for detecting a sound signal from a sound source and a specific frequency, for example, 50 to 100 Hz, based on a sound signal received by the directional microphone.
And processing means for performing an arithmetic operation for specifying the sound source direction from the arrival time difference between the extracted sound signals. Like a human ear, two directional microphones may be arranged at regular intervals so that the sound source direction can be specified from the arrival time difference of sound signals input simultaneously to the two directional microphones. In the processing means,
The intensity change pattern of the sound in the low frequency region is cut by a band-pass filter, and the cut pattern and the direction of the sound source at that time are stored, and when a similar pattern occurs, the angle of the direction is referred to. It is also possible to increase the processing efficiency by setting the value to a value.

【0031】D‐GPS9はGPSの一種であり、GP
S信号をGPEX(衛星測位情報センタ)の固定基準局
で受信し、誤差を計算した後、補正データをFM多重放
送で送信するシステムであり、自己の絶対位置や速度を
ワールド座標系でコントローラ5に出力するものであ
る。このD−GPS9は、一般のGPSに比べて10倍
以上の検出精度が得られることは良く知られている。
D-GPS 9 is a kind of GPS,
A system in which an S signal is received by a GPEX (Satellite Positioning Information Center) fixed reference station, an error is calculated, and correction data is transmitted by FM multiplex broadcasting. Output. It is well known that this D-GPS 9 can obtain a detection accuracy 10 times or more higher than that of a general GPS.

【0032】コントローラ5は、例えばROM等に記録
された所定のプログラムをCPUが読み込んで実行する
ことにより形成されるもので、各センサ6〜9の動作を
制御することを主たる機能とするが、各センサ6〜9か
らの計測データをRAM等の内部メモリに形成される情
報空間に統合化する機能、統合された計測データをもと
に各センサ6〜9の利点を引き出し、弱点については他
のセンサの計測データで補正する機能、時々刻々センス
され、統合される計測データに基づいて次の計測データ
を予測し、この予測値に対して合理性のある(ある許容
範囲内の)結果から自己(センサユニット)の動きや目
標物の動きを認識する機能を有するものである。内部メ
モリの情報空間には、例えば−180〜0〜+180の
ように360度に渡る各センサ6〜9の計測結果を時間
情報と共に随時更新自在に記録されるようになってお
り、これによって、空間的、時間的なデータの統合、及
び統合されたデータを利用したデータ予測その他の判断
処理を可能にしている。
The controller 5 is formed by a CPU reading and executing a predetermined program recorded in, for example, a ROM or the like, and has a main function of controlling the operation of each of the sensors 6 to 9. A function of integrating the measurement data from each sensor 6 to 9 into an information space formed in an internal memory such as a RAM. The advantages of each sensor 6 to 9 are extracted based on the integrated measurement data. The function to correct with the sensor's measurement data, predicts the next measurement data based on the measurement data that is sensed and integrated every moment, and makes a reasonable (within a certain tolerance) It has a function of recognizing the movement of itself (sensor unit) and the movement of a target. In the information space of the internal memory, the measurement results of each of the sensors 6 to 9 over 360 degrees, such as -180 to 0 to +180, are recorded so as to be updated at any time together with time information. It enables integration of spatial and temporal data, and data prediction and other judgment processing using the integrated data.

【0033】次に、本実施形態によるセンサユニットの
動作を説明する。このセンサユニットでは、人間の三半
規管を模擬した三半規管動作、視覚を模擬した視覚動
作、聴覚を模擬した聴覚動作を行う。 <三半規管動作>センサユニットにおける三半規管動作
は、主としてジャイロユニット6の計測データに基づい
て、筐体、筐体取付体等の被検体の姿勢(傾き、向き
等)及びその動きをコントローラ5を通じて認識するこ
とにより実現される。但し、ジャイロユニット6のみで
は、センサユニットを取り付けた被検体が、例えば電源
断後再立ち上げ後に何回か回転したときに、その被検体
の正しい姿勢を確定することが困難となる場合がある。
このような場合を想定し、本実施形態では、三半規管動
作を模擬するためのデータについては、人工網膜IC7
より得られた視覚情報、人工網膜IC7からの計測デー
タに基づいて演算された物理量の情報、音響センサ8に
よって検出された情報やそれに基づく物理量の情報で補
完するようにしている。また、動きの度合い(検出周波
数)によっては、ジャイロユニット6の計測データに代
えて、人工網膜IC7からの計測データを用いる。
Next, the operation of the sensor unit according to the present embodiment will be described. In this sensor unit, a semicircular canal operation simulating a human semicircular canal, a visual operation simulating vision, and an auditory operation simulating hearing are performed. <Semicircular canal operation> In the semicircular canal operation of the sensor unit, the posture (inclination, direction, and the like) of the subject such as the housing and the housing attachment and the movement thereof are recognized through the controller 5 mainly based on the measurement data of the gyro unit 6. This is achieved by: However, with the gyro unit 6 alone, it may be difficult to determine the correct posture of the subject when the subject to which the sensor unit is attached rotates several times, for example, after the power is turned off and then restarted. .
Assuming such a case, in the present embodiment, the data for simulating the semicircular canal operation is based on the artificial retinal IC7.
The visual information thus obtained, the information on the physical quantity calculated based on the measurement data from the artificial retinal IC 7, the information detected by the acoustic sensor 8, and the information on the physical quantity based on the information are complemented. Further, depending on the degree of movement (detection frequency), measurement data from the artificial retinal IC 7 is used instead of measurement data from the gyro unit 6.

【0034】<視覚動作>センサユニットにおける視覚
動作は、主として人工網膜IC7の計測結果に基づい
て、目標物の存在、被検体自体又は目標物の相対的な動
き、被検体の姿勢や位置、向きをコントローラ5を通じ
て認識することにより実現される。但し、人工網膜IC
7のみでは、被検体や目標物の速い動きに対応しにくか
ったり、夜間等の暗い環境では、目標物や被検体の絶対
的な位置や姿勢等を正しく認識できなかったりする。こ
のような場合を想定し、本実施形態では、速い動きの場
合にはジャイロユニット6の計測データに基づく姿勢や
向きの情報で人工網膜IC7による検出結果を補完し、
位置や方位については、音響センサ8によって検出され
た情報やそれに基づいて演算された物理量の情報、D−
GPS9によって検出された位置情報で補完する。
<Visual operation> Visual operation in the sensor unit is mainly based on the measurement result of the retinal prosthesis IC7, the existence of the target, the relative movement of the subject itself or the target, the posture, position, and orientation of the subject. Is realized through the controller 5. However, artificial retinal IC
With only 7, it is difficult to cope with a fast movement of the subject or the target, or in a dark environment such as at night, the absolute position or posture of the target or the subject cannot be correctly recognized. Assuming such a case, in the present embodiment, in the case of a fast movement, the detection result by the artificial retinal IC 7 is complemented with information on the posture and orientation based on the measurement data of the gyro unit 6,
As for the position and orientation, information detected by the acoustic sensor 8 and information on physical quantities calculated based on the information, D-
Complement with the position information detected by GPS9.

【0035】<聴覚動作>センサユニットにおける聴覚
動作は、主として音響センサ8の計測結果に基づいて被
検体の向きや音源までの距離をコントローラ5を通じて
認識することにより実現される。但し、音響センサ8か
らの情報のみでは、音信号の強度が弱すぎたり、音源に
対する2方向の角度が小さい場合には精度を十分に確保
することができない場合がある。一方、音源の方向を検
出する際に、人工網膜IC7で実際に映しだした画像を
もとに音源の方向を予測することによって、音源方向の
探索に要する時間の短縮化が可能になる。そこで、本実
施形態では、人工網膜IC7により検出された情報を聴
覚動作の補完に用いる。
<Hearing Operation> The hearing operation in the sensor unit is realized by recognizing the direction of the subject and the distance to the sound source through the controller 5 mainly based on the measurement result of the acoustic sensor 8. However, if only the information from the acoustic sensor 8 is used, if the intensity of the sound signal is too weak or the angle in two directions with respect to the sound source is small, it may not be possible to ensure sufficient accuracy. On the other hand, when detecting the direction of the sound source, the time required for searching for the sound source direction can be reduced by predicting the direction of the sound source based on the image actually projected by the artificial retinal IC 7. Therefore, in the present embodiment, the information detected by the artificial retinal IC 7 is used for complementing the auditory operation.

【0036】<コントローラによる統合処理>上記の三
半規管動作、視覚動作、聴覚動作は、センサユニットの
コントローラ5が各センサ6〜9から時々刻々収集した
情報をメモリ領域に空間的、時間的にそれぞれ更新自在
に統合的に記録しておき、これらの情報に基づいて情報
相互の補完、予測等を行うことによって実現される。コ
ントローラでは、上記各動作のサポートのほか、被検体
の周辺で発生した事象の認識その他の各種判断処理を行
う。以下、各処理の内容を詳細に説明する。
<Integration processing by controller> In the above-mentioned three semicircular canal operations, visual operations, and auditory operations, the information collected by the controller 5 of the sensor unit from time to time from each of the sensors 6 to 9 is spatially and temporally updated in a memory area. It is realized by freely and integrally recording the information, and complementing and predicting the information based on the information. In addition to supporting the above operations, the controller performs recognition of an event that has occurred around the subject and other various determination processes. Hereinafter, the contents of each process will be described in detail.

【0037】人工網膜IC7で画像処理を通じて目標物
の動きを検出(演算)する場合、入力された目標物の映
像の動きが自己が動いた結果なのか、目標物が動いた結
果なのかを区別する必要がある。コントローラ5は、こ
の場合の判定に、ジャイロユニット6の計測データを利
用する。図4(a)は、人工網膜IC7自身が目標物
(楕円で図示)41に向かって前進している場合の映像
例、図4(b)は、人工網膜IC7は移動せず、目標物
41が図中央から左側に動く場合の例である。図4
(a)において、目標物41は、人工網膜IC7が前進
するにつれて大きくなるが、ジャイロユニット6の角速
度は変化していない。この場合、人工網膜IC7が移動
していることを示す映像であると認識できる。他方、図
4(b)において、目標物41は大きさが同一のまま左
側に移動しているが、ジャイロユニット6の角速度は変
化しない。このような場合、目標物41が動いていると
いう認識ができる。
When the movement of the target is detected (calculated) through image processing in the artificial retinal IC 7, it is determined whether the movement of the image of the input target is the result of the movement of itself or the result of the movement of the target. There is a need to. The controller 5 uses the measurement data of the gyro unit 6 for the determination in this case. FIG. 4A is a video example in the case where the retinal prosthesis IC7 itself is advancing toward the target (illustrated by an ellipse) 41, and FIG. Is an example of the case in which it moves to the left from the center of the figure. FIG.
In (a), the target 41 increases as the artificial retinal IC 7 advances, but the angular velocity of the gyro unit 6 does not change. In this case, it can be recognized that the image indicates that the artificial retinal IC 7 is moving. On the other hand, in FIG. 4B, the target 41 moves to the left with the same size, but the angular velocity of the gyro unit 6 does not change. In such a case, it can be recognized that the target 41 is moving.

【0038】また、人工網膜IC7と目標物とが共に動
く場合もジャイロユニット6の検出結果を利用して実際
の動き成分を正確なものに補正することができる。例え
ば図5(a)のように、人工網膜IC7が固定されてい
ることが判っているとき、動き成分があればそれは目標
物が動いた結果であり、目標物における設定部位の動き
ベクトル51のみで目標物の動きに関する物理量を演算
することができる。しかし、図5(b)のように、目標
物と人工網膜IC7とが共に動いている場合(図示の場
合は同一方向の移動)は、目標物についての動きベクト
ル52のほか、ジャイロユニットによる動き(ベクトル
量)53を考慮する必要がある。図5(c)は、両ベク
トルの差分54を示したものであり、この差分ベクトル
が実際の動きベクトルを表すことになる。このように動
きベクトルを補正することにより、動きの検出精度を高
めることができる。
Also, when the retinal prosthesis IC 7 and the target move together, the actual motion component can be corrected to be accurate using the detection result of the gyro unit 6. For example, as shown in FIG. 5A, when it is known that the retinal prosthesis IC7 is fixed, if there is a motion component, it is a result of the movement of the target, and only the motion vector 51 of the set portion in the target is obtained. Can be used to calculate a physical quantity related to the movement of the target. However, as shown in FIG. 5B, when both the target and the artificial retinal IC 7 are moving (movement in the same direction in the illustrated case), in addition to the motion vector 52 for the target, the movement by the gyro unit is performed. (Vector amount) 53 needs to be considered. FIG. 5C shows a difference 54 between the two vectors, and this difference vector represents an actual motion vector. By correcting the motion vector in this way, it is possible to improve the accuracy of detecting the motion.

【0039】ジャイロユニット6が高周波の動きに対し
ては精度が高く、他方、人工網膜IC7が低周波の動き
に対して精度が高いことは前述のとおりである。コント
ローラ5では、この点に着目して、ジャイロセンサ6か
らの出力データのうち第1周波数帯のデータと人工網膜
IC7からの出力データのうち第1周波数帯とは異なる
第2周波数帯のデータとを統合し、両周波数域をカバー
する統合的な計測データを得るようにする。具体的に
は、ジャイロユニット6の検出信号からハイパスフィル
タ6aで低周波成分を除去し、60Hz〜0.5Hz程
度の信号を出力するようにし、逆に、人工網膜IC7の
検出信号は、ローパスフィルタ7aで高周波成分を除去
し、0.5Hz以下の信号を出力する。そして、両信号
を統合する。また、例えば60Hzでセンシングしたと
すると、角速度は、ジャイロセンサ6の計測データでは
60Hzで演算可能であるが、人工網膜IC7では、最
大で20Hzでの演算になる。これは、人工網膜IC7
では、時間的に離れた3つのポイント(三角形ポイン
ト)の差分で角速度の演算がなされるためである。つま
り、三角形の一頂点である第1ポイントと他の頂点であ
る第2ポイントとの差分で速度を演算し、第1、第2、
第3ポイントの差分で角速度を演算することになるから
である。ジャイロユニット6の場合は、それぞれのポイ
ントでの角速度演算が可能である。このように周波数特
性の異なる2種類のセンサ6,7からの計測データを、
それぞれの周波数特性に合ったフィルタを通してミキシ
ングする。上記例でいえば、3つのポイントのうち1回
は人工網膜IC7で計測し、その間はジャイロセンサ6
で計測して両者をミキシングする。これにより、ジャイ
ロユニット6の利点と人工網膜IC7の利点とを融合さ
せて、精度が高い領域での計測データに基づく検出結果
を得ることができる。
As described above, the gyro unit 6 has high accuracy for high-frequency movement, while the retinal prosthesis IC7 has high accuracy for low-frequency movement. Focusing on this point, the controller 5 compares the data of the first frequency band in the output data from the gyro sensor 6 with the data of the second frequency band different from the first frequency band in the output data from the artificial retinal IC 7. To obtain integrated measurement data covering both frequency ranges. Specifically, the high-pass filter 6a removes low frequency components from the detection signal of the gyro unit 6, and outputs a signal of about 60 Hz to 0.5 Hz. Conversely, the detection signal of the artificial retinal IC 7 is a low-pass filter. At 7a, a high frequency component is removed, and a signal of 0.5 Hz or less is output. Then, both signals are integrated. Further, for example, if sensing is performed at 60 Hz, the angular velocity can be calculated at 60 Hz with the measurement data of the gyro sensor 6, but the artificial retinal IC 7 calculates at a maximum of 20 Hz. This is artificial retinal IC7
This is because the angular velocity is calculated based on the difference between three points (triangle points) that are temporally separated. That is, the speed is calculated from the difference between the first point, which is one vertex of the triangle, and the second point, which is another vertex, and the first, second,
This is because the angular velocity is calculated based on the difference between the third points. In the case of the gyro unit 6, the angular velocity can be calculated at each point. The measurement data from the two types of sensors 6 and 7 having different frequency characteristics as described above is
Mixing is performed through filters that match the respective frequency characteristics. In the above example, one of the three points is measured once by the artificial retinal IC 7, and the gyro sensor 6
And mix the two. Thereby, the advantage of the gyro unit 6 and the advantage of the artificial retinal IC 7 can be combined to obtain a detection result based on measurement data in a highly accurate region.

【0040】ジャイロユニット6による計測データと人
工網膜ICセンサ7による演算結果とを相互にリファレ
ンスして姿勢等の検出精度を高めることもできる。図6
は、この場合のコントローラ5の処理手順説明図であ
る。コントローラ5では、ジャイロユニット6による計
測データ(角速度を表すデータ)を人工網膜IC7での
演算に要する時間分だけ積算(積分)し(ステップS2
01)、人工網膜IC7において演算される角速度を予
測しておく(ステップS202)。このジャイロユニッ
ト6の計測データをもとに人工網膜IC7によって演算
される角速度を予測するのは、以下の理由による。ジャ
イロユニット6により得られる角速度は瞬間的な計測デ
ータを積分することにより得られるのに対し、人工網膜
IC7の場合は、積分を要さずにそれがダイレクトに得
られる。しかし、人工網膜IC7では、前述のように画
像の2値化のための処理を伴うことから、演算までに一
定の時間を要する。両者の動作が正常であった場合は結
果がほぼ同じになるので問題はないが、人工網膜IC7
のいて処理の誤り等があった場合には、演算結果に誤差
が生じる。しかし、そのことは、実際に演算されてみて
初めて判る。そこで、まずジャイロユニット6の計測デ
ータを信頼し、人工網膜IC7における演算の後に異常
の有無を判定することとしたものである。
The measurement data of the gyro unit 6 and the calculation result of the artificial retinal IC sensor 7 can be referred to each other to improve the detection accuracy of the posture and the like. FIG.
FIG. 4 is an explanatory diagram of a processing procedure of the controller 5 in this case. The controller 5 integrates (integrates) the measurement data (data representing the angular velocity) by the gyro unit 6 for the time required for the calculation by the artificial retinal IC 7 (step S2).
01), the angular velocity calculated by the retinal prosthesis IC7 is predicted (step S202). The angular velocity calculated by the artificial retinal IC 7 based on the measurement data of the gyro unit 6 is predicted for the following reason. The angular velocity obtained by the gyro unit 6 can be obtained by integrating instantaneous measurement data, whereas in the case of the artificial retinal IC 7, it can be obtained directly without requiring integration. However, the artificial retinal IC 7 requires a certain amount of time before the calculation because it involves the processing for binarizing the image as described above. If both operations are normal, the result is almost the same and there is no problem.
If there is a processing error or the like, an error occurs in the calculation result. However, this can only be understood by actually calculating. Therefore, first, the measurement data of the gyro unit 6 is relied upon, and after the calculation in the artificial retinal IC 7, the presence or absence of an abnormality is determined.

【0041】人工網膜IC7により演算された角速度が
所定の範囲外、すなわちジャイロセンサ6で予測された
値を超えているかどうかを判定し、超えていた場合はジ
ャイロユニット6による角速度を採用し(ステップS2
03、S204:No、S205)、ステップS201
の処理に戻る。このような事態は、主として動きが高い
周波数のものであった場合に生じる。一方、両者の演算
結果が所定範囲以内であった場合は、相対的に精度が高
い人工網膜IC7で演算された角速度を採用する(ステ
ップS203,S204:Yes、S206)。その
後、採用された角速度とジャイロユニット6により計測
された角速度との差分を求める。人工網膜IC7ではド
リフト成分が発生しないので、両者に差がある場合は、
その差は通常はジャイロセンサのドリフト成分である。
そこで、上記差分をフィードバック補正する(ステップ
S208)。
It is determined whether the angular velocity calculated by the artificial retinal IC 7 is out of a predetermined range, that is, exceeds a value predicted by the gyro sensor 6, and if it is, the angular velocity by the gyro unit 6 is adopted (step). S2
03, S204: No, S205), step S201
Return to the processing of. Such a situation mainly occurs when the motion is of a high frequency. On the other hand, if both calculation results are within the predetermined range, the angular velocity calculated by the artificial retinal IC 7 having relatively high accuracy is adopted (steps S203, S204: Yes, S206). Thereafter, a difference between the adopted angular velocity and the angular velocity measured by the gyro unit 6 is obtained. Since no drift component occurs in the artificial retinal IC7, when there is a difference between the two,
The difference is usually a drift component of the gyro sensor.
Therefore, the difference is feedback corrected (step S208).

【0042】ジャイロセンサ6の計測データ及び人工網
膜IC7の計測データを相互に確認することによって、
ジャイロセンサのドリフト成分を補正することもでき
る。ここでは、単位時間(例えば1秒)毎に人工網膜I
C7及びジャイロユニット6により得られる動き成分を
表す計測データがコントローラ5に入力されるものとす
る。コントローラ5では、人工網膜IC7で動き成分が
検出されておらず、且つジャイロユニット6の角速度が
0であるときは、ジャイロユニット6に誤差がないこと
になるので、両者の値を初期値にする。一方、人工網膜
IC7では動き成分が検出されていないがジャイロユニ
ット6の角速度が有限値であった場合は、ジャイロユニ
ット6により得られる角速度はドリフト成分であること
になるので、この有限値を0に補正する。このように、
ジャイロユニット6及び人工網膜IC7の欠点を互いの
利点によってカバーしあうことができ、精度の高い姿勢
検出等が可能になる。また、従来のドリフト成分の自律
補正が可能なセンサユニットを構成することが可能にな
る。
By mutually confirming the measurement data of the gyro sensor 6 and the measurement data of the artificial retinal IC 7,
The drift component of the gyro sensor can be corrected. Here, the retinal prosthesis I is generated every unit time (for example, one second).
It is assumed that measurement data representing a motion component obtained by the C7 and the gyro unit 6 is input to the controller 5. In the controller 5, when no motion component is detected by the retinal prosthesis IC7 and the angular velocity of the gyro unit 6 is 0, there is no error in the gyro unit 6, so that both values are set to the initial values. . On the other hand, if no motion component is detected in the artificial retinal IC 7 but the angular velocity of the gyro unit 6 is a finite value, the angular velocity obtained by the gyro unit 6 is a drift component. To be corrected. in this way,
The disadvantages of the gyro unit 6 and the artificial retinal IC 7 can be covered by each other's advantages, and highly accurate posture detection and the like can be performed. Further, it becomes possible to configure a sensor unit capable of autonomous correction of a drift component in the related art.

【0043】上述の聴覚動作によって、例えば被検体の
正面からのずれ量を検出することができる。従って、人
工網膜IC7等によって検出(演算)された被検体の正
面方向を聴覚動作によって補完することができる。ま
た、音源の方向検出の応用として、単位時間における音
源の移動量を音響センサ8で検出してその音源の移動速
度を演算することができ、さらに、音源が固定されてい
る状態で音源の移動成分を検出することでセンサユニッ
トの移動の事実や移動量、移動方向等を検出することが
できる。前述のように、人工網膜IC7では、夜間等で
目標物の動き等を正しく検出することが困難であるが、
人工網膜IC7による計測と同期させて音響センサ8で
音源の移動成分を検出し、その検出結果を人工網膜IC
7による検出動作に反映させることで、人工網膜IC7
による検出精度を高めることができる。
By the above-described auditory operation, for example, the amount of deviation from the front of the subject can be detected. Therefore, the frontal direction of the subject detected (calculated) by the artificial retinal IC 7 or the like can be complemented by the auditory operation. As an application of the direction detection of the sound source, the moving amount of the sound source can be calculated by detecting the moving amount of the sound source per unit time by the acoustic sensor 8, and furthermore, the moving speed of the sound source can be calculated while the sound source is fixed. By detecting the component, the fact of the movement of the sensor unit, the amount of movement, the direction of movement, and the like can be detected. As described above, it is difficult for the retinal prosthesis IC7 to correctly detect the movement of the target at night or the like.
The moving component of the sound source is detected by the acoustic sensor 8 in synchronization with the measurement by the artificial retinal IC 7, and the detection result is used as the artificial retinal IC.
7, the retinal prosthesis IC7
Detection accuracy can be improved.

【0044】ジャイロユニット6、人工網膜IC7、音
響センサ8、D−GPS9からのデータに基づいてそれ
ぞれ共通の物理量を検出することができる。例えば、ジ
ャイロユニット6に含まれる加速度計から被検体の移動
速度及び移動量を検出できるし、人工網膜IC7の動き
成分を積算することでも被検体の移動量や移動速度を検
出することができる。さらに、上述のように音響センサ
8によっても音源又は被検体の移動速度や移動量を検出
することができる。また、D−GPS9によっても速度
を演算することができる。そこで、これらの共通の物理
量を互いに他のセンサのものと比較し、それぞれが一定
の許容範囲に入っていることを確認した上で検出結果と
して外部に出力するような使用形態も可能である。ま
た、予め物理量毎に基準となるセンサを決めておき、こ
の基準となるセンサによる検出結果を優先的に使用する
形態、あるいは優先度の高いセンサからのずれを検出し
て他のセンサの動作の不具合を検出するような形態も可
能である。この点については、被検体の姿勢を表すデー
タについても同様である。
A common physical quantity can be detected based on data from the gyro unit 6, the artificial retinal IC 7, the acoustic sensor 8, and the D-GPS 9. For example, the movement speed and movement amount of the subject can be detected from the accelerometer included in the gyro unit 6, and the movement amount and movement speed of the subject can be detected by integrating the movement components of the retinal prosthesis IC7. Further, as described above, the moving speed and the moving amount of the sound source or the subject can also be detected by the acoustic sensor 8. The speed can also be calculated by the D-GPS9. Therefore, a usage form in which these common physical quantities are compared with those of other sensors, and each of them is confirmed to be within a certain allowable range, and then output to the outside as a detection result is also possible. In addition, a reference sensor is determined in advance for each physical quantity, and a detection result from the reference sensor is used preferentially, or a deviation from a sensor having a higher priority is detected to determine the operation of another sensor. A form in which a defect is detected is also possible. In this regard, the same applies to data representing the posture of the subject.

【0045】さらに、上記のように共通の物理量をもと
に、他のセンサによる検出結果による計測結果の不具合
を予測することができる。例えば、D−GPS9では衛
星情報で位置等を検出するが、電波はビルディング等の
反射によってマルチパス(複数経路)を発生させ、位置
の情報に「飛び」が発生する。具体的には、急に200
m程度位置が飛んだりする。ところが、ジャイロセンサ
6に含まれる加速度データ予想される速度に比べて1秒
間に200mの移動がありえなければ(予測結果が否定
的であった場合)、それが明らかなマルチパスの発生で
あるとして、D−GPS9による計測データを無視す
る。
Further, as described above, based on the common physical quantity, it is possible to predict a defect in the measurement result due to the detection result by another sensor. For example, in D-GPS 9, a position or the like is detected by satellite information, but a radio wave generates a multipath (multiple paths) due to reflection of a building or the like, and a "jump" occurs in the position information. Specifically, suddenly 200
The position flies about m. However, if the acceleration data included in the gyro sensor 6 cannot move 200 m per second compared to the expected speed (if the prediction result is negative), it is assumed that it is a clear occurrence of multipath. , D-GPS9 is ignored.

【0046】このように、本実施形態のセンサユニット
によれば、人間の知覚動作を模擬したセンシングを行
い、各センサ3〜9における利点を統合し、欠点につい
ては、他のセンサでそれを補うようにしたので、従来に
はない高精度のセンシングが可能になる。また、可搬性
の筐体に各センサ3〜9及びコントローラ5を収容した
ので、使用環境に依存しないセンシングが可能になる。
As described above, according to the sensor unit of the present embodiment, sensing simulating human perception is performed, the advantages of the sensors 3 to 9 are integrated, and the disadvantages are compensated for by other sensors. As a result, high-precision sensing that has not been achieved in the past becomes possible. In addition, since the sensors 3 to 9 and the controller 5 are housed in a portable housing, sensing independent of the use environment can be performed.

【0047】[0047]

【実施例】次に、本実施形態のセンサユニットの適用場
面を具体的に説明する。 <自律歩行ロボット>本発明のセンサユニットは、自律
歩行型の二足ロボットの姿勢センサとして適用すること
ができる。図7は、本発明のセンサユニットVをロボッ
トWの頭部に配置した状態を示した図である。センサユ
ニットVはロボットWの目、耳、三半規管として機能さ
せる。つまり、人間の知覚と同様、ロボットW自身の位
置、向いている方向、姿勢、動きを検出する。また、目
標物との間の距離や相対的な動きを出力する。
Next, the application scene of the sensor unit of the present embodiment will be specifically described. <Autonomous walking robot> The sensor unit of the present invention can be applied as a posture sensor of an autonomous walking type biped robot. FIG. 7 is a diagram showing a state where the sensor unit V of the present invention is arranged on the head of the robot W. The sensor unit V functions as the eyes, ears, and semicircular canals of the robot W. That is, similarly to the human perception, the position, the facing direction, the posture, and the movement of the robot W itself are detected. It also outputs the distance to the target and the relative movement.

【0048】ロボットWは、人間と同様の歩行動作を行
うために関節部分にサーボモータが設けられており、各
サーボモータが主制御装置Uによって制御されるように
なっている。
The robot W is provided with servo motors at joints for performing a walking motion similar to that of a human, and each servo motor is controlled by the main controller U.

【0049】主制御装置Uは、センサユニットVからの
検出情報をもとに現在のロボットWの等をセンサユニッ
トVで検出し、これらの検出情報に基づいて、該当する
サーボモータの最適な制御量(目的の姿勢、移動形態を
実現するための制御量)を演算する。例えば、ロボット
Wが水平から5度だけ傾斜していた場合、それを最適な
速度で水平にするような演算を行い、所定のモデリング
カーブに従う制御量を演算する。モデリングカーブは、
例えばロボットWの傾斜を3秒後に水平に戻す際に、そ
のための角速度を直線的にするかとか、最初は早い角速
度にしてその後ゆっくりにするかというような制御のタ
イミングを決定するためのカーブをいう。このモデリン
グカーブは、個々のサーボモータのトルクやロボットW
の制御の場所等によって異なる。
The main controller U detects the current robot W and the like with the sensor unit V based on the detection information from the sensor unit V, and performs the optimal control of the corresponding servomotor based on the detected information. An amount (a control amount for realizing a target posture and a movement mode) is calculated. For example, if the robot W is tilted by 5 degrees from the horizontal, a calculation is performed to level the robot at an optimum speed, and a control amount according to a predetermined modeling curve is calculated. The modeling curve is
For example, when the inclination of the robot W is returned to a horizontal state after 3 seconds, a curve for determining a control timing such as whether to make the angular velocity linear for that, or to increase the angular velocity at first and then slowly is set. Say. This modeling curve shows the torque of each servomotor and the robot W
Depends on the location of the control.

【0050】最適な制御量を演算した後は、モデリング
カーブを所定の制御タイミング(例えば10Hz)で分
割し、該当するサーボモータに駆動電力を出力する。こ
の駆動電力の出力によってロボットWが実際に動いた量
をセンサユニットVで検出してサーボモータの次の制御
量を確認する、という手順を繰り返す。このようにして
ロボット全体の重心を安定させながら自律歩行を実現す
る。
After calculating the optimal control amount, the modeling curve is divided at a predetermined control timing (for example, 10 Hz), and the driving power is output to the corresponding servo motor. The procedure of detecting the amount of movement of the robot W by the sensor unit V based on the output of the drive power and confirming the next control amount of the servo motor is repeated. In this way, autonomous walking is realized while stabilizing the center of gravity of the entire robot.

【0051】なお、センサユニットVのコントローラで
は、次の制御タイミングでの計測結果を予測し、これを
ロボットWの制御装置に伝える。主制御装置U側でも先
に決定した最適制御量から予想される結果を予測するこ
とができるので、両者の差分が許容範囲内であれば、通
常のフィードバック制御を行う。一方、両者の差分が許
容範囲を超える場合は、ロボットWとセンサユニットW
のいずれかに異常があるとして、制御を中止させる。こ
のように、本発明のセンサユニットを適用することによ
り、自律歩行型の二足ロボットを容易に実現できるよう
になる。
The controller of the sensor unit V predicts the measurement result at the next control timing and transmits the result to the control device of the robot W. The main controller U can also predict the expected result from the previously determined optimum control amount, so that the normal feedback control is performed if the difference between the two is within the allowable range. On the other hand, if the difference between the two exceeds the allowable range, the robot W and the sensor unit W
Is determined to be abnormal, control is stopped. Thus, by applying the sensor unit of the present invention, an autonomous walking type biped robot can be easily realized.

【0052】<無人搬送車>本発明のセンサユニット
は、二足ロボットと同様の主制御装置Uをもって自律的
に移動する無人搬送車、例えば過酷な環境や時間での物
体搬送や清掃車等の知覚センサとして利用することもで
きる。この場合の利用形態、例えばコントローラによる
制御形態は、二足ロボットの場合と同様となる。
<Automatic guided vehicle> The sensor unit of the present invention is an automatic guided vehicle that moves autonomously with a main controller U similar to a bipedal robot, such as an object transporting machine in a severe environment or time, or a cleaning vehicle. It can also be used as a sensory sensor. The use form in this case, for example, the control form by the controller is the same as that of the biped robot.

【0053】<飛行体>本発明のセンサユニットは、飛
行体の姿勢検出センサ、例えばラジコンで操作するヘリ
コプタに搭載され、そのヘリコプタの高度や姿勢等を検
出するためのセンサとして利用することができる。例え
ば、図8(a)〜(d)の右側に示される円内の目印の
図形を着地点に記しておき、この図形の変化を検出する
ことで、ヘリコプタの高度や姿勢等を認識することがで
きる。この場合、ヘリコプタの動きを表す動きベクトル
は、ヘリコプタ自体の移動によるものであり、着地点の
図形自体は動かないので、ベクトル演算のみによって検
出結果を得ることができる。
<Flying Object> The sensor unit of the present invention is mounted on a flying object attitude detection sensor, for example, a helicopter operated by a radio control, and can be used as a sensor for detecting the altitude, attitude, and the like of the helicopter. . For example, a figure of a mark in a circle shown on the right side of FIGS. 8A to 8D is described at a landing point, and a change in the figure is detected to recognize the altitude and attitude of the helicopter. Can be. In this case, the motion vector representing the movement of the helicopter is due to the movement of the helicopter itself, and the figure at the landing point does not move, so that the detection result can be obtained only by the vector calculation.

【0054】なお、ヘリコプタに二足ロボットにおける
主制御装置Uの如きものが搭載されている場合は、外部
指示に応じて自律的に自己の姿勢を修正できるようにな
る。また、ヘリコプタでは、風、燃料消費による自重の
変化等、種々の外乱が発生するが、これらの外乱を本発
明のセンサユニットで検出して、その結果を飛行制御に
反映させることも可能である。
When the helicopter is equipped with a device such as the main control unit U of a bipedal robot, it is possible to autonomously correct its own posture in response to an external instruction. Further, in the helicopter, various disturbances such as a change in own weight due to wind and fuel consumption occur, and these disturbances can be detected by the sensor unit of the present invention, and the results can be reflected in flight control. .

【0055】<車両>本発明のセンサユニットは、車両
に搭載して各種センサとして利用することもできる。例
えば、コントローラ5による予測動作を利用して運転中
における障害物及び危険物の認知や子供の飛び出しなど
の危険回避等に利用することができる。すなわち、予測
される検出結果と実際の検出結果とを常時比較し、運転
中のある時期における実際の検出結果が予測される検出
結果と合致しなかった場合(否定的であった場合)、車
両の近傍に障害物が存在すると認識することができる。
また、D−GPS9で検出された自己の速度が4Km/
hのときに、人工網膜IC7で検出された速度がスター
ト直後の速度であった場合、D−GPS9の検出結果を
当該車両の初速として認識するが、このとき、横方向に
10km/hの変位が認識され、且つジャイロユニット
6で角速度が検出されていなければ、それは予期しない
物体の動作、つまり急に飛び出した物体があると認識さ
れ、車両の停止動作を促すことが可能になる。
<Vehicle> The sensor unit of the present invention can be mounted on a vehicle and used as various sensors. For example, the prediction operation by the controller 5 can be used to recognize obstacles and dangerous objects during driving and to avoid danger such as jumping out of a child. That is, the predicted detection result is always compared with the actual detection result, and if the actual detection result at a certain time during driving does not match the predicted detection result (if negative), the vehicle It can be recognized that an obstacle exists in the vicinity of.
Also, the speed of the self detected by the D-GPS 9 is 4 km / km.
At time h, if the speed detected by the artificial retinal IC 7 is the speed immediately after the start, the detection result of the D-GPS 9 is recognized as the initial speed of the vehicle. If the angular velocity is recognized and the angular velocity is not detected by the gyro unit 6, it is recognized that an unexpected operation of the object, that is, an object that suddenly jumps out, is provided, and it is possible to prompt the stopping operation of the vehicle.

【0056】センサユニットは、車間距離計として利用
することもできる。すなわち、先行車両までの視野角を
人工網膜IC7で求め、この視野角から先行車両までの
距離を演算することができる。路面上で断続的なパター
ンが続くセンターラインの映像を映すことにより、セン
サユニットを速度計として使用することができる。すな
わち、人工網膜IC7からセンターラインまでの視野角
を求め、さらに、センターラインのリズミカルなパター
ンの変化を人工網膜IC7で動きベクトルとして検出す
ることで、当該センサユニットを搭載した車両の速度を
演算することができる。
The sensor unit can also be used as an inter-vehicle distance meter. That is, the viewing angle to the preceding vehicle is obtained by the artificial retinal IC 7 and the distance to the preceding vehicle can be calculated from this viewing angle. The sensor unit can be used as a speedometer by displaying an image of a center line on which an intermittent pattern continues on a road surface. That is, the viewing angle from the artificial retinal IC 7 to the center line is obtained, and the change in the rhythmic pattern of the center line is detected as a motion vector by the artificial retinal IC 7 to calculate the speed of the vehicle equipped with the sensor unit. be able to.

【0057】[0057]

【発明の効果】以上の説明から明らかなように、本発明
のセンサユニットによれば、複数のセンサの検出結果を
補完させてセンサの利点同士を活かし、欠点については
他のセンサの利点で補うようにしたので、検出精度を高
く維持できるようになる。また、ジャイロセンサを含む
場合に、そのドリフト成分を他のセンサの検出結果をも
とに自律的に補正するようにしたので、使用環境を問わ
ないセンシングが可能になる。さらに、時々刻々センス
されるデータのみならず、空間的、時間的に統合された
データに基づく検出結果が得られるため、人間の知覚動
作に近い検出結果が正確に得られるようになり、従来の
センサ乃至センサユニットでは不可能であった用途に広
く応用することが可能になる。
As is clear from the above description, according to the sensor unit of the present invention, the detection results of a plurality of sensors are complemented to utilize the advantages of the sensors, and the disadvantages are compensated for by the advantages of other sensors. As a result, the detection accuracy can be maintained at a high level. Further, when a gyro sensor is included, the drift component is autonomously corrected based on the detection result of another sensor, so that sensing regardless of the use environment becomes possible. Furthermore, since the detection result based not only on the data sensed from time to time but also on the spatially and temporally integrated data is obtained, the detection result close to the human perceptual operation can be obtained accurately. It can be widely applied to applications that were not possible with sensors or sensor units.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)は、人間の知覚動作を示した説明図、
(b)は、本発明のセンサユニットの構成図。
FIG. 1A is an explanatory diagram showing a human perception operation,
(B) is a block diagram of the sensor unit of the present invention.

【図2】人工網膜ICにおける動作ベクトルの抽出手順
を示した図。
FIG. 2 is a diagram showing a procedure of extracting a motion vector in an artificial retinal IC.

【図3】(a)〜(c)は人工網膜ICにおける動作ベ
クトルの抽出概要を示した図。
FIGS. 3A to 3C are diagrams showing an outline of extraction of a motion vector in an artificial retinal IC.

【図4】人工網膜ICにおける動きの主体を区別するた
めの説明図であり,(a)は人工網膜IC自身が目標物
に向かって前進している場合の映像例、(b)は、人工
網膜ICは移動せず、目標物が図中央から左側に動く場
合の例である。
FIGS. 4A and 4B are explanatory diagrams for distinguishing subjects of movement in the artificial retinal IC. FIG. 4A is an image example when the artificial retinal IC itself is moving toward a target, and FIG. This is an example in which the retinal IC does not move and the target moves from the center of the figure to the left.

【図5】人工網膜ICにおける動きの補正概要を示すた
めの説明図であり、(a)は目標物だけが移動する場
合、(b)は、人工網膜ICと目標物とが共に移動する
場合、(c)は補正後の動き量を示した図である。
FIGS. 5A and 5B are explanatory diagrams showing an outline of correction of movement in the retinal prosthesis. FIG. 5A shows a case where only a target moves, and FIG. , (C) is a diagram showing the motion amount after correction.

【図6】ジャイロユニットと人工網膜ICセンサの相互
補完の処理手順を示した図。
FIG. 6 is a diagram showing a processing procedure of mutual complementation between the gyro unit and the artificial retinal IC sensor.

【図7】本発明を自律歩行ロボットに適用した場合の概
念図。
FIG. 7 is a conceptual diagram when the present invention is applied to an autonomous walking robot.

【図8】(a)〜(d)は、本発明をヘリコプタヘリへ
応用した場合の処理概要を示した図である。
FIGS. 8A to 8D are diagrams showing an outline of processing when the present invention is applied to a helicopter helicopter.

【符号の説明】[Explanation of symbols]

5 コントローラ 6 ジャイロユニット 7 人工網膜ICセンサ 8 音響センサ 9D‐GPS 5 Controller 6 Gyro unit 7 Artificial retina IC sensor 8 Acoustic sensor 9D-GPS

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 G06F 15/62 380 5L096 7/20 15/70 410 Fターム(参考) 2F029 AA02 AA05 AA07 AA08 AB03 AB05 AB07 AC01 AC04 AC09 AC12 AC16 AC20 2F065 AA04 AA22 AA45 DD03 JJ03 JJ16 JJ23 JJ26 QQ04 QQ14 QQ24 QQ32 2F105 AA02 AA03 AA06 AA10 BB17 BB20 5B057 AA05 BA02 BA04 DA07 DB02 DC16 DC32 DC36 5J062 AA01 CC07 EE04 GG02 5L096 BA05 DA02 FA06 FA69 GA08 HA04 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 G06F 15/62 380 5L096 7/20 15/70 410 F term (Reference) 2F029 AA02 AA05 AA07 AA08 AB03 AB05 AB07 AC01 AC04 AC09 AC12 AC16 AC20 2F065 AA04 AA22 AA45 DD03 JJ03 JJ16 JJ23 JJ26 QQ04 QQ14 QQ24 QQ32 2F105 AA02 AA03 AA06 AA10 BB17 BB20 5B057 AA05 BA02 BA04 DA07 DB02 DC06 DC07 DC02 DC07 DC02

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 自己の姿勢及び動きを検出する第1セン
サ、自己の視野にある物体の相対姿勢及びその動きを検
出する第2センサ、自己の周辺に存する音源の存在を検
出する第3センサのうち少なくとも二つのセンサと、
これらのセンサの動作を制御するコントローラとを所定
の筐体に収容して成り、 前記コントローラが、 各センサによる検出結果を実時間で受け入れ、これらの
検出結果を所定のメモリ領域上に形成された情報空間内
に更新自在に記録し、この記録された検出結果をもとに
前記筐体の周辺で発生する事象を表す情報を導出するよ
うに構成されている、 センサユニット。
1. A first sensor for detecting a posture and a movement of a self, a second sensor for detecting a relative posture and a movement of an object in a field of view of a self, and a third sensor for detecting the presence of a sound source existing around the self. At least two sensors,
A controller for controlling the operation of these sensors is housed in a predetermined casing, and the controller receives detection results of each sensor in real time, and forms these detection results on a predetermined memory area. A sensor unit configured to be renewably recorded in an information space, and to derive information representing an event occurring around the housing based on the recorded detection result.
【請求項2】 前記コントローラは、各センサから出力
されるデータを相互に補完することにより各センサに共
通する一つの物理量を導出するように構成されているこ
とを特徴とする、 請求項1記載のセンサユニット。
2. The controller according to claim 1, wherein the controller is configured to derive one physical quantity common to each sensor by mutually complementing data output from each sensor. Sensor unit.
【請求項3】 前記第1センサ及び第2センサを有し、
前記コントローラが、第1センサからの出力データに基
づいて第2センサの出力データを予測し、予測結果が肯
定的である場合に、予測されたデータをもとに第1セン
サによる誤差成分を自律的に補正するものである、 請求項1記載のセンサユニット。
3. It has the first sensor and the second sensor,
The controller predicts output data of the second sensor based on output data from the first sensor, and when the prediction result is positive, autonomously calculates an error component by the first sensor based on the predicted data. The sensor unit according to claim 1, wherein the correction is performed dynamically.
【請求項4】 前記第1センサ及び第2センサを有し、
第1センサは前記筐体上に形成される複数次元の軸線回
りの角速度を計測する複数のジャイロセンサを含むもの
であり、第2センサは入力画像から画像輪郭を抽出して
その画像輪郭の動き成分を演算によって導出する手段を
有するものであり、 前記コントローラは、第1センサからの出力データのう
ち第1周波数帯のデータと、第2センサからの出力デー
タのうち第1周波数帯とは異なる第2周波数帯のデータ
とを統合するように構成されている、 請求項1記載のセンサユニット。
4. It has the first sensor and the second sensor,
The first sensor includes a plurality of gyro sensors for measuring angular velocities around a multi-dimensional axis formed on the housing, and the second sensor extracts an image outline from an input image and moves the image outline. Means for deriving a component by an operation, wherein the controller is different from the first frequency band data of the output data from the first sensor and the first frequency band of the output data from the second sensor. The sensor unit according to claim 1, wherein the sensor unit is configured to integrate data with a second frequency band.
【請求項5】 第2センサが、目標物を映し出す手段
と、前記目標物の画像輪郭を抽出してその画像輪郭の動
き成分を演算によって導出する手段とを1チップ化した
人工網膜ICである、 請求項1記載のセンサユニット。
5. An artificial retinal IC in which the second sensor is a one-chip integrated means for projecting a target, and means for extracting an image contour of the target and calculating a motion component of the image contour by calculation. The sensor unit according to claim 1.
【請求項6】 第3センサが、音信号の強度を計測する
1又は複数の指向性マイクを含む音響センサであり、同
一の音源からの音信号の強度を異なる角度から計測する
ことで自己に対する当該音源の方向を検出するものであ
る、 請求項1記載のセンサユニット。
6. The third sensor is an acoustic sensor including one or a plurality of directional microphones for measuring the intensity of a sound signal, and measures the intensity of a sound signal from the same sound source from different angles to thereby determine its own The sensor unit according to claim 1, wherein the direction of the sound source is detected.
【請求項7】 絶対位置を検出するGPSセンサと絶対
方位を検出する方位センサの少なくとも一方を前記筐体
にさらに収容して成り、 前記コントローラが、これらのセンサにより検出された
情報を考慮して当該筐体の現在位置を導出するように構
成されている、 請求項1項記載のセンサユニット。
7. A housing further comprising at least one of a GPS sensor for detecting an absolute position and an azimuth sensor for detecting an absolute azimuth, wherein the controller considers information detected by these sensors. The sensor unit according to claim 1, wherein the sensor unit is configured to derive a current position of the housing.
【請求項8】 前記筐体が可搬性のものであり、各セン
サ及びコントローラが携帯性電源によって駆動されるも
のである、 請求項1乃至7のいずれかの項記載のセンサユニット。
8. The sensor unit according to claim 1, wherein the housing is portable, and each of the sensors and the controller is driven by a portable power supply.
【請求項9】 センシング対象となる被検体に取り付け
られ、 前記被検体の姿勢及び動きを検出する第1センサと、 前記被検体から見た物体の相対姿勢及びその動きを検出
する第2センサと、 各センサの動作を制御するコントローラとを有し、 該コントローラが、各センサによる検出結果を実時間で
受け入れ、これらの検出結果を所定のメモリ領域上に形
成された情報空間内に更新自在に記録し、この記録され
た検出結果を相互に補完するとともに補完後の検出結果
をもとに前記被検体の周辺で発生する事象を表す情報を
導出するように構成されている、 センサユニット。
9. A first sensor attached to a subject to be sensed and detecting a posture and a movement of the subject, and a second sensor detecting a relative posture and a movement of the object viewed from the subject. A controller that controls the operation of each sensor, the controller accepts the detection results of each sensor in real time, and updates these detection results in an information space formed on a predetermined memory area. A sensor unit configured to record, mutually complement the recorded detection results, and derive information representing an event occurring around the subject based on the detection results after the complementation.
【請求項10】 前記被検体が自己の動作姿勢又は動き
を制御する主制御手段を有するものであり、前記コント
ローラで導出した情報を前記主制御手段に伝えるように
構成されている、 請求項9記載のセンサユニット。
10. The apparatus according to claim 9, wherein the subject has main control means for controlling its own operating posture or movement, and is configured to transmit information derived by the controller to the main control means. The sensor unit as described.
【請求項11】 前記コントローラが、各センサから実
時間で出力されるデータに基づいて次に検出されるデー
タの範囲を常時予測し、予測結果に応じて異なる情報を
生成するように構成されている、 請求項9又は10記載のセンサユニット。
11. The controller according to claim 1, wherein the controller constantly predicts a range of data to be detected next based on data output from each sensor in real time, and generates different information according to a prediction result. The sensor unit according to claim 9.
【請求項12】 前記被検体の周辺の音源の存在を検出
する第3センサ、前記被検体の絶対位置を検出する第4
センサ、基準方位に対する前記被検体の方位を検出する
第5センサの少なくとも一つをさらに有し、前記コント
ローラが、第3、第4又は第5のセンサから出力される
データを前記事象を表す情報に反映させるように構成さ
れている、 請求項9、10又は11記載のセンサユニット。
12. A third sensor for detecting the presence of a sound source around the subject, and a fourth sensor for detecting an absolute position of the subject.
A sensor, at least one of a fifth sensor for detecting an orientation of the subject with respect to a reference orientation, wherein the controller represents data output from a third, fourth, or fifth sensor to indicate the event The sensor unit according to claim 9, wherein the sensor unit is configured to be reflected on information.
JP26420699A 1999-09-17 1999-09-17 Sensor unit Expired - Lifetime JP4425383B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP26420699A JP4425383B2 (en) 1999-09-17 1999-09-17 Sensor unit
TW90106090A TW479132B (en) 1999-09-17 2001-03-15 Method, system and apparatus for operating and controlling a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26420699A JP4425383B2 (en) 1999-09-17 1999-09-17 Sensor unit

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008243239A Division JP4782816B2 (en) 2008-09-22 2008-09-22 Sensor unit

Publications (2)

Publication Number Publication Date
JP2001091289A true JP2001091289A (en) 2001-04-06
JP4425383B2 JP4425383B2 (en) 2010-03-03

Family

ID=17399970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26420699A Expired - Lifetime JP4425383B2 (en) 1999-09-17 1999-09-17 Sensor unit

Country Status (1)

Country Link
JP (1) JP4425383B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004092934A1 (en) * 2003-04-17 2004-10-28 Matsushita Electric Industrial Co., Ltd. Start time reduction device and electronic device
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device
JP2010145219A (en) * 2008-12-18 2010-07-01 Toyota Central R&D Labs Inc Movement estimation device and program
JP2015010911A (en) * 2013-06-28 2015-01-19 公益財団法人鉄道総合技術研究所 Airborne survey method and device

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63124114A (en) * 1986-11-14 1988-05-27 Hitachi Ltd Recognizing device for environment of traveling object
JPH01214774A (en) * 1988-02-23 1989-08-29 Toshiba Corp Control apparatus for power-transmission-line monitoring robot
JPH07123311A (en) * 1993-10-21 1995-05-12 Canon Inc Image pickup device
JPH08249472A (en) * 1995-03-15 1996-09-27 Toshiba Corp Method and device for detecting moving object
JPH09229697A (en) * 1996-02-20 1997-09-05 Mitsubishi Electric Corp Self-position orienting apparatus
JPH1093954A (en) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd Object detection method/system
JPH10320687A (en) * 1997-04-18 1998-12-04 Samsung Electron Co Ltd Device and method for deciding vehicle kind
JPH10340349A (en) * 1997-06-10 1998-12-22 Mitsubishi Electric Corp Image processor
JPH1120546A (en) * 1997-07-07 1999-01-26 Yazaki Corp Readward/sideway monitering method for vehicle and device thereof
JPH1130626A (en) * 1997-07-09 1999-02-02 Nippon Telegr & Teleph Corp <Ntt> Flow velocity estimating device
JPH1196375A (en) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for measuring time series image moving place and recording medium recorded with time series image moving place measuring program
JPH1199140A (en) * 1997-09-26 1999-04-13 Toshiba Corp Device for detecting sleeping condition abnormality
JPH11143849A (en) * 1997-11-11 1999-05-28 Omron Corp Action generation device, action generation method and action generation program recording medium
JPH11238138A (en) * 1997-08-22 1999-08-31 Fujitsu Ltd Area extraction device, area extraction method and recording medium stored with program realizable by computer
JPH11248455A (en) * 1998-02-27 1999-09-17 Data Tec:Kk Method for detecting moving speed and device therefor and device for detecting slip angle of vehicle

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63124114A (en) * 1986-11-14 1988-05-27 Hitachi Ltd Recognizing device for environment of traveling object
JPH01214774A (en) * 1988-02-23 1989-08-29 Toshiba Corp Control apparatus for power-transmission-line monitoring robot
JPH07123311A (en) * 1993-10-21 1995-05-12 Canon Inc Image pickup device
JPH08249472A (en) * 1995-03-15 1996-09-27 Toshiba Corp Method and device for detecting moving object
JPH09229697A (en) * 1996-02-20 1997-09-05 Mitsubishi Electric Corp Self-position orienting apparatus
JPH1093954A (en) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd Object detection method/system
JPH10320687A (en) * 1997-04-18 1998-12-04 Samsung Electron Co Ltd Device and method for deciding vehicle kind
JPH10340349A (en) * 1997-06-10 1998-12-22 Mitsubishi Electric Corp Image processor
JPH1120546A (en) * 1997-07-07 1999-01-26 Yazaki Corp Readward/sideway monitering method for vehicle and device thereof
JPH1130626A (en) * 1997-07-09 1999-02-02 Nippon Telegr & Teleph Corp <Ntt> Flow velocity estimating device
JPH11238138A (en) * 1997-08-22 1999-08-31 Fujitsu Ltd Area extraction device, area extraction method and recording medium stored with program realizable by computer
JPH1196375A (en) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for measuring time series image moving place and recording medium recorded with time series image moving place measuring program
JPH1199140A (en) * 1997-09-26 1999-04-13 Toshiba Corp Device for detecting sleeping condition abnormality
JPH11143849A (en) * 1997-11-11 1999-05-28 Omron Corp Action generation device, action generation method and action generation program recording medium
JPH11248455A (en) * 1998-02-27 1999-09-17 Data Tec:Kk Method for detecting moving speed and device therefor and device for detecting slip angle of vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004092934A1 (en) * 2003-04-17 2004-10-28 Matsushita Electric Industrial Co., Ltd. Start time reduction device and electronic device
US7257702B2 (en) 2003-04-17 2007-08-14 Matsushita Electric Industrial Co., Ltd. Boot time reducing device including boot preparation instructing unit
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device
JP2010145219A (en) * 2008-12-18 2010-07-01 Toyota Central R&D Labs Inc Movement estimation device and program
JP2015010911A (en) * 2013-06-28 2015-01-19 公益財団法人鉄道総合技術研究所 Airborne survey method and device

Also Published As

Publication number Publication date
JP4425383B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
EP1586423B1 (en) Robot control device, robot control method, and robot control program
US7395181B2 (en) Motion tracking system
CN106682572B (en) Target tracking method and system and first electronic device
EP2972462B1 (en) Digital tethering for tracking with autonomous aerial robot
JP2021513714A (en) Aircraft smart landing
CN106197429A (en) A kind of Multi-information acquisition location equipment and system
CN110360996B (en) Sensor unit, moving object positioning device, and moving object
WO2016031105A1 (en) Information-processing device, information processing method, and program
EP2612163A2 (en) System and method for tracking
CN109059929B (en) Navigation method, navigation device, wearable device and storage medium
WO2018077307A1 (en) Movement control method and apparatus, and computer storage medium
JP4782816B2 (en) Sensor unit
KR102267840B1 (en) Drone Monitoring System
US11914762B2 (en) Controller position tracking using inertial measurement units and machine learning
CN109223346A (en) A kind of the blind person&#39;s wheelchair and its control method of voice control navigation
US20210023438A1 (en) Thermopile Array Fusion Tracking
JP6418342B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
JP4425383B2 (en) Sensor unit
Efraim et al. Vision based output feedback control of micro aerial vehicles in indoor environments
CN107168362A (en) A kind of monitoring method, system and flying robot
JP6418341B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
CN107567605B (en) Improved method for correcting trajectories in a personal mobility assistance device equipped with a sensor
CN110448312A (en) Data processing equipment, wakes up system, data processing method at monitoring system
CN110216675B (en) Control method and device of intelligent robot, intelligent robot and computer equipment
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4425383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151218

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term