JP2854805B2 - 物体認識方法および視覚装置 - Google Patents
物体認識方法および視覚装置Info
- Publication number
- JP2854805B2 JP2854805B2 JP6133332A JP13333294A JP2854805B2 JP 2854805 B2 JP2854805 B2 JP 2854805B2 JP 6133332 A JP6133332 A JP 6133332A JP 13333294 A JP13333294 A JP 13333294A JP 2854805 B2 JP2854805 B2 JP 2854805B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- distance measuring
- data
- width
- object data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
Description
間の状況を認識するための視覚技術に関し、人間の振舞
に反応するコンピュータシステムなどに利用される。
ザー層が拡がり日常生活にまで浸透するにつれて、使い
やすく親しみやすいことが重要な要素となってきた。視
覚技術は、コンピュータと人間とのコミュニケーション
に欠かせない情報入力技術であり、人間と同様の知覚機
能の実現を目指して、その実用性の向上が進められてい
る。
ては、TVカメラが広く用いられている。TVカメラに
よる場合は、複雑な形状を認識することができるもの
の、画面から必要な情報を抽出する画像処理に長時間を
要する。また、例えば特開昭62−135086号公報
に開示されているように、異なる時刻の画像情報を比較
して被写体(物体)の静動を検出することは可能である
が、物体の形状が不特定である場合は、物体の移動(例
えば接近)と物体の大きさの変化(例えば拡大)とを画
像処理により区別するのは極めて困難である。
目標物の検出に、対象物までの距離を計る測距器が用い
られている。測距器には、超音波や光を発射してから物
体で反射して戻るまでの時間を計る飛行時間測定式のも
の、及び赤外光やレーザー光の投光方向と受光方向との
ズレを計る三角測量式のものがある。
(視野)を拡げるために、測距器自体や測距ビームのス
キャン(特開昭62−108106号公報)、又は測距
器の多点配置が行われる。なお、測距ビームのスキャン
に関しては、特開昭59−129809号公報に、カメ
ラのオートフォーカシングに際して赤外線ビームのスキ
ャンによって被写体までの最短距離を検出する技術が開
示されている。
して、特開平5−288528号公報には、視点からみ
た立体空間の多数方向の測距データをそれらの値の大小
によってグループ化し、視野内に存在する個々の物体を
識別して物体毎の位置情報を得るデータ処理手法が開示
されている。
器を用いて適当な方向の対物間距離を測定することによ
り、特定空間における物体の有無、物体の大きさ、及び
物体と視点との相対位置を認識する技術は実用化されて
いる。
従来の視覚装置では、特に視界の奥行き方向(遠近方
向)における物体の移動状況、つまり、視点に対して物
体が近づいているとか、逆に遠ざかっているといった動
止状態を認識することができなかった。なお、ここでの
物体は、人間及び他の動物を含む有形体を意味する。
ば立ち入り禁止区域の監視を行う場合には、単に人間ら
しき大きさの物体が進入したか否かを識別するだけでな
く、進入後の行動パターンに応じた最良の対処を選択実
行することができる。また、オペレータの姿勢の変化に
応じてコンピュータが何らかのリアクションを行うとい
った、ヒューマン性に富んだコンピュータシステム環境
の実現が可能になる。
ので、視点からみた遠近方向における物体の動止状態を
容易且つ確実に識別することを目的としている。また、
人間に代表される動物の立ち居振舞の認識に好適な情報
入力手段を提供することをも目的としている。
体認識方法は、測距器を用いて当該測距器から対象領域
内へ放射状に拡がる複数の方向における対物間距離を測
定し、測定された対物間距離に基づいて対象領域内の物
体の前記測距器に対する対向角度を算出し、算出された
対向角度を物体データとしてメモリに格納する一連の処
理を繰り返し、n回目の物体データと〔n−1〕回目の
物体データとを比較することによって、前記物体の姿勢
変化の有無を判別するものである。
回目の物体データと〔n−1〕回目の物体データとを比
較して対向角度の差を算出し、算出された対向角度の差
が一定値より大きいときに、物体の姿勢が変化したこと
を認識するものである。
数の方向のそれぞれについて測定された対物間距離を比
較し、当該対物間距離が同一の物体に対応するか否かを
判別するものである。
定された対物間距離に基づいて対象領域内の物体の幅を
算出し、算出された幅を前記対向角度とともに物体デー
タとしてメモリに格納し、n回目の物体データの幅と
〔n−1〕回目の物体データの幅とを比較することによ
って、これらの物体データが同一の物体に対応するか否
かを判定するものである。
は、複数の測距方向の対物間距離に応じた信号を出力す
る測距器20,20Bと、前記測距器20,20Bの出
力する信号を周期的にサンプリングする手段と、サンプ
リングされた前記各測距方向の距離データから対象領域
内の物体の両端に対応した距離データを抽出し、前記物
体の幅Wを算出する手段と、前記物体の両端に対応した
測距方向及び距離データに基づいて、前記測距器20,
20Bに対する前記物体の対向角度θを算出する手段
と、前記物体の中央位置と幅Wと対向角度θとを示す物
体データを生成する手段と、前記物体データを記憶する
メモリ253と、n回目の物体データと〔n−1〕回目
の物体データとを比較し、それらの示す前記幅Wがほぼ
等しく且つ前記中央位置及び対向角度θの少なくとも一
方の差が一定値を越えるときに、対象領域内の物体の動
止状態を示す状態判別信号SJを出力する手段とを備え
る。
測距器20が放射状に配置された複数の光学測距センサ
ー211から構成される。請求項7の発明に係る視覚装
置2Bは、前記測距器20Bが、光学測距センサー21
1と、測距光の光路を偏向するためのスキャン機構23
0とから構成される。
態判別信号SJを出力する前記視覚装置2,2Bと、前
記状態判別信号SJに応じて予め定められた表示を行う
表示装置3,3Bとを備える。
方向前方の物体(厳密には測距媒体の反射位置)までの
対物間距離に応じた信号を出力する。
ータの平均値など、物体の奥行き方向の位置を示す物体
データを記憶しておき、測定時刻の異なる時系列の物体
データを比較することにより、移動の有無及び移動方向
を物体の動止状態として判別することができる。
る可能性がある場合には、物体データの比較に際して、
それら物体データに対応する物体の同一性を確認する必
要がある。
離を測定し、個々の物体の両端を検出して各物体の幅W
を算出しておき、前回の測定時と今回の測定時とで幅W
に変わりが有るか否かを調べることによって行われる。
方向との交差角度である対向角度θを算出し、それを物
体データの一部として記憶しておけば、測距器20,2
0Bに対する物体の姿勢変化の有無をも動止状態として
判別することができる。例えば、物体が人体である場合
は、人の左右の向きが測距器を目視していると推定でき
る真正面の向き(正対状態であって対向角度は0)であ
るか否かが判る。
能構成を示すブロック図、図2は物体認識システム1の
外観図である。
(立ち居振舞)に応じた状態識別信号SJを出力する視
覚装置2と、状態識別信号SJに呼応して予め定められ
た表示を行う表示装置3とから構成されており、例えば
来客への挨拶や案内を行う自動接客システムなどとして
利用される。
(以下「PC」という)30と、カラー画面表示機能及
び音声出力機能を備えたCRTディスプレイ35とから
なる。物体認識システム1では、図2のようにCRTデ
ィスプレイ35の上面の中央部に視覚装置2が配置さ
れ、CRTディスプレイ35の前面側の人物の動止状態
が視覚装置2により識別される。そして、動止状態の識
別された人物に対して、必要に応じてCRTディスプレ
イ35によりメッセージが伝えられる。
出力する測距器20、測距器20の駆動制御と測距デー
タの処理とを担うMPU(microprocesso
rutit)25、及びPC30へ状態識別信号SJを
送出するためのインタフェース28からなる。
U251、予めプログラムや演算用データが格納された
ROM252、測距結果に対応した物体データの一時記
憶などに使用されるRAM253、及びI/Oポート2
54,255から構成されている。I/Oポート254
は、測距器20の出力するアナログ信号を量子化するA
D変換器を含んでいる。
距系210、及び、光学測距系210の投光用ドライバ
回路と受光信号処理回路とを有した電気回路ボード22
0から構成されている。
理を示す図である。測距器20の光学測距系210は、
図3(A)のように、仮想の視点Pを中心に放射状に配
置された3つの光学測距センサー211から構成されて
いる。中央の光学測距センサー211の測距方向M2
と、両端の光学測距センサー211の測距方向M1,M
3との間の角度は15°である。すなわち、測距器20
による測距の対象領域(視野)は、中心角が30°の扇
形の2次元空間領域である。
のように、赤外線LED212、位置検知形検出器(P
SD)213、投光用レンズ214、及び受光用レンズ
215からなる。この種のセンサーでは、周知のように
PSD213の受光面上での集光位置が対物間距離(つ
まり赤外光の反射位置)によって変化することを利用し
て、対物間距離が電気信号に変換される。なお、投光用
発光素子として半導体レーザーを用いたセンサー、受光
素子としてCCDアレイを用いたセンサー、及びアパー
チャにより受光ビームを規制する方式のセンサーなど
を、光学測距センサー211に代えて用いることもでき
る。
合を例に挙げて、物体認識システム1の動作を説明す
る。図4は物体認識システム1の使用例を示す模式図で
ある。
口が約120cmの入口ENを有した部屋内の入口EN
の真正面の位置に配置されており、物体認識システム1
と入口ENとの最短距離は2mとされている。したがっ
て、入口ENから部屋に入った入室者(来客)は、直ち
にCRTディスプレイ35を見つけることができる。
又は断続的に赤外光を発して各方向M1,M2,M3の
対物間距離L1,L2,L3に応じた光電変換信号を出
力する。ただし、測距器20の有効測定距離の最大値は
2.5m程度であり、2.5m以内に物体が無い場合
は、無限遠を示す信号を出力する。
L3は測距器20とその前方の物体との間の距離である
が、以下の説明では視点P(図3参照)と物体との間の
距離とする。なお、光学測距センサー211の配置位置
と視点Pとの距離は一定であるので、その距離に応じて
適当なオフセットを設けるなどして光学測距センサー2
11の出力を増幅すれば、視点Pと物体との距離を示す
測距信号を容易に得ることができる。
すフローチャートである。MPU25は、測距器20の
3つの光学測距センサー211の各出力を同時に又は短
い周期で順にサンプルホールドして量子化し、ほぼ同一
時刻における各測距方向M1〜3の対物間距離L1,L
2,L3を測定する(#10)。なお、このサンプリン
グは、例えば100msの周期で繰り返し行われ、各回
のサンプリング毎に以下の処理が実行される。
て、MPU25は、入室者の人数を識別するための処理
として、測距方向が隣り合い且つ互いの差が一定値以下
である近似した対物間距離L1,L2,L3を、同一の
入室者に対応した測定データにまとめるグループ化処理
を行う(#20)。例えば、対物間距離L1と対物間距
離L2とが近似し、さらに対物間距離L1と対物間距離
L3とが近似すれば、対物間距離L1,L2,L3は1
つのグループに属し、同一人物に対応することになる。
本実施例では、このようなグループ化における判断基準
値は、胴の幅の上限値の40cmである。つまり、人間
以外の物体の入室がないと仮定した場合、測定した各方
向の対物間距離の間に40cmを越える差があれば、た
とえ横向きの姿勢で入室したとしても一人の入室者の奥
行き寸法としては大き過ぎるので、入室者の斜め後ろに
他の入室者が居ると考えられる。なお、グループ化によ
り、入室者の両端位置が特定される。
毎に人体の中央に対応する中心方位を求める(#3
0)。このとき、測距方向M2が基準方向(すなわち方
位は0°)とされ、測距方向M1の方位は−15°とさ
れ、測距方向M3の方位は15°とされる。したがっ
て、例えば3方向の対物間距離L1,L2,L3が属す
るグループの中心方位は0°であり、対物間距離L1,
L2が属するグループの中心方位は−7.5°であり、
対物間距離L3のみが属するグループの中心方位は15
°である。
間距離が対応するグループについて、測距方向と直交す
る方向と人体の両端を結ぶ幅方向との交差角度である対
向角度θを算出する(#40,50)。対向角度θは、
CRTディスプレイ35に対する入室者の体の向きを示
すものである。入室者の位置がCRTディスプレイ35
の真正面であるか斜め前方であるかに係わらず、CRT
ディスプレイ35からみた入室者の方向と入室者の前後
方向とが一致した状態では、対向角度θは0°である。
を示す模式図である。中心方位における対物間距離をL
c、視点Pからみた入室者の左端の対物間距離をLs、
両端の方位と中心方位との間の方位角をαとすると、対
向角度θは(1)式によって表される。ただし、対向角
度θの演算に際しては、左端の対物間距離Lsと右端の
対物間距離Ls’との平均値を求め、その平均値が中心
方位における対物間距離Lcとして用いられる。
距離Ls,Ls’の大小関係により定まる。すなわち、
視点Pからみて入室者の右端が左端より近い場合(図6
の場合)には、入室者の前方正面は、入室者からみて視
点Pの右側(視点Pからみて左側)である。この場合の
入室者の姿勢を、本明細書では視点Pを基準に考えて
「左向き姿勢」という。左向き姿勢では、対向角度θは
正の値となる。
左端より遠い場合には、入室者の前方正面は、入室者か
らみて視点Pの左側(視点Pからみて右側)である。こ
の場合の入室者の姿勢を「右向き姿勢」という。右向き
姿勢では、対向角度θは負の値となる。
央方位及びその対物間距離)、及び対向角度θを示すデ
ータを、n回目の物体データとして入室者毎にRAM2
53に格納する〔図5(#60)〕。その際、対向角度
θが不明の場合は、その旨を示すパラメータを組み込ん
だ物体データを生成する。
回目の物体データと、最新のn回目の物体データとを照
合する(#70)。そして、各回の物体データにおける
位置及び対向角度θを比較し、それらに一定値を越える
差があった場合、すなわち入室者に注目すべき動きがあ
った場合には、入室者の動止状態を示す状態識別信号S
Jを表示装置3へ出力し、再び測距器出力のサンプリン
グを行う(#80,90)。
式図である。また、表1は図7における各時刻t0〜4
の対物間距離L1〜3を示している。
る時刻t0では、3方向の対物間距離L1〜3は全て無
限遠であり、室内には誰も居ない。この状態ではCRT
ディスプレイ35による表示は行われない。
1では、方位が0°の方向M2の対物間距離L2が16
9cmであり、入室者の居ることが判る。ただし、対向
角度θは不明である。入室を検出したことを受けて、C
RTディスプレイ35では例えば接客担当者の似顔絵が
表示される。
7.5°であり視点Pからの距離が約126〔≒(12
8+123)÷2〕cmの位置である。また、対向角度
θは8.7°であり、左向き姿勢である。
ータとを比較することにより、時刻t1から時刻t2ま
での時間に、入室者が43(=169−126)cmだ
け視点Pに近づいたことが判る。
7.5°であり視点Pからの距離が約57cmの位置で
ある。また、対向角度θは−36.7°であり、右向き
姿勢である。
者が69(=126−57)cmだけ視点Pに近づき、
左向き姿勢から右向き姿勢へ約45°だけ回転したこと
が判る。ただし、回転後の状態がCRTディスプレイ3
5との正対状態ではないので、回転に対するリアクショ
ン表示は行われない。
°であり視点Pからの距離が52cmの位置である。ま
た、対向角度θは4.2°であり、左向き姿勢である。
時刻t3から時刻t4までの時間においては、入室者の
位置はほとんど変わらないものの、右向き姿勢から左向
き姿勢へ約33°だけ回転したことが判る。この場合
は、回転後の状態はほぼCRTディスプレイ35との正
対状態であり、入室者が意図的にCRTディスプレイ3
5の方向に向きを変えたと考えられるので、CRTディ
スプレイ35によって例えば挨拶をする接客担当者の似
顔絵が表示され、同時に音声による挨拶が行われる。
角測量式の測距においては、次に説明する実施例のよう
にスキャン方式を採用することにより、測距方向を容易
に多方向化して物体検出の分解能を高めることができ
る。
システム1Bのブロック図である。物体認識システム1
Bは、測距器20Bを有した視覚装置2Bと、表示制御
手段としてPC30Bを有した表示装置3Bとから構成
されており、基本的には上述の物体認識システム1と同
様の機能を有している。
211、ミラーにより光路を偏向する形式の周知のスキ
ャン機構230、及び電気回路ボード220Bから構成
されている。スキャン機構230は、MPU25Bによ
って駆動制御される。
を示すフローチャートである。MPU25は、測距器2
0Bの出力する測距信号に対して、1回の測距処理とし
て15ポイントのサンプリングを行う(#11)。これ
により、3°刻みの15方向M1〜15における対物間
距離L1〜15が測定される(図10参照)。つまり、
測距器20Bによる測距の対象領域は、中心角が42°
(=3°×14)の扇形の2次元空間領域である。
PU25は、測定データのグループ化処理を行う(#2
1)。これにより、入室者の人数、各入室者の両端位置
を認識することが可能となる。なお、グループ化の判断
基準は、上述の例と同様に人体における胴の幅の上限値
の40cmである。
毎に人体の中央に対応する中心方位を求める(#3
1)。このとき、中央の測距方向M8が基準方向(すな
わち方位は0°)とされる。また、1グループに属する
測定データ数が奇数であれば、グループ内の中央の測距
方向が中心方位とされ、測定データ数が偶数であれば、
グループにおける中央部の2つの測距方向の中間方向が
中心方位とされる。
するグループについて、図6に示した対向角度θを
(1)式によって算出する(#41,51)。ただし、
ここでは、まず左右両端における対向角度θを求め、そ
れらの平均値をグループの対向角度θとする。このよう
な演算に際して、グループに属する測定データ数が偶数
の場合には、グループにおける中央部の2つの測距方向
の対物間距離の平均値が、中心方位の対物間距離Lcと
して算出される。
Wを求める〔図9(#61)〕。入室者の中心位置Cと
一端位置Sとの間の長さをxとすると、幅Wは長さxの
ほぼ2倍である。したがって、幅Wは(2)式で表され
る。
(中央方位及びその対物間距離)、幅W、及び対向角度
θを示すデータを、n回目の物体データとして入室者毎
に図示しないRAMに格納する〔図9(#71)〕。そ
の際、幅W又は対向角度θが不明の場合は、その旨を示
すパラメータを組み込んだ物体データを生成する。
回目の物体データと、最新のn回目の物体データとを照
合する(#81)。幅Wの値が一致すれば、前回及び今
回の物体データは同一の入室者に対応する。
各回の物体データにおける位置及び対向角度θを比較
し、それらに一定値を越える差があった場合、すなわち
入室者に注目すべき顕著な動きがあった場合に、入室者
の動止状態を示す状態識別信号SJを表示装置3へ出力
し、再び測距器出力のサンプリングを行う(#91,1
01,111)。
体認識システム1Bも、図4の例と同様に自動接客シス
テムとして利用することができる。図10は入室者の立
ち居振舞の他の例を示す模式図である。また、表2は図
10における各方向M1〜15の各時刻t0〜5の対物
間距離L1〜15を示している。
離L1〜15は全て無限遠であり、室内には誰も居な
い。この状態ではCRTディスプレイ35による表示は
行われない。
が有効範囲内の値であり且つ近似しており、対物間距離
L11〜13も有効範囲内の値であり且つ近似している
ので、室内に二人の入室者A,Bの居ることが判る。各
入室者A,Bに対応した物体データの内容は次のとおり
である。
〔=(199+197)÷2〕cm 方位:−7.5° 対向角度θ:9.1° 姿勢:左向き姿勢 幅W:31.5cm 入室者B………視点からの距離:200(=L12)c
m 方位:12° 対向角度θ:−10.7° 姿勢:右向き姿勢 幅W:21.3cm 幅Wの値から入室者Bは子供であるらしいと判断でき
る。二人の入室を検出したことを受けて、CRTディス
プレイ35の画面に接客担当者(エージェント)が映し
出される。
B2の居ることが判る。各入室者A2,B2に対応した
物体データの内容は次のとおりである。 入室者A2……視点からの距離:170(=L6)cm 方位:−6° 対向角度θ:6.4° 姿勢:左向き姿勢 幅W:35.7cm 入室者B2……視点からの距離:177(=L13)c
m 方位:15° 対向角度θ:20.6° 姿勢:左向き姿勢 幅W:19.8cm 時刻t1の物体データと時刻t2の物体データとを比較
すると、幅Wの差が小さいことから、入室者Aと入室者
A2とが同一人物であり、入室者Bと入室者B2とが同
一人物である。
時間に、大人が姿勢をほとんど変えずに視点Pに向かっ
て直進し、28cmだけ視点Pに近づいたことが判る。
また、子供が視点Pへの最短方向から若干逸れた方向に
前進して28cmだけ視点Pに近づき、右向きから左向
きへ大きく回転したことが判る。
を比較することにより、動止状態が判る。そして、測距
周期内に大きな動きがあった場合には、動いた後の位置
及び姿勢に応じて所定の表示が行われる。例えば、時刻
t4から時刻t5までの時間においては、CRTディス
プレイ35の近辺で大人が回転してCRTディスプレイ
35と正対したので、物体認識システム1Bは大人への
挨拶を行う。
したので、遠近変化だけでなく左右の向きの変化をも識
別することができ、人間の行動に似た高度のリアクショ
ンを実現することができる。
て記憶しておき、幅Wの大小比較により、各時刻の検出
物体(人体)の同一性を確認するようにしたので、対象
領域内に複数の人間が存在する可能性のある状況で使用
する場合にも、複雑なデータ処理によらずに個々の人間
の動止状態を識別することができる。
は、水平方向、仰角方向、又は俯角方向であってもよ
く、視覚装置2,2Bと対象物との位置関係に合わせて
最適化すればよい。また、測距の方位角方向は、水平面
方向、鉛直面方向、又はそれらの中間の方向であっても
よい。
機構を用いたり、多数の測距センサー211を縦横に配
置して、測距の対象領域を3次元空間に拡張してもよ
い。3次元の測距を行えば、挨拶時の前屈を含む多様な
動作の識別が可能となる。その場合、放射状に配置した
複数の測距センサー211を一括に回動させれば、広範
囲の測距における各点の測距時刻の同時性を高めること
ができる。また、測距の対象領域内で測距方向の密度
(例えば方位角の大きさ)を部分的に大きくし、特に重
要な範囲の分解能を高めてもよい。なお、スキャン機構
として、測距センサー211を回動させる機構又は平行
移動させる機構を用いてもよい。
解能)、サンプリング周期、対向角度θや幅Wの算出
式、状態識別信号SJの情報内容、及びCRTディスプ
レイ35による表示の内容は、用途に応じてハードウエ
アの性能を考慮して種々設定することができる。また、
飛行時間測定法によって測距を行うことも可能である。
ュータ30,30Bの表示制御機能を視覚装置2,2B
に設け、視覚装置2,2BとCRTディスプレイ35と
を直接に接続して、人間の立ち居振舞に応じた表示を行
う物体認識システムを構成することができる。
視点からみた物体の姿勢を複雑な画像処理によらず容易
に識別することができる。また、特に請求項5乃至請求
項7の発明によれば、人間に代表される動物の立ち居振
舞に正しく反応する実用性の高い情報処理システムを安
価に構築することができ、コンピュータの応用範囲を拡
げることができる。
すブロック図である。
る。
る。
である。
ある。
る。
ブロック図である。
ャートである。
ある。
Claims (8)
- 【請求項1】測距器を用いて当該測距器から対象領域内
へ放射状に拡がる複数の方向における対物間距離を測定
するステップ、測定された対物間距離に基づいて対象領
域内の物体の前記測距器に対する対向角度を算出するス
テップ、及び算出された対向角度を物体データとしてメ
モリに格納するステップからなる一連の処理を繰り返
し、 n回目の物体データと〔n−1〕回目の物体データとを
比較することによって、前記物体の姿勢変化の有無を判
別する ことを特徴とする物体認識方法。 - 【請求項2】測距器を用いて当該測距器から対象領域内
へ放射状に拡がる複数の方向における対物間距離を測定
するステップ、測定された対物間距離に基づいて対象領
域内の物体の前記測距器に対する対向角度を算出するス
テップ、及び算出された対向角度を物体データとしてメ
モリに格納するステップからなる一連の処理を繰り返
し、 n回目の物体データと〔n−1〕回目の物体データとを
比較して対向角度の差を算出し、 算出された対向角度の差が一定値より大きいときに、物
体の姿勢が変化したことを認識する ことを特徴とする物
体認識方法。 - 【請求項3】複数の方向のそれぞれについて測定された
対物間距離を比較し、当該対物間距離が同一の物体に対
応するか否かを判別する 請求項1又は請求項2記載の物
体認識方法。 - 【請求項4】測定された対物間距離に基づいて対象領域
内の物体の幅を算出し、算出された幅を前記対向角度と
ともに物体データとしてメモリに格納し、 n回目の物体データの幅と〔n−1〕回目の物体データ
の幅とを比較すること によって、これらの物体データが
同一の物体に対応するか否かを判定する 請求項1又は請
求項2記載の物体認識方法。 - 【請求項5】複数の方向の対物間距離に応じた信号を出
力する測距器と、 前記測距器の出力する信号を周期的にサンプリングする
手段と、 サンプリングされた前記各測距方向の距離データから対
象領域内の物体の両端に対応した距離データを抽出し、
前記物体の幅を算出する手段と、 前記物体の両端に対応した測距方向及び距離データに基
づいて、前記測距器に対する前記物体の対向角度を算出
する手段と、 前記物体の中央位置と幅と対向角度とを示す物体データ
を生成する手段と、 前記物体データを記憶するメモリと、 n回目の物体データと〔n−1〕回目の物体データとを
比較し、それらの示す前記幅がほぼ等しく、且つ前記中
央位置及び対向角度の少なくとも一方の差が一定値を越
えるときに、対象領域内の物体の動止状態を示す状態判
別信号を出力する手段と、 を備えたことを特徴とする視覚装置。 - 【請求項6】請求項5記載の視覚装置であって、 前記測距器は、放射状に配置された複数の光学測距セン
サーからなることを特徴とする視覚装置。 - 【請求項7】請求項5記載の視覚装置であって、 前記測距器は、光学測距センサーと、測距光の光路を偏
向するためのスキャン機構とからなることを特徴とする
視覚装置。 - 【請求項8】請求項5乃至請求項7のいずれかに記載の
視覚装置と、 前記視覚装置の出力する前記状態判別信号に応じて、予
め定められた表示を行う表示装置とを、 備えたことを特徴とする物体認識システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6133332A JP2854805B2 (ja) | 1994-06-15 | 1994-06-15 | 物体認識方法および視覚装置 |
US08/420,686 US5675404A (en) | 1994-06-15 | 1995-04-12 | Method and system for recognizing behavior of object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6133332A JP2854805B2 (ja) | 1994-06-15 | 1994-06-15 | 物体認識方法および視覚装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH085649A JPH085649A (ja) | 1996-01-12 |
JP2854805B2 true JP2854805B2 (ja) | 1999-02-10 |
Family
ID=15102247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6133332A Expired - Fee Related JP2854805B2 (ja) | 1994-06-15 | 1994-06-15 | 物体認識方法および視覚装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5675404A (ja) |
JP (1) | JP2854805B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6281930B1 (en) * | 1995-10-20 | 2001-08-28 | Parkervision, Inc. | System and method for controlling the field of view of a camera |
TW399309B (en) * | 1998-09-30 | 2000-07-21 | World Wiser Electronics Inc | Cavity-down package structure with thermal via |
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
US20040247157A1 (en) * | 2001-06-15 | 2004-12-09 | Ulrich Lages | Method for preparing image information |
ATE405853T1 (de) * | 2001-06-15 | 2008-09-15 | Ibeo Automobile Sensor Gmbh | Verfahren zur verarbeitung eines tiefenaufgelösten bildes |
DE102004032048A1 (de) * | 2004-07-02 | 2006-01-19 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Bestimmung der Ausrichtung eines ersten Objektes zu einem zweiten Objekt |
CN101228555A (zh) * | 2005-07-07 | 2008-07-23 | 独创目标实验室公司 | 用于目标的运动行为的三维监控和分析的系统 |
US20080231464A1 (en) * | 2007-03-24 | 2008-09-25 | Lewis Mark E | Targeted switching of electrical appliances and method |
US9631914B2 (en) * | 2014-03-13 | 2017-04-25 | The Boeing Company | Calibration of sensor arrays |
CN110874905A (zh) * | 2018-08-31 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 监控方法及装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3620626A (en) * | 1969-05-29 | 1971-11-16 | Quantronix Corp | Proximity warning system for aircraft |
JPS5596475A (en) * | 1979-01-19 | 1980-07-22 | Nissan Motor Co Ltd | Obstacle detector for vehicle |
US4497065A (en) * | 1982-07-12 | 1985-01-29 | Westinghouse Electric Corp. | Target recognition system enhanced by active signature measurements |
JPS59129809A (ja) * | 1983-01-18 | 1984-07-26 | Asahi Optical Co Ltd | カメラの自動焦点装置 |
JPS62108106A (ja) * | 1985-11-06 | 1987-05-19 | Hitachi Ltd | 知能移動機械の二次元センサ− |
JPS62135086A (ja) * | 1985-12-09 | 1987-06-18 | Hitachi Ltd | 画像処理方法 |
US4902126A (en) * | 1988-02-09 | 1990-02-20 | Fibertek, Inc. | Wire obstacle avoidance system for helicopters |
US5144685A (en) * | 1989-03-31 | 1992-09-01 | Honeywell Inc. | Landmark recognition for autonomous mobile robots |
US5517300A (en) * | 1990-05-31 | 1996-05-14 | Parkervision, Inc. | Remote controlled tracking system for tracking a remote control unit and positioning and operating a camera |
US5471296A (en) * | 1990-05-31 | 1995-11-28 | Parkervision, Inc. | Camera lens control system and method |
JP3097295B2 (ja) * | 1992-04-13 | 2000-10-10 | トヨタ自動車株式会社 | 3次元物体認識装置 |
JP3263699B2 (ja) * | 1992-12-22 | 2002-03-04 | 三菱電機株式会社 | 走行環境監視装置 |
-
1994
- 1994-06-15 JP JP6133332A patent/JP2854805B2/ja not_active Expired - Fee Related
-
1995
- 1995-04-12 US US08/420,686 patent/US5675404A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH085649A (ja) | 1996-01-12 |
US5675404A (en) | 1997-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2501010B2 (ja) | 移動ロボットの誘導装置 | |
US11320536B2 (en) | Imaging device and monitoring device | |
JP6221158B2 (ja) | 自律行動ロボット、及び自律行動ロボットの制御方法 | |
US6289282B1 (en) | Method of determining the distance between and object and a device of varying location | |
Kanwal et al. | A navigation system for the visually impaired: a fusion of vision and depth sensor | |
US6061644A (en) | System for determining the spatial position and orientation of a body | |
JP2854805B2 (ja) | 物体認識方法および視覚装置 | |
EP2063287A1 (en) | Localization system, robot, localization method, and sound source localization program | |
CN106808472B (zh) | 工件位置姿势计算装置以及搬运系统 | |
US20030063776A1 (en) | Walking auxiliary for person with impaired vision | |
EP1760489A1 (en) | Obstacle detector for vehicle | |
JP2005084035A (ja) | 物体検出装置 | |
CN109583416B (zh) | 伪车道线识别方法及系统 | |
CN113799796B (zh) | 车载传感器系统 | |
JP2000266539A (ja) | 車間距離計測装置 | |
US20230134642A1 (en) | Lidar system capable of setting sensingn area | |
JP2009237897A (ja) | 画像認識装置 | |
US7215785B1 (en) | Passive sound telemetry system and method and operating toy using the same | |
US20190079188A1 (en) | Method for improving a detection of at least one object in surroundings of a motor vehicle by way of an indirect measurement by sensors, controller, driver assistance system, and motor vehicle | |
Rahman et al. | Obstacle detection in indoor environment for visually impaired using mobile camera | |
JP4645108B2 (ja) | 自律移動装置 | |
JP2017142171A (ja) | 物体検知装置 | |
CN113126600A (zh) | 基于uwb的跟随系统及物品运送车 | |
TW201831920A (zh) | 自主移動設備 | |
JP2006263873A (ja) | コミュニケーションロボットシステムおよびコミュニケーションロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19981110 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081120 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081120 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091120 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101120 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101120 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111120 Year of fee payment: 13 |
|
LAPS | Cancellation because of no payment of annual fees |