JPH11213166A - 物体検知装置およびパターン認識装置および動作制御装置 - Google Patents

物体検知装置およびパターン認識装置および動作制御装置

Info

Publication number
JPH11213166A
JPH11213166A JP10014029A JP1402998A JPH11213166A JP H11213166 A JPH11213166 A JP H11213166A JP 10014029 A JP10014029 A JP 10014029A JP 1402998 A JP1402998 A JP 1402998A JP H11213166 A JPH11213166 A JP H11213166A
Authority
JP
Japan
Prior art keywords
image
distance
unit
image acquisition
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10014029A
Other languages
English (en)
Other versions
JP3660492B2 (ja
Inventor
Miwako Doi
美和子 土井
Akira Morishita
明 森下
Naoko Umeki
直子 梅木
Shunichi Numazaki
俊一 沼崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP01402998A priority Critical patent/JP3660492B2/ja
Priority to US09/236,574 priority patent/US6456728B1/en
Publication of JPH11213166A publication Critical patent/JPH11213166A/ja
Application granted granted Critical
Publication of JP3660492B2 publication Critical patent/JP3660492B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】高速でローバストな物体検知が可能となり、し
かも小型化が容易に行える物体検知装置およびそれを用
いたパターン認識装置および動作制御装置を提供する。 【解決手段】特性の異なる画像を取得する複数の画像取
得手段と、この複数の画像取得手段のうちの少なくとも
1つで取得された画像に基づき対象物あるいは該対象物
の動きを検知する検知手段と、を具備し、前記複数の画
像取得手段で取得された複数の画像のうちの少なくとも
1つは距離画像であることを特徴とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば、人間の動
作に応じて走行したり、予め定められた動作を繰り返す
ロボットやぬいぐるみ等のおもちゃなどに組み込まれる
物体検知装置に関する。
【0002】
【従来の技術】従来、ぬいぐるみやおもちゃなどでは、
人の動きに反応して動くようにするには、自動ドアなど
と同様に赤外線を用いるものと、超音波を用いるもの
と、音により反応するものとがある。
【0003】赤外線を用いるものは、人が近づくこと
で、照射されている一筋の赤外線が遮られることを利用
している。このような方式では、ぬいぐるみやおもちゃ
を動かす意図なく、近づいた場合にも、赤外線がさえぎ
られ、無用に反応してしまうという問題点があった。ま
た、赤外線の照射源と受光源の間に一定距離があること
が必要であるので、小型化などには適さなかった。
【0004】超音波によるものは、超音波を発し、それ
が反射されることで、人が近づいたことを検知するよう
になっている。がこれも、赤外線の場合と同様に、単に
遮られたかどうかだけを検知しているので、ぬいぐるみ
やおもちゃを動かす意図なく、近づいた場合にも、超音
波がさえぎられ、無用に反応してしまうという問題点が
あった。
【0005】また、音により反応する方式では、音を小
型マイクロフォンにより検知し、電気信号に変換し、そ
れにより動かすようにしている。が、赤外線や超音波と
同様に、単に遮られたかどうかだけを検知しているの
で、ぬいぐるみやおもちゃを動かす意図なく、ぬいぐる
みやおもちゃのそばで音を出してしまうと、無用に反応
してしまうという問題点があった。
【0006】一方、掃除ロボットなど周囲を検知し、障
害物をよけて自走するようなロボット等の自走装置で
は、障害物を検知するために超音波による検知方法や、
画像処理による検知方法、あるいはこの両者を併用して
用いている。
【0007】この場合、超音波による検知方法では、2
カ所から超音波を発し、三角測量の要領で対象物までの
距離を測定するという、おもちゃやぬいぐるみに比べる
と、高価だが、高精度な障害物の検知が行える。が、こ
の超音波による測定方法では、何らかの物体が測定した
距離に存在していることはわかるが、その物体の大きさ
や形状などはわからない。従って、どのようなよけかた
をすべきかの計画を立てにくいという問題点がある。そ
こで、あらかじめ、ロボットが自走する場所の地図を記
憶させておき、自身の位置と向きから、検知した対象が
地図上のどの物体に相当するかを推定し、自走計画を立
てるようになっている。従って、あらかじめ、地図のわ
かっていない場所では、うまく機能できないと言う問題
点があった。
【0008】一方、CCDカメラなどを用いて撮像した
画像を解析して、場所に存在する物体を認識する方法も
とられている。この方法では、進行方向をまず、CCD
カメラなどの撮像装置を用いて撮影する。その画像から
背景などの余計な部分を取り除き、障害物となる物体な
ど認識したい対象のみを切り出すという前処理を行う。
そして、その処理後の画像を用いることで、物体の形状
などを認識する。
【0009】まず、この認識対象の切り出しという前処
理部分について説明する。カメラで撮影した画像から、
取得したい対象物の画像のみを切り出す方法として、対
象物と、それ以外の部分画像領域の何らかの相違点を手
がかりとして対象物の切り出しが行われていた。
【0010】この手掛かりとして、色相の変化を利用す
る方法、差分画像を利用する方法などが用いられてい
る。色を使って切り出す場合、色相差の大きな部分を抜
き出し、細線化などの処理を行い、エッジを抽出する。
室内の場合、エッジは、壁と柱の境界、ドア、床と壁の
境界である。これらは、奥行き方向に消失点に向かっ
て、斜めになってはいるが基本的には、垂直と水平の直
線として、物体を認識していく。それを乱すものがあれ
ば、建造物以外の障害物があると見なすのである。が、
色相差を用いる方法は、床や壁、ドアの色相が近いと明
確に区別するのは難しく、顕著な汚れがあると、それを
誤ったりする。また、照明が変われば、色調が変化して
しまうために、定常的に切り出すことは困難である。ま
た、照明が全くない状態では、撮像画像は全部暗くなっ
てしまうので、人間でも暗闇で撮影した写真から物体を
判別することは難しい。
【0011】ビデオ画像のフレーム間の動きベクトルを
算出し、動いている物体を解析する方式もある。この場
合、動いている物体が少ないうちは問題ないが、動いて
いる物体が多いと、動きベクトルの数が急に増え、フレ
ーム間の動きベクトルの算出処理の負荷が増し、リアル
タイムな物体検知処理が行えない。
【0012】このような画像処理のみによる方法を補う
ために、超音波による距離算出方法とを併用することも
行われている。が、超音波による距離算出方法では、点
の観測であり、面として取得した画像すべてを補う情報
を得ることは難しい。
【0013】以上説明したように、従来の撮像手段によ
り画像を取得して解析する方法では、解析の流れ、解析
すべき情報が固定的であるため、対象となる画像が外部
の条件に応じて刻々に変化してしまったときに、特定の
処理部に負荷がかかり、解析がその変化に追随できなく
なるという問題が生じていた。
【0014】このような問題を解決するための1つの方
法は、負荷が増えてもリアルタイム(例えば、秒30枚
の処理)に対応できるように、高性能の計算機や高速の
伝送系を用いるなどの工夫が行われている。が、このよ
うな高性能の計算機をロボットましてやおもちゃ等の小
型な装置に搭載することは困難である。
【0015】
【発明が解決しようとする課題】以上説明したように、
物体そのものや物体の動きを検知するための従来の画像
処理による物体検知方法を用いた物体検知装置では、刻
々と変動する外部条件に対して、低価格でかつローバス
トな解析をおこなうことは難しかった。変動する外部条
件に対してもローバストな解析を行えるようにするに
は、高性能計算機や、高速伝送系を用いるため、コスト
がかかりすぎ、例えば、障害物をよけて自律走行した
り、人の動きに応じて行動するようなロボットやぬいぐ
るみ、おもちゃなどの機能を集約した簡易な自動装置に
は使えないという問題点があった。
【0016】また、ボクシングゲームなどの遊戯具に上
記物体検知装置を組み込んだ場合には、ユーザがゲーム
に夢中になるあまり、物体検知装置を誤って投打してし
てしまい、破損する危険性があった。また、画像の取得
できる限界接写距離よりも近傍に手や体の一部が入り込
み、正常な画像取得が妨げられると言う問題もあった。
【0017】そこで、本発明は、上記問題点に鑑み、高
速でローバストな物体検知が可能となり、しかも小型化
が容易に行える物体検知装置およびそれを用いたパター
ン認識装置および自動装置を提供することを目的とす
る。
【0018】
【課題を解決するための手段】本発明の物体検知装置
は、距離画像を取得する画像取得手段と、この画像取得
手段が取得した距離画像に基づき対象物あるいは該対象
物の動きを検知する検知手段と、を具備したことによ
り、高速でローバストな物体検知が可能となり、しかも
小型化が容易に行える。
【0019】(請求項1)本発明の物体検知装置は、特
性の異なる画像(例えば、距離画像/2次元画像、画像
の取得可能距離が異なる等)を取得する複数の画像取得
手段と、この複数の画像取得手段のうちの少なくとも1
つで取得された画像に基づき対象物あるいは該対象物の
動きを検知する検知手段と、を具備したことにより、高
速でローバストな物体検知が可能となり、しかも小型化
が容易に行える。また、例えば、遠方にある物体を識別
したり、色情報を取得したい場合には、それに応じた画
像を取得して、距離画像と組み合わせて目標物あるいは
目標物の動きを検知することにより、より精度の高い物
体検知が可能となる。
【0020】(請求項5)本発明の動作制御装置は、距
離画像を取得する画像取得手段と、前記画像取得手段が
取得した距離画像に基づき対象物あるいは該対象物の動
きを検知する検知手段と、この検知手段での検知結果に
基づき動作を制御する制御手段と、を具備したことによ
り、高速でローバストな物体検知が可能となり、しかも
小型化が容易に行える。
【0021】(請求項6)本発明の動作制御装置は、特
性の異なる画像(例えば、距離画像/2次元画像、画像
の取得可能距離が異なる等)を取得する複数の画像取得
手段と、この複数の画像取得手段のうちの少なくとも1
つで取得された画像に基づき対象物あるいは該対象物の
動きを検知する検知手段と、この検知手段での検知結果
に基づき動作を制御する制御手段と、を具備したことに
より、高速でローバストな物体検知が可能となり、しか
も小型化が容易に行える。また、例えば、遠方にある物
体を識別したり、色情報を取得したい場合には、それに
応じた画像を取得して、距離画像と組み合わせて目標物
あるいは目標物の動きを検知することにより、より精度
の高い物体検知が可能となる。
【0022】(請求項9)本発明のパターン認識装置
は、反射光の強度分布としての反射光画像を取得する画
像取得手段と、この画像取得手段で取得された反射光画
像と被写体の反射率とに基づき該反射光画像から予め定
められたパターンを認識する認識手段と、を具備したこ
とにより、高速でローバストなパターン認識が可能とな
り、しかも小型化が容易に行える。
【0023】(請求項10)前記画像取得手段は、対象
物が該画像取得手段の画像取得の限界接写距離よりも接
近せず、しかも該対象物に衝突されることがないように
配置されていることにより、体験型ゲーム装置等の娯楽
設備に本発明の物体検知装置を適用した場合に、距離画
像取得手段を誤って投打されたりして破損することを防
ぐことができるだけでなく、画像取得の限界内に手や身
体、バットなどの物体の一部がはいり、正常な処理を妨
げるようなこともなくなる。
【0024】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。 (第1の実施形態)図1は、本発明の第1の実施形態に
係る物体検知装置を用いた動作制御装置、すなわち、例
えば、距離画像から予め定められた目標物を検知して、
当該目標物と予め定められた距離間隔を維持しながら自
走するロボットの構成例を示している。
【0025】図1に示すように、第1の実施形態に係る
動作制御装置は、反射光を受光し、距離画像を取得す
る、例えば、特願平9−299648号に記載されてい
る距離画像取得部1と、取得された距離画像を解析し、
目標物の抽出や目標物までの距離の算出等を行う画像処
理部2と、画像処理部2の解析結果に基づき、自走部4
への自走のパラメータの設定、指示を行う自走制御部3
と、自走制御部3からの指示に基づき、実際に本体を移
動、回転等させるための機構を備えた自走部4と、画像
処理結果や自走の状態などを呈示する、例えば小型の液
晶パネルなどから構成される呈示部5とから構成されて
いる。
【0026】ここで、距離画像取得部1および、距離画
像取得部1にて取得される距離画像について簡単に説明
する。距離画像取得部1は、図2に示すように、主に、
発光部102、受光部103、反射光抽出部102、タ
イミング信号生成部104から構成される。
【0027】発光部101は、タイミング信号生成部1
04にて生成されたタイミング信号に従って時間的に強
度変動する光を発光する。この光は発光部前方にある対
象物体に照射される。
【0028】受光部103は、発光部101が発した光
の対象物体による反射光の量を検出する。反射光抽出部
102は、受光部103にて受光された反射光の空間的
な強度分布を抽出する。この反射光の空間的な強度分布
は画像として捉えることができるので、以下、これを反
射光画像あるいは距離画像と呼ぶ。
【0029】受光部103は一般的に発光部101から
発せられる光の対象物による反射光だけでなく、照明光
や太陽光などの外光も同時に受光する。そこで、反射光
抽出部102は発光部101が発光しているときに受光
した光の量と、発光部101が発光していないときに受
光した光の量の差ををとることによって、発光部101
からの光の対象物体による反射光成分だけを取り出す。
【0030】反射光抽出部102では、受光部103に
て受光された反射光から、その強度分布、すなわち、図
3に示すような反射光画像(距離画像)を抽出する。図
3では、簡単のため、256×256画素の反射光画像
の一部である8×8画素の反射光画像の場合について示
している。
【0031】物体からの反射光は、物体の距離が大きく
なるにつれ大幅に減少する。物体の表面が一様に光を錯
乱する場合、反射光画像1画素あたりの受光量は物体ま
での距離の2乗に反比例して小さくなる。
【0032】反射光画像の各画素値は、その画素に対応
する単位受光部で受光した反射光の量を表す。反射光
は、物体の性質(光を鏡面反射する、錯乱する、吸収す
る、など)、物体の向き、物体の距離などに影響される
が、物体全体が一様に光を錯乱する物体である場合、そ
の反射光量は物体までの距離と密接な関係を持つ。手な
どは、このような性質をもつため、距離画像取得部1の
前方に手を差し出した場合の反射光画像は、手までの距
離、手の傾き(部分的に距離が異なる)などを反映する
図4に示したような3次元的なイメージを得ることがで
きる。
【0033】さて、本実施形態の説明に戻り、図5
(a)は、図1に示すような構成のロボットの外観例を
示したもので、図5(b)は、このロボットの目を拡大
して示したものである。この目の部分には、画像取得部
1の発光部101、受光部103が具備されている。
【0034】図5(b)において、目の中央部には円形
レンズとその後部にあるエリアセンサ(図示せず)から
構成される受光部103が配置され、円形レンズの周囲
にはその輪郭に沿って、赤外線などの光を照射するLE
Dから構成される発光部101が複数(例えば6個)等
間隔に配置されている。
【0035】発光部101から照射された光が物体に反
射され、受光部103のレンズにより集光され、レンズ
の後部にあるエリアセンサで受光される。エリアセンサ
は、例えば256×256のマトリックス状に配列され
たセンサで、マトリックス中の各センサにて受光された
反射光の強度がそれぞれ画素値となる。このようにして
取得された画像が、図3に示すような反射光の強度分布
としての距離画像である。
【0036】図3は、距離画像データの一部(256x
256画素の一部の8x8画素)を示したものである。
この例では、行列中のセルの値(画素値)は、取得した
反射光の強さを256ビットで示したものである。例え
ば、「255」の値があるセルは、画像取得部1に最も
接近した状態、「0」の値があるセルは、画像取得部1
から遠くにあり、反射光が画像取得部1にまで到達しな
いことを示している。
【0037】図3(b)は、図3(a)に示したような
マトリックス形式の距離画像データ全体を3次元的に示
したものである。この例では、人間の手の距離画像デー
タの場合を示している。
【0038】次に、図8に示すフローチャートを参照し
て、図1に示すような構成のロボット(図5参照)の処
理動作について説明する。まず、電源の投入、動作の開
始指示にて起動されると回転フラグIを「0」にセット
するなどして初期化処理を行う(ステップS1)。 そ
の後、図5(b)に示したような発光部101、受光部
103を用いて距離画像取得部1において、例えば、1
秒間に30枚(通常のビデオ映像と同様の速さ)の距離
画像を取得する(ステップS2)。図3に示すようなマ
トリックス形式の距離画像は、画像処理部2に送られ
る。
【0039】画像処理部2では、まず、画素値が予め定
められた所定値以下のセルを除き、例えば、図6に示す
ような撮像された物体の輪郭情報を生成することによ
り、物体を抽出する(ステップS3)。
【0040】図6のような輪郭情報を生成するには、隣
り合う画素の画素値を比較し、画素値が一定値α以上の
ところだけに定数値を入れて、同じ定数値が割り振られ
た連続した画像領域の画素を抽出すればよい。
【0041】すなわち、(i、j)の画素値をP(i、
j)とし、生成する輪郭情報の画素値をR(i、j)と
すると、 ・{P(i、j)−P(i−1、j)}>α、かつ{P
(i、j)−P(i、j−1)}>α、かつ{P(i、
j)−P(i+1、j)}>α、かつ{P(i、j)−
P(i、j+1)}>αのとき、R(i、j)=255 ・ 上記以外のとき、R(i、j)=0とすることによ
り、図6のような輪郭情報を得ることができる。
【0042】このようにして距離画像から抽出された物
体が、予め定められた目標物であるかどうかの判定は、
画像処理部2が具備している、例えば、図7に示したよ
うな形式で記憶されている認識辞書にあるパターンと上
記輪郭情報とのマッチングにより行う(ステップS
4)。
【0043】図7に示すように、認識辞書には、予め定
められた目標物の形状パターン(物体に動きがある場合
には、その動きに応じた複数の形状パターン)が記憶さ
れている。
【0044】認識辞書にあるパターンのうちの1つと抽
出された輪郭情報とが一致し、当該目標物であると判定
されたとき、次に、当該目標物までの距離dを算定す
る。このとき、回転フラグIを「0」にクリアする(ス
テップS5)。
【0045】距離dの算定は、まず、抽出できた目標物
の画像の代表画素値を求める。代表画素値としては、平
均値、最近傍値などいくつかあるが、ここでは、最近傍
値を使うとする。目標物からの反射光の強さは目標物ま
での距離の2乗に反比例して小さくなる。すなわち、目
標物の画像の代表画素値をQ(i、j)とすると、 Q(i、j)=K/d2 …(1) と表すことができる。
【0046】ここで、Kは、例えば、d=0.5mのと
きに、R(i、j)の値が「255」になるように調整
された係数である。式(1)をdについて解くことで、
距離値を求めることができる。
【0047】自走制御部3では、画像処理部2にて求め
られた対象物までの距離dに基づき自走部4を制御す
る。すなわち、求められた距離dが目標物との間に予め
定められた距離Dより小さければ、目標物から予め定め
られた距離間隔内にいると判断できるので(ステップS
6)、自走制御部3は、自走部4に対しては何もせず
に、そのままステップS2に戻り、上記距離画像取得動
作を継続する。
【0048】一方、求められた距離dが、目標物との間
に予め定められた距離Dより大きければ、目標物から離
れてしまったことになるので、その場合は、差分(d−
D)だけの前進指示を自走部4に対し指示する(ステッ
プS7)。この指示に従って、自走部4が駆動されて、
ロボットが前進し、目標物と予め定められた距離間隔D
に到達した際、その旨を呈示部5に呈示する(ステップ
S8)。その後、動作終了指示が成されるまで(ステッ
プS9)、ステップS2に戻り上記画像取得動作を継続
する。
【0049】ステップS4にて、認識辞書にあるパター
ンに輪郭情報と一致するものがなく、当該目標物を検知
することができなかったときには、回転動作を行う。そ
の際、まず、回転フラグIに「1」を加算する(ステッ
プS10)。
【0050】例えば、1回の回転角を30度とすると、
回転フラグIが「12」を越えたときには、すでに1周
したことを意味する。従って、1周しても目標物を検知
できなかったときは、その旨を呈示部5に呈示して処理
を終了する(ステップS11、ステップS13)。
【0051】ステップS11にて、回転フラグIが「1
2」以下であるときは、ステップS12に進み、自走制
御部3は自走部4に対し回転指示を出す。この回転指示
が出される度に、ロボットは30度づつ回転することに
なる。そして、ステップS2に戻り、上記同様距離画像
の取得動作を継続する。このようにロボットは、距離画
像に目標物が検知されるまで、周囲を見回せるように回
転し、画像取得を行い、目標物の探索をおこなうように
なっている。
【0052】なお、ステップS9では、予め定められた
操作を行う以外に、ロボットの目の部分を覆って真っ暗
にすることで(受光部103に入力するような光を遮断
することで)、ロボットの行動を停止することもでき
る。
【0053】以上説明したように、上記第1の実施形態
によれば、3次元情報の得られる距離画像を用いること
により画像処理が単純化され、高速でローバストな物体
検知が可能となり、しかも小型化が容易に行える。
【0054】なお、上記第1の実施形態では、図5に示
したような形状のロボットについて説明したが、この場
合に限らず、例えば、犬の形状のロボットであって、常
に、飼い主の左側にいるように設定することも可能であ
るし、あるいは、ボールの形状にし、常に、持ち主のあ
とを転がりながらついていくようなおもちゃにすること
も可能である。
【0055】前者および後者の場合、例えば、距離画像
の取得範囲を予め定められた方向範囲となるように調節
し、あるいは、回転角度を限定し、その範囲内で取得さ
れた距離画像に必ず目標物が検知できるように自走制御
部3を介して自走部4を制御するようにすればよい。
【0056】また、上記第1の実施形態では、単純に一
定距離内に追随するよう自走する例について述べたが、
必ずしもこれに限定されるものではない。例えば、図9
に示すように、図1の自走制御部3と自走部4をそれぞ
れ動作制御部6と動作部7に置き換えて、自走する以外
にも、歌を歌う、あいずちをうつ、首を振る等の任意の
動作をさせることも可能である。また、距離画像取得部
1ではリアルタイムに画像を取得できる(例えば1秒間
に30枚距離画像を取得できる)ことを利用して、人の
動作を検知し、それを模倣し、同じ動作をするように動
作制御部6が動作を制御するようにすることも可能であ
る。また、予め動作制御部6に認識辞書として記憶させ
ている身振りのパターンと同じ身振りを人がしたとき
に、それぞれの身振りに対応した踊り、動作(歌を歌
う、あいずちをうつ、首を振るなど)させることも可能
である。あるいは、認識してほしい身振り動作のパター
ンを覚えさせ(例えば、当該ロボット等に具備されてい
る距離画像取得部1、CCDカメラ等を用いてその身振
りの画像を撮像し、その画像データを動作制御部6のメ
モリに認識パターンとして記憶させる)、その身振りに
対応して予め定められた動作、すなわち、踊ったり、何
かおしゃべりをさせることも可能である。
【0057】また、目標物に反射係数の大きなマーカ等
を付け、遠方でも距離画像取得部1による距離画像取得
が可能なようにして、使用することも可能である。 (第2の実施形態)第1の実施形態で説明した距離画像
は、反射光を用いてるため、遠方になると画像の取得が
難しいという問題がある。また、距離画像を得ることは
できるが、反射光であるために、色情報の取得ができな
いという問題がある。このような問題を解決するため
に、距離画像取得部1の他に通常の2次元画像を取得す
るCCDカメラなどの2次元画像取得部22を組み合わ
せて用いることにより、互いの難点を補間しあうもの
が、第2の実施形態に係る物体検知装置を用いた動作制
御装置である。
【0058】図10は、第2の実施形態に係る動作制御
装置の構成例を示したものである。図10に示す動作制
御装置は、第1の実施形態で説明した、反射光を受光し
距離画像を取得する距離画像取得部1の他に、CCDカ
メラ等の被写体までの距離情報を含まない通常の写真画
像と同様な2次元の画像を取得する2次元画像取得部2
2と、取得された距離画像、2次元画像を解析し、目標
物の抽出や目標物までの距離の算出等を行う画像処理部
23と、画像処理部23の解析結果に基づき、動作部4
への動作パラメータの設定、指示を行う動作制御部24
と、動作制御部24からの指示に基づき本体を移動、回
転等させるための機構を備えた動作部25と、画像処理
結果や動作の状態などを呈示する、例えば、小型の液晶
パネルなどから構成される呈示部26とから構成されて
いる。
【0059】動作部25では、自走する、歌を歌う、あ
いずちをうつ、首を振る、人と同じ身振りを行う等の任
意の動作を行わしめるもので、ここでは、第1の実施形
態の場合と同様、動作部25にて走行動作を行う場合を
例にとり説明する。
【0060】図10に示す動作制御装置は、例えば、図
5に示したような形状のロボットであってもよい。次
に、図11に示すフローチャートを参照して、図10に
示したような構成の動作制御装置の処理動作について説
明する。なお、図11において、図8と同一部分には同
一符号を付し、異なる部分について説明する。
【0061】図11において、ステップS1からステッ
プS9までの距離画像から目標物が検知された場合の処
理は図8と同様である。ここでは、図10の動作制御装
置は比較的狭い範囲で稼働する場合を想定しているの
で、距離画像取得部1、2次元画像取得部22のうち、
距離画像取得部1が主体的に使われる場合を示す。逆に
広い範囲で稼働する場合には、遠方での画像取得が得意
な2次元画像取得部22が主体的に活動するようになる
ので、図11に示すフローチャートとは若干異なる(後
述する)。
【0062】さて、ステップS4にて、距離画像から目
標物が検知できなかったとき、図8と同様、回転フラグ
Iに「1」を加算し(ステップS10)、回転フラグI
が「12」以下であるときは、ステップS12に進み、
動作制御部24は動作部25に対し回転指示を出す(ス
テップS11、ステップS12)。このようにロボット
は、距離画像に目標物が検知されるまで、周囲を見回せ
るように回転し、画像取得を行い、目標物の探索をおこ
なうようになっている。
【0063】目標物が遠方にある場合、距離画像取得部
1でロボット本体の近傍を探索しているだけで見つから
ない。そこで、ステップS11で、周囲を1周しても目
標物が検知できなかったときは、ステップS22に移
り、2次元画像取得部22により2次元画像(カラー画
像でもモノクロ画像でもよいが、ここでは、例えば、カ
ラー画像であるとする)を取得する。すなわち、距離画
像取得部1による画像取得が不可能なほど遠方にある目
標物の探索を開始する。
【0064】次に、2次元画像取得部22で取得された
2次元画像から目標物を抽出する(ステップS23)。
2次元画像から目標物を抽出する処理は、従来の画像処
理と同様であってもよい。例えば、第1の実施形態と同
様に、人間を探索するには、取得された2次元画像から
肌色の部分を抽出する。第1の実施形態の画像処理部2
では、図7に示したような認識辞書を用いて、パターン
マッチングを行っていたが、この場合には、遠方にある
ので、明確に、例えば手の形や顔の形を抽出することは
難しい。そこで、ここでは、単に肌色の部分が見つかれ
ば、目標物が見つかったとして、動作制御部24は動作
部25に対し、予め定められた距離だけ、検知された肌
色の方向へ移動するための制御を行う(ステップS24
〜ステップS25)。指示された距離を移動した後、再
び、ステップS2に戻り、以降の処理動作を繰り返す。
目標物検知のための詳細なマッチングは、ステップS2
以降で、距離画像を彩度取得するので、その段階でおこ
なえばよい。
【0065】ステップS25で近づきかたが十分でなか
った場合には、ステップS4において距離画像から目標
物が検知されないで、再度、ステップS10、ステップ
S11、ステップS22に移り、2次元画像を取得する
処理に入るので、その処理後、ステップS25にて再び
前進することになる。
【0066】ステップS24にて2次元画像から目標物
が検知できなかったときには、その旨を呈示部26に呈
示して、処理を終了する(ステップS26)。なお、前
述の第1の実施形態の場合と同様、動作部25では、自
走する以外にも、歌を歌う、あいずちをうつ、首を振る
等の任意の動作をさせることも可能である。また、距離
画像取得部1ではリアルタイムに画像を取得できる(例
えば1秒間に30枚距離画像を取得できる)ことを利用
して、人の動作を検知し、それを模倣し、同じ動作をす
るように動作制御部24が動作を制御するようにするこ
とも可能である。また、予め動作制御部24に認識辞書
として記憶させている身振りのパターンと同じ身振りを
人がしたときに、それぞれの身振りに対応した踊り、動
作(歌を歌う、あいずちをうつ、首を振るなど)させる
ことも可能である。あるいは、認識してほしい身振り動
作のパターンを覚えさせ(例えば、当該ロボット等に具
備されている距離画像取得部1、CCDカメラ等を用い
てその身振りの画像を撮像し、その画像データを動作制
御部6のメモリに認識パターンとして記憶させる)、そ
の身振りに対応して予め定められた動作、すなわち、踊
ったり、何かおしゃべりをさせることも可能である。
【0067】以上説明したように、上記第2の実施形態
によれば、例えば、遠方にある物体を識別したり、色情
報を取得したい場合には、それに応じた画像を取得し
て、距離画像と組み合わせて目標物あるいは目標物の動
きを検知することにより、より精度の高い物体検知が可
能となる。
【0068】なお、上記第2の実施形態では、2次元画
像の取得による探索は、一方向に対してしか行わなって
いないが、必ずしもこれに限定されるものではない。距
離画像取得に対して行うのと同様に、一方向に対する検
出が失敗したときに、回転し、別方向に対して、再度探
索を行うようにしてもよい。
【0069】また、上記第2の実施形態では、遠方と近
傍とで複数の画像取得部を使い分けているが、使い分け
の方法は必ずしもこれに限定されるものではない。例え
ば、2次元画像取得部22は目標物のある方向へ移動す
るための暫定的な位置の算出に用い、距離画像取得部2
2は、確定した目標物の正確な切り出しや動作(ジェス
チャ)の認識に使うというような、使い分け方も可能で
ある。
【0070】さらに上記第2の実施形態では、2次元画
像取得部22と距離画像取得部1の2つの画像取得部を
用いる例について述べているが、必ずしもこれに限定さ
れるわけではない。例えば、LEDの発光量を変えた複
数の距離画像取得部1を具備し、発光量の大きな距離画
像取得部は遠方の距離画像を取得し、発光量の小さな距
離画像取得部は近傍の距離画像を取得し、図11のフロ
ーチャートと同様に使い分けて用いることも可能であ
る。この場合、図11において、目標物まで距離が予め
定められた値以上であったときに、遠方の距離画像の取
得が可能なもう一方の距離画像取得部での画像取得に切
り替えるような処理の流れにすることも可能である。こ
のとき、遠方を取得する距離画像取得部は、発光量を変
えずに、1秒あたりに取得する画像の枚数を減らすよう
にすることで、遠方の距離画像を取得することも可能で
ある。あるいは3つ以上の画像取得部をもち、回転動作
なしに、全周囲の画像が取得できるようにすることも可
能である。
【0071】図10の動作制御装置は比較的狭い範囲で
稼働する場合を想定しているので、図11のフローチャ
ートは、距離画像取得部1、2次元画像取得部22のう
ち、距離画像取得部1が主体的に使われる場合を示して
いる。逆に広い範囲で稼働する場合には、遠方での画像
取得が得意な2次元画像取得部22が主体的に活動する
ようになるので、まず、2次元画像取得部22で周囲を
回転しながら目標物の探索を行い、目標物が検知された
ら当該目標物の検知された方向へ前進した後、図11の
ステップS2〜ステップS9と同様に距離画像の取得、
目標物までの距離の算定等を行う。 (第3の実施形態)第3の実施形態に係る物体検知装置
は、例えば体験型ゲーム装置等の娯楽設備に適用したと
きに、距離画像取得部1を誤って投打されたりして破損
することを防ぐものである。
【0072】本発明の物体検知装置を、ボクシングゲー
ム、テニスやバッティングゲーム等の人がグローブやラ
ケット、バット等を動かして体験的にゲームを楽しむた
めの体験型ゲーム装置に適用した場合、距離画像取得部
1は、対象物である手やボールやバット等を撮像可能な
位置に設置されるため、これらの位置関係によっては、
ユーザが夢中になるあまり、誤って手やボールやバット
等により投打され、破損することもあろう。
【0073】図12は、第3の実施形態に係る例の物体
検知装置の構成例を示したもので、距離画像取得部1、
情報管理部32、画像処理部33、呈示部34、緩衝部
35から構成されている。
【0074】情報管理部32は、距離画像取得部1、画
像処理部33、呈示部34を制御し、距離画像取得部1
で取得された画像を画像処理部33に送り、また画像処
理部33における距離画像の処理(距離画像から目標
物、該目標物の動きの抽出)の結果得られた情報に基づ
き、当該ゲーム装置に適した判断処理等を行って、処理
結果を提示部34に提示する。
【0075】提示部34は、小型の液晶パネルなどから
構成される構成されている。距離画像取得部1が画像を
取得できる限界接写距離Cd付近には緩衝部35が設け
られている。この位置は、距離画像取得部1が距離画像
を取得できる視野角(画像取得範囲)を越えたところに
ある。
【0076】ボクシングゲームで手がこの緩衝部35に
向かって繰り出すようにする。あるいはテニスやバッテ
ィングゲームでは、図13に示すように、緩衝部35の
手前に対象となるボールを置くようにして、このボール
は緩衝部35に妨げられて、距離画像取得部1にぶつか
ることがないようにする。
【0077】距離画像取得部1にて得た距離画像は情報
管理部32を経て、画像処理部33に送られる。画像処
理部32では、腕の動き、ボールの動きを解析し、その
解析結果を情報管理部32へ送る。情報管理部32はそ
れをもとに、それぞれのゲーム毎の勝敗を判定し、その
結果を呈示部5に呈示する。
【0078】以上、第3の実施形態によれば、体験型ゲ
ーム装置等の娯楽設備に本発明の物体検知装置を適用し
た場合に、距離画像取得部1を誤って投打されたりして
破損することを防ぐことができるだけでなく、画像取得
の限界内に手や身体、バットなどの物体の一部がはい
り、正常な処理を妨げることもなく、その効果は大き
い。さらに、緩衝部35の緩衝材として、適度な弾性の
あるものを用いると、実際に投打した体感を得ることも
できるので、その効果は絶大である。
【0079】なお、上記実施形態では、緩衝部35の緩
衝材は不透明な材質を想定しているが、必ずしもこれに
限定されるわけではない。緩衝部35が光を透過するよ
うな透明な材質のものであれば、距離画像取得部1の画
像取得範囲内に設けてもよい。すなわち、例えば透明な
アクリル板あるいは、透明な材質で伸縮性のある袋に空
気をつめたものを緩衝部35として、画像取得部1の前
面から限界接写距離Cdの位置に配置して、距離画像取
得部1を手やボール等により誤って投打されないように
防御するようにしてもよい。 (第4の実施形態)本発明の物体検知装置は、文字等の
パターン認識装置にも適用できる。
【0080】図14は、製品製作ラインに設けられる仕
分け装置の構成例を示したもので、距離画像を用いて文
字認識を行い、その認識結果に基づき製品の仕分けを行
うものである。
【0081】ベルトコンベアなどで構成された搬送路4
6上に製品(図14では、球体であり、その表面には仕
分け先別に、例えば「ABC」、「DEF」、「GH
I」という文字が印字されている)P1、P2、P3が
搬送される。
【0082】本実施形態に係る仕分け装置は、搬送路4
6上の製品の距離画像を画像取得部1で撮像し、該距離
画像から抽出される対象物としての文字を認識して、製
品の仕分けを行うようになっている。
【0083】距離画像取得部1は、搬送路46上の製品
が撮像できる予め定められた位置に固定され、順次搬送
されてくる製品の距離画像を撮像する。製品の表面と、
そこに印字されている文字「ABC」、「DEF」、
「GHI」は距離画像取得部1からの照射光に対して、
異なる反射率を有している。
【0084】画像処理部42では、製品の表面からの反
射光と、表面に印字されている文字からの反射光との強
さの違いにより、すなわち、例えば、文字の方が反射率
が低い場合、反射光画像である距離画像の各画素値が小
さい画素を取り出して、文字を抽出する。さらに、予め
記憶された文字辞書を用いてパターン認識を行って、文
字を認識し、その認識結果を情報管理部43に通知す
る。
【0085】情報管理部43は、距離画像取得部1、画
像処理部42、呈示部48を制御し、距離画像取得部1
で取得された画像を画像処理部42に送り、また画像処
理部42における文字認識結果に基づき、搬送路46上
の製品を仕分けするための指示を遮蔽板制御部44に送
る。また、提示部48に文字認識結果とそれに応じた製
品の仕分け先とを提示するようにしてもよい。
【0086】仕分けは、例えば、搬送路46上に設けら
れた遮蔽板45a、45bを遮蔽板制御部44の指示に
従って立てたり倒したりすることにより、文字認識結果
に応じた仕分け箱47a〜47cに製品を導くことより
行っている。
【0087】距離画像取得部1の設置位置が固定で、搬
送路46上の製品の画像取得位置が一定であるならば
(例えば、所定位置に設けられたセンサにて製品の通過
を検知した際に距離画像取得部1にて画像を取得するよ
うにする)、距離画像取得部1と製品までの距離値は予
め明確に予測可能である。
【0088】球面に印字された文字を撮像した距離画像
では、球体中心部に印字された文字と周辺部に印字され
た文字とが同一平面上にないことから反射光の強さが異
なり、従って文字にゆがみが生じる。
【0089】製品が予め定められた寸法の球体で、その
表面に印字される文字の位置が予め定められていて、撮
像方向が一定している場合、このゆがみの量(反射光の
強さの違い)も球体中心部と周辺部における距離の違い
から明確に推測できうる。従って、画像処理部42で
は、距離画像から文字を抽出する際に、このような文字
のゆがみから予め推測される反射光の強さ(画素値)を
補正することにより、より正確に文字を抽出することが
できる。
【0090】次に、図15に示すフローチャートを参照
して、図14の仕分け装置の処理動作について説明す
る。まず、電源の投入、動作の開始指示にて起動される
と所定の初期化処理動作が行われ、搬送路46が駆動さ
れる(ステップS31)。
【0091】画像取得部1は、搬送路46にて搬送され
てくる製品P1〜P3の距離画像を順次取得し(ステッ
プS32)、画像処理部42にて取得した距離画像中か
ら反射率が異なる(この場合は、例えば、印字文字の反
射率が低いので、画素値P(i、j)の値が予め定めら
れた値より小さい)画素を抜き出して、文字を抽出する
(ステップS33)。その際、前述したような文字のゆ
がみに対応する画素値の補正を行うようにしてもよい。
【0092】次に、画像処理部42は、予め記憶された
文字辞書にある認識対象としても文字「ABC」、「D
EF」、「GHI」のパターンのいづれかに抽出した文
字が一致するか否かを調べる。その結果を情報管理部4
3に通知する。
【0093】文字辞書に(予め許容される類似度にて)
一致する文字パターンがあったときは、その文字に対応
する仕分け箱にいくように、遮蔽板制御部44にて、該
当する遮蔽板を操作する(ステップS34〜ステップS
35)。
【0094】文字辞書に一致する文字パターンがないと
きは、、「仕分不能」を呈示部48に呈示し(ステップ
S37)、処理を終了する。また、一定期間がすぎて
も、製品が流れてこず、取得した画像中に文字が検出さ
れない場合には、情報管理部43は、停止と見なし、処
理終了指示を出してもよい(ステップS36)。
【0095】以上説明したように、上記第4の実施形態
によれば、距離画像を用いることにより、同一の距離に
おいても、被写体の反射率の違いから明確に文字等のパ
ターンを認識することができるので、例えば、製品番号
に応じた仕分けや、さらには塗装仕上げの善し悪しによ
る仕分け等の複雑な制御を容易に行うことができ、製造
工程の自動化に大いに貢献する。
【0096】なお、上記第4の実施形態では、印字文字
が製品表面より低い反射率をもつようにしているが、必
ずしもこれに限定するものではない。製品表面が黒色な
ど低い反射率をもつ場合には、印字文字を銀地などの反
射率の高いインクにするなどすることで、容易に高精度
の判別を実現できる。
【0097】
【発明の効果】以上説明したように、本発明によれば、
高速でローバストな物体検知が可能となり、しかも小型
化が容易に行える。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る動作制御装置の
構成例を示した図。
【図2】距離画像取得部の構成例を示した図。
【図3】反射光の強度を画素値とする距離画像の一例を
示した図。
【図4】図3に示した様なマトリックス形式の距離画像
を3次元的な表した図。
【図5】図1に示した構成の動作制御装置の一例として
のロボットの外観と、このロボットの目に具備された距
離画像取得部の受光部と受光部を一例を示した図。
【図6】距離画像から抽出された物体の輪郭画像の一例
を示した図。
【図7】画像処理部に記憶される認識辞書の登録されて
いるパターンの一例を示した図。
【図8】図1の動作制御装置の処理動作を説明するため
のフローチャート。
【図9】動作制御装置の他の構成例を示した図。
【図10】本発明の第2の実施形態に係る動作制御装置
の構成例を示した図。
【図11】図10の動作制御装置の処理動作を説明する
ためのフローチャート。
【図12】本発明の第3の実施形態に係る物体検知装置
の構成とその適用例を示した図。
【図13】図12の物体検知装置の他の適用例と示した
図。
【図14】本発明の第4の実施形態に係る仕分け装置の
構成例を示した図。
【図15】図14の仕分け装置の処理動作を説明するた
めのフローチャート。
【符号の説明】
1…画像取得部 2、23…画像処理部 3…自走制御部 4…自走部 5…提示部 6、24…動作制御部 7、25…動作部 22…2次元画像取得部 32…情報管理部 33…画像処理部 34…提示部 35…緩衝部 42…画像処理部 43…情報管理部 44…遮蔽板制御部 48…提示部 101…発光部 102…反射光抽出部 103…受光部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 沼崎 俊一 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 特性の異なる画像を取得する複数の画像
    取得手段と、 この複数の画像取得手段のうちの少なくとも1つで取得
    された画像に基づき対象物あるいは該対象物の動きを検
    知する検知手段と、 を具備したことを特徴とする物体検知装置。
  2. 【請求項2】 前記複数の画像取得手段で取得された複
    数の画像のうちの少なくとも1つは距離画像であること
    を特徴とする請求項1記載の物体検知装置。
  3. 【請求項3】 前記複数の画像取得手段は、画像の取得
    可能距離がそれぞれ異なることを特徴とする請求項1記
    載の物体検知装置。
  4. 【請求項4】 前記複数の画像取得手段は、取得画像の
    次元数がそれぞれ異なることを特徴とする請求項1記載
    の物体検知装置。
  5. 【請求項5】 距離画像を取得する画像取得手段と、 前記画像取得手段が取得した距離画像に基づき対象物あ
    るいは該対象物の動きを検知する検知手段と、 この検知手段での検知結果に基づき動作を制御する制御
    手段と、 を具備したことを特徴とする動作制御装置。
  6. 【請求項6】 特性の異なる画像を取得する複数の画像
    取得手段と、 この複数の画像取得手段のうちの少なくとも1つで取得
    された画像に基づき対象物あるいは該対象物の動きを検
    知する検知手段と、 この検知手段での検知結果に基づき動作を制御する制御
    手段と、 を具備したことを特徴とする動作制御装置。
  7. 【請求項7】 前記制御手段は、前記距離画像から検知
    された対象物までの距離に基づき動作を制御することを
    特徴とする請求項5記載の動作制御装置。
  8. 【請求項8】 前記複数の画像取得手段で取得された複
    数の画像のうちの少なくとも1つは距離画像であること
    を特徴とする請求項6記載の動作制御装置。
  9. 【請求項9】 反射光の強度分布としての反射光画像を
    取得する画像取得手段と、 この画像取得手段で取得された反射光画像と被写体の反
    射率とに基づき該反射光画像から予め定められたパター
    ンを認識する認識手段と、 を具備したことを特徴とするパターン認識装置。
  10. 【請求項10】 前記画像取得手段は、対象物が該画像
    取得手段の画像取得の限界接写距離よりも接近せず、し
    かも該対象物に衝突されることがないように配置されて
    いることを特徴とする請求項1記載の物体検知装置。
JP01402998A 1998-01-27 1998-01-27 物体検知装置 Expired - Fee Related JP3660492B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01402998A JP3660492B2 (ja) 1998-01-27 1998-01-27 物体検知装置
US09/236,574 US6456728B1 (en) 1998-01-27 1999-01-26 Object detection apparatus, motion control apparatus and pattern recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01402998A JP3660492B2 (ja) 1998-01-27 1998-01-27 物体検知装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004366337A Division JP2005100466A (ja) 2004-12-17 2004-12-17 パターン認識装置

Publications (2)

Publication Number Publication Date
JPH11213166A true JPH11213166A (ja) 1999-08-06
JP3660492B2 JP3660492B2 (ja) 2005-06-15

Family

ID=11849747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01402998A Expired - Fee Related JP3660492B2 (ja) 1998-01-27 1998-01-27 物体検知装置

Country Status (2)

Country Link
US (1) US6456728B1 (ja)
JP (1) JP3660492B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法
JP2011033392A (ja) * 2009-07-30 2011-02-17 Kobe Steel Ltd 凹凸形状を抽出するための画像処理方法及び画像処理装置
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション
JP2017534940A (ja) * 2014-12-30 2017-11-24 チンタオ ゴーアテック テクノロジー カンパニー リミテッドQingdao Goertek Technology Co., Ltd. 3dシーンでオブジェクトを再現するシステム及び方法
US10482670B2 (en) 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7053937B1 (en) * 1999-05-21 2006-05-30 Pentax Corporation Three-dimensional image capturing device and recording medium
JP4207336B2 (ja) * 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20020071277A1 (en) * 2000-08-12 2002-06-13 Starner Thad E. System and method for capturing an image
JP4027031B2 (ja) * 2000-11-16 2007-12-26 株式会社コナミデジタルエンタテインメント 対戦式3dビデオゲーム装置
US20020085738A1 (en) * 2000-12-28 2002-07-04 Peters Geoffrey W. Controlling a processor-based system by detecting flesh colors
JP4639293B2 (ja) * 2001-02-27 2011-02-23 オプテックス株式会社 自動ドアセンサ
JP3849505B2 (ja) * 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
TWI224288B (en) * 2003-01-29 2004-11-21 Ind Tech Res Inst Method for aligning gesture feature of image
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US7310442B2 (en) 2003-07-02 2007-12-18 Lockheed Martin Corporation Scene analysis surveillance system
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
US8456534B2 (en) * 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
US8842186B2 (en) 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
US8760522B2 (en) 2005-10-21 2014-06-24 I-Interactive Llc Multi-directional remote control system and method
EP1851750A4 (en) 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
US20070157226A1 (en) * 2005-12-21 2007-07-05 Raghavendra Misra Segmentation and communication of live-action sporting event data apparatus and method
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8013838B2 (en) 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
EP2054007B1 (en) * 2006-08-15 2011-10-19 Philips Intellectual Property & Standards GmbH Assistance system for visually handicapped persons
US7986336B2 (en) * 2006-11-27 2011-07-26 Eastman Kodak Company Image capture apparatus with indicator
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
US8894461B2 (en) * 2008-10-20 2014-11-25 Eyecue Vision Technologies Ltd. System and method for interactive toys based on recognition and tracking of pre-programmed accessories
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
US8237656B2 (en) * 2007-07-06 2012-08-07 Microsoft Corporation Multi-axis motion-based remote control
US20090062002A1 (en) * 2007-08-30 2009-03-05 Bay Tek Games, Inc. Apparatus And Method of Detecting And Tracking Objects In Amusement Games
US9684968B2 (en) * 2007-12-07 2017-06-20 Tom Chau Method, system and computer program for detecting and characterizing motion
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
KR101591471B1 (ko) * 2008-11-03 2016-02-04 삼성전자주식회사 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
TWI388956B (zh) * 2009-05-20 2013-03-11 Univ Nat Taiwan Science Tech 行動機器人與其目標物處理路徑的規劃方法
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
KR101634355B1 (ko) * 2009-09-18 2016-06-28 삼성전자주식회사 동작 검출 장치 및 방법
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8494282B2 (en) * 2010-07-19 2013-07-23 Hewlett-Packard Development Company, L.P. Blur estimation
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9784577B2 (en) * 2012-03-16 2017-10-10 Lg Innotek Co., Ltd. Measuring distance from object by using size of pattern projected onto object
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9625995B2 (en) 2013-03-15 2017-04-18 Leap Motion, Inc. Identifying an object in a field of view
JP2014215877A (ja) * 2013-04-26 2014-11-17 株式会社デンソー 物体検出装置
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US10049273B2 (en) * 2015-02-24 2018-08-14 Kabushiki Kaisha Toshiba Image recognition apparatus, image recognition system, and image recognition method
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
CN113313052B (zh) * 2021-06-15 2024-05-03 杭州萤石软件有限公司 悬崖区域检测及移动机器人控制方法、装置及移动机器人

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5151945A (en) * 1990-09-11 1992-09-29 The Research Foundation Of State Univ. Of N.Y. Determination of ambient light level changes in visual images
US5900863A (en) * 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US6141105A (en) * 1995-11-17 2000-10-31 Minolta Co., Ltd. Three-dimensional measuring device and three-dimensional measuring method
US5751838A (en) * 1996-01-26 1998-05-12 Nec Research Institute, Inc. Correction of camera motion between two image frames
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法
JP2011033392A (ja) * 2009-07-30 2011-02-17 Kobe Steel Ltd 凹凸形状を抽出するための画像処理方法及び画像処理装置
JP2017534940A (ja) * 2014-12-30 2017-11-24 チンタオ ゴーアテック テクノロジー カンパニー リミテッドQingdao Goertek Technology Co., Ltd. 3dシーンでオブジェクトを再現するシステム及び方法
US10482670B2 (en) 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device

Also Published As

Publication number Publication date
JP3660492B2 (ja) 2005-06-15
US6456728B1 (en) 2002-09-24
US20020028001A1 (en) 2002-03-07

Similar Documents

Publication Publication Date Title
JPH11213166A (ja) 物体検知装置およびパターン認識装置および動作制御装置
CN108885459B (zh) 导航方法、导航系统、移动控制系统及移动机器人
US11250248B2 (en) Recognition method and apparatus and mobile platform
CA3073920C (en) Collision detection, estimation, and avoidance
US9235292B2 (en) Interactive projector system and method
JP7438223B2 (ja) 少なくとも1つの物体の位置を決定するための検出器
AU2012231931B2 (en) Virtual golf simulation apparatus and sensing device and method used for same
US11164378B1 (en) Virtual reality detection and projection system for use with a head mounted display
CN110622085A (zh) 移动机器人及其控制方法和控制系统
US8998718B2 (en) Image generation system, image generation method, and information storage medium
US20060160616A1 (en) Measuring device using image and measurement method using image
KR20100017212A (ko) 볼륨 인식 방법 및 시스템
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
KR20110139694A (ko) 제스쳐 인식 방법 및 시스템
CN103501868A (zh) 对分开的计算机游戏元素的控制
JP5320332B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
US9561403B2 (en) Apparatus and system for automatic collection and delivery of spherical game elements
CN104353240A (zh) 基于Kinect的跑步机系统
MohaimenianPour et al. Hands and faces, fast: Mono-camera user detection robust enough to directly control a uav in flight
CN113946223A (zh) 一种采用显示屏的旅游互动方法
US20160073087A1 (en) Augmenting a digital image with distance data derived based on acoustic range information
KR102490972B1 (ko) 라이다센서 및 인공지능을 이용한 실외 골프-시뮬레이션 운영 시스템
JP2005100466A (ja) パターン認識装置
TWI413018B (zh) 體積識別方法及系統
JP2017064180A (ja) 投影システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080325

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees