JP2000222585A - 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体 - Google Patents
動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体Info
- Publication number
- JP2000222585A JP2000222585A JP11023939A JP2393999A JP2000222585A JP 2000222585 A JP2000222585 A JP 2000222585A JP 11023939 A JP11023939 A JP 11023939A JP 2393999 A JP2393999 A JP 2393999A JP 2000222585 A JP2000222585 A JP 2000222585A
- Authority
- JP
- Japan
- Prior art keywords
- image
- movement
- motion
- detecting
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
方法およびそれを用いた動き検出装置、動き認識装置を
提供する。 【解決手段】距離画像を取得する画像取得手段と、この
画像取得手段で取得した距離画像を所定の大きさの小領
域に分割する分割手段と、前記画像取得手段で連続して
取得した距離画像間で、類似する前記小領域毎に平面方
向の動きを検出する第1の検出手段と、前記小領域毎に
奥行き情報を算出する算出手段と、この算出手段で算出
された奥行き情報を基に類似する小領域間で奥行き方向
の動きを検出する第2の検出手段とを具備する。
Description
ず、奥行き方向の動きを検出する動き検出方法およびそ
れを用いた動き検出装置に関する。
行き方向の動きを検出して、その動きを認識する動き認
識方法およびそれを用いた動き認識装置に関する。
いて、認識対象物の動きを抽出しようとした場合、以下
のような方法が取られていた。
れる手法である。これは、特定のブロック画像に着目
し、隣り合うフレーム間で、ある着目画像領域が平面内
でどの方角に動いたかを計測し、その方向を推定するも
のである。次フレームにおける対象画像の移動方向を特
定するには、時系列的に隣り合うフレーム間で類似度を
算出する方法が代表的である。対象画像領域近傍で同じ
サイズのブロック画像を対象に前フレームにおける着目
ブロック画像との相関係数を計算し、その係数の最も高
いブロックへの方向が動きベクトルとして推定される。
ボットビジョンの分野では広く利用されており、相関係
数の計算はハードウェア化が容易なため、相関係数を計
算する特殊なアクセラレータボードを付加することでリ
アルタイムなトラッキングも可能となっている。この手
法は、着目ブロック画像が2次元的に大きく変化しない
場合、かなりの精度で平面方向の動き成分を抽出するこ
とが可能であるが、対象画像はビデオカメラなどで取得
した2次元画像であるため、奥行き方向を含めた3次元
的な動き情報は検出できていない。
て、隣り合うピクセル間で差分情報をハード的に抽出す
ることで、動きベクトルを推定するセンサも登場してき
ている。リアルタイムに動き成分がとれることからゲー
ムなどのエンターテイメント分野、あるいは監視システ
ムに利用されつつある。この場合も、ピクセルレベルで
の2次元的動き情報は抽出されるが、奥行き方向の動き
情報は抽出することが不可能である。
動きの検出以外にも、画像中の特徴点をトラッキングす
るという手法もある。たとえば、手先の動きをトラッキ
ングする場合を考えてみる。この場合、まず複数のカメ
ラから撮像した手の取得画像から、手先に相当する部分
を特徴点として定義し、その3次元位置情報を検出する
ことが必要になる。そのためには、まず各カメラで同時
期に取得された画像から特徴点(手先)を抽出し、その
スクリーン座標から3角測量の要領で特徴点の3次元的
な空間位置情報を求める。次に時系列的に求められた特
徴点の空間位置情報から、特徴点、この場合手先の3次
元的な動き情報を検出することができるわけである。し
かし、この手法では、事前に各カメラの各種パラメータ
の調整に相当するキャリブレーションを行った上で、特
徴点の抽出、対応づけといった煩雑な作業が必要であ
り、汎用的に使える手法とは言えない。
あらかじめセンサを装着し、撮像した画像からセンサ部
位を抽出し、2次元的あるいは3次元的な動きを計測す
るモーションキャプチャと呼ばれる手法も存在する。こ
の手法では、上記で紹介した手法に比べ、特徴点の抽出
や対応づけ処理は軽くなるが、システム全体のコストが
高くつき、システムを稼動する上での制約も多い。さら
に煩わしい特定のセンサデバイスを装着する必要があ
り、とても一般ユーザが使えるものにはなっていない。
ら奥行き情報を含む3次元的な動きの抽出を行う方法に
は様々な問題点があった。
従来の手法では、ビデオカメラなどを用いて認識対象物
を2次元情報しか持たない画像として取得していたた
め、対象物の3次元的な動きの抽出を2次元情報のみか
ら行うしかなく、高精度で奥行き方向を含めた3次元的
な動きの認識を行うことは不可能であった。
度に検出できる動き検出方法およびそれを用いた動き検
出装置を提供することを目的とする。
に認識できる動き認識方法およびそれを用いた動き認識
装置を提供することを目的とする。
方法は、取得した距離画像を所定の大きさの小領域に分
割して、連続して取得した距離画像間で、類似する前記
小領域毎に平面方向の動きを検出し、前記小領域毎に奥
行き情報を算出して、該奥行き情報を基に類似する小領
域間で奥行き方向の動きを検出することにより、3次元
的な動きを高精度に検出することができる。
距離画像を所定の大きさの小領域に分割して、前記小領
域毎に奥行き情報を算出し、連続して取得した距離画像
間で、前記小領域毎に前記奥行き情報を基に奥行き方向
の動きを検出し、移動元の小領域と、前記検出された奥
行き方向の動きに基づき前記奥行き情報を補正した小領
域であって前記移動元の小領域に類似する小領域との間
で平面方向の動きを検出することにより、奥行き方向の
動き成分による距離画像の濃淡変化を補正した上で、平
面方向動き情報の検出を行っているため、より高精度に
奥行き方向の動き成分を有する対象物の3次元的な動き
を検出することができる。
距離画像を所定の大きさの小領域に分割して、連続して
取得した距離画像間で、類似する前記小領域毎に平面方
向の動きを検出し、前記小領域毎に奥行き情報を算出し
て、該奥行き情報を基に類似する小領域間で奥行き方向
の動きを検出し、前記平面方向の動きと前記奥行き方向
の動きとから該動きを認識することにより、3次元的な
動きを高精度に認識することができる。
距離画像を所定の大きさの小領域に分割して、前記小領
域毎に奥行き情報を算出し、連続して取得した距離画像
間で、前記小領域毎に前記奥行き情報を基に奥行き方向
の動きを検出し、移動元の小領域と前記検出された奥行
き方向の動きに基づき前記奥行き情報を補正した小領域
であって前記移動元の小領域に類似する小領域との間で
平面方向の動きを検出し、前記平面方向の動きと前記奥
行き方向の動きとから該動きを認識することにより、奥
行き方向の動き成分による距離画像の濃淡変化を補正し
た上で、平面方向動き情報の検出を行っているため、よ
り高精度に奥行き方向の動き成分を有する対象物の3次
元的な動きを認識することができる。
を取得する画像取得手段と、この画像取得手段で取得し
た距離画像を所定の大きさの小領域に分割する分割手段
と、前記画像取得手段で連続して取得した距離画像間
で、類似する前記小領域毎に平面方向の動きを検出する
第1の検出手段と、前記小領域毎に奥行き情報を算出す
る算出手段と、この算出手段で算出された奥行き情報を
基に類似する小領域間で奥行き方向の動きを検出する第
2の検出手段と、を具備したことにより、3次元的な動
きを高精度に検出することができる。
を取得する画像取得手段と、この画像取得手段で取得し
た距離画像を所定の大きさの小領域に分割する分割手段
と、前記小領域毎に奥行き情報を算出する算出手段と、
前記画像取得手段で連続して取得した距離画像間で、前
記小領域毎に前記奥行き情報を基に奥行き方向の動きを
検出する第1の動き検出手段と、この第1の検出手段で
検出された奥行き方向の動きに基づき前記奥行き情報を
補正する補正手段と、移動元の小領域と、前記補正手段
で前記奥行き情報を補正した小領域であって前記移動元
の小領域に類似する小領域との間で平面方向の動きを検
出する第2の検出手段とを具備したことにより、奥行き
方向の動き成分による距離画像の濃淡変化を補正した上
で、平面方向動き情報の検出を行っているため、より高
精度に奥行き方向の動き成分を有する対象物の3次元的
な動きを検出することができる。
を取得する画像取得手段と、この画像取得手段で取得し
た距離画像を所定の大きさの小領域に分割する分割手段
と、前記画像取得手段で連続して取得した距離画像間
で、類似する前記小領域毎に平面方向の動きを検出する
第1の検出手段と、前記小領域毎に奥行き情報を算出す
る算出手段と、この算出手段で算出された奥行き情報を
基に類似する小領域間で奥行き方向の動きを検出する第
2の検出手段と、類似する小領域間から検出された前記
平面方向の動きと前記奥行き方向の動きとから該動きを
認識する認識手段と、を具備したことにより、3次元的
な動きを高精度に認識することができる。
を取得する画像取得手段と、この画像取得手段で取得し
た距離画像を所定の大きさの小領域に分割する分割手段
と、前記小領域毎に奥行き情報を算出する算出手段と、
前記画像取得手段で連続して取得した距離画像間で、前
記小領域毎に前記奥行き情報を基に奥行き方向の動きを
検出する第1の動き検出手段と、この第1の検出手段で
検出された奥行き方向の動きに基づき前記奥行き情報を
補正する補正手段と、移動元の小領域と、前記補正手段
で前記奥行き情報を補正した小領域であって前記移動元
の小領域に類似する小領域との間で平面方向の動きを検
出する第2の検出手段と、類似する小領域間から検出さ
れた前記平面方向の動きと前記奥行き方向の動きとから
該動きを認識する認識手段と、を具備したことにより、
奥行き方向の動き成分による距離画像の濃淡変化を補正
した上で、平面方向動き情報の検出を行っているため、
より高精度に奥行き方向の動き成分を有する対象物の3
次元的な動きを認識することができる。
図面を参照して説明する。 (第1の実施形態)図1は、本発明の第1の実施形態に
係る画像認識装置の全体構成図である。
トリームを取得するための撮像手段を備えた画像取得部
1と、画像取得部1で取得された距離画像を格納する画
像格納部2と、画像格納部2に格納された距離画像を動
き検出単位となる所定の大きさの小領域(ブロック画
像)に分割するブロック分割部3と、画像取得部1で取
得した距離画像を動き検出単位となる所定の大きさの小
領域(ブロック画像)に分割するブロック分割部4と、
画像格納部2に格納された距離画像(サンプル距離画
像)と画像取得部1で取得された距離画像(最新距離画
像)との間でブロック画像毎に平面方向の動き(平面方
向動きベクトル)を検出する平面方向動き検出部5と、
ブロック画像の奥行き情報(距離値)を算出する距離値
算出部6と、平面方向動き検出部5で検出された平面方
向の動き(平面方向動き情報、より具体的には平面方向
動きベクトル)に基づき推定される平面方向の移動元の
ブロック画像と移動先のブロック画像との間の距離値算
出部6で算出された距離値を基に奥行き方向の動き(奥
行き方向動き情報、より具体的には奥行き方向動きベク
トル)を検出する奥行き方向動き検出部7と、平面方向
動き検出部5で検出された平面方向動き情報と奥行き方
向動き検出部7で検出された奥行き方向動き情報とテン
プレート9を参照して当該動きを認識する動き認識部8
と、認識すべき動きを登録したテンプレート9とから構
成されている。
て説明する。
人間の手、顔、全身など)を、その3次元形状を反映し
た奥行き値を持つ画像(以降、距離画像と呼ぶ)として
所定時間毎(例えば1/30秒毎など)に取得するもの
である(例えば、特願平8−274949号の画像取得
方法などを用いて実現することができる)。
め、これらをメモリなどを用いて、画像取得部1の内部
または外部で逐次保持することで、対象物の距離画像に
よる動画像(以降、距離画像ストリームと呼ぶ)を得る
ことができる。このとき、距離画像ストリームは、距離
画像の取得間隔をt秒としたとき、「最新の距離画
像」、「最新からt秒前(以降、1フレーム前と呼ぶ)
の距離画像」、「最新から2t秒前(2フレーム前、以
下同様)の距離画像」、…、といった複数フレームの距
離画像の集合体として得られることになる。
に、発光部101、受光部103、反射光抽出部10
2、タイミング信号生成部104から構成される。
04にて生成されたタイミング信号に従って時間的に強
度変動する光を発光する。この光は発光部前方にある対
象物体に照射される。
の対象物体による反射光の量を検出する。
受光された反射光の空間的な強度分布を抽出する。この
反射光の空間的な強度分布は画像として捉えることがで
きるので、これを反射光画像あるいは距離画像と呼ぶ。
発せられる光の対象物による反射光だけでなく、照明光
や太陽光などの外光も同時に受光する。そこで、反射光
抽出部102は発光部101が発光しているときに受光
した光の量と、発光部101が発光していないときに受
光した光の量の差をとることによって、発光部101か
らの光の対象物体による反射光成分だけを取り出す。
て受光された反射光から、その強度分布、すなわち、図
3に示すような反射光画像(距離画像)を抽出する。
素の反射光画像の一部である8×8画素の反射光画像の
場合について示している。
なるにつれ大幅に減少する。物体の表面が一様に光を散
乱する場合、反射光画像1画素あたりの受光量は物体ま
での距離の2乗に反比例して小さくなる。
する単位受光部で受光した反射光の量を表す。反射光
は、物体の性質(光を鏡面反射する、散乱する、吸収す
る、など)、物体の向き、物体の距離などに影響される
が、物体全体が一様に光を散乱する物体である場合、そ
の反射光量は物体までの距離と密接な関係を持つ。手な
どは、このような性質をもつため、画像取得部1の前方
に手を差し出した場合の反射光画像は、手までの距離、
手の傾き(部分的に距離が異なる)などを反映する図4
に示したような3次元的なイメージを得ることができ
る。
号に記載されているような画像取得部1を構成する発光
部101と、受光部103の外観の一例を示したもの
で、中央部には円形レンズとその後部にあるエリアセン
サ(図示せず)から構成される受光部103が配置さ
れ、円形レンズの周囲にはその輪郭に沿って、赤外線な
どの光を照射するLEDから構成される発光部101が
複数(例えば6個)等間隔に配置されている。
射され、受光部103のレンズにより集光され、レンズ
の後部にあるエリアセンサで受光される。エリアセンサ
は、例えば256×256のマトリックス状に配列され
たセンサで、マトリックス中の各センサにて受光された
反射光の強度がそれぞれ画素値となる。このようにして
取得された画像が、図3に示すような反射光の強度分布
としての距離画像である。
256画素の一部の8x8画素)を示したものである。
この例では、行列中のセルの値(画素値)は、取得した
反射光の強さを8ビット256階調で示したものであ
る。例えば、「255」の値があるセルは、画像取得部
1に最も接近した状態、「0」の値があるセルは、画像
取得部1から遠くにあり、反射光が画像取得部1にまで
到達しないことを示している。
形式の距離画像データ全体を3次元的に示したものであ
る。この例では、人間の手の距離画像データの場合を示
している。
の距離画像の例を示す。距離画像は、奥行き情報を有す
る3次元画像で、例えば、x軸(横)方向64画素、y
軸(縦)方向64画素、z軸(奥行き)方向256階調
の画像になっている。図6は、距離画像の距離値、すな
わちz軸方向の階調をグレースケールで表現したもの
で、この場合、色が黒に近いほど画像取得部1からの距
離が近く、白に近くなるほど距離が遠いことを示してい
る。また、色が完全に白のところは、画像がない、ある
いはあっても遠方でないのと同じであることを示してい
る。
距離の2乗に反比例して小さくなる。すなわち、距離画
像中の各画素(i、j)の画素値をQ(i、j)とする
と、 Q(i、j)=K/d2 …(1) と表すことができる。
きに、R(i、j)の値が「255」になるように調整
された係数である。上式をdについて解くことで、距離
値を求めることができる。
いてより詳細に説明する。
た距離画像ストリーム中に含まれる距離画像のうち、常
に最新より数フレーム前(例えば、常に1フレーム前)
の距離画像(以降、サンプル距離画像と呼ぶ)を格納し
ておくためのものである。
ム前の距離画像を用いるかは、画像取得部1の距離画像
取得間隔(フレームレート)、対象物の動作速度などの
情報を基に決定する。例えば、対象物の2次元投影イメ
ージが変化しない一連の動作の間に、Nフレーム取得で
きるならば、サンプル画像は、1ないしNフレーム前の
距離画像の間で任意に選べばよい。
された距離画像(サンプル距離画像)を、動き検出単位
となるブロック画像に分割するためのものである。
に取得された距離画像(最新距離画像)を、動き検出単
位となるブロック画像に分割するためのものである。
等しいブロック画像に分割することを考える。例えば、
対象となる距離画像のフレームサイズがx軸(横)方向
64画素、y軸(縦)方向64画素である場合、x軸方
向、y軸方向それぞれに8等分して分割すると、1つの
ブロック画像の大きさは、x軸(横)方向8画素、y軸
(縦)方向8画素の計8x8=64画素で構成されるこ
とになる。
ブロック画像に分割した様子を表したものである。
ようにして画像格納部2に格納されたサンプル距離画像
と、画像取得部1によって新規に取得された最新距離画
像とから、平面方向の動き情報を検出するかを図8に示
すフローチャートを参照して説明する。
プル距離画像上のブロック画像のうち、動き情報算出の
対象となるブロック画像(対象ブロック)を設定する
(ステップS1)。
像上のブロック画像(探索ブロック)と、ステップS1
で設定された対象ブロックとの間の類似度を計算するこ
とで、対象物が動いたと推定される移動先ブロックの探
索を行う(ステップS2)。
探索ブロックは、ブロック分割部3、4で同じブロック
サイズに分割を行ったとすると、サンプル距離画像中の
1つの対象ブロックに対し、x軸方向、y軸方向に1ブ
ロックずつずらすことで、最大(x軸方向フレームサイ
ズ/x軸方向ブロックサイズ)×(y軸方向フレームサ
イズ/y軸方向ブロックサイズ)個のブロック画像をと
ることができる。しかし、実際には時系列的に近いフレ
ーム同士の相関はとても高いため、探索対象となるブロ
ックは、対象ブロックに対してx軸方向、y軸方向にそ
れぞれ1ブロックずつずらした範囲で行えば十分なこと
が多い。
像G1、その1フレーム前のサンプル距離画像G2とも
に一定サイズのブロック画像に分割し、各ブロック画像
間の類似度を求めることにする。例えば、フレームサイ
ズがx軸方向に64画素、y軸方向に64画素の距離画
像をx軸方向、y軸方向それぞれに8分割した場合、x
軸方向およびy軸方向のブロックサイズは共に64/8
=8画素となる。また、最新距離画像G2上の探索する
範囲としてサンプル距離画像G1中の対象ブロックa2
2に対し上下、左右に1ブロックずれたブロック画像b
11、b12、b13、b21、b23、b31、b3
2、b33とする。
択は、このように、必ずしも探索ブロック同士が互いに
重なり合わないブロック画像になるように選択する必要
はなく、サイズの等しいブロック画像として、最新距離
画像中の対象ブロックa22と等しい位置にあるブロッ
ク画像を中心として、x軸方向、y軸方向に1画素ずつ
ずらすことで、最大(x軸方向フレームサイズ−x軸方
向ブロックサイズ)×(y軸方向フレームサイズ−y軸
方向ブロックサイズ)個、任意にとることもできる。
単位の計測で、その位置をx軸方向にxブロック目、y
軸方向にyブロック目とし、(x,y)とする)と、サ
ンプル距離画像上の対象ブロック(その位置をブロック
単位の計測で、x軸方向にzブロック目、y軸方向にw
ブロック目とし、(z,w)とする)間の類似度Czw
−xyは、例えば、次式(2)から求めることができ
る。
ば、図9の対象ブロックa22)とその周辺の最新距離
画像上の全ての探索ブロック(例えば、図9の探索ブロ
ックb11、b12、b13、b21、b23、b3
1、b32、b33)のそれぞれとの類似度を算出する
(ステップ3)。図9において、サンプル距離画像G1
中の対象ブロックa22と最新距離画像G2中の探索ブ
ロックb11、b12、b13、b21、b23、b3
1、b32、b33との類似度を式(2)を用いて求め
ると、探索ブロックb22との類似度が「0.1」、探
索ブロックb32との類似度が「0.2」、探索ブロッ
クb33との類似度が「0.9」、それ以外の探索ブロ
ックとの類似度が「0」となる。
たら、平面方向動き検出部5で平面方向動きベクトル算
出処理(ステップS4)に移る。
で求めたサンプル距離画像上の対象ブロックに対する最
新距離画像上の探索ブロックの類似度算出結果から、対
象ブロックに最も類似しているブロック画像を抽出す
る。
その値の最も高い探索ブロックを抽出することになる。
例えば、図9において、サンプル距離画像中の対象ブロ
ックa22と最も類似する最新距離画像中の探索ブロッ
クはb33であるので、対象ブロックa22(ここで
は、対象ブロックa22の端点あるいは中心位置)から
探索ブロックb33(ここでは、探索ブロックb33の
端点あるいは中心位置)へのベクトルが最終的な平面方
向の動きベクトルとなる。
単位の計測で(2,2)の位置(つまり、x軸方向に2
ブロック、y軸方向に2ブロック目のブロック)、類似
度の最も高い探索ブロックの位置が同様に(3,3)の
位置であった場合、平面方向にブロック移動したと推定
される移動量は(3,3)−(2,2)=(1,1)と
なり、最終的な平面方向動きベクトル量はx軸方向に1
×(x軸方向のブロックサイズ)、y軸方向に1×(y
軸方向のブロックサイズ)となる。
上下、左右1ブロック範囲の探索ブロックにおいて、式
(2)を用いて算出した類似度と、最終的に検出された
平面方向動きベクトルを図示したものである。
象ブロックとして、ステップS1〜ステップS4を繰り
返し、平面方向動きベクトルを算出する(ステップS
5)。
画像が有するz軸方向(奥行き方向)の距離値を求める
ものである。これは、そのブロック画像に撮像されてい
る対象物体までの距離を代表する奥行き情報を求めるこ
とに相当している。
画素値を平均化することで、そのブロック画像の距離値
を求める場合を概念的に示したものである。例えば、座
標(x,y)にあるブロック画像の距離値Dxyは、そ
のブロック画像内のすべての画素値を平均化することに
より、次式(3)から求めることができる。なお、図1
0では、1フレーム中の隣接する2つのブロック画像
(第1のブロック画像、第2のブロック画像)の離散的
な画素値(ここでは、距離値に対応する)を連続する滑
らかな曲線で描いている。
ク画像中の画素値の平均値をそのまま距離値として用い
てもよく、また、式(3)を用いる際に、ブロック画像
中の各画素毎に例えば、式(1)を用いて求めた距離値
dをFxyとし用いてもよく、また、式(3)を用いて
求めた画素値の平均値から式(1)を用いて距離値dを
求めても良い。ここで、説明の簡単なため、上記いずれ
の場合であってもブロック画像の距離値と呼ぶことにす
る。
べた平均化による手法に限定する必要はなく、xy平面
上のブロック画像を底辺とする立方体を定義し、ブロッ
ク画像を構成する距離値の総和と等しくなるようなz軸
方向の高さを用いてもよいし、あるいは単にブロック画
像を構成する距離値の中間値などを用いることもでき
る。
構成する全ブロック画像において、平面方向動き検出部
5で検出された平面方向動きベクトルで推定される最新
距離画像上の移動先として推定されるブロック画像の距
離値、およびサンプル距離画像上の移動元のブロック画
像の距離値を差し引くことで、奥行き方向動き情報を算
出する。
て、サンプル距離画像と最新距離画像上の移動元のブロ
ック画像と移動先のブロック画像との距離値から奥行き
方向の動き情報が算出される様子を表したものである。
ここで算出された奥行き方向動き情報が最終的に奥行き
方向動きベクトル(向きが奥行き方向で大きさが移動元
のブロック画像と移動先のブロック画像との距離値の
差)として出力される。
される距離画像ストリームから平面方向動き情報のみな
らず、奥行き方向動き情報を検出することが可能となっ
ている。
精度、つまり1フレームあたりのブロック分割を細かく
行えば、より精細な動き情報の検出を行うことが可能で
あり、逆にブロック分割を粗く行えば、より大きな撮像
対象物体に対して対象レベルの動き検出を高速に行うこ
とが可能となる。
動き情報を求め、その後、奥行き方向動き情報を求めて
いるが、正確にいうならば、物体は、平面方向だけでな
く、奥行き方向にも動いているので、最初に求めた平面
方向動き情報には、奥行き方向動き情報を平面方向に投
影した分の動きが影響してしまっている。
問題点を解決するため、まず、全てのブロック画像に対
し、奥行き方向動き情報を求める。このとき、サンプル
距離画像上のあるブロック画像と最新距離画像上のどの
ブロック画像とが対応するかはわかっていないので、最
新距離画像上のサンプル距離画像上の対象ブロックに対
応する位置の近傍の複数のブロック画像に対し、奥行き
方向動き情報を求める。次に、この奥行き方向動き情報
を用いて、ブロック画像の奥行き情報(すなわち、距離
値)を補正し、補正された最新の距離画像のブロック画
像について、平面方向動き情報を求める。このようにす
ることで、奥行き方向動き情報を含まない正確な平面方
向動き情報を取得でき、さらにこれに基づいて、奥行き
方向動き情報を求めることが可能となる。
画像認識装置の全体構成図である。
トリームを取得するための撮像手段を備えた画像取得部
1と、画像取得部1で取得された距離画像を格納する画
像格納部12と、画像格納部12に格納された距離画像
を動き検出単位となる所定の大きさの小領域(ブロック
画像)に分割するブロック分割部13と、ブロック分割
部13で分割されたブロック画像の奥行き情報(距離
値)を算出する距離値算出部14と、画像取得部1で取
得した距離画像を動き検出単位となる所定の大きさの小
領域(ブロック画像)に分割するブロック分割部15
と、ブロック分割部15で分割されたブロック画像の奥
行き情報(距離値)を算出する距離値算出部16と、画
像格納部12に格納された距離画像(サンプル距離画
像)と画像取得部1で取得された距離画像(最新距離画
像)との間でブロック画像毎に奥行き方向の動き(奥行
き方向動きベクトル)を検出する奥行き方向動き検出部
17と、奥行き方向動き検出部17で検出された奥行き
方向動き情報に基づき画像取得部1で取得された距離画
像上のブロック画像の奥行き情報を補正する奥行き情報
補正部18と、奥行き情報を補正した最新距離画像上の
ブロック画像とサンプル距離画像上のブロック画像とか
ら平面方向の動き(平面方向動きベクトル)を検出する
平面方向動き検出部19と、平面方向動き検出部19で
検出された平面方向動きベクトルと奥行き方向動き検出
部17で検出された奥行き方向動きベクトルとテンプレ
ート9を参照して動きを認識する動き認識部8と、認識
すべき動きを登録したテンプレート9とから構成されて
いる。
分割部13、15、および距離値算出部14は、図1の
画像取得部1、画像格納部2、ブロック分割部3、4、
および距離値算出部6と同様であるので説明は省略し、
異なる部分について説明する。
1で取得した最新距離画像と画像格納部12に格納され
たサンプル距離画像おのおのにおいて、各ブロック画像
の奥行き情報(距離値)を、距離値算出部14、16で
予め算出しておくことにある。
距離画像上の動き検出対象であるブロック画像(対象ブ
ロック)に対する最新距離画像上のブロック画像の奥行
き方向の動きを検出する(奥行き方向動き情報を算出す
る)ものである。
照して、奥行き方向動き検出部17における奥行き方向
動き検出処理について説明する。
のうち、動き情報算出の対象となるブロック画像(対象
ブロック)を設定する(ステップS21)。
の動き情報探索の対象となるブロック画像(探索ブロッ
ク)の距離値を、ステップS21で設定されたサンプル
距離画像上の対象ブロックの距離値と比較することで、
奥行き方向動き情報を算出する(ステップS22)。探
索ブロックは、最新距離画像上からサンプル距離画像上
の対象ブロックに移動先となりうるブロック画像、すな
わち、探索ブロックを選択する場合は、第1の実施形態
と同様である。
ル距離画像上の対象ブロックの距離値を差し引くこと
で、その探索ブロックにおける対象ブロックの奥行き方
向動き情報を求めることができる。
ロックにサンプル距離画像上の対象ブロックが遷移した
かは明確でないが、ここで求めた各探索ブロックの奥行
き方向動き情報が、最終的な奥行き方向動きベクトルと
なるわけである。
全ての探索ブロックに対して行う(ステップS23)。
全ての探索ブロックに対しステップS22の処理を終了
したら、ステップS21に戻り、サンプル距離画像上の
他のブロック画像を対象ブロックに設定して、サンプル
距離画像上の全てのブロック画像についてステップS2
2の処理を行う(ステップS24)。
き検出部17で求めた各探索ブロックの奥行き方向動き
情報にもとづき、最新距離画像上のブロック画像を変換
し、平面方向動き検出部19において平面方向の動き成
分を精度よく抽出するために、奥行き方向動き成分を補
正する。
照して、奥行き情報補正部18における、奥行き情報補
正処理について説明する。
のうち、動き情報算出の対象となるブロック画像(対象
ブロック)を設定する(ステップS31)。奥行き方向
動き検出部17で、動き情報探索の対象となった最新距
離画像上のブロック画像に対して、各探索ブロック位置
で求められた奥行き方向動き情報に基づき、当該ブロッ
ク画像全体に距離値を補正するための変換処理をかける
(ステップS32)。
行った場合、その動きは対象物体を撮像した距離画像上
では、距離値変化、つまり濃淡変化として求められる。
したがって、第1の実施形態における平面方向動き検出
部5で行ったように異なる時間に取得された最新距離画
像とサンプル距離画像間で、ブロック画像間の相関をと
ってもそれらの間に類似性を見出せない場合も起こり、
この場合、平面方向の動き成分が検出できないというこ
とになるわけである。
情報補正部18で、最新距離画像に奥行き成分の補正を
かけることで、平面方向動き検出部19におけるブロッ
ク画像間の類似度計算において、上記の奥行き方向依存
成分を除去することが必要になるわけである。
の画像をその距離値が、対象ブロックの距離値と等しく
なるように変換処理をかけることにする。探索ブロック
を構成する画素パターンには変化を与えず、距離値のみ
を変化させる最も簡単な方法は、ブロックを構成する画
素全体の画素値をそのブロック画像の奥行き方向動き情
報だけz軸方向にシフトさせることである。
像上のx軸方向にxブロック目、y軸方向にyブロック
目の位置(x,y)にあるブロック画像中の画素値は次
式(4)を用いて、奥行き方向の補正を行うことができ
る。
距離画像上のブロック画像をそのブロック画像から検出
された奥行き方向動き情報だけ、z軸(奥行き)方向に
底上げし、当該ブロック画像の距離値をサンプル距離画
像上の対象ブロックの画像の距離値に合わせている様子
を示している。
上の全ての探索ブロックに対して行う(ステップS3
3)。全ての探索ブロックに対しステップS32の処理
を終了したら、ステップS31に戻り、サンプル距離画
像上の他のブロック画像を対象ブロックに設定して、サ
ンプル距離画像上の全てのブロック画像についてステッ
プS22の処理を行う(ステップS24)。
プル距離画像上の対象ブロックの画像と、奥行き情報補
正部18でその距離値を補正して得られた変換距離画像
とから、対象ブロックの平面方向動き情報を検出する。
れは、第1の実施形態における平面方向動き検出部5お
よび図8に示した平面方向動き検出部5の処理動作を示
したフローチャートの説明で、探索ブロックとして奥行
き情報補正部18で補正したブロック画像と置き換えれ
ば同様である。
ックにおいて、平面方向動き検出部19で検出された最
も相関の高いブロックへの相対ベクトルが平面方向動き
ベクトルとして検出され、移動先ブロック(最も相関の
高いブロック)における奥行き方向動き検出部17であ
らかじめ検出しておいた奥行き方向動き情報が奥行き方
向動きベクトルとして検出できたことになる。
方向動き情報の検出処理が一度で済むため、高速に奥行
き方向の動き情報を検出することができるが、奥行き方
向の動き成分が大きな対象物に対しては、平面方向の動
き成分を検出し損ねる可能性がある。一方、第2の実施
形態における構成では、奥行き方向動き情報に基づき最
新距離画像の奥行き情報に補正をかけ、奥行き方向の動
き成分による距離画像の濃淡変化を補正した上で、平面
方向動き情報の検出を行っているため、より高精度に奥
行き方向の動き成分を有する対象物の3次元動き情報を
検出することが可能となる。 (第1および第2の実施形態における動き検出結果の表
示および動き認識部8の説明)図17、18は、第1の
実施形態の平面方向動き検出部5と奥行き方向動き検出
部7、あるいは第2の実施形態の奥行き方向動き検出部
17と平面方向動き検出部19にて検出された、3次元
動き情報(平面方向動きベクトル、奥行き方向動きベク
トル)を3次元的なベクトルで表して、所定の表示装置
に表示する際の表示例を示したものである。
成される距離画像を縦方向に8等分、横方向に8等分に
分割し、各ブロック画像における動きベクトルを矢印で
3次元的に表示したものである。
例えば、図19に示すように、移動距離が0〜5cm、
5〜10cm、10〜15cmと3段階に分類して、奥
行き方向動き情報に基づき、矢印を段階的に色を違えた
り、線分の種類を違えたりして表示すればよい。
の下部に表示してあるスケールは、求められた各ブロッ
ク画像の動きベクトルを合成することで、フレーム全体
のXYZ各軸方向における動き成分のかたよりを表示し
たものである。例えば、図17の場合、X軸方向の動き
スケールが右に片寄っている、つまり動きベクトルが全
体的に右を向いていることを示しており、撮像した手が
右に動いていると解釈することができる。同様にY軸方
向、あるいは奥行き方向(Z軸方向)に関しても、動き
ベクトルのY軸方向成分、奥行き成分(Z軸方向成分)
を観察することで、撮像しているオブジェクトの全体的
な動きも検出することができるわけである。
つまり各ブロック画像における動き情報を検出するだけ
でなく、各ブロックにおける動きベクトルを合成するこ
とで、領域としての動き情報を求めることも可能であ
り、オブジェクトの動き認識といったより高次の動き検
出に利用することもできる。
は、64×64の画素で構成される距離画像を縦方向に
8等分、横方向に8等分に分割して各ブロック画像から
検出された平面方向および奥行き方向の動きベクトルを
合成して、縦方向に2等分、横方向に2等分に分割して
計4つのブロック画像毎の3次元的な動きベクトルを算
出する。
テンプレート9と照合して検出された動きがどのような
種類の動きであるかを認識する。このテンプレート9
は、所定のメモリ上に構成される。
すべき動き(例えば、右上への移動、左上への移動、右
回りの回転移動、左回りの回転移動等)のそれぞれに対
応する4つの各ブロック画像毎の3次元動きベクトルが
予め登録されている。
きベクトルを合成して4つの3次元動きベクトルを算出
し、図19に示したようなテンプレート9を参照するこ
とにより、この距離画像から検出された動きは右上への
移動であると認識できる。また、図18に示したような
動きベクトルを合成して4つの3次元動きベクトルを算
出し、図19に示したようなテンプレートを参照するこ
とにより、この距離画像から検出された動きは右回りの
回転移動であると認識できる。
分を除いて、ソフトウェアとしても実現可能である。す
なわち、上記した各手順をコンピュータに実行させるこ
とのできるプログラムとして機械読みとり可能な記録媒
体に記録して頒布することができる。
るものではなく、その技術的範囲において種々変形して
実施することができる。
3次元的な動きを高精度に検出できる。また、3次元的
な動き高精度に認識できる。
構成例を概略的に示す図。
一例を示した図。
ローチャート。
の図。
的に説明するための図。
ための図。
の構成例を概略的に示す図。
めのフローチャート。
フローチャート。
の図。
一例を示した図。
行き方向動きベクトル)を3次元的なベクトルで表し
て、所定の表示装置に表示する際の表示例を示した図。
行き方向動きベクトル)を3次元的なベクトルで表し
て、所定の表示装置に表示する際の表示例を示した図。
行き方向動きベクトル)を表したベクトルの3次元的な
表示例を示した図。
Claims (10)
- 【請求項1】 取得した距離画像を所定の大きさの小領
域に分割して、連続して取得した距離画像間で、類似す
る前記小領域毎に平面方向の動きを検出し、前記小領域
毎に奥行き情報を算出して、該奥行き情報を基に類似す
る小領域間で奥行き方向の動きを検出することを特徴と
する動き検出方法。 - 【請求項2】 取得した距離画像を所定の大きさの小領
域に分割して、前記小領域毎に奥行き情報を算出し、連
続して取得した距離画像間で、前記小領域毎に前記奥行
き情報を基に奥行き方向の動きを検出し、移動元の小領
域と、前記検出された奥行き方向の動きに基づき前記奥
行き情報を補正した小領域であって前記移動元の小領域
に類似する小領域との間で平面方向の動きを検出するこ
とを特徴とする動き検出方法。 - 【請求項3】 取得した距離画像を所定の大きさの小領
域に分割して、連続して取得した距離画像間で、類似す
る前記小領域毎に平面方向の動きを検出し、前記小領域
毎に奥行き情報を算出して、該奥行き情報を基に類似す
る小領域間で奥行き方向の動きを検出し、前記平面方向
の動きと前記奥行き方向の動きとから該動きを認識する
ことを特徴とする動き認識方法。 - 【請求項4】 取得した距離画像を所定の大きさの小領
域に分割して、前記小領域毎に奥行き情報を算出し、連
続して取得した距離画像間で、前記小領域毎に前記奥行
き情報を基に奥行き方向の動きを検出し、移動元の小領
域と前記検出された奥行き方向の動きに基づき前記奥行
き情報を補正した小領域であって前記移動元の小領域に
類似する小領域との間で平面方向の動きを検出し、前記
平面方向の動きと前記奥行き方向の動きとから該動きを
認識することを特徴とする動き認識方法。 - 【請求項5】 距離画像を取得する画像取得手段と、こ
の画像取得手段で取得した距離画像を所定の大きさの小
領域に分割する分割手段と、前記画像取得手段で連続し
て取得した距離画像間で、類似する前記小領域毎に平面
方向の動きを検出する第1の検出手段と、 前記小領域毎に奥行き情報を算出する算出手段と、 この算出手段で算出された奥行き情報を基に類似する小
領域間で奥行き方向の動きを検出する第2の検出手段
と、 を具備したことを特徴とする動き検出装置。 - 【請求項6】 距離画像を取得する画像取得手段と、 この画像取得手段で取得した距離画像を所定の大きさの
小領域に分割する分割手段と、 前記小領域毎に奥行き情報を算出する算出手段と、 前記画像取得手段で連続して取得した距離画像間で、前
記小領域毎に前記奥行き情報を基に奥行き方向の動きを
検出する第1の動き検出手段と、 この第1の検出手段で検出された奥行き方向の動きに基
づき前記奥行き情報を補正する補正手段と、 移動元の小領域と、前記補正手段で前記奥行き情報を補
正した小領域であって前記移動元の小領域に類似する小
領域との間で平面方向の動きを検出する第2の検出手段
と、 を具備したことを特徴とする動き検出装置。 - 【請求項7】 距離画像を取得する画像取得手段と、 この画像取得手段で取得した距離画像を所定の大きさの
小領域に分割する分割手段と、 前記画像取得手段で連続して取得した距離画像間で、類
似する前記小領域毎に平面方向の動きを検出する第1の
検出手段と、 前記小領域毎に奥行き情報を算出する算出手段と、 この算出手段で算出された奥行き情報を基に類似する小
領域間で奥行き方向の動きを検出する第2の検出手段
と、 類似する小領域間から検出された前記平面方向の動きと
前記奥行き方向の動きとから該動きを認識する認識手段
と、 を具備したことを特徴とする動き認識装置。 - 【請求項8】 距離画像を取得する画像取得手段と、 この画像取得手段で取得した距離画像を所定の大きさの
小領域に分割する分割手段と、 前記小領域毎に奥行き情報を算出する算出手段と、 前記画像取得手段で連続して取得した距離画像間で、前
記小領域毎に前記奥行き情報を基に奥行き方向の動きを
検出する第1の動き検出手段と、 この第1の検出手段で検出された奥行き方向の動きに基
づき前記奥行き情報を補正する補正手段と、 移動元の小領域と、前記補正手段で前記奥行き情報を補
正した小領域であって前記移動元の小領域に類似する小
領域との間で平面方向の動きを検出する第2の検出手段
と、 類似する小領域間から検出された前記平面方向の動きと
前記奥行き方向の動きとから該動きを認識する認識手段
と、 を具備したことを特徴とする動き認識装置。 - 【請求項9】 取得した距離画像を所定の大きさの小領
域に分割させる分割手段と、 連続して取得した距離画像間で、類似する前記小領域毎
に平面方向の動きを検出させる第1の検出手段と、 前記小領域毎に奥行き情報を算出させる算出手段と、 この算出手段で算出された奥行き情報を基に類似する小
領域間で奥行き方向の動きを検出させる第2の検出手段
と、 類似する小領域間から検出された前記平面方向の動きと
前記奥行き方向の動きとから該動きを認識させる認識手
段と、 を実行するプログラムを記録した機械読み取り可能な記
録媒体。 - 【請求項10】 取得した距離画像を所定の大きさの小
領域に分割させる分割手段と、 前記小領域毎に奥行き情報を算出させる算出手段と、 前記画像取得手段で連続して取得した距離画像間で、前
記小領域毎に前記奥行き情報を基に奥行き方向の動きを
検出させる第1の動き検出手段と、 この第1の検出手段で検出された奥行き方向の動きに基
づき前記奥行き情報を補正させる補正手段と、 移動元の小領域と、前記補正手段で前記奥行き情報を補
正した小領域であって前記移動元の小領域に類似する小
領域との間で平面方向の動きを検出させる第2の検出手
段と、 類似する小領域間から検出された前記平面方向の動きと
前記奥行き方向の動きとから該動きを認識させる認識手
段と、 を実行するプログラムを記録した機械読み取り可能な記
録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02393999A JP3637226B2 (ja) | 1999-02-01 | 1999-02-01 | 動き検出方法、動き検出装置及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02393999A JP3637226B2 (ja) | 1999-02-01 | 1999-02-01 | 動き検出方法、動き検出装置及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000222585A true JP2000222585A (ja) | 2000-08-11 |
JP3637226B2 JP3637226B2 (ja) | 2005-04-13 |
Family
ID=12124511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02393999A Expired - Fee Related JP3637226B2 (ja) | 1999-02-01 | 1999-02-01 | 動き検出方法、動き検出装置及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3637226B2 (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
JP2006039700A (ja) * | 2004-07-23 | 2006-02-09 | Casio Comput Co Ltd | 画像処理装置および画像処理のプログラム |
JP2006527443A (ja) * | 2003-06-12 | 2006-11-30 | 本田技研工業株式会社 | 奥行き検出を用いた対象の向きの推定 |
JP2007020130A (ja) * | 2005-07-11 | 2007-01-25 | Ricoh Co Ltd | 動画像処理装置、及び動画像処理方法 |
JP2007517198A (ja) * | 2003-12-19 | 2007-06-28 | アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド | 投影縞技法を用いた光学ナビゲーションのためのシステム及び方法 |
JP2009245462A (ja) * | 2009-07-27 | 2009-10-22 | Denso Corp | 情報機器操作装置 |
JP2010002326A (ja) * | 2008-06-20 | 2010-01-07 | Stanley Electric Co Ltd | 移動ベクトル検出装置 |
JP2010071976A (ja) * | 2008-08-19 | 2010-04-02 | Panasonic Corp | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JP2010154405A (ja) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | 映像再生装置、制御信号生成装置及び制御信号生成方法 |
JP2010191827A (ja) * | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
WO2011027838A1 (ja) * | 2009-09-03 | 2011-03-10 | 国立大学法人佐賀大学 | ひずみ計測方法、ひずみ計測装置およびプログラム |
JP2011217294A (ja) * | 2010-04-02 | 2011-10-27 | Sharp Corp | ノイズ低減処理装置 |
JP2012080242A (ja) * | 2010-09-30 | 2012-04-19 | Sharp Corp | 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム |
WO2013054463A1 (ja) * | 2011-10-11 | 2013-04-18 | パナソニック株式会社 | 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム |
WO2014108976A1 (ja) * | 2013-01-10 | 2014-07-17 | 三洋電機株式会社 | 物体検出装置 |
JP2017011397A (ja) * | 2015-06-18 | 2017-01-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2017509986A (ja) * | 2014-12-19 | 2017-04-06 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 |
DE112021001777T5 (de) | 2020-03-23 | 2023-01-12 | Fanuc Corporation | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren |
-
1999
- 1999-02-01 JP JP02393999A patent/JP3637226B2/ja not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
JP2006527443A (ja) * | 2003-06-12 | 2006-11-30 | 本田技研工業株式会社 | 奥行き検出を用いた対象の向きの推定 |
US8031906B2 (en) | 2003-06-12 | 2011-10-04 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
JP2007517198A (ja) * | 2003-12-19 | 2007-06-28 | アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド | 投影縞技法を用いた光学ナビゲーションのためのシステム及び方法 |
JP4552553B2 (ja) * | 2004-07-23 | 2010-09-29 | カシオ計算機株式会社 | 画像処理装置および画像処理のプログラム |
JP2006039700A (ja) * | 2004-07-23 | 2006-02-09 | Casio Comput Co Ltd | 画像処理装置および画像処理のプログラム |
JP2007020130A (ja) * | 2005-07-11 | 2007-01-25 | Ricoh Co Ltd | 動画像処理装置、及び動画像処理方法 |
JP2010002326A (ja) * | 2008-06-20 | 2010-01-07 | Stanley Electric Co Ltd | 移動ベクトル検出装置 |
JP2010071976A (ja) * | 2008-08-19 | 2010-04-02 | Panasonic Corp | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JP2010154405A (ja) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | 映像再生装置、制御信号生成装置及び制御信号生成方法 |
US8879787B2 (en) | 2009-02-19 | 2014-11-04 | Sony Corporation | Information processing device and information processing method |
JP2010191827A (ja) * | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
JP2009245462A (ja) * | 2009-07-27 | 2009-10-22 | Denso Corp | 情報機器操作装置 |
JP2011053157A (ja) * | 2009-09-03 | 2011-03-17 | Saga Univ | ひずみ計測方法、ひずみ計測装置およびプログラム |
WO2011027838A1 (ja) * | 2009-09-03 | 2011-03-10 | 国立大学法人佐賀大学 | ひずみ計測方法、ひずみ計測装置およびプログラム |
JP2011217294A (ja) * | 2010-04-02 | 2011-10-27 | Sharp Corp | ノイズ低減処理装置 |
JP2012080242A (ja) * | 2010-09-30 | 2012-04-19 | Sharp Corp | 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム |
JPWO2013054463A1 (ja) * | 2011-10-11 | 2015-03-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム |
WO2013054463A1 (ja) * | 2011-10-11 | 2013-04-18 | パナソニック株式会社 | 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム |
WO2014108976A1 (ja) * | 2013-01-10 | 2014-07-17 | 三洋電機株式会社 | 物体検出装置 |
JP2017509986A (ja) * | 2014-12-19 | 2017-04-06 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 |
US9704265B2 (en) | 2014-12-19 | 2017-07-11 | SZ DJI Technology Co., Ltd. | Optical-flow imaging system and method using ultrasonic depth sensing |
JP2017011397A (ja) * | 2015-06-18 | 2017-01-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
DE112021001777T5 (de) | 2020-03-23 | 2023-01-12 | Fanuc Corporation | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren |
Also Published As
Publication number | Publication date |
---|---|
JP3637226B2 (ja) | 2005-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3637226B2 (ja) | 動き検出方法、動き検出装置及び記録媒体 | |
JP4349367B2 (ja) | 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム | |
TWI555379B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
US7986321B2 (en) | System and method for generating structured light for 3-dimensional image rendering | |
Bonfort et al. | General specular surface triangulation | |
US9171379B2 (en) | Hybrid precision tracking | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
US20050190972A1 (en) | System and method for position determination | |
US20030202120A1 (en) | Virtual lighting system | |
CN105898107B (zh) | 一种目标物体抓拍方法及系统 | |
JP2014529727A (ja) | 自動シーン較正 | |
JP2013101045A (ja) | 物品の3次元位置姿勢の認識装置及び認識方法 | |
CN105190229B (zh) | 三维形状计测装置、三维形状计测方法及三维形状计测程序 | |
JP2009081853A (ja) | 撮像システム及び方法 | |
US20190073796A1 (en) | Method and Image Processing System for Determining Parameters of a Camera | |
CN106705849A (zh) | 线结构光传感器标定方法 | |
JPWO2020075252A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
US20130287293A1 (en) | Active Lighting For Stereo Reconstruction Of Edges | |
KR20140114594A (ko) | 사람 객체 추적을 통한 자동 카메라 보정 방법 | |
EP2826243B1 (en) | Method and system for identifying depth data associated with an object | |
CN104732586A (zh) | 一种三维人体动态形体和三维运动光流快速重建方法 | |
JPH07181024A (ja) | 3次元形状計測方法および装置 | |
JPH1144533A (ja) | 先行車両検出装置 | |
Ringaby et al. | Scan rectification for structured light range sensors with rolling shutters | |
JP5336325B2 (ja) | 画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 3637226 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080114 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090114 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100114 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110114 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120114 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130114 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140114 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |