JP2010072694A - 動態推定装置、動態推定方法、プログラム - Google Patents
動態推定装置、動態推定方法、プログラム Download PDFInfo
- Publication number
- JP2010072694A JP2010072694A JP2008236381A JP2008236381A JP2010072694A JP 2010072694 A JP2010072694 A JP 2010072694A JP 2008236381 A JP2008236381 A JP 2008236381A JP 2008236381 A JP2008236381 A JP 2008236381A JP 2010072694 A JP2010072694 A JP 2010072694A
- Authority
- JP
- Japan
- Prior art keywords
- control point
- color information
- point color
- initial
- dimensional object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】三次元物体モデルに対して制御点を設定するとともに、この制御点ごとの色を示す制御点色情報を取得可能とする。そのうえで、初期設定値としての制御点ごとの色を示す初期制御点色情報を保持する。そして、時間経過に応じて変化し得る制御点の位置を推定し、推定した制御点を画像に射影したときの画像上での制御点の色を示す現制御点色情報を得る。次に、初期制御点色情報を仮定の情報として扱い、現制御点色情報を観測値として扱って尤度を求める構成とする。
【選択図】図1
Description
しかし、アフィン変換は、三次元物体が剛体でなければならないという制限があるほか、三次元パラメータからアフィン変換のパラメータへの計算が複雑であり、隠蔽への対応も不可能とされている。
特許文献1には、被写体画像から切り出した被写体画像に基づいて被写体に類似する標準三次元形状モデルの形状を修正する、という構成が記載されている。
また、非特許文献1には、画像上で人のシルエットを抽出するとともに、モデルに設定したサンプルポイントを撮影された画像上で取得し、この取得したサンプルポイントの位置が上記シルエット内に位置するか否かについてのマッチング処理を行うようにした構成が記載されている。
つまり、三次元物体モデルに対して複数の制御点を設定する制御点設定手段と、三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手段と、制御点色情報取得手段により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手段と、現時刻における制御点ごとの位置を推定する制御点位置推定手段と、この制御点位置推定手段によりその位置が推定された上記制御点を、現時刻の被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手段と、現制御点色情報と初期制御点色情報とを利用して尤度を算出する尤度算出手段とを備えることとした。
本実施形態の動態推定システムは、図示するようにして、制御点設定部11(制御点設定手段)、制御点初期色登録部12(初期制御点色情報保持手段)、及び制御点移動処理部13(制御点位置推定手段)、移動制御点色取得部14(現制御点色情報取得手段)、制御点色抽出部15(制御点色情報取得手段)、及び尤度算出部16(尤度算出手段)から成る。
制御点Dtは、このようにして或る特定の形状を有する三次元物体モデル20の表面上において、均一性が与えられるような位置関係でもって、必要数を貼り付けるようにして設定すべきものとなる。
例えば図2(a)の場合であれば、先ず、縦方向に対応する、5つの制御点Dtから成る各列においては、隣り合う制御点Dt間の距離について、それぞれAで等しくなるように設定する。
また、横方向に対応する、7つの制御点Dtから成る各行についても、隣り合う制御点Dt間の距離について、それぞれ、B1〜B5で等しくなるように設定する。ただし、この場合の三次元物体モデル20は、上方向から下方向にかけて小さくなっていくテーパー状の円錐形状とされているので、一番上の行における制御点Dt間の距離Bが最も大きくなり、以降、下の行となるのにつれて、制御点Dt間の距離は小さくなっていき、最も下の行における制御点Dt間の距離Cが最も小さくなる。
具体例として、図2(b)には、三次元物体モデル20を平面方向から見たときに或る1つの行を成す7つの制御点Dtを示している。これら制御点Dtについて、上記のようにして隣り合う制御点Dt間を距離B(図2(a)のB1〜B5のいずれかに相当する)で等しくなるように設定した場合において、これを側面方向から見た場合には、距離P1〜P6のようにして示すように、隣り合う制御点Dt間の距離が、その位置によって異なるものとなる。これは、三次元物体モデル20を射影変換して得られる画像上においては、設定された制御点Dt間の距離が、上記距離P1〜P6の大小関係を有するようにして、異なってしまうことを示している。
本実施形態における制御点の設定に際しては、先ず、図3に示すようにして、三次元物体モデル20を撮像装置30により撮像している状態を想定する。
撮像装置30においては、撮像により得られた像光が到達する像光面30aが形成される。この像光面30aは、例えば撮像素子を備える撮像装置の場合であれば、この撮像素子における受光面が対応する。
そのうえで、この撮像面30aに平行であって、三次元物体モデル20を切断する面(モデル切断面)を想定する。図4(a)(b)において、一点鎖線M1は、撮像面30aに沿った面を示すもので、一点鎖線M2は、上記一点鎖線M1に対応する面(即ち撮像面30a)に平行なモデル切断面を示す。
そして、上記一点鎖線M2に対応する切断面により三次元物体モデル20を切断したとする場合において、その面積(断面積)が最も大きくなる三次元物体モデル20の断面を、基準断面として得る。
ここでの三次元物体モデル20は、平面部が真円のテーパー状の円錐形状であることとしている。従って、三次元物体モデル20の断面として最も面積が大きくなるのは、図4(b)に示されるようにして、切断面、即ち一点鎖線M2について、三次元物体モデル20の平面上において、その円形状の半径を通過させたときとなる。
また、図5(b)は、上記基準断面21とともに、三次元物体モデル20を平面より示している。
本実施形態においては、この図5(b)に示すようにして、基準断面21に対応する線分(基準線21a)について、1行分の制御点Dtの数に応じて等分する。この場合には、1行分の制御点Dtの数を7としているので、基準線21aを6等分することになる。ここでは、基準線21aを等分して得られる長さをLで示している。
このことは、図5(b)において白抜きの矢印で示す方向(撮像方向)より撮像したとする場合、撮像装置30により撮像して得られる画像上では、隣り合う制御点Dt(射影点)間の距離が等しくなっている、即ち均等になっている状態が得られることになる。
このようにして、本実施形態では、制御点設定部11により上記のようにして制御点を設定する。これにより、観測画像上で見える制御点は、例えば図2にて説明したように三次元物体モデル20の表面上で等距離に制御点を配置する場合と比較すると、より均一に配置された状態を得ることができる。
例えばこの際には、撮像装置30から被写体である三次元物体モデル20までの距離をはじめ、撮像装置30における画角(ズーム倍率)その他の撮像に関連するパラメータについては予め定めておくことで既知となるようにしている。従って、これらの既知のパラメータを利用することで、撮像画像上での制御点が射影される位置は求められる。
ここでは先ず、図6(a)においては、撮像装置30により撮像して得られた撮像画像データの画像、即ち撮像画像40として、三次元物体モデル20の実体が被写体として写されている画内容が示されている。ここでの三次元物体モデル20の実体は人とされたうえで、この人を正面から撮像している。
そして、例えばこの場合には、この三次元物体モデル20の実体である人の胴体部分を、三次元物体モデル20に対応させることとして、先の図3〜図5により説明した手法に従って、撮像画像40上での配置位置を決定した制御点を設定する。このようにして三次元物体モデル20に対して設定した制御点のパターン例が図6(b)に示される。
本実施形態において、制御点ごとの色情報は、模式的には、図7に示されるようなテンプレート形式であるものとする。ここでは、このテンプレート形式による制御点ごとの色情報について、制御点色テンプレートともいうことにする。
図7においては、図6(b)に示した制御点の配列パターンに応じた、行r1〜r5と列c1〜c7による35個のマスがマトリクス状に配列されている。これらのマスの各々が、図6(b)において配列される個々の制御点の色情報に対応することになる。
なお、各マス(色情報)ごとに対応して付されている1〜35のサンプル番号については後述する。
なお、以降においては、初期色情報に対応する制御点色テンプレートは、「初期テンプレート」ともいう。
そして、制御点初期色登録部12は、上記のようにして取得した初期テンプレートのデータを初期設定情報として登録する、即ち、所定の記憶領域にて保持させる。なお、実際において、上記記憶領域は、例えばRAMやフラッシュメモリなどの記憶装置となる。
ここで、例えば前時刻t-1において、現実の空間内において或る姿勢状態、位置状態にあるとされた三次元物体モデル20(t-1)を撮像装置30により撮像したことで、撮像画像40にて存在する三次元物体モデル20の画像である射影モデル画像20A(t-1)が図のようなものであったとする。
そして、この三次元物体モデル20が移動をしていることで、現時刻t−1に至ったときには、
前時刻t-1に対応する三次元物体モデル20(t−1)の位置から、三次元物体モデル20(t)として示される位置姿勢に変化していたとする。これに応じて、撮像画像40においても、前時刻t−1において存在していた射影モデル画像20A(t-1)は、現時刻tに至って、射影モデル画像20A(t)として示されるようにして移動、変化する。
本実施形態における動態推定処理は、このような現実の物体移動に応じて、三次元物体モデルの動態を推定しようというものである。
制御点移動処理部13は、三次元物体モデル20の移動に応じて設定された制御点Dtを移動させる処理、即ち、現時刻tにおける制御点Dtごとの位置を推定して追跡する処理を実行する。
先ず、制御点移動処理部13は、後述の尤度算出部16から出力される尤度情報を取り込む。この尤度情報は、前時刻t-1に対応して得られたものとして扱われる。また、制御点移動処理部13は、現時刻tに対応して得られたとされる観測画像としての画像データ(撮像画像40に対応する)を取り込む。そして、決定された前時刻t-1におけるパーティクルの重みに基づいてパーティクルの選択を行う。次に、これらの選択されたパーティクルについて、例えば等速運動モデルなどを用いて、現時刻tにおける位置の予測を行う。そして、制御点移動処理部13としては、このようにして得られた予測結果に基づいて、現時刻tにおける制御点Dtごとについての三次元空間上での位置を推定する。
なお、以降において、この現時刻tにおける制御点ごとの色情報から成る制御点色テンプレートについては「現テンプレート」ともいうことにして、先の初期色情報を有する制御点色テンプレートである「初期テンプレート」と区別する。
つまり、この場合の制御点色抽出部15は、現時刻tにおいて得られる観測画像(撮像画像40)上に、制御点移動処理部13により推定された現時刻tの制御点Dtを射影させる。これにより、現時刻tの観測画像上において、現時刻tに対応して推定された制御点ごとに、画像内の位置が設定されることになる。そこで、制御点色抽出部15は、現時刻tの観測画像において、制御点が設定されているとする位置において表現されている色を示す色情報を抽出する。
例えば、上記射影点の距離が1画素分よりも小さくなるときには補間技術により画像データを取り出すことはできる。しかし、上記射影点の距離が1画素分よりも大きくなるときにおいて、単純に、観測画像において射影点に対応する画素からそのまま色情報を抽出したとすると、観測画像の画像データよりも低いサンプリング周波数によって画像データのリサンプリングを実行することと等価の処理を実行することになる。この場合において、例えばサンプリング周波数が一定以下となると、色情報抽出に対応したサンプリングのデータについて、エリアシングに相当するノイズが発生してしまう。
つまり、隣接する射影点間の距離が一定以上の場合には、これらの射影点間に対応するとされる境界線を求め、この境界線で括られた画像領域を射影点ごとに対応させる。そして、この画像領域ごとに、そこに含まれる画素ごとの平均値を算出し、この平均値を、射影点に対応する制御点ごとの色情報とするものである。また、隣接する射影点間の距離が一定未満であれば、射影点に対応して得られる画素の補間値を求めて、これを色情報とする。
しかし、上記の手法は、例えば境界線を求めるための計算が複雑であるために高速処理の点では不利となる。
先ず、制御点色抽出部15では、図9に示すようにして、現時刻tの観測画像(撮像画像40)の画像データ(観測画像データ)を基として、第1層〜第n層までの色抽出のための画像を生成可能に構成する。
ここで、第1層画像は、現時刻tの観測画像データについて、水平・垂直画素数=a×aを最小単位とする解像度でリサンプリングして得られる画像となる。ここでa=1であるとすると、第1層画像は、現時刻tの観測画像データと同じものになる。
また、第2層画像は、現時刻tの観測画像データについて、水平・垂直画素数=2a×2aを最小単位とする解像度でリサンプリングして得られる画像となる。これに準じて、例えば第3層画像〜第n層画像までは、それぞれ、水平・垂直画素数=3a×3a〜an×anを最小単位とする解像度でリサンプリングして得られる画像となる。従って、第1層画像〜第n層画像は、現時刻tの観測画像データを基として、段階的に解像度が低くなる画像となる。
そして、この対象射影点対応最小距離dを切り捨てて整数化した値(ここではd1と表記する)に対応する第d1層画像と、対象射影点最小距離dを切り上げて整数化した値(ここではd2と表記する)に対応する第d2層画像との2つの層画像から対象射影点に対応する画素をリサンプリングし、これらのリサンプリングした画素値を線型補間して得られる値を、最終的な対象射影点に対応する制御点の色情報(対象制御点色情報)として求める。このようにして色情報を求めるにあたっての計算式の具体例を、下記の(数1)に示す。
そこで、次の処理としては、尤度算出部16により、制御点初期色登録部12にて得た初期テンプレート(仮定)のデータと、移動制御点色取得部14にて得た現テンプレート(観測値)のデータとを利用してのマッチング処理を実行することによって、制御点についての尤度を算出する。
先ず、正規化相関値については、下記の(数2)により求める。
先ず、初期テンプレート、現テンプレートのそれぞれについて、各制御点に対応する色情報をHSI空間に変換し、H(色相)、S(彩度)、I(輝度)の成分ごとに量子化する。H(色相)及びS(彩度)については3ビットにより8段階での量子化を行い、I(輝度)については2ビットの4段階により量子化を行う。
そのうえで、これらの量子化されたH(色相)、S(彩度)、I(輝度)の値(量子化値)を利用して、制御点ごとに、色ヒストグラムの索引(Index:インデックス)を、下記の(数3)により求める。例えば図6、図7での例に対応させれば、この色ヒストグラムの索引(Index)は、初期テンプレートと現テンプレートとで、それぞれ35個が求められることになる。
その理由として、先ず、基本的には、H(色相)、S(彩度)、I(輝度)の量子化ビット数がそれぞれ3ビット、3ビット、2ビットであって、計8ビットとなるので、(数2)に基づいて求められる索引としては10進法表記では0〜255までの256通りの値を採り得る。そこで、これに対応させて、色ヒストグラムとしては、先ず、256次元が必要であることとした。
ただし、グレースケールの場合には、H(色相)、S(彩度)の値は不安定になる。そこで、色情報としてグレーであると判定された場合、その制御点については、(数3)を適用せずに、上記数I(輝度)の量子化値のみを採用することとした。そして、この数I(輝度)の量子化値のみを採用した場合に対応させて、上記256次元に加えて4つの次元(bin)を追加することとした。このようにして、色ヒストグラムとしては260次元となる。
なお、初期テンプレートについては、初期設定時において登録された色情報の値で固定されるので、逐一、色ヒストグラムを作成しなくとも、予め作成しておいて、初期設定情報として保持しておくようにしてもよい。この場合、尤度算出部16は、初期テンプレートの色ヒストグラムが必要な際には、この初期設定情報として保持されている初期テンプレートの色ヒストグラムのデータを取得すればよい。
これに対して、本実施形態では、制御点に対して色を設定することとしたので、最終的な尤度を求めるのにあたっては、仮定と観測値とで、それぞれ制御点ごとの色情報を用いることが可能とされている。これにより、例えば色情報を持たずに、単位制御点の位置とシルエットとを比較する構成よりも的確に尤度を求めることが可能になり、より高い推定精度を得ることが期待できる。
そして、本実施形態の動態推定のために必要な処理の少なくとも一部をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、動態推定システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、動態推定のために必要な処理を実行する機能を与えるようにされる。
入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の動態推定システムとの対応で、例えば、撮像装置30から出力される画像信号を入力できるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
Claims (5)
- 三次元物体モデルに対して複数の制御点を設定する制御点設定手段と、
上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手段と、
上記制御点色情報取得手段により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手段と、
現時刻における上記制御点ごとの位置を推定する制御点位置推定手段と、
上記制御点位置推定手段によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手段と、
上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手段と、
を備える動態推定装置。 - 上記制御点設定手段は、
一配列方向における上記射影位置間の距離が等しくなるようにして、三次元物体モデルの表面上で制御点を配置する、
請求項1に記載の動態推定装置。 - 上記制御点色情報取得手段は、
隣り合う制御点間の距離に応じて設定された画素数より成る最小サンプル単位により上記被写体画像をリサンプリングして得られるリサンプル画像における、上記射影点に対応する位置の画素値を利用して、上記制御点色情報を取得する、
請求項1又は請求項2に記載の動態推定装置。 - 三次元物体モデルに対して複数の制御点を設定する制御点設定手順と、
上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手順と、
上記制御点色情報取得手順により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手順と、
現時刻における上記制御点ごとの位置を推定する制御点位置推定手順と、
上記制御点位置推定手順によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手順と、
上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手順と、
を実行する動態推定方法。 - 三次元物体モデルに対して複数の制御点を設定する制御点設定手順と、
上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手順と、
上記制御点色情報取得手順により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手順と、
現時刻における上記制御点ごとの位置を推定する制御点位置推定手順と、
上記制御点位置推定手順によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手順と、
上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手順と、
を動態推定装置に実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008236381A JP4613994B2 (ja) | 2008-09-16 | 2008-09-16 | 動態推定装置、動態推定方法、プログラム |
US12/554,041 US20100066737A1 (en) | 2008-09-16 | 2009-09-04 | Dynamic-state estimating apparatus, dynamic-state estimating method, and program |
CN200910176217A CN101676952A (zh) | 2008-09-16 | 2009-09-16 | 动态估计设备、动态估计方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008236381A JP4613994B2 (ja) | 2008-09-16 | 2008-09-16 | 動態推定装置、動態推定方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010072694A true JP2010072694A (ja) | 2010-04-02 |
JP4613994B2 JP4613994B2 (ja) | 2011-01-19 |
Family
ID=42006812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008236381A Expired - Fee Related JP4613994B2 (ja) | 2008-09-16 | 2008-09-16 | 動態推定装置、動態推定方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20100066737A1 (ja) |
JP (1) | JP4613994B2 (ja) |
CN (1) | CN101676952A (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US20150253428A1 (en) | 2013-03-15 | 2015-09-10 | Leap Motion, Inc. | Determining positional information for an object in space |
US20140307920A1 (en) * | 2013-04-12 | 2014-10-16 | David Holz | Systems and methods for tracking occluded objects in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9626015B2 (en) | 2013-01-08 | 2017-04-18 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
JP2016038889A (ja) | 2014-08-08 | 2016-03-22 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | モーション感知を伴う拡張現実 |
US11080875B2 (en) * | 2018-03-22 | 2021-08-03 | Jvckenwood Corporation | Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program |
CN115129191B (zh) * | 2021-03-26 | 2023-08-15 | 北京新氧科技有限公司 | 三维对象拾取方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007333690A (ja) * | 2006-06-19 | 2007-12-27 | Sony Corp | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003161B2 (en) * | 2001-11-16 | 2006-02-21 | Mitutoyo Corporation | Systems and methods for boundary detection in images |
JP4653606B2 (ja) * | 2005-05-23 | 2011-03-16 | 株式会社東芝 | 画像認識装置、方法およびプログラム |
US7856125B2 (en) * | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
-
2008
- 2008-09-16 JP JP2008236381A patent/JP4613994B2/ja not_active Expired - Fee Related
-
2009
- 2009-09-04 US US12/554,041 patent/US20100066737A1/en not_active Abandoned
- 2009-09-16 CN CN200910176217A patent/CN101676952A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007333690A (ja) * | 2006-06-19 | 2007-12-27 | Sony Corp | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN101676952A (zh) | 2010-03-24 |
JP4613994B2 (ja) | 2011-01-19 |
US20100066737A1 (en) | 2010-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4613994B2 (ja) | 動態推定装置、動態推定方法、プログラム | |
CN109753885B (zh) | 一种目标检测方法、装置以及行人检测方法、系统 | |
JP5555706B2 (ja) | 高解像度映像獲得装置およびその方法 | |
US10510148B2 (en) | Systems and methods for block based edgel detection with false edge elimination | |
JP4340968B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP6030617B2 (ja) | 画像処理装置および画像処理方法 | |
JP7058277B2 (ja) | 再構成方法および再構成装置 | |
EP2898473A1 (en) | Systems and methods for reducing noise in video streams | |
JP2013089252A (ja) | 映像処理方法及び装置 | |
TW201514867A (zh) | 光流追蹤方法和裝置 | |
JP2010113513A (ja) | 画像処理装置、画像処理方法、プログラム | |
KR101478709B1 (ko) | Rgb-d 영상 특징점 추출 및 특징 기술자 생성 방법 및 장치 | |
TW201436552A (zh) | 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置 | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及系统 | |
JP5173549B2 (ja) | 画像処理装置及び撮像装置 | |
JP2013164643A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
JP6717049B2 (ja) | 画像解析装置、画像解析方法およびプログラム | |
CN113034345B (zh) | 一种基于sfm重建的人脸识别方法及系统 | |
WO2020115866A1 (ja) | 深度処理システム、深度処理プログラムおよび深度処理方法 | |
JP6276504B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
JP4966946B2 (ja) | 時空間画像分離装置、時空間画像分離方法および時空間画像分離プログラム | |
JP6751663B2 (ja) | 画像処理装置、画像処理方法 | |
JP7147854B2 (ja) | 物体識別装置、物体識別方法およびコンピュータプログラム | |
JP2022099127A (ja) | 被写体シルエット抽出装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100921 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101004 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131029 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |