JP2008070319A - 物体計測装置および方法 - Google Patents

物体計測装置および方法 Download PDF

Info

Publication number
JP2008070319A
JP2008070319A JP2006251197A JP2006251197A JP2008070319A JP 2008070319 A JP2008070319 A JP 2008070319A JP 2006251197 A JP2006251197 A JP 2006251197A JP 2006251197 A JP2006251197 A JP 2006251197A JP 2008070319 A JP2008070319 A JP 2008070319A
Authority
JP
Japan
Prior art keywords
hand
deformation amount
orientation
unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006251197A
Other languages
English (en)
Inventor
Takaaki Endo
隆明 遠藤
Kiyohide Sato
清秀 佐藤
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006251197A priority Critical patent/JP2008070319A/ja
Publication of JP2008070319A publication Critical patent/JP2008070319A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 手の形状及び手の位置姿勢を従来よりも高い精度で計測すること。
【解決手段】 撮像画像中から情景中の指標を検出する指標検出部104と、撮像部に対するグローブの剛体部の相対的な位置姿勢を計測する位置姿勢計測部105と、位置姿勢に基づいて3次元CG画像を生成するCG画像生成部106と、手の形状データを入力する手形状入力部407と、手の形状データを補正する手形状補正部108と、撮像画像と3次元CG画像を合成する画像合成部109を有する。
【選択図】 図1

Description

本発明は、手の形状及び手の位置姿勢を計測するための技術に関するものである。
[従来技術1]
従来、バーチャルリアリティーの分野において、手の各関節の曲げ角及び手の位置姿勢を計測する目的で、VPLリサーチ社のデータグローブ等の装置が用いられている(例えば、非特許文献1を参照)。データグローブは、光ファイバセンサで手の各関節の曲げ角を計測し、ポヒマス社の磁気式の位置姿勢センサ(ISOTRAK)で手の位置姿勢を計測する装置である。データグローブと同様な製品もいくつか存在し、例えばVirtual Technologies社のサイバーグローブは、導電性インクによって手の各関節の曲げ角を計測している。
[従来技術2]
一方、物理センサを用いるのではなく、画像処理によって手の各部位の3次元位置及び/又は姿勢を計測する方法も提案されている。
例えば、非特許文献2には、手の各部位に光点を取り付け、それらを複数のカメラで撮影することにより、手の各部位の3次元位置を計測する方法が示されている。
また、手に光点等を取り付けない手法も検討されている。例えば、特許文献1には、手を撮影した画像の情報から、5本の指のうちどの指が立っているかを認識することにより、指示等を入力できるシステムが開示されている。
そして、非特許文献3には、背景差分で手領域を抽出し、ステレオ画像処理によってエッジベースのマッチングを行うことで、手の近似形状及び手の位置姿勢を計測する方法が示されている。この非特許文献3では、現実の手と仮想物体との隠蔽関係を近似表現することが可能となっている。
[従来技術3]
現実空間を撮像するカメラなどの撮像装置(以下、適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。このような従来技術として、現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の自然特徴(現実空間に元来存在する特徴的な点や形状)を用いて、カメラの位置姿勢を測定するセンサの計測誤差を補正する方法がある。これらの技術は、例えば特許文献2乃至3及び非特許文献4において開示されている。なお、以下ではマーカと自然特徴を合わせて指標と記述する。
一方で、非特許文献5乃至6において開示されているように、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢推定を行う方法も知られている。
特開2003−346162号広報 特開平11−084307号公報 特開2000−041173号公報 廣瀬通孝:バーチャル・リアリティー,産業図書,1993. スチュアート・ブランド(室謙二,麻生九美訳):メディアラボ,福武書店,1988. 瀬戸原,加藤,川本,橘:拡張現実感におけるオクルージョン問題の簡便な解決手法とそのインタラクションへの応用,日本バーチャルリアリティ学会論文誌,vol.9,no.4,pp.387−395,Dec.2004. A.State,G.Hirota,D.T.Chen, B.Garrett,and M.Livingston:Superior augmented reality registration by integrating landmark tracking and magnetic tracking,Proc.SIGGRAPH '96,pp.429−438,July 1996. 加藤,Billinghurst,浅野,橘:マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,Dec.1999. X.Zhang,S.Fronz,N.Navab:Visual marker detection and decoding in AR systems:A comparative study,Proc.of International Symposium on Mixed and Augmented Reality(ISMAR'02),2002. R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterized three−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991.
以下では、手の各関節の曲げ角や手の各部位の位置姿勢の計測に基づいて、指一本一本の体積を伴う3次元形状を求めることを、手の形状の計測と記述する。
従来技術1の方法では、光ファイバーや導電性インクによる関節の曲げ角の計測精度が低いため、手の形状を正確に計測することができないという問題があった。そのため、例えば指先が仮想物体に届いているかどうかを高い精度で判定することはできなかった。
また、従来技術2の方法では、ある指が他の指等によって隠されることでカメラから観測されない場合には、そもそも隠された指の位置姿勢を計測することができなかった。
従来技術2の最後に挙げた非特許文献3の方法は、手領域によって仮想空間が隠蔽される問題を解決するための方法であって、体験者視点から見える手の輪郭とその奥行きによって手の3次元形状を曲面に近似推定する方法である。この方法は、仮想空間との隠蔽を近似表現する目的に対してはある一定の効果を示すものの、例えば指一本一本の体積を伴う3次元形状を計測するものではないため、計測結果の利用範囲に制限があった。
一方で、従来技術3の方法は、カメラによって検出された指標の情報を用いることによって、カメラの位置姿勢を計測するセンサの計測誤差を補正する方法である。この方法は、対象物体の位置姿勢を計測するセンサの計測誤差を補正する場合には適用できるものの,手の各関節の曲げ角を計測した結果に含まれる誤差を補正するような用途には適用することができなかった。
本発明はこのような従来技術の問題点を解決し、手の形状及び手の位置姿勢を従来技術よりも高い精度で計測することを目的とする。
本発明の目的を達成するために、例えば、本発明の物体計測装置は以下の構成を備える。即ち、利用者の頭部に装着した撮像装置で変形物体を撮影した撮像画像を入力する入力手段と、前記変形物体の変形量を前記撮像画像以外の情報を用いて計測する変形量計測手段と、前記撮像画像と、前記変形量計測手段が計測した前記変形物体の変形量とに基づいて、前記変形物体の各部位の位置及び/又は姿勢を算出する算出手段と、を備えることである。
本発明の目的を達成するために、例えば、本発明の物体計測方法は以下の構成を備える。即ち、利用者の頭部に装着した撮像装置で変形物体を撮影した撮像画像を入力する入力工程と、前記変形物体の変形量を前記撮像画像以外の情報を用いて計測する変形量計測工程と、前記撮像画像と、前記変形量計測工程が計測した前記変形物体の変形量とに基づいて、前記変形物体の各部位の位置及び/又は姿勢を算出する算出工程と、を備えることである。
本発明の構成により、手の形状及び手の位置姿勢を従来よりも高い精度で計測することができる。
以下、添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る物体計測装置は、手の位置姿勢を手袋型手形状計測装置(以下、グローブと記述)の剛体部の四角マーカ(基準指標)で計測し、グローブで計測した手の形状をグローブの変形部の点マーカ(可動指標)で補正する。以下、本実施形態に係る物体計測装置及び方法について説明する。
図1は、本実施形態における物体計測装置の構成を示す。また、図2は、本実施形態の物体計測装置の利用形態を示す。
ユーザ201は、実写画像とCGを合成して表示するための表示装置である頭部搭載型画像表示装置(以下、HMDと記述)120を頭部202に装着しており、また手の形状を計測するためのグローブ140を手に装着している。
HMD120には、小型の撮像部121がユーザの視界方向と一致する向きに固定されており、またユーザに画像を提示するための提示部122がユーザの眼前に位置するように固定されている。
グローブ140には、各指に沿って光ファイバセンサが取り付けられており、各指の各関節の曲げ角を計測することが可能となっている。なお、本実施形態では、人差し指が有する3つの関節の曲げ角を手の形状データとして用いる場合について説明する。
物体計測装置100は、図1に示したように、画像入力部102、データ記憶部103、指標検出部104、位置姿勢計測部105、CG画像生成部106、手形状入力部107、手形状補正部108、及び画像合成部109によって構成されている。そして、HMD120の撮像部121及び提示部122、及びグローブ140に接続されている。
グローブ140上には、撮像部121によって撮影するための指標が配置されている。本実施形態では、グローブ140の剛体部に取り付けられた四角マーカを基準指標241、グローブ140の可動部に取り付けられた点マーカを可動指標242として用いる。なお、本実施形態では、可動指標が人差し指の指先部位に位置している場合について説明する。
ここで、グローブ140の剛体部とは、グローブ140の座標系を規定する、変形しない部位のことを示すものとする。本実施形態では手の甲の部位を剛体部とする。また、グローブ140の変形部とは、剛体部以外の変形する各々の部位のことを示すものとする。
撮像部121が出力する画像(以下、撮像画像と記述)は、画像入力部102に入力される。
画像入力部102は、物体計測装置100へ入力される撮像画像をデジタルデータに変換し、データ記憶部103に保存する。以下では便宜的にデジタルデータに変換した画像も撮像画像と記述する。
データ記憶部103は、画像入力部102から入力される画像、指標検出部104から入力される基準指標及び可動指標の画像座標に関わる特徴量、基準指標及び可動指標の3次元配置情報、撮像部121のカメラパラメータ、3次元CGデータ等のデータを保持し、必要に応じてこれらを入出力する。
指標検出部104は、データ記憶部103より撮像画像を入力し、入力した撮像画像中の基準指標及び可動指標の画像座標に関わる特徴量を検出して、それらをデータ記憶部103へと出力する。本実施形態では、撮像画像中の四角マーカを基準指標として検出し,検出された四角マーカの4頂点の画像座標を求めて、それらを基準指標の画像座標に関わる特徴量とする。また、撮像画像中の点マーカを可動指標として検出し、検出された点マーカの重心の画像座標を求めて、それらを可動指標の画像座標に関わる特徴量とする。
位置姿勢計測部105は、指標検出部104で検出された基準指標の画像座標に関わる特徴量と、予めデータ記憶部103に保持された指標の3次元配置情報に基づいて、撮像部121に対するグローブ140の剛体部の位置姿勢(以下、手の位置姿勢と記述)を計測して、データ記憶部103に出力する。基準指標の3次元配置情報として、本実施形態では、四角マーカの4頂点の計測対象物体座標系における3次元座標を用いる。なお、指標の3次元座標と画像座標の組から指標と撮像装置との間の相対的な位置姿勢を算出する方法は、写真測量等の分野において知られているので(例えば非特許文献7、非特許文献8)、説明を省略する。
CG画像生成部106は、データ記憶部103より、手の位置姿勢、CGモデルの幾何情報および色やテクスチャなどの属性情報、および照明情報等を入力する。そして、それらの情報を用いて3次元CG画像を生成する。3次元CG画像の生成は既知の技術であるので説明を省略する。
手形状入力部107は、グローブ140より人差し指の曲げ角を表すデータを取得し、手の形状データとしてデータ記憶部103に出力する。
手形状補正部108は、データ記憶部103より、手の形状データ及び可動指標の画像座標に関わる特徴量を入力し、それらの情報を用いて手の形状データを補正する。
画像合成部109では、データ記憶部103から供給される撮像画像と、CG画像生成部106から供給される3次元CG画像とを用いて、目的とする合成画像を生成する。例えば、手の形状及び手の位置姿勢に基づいて、グローブの上に手のCGを重畳表示し、また、現実空間205を背景として垂直な板206等のCGを重畳表示する。
図4は画像入力部102、データ記憶部103、指標検出部104、位置姿勢計測部105、CG画像生成部106、手形状入力部107、手形状補正部108、及び画像合成部110の夫々をソフトウェアとして実行するコンピュータの基本構成を示す図である。
1001はCPUで、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像入力部102、データ記憶部103、指標検出部104、位置姿勢計測部105、CG画像生成部106、手形状入力部107、手形状補正部108、及び画像合成部109の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
1002はRAMで、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。データ記憶部103の機能は、RAM1002によって実現される。
1003はROMで、一般にコンピュータの記憶プログラムや設定データなどが格納されている。1004、1005は夫々キーボード、マウスで、操作者は夫々を用いて、各種の指示をCPU1001に入力することができる。
1006は表示部で、CRTや液晶画面などにより構成されており、例えばメッセージ等を表示することができる。
1007は外部記憶装置で、ハードディスクなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やソフトウェアのプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
1008は記憶媒体ドライブで、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
1009はI/Fで、撮像部121を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、データを外部へ出力するためのLANポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部102の機能の一部は、I/F1009によって実現される。
1010は上述の各部を繋ぐバスである。
図3は、手の形状データを補正する処理のフローチャートであり、CPU1001が手形状補正部108のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。本実施形態において、手の形状データは、繰り返し演算による数値計算的手法によって算出される。
手形状補正部108は、算出すべき手の形状データ、すなわち3つの関節の曲げ角を、3値ベクトル[α β γ]によって内部的に表現している。このとき、求めるべき未知パラメータは、3値の状態ベクトルs=[α β γ]と記述される。
ステップS3000において、手形状補正部108は、データ記憶部103より、グローブ140により計測された手の形状データと、位置姿勢計測部105によって計測された手の位置姿勢と、指標検出部104において検出された各々の可動指標Qknの画像座標の実測値uQknとその識別子kを入力する。
ステップS3010において、手形状補正部108は、状態ベクトルsに初期値(入力された手の形状データ)を設定する。
ステップS3020において、手形状補正部108は、各々の可動指標Qknに対して、その画像座標の推定値uQkn*を算出する。uQkn*の算出は、データ記憶部103に既知な情報として予め保持している可動指標Qknの指先座標(指先部位の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系(以下、指先座標系と記述)における座標)xP3 Qknと現在の状態ベクトルsの関数:
Figure 2008070319
に基づいて行われる。
具体的には、関数Fc()は、xP3 Qknとsから当該可動指標のカメラ座標(カメラ上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系における座標)x Qknを求める次式、
Figure 2008070319
及び、カメラ座標x Qknから画像座標uQkn*を求める次式、
Figure 2008070319
によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における撮像部121の焦点距離であり、データ記憶部103に既知の値として予め保持されているものとする。また、MCGは、グローブ座標系(グローブの剛体部の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における座標をカメラ座標系における座標に変換する行列であり、次式によって定義される。
Figure 2008070319
ここで、x、y、z、ξ、ψ、ζは、位置姿勢計測部105によって計測された手の位置姿勢であり、
Figure 2008070319
である。
また、MGP3(s)は、指先座標系における座標をグローブ座標系における座標に変換する行列であり、次式によって定義される。
Figure 2008070319
ただし、MGP1は部位1座標系における座標をグローブ座標系における座標に変換する行列であり、次式によって定義される。
Figure 2008070319
ここで、RGP1(α)はグローブ座標系における部位1座標系の姿勢を表す3×3行列である。また、tGP1はグローブ座標系における部位1座標系の位置を表す3次元ベクトルであり、データ記憶部103に既知の値として予め保持されているものとする。
また、MP1P2は部位2座標系における座標を部位1座標系における座標に変換する行列であり、次式によって定義される。
Figure 2008070319
ここで、RP1P2(β)は部位1座標系における部位2座標系の姿勢を表す3×3行列である。また、tP1P2は部位1座標系における部位2座標系の位置を表す3次元ベクトルであり、データ記憶部103に既知の値として予め保持されているものとする。
そして、MP2P3は指先座標系における座標を部位2座標系における座標に変換する行列であり、次式によって定義される。
Figure 2008070319
ここで、RP2P3(γ)は部位2座標系における指先座標系の姿勢を表す3x3行列である。また、tP2P3は部位2座標系における指先座標系の位置を表す3次元ベクトルであり、データ記憶部103に既知の値として予め保持されているものとする。
ステップS3030において、手形状補正部108は、各々の可動指標Qknに対して、画像座標の推定値uQkn*と実測値uQknとの誤差ΔuQknを、次式によって算出する。
Figure 2008070319
ステップS3040において、手形状補正部108は、各々の可動指標Qknに対して、式1の関数Fc()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jus Qkn(=∂u/∂s)を算出する。具体的には、式3の右辺をカメラ座標x Qknの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式2の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×3列のヤコビ行列Jxs Qkn(=∂x/∂s)を算出し、次式によってJus Qknを算出する。
Figure 2008070319
ステップS3050において、手形状補正部108は、ステップS3030及びステップS3040において算出した誤差ΔuQkn及びヤコビ行列Jus Qknに基づいて、状態ベクトルsの補正値Δsを算出する。具体的には、誤差ΔuQknを垂直に並べた2N次元の誤差ベクトル
Figure 2008070319
及び、ヤコビ行列Jus Qknを垂直に並べた2N行×3列の行列
Figure 2008070319
を作成し、Φの擬似逆行列Φ’を用いて、
Figure 2008070319
として算出する。
ステップS3060において、手形状補正部108は、ステップS3050において算出した補正値Δsを用いて式14に従って状態ベクトルsを補正し、得られた値をsの新たな推定値とする。
Figure 2008070319
ステップS3070において、手形状補正部108は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値Δsが予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後の状態ベクトルsを用いて、再度ステップS3020以降の処理を行う。
ステップS3080において、手形状補正部108は、得られた状態ベクトルsを手の形状データとしてデータ記憶部103に出力する。
以上のように、本実施形態によれば、手の形状を撮像画像に基づいて補正しているため、手の形状及び手の位置姿勢を従来よりも高い精度で計測することができる。
そのため、HMDを装着したユーザは、例えば、現実空間を背景として表示された垂直な板のCGに指先が届いているかどうかを高い精度で判定することが可能となる。
なお、本実施形態では、撮像画像中の四角マーカを検出し、検出された四角マーカの4頂点の画像座標を求めて、それらを基準指標の画像座標に関わる特徴量としていたが、これに限らず、撮像画像中の3点以上の点マーカを検出し、検出された点マーカの重心の画像座標を求めて、それらを基準指標の画像座標に関わる特徴量としてもよい。
また、本実施形態ではグローブの変形部の可動指標として点マーカを用いたが、点マーカに限らず、現実空間に元来存在する特徴的な点や線などを用いてもよい。
[第2の実施形態]
第1の実施形態では、グローブで計測した手の形状を、可動指標の撮像画像に基づいて補正していた。本実施形態では、第1の実施形態とは逆に、撮像画像に基づいて手の形状を推定し、推定が失敗した場合にグローブによる計測データで補完する。以下、本実施形態に係る物体計測装置及び方法について説明する。
図5に示したように、本実施形態に係る物体計測装置500は、画像入力部102、データ記憶部103、指標検出部104、位置姿勢計測部105、CG画像生成部106、手形状入力部507、画像合成部109、及び手形状推定部510によって構成されている。
第1の実施形態と同じ機能を有する部分については図1と同じ番号を付けており、その説明を省略する。
手形状推定部510は、データ記憶部103より撮像画像を入力し、入力した撮像画像中の可動指標の画像座標に関わる特徴量を検出する。そして、得られた特徴量と学習済みの3次元モデルをマッチングさせることで手の形状の推定を行い、またマッチングのスコアを算出する。そして、手の形状データとマッチングのスコアをデータ記憶部103に出力する。
手形状入力部507は、データ記憶部103よりマッチングのスコアと予め保持された閾値を入力する。そして、スコアが閾値よりも小さい場合に、グローブ140より人差し指の曲げ角を表すデータを取得し、手の形状データとしてデータ記憶部103に出力する。この場合には、手形状推定部510で推定された手の形状データが、手形状入力部507で取得された手の形状データで上書きされることになる。
以上によって、手の形状及び手の位置姿勢の計測が実現される。
以上のように、本実施形態によれば、手の形状及び手の位置姿勢を計測する際に、撮像画像に基づく手の形状の推定が失敗しても、グローブによる計測データによって補完されるので、従来よりも安定的に手の形状を計測することが可能となる。
(変形例1)
上記の実施形態の夫々において、撮像部121の位置及び姿勢の計測にはグローブ140の剛体部に取り付けた基準指標を用いていたが、計測方法はこれに限られるものではない。例えば、磁気式の位置姿勢センサ(不図示)をグローブ140の剛体部及びHMD120に取り付けて位置姿勢を計測してもよい。その場合には、基準指標は不要となり、図1及び図5の指標検出部104における基準指標の検出も不要となる。
(変形例2)
上記の実施形態の夫々において、手の形状はグローブによって計測していたが、グローブに限らず、撮像画像以外の情報を用いて手の形状を計測する装置及び方法であれば何を用いてもよい。例えば、手の筋電を計測する装置によって手の形状を推定する等の方法を用いてもよい。
(変形例3)
上記の実施形態の夫々において、人差し指が有する3つの関節の曲げ角を手の形状データとして用いる場合について説明したが、これに限らず、数本又は全ての指のいくつか又は全ての関節の曲げ角を手の形状データとして用いてもよい。この場合には、例えば図6に示すように、手の各部位に可動指標として点マーカを貼り付ければよい。この場合、部位毎に可動指標の誤差と画像ヤコビアンを求め、それらを積み重ねて誤差ベクトルU及び行列Φを構成することで、上記実施形態と同様な枠組みによって形状データを求めることができる。
(変形例4)
上記の実施形態の夫々において、変形物体が手である場合について説明したが、手に限らず任意の変形物体に対して本発明は好適に適用可能である。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
第1の実施形態に係る物体計測装置の概略構成を示す図である。 第1の実施形態における利用形態を説明する図である。 第1の実施形態における、手の形状データを補正する処理を説明するフローチャートである。 情報処理装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を説明する図である。 第2の実施形態に係る物体計測装置の概略構成を示す図である。 手の各部位の可動指標を説明する図である。

Claims (7)

  1. 利用者の頭部に装着した撮像装置で変形物体を撮影した撮像画像を入力する入力手段と、
    前記変形物体の変形量を前記撮像画像以外の情報を用いて計測する変形量計測手段と、
    前記撮像画像と、前記変形量計測手段が計測した前記変形物体の変形量とに基づいて、前記変形物体の各部位の位置及び/又は姿勢を算出する算出手段と、
    を備えることを特徴とする物体計測装置。
  2. 前記変形量計測手段は、前記変形物体の変形量を、センサの曲げ角に応じた値を出力するセンサによって計測することを特徴とする、請求項1に記載の物体計測装置。
  3. 前記撮像画像から前記変形物体上の指標を検出する指標検出手段と、
    前記検出された指標の画像座標に関わる特徴量を用いて前記変形物体の位置及び/又は姿勢を計測する位置姿勢計測手段とをさらに備え、
    前記算出手段は、前記位置姿勢計測手段が計測した前記変形物体の位置及び/又は姿勢と、前記変形量計測手段が計測した前記変形物体の変形量とに基づいて、前記変形物体の各部位の位置及び/又は姿勢を算出することを特徴とする、請求項1又は2に記載の物体計測装置。
  4. 前記指標として、多角形図形の複数の頂点を用いることを特徴とする、請求項3に記載の物体計測装置。
  5. 前記変形量計測手段が計測した前記変形物体の変形量を、前記検出された指標の画像座標に関わる特徴量を用いて補正する補正手段をさらに備えることを特徴とする、請求項3又は4に記載の物体計測装置。
  6. 前記変形量計測手段は、前記変形物体の変形量を前記撮像画像以外の情報及び前記撮像画像の情報の両方を用いて計測することを特徴とする、請求項1に記載の物体計測装置。
  7. 利用者の頭部に装着した撮像装置で変形物体を撮影した撮像画像を入力する入力工程と、
    前記変形物体の変形量を前記撮像画像以外の情報を用いて計測する変形量計測工程と、
    前記撮像画像と、前記変形量計測工程が計測した前記変形物体の変形量とに基づいて、前記変形物体の各部位の位置及び/又は姿勢を算出する算出工程と、
    を備えることを特徴とする物体計測方法。
JP2006251197A 2006-09-15 2006-09-15 物体計測装置および方法 Withdrawn JP2008070319A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006251197A JP2008070319A (ja) 2006-09-15 2006-09-15 物体計測装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006251197A JP2008070319A (ja) 2006-09-15 2006-09-15 物体計測装置および方法

Publications (1)

Publication Number Publication Date
JP2008070319A true JP2008070319A (ja) 2008-03-27

Family

ID=39292016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006251197A Withdrawn JP2008070319A (ja) 2006-09-15 2006-09-15 物体計測装置および方法

Country Status (1)

Country Link
JP (1) JP2008070319A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523112A (ja) * 2008-04-02 2011-08-04 オブロング・インダストリーズ・インコーポレーテッド 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御
JP2012002807A (ja) * 2010-05-31 2012-01-05 General Electric Co <Ge> ギャップ分析器装置および方法
JP2017188059A (ja) * 2016-08-02 2017-10-12 株式会社Cygames プログラム及び画像処理装置
JP2018512643A (ja) * 2015-02-20 2018-05-17 株式会社ソニー・インタラクティブエンタテインメント 周辺デバイスを伴うグローブの指先の磁気追跡
US11481029B2 (en) 2018-02-09 2022-10-25 Samsung Electronics Co., Ltd. Method for tracking hand pose and electronic device thereof
WO2024075475A1 (ja) * 2022-10-05 2024-04-11 ソニーグループ株式会社 情報処理装置、システム、情報処理方法、およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523112A (ja) * 2008-04-02 2011-08-04 オブロング・インダストリーズ・インコーポレーテッド 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御
KR101550478B1 (ko) 2008-04-02 2015-09-04 오블롱 인더스트리즈, 인크 확장된 피사계심도에 걸쳐 추출된 3차원 정보를 이용하는 제스처 기반 제어 시스템 및 방법
JP2012002807A (ja) * 2010-05-31 2012-01-05 General Electric Co <Ge> ギャップ分析器装置および方法
JP2018512643A (ja) * 2015-02-20 2018-05-17 株式会社ソニー・インタラクティブエンタテインメント 周辺デバイスを伴うグローブの指先の磁気追跡
JP2017188059A (ja) * 2016-08-02 2017-10-12 株式会社Cygames プログラム及び画像処理装置
US11481029B2 (en) 2018-02-09 2022-10-25 Samsung Electronics Co., Ltd. Method for tracking hand pose and electronic device thereof
WO2024075475A1 (ja) * 2022-10-05 2024-04-11 ソニーグループ株式会社 情報処理装置、システム、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP4532982B2 (ja) 配置情報推定方法および情報処理装置
JP5388932B2 (ja) 情報処理装置およびその制御方法
JP4593968B2 (ja) 位置姿勢計測方法および装置
JP5230114B2 (ja) 情報処理装置、情報処理方法
EP1521215B1 (en) Image display method and image display system
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP4785416B2 (ja) 位置姿勢計測方法及び装置
JP5818857B2 (ja) 情報処理装置およびその制御方法
US7834909B2 (en) Image processing method and image processing apparatus
JP6955369B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2008002980A (ja) 情報処理方法および装置
JP4847195B2 (ja) 画像からの色情報の取得方法
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7238060B2 (ja) 情報処理装置及びその制御方法、並びに、プログラム
JP2008070319A (ja) 物体計測装置および方法
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP4566786B2 (ja) 位置姿勢計測方法および情報処理装置
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP2004233201A (ja) 位置姿勢計測方法
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP4307189B2 (ja) 情報処理方法、情報処理装置、識別方法
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091201