JP6929043B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP6929043B2
JP6929043B2 JP2016219953A JP2016219953A JP6929043B2 JP 6929043 B2 JP6929043 B2 JP 6929043B2 JP 2016219953 A JP2016219953 A JP 2016219953A JP 2016219953 A JP2016219953 A JP 2016219953A JP 6929043 B2 JP6929043 B2 JP 6929043B2
Authority
JP
Japan
Prior art keywords
orientation
image processing
shape model
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016219953A
Other languages
English (en)
Other versions
JP2018077732A (ja
Inventor
彰尚 三原
彰尚 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016219953A priority Critical patent/JP6929043B2/ja
Publication of JP2018077732A publication Critical patent/JP2018077732A/ja
Application granted granted Critical
Publication of JP6929043B2 publication Critical patent/JP6929043B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、複合現実感の提示技術に関するものである。
近年、設計・製造分野においてプロトタイプを用いた評価の期間短縮、費用削減が求められている。CAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、組み立てやすさやメンテナンス性の仮想評価をするための複合現実感(MR:Mixed Reality)システムが導入されている。例えば、組み立てやすさを評価する場合は、手で仮想物体(以後操作CGモデルと呼ぶ)を把持して動かし、別の仮想物体(以後非操作CGモデルと呼ぶ)との接触を仮想空間上でシミュレーションすることが想定される。このとき手と操作CGモデルとの接触をシミュレーションするためには、手をモデル化して手に重畳させる必要があり、同様に操作CGモデルと非操作CGモデルとの接触をシミュレーションするためには操作CGモデルの位置姿勢を取得する必要がある。
手をモデル化するためには、例えば、Leap Motion社のLeap Motionを利用することが考えられる。Leap Motionは、手の指も含めた位置姿勢を計測することができる。Leap Motionでは、内蔵されているステレオカメラから手の領域を検出し、手の形状を模した3次元ポリゴンモデル(以後ハンドモデルと呼ぶ)をリアルタイムで出力することができる。Leap Motion以外にもMicrosoft(登録商標)社のKinect等のデプスセンサから手と指の位置姿勢を推定することができる(非特許文献1)。非特許文献1に記載の技術では、デプスセンサで得られた手の形状の奥行画像に基づいて、初期位置から繰り返し計算し、コストを最適化することによって手と指の姿勢を推定した3次元ポリゴンモデルを生成している。以後、ハンドモデルを出力できるLeap Motionおよびデプスセンサのことをセンサと総称する。
物体の位置姿勢を求めるためは、物体に既知の幾何学パターン(以後、マーカと呼ぶ)を貼り、カメラでマーカの画像を取得し、マーカの幾何変化を算出し、マーカとカメラとの相対位置姿勢を算出すればよい。ここでカメラとは、複合現実感を提示するための表示デバイスであるビデオシースルー型のヘッドマウントディスプレイ(以後HMDと略す)に搭載されているステレオカメラを想定している。CGモデルを描画するときの仮想カメラ位置姿勢を、HMDに搭載されているステレオカメラの位置姿勢と同期させることにより、あたかも現実空間の中にハンドモデルやCGモデルが存在するように表示することができる。
特開2008−40913号公報
Qian, C., Sun, X., Wei, Y., Tang, X., Sun, J. : Realtime and Robust Hand Tracking from Depth. In CVPR 2014. Pp. 1106-1113. Colum¬bus, USA (2014) D. Holz, S. Ullrich, M. Wolter, and T. Kuhlen.: Multi-contact grasp interaction for virtual environments. Journal of Virtual Reality and Broadcasting, 5(7), 2008. Moehring, M. , Froehlich, B.: Pseudo-Physical Interaction with a Virtual Car Interior in Immersive Environments. In Proceedings of IPT/EGVG-Workshop. 2005. Aalborg
しかし手で物体を把持していると、手が邪魔で物体に貼りつけられたマーカが見えず、物体の位置姿勢が正しく算出できない場合がある。同様に物体が邪魔で手が見えず、手の位置姿勢形状が正しく算出できない場合がある。
特許文献1では、マーカが貼られた物体の位置姿勢を検出する際に、物体の形状が既知のものとして、マーカから算出した位置姿勢を補正する手法を提案しているが、物体の形状が既知であることを前提にしなくてはならない。また、特許文献1には、マーカを用いて算出した位置姿勢を補正する手法であって、マーカを用いて位置姿勢が算出できなかった場合の対処方法は記載されていない。
本発明はこのような問題に鑑みてなされたものであり、ユーザが自身の部位で物体を把持している状態において、該部位に重畳するモデルや該部位の位置姿勢、該物体の位置姿勢、の何れか一方が取得できなくても代わりとなる情報を生成可能な技術を提供する。
本発明の一様態は、ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成するモデル生成手段と、
前記部位による把持対象となる対象物の位置姿勢を認識する認識手段と、
前記第1の形状モデルの生成および前記対象物の位置姿勢の認識のそれぞれの結果が有効であるかを判断する判断手段と、
前記第1の形状モデルの生成の結果及び前記対象物の位置姿勢の認識の結果がいずれも有効であると判断された場合に、前記部位が前記対象物を把持しているかを判定する判定手段と、
前記部位の位置姿勢に基づいて前記第1の形状モデルを配置し、前記対象物の位置姿勢に基づいて該対象物の第2の形状モデルを配置した仮想空間の画像を生成する画像生成手段と
前記モデル生成手段、前記認識手段、前記判断手段、及び前記判定手段による処理を含む一連の処理を繰り返し実行するように制御する制御手段と、
今回の前記一連の処理における前記部位の位置姿勢と、以前の前記一連の処理で前記部位が前記対象物を把持していると判定された場合における前記部位の位置姿勢及び前記対象物の位置姿勢と、に基づいて該今回の一連の処理における前記対象物の位置姿勢を推定する推定手段と
を備え、
前記画像生成手段は、前記今回の一連の処理において、前記第1の形状モデルの生成の結果は有効であるが、前記対象物の位置姿勢の認識の結果が有効でないと判断された場合に、前記推定手段により推定された前記対象物の位置姿勢に基づいて前記第2の形状モデルを配置する
ことを特徴とする。
本発明の構成によれば、ユーザが自身の部位で物体を把持している状態において、該部位に重畳するモデルや該部位の位置姿勢、該物体の位置姿勢、の何れか一方が取得できなくても代わりとなる情報を生成することができる。
複合現実空間提示システムの機能構成例を示すブロック図。 ハンドモデル及び操作CGモデルを説明する図。 画像処理装置190が行う処理のフローチャート。 画像処理装置190が行う処理のフローチャート。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では次のような構成を有する画像処理装置の一例について説明する。この画像処理装置は、ユーザの部位に対する測定結果に基づいて該部位の第1の形状モデルを生成(第1の生成)し、該部位による把持対象となる対象物の位置姿勢を取得し、該対象物の第2の形状モデルを生成(第2の生成)する。そして画像処理装置は、第1の形状モデル、上記取得した位置姿勢を有する第2の形状モデル、を含む仮想空間の画像を生成(第3の生成)する。ここで、上記の第2の生成では、対象物の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に上記部位が対象物を把持したときの上記部位の位置姿勢及び対象物の位置姿勢、に基づいて対象物の位置姿勢を推定する。そして上記の第2の生成では更に、該推定された結果に基づいて第2の形状モデルを生成する。
本実施形態に係る複合現実空間提示システムでは、図2に示す如く、HMD等の頭部装着型表示装置を自身の頭部に装着しているユーザの手201の位置姿勢でもって、手201の形状を模した3次元仮想物体であるハンドモデル211を生成して配置する。更に複合現実空間提示システムは、現実物体としてのドライバ202の位置姿勢でもって、ドライバ202の形状を模した3次元仮想物体である操作CGモデル212を配置する。このとき、操作CGモデル212はドライバ202の位置姿勢でもって配置されるものであるから、ドライバ202にはその位置姿勢を複合現実空間提示システムに認識させるためにマーカ203が取り付けられている。図2ではマーカ203は2次元バーコードとして示しているが、マーカ203として利用可能なものはこれに限らず、如何なる指標であっても良い。また、マーカ203はドライバ202の何れの箇所に設けても構わない。複合現実空間提示システムはこのマーカ203を認識してドライバ202の位置姿勢を求め、該求めた位置姿勢でもって操作CGモデル212を配置するのであるが、例えば手201でマーカ203の一部若しくは全部を隠蔽するようなケースが発生しうる。このようなケースが発生すると、複合現実空間提示システムはマーカ203を正しく認識することができず、その結果、ドライバ202の位置姿勢を正しく認識できない。後述するように、ドライバ202の位置姿勢が正しく認識できなくなるようなケースは他にもある。ドライバ202の位置姿勢が正しく認識できないと、操作CGモデル212を正しくドライバ202の位置姿勢でもって配置することができない。
本実施形態ではドライバ202の位置姿勢が正しく認識できなくなるようなケースが発生した場合、過去に手201がドライバ202を把持していた状態における手201とドライバ202との位置姿勢関係を参酌して現在のドライバ202の位置姿勢を求める。
先ず、本実施形態に係る複合現実空間提示システムの機能構成例について、図1のブロック図を用いて説明する。なお、図1に示した構成は一例であり、上記のケースに対処可能な構成であれば、如何なる構成を採用しても良い。図1に示す如く、本実施形態に係る複合現実空間提示システムは、センサ101、頭部装着型表示装置の一例であるHMD151、画像処理装置190、表示装置142、を有する。
先ず、センサ101について説明する。センサ101は、HMD151を自身の頭部に装着したユーザの手(指を含む)の位置姿勢や形状を計測するために設けられたものである。センサ101としては、例えば、上記の非特許文献1に記載のKinectを使用しても良い。センサ101はHMD151に取り付けても良いし、HMD151には取り付けずに現実空間中の所定の位置に取り付けても良い。
次に、HMD151について説明する。表示部111は、HMD151を自身の頭部に装着したユーザの眼(右眼及び左眼)前に位置するようにHMD151に取り付けられたものであり、画像処理装置190から出力された画像を表示する。撮像部141は、HMD151を自身の頭部に装着したユーザの眼(右眼及び左眼)の近傍位置から該ユーザの視線方向を撮像するようにHMD151に取り付けられたものであり、現実空間の動画像を撮像する。撮像部141が撮像した各フレームの画像(現実空間の撮像画像)は順次、画像処理装置190に対して出力される。
次に、画像処理装置190について説明する。ハンドモデル生成部102は、センサ101によるユーザの手の測定結果に基づいて、該手の形状を模した3次元仮想物体である形状モデル、すなわちハンドモデル(図2のハンドモデル211)を生成する。ハンドモデル生成部102によるハンドモデルの生成には、例えば、Microsoft(登録商標)社製のKinect SDKを用いればよい。すなわち、センサ101から手の3次元領域を抽出し、参照データとマッチングすることにより、リアルタイムに変化する手の形状が反映されたハンドモデルを出力する。
生成成功判断部103は、ハンドモデル生成部102によるハンドモデルの生成が成功したか否かを判断する。ハンドモデルの生成が成功したか否かの判断基準には様々なものが考えられる。
例えば、現フレームにおける手の位置姿勢と、過去のフレーム(例えば現フレームの1フレーム過去のフレーム)における手の位置姿勢と、の差分が閾値以上であれば、ハンドモデルの生成は失敗したと判断する。なお、該差分は、位置成分のみの差分でも良いし姿勢成分のみの差分でも良いし、位置及び姿勢の両方の差分でも良い。また、手の位置姿勢の代わりに、各指や関節の位置姿勢を用いてもよい。
また、他の判断基準として、センサ101から手への直線上に別の現実物体が存在したが故に、センサ101から十分な測定情報(ハンドモデルを生成するのに十分な情報)が得られなかった場合に、ハンドモデルの生成は失敗したと判断しても良い。
何れにせよ、生成成功判断部103が、ハンドモデルの生成は失敗したと判断しない限りは、ハンドモデルの生成は成功したものとして取り扱われる。
位置姿勢認識部112は、撮像部141から出力される撮像画像中に写っているマーカ(図2のマーカ203)を認識し、該マーカの(撮像部141に対する)位置姿勢をドライバ(図2のドライバ202)の位置姿勢として求める(認識する)。なお、ドライバの位置姿勢を取得することができるのであれば、その取得方法は撮像部141による撮像画像を利用した方法に限らず、例えば、ドライバに磁気センサや光学式センサを取り付けて、該センサによる測定結果からドライバの位置姿勢を求めても良い。
認識成功判断部113は、位置姿勢認識部112によるドライバの位置姿勢の認識に成功したか否かを判断する。ドライバの位置姿勢の認識に成功したか否かの判断基準には様々な判断基準が考えられる。
例えば、撮像部141から出力される撮像画像からマーカが検出できなかった場合には、ドライバの位置姿勢の認識には失敗したと判断する。また、現フレームにおけるドライバの位置姿勢と、過去のフレーム(例えば現フレームの1フレーム過去のフレーム)におけるドライバの位置姿勢と、の差分が閾値以上であれば、ドライバの位置姿勢の認識には失敗したと判断する。なお、該差分は、位置成分のみの差分でも良いし姿勢成分のみの差分でも良いし、位置及び姿勢の両方の差分でも良い。
把持判定部121は、ユーザの手がドライバを把持しているか否かを判断する。ユーザの手がドライバを把持しているか否かを判断する方法は周知の技術で実装可能であり、例えば、非特許文献2や非特許文献3に記載されている方法を用いて、ユーザの手がドライバを把持しているか否かを判断するようにしても良い。例えば、ユーザの手とドライバとの位置姿勢関係が規定の位置姿勢関係(ユーザの手がドライバを把持している状態における手とドライバとの位置姿勢関係)であれば、ユーザの手がドライバを把持していると判断する。
情報保存部122は、後述する推定部123が現フレームにおけるドライバの位置姿勢を推定するために使用する様々な情報を登録するためのメモリとして機能する。
推定部123は、ハンドモデルの生成には成功したものの、ドライバの位置姿勢の認識には失敗した場合に、情報保存部122に登録されている情報を用いてドライバの位置姿勢を推定する。推定部123の動作について詳しくは後述する。
仮想空間生成部132は先ず、センサ101による測定結果に応じた手の位置姿勢で配置されたハンドモデル、位置姿勢認識部112が認識した若しくは推定部123が推定したドライバの位置姿勢で配置された操作CGモデル、を含む仮想空間を構築する。そして仮想空間生成部132は、この構築した仮想空間を撮像部141の位置姿勢を有する視点から見た画像を仮想空間画像として生成する。撮像部141の位置姿勢は、例えば、撮像部141による撮像画像中の自然特徴を用いて求めても良いし、撮像部141に磁気センサや光学式センサを取り付けて該センサによる測定結果に応じて求めても良い。
画像生成部133は、撮像部141から出力された撮像画像と、仮想空間生成部132によって生成された仮想空間画像と、を合成した合成画像を生成する。画像出力部134は、画像生成部133が生成した合成画像を、HMD151(表示部111)及び表示装置142に対して出力する。なお、画像出力部134による合成画像の出力先は、HMD151、表示装置142に限らない。
次に、画像処理装置190が1フレーム分の合成画像を生成して出力するために行う処理について、同処理のフローチャートを示す図3を用いて説明する。つまり、画像処理装置190は、撮像部141から出力される各フレームの撮像画像について、図3のフローチャートに従った処理を行うことになる。
ステップS301では、ハンドモデル生成部102は、センサ101によるユーザの手の測定結果に基づいてハンドモデルを生成する。ステップS302では、生成成功判断部103は、ハンドモデル生成部102によるハンドモデルの生成が成功したか否かを判断する。この判断の結果、ハンドモデルの生成が成功したと判断した場合には、処理はステップS303に進み、ハンドモデルの生成が失敗したと判断した場合には、処理はステップS311に進む。
ステップS303では、生成成功判断部103は、センサ101による測定結果が示す手の位置姿勢(ハンドモデルの位置姿勢)と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
ステップS311では、位置姿勢認識部112は、撮像部141から出力される撮像画像中に写っているマーカを認識し、該認識の結果に基づいて該マーカの位置姿勢をドライバの位置姿勢(操作CGモデルの位置姿勢)として求める(認識する)。
ステップS312では、認識成功判断部113は、位置姿勢認識部112によるドライバの位置姿勢の認識に成功したか否かを判断する。この判断の結果、ドライバの位置姿勢の認識に成功したと判断した場合には、処理はステップS313に進む。一方、ドライバの位置姿勢の認識に失敗したと判断した場合には、処理はステップS321に進む。
ステップS313では、認識成功判断部113は、ステップS311で認識したドライバの位置姿勢(操作CGモデルの位置姿勢)と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
そして、この時点で「ハンドモデルの生成が成功したと判断され且つドライバの位置姿勢の認識が成功したと判断された」という成功条件が満たされている場合には、処理はステップS321を介してステップS322に進む。一方、この成功条件が満たされていない場合には、処理はステップS321を介してステップS323に進む。
ステップS322では、把持判定部121は、ユーザの手がドライバを把持しているか否かを判断し、その判断結果を示す値(判断値)を、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と関連づけて情報保存部122に登録する。判断値は、例えば、ユーザの手がドライバを把持している場合には値「1」を有し、ユーザの手がドライバを把持していない場合には値「0」を有する。
そして処理がステップS323に進むと、ハンドモデル生成部102によるハンドモデルの生成が成功している場合には、処理はステップS324に進み、ハンドモデルの生成が失敗した場合には、処理はステップS330に進む。
ステップS324では、推定部123は先ず、情報保存部122に登録されている情報を参照して、「ユーザの手がドライバを把持している」ことを示す判断値と関連づけて登録されているフレーム情報のうち最近のフレームを表すフレーム情報を特定する。そして推定部123は、該特定したフレーム情報と関連づけて情報保存部122に登録されている手の位置姿勢、ドライバの位置姿勢、を検索する。この検索が成功した場合には、処理はステップS325に進み、この検索が失敗した場合には、処理はステップS330に進む。つまり、検索に成功した場合、推定部123は、最近に手がドライバを把持していたときの、手の位置姿勢及びドライバの位置姿勢を取得したことになる。
ステップS325では、推定部123は、上記の検索により取得した手の位置姿勢及びドライバの位置姿勢を用いて、手に対するドライバの相対的な位置姿勢Δを算出する。そして推定部123は、現フレームにおけるハンドモデルの位置姿勢に対する相対的な位置姿勢が、この求めた相対的な位置姿勢Δとなる位置姿勢を、現フレームにおける操作CGモデルの位置姿勢として算出する。
ステップS330では、仮想空間生成部132は、ハンドモデル及び操作CGモデルを上記の如く配置した仮想空間を、撮像部141の位置姿勢を有する視点から見た画像を仮想空間画像として生成する。なお、ハンドモデルの生成に失敗した場合や、操作CGモデルの位置姿勢の認識に失敗した場合には、ハンドモデル及び操作CGモデルは配置できない。このような場合における仮想空間画像としては、例えば、直前のフレームにおける仮想空間画像を現フレームの仮想空間画像として使用しても良い。
ステップS340では、画像生成部133は、撮像部141から出力された撮像画像と、仮想空間生成部132によって生成された仮想空間画像と、を合成した合成画像を生成する。画像出力部134は、画像生成部133が生成した合成画像を、HMD151(表示部111)及び表示装置142に対して出力する。
<変形例1>
第1の実施形態では、ハンドモデルの生成に成功するたびに手の位置姿勢を情報保存部122に登録し、ドライバの位置姿勢の認識に成功するたびにドライバの位置姿勢を情報保存部122に登録していた。しかし、情報保存部122に登録した位置姿勢のうち実際に使用されるものは、最近に手がドライバを把持したときの手の位置姿勢及びドライバの位置姿勢である。然るに、ユーザの手がドライバを把持していると判断された場合にのみ、手の位置姿勢及びドライバの位置姿勢を登録するようにしても良い。また、登録する位置姿勢は最新のフレームにおけるもののみとしても良い。
また、このほかにも、手の位置姿勢やドライバの位置姿勢を登録する条件としては様々なものが考えられる。例えば、手とドライバとの間の相対位置の変化量が閾値以上となった場合や、ハンドモデルの形状の変化量が閾値以上となった場合に登録するようにしても良い。ハンドモデルの形状変化は、ハンドモデルの指や関節の位置姿勢変化から求めることができる。
[第2の実施形態]
第1の実施形態は、ハンドモデルの生成には成功したものの、ドライバの位置姿勢の認識に失敗したケースに対処するものであった。本実施形態は、ドライバの位置姿勢の認識には成功したものの、ハンドモデルの生成に失敗したケースに対処するものである。本実施形態を含め、以下の各実施形態では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態では、画像処理装置190は図3のフローチャートに従った処理を行う代わりに、図4のフローチャートに従った処理を行う。図4において図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS400では、生成成功判断部103は、ステップS301で生成したハンドモデルと、該ハンドモデル(手)の位置姿勢と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
そして、「ハンドモデルの生成が成功したと判断され且つドライバの位置姿勢の認識が成功したと判断された」という成功条件が満たされていない場合には、処理はステップS321を介してステップS401に進む。
そして処理がステップS401に進むと、位置姿勢認識部112によるドライバの位置姿勢の認識が成功している場合には、処理はステップS324に進み、ドライバの位置姿勢の認識が失敗した場合には、処理はステップS330に進む。そしてステップS324における検索が成功した場合には、処理はステップS403に進み、この検索が失敗した場合には、処理はステップS330に進む。
ステップS403では、推定部123は、上記の検索により取得した手の位置姿勢及びドライバの位置姿勢を用いて、ドライバに対する手の相対的な位置姿勢Δを算出する。そして推定部123は、現フレームにおける操作CGモデルの位置姿勢に対する相対的な位置姿勢が、この求めた相対的な位置姿勢Δとなる位置姿勢を、現フレームにおけるハンドモデルの位置姿勢として算出する。また、ハンドモデルそのものが生成できなかった場合には、ステップS324で特定したフレーム情報と関連づけて情報保存部122に登録されているハンドモデルを読み出し、該読み出したハンドモデルを現フレームにおけるハンドモデルとして使用してもよい。なお、ステップS400ではハンドモデルの代わりに、情報保存部122におけるメモリ効率の観点から、該ハンドモデルのボーンを登録しても良いし、ハンドモデルを視点から見た2次元画像を登録しても良い。
[第3の実施形態]
第1の実施形態では、ハンドモデルの生成に失敗した場合や、ドライバの位置姿勢の認識に失敗した場合に、現フレームのハンドモデルやその位置姿勢、現フレームの操作CGモデルの位置姿勢、を求めるようにした。しかし、ハンドモデルの生成やドライバの位置姿勢の認識に成功したと判断したとしても、生成したハンドモデルの精度やその位置姿勢の精度、操作CGモデルの位置姿勢の精度を考慮すると、その信頼度が低い場合がある。然るに、単にハンドモデルの生成に成功した/失敗した、ドライバの位置姿勢の認識に成功した/失敗した、に応じて情報保存部122への情報登録を制御するのではなく、その信頼度を考慮して制御するようにしても良い。
例えば、センサ101から得られる手のデータ量が、規定のデータ量(本来センサ101から得られるデータ量)未満であれば信頼度=0として、ステップS302からステップS311に処理を進める。一方、センサ101から得られる手のデータ量が規定のデータ量以上であれば信頼度=1として、ステップS302からステップS303に処理を進める。
また例えば、撮像部141による撮像画像中のマーカの数が多いほど、ドライバの位置姿勢の認識の信頼度が高いと判断しても良い。そして信頼度が閾値以上であれば、処理はステップS312からステップS313に処理を進め、信頼度が閾値未満であれば、処理はステップS312からステップS321に処理を進める。
[第4の実施形態]
図1に示した画像処理装置190に含まれている各機能部の全てをハードウェアで構成しても良いが、情報保存部122をメモリで実装し、それ以外の各機能部をソフトウェア(コンピュータプログラム)で実装するようにしても良い。このような場合、情報保存部122をメモリとして有し、且つ該コンピュータプログラムを実行可能なコンピュータ装置は、上記の画像処理装置190に適用可能である。画像処理装置190に適用可能なコンピュータ装置のハードウェア構成例について、図5のブロック図を用いて説明する。
CPU510は、ROM520やRAM530に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU510は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置190が行うものとして上述した各処理を実行若しくは制御する。
ROM520には、書き換え不要の本コンピュータ装置の設定データやブートプログラムなどが格納されている。RAM530は、I/F(インターフェース)540を介して外部から受信したデータ、外部記憶装置560からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM530は、CPU510が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM530は、各種のエリアを適宜提供することができる。
I/F540は、上記のセンサ101、HMD151、表示装置142を接続するためのものである。センサ101から出力される手の測定結果やHMD151から出力される各フレームの撮像画像は、I/F540を介してRAM530や外部記憶装置560に入力される。また、本コンピュータ装置が生成した合成画像などの情報は、I/F540を介してHMD151(表示部111)や表示装置142に対して出力される。
外部記憶装置560は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置560には、OS(オペレーティングシステム)や、画像処理装置190が行うものとして上述した各処理をCPU510に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、図1において画像処理装置190が有するものとして示した各機能部のうち情報保存部122を除く各機能部の機能をCPU510に実現させるためのコンピュータプログラムが含まれている。また、外部記憶装置560に保存されているデータには、ハンドモデルや操作CGモデルのデータ、上記の説明において既知の情報として説明した情報、が含まれている。
外部記憶装置560に保存されているコンピュータプログラムやデータは、CPU510による制御に従って適宜RAM530にロードされ、CPU510による処理対象となる。CPU510、ROM520、RAM530、I/F540、外部記憶装置560は何れも、バス500に接続されている。
[第5の実施形態]
上記の各実施形態では、HMD151はビデオシースルー方式のものを用いるものとして説明したが、光学シースルー方式のものを採用しても良い。その場合、撮像部141による撮像画像は、マーカの撮像やHMD151の位置姿勢を算出するために使用され、表示用には使用されない。また、画像処理装置190も、仮想空間画像を生成すると、これを表示装置142及びHMD151に対して出力する。また、HMD151の代わりに、スマートフォンやカメラ付タブレット端末装置を使用しても構わない。
なお、以上の各実施形態や変形例では、物体を把持するユーザの部位を手、把持対象となる対象物をドライバとして説明を行ったが、物体を把持するユーザの部位、把持対象となる対象物、のそれぞれは手、ドライバに限るものではない。
また、操作CGモデルと、ハンドモデル及び操作CGモデル以外の仮想物体である非操作CGモデルとの接触があった場合には、その旨を表示部111や表示装置142に通知するようにしても良い。例えば、操作CGモデルと非操作CGモデルとで接触のあった箇所(ポリゴンなど)を明示的に表示しても良い。また、以上説明した各実施形態や変形例の一部若しくは全部を適宜組み合わせても構わない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102:ハンドモデル生成部 103:生成成功判断部 112:位置姿勢認識部 113:認識成功判断部 121:把持判定部 123:推定部 132:仮想空間生成部 133:画像生成部

Claims (12)

  1. ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成するモデル生成手段と、
    前記部位による把持対象となる対象物の位置姿勢を認識する認識手段と、
    前記第1の形状モデルの生成および前記対象物の位置姿勢の認識のそれぞれの結果が有効であるかを判断する判断手段と、
    前記第1の形状モデルの生成の結果及び前記対象物の位置姿勢の認識の結果がいずれも有効であると判断された場合に、前記部位が前記対象物を把持しているかを判定する判定手段と、
    前記部位の位置姿勢に基づいて前記第1の形状モデルを配置し、前記対象物の位置姿勢に基づいて該対象物の第2の形状モデルを配置した仮想空間の画像を生成する画像生成手段と
    前記モデル生成手段、前記認識手段、前記判断手段、及び前記判定手段による処理を含む一連の処理を繰り返し実行するように制御する制御手段と、
    今回の前記一連の処理における前記部位の位置姿勢と、以前の前記一連の処理で前記部位が前記対象物を把持していると判定された場合における前記部位の位置姿勢及び前記対象物の位置姿勢と、に基づいて該今回の一連の処理における前記対象物の位置姿勢を推定する推定手段と
    を備え、
    前記画像生成手段は、前記今回の一連の処理において、前記第1の形状モデルの生成の結果は有効であるが、前記対象物の位置姿勢の認識の結果が有効でないと判断された場合に、前記推定手段により推定された前記対象物の位置姿勢に基づいて前記第2の形状モデルを配置する
    ことを特徴とする画像処理装置。
  2. ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成するモデル生成手段と、
    前記部位による把持対象となる対象物の位置姿勢を認識する認識手段と、
    前記第1の形状モデルの生成および前記対象物の位置姿勢の認識のそれぞれの結果が有効であるかを判断する判断手段と、
    前記第1の形状モデルの生成の結果及び前記対象物の位置姿勢の認識の結果がいずれも有効であると判断された場合に、前記部位が前記対象物を把持しているかを判定する判定手段と、
    前記部位の位置姿勢に基づいて前記第1の形状モデルを配置し、前記対象物の位置姿勢に基づいて該対象物の第2の形状モデルを配置した仮想空間の画像を生成する画像生成手段と
    前記モデル生成手段、前記認識手段、前記判断手段、及び前記判定手段による処理を含む一連の処理を繰り返し実行するように制御する制御手段と、
    今回の前記一連の処理における前記対象物の位置姿勢と、以前の前記一連の処理で前記部位が前記対象物を把持していると判定された場合における前記部位の位置姿勢及び前記対象物の位置姿勢と、に基づいて該今回の一連の処理における前記部位の位置姿勢を推定する推定手段と
    を備え、
    前記画像生成手段は、前記今回の一連の処理において、前記第1の形状モデルの生成の結果は有効でないが、前記対象物の位置姿勢の認識の結果が有効であると判断された場合に、前記推定手段により推定された前記部位の位置姿勢に基づいて前記第1の形状モデルを配置する
    ことを特徴とする画像処理装置。
  3. 前記判断手段は、前記モデル生成手段による前記第1の形状モデルの生成の結果、または前記認識手段による前記対象物の位置姿勢の認識の結果の信頼度を求め、該信頼度が閾値未満の場合に、該結果が有効でないと判断することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記判断手段は、前記対象物の位置姿勢を認識するために該対象物に設けられている指標を、前記認識手段が検出できなかった場合に、該認識手段による認識結果が有効でないと判断することを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記判断手段は、前記今回の一連の処理において前記認識手段が認識した前記対象物位置及び/又は姿勢が、前記以前の一連の処理において前記認識手段が認識した位置及び/又は姿勢から閾値以上、変化した場合には、該認識手段による認識結果が有効でないと判断することを特徴とする請求項1又は2に記載の画像処理装置。
  6. 前記推定手段は、前記部位が前記対象物を把持していると判定された場合における該部位の位置姿勢と対象物の位置姿勢との間の相対的な位置姿勢関係を求め、該求めた相対的な位置姿勢関係と、前記今回の一連の処理における前記部位もしくは前記対象物の一方の位置姿勢と、に基づいて前記部位もしくは前記対象物の他の一方の位置姿勢を推定することを特徴とする請求項1又は2に記載の画像処理装置。
  7. 前記判断手段は、前記ユーザの部位の位置姿勢の測定結果に基づいて、前記第1の形状モデルの生成の結果が有効でないと判断することを特徴とする請求項1又は2に記載の画像処理装置。
  8. 前記画像生成手段は、前記モデル生成手段が前記第1の形状モデルの生成に失敗した場合には、前記以前の一連の処理において生成された前記第1の形状モデルを、前記今回の一連の処理における前記第1の形状モデルとすることを特徴とする請求項1又は2に記載の画像処理装置。
  9. 更に、現実空間の撮像画像を取得する手段を備え、
    前記画像生成手段は、前記仮想空間の画像と前記撮像画像との合成画像を生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置のモデル生成手段が、ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成するモデル生成工程と、
    前記画像処理装置の認識手段が、前記部位による把持対象となる対象物の位置姿勢を認識する認識工程と、
    前記画像処理装置の判断手段が、前記第1の形状モデルの生成および前記対象物の位置姿勢の認識のそれぞれの結果が有効であるかを判断する判断工程と、
    前記画像処理装置の判定手段が、前記第1の形状モデルの生成の結果及び前記対象物の位置姿勢の認識の結果がいずれも有効であると判断された場合に、前記部位が前記対象物を把持しているかを判定する判定工程と、
    前記画像処理装置の画像生成手段が、前記部位の位置姿勢に基づいて前記第1の形状モデルを配置し、前記対象物の位置姿勢に基づいて該対象物の第2の形状モデルを配置した仮想空間の画像を生成する画像生成工程と
    前記画像処理装置の制御手段が、前記モデル生成工程、前記認識工程、前記判断工程、及び前記判定工程の処理を含む一連の処理を繰り返し実行するように制御する制御工程と、
    前記画像処理装置の推定手段が、今回の前記一連の処理における前記部位の位置姿勢と、以前の前記一連の処理で前記部位が前記対象物を把持していると判定された場合における前記部位の位置姿勢及び前記対象物の位置姿勢と、に基づいて該今回の一連の処理における前記対象物の位置姿勢を推定する推定工程と
    を備え、
    前記画像生成工程では、前記今回の一連の処理において、前記第1の形状モデルの生成の結果は有効であるが、前記対象物の位置姿勢の認識の結果が有効でないと判断された場合に、前記推定工程で推定された前記対象物の位置姿勢に基づいて前記第2の形状モデルを配置する
    ことを特徴とする画像処理方法。
  11. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置のモデル生成手段が、ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成するモデル生成工程と、
    前記画像処理装置の認識手段が、前記部位による把持対象となる対象物の位置姿勢を認識する認識工程と、
    前記画像処理装置の判断手段が、前記第1の形状モデルの生成および前記対象物の位置姿勢の認識のそれぞれの結果が有効であるかを判断する判断工程と、
    前記画像処理装置の判定手段が、前記第1の形状モデルの生成の結果及び前記対象物の位置姿勢の認識の結果がいずれも有効であると判断された場合に、前記部位が前記対象物を把持しているかを判定する判定工程と、
    前記画像処理装置の画像生成手段が、前記部位の位置姿勢に基づいて前記第1の形状モデルを配置し、前記対象物の位置姿勢に基づいて該対象物の第2の形状モデルを配置した仮想空間の画像を生成する画像生成工程と
    前記画像処理装置の制御手段が、前記モデル生成工程、前記認識工程、前記判断工程、及び前記判定工程の処理を含む一連の処理を繰り返し実行するように制御する制御工程と、
    前記画像処理装置の推定手段が、今回の前記一連の処理における前記対象物の位置姿勢と、以前の前記一連の処理で前記部位が前記対象物を把持していると判定された場合における前記部位の位置姿勢及び前記対象物の位置姿勢と、に基づいて該今回の一連の処理における前記部位の位置姿勢を推定する推定工程と
    を備え、
    前記画像生成工程では、前記今回の一連の処理において、前記第1の形状モデルの生成の結果は有効でないが、前記対象物の位置姿勢の認識の結果が有効であると判断された場合に、前記推定工程で推定された前記部位の位置姿勢に基づいて前記第1の形状モデルを配置する
    ことを特徴とする画像処理方法。
  12. コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2016219953A 2016-11-10 2016-11-10 画像処理装置、画像処理方法 Active JP6929043B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016219953A JP6929043B2 (ja) 2016-11-10 2016-11-10 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016219953A JP6929043B2 (ja) 2016-11-10 2016-11-10 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018077732A JP2018077732A (ja) 2018-05-17
JP6929043B2 true JP6929043B2 (ja) 2021-09-01

Family

ID=62150817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016219953A Active JP6929043B2 (ja) 2016-11-10 2016-11-10 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP6929043B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467293B2 (ja) 2020-09-14 2024-04-15 株式会社日立産機システム シミュレーションシステム及びシミュレーション方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087161A (ja) * 2007-10-01 2009-04-23 Canon Inc 画像処理装置、画像処理方法
JP6305856B2 (ja) * 2014-07-11 2018-04-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2018077732A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
US8879787B2 (en) Information processing device and information processing method
JP5388932B2 (ja) 情報処理装置およびその制御方法
US8998718B2 (en) Image generation system, image generation method, and information storage medium
US10453235B2 (en) Image processing apparatus displaying image of virtual object and method of displaying the same
CN106125903B (zh) 多人交互系统及方法
JP7017689B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
EP2360567A2 (en) Image processing apparatus, image processing method, program, and image processing system
JP2010519629A (ja) 画像内の3次元物体のポーズを決定する方法及びデバイス並びに物体追跡のための少なくとも1つのキー画像を創出する方法及びデバイス
JP5526465B2 (ja) 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム
WO2022174594A1 (zh) 基于多相机的裸手追踪显示方法、装置及系统
US20170285731A1 (en) System and method for providing virtual reality contents based on body information obtained from user
US20160232708A1 (en) Intuitive interaction apparatus and method
JP6129363B2 (ja) インタラクティブシステム、リモコン及びその操作方法
US20170365084A1 (en) Image generating apparatus and image generating method
JP6950390B2 (ja) 表示制御プログラム、装置、及び方法
JP2009258884A (ja) ユーザインタフェイス
JP2009087161A (ja) 画像処理装置、画像処理方法
JP6929043B2 (ja) 画像処理装置、画像処理方法
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP6981340B2 (ja) 表示制御プログラム、装置、及び方法
JP2018128739A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、及び記憶媒体
JP7321029B2 (ja) キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
JP2019012334A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201116

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R151 Written notification of patent or utility model registration

Ref document number: 6929043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151