JP2018077732A - Image processing apparatus, and image processing method - Google Patents
Image processing apparatus, and image processing method Download PDFInfo
- Publication number
- JP2018077732A JP2018077732A JP2016219953A JP2016219953A JP2018077732A JP 2018077732 A JP2018077732 A JP 2018077732A JP 2016219953 A JP2016219953 A JP 2016219953A JP 2016219953 A JP2016219953 A JP 2016219953A JP 2018077732 A JP2018077732 A JP 2018077732A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- shape model
- image processing
- processing apparatus
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、複合現実感の提示技術に関するものである。 The present invention relates to a mixed reality presentation technique.
近年、設計・製造分野においてプロトタイプを用いた評価の期間短縮、費用削減が求められている。CAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、組み立てやすさやメンテナンス性の仮想評価をするための複合現実感(MR:Mixed Reality)システムが導入されている。例えば、組み立てやすさを評価する場合は、手で仮想物体(以後操作CGモデルと呼ぶ)を把持して動かし、別の仮想物体(以後非操作CGモデルと呼ぶ)との接触を仮想空間上でシミュレーションすることが想定される。このとき手と操作CGモデルとの接触をシミュレーションするためには、手をモデル化して手に重畳させる必要があり、同様に操作CGモデルと非操作CGモデルとの接触をシミュレーションするためには操作CGモデルの位置姿勢を取得する必要がある。 In recent years, there has been a demand for shortening the evaluation period using prototypes and reducing costs in the design and manufacturing fields. A mixed reality (MR) system has been introduced for virtual evaluation of ease of assembly and maintainability using design (shape / design) data created by a CAD (Computer Aided Design) system. For example, when evaluating ease of assembly, a virtual object (hereinafter referred to as an operation CG model) is grasped and moved by hand, and contact with another virtual object (hereinafter referred to as a non-operation CG model) is performed in the virtual space. A simulation is assumed. At this time, in order to simulate the contact between the hand and the operation CG model, it is necessary to model the hand and superimpose it on the hand. Similarly, to simulate the contact between the operation CG model and the non-operation CG model, It is necessary to obtain the position and orientation of the CG model.
手をモデル化するためには、例えば、Leap Motion社のLeap Motionを利用することが考えられる。Leap Motionは、手の指も含めた位置姿勢を計測することができる。Leap Motionでは、内蔵されているステレオカメラから手の領域を検出し、手の形状を模した3次元ポリゴンモデル(以後ハンドモデルと呼ぶ)をリアルタイムで出力することができる。Leap Motion以外にもMicrosoft(登録商標)社のKinect等のデプスセンサから手と指の位置姿勢を推定することができる(非特許文献1)。非特許文献1に記載の技術では、デプスセンサで得られた手の形状の奥行画像に基づいて、初期位置から繰り返し計算し、コストを最適化することによって手と指の姿勢を推定した3次元ポリゴンモデルを生成している。以後、ハンドモデルを出力できるLeap Motionおよびデプスセンサのことをセンサと総称する。 In order to model the hand, for example, Leap Motion manufactured by Leap Motion may be used. Leap Motion can measure the position and orientation including the fingers. In Leap Motion, a hand region can be detected from a built-in stereo camera, and a three-dimensional polygon model imitating the shape of a hand (hereinafter referred to as a hand model) can be output in real time. In addition to Leap Motion, the position and orientation of hands and fingers can be estimated from a depth sensor such as Kinect of Microsoft (registered trademark) (Non-Patent Document 1). In the technique described in Non-Patent Document 1, a three-dimensional polygon in which hand and finger postures are estimated by repeatedly calculating from an initial position based on a depth image of a hand shape obtained by a depth sensor and optimizing costs. A model is being generated. Hereinafter, Leap Motion and a depth sensor that can output a hand model are collectively referred to as a sensor.
物体の位置姿勢を求めるためは、物体に既知の幾何学パターン(以後、マーカと呼ぶ)を貼り、カメラでマーカの画像を取得し、マーカの幾何変化を算出し、マーカとカメラとの相対位置姿勢を算出すればよい。ここでカメラとは、複合現実感を提示するための表示デバイスであるビデオシースルー型のヘッドマウントディスプレイ(以後HMDと略す)に搭載されているステレオカメラを想定している。CGモデルを描画するときの仮想カメラ位置姿勢を、HMDに搭載されているステレオカメラの位置姿勢と同期させることにより、あたかも現実空間の中にハンドモデルやCGモデルが存在するように表示することができる。 In order to obtain the position and orientation of an object, a known geometric pattern (hereinafter referred to as a marker) is pasted on the object, the marker image is acquired by the camera, the geometric change of the marker is calculated, and the relative position between the marker and the camera The posture may be calculated. Here, the camera is assumed to be a stereo camera mounted on a video see-through head mounted display (hereinafter abbreviated as HMD) which is a display device for presenting mixed reality. By synchronizing the position and orientation of the virtual camera when drawing the CG model with the position and orientation of the stereo camera installed in the HMD, it can be displayed as if the hand model and CG model exist in the real space. it can.
しかし手で物体を把持していると、手が邪魔で物体に貼りつけられたマーカが見えず、物体の位置姿勢が正しく算出できない場合がある。同様に物体が邪魔で手が見えず、手の位置姿勢形状が正しく算出できない場合がある。 However, when the object is held by the hand, the marker attached to the object cannot be seen because the hand is in the way, and the position and orientation of the object may not be calculated correctly. Similarly, there are cases where the object is in the way and the hand cannot be seen, and the position / posture shape of the hand cannot be calculated correctly.
特許文献1では、マーカが貼られた物体の位置姿勢を検出する際に、物体の形状が既知のものとして、マーカから算出した位置姿勢を補正する手法を提案しているが、物体の形状が既知であることを前提にしなくてはならない。また、特許文献1には、マーカを用いて算出した位置姿勢を補正する手法であって、マーカを用いて位置姿勢が算出できなかった場合の対処方法は記載されていない。 Patent Document 1 proposes a method for correcting the position and orientation calculated from the marker assuming that the shape of the object is known when detecting the position and orientation of the object to which the marker is attached. It must be assumed that it is already known. Further, Patent Document 1 is a method for correcting a position and orientation calculated using a marker, and does not describe a coping method when the position and orientation cannot be calculated using a marker.
本発明はこのような問題に鑑みてなされたものであり、ユーザが自身の部位で物体を把持している状態において、該部位に重畳するモデルや該部位の位置姿勢、該物体の位置姿勢、の何れか一方が取得できなくても代わりとなる情報を生成可能な技術を提供する。 The present invention has been made in view of such problems, and in a state where the user is holding an object at his / her site, the model superimposed on the site, the position and orientation of the site, the position and orientation of the object, Provided is a technology capable of generating alternative information even if either of them cannot be acquired.
本発明の一様態は、ユーザの部位に対する測定結果に基づいて該部位の第1の形状モデルを生成する第1の生成手段と、前記部位による把持対象となる対象物の位置姿勢を取得する取得手段と、前記対象物の第2の形状モデルを生成する第2の生成手段と、前記第1の形状モデル、前記取得手段が取得した位置姿勢を有する前記第2の形状モデル、を含む仮想空間の画像を生成する第3の生成手段とを備え、前記第2の生成手段は、前記取得手段による前記対象物の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に前記部位が前記対象物を把持したときの前記部位の位置姿勢及び前記対象物の位置姿勢、に基づいて前記対象物の位置姿勢を推定し、該推定された結果に基づいて前記第2の形状モデルを生成することを特徴とする。 According to one aspect of the present invention, a first generation unit that generates a first shape model of a part based on a measurement result for a part of a user, and acquisition of acquiring a position and orientation of an object to be grasped by the part Virtual space including means, second generation means for generating a second shape model of the object, the first shape model, and the second shape model having the position and orientation acquired by the acquisition means A second generation unit configured to generate an image of the object, wherein the second generation unit includes a past process when the result of the process of acquiring the position and orientation of the object by the acquisition unit satisfies a predetermined condition. The position and orientation of the object are estimated based on the position and orientation of the part when the part grips the object and the position and orientation of the object, and the second shape is based on the estimated result. Specially for generating models To.
本発明の構成によれば、ユーザが自身の部位で物体を把持している状態において、該部位に重畳するモデルや該部位の位置姿勢、該物体の位置姿勢、の何れか一方が取得できなくても代わりとなる情報を生成することができる。 According to the configuration of the present invention, in a state where the user is holding an object at his / her part, any one of the model superimposed on the part, the position / posture of the part, and the position / posture of the object cannot be acquired. However, alternative information can be generated.
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態では次のような構成を有する画像処理装置の一例について説明する。この画像処理装置は、ユーザの部位に対する測定結果に基づいて該部位の第1の形状モデルを生成(第1の生成)し、該部位による把持対象となる対象物の位置姿勢を取得し、該対象物の第2の形状モデルを生成(第2の生成)する。そして画像処理装置は、第1の形状モデル、上記取得した位置姿勢を有する第2の形状モデル、を含む仮想空間の画像を生成(第3の生成)する。ここで、上記の第2の生成では、対象物の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に上記部位が対象物を把持したときの上記部位の位置姿勢及び対象物の位置姿勢、に基づいて対象物の位置姿勢を推定する。そして上記の第2の生成では更に、該推定された結果に基づいて第2の形状モデルを生成する。
[First Embodiment]
In the present embodiment, an example of an image processing apparatus having the following configuration will be described. The image processing apparatus generates a first shape model of the part based on a measurement result for the part of the user (first generation), acquires a position and orientation of the target object to be grasped by the part, A second shape model of the object is generated (second generation). Then, the image processing apparatus generates (third generation) an image of a virtual space including the first shape model and the second shape model having the acquired position and orientation. Here, in the second generation, when the result of the process of acquiring the position and orientation of the object satisfies a predetermined condition, the position and orientation of the part when the part has gripped the object in the past and The position and orientation of the object are estimated based on the position and orientation of the object. In the second generation, a second shape model is further generated based on the estimated result.
本実施形態に係る複合現実空間提示システムでは、図2に示す如く、HMD等の頭部装着型表示装置を自身の頭部に装着しているユーザの手201の位置姿勢でもって、手201の形状を模した3次元仮想物体であるハンドモデル211を生成して配置する。更に複合現実空間提示システムは、現実物体としてのドライバ202の位置姿勢でもって、ドライバ202の形状を模した3次元仮想物体である操作CGモデル212を配置する。このとき、操作CGモデル212はドライバ202の位置姿勢でもって配置されるものであるから、ドライバ202にはその位置姿勢を複合現実空間提示システムに認識させるためにマーカ203が取り付けられている。図2ではマーカ203は2次元バーコードとして示しているが、マーカ203として利用可能なものはこれに限らず、如何なる指標であっても良い。また、マーカ203はドライバ202の何れの箇所に設けても構わない。複合現実空間提示システムはこのマーカ203を認識してドライバ202の位置姿勢を求め、該求めた位置姿勢でもって操作CGモデル212を配置するのであるが、例えば手201でマーカ203の一部若しくは全部を隠蔽するようなケースが発生しうる。このようなケースが発生すると、複合現実空間提示システムはマーカ203を正しく認識することができず、その結果、ドライバ202の位置姿勢を正しく認識できない。後述するように、ドライバ202の位置姿勢が正しく認識できなくなるようなケースは他にもある。ドライバ202の位置姿勢が正しく認識できないと、操作CGモデル212を正しくドライバ202の位置姿勢でもって配置することができない。
In the mixed reality space presentation system according to the present embodiment, as shown in FIG. 2, the position and orientation of the user's
本実施形態ではドライバ202の位置姿勢が正しく認識できなくなるようなケースが発生した場合、過去に手201がドライバ202を把持していた状態における手201とドライバ202との位置姿勢関係を参酌して現在のドライバ202の位置姿勢を求める。
In the present embodiment, when a case where the position and orientation of the
先ず、本実施形態に係る複合現実空間提示システムの機能構成例について、図1のブロック図を用いて説明する。なお、図1に示した構成は一例であり、上記のケースに対処可能な構成であれば、如何なる構成を採用しても良い。図1に示す如く、本実施形態に係る複合現実空間提示システムは、センサ101、頭部装着型表示装置の一例であるHMD151、画像処理装置190、表示装置142、を有する。
First, a functional configuration example of the mixed reality space presentation system according to the present embodiment will be described with reference to the block diagram of FIG. The configuration illustrated in FIG. 1 is an example, and any configuration may be adopted as long as the configuration can handle the above case. As shown in FIG. 1, the mixed reality space presentation system according to the present embodiment includes a
先ず、センサ101について説明する。センサ101は、HMD151を自身の頭部に装着したユーザの手(指を含む)の位置姿勢や形状を計測するために設けられたものである。センサ101としては、例えば、上記の非特許文献1に記載のKinectを使用しても良い。センサ101はHMD151に取り付けても良いし、HMD151には取り付けずに現実空間中の所定の位置に取り付けても良い。
First, the
次に、HMD151について説明する。表示部111は、HMD151を自身の頭部に装着したユーザの眼(右眼及び左眼)前に位置するようにHMD151に取り付けられたものであり、画像処理装置190から出力された画像を表示する。撮像部141は、HMD151を自身の頭部に装着したユーザの眼(右眼及び左眼)の近傍位置から該ユーザの視線方向を撮像するようにHMD151に取り付けられたものであり、現実空間の動画像を撮像する。撮像部141が撮像した各フレームの画像(現実空間の撮像画像)は順次、画像処理装置190に対して出力される。
Next, the
次に、画像処理装置190について説明する。ハンドモデル生成部102は、センサ101によるユーザの手の測定結果に基づいて、該手の形状を模した3次元仮想物体である形状モデル、すなわちハンドモデル(図2のハンドモデル211)を生成する。ハンドモデル生成部102によるハンドモデルの生成には、例えば、Microsoft(登録商標)社製のKinect SDKを用いればよい。すなわち、センサ101から手の3次元領域を抽出し、参照データとマッチングすることにより、リアルタイムに変化する手の形状が反映されたハンドモデルを出力する。
Next, the
生成成功判断部103は、ハンドモデル生成部102によるハンドモデルの生成が成功したか否かを判断する。ハンドモデルの生成が成功したか否かの判断基準には様々なものが考えられる。
The generation
例えば、現フレームにおける手の位置姿勢と、過去のフレーム(例えば現フレームの1フレーム過去のフレーム)における手の位置姿勢と、の差分が閾値以上であれば、ハンドモデルの生成は失敗したと判断する。なお、該差分は、位置成分のみの差分でも良いし姿勢成分のみの差分でも良いし、位置及び姿勢の両方の差分でも良い。また、手の位置姿勢の代わりに、各指や関節の位置姿勢を用いてもよい。 For example, if the difference between the hand position / posture in the current frame and the hand position / posture in a past frame (for example, one frame past the current frame) is greater than or equal to a threshold value, it is determined that the generation of the hand model has failed. To do. The difference may be a position component only difference, a posture component only difference, or both a position and orientation difference. Further, instead of the hand position / posture, the position / posture of each finger or joint may be used.
また、他の判断基準として、センサ101から手への直線上に別の現実物体が存在したが故に、センサ101から十分な測定情報(ハンドモデルを生成するのに十分な情報)が得られなかった場合に、ハンドモデルの生成は失敗したと判断しても良い。
Further, as another criterion for judgment, there is another real object on the straight line from the
何れにせよ、生成成功判断部103が、ハンドモデルの生成は失敗したと判断しない限りは、ハンドモデルの生成は成功したものとして取り扱われる。
In any case, unless the generation
位置姿勢認識部112は、撮像部141から出力される撮像画像中に写っているマーカ(図2のマーカ203)を認識し、該マーカの(撮像部141に対する)位置姿勢をドライバ(図2のドライバ202)の位置姿勢として求める(認識する)。なお、ドライバの位置姿勢を取得することができるのであれば、その取得方法は撮像部141による撮像画像を利用した方法に限らず、例えば、ドライバに磁気センサや光学式センサを取り付けて、該センサによる測定結果からドライバの位置姿勢を求めても良い。
The position /
認識成功判断部113は、位置姿勢認識部112によるドライバの位置姿勢の認識に成功したか否かを判断する。ドライバの位置姿勢の認識に成功したか否かの判断基準には様々な判断基準が考えられる。
The recognition
例えば、撮像部141から出力される撮像画像からマーカが検出できなかった場合には、ドライバの位置姿勢の認識には失敗したと判断する。また、現フレームにおけるドライバの位置姿勢と、過去のフレーム(例えば現フレームの1フレーム過去のフレーム)におけるドライバの位置姿勢と、の差分が閾値以上であれば、ドライバの位置姿勢の認識には失敗したと判断する。なお、該差分は、位置成分のみの差分でも良いし姿勢成分のみの差分でも良いし、位置及び姿勢の両方の差分でも良い。
For example, when the marker cannot be detected from the captured image output from the
把持判定部121は、ユーザの手がドライバを把持しているか否かを判断する。ユーザの手がドライバを把持しているか否かを判断する方法は周知の技術で実装可能であり、例えば、非特許文献2や非特許文献3に記載されている方法を用いて、ユーザの手がドライバを把持しているか否かを判断するようにしても良い。例えば、ユーザの手とドライバとの位置姿勢関係が規定の位置姿勢関係(ユーザの手がドライバを把持している状態における手とドライバとの位置姿勢関係)であれば、ユーザの手がドライバを把持していると判断する。
The
情報保存部122は、後述する推定部123が現フレームにおけるドライバの位置姿勢を推定するために使用する様々な情報を登録するためのメモリとして機能する。
The
推定部123は、ハンドモデルの生成には成功したものの、ドライバの位置姿勢の認識には失敗した場合に、情報保存部122に登録されている情報を用いてドライバの位置姿勢を推定する。推定部123の動作について詳しくは後述する。
The
仮想空間生成部132は先ず、センサ101による測定結果に応じた手の位置姿勢で配置されたハンドモデル、位置姿勢認識部112が認識した若しくは推定部123が推定したドライバの位置姿勢で配置された操作CGモデル、を含む仮想空間を構築する。そして仮想空間生成部132は、この構築した仮想空間を撮像部141の位置姿勢を有する視点から見た画像を仮想空間画像として生成する。撮像部141の位置姿勢は、例えば、撮像部141による撮像画像中の自然特徴を用いて求めても良いし、撮像部141に磁気センサや光学式センサを取り付けて該センサによる測定結果に応じて求めても良い。
First, the virtual
画像生成部133は、撮像部141から出力された撮像画像と、仮想空間生成部132によって生成された仮想空間画像と、を合成した合成画像を生成する。画像出力部134は、画像生成部133が生成した合成画像を、HMD151(表示部111)及び表示装置142に対して出力する。なお、画像出力部134による合成画像の出力先は、HMD151、表示装置142に限らない。
The
次に、画像処理装置190が1フレーム分の合成画像を生成して出力するために行う処理について、同処理のフローチャートを示す図3を用いて説明する。つまり、画像処理装置190は、撮像部141から出力される各フレームの撮像画像について、図3のフローチャートに従った処理を行うことになる。
Next, processing performed by the
ステップS301では、ハンドモデル生成部102は、センサ101によるユーザの手の測定結果に基づいてハンドモデルを生成する。ステップS302では、生成成功判断部103は、ハンドモデル生成部102によるハンドモデルの生成が成功したか否かを判断する。この判断の結果、ハンドモデルの生成が成功したと判断した場合には、処理はステップS303に進み、ハンドモデルの生成が失敗したと判断した場合には、処理はステップS311に進む。
In step S <b> 301, the hand
ステップS303では、生成成功判断部103は、センサ101による測定結果が示す手の位置姿勢(ハンドモデルの位置姿勢)と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
In step S303, the generation
ステップS311では、位置姿勢認識部112は、撮像部141から出力される撮像画像中に写っているマーカを認識し、該認識の結果に基づいて該マーカの位置姿勢をドライバの位置姿勢(操作CGモデルの位置姿勢)として求める(認識する)。
In step S311, the position /
ステップS312では、認識成功判断部113は、位置姿勢認識部112によるドライバの位置姿勢の認識に成功したか否かを判断する。この判断の結果、ドライバの位置姿勢の認識に成功したと判断した場合には、処理はステップS313に進む。一方、ドライバの位置姿勢の認識に失敗したと判断した場合には、処理はステップS321に進む。
In step S312, the recognition
ステップS313では、認識成功判断部113は、ステップS311で認識したドライバの位置姿勢(操作CGモデルの位置姿勢)と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
In step S313, the recognition
そして、この時点で「ハンドモデルの生成が成功したと判断され且つドライバの位置姿勢の認識が成功したと判断された」という成功条件が満たされている場合には、処理はステップS321を介してステップS322に進む。一方、この成功条件が満たされていない場合には、処理はステップS321を介してステップS323に進む。 At this time, if the success condition “determination that the hand model generation is successful and that the driver's position / posture recognition is successful” is satisfied, the process goes through step S321. Proceed to step S322. On the other hand, if the success condition is not satisfied, the process proceeds to step S323 via step S321.
ステップS322では、把持判定部121は、ユーザの手がドライバを把持しているか否かを判断し、その判断結果を示す値(判断値)を、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と関連づけて情報保存部122に登録する。判断値は、例えば、ユーザの手がドライバを把持している場合には値「1」を有し、ユーザの手がドライバを把持していない場合には値「0」を有する。
In step S322, the
そして処理がステップS323に進むと、ハンドモデル生成部102によるハンドモデルの生成が成功している場合には、処理はステップS324に進み、ハンドモデルの生成が失敗した場合には、処理はステップS330に進む。
When the process proceeds to step S323, if the hand
ステップS324では、推定部123は先ず、情報保存部122に登録されている情報を参照して、「ユーザの手がドライバを把持している」ことを示す判断値と関連づけて登録されているフレーム情報のうち最近のフレームを表すフレーム情報を特定する。そして推定部123は、該特定したフレーム情報と関連づけて情報保存部122に登録されている手の位置姿勢、ドライバの位置姿勢、を検索する。この検索が成功した場合には、処理はステップS325に進み、この検索が失敗した場合には、処理はステップS330に進む。つまり、検索に成功した場合、推定部123は、最近に手がドライバを把持していたときの、手の位置姿勢及びドライバの位置姿勢を取得したことになる。
In step S324, the
ステップS325では、推定部123は、上記の検索により取得した手の位置姿勢及びドライバの位置姿勢を用いて、手に対するドライバの相対的な位置姿勢Δを算出する。そして推定部123は、現フレームにおけるハンドモデルの位置姿勢に対する相対的な位置姿勢が、この求めた相対的な位置姿勢Δとなる位置姿勢を、現フレームにおける操作CGモデルの位置姿勢として算出する。
In step S325, the
ステップS330では、仮想空間生成部132は、ハンドモデル及び操作CGモデルを上記の如く配置した仮想空間を、撮像部141の位置姿勢を有する視点から見た画像を仮想空間画像として生成する。なお、ハンドモデルの生成に失敗した場合や、操作CGモデルの位置姿勢の認識に失敗した場合には、ハンドモデル及び操作CGモデルは配置できない。このような場合における仮想空間画像としては、例えば、直前のフレームにおける仮想空間画像を現フレームの仮想空間画像として使用しても良い。
In step S330, the virtual
ステップS340では、画像生成部133は、撮像部141から出力された撮像画像と、仮想空間生成部132によって生成された仮想空間画像と、を合成した合成画像を生成する。画像出力部134は、画像生成部133が生成した合成画像を、HMD151(表示部111)及び表示装置142に対して出力する。
In step S340, the
<変形例1>
第1の実施形態では、ハンドモデルの生成に成功するたびに手の位置姿勢を情報保存部122に登録し、ドライバの位置姿勢の認識に成功するたびにドライバの位置姿勢を情報保存部122に登録していた。しかし、情報保存部122に登録した位置姿勢のうち実際に使用されるものは、最近に手がドライバを把持したときの手の位置姿勢及びドライバの位置姿勢である。然るに、ユーザの手がドライバを把持していると判断された場合にのみ、手の位置姿勢及びドライバの位置姿勢を登録するようにしても良い。また、登録する位置姿勢は最新のフレームにおけるもののみとしても良い。
<Modification 1>
In the first embodiment, the hand position and orientation are registered in the
また、このほかにも、手の位置姿勢やドライバの位置姿勢を登録する条件としては様々なものが考えられる。例えば、手とドライバとの間の相対位置の変化量が閾値以上となった場合や、ハンドモデルの形状の変化量が閾値以上となった場合に登録するようにしても良い。ハンドモデルの形状変化は、ハンドモデルの指や関節の位置姿勢変化から求めることができる。 In addition to this, various conditions for registering the position and orientation of the hand and the position and orientation of the driver are conceivable. For example, registration may be performed when the amount of change in the relative position between the hand and the driver is greater than or equal to a threshold, or when the amount of change in the shape of the hand model is greater than or equal to the threshold. The shape change of the hand model can be obtained from the position and orientation changes of the fingers and joints of the hand model.
[第2の実施形態]
第1の実施形態は、ハンドモデルの生成には成功したものの、ドライバの位置姿勢の認識に失敗したケースに対処するものであった。本実施形態は、ドライバの位置姿勢の認識には成功したものの、ハンドモデルの生成に失敗したケースに対処するものである。本実施形態を含め、以下の各実施形態では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
[Second Embodiment]
The first embodiment deals with a case where the hand model is successfully generated, but the driver's position and orientation recognition fails. This embodiment deals with a case where the hand model generation has failed, although the driver's position and orientation have been recognized. In each of the following embodiments including this embodiment, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment.
本実施形態では、画像処理装置190は図3のフローチャートに従った処理を行う代わりに、図4のフローチャートに従った処理を行う。図4において図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
In the present embodiment, the
ステップS400では、生成成功判断部103は、ステップS301で生成したハンドモデルと、該ハンドモデル(手)の位置姿勢と、現フレームを特定するフレーム情報(フレーム番号、撮像日時など)と、を関連づけて情報保存部122に登録する。
In step S400, the generation
そして、「ハンドモデルの生成が成功したと判断され且つドライバの位置姿勢の認識が成功したと判断された」という成功条件が満たされていない場合には、処理はステップS321を介してステップS401に進む。 If the success condition “determined that the hand model has been successfully generated and the driver's position / posture has been successfully recognized” is not satisfied, the process proceeds to step S401 via step S321. move on.
そして処理がステップS401に進むと、位置姿勢認識部112によるドライバの位置姿勢の認識が成功している場合には、処理はステップS324に進み、ドライバの位置姿勢の認識が失敗した場合には、処理はステップS330に進む。そしてステップS324における検索が成功した場合には、処理はステップS403に進み、この検索が失敗した場合には、処理はステップS330に進む。
When the process proceeds to step S401, if the position /
ステップS403では、推定部123は、上記の検索により取得した手の位置姿勢及びドライバの位置姿勢を用いて、ドライバに対する手の相対的な位置姿勢Δを算出する。そして推定部123は、現フレームにおける操作CGモデルの位置姿勢に対する相対的な位置姿勢が、この求めた相対的な位置姿勢Δとなる位置姿勢を、現フレームにおけるハンドモデルの位置姿勢として算出する。また、ハンドモデルそのものが生成できなかった場合には、ステップS324で特定したフレーム情報と関連づけて情報保存部122に登録されているハンドモデルを読み出し、該読み出したハンドモデルを現フレームにおけるハンドモデルとして使用してもよい。なお、ステップS400ではハンドモデルの代わりに、情報保存部122におけるメモリ効率の観点から、該ハンドモデルのボーンを登録しても良いし、ハンドモデルを視点から見た2次元画像を登録しても良い。
In step S403, the
[第3の実施形態]
第1の実施形態では、ハンドモデルの生成に失敗した場合や、ドライバの位置姿勢の認識に失敗した場合に、現フレームのハンドモデルやその位置姿勢、現フレームの操作CGモデルの位置姿勢、を求めるようにした。しかし、ハンドモデルの生成やドライバの位置姿勢の認識に成功したと判断したとしても、生成したハンドモデルの精度やその位置姿勢の精度、操作CGモデルの位置姿勢の精度を考慮すると、その信頼度が低い場合がある。然るに、単にハンドモデルの生成に成功した/失敗した、ドライバの位置姿勢の認識に成功した/失敗した、に応じて情報保存部122への情報登録を制御するのではなく、その信頼度を考慮して制御するようにしても良い。
[Third Embodiment]
In the first embodiment, when generation of a hand model fails or when recognition of a driver's position and orientation fails, the hand model of the current frame, its position and orientation, and the position and orientation of the operation CG model of the current frame are obtained. I asked for it. However, even if it is determined that the generation of the hand model and the recognition of the position and orientation of the driver have been successful, the reliability of the generated hand model, the accuracy of the position and orientation, and the accuracy of the position and orientation of the operation CG model are considered. May be low. However, instead of controlling the information registration in the
例えば、センサ101から得られる手のデータ量が、規定のデータ量(本来センサ101から得られるデータ量)未満であれば信頼度=0として、ステップS302からステップS311に処理を進める。一方、センサ101から得られる手のデータ量が規定のデータ量以上であれば信頼度=1として、ステップS302からステップS303に処理を進める。
For example, if the data amount of the hand obtained from the
また例えば、撮像部141による撮像画像中のマーカの数が多いほど、ドライバの位置姿勢の認識の信頼度が高いと判断しても良い。そして信頼度が閾値以上であれば、処理はステップS312からステップS313に処理を進め、信頼度が閾値未満であれば、処理はステップS312からステップS321に処理を進める。
For example, it may be determined that the greater the number of markers in the image captured by the
[第4の実施形態]
図1に示した画像処理装置190に含まれている各機能部の全てをハードウェアで構成しても良いが、情報保存部122をメモリで実装し、それ以外の各機能部をソフトウェア(コンピュータプログラム)で実装するようにしても良い。このような場合、情報保存部122をメモリとして有し、且つ該コンピュータプログラムを実行可能なコンピュータ装置は、上記の画像処理装置190に適用可能である。画像処理装置190に適用可能なコンピュータ装置のハードウェア構成例について、図5のブロック図を用いて説明する。
[Fourth Embodiment]
Although all the functional units included in the
CPU510は、ROM520やRAM530に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU510は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置190が行うものとして上述した各処理を実行若しくは制御する。
ROM520には、書き換え不要の本コンピュータ装置の設定データやブートプログラムなどが格納されている。RAM530は、I/F(インターフェース)540を介して外部から受信したデータ、外部記憶装置560からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM530は、CPU510が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM530は、各種のエリアを適宜提供することができる。
The
I/F540は、上記のセンサ101、HMD151、表示装置142を接続するためのものである。センサ101から出力される手の測定結果やHMD151から出力される各フレームの撮像画像は、I/F540を介してRAM530や外部記憶装置560に入力される。また、本コンピュータ装置が生成した合成画像などの情報は、I/F540を介してHMD151(表示部111)や表示装置142に対して出力される。
The I /
外部記憶装置560は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置560には、OS(オペレーティングシステム)や、画像処理装置190が行うものとして上述した各処理をCPU510に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、図1において画像処理装置190が有するものとして示した各機能部のうち情報保存部122を除く各機能部の機能をCPU510に実現させるためのコンピュータプログラムが含まれている。また、外部記憶装置560に保存されているデータには、ハンドモデルや操作CGモデルのデータ、上記の説明において既知の情報として説明した情報、が含まれている。
The external storage device 560 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 560 stores an OS (Operating System) and computer programs and data for causing the
外部記憶装置560に保存されているコンピュータプログラムやデータは、CPU510による制御に従って適宜RAM530にロードされ、CPU510による処理対象となる。CPU510、ROM520、RAM530、I/F540、外部記憶装置560は何れも、バス500に接続されている。
Computer programs and data stored in the external storage device 560 are appropriately loaded into the
[第5の実施形態]
上記の各実施形態では、HMD151はビデオシースルー方式のものを用いるものとして説明したが、光学シースルー方式のものを採用しても良い。その場合、撮像部141による撮像画像は、マーカの撮像やHMD151の位置姿勢を算出するために使用され、表示用には使用されない。また、画像処理装置190も、仮想空間画像を生成すると、これを表示装置142及びHMD151に対して出力する。また、HMD151の代わりに、スマートフォンやカメラ付タブレット端末装置を使用しても構わない。
[Fifth Embodiment]
In each of the above embodiments, the
なお、以上の各実施形態や変形例では、物体を把持するユーザの部位を手、把持対象となる対象物をドライバとして説明を行ったが、物体を把持するユーザの部位、把持対象となる対象物、のそれぞれは手、ドライバに限るものではない。 In each of the embodiments and modifications described above, the user's part that holds the object is described as a hand, and the target object that is to be held is a driver. However, the user's part that holds an object and the target that is to be held are described. Each thing is not limited to a hand or a driver.
また、操作CGモデルと、ハンドモデル及び操作CGモデル以外の仮想物体である非操作CGモデルとの接触があった場合には、その旨を表示部111や表示装置142に通知するようにしても良い。例えば、操作CGモデルと非操作CGモデルとで接触のあった箇所(ポリゴンなど)を明示的に表示しても良い。また、以上説明した各実施形態や変形例の一部若しくは全部を適宜組み合わせても構わない。
Further, when there is a contact between the operation CG model and a non-operation CG model that is a virtual object other than the hand model and the operation CG model, the
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
102:ハンドモデル生成部 103:生成成功判断部 112:位置姿勢認識部 113:認識成功判断部 121:把持判定部 123:推定部 132:仮想空間生成部 133:画像生成部 102: Hand model generation unit 103: Generation success determination unit 112: Position and orientation recognition unit 113: Recognition success determination unit 121: Grasping determination unit 123: Estimation unit 132: Virtual space generation unit 133: Image generation unit
Claims (12)
前記部位による把持対象となる対象物の位置姿勢を取得する取得手段と、
前記対象物の第2の形状モデルを生成する第2の生成手段と、
前記第1の形状モデル、前記取得手段が取得した位置姿勢を有する前記第2の形状モデル、を含む仮想空間の画像を生成する第3の生成手段とを備え、
前記第2の生成手段は、
前記取得手段による前記対象物の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に前記部位が前記対象物を把持したときの前記部位の位置姿勢及び前記対象物の位置姿勢、に基づいて前記対象物の位置姿勢を推定し、該推定された結果に基づいて前記第2の形状モデルを生成する
ことを特徴とする画像処理装置。 First generation means for generating a first shape model of the part based on a measurement result for the part of the user;
Acquisition means for acquiring the position and orientation of an object to be grasped by the part;
Second generating means for generating a second shape model of the object;
A third generation unit configured to generate an image of a virtual space including the first shape model and the second shape model having the position and orientation acquired by the acquisition unit;
The second generation means includes
When the result of the process of acquiring the position and orientation of the object by the acquisition unit satisfies a predetermined condition, the position and orientation of the part and the position of the object when the part has gripped the object in the past An image processing apparatus that estimates a position and orientation of the object based on an orientation, and generates the second shape model based on the estimated result.
前記部位による把持対象となる対象物の第2の形状モデルを生成する第2の生成手段と、
前記第1の形状モデル、前記第2の形状モデル、を含む仮想空間の画像を生成する第3の生成手段とを備え、
前記第1の生成手段は、
前記部位の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に前記部位が前記対象物を把持したときの前記部位の位置姿勢及び前記対象物の位置姿勢、に基づいて前記部位の位置姿勢を推定し、該推定された位置姿勢に基づいて前記第1の形状モデルを生成する
ことを特徴とする画像処理装置。 First generation means for generating a first shape model of the part based on the measurement result of the position and orientation of the part of the user;
Second generation means for generating a second shape model of an object to be grasped by the part;
Third generation means for generating an image of a virtual space including the first shape model and the second shape model,
The first generation means includes:
When the result of the process of acquiring the position and orientation of the part satisfies a predetermined condition, based on the position and orientation of the part and the position and orientation of the object when the part has gripped the object in the past An image processing apparatus that estimates a position and orientation of the part and generates the first shape model based on the estimated position and orientation.
前記第3の生成手段は、前記仮想空間の画像と前記撮像画像との合成画像を生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 Furthermore, a means for acquiring a captured image of the real space is provided,
The image processing apparatus according to claim 1, wherein the third generation unit generates a composite image of the image in the virtual space and the captured image.
前記画像処理装置の第1の生成手段が、ユーザの部位に対する測定結果に基づいて該部位の第1の形状モデルを生成する第1の生成工程と、
前記画像処理装置の取得手段が、前記部位による把持対象となる対象物の位置姿勢を取得する取得工程と、
前記画像処理装置の第2の生成手段が、前記対象物の第2の形状モデルを生成する第2の生成工程と、
前記画像処理装置の第3の生成手段が、前記第1の形状モデル、前記取得工程で取得した位置姿勢を有する前記第2の形状モデル、を含む仮想空間の画像を生成する第3の生成工程とを備え、
前記第2の生成工程では、
前記取得工程による前記対象物の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に前記部位が前記対象物を把持したときの前記部位の位置姿勢及び前記対象物の位置姿勢、に基づいて前記対象物の位置姿勢を推定し、該推定された結果に基づいて前記第2の形状モデルを生成する
ことを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
A first generation step in which a first generation unit of the image processing apparatus generates a first shape model of the part based on a measurement result for the part of the user;
An acquisition step in which the acquisition unit of the image processing apparatus acquires the position and orientation of an object to be grasped by the part;
A second generation step in which a second generation means of the image processing apparatus generates a second shape model of the object;
A third generation step in which a third generation unit of the image processing device generates an image of a virtual space including the first shape model and the second shape model having the position and orientation acquired in the acquisition step. And
In the second generation step,
If the result of the process of acquiring the position and orientation of the object in the acquisition step satisfies a predetermined condition, the position and orientation of the part and the position of the object when the part has gripped the object in the past An image processing method characterized by estimating a position and orientation of the object based on an orientation, and generating the second shape model based on the estimated result.
前記画像処理装置の第1の生成手段が、ユーザの部位の位置姿勢の測定結果に基づいて該部位の第1の形状モデルを生成する第1の生成工程と、
前記画像処理装置の第2の生成手段が、前記部位による把持対象となる対象物の第2の形状モデルを生成する第2の生成工程と、
前記画像処理装置の第3の生成手段が、前記第1の形状モデル、前記第2の形状モデル、を含む仮想空間の画像を生成する第3の生成工程とを備え、
前記第1の生成工程では、
前記部位の位置姿勢を取得する処理の結果が所定の条件を満たす場合には、過去に前記部位が前記対象物を把持したときの前記部位の位置姿勢及び前記対象物の位置姿勢、に基づいて前記部位の位置姿勢を推定し、該推定された位置姿勢に基づいて前記第1の形状モデルを生成する
ことを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
A first generation step in which a first generation unit of the image processing apparatus generates a first shape model of the part based on a measurement result of a position and orientation of the part of the user;
A second generation step in which a second generation unit of the image processing apparatus generates a second shape model of an object to be grasped by the part;
A third generation step of generating a virtual space image including the first shape model and the second shape model, wherein the third generation means of the image processing apparatus comprises:
In the first generation step,
When the result of the process of acquiring the position and orientation of the part satisfies a predetermined condition, based on the position and orientation of the part and the position and orientation of the object when the part has gripped the object in the past An image processing method, wherein the position and orientation of the part are estimated, and the first shape model is generated based on the estimated position and orientation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016219953A JP6929043B2 (en) | 2016-11-10 | 2016-11-10 | Image processing device, image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016219953A JP6929043B2 (en) | 2016-11-10 | 2016-11-10 | Image processing device, image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018077732A true JP2018077732A (en) | 2018-05-17 |
JP6929043B2 JP6929043B2 (en) | 2021-09-01 |
Family
ID=62150817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016219953A Active JP6929043B2 (en) | 2016-11-10 | 2016-11-10 | Image processing device, image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6929043B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7467293B2 (en) | 2020-09-14 | 2024-04-15 | 株式会社日立産機システム | Simulation system and simulation method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009087161A (en) * | 2007-10-01 | 2009-04-23 | Canon Inc | Image processor and image processing method |
JP2016021097A (en) * | 2014-07-11 | 2016-02-04 | Kddi株式会社 | Image processing device, image processing method, and program |
-
2016
- 2016-11-10 JP JP2016219953A patent/JP6929043B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009087161A (en) * | 2007-10-01 | 2009-04-23 | Canon Inc | Image processor and image processing method |
JP2016021097A (en) * | 2014-07-11 | 2016-02-04 | Kddi株式会社 | Image processing device, image processing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7467293B2 (en) | 2020-09-14 | 2024-04-15 | 株式会社日立産機システム | Simulation system and simulation method |
Also Published As
Publication number | Publication date |
---|---|
JP6929043B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674142B2 (en) | Optimized object scanning using sensor fusion | |
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
CN110140099B (en) | System and method for tracking controller | |
JP5499762B2 (en) | Image processing apparatus, image processing method, program, and image processing system | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
US9939888B2 (en) | Correlating movement information received from different sources | |
US20170140552A1 (en) | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same | |
JP7017689B2 (en) | Information processing equipment, information processing system and information processing method | |
JP5709440B2 (en) | Information processing apparatus and information processing method | |
JP2010519629A (en) | Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking | |
WO2022174594A1 (en) | Multi-camera-based bare hand tracking and display method and system, and apparatus | |
JP5526465B2 (en) | Nail position data detection device, nail position data detection method, and nail position data detection program | |
JP2007004714A (en) | Information processing method and information processing unit | |
JP2004265222A (en) | Interface method, system, and program | |
JP2009087161A (en) | Image processor and image processing method | |
JP2009258884A (en) | User interface | |
KR101338958B1 (en) | system and method for moving virtual object tridimentionally in multi touchable terminal | |
Lee et al. | Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality | |
JP6929043B2 (en) | Image processing device, image processing method | |
CN104704449A (en) | User interface device and user interface method | |
JP4926598B2 (en) | Information processing method and information processing apparatus | |
WO2018196221A1 (en) | Interaction method, device and system | |
KR20150044243A (en) | Electronic learning apparatus and method for controlling contents by hand avatar | |
JP6981340B2 (en) | Display control programs, devices, and methods | |
US10936147B2 (en) | Tablet computing device with display dock |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201116 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6929043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |