JP6285765B2 - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP6285765B2 JP6285765B2 JP2014055618A JP2014055618A JP6285765B2 JP 6285765 B2 JP6285765 B2 JP 6285765B2 JP 2014055618 A JP2014055618 A JP 2014055618A JP 2014055618 A JP2014055618 A JP 2014055618A JP 6285765 B2 JP6285765 B2 JP 6285765B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- assembly
- relative position
- information processing
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Automatic Assembly (AREA)
- Manipulator (AREA)
Description
本発明は、部品組み付けの成功可否を判断するための技術に関するものである。 The present invention relates to a technique for determining whether component assembly is successful.
近年のロボット技術の発展とともに、工業製品の組み立てのような、これまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットでは、ハンドなどのエンドエフェクタによって部品をピックして組み付けを行う。ロボットによる部品ピックやその後の組み付け作業では、ハンド機構による部品把持時の部品位置姿勢のずれや正常でない部品の混入等の原因により部品組み付けに失敗することがある。そのため、部品を組み付けた後に、正常に組み付けが行われたかどうかを確認する部品組み付け後検査が必要になる。この組み付け後検査として、これまでは組み付け作業者の目視による検査が一般的であったが、近年はこの検査の自動化を目的とした取り組みが行われ始めている。 With the recent development of robot technology, robots are starting to perform complicated tasks that have been performed by humans, such as assembly of industrial products. In such a robot, parts are picked and assembled by an end effector such as a hand. In parts picking by a robot and subsequent assembling work, parts assembling may fail due to causes such as deviations in the position and orientation of parts when gripping a part by a hand mechanism and mixing of abnormal parts. Therefore, after assembling the parts, it is necessary to perform an inspection after assembling the parts to confirm whether or not the assembling has been normally performed. As an inspection after the assembly, a visual inspection by an assembly operator has been common until now, but in recent years, an effort for automating the inspection has begun.
例えば、特許文献1に開示されている技術では、部品組み立て時を観察する三台のカメラの二次元画像を用いて、組立時の差異を検査する領域を画面で指定する。指定した部位は、少なくとも2台のカメラからの三角測量を用いて三次元の点として取得できるので、部品組み付け部位における三次元点の差異を見ることで組み立て検査が可能となる。 For example, in the technique disclosed in Patent Document 1, a region for inspecting a difference at the time of assembly is designated on a screen using two-dimensional images of three cameras that observe the time of component assembly. Since the designated part can be acquired as a three-dimensional point using triangulation from at least two cameras, assembly inspection can be performed by looking at the difference of the three-dimensional point in the part assembly part.
しかし、はめあて部位にあそびと呼ばれる隙間が存在する部品に関しては、組み立てに成功する場合であっても組み立て対象の複数部品間の相対的な位置姿勢に自由度があるため、特許文献1のように単一の位置姿勢のみを組み立て成功と設定しただけでは、相対位置姿勢が自由度(あそび)の範囲内であっても、組み立て失敗と判定されてしまうことがある。 However, with respect to a part having a gap called play at the fitting part, there is a degree of freedom in the relative position and orientation between a plurality of parts to be assembled even if the assembly is successful. If only a single position / posture is set as successful, even if the relative position / posture is within the range of freedom (play), it may be determined that the assembly has failed.
本発明はこのような問題に鑑みてなされたものであり、はめあて部位にあそびが存在するような部品であっても、その組み立ての成功もしくは失敗を判定可能にするための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for making it possible to determine the success or failure of assembly even for a part where play is present at a fitting part.
本発明の一様態によれば、一方の部品に対する他方の部品の組み付けが成功した状態と失敗した状態の少なくともいずれか一方の状態に該当する複数の、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢、を取得する取得手段と、
前記取得手段が取得した複数の相対的な位置及び/又は姿勢の確率密度分布を、前記一方の部品に対する前記他方の部品の組み付けが成功したかを判断するための情報として生成する生成手段と
を備えることを特徴とする。
According to one aspect of the present invention, a plurality of the one component and the other component corresponding to at least one of a state in which the assembly of the other component to the one component has succeeded and a state in which the other component has failed have occurred. Acquisition means for acquiring relative positions and / or postures between them;
Generating means for generating a probability density distribution of a plurality of relative positions and / or postures acquired by the acquiring means as information for determining whether the other part has been successfully assembled to the one part ; It is characterized by providing.
本発明の構成により、はめあて部位にあそびが存在するような部品であっても、その組み立ての成功もしくは失敗を判定可能にするための技術を提供することができる。 According to the configuration of the present invention, it is possible to provide a technique for making it possible to determine the success or failure of assembly even for a part where play is present at the fitting part.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態では、一方の部品に対する他方の部品の組み付けが成功したか否かを判断するための情報(部品組み付けの成否判定条件)を生成するために、ユーザは画面上に表示された「一方の部品を表す仮想物体」及び/又は「他方の部品を表す仮想物体」を操作してその位置や姿勢を変更し、「一方の部品を表す仮想物体」に「他方の部品を表す仮想物体」を組み付けた状態にする。一方の部品に対する他方の部品の組み付けパターンは様々であるので、ユーザは様々な組み付けパターンで「一方の部品を表す仮想物体」に「他方の部品を表す仮想物体」を組み付け、本実施形態に係る情報処理装置は、組み付けパターン毎に、該組み付けパターンにおける「一方の部品を表す仮想物体」と「他方の部品を表す仮想物体」との間の相対的な位置姿勢を取得する。そして本実施形態に係る情報処理装置は、取得した相対的な位置姿勢の分布から、上記の「部品組み付けの成否判定条件」、すなわち、相対的な位置姿勢の6自由度空間中の連続領域として、組み付け成功範囲を生成する。
[First Embodiment]
In the present embodiment, in order to generate information (component assembly success / failure determination condition) for determining whether or not the assembly of the other component to one component is successful, the user displays “one side” displayed on the screen. "Virtual object representing one part" and / or "virtual object representing the other part" to change its position and orientation, and "virtual object representing the other part" to "virtual object representing one part" To the assembled state. Since the assembly pattern of the other component with respect to one component is various, the user assembles the “virtual object representing one component” into the “virtual object representing one component” in various assembly patterns, and the embodiment relates to this embodiment For each assembly pattern, the information processing apparatus acquires a relative position and orientation between the “virtual object representing one component” and the “virtual object representing the other component” in the assembly pattern. The information processing apparatus according to the present embodiment uses the acquired relative position and orientation distribution as the “part assembly success / failure determination condition”, that is, as a continuous region in the 6-degree-of-freedom space of the relative position and orientation. , Generate a successful assembly range.
先ず、本実施形態に係る情報処理装置1の機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理装置1は、拘束条件生成部12と、組み付け成功範囲決定部13と、を有し、更に、情報処理装置1には、3次元形状モデル保持部11が接続されている。なお、図1では3次元形状モデル保持部11は、情報処理装置1の外部記憶装置として示しているが、情報処理装置1内に設けられたメモリとしても良い。
First, a functional configuration example of the information processing apparatus 1 according to the present embodiment will be described with reference to the block diagram of FIG. As illustrated in FIG. 1, the information processing apparatus 1 according to the present embodiment includes a constraint
先ず、3次元形状モデル保持部11について説明する。3次元形状モデル保持部11には、組み付け元の部品の仮想物体(3次元形状モデル)のデータと、組み付け先の部品の仮想物体(3次元形状モデル)のデータと、が保存されている。本実施形態では、仮想物体はポリゴンで構成されているものとして説明するので、3次元形状モデル保持部11には、仮想物体を構成する各ポリゴンを規定するデータが保存されていることになる。
First, the three-dimensional shape
なお、仮想物体の3次元的な幾何情報(図7(c))を表すための表現方法には様々なものがあり、本実施形態には様々な表現方法を適用しても構わない。例えば、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3点の3次元点で構成される面および線の集合で表される単純な3次元点の集合など、他の表現で表しても良い。 There are various representation methods for representing the three-dimensional geometric information (FIG. 7C) of the virtual object, and various representation methods may be applied to the present embodiment. For example, a set of simple three-dimensional points, a set of three-dimensional lines representing edges, a set of three-dimensional points and a simple three-dimensional point represented by sets of lines and lines It may be expressed in terms of expression.
拘束条件生成部12は、3次元形状モデル保持部11に保存されているデータを用いて、組み付け元の部品の仮想物体と組み付け先の部品の仮想物体とを生成し、該生成したそれぞれの仮想物体を情報処理装置1に接続されている不図示の表示装置に表示する。ユーザはこの表示装置に表示されたそれぞれの仮想物体を見ながら、情報処理装置1に接続されている不図示の操作部を用いて一方若しくは両方の仮想物体の位置や姿勢を変更させて、組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態(組み付け成功状態)にする。ここで、「位置」とは、図3に示す如く並進成分(x、y、z)で表され、「姿勢」とは、図3に示す如くオイラー角で示された回転成分(α、β、γ)で表されるものとするが、表現方法はこれに限るものではない。
Using the data stored in the three-dimensional shape
なお、組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態(組み付け成功状態)にするための方法は上記の方法に限るものではない。例えば、ユーザが並進成分や回転成分を数値として入力すると、拘束条件生成部12は、入力された並進成分や回転成分に応じて仮想物体の位置や姿勢を変更する、という方法を採用しても構わない。
Note that the method for setting the virtual object of the assembly destination part to the virtual object of the assembly source part (the assembly success state) is not limited to the above method. For example, when the user inputs a translation component and a rotation component as numerical values, the constraint
そして、ユーザは組み付けが完了したと判断した場合には、その旨を操作部を用いて入力するので、拘束条件生成部12は、この時点における仮想物体間の相対的な位置姿勢を取得する。ユーザはこの作業(操作部を用いて一方若しくは両方の仮想物体の位置や姿勢を変更させて組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態にし、組み付けが完了したと判断した場合には、その旨を操作部を用いて入力する)を複数回行うので、拘束条件生成部12はその都度、その時点における仮想物体間の相対的な位置姿勢を取得する。
When the user determines that the assembling is completed, the fact is input using the operation unit, so the constraint
なお、組み付け成功状態にある仮想物体間の相対的な位置姿勢が登録されたファイル群を予め作成して3次元形状モデル保持部11に登録しておいても良い。この場合、拘束条件生成部12は、ユーザによる操作部の操作に応じて、このファイル群を表示装置に一覧表示させ、ユーザが操作部を用いて選択したファイルに登録されている「仮想物体間の相対的な位置姿勢」を取得することになる。
It should be noted that a file group in which relative positions and orientations between virtual objects that have been successfully assembled may be registered in advance and registered in the three-dimensional shape
組み付け成功範囲決定部13は、ユーザが操作部を用いて上記作業を終了する旨の指示を入力し、この入力を検知すると、拘束条件生成部12が取得した複数の「相対的な位置姿勢」から、組み付け成功とみなす「相対的な位置姿勢」の確率密度分布を、部品組み付けの成否判定条件として求める。ここで言う分布とは6自由度パラメータ空間で表された分布である。本実施形態では組み付け成功の確率密度分布としてガウス分布を想定し、組み付け成功となる相対的な位置姿勢の分布を求める。図4(a)に、このようにして得られた位置姿勢分布の一例を示す。本例では説明を簡単にするために位置姿勢はx,yの2パラメータで表しているが、実際のフィッティングにおける6パラメータの位置姿勢においても同様に実行することが可能である。この場合、組み付け成功範囲決定部13は、拘束条件生成部12が取得した複数の「相対的な位置姿勢」を用いて、相対位置姿勢の平均ベクトルμと共分散行列Σを算出する。図4(b)に、2次元ガウス分布において確率密度が一定となる等高線を図4(a)に重ねたものを示す。
The assembly success
そして組み付け成功範囲決定部13は、このようにして求めた分布を3次元形状モデル保持部11等のメモリに登録する。このような分布を求めておけば、実際に組み付け元の部品と組み付け先の部品との間の相対的な位置姿勢が、ある位置姿勢Xとなった場合に、この位置姿勢Xが、組み付け成功に該当する位置姿勢であるのかを、この分布を用いて判断することができる。具体的には、分布において位置姿勢Xに対応する分布値(確率密度)が閾値以上であれば、位置姿勢Xは組み付け成功に該当する位置姿勢である、すなわち、組み付け元の部品と組み付け先の部品との組付けは成功であると判断することができる。
Then, the successful assembly
なお、本実施形態では、組み付け成功の確率密度分布としてガウス分布を適用したが、相対的な位置姿勢を連続した空間領域として近似する分布であれば他の分布であってもよいし、それぞれの相対的な位置姿勢を包含する方形状の分布を適用してもよい。また、分布の値は連続した実数値であっても構わないし、成功あるいは失敗を2値で表してもよい。次に、情報処理装置1が部品組み付けの成否判定条件を生成するために行う処理について、同処理のフローチャートを示す図5を用いて説明する。 In this embodiment, the Gaussian distribution is applied as the probability density distribution of successful assembly. However, other distributions may be used as long as the distribution approximates the relative position and orientation as a continuous spatial region. A rectangular distribution including a relative position and orientation may be applied. In addition, the distribution value may be a continuous real value, or success or failure may be represented by a binary value. Next, a process performed by the information processing apparatus 1 to generate a component assembly success / failure determination condition will be described with reference to FIG. 5 showing a flowchart of the process.
(ステップS1000)
拘束条件生成部12は、3次元形状モデル保持部11に保存されているデータを用いて、組み付け元の部品の仮想物体と組み付け先の部品の仮想物体とを生成し、該生成したそれぞれの仮想物体を情報処理装置1に接続されている不図示の表示装置に表示する。そして、ユーザは組み付けが完了したと判断した場合には、その旨を操作部を用いて入力するので、拘束条件生成部12は、この入力を検知するたびに、この時点における仮想物体間の相対的な位置姿勢を取得する。
(Step S1000)
Using the data stored in the three-dimensional shape
(ステップS1100)
組み付け成功範囲決定部13は、ユーザが操作部を用いて上記作業を終了する旨の指示を入力し、この入力を検知すると、拘束条件生成部12が取得した複数の「相対的な位置姿勢」から、組み付け成功とみなす「相対的な位置姿勢」の確率密度分布を、部品組み付けの成否判定条件として求める。
(Step S1100)
The assembly success
このように、本実施形態によれば、分布を指定するという難しい作業を行わずに、組み付けが成功した状態における仮想物体間の相対的な位置姿勢をユーザが指定することで、あそびがある部品であっても、組み付け成否判定を可能にするための情報を生成することができる。 As described above, according to the present embodiment, the user designates the relative position and orientation between the virtual objects in a state where the assembly is successful without performing a difficult task of designating the distribution, so that there is a part with play. Even so, it is possible to generate information for enabling assembly success / failure determination.
<変形例1>
第1の実施形態では、位置や姿勢を拘束条件無しに変動させて仮想物体の組み付けを行っていたが、例えば、組み付け方向をユーザが指定して、6自由度ある相対位置姿勢に拘束を与え、分布を作成するときのパラメータ数を減らして計算してもよい。例えば、並進y方向から組み付ける場合は並進成分y以外のパラメータは固定し、並進成分yのみ変動させて、仮想物体の組み付けを行っても構わない。すなわち、相対的な位置及び/又は姿勢の各成分のうち一部の成分は固定し、ユーザ操作では、相対的な位置及び/又は姿勢の各成分のうち該一部の成分以外の成分を変更する。このように、仮想物体の変動に拘束条件を追加することで、操作の手間を減らして、組み付けが成功状態にある仮想物体間の相対位置姿勢をより厳密に求めることができる。
<Modification 1>
In the first embodiment, the virtual object is assembled by changing the position and orientation without a constraint condition. For example, the user designates the assembly direction and gives a constraint to the relative position and orientation with six degrees of freedom. The calculation may be performed by reducing the number of parameters when creating the distribution. For example, when assembling from the translation y direction, parameters other than the translation component y may be fixed, and only the translation component y may be varied to assemble the virtual object. That is, some of the relative position and / or posture components are fixed, and the user operation changes components other than the partial components of the relative position and / or posture components. To do. As described above, by adding the constraint condition to the fluctuation of the virtual object, it is possible to reduce the time and effort of the operation, and more accurately obtain the relative position and orientation between the virtual objects that are successfully assembled.
<変形例2>
例えば、円筒形状の部品を円筒形状の穴に挿入する場合のように、ある方向の位置姿勢変動(この例の場合は円筒の軸周り回転)が組み付けの成功/失敗には関係がない場合には、拘束条件生成部12では、この方向と、この方向には位置姿勢が自由に変動できること、の2つを指定し、組み付け成功範囲決定部13は、この方向に相当する位置姿勢パラメータ空間中の連続領域を一括して組付け成功となる領域として決定する。これにより、組み付け時に位置姿勢が自由に変動できる部品に関しても、組み付け成否判定を行うことが可能となる。
<
For example, when a position / posture change in one direction (rotation around the axis of the cylinder in this example) is not related to the success / failure of the assembly, such as when a cylindrical part is inserted into a cylindrical hole. The constraint
<変形例3>
第1の実施形態では、一方の部品に対する他方の部品の組み付けが成功した状態に該当する複数の「一方の部品と他方の部品との間の相対的な位置姿勢」をユーザ操作により指定していた。しかし、逆に、一方の部品に対する他方の部品の組み付けが失敗した状態に該当する複数の「一方の部品と他方の部品との間の相対的な位置姿勢」をユーザ操作により指定しても良い。この場合に組み付け成功範囲決定部13が生成する確率密度分布としてガウス分布を想定し、組み付け失敗となる相対位置姿勢の分布を求める。
<
In the first embodiment, a plurality of “relative positions and orientations between one part and the other part” corresponding to a state where the assembly of the other part to the one part has been successfully designated is designated by a user operation. It was. However, conversely, a plurality of “relative positions and orientations between one part and the other part” corresponding to a state in which the assembly of the other part to the one part has failed may be designated by a user operation. . In this case, a Gaussian distribution is assumed as the probability density distribution generated by the assembly success
このような分布を求めておけば、実際に組み付け元の部品と組み付け先の部品との間の相対的な位置姿勢が、ある位置姿勢Xとなった場合に、この位置姿勢Xが、組み付け成功に該当する位置姿勢であるのかを、この分布を用いて判断することができる。具体的には、分布において位置姿勢Xに対応する分布値が閾値未満であれば、位置姿勢Xは組み付け成功に該当する位置姿勢である、すなわち、組み付け元の部品と組み付け先の部品との組付けは成功であると判断することができる。 If such a distribution is obtained, when the relative position and orientation between the assembly source component and the assembly destination component actually become a certain position and orientation X, this position and orientation X is successfully assembled. This distribution can be used to determine whether the position / posture falls within the range. Specifically, if the distribution value corresponding to the position / orientation X in the distribution is less than the threshold value, the position / orientation X is a position / orientation corresponding to successful assembly, that is, a combination of the assembly source component and the assembly destination component. It can be judged that the date is a success.
また、一方の部品に対する他方の部品の組み付けが成功した状態に該当する相対的な位置姿勢と、失敗した状態に該当する複数の相対的な位置姿勢と、をそれぞれ取得し、組み付け成否の判定に用いてもかまわない。 In addition, a relative position and orientation corresponding to a state in which the assembly of the other part to one part is successful and a plurality of relative position and orientations corresponding to the state in which the assembly has failed are acquired, respectively, for determination of the success or failure of the assembly. You can use it.
[第2の実施形態]
第1の実施形態やその変形例では、組み付けが成功状態にある部品間の相対的な位置及び/又は姿勢は、ユーザが操作部を用いて指定していた。本実施形態では、組み付けが成功状態にあるそれぞれの部品の撮像画像を用いて、部品間の相対的な位置及び/又は姿勢を取得する。
[Second Embodiment]
In the first embodiment and the modifications thereof, the user specifies the relative position and / or orientation between components that have been successfully assembled using the operation unit. In the present embodiment, the relative position and / or orientation between components is acquired using captured images of the components that have been successfully assembled.
本実施形態に係る情報処理装置2の機能構成例について、図6のブロック図を用いて説明する。図6に示した構成は、拘束条件生成部12が画像入力部21及び相対位置姿勢計算部22を有する点、画像入力部21に2次元画像撮像装置26及び距離画像撮像装置27が接続されている点、で図1の構成と異なる。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。
A functional configuration example of the
なお、これは第1の実施形態でも同様であるが、仮想物体のデータとしては、図7(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)と、図7(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称し、単に幾何特徴と称した場合は、局所面特徴と局所線特徴の両方を指す)によって構成されるものを用いる。また、図2に示す如く、組み付け元の部品を表す仮想物体299において組み付け先の部品の仮想物体298と接触する箇所(斜線部分)100の幾何特徴と、組み付け先の部品を表す仮想物体298において組み付け元の部品の仮想物体299と接触する箇所(斜線部分)200の幾何特徴と、を参照可能に3次元形状モデル保持部11に登録するようにしても構わない。
This is the same as in the first embodiment, but the virtual object data includes local data on the object surface composed of a three-dimensional position and a three-dimensional normal direction as shown in FIG. 3D plane information (hereinafter referred to as a local surface feature) and a local 3D line on an object contour composed of a 3D position and a 3D line segment direction as shown in FIG. What is constituted by partial information (hereinafter referred to as local line features and simply referred to as geometric features refers to both local surface features and local line features) is used. In addition, as shown in FIG. 2, in the
2次元画像撮像装置26は、撮像レンズと、撮像素子と、を備えるカメラである。撮像レンズは、撮像対象を撮像素子上に結像させるよう構成された光学系である。撮像素子は、CMOSセンサ、CCDセンサなどの各種光電変換素子である。撮像される画像はグレー画像でもカラー画像でもよいが、本実施形態では、グレー画像であるものとする。撮像レンズの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、[R. Y. Tsai, ”A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses, ” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.]で開示される方法によって事前にキャリブレーションしておく。
The two-dimensional
距離画像撮像装置27は、計測対象である部品表面上の点の3次元情報を計測する。距離画像撮像装置27として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとしては、波長の異なる色IDを付与したマルチスリットラインを対象に照射し、その反射光をカメラで撮像して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。その他、距離画像を計測するものであれば如何なる装置を距離画像撮像装置27に適用しても構わない。
The distance
なお、距離画像撮像装置27の光軸と2次元画像撮像装置26の光軸とは一致しており、2次元画像撮像装置26が出力する濃淡画像の各画素と、距離画像撮像装置27が出力する距離画像の各画素と、の対応関係は既知であるとする。しかしながら、濃淡画像と距離画像とが同一の視点であることは、条件によっては必須ではない。例えば、濃淡画像を撮像する撮像装置と距離画像を撮像する撮像装置とが別の位置姿勢にあり、濃淡画像と距離画像とをそれぞれ別の視点から撮像しても良い。この場合は、撮像装置間の相対的な位置姿勢は既知であることが必要であり、この相対的な位置姿勢を用いて距離画像中の3次元点群を濃淡画像上に投影することにより、濃淡画像上の各画素と距離画像上の各画素との対応を取る。同一の物体を撮像する撮像装置間の相対的な位置姿勢が既知であり、その画像間の対応が計算できる限り、撮像装置間の位置姿勢関係に特に制限はない。
Note that the optical axis of the distance
画像入力部21は、2次元画像撮像装置26が撮像した撮像画像及び距離画像撮像装置27が撮像した距離画像を、後段の相対位置姿勢計算部22に対して転送する。2次元画像撮像装置26及び距離画像撮像装置27のそれぞれが動画像を撮像するのであれば、画像入力部21は、2次元画像撮像装置26が撮像した各フレームの撮像画像及び距離画像撮像装置27が撮像した各フレームの距離画像を、後段の相対位置姿勢計算部22に対して転送することになる。
The
相対位置姿勢計算部22は、画像入力部21から転送された撮像画像及び距離画像と、3次元形状モデル保持部11から取得した組み付け元の部品の仮想物体のデータ及び組み付け先の部品の仮想物体のデータと、を用いて、仮想物体間の相対的な位置姿勢を求める。相対位置姿勢計算部22が仮想物体間の相対的な位置姿勢を求めるために行う処理について詳細に説明する。
The relative position /
先ず、2次元画像撮像装置26と距離画像撮像装置27に対する組み付け元の部品と組み付け先の部品の位置及び姿勢の概略値を取得する。この概略値は、部品の置かれているおおよその位置や姿勢があらかじめわかっているものとして、その値を概略値として用いる。この概略値はユーザが操作部を用いて入力しても構わないし、この概略値が予め3次元形状モデル保持部11に登録されている場合には、この概略値を3次元形状モデル保持部11から取得すれば良い。すなわち、概略値の取得方法は特定の方法に限るものではない。
First, the approximate values of the positions and orientations of the assembling source component and the assembling destination component for the two-dimensional
例えば、情報処理装置2が時間軸方向に連続して部品の位置及び姿勢の計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いてもよい。また、過去の位置及び姿勢の計測をもとに部品の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した部品の画像をテンプレートとして保持しておき、入力した画像に対してテンプレートマッチングを行うことによって、部品の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる部品の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を部品に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、部品上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであれば如何なるセンサであってもよい。
For example, assuming that the
次に、組み付け元の部品の概略位置姿勢と組み付け先の部品の概略位置姿勢と、に基づいて、距離画像中の3次元点群と、組み付け元の部品の仮想物体及び組み付け先の部品の仮想物体との対応付けを行う。それぞれの部品の概略位置姿勢と校正済みの距離画像撮像装置27の内部パラメータを用いて、仮想物体を構成する各局所面特徴を距離画像上に投影する。そして、投影した各局所面特徴に対応する距離画像上の距離点を、各面に対応する3次元点として保持する。このとき、仮想物体同士が画像上で重なりオクルージョンが発生している場合は、オクルージョン領域の推定を行い、オクルージョン領域における対応付けを抑制しても良い。具体的には、それぞれの仮想物体に対応する部品の概略位置姿勢に基づいて、仮想物体間の相対的な位置姿勢を求め、撮像装置に対する仮想物体間の前後判定を行う。これにより、大まかにオクルージョン領域を推定し、オクルージョンが発生している領域では仮想物体と画像との対応付けを抑制することで処理を行う。
Next, based on the approximate position and orientation of the assembly source component and the approximate location and orientation of the assembly destination component, the three-dimensional point group in the distance image, the virtual object of the assembly source component, and the virtual of the assembly destination component Associate with an object. Each local surface feature constituting the virtual object is projected onto the distance image using the approximate position and orientation of each part and the internal parameters of the calibrated distance
次に、濃淡画像上のエッジと仮想物体との対応付けを行う。それぞれの仮想物体の概略位置姿勢と校正済みの2次元画像撮像装置26の内部パラメータを用いて仮想物体を構成する局所線特徴を画像へ投影し、画像上で検出されたエッジと仮想物体中の局所線特徴とを対応付けする。エッジが各局所線特徴に対応して複数検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。
Next, the edge on the grayscale image is associated with the virtual object. Using the approximate position and orientation of each virtual object and the internal parameters of the calibrated two-dimensional
次に、検出した仮想物体中の各線分に対応する濃淡画像上のエッジと、算出した仮想物体中の各面に対応する距離画像中の3次元点との対応データに基づいて、組み付け先の部品および組み付け元の部品の位置及び姿勢を算出する。本ステップでは、算出した対応データに基づいて、計測データと仮想物体との間の誤差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。 Next, based on the correspondence data between the edge on the grayscale image corresponding to each line segment in the detected virtual object and the calculated three-dimensional point in the distance image corresponding to each surface in the virtual object, the assembly destination The position and orientation of the part and the part from which it is assembled are calculated. In this step, the position and orientation are updated by solving the linear simultaneous equations so that the error between the measurement data and the virtual object is minimized based on the calculated correspondence data.
ここで、画像上の距離と3次元空間中での距離は尺度が異なるため、単純に連立方程式を解くだけでは計測データのどちらか一方に寄与率が偏ってしまう可能性がある。そのため、本実施形態では、[立野,小竹,内山,“ビンピッキングのための距離・濃淡画像を最ゆうに統合する高精度高安定なモデルフィッティング手法,”電子情報通信学会論文誌D, 情報・システム J94-D(8), 1410−1422, 2011.]に示すような最尤推定に基づく最適化を行うことで、尺度を合わせた位置姿勢推定を行う。最尤推定に基づく位置姿勢推定方法に関しては、周知であるため、詳細な説明は省略する。詳細は上述の文献を参照されたい。なお、計測対象物体の位置及び姿勢の算出方法は、上述の最尤推定に基づく手法に限るものでなく、例えば、Levenberg‐Marquardt法による繰り返し演算を行っても良いし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。また、最適化計算ベースの位置姿勢算出以外にも、概略の位置及び姿勢を中心に一定範囲において6自由度の値が網羅的にカバーできるように多数の位置及び姿勢を生成し、それぞれの位置及び姿勢において観測できる幾何特徴と濃淡画像及び距離画像とのマッチング具合を評価することで、位置姿勢の推定を行っても良い。 Here, since the distance between the image and the distance in the three-dimensional space are different in scale, there is a possibility that the contribution rate is biased to either one of the measurement data simply by solving the simultaneous equations. Therefore, in this embodiment, [Tateno, Kotake, Uchiyama, “Highly accurate and stable model fitting method that best integrates distance and grayscale images for bin picking,” IEICE Transactions D, Information System J94-D (8), 1410-1422, 2011. By performing the optimization based on the maximum likelihood estimation as shown in FIG. Since the position and orientation estimation method based on the maximum likelihood estimation is well known, detailed description thereof is omitted. Refer to the above-mentioned literature for details. Note that the method of calculating the position and orientation of the measurement target object is not limited to the above-described method based on the maximum likelihood estimation, and may be a simpler method, for example, by performing repetitive calculations using the Levenberg-Marquardt method. It may be performed by the steepest descent method. Further, other nonlinear optimization calculation methods such as a conjugate gradient method and an ICCG method may be used. In addition to the optimization calculation based position and orientation calculation, a large number of positions and orientations are generated so that the values of 6 degrees of freedom can be comprehensively covered within a certain range around the approximate position and orientation. In addition, the position and orientation may be estimated by evaluating the degree of matching between the geometric feature that can be observed in the orientation, the grayscale image, and the distance image.
次に、更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、更新した位置姿勢を用いて、再度位置姿勢算出処理を行う。収束していると判断した場合は、撮像装置と計測対象物体間の相対的な位置姿勢の最終的な推定値が決定される。 Next, it is determined whether or not the updated position and orientation has converged, that is, whether or not iterative calculation is required. Specifically, it is determined that convergence has occurred when the correction value is approximately 0, or when the difference before and after correction of the square sum of the error vectors is approximately 0. If it has not converged, the position and orientation calculation process is performed again using the updated position and orientation. When it is determined that the image has converged, a final estimated value of the relative position and orientation between the imaging device and the measurement target object is determined.
このようにして拘束条件生成部12は、組み付け元の部品の位置姿勢と、組み付け先の部品の位置姿勢と、を求めることができるので、求めたこれらの位置姿勢を用いて、仮想物体間の相対的な位置姿勢を求める。この求めた位置姿勢は、即ち、組み付けが成功状態にある部品間の相対的な位置姿勢である。
In this way, the constraint
本実施形態に係る情報処理装置2が部品組み付けの成否判定条件を生成するために行う処理では、ステップS1000において拘束条件生成部12は上記の処理を行うことで、仮想物体間の相対的な位置姿勢を求める。ステップS1100では、第1の実施形態と同様の処理を行う。
In the process performed by the
なお、本実施形態では、2次元画像撮像装置26による撮像画像と、距離画像撮像装置27による距離画像と、の両方を用いて仮想物体間の相対的な位置姿勢を求めていたが、何れか一方のみを用いて仮想物体間の相対的な位置姿勢を求めても構わない。
In the present embodiment, the relative position and orientation between the virtual objects are obtained using both the captured image by the two-dimensional
このように、本実施形態によれば、操作者による上記の作業を行うことなく、あそびがある部品であっても、組み付け成否判定を可能にするための情報を生成することができる。 As described above, according to the present embodiment, it is possible to generate information for enabling assembly success / failure determination even for a part with play without performing the above-described work by the operator.
[第3の実施形態]
本実施形態では、拘束条件生成部12は、仮想物体間で取り得る相対位置姿勢のうち、仮想物体間で干渉が生じない相対位置姿勢を取得する。本実施形態に係る情報処理装置3の機能構成例について、図8のブロック図を用いて説明する。図8に示した構成は、拘束条件生成部12が相対位置姿勢設定部31及び部品干渉判定部32を有する点で図1の構成と異なる。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。
[Third Embodiment]
In the present embodiment, the constraint
相対位置姿勢設定部31は、第1の実施形態と同様にして、ユーザにより指定された仮想物体間の相対位置姿勢を複数個取得する。
The relative position /
部品干渉判定部32は、相対位置姿勢設定部31が取得したそれぞれの相対位置姿勢について、該相対位置姿勢を有する仮想物体間に干渉が生じているか否かを判断する。仮想物体間に干渉が生じているか否かを判断する処理は、一般にテレビゲームの分野でもキャラクタ同士の干渉判定を行っていることから周知であるので、この処理に係る説明は省略する。そして部品干渉判定部32は、相対位置姿勢設定部31が取得したそれぞれの相対位置姿勢のうち、仮想物体間に干渉が生じない相対位置姿勢を選択して組み付け成功範囲決定部13に対して出力する。これにより組み付け成功範囲決定部13は、ユーザにより指定された仮想物体間の相対位置姿勢のうち仮想物体間に干渉が生じない相対位置姿勢に基づく確率密度分布を生成することになる。
The component
このように、本実施形態によれば、ユーザによって指定された相対位置姿勢のうち、仮想物体間に干渉が生じない相対位置姿勢を組み付け成功範囲決定部13に送出するので、より厳密に組み付け成否判定を可能にするための情報を生成することができる。
As described above, according to the present embodiment, among the relative positions and orientations designated by the user, the relative positions and orientations in which no interference occurs between the virtual objects is sent to the assembly success
<変形例1>
第3の実施形態では、ユーザによって指定された相対位置姿勢に対して干渉判定を行っていたが、他の方法でもって取得した相対位置姿勢に対して干渉判定を行っても良い。例えば、シミュレーションによって様々な相対位置姿勢を発生させ、該発生させたそれぞれの相対位置姿勢について上記の干渉判定を行っても良い。これによって、ユーザによる指定を行わずとも、成否判定を可能にするための情報を生成することができる。
<Modification 1>
In the third embodiment, the interference determination is performed on the relative position and orientation specified by the user. However, the interference determination may be performed on the relative position and orientation acquired by another method. For example, various relative positions and orientations may be generated by simulation, and the above-described interference determination may be performed for each of the generated relative positions and orientations. Thus, information for enabling success / failure determination can be generated without performing designation by the user.
[第4の実施形態]
本実施形態では、第1〜3の実施形態やそれらの変形例で組み付け成功範囲決定部13によって得られた確率密度分布内のそれぞれの相対位置姿勢について、該相対位置姿勢にある仮想物体の位置関係をユーザに視認させる。本実施形態に係る情報処理装置4の機能構成例について、図9のブロック図を用いて説明する。図9に示した構成は、図1の構成に、組み付け成功確認部41を加えたものである。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。
[Fourth Embodiment]
In the present embodiment, for each relative position and orientation in the probability density distribution obtained by the assembly success
組み付け成功確認部41は、図11に示す如く、拘束条件生成部12が確率密度分布作成用に取得した相対位置姿勢をプロットした画面(図11では説明を簡単にするために位置姿勢はx,yの2パラメータで表している)を表示装置に表示させる。なお、表示範囲は、組み付け成功範囲決定部13が生成した確率密度分布において、拘束条件生成部12が確率密度分布作成用に取得した相対位置姿勢を含む範囲であり、この範囲を複数の矩形領域に分割して表示している。なお、分割パターンは図11のような均等に分割するパターンに限るものではなく、設定した位置姿勢の個数だけランダムに提示し、ユーザに確認させてもよい。
As shown in FIG. 11, the assembly
ユーザが操作部を用いて、複数の矩形領域のうち1つを指定すると、組み付け成功確認部41は、この指定された矩形領域の中心位置(例えば図中の三角形)に対応する相対位置姿勢を特定し、該相対位置姿勢を有する2つの仮想物体を表示装置に表示させる。これにより、ユーザは、確率密度分布内のそれぞれの矩形領域に対応する仮想物体間の相対的な位置姿勢関係を視認することができる。
When the user designates one of a plurality of rectangular regions using the operation unit, the assembly
なお、指定対象は矩形領域に限るものではなく、プロットした点(相対位置姿勢)を指定できるようにしてもよい。その場合、指定された点に対応する相対位置姿勢を有する2つの仮想物体を表示装置に表示させることになる。 Note that the designation target is not limited to the rectangular area, and a plotted point (relative position and orientation) may be designated. In that case, two virtual objects having relative positions and orientations corresponding to the designated points are displayed on the display device.
[第5の実施形態]
本実施形態では、ユーザは、組み付け成功確認部41が表示装置に表示させた上記画面中のそれぞれのプロット点を指定したりして、該プロット点に対応する相対位置姿勢が組み付け成功に該当する相対位置姿勢であるのかを確認する。確認方法はこれに限らない。そしてユーザが該プロット点に対応する相対位置姿勢が組み付け成功に該当していないと判断した場合には、該プロット点は対象外である旨を操作部を用いて指定する。指定したプロット点は表示形態を変更しても構わないし、非表示にしても構わない。この指定により、現在の確率密度分布において、指定されたプロット点に対応する相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。
[Fifth Embodiment]
In this embodiment, the user designates each plot point in the screen displayed by the assembly
本実施形態に係る情報処理装置5の機能構成例について、図10のブロック図を用いて説明する。図10に示した構成は、図9の情報処理装置4に、組み付け判定部51及び組み付け成功範囲変更部52を加えたものである。以下では、第4の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第4の実施形態と同様であるものとして説明する。
A functional configuration example of the
組み付け判定部51は、プロット点に対する対象外指定を、操作部を介して受け付ける。組み付け成功範囲変更部52は、現在の確率密度分布において、対象外として指定されたプロット点に対応する相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。
The
このように、本実施形態によれば、拘束条件生成部12が生成した相対位置姿勢が、組み付け成功に該当する相対位置姿勢であるのかをユーザが判断し、その判断結果を、部品組み付けの成否判定条件に反映させることができる。然るに、より正確に組み付け成功範囲を決定することができる。
As described above, according to the present embodiment, the user determines whether the relative position and orientation generated by the constraint
[第6の実施形態]
本実施形態では、組み付け成功範囲を求めた後に組み付け成功判定を伴う処理を実行し、その判定結果に応じて組み付け成功範囲を更新する。以下では、ロボットアームによって部品の組み付け作業を行い、該組み付け作業による組み付け成功判定の結果に応じて、組み付け成功範囲を更新する。本実施形態に係る情報処理装置6の機能構成例を図12に示す。また、本実施形態に係るシステムの外観例を図13に示す。図12,13において既出の参照番号が示すものは以下で特に触れない限りは、既出の説明の通りである。
[Sixth Embodiment]
In this embodiment, after obtaining the assembly success range, a process involving the assembly success determination is executed, and the assembly success range is updated according to the determination result. In the following, a part assembly operation is performed by the robot arm, and the assembly success range is updated according to the result of the assembly success determination by the assembly operation. An example of the functional configuration of the
ロボット90は、ロボットコントローラ80により制御され、指令された位置にアームの手先を移動させ、物体の把持・組み付け処理などを行う。組み付け済み部品70は、組み付け元の部品と組み付け先の部品により構成される。2次元画像撮像装置26及び距離画像撮像装置27は、ロボット90のアームの手先等の被計測物体(本実施形態の場合は組み付け済み部品70)を撮像できる位置に設置されている。
The
ランタイム相対位置姿勢算出部61は、相対位置姿勢計算部22と同様にして、画像入力部21から転送された撮像画像及び距離画像と、3次元形状モデル保持部11から取得した組み付け元の部品の仮想物体のデータ及び組み付け先の部品の仮想物体のデータと、を用いて、仮想物体間の相対的な位置姿勢を求める。
Similarly to the relative position /
より詳しくは、ランタイム相対位置姿勢算出部61は、図2に示すような箇所(斜線部分)100に属する局所面特徴と、箇所(斜線部分)200に属する局所面特徴と、の間で最近傍となるペアの算出を行う。法線付き3次元点間の最近傍対応付けの方法としては、例えば、[大石岳史,中澤篤志,池内克史, ”インデックス画像を用いた複数距離画像の高速同時位置あわせ、” 電子情報通信学会論文誌, Vol.J89−D No.3, pp.513−521,Mar.2006.]等の距離画像位置合わせにおける対応付け方法を用いればよい。そして、ランタイム相対位置姿勢算出部61は、ペアとなった局所面特徴間の相対位置姿勢を算出する。なお、ここでは、組み付けの一部に着目して相対位置姿勢を求めていたが、部品全体に対してモデルフィッティングを行い、相対位置姿勢を推定し、その値を用いてもよい。
More specifically, the runtime relative position /
ロボット90が部品組み付けを終えた後、ランタイム組み付け判定部62は、この組み付けが成功しているか否かをユーザに問い合わせるための画面を表示装置に表示する。ユーザは組み付け済み部品70を視認し、該組み付け済み部品70における組み付けが成功しているか否かの判断結果を操作部を用いて入力するので、ランタイム組み付け判定部62は、この判断結果を取得する。なお、ランタイム組み付け判定部62が、組み付け済み部品70における組み付けが成功しているか否かを示す情報を取得する方法はこれに限るものではなく、例えば、ロボットの圧力センサなどで異常な圧力値を示した時に失敗と判定させてもよい。ランタイム組み付け判定部62は、組み付け済み部品70における組み付けが失敗したか否かを示す情報(操作部を介してユーザが入力)と、この時点でランタイム相対位置姿勢算出部61が求めた相対位置姿勢と、を組み付け成功範囲変更部52に対して送出する。
After the
組み付け成功範囲変更部52は、ランタイム組み付け判定部62から受けた「組み付け済み部品70における組み付けが失敗したか否かを示す情報」が「失敗した」ことを示す場合には、現在の確率密度分布において、該情報と共にランタイム組み付け判定部62から受けた相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。なお、組み付け成功範囲変更部52は、ランタイム組み付け判定部62から受けた「組み付け済み部品70における組み付けが失敗したか否かを示す情報」が「成功した」ことを示す場合には、現在の確率密度分布において、該情報と共にランタイム組み付け判定部62から受けた相対位置姿勢に対応する確率密度を規定量だけ上げるようにしても構わない。
When the “information indicating whether or not the assembly of the assembled
このように、本実施形態によれば、組み付け時における相対位置姿勢及びその成否判定をフィードバックすることによって、より正確に組み付け成功範囲を決定することができる。なお、以上説明した実施形態や変形例はその一部若しくは全部を適宜組み合わせて用いても構わない。 Thus, according to the present embodiment, the assembly success range can be determined more accurately by feeding back the relative position and orientation at the time of assembly and the success / failure determination. In addition, you may use combining embodiment or the modification demonstrated above suitably for one part or all part.
[第7の実施形態]
図1,6,8,9,10,12に示した情報処理装置内の各機能部はハードウェアで構成しても構わないが、ソフトウェア(コンピュータプログラム)で構成しても構わない。この場合、このコンピュータプログラムを保持するメモリと、該コンピュータプログラムを実行する実行部と、を有するコンピュータであれば、上記の各実施形態や変形例で説明した情報処理装置に適用することができる。なお、上記の説明において操作部として説明したものは、マウスやキーボードなどのユーザインターフェースを用いて構成することができるし、表示装置として説明したものは、CRTや液晶画面などを用いて構成することができる。
[Seventh Embodiment]
Each functional unit in the information processing apparatus shown in FIGS. 1, 6, 8, 9, 10, and 12 may be configured by hardware, but may be configured by software (computer program). In this case, any computer having a memory that holds the computer program and an execution unit that executes the computer program can be applied to the information processing apparatuses described in the above embodiments and modifications. In addition, what was demonstrated as an operation part in said description can be comprised using user interfaces, such as a mouse | mouth and a keyboard, and what was demonstrated as a display apparatus should be comprised using CRT, a liquid crystal screen, etc. Can do.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (9)
前記取得手段が取得した複数の相対的な位置及び/又は姿勢の確率密度分布を、前記一方の部品に対する前記他方の部品の組み付けが成功したかを判断するための情報として生成する生成手段と
を備えることを特徴とする情報処理装置。 A plurality of relative positions between the one part and the other part corresponding to at least one of a state where the assembly of the other part to the one part is successful and a state where the other part is unsuccessful; and / or An acquisition means for acquiring a posture;
Generating means for generating a probability density distribution of a plurality of relative positions and / or postures acquired by the acquiring means as information for determining whether the other part has been successfully assembled to the one part ; An information processing apparatus comprising:
ユーザ操作により前記一方の部品を表す仮想物体及び/又は前記他方の部品を表す仮想物体を移動させて前記一方の部品を表す仮想物体に前記他方の部品を表す仮想物体を組み付けた状態にした場合の該一方の部品を表す仮想物体と該他方の部品を表す仮想物体との間の相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。 The acquisition means includes
When a virtual object representing the one part and / or a virtual object representing the other part is moved by a user operation and the virtual object representing the other part is assembled to the virtual object representing the one part The relative position and / or orientation between the virtual object representing the one part and the virtual object representing the other part corresponds to a state in which the assembly of the other part to the one part is successful. The information processing apparatus according to claim 1, wherein the information processing apparatus acquires the relative position and / or posture between the one component and the other component.
前記一方の部品に前記他方の部品を組み付けた状態における該一方の部品及び該他方の部品の撮像画像から、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。 The acquisition means includes
The relative position and / or posture between the one part and the other part is determined from the captured images of the one part and the other part in a state where the other part is assembled to the one part. And obtaining the relative position and / or orientation between the one part and the other part corresponding to a state in which the assembly of the other part to the one part is successful. The information processing apparatus according to 1.
前記一方の部品と前記他方の部品との間の相対的な位置及び/又は姿勢を用いて、前記一方の部品を表す仮想物体と前記他方の部品を表す仮想物体との間に干渉が生じているか否かを判断し、該干渉が生じていなければ、該相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。 The acquisition means includes
Using a relative position and / or posture between the one part and the other part, interference occurs between a virtual object representing the one part and a virtual object representing the other part. If the interference does not occur, the relative position and / or posture is set to the one component corresponding to the state where the assembly of the other component to the one component is successful. The information processing apparatus according to claim 1, wherein the information processing apparatus is acquired as a relative position and / or orientation with respect to the other component.
前記確率密度分布において、ユーザ操作によって失敗したと指定された相対的な位置及び/又は姿勢に対応する確率密度を0に設定することで該確率密度分布を更新することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The generating means includes
In the probability density distribution, claim 1 of the probability density corresponding to the relative position and / or posture designated to have failed by a user operation and updates the said probability density distribution by setting to zero The information processing apparatus according to any one of 1 to 5 .
前記確率密度分布において、ユーザ操作によって成功したと指定された相対的な位置及び/又は姿勢に対応する確率密度を規定量だけ上げることで該確率密度分布を更新することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 The generating means includes
In the probability density distribution, claim 1, characterized in that updating the said probability density distribution by increasing the probability density corresponding to the relative position and / or orientation designated as successful by a user operation by a predetermined amount through the information processing apparatus according to any one of 6.
前記情報処理装置の取得手段が、一方の部品に対する他方の部品の組み付けが成功した状態と失敗した状態の少なくともいずれか一方の状態に該当する複数の、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢、を取得する取得工程と、
前記情報処理装置の生成手段が、前記取得工程で取得した複数の相対的な位置及び/又は姿勢の確率密度分布を、前記一方の部品に対する前記他方の部品の組み付けが成功したかを判断するための情報として生成する生成工程と
を備えることを特徴とする情報処理方法。 An information processing method performed by an information processing apparatus,
The acquisition unit of the information processing apparatus includes a plurality of the one component and the other component corresponding to at least one of a state where the assembly of the other component to the one component is successful and a state where the other component is unsuccessful. An acquisition step of acquiring a relative position and / or posture between,
In order to determine whether the assembly of the other component to the one component has succeeded in the probability density distribution of the plurality of relative positions and / or postures acquired in the acquisition step by the generation unit of the information processing apparatus An information processing method comprising: a generation step of generating the information as information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014055618A JP6285765B2 (en) | 2014-03-18 | 2014-03-18 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014055618A JP6285765B2 (en) | 2014-03-18 | 2014-03-18 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015178138A JP2015178138A (en) | 2015-10-08 |
JP6285765B2 true JP6285765B2 (en) | 2018-02-28 |
Family
ID=54262577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014055618A Active JP6285765B2 (en) | 2014-03-18 | 2014-03-18 | Information processing apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6285765B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7204504B2 (en) * | 2019-01-29 | 2023-01-16 | 株式会社Subaru | Object confirmation device |
CN114119931A (en) * | 2020-08-31 | 2022-03-01 | Oppo广东移动通信有限公司 | Component assembling method, component assembling device, storage medium and terminal |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3415447B2 (en) * | 1998-07-14 | 2003-06-09 | 富士通株式会社 | Verification device and method for verifying interference between components in device |
WO2008147355A1 (en) * | 2007-05-29 | 2008-12-04 | Cognex Technology And Investment Corporation | 3d assembly verification from 2d images |
JP5382359B2 (en) * | 2010-04-28 | 2014-01-08 | 株式会社安川電機 | Robot system |
-
2014
- 2014-03-18 JP JP2014055618A patent/JP6285765B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015178138A (en) | 2015-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP6444027B2 (en) | Information processing apparatus, information processing apparatus control method, information processing system, and program | |
JP5567908B2 (en) | Three-dimensional measuring apparatus, measuring method and program | |
JP6324025B2 (en) | Information processing apparatus and information processing method | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
JP6370038B2 (en) | Position and orientation measurement apparatus and method | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
JP6677522B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP5612916B2 (en) | Position / orientation measuring apparatus, processing method thereof, program, robot system | |
JP6092530B2 (en) | Image processing apparatus and image processing method | |
JP6271953B2 (en) | Image processing apparatus and image processing method | |
JP5746477B2 (en) | Model generation device, three-dimensional measurement device, control method thereof, and program | |
JP6317618B2 (en) | Information processing apparatus and method, measuring apparatus, and working apparatus | |
JP6626338B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
US10252417B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
JP6180158B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP5698815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6040264B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6285765B2 (en) | Information processing apparatus and information processing method | |
JP6890422B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP2015132523A (en) | Position/attitude measurement apparatus, position/attitude measurement method, and program | |
JP2012225888A (en) | Position posture measurement device and position posture measurement method | |
JP6766229B2 (en) | Position and posture measuring device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180202 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6285765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |