JP2015178138A - Information processing device and method - Google Patents

Information processing device and method Download PDF

Info

Publication number
JP2015178138A
JP2015178138A JP2014055618A JP2014055618A JP2015178138A JP 2015178138 A JP2015178138 A JP 2015178138A JP 2014055618 A JP2014055618 A JP 2014055618A JP 2014055618 A JP2014055618 A JP 2014055618A JP 2015178138 A JP2015178138 A JP 2015178138A
Authority
JP
Japan
Prior art keywords
orientation
assembly
relative position
information processing
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014055618A
Other languages
Japanese (ja)
Other versions
JP6285765B2 (en
Inventor
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
圭祐 立野
Keisuke Tateno
圭祐 立野
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
祐一郎 廣田
Yuichiro Hirota
祐一郎 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014055618A priority Critical patent/JP6285765B2/en
Publication of JP2015178138A publication Critical patent/JP2015178138A/en
Application granted granted Critical
Publication of JP6285765B2 publication Critical patent/JP6285765B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Assembly (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for determining success and failure of assembly even when there is play on a fitting part of a component.SOLUTION: An information processing device acquires plural relative positions and/or postures between one component and the other component, corresponding to at least one of a success state and failure state of assembly of one component to the other component. The distribution of the acquired plural relative positions and/or posture is used for creating information for determining whether assembly succeeded or not.

Description

本発明は、部品組み付けの成功可否を判断するための技術に関するものである。   The present invention relates to a technique for determining whether component assembly is successful.

近年のロボット技術の発展とともに、工業製品の組み立てのような、これまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットでは、ハンドなどのエンドエフェクタによって部品をピックして組み付けを行う。ロボットによる部品ピックやその後の組み付け作業では、ハンド機構による部品把持時の部品位置姿勢のずれや正常でない部品の混入等の原因により部品組み付けに失敗することがある。そのため、部品を組み付けた後に、正常に組み付けが行われたかどうかを確認する部品組み付け後検査が必要になる。この組み付け後検査として、これまでは組み付け作業者の目視による検査が一般的であったが、近年はこの検査の自動化を目的とした取り組みが行われ始めている。   With the recent development of robot technology, robots are starting to perform complicated tasks that have been performed by humans, such as assembly of industrial products. In such a robot, parts are picked and assembled by an end effector such as a hand. In parts picking by a robot and subsequent assembling work, parts assembling may fail due to causes such as deviations in the position and orientation of parts when gripping a part by a hand mechanism and mixing of abnormal parts. Therefore, after assembling the parts, it is necessary to perform an inspection after assembling the parts to confirm whether or not the assembling has been normally performed. As an inspection after the assembly, a visual inspection by an assembly operator has been common until now, but in recent years, an effort for automating the inspection has begun.

例えば、特許文献1に開示されている技術では、部品組み立て時を観察する三台のカメラの二次元画像を用いて、組立時の差異を検査する領域を画面で指定する。指定した部位は、少なくとも2台のカメラからの三角測量を用いて三次元の点として取得できるので、部品組み付け部位における三次元点の差異を見ることで組み立て検査が可能となる。   For example, in the technique disclosed in Patent Document 1, a region for inspecting a difference at the time of assembly is designated on a screen using two-dimensional images of three cameras that observe the time of component assembly. Since the designated part can be acquired as a three-dimensional point using triangulation from at least two cameras, assembly inspection can be performed by looking at the difference of the three-dimensional point in the part assembly part.

特表2010−528318号公報Special table 2010-528318 gazette

しかし、はめあて部位にあそびと呼ばれる隙間が存在する部品に関しては、組み立てに成功する場合であっても組み立て対象の複数部品間の相対的な位置姿勢に自由度があるため、特許文献1のように単一の位置姿勢のみを組み立て成功と設定しただけでは、相対位置姿勢が自由度(あそび)の範囲内であっても、組み立て失敗と判定されてしまうことがある。   However, with respect to a part having a gap called play at the fitting part, there is a degree of freedom in the relative position and orientation between a plurality of parts to be assembled even if the assembly is successful. If only a single position / posture is set as successful, even if the relative position / posture is within the range of freedom (play), it may be determined that the assembly has failed.

本発明はこのような問題に鑑みてなされたものであり、はめあて部位にあそびが存在するような部品であっても、その組み立ての成功もしくは失敗を判定可能にするための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for making it possible to determine the success or failure of assembly even for a part where play is present at a fitting part.

本発明の一様態によれば、一方の部品に対する他方の部品の組み付けが成功した状態と失敗した状態の少なくともいずれか一方の状態に該当する複数の、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢、を取得する取得手段と、前記取得手段が取得した複数の相対的な位置及び/又は姿勢の分布を用いて、前記組み付けが成功したかを判断するための情報を生成する生成手段とを備えることを特徴とする。   According to one aspect of the present invention, a plurality of the one component and the other component corresponding to at least one of a state in which the assembly of the other component to the one component has succeeded and a state in which the other component has failed have occurred. In order to determine whether the assembling has succeeded by using an acquisition means for acquiring a relative position and / or orientation between them and a distribution of a plurality of relative positions and / or orientations acquired by the acquisition means And generating means for generating the information.

本発明の構成により、はめあて部位にあそびが存在するような部品であっても、その組み立ての成功もしくは失敗を判定可能にするための技術を提供することができる。   According to the configuration of the present invention, it is possible to provide a technique for making it possible to determine the success or failure of assembly even for a part where play is present at the fitting part.

情報処理装置1の機能構成例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 1. 仮想物体を説明する図。The figure explaining a virtual object. 位置及び姿勢を説明する図。The figure explaining a position and attitude | position. 相対位置姿勢の分布及び確率密度分布を示す図。The figure which shows distribution of relative position orientation, and probability density distribution. 情報処理装置が行う処理のフローチャート。The flowchart of the process which information processing apparatus performs. 情報処理装置2の機能構成例を示すブロック図。FIG. 3 is a block diagram showing an example of a functional configuration of the information processing apparatus 2. 仮想物体を説明する図。The figure explaining a virtual object. 情報処理装置3の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration example of the information processing apparatus 3; 情報処理装置4の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration example of the information processing apparatus 4. 情報処理装置5の機能構成例を示すブロック図。FIG. 3 is a block diagram showing an example of a functional configuration of the information processing apparatus 5. 組み付け成功確認部41が表示させる画面の表示例を示す図。The figure which shows the example of a display of the screen which the assembly | attachment success confirmation part 41 displays. 情報処理装置6の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration example of the information processing apparatus 6; システムの外観例を示す図。The figure which shows the example of an external appearance of a system.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、一方の部品に対する他方の部品の組み付けが成功したか否かを判断するための情報(部品組み付けの成否判定条件)を生成するために、ユーザは画面上に表示された「一方の部品を表す仮想物体」及び/又は「他方の部品を表す仮想物体」を操作してその位置や姿勢を変更し、「一方の部品を表す仮想物体」に「他方の部品を表す仮想物体」を組み付けた状態にする。一方の部品に対する他方の部品の組み付けパターンは様々であるので、ユーザは様々な組み付けパターンで「一方の部品を表す仮想物体」に「他方の部品を表す仮想物体」を組み付け、本実施形態に係る情報処理装置は、組み付けパターン毎に、該組み付けパターンにおける「一方の部品を表す仮想物体」と「他方の部品を表す仮想物体」との間の相対的な位置姿勢を取得する。そして本実施形態に係る情報処理装置は、取得した相対的な位置姿勢の分布から、上記の「部品組み付けの成否判定条件」、すなわち、相対的な位置姿勢の6自由度空間中の連続領域として、組み付け成功範囲を生成する。
[First Embodiment]
In the present embodiment, in order to generate information (component assembly success / failure determination condition) for determining whether or not the assembly of the other component to one component is successful, the user displays “one side” displayed on the screen. "Virtual object representing one part" and / or "virtual object representing the other part" to change its position and orientation, and "virtual object representing the other part" to "virtual object representing one part" To the assembled state. Since the assembly pattern of the other component with respect to one component is various, the user assembles the “virtual object representing one component” into the “virtual object representing one component” in various assembly patterns, and the embodiment relates to this embodiment For each assembly pattern, the information processing apparatus acquires a relative position and orientation between the “virtual object representing one component” and the “virtual object representing the other component” in the assembly pattern. The information processing apparatus according to the present embodiment uses the acquired relative position and orientation distribution as the “part assembly success / failure determination condition”, that is, as a continuous region in the 6-degree-of-freedom space of the relative position and orientation. , Generate a successful assembly range.

先ず、本実施形態に係る情報処理装置1の機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理装置1は、拘束条件生成部12と、組み付け成功範囲決定部13と、を有し、更に、情報処理装置1には、3次元形状モデル保持部11が接続されている。なお、図1では3次元形状モデル保持部11は、情報処理装置1の外部記憶装置として示しているが、情報処理装置1内に設けられたメモリとしても良い。   First, a functional configuration example of the information processing apparatus 1 according to the present embodiment will be described with reference to the block diagram of FIG. As illustrated in FIG. 1, the information processing apparatus 1 according to the present embodiment includes a constraint condition generation unit 12 and an assembly success range determination unit 13, and the information processing apparatus 1 holds a three-dimensional shape model. The unit 11 is connected. In FIG. 1, the three-dimensional shape model holding unit 11 is illustrated as an external storage device of the information processing apparatus 1, but may be a memory provided in the information processing apparatus 1.

先ず、3次元形状モデル保持部11について説明する。3次元形状モデル保持部11には、組み付け元の部品の仮想物体(3次元形状モデル)のデータと、組み付け先の部品の仮想物体(3次元形状モデル)のデータと、が保存されている。本実施形態では、仮想物体はポリゴンで構成されているものとして説明するので、3次元形状モデル保持部11には、仮想物体を構成する各ポリゴンを規定するデータが保存されていることになる。   First, the three-dimensional shape model holding unit 11 will be described. The three-dimensional shape model holding unit 11 stores data of a virtual object (three-dimensional shape model) of a part to be assembled and data of a virtual object (three-dimensional shape model) of a part to be assembled. In the present embodiment, it is assumed that the virtual object is composed of polygons. Therefore, the data defining each polygon constituting the virtual object is stored in the three-dimensional shape model holding unit 11.

なお、仮想物体の3次元的な幾何情報(図7(c))を表すための表現方法には様々なものがあり、本実施形態には様々な表現方法を適用しても構わない。例えば、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3点の3次元点で構成される面および線の集合で表される単純な3次元点の集合など、他の表現で表しても良い。   There are various representation methods for representing the three-dimensional geometric information (FIG. 7C) of the virtual object, and various representation methods may be applied to the present embodiment. For example, a set of simple three-dimensional points, a set of three-dimensional lines representing edges, a set of three-dimensional points and a simple three-dimensional point represented by sets of lines and lines It may be expressed in terms of expression.

拘束条件生成部12は、3次元形状モデル保持部11に保存されているデータを用いて、組み付け元の部品の仮想物体と組み付け先の部品の仮想物体とを生成し、該生成したそれぞれの仮想物体を情報処理装置1に接続されている不図示の表示装置に表示する。ユーザはこの表示装置に表示されたそれぞれの仮想物体を見ながら、情報処理装置1に接続されている不図示の操作部を用いて一方若しくは両方の仮想物体の位置や姿勢を変更させて、組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態(組み付け成功状態)にする。ここで、「位置」とは、図3に示す如く並進成分(x、y、z)で表され、「姿勢」とは、図3に示す如くオイラー角で示された回転成分(α、β、γ)で表されるものとするが、表現方法はこれに限るものではない。   Using the data stored in the three-dimensional shape model holding unit 11, the constraint condition generation unit 12 generates a virtual object of the assembly source component and a virtual object of the assembly destination component, and generates the generated virtual objects. The object is displayed on a display device (not shown) connected to the information processing apparatus 1. While viewing each virtual object displayed on the display device, the user can change the position and orientation of one or both virtual objects using an operation unit (not shown) connected to the information processing device 1 and assemble The virtual object of the assembly destination part is assembled to the virtual object of the original part (assembled successfully state). Here, “position” is represented by translational components (x, y, z) as shown in FIG. 3, and “posture” is rotational components (α, β shown by Euler angles as shown in FIG. , Γ), but the expression method is not limited to this.

なお、組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態(組み付け成功状態)にするための方法は上記の方法に限るものではない。例えば、ユーザが並進成分や回転成分を数値として入力すると、拘束条件生成部12は、入力された並進成分や回転成分に応じて仮想物体の位置や姿勢を変更する、という方法を採用しても構わない。   Note that the method for setting the virtual object of the assembly destination part to the virtual object of the assembly source part (the assembly success state) is not limited to the above method. For example, when the user inputs a translation component and a rotation component as numerical values, the constraint condition generation unit 12 may adopt a method of changing the position and orientation of the virtual object according to the input translation component and rotation component. I do not care.

そして、ユーザは組み付けが完了したと判断した場合には、その旨を操作部を用いて入力するので、拘束条件生成部12は、この時点における仮想物体間の相対的な位置姿勢を取得する。ユーザはこの作業(操作部を用いて一方若しくは両方の仮想物体の位置や姿勢を変更させて組み付け元の部品の仮想物体に組み付け先の部品の仮想物体を組み付けた状態にし、組み付けが完了したと判断した場合には、その旨を操作部を用いて入力する)を複数回行うので、拘束条件生成部12はその都度、その時点における仮想物体間の相対的な位置姿勢を取得する。   When the user determines that the assembling is completed, the fact is input using the operation unit, so the constraint condition generation unit 12 acquires the relative position and orientation between the virtual objects at this time. The user uses this operation (using the operation unit to change the position and orientation of one or both virtual objects so that the virtual object of the assembly destination part is assembled to the virtual object of the assembly source part, and the assembly is completed. If it is determined, the fact is input multiple times using the operation unit), the constraint condition generation unit 12 acquires the relative position and orientation between the virtual objects at that time each time.

なお、組み付け成功状態にある仮想物体間の相対的な位置姿勢が登録されたファイル群を予め作成して3次元形状モデル保持部11に登録しておいても良い。この場合、拘束条件生成部12は、ユーザによる操作部の操作に応じて、このファイル群を表示装置に一覧表示させ、ユーザが操作部を用いて選択したファイルに登録されている「仮想物体間の相対的な位置姿勢」を取得することになる。   It should be noted that a file group in which relative positions and orientations between virtual objects that have been successfully assembled may be registered in advance and registered in the three-dimensional shape model holding unit 11. In this case, the constraint condition generation unit 12 displays a list of the file group on the display device in accordance with the operation of the operation unit by the user, and the “between virtual objects” registered in the file selected by the user using the operation unit. "Relative position / posture".

組み付け成功範囲決定部13は、ユーザが操作部を用いて上記作業を終了する旨の指示を入力し、この入力を検知すると、拘束条件生成部12が取得した複数の「相対的な位置姿勢」から、組み付け成功とみなす「相対的な位置姿勢」の確率密度分布を、部品組み付けの成否判定条件として求める。ここで言う分布とは6自由度パラメータ空間で表された分布である。本実施形態では組み付け成功の確率密度分布としてガウス分布を想定し、組み付け成功となる相対的な位置姿勢の分布を求める。図4(a)に、このようにして得られた位置姿勢分布の一例を示す。本例では説明を簡単にするために位置姿勢はx,yの2パラメータで表しているが、実際のフィッティングにおける6パラメータの位置姿勢においても同様に実行することが可能である。この場合、組み付け成功範囲決定部13は、拘束条件生成部12が取得した複数の「相対的な位置姿勢」を用いて、相対位置姿勢の平均ベクトルμと共分散行列Σを算出する。図4(b)に、2次元ガウス分布において確率密度が一定となる等高線を図4(a)に重ねたものを示す。   The assembly success range determination unit 13 inputs an instruction to the user to end the above operation using the operation unit, and upon detecting this input, a plurality of “relative position and orientation” acquired by the constraint condition generation unit 12. Therefore, a probability density distribution of “relative position and orientation” regarded as assembly success is obtained as a condition for determining the success of component assembly. The distribution referred to here is a distribution expressed in a 6-degree-of-freedom parameter space. In this embodiment, a Gaussian distribution is assumed as the probability density distribution of successful assembly, and the relative position and orientation distribution that results in successful assembly is obtained. FIG. 4A shows an example of the position and orientation distribution obtained in this way. In this example, for ease of explanation, the position and orientation are represented by two parameters of x and y, but the same can be executed for the six-parameter position and orientation in actual fitting. In this case, the assembly success range determination unit 13 calculates the average vector μ of the relative position and orientation and the covariance matrix Σ using the plurality of “relative position and orientation” acquired by the constraint condition generation unit 12. FIG. 4B shows a contour line in which probability density is constant in the two-dimensional Gaussian distribution superimposed on FIG.

そして組み付け成功範囲決定部13は、このようにして求めた分布を3次元形状モデル保持部11等のメモリに登録する。このような分布を求めておけば、実際に組み付け元の部品と組み付け先の部品との間の相対的な位置姿勢が、ある位置姿勢Xとなった場合に、この位置姿勢Xが、組み付け成功に該当する位置姿勢であるのかを、この分布を用いて判断することができる。具体的には、分布において位置姿勢Xに対応する分布値(確率密度)が閾値以上であれば、位置姿勢Xは組み付け成功に該当する位置姿勢である、すなわち、組み付け元の部品と組み付け先の部品との組付けは成功であると判断することができる。   Then, the successful assembly range determination unit 13 registers the distribution thus obtained in a memory such as the three-dimensional shape model holding unit 11. If such a distribution is obtained, when the relative position and orientation between the assembly source component and the assembly destination component actually become a certain position and orientation X, this position and orientation X is successfully assembled. This distribution can be used to determine whether the position / posture falls within the range. Specifically, if the distribution value (probability density) corresponding to the position and orientation X in the distribution is greater than or equal to a threshold value, the position and orientation X is a position and orientation corresponding to successful assembly, that is, the assembly source component and the assembly destination It can be determined that the assembly with the part is successful.

なお、本実施形態では、組み付け成功の確率密度分布としてガウス分布を適用したが、相対的な位置姿勢を連続した空間領域として近似する分布であれば他の分布であってもよいし、それぞれの相対的な位置姿勢を包含する方形状の分布を適用してもよい。また、分布の値は連続した実数値であっても構わないし、成功あるいは失敗を2値で表してもよい。次に、情報処理装置1が部品組み付けの成否判定条件を生成するために行う処理について、同処理のフローチャートを示す図5を用いて説明する。   In this embodiment, the Gaussian distribution is applied as the probability density distribution of successful assembly. However, other distributions may be used as long as the distribution approximates the relative position and orientation as a continuous spatial region. A rectangular distribution including a relative position and orientation may be applied. In addition, the distribution value may be a continuous real value, or success or failure may be represented by a binary value. Next, a process performed by the information processing apparatus 1 to generate a component assembly success / failure determination condition will be described with reference to FIG. 5 showing a flowchart of the process.

(ステップS1000)
拘束条件生成部12は、3次元形状モデル保持部11に保存されているデータを用いて、組み付け元の部品の仮想物体と組み付け先の部品の仮想物体とを生成し、該生成したそれぞれの仮想物体を情報処理装置1に接続されている不図示の表示装置に表示する。そして、ユーザは組み付けが完了したと判断した場合には、その旨を操作部を用いて入力するので、拘束条件生成部12は、この入力を検知するたびに、この時点における仮想物体間の相対的な位置姿勢を取得する。
(Step S1000)
Using the data stored in the three-dimensional shape model holding unit 11, the constraint condition generation unit 12 generates a virtual object of the assembly source component and a virtual object of the assembly destination component, and generates the generated virtual objects. The object is displayed on a display device (not shown) connected to the information processing apparatus 1. When the user determines that the assembly has been completed, the fact is input using the operation unit, so that the constraint condition generation unit 12 detects the relative relationship between the virtual objects at this time each time this input is detected. To obtain a specific position and orientation.

(ステップS1100)
組み付け成功範囲決定部13は、ユーザが操作部を用いて上記作業を終了する旨の指示を入力し、この入力を検知すると、拘束条件生成部12が取得した複数の「相対的な位置姿勢」から、組み付け成功とみなす「相対的な位置姿勢」の確率密度分布を、部品組み付けの成否判定条件として求める。
(Step S1100)
The assembly success range determination unit 13 inputs an instruction to the user to end the above operation using the operation unit, and upon detecting this input, a plurality of “relative position and orientation” acquired by the constraint condition generation unit 12. Therefore, a probability density distribution of “relative position and orientation” regarded as assembly success is obtained as a condition for determining the success of component assembly.

このように、本実施形態によれば、分布を指定するという難しい作業を行わずに、組み付けが成功した状態における仮想物体間の相対的な位置姿勢をユーザが指定することで、あそびがある部品であっても、組み付け成否判定を可能にするための情報を生成することができる。   As described above, according to the present embodiment, the user designates the relative position and orientation between the virtual objects in a state where the assembly is successful without performing a difficult task of designating the distribution, so that there is a part with play. Even so, it is possible to generate information for enabling assembly success / failure determination.

<変形例1>
第1の実施形態では、位置や姿勢を拘束条件無しに変動させて仮想物体の組み付けを行っていたが、例えば、組み付け方向をユーザが指定して、6自由度ある相対位置姿勢に拘束を与え、分布を作成するときのパラメータ数を減らして計算してもよい。例えば、並進y方向から組み付ける場合は並進成分y以外のパラメータは固定し、並進成分yのみ変動させて、仮想物体の組み付けを行っても構わない。すなわち、相対的な位置及び/又は姿勢の各成分のうち一部の成分は固定し、ユーザ操作では、相対的な位置及び/又は姿勢の各成分のうち該一部の成分以外の成分を変更する。このように、仮想物体の変動に拘束条件を追加することで、操作の手間を減らして、組み付けが成功状態にある仮想物体間の相対位置姿勢をより厳密に求めることができる。
<Modification 1>
In the first embodiment, the virtual object is assembled by changing the position and orientation without a constraint condition. For example, the user designates the assembly direction and gives a constraint to the relative position and orientation with six degrees of freedom. The calculation may be performed by reducing the number of parameters when creating the distribution. For example, when assembling from the translation y direction, parameters other than the translation component y may be fixed, and only the translation component y may be varied to assemble the virtual object. That is, some of the relative position and / or posture components are fixed, and the user operation changes components other than the partial components of the relative position and / or posture components. To do. As described above, by adding the constraint condition to the fluctuation of the virtual object, it is possible to reduce the time and effort of the operation, and more accurately obtain the relative position and orientation between the virtual objects that are successfully assembled.

<変形例2>
例えば、円筒形状の部品を円筒形状の穴に挿入する場合のように、ある方向の位置姿勢変動(この例の場合は円筒の軸周り回転)が組み付けの成功/失敗には関係がない場合には、拘束条件生成部12では、この方向と、この方向には位置姿勢が自由に変動できること、の2つを指定し、組み付け成功範囲決定部13は、この方向に相当する位置姿勢パラメータ空間中の連続領域を一括して組付け成功となる領域として決定する。これにより、組み付け時に位置姿勢が自由に変動できる部品に関しても、組み付け成否判定を行うことが可能となる。
<Modification 2>
For example, when a position / posture change in one direction (rotation around the axis of the cylinder in this example) is not related to the success / failure of the assembly, such as when a cylindrical part is inserted into a cylindrical hole. The constraint condition generation unit 12 designates this direction and that the position and orientation can be freely changed in this direction, and the assembly success range determination unit 13 specifies a position and orientation parameter space corresponding to this direction. Are determined as regions that are successfully assembled. As a result, it is possible to determine whether assembly is successful or not even for components whose position and orientation can be freely changed during assembly.

<変形例3>
第1の実施形態では、一方の部品に対する他方の部品の組み付けが成功した状態に該当する複数の「一方の部品と他方の部品との間の相対的な位置姿勢」をユーザ操作により指定していた。しかし、逆に、一方の部品に対する他方の部品の組み付けが失敗した状態に該当する複数の「一方の部品と他方の部品との間の相対的な位置姿勢」をユーザ操作により指定しても良い。この場合に組み付け成功範囲決定部13が生成する確率密度分布としてガウス分布を想定し、組み付け失敗となる相対位置姿勢の分布を求める。
<Modification 3>
In the first embodiment, a plurality of “relative positions and orientations between one part and the other part” corresponding to a state where the assembly of the other part to the one part has been successfully designated is designated by a user operation. It was. However, conversely, a plurality of “relative positions and orientations between one part and the other part” corresponding to a state in which the assembly of the other part to the one part has failed may be designated by a user operation. . In this case, a Gaussian distribution is assumed as the probability density distribution generated by the assembly success range determination unit 13, and a relative position and orientation distribution that results in assembly failure is obtained.

このような分布を求めておけば、実際に組み付け元の部品と組み付け先の部品との間の相対的な位置姿勢が、ある位置姿勢Xとなった場合に、この位置姿勢Xが、組み付け成功に該当する位置姿勢であるのかを、この分布を用いて判断することができる。具体的には、分布において位置姿勢Xに対応する分布値が閾値未満であれば、位置姿勢Xは組み付け成功に該当する位置姿勢である、すなわち、組み付け元の部品と組み付け先の部品との組付けは成功であると判断することができる。   If such a distribution is obtained, when the relative position and orientation between the assembly source component and the assembly destination component actually become a certain position and orientation X, this position and orientation X is successfully assembled. This distribution can be used to determine whether the position / posture falls within the range. Specifically, if the distribution value corresponding to the position / orientation X in the distribution is less than the threshold value, the position / orientation X is a position / orientation corresponding to successful assembly, that is, a combination of the assembly source component and the assembly destination component. It can be judged that the date is a success.

また、一方の部品に対する他方の部品の組み付けが成功した状態に該当する相対的な位置姿勢と、失敗した状態に該当する複数の相対的な位置姿勢と、をそれぞれ取得し、組み付け成否の判定に用いてもかまわない。   In addition, a relative position and orientation corresponding to a state in which the assembly of the other part to one part is successful and a plurality of relative position and orientations corresponding to the state in which the assembly has failed are acquired, respectively, for determination of the success or failure of the assembly. You can use it.

[第2の実施形態]
第1の実施形態やその変形例では、組み付けが成功状態にある部品間の相対的な位置及び/又は姿勢は、ユーザが操作部を用いて指定していた。本実施形態では、組み付けが成功状態にあるそれぞれの部品の撮像画像を用いて、部品間の相対的な位置及び/又は姿勢を取得する。
[Second Embodiment]
In the first embodiment and the modifications thereof, the user specifies the relative position and / or orientation between components that have been successfully assembled using the operation unit. In the present embodiment, the relative position and / or orientation between components is acquired using captured images of the components that have been successfully assembled.

本実施形態に係る情報処理装置2の機能構成例について、図6のブロック図を用いて説明する。図6に示した構成は、拘束条件生成部12が画像入力部21及び相対位置姿勢計算部22を有する点、画像入力部21に2次元画像撮像装置26及び距離画像撮像装置27が接続されている点、で図1の構成と異なる。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。   A functional configuration example of the information processing apparatus 2 according to the present embodiment will be described with reference to the block diagram of FIG. In the configuration shown in FIG. 6, the constraint condition generation unit 12 has an image input unit 21 and a relative position and orientation calculation unit 22, and a two-dimensional image pickup device 26 and a distance image pickup device 27 are connected to the image input unit 21. 1 is different from the configuration of FIG. Hereinafter, differences from the first embodiment will be mainly described, and the following description will be made assuming that they are the same as those of the first embodiment unless otherwise specified.

なお、これは第1の実施形態でも同様であるが、仮想物体のデータとしては、図7(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)と、図7(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称し、単に幾何特徴と称した場合は、局所面特徴と局所線特徴の両方を指す)によって構成されるものを用いる。また、図2に示す如く、組み付け元の部品を表す仮想物体299において組み付け先の部品の仮想物体298と接触する箇所(斜線部分)100の幾何特徴と、組み付け先の部品を表す仮想物体298において組み付け元の部品の仮想物体299と接触する箇所(斜線部分)200の幾何特徴と、を参照可能に3次元形状モデル保持部11に登録するようにしても構わない。   This is the same as in the first embodiment, but the virtual object data includes local data on the object surface composed of a three-dimensional position and a three-dimensional normal direction as shown in FIG. 3D plane information (hereinafter referred to as a local surface feature) and a local 3D line on an object contour composed of a 3D position and a 3D line segment direction as shown in FIG. What is constituted by partial information (hereinafter referred to as local line features and simply referred to as geometric features refers to both local surface features and local line features) is used. In addition, as shown in FIG. 2, in the virtual object 299 representing the assembly source part, in the virtual object 298 representing the assembly destination part, the geometric feature of the location (shaded part) 100 that contacts the virtual object 298 of the assembly destination part The geometric feature of the part (shaded part) 200 that contacts the virtual object 299 of the part to be assembled may be registered in the three-dimensional shape model holding unit 11 so that it can be referred to.

2次元画像撮像装置26は、撮像レンズと、撮像素子と、を備えるカメラである。撮像レンズは、撮像対象を撮像素子上に結像させるよう構成された光学系である。撮像素子は、CMOSセンサ、CCDセンサなどの各種光電変換素子である。撮像される画像はグレー画像でもカラー画像でもよいが、本実施形態では、グレー画像であるものとする。撮像レンズの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、[R. Y. Tsai, ”A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses, ” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.]で開示される方法によって事前にキャリブレーションしておく。   The two-dimensional image pickup device 26 is a camera including an image pickup lens and an image pickup device. The imaging lens is an optical system configured to form an image of an imaging target on an imaging device. The image sensor is various photoelectric conversion elements such as a CMOS sensor and a CCD sensor. The captured image may be a gray image or a color image, but in the present embodiment, it is assumed to be a gray image. For internal parameters such as the focal length, principal point position, and lens distortion parameter of the imaging lens, refer to the specifications of the device used or [R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology of R & E and the selenium TV and ens. RA-3, no. 4, 1987. ] Is calibrated in advance by the method disclosed in the above.

距離画像撮像装置27は、計測対象である部品表面上の点の3次元情報を計測する。距離画像撮像装置27として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとしては、波長の異なる色IDを付与したマルチスリットラインを対象に照射し、その反射光をカメラで撮像して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。その他、距離画像を計測するものであれば如何なる装置を距離画像撮像装置27に適用しても構わない。   The distance image capturing device 27 measures three-dimensional information of points on the surface of a component that is a measurement target. A distance sensor that outputs a distance image is used as the distance image capturing device 27. A distance image is an image in which each pixel has depth information. In the present embodiment, the distance sensor is a one-shot active type sensor that irradiates a multi-slit line with a color ID having a different wavelength, images the reflected light with a camera, and performs distance measurement by triangulation. Use. However, the distance sensor is not limited to this, and may be a Time-of-flight method that uses the flight time of light. Moreover, the passive type which calculates the depth of each pixel by the triangulation from the image which a stereo camera image | photographs may be used. In addition, any device that measures a distance image may be applied to the distance image capturing device 27.

なお、距離画像撮像装置27の光軸と2次元画像撮像装置26の光軸とは一致しており、2次元画像撮像装置26が出力する濃淡画像の各画素と、距離画像撮像装置27が出力する距離画像の各画素と、の対応関係は既知であるとする。しかしながら、濃淡画像と距離画像とが同一の視点であることは、条件によっては必須ではない。例えば、濃淡画像を撮像する撮像装置と距離画像を撮像する撮像装置とが別の位置姿勢にあり、濃淡画像と距離画像とをそれぞれ別の視点から撮像しても良い。この場合は、撮像装置間の相対的な位置姿勢は既知であることが必要であり、この相対的な位置姿勢を用いて距離画像中の3次元点群を濃淡画像上に投影することにより、濃淡画像上の各画素と距離画像上の各画素との対応を取る。同一の物体を撮像する撮像装置間の相対的な位置姿勢が既知であり、その画像間の対応が計算できる限り、撮像装置間の位置姿勢関係に特に制限はない。   Note that the optical axis of the distance image pickup device 27 and the optical axis of the two-dimensional image pickup device 26 coincide with each other, and each pixel of the grayscale image output from the two-dimensional image pickup device 26 and the distance image pickup device 27 output. It is assumed that the correspondence relationship with each pixel of the distance image is known. However, depending on conditions, it is not essential that the grayscale image and the distance image have the same viewpoint. For example, the imaging device that captures a grayscale image and the imaging device that captures a range image may be in different positions and orientations, and the grayscale image and the range image may be captured from different viewpoints. In this case, the relative position and orientation between the imaging devices need to be known, and by projecting the three-dimensional point group in the distance image onto the grayscale image using this relative position and orientation, Correspondence between each pixel on the grayscale image and each pixel on the distance image is taken. As long as the relative position and orientation between the imaging devices that capture the same object are known and the correspondence between the images can be calculated, there is no particular limitation on the positional orientation relationship between the imaging devices.

画像入力部21は、2次元画像撮像装置26が撮像した撮像画像及び距離画像撮像装置27が撮像した距離画像を、後段の相対位置姿勢計算部22に対して転送する。2次元画像撮像装置26及び距離画像撮像装置27のそれぞれが動画像を撮像するのであれば、画像入力部21は、2次元画像撮像装置26が撮像した各フレームの撮像画像及び距離画像撮像装置27が撮像した各フレームの距離画像を、後段の相対位置姿勢計算部22に対して転送することになる。   The image input unit 21 transfers the captured image captured by the two-dimensional image capturing device 26 and the distance image captured by the distance image capturing device 27 to the relative position and orientation calculation unit 22 at the subsequent stage. If each of the 2D image capturing device 26 and the distance image capturing device 27 captures a moving image, the image input unit 21 captures the captured image and the distance image capturing device 27 of each frame captured by the 2D image capturing device 26. The distance image of each frame captured by is transferred to the subsequent relative position and orientation calculation unit 22.

相対位置姿勢計算部22は、画像入力部21から転送された撮像画像及び距離画像と、3次元形状モデル保持部11から取得した組み付け元の部品の仮想物体のデータ及び組み付け先の部品の仮想物体のデータと、を用いて、仮想物体間の相対的な位置姿勢を求める。相対位置姿勢計算部22が仮想物体間の相対的な位置姿勢を求めるために行う処理について詳細に説明する。   The relative position / orientation calculation unit 22 includes the captured image and the distance image transferred from the image input unit 21, the virtual object data of the assembly source component acquired from the 3D shape model holding unit 11, and the virtual object of the assembly destination component. And the relative position and orientation between virtual objects are obtained. A process performed by the relative position / orientation calculation unit 22 to obtain a relative position / orientation between virtual objects will be described in detail.

先ず、2次元画像撮像装置26と距離画像撮像装置27に対する組み付け元の部品と組み付け先の部品の位置及び姿勢の概略値を取得する。この概略値は、部品の置かれているおおよその位置や姿勢があらかじめわかっているものとして、その値を概略値として用いる。この概略値はユーザが操作部を用いて入力しても構わないし、この概略値が予め3次元形状モデル保持部11に登録されている場合には、この概略値を3次元形状モデル保持部11から取得すれば良い。すなわち、概略値の取得方法は特定の方法に限るものではない。   First, the approximate values of the positions and orientations of the assembling source component and the assembling destination component for the two-dimensional image capturing device 26 and the distance image capturing device 27 are acquired. This approximate value is used as an approximate value assuming that the approximate position and orientation of the part are known in advance. The approximate value may be input by the user using the operation unit. When the approximate value is registered in the 3D shape model holding unit 11 in advance, the approximate value is input to the 3D shape model holding unit 11. Get it from. That is, the approximate value acquisition method is not limited to a specific method.

例えば、情報処理装置2が時間軸方向に連続して部品の位置及び姿勢の計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いてもよい。また、過去の位置及び姿勢の計測をもとに部品の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した部品の画像をテンプレートとして保持しておき、入力した画像に対してテンプレートマッチングを行うことによって、部品の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる部品の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を部品に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、部品上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであれば如何なるセンサであってもよい。   For example, assuming that the information processing device 2 continuously measures the position and orientation of the component in the time axis direction, the previous measurement value (previous time) may be used as the approximate position and orientation. In addition, the speed and angular velocity of a part may be estimated using a time series filter based on the measurement of the past position and orientation, and the current position and orientation may be predicted from the past position and orientation and the estimated speed / acceleration. . In addition, it is possible to estimate the approximate position and orientation of a component by holding an image of the component captured in various orientations as a template and performing template matching on the input image. Alternatively, when the position and orientation of a part can be measured by another sensor, the output value from the sensor may be used as the approximate value of the position and orientation. The sensor may be, for example, a magnetic sensor that measures the position and orientation by detecting a magnetic field generated by the transmitter with a receiver mounted on a component. Moreover, the optical sensor which measures a position and attitude | position by image | photographing the marker arrange | positioned on components with the camera fixed to the scene may be sufficient. In addition, any sensor may be used as long as it measures a position and orientation with six degrees of freedom.

次に、組み付け元の部品の概略位置姿勢と組み付け先の部品の概略位置姿勢と、に基づいて、距離画像中の3次元点群と、組み付け元の部品の仮想物体及び組み付け先の部品の仮想物体との対応付けを行う。それぞれの部品の概略位置姿勢と校正済みの距離画像撮像装置27の内部パラメータを用いて、仮想物体を構成する各局所面特徴を距離画像上に投影する。そして、投影した各局所面特徴に対応する距離画像上の距離点を、各面に対応する3次元点として保持する。このとき、仮想物体同士が画像上で重なりオクルージョンが発生している場合は、オクルージョン領域の推定を行い、オクルージョン領域における対応付けを抑制しても良い。具体的には、それぞれの仮想物体に対応する部品の概略位置姿勢に基づいて、仮想物体間の相対的な位置姿勢を求め、撮像装置に対する仮想物体間の前後判定を行う。これにより、大まかにオクルージョン領域を推定し、オクルージョンが発生している領域では仮想物体と画像との対応付けを抑制することで処理を行う。   Next, based on the approximate position and orientation of the assembly source component and the approximate location and orientation of the assembly destination component, the three-dimensional point group in the distance image, the virtual object of the assembly source component, and the virtual of the assembly destination component Associate with an object. Each local surface feature constituting the virtual object is projected onto the distance image using the approximate position and orientation of each part and the internal parameters of the calibrated distance image capturing device 27. And the distance point on the distance image corresponding to each projected local surface feature is held as a three-dimensional point corresponding to each surface. At this time, when virtual objects overlap on the image and an occlusion occurs, the occlusion area may be estimated to suppress the association in the occlusion area. Specifically, based on the approximate position and orientation of the parts corresponding to each virtual object, a relative position and orientation between the virtual objects is obtained, and a front-rear determination between the virtual objects with respect to the imaging apparatus is performed. As a result, the occlusion area is roughly estimated, and processing is performed by suppressing the association between the virtual object and the image in the area where the occlusion occurs.

次に、濃淡画像上のエッジと仮想物体との対応付けを行う。それぞれの仮想物体の概略位置姿勢と校正済みの2次元画像撮像装置26の内部パラメータを用いて仮想物体を構成する局所線特徴を画像へ投影し、画像上で検出されたエッジと仮想物体中の局所線特徴とを対応付けする。エッジが各局所線特徴に対応して複数検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。   Next, the edge on the grayscale image is associated with the virtual object. Using the approximate position and orientation of each virtual object and the internal parameters of the calibrated two-dimensional image capturing device 26, local line features constituting the virtual object are projected onto the image, and the detected edges and the virtual object in the virtual object are projected on the image. The local line feature is associated. When a plurality of edges are detected corresponding to each local line feature, among the detected edges, the closest edge on the image is associated with the projected local line feature.

次に、検出した仮想物体中の各線分に対応する濃淡画像上のエッジと、算出した仮想物体中の各面に対応する距離画像中の3次元点との対応データに基づいて、組み付け先の部品および組み付け元の部品の位置及び姿勢を算出する。本ステップでは、算出した対応データに基づいて、計測データと仮想物体との間の誤差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。   Next, based on the correspondence data between the edge on the grayscale image corresponding to each line segment in the detected virtual object and the calculated three-dimensional point in the distance image corresponding to each surface in the virtual object, the assembly destination The position and orientation of the part and the part from which it is assembled are calculated. In this step, the position and orientation are updated by solving the linear simultaneous equations so that the error between the measurement data and the virtual object is minimized based on the calculated correspondence data.

ここで、画像上の距離と3次元空間中での距離は尺度が異なるため、単純に連立方程式を解くだけでは計測データのどちらか一方に寄与率が偏ってしまう可能性がある。そのため、本実施形態では、[立野,小竹,内山,“ビンピッキングのための距離・濃淡画像を最ゆうに統合する高精度高安定なモデルフィッティング手法,”電子情報通信学会論文誌D, 情報・システム J94-D(8), 1410−1422, 2011.]に示すような最尤推定に基づく最適化を行うことで、尺度を合わせた位置姿勢推定を行う。最尤推定に基づく位置姿勢推定方法に関しては、周知であるため、詳細な説明は省略する。詳細は上述の文献を参照されたい。なお、計測対象物体の位置及び姿勢の算出方法は、上述の最尤推定に基づく手法に限るものでなく、例えば、Levenberg‐Marquardt法による繰り返し演算を行っても良いし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。また、最適化計算ベースの位置姿勢算出以外にも、概略の位置及び姿勢を中心に一定範囲において6自由度の値が網羅的にカバーできるように多数の位置及び姿勢を生成し、それぞれの位置及び姿勢において観測できる幾何特徴と濃淡画像及び距離画像とのマッチング具合を評価することで、位置姿勢の推定を行っても良い。   Here, since the distance between the image and the distance in the three-dimensional space are different in scale, there is a possibility that the contribution rate is biased to either one of the measurement data simply by solving the simultaneous equations. Therefore, in this embodiment, [Tateno, Kotake, Uchiyama, “Highly accurate and stable model fitting method that best integrates distance and grayscale images for bin picking,” IEICE Transactions D, Information System J94-D (8), 1410-1422, 2011. By performing the optimization based on the maximum likelihood estimation as shown in FIG. Since the position and orientation estimation method based on the maximum likelihood estimation is well known, detailed description thereof is omitted. Refer to the above-mentioned literature for details. Note that the method of calculating the position and orientation of the measurement target object is not limited to the above-described method based on the maximum likelihood estimation, and may be a simpler method, for example, by performing repetitive calculations using the Levenberg-Marquardt method. It may be performed by the steepest descent method. Further, other nonlinear optimization calculation methods such as a conjugate gradient method and an ICCG method may be used. In addition to the optimization calculation based position and orientation calculation, a large number of positions and orientations are generated so that the values of 6 degrees of freedom can be comprehensively covered within a certain range around the approximate position and orientation. In addition, the position and orientation may be estimated by evaluating the degree of matching between the geometric feature that can be observed in the orientation, the grayscale image, and the distance image.

次に、更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、更新した位置姿勢を用いて、再度位置姿勢算出処理を行う。収束していると判断した場合は、撮像装置と計測対象物体間の相対的な位置姿勢の最終的な推定値が決定される。   Next, it is determined whether or not the updated position and orientation has converged, that is, whether or not iterative calculation is required. Specifically, it is determined that convergence has occurred when the correction value is approximately 0, or when the difference before and after correction of the square sum of the error vectors is approximately 0. If it has not converged, the position and orientation calculation process is performed again using the updated position and orientation. When it is determined that the image has converged, a final estimated value of the relative position and orientation between the imaging device and the measurement target object is determined.

このようにして拘束条件生成部12は、組み付け元の部品の位置姿勢と、組み付け先の部品の位置姿勢と、を求めることができるので、求めたこれらの位置姿勢を用いて、仮想物体間の相対的な位置姿勢を求める。この求めた位置姿勢は、即ち、組み付けが成功状態にある部品間の相対的な位置姿勢である。   In this way, the constraint condition generation unit 12 can determine the position and orientation of the component at the assembly source and the position and orientation of the component at the assembly destination. Find the relative position and orientation. The obtained position / orientation is a relative position / orientation between components that have been successfully assembled.

本実施形態に係る情報処理装置2が部品組み付けの成否判定条件を生成するために行う処理では、ステップS1000において拘束条件生成部12は上記の処理を行うことで、仮想物体間の相対的な位置姿勢を求める。ステップS1100では、第1の実施形態と同様の処理を行う。   In the process performed by the information processing apparatus 2 according to the present embodiment to generate a component assembly success / failure determination condition, the constraint condition generation unit 12 performs the above-described process in step S1000, so that the relative position between the virtual objects is determined. Ask for posture. In step S1100, the same processing as in the first embodiment is performed.

なお、本実施形態では、2次元画像撮像装置26による撮像画像と、距離画像撮像装置27による距離画像と、の両方を用いて仮想物体間の相対的な位置姿勢を求めていたが、何れか一方のみを用いて仮想物体間の相対的な位置姿勢を求めても構わない。   In the present embodiment, the relative position and orientation between the virtual objects are obtained using both the captured image by the two-dimensional image capturing device 26 and the distance image by the distance image capturing device 27. You may obtain | require the relative position and orientation between virtual objects using only one side.

このように、本実施形態によれば、操作者による上記の作業を行うことなく、あそびがある部品であっても、組み付け成否判定を可能にするための情報を生成することができる。   As described above, according to the present embodiment, it is possible to generate information for enabling assembly success / failure determination even for a part with play without performing the above-described work by the operator.

[第3の実施形態]
本実施形態では、拘束条件生成部12は、仮想物体間で取り得る相対位置姿勢のうち、仮想物体間で干渉が生じない相対位置姿勢を取得する。本実施形態に係る情報処理装置3の機能構成例について、図8のブロック図を用いて説明する。図8に示した構成は、拘束条件生成部12が相対位置姿勢設定部31及び部品干渉判定部32を有する点で図1の構成と異なる。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。
[Third Embodiment]
In the present embodiment, the constraint condition generation unit 12 acquires a relative position and orientation that does not cause interference between virtual objects among the relative positions and orientations that can be taken between virtual objects. A functional configuration example of the information processing apparatus 3 according to the present embodiment will be described with reference to the block diagram of FIG. The configuration shown in FIG. 8 is different from the configuration of FIG. 1 in that the constraint condition generation unit 12 includes a relative position and orientation setting unit 31 and a component interference determination unit 32. Hereinafter, differences from the first embodiment will be mainly described, and the following description will be made assuming that they are the same as those of the first embodiment unless otherwise specified.

相対位置姿勢設定部31は、第1の実施形態と同様にして、ユーザにより指定された仮想物体間の相対位置姿勢を複数個取得する。   The relative position / orientation setting unit 31 acquires a plurality of relative positions / orientations between virtual objects designated by the user in the same manner as in the first embodiment.

部品干渉判定部32は、相対位置姿勢設定部31が取得したそれぞれの相対位置姿勢について、該相対位置姿勢を有する仮想物体間に干渉が生じているか否かを判断する。仮想物体間に干渉が生じているか否かを判断する処理は、一般にテレビゲームの分野でもキャラクタ同士の干渉判定を行っていることから周知であるので、この処理に係る説明は省略する。そして部品干渉判定部32は、相対位置姿勢設定部31が取得したそれぞれの相対位置姿勢のうち、仮想物体間に干渉が生じない相対位置姿勢を選択して組み付け成功範囲決定部13に対して出力する。これにより組み付け成功範囲決定部13は、ユーザにより指定された仮想物体間の相対位置姿勢のうち仮想物体間に干渉が生じない相対位置姿勢に基づく確率密度分布を生成することになる。   The component interference determination unit 32 determines, for each relative position / posture acquired by the relative position / posture setting unit 31, whether interference has occurred between virtual objects having the relative position / posture. Since the process of determining whether or not there is interference between virtual objects is generally known since the determination of the interference between characters is also performed in the field of video games, description of this process is omitted. Then, the component interference determination unit 32 selects a relative position and orientation that does not cause interference between virtual objects from among the relative position and orientation acquired by the relative position and orientation setting unit 31, and outputs the selected relative position and orientation to the successful assembly range determination unit 13. To do. Thereby, the assembly success range determination unit 13 generates a probability density distribution based on a relative position and orientation in which no interference occurs between the virtual objects among the relative positions and orientations between the virtual objects designated by the user.

このように、本実施形態によれば、ユーザによって指定された相対位置姿勢のうち、仮想物体間に干渉が生じない相対位置姿勢を組み付け成功範囲決定部13に送出するので、より厳密に組み付け成否判定を可能にするための情報を生成することができる。   As described above, according to the present embodiment, among the relative positions and orientations designated by the user, the relative positions and orientations in which no interference occurs between the virtual objects is sent to the assembly success range determination unit 13. Information for enabling determination can be generated.

<変形例1>
第3の実施形態では、ユーザによって指定された相対位置姿勢に対して干渉判定を行っていたが、他の方法でもって取得した相対位置姿勢に対して干渉判定を行っても良い。例えば、シミュレーションによって様々な相対位置姿勢を発生させ、該発生させたそれぞれの相対位置姿勢について上記の干渉判定を行っても良い。これによって、ユーザによる指定を行わずとも、成否判定を可能にするための情報を生成することができる。
<Modification 1>
In the third embodiment, the interference determination is performed on the relative position and orientation specified by the user. However, the interference determination may be performed on the relative position and orientation acquired by another method. For example, various relative positions and orientations may be generated by simulation, and the above-described interference determination may be performed for each of the generated relative positions and orientations. Thus, information for enabling success / failure determination can be generated without performing designation by the user.

[第4の実施形態]
本実施形態では、第1〜3の実施形態やそれらの変形例で組み付け成功範囲決定部13によって得られた確率密度分布内のそれぞれの相対位置姿勢について、該相対位置姿勢にある仮想物体の位置関係をユーザに視認させる。本実施形態に係る情報処理装置4の機能構成例について、図9のブロック図を用いて説明する。図9に示した構成は、図1の構成に、組み付け成功確認部41を加えたものである。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとして説明する。
[Fourth Embodiment]
In the present embodiment, for each relative position and orientation in the probability density distribution obtained by the assembly success range determination unit 13 in the first to third embodiments and their modifications, the position of the virtual object in the relative position and orientation Let the user see the relationship. A functional configuration example of the information processing apparatus 4 according to the present embodiment will be described with reference to the block diagram of FIG. The configuration shown in FIG. 9 is obtained by adding an assembly success confirmation unit 41 to the configuration of FIG. Hereinafter, differences from the first embodiment will be mainly described, and the following description will be made assuming that they are the same as those of the first embodiment unless otherwise specified.

組み付け成功確認部41は、図11に示す如く、拘束条件生成部12が確率密度分布作成用に取得した相対位置姿勢をプロットした画面(図11では説明を簡単にするために位置姿勢はx,yの2パラメータで表している)を表示装置に表示させる。なお、表示範囲は、組み付け成功範囲決定部13が生成した確率密度分布において、拘束条件生成部12が確率密度分布作成用に取得した相対位置姿勢を含む範囲であり、この範囲を複数の矩形領域に分割して表示している。なお、分割パターンは図11のような均等に分割するパターンに限るものではなく、設定した位置姿勢の個数だけランダムに提示し、ユーザに確認させてもよい。   As shown in FIG. 11, the assembly success confirmation unit 41 plots the relative position and orientation acquired by the constraint condition generation unit 12 for creating the probability density distribution (in FIG. 11, the position and orientation are x, (represented by two parameters of y) is displayed on the display device. The display range is a range including the relative position and orientation acquired by the constraint condition generation unit 12 for creating the probability density distribution in the probability density distribution generated by the assembly success range determination unit 13, and this range is divided into a plurality of rectangular regions. It is divided and displayed. Note that the division pattern is not limited to the pattern that is equally divided as shown in FIG. 11, and the user may check the number of set positions and orientations at random and allow the user to confirm.

ユーザが操作部を用いて、複数の矩形領域のうち1つを指定すると、組み付け成功確認部41は、この指定された矩形領域の中心位置(例えば図中の三角形)に対応する相対位置姿勢を特定し、該相対位置姿勢を有する2つの仮想物体を表示装置に表示させる。これにより、ユーザは、確率密度分布内のそれぞれの矩形領域に対応する仮想物体間の相対的な位置姿勢関係を視認することができる。   When the user designates one of a plurality of rectangular regions using the operation unit, the assembly success confirmation unit 41 sets a relative position and orientation corresponding to the center position (for example, a triangle in the figure) of the designated rectangular region. The two virtual objects having the relative position and orientation are identified and displayed on the display device. Thereby, the user can visually recognize the relative position and orientation relationship between the virtual objects corresponding to the respective rectangular regions in the probability density distribution.

なお、指定対象は矩形領域に限るものではなく、プロットした点(相対位置姿勢)を指定できるようにしてもよい。その場合、指定された点に対応する相対位置姿勢を有する2つの仮想物体を表示装置に表示させることになる。   Note that the designation target is not limited to the rectangular area, and a plotted point (relative position and orientation) may be designated. In that case, two virtual objects having relative positions and orientations corresponding to the designated points are displayed on the display device.

[第5の実施形態]
本実施形態では、ユーザは、組み付け成功確認部41が表示装置に表示させた上記画面中のそれぞれのプロット点を指定したりして、該プロット点に対応する相対位置姿勢が組み付け成功に該当する相対位置姿勢であるのかを確認する。確認方法はこれに限らない。そしてユーザが該プロット点に対応する相対位置姿勢が組み付け成功に該当していないと判断した場合には、該プロット点は対象外である旨を操作部を用いて指定する。指定したプロット点は表示形態を変更しても構わないし、非表示にしても構わない。この指定により、現在の確率密度分布において、指定されたプロット点に対応する相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。
[Fifth Embodiment]
In this embodiment, the user designates each plot point in the screen displayed by the assembly success confirmation unit 41 on the display device, and the relative position and orientation corresponding to the plot point corresponds to the assembly success. Check if it is a relative position and posture. The confirmation method is not limited to this. When the user determines that the relative position and orientation corresponding to the plot point does not correspond to the assembly success, the user designates that the plot point is not a target using the operation unit. The designated plot points may be changed in display form or hidden. By this designation, the probability density distribution is updated by setting the probability density corresponding to the relative position and orientation corresponding to the designated plot point to 0 in the current probability density distribution.

本実施形態に係る情報処理装置5の機能構成例について、図10のブロック図を用いて説明する。図10に示した構成は、図9の情報処理装置4に、組み付け判定部51及び組み付け成功範囲変更部52を加えたものである。以下では、第4の実施形態との相違点について重点的に説明し、以下で特に触れない限りは第4の実施形態と同様であるものとして説明する。   A functional configuration example of the information processing apparatus 5 according to the present embodiment will be described with reference to the block diagram of FIG. The configuration shown in FIG. 10 is obtained by adding an assembling determination unit 51 and an assembling success range changing unit 52 to the information processing apparatus 4 of FIG. Hereinafter, differences from the fourth embodiment will be mainly described, and the description will be made assuming that the fourth embodiment is the same as the fourth embodiment unless otherwise specified.

組み付け判定部51は、プロット点に対する対象外指定を、操作部を介して受け付ける。組み付け成功範囲変更部52は、現在の確率密度分布において、対象外として指定されたプロット点に対応する相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。   The assembly determination unit 51 receives a non-target designation for the plot points via the operation unit. The assembly success range changing unit 52 updates the probability density distribution by setting the probability density corresponding to the relative position and orientation corresponding to the plot point designated as out of target in the current probability density distribution to 0.

このように、本実施形態によれば、拘束条件生成部12が生成した相対位置姿勢が、組み付け成功に該当する相対位置姿勢であるのかをユーザが判断し、その判断結果を、部品組み付けの成否判定条件に反映させることができる。然るに、より正確に組み付け成功範囲を決定することができる。   As described above, according to the present embodiment, the user determines whether the relative position and orientation generated by the constraint condition generation unit 12 is a relative position and orientation corresponding to successful assembly, and the result of the determination is based on whether the component assembly is successful. It can be reflected in the judgment conditions. However, the range of successful assembly can be determined more accurately.

[第6の実施形態]
本実施形態では、組み付け成功範囲を求めた後に組み付け成功判定を伴う処理を実行し、その判定結果に応じて組み付け成功範囲を更新する。以下では、ロボットアームによって部品の組み付け作業を行い、該組み付け作業による組み付け成功判定の結果に応じて、組み付け成功範囲を更新する。本実施形態に係る情報処理装置6の機能構成例を図12に示す。また、本実施形態に係るシステムの外観例を図13に示す。図12,13において既出の参照番号が示すものは以下で特に触れない限りは、既出の説明の通りである。
[Sixth Embodiment]
In this embodiment, after obtaining the assembly success range, a process involving the assembly success determination is executed, and the assembly success range is updated according to the determination result. In the following, a part assembly operation is performed by the robot arm, and the assembly success range is updated according to the result of the assembly success determination by the assembly operation. An example of the functional configuration of the information processing apparatus 6 according to the present embodiment is shown in FIG. An example of the appearance of the system according to this embodiment is shown in FIG. In FIGS. 12 and 13, the reference numerals already shown are the same as described above unless otherwise specified.

ロボット90は、ロボットコントローラ80により制御され、指令された位置にアームの手先を移動させ、物体の把持・組み付け処理などを行う。組み付け済み部品70は、組み付け元の部品と組み付け先の部品により構成される。2次元画像撮像装置26及び距離画像撮像装置27は、ロボット90のアームの手先等の被計測物体(本実施形態の場合は組み付け済み部品70)を撮像できる位置に設置されている。   The robot 90 is controlled by the robot controller 80, moves the arm tip to the commanded position, and performs object grasping / assembling processing and the like. The assembled component 70 includes an assembly source component and an assembly destination component. The two-dimensional image pickup device 26 and the distance image pickup device 27 are installed at positions where an object to be measured (an assembled component 70 in the present embodiment) such as a hand of an arm of the robot 90 can be imaged.

ランタイム相対位置姿勢算出部61は、相対位置姿勢計算部22と同様にして、画像入力部21から転送された撮像画像及び距離画像と、3次元形状モデル保持部11から取得した組み付け元の部品の仮想物体のデータ及び組み付け先の部品の仮想物体のデータと、を用いて、仮想物体間の相対的な位置姿勢を求める。   Similarly to the relative position / orientation calculation unit 22, the runtime relative position / orientation calculation unit 61 includes the captured image and the distance image transferred from the image input unit 21, and the assembly source component acquired from the three-dimensional shape model holding unit 11. Using the virtual object data and the virtual object data of the part to be assembled, the relative position and orientation between the virtual objects are obtained.

より詳しくは、ランタイム相対位置姿勢算出部61は、図2に示すような箇所(斜線部分)100に属する局所面特徴と、箇所(斜線部分)200に属する局所面特徴と、の間で最近傍となるペアの算出を行う。法線付き3次元点間の最近傍対応付けの方法としては、例えば、[大石岳史,中澤篤志,池内克史, ”インデックス画像を用いた複数距離画像の高速同時位置あわせ、” 電子情報通信学会論文誌, Vol.J89−D No.3, pp.513−521,Mar.2006.]等の距離画像位置合わせにおける対応付け方法を用いればよい。そして、ランタイム相対位置姿勢算出部61は、ペアとなった局所面特徴間の相対位置姿勢を算出する。なお、ここでは、組み付けの一部に着目して相対位置姿勢を求めていたが、部品全体に対してモデルフィッティングを行い、相対位置姿勢を推定し、その値を用いてもよい。   More specifically, the runtime relative position / orientation calculation unit 61 is the nearest neighbor between the local surface feature belonging to the location (shaded portion) 100 and the local surface feature belonging to the location (shaded portion) 200 as shown in FIG. The pair that becomes is calculated. For example, [Oshitake Takeshi, Nakazawa Atsushi, Ikeuchi Katsushi, “High-speed simultaneous registration of multiple range images using index images,” IEICE paper Magazine, Vol. J89-D No. 3, pp. 513-521, Mar. 2006. ] Or the like in the distance image alignment may be used. Then, the runtime relative position and orientation calculation unit 61 calculates the relative position and orientation between the paired local surface features. Here, the relative position / orientation is obtained by paying attention to a part of the assembly, but the relative position / orientation may be estimated by performing model fitting on the entire component, and the value may be used.

ロボット90が部品組み付けを終えた後、ランタイム組み付け判定部62は、この組み付けが成功しているか否かをユーザに問い合わせるための画面を表示装置に表示する。ユーザは組み付け済み部品70を視認し、該組み付け済み部品70における組み付けが成功しているか否かの判断結果を操作部を用いて入力するので、ランタイム組み付け判定部62は、この判断結果を取得する。なお、ランタイム組み付け判定部62が、組み付け済み部品70における組み付けが成功しているか否かを示す情報を取得する方法はこれに限るものではなく、例えば、ロボットの圧力センサなどで異常な圧力値を示した時に失敗と判定させてもよい。ランタイム組み付け判定部62は、組み付け済み部品70における組み付けが失敗したか否かを示す情報(操作部を介してユーザが入力)と、この時点でランタイム相対位置姿勢算出部61が求めた相対位置姿勢と、を組み付け成功範囲変更部52に対して送出する。   After the robot 90 finishes assembling the parts, the runtime assembly determination unit 62 displays a screen for inquiring the user as to whether or not the assembly is successful on the display device. The user visually recognizes the assembled component 70 and inputs a determination result as to whether or not the assembly in the assembled component 70 has been successful using the operation unit. Therefore, the runtime assembly determination unit 62 acquires this determination result. . Note that the method for acquiring information indicating whether or not the assembly in the assembled component 70 has been successfully performed by the runtime assembly determination unit 62 is not limited to this. For example, an abnormal pressure value may be obtained using a pressure sensor of a robot. When indicated, it may be determined as a failure. The runtime assembly determination unit 62 includes information indicating whether the assembly of the assembled component 70 has failed (input by the user via the operation unit), and the relative position / posture determined by the runtime relative position / posture calculation unit 61 at this time. Are sent to the assembly success range changing unit 52.

組み付け成功範囲変更部52は、ランタイム組み付け判定部62から受けた「組み付け済み部品70における組み付けが失敗したか否かを示す情報」が「失敗した」ことを示す場合には、現在の確率密度分布において、該情報と共にランタイム組み付け判定部62から受けた相対位置姿勢に対応する確率密度を0にすることで、該確率密度分布を更新する。なお、組み付け成功範囲変更部52は、ランタイム組み付け判定部62から受けた「組み付け済み部品70における組み付けが失敗したか否かを示す情報」が「成功した」ことを示す場合には、現在の確率密度分布において、該情報と共にランタイム組み付け判定部62から受けた相対位置姿勢に対応する確率密度を規定量だけ上げるようにしても構わない。   When the “information indicating whether or not the assembly of the assembled component 70 has failed” received from the runtime assembly determination unit 62 indicates “failed”, the assembly success range changing unit 52 indicates the current probability density distribution. The probability density distribution is updated by setting the probability density corresponding to the relative position and orientation received from the runtime assembly determination unit 62 together with the information to zero. If the “information indicating whether or not the assembly of the assembled component 70 has failed” received from the runtime assembly determination unit 62 indicates “successful”, the assembly success range changing unit 52 indicates the current probability. In the density distribution, the probability density corresponding to the relative position and orientation received from the runtime assembly determination unit 62 together with the information may be increased by a specified amount.

このように、本実施形態によれば、組み付け時における相対位置姿勢及びその成否判定をフィードバックすることによって、より正確に組み付け成功範囲を決定することができる。なお、以上説明した実施形態や変形例はその一部若しくは全部を適宜組み合わせて用いても構わない。   Thus, according to the present embodiment, the assembly success range can be determined more accurately by feeding back the relative position and orientation at the time of assembly and the success / failure determination. In addition, you may use combining embodiment or the modification demonstrated above suitably for one part or all part.

[第7の実施形態]
図1,6,8,9,10,12に示した情報処理装置内の各機能部はハードウェアで構成しても構わないが、ソフトウェア(コンピュータプログラム)で構成しても構わない。この場合、このコンピュータプログラムを保持するメモリと、該コンピュータプログラムを実行する実行部と、を有するコンピュータであれば、上記の各実施形態や変形例で説明した情報処理装置に適用することができる。なお、上記の説明において操作部として説明したものは、マウスやキーボードなどのユーザインターフェースを用いて構成することができるし、表示装置として説明したものは、CRTや液晶画面などを用いて構成することができる。
[Seventh Embodiment]
Each functional unit in the information processing apparatus shown in FIGS. 1, 6, 8, 9, 10, and 12 may be configured by hardware, but may be configured by software (computer program). In this case, any computer having a memory that holds the computer program and an execution unit that executes the computer program can be applied to the information processing apparatuses described in the above embodiments and modifications. In addition, what was demonstrated as an operation part in said description can be comprised using user interfaces, such as a mouse | mouth and a keyboard, and what was demonstrated as a display apparatus should be comprised using CRT, a liquid crystal screen, etc. Can do.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

一方の部品に対する他方の部品の組み付けが成功した状態と失敗した状態の少なくともいずれか一方の状態に該当する複数の、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢、を取得する取得手段と、
前記取得手段が取得した複数の相対的な位置及び/又は姿勢の分布を用いて、前記組み付けが成功したかを判断するための情報を生成する生成手段と
を備えることを特徴とする情報処理装置。
A plurality of relative positions between the one part and the other part corresponding to at least one of a state where the assembly of the other part to the one part is successful and a state where the other part is unsuccessful; and / or An acquisition means for acquiring a posture;
An information processing apparatus comprising: generating means for generating information for determining whether or not the assembling has been successful using distribution of a plurality of relative positions and / or postures acquired by the acquiring means .
前記取得手段は、
ユーザ操作により前記一方の部品を表す仮想物体及び/又は前記他方の部品を表す仮想物体を移動させて前記一方の部品を表す仮想物体に前記他方の部品を表す仮想物体を組み付けた状態にした場合の該一方の部品を表す仮想物体と該他方の部品を表す仮想物体との間の相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。
The acquisition means includes
When a virtual object representing the one part and / or a virtual object representing the other part is moved by a user operation and the virtual object representing the other part is assembled to the virtual object representing the one part The relative position and / or orientation between the virtual object representing the one part and the virtual object representing the other part corresponds to a state in which the assembly of the other part to the one part is successful. The information processing apparatus according to claim 1, wherein the information processing apparatus acquires the relative position and / or posture between the one component and the other component.
前記相対的な位置及び/又は姿勢の各成分のうち一部の成分は固定され、前記ユーザ操作では、前記相対的な位置及び/又は姿勢の各成分のうち該一部の成分以外の成分を変更することを特徴とする請求項2に記載の情報処理装置。   Some of the components of the relative position and / or orientation are fixed, and the user operation allows components other than the some of the components of the relative position and / or orientation to be fixed. The information processing apparatus according to claim 2, wherein the information processing apparatus is changed. 前記取得手段は、
前記一方の部品に前記他方の部品を組み付けた状態における該一方の部品及び該他方の部品の撮像画像から、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。
The acquisition means includes
The relative position and / or posture between the one part and the other part is determined from the captured images of the one part and the other part in a state where the other part is assembled to the one part. And obtaining the relative position and / or orientation between the one part and the other part corresponding to a state in which the assembly of the other part to the one part is successful. The information processing apparatus according to 1.
前記取得手段は、
前記一方の部品と前記他方の部品との間の相対的な位置及び/又は姿勢を用いて、前記一方の部品を表す仮想物体と前記他方の部品を表す仮想物体との間に干渉が生じているか否かを判断し、該干渉が生じていなければ、該相対的な位置及び/又は姿勢を、該一方の部品に対する該他方の部品の組み付けが成功した状態に該当する該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢として取得することを特徴とする請求項1に記載の情報処理装置。
The acquisition means includes
Using a relative position and / or posture between the one part and the other part, interference occurs between a virtual object representing the one part and a virtual object representing the other part. If the interference does not occur, the relative position and / or posture is set to the one component corresponding to the state where the assembly of the other component to the one component is successful. The information processing apparatus according to claim 1, wherein the information processing apparatus is acquired as a relative position and / or orientation with respect to the other component.
前記生成手段は、
前記取得手段が取得した複数の相対的な位置及び/又は姿勢の確率密度分布を、前記一方の部品に対する前記他方の部品の組み付けが成功したか否かを判断するための情報として生成することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
The generating means includes
Generating a probability density distribution of a plurality of relative positions and / or orientations acquired by the acquisition means as information for determining whether or not the assembly of the other part to the one part is successful; The information processing apparatus according to any one of claims 1 to 5, wherein the information processing apparatus is characterized in that:
前記生成手段は、
前記確率密度分布において、ユーザ操作によって指定された相対的な位置及び/又は姿勢に対応する確率密度を0に設定することで該確率密度分布を更新することを特徴とする請求項6に記載の情報処理装置。
The generating means includes
The probability density distribution is updated by setting the probability density corresponding to a relative position and / or posture specified by a user operation to 0 in the probability density distribution. Information processing device.
前記生成手段は、
前記確率密度分布において、ユーザ操作によって指定された相対的な位置及び/又は姿勢に対応する確率密度を規定量だけ上げることで該確率密度分布を更新することを特徴とする請求項6又は7に記載の情報処理装置。
The generating means includes
The probability density distribution is updated by increasing the probability density corresponding to the relative position and / or orientation specified by the user operation by a specified amount in the probability density distribution. The information processing apparatus described.
情報処理装置が行う情報処理方法であって、
前記情報処理装置の取得手段が、一方の部品に対する他方の部品の組み付けが成功した状態と失敗した状態の少なくともいずれか一方の状態に該当する複数の、該一方の部品と該他方の部品との間の相対的な位置及び/又は姿勢、を取得する取得工程と、
前記情報処理装置の生成手段が、前記取得工程で取得した複数の相対的な位置及び/又は姿勢の分布を用いて、前記組み付けが成功したかを判断するための情報を生成する生成工程と
を備えることを特徴とする情報処理方法。
An information processing method performed by an information processing apparatus,
The acquisition unit of the information processing apparatus includes a plurality of the one component and the other component corresponding to at least one of a state where the assembly of the other component to the one component is successful and a state where the other component is unsuccessful. An acquisition step of acquiring a relative position and / or posture between,
A generating step of generating information for determining whether the assembly is successful, using a plurality of relative position and / or orientation distributions acquired in the acquiring step; An information processing method characterized by comprising:
コンピュータを、請求項1乃至8の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 8.
JP2014055618A 2014-03-18 2014-03-18 Information processing apparatus and information processing method Active JP6285765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014055618A JP6285765B2 (en) 2014-03-18 2014-03-18 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014055618A JP6285765B2 (en) 2014-03-18 2014-03-18 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2015178138A true JP2015178138A (en) 2015-10-08
JP6285765B2 JP6285765B2 (en) 2018-02-28

Family

ID=54262577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014055618A Active JP6285765B2 (en) 2014-03-18 2014-03-18 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP6285765B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489449A (en) * 2019-01-29 2020-08-04 株式会社斯巴鲁 Object confirmation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029922A (en) * 1998-07-14 2000-01-28 Fujitsu Ltd Device for verifying interference between parts in device and method therefor
JP2010528318A (en) * 2007-05-29 2010-08-19 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 3D assembly inspection with 2D images
JP2011230245A (en) * 2010-04-28 2011-11-17 Yaskawa Electric Corp Robot system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029922A (en) * 1998-07-14 2000-01-28 Fujitsu Ltd Device for verifying interference between parts in device and method therefor
JP2010528318A (en) * 2007-05-29 2010-08-19 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 3D assembly inspection with 2D images
JP2011230245A (en) * 2010-04-28 2011-11-17 Yaskawa Electric Corp Robot system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489449A (en) * 2019-01-29 2020-08-04 株式会社斯巴鲁 Object confirmation device

Also Published As

Publication number Publication date
JP6285765B2 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6444027B2 (en) Information processing apparatus, information processing apparatus control method, information processing system, and program
JP6370038B2 (en) Position and orientation measurement apparatus and method
JP6180087B2 (en) Information processing apparatus and information processing method
JP6324025B2 (en) Information processing apparatus and information processing method
JP6092530B2 (en) Image processing apparatus and image processing method
JP5612916B2 (en) Position / orientation measuring apparatus, processing method thereof, program, robot system
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
JP6271953B2 (en) Image processing apparatus and image processing method
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
JP6677522B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2011027724A (en) Three-dimensional measurement apparatus, measurement method therefor, and program
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
US10252417B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6180158B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6285765B2 (en) Information processing apparatus and information processing method
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP2012225888A (en) Position posture measurement device and position posture measurement method
JP6766229B2 (en) Position and posture measuring device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180202

R151 Written notification of patent or utility model registration

Ref document number: 6285765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151