JP6821326B2 - Information processing equipment, measurement systems, information processing methods and programs - Google Patents

Information processing equipment, measurement systems, information processing methods and programs Download PDF

Info

Publication number
JP6821326B2
JP6821326B2 JP2016095721A JP2016095721A JP6821326B2 JP 6821326 B2 JP6821326 B2 JP 6821326B2 JP 2016095721 A JP2016095721 A JP 2016095721A JP 2016095721 A JP2016095721 A JP 2016095721A JP 6821326 B2 JP6821326 B2 JP 6821326B2
Authority
JP
Japan
Prior art keywords
viewpoint
measurement
unit
candidate
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016095721A
Other languages
Japanese (ja)
Other versions
JP2017203701A (en
Inventor
智昭 肥後
智昭 肥後
小林 一彦
一彦 小林
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016095721A priority Critical patent/JP6821326B2/en
Publication of JP2017203701A publication Critical patent/JP2017203701A/en
Application granted granted Critical
Publication of JP6821326B2 publication Critical patent/JP6821326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象物体を計測するための情報処理装置、計測システム、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, a measurement system, an information processing method and a program for measuring an object object.

対象物体を様々な視点からセンサによって計測する場合、センサを配置する視点の位置姿勢を事前に決めておく方法や、計測結果を随時確認しながら人がセンサを適切な視点に
移動させる方法等がある。
一方、計測結果等から次に計測すべき視点を自動的に生成することを目的とした技術がネクスト・ベスト・ビュー(Next Best View:NBV)として知られている。この技術は、例えば、距離センサ付きのロボットアームを用いて対象物体表面の三次元形状を撮像して漏れなく自動的に計測するために、対象物体をどこから計測するかとの距離センサの視点を求める場合等に応用される。
特許文献1は、複雑な形状の測定対象を高精度に計測するため、光切断を行う光学プローブから得られた画像データに基づき測定領域の位置情報を算出し、この測定領域の位置情報をもとに光学プローブの移動(スキャン)方向を決める技術を開示する。
When measuring an object object with a sensor from various viewpoints, there are methods such as determining the position and orientation of the viewpoint where the sensor is placed in advance, and a method in which a person moves the sensor to an appropriate viewpoint while checking the measurement results at any time. is there.
On the other hand, a technique aimed at automatically generating a viewpoint to be measured next from measurement results and the like is known as Next Best View (NBV). In this technology, for example, in order to capture a three-dimensional shape of the surface of an object object using a robot arm equipped with a distance sensor and automatically measure the object without omission, the viewpoint of the distance sensor from where the object object is measured is obtained. It is applied in cases.
In Patent Document 1, in order to measure a measurement target having a complicated shape with high accuracy, the position information of the measurement area is calculated based on the image data obtained from the optical probe that performs optical cutting, and the position information of this measurement area is also included. We also disclose a technique for determining the moving (scanning) direction of an optical probe.

特開2014−145735号公報Japanese Unexamined Patent Publication No. 2014-145735

しかしながら、特許文献1の手法では、高精度に形状計測を行うという限定的な条件のもとでしか適用することができない。このため、例えば、高速に形状計測を行いたい場合や、対象物体表面の欠陥検査を行いたい場合等における、次に計測すべき視点を適切に決定することを想定したものではない。従って、多様な計測条件に応じて、それぞれの場合にセンサ等の計測装置が次に対象物体を計測すべき視点(計測位置姿勢)を適切に決定することは困難であった。
本発明は上記課題に鑑みてなされたものであり、多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定することを目的とする。
However, the method of Patent Document 1 can be applied only under the limited condition that shape measurement is performed with high accuracy. Therefore, for example, when it is desired to perform shape measurement at high speed or when it is desired to inspect a defect on the surface of an object object, it is not assumed that the viewpoint to be measured next is appropriately determined. Therefore, it has been difficult for a measuring device such as a sensor to appropriately determine the viewpoint (measurement position / posture) at which the target object should be measured next in each case according to various measurement conditions.
The present invention has been made in view of the above problems, and an object of the present invention is to appropriately determine the viewpoint of a measuring device for measuring an object object next according to various measurement conditions.

上記課題を解決するため、本発明に係る情報処理装置のある態様によれば、対象物体を複数の視点から計測する計測手段により対象物体を計測した計測データを取得する第1の取得手段と、前記計測手段が前記対象物体を撮像する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、次に計測すべき前記計測手段の複数の候補視点を生成し、前記複数の候補視点に、前記第2の取得手段により取得された前記計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を決定する決定手段とを備える情報処理装置が提供される。 In order to solve the above problems, according to an aspect of the information processing apparatus according to the present invention, a first acquisition means for acquiring measurement data obtained by measuring a target object by a measurement means for measuring the target object from a plurality of viewpoints, and a first acquisition means. A second acquisition means for acquiring at least one measurement condition among a plurality of measurement conditions when the measurement means images an image of the target object, the measurement data acquired by the first acquisition means, and the first. Based on the measurement conditions acquired by the second acquisition means, a plurality of candidate viewpoints of the measurement means to be measured next are generated, and the plurality of candidate viewpoints are acquired by the second acquisition means. An information processing apparatus is provided that includes a determination means for determining one or more viewpoints from a plurality of candidate viewpoints by applying an evaluation function corresponding to the measurement conditions .

本発明によれば、多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定することができる。 According to the present invention, it is possible to appropriately determine the viewpoint of the measuring device to measure the target object next according to various measurement conditions.

実施形態1に係る計測システムのブロック図。The block diagram of the measurement system which concerns on Embodiment 1. 計測システムの概略図。Schematic diagram of the measurement system. コンピュータの構成を示すブロック図。A block diagram showing the configuration of a computer. 計測と視点決定処理を示すフローチャート。A flowchart showing the measurement and viewpoint determination process. ポリゴンデータの例を示す図。The figure which shows the example of polygon data. 候補視点の求め方の例を示す図。The figure which shows the example of how to obtain the candidate viewpoint. 候補視点群の生成例を示す図。The figure which shows the generation example of a candidate viewpoint group. 候補視点の例を示す図。The figure which shows the example of the candidate viewpoint. ボクセルの状態の変化を示す図。The figure which shows the change of the state of a voxel. 実施形態2に係る計測システムのブロック図。The block diagram of the measurement system which concerns on Embodiment 2. 実施形態3に係る計測システムのブロック図。The block diagram of the measurement system which concerns on Embodiment 3. 候補視点を更新する処理の例を示す概念図。A conceptual diagram showing an example of a process for updating a candidate viewpoint. 実施形態4に係る計測システムのブロック図。The block diagram of the measurement system which concerns on Embodiment 4. 変形例に係る計測システムのブロック図。The block diagram of the measurement system which concerns on the modification. 変形例に係る計測システムのブロック図。The block diagram of the measurement system which concerns on the modification.

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
<実施形態1>
実施形態1に係る計測システムは、計測条件のうち、計測対象物体を計測する用途に応じて、計測対象物体を次に計測すべき計測装置(撮像部)の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測(撮像)を行うことによって、用途に応じた計測を行うものである。実施形態1に係る計測システムでは、計測対象物体を計測する用途を、複数の用途の中からユーザに選択させることにより、ユーザの要求に応える計測が可能である。計測対象物体の計測には、例えば計測対象物体の撮像が含まれるが、計測対象物体上の点群の座標の計測等も含まれる。
実施形態1では、複数の用途の例として、計測対象物体の三次元形状計測、欠陥検査、特定物体認識、人物監視の4つの用途を選択可能な場合について説明するが、実施形態1を適用可能な計測の用途はこれらに限定されない。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. The present invention is described below. It is not limited to the embodiment.
<Embodiment 1>
The measurement system according to the first embodiment appropriately determines the viewpoint of the measuring device (imaging unit) for measuring the measurement target object next, depending on the application for measuring the measurement target object among the measurement conditions. By measuring (imaging) the object to be measured while sequentially moving the imaging unit to the determined viewpoint, the measurement is performed according to the application. In the measurement system according to the first embodiment, it is possible to perform measurement in response to a user's request by allowing the user to select an application for measuring an object to be measured from a plurality of applications. The measurement of the measurement target object includes, for example, imaging of the measurement target object, but also includes measurement of the coordinates of a point cloud on the measurement target object.
In the first embodiment, as an example of a plurality of uses, a case where four uses of the three-dimensional shape measurement of the object to be measured, defect inspection, specific object recognition, and person monitoring can be selected will be described, but the first embodiment can be applied. The application of various measurements is not limited to these.

[実施形態1の構成]
図1は、実施形態1に係る計測システムの構成例を示すブロック図である。この計測システムは、計測対象物体5を撮像して画像データや関連情報を出力する撮像部2と、撮像部2が計測対象物体5を撮像する視点を設定する視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置1とを備えている。情報処理装置1は、撮像部2と視点設定部3とにそれぞれ接続されている。
図2の概略図に示すように、撮像部2は、例えばカメラにより構成され、計測対象物体5を様々な複数の視点から計測するために、視点設定部3に取り付けられている。撮像部2が出力する計測データは、例えば計測対象物体5を撮像したカラー画像と距離画像である。ただし、撮像部2が出力する計測データはこれらに限定されるものではなく、カラー画像または距離画像のいずれか一方でもよいし、その他モノクロ画像や距離点群あるいは計測対象物体上の点群の座標等でもよい。すなわち、計測データは画像に限られず、撮像部2は、計測対象物体を複数の視点から計測した計測データを出力するものであればよい。
[Structure of Embodiment 1]
FIG. 1 is a block diagram showing a configuration example of the measurement system according to the first embodiment. This measurement system includes an imaging unit 2 that captures an object 5 to be measured and outputs image data and related information, a viewpoint setting unit 3 that sets a viewpoint at which the imaging unit 2 images the object 5 to be measured, and an imaging unit 2. It is provided with an information processing device 1 that controls the viewpoint setting unit 3 according to the information from. The information processing device 1 is connected to the image pickup unit 2 and the viewpoint setting unit 3, respectively.
As shown in the schematic view of FIG. 2, the imaging unit 2 is composed of, for example, a camera, and is attached to the viewpoint setting unit 3 in order to measure the object 5 to be measured from various viewpoints. The measurement data output by the image pickup unit 2 is, for example, a color image and a distance image obtained by capturing the measurement target object 5. However, the measurement data output by the imaging unit 2 is not limited to these, and may be either a color image or a distance image, or the coordinates of a monochrome image, a distance point cloud, or a point cloud on the object to be measured. Etc. may be used. That is, the measurement data is not limited to the image, and the imaging unit 2 may output the measurement data obtained by measuring the object to be measured from a plurality of viewpoints.

撮像部2は、撮像したカラー画像および距離画像を、情報処理装置1のデータ取得部11と視点決定部12に供給する。
視点設定部3は、例えば図2に示すロボットアーム3aと、このロボットアーム3aを制御する図示しないアーム制御部とを備えている。ロボットアーム3aの先端には撮像部2が取り付けられている。アーム制御部は、情報処理装置1から計測対象物体5を次に撮像すべき撮像部2の視点を受信し、次に撮像すべき視点から撮像部2が撮像できるようにロボットアーム3aを制御して撮像部2を移動させる。すなわち、視点設定部3は、受信した視点に基づいて撮像部2の位置姿勢を設定する。また、視点設定部3は、移動した撮像部2の視点を特定する位置姿勢情報(以下、「視点位置姿勢情報」と称する。)を情報処理装置1のデータ取得部11に供給する。
The imaging unit 2 supplies the captured color image and distance image to the data acquisition unit 11 and the viewpoint determination unit 12 of the information processing device 1.
The viewpoint setting unit 3 includes, for example, a robot arm 3a shown in FIG. 2 and an arm control unit (not shown) that controls the robot arm 3a. An imaging unit 2 is attached to the tip of the robot arm 3a. The arm control unit receives from the information processing device 1 the viewpoint of the imaging unit 2 to image the object 5 to be measured next, and controls the robot arm 3a so that the imaging unit 2 can image from the viewpoint to be imaged next. The imaging unit 2 is moved. That is, the viewpoint setting unit 3 sets the position and orientation of the imaging unit 2 based on the received viewpoint. Further, the viewpoint setting unit 3 supplies the position / orientation information (hereinafter, referred to as “viewpoint position / orientation information”) that identifies the viewpoint of the moved imaging unit 2 to the data acquisition unit 11 of the information processing device 1.

図1に戻り、次に、情報処理装置1の内部の構成について説明する。
情報処理装置1は、データ取得部11と、視点決定部12と、計測対象物体5を計測する用途を含む計測条件を取得する条件取得部13とを備えている。
データ取得部11は、撮像部2から供給されたカラー画像、距離画像および視点設定部3から供給された視点位置姿勢情報を用いて用途に応じたデータ処理を行う。視点決定部12は、次に撮像すべき視点を決定し、視点設定部3に供給する。
視点決定部12は、データ取得部11から供給されたデータから、撮像部2の視点を決定する。視点決定部12は、候補視点を生成する候補視点生成部121と、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行う候補視点評価部122とを備えている。
条件取得部13は、計測対象物体5を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する。実施形態1においては、条件取得部13は、計測対象物体5を計測する用途の情報を取得する用途取得部131を備えている。
Returning to FIG. 1, next, the internal configuration of the information processing apparatus 1 will be described.
The information processing device 1 includes a data acquisition unit 11, a viewpoint determination unit 12, and a condition acquisition unit 13 for acquiring measurement conditions including an application for measuring a measurement target object 5.
The data acquisition unit 11 performs data processing according to the application by using the color image, the distance image, and the viewpoint position / orientation information supplied from the viewpoint setting unit 3 supplied from the imaging unit 2. The viewpoint determination unit 12 determines the viewpoint to be imaged next and supplies the viewpoint to the viewpoint setting unit 3.
The viewpoint determination unit 12 determines the viewpoint of the imaging unit 2 from the data supplied from the data acquisition unit 11. The viewpoint determination unit 12 includes a candidate viewpoint generation unit 121 that generates candidate viewpoints, and a candidate viewpoint evaluation unit 122 that evaluates the candidate viewpoints generated by the candidate viewpoint generation unit 121 according to the intended use.
The condition acquisition unit 13 acquires at least one measurement condition out of a plurality of measurement conditions when measuring the measurement target object 5. In the first embodiment, the condition acquisition unit 13 includes an application acquisition unit 131 that acquires information on the application for measuring the measurement target object 5.

実施形態1では、条件取得部13の用途取得部131が取得した用途の情報に応じて情報処理装置1内部の動作を変化させるため、まずは動作の概略についてのみ説明し、その後で、用途ごとに場合分けして動作の詳細を説明する。
データ取得部11は、撮像部2からカラー画像と距離画像を受け取り、用途に応じたデータ統合処理等のデータ処理を実行して出力結果を生成する。そして、データ取得部11は、出力結果を視点決定部12に供給する。
視点決定部12は、データ取得部11から供給される出力結果と、条件取得部13から供給される用途とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。視点決定部12は、決定した視点を視点設定部3に供給する。
具体的には、候補視点生成部121が、撮像部2の解像度や画角、被写界深度等のセンサ情報に基づいて、用途に応じた少なくとも1つの候補視点を生成する。候補視点評価部122は、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行い、決定視点を選択する。候補視点評価部122は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
In the first embodiment, since the operation inside the information processing apparatus 1 is changed according to the information of the application acquired by the application acquisition unit 131 of the condition acquisition unit 13, only the outline of the operation will be described first, and then for each application. The details of the operation will be described for each case.
The data acquisition unit 11 receives a color image and a distance image from the imaging unit 2, executes data processing such as data integration processing according to the application, and generates an output result. Then, the data acquisition unit 11 supplies the output result to the viewpoint determination unit 12.
The viewpoint determining unit 12 determines the viewpoint of the imaging unit 2 to measure the object 5 to be measured next according to the output result supplied from the data acquisition unit 11 and the application supplied from the condition acquisition unit 13. .. The viewpoint determination unit 12 supplies the determined viewpoint to the viewpoint setting unit 3.
Specifically, the candidate viewpoint generation unit 121 generates at least one candidate viewpoint according to the application based on sensor information such as the resolution, angle of view, and depth of field of the imaging unit 2. The candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 121 according to the intended use, and selects a determination viewpoint. The candidate viewpoint evaluation unit 122 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

条件取得部13は、複数の計測条件のうち少なくとも1つの計測条件を取得して、その情報を視点決定部12に供給する。実施形態1では、用途取得部131が計測対象物体を計測する用途の情報を取得して、用途の情報を視点決定部12に供給する。用途の情報には、例えば三次元形状計測、欠陥検査、特定物体認識、人物監視のいずれか1つ以上が含まれる。
実施形態1において用途取得部131が用途を取得する方法は、図示しないタッチディスプレイに各用途に対応する画像を表示させ、ユーザに用途を選択させる方法であってよい。ただし、用途を取得する方法はこの例に限定されるものではなく、用途取得部131が、ユーザからの音声入力によって用途を取得するようにしてもよい。あるいは、例えば3Dプリンタ等の他の装置と接続されている場合には、接続されている装置に応じて、用途取得部131が自動的に用途を判断して選択するようにしてもよい。これにより、例えば3Dプリンタ等が接続されている場合には、用途取得部131が自動的に用途を判断して三次元形状計測を用途として選択する。
The condition acquisition unit 13 acquires at least one measurement condition out of the plurality of measurement conditions and supplies the information to the viewpoint determination unit 12. In the first embodiment, the application acquisition unit 131 acquires information on the application for measuring the object to be measured, and supplies the information on the application to the viewpoint determination unit 12. The usage information includes, for example, one or more of three-dimensional shape measurement, defect inspection, specific object recognition, and person monitoring.
In the first embodiment, the method of acquiring the application by the application acquisition unit 131 may be a method of displaying an image corresponding to each application on a touch display (not shown) and allowing the user to select the application. However, the method of acquiring the usage is not limited to this example, and the usage acquisition unit 131 may acquire the usage by voice input from the user. Alternatively, when connected to another device such as a 3D printer, the application acquisition unit 131 may automatically determine and select the application according to the connected device. As a result, for example, when a 3D printer or the like is connected, the application acquisition unit 131 automatically determines the application and selects the three-dimensional shape measurement as the application.

図1に示す各機能ブロックはプログラムとして、後述するROM22等の記憶部に記憶され、CPU21によって実行される。尚、図1に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。 Each functional block shown in FIG. 1 is stored as a program in a storage unit such as ROM 22 described later, and is executed by the CPU 21. At least a part of the functional blocks shown in FIG. 1 may be realized by hardware. When it is realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from the program for realizing each step. FPGA is an abbreviation for Field Programmable Gate Array. Further, a Gate Array circuit may be formed in the same manner as the FPGA and realized as hardware. Further, it may be realized by ASIC (Application Specific Integrated Circuit).

図3は、情報処理装置1のハードウェア構成の一例を示している。情報処理装置1は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、出力部26を備えている。CPU21は、入力された信号やプログラムに従って、各種の演算や情報処理装置1を構成する各部分の制御を行う。具体的には、CPU21は、撮像部2からの情報に応じて計測と視点決定処理を実行し、次に撮像すべき視点を決定する。前述した図1の機能ブロックは、CPU21によって実行される機能を図示したものである。ROM22は、図1に示した各機能部を実行するためのプログラムや、各種の設定情報を記憶する。RAM23は、一時的なデータを記憶し、CPU21の作業用に使われる。外部メモリ24は、例えば、着脱可能なメモリカードであり、PC(パーソナルコンピュータ)等に装着してデータを読み出すことが可能である。
入力部25は、撮像部2から入力した情報をRAM23あるいは外部メモリ24の所定の領域に格納する。出力部26は、CPU21が決定した次に撮像すべき視点を視点設定部3に供給する。
FIG. 3 shows an example of the hardware configuration of the information processing device 1. The information processing device 1 includes a CPU 21, a ROM 22, a RAM 23, an external memory 24, an input unit 25, and an output unit 26. The CPU 21 performs various calculations and controls each part constituting the information processing apparatus 1 according to the input signal or program. Specifically, the CPU 21 executes measurement and viewpoint determination processing according to information from the imaging unit 2, and then determines a viewpoint to be imaged. The functional block of FIG. 1 described above illustrates a function executed by the CPU 21. The ROM 22 stores a program for executing each functional unit shown in FIG. 1 and various setting information. The RAM 23 stores temporary data and is used for the work of the CPU 21. The external memory 24 is, for example, a removable memory card, and can be attached to a PC (personal computer) or the like to read data.
The input unit 25 stores the information input from the image pickup unit 2 in a predetermined area of the RAM 23 or the external memory 24. The output unit 26 supplies the viewpoint setting unit 3 with the viewpoint to be imaged next, which is determined by the CPU 21.

[計測と視点決定処理]
図4は、図1の計測システムにより実行される計測および視点決定処理の詳細を示すフローチャートである。図4のフローチャートは、情報処理装置1が備えるCPU21が、ROM22等に記憶されるプログラムを実行することにより処理される。この処理は、計測対象物体5の計測処理の実行が指示されている間に実行される処理であり、例えばユーザが図示しない計測開始ボタンを押すことによって開始される処理である。
以下、図4のフローチャートにより実施形態1の計測システムによる計測と視点決定処理を説明する。実施形態1では、後に場合分けして説明する用途によらず、全体の処理の流れについては同じ図4のフローチャートを用いて説明する。
[Measurement and viewpoint determination processing]
FIG. 4 is a flowchart showing details of the measurement and viewpoint determination processing executed by the measurement system of FIG. The flowchart of FIG. 4 is processed by the CPU 21 included in the information processing device 1 executing a program stored in the ROM 22 or the like. This process is a process that is executed while the execution of the measurement process of the measurement target object 5 is instructed, and is, for example, a process that is started when the user presses a measurement start button (not shown).
Hereinafter, the measurement and the viewpoint determination process by the measurement system of the first embodiment will be described with reference to the flowchart of FIG. In the first embodiment, the entire processing flow will be described with reference to the same flowchart of FIG. 4, regardless of the use described later in each case.

S1では、計測システムにおいて初期化処理が実行される。この初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部13の用途取得部131における用途の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S2では、撮像部2は、現在位置する視点から計測対象物体5を撮像して、カラー画像および距離画像を取得する。そして、撮像部2は、取得したカラー画像および距離画像をデータ取得部11に供給する。また、視点設定部3は、視点位置姿勢情報をデータ取得部11に供給する。
In S1, the initialization process is executed in the measurement system. In this initialization process, the imaging unit 2 is activated, the viewpoint setting unit 3 is activated, the usage acquisition unit 131 of the condition acquisition unit 13 is acquired, the background model is read, and the imaging unit 2 is moved to the initial viewpoint. Etc. are included. The initial viewpoint may be freely determined within the range in which the measurement target object 5 can be observed.
In S2, the imaging unit 2 images the measurement target object 5 from the viewpoint at which the current position is located, and acquires a color image and a distance image. Then, the imaging unit 2 supplies the acquired color image and distance image to the data acquisition unit 11. Further, the viewpoint setting unit 3 supplies the viewpoint position / orientation information to the data acquisition unit 11.

S3では、データ取得部11は、撮像部2から供給されたカラー画像、距離画像、および視点設定部3から供給された視点位置姿勢情報に対し、用途取得部131が取得した用途に応じたデータ処理を実行する。データ取得部11は、データ処理後のデータを、視点決定部12に供給する。
実施形態1において「用途に応じたデータ処理」は、後述のように、三次元形状計測、欠陥検査、特定物体認識、人物監視の各用途に応じたデータ処理であり、詳細は後述する。なお、このデータ処理を実行する機能は、データ取得部11とは別の機能部として設けてもよいし、情報処理装置1の外部に設けてもよい。あるいは、データ処理を実行する機能を撮像部2の機能として設け、データ処理の結果を、計測データとしてデータ取得部111に供給するようにしてもよい。
In S3, the data acquisition unit 11 receives data according to the application acquired by the application acquisition unit 131 with respect to the color image and the distance image supplied from the imaging unit 2 and the viewpoint position / orientation information supplied from the viewpoint setting unit 3. Execute the process. The data acquisition unit 11 supplies the data after the data processing to the viewpoint determination unit 12.
In the first embodiment, "data processing according to the application" is data processing according to each application of three-dimensional shape measurement, defect inspection, specific object recognition, and person monitoring, as described later, and the details will be described later. The function for executing this data processing may be provided as a functional unit separate from the data acquisition unit 11, or may be provided outside the information processing device 1. Alternatively, a function for executing data processing may be provided as a function of the imaging unit 2, and the result of the data processing may be supplied to the data acquisition unit 111 as measurement data.

S4では、データ取得部11は、ユーザが図示しない計測終了ボタンを押しているかどうかを判定し、計測終了ボタンが押されていれば計測を終了する。一方、まだ計測終了ボタンが押されていない場合には、S5に進む。
S5では、視点決定部12は、データ取得部11から供給されたデータ処理後のデータと用途取得部131が取得した用途とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、視点決定部12において、候補視点生成部121が、1または複数の候補視点を生成する。また、候補視点評価部122が、生成された候補視点を評価し、条件を満たす中で最も評価が高かった視点を決定視点として選択する。視点決定部12は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
In S4, the data acquisition unit 11 determines whether or not the user has pressed a measurement end button (not shown), and ends the measurement if the measurement end button is pressed. On the other hand, if the measurement end button has not been pressed yet, the process proceeds to S5.
In S5, the viewpoint determination unit 12 determines the viewpoint of the image pickup unit 2 to be imaged next based on the data after data processing supplied from the data acquisition unit 11 and the application acquired by the application acquisition unit 131. More specifically, in the viewpoint determination unit 12, the candidate viewpoint generation unit 121 generates one or a plurality of candidate viewpoints. In addition, the candidate viewpoint evaluation unit 122 evaluates the generated candidate viewpoint and selects the viewpoint with the highest evaluation among the conditions as the determination viewpoint. The viewpoint determination unit 12 supplies the selected determination viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

S6では、視点設定部3は、視点決定部12から受け取った次に撮像すべき視点に基づいて撮像部2を移動させる。この後、再びS2へ戻り、各部がS2からS6の処理を繰り返す。
なお、以上では、S4において、計測終了ボタンが押されているか否かで計測の終了を判定する例について述べたが、これに限定されるものではない。例えば、図示しない終了判定部がデータ取得部11から得られたデータと用途に基づいて終了すべきかどうかを判定するようにしてもよい。すなわち、終了判定部が、計測データに基づいて、視点の決定の終了条件を判定する。
In S6, the viewpoint setting unit 3 moves the image pickup unit 2 based on the viewpoint to be imaged next received from the viewpoint determination unit 12. After that, the process returns to S2 again, and each part repeats the processes from S2 to S6.
In the above, in S4, an example in which the end of measurement is determined based on whether or not the measurement end button is pressed has been described, but the present invention is not limited to this. For example, an end determination unit (not shown) may determine whether or not to end based on the data obtained from the data acquisition unit 11 and the intended use. That is, the end determination unit determines the end condition for determining the viewpoint based on the measurement data.

次に、情報処理装置1の内部の動作に関して、三次元形状計測、欠陥検査、特定物体認識、人物監視のそれぞれの用途の情報が取得された場合の動作と、複数の用途を組合せた場合の動作について、具体的な処理内容を順に説明する。
[用途1:三次元形状計測]
条件取得部13の用途取得部131において計測の用途として三次元形状計測が取得された場合には、データ取得部11は、計測対象物体5の全周からの三次元モデルを生成する。本計測において次に計測(撮像)する視点を選択する基準は、三次元モデルにおいて形状が途切れている箇所や穴が無くなるようにすることである。
具体的には、この三次元形状計測では、データ取得部11は、撮像部2から受け取ったカラー画像と距離画像と、視点設定部3から得られる視点位置姿勢情報とを用いて、計測された三次元点群の計測対象物体5の座標系における位置を求める。
Next, regarding the internal operation of the information processing device 1, the operation when the information of each application of three-dimensional shape measurement, defect inspection, specific object recognition, and person monitoring is acquired, and the operation when a plurality of applications are combined. The specific processing contents will be described in order for the operation.
[Use 1: 3D shape measurement]
When the usage acquisition unit 131 of the condition acquisition unit 13 acquires the three-dimensional shape measurement as the measurement purpose, the data acquisition unit 11 generates a three-dimensional model from the entire circumference of the measurement target object 5. In this measurement, the criterion for selecting the viewpoint to be measured (imaging) next is to eliminate the part where the shape is interrupted or the hole in the three-dimensional model.
Specifically, in this three-dimensional shape measurement, the data acquisition unit 11 measures using the color image and the distance image received from the imaging unit 2 and the viewpoint position / orientation information obtained from the viewpoint setting unit 3. The position of the measurement target object 5 of the three-dimensional point cloud in the coordinate system is obtained.

より詳細には、データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られた距離画像と視点位置姿勢情報を用い、距離画像中の各画素に対応する三次元点群の座標を求める。さらに、データ取得部11は、求めた三次元点群の座標を、計測対象物体5の座標系における三次元点群の座標に変換して、点群を統合する。ここで、「統合」とは、先に供給された距離画像から求めた点群のデータと、新たに供給された距離画像から求めた点群のデータとをマージする動作を意味している。 More specifically, the data acquisition unit 11 is supplied with the color image, the distance image, and the viewpoint position / orientation information captured while changing the viewpoint one after another in S3 of FIG. 4 until the measurement is completed. The data acquisition unit 11 uses the newly obtained distance image and the viewpoint position / orientation information to obtain the coordinates of the three-dimensional point cloud corresponding to each pixel in the distance image. Further, the data acquisition unit 11 converts the obtained coordinates of the three-dimensional point cloud into the coordinates of the three-dimensional point cloud in the coordinate system of the object 5 to be measured, and integrates the point clouds. Here, "integration" means an operation of merging the point cloud data obtained from the previously supplied distance image and the point cloud data obtained from the newly supplied distance image.

ただし、距離画像から取得された三次元点群には、計測対象物体5に属する点群だけでなく、背景物体に属する点群も含まれている。このため、データ取得部11は、予め取得してある背景モデルを用いて背景物体に属する点群を除去し、計測対象物体5に属する点群だけを統合する。
また、視点設定部3のロボットアーム3aの位置姿勢の制御によっては、視点位置姿勢情報に誤差が含まれている。このため、データ取得部11は、得られた三次元点群にずれが生じる場合には、ICP(Iterative Closest Point)等の位置合わせ手法を用いて点群の位置合わせを行った上で、点群を統合する。
However, the three-dimensional point cloud acquired from the distance image includes not only the point cloud belonging to the measurement target object 5 but also the point cloud belonging to the background object. Therefore, the data acquisition unit 11 removes the point cloud belonging to the background object by using the background model acquired in advance, and integrates only the point cloud belonging to the measurement target object 5.
Further, depending on the control of the position / orientation of the robot arm 3a of the viewpoint setting unit 3, the viewpoint position / orientation information includes an error. Therefore, when the obtained three-dimensional point cloud is deviated, the data acquisition unit 11 aligns the point cloud by using an alignment method such as ICP (Iterative Closet Point), and then points. Integrate the group.

また、三次元モデルは、上記のように、得られた形状に途切れている箇所や穴があるかどうかが問題となるため、データ取得部11は、統合した点群のデータからメッシュを生成してポリゴンデータとする。このポリゴンデータにおいて、点群同士が離れすぎている場合には、データ取得部11は、途切れている箇所や穴があるとして、当該箇所を特定する。なお、ポリゴンデータにカラー画像の情報を付加して、テクスチャ付きのポリゴンデータとしてもよいし、色付き点群のポリゴンデータとしてもよい。
また、計測の終了は、図示しない終了判定部が、データ取得部11からポリゴンデータを受け取り、この終了判定部が、ポリゴンデータに途切れている箇所や穴が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、途切れている箇所や穴がある場合には、次の視点を決定するように視点決定部12に指示し、途切れている箇所や穴が無い場合には、計測を終了させてもよい。
Further, as described above, in the three-dimensional model, whether or not there is a break or a hole in the obtained shape becomes a problem, so the data acquisition unit 11 generates a mesh from the integrated point cloud data. And use it as polygon data. In this polygon data, when the point clouds are too far apart, the data acquisition unit 11 identifies the portion as if there is a break or a hole. In addition, color image information may be added to the polygon data to obtain textured polygon data, or colored point cloud polygon data may be used.
Further, the end of the measurement is determined by the end determination unit (not shown) receiving the polygon data from the data acquisition unit 11 and confirming whether or not there is a break or a hole in the polygon data. You may. In this case, the end determination unit instructs the viewpoint determination unit 12 to determine the next viewpoint when there is a break or a hole, and when there is no break or a hole, the end determination unit measures. You may end it.

また、S5において、視点決定部12には、データ取得部11からポリゴンデータが供給され、条件取得部13から三次元形状計測が用途であることを示す情報が供給される。視点決定部12は、ポリゴンデータと用途の情報から、次に計測(撮像)すべき撮像部2の視点を決定する。
ここで、距離画像からは一番手前の物体の表面上の点群しか求めることができず、影になった部分の点群は求めることができない。このため、限定された数の視点からの距離画像だけでは、計測対象物体5のポリゴンデータに、途切れている箇所や穴が生じる場合がある。したがって、候補視点生成部121は、ポリゴンデータにおいて途切れている箇所や穴がある場所を特定する。
Further, in S5, polygon data is supplied from the data acquisition unit 11 to the viewpoint determination unit 12, and information indicating that the three-dimensional shape measurement is used is supplied from the condition acquisition unit 13. The viewpoint determination unit 12 determines the viewpoint of the image pickup unit 2 to be measured (imaging) next from the polygon data and the usage information.
Here, only the point cloud on the surface of the foremost object can be obtained from the distance image, and the point cloud of the shadowed portion cannot be obtained. For this reason, the polygon data of the object 5 to be measured may have a break or a hole only with a limited number of distance images from the viewpoint. Therefore, the candidate viewpoint generation unit 121 identifies a place where there is a break or a hole in the polygon data.

以下、図5を用いて、ポリゴンデータにおいて途切れている箇所や穴がある場所を検出する方法を説明する。図5(A)は、ポリゴンデータにおけるメッシュの定義の例を示している。ポリゴンデータ中では、頂点(5A、5B...)毎に三次元座標が対応付けられている。また、ポリゴンデータ中では、あるエッジ5Cに対してはその両端の頂点5Aと頂点5Bが対応付けられている。また、ポリゴンデータ中では、面5D、5Eに対しては対応する頂点群(頂点5A、5B...)あるいはエッジ群(5C...)が対応付けられている。
このようなポリゴンデータ中において、例えば図5(B)に太線で示すように、メッシュが途切れている箇所5Gや穴5Fがある場所では、面の頂点と頂点を結ぶエッジに対して、片側にしか面が存在していない。そこで、視点決定部12は、ポリゴンデータにおいて、エッジの片側にしか面が存在しないエッジ(未接続エッジ)を見つけ出すことで、途切れている箇所や穴を検出する。
Hereinafter, a method of detecting a break or a hole in the polygon data will be described with reference to FIG. FIG. 5A shows an example of a mesh definition in polygon data. In the polygon data, three-dimensional coordinates are associated with each vertex (5A, 5B ...). Further, in the polygon data, the vertices 5A and the vertices 5B at both ends of the edge 5C are associated with each other. Further, in the polygon data, the corresponding vertex groups (vertices 5A, 5B ...) or edge groups (5C ...) are associated with the surfaces 5D and 5E.
In such polygon data, for example, as shown by a thick line in FIG. 5B, in a place where the mesh is interrupted 5G or a hole 5F, one side of the edge connecting the vertices of the surface is on one side. Only the face exists. Therefore, the viewpoint determining unit 12 detects a broken portion or a hole by finding an edge (unconnected edge) whose surface exists only on one side of the edge in the polygon data.

途切れている箇所5Gや穴5Fを検出すると、視点決定部12は、図6に示すように、撮像部2の画角を考慮し、途切れている箇所5Gや穴5Fを含む面を撮像できる視点の方向を求める。さらに、視点決定部12は、候補視点生成部121に、求めた視点の方向に、計測対象物体5から撮像部2の焦点距離l程度離れた位置を候補視点201として生成させる。
なお、途切れている箇所5Gや穴5Fの領域における計測対象物体5の形状は未知である。このため、図7に示すように、候補視点生成部121が、途切れている箇所5Gや穴5Fの領域を観測する方向や視点までの距離を変化させた複数の候補視点202a、202b、202c...を生成するようにしてもよい。すなわち、計測データと、計測条件とに基づいて、計測対象物体を次に計測すべき撮像部2の複数の候補視点を生成してもよい。
When the interrupted portion 5G or the hole 5F is detected, the viewpoint determining unit 12 considers the angle of view of the imaging unit 2 and can image the surface including the interrupted portion 5G or the hole 5F, as shown in FIG. Find the direction of. Further, the viewpoint determination unit 12 causes the candidate viewpoint generation unit 121 to generate a candidate viewpoint 201 at a position separated from the measurement target object 5 by the focal length l of the imaging unit 2 in the direction of the obtained viewpoint.
The shape of the object to be measured 5 in the region of the interrupted portion 5G or the hole 5F is unknown. Therefore, as shown in FIG. 7, a plurality of candidate viewpoints 202a, 202b, 202c. In which the candidate viewpoint generation unit 121 changes the direction of observing the interrupted portion 5G or the region of the hole 5F and the distance to the viewpoint. .. .. May be generated. That is, a plurality of candidate viewpoints of the imaging unit 2 for which the measurement target object should be measured next may be generated based on the measurement data and the measurement conditions.

ただし、候補視点の求め方は以上に限定されるものではない。例えば、図8に示すように、計測対象物体5を取り囲むように正二十面体203を想定し、候補視点生成部121が、正二十面体203の各頂点から正二十面体203の中心を観測する方向を候補視点として生成してもよい。あるいは、候補視点生成部121が、ランダムに大量の候補視点を生成してもよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部122は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。
However, the method of obtaining the candidate viewpoint is not limited to the above. For example, as shown in FIG. 8, assuming a regular icosahedron 203 so as to surround the measurement target object 5, the candidate viewpoint generation unit 121 moves the center of the regular icosahedron 203 from each vertex of the regular icosahedron 203. The observation direction may be generated as a candidate viewpoint. Alternatively, the candidate viewpoint generation unit 121 may randomly generate a large number of candidate viewpoints.
The candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 121, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. That is, the candidate viewpoint evaluation unit 122 applies an evaluation function corresponding to the measurement condition to the plurality of candidate viewpoints, and selects one or more viewpoints from the plurality of candidate viewpoints.

ここでは評価値の計算方法の例として、ボクセルを用いた方法について説明する。まず、候補視点評価部122は、計測対象物体5を取り囲むのに十分な範囲にボクセルを配置する。各ボクセルのサイズは撮像部2の解像度や被写界深度に基づいて得られる三次元点群の間隔と同程度か少し大きい程度、つまり、1つのボクセルに点群が1個から十数個含まれる程度の大きさとする。
各ボクセルは「占有」、「空」、「未知」の3つの状態を持ち、最初は図9(A)に示すように、全てが「未知」の状態(図9(A)では「未」と略記。)である。なお、この図9(A)は、説明のために1ボクセル分の水平面について図示したものであり、実際にはこのような水平面が高さ方向に重なった状態でボクセルが定義されている。
Here, as an example of the evaluation value calculation method, a method using voxels will be described. First, the candidate viewpoint evaluation unit 122 arranges the voxels in a range sufficient to surround the measurement target object 5. The size of each voxel is about the same as or slightly larger than the interval of the three-dimensional point cloud obtained based on the resolution and depth of field of the imaging unit 2, that is, one voxel contains one to a dozen point clouds. It should be large enough to be used.
Each voxel has three states, "occupied", "empty", and "unknown". Initially, as shown in FIG. 9 (A), all are "unknown"("not" in FIG. 9 (A)). Is abbreviated.). Note that FIG. 9A shows a horizontal plane for one voxel for the sake of explanation, and the voxels are actually defined in a state where such horizontal planes overlap in the height direction.

次に、例えば図9(B)に示すように、ある視点205から撮像部2によって距離画像が撮像されると、データ取得部11は、距離画像から距離点群を求め、候補視点評価部122に供給する。
距離点群が供給されると、候補視点評価部122は、図9(C)に示すように、ボクセル空間において距離点群が観測されたボクセル(210a、210b)の状態を「未知」から「占有」(図9(C)では「占」と略記。)に変更する。また、候補視点評価部122は、観測値が得られなかった方向のボクセル210dの状態や、撮像部2から距離点群が観測されたボクセルまでの間にあるボクセル210cの状態を「未知」から「空」に変更する。
Next, for example, as shown in FIG. 9B, when a distance image is captured by the imaging unit 2 from a certain viewpoint 205, the data acquisition unit 11 obtains a distance point cloud from the distance image and the candidate viewpoint evaluation unit 122. Supply to.
When the distance point cloud is supplied, the candidate viewpoint evaluation unit 122 changes the state of the voxels (210a, 210b) in which the distance point cloud is observed in the voxel space from "unknown" to "unknown" as shown in FIG. 9C. Change to "occupation" (abbreviated as "occupation" in FIG. 9C). Further, the candidate viewpoint evaluation unit 122 changes the state of the voxel 210d in the direction in which the observed value was not obtained and the state of the voxel 210c between the imaging unit 2 and the voxel in which the distance point cloud was observed from "unknown". Change to "empty".

候補視点を評価する際には、候補視点評価部122は、当該候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。さらに、候補視点評価部122は、ポリゴンデータから当該候補視点から観測可能な未接続エッジの数E(p)を求め、式(1)によりボクセルの数V(p)と未接続エッジの数E(p)の重み付き線形和として評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p) (1)
候補視点評価部122が、この式(1)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
When evaluating the candidate viewpoint, the candidate viewpoint evaluation unit 122 obtains the number V (p) of “unknown” voxels observable from the candidate viewpoint p. Further, the candidate viewpoint evaluation unit 122 obtains the number E (p) of unconnected edges that can be observed from the candidate viewpoint from the polygon data, and the number V (p) of voxels and the number E of unconnected edges by the equation (1). The evaluation value Eval (p) is calculated as the weighted linear sum of (p).
Eval (p) = w V V (p) + w E E (p) (1)
By evaluating the candidate viewpoint using this equation (1), the candidate viewpoint evaluation unit 122 can observe a voxel that has not been observed yet, a place where polygon data is interrupted, or a region with a hole. The evaluation value of the viewpoint becomes high. This makes it easier for such a candidate viewpoint to be selected as the viewpoint to be imaged next.

次に、候補視点評価部122は、候補視点のうち、評価値Eval(p)が高い候補視点から順に、現在の視点の位置姿勢から候補視点pの位置姿勢への移動が可能であるかどうか、パスプランニングの判定をシミュレーションで行うことによって確認する。
具体的には、パスプランニングの判定におけるシミュレーションでは、候補視点評価部122は、視点設定部3の可動範囲、計測対象物体5や背景との干渉等に基づいて、現在の視点から候補視点pへの移動が可能であるかを判定する。
Next, the candidate viewpoint evaluation unit 122 can move from the position / posture of the current viewpoint to the position / posture of the candidate viewpoint p in order from the candidate viewpoint having the highest evaluation value Eval (p) among the candidate viewpoints. , Confirm by making a judgment of path planning by simulation.
Specifically, in the simulation in the determination of path planning, the candidate viewpoint evaluation unit 122 moves from the current viewpoint to the candidate viewpoint p based on the movable range of the viewpoint setting unit 3, the interference with the measurement target object 5 and the background, and the like. Determine if it is possible to move.

移動が不可能であった場合、候補視点評価部122は、次に評価値の高い候補視点pについて、同様に、パスプランニングの判定を繰り返す。候補視点評価部122は、評価値の高い候補視点からパスプランニングの判定をしていき、移動可能な候補視点pが見つかった時点で、その候補視点pを次に計測すべき視点として選択し、視点設定部3に供給する。
ただし、ここでは例えば各重み値w=w=1とするが、重み値はこれに限定されるものではない。重み値wおよびwとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
If it is impossible to move, the candidate viewpoint evaluation unit 122 repeats the path planning determination in the same manner for the candidate viewpoint p having the next highest evaluation value. The candidate viewpoint evaluation unit 122 determines the path planning from the candidate viewpoint having a high evaluation value, and when a movable candidate viewpoint p is found, selects the candidate viewpoint p as the viewpoint to be measured next. It is supplied to the viewpoint setting unit 3.
However, here, for example, each weight value w V = w E = 1, but the weight value is not limited to this. As the weight values w V and w E , fixed values based on experience may be used, may be changed according to the number of measurements, or the values may be changed according to other conditions.

[用途2:欠陥検査]
用途取得部131において、計測の用途として欠陥検査が取得された場合には、データ取得部11は、計測対象物体5を全周から観測して、計測対象物体5の表面におけるキズの有無を判定する。本計測において次に計測(撮像)する視点を選択する基準は、三次元形状計測と同様に途切れている箇所や穴が無いことだけでなく、キズであるかどうかを断定するために、複数回異なる視点からキズであるかどうかを確かめるようにすることである。
具体的には、データ取得部11は、三次元形状計測の場合と同様にしてポリゴンデータを生成し、さらに撮像部2から受け取ったカラー画像に対してキズ判別処理を行い、キズであると判別した領域を計測対象物体5のポリゴンデータ上にマッピングする。キズ判別処理は、データ取得部11が、例えば予め準備しておいたキズのテンプレート画像とのテンプレートマッチングによって行う。なお、キズ判別処理は、これに限定されるものではなく、エッジ検出等を用いてキズを判別するようにしてもよい。
[Use 2: Defect inspection]
When the use acquisition unit 131 acquires a defect inspection for the purpose of measurement, the data acquisition unit 11 observes the measurement target object 5 from the entire circumference and determines whether or not there is a scratch on the surface of the measurement target object 5. To do. In this measurement, the criteria for selecting the next viewpoint to be measured (imaging) is not only that there are no breaks or holes as in the 3D shape measurement, but also that it is determined whether it is a scratch or not, multiple times. Try to see if it is a scratch from a different perspective.
Specifically, the data acquisition unit 11 generates polygon data in the same manner as in the case of three-dimensional shape measurement, and further performs a scratch discrimination process on the color image received from the imaging unit 2 to determine that the color image is a scratch. The area is mapped on the polygon data of the measurement target object 5. The scratch discrimination process is performed by the data acquisition unit 11 by, for example, template matching with a scratch template image prepared in advance. The scratch discrimination process is not limited to this, and the scratch may be discriminated by using edge detection or the like.

より詳細には、データ取得部11には、欠陥検査用途の計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られたカラー画像に対してキズ判別処理を行い、キズ領域をポリゴンデータ上にマッピングしていく。データ取得部11は、このキズ判別処理を、所定数の視点からのカラー画像からキズであるかどうかを断定できるまで繰り返す。キズ判別は、キズを観測する視点によって検出のしやすさが異なるため、データ取得部11は、複数の視点で計測した情報を統合して、最終的にキズであるかどうかを判断する。 More specifically, the data acquisition unit 11 is supplied with the color image, the distance image, and the viewpoint position / orientation information captured while changing the viewpoint one after another in S3 of FIG. 4 until the measurement for defect inspection is completed. To. The data acquisition unit 11 performs scratch discrimination processing on the newly obtained color image, and maps the scratched area on the polygon data. The data acquisition unit 11 repeats this scratch determination process until it can be determined from the color images from a predetermined number of viewpoints whether or not the scratches are present. Since the ease of detection of scratches differs depending on the viewpoint of observing the scratches, the data acquisition unit 11 integrates the information measured from the plurality of viewpoints and finally determines whether or not the scratches are caused.

データ取得部11は、キズであるかどうかを断定するために、キズのマッピングを行う最小単位領域tごとに、キズ度合いR(t)を計算によって求める。
キズ度合いR(t)は計測を開始する前は全ての領域で1.0という初期値であり、キズ判別によってキズでないと判別された領域のキズ度合いR(t)には、Aを乗じる。一方、キズであると判別された領域のキズ度合R(t)には、1/Aを乗じる。
データ取得部11は、例えば、キズ度合いが閾値T=Aαを超えた領域はキズであると断定し、キズ度合いが閾値T=1/Aαを下回った領域はキズではないと断定する。なお、Aは1.0より大きな任意の数であり、ここでは例えばA=2.0とする。また、αは自然数であり、ここでは例えばα=2とする。データ取得部11は、キズ度合いをマッピングしたポリゴンデータを視点決定部12に送る。
The data acquisition unit 11 calculates the degree of scratch R (t) for each minimum unit area t for mapping scratches in order to determine whether or not the scratches are present.
The scratch degree R (t) is an initial value of 1.0 in all regions before the measurement is started, and the scratch degree R (t) in the region determined not to be scratched by the scratch discrimination is multiplied by A. On the other hand, the degree of scratch R (t) in the region determined to be scratch is multiplied by 1 / A.
The data acquisition unit 11 determines, for example, that the region where the degree of scratches exceeds the threshold value Tu = A α is a scratch, and that the region where the degree of scratches is below the threshold value T b = 1 / A α is not a scratch. To do. Note that A is an arbitrary number larger than 1.0, and here, for example, A = 2.0. Further, α is a natural number, and here, for example, α = 2. The data acquisition unit 11 sends polygon data in which the degree of scratches is mapped to the viewpoint determination unit 12.

ここで、計測を終了させる方法として以下のような方法を用いてもよい。図示しない終了判定部が、データ取得部11からキズ度合いがマッピングされたポリゴンデータを受け取り、まず、三次元形状計測の場合と同様に、途切れている箇所や穴が無いかを確認して終了を判定する。終了判定部は、途切れている箇所や穴がある場合には、次の視点を決定するように視点決定部12に指示する。
一方、途切れている箇所や穴が無い場合には、終了判定部は、計測対象物体5の物体表面上でキズであるかどうかを断定できていない領域の有無を確認し、もし、断定できていない領域がある場合には、次の視点を決定するように視点決定部12に指示する。逆に、キズであるかどうかを断定できていない領域が無い場合には、終了判定部は、計測を終了させる。
Here, the following method may be used as a method for ending the measurement. The end determination unit (not shown) receives polygon data with the degree of scratches mapped from the data acquisition unit 11, and first confirms that there are no breaks or holes, as in the case of three-dimensional shape measurement, and ends. judge. The end determination unit instructs the viewpoint determination unit 12 to determine the next viewpoint when there is a break or a hole.
On the other hand, if there is no break or hole, the end determination unit confirms whether or not there is a scratch on the object surface of the object 5 to be measured, and if there is a region, it can be determined. If there is no area, the viewpoint determination unit 12 is instructed to determine the next viewpoint. On the contrary, when there is no area for which it cannot be determined whether or not the scratch is made, the end determination unit ends the measurement.

S5において、視点決定部12には、データ取得部11からキズ度合いがマッピングされたポリゴンデータが供給され、条件取得部13から欠陥検査が用途であることを示す情報が供給される。
視点決定部12は、ポリゴンデータと用途の情報から、次に撮像すべき視点を2段階の処理で決定する。まず、候補視点生成部121は、三次元形状計測の場合と同様に、途切れている箇所や穴の領域を無くすように候補視点を生成する。次に、候補視点生成部121は、キズかどうか断定できていない領域を無くすように候補視点を生成する。候補視点生成部121は、キズ度合いがマッピングされたポリゴンデータにおいて、マッピングを行う最小単位領域tごとにキズ度合いR(t)の値が、T<R(t)<Tの条件を満たす領域tを特定する。
In S5, the viewpoint determination unit 12 is supplied with polygon data to which the degree of scratches is mapped is supplied from the data acquisition unit 11, and information indicating that the defect inspection is used is supplied from the condition acquisition unit 13.
The viewpoint determination unit 12 determines the viewpoint to be imaged next from the polygon data and the usage information in a two-step process. First, the candidate viewpoint generation unit 121 generates a candidate viewpoint so as to eliminate a broken portion or a hole region, as in the case of three-dimensional shape measurement. Next, the candidate viewpoint generation unit 121 generates a candidate viewpoint so as to eliminate a region for which it cannot be determined whether or not it is a scratch. Candidate viewpoint generating unit 121, the polygon data scratch degree is mapped, the value of the flaw degree R (t) for each minimum unit region t for performing mapping, satisfies the condition T b <R (t) < T u Specify the area t.

この条件を満たす領域tではキズの有無が断定されていないため、候補視点生成部121は、当該領域tを観測できるような視点を候補視点として生成する。なお、キズの有無を断定できていない領域tが多い場合には、大量の候補視点が生成されてしまうため、計算の効率を上げるために、候補視点生成部121が、適当な間隔で候補視点をサンプリングするようにしてもよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値の計算方法として、三次元形状計測の場合と同様に、ボクセルを用いた方法を用いる。さらに、ポリゴンデータが生成された領域では、マッピングされたキズ度合いによる評価を行う。まず、候補視点評価部122は、候補視点pから観測可能な領域tの集合Θ(p)に対して、式(2)によってキズ度合いの判断指数D(p)を計算する。
Since it is not determined whether or not there is a scratch in the region t that satisfies this condition, the candidate viewpoint generation unit 121 generates a viewpoint at which the region t can be observed as a candidate viewpoint. If there are many regions t for which the presence or absence of scratches cannot be determined, a large number of candidate viewpoints will be generated. Therefore, in order to improve calculation efficiency, the candidate viewpoint generation unit 121 will generate candidate viewpoints at appropriate intervals. May be sampled.
The candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 121, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, as a method of calculating the evaluation value, a method using voxels is used as in the case of three-dimensional shape measurement. Further, in the area where polygon data is generated, evaluation is performed based on the degree of scratches mapped. First, the candidate viewpoint evaluation unit 122 calculates the judgment index D (p) of the degree of scratches by the equation (2) for the set Θ (p) of the region t observable from the candidate viewpoint p.

Figure 0006821326
Figure 0006821326

ただし、g(t)は式(3)によって表現される。

Figure 0006821326
However, g (t) is expressed by the equation (3).
Figure 0006821326

次に、候補視点評価部122は、式(4)によりボクセルの数V(p)と未接続エッジの数E(p)と判断指数D(p)の重み付き線形和として評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+wD(p) (4)
候補視点評価部122が式(4)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域や、キズであるかどうかの断定ができていない領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
Next, the candidate viewpoint evaluation unit 122 evaluates the evaluation value Eval (p) as a weighted linear sum of the number V (p) of voxels, the number E (p) of unconnected edges, and the judgment index D (p) according to the equation (4). ) Is calculated.
Eval (p) = w V V (p) + w E E (p) + w D D (p) (4)
When the candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint using the equation (4), whether or not there are voxels that have not been observed, areas where polygon data is interrupted, areas with holes, or scratches. The evaluation value of the candidate viewpoint that can observe the area where the determination is not made becomes high. This makes it easier for such a candidate viewpoint to be selected as the viewpoint to be imaged next.

さらに、三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)が高い視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択し、視点設定部3に供給する。なお、ここでは例えば重み値w=w=w=1とするが、重み値はこれに限定されるものではなく、重み値w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。 Further, as in the case of the three-dimensional shape measurement, the candidate viewpoint evaluation unit 122 makes a path planning determination in order from the viewpoint having the highest evaluation value Eval (p) among the candidate viewpoints, and selects the viewpoint to be imaged next. , Supply to the viewpoint setting unit 3. Here, for example, the weight value w V = w E = w D = 1, but the weight value is not limited to this, and the weight values w V , w E , and w D are fixed values based on experience. May be used, the value may be changed according to the number of measurements, or the value may be changed according to other conditions.

[用途3:特定物体認識]
用途取得部131において、特定物体認識が取得された場合には、データ取得部11は、計測対象物体5をある視点から観測して、予め定められている複数の物体モデルの中で、計測対象物体5がどのモデルに該当する物体であるかを分類する。すなわち、データ取得部11は、観測した計測対象物体5が、どのモデルの物体と同じ物体であるかを分類する。本計測において次に計測する視点を選択する基準は、計測対象物体5に固有の特徴的な幾何形状やテクスチャ等を、様々な視点から観測することである。
[Use 3: Specific object recognition]
When the specific object recognition is acquired by the usage acquisition unit 131, the data acquisition unit 11 observes the measurement target object 5 from a certain viewpoint and measures the measurement target in a plurality of predetermined object models. Classify which model the object 5 corresponds to. That is, the data acquisition unit 11 classifies which model object the observed object 5 is the same as the object to be measured. The criterion for selecting the next viewpoint to be measured in this measurement is to observe the characteristic geometric shapes and textures peculiar to the measurement target object 5 from various viewpoints.

具体的には、データ取得部11は撮像部2から受け取ったカラー画像に対して特徴点検出(特徴点抽出)を行い、視点位置姿勢情報と距離画像を参照して特徴点に三次元位置情報とを対応付けて保存する。この際、データ取得部11は、背景モデルを用いて、背景に属する特徴点は削除し、計測対象物体5に属する特徴点のみを三次元位置情報と対応付けて保存する。
そして、データ取得部11は、検出した特徴点に対して、物体認識対象のモデルデータとマッチングを行って、類似度が高いモデルを選択する。類似度が高いモデルをただ一つ選択することができた場合は、そのモデルが認識結果となる。一方、類似度が高いモデルが存在しない場合や、複数のモデルにおいて類似度が高い場合には、データ取得部11は、次の視点で観測した結果も利用して認識結果を判断する。特徴点検出は例えばSURF(Speed−Up Robust Features)特徴量を用いるが、これに限定されるものではなく、他の特徴量を用いてもよい。
Specifically, the data acquisition unit 11 performs feature point detection (feature point extraction) on the color image received from the imaging unit 2, and refers to the viewpoint position / orientation information and the distance image to obtain three-dimensional position information at the feature points. And save in association with. At this time, the data acquisition unit 11 deletes the feature points belonging to the background by using the background model, and saves only the feature points belonging to the measurement target object 5 in association with the three-dimensional position information.
Then, the data acquisition unit 11 matches the detected feature points with the model data of the object recognition target, and selects a model having a high degree of similarity. If only one model with high similarity can be selected, that model will be the recognition result. On the other hand, when there is no model having a high degree of similarity or when the degree of similarity is high in a plurality of models, the data acquisition unit 11 determines the recognition result by using the result observed from the next viewpoint. For example, SURF (Speed-Up Robust Features) feature amount is used for feature point detection, but the feature amount is not limited to this, and other feature amount may be used.

データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られたカラー画像に対して特徴点検出を行い、物体認識対象のモデルデータとのマッチングを行う。ここで、既に得られている認識結果が、モデルAである確率がP、モデルBである確率がP、モデルCである確率がP、・・であるとする。新たに得られた認識結果が、モデルAである確率がP new、モデルBである確率がP new、モデルCである確率がP new、・・である場合、モデルjである認識確率P´は、式(5)で計算される。 Until the measurement is completed, the data acquisition unit 11 is supplied with the color image, the distance image, and the viewpoint position / orientation information captured while changing the viewpoint one after another in S3 of FIG. The data acquisition unit 11 detects feature points on the newly obtained color image and matches it with the model data of the object recognition target. Here, a recognition result already obtained is a model A and a probability P A, the probability that model B is P B, the probability is a model C and a P C, · ·. Newly obtained recognition result, the probability that the model A is P A new new, model B is a probability P B new new, probability P C new new is a model C, if it is .. a model j recognition The probability P j ′ is calculated by the equation (5).

Figure 0006821326
Figure 0006821326

データ取得部11は、このようにして、各モデルの認識確率を更新しながら計測を行い、それを図示しない終了判定部に送る。また、データ取得部11は、視点位置姿勢情報および三次元位置情報が対応付けられた特徴点群を視点決定部12に供給する。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った各モデルにおける認識確率を確認して判定するようにしてもよい。終了判定部は、最も認識確率の高いモデルの確率が閾値Tを超えた時、そのモデルを認識結果として計測を終了させる。一方、どのモデルも認識確率が閾値Tを超えない場合には、終了判定部は、次の視点を決定するように視点決定部12に指示する。
In this way, the data acquisition unit 11 performs measurement while updating the recognition probability of each model, and sends it to the end determination unit (not shown). Further, the data acquisition unit 11 supplies the viewpoint determination unit 12 with a feature point cloud associated with the viewpoint position / orientation information and the three-dimensional position information.
The end of the measurement may be determined by the end determination unit (not shown) confirming the recognition probability in each model received from the data acquisition unit 11. End determination unit, when the probability of the most recognized probability model exceeds a threshold value T M, and ends the measurement the model as a recognition result. On the other hand, which model even when the recognition probability does not exceed the threshold value T M is end determining unit instructs the viewpoint determining unit 12 to determine the next viewpoint.

また、S5において、視点決定部12には、データ取得部11から視点位置姿勢情報と三次元位置情報とを対応付けられた特徴点群が供給され、条件取得部13から特定物体認識が用途であることを示す情報が供給される。視点決定部12は、特徴点群と用途の情報から、次に撮像すべき視点を決定する。まず、候補視点生成部121は、特徴点群の空間的な分布を確認し、近い特徴点群同士を特徴点クラスタとする。そして、候補視点生成部121は、特徴点クラスタごとにクラスタ内部の特徴点を多く観測しやすい視点を候補視点として生成する。特徴点を多く観測しやすい視点に関しては、様々な方向からの視点が考えられるが、候補視点生成部121が、ランダムに適当な方向をサンプリングして求めればよい。 Further, in S5, the viewpoint determination unit 12 is supplied with a feature point group in which the viewpoint position / orientation information and the three-dimensional position information are associated with each other from the data acquisition unit 11, and the condition acquisition unit 13 is used for specific object recognition. Information indicating that there is is provided. The viewpoint determination unit 12 determines the viewpoint to be imaged next from the feature point cloud and the information of the application. First, the candidate viewpoint generation unit 121 confirms the spatial distribution of the feature point groups, and sets the feature point groups close to each other as feature point clusters. Then, the candidate viewpoint generation unit 121 generates a viewpoint that is easy to observe many feature points inside the cluster as a candidate viewpoint for each feature point cluster. As for the viewpoint where many feature points are easily observed, viewpoints from various directions can be considered, but the candidate viewpoint generation unit 121 may randomly sample and obtain an appropriate direction.

候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。評価値Eval(p)は、候補視点pから観測可能な特徴点の数F(p)と、これまでに用いた視点の集合Φを用いた式(6)により、候補視点評価部122が計算する。 The candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 121, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. The evaluation value Eval (p) is calculated by the candidate viewpoint evaluation unit 122 by the equation (6) using the number F (p) of feature points observable from the candidate viewpoint p and the set Φ of the viewpoints used so far. To do.

Figure 0006821326
Figure 0006821326

候補視点評価部122が、式(6)を用いて候補視点を評価することによって、観測可能な特徴点の数が多く、これまでに観測した視点とは異なる位置姿勢の候補視点の評価値が高くなり、次に撮像すべき視点として選ばれやすくなる。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値w=w=1とするが、重み値はこれに限定されるものではなく、重み値w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
When the candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint using the equation (6), the number of observable feature points is large, and the evaluation value of the candidate viewpoint having a different position and orientation from the viewpoints observed so far is obtained. It becomes higher and easier to be selected as the next viewpoint to be imaged.
As in the case of the three-dimensional shape measurement, the candidate viewpoint evaluation unit 122 makes a path planning determination in order from the candidate viewpoint having the highest evaluation value Eval (p), and selects the viewpoint to be imaged next. , Supply to the viewpoint setting unit 3. Here, although the weight value w F = w d = 1 is not the weight value is not limited thereto, the weight value w F, may be used a fixed value based on experience as w d, The value may be changed according to the number of measurements, or the value may be changed according to other conditions.

[用途4:人物監視]
用途取得部131において、人物監視が取得された場合には、データ取得部11は、計測対象である人を指定したエリア内でトラッキングするように観測する。
本計測において次に計測する視点を選択する基準としては、計測対象である人が動いている方向から、次に到達する位置を予測して、その位置を観測することである。
具体的には、データ取得部11は、撮像部2からのカラー画像と距離画像から、人物領域を切り出して、人物の行動を分類し、正常か異常かを判断する。人物の行動を分類する方法は、例えば、人体の関節モデルを当てはめて行動と対応付けてもよいし、ディープ・ラーニング(Deep Learning)等の識別器を用いてたくさんの事例との適合度から推定してもよい。
[Use 4: Person monitoring]
When the person monitoring is acquired by the usage acquisition unit 131, the data acquisition unit 11 observes the person to be measured so as to track it within the designated area.
In this measurement, the criterion for selecting the viewpoint to be measured next is to predict the position to reach next from the direction in which the person to be measured is moving and observe the position.
Specifically, the data acquisition unit 11 cuts out a person area from the color image and the distance image from the imaging unit 2, classifies the behavior of the person, and determines whether the person is normal or abnormal. The method of classifying a person's behavior may be, for example, applied to a joint model of the human body and associated with the behavior, or estimated from the degree of compatibility with many cases using a classifier such as deep learning. You may.

データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。
人物監視用途の場合は、時系列のデータを統合する必要は無く、各データの分類と正常・異常のみを判断していればよい。データ取得部11は、人体の関節モデルと分類結果を視点決定部12に供給する。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った分類結果を確認して判定するようにしてもよい。終了判定部は、一定時間、人物が検出されなくなったら計測の終了を指示する。または、別途ユーザから指定された期間、監視を行ったら計測を終了させるようにしてもよい。終了判定部は、終了しない場合には、次の視点を決定するように視点決定部12に指示する。
Until the measurement is completed, the data acquisition unit 11 is supplied with the color image, the distance image, and the viewpoint position / orientation information captured while changing the viewpoint one after another in S3 of FIG.
In the case of person monitoring, it is not necessary to integrate time-series data, and it is sufficient to judge only the classification of each data and normal / abnormal. The data acquisition unit 11 supplies the joint model of the human body and the classification result to the viewpoint determination unit 12.
The end of the measurement may be determined by the end determination unit (not shown) confirming the classification result received from the data acquisition unit 11. The end determination unit instructs the end of the measurement when the person is not detected for a certain period of time. Alternatively, the measurement may be terminated after monitoring is performed for a period separately specified by the user. If the end determination unit does not end, the end determination unit instructs the viewpoint determination unit 12 to determine the next viewpoint.

S5において、視点決定部12には、データ取得部11から人体の関節モデルと分類結果が供給され、条件取得部13から人物監視が用途であることを示す情報が供給される。視点決定部12は、人体の関節モデルと分類結果と用途の情報から、次に計測すべき視点を決定する。まず、候補視点生成部121は、過去の近傍数フレームにおける人体の関節モデルと新しく受け取った人体の関節モデルの推移および行動の分類結果から、関節モデルの動きを予測する。そして、候補視点生成部121は、人体を撮像部2のなるべく中心で観測できるような視点を候補視点として生成する。 In S5, the viewpoint determination unit 12 is supplied with the joint model of the human body and the classification result from the data acquisition unit 11, and the condition acquisition unit 13 is supplied with information indicating that the person monitoring is used. The viewpoint determination unit 12 determines the next viewpoint to be measured from the joint model of the human body, the classification result, and the information on the usage. First, the candidate viewpoint generation unit 121 predicts the movement of the joint model from the transition and behavior classification results of the human body joint model and the newly received human body joint model in the past several frames in the vicinity. Then, the candidate viewpoint generation unit 121 generates a viewpoint as a candidate viewpoint so that the human body can be observed at the center of the imaging unit 2 as much as possible.

候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値の計算に、人体モデルが次の計測時に移動すると予測される移動先yの集合Ωと、各移動先yに移動する確率ρ(y)と、候補視点pからある点xを観測した場合における画像の中心からxの撮像位置までの距離Dist(p、x)とを用いる。具体的には、候補視点評価部122は、式(7)を用いて評価値Eval(p)を計算する。 The candidate viewpoint evaluation unit 122 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 121, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, in the calculation of the evaluation value, the set Ω of the movement destinations y that the human body model is predicted to move at the next measurement, the probability ρ (y) of moving to each movement destination y, and a certain point x from the candidate viewpoint p are used. The distance Dist (p, x) from the center of the image to the imaging position of x in the case of observation is used. Specifically, the candidate viewpoint evaluation unit 122 calculates the evaluation value Eval (p) using the equation (7).

Figure 0006821326
Figure 0006821326

候補視点評価部122が、式(7)を用いて候補視点を評価することによって、移動する確率が高い位置を画像の中心に捉えながら、多くの予測される移動先を画像内に網羅できるような候補視点の評価値が高くなり、次の視点として選ばれやすくなる。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値w=1とするが、重み値の値はこれに限定されるものではなく、重み値wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
By evaluating the candidate viewpoint using the equation (7), the candidate viewpoint evaluation unit 122 can cover many predicted movement destinations in the image while capturing the position with a high probability of movement in the center of the image. The evaluation value of a good candidate viewpoint becomes high, and it becomes easy to be selected as the next viewpoint.
As in the case of the three-dimensional shape measurement, the candidate viewpoint evaluation unit 122 makes a path planning determination in order from the candidate viewpoint having the highest evaluation value Eval (p), and selects the viewpoint to be imaged next. , Supply to the viewpoint setting unit 3. Although the weight value w k = 1 is set here, the weight value is not limited to this, and the weight value w k may be a fixed value based on experience, depending on the number of measurements. The value may be changed depending on other conditions.

[複数の用途に応じた動作]
複数の用途のための次に撮像すべき視点を求めることも可能である。例えば、三次元形状計測と特定物体認識の2つの用途を実現したい場合は、候補視点生成部121は、既に述べたそれぞれの用途における処理に基づいて候補視点群を生成する。そして、候補視点評価部122は、式(1)と式(6)を組合せた式(8)によって評価値Eval(p)を求めて各候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の用途に応じて、次に撮像すべき視点を適切に決定することができる。
[Operation according to multiple uses]
It is also possible to determine the next viewpoint to be imaged for multiple applications. For example, when it is desired to realize two uses of three-dimensional shape measurement and specific object recognition, the candidate viewpoint generation unit 121 generates a candidate viewpoint group based on the processing in each use described above. Then, the candidate viewpoint evaluation unit 122 obtains the evaluation value Eval (p) by the formula (8) which is a combination of the formula (1) and the formula (6), evaluates each candidate viewpoint, and next the candidate viewpoint having a high evaluation value. The viewpoint to be imaged. This makes it possible to appropriately determine the viewpoint to be imaged next according to a plurality of applications.

Figure 0006821326
Figure 0006821326

以上のように、実施形態1では、計測対象物体を計測する用途に応じて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。また、実施形態1では、このように決定した視点に撮像部2を移動させて計測を繰り返す。すなわち、データ取得部11による計測データの取得と、視点決定部12による撮像部2の視点の決定と、撮像部2の視点の出力とを繰り返す。計測対象物体を次に計測すべき撮像部2の視点は用途に応じて適切に設定されているため、この視点に応じて計測を行うことにより、用途に応じて効率良く計測を行うことができる。また、計測対象物体を計測する用途は、ユーザが選択するため、ユーザの選択に応じた計測を効率よく行うことができる。 As described above, in the first embodiment, the viewpoint of the measuring device (imaging unit 2) to measure the measurement target object next can be appropriately determined according to the application for measuring the measurement target object. Further, in the first embodiment, the imaging unit 2 is moved to the viewpoint determined in this way, and the measurement is repeated. That is, the acquisition of the measurement data by the data acquisition unit 11, the determination of the viewpoint of the imaging unit 2 by the viewpoint determination unit 12, and the output of the viewpoint of the imaging unit 2 are repeated. Since the viewpoint of the imaging unit 2 to measure the object to be measured next is appropriately set according to the application, it is possible to efficiently perform the measurement according to the application by performing the measurement according to this viewpoint. .. In addition, since the user selects the purpose for measuring the object to be measured, it is possible to efficiently perform the measurement according to the user's selection.

<実施形態2>
実施形態2に係る計測システムは、計測の用途に関するスペック要求に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、スペック要求に応じた適切な計測を行うことができる。ここで、「スペック要求」とは、用途に応じた、計測対象物体の計測において優先されるべき仕様の項目ないしファクタである。
実施形態1では複数の用途に応じて、次に計測すべき適切な視点を決定していたが、実施形態2では精度や速度等の複数のスペック要求に応じて次に計測すべき視点を決定する。そのため、計測の用途が決まっている場合であっても、用途に関するスペック要求に応える計測が可能である。実施形態2では、計測対象物体の三次元形状計測の用途を例に挙げて、複数のスペック要求の例として、精度、速度、複雑度、の3つのスペック要求を選択可能な場合について説明するが、実施形態2を適用可能なスペック要求はこれらに限定されない。
<Embodiment 2>
The measurement system according to the second embodiment appropriately determines the viewpoint of the imaging unit 2 to measure the object to be measured next according to the specification request regarding the measurement application. By measuring the object to be measured while sequentially moving the imaging unit to the determined viewpoint, it is possible to perform appropriate measurement according to the specification requirements. Here, the "spec requirement" is an item or factor of specifications that should be prioritized in the measurement of the object to be measured according to the application.
In the first embodiment, the appropriate viewpoint to be measured next is determined according to a plurality of uses, but in the second embodiment, the viewpoint to be measured next is determined according to a plurality of specification requirements such as accuracy and speed. To do. Therefore, even if the purpose of measurement is decided, it is possible to perform measurement that meets the specification requirements related to the use. In the second embodiment, the use of three-dimensional shape measurement of the object to be measured is taken as an example, and a case where three spec requirements of accuracy, speed, and complexity can be selected as an example of a plurality of spec requirements will be described. , The spec requirements to which the second embodiment can be applied are not limited to these.

[装置の構成]
図10は、実施形態2に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置30とを備えている。実施形態2における計測システムは、実施形態1における図1の構成を一部変更したものであり、図10中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態2における情報処理装置30は、データ取得部31と、視点決定部32と、計測条件を取得する条件取得部33とを備えている。データ取得部31は、三次元形状計測のデータ処理を行う。視点決定部32は、データ取得部31から供給されたデータ処理後のデータと条件取得部33から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
[Device configuration]
FIG. 10 is a block diagram showing a configuration example of the measurement system according to the second embodiment. This measurement system includes an imaging unit 2, a viewpoint setting unit 3, and an information processing device 30 that controls the viewpoint setting unit 3 in response to information from the imaging unit 2. The measurement system in the second embodiment is a partially modified version of the configuration of FIG. 1 in the first embodiment, and the imaging unit 2 and the viewpoint setting unit 3 in FIG. 10 are the same as those in the first embodiment and have the same operation. I do.
The information processing apparatus 30 according to the second embodiment includes a data acquisition unit 31, a viewpoint determination unit 32, and a condition acquisition unit 33 for acquiring measurement conditions. The data acquisition unit 31 performs data processing for three-dimensional shape measurement. The viewpoint determination unit 32 determines the viewpoint of the imaging unit 2 to be imaged next from the data after data processing supplied from the data acquisition unit 31 and the measurement conditions supplied from the condition acquisition unit 33, and the viewpoint setting unit 32 determines the viewpoint of the imaging unit 2 to be imaged next. Supply to 3.

視点決定部32は、候補視点を生成する候補視点生成部321と、候補視点生成部321によって生成された候補視点に対して評価を行う候補視点評価部322とを備えている。実施形態2において、条件取得部33は、計測に関するスペック要求の情報を取得するスペック要求取得部332を備えている。
実施形態2では、条件取得部33におけるスペック要求取得部332で取得したスペック要求の情報に応じて情報処理装置30内部の動作を変化させる。このため、まず動作の概略についてのみ説明し、その後で、スペック要求ごとに場合分けして動作の詳細を説明する。
The viewpoint determination unit 32 includes a candidate viewpoint generation unit 321 that generates a candidate viewpoint and a candidate viewpoint evaluation unit 322 that evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 321. In the second embodiment, the condition acquisition unit 33 includes a spec request acquisition unit 332 that acquires information on the spec request related to measurement.
In the second embodiment, the operation inside the information processing apparatus 30 is changed according to the information of the spec request acquired by the spec request acquisition unit 332 of the condition acquisition unit 33. Therefore, first, only the outline of the operation will be described, and then the details of the operation will be described for each specification requirement.

データ取得部31は、撮像部2からカラー画像と距離画像を受け取り、例えば三次元形状計測等のデータ処理を実行する。そして、データ取得部31は、データ処理後のデータを視点決定部32に供給する。
視点決定部32は、データ取得部31から供給されるデータ処理後のデータと、条件取得部33から供給されるスペック要求(優先すべき仕様)とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。
具体的には、候補視点生成部321は、スペック要求に応じた少なくとも1つの候補視点を生成する。候補視点評価部322は、候補視点生成部321によって生成された候補視点に対してスペック要求に応じた評価を行い、決定視点を選択する。候補視点評価部322は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
The data acquisition unit 31 receives a color image and a distance image from the image pickup unit 2 and executes data processing such as three-dimensional shape measurement. Then, the data acquisition unit 31 supplies the data after the data processing to the viewpoint determination unit 32.
The viewpoint determination unit 32 next measures the measurement target object 5 according to the data after data processing supplied from the data acquisition unit 31 and the specification request (priority specification) supplied from the condition acquisition unit 33. The viewpoint of the imaging unit 2 to be used is determined.
Specifically, the candidate viewpoint generation unit 321 generates at least one candidate viewpoint according to the specification request. The candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 321 according to the spec request, and selects a determination viewpoint. The candidate viewpoint evaluation unit 322 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

条件取得部33は、計測における条件を取得して、その情報を視点決定部32に供給する。実施形態2では、スペック要求取得部332がスペック要求の情報を取得し、取得したスペック要求の情報を視点決定部32に供給する。スペック要求(優先する仕様の情報)には、例えば計測対象物体5の計測における精度、速度、複雑度のいずれか1つ以上が含まれる。
実施形態2においてスペック要求取得部332がスペック要求を取得する方法は、図示しないタッチディスプレイに各スペック要求に対応する画像を表示させ、ユーザに優先すべきスペック要求を選択させる方法である。ただし、スペック要求を取得する方法は、これに限定されるものではなく、スペック要求取得部332が、ユーザからの音声入力によって取得してもよいし、ユーザが、例えば、精度、速度、複雑度の具体的な目標値を数値として入力したものを取得してもよい。
The condition acquisition unit 33 acquires the conditions in the measurement and supplies the information to the viewpoint determination unit 32. In the second embodiment, the spec request acquisition unit 332 acquires the spec request information and supplies the acquired spec request information to the viewpoint determination unit 32. The spec requirement (information on the priority specification) includes, for example, any one or more of accuracy, speed, and complexity in the measurement of the object 5 to be measured.
In the second embodiment, the method in which the spec request acquisition unit 332 acquires the spec request is a method in which an image corresponding to each spec request is displayed on a touch display (not shown) and the user is made to select the spec request to be prioritized. However, the method of acquiring the spec request is not limited to this, and the spec request acquisition unit 332 may acquire the spec request by voice input from the user, and the user can obtain, for example, accuracy, speed, and complexity. You may get what you input the concrete target value of.

[計測と視点決定処理]
以下、実施形態2の計測システムによる計測と視点決定処理を説明する。実施形態2では、後に場合分けして説明するスペック要求によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態2における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態2におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
[Measurement and viewpoint determination processing]
Hereinafter, measurement and viewpoint determination processing by the measurement system of the second embodiment will be described. In the second embodiment, the processing flow can be described by using the same flowchart regardless of the spec requirements which will be described later in each case. Further, since the overall flow of the processing in the second embodiment is the same as that of the flowchart of FIG. 4, the description will be given with reference to FIG. Further, the processing in S2, S3, S4, and S6 in the second embodiment is the same as that in the first embodiment, and since the same processing is performed, only the other S1 and S5 will be described.

S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部33のスペック要求取得部332におけるスペック要求の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S5では、視点決定部32は、データ取得部31から供給されたデータ処理後のデータとスペック要求取得部332で取得されたスペック要求とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部321が候補視点を生成し、生成された候補視点を候補視点評価部322が評価して条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部322は、選択した決定視点を次に計測すべき撮像部2の視点として視点設定部3に供給する。
In S1, the initialization process is executed in the measurement system. In the initialization process, the imaging unit 2 is activated, the viewpoint setting unit 3 is activated, the spec request acquisition unit 332 of the condition acquisition unit 33 acquires the spec request, the background model is read, and the imaging unit 2 is moved to the initial viewpoint. Processing etc. are included. The initial viewpoint may be freely determined within the range in which the measurement target object 5 can be observed.
In S5, the viewpoint determination unit 32 determines the viewpoint of the imaging unit 2 to be imaged next based on the data after data processing supplied from the data acquisition unit 31 and the spec request acquired by the spec request acquisition unit 332. decide. More specifically, the candidate viewpoint generation unit 321 generates a candidate viewpoint, the generated candidate viewpoint is evaluated by the candidate viewpoint evaluation unit 322, and the candidate viewpoint with the highest evaluation among the conditions is selected as the determination viewpoint. .. The candidate viewpoint evaluation unit 322 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be measured next.

次に、情報処理装置30の内部の動作に関して、精度、速度、複雑度のそれぞれのスペック要求の情報が取得された場合の動作について、具体的な処理内容を順に説明する。
[仕様1:精度を優先する場合]
条件取得部33のスペック要求取得部332において、優先すべきスペック要求として精度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルが高精度に生成されるように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に撮像する視点を選択する基準は、ポリゴンデータにおいて設定しておいたエッジの長さの最大値を超える長さのエッジ領域を観測することである。なお、この最大値はユーザが指定しておくようにしてもよい。このように視点を選択することによって、エッジが長く疎な三次元点群しか得られていない領域の計測を行い、三次元点群の密度を高くすることができる。
Next, with respect to the internal operation of the information processing apparatus 30, specific processing contents will be described in order regarding the operation when the information of each specification requirement of accuracy, speed, and complexity is acquired.
[Specification 1: When priority is given to accuracy]
When the spec request acquisition unit 332 of the condition acquisition unit 33 acquires accuracy as a priority spec request, the viewpoint determination unit 32 generates a three-dimensional model from the entire circumference of the measurement target object 5 with high accuracy. The viewpoint of the imaging unit 2 to be measured next is determined so as to be performed.
The criterion for selecting the next viewpoint to be imaged in this measurement is to observe an edge region having a length exceeding the maximum value of the edge length set in the polygon data. The maximum value may be specified by the user. By selecting the viewpoint in this way, it is possible to measure a region where only a sparse three-dimensional point cloud with long edges is obtained, and to increase the density of the three-dimensional point cloud.

S3において、データ取得部31は、実施形態1の三次元形状計測の場合と同様に、撮像部2から得られた距離画像と視点設定部3から得られた視点位置姿勢情報からポリゴンデータを生成する。計測を行っている間、視点を変更して撮像された距離画像が順次供給されるため、データ取得部31は、供給された距離画像に基づいてポリゴンデータを更新する。
精度を優先する場合、計測時間が長くかかったとしても、最終的な三次元モデルの結果の精度が高いことが望まれる。そこで、撮像部2は、同じ視点からの撮像を複数回繰り返し、複数のカラー画像および複数の距離画像をセットにしてデータ取得部31に供給する。データ取得部31は、複数のカラー画像および距離画像を平均化したカラー画像および距離画像を用いてポリゴンデータの更新を行うことで、撮像部2による偶然誤差の影響を抑制することができる。
計測の終了は、図示しない終了判定部が、データ取得部31からポリゴンデータを受け取り、途切れている箇所や穴、点群の密度が低い箇所が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、点群の密度が低い箇所が無い場合には計測を終了させる。
In S3, the data acquisition unit 31 generates polygon data from the distance image obtained from the imaging unit 2 and the viewpoint position / orientation information obtained from the viewpoint setting unit 3 as in the case of the three-dimensional shape measurement of the first embodiment. To do. Since the distance images captured by changing the viewpoint are sequentially supplied during the measurement, the data acquisition unit 31 updates the polygon data based on the supplied distance images.
When accuracy is prioritized, it is desired that the accuracy of the final 3D model result is high even if the measurement time is long. Therefore, the imaging unit 2 repeats imaging from the same viewpoint a plurality of times, and supplies a plurality of color images and a plurality of distance images as a set to the data acquisition unit 31. The data acquisition unit 31 can suppress the influence of the accidental error caused by the imaging unit 2 by updating the polygon data using the color image and the distance image obtained by averaging the plurality of color images and the distance images.
The end of the measurement may be determined by the end determination unit (not shown) receiving polygon data from the data acquisition unit 31 and confirming whether there are any interruptions, holes, or points with a low density of point clouds. .. In this case, the end determination unit ends the measurement when there is no point cloud with a low density.

また、S5において、視点決定部32には、データ取得部31からポリゴンデータが供給され、条件取得部33から優先すべきスペック要求が精度であることを示す情報が供給される。視点決定部32は、ポリゴンデータと優先すべきスペック要求を示す情報とから、次に計測すべき撮像部2の視点を決定する。
候補視点生成部321が候補視点を生成する処理は実施形態1の三次元形状計測の場合と同様にして実行することができる。さらに、精度を向上させるために、候補視点生成部321は、得られた候補視点に対して、対象物体までの距離が近づくように視線方向に移動させた視点を候補視点に追加する。このような候補視点を追加することで、計測対象物体5のより詳細な部分まで撮像しやすくなる。
Further, in S5, polygon data is supplied from the data acquisition unit 31 to the viewpoint determination unit 32, and information indicating that the spec request to be prioritized is accurate is supplied from the condition acquisition unit 33. The viewpoint determining unit 32 determines the viewpoint of the imaging unit 2 to be measured next from the polygon data and the information indicating the spec request to be prioritized.
The process of generating the candidate viewpoint by the candidate viewpoint generation unit 321 can be executed in the same manner as in the case of the three-dimensional shape measurement of the first embodiment. Further, in order to improve the accuracy, the candidate viewpoint generation unit 321 adds a viewpoint moved in the line-of-sight direction so that the distance to the target object is closer to the obtained candidate viewpoint to the candidate viewpoint. By adding such a candidate viewpoint, it becomes easy to image a more detailed part of the measurement target object 5.

候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部322は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1の三次元形状計測の場合と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。次に、候補視点評価部322は、ポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)と観測可能なエッジの中で所定長より長いエッジの数L(p)を求める。さらに、候補視点評価部322は、式(9)により評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+wL(p) (9)
The candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 321 and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. That is, the candidate viewpoint evaluation unit 322 applies an evaluation function corresponding to the measurement condition to the plurality of candidate viewpoints, and selects one or more viewpoints from the plurality of candidate viewpoints. In the calculation of the evaluation value, the candidate viewpoint evaluation unit 322 first determines the number of “unknown” voxels V (p) that can be observed from the candidate viewpoint p using the voxels as in the case of the three-dimensional shape measurement of the first embodiment. Ask for. Next, the candidate viewpoint evaluation unit 322 obtains the number E (p) of unconnected edges observable from the candidate viewpoint p and the number L (p) of observable edges longer than a predetermined length in the polygon data. .. Further, the candidate viewpoint evaluation unit 322 calculates the evaluation value Eval (p) by the equation (9).
Eval (p) = w V V (p) + w E E (p) + w L L (p) (9)

候補視点評価部322が、式(9)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。
さらに、実施形態2においては、長いエッジによって密度の低い三次元モデルになっている領域を観測可能な候補視点の評価値が高くなり、より高精度に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測と同様に、評価値の高い候補視点から順にパスプランニングの判定を行い、移動可能な候補視点を次に撮像すべき視点として決定する。なお、式(9)におけるそれぞれの重み値w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
When the candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint using the equation (9), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high.
Further, in the second embodiment, the evaluation value of the candidate viewpoint that can observe the region of the three-dimensional model having a low density due to the long edge becomes high, and it becomes easy to select the candidate viewpoint that can be measured with higher accuracy.
Next, the candidate viewpoint evaluation unit 322 determines the path planning in order from the candidate viewpoint having the highest evaluation value, as in the case of the three-dimensional shape measurement of the first embodiment, and sets the movable candidate viewpoint as the next viewpoint to be imaged. decide. Note that fixed values based on experience may be used as the respective weight values w V , w E , and w L in the equation (9), may be changed according to the number of measurements, or may be changed according to other conditions. May be changed.

[仕様2:速度を優先する場合]
スペック要求取得部332において、優先すべきスペック要求として速度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルを短い時間で生成するように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に計測する視点を選択する基準は、計測対象物体5を粗い点群密度でもよいので全周から撮像することを優先し、すでに取得されている三次元形状データとのオーバーラップが少ない視点から撮像することである。
[Specification 2: When speed is prioritized]
When the spec request acquisition unit 332 acquires the speed as a priority spec request, the viewpoint determination unit 32 then generates a three-dimensional model from the entire circumference of the measurement target object 5 in a short time. The viewpoint of the imaging unit 2 to be measured is determined.
In this measurement, the criterion for selecting the viewpoint to be measured next is that the object 5 to be measured may have a coarse point cloud density, so priority is given to imaging from the entire circumference, and the overlap with the already acquired three-dimensional shape data It is to take an image from a small number of viewpoints.

S3において、データ取得部31は、実施形態1の三次元形状計測の場合と同様に、ポリゴンデータを生成して、順次取得したデータで更新していく。速度を優先する場合、最終的な三次元モデルの精度が不十分であっても、一定時間以内に計測を終了させることが望まれる。このため、データ取得部31は、ポリゴンデータにおいて、点群同士が離れている場合でも、可能な限り点群の接続を行い、メッシュとして生成することで、いつでも結果として出力できるようにしておく。
そして、データ取得部31は、優先して全体の概形状を生成した後で、時間が残されていれば、より詳細な形状を取得して、詳細なポリゴンデータへと更新していく。なお、計測の終了は、データ取得部31あるいは図示しない終了判定部が、計測の処理時間が一定時間を超えているか否かによって判定し、一定時間を超えていれば計測の終了を指示するようにしてもよい。
In S3, the data acquisition unit 31 generates polygon data and updates it with the sequentially acquired data, as in the case of the three-dimensional shape measurement of the first embodiment. When speed is prioritized, it is desirable to complete the measurement within a certain period of time even if the accuracy of the final 3D model is insufficient. Therefore, even if the point clouds are separated from each other in the polygon data, the data acquisition unit 31 connects the point clouds as much as possible and generates them as a mesh so that the results can be output at any time.
Then, the data acquisition unit 31 preferentially generates the entire rough shape, and if time is left, acquires a more detailed shape and updates it to the detailed polygon data. The end of the measurement is determined by the data acquisition unit 31 or the end determination unit (not shown) based on whether or not the measurement processing time exceeds a certain time, and if the time exceeds a certain time, the end of the measurement is instructed. It may be.

S5において、視点決定部32には、データ取得部31からポリゴンデータが供給され、条件取得部33から優先すべきスペック要求が速度であることを示す情報が供給される。視点決定部32は、ポリゴンデータとスペック要求の情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部321が候補視点を生成する処理は実施形態1の三次元形状計測の場合と同様にして実行することができる。さらに、速度を向上させるために、候補視点生成部321は、得られた候補視点に対して、計測対象物体5からの距離が遠ざかるように視線方向に移動させた視点を候補視点に追加する。このような候補視点を追加することで、1回の撮像で計測対象物体5の全体像をより捉えやすくなる。 In S5, the viewpoint determination unit 32 is supplied with polygon data from the data acquisition unit 31, and the condition acquisition unit 33 is supplied with information indicating that the priority spec request is speed. The viewpoint determining unit 32 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the information of the spec request. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 321 can be executed in the same manner as in the case of the three-dimensional shape measurement of the first embodiment. Further, in order to improve the speed, the candidate viewpoint generation unit 321 adds a viewpoint moved in the line-of-sight direction to the candidate viewpoint so that the distance from the measurement target object 5 is increased with respect to the obtained candidate viewpoint. By adding such a candidate viewpoint, it becomes easier to capture the entire image of the measurement target object 5 with one imaging.

候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が最大の候補視点を決定視点として選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1の三次元形状計測の場合と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。次に、候補視点評価部322は、ポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)と観測可能なエッジの中で所定長より長いエッジの割合L(p)、および観測可能な面の面積F(p)とを求める。さらに、候補視点評価部322は、式(10)により評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+w(Vall(p)−V(p))L(p)−wV(p)F(p) (10)
ただし、Vall(p)は候補視点pから観測可能なボクセルの総数である。
The candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 321 and selects the candidate viewpoint having the maximum evaluation value as the determination viewpoint. In the calculation of the evaluation value, the candidate viewpoint evaluation unit 322 first determines the number of “unknown” voxels V (p) that can be observed from the candidate viewpoint p using the voxels as in the case of the three-dimensional shape measurement of the first embodiment. Ask for. Next, the candidate viewpoint evaluation unit 322 includes the number E (p) of unconnected edges observable from the candidate viewpoint p in the polygon data, the ratio L (p) of the observable edges longer than the predetermined length, and The area F (p) of the observable surface is obtained. Further, the candidate viewpoint evaluation unit 322 calculates the evaluation value Eval (p) by the equation (10).
Eval (p) = w V V (p) + w E E (p) + w L (V all (p) -V (p)) L (p) -w F V (p) F (p) (10)
However, Val (p) is the total number of voxels that can be observed from the candidate viewpoint p.

候補視点評価部322が、式(10)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、計測を開始して間もない未知のボクセルの数が多い状態では、既に観測しているポリゴンの面がなるべく少なくなる候補視点の評価値が高くなるようにして、同じ領域をオーバーラップして計測しにくい候補視点の評価値が高くなる。
また、計測が進み未知のボクセルの数が少なくなってくると、所定長より長いエッジが観測される視点の評価値が高くなり、粗いポリゴンデータをより詳細に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、次に撮像すべき視点を決定する。なお、式(10)におけるそれぞれの重み値w、w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
When the candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint using the equation (10), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Furthermore, when the number of unknown voxels that have just started measurement is large, the number of polygon faces that have already been observed is as small as possible. The evaluation value of the candidate viewpoint is set to be high, and the same area is overlapped. The evaluation value of the candidate viewpoint, which is difficult to measure, becomes high.
In addition, as the measurement progresses and the number of unknown voxels decreases, the evaluation value of the viewpoint where edges longer than the predetermined length are observed becomes higher, and it becomes easier to select a candidate viewpoint that can measure coarse polygon data in more detail. ..
Next, the candidate viewpoint evaluation unit 322 determines the path planning in order from the viewpoint having the highest evaluation value, and then determines the viewpoint to be imaged, as in the case of the three-dimensional shape measurement of the first embodiment. In addition, fixed values based on experience may be used as the respective weight values w V , w E , w L , and w F in the equation (10), may be changed according to the number of measurements, or may be changed. The value may be changed depending on the conditions.

[仕様3:複雑度を優先する場合]
スペック要求取得部332において、優先すべきスペック要求として複雑度が取得された場合には、視点決定部32は、計測対象物体5の形状として複雑な箇所が優先して撮像されるように次に計測すべき撮像部2の視点の決定を行う。本計測において次に計測する視点を選択する基準としては、複雑な形状部分を多視点から観測することである。
S3において、データ取得部31は、実施形態1と同様にしてポリゴンデータを生成して、順次取得したデータで更新していく。優先すべきスペック要求が複雑度である場合、平坦な面やなだらかな面の領域は正確に計測されなかったとしても、複雑な形状の領域を正確にモデル化できることが望まれる。そこで、データ取得部31は、カラー画像と距離画像の両方から平坦な面やなだらかな面であると判断される領域については、ポリゴンデータを生成する際に、点群の密度が疎であってもエッジとして接続し、その領域に対して低い複雑度を設定する。
[Specification 3: When complexity is prioritized]
When the spec request acquisition unit 332 acquires the complexity as a priority spec request, the viewpoint determination unit 32 next so that the complex portion as the shape of the measurement target object 5 is preferentially imaged. The viewpoint of the imaging unit 2 to be measured is determined. The criterion for selecting the next viewpoint to be measured in this measurement is to observe a complicated shape part from multiple viewpoints.
In S3, the data acquisition unit 31 generates polygon data in the same manner as in the first embodiment, and updates the sequentially acquired data. When the priority spec requirement is complexity, it is desirable to be able to accurately model areas of complex shape, even if areas of flat or gentle surfaces are not accurately measured. Therefore, the data acquisition unit 31 has a sparse point cloud density when generating polygon data for a region determined to be a flat surface or a gentle surface from both a color image and a distance image. Also connect as an edge and set a low complexity for that area.

逆に、カラー画像と距離画像のどちらかまたは両方から、複雑な形状であると考えられる領域には、データ取得部31は、高い複雑度を設定する。さらに、データ取得部31は、設定した複雑度に対して、各面の近傍における点群の密度に応じて達成度を計算する。複雑度が高い領域ほど、点群の密度も高い必要があり、データ取得部31は、複雑度に応じた密度の基準を達成している割合を達成度として求める。
計測の終了は、図示しない終了判定部が、データ取得部31から複雑度と達成度付きのポリゴンデータを受け取り、達成度を評価して判定してもよい。達成度が基準値に満たない領域がある場合には、終了判定部は、次の視点を決定するように視点決定部32に指示し、達成度が基準値に満たない領域が無く全ての領域で達成度が満たされている場合には計測を終了させる。
On the contrary, the data acquisition unit 31 sets a high degree of complexity in the region considered to have a complicated shape from the color image and / or the distance image. Further, the data acquisition unit 31 calculates the degree of achievement for the set complexity according to the density of the point cloud in the vicinity of each surface. The higher the complexity of the region, the higher the density of the point cloud needs to be, and the data acquisition unit 31 determines the rate at which the density standard according to the complexity is achieved as the achievement level.
The end of the measurement may be determined by the end determination unit (not shown) receiving polygon data with complexity and achievement from the data acquisition unit 31 and evaluating the achievement. When there is an area where the achievement level is less than the reference value, the end determination unit instructs the viewpoint determination unit 32 to determine the next viewpoint, and there is no area where the achievement level is less than the reference value and all areas. If the achievement level is satisfied with, the measurement is terminated.

S5において、視点決定部32には、データ取得部31から複雑度と達成度付きのポリゴンデータが供給されており、条件取得部33から優先すべきスペック要求が複雑度であることを示す情報が供給されている。視点決定部32は、ポリゴンデータと優先すべきスペック要求の情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部321で候補視点を生成するには、図7における途切れている箇所5Gや穴5Fを達成度が低い領域とし、その領域を様々な方向から観測する候補視点を生成すればよい。このような候補視点を追加することで、複雑な領域でかつ、計測が足りていない領域をより捉えやすくなる。 In S5, the viewpoint determination unit 32 is supplied with polygon data with complexity and achievement from the data acquisition unit 31, and the condition acquisition unit 33 provides information indicating that the priority spec request is complexity. It is being supplied. The viewpoint determining unit 32 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the information of the spec request to be prioritized. In order to generate a candidate viewpoint by the candidate viewpoint generation unit 321, the interrupted portion 5G or the hole 5F in FIG. 7 may be set as a region with a low achievement level, and the candidate viewpoint for observing the region from various directions may be generated. By adding such a candidate viewpoint, it becomes easier to grasp a complicated area and an area where measurement is insufficient.

候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。さらに、候補視点評価部322は、式(11)により評価値Eval(p)を求める。 The candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 321 and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. In the calculation of the evaluation value, the candidate viewpoint evaluation unit 322 first obtains the number V (p) of “unknown” voxels observable from the candidate viewpoint p using voxels as in the first embodiment. Further, the candidate viewpoint evaluation unit 322 obtains the evaluation value Eval (p) by the equation (11).

Figure 0006821326
Figure 0006821326

候補視点評価部322が、式(11)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、達成度が低い領域を観測可能な候補視点が選択されやすくなり、過去に観測したのとは異なる方向から撮像する候補視点が選ばれやすくなる。なお、それぞれの重み値w、w、w,wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。 When the candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint using the equation (11), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Furthermore, it becomes easier to select a candidate viewpoint that can observe a region with a low degree of achievement, and it becomes easier to select a candidate viewpoint that images from a direction different from that observed in the past. The respective weight values w V , w E , w H , and w d may be fixed values based on experience, may be changed according to the number of measurements, or may be changed according to other conditions. You may.

[複数の仕様に応じた動作]
複数のスペック要求が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、速度優先かつ複雑度優先の2つを実現したい場合は、候補視点生成部321は、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部322は、式(10)と式(11)を組合せた式(12)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき撮像部2の視点とする。これにより、複数のスペック要求に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
[Operation according to multiple specifications]
Even when a plurality of spec requirements are acquired, it is possible to appropriately determine the viewpoint of the imaging unit 2 to image the measurement target object 5 next. For example, when it is desired to realize both speed priority and complexity priority, the candidate viewpoint generation unit 321 generates a candidate viewpoint group based on each of the cases already described. Then, the candidate viewpoint evaluation unit 322 evaluates the candidate viewpoint by the formula (12) which is a combination of the formula (10) and the formula (11), and the candidate viewpoint having a high evaluation value is the viewpoint of the imaging unit 2 to be imaged next. To do. As a result, it is possible to appropriately determine the viewpoint of the imaging unit 2 to be imaged next in response to a plurality of spec requirements.

Figure 0006821326
Figure 0006821326

以上のように、実施形態2では、計測対象物体に対して、ユーザが選択したスペック要求に応じて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。すなわち、対象物体の計測において優先されるべき仕様の情報に応じて、計測対象物体を次に計測すべき計測手段の視点を適切に決定することができる。このように決定した視点に撮像部2を移動させて撮像を繰り返していくことによって、用途に関するスペック要求に応じた適切な計測を行うことができる。 As described above, in the second embodiment, the viewpoint of the measuring device (imaging unit 2) to measure the measurement target object next is appropriately determined according to the specification request selected by the user for the measurement target object. be able to. That is, it is possible to appropriately determine the viewpoint of the measuring means to measure the measurement target object next according to the information of the specifications that should be prioritized in the measurement of the target object. By moving the imaging unit 2 to the viewpoint determined in this way and repeating imaging, it is possible to perform appropriate measurement according to the specification requirements for the application.

<実施形態3>
実施形態3に係る計測システムは、移動可能範囲や移動速度等の移動手段の特性に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、移動手段の特性に応じた適切な計測を行うものである。実施形態1および2では、それぞれ用途とスペック要求に応じて適切な視点を決定する場合について説明したが、実施形態3では、撮像部2を計測対象物体5を計測する視点へ移動させる移動手段(視点設定部3)の特性の情報に応じて適切な視点を決定する。そのため、ユーザが自由に移動手段を取り替えても、移動手段に応じた適切な計測を行うことができる。実施形態3では、対象物体の三次元形状計測の用途を例に挙げて、移動手段の特性の例として、移動可能範囲、移動速度、移動精度の3つについて説明するが、実施形態3を適用可能な移動手段の特性はこれらに限定されない。
<Embodiment 3>
The measurement system according to the third embodiment appropriately determines the viewpoint of the imaging unit 2 to measure the object to be measured next according to the characteristics of the moving means such as the movable range and the moving speed. By measuring the object to be measured while sequentially moving the imaging unit to the determined viewpoint, appropriate measurement is performed according to the characteristics of the moving means. In the first and second embodiments, the case where an appropriate viewpoint is determined according to the application and the specification requirements, respectively, has been described. However, in the third embodiment, the moving means for moving the imaging unit 2 to the viewpoint for measuring the measurement target object 5 An appropriate viewpoint is determined according to the characteristic information of the viewpoint setting unit 3). Therefore, even if the user freely replaces the moving means, appropriate measurement can be performed according to the moving means. In the third embodiment, the use of three-dimensional shape measurement of the target object is taken as an example, and three examples of the characteristics of the moving means are the movable range, the moving speed, and the moving accuracy. However, the third embodiment is applied. The characteristics of possible means of transportation are not limited to these.

[装置の構成]
図11は、実施形態3に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置40とを備えている。実施形態3における計測システムは、実施形態2における図10の構成を一部変更したものであり、図11中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態3における情報処理装置40は、データ取得部41と、視点決定部42と、計測条件を取得する条件取得部43とを備えている。データ取得部41は、例えば三次元形状計測等のデータ処理を実行する。視点決定部42は、データ取得部41から供給されたデータ処理後のデータと条件取得部43から供給される計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
[Device configuration]
FIG. 11 is a block diagram showing a configuration example of the measurement system according to the third embodiment. This measurement system includes an imaging unit 2, a viewpoint setting unit 3, and an information processing device 40 that controls the viewpoint setting unit 3 in response to information from the imaging unit 2. The measurement system in the third embodiment is a partially modified version of the configuration of FIG. 10 in the second embodiment, and the imaging unit 2 and the viewpoint setting unit 3 in FIG. 11 are the same as those in the first embodiment and have the same operation. I do.
The information processing apparatus 40 according to the third embodiment includes a data acquisition unit 41, a viewpoint determination unit 42, and a condition acquisition unit 43 for acquiring measurement conditions. The data acquisition unit 41 executes data processing such as three-dimensional shape measurement. The viewpoint determination unit 42 determines the viewpoint of the imaging unit 2 to be imaged next from the data after data processing supplied from the data acquisition unit 41 and the measurement conditions supplied from the condition acquisition unit 43, and the viewpoint setting unit 42 determines the viewpoint of the imaging unit 2 to be imaged next. Supply to 3.

視点決定部42は、候補視点を生成する候補視点生成部421と、候補視点生成部421によって生成された候補視点に対して評価を行う候補視点評価部422とを備えている。また、条件取得部43は、移動手段である視点設定部3の特性の情報を取得する移動手段情報取得部433を備えている。
実施形態3では、条件取得部43における移動手段情報取得部433で取得した移動手段の特性の情報に応じて情報処理装置40内部の動作を変化させる。このため、まずは情報処理装置40内部の動作の概略についてのみ説明し、その後で、移動手段の特性ごとに場合分けして動作の詳細を説明する。
The viewpoint determination unit 42 includes a candidate viewpoint generation unit 421 that generates a candidate viewpoint and a candidate viewpoint evaluation unit 422 that evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 421. Further, the condition acquisition unit 43 includes a movement means information acquisition unit 433 that acquires information on the characteristics of the viewpoint setting unit 3 which is a movement means.
In the third embodiment, the operation inside the information processing apparatus 40 is changed according to the information on the characteristics of the moving means acquired by the moving means information acquisition unit 433 in the condition acquisition unit 43. Therefore, first, only the outline of the operation inside the information processing apparatus 40 will be described, and then the details of the operation will be described for each characteristic of the moving means.

データ取得部41は、撮像部2からカラー画像と距離画像に対して、三次元形状計測のデータ処理を実行する。そして、データ取得部41は、データ処理後のデータを視点決定部42に供給する。
視点決定部42は、データ取得部41から供給されるデータ処理後のデータと、条件取得部43から供給される移動手段の特性とに応じて、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。具体的には、まず、候補視点生成部421が移動手段の特性に応じて少なくとも1つの候補視点を生成する。候補視点評価部422は、候補視点生成部421によって生成された候補視点に対して移動手段の特性に応じた評価を行い、決定視点を選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
The data acquisition unit 41 executes data processing for three-dimensional shape measurement from the image pickup unit 2 on the color image and the distance image. Then, the data acquisition unit 41 supplies the data after the data processing to the viewpoint determination unit 42.
The viewpoint determination unit 42 is an imaging unit that should next image the measurement target object 5 according to the data after data processing supplied from the data acquisition unit 41 and the characteristics of the moving means supplied from the condition acquisition unit 43. Determine the viewpoint of 2. Specifically, first, the candidate viewpoint generation unit 421 generates at least one candidate viewpoint according to the characteristics of the moving means. The candidate viewpoint evaluation unit 422 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 421 according to the characteristics of the moving means, and selects the determination viewpoint. The candidate viewpoint evaluation unit 422 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

条件取得部43は、計測における条件を取得して、その情報を視点決定部42に供給する。実施形態3では、移動手段情報取得部433が移動手段の特性の情報を取得し、取得した移動手段の特性の情報を視点決定部42に供給する。移動手段情報取得部433が取得する移動手段の特性の情報は、例えばURDF(Unified Robot Description Format)の設定ファイル等から求めることができる。実施形態3において移動手段の特性の情報には、例えば視点設定部3の移動可能範囲、移動精度、移動速度のいずれか1つ以上が含まれる。 The condition acquisition unit 43 acquires the conditions in the measurement and supplies the information to the viewpoint determination unit 42. In the third embodiment, the moving means information acquisition unit 433 acquires the information on the characteristics of the moving means, and supplies the acquired information on the characteristics of the moving means to the viewpoint determination unit 42. Information on the characteristics of the moving means acquired by the moving means information acquisition unit 433 can be obtained from, for example, a setting file of URDF (Unified Robot Description Form) or the like. In the third embodiment, the information on the characteristics of the moving means includes, for example, any one or more of the movable range, the moving accuracy, and the moving speed of the viewpoint setting unit 3.

[計測と視点決定処理]
以下、実施形態3の計測システムによる計測と視点決定処理を説明する。実施形態3では、後に場合分けして説明する移動手段の特性によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態3における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態3におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
[Measurement and viewpoint determination processing]
Hereinafter, measurement and viewpoint determination processing by the measurement system of the third embodiment will be described. In the third embodiment, the flow of processing can be described by using the same flowchart regardless of the characteristics of the moving means, which will be described later in each case. Further, since the overall flow of the process in the third embodiment is the same as the flow chart of FIG. 4, the description will be given with reference to FIG. Further, the processing in S2, S3, S4, and S6 in the third embodiment is the same as that in the first embodiment, and since the same processing is performed, only the other S1 and S5 will be described.

S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部43の移動手段情報取得部433における移動手段の特性の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S5では、視点決定部42は、データ取得部41から供給されたデータ処理後のデータと移動手段情報取得部433で取得された移動手段の特性とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部421によって候補視点を生成し、生成された候補視点を候補視点評価部422によって評価し、条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
In S1, the initialization process is executed in the measurement system. In the initialization process, the imaging unit 2 is activated, the viewpoint setting unit 3 is activated, the characteristics of the moving means in the moving means information acquisition unit 433 of the condition acquisition unit 43 are acquired, the background model is read, and the imaging unit 2 is used as the initial viewpoint. The process of moving to is included. The initial viewpoint may be freely determined within the range in which the measurement target object 5 can be observed.
In S5, the viewpoint determining unit 42 should image the next image capturing unit 2 based on the data after data processing supplied from the data acquisition unit 41 and the characteristics of the moving means acquired by the moving means information acquisition unit 433. Determine the viewpoint of. More specifically, the candidate viewpoint generation unit 421 generates a candidate viewpoint, the generated candidate viewpoint is evaluated by the candidate viewpoint evaluation unit 422, and the candidate viewpoint with the highest evaluation among the conditions is selected as the determination viewpoint. .. The candidate viewpoint evaluation unit 422 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

次に、情報処理装置40の内部の動作に関して、移動可能範囲、移動精度、移動速度のそれぞれの移動手段の特性の情報が取得された場合の動作について、具体的な処理内容を順に説明する。
[特性1:移動可能範囲]
条件取得部43の移動手段情報取得部433において、視点設定部3の移動可能範囲が取得された場合には、計測対象物体5の全周からの三次元モデルを生成する際に、視点として選べる範囲が限定される。本計測において次に撮像する視点を選択する基準は、生成された候補視点を、視点設定部3が移動可能な範囲内にすることである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様に、ポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
Next, with respect to the internal operation of the information processing apparatus 40, specific processing contents will be described in order regarding the operation when information on the characteristics of the moving means such as the movable range, the moving accuracy, and the moving speed is acquired.
[Characteristic 1: Movable range]
When the movable range of the viewpoint setting unit 3 is acquired by the moving means information acquisition unit 433 of the condition acquisition unit 43, it can be selected as the viewpoint when generating a three-dimensional model from the entire circumference of the measurement target object 5. The range is limited. The criterion for selecting the viewpoint to be imaged next in this measurement is to set the generated candidate viewpoint within the range in which the viewpoint setting unit 3 can move.
In S3, the data acquisition unit 41 generates polygon data as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 41 updates the polygon data based on the distance images whose viewpoints are sequentially supplied.

S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動可能範囲を示す情報が供給される。視点決定部42は、ポリゴンデータと移動可能範囲を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、得られた候補視点を移動可能範囲内に限定する方法を、図12を用いて説明する。図12に示すように、候補視点301a〜301cは、候補視点生成部421で生成された候補視点の視点位置(矢印と逆側の三角形の頂点の位置)と視線方向(矢印の方向)を示している。候補視点生成部421は、候補視点301aのように、移動可能範囲302内に生成された候補視点については、そのまま候補視点として利用する。撮像部301bのように、移動可能範囲302の外にある候補視点については、候補視点生成部421は、視線方向に沿って候補視点を移動させた場合に、候補視点301b’のように移動可能範囲302内に入れば、移動させた候補視点を新たな候補視点とする。一方、候補視点301cのように視線方向に沿って視点を移動させても移動可能範囲302内に入らない場合には、候補視点生成部421は、当該候補視点を候補視点から除外する。 In S5, polygon data is supplied from the data acquisition unit 41 to the viewpoint determination unit 42, and information indicating the movable range is supplied from the condition acquisition unit 43. The viewpoint determining unit 42 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the information indicating the movable range. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 421 can be executed in the same manner as in the first embodiment. Further, a method of limiting the obtained candidate viewpoints within the movable range will be described with reference to FIG. As shown in FIG. 12, the candidate viewpoints 301a to 301c indicate the viewpoint position (position of the apex of the triangle opposite to the arrow) and the line-of-sight direction (direction of the arrow) of the candidate viewpoint generated by the candidate viewpoint generation unit 421. ing. The candidate viewpoint generation unit 421 uses the candidate viewpoint generated within the movable range 302 as it is as the candidate viewpoint, such as the candidate viewpoint 301a. For a candidate viewpoint outside the movable range 302 like the imaging unit 301b, the candidate viewpoint generation unit 421 can move like the candidate viewpoint 301b'when the candidate viewpoint is moved along the line-of-sight direction. If it falls within the range 302, the moved candidate viewpoint becomes a new candidate viewpoint. On the other hand, when the viewpoint is moved along the line-of-sight direction but does not fall within the movable range 302 as in the candidate viewpoint 301c, the candidate viewpoint generation unit 421 excludes the candidate viewpoint from the candidate viewpoint.

候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が最大の候補視点を決定視点として選択する。すなわち、候補視点評価部422は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。ここでは評価値は、実施形態1と同様に、式(1)で計算する。この場合では、候補視点生成部421で生成された候補視点が、視点設定部3の移動可能範囲内に限定されているため、実施形態1の場合と比較して、パスプランニングの判定等の処理が必要なく、素早く次に撮像すべき撮像部2の視点を決定することができる。 The candidate viewpoint evaluation unit 422 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 421 and selects the candidate viewpoint having the maximum evaluation value as the determination viewpoint. That is, the candidate viewpoint evaluation unit 422 applies an evaluation function corresponding to the measurement condition to the plurality of candidate viewpoints, and selects one or more viewpoints from the plurality of candidate viewpoints. Here, the evaluation value is calculated by the equation (1) as in the first embodiment. In this case, since the candidate viewpoint generated by the candidate viewpoint generation unit 421 is limited to the movable range of the viewpoint setting unit 3, processing such as determination of path planning is performed as compared with the case of the first embodiment. It is possible to quickly determine the viewpoint of the imaging unit 2 to be imaged next.

[特性2:移動精度]
移動手段情報取得部433において、視点設定部3を移動させた際の視点位置姿勢の再現性の精度(移動精度)が取得された場合には、計測システムが想定している視点位置姿勢と、実際の視点位置姿勢との違いがどの程度あるかが既知となる。一般的に移動精度は位置や回転に関する移動が大きいほど悪くなる傾向がある。本計測において次に撮像する視点を選択する基準としては、移動を繰り返した際に、視点設定部3の移動精度がなるべく悪くならないようにすることである。
[Characteristic 2: Movement accuracy]
When the moving means information acquisition unit 433 acquires the accuracy (movement accuracy) of the reproducibility of the viewpoint position / posture when the viewpoint setting unit 3 is moved, the viewpoint position / posture assumed by the measurement system and the viewpoint position / posture are determined. It becomes known how much the difference from the actual viewpoint position and posture is. In general, the movement accuracy tends to deteriorate as the movement related to position and rotation increases. The criterion for selecting the viewpoint to be imaged next in this measurement is to prevent the movement accuracy of the viewpoint setting unit 3 from being deteriorated as much as possible when the movement is repeated.

データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様に、ポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。なお、移動精度に応じて視点の位置姿勢に誤差が生じるため、データ取得部41は、ICP等の位置合わせ手法を用いて点群の位置合わせを行う場合には、移動精度を考慮して行う。具体的には、データ取得部41は、移動精度に応じて、得られる三次元点群の最大ずれ量Tを求め、ICPにおいて対応する点であると見なす時の距離の差としてTを許容して位置合わせを行う。このように移動精度に応じた位置合わせを行うことで、移動精度が高い場合には、無駄な対応を計算する時間を省くことができ、移動精度が低い場合には、対応を見つけられず位置合わせに失敗することが少なくなる。 In S3, the data acquisition unit 41 generates polygon data as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 41 updates the polygon data based on the distance images whose viewpoints are sequentially supplied. Since an error occurs in the position and orientation of the viewpoint depending on the movement accuracy, the data acquisition unit 41 takes the movement accuracy into consideration when aligning the point cloud using an alignment method such as ICP. .. Specifically, the data acquisition unit 41 obtains the maximum deviation amount T g of the obtained three-dimensional point cloud according to the movement accuracy, and sets T g as the difference in distance when it is regarded as the corresponding point in ICP. Allow and align. By aligning according to the movement accuracy in this way, when the movement accuracy is high, it is possible to save the time for calculating unnecessary correspondence, and when the movement accuracy is low, the correspondence cannot be found and the position cannot be found. It is less likely that the alignment will fail.

S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動精度を示す情報が供給される。視点決定部42は、ポリゴンデータと位置精度を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421が候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、候補視点生成部421は、移動精度が基準よりも高い場合には、得られた候補視点を外挿してさらに移動した場合の候補視点を生成する。移動精度が基準よりも低い場合には、候補視点生成部421は、得られた候補視点を内挿して移動変位を小さくした場合の候補視点を生成する。このような候補視点を追加することで、解の候補を適切に増やし、より良い視点を求めやすくなる。 In S5, polygon data is supplied from the data acquisition unit 41 to the viewpoint determination unit 42, and information indicating the movement accuracy is supplied from the condition acquisition unit 43. The viewpoint determining unit 42 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the information indicating the position accuracy. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 421 can be executed in the same manner as in the first embodiment. Further, the candidate viewpoint generation unit 421 extrapolates the obtained candidate viewpoint when the movement accuracy is higher than the reference, and generates a candidate viewpoint when the movement is further performed. When the movement accuracy is lower than the reference, the candidate viewpoint generation unit 421 generates a candidate viewpoint when the movement displacement is reduced by interpolating the obtained candidate viewpoint. By adding such candidate viewpoints, it becomes easier to appropriately increase the number of solution candidates and seek a better viewpoint.

候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値は、実施形態1と同様に、式(1)で計算する。この場合では、候補視点生成部321で生成された候補視点が、移動精度を考慮した質の良い視点であるため、実施形態1の場合と比較して、効率良く次に撮像すべき撮像部2の視点を求めることができる。 The candidate viewpoint evaluation unit 422 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 421 and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, the evaluation value is calculated by the equation (1) as in the first embodiment. In this case, since the candidate viewpoint generated by the candidate viewpoint generation unit 321 is a high-quality viewpoint in consideration of the movement accuracy, the imaging unit 2 to be imaged next more efficiently than in the case of the first embodiment. You can ask for the viewpoint of.

[特性3:移動速度]
移動手段情報取得部433において、視点設定部3を移動させる時の移動速度が取得された場合の動作を説明する。移動速度が速い場合には長い距離を移動する場合でも特に問題無いが、移動速度が遅い場合には、長い距離を移動させてしまうと、移動時間に多くの時間が割かれてしまう。そこで、本計測において次に撮像する視点を選択する基準は、視点設定部3の移動速度に基づいて、移動時間が基準値を超えないことである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
[Characteristic 3: Movement speed]
The operation when the moving speed when moving the viewpoint setting unit 3 is acquired by the moving means information acquisition unit 433 will be described. When the moving speed is high, there is no particular problem even when moving a long distance, but when the moving speed is slow, if the moving speed is long, a lot of time is devoted to the moving time. Therefore, the criterion for selecting the viewpoint to be imaged next in this measurement is that the movement time does not exceed the reference value based on the movement speed of the viewpoint setting unit 3.
In S3, the data acquisition unit 41 generates polygon data in the same manner as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 41 updates the polygon data based on the distance images whose viewpoints are sequentially supplied.

S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動速度が供給される。視点決定部42は、ポリゴンデータと移動速度を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、移動速度が基準よりも速い場合には、候補視点生成部421は、得られた候補視点を外挿してさらに移動した場合の候補視点を生成する。移動速度が基準よりも遅い場合には、候補視点生成部421は、得られた候補視点を内挿して移動変位を小さくした場合の候補視点を生成する。このような候補視点を追加することで、解の候補を適切に増やし、より良い視点が求めやすくなる。 In S5, polygon data is supplied to the viewpoint determination unit 42 from the data acquisition unit 41, and the moving speed is supplied from the condition acquisition unit 43. The viewpoint determining unit 42 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the information indicating the moving speed. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 421 can be executed in the same manner as in the first embodiment. Further, when the moving speed is faster than the reference, the candidate viewpoint generation unit 421 extrapolates the obtained candidate viewpoint and generates a candidate viewpoint when further moving. When the moving speed is slower than the reference, the candidate viewpoint generation unit 421 generates a candidate viewpoint when the movement displacement is reduced by interpolating the obtained candidate viewpoint. By adding such candidate viewpoints, the number of solution candidates can be increased appropriately, and it becomes easier to obtain a better viewpoint.

候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、候補視点評価部422は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部422は、現在の視点qから候補視点pへの移動距離M(q、p)を求め、式(13)で評価値Eval(p)を計算する。 The candidate viewpoint evaluation unit 422 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 421 and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, the candidate viewpoint evaluation unit 422 can first observe the number V (p) of "unknown" voxels that can be observed from the candidate viewpoint p using the voxels and the polygon data from the candidate viewpoint p as in the first embodiment. Find the number of unconnected edges E (p). Further, the candidate viewpoint evaluation unit 422 obtains the moving distance M (q, p) from the current viewpoint q to the candidate viewpoint p, and calculates the evaluation value Eval (p) by the equation (13).

Figure 0006821326
Figure 0006821326

ただし、vは視点設定部3の移動速度、Tは移動時間の許容範囲を表す閾値である。
候補視点評価部422が、式(13)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、移動時間が閾値を超える場合には評価値が大きく減点されるため、移動速度に応じて、移動時間が閾値を超えない範囲で適切な視点が選ばれやすくなる。候補視点評価部422は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮影すべき撮像部2の視点を決定する。なお、それぞれの重み値w、w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
However, v is the moving speed of the viewpoint setting unit 3, and Tt is a threshold value representing an allowable range of moving time.
By evaluating the candidate viewpoint using the equation (13), the candidate viewpoint evaluation unit 422 has a voxel that has not been observed yet, a place where the polygon data is interrupted, or a hole as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Further, when the movement time exceeds the threshold value, the evaluation value is greatly deducted, so that an appropriate viewpoint can be easily selected within the range where the movement time does not exceed the threshold value according to the movement speed. Similar to the case of the three-dimensional shape measurement of the first embodiment, the candidate viewpoint evaluation unit 422 determines the path planning in order from the viewpoint having the highest evaluation value, and the viewpoint of the imaging unit 2 in which the measurement target object 5 should be photographed next. To determine. The respective weight values w V , w E , and w M may be fixed values based on experience, may be changed according to the number of measurements, or may be changed according to other conditions. ..

[複数の特性に応じた動作]
移動手段の複数の特性が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、移動可能範囲と移動速度の2つが与えられた場合は、候補視点生成部421が、既に述べたそれぞれの場合に基づいて候補視点群を生成し、さらに、移動可能範囲に基づいて候補視点を限定する。この上で、候補視点評価部422が、式(13)によって候補視点を評価して、次に撮像すべき撮像部2の視点とする。これにより、移動手段の複数の特性に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
以上のように、実施形態3では、取得された移動手段の特性の情報に基づいて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。このように決定された視点に撮像部2を移動させて撮像を繰り返していくことによって、移動手段が置き換えられたとしても、適切な計測を行うことができる。
[Operation according to multiple characteristics]
Even when a plurality of characteristics of the moving means are acquired, it is possible to appropriately determine the viewpoint of the imaging unit 2 to image the measurement target object 5 next. For example, when two of the movable range and the moving speed are given, the candidate viewpoint generation unit 421 generates a candidate viewpoint group based on each of the cases already described, and further, the candidate viewpoint is based on the movable range. To limit. On this basis, the candidate viewpoint evaluation unit 422 evaluates the candidate viewpoint according to the equation (13), and sets the viewpoint of the imaging unit 2 to be imaged next. As a result, the viewpoint of the imaging unit 2 to be imaged next can be appropriately determined according to the plurality of characteristics of the moving means.
As described above, in the third embodiment, the viewpoint of the measuring device (imaging unit 2) to measure the object to be measured next can be appropriately determined based on the acquired information on the characteristics of the moving means. By moving the imaging unit 2 to the viewpoint determined in this way and repeating the imaging, appropriate measurement can be performed even if the moving means is replaced.

<実施形態4>
実施形態4の計測システムは、ユーザからの計測指示の情報に応じて、計測対象物体を次に計測すべき適切な撮像部2の視点を決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、ユーザの意図を反映しながら計測を行うものである。実施形態1から3では、それぞれ用途、スペック要求、移動手段の特性に基づいて次に計測すべき視点を決定していたが、実施形態4では、ユーザが直接指定した領域や方向等の計測指示の情報に基づいて、計測対象物体を次に計測すべき視点を決定する。このため、ユーザの意図をより直接的に伝えて視点を求めることができる。実施形態4では、計測対象物体の三次元形状計測の用途を例に挙げて、ユーザからの計測指示の例として、計測対象物体上の注目領域、計測対象外領域(無視してよい領域)、注目方向の3つについて説明するが、実施形態4を適用可能なユーザからの計測指示はこれらに限定されない。
<Embodiment 4>
The measurement system of the fourth embodiment determines an appropriate viewpoint of the imaging unit 2 to measure the object to be measured next according to the information of the measurement instruction from the user. By measuring the object to be measured while sequentially moving the imaging unit to the determined viewpoint, the measurement is performed while reflecting the intention of the user. In the first to third embodiments, the viewpoint to be measured next is determined based on the application, the specification requirement, and the characteristics of the transportation means, respectively, but in the fourth embodiment, the measurement instruction of the area, direction, etc. directly specified by the user is determined. Based on the information in, determine the viewpoint at which the object to be measured should be measured next. Therefore, it is possible to more directly convey the user's intention and obtain a viewpoint. In the fourth embodiment, the use of three-dimensional shape measurement of the object to be measured is taken as an example, and as an example of the measurement instruction from the user, a region of interest on the object to be measured, a region not to be measured (a region that can be ignored), Although the three directions of attention will be described, the measurement instructions from the user to which the fourth embodiment can be applied are not limited to these.

[装置の構成]
図13は、実施形態4に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置50とを備えている。実施形態4における計測システムは、実施形態2における図10の構成を一部変更したものであり、図13中の撮像部2、視点設定部3は、実施形態2と同じであり、同様の動作を行う。
実施形態4における情報処理装置50は、撮像部2から情報を取得するデータ取得部51と、撮像部2の視点を決定する視点決定部52と、計測条件を取得する条件取得部53とを備えている。データ取得部51は、例えば三次元形状計測等のデータ処理を実行する。視点決定部52は、データ取得部51から供給されたデータ処理後のデータと条件取得部53から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
視点決定部52は、候補視点を生成する候補視点生成部521と、候補視点生成部521によって生成された候補視点に対して評価を行う候補視点評価部522とを備えている。また、条件取得部53は、ユーザからの計測指示の情報を取得する計測指示情報取得部534を備えている。
[Device configuration]
FIG. 13 is a block diagram showing a configuration example of the measurement system according to the fourth embodiment. This measurement system includes an imaging unit 2, a viewpoint setting unit 3, and an information processing device 50 that controls the viewpoint setting unit 3 in response to information from the imaging unit 2. The measurement system in the fourth embodiment is a partially modified version of the configuration of FIG. 10 in the second embodiment, and the imaging unit 2 and the viewpoint setting unit 3 in FIG. 13 are the same as those in the second embodiment and have the same operation. I do.
The information processing device 50 according to the fourth embodiment includes a data acquisition unit 51 that acquires information from the image pickup unit 2, a viewpoint determination unit 52 that determines the viewpoint of the image pickup unit 2, and a condition acquisition unit 53 that acquires measurement conditions. ing. The data acquisition unit 51 executes data processing such as three-dimensional shape measurement. The viewpoint determination unit 52 determines the viewpoint of the imaging unit 2 to be imaged next from the data after data processing supplied from the data acquisition unit 51 and the measurement conditions supplied from the condition acquisition unit 53, and determines the viewpoint of the image pickup unit 2 to be imaged next. Supply to 3.
The viewpoint determination unit 52 includes a candidate viewpoint generation unit 521 that generates a candidate viewpoint and a candidate viewpoint evaluation unit 522 that evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 521. Further, the condition acquisition unit 53 includes a measurement instruction information acquisition unit 534 that acquires information on the measurement instruction from the user.

実施形態4では、条件取得部53における計測指示情報取得部534で取得したユーザからの計測指示の情報に応じて情報処理装置50内部の動作を変化させる。このため、まずは情報処理装置50内部の動作の概略についてのみ説明し、その後で、ユーザからの計測指示ごとに場合分けして動作の詳細を説明する。
データ取得部51は、撮像部2からカラー画像と距離画像を受け取り、三次元形状計測のデータ処理を実行する。そして、データ取得部51は、データ処理後のデータを視点決定部52に供給する。
In the fourth embodiment, the operation inside the information processing apparatus 50 is changed according to the information of the measurement instruction from the user acquired by the measurement instruction information acquisition unit 534 of the condition acquisition unit 53. Therefore, first, only the outline of the operation inside the information processing apparatus 50 will be described, and then the details of the operation will be described for each measurement instruction from the user.
The data acquisition unit 51 receives a color image and a distance image from the image pickup unit 2 and executes data processing for three-dimensional shape measurement. Then, the data acquisition unit 51 supplies the data after the data processing to the viewpoint determination unit 52.

視点決定部52は、データ取得部51から供給されるデータ処理後のデータと、条件取得部53から供給されるユーザからの計測指示の情報とに応じて、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。具体的には、まず、候補視点生成部521がユーザからの計測指示の情報に応じて少なくとも1つの候補視点を生成する。候補視点評価部522は、補視点生成部521によって生成された候補視点に対してユーザの計測指示に応じた評価を行い、決定視点を選択する。候補視点評価部522は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。 The viewpoint determination unit 52 next captures the measurement target object 5 according to the data after data processing supplied from the data acquisition unit 51 and the information of the measurement instruction from the user supplied from the condition acquisition unit 53. The viewpoint of the power imaging unit 2 is determined. Specifically, first, the candidate viewpoint generation unit 521 generates at least one candidate viewpoint according to the information of the measurement instruction from the user. The candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint generated by the supplementary viewpoint generation unit 521 according to the measurement instruction of the user, and selects the determination viewpoint. The candidate viewpoint evaluation unit 522 supplies the selected determined viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.

条件取得部53は計測指示の情報を取得して、取得した計測指示の情報を視点決定部52に送る。実施形態4では、計測指示情報取得部534がユーザからの計測指示を取得して、取得した条件指示を視点決定部52に供給する。計測指示情報取得部534が取得する計測指示の情報は、例えばタッチパネルに計測シーンを撮影した映像を表示させ、ユーザからの領域や方向の指示を入力することで取得することができる。ただし、例えば三次元形状計測の場合には、計測を終了する前に計測対象物体5の三次元モデルや全周からの映像を得ることは困難である。このため、ユーザが計測指示を入力する際には、実際の計測対象物体5ではなく、直方体や円柱等の簡易なモデルによって計測対象物体5を表現することによって、ユーザが注目領域等を容易に指定することができるようにしてもよい。実施形態4では、ユーザからの計測指示の情報には、計測対象物体上の注目領域、計測対象外領域、注目方向のいずれか1つ以上が含まれる。 The condition acquisition unit 53 acquires the measurement instruction information and sends the acquired measurement instruction information to the viewpoint determination unit 52. In the fourth embodiment, the measurement instruction information acquisition unit 534 acquires the measurement instruction from the user and supplies the acquired condition instruction to the viewpoint determination unit 52. The measurement instruction information acquired by the measurement instruction information acquisition unit 534 can be acquired, for example, by displaying a captured image of the measurement scene on the touch panel and inputting an area or direction instruction from the user. However, in the case of, for example, three-dimensional shape measurement, it is difficult to obtain a three-dimensional model of the object to be measured 5 or an image from the entire circumference before the measurement is completed. Therefore, when the user inputs a measurement instruction, the measurement target object 5 is represented not by the actual measurement target object 5 but by a simple model such as a rectangular parallelepiped or a cylinder, so that the user can easily select the area of interest or the like. It may be possible to specify. In the fourth embodiment, the information of the measurement instruction from the user includes any one or more of the attention region, the non-measurement target region, and the attention direction on the measurement target object.

[計測と視点決定処理]
以下、実施形態4の計測システムによる計測と視点決定処理を説明する。実施形態4では、後に場合分けして説明するユーザからの計測指示によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態4における処理全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。実施形態4におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部53の計測指示情報取得部534におけるユーザからの計測指示の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
[Measurement and viewpoint determination processing]
Hereinafter, measurement and viewpoint determination processing by the measurement system of the fourth embodiment will be described. In the fourth embodiment, the flow of processing can be described by using the same flowchart regardless of the measurement instruction from the user, which will be described later in each case. Further, since the flow of the entire process in the fourth embodiment is the same as the flow chart of FIG. 4, a description will be given with reference to FIG. The processing in S2, S3, S4, and S6 in the fourth embodiment is the same as that in the first embodiment, and since the same processing is performed, only the other S1 and S5 will be described.
In S1, the initialization process is executed in the measurement system. In the initialization process, the imaging unit 2 is activated, the viewpoint setting unit 3 is activated, the measurement instruction information acquisition unit 534 of the condition acquisition unit 53 acquires the measurement instruction from the user, the background model is read, and the imaging unit 2 is initially set. It includes processing to move to the viewpoint. The initial viewpoint may be freely determined within the range in which the measurement target object 5 can be observed.

S5では、視点決定部52は、データ取得部51から供給されたデータ処理後のデータと計測指示情報取得部534で得られたユーザからの計測指示とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部521によって候補視点を生成し、生成された候補視点を候補視点評価部522によって評価し、条件を満たす中で最も評価が高かった視点を決定視点として選択する。候補視点評価部522は、選択した視点を、次に撮像をすべき撮像部2の視点として視点設定部3に供給する。
なお、ここではS1でのみユーザからの計測指示が与えられるかのように説明したが、これに限定されるものではない。どのステップにおいても任意のタイミングにおいてユーザからの計測指示は指定可能であり、指定された次の候補視点生成処理においてユーザからの計測指示が反映されて候補視点が生成されるものとする。
In S5, the viewpoint determination unit 52 should next take an image based on the data after data processing supplied from the data acquisition unit 51 and the measurement instruction from the user obtained by the measurement instruction information acquisition unit 534. Determine the viewpoint of 2. More specifically, the candidate viewpoint generation unit 521 generates a candidate viewpoint, the generated candidate viewpoint is evaluated by the candidate viewpoint evaluation unit 522, and the viewpoint with the highest evaluation among the conditions is selected as the determination viewpoint. The candidate viewpoint evaluation unit 522 supplies the selected viewpoint to the viewpoint setting unit 3 as the viewpoint of the imaging unit 2 to be imaged next.
Although the explanation here is given as if the measurement instruction from the user is given only in S1, the present invention is not limited to this. It is assumed that the measurement instruction from the user can be specified at any timing in any step, and the candidate viewpoint is generated by reflecting the measurement instruction from the user in the next designated candidate viewpoint generation process.

次に、情報処理装置50の内部の動作に関して、計測対象物体上の注目領域、計測対象外領域、注目方向のそれぞれの計測指示の情報が得られた場合の動作について、具体的な処理内容を順に説明する。
[計測指示1:注目領域]
条件取得部53の計測指示情報取得部534において、計測対象物体5上の注目領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは注目領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目領域の表面をなるべく観測することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
Next, regarding the internal operation of the information processing device 50, the specific processing content of the operation when the information of the measurement instruction of each of the attention area, the non-measurement target area, and the attention direction on the measurement target object is obtained is described. It will be explained in order.
[Measurement instruction 1: Area of interest]
The operation when the measurement instruction information acquisition unit 534 of the condition acquisition unit 53 acquires the region of interest on the measurement target object 5 as a measurement instruction from the user will be described. Here, the area of interest is designated as a front and back surface. The criterion for selecting the next viewpoint to be imaged in this measurement is to observe the surface of the region of interest specified by the user as much as possible.
In S3, the data acquisition unit 51 generates polygon data in the same manner as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 51 updates the polygon data based on the distance images whose viewpoints are sequentially supplied.

計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、またはユーザ指定の注目領域が無いかを確認して判定するようにしてもよい。終了判定部は、途切れている箇所や穴、またはユーザ指定の注目領域が無い場合に計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目領域が供給される。視点決定部52は、ポリゴンデータと注目領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目領域を計測できる候補視点を生成する。
The end of the measurement may be determined by the end determination unit (not shown) receiving polygon data from the data acquisition unit 51 and confirming whether or not there is an interrupted portion or hole or a user-specified region of interest. The end determination unit ends the measurement when there is no break, a hole, or a user-specified region of interest.
In S5, polygon data is supplied to the viewpoint determination unit 52 from the data acquisition unit 51, and the region of interest is supplied from the condition acquisition unit 53. The viewpoint determining unit 52 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the region of interest. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 521 can be executed in the same manner as in the first embodiment. Further, the candidate viewpoint generation unit 521 generates a candidate viewpoint capable of measuring a region of interest designated by the user.

候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部522は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。ここでは候補視点評価部522は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部522は、候補視点pから観測可能なユーザ指定の注目領域の面積S(p)を求め、式(14)で評価値を計算する。
Eval(p)=wV(p)+wE(p)+wS(p) (14)
The candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 521, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. That is, the candidate viewpoint evaluation unit 522 applies an evaluation function corresponding to the measurement condition to the plurality of candidate viewpoints, and selects one or more viewpoints from the plurality of candidate viewpoints. Here, the candidate viewpoint evaluation unit 522 can first observe the number V (p) of “unknown” voxels that can be observed from the candidate viewpoint p using the voxels and the polygon data from the candidate viewpoint p as in the first embodiment. Find the number E (p) of unconnected edges. Further, the candidate viewpoint evaluation unit 522 obtains the area S (p) of the user-specified region of interest that can be observed from the candidate viewpoint p, and calculates the evaluation value by the equation (14).
Eval (p) = w V V (p) + w E E (p) + w S S (p) (14)

候補視点評価部522が、式(14)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザ指定の注目領域が存在する場合には、注目領域の表面を観測できる視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。 When the candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint using the equation (14), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Further, when a user-specified region of interest exists, it becomes easy to select a viewpoint capable of observing the surface of the region of interest. Similar to the case of the three-dimensional shape measurement of the first embodiment, the candidate viewpoint evaluation unit 522 determines the path planning in order from the viewpoint having the highest evaluation value, and the viewpoint of the imaging unit 2 to image the measurement target object 5 next. To determine. The respective weight values w V , w E , and w S may be fixed values based on experience, may be changed according to the number of measurements, or may be changed according to other conditions.

[計測指示2:計測対象外領域]
条件取得部53の計測指示情報取得部534において、計測対象外領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは計測対象外領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した計測対象外領域の表面を評価値計算から除外することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
[Measurement instruction 2: Area not subject to measurement]
The operation when the measurement instruction information acquisition unit 534 of the condition acquisition unit 53 acquires the non-measurement target area as a measurement instruction from the user will be described. Here, it is assumed that the non-measurement target area is designated as a front and back surface. The criterion for selecting the next viewpoint to be imaged in this measurement is to exclude the surface of the non-measurement target region specified by the user from the evaluation value calculation.
In S3, the data acquisition unit 51 generates polygon data in the same manner as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 51 updates the polygon data based on the distance images whose viewpoints are sequentially supplied.

計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、およびユーザが指定した計測対象外領域を確認することによって判定してもよい。計測対象外領域の外に途切れている箇所や穴が無い場合には、終了判定部は、計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から計測対象外領域が供給される。視点決定部52は、ポリゴンデータと計測対象外領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。
The end of the measurement may be determined by the end determination unit (not shown) receiving polygon data from the data acquisition unit 51 and confirming the interrupted portion or hole and the non-measurement target area designated by the user. If there is no break or hole outside the measurement target area, the end determination unit ends the measurement.
In S5, polygon data is supplied from the data acquisition unit 51 to the viewpoint determination unit 52, and a non-measurement target area is supplied from the condition acquisition unit 53. The viewpoint determining unit 52 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the non-measurement target area. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 521 can be executed in the same manner as in the first embodiment.

候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、実施形態1と同様に、候補視点評価部522が、ボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求め、それらのうち計測対象外領域に含まれない数V’(p)を求める。ポリゴンデータにおいても同様に、候補視点評価部522が、候補視点pから観測可能な未接続エッジの数E(p)を求め、それらのうち計測対象外領域に含まれない数E’(p)を求める。候補視点評価部522は、求めたボクセルの数V’(p)と未接続エッジの数E’(p)を用いて式(15)で評価値を計算する。
Eval(p)=wV’(p)+wE’(p) (15)
The candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 521, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, as in the first embodiment, the candidate viewpoint evaluation unit 522 obtains the number V (p) of “unknown” voxels observable from the candidate viewpoint p using voxels, and puts them in the non-measurement target region. Find the number V'(p) that is not included. Similarly for polygon data, the candidate viewpoint evaluation unit 522 obtains the number E (p) of unconnected edges that can be observed from the candidate viewpoint p, and among them, the number E'(p) that is not included in the non-measurement target region. Ask for. The candidate viewpoint evaluation unit 522 calculates the evaluation value by the equation (15) using the obtained number V'(p) of voxels and the number E'(p) of unconnected edges.
Eval (p) = w V V'(p) + w E E'(p) (15)

候補視点評価部522が、式(15)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザが指定した計測対象外領域が存在する場合には、計測対象外領域の中で途切れている箇所や穴の空いている領域は評価から除外して、計測対象外領域以外の領域に基づいて定めた視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。 When the candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint using the equation (15), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Furthermore, if there is a non-measurement target area specified by the user, the part that is interrupted or has a hole in the non-measurement target area is excluded from the evaluation, and the area other than the non-measurement target area is included. It becomes easier to select the viewpoint determined based on. Similar to the case of the three-dimensional shape measurement of the first embodiment, the candidate viewpoint evaluation unit 522 determines the path planning in order from the viewpoint having the highest evaluation value, and the viewpoint of the imaging unit 2 to image the measurement target object 5 next. To determine. The respective weight values w V and w E may be fixed values based on experience, may be changed according to the number of measurements, or may be changed according to other conditions.

[計測指示3:注目方向]
条件取得部53の計測指示情報取得部534において、計測対象物体5を注目すべき方向がユーザからの計測指示として取得された場合の動作を説明する。ここでは注目方向は空間ベクトルとして指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目方向と同じ方向の視点であることである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
[Measurement instruction 3: Direction of attention]
The operation when the measurement instruction information acquisition unit 534 of the condition acquisition unit 53 acquires the direction in which the measurement target object 5 should be noted as a measurement instruction from the user will be described. Here, the direction of interest is specified as a space vector. The criterion for selecting the next viewpoint to be imaged in this measurement is that the viewpoint is in the same direction as the attention direction specified by the user.
In S3, the data acquisition unit 51 generates polygon data in the same manner as in the case of the three-dimensional shape measurement in the first embodiment. The data acquisition unit 51 updates the polygon data based on the distance images whose viewpoints are sequentially supplied.

計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、またはユーザ指定の注目方向が無いかを確認することによって判定してもよい。終了判定部は、途切れている箇所や穴、またはユーザ指定の注目方向が無い場合には計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目方向が供給される。視点決定部52は、ポリゴンデータと注目方向とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目方向と同じ視線方向をもつ候補視点を生成する。
候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、候補視点評価部522は、まず、実施形態1と同様に、ボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部522は、式(16)を用いて評価値を計算する。
The end of the measurement may be determined by the end determination unit (not shown) receiving polygon data from the data acquisition unit 51 and confirming whether there is a break, a hole, or a user-specified attention direction. The end determination unit ends the measurement when there is no interruption, a hole, or a user-specified direction of attention.
In S5, polygon data is supplied to the viewpoint determination unit 52 from the data acquisition unit 51, and the attention direction is supplied from the condition acquisition unit 53. The viewpoint determining unit 52 determines the viewpoint of the imaging unit 2 to be imaged next from the polygon data and the direction of attention. The process of generating the candidate viewpoint by the candidate viewpoint generation unit 521 can be executed in the same manner as in the first embodiment. Further, the candidate viewpoint generation unit 521 generates a candidate viewpoint having the same line-of-sight direction as the attention direction specified by the user.
The candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint generated by the candidate viewpoint generation unit 521, and selects a candidate viewpoint having a high evaluation value and satisfying the condition as a determination viewpoint. Here, the candidate viewpoint evaluation unit 522 first observes the number V (p) of “unknown” voxels observable from the candidate viewpoint p using the voxels and the polygon data from the candidate viewpoint p, as in the first embodiment. Find the number of possible unconnected edges E (p). Further, the candidate viewpoint evaluation unit 522 calculates the evaluation value using the equation (16).

Figure 0006821326
Figure 0006821326

候補視点評価部522が、式(16)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザ指定の注目方向が存在する場合には、注目方向と同じ視線方向の視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。 When the candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint using the equation (16), there are voxels that have not been observed yet, and places or holes where the polygon data is interrupted, as in the equation (1). The evaluation value of the candidate viewpoint that can observe the area becomes high. Further, when a user-specified attention direction exists, it becomes easy to select a viewpoint in the same line-of-sight direction as the attention direction. Similar to the case of the three-dimensional shape measurement of the first embodiment, the candidate viewpoint evaluation unit 522 determines the path planning in order from the viewpoint having the highest evaluation value, and the viewpoint of the imaging unit 2 to image the measurement target object 5 next. To determine. The respective weight values w V , w E , and w d may be fixed values based on experience, may be changed according to the number of measurements, or may be changed according to other conditions.

[複数の条件指示に応じた動作]
ユーザからの計測指示が複数ある場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、注目領域と計測対象外領域の2つが与えられた場合は、候補視点生成部521が、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部522は、式(14)と式(15)を組合せた式(17)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の計測指示に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
Eval(p)=wV’(p)+wE’(p)+wS’(p) (17)
ただし、S’(p)は候補視点pからユーザ指定の注目領域のうち、計測対象外領域には含まれていない領域の表面の観測可能な面積を表す。
[Operation according to multiple conditional instructions]
Even when there are a plurality of measurement instructions from the user, it is possible to appropriately determine the viewpoint of the imaging unit 2 to image the measurement target object 5 next. For example, when two regions of interest and a region not to be measured are given, the candidate viewpoint generation unit 521 generates a candidate viewpoint group based on each of the cases already described. Then, the candidate viewpoint evaluation unit 522 evaluates the candidate viewpoint by the formula (17) which is a combination of the formula (14) and the formula (15), and sets the candidate viewpoint having a high evaluation value as the viewpoint to be imaged next. As a result, the viewpoint of the imaging unit 2 to be imaged next can be appropriately determined in response to the plurality of measurement instructions.
Eval (p) = w V V'(p) + w E E'(p) + w S S'(p) (17)
However, S'(p) represents an observable area on the surface of a region of interest specified by the user from the candidate viewpoint p that is not included in the region not included in the measurement target.

実施形態4では、ユーザからの計測指示の情報に応じて、計測対象物体を次に撮像すべき計測装置(撮像部2)の視点を適切に決定することができる。このように求めた視点に撮像部2を移動させて撮像を繰り返していくことによって、ユーザの意図を反映した計測を行うことができる。 In the fourth embodiment, it is possible to appropriately determine the viewpoint of the measuring device (imaging unit 2) that should next image the object to be measured according to the information of the measurement instruction from the user. By moving the imaging unit 2 to the viewpoint obtained in this way and repeating imaging, it is possible to perform measurement reflecting the intention of the user.

<変形例>
[条件取得部が複数の取得部を備える場合]
実施形態1から実施形態4では、いずれも条件取得部がある一つの計測条件を取得する取得部を備える場合について説明した。しかし、条件取得部が備える取得部の数は1つに限定されるものではなく、用途取得部、スペック要求取得部、移動手段情報取得部、計測指示情報取得部のうちの複数を含んでいてもよい。その場合も実施形態1における図4と同様のフローチャートによって処理を行うことができる。情報処理装置内部の処理についても、実施形態1から実施形態4で説明した処理を組合せればよい。
<Modification example>
[When the condition acquisition unit has multiple acquisition units]
In each of the first to fourth embodiments, the case where the condition acquisition unit includes the acquisition unit for acquiring one measurement condition has been described. However, the number of acquisition units provided in the condition acquisition unit is not limited to one, and includes a plurality of the application acquisition unit, the spec request acquisition unit, the transportation means information acquisition unit, and the measurement instruction information acquisition unit. May be good. In that case as well, the process can be performed according to the same flowchart as in FIG. 4 in the first embodiment. As for the processing inside the information processing apparatus, the processing described in the first to fourth embodiments may be combined.

例えば、図14に示すように、条件取得部63が、用途取得部631、スペック要求取得部632、移動手段情報取得部633、計測指示情報取得部634の4つを備える構成について説明する。計測条件として、例えば用途として三次元形状計測、優先すべきスペック要求として精度、移動手段の特性として移動可能範囲と移動速度、ユーザからの計測指示として注目方向が与えられる場合を想定する。この場合、候補視点生成部621は、各計測条件の項目によって候補視点を生成し、候補視点評価部622は、移動可能範囲による条件を満たす候補視点だけを選択し、選択した候補視点の中で、評価値を組み合わせた式(18)によって候補視点を評価する。 For example, as shown in FIG. 14, a configuration will be described in which the condition acquisition unit 63 includes four units: an application acquisition unit 631, a spec request acquisition unit 632, a moving means information acquisition unit 633, and a measurement instruction information acquisition unit 634. As measurement conditions, for example, it is assumed that three-dimensional shape measurement is given as an application, accuracy is given as a priority spec requirement, movable range and moving speed are given as characteristics of a moving means, and a direction of attention is given as a measurement instruction from a user. In this case, the candidate viewpoint generation unit 621 generates a candidate viewpoint according to each measurement condition item, and the candidate viewpoint evaluation unit 622 selects only the candidate viewpoints that satisfy the conditions according to the movable range, and among the selected candidate viewpoints. , The candidate viewpoint is evaluated by the formula (18) that combines the evaluation values.

Figure 0006821326
Figure 0006821326

このように、複数の計測条件を取得する取得部を組合せることにより、多様な計測条件に応じて、計測対象物体を次に計測すべき計測装置の視点を適切に決定することができる。これにより、ユーザからの計測に関する複雑な要望に応える計測を行うことができる。 In this way, by combining the acquisition units that acquire a plurality of measurement conditions, it is possible to appropriately determine the viewpoint of the measuring device to measure the object to be measured next according to various measurement conditions. As a result, it is possible to perform measurement in response to a complicated request from the user regarding measurement.

[条件取得部の条件を途中で変更する場合]
実施形態1から実施形態4では、いずれも条件取得部が最初に取得した計測条件に従って計測が終了するまで同じ評価式を用いて視点を決定する動作について説明した。しかし、条件取得部が計測の途中で計測条件を取得し、適宜変更しながら計測を行ってもよい。例えば、三次元計測の用途において、最初は速度優先のスペック要求を計測条件として計測を行い、一定時間が経過、または計測がある段階まで進んだら、複雑度優先のスペック要求とユーザからの条件指示である注目領域に基づく計測条件に変更してもよい。このように途中で条件を変更しながら計測を行うことで、よりユーザの要望に柔軟に対応しながら計測を行うことができる。
[When changing the conditions of the condition acquisition section]
In each of the first to fourth embodiments, the operation of determining the viewpoint by using the same evaluation formula until the measurement is completed according to the measurement condition first acquired by the condition acquisition unit has been described. However, the condition acquisition unit may acquire the measurement conditions in the middle of the measurement and perform the measurement while changing as appropriate. For example, in the use of three-dimensional measurement, measurement is first performed with speed-priority spec requirements as measurement conditions, and when a certain period of time elapses or the measurement reaches a certain stage, complexity-priority spec requirements and condition instructions from the user The measurement conditions may be changed based on the region of interest. By performing the measurement while changing the conditions on the way in this way, it is possible to perform the measurement while more flexibly responding to the user's request.

[計測対象物体を動かす場合]
実施形態1から実施形態4では、いずれも撮像部2が視点設定部3に取り付けられており、視点設定部3によって撮像部2の視点を変化させる例について説明した。しかし、視点設定部が移動させるのは撮像部に限定されるものではなく、視点設定部が計測対象物体を移動させるようにしてもよい。計測対象物体を移動させる場合には、例えば、視点設定部としてロボットハンドを用いて、ロボットハンドが計測対象物体を把持し、撮像部の前で姿勢を変化させることで計測対象物体を複数の視点から計測することができる。撮像部を固定し、視点設定部を用いて計測対象物体の方を動かすことによって、巨大または重量のあるような撮像部であっても、多視点からの計測が可能となる。また、撮像部と計測対象物体の両方を異なる2つのロボットハンドからなる視点設定部によって動かしながら計測すれば、片方だけを動かす場合と比べて半分の移動距離で目的の視点に移動できるため、計測完了までの時間を短縮することができる。
[When moving the object to be measured]
In each of the first to fourth embodiments, an example in which the image pickup unit 2 is attached to the viewpoint setting unit 3 and the viewpoint of the image pickup unit 2 is changed by the viewpoint setting unit 3 has been described. However, the movement of the viewpoint setting unit is not limited to the imaging unit, and the viewpoint setting unit may move the object to be measured. When moving the measurement target object, for example, using a robot hand as a viewpoint setting unit, the robot hand grasps the measurement target object and changes its posture in front of the imaging unit to display the measurement target object at a plurality of viewpoints. It can be measured from. By fixing the imaging unit and moving the object to be measured using the viewpoint setting unit, it is possible to measure from multiple viewpoints even if the imaging unit is huge or heavy. In addition, if both the imaging unit and the object to be measured are moved by the viewpoint setting unit consisting of two different robot hands, the target viewpoint can be moved to the target viewpoint with half the moving distance as compared with the case where only one is moved. The time to complete can be shortened.

[視点設定部が人を誘導する場合]
実施形態1から実施形態4では、いずれも視点設定部はロボットアームのような移動制御可能な機械である場合について述べた。しかし、視点設定部は移動制御可能な機械に限定されるものではなく、人を誘導することによって代替手段としてもよい。視点設定部が人を誘導する場合には、視点設定部はディスプレイ等に移動する方向や距離を表示することで、人の動きを誘導してやればよい。なお、人の動きを誘導する方法はディスプレイに限定されるものではない。例えば音の高低、大小、リズム等によって正しい移動かどうかを提示してもよいし、振動や刺激によって誘導するようにしてもよい。
[When the viewpoint setting unit guides people]
In each of the first to fourth embodiments, the case where the viewpoint setting unit is a movement-controllable machine such as a robot arm has been described. However, the viewpoint setting unit is not limited to a machine capable of controlling movement, and may be used as an alternative means by guiding a person. When the viewpoint setting unit guides a person, the viewpoint setting unit may guide the movement of the person by displaying the direction and distance of movement on a display or the like. The method of inducing the movement of a person is not limited to the display. For example, the correct movement may be indicated by the pitch, loudness, rhythm, etc. of the sound, or it may be guided by vibration or stimulation.

[通信部を用いたパラメータの共有]
実施形態1から実施形態4では、いずれも情報処理装置には撮像部2と視点設定部3が接続された例について述べたが、図15に示すように、情報処理装置70にさらに通信部4が接続されるようにしてもよい。通信部4は様々な計測条件や計測対象物体に対して、計測を行った際に評価値の計算式において用いた重みパラメータと計測結果の良し悪しに関するデータを外部と共有する機能を有する。本計測システムを多数設け、様々な計測条件や計測対象物体を計測した際の重みパラメータと計測結果をネットワークで接続されたサーバ等に集めることにより、パラメータと計測結果の関係性を求めることができる。この関連性を用いることにより、ユーザが初めて計測する計測対象物体に対して、ユーザが選んだ計測条件において、最も効果的な重みパラメータをサーバ等から取得して用いれば、ユーザが重みパラメータの調整を明示的に行うことなく効果的な計測を実行できる。
[Parameter sharing using the communication unit]
In each of the first to fourth embodiments, an example in which the image pickup unit 2 and the viewpoint setting unit 3 are connected to the information processing device has been described, but as shown in FIG. 15, the information processing device 70 is further connected to the communication unit 4. May be connected. The communication unit 4 has a function of sharing with the outside the weight parameters used in the calculation formula of the evaluation value when the measurement is performed for various measurement conditions and the object to be measured, and the data regarding the quality of the measurement result. By providing a large number of this measurement system and collecting the weight parameters and measurement results when measuring various measurement conditions and objects to be measured on a server connected via a network, the relationship between the parameters and the measurement results can be obtained. .. By using this relationship, the user can adjust the weight parameter by acquiring the most effective weight parameter from the server or the like under the measurement conditions selected by the user for the object to be measured for the first time by the user. Effective measurement can be performed without explicitly performing.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1…情報処理装置、2…撮像部、3…視点設定部、5…計測対象物体、11…データ取得部、12…視点決定部、13…条件取得部 1 ... Information processing device, 2 ... Imaging unit, 3 ... Viewpoint setting unit, 5 ... Measurement target object, 11 ... Data acquisition unit, 12 ... Viewpoint determination unit, 13 ... Condition acquisition unit

Claims (14)

対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得する第1の取得手段と、
前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、
前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、次に計測すべき前記計測手段の複数の候補視点を生成し、前記複数の候補視点に、前記第2の取得手段により取得された前記計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を決定する決定手段と、
を備えることを特徴とする情報処理装置。
A first acquisition means for acquiring measurement data obtained by measuring the target object by a measurement means for measuring the target object from a plurality of viewpoints,
A second acquisition means for acquiring at least one measurement condition among a plurality of measurement conditions when the measurement means measures the target object, and
Based on the measurement data acquired by the first acquisition means and the measurement conditions acquired by the second acquisition means, a plurality of candidate viewpoints of the measurement means to be measured next are generated. A determination means for determining one or more viewpoints from a plurality of candidate viewpoints by applying an evaluation function corresponding to the measurement condition acquired by the second acquisition means to the plurality of candidate viewpoints.
An information processing device characterized by being equipped with.
前記第2の取得手段は、前記計測手段により前記対象物体を計測する用途の情報を取得し、前記決定手段は、前記第2の取得手段により取得された前記用途の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1に記載の情報処理装置。 The second acquisition means acquires the information of the use for measuring the target object by the measurement means, and the determination means obtains the information of the use acquired by the second acquisition means, and then the next The information processing apparatus according to claim 1, wherein the viewpoint of the measuring means to be measured is determined. 前記第2の取得手段により取得される前記用途の情報は、前記対象物体についての、三次元形状計測、欠陥検査、特定物体認識および人物監視のいずれか1つ以上を含むことを特徴とする請求項2に記載の情報処理装置。 The information of the application acquired by the second acquisition means includes any one or more of three-dimensional shape measurement, defect inspection, specific object recognition, and person monitoring for the target object. Item 2. The information processing apparatus according to item 2. 前記第2の取得手段は、前記計測手段による前記対象物体の計測において優先されるべき仕様の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記仕様の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The second acquisition means acquires information on specifications that should be prioritized in the measurement of the target object by the measurement means.
Any one of claims 1 to 3, wherein the determination means determines the viewpoint of the measurement means to be measured next based on the information of the specifications acquired by the second acquisition means. The information processing device described in the section.
前記仕様の情報は、前記対象物体の計測における精度、速度および複雑度のいずれか1つ以上を含むことを特徴とする請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the information of the specifications includes any one or more of accuracy, speed, and complexity in the measurement of the target object. 前記第2の取得手段は、前記計測手段を、前記対象物体を計測する視点へ移動させる移動手段の特性の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記移動手段の特性の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
The second acquisition means acquires information on the characteristics of the moving means that moves the measuring means to the viewpoint for measuring the target object.
The determination means according to claims 1 to 5, wherein the determination means determines the viewpoint of the measurement means to be measured next based on the information on the characteristics of the moving means acquired by the second acquisition means. The information processing apparatus according to any one item.
前記移動手段の特性の情報は、前記計測手段の移動可能範囲、移動精度および移動速度のいずれか1つ以上を含むことを特徴とする請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the information on the characteristics of the moving means includes any one or more of the movable range, the moving accuracy, and the moving speed of the measuring means. 前記第2の取得手段は、ユーザからの計測指示の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記計測指示の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
The second acquisition means acquires information on measurement instructions from the user and obtains information.
Any of claims 1 to 7, wherein the determination means determines the viewpoint of the measurement means to be measured next based on the information of the measurement instruction acquired by the second acquisition means. The information processing apparatus according to item 1.
前記計測指示の情報は、前記対象物体上の注目領域、計測対象外領域および注目方向のいずれか1つ以上を含むことを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the information of the measurement instruction includes any one or more of a region of interest, a region not to be measured, and a direction of interest on the target object. 前記計測手段の視点に基づいて前記計測手段の位置姿勢を設定する設定手段に、前記決定手段が決定した前記次に計測すべき前記計測手段の視点を出力する出力手段をさらに備え、
前記第1の取得手段による前記計測データの取得と、前記決定手段による前記次に計測すべき前記計測手段の視点の決定と、前記出力手段による前記次に計測すべき前記計測手段の視点の出力とを繰り返す、ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
The setting means for setting the position and orientation of the measuring means based on the viewpoint of the measuring means is further provided with an output means for outputting the viewpoint of the measuring means to be measured next, which is determined by the determining means.
The acquisition of the measurement data by the first acquisition means, the determination of the viewpoint of the measurement means to be measured next by the determination means, and the output of the viewpoint of the measurement means to be measured next by the output means. The information processing apparatus according to any one of claims 1 to 9, wherein the information processing apparatus is repeated.
前記計測データに基づいて、前記決定手段による前記次に計測すべき前記計測手段の視点の決定の終了条件を判定する判定手段をさらに備えることを特徴とする請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, further comprising a determination means for determining an end condition for determining the viewpoint of the measurement means to be measured next by the determination means based on the measurement data. 対象物体を複数の視点から計測して計測データを出力する計測手段と、
前記計測手段から出力される前記計測データを処理する請求項1から11のいずれか1項に記載の情報処理装置と、
前記情報処理装置の決定手段により決定される前記次に計測すべき前記計測手段の1つ以上の視点に基づいて、前記計測手段の位置姿勢を設定する設定手段と、
を備えることを特徴とする計測システム。
A measuring means that measures a target object from multiple viewpoints and outputs measurement data,
The information processing apparatus according to any one of claims 1 to 11, which processes the measurement data output from the measurement means.
A setting means for setting the position and orientation of the measuring means based on one or more viewpoints of the measuring means to be measured next, which is determined by the determining means of the information processing device.
A measurement system characterized by being equipped with.
対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得するステップと、
前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得するステップと、
前記取得した計測データと前記取得した計測条件とに基づいて、次に計測すべき前記計測手段の複数の候補視点を生成し、前記複数の候補視点に、前記計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を決定するステップと、
を備えることを特徴とする情報処理方法。
A step of acquiring measurement data obtained by measuring the target object by a measuring means for measuring the target object from a plurality of viewpoints, and
A step of acquiring at least one measurement condition among a plurality of measurement conditions when the measurement means measures the target object, and
Based on the acquired measurement data and the acquired measurement conditions , a plurality of candidate viewpoints of the measurement means to be measured next are generated, and an evaluation function corresponding to the measurement conditions is applied to the plurality of candidate viewpoints. Then, the step of determining one or more viewpoints from multiple candidate viewpoints,
An information processing method characterized by being provided with.
コンピュータを、請求項1〜12のいずれかに記載された情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 12.
JP2016095721A 2016-05-12 2016-05-12 Information processing equipment, measurement systems, information processing methods and programs Active JP6821326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016095721A JP6821326B2 (en) 2016-05-12 2016-05-12 Information processing equipment, measurement systems, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016095721A JP6821326B2 (en) 2016-05-12 2016-05-12 Information processing equipment, measurement systems, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2017203701A JP2017203701A (en) 2017-11-16
JP6821326B2 true JP6821326B2 (en) 2021-01-27

Family

ID=60323184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016095721A Active JP6821326B2 (en) 2016-05-12 2016-05-12 Information processing equipment, measurement systems, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6821326B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6585693B2 (en) * 2017-12-21 2019-10-02 ファナック株式会社 Object inspection system and object inspection method
CN109064542B (en) * 2018-06-06 2019-11-19 贝壳找房(北京)科技有限公司 Threedimensional model surface hole complementing method and device
CN109064545B (en) * 2018-06-06 2020-07-07 贝壳找房(北京)科技有限公司 Method and device for data acquisition and model generation of house
JP7412983B2 (en) 2019-02-04 2024-01-15 キヤノン株式会社 Information processing device, information processing method, and program
JPWO2021039088A1 (en) * 2019-08-28 2021-03-04

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213943A (en) * 2001-01-16 2002-07-31 Mitsutoyo Corp System and method for measuring surface property
JP4052323B2 (en) * 2005-06-22 2008-02-27 コニカミノルタセンシング株式会社 3D measurement system
JP2010184300A (en) * 2009-02-10 2010-08-26 Seiko Epson Corp Attitude changing device and attitude changing method
JP2010256276A (en) * 2009-04-28 2010-11-11 Mitsubishi Electric Corp Three-dimensional shape measuring apparatus and measuring method
JP5812599B2 (en) * 2010-02-25 2015-11-17 キヤノン株式会社 Information processing method and apparatus
WO2013170260A1 (en) * 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
JP5571128B2 (en) * 2012-06-28 2014-08-13 株式会社東芝 Measurement support apparatus, method and program
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
JP6337445B2 (en) * 2013-11-01 2018-06-06 セイコーエプソン株式会社 Robot, processing apparatus, and inspection method

Also Published As

Publication number Publication date
JP2017203701A (en) 2017-11-16

Similar Documents

Publication Publication Date Title
JP6821326B2 (en) Information processing equipment, measurement systems, information processing methods and programs
JP6635690B2 (en) Information processing apparatus, information processing method and program
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP5198883B2 (en) Tumor area size measuring method, apparatus and program
JP6740033B2 (en) Information processing device, measurement system, information processing method, and program
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP6594129B2 (en) Information processing apparatus, information processing method, and program
JP5801237B2 (en) Part estimation apparatus, part estimation method, and part estimation program
JP2016161569A (en) Method and system for obtaining 3d pose of object and 3d location of landmark point of object
CN107077735A (en) Three dimensional object is recognized
JP6632208B2 (en) Information processing apparatus, information processing method, and program
EP3330921A1 (en) Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
CN109781003B (en) Method for determining next optimal measurement pose of structured light vision system
JP2015125621A (en) Information processing device and information processing method
JP6817742B2 (en) Information processing device and its control method
JPWO2019198562A1 (en) Structure management device, structure management method, and structure management program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP6786015B1 (en) Motion analysis system and motion analysis program
JP2010009236A (en) Plane area estimation device and program
JP5960642B2 (en) 3D information acquisition method and 3D information acquisition apparatus
JP2021063774A (en) Body weight estimation device
JP6938201B2 (en) Information processing equipment, information processing methods and programs
JP7327984B2 (en) Information processing device, information processing method, and program
JP2019192170A (en) Three dimensional model generation device and three-dimensional model generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201111

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210106

R151 Written notification of patent or utility model registration

Ref document number: 6821326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151