JPWO2020165976A1 - Simulation equipment and simulation method - Google Patents

Simulation equipment and simulation method Download PDF

Info

Publication number
JPWO2020165976A1
JPWO2020165976A1 JP2020571967A JP2020571967A JPWO2020165976A1 JP WO2020165976 A1 JPWO2020165976 A1 JP WO2020165976A1 JP 2020571967 A JP2020571967 A JP 2020571967A JP 2020571967 A JP2020571967 A JP 2020571967A JP WO2020165976 A1 JPWO2020165976 A1 JP WO2020165976A1
Authority
JP
Japan
Prior art keywords
image
measurement
simulation
generation unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020571967A
Other languages
Japanese (ja)
Other versions
JP7094400B2 (en
Inventor
亮輔 川西
亮輔 川西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020165976A1 publication Critical patent/JPWO2020165976A1/en
Application granted granted Critical
Publication of JP7094400B2 publication Critical patent/JP7094400B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models

Abstract

シミュレーション装置(10)は、光を計測対象物に投影する投影装置と、投影装置からの投影光が照射された計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の計測条件を示す計測条件情報を取得する計測条件取得部(101)と、計測条件情報に基づいて、撮像装置が出力する撮影画像を再現した仮想撮影画像を生成する仮想撮影画像生成部(102)と、仮想撮影画像を用いて計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得る三次元計測演算部(103)と、計測値を含むシミュレーション結果を出力する出力部(104)と、を備えることを特徴とする。The simulation device (10) measures a three-dimensional measuring device including a projection device that projects light onto a measurement object and an image pickup device that captures an imaging space including the measurement object irradiated with the projected light from the projection device. A measurement condition acquisition unit (101) that acquires measurement condition information indicating conditions, and a virtual image generation unit (102) that generates a virtual image that reproduces the image output by the imaging device based on the measurement condition information. , Executes a three-dimensional measurement process that measures the three-dimensional position of the surface of the object to be measured using a virtual captured image, and outputs a three-dimensional measurement calculation unit (103) that obtains the measured value and a simulation result that includes the measured value. It is characterized by including an output unit (104).

Description

本発明は、三次元計測装置の計測結果をシミュレーションすることが可能なシミュレーション装置、シミュレーション方法およびシミュレーションプログラムに関する。 The present invention relates to a simulation device, a simulation method, and a simulation program capable of simulating the measurement results of a three-dimensional measuring device.

従来、光を計測対象物に投影する投影装置と、計測対象物を撮影する撮像装置とを用いて、三次元計測を行う装置が知られている。例えば、特許文献1には、アクティブステレオ法による三次元計測を行う三次元計測装置が開示されている。特許文献1に開示された三次元計測装置は、投影装置から計測対象物に幾何パターンを投影し、撮像装置が出力する撮影画像における幾何パターン上の複数の検出点を設定して、検出点に対応する計測対象物の表面の三次元位置を、三角測量法に基づき計算する。 Conventionally, a device that performs three-dimensional measurement by using a projection device that projects light onto a measurement object and an imaging device that captures the measurement object is known. For example, Patent Document 1 discloses a three-dimensional measuring device that performs three-dimensional measurement by an active stereo method. The three-dimensional measuring device disclosed in Patent Document 1 projects a geometric pattern from a projection device onto a measurement object, sets a plurality of detection points on the geometric pattern in a captured image output by the imaging device, and sets the detection points as detection points. The three-dimensional position of the surface of the corresponding measurement object is calculated based on the triangular survey method.

特開2015−203652号公報Japanese Unexamined Patent Publication No. 2015-203652

しかしながら、特許文献1に記載の技術では、計測結果を得るためには、実環境を構成して計測対象物のサンプルを用意する必要があった。そのため、実環境がない場合や、計測対象物のサンプルが少ない場合には、実環境における計測結果を評価することができないという問題があった。 However, in the technique described in Patent Document 1, in order to obtain the measurement result, it is necessary to configure the actual environment and prepare a sample of the measurement object. Therefore, there is a problem that the measurement result in the actual environment cannot be evaluated when there is no actual environment or when the number of samples of the measurement object is small.

本発明は、上記に鑑みてなされたものであって、実環境がない場合や計測対象物のサンプルが少ない場合であっても、計測結果を評価することが可能なシミュレーション装置を得ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to obtain a simulation apparatus capable of evaluating measurement results even when there is no actual environment or when the number of samples of measurement objects is small. And.

上述した課題を解決し、目的を達成するために、本発明にかかるシミュレーション装置は、光を計測対象物に投影する投影装置と、投影装置からの投影光が照射された計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の計測条件を示す計測条件情報を取得する計測条件取得部と、計測条件情報に基づいて、撮像装置が出力する撮影画像を再現した仮想撮影画像を生成する仮想撮影画像生成部と、仮想撮影画像を用いて計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得る三次元計測演算部と、計測値を含むシミュレーション結果を出力する出力部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the simulation apparatus according to the present invention includes a projection device that projects light onto a measurement object and a photographing object that is irradiated with the projection light from the projection device. A virtual captured image that reproduces the captured image output by the imaging device based on the measurement condition acquisition unit that acquires the measurement condition information indicating the measurement conditions of the three-dimensional measuring device equipped with the imaging device that captures the space. A 3D measurement calculation unit that obtains the measured value by executing a 3D measurement process that measures the 3D position of the surface of the object to be measured using the virtual captured image It is characterized by including an output unit for outputting a simulation result including the simulation result.

本発明によれば、実環境がない場合や計測対象物のサンプルが少ない場合であっても、計測結果を評価することが可能になるという効果を奏する。 According to the present invention, there is an effect that the measurement result can be evaluated even when there is no actual environment or the number of samples of the measurement object is small.

本発明の実施の形態1にかかるシミュレーション装置の機能構成を示す図The figure which shows the functional structure of the simulation apparatus which concerns on Embodiment 1 of this invention. 図1に示すシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus shown in FIG. 図1に示す計測条件取得部の詳細な機能構成を示す図The figure which shows the detailed functional structure of the measurement condition acquisition part shown in FIG. 図1に示すシミュレーション装置が出力する表示画面の一例を示す図The figure which shows an example of the display screen output by the simulation apparatus shown in FIG. 本発明の実施の形態2にかかる仮想撮影画像生成部の機能構成を示す図The figure which shows the functional structure of the virtual photograph image generation part which concerns on Embodiment 2 of this invention. 図5に示す仮想撮影画像生成部を有するシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation device having the virtual captured image generation unit shown in FIG. 本発明の実施の形態3にかかるシミュレーション装置の機能構成を示す図The figure which shows the functional structure of the simulation apparatus which concerns on Embodiment 3 of this invention. 図7に示す仮想撮影画像生成部の機能構成を示す図The figure which shows the functional structure of the virtual photograph image generation part shown in FIG. 図7に示すシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus shown in FIG. 図9に示すステップS304の詳細を示すフローチャートA flowchart showing the details of step S304 shown in FIG. 図9に示すステップS305の詳細を示すフローチャートA flowchart showing the details of step S305 shown in FIG. 図7に示すシミュレーション装置が出力する表示画面の一例を示す図The figure which shows an example of the display screen output by the simulation apparatus shown in FIG. 本発明の実施の形態4にかかる光学再現画像生成部の機能構成を示す図The figure which shows the functional structure of the optical reproduction image generation part which concerns on Embodiment 4 of this invention. 図13に示すセンサ視点データ生成部の詳細な機能構成を示す図The figure which shows the detailed functional structure of the sensor viewpoint data generation part shown in FIG. 図13に示すマップ生成部の詳細な機能構成を示す図The figure which shows the detailed functional structure of the map generation part shown in FIG. 本発明の実施の形態4にかかるシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus according to the fourth embodiment of the present invention. 本発明の実施の形態5にかかるシミュレーション装置が出力する表示画面の一例を示す図The figure which shows an example of the display screen output by the simulation apparatus which concerns on Embodiment 5 of this invention. 本発明の実施の形態6にかかるシミュレーション装置の機能構成を示す図The figure which shows the functional structure of the simulation apparatus which concerns on Embodiment 6 of this invention. 図18に示すシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus shown in FIG. 図18に示すシミュレーション装置の表示画面の一例を示す図The figure which shows an example of the display screen of the simulation apparatus shown in FIG. 本発明の実施の形態7にかかるシミュレーション装置の機能構成を示す図The figure which shows the functional structure of the simulation apparatus which concerns on Embodiment 7 of this invention. 図21に示すシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus shown in FIG. 本発明の実施の形態8にかかるシミュレーション装置の機能構成を示す図The figure which shows the functional structure of the simulation apparatus which concerns on Embodiment 8 of this invention. 図23に示すシミュレーション装置の動作を示すフローチャートA flowchart showing the operation of the simulation apparatus shown in FIG. 23. 図23に示すシミュレーション装置が出力する表示画面の一例を示す図The figure which shows an example of the display screen output by the simulation apparatus shown in FIG. 本発明の実施の形態1〜8にかかるシミュレーション装置の機能を実現するための専用のハードウェアを示す図The figure which shows the dedicated hardware for realizing the function of the simulation apparatus which concerns on Embodiment 1-8 of this invention. 本発明の実施の形態1〜8にかかるシミュレーション装置の機能を実現するための制御回路の構成を示す図The figure which shows the structure of the control circuit for realizing the function of the simulation apparatus which concerns on Embodiment 1-8 of this invention. 本発明の実施の形態1〜8にかかるシミュレーション装置の機能を実現するためのハードウェア構成の一例を示す図The figure which shows an example of the hardware configuration for realizing the function of the simulation apparatus which concerns on Embodiment 1-8 of this invention.

以下に、本発明の実施の形態にかかるシミュレーション装置、シミュレーション方法およびシミュレーションプログラムを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 Hereinafter, the simulation apparatus, simulation method, and simulation program according to the embodiment of the present invention will be described in detail with reference to the drawings. The present invention is not limited to this embodiment.

実施の形態1.
図1は、本発明の実施の形態1にかかるシミュレーション装置10の機能構成を示す図である。シミュレーション装置10は、計測条件取得部101と、仮想撮影画像生成部102と、三次元計測演算部103と、出力部104とを有する。
Embodiment 1.
FIG. 1 is a diagram showing a functional configuration of the simulation device 10 according to the first embodiment of the present invention. The simulation device 10 includes a measurement condition acquisition unit 101, a virtual captured image generation unit 102, a three-dimensional measurement calculation unit 103, and an output unit 104.

シミュレーション装置10は、アクティブステレオ法を用いて、計測対象物の表面の三次元位置を計測する三次元計測装置の計測条件を示す計測条件情報に基づいて、三次元計測装置の計測結果をシミュレーションする機能を有する。ここで想定している三次元計測装置は、光を計測対象物に投影する投影装置と、投影装置からの投影光が照射された計測対象物を含む撮影空間を撮影する撮像装置とを備える。投影装置からの投影光は、三次元計測に用いる投影パターンを示している。以下、「投影光」という場合、投影パターンを示す光を指す。三次元計測装置は、撮像装置の出力する撮影画像に含まれる投影パターンに基づいて、計測対象物の表面の三次元位置を計測する三次元計測処理を行うことができる。また、シミュレーション装置10は、三次元計測装置を利用するシステムの出力結果をシミュレーションしてもよい。 The simulation device 10 simulates the measurement result of the three-dimensional measurement device based on the measurement condition information indicating the measurement conditions of the three-dimensional measurement device that measures the three-dimensional position of the surface of the object to be measured by using the active stereo method. Has a function. The three-dimensional measuring device assumed here includes a projection device that projects light onto a measurement object and an imaging device that captures a photographing space including the measurement object irradiated with the projected light from the projection device. The projected light from the projection device indicates the projection pattern used for the three-dimensional measurement. Hereinafter, the term "projected light" refers to light indicating a projection pattern. The three-dimensional measuring device can perform a three-dimensional measurement process for measuring the three-dimensional position of the surface of the object to be measured based on the projection pattern included in the captured image output by the imaging device. Further, the simulation device 10 may simulate the output result of the system using the three-dimensional measuring device.

計測条件取得部101は、三次元計測装置の計測条件を示す計測条件情報を取得する。計測条件情報の詳細については、後述する。計測条件取得部101は、取得した計測条件情報を仮想撮影画像生成部102に入力する。 The measurement condition acquisition unit 101 acquires measurement condition information indicating the measurement conditions of the three-dimensional measuring device. Details of the measurement condition information will be described later. The measurement condition acquisition unit 101 inputs the acquired measurement condition information to the virtual captured image generation unit 102.

仮想撮影画像生成部102は、計測条件取得部101から入力される計測条件情報に基づいて、三次元計測装置に含まれる撮像装置が出力する撮影画像を再現したCG(Computer Graphics)画像である仮想撮影画像を生成する。仮想撮影画像生成部102は、生成した仮想撮影画像を三次元計測演算部103に入力する。 The virtual captured image generation unit 102 is a virtual CG (Computer Graphics) image that reproduces the captured image output by the imaging device included in the three-dimensional measuring device based on the measurement condition information input from the measurement condition acquisition unit 101. Generate a captured image. The virtual captured image generation unit 102 inputs the generated virtual captured image to the three-dimensional measurement calculation unit 103.

三次元計測演算部103は、仮想撮影画像生成部102から入力される仮想撮影画像を用いて、三次元計測装置が実行する三次元計測処理を実行し、計測値を取得する。三次元計測演算部103は、取得した計測値を出力部104に入力する。 The three-dimensional measurement calculation unit 103 executes the three-dimensional measurement process executed by the three-dimensional measurement device using the virtual photographed image input from the virtual photographed image generation unit 102, and acquires the measured value. The three-dimensional measurement calculation unit 103 inputs the acquired measured value to the output unit 104.

出力部104は、三次元計測演算部103から入力される計測値を含むシミュレーション結果を出力する。 The output unit 104 outputs a simulation result including the measurement value input from the three-dimensional measurement calculation unit 103.

図2は、図1に示すシミュレーション装置10の動作を示すフローチャートである。シミュレーション装置10の計測条件取得部101は、計測条件情報を取得する(ステップS101)。計測条件取得部101は、取得した計測条件情報を仮想撮影画像生成部102に入力する。 FIG. 2 is a flowchart showing the operation of the simulation device 10 shown in FIG. The measurement condition acquisition unit 101 of the simulation device 10 acquires the measurement condition information (step S101). The measurement condition acquisition unit 101 inputs the acquired measurement condition information to the virtual captured image generation unit 102.

仮想撮影画像生成部102は、計測条件情報に基づいて、仮想撮影画像を生成する(ステップS102)。仮想撮影画像生成部102は、生成した仮想撮影画像を三次元計測演算部103に入力する。 The virtual captured image generation unit 102 generates a virtual captured image based on the measurement condition information (step S102). The virtual captured image generation unit 102 inputs the generated virtual captured image to the three-dimensional measurement calculation unit 103.

三次元計測演算部103は、仮想撮影画像を用いて、三次元計測の演算を実行し、計測値を取得する(ステップS103)。三次元計測演算部103は、取得した計測値を出力部104に入力する。出力部104は、計測値を含むシミュレーション結果を出力する(ステップS104)。 The three-dimensional measurement calculation unit 103 executes a three-dimensional measurement calculation using the virtual captured image and acquires the measured value (step S103). The three-dimensional measurement calculation unit 103 inputs the acquired measured value to the output unit 104. The output unit 104 outputs a simulation result including the measured value (step S104).

シミュレーション装置10は、三次元計測装置の計測条件情報に基づいて、撮像装置が出力する撮影画像を再現した仮想撮影画像を生成し、仮想撮影画像を用いて、三次元計測処理を実行することができる。このような構成をとることで、実際に投影装置および撮像装置を設置して実データを取得することなく、シミュレーション上で三次元計測の検証が可能になる。このため、現場に三次元計測装置を設置する作業、三次元計測装置のハードウェアおよびソフトウェアの調整作業、および計測対象物の実データを収集する作業を行う必要がなく、作業にかかる時間を短縮することができ、人的および物的コストを抑制することが可能になる。このため、三次元計測装置の計測条件を様々に設定しながらシミュレーションを行うことで、適切な計測条件を特定することができる。したがって、三次元計測装置の設計期間、三次元計測装置を現場に導入して稼働するまでに行う試行錯誤の検証期間を短縮することが可能である。 The simulation device 10 can generate a virtual captured image that reproduces the captured image output by the imaging device based on the measurement condition information of the three-dimensional measuring device, and execute the three-dimensional measurement process using the virtual captured image. can. With such a configuration, it is possible to verify the three-dimensional measurement on the simulation without actually installing the projection device and the imaging device and acquiring the actual data. Therefore, it is not necessary to install the 3D measuring device at the site, adjust the hardware and software of the 3D measuring device, and collect the actual data of the measurement object, and the time required for the work is shortened. It is possible to reduce human and physical costs. Therefore, it is possible to specify an appropriate measurement condition by performing a simulation while setting various measurement conditions of the three-dimensional measuring device. Therefore, it is possible to shorten the design period of the three-dimensional measuring device and the verification period of trial and error performed before the three-dimensional measuring device is introduced to the site and put into operation.

図3は、図1に示す計測条件取得部101の詳細な機能構成を示す図である。計測条件取得部101は、三次元計測装置の計測条件を示す計測条件情報を取得する。計測条件取得部101は、投影条件情報取得部201と、撮影条件情報取得部202と、計測対象物情報取得部203と、非計測対象物情報取得部204とを有する。 FIG. 3 is a diagram showing a detailed functional configuration of the measurement condition acquisition unit 101 shown in FIG. The measurement condition acquisition unit 101 acquires measurement condition information indicating the measurement conditions of the three-dimensional measuring device. The measurement condition acquisition unit 101 includes a projection condition information acquisition unit 201, a shooting condition information acquisition unit 202, a measurement object information acquisition unit 203, and a non-measurement object information acquisition unit 204.

投影条件情報取得部201は、投影装置の投影条件を示す投影条件情報を取得する。投影条件情報は、投影装置の性能および使用状態の少なくとも1つを特定可能な情報を含むことができる。投影装置の性能は例えば解像度、画角であり、投影装置の状態は例えば投影装置の位置姿勢、ピントの状態である。また、投影条件情報は、投影パターンを示す情報を含むことができる。投影パターンを示す情報は、投影パターンの模様を示す情報を含む。なお、投影パターンが複数ある場合は、投影パターンを示す情報は、さらに投影パターンの枚数を示す情報を含んでもよい。投影パターンの模様は、投影パターンごとに予め定められた太さの縞を一定の規則に従って並べたストライプ模様、不規則な配置で並べられたドット状の模様、投影パターン中で投影光の強度を滑らかに変化させたグラデーション模様、もしくはこれらの組み合わせであってもよい。上記の模様は一例であり、あらゆる模様の投影パターンを用いることができる。投影パターンの枚数は1枚以上の任意の枚数である。また、投影パターンの模様を示す情報は、例えば、模様の種類を示す情報であってもよいし、所定の投影面における光の強度分布を示す情報であってもよい。 The projection condition information acquisition unit 201 acquires projection condition information indicating the projection condition of the projection device. The projection condition information can include information that can identify at least one of the performance and usage conditions of the projection device. The performance of the projection device is, for example, the resolution and the angle of view, and the state of the projection device is, for example, the position and orientation of the projection device and the state of focus. Further, the projection condition information can include information indicating a projection pattern. The information indicating the projection pattern includes information indicating the pattern of the projection pattern. When there are a plurality of projection patterns, the information indicating the projection patterns may further include information indicating the number of projection patterns. The pattern of the projection pattern is a stripe pattern in which stripes of a predetermined thickness are arranged according to a certain rule for each projection pattern, a dot-like pattern arranged in an irregular arrangement, and the intensity of the projected light in the projection pattern. It may be a smoothly changed gradation pattern or a combination thereof. The above pattern is an example, and a projection pattern of any pattern can be used. The number of projection patterns is any one or more. Further, the information indicating the pattern of the projection pattern may be, for example, information indicating the type of the pattern, or information indicating the intensity distribution of light on a predetermined projection surface.

撮影条件情報取得部202は、撮像装置の撮影条件を示す撮影条件情報を取得する。撮影条件情報は、撮像装置の性能および使用状態の少なくとも1つを特定可能な情報を含むことができる。撮像装置の性能は例えば解像度、画角であり、撮像装置の状態は例えば、撮像装置の位置姿勢、ピントの状態である。 The shooting condition information acquisition unit 202 acquires shooting condition information indicating the shooting conditions of the imaging device. The shooting condition information can include information that can identify at least one of the performance and the usage state of the imaging device. The performance of the image pickup device is, for example, the resolution and the angle of view, and the state of the image pickup device is, for example, the position and orientation of the image pickup device and the focus state.

計測対象物情報取得部203は、計測対象物に関する情報、例えば、計測対象物の形状、位置姿勢などの状態、特性を示す情報である計測対象物情報を取得する。計測対象物の特性は、例えば、計測対象物の反射特性である。計測対象物の反射特性を示す情報は、例えば、計測対象物の色、拡散反射率、および鏡面反射率の少なくとも1つを含む。 The measurement object information acquisition unit 203 acquires information on the measurement object, for example, measurement object information which is information indicating a state and characteristics such as a shape, a position and a posture of the measurement object. The characteristic of the measurement object is, for example, the reflection characteristic of the measurement object. Information indicating the reflection characteristics of the object to be measured includes, for example, at least one of the color, diffuse reflectance, and mirror reflectance of the object to be measured.

非計測対象物情報取得部204は、撮影空間内に存在する、計測対象物以外の物体または投影光以外の環境光である非計測対象物に関する情報である非計測対象物情報を取得する。非計測対象物は、例えば、計測対象物を保持する容器、架台、冶具である。なお、非計測対象物は、上記の例に限定されず、実際の撮影装置が撮影する撮影画像に映り込みうる計測対象物以外の物体、例えば、壁、窓、その他の風景、および上記の物体を照射する照明光などの光も含まれる。非計測対象物情報は、非計測対象物の位置、形状および特性と、環境光の状態を示す情報とのうち少なくとも1つを含むことができる。 The non-measurement object information acquisition unit 204 acquires the non-measurement object information which is the information about the non-measurement object which is the object other than the measurement object or the ambient light other than the projected light existing in the photographing space. The non-measurement object is, for example, a container, a pedestal, or a jig for holding the measurement object. The non-measurement object is not limited to the above example, and an object other than the measurement object that can be reflected in the photographed image taken by the actual photographing device, for example, a wall, a window, another landscape, and the above object. It also includes light such as illumination light that illuminates. The non-measurement object information can include at least one of the position, shape and characteristics of the non-measurement object and information indicating the state of ambient light.

なお、計測対象物情報および非計測対象物情報に含まれる物体の形状を示す情報は、3D−CAD(3Dimensional−Computer−Assisted Drawing)のようなメッシュの組み合わせ、球または直方体といったプリミティブもしくはその集合体として表現することができる。物体の反射特性は、光が当たったときの物体の見え方を再現するために用いられる。環境光の状態を示す情報は、実際に撮像装置で撮影した画像のような陰影効果を得るために用いられる。また、物体は宙に浮いている状態であってもよいし、床面および物体を納める箱を設定して、箱の内部に物体が存在するようにしてもよい。床面および箱についても物体と同様に反射特性を設定できることが好ましい。 The information indicating the shape of the object included in the measurement object information and the non-measurement object information is a combination of meshes such as 3D-CAD (3Dimensional-Computer-Assisted Drawing), a primitive such as a sphere or a rectangular parallelepiped, or an aggregate thereof. Can be expressed as. The reflection characteristics of an object are used to reproduce the appearance of the object when exposed to light. The information indicating the state of ambient light is used to obtain a shadow effect similar to that of an image actually taken by an imaging device. Further, the object may be in a floating state in the air, or the floor surface and the box for storing the object may be set so that the object exists inside the box. It is preferable that the reflection characteristics of the floor surface and the box can be set in the same manner as the object.

上記の通り、投影装置および撮像装置の解像度、画角といった性能を含む投影条件情報および撮影条件情報をそれぞれ個別に設定可能であるため、現実の三次元計測装置で起こり得る計測誤差をより正確に再現することが可能である。例えば、撮像装置の解像度が投影装置の解像度よりも低い場合、投影装置の投影パターンをより精細にしても、投影パターンを撮影した画像からは精細に投影パターンの模様を判別することができないため、三次元計測の誤差、欠損の原因となる。仮想撮影画像生成部102は、撮像装置の解像度に基づいて仮想撮影画像を生成するため、仮想撮影画像を解析することで、撮像装置の判別可能な投影パターンの細かさが分かる。これにより、撮像装置で判別可能な投影パターンの細かさの限界値を、投影装置の解像度の上限値として見積もることができる。或いは、投影装置の解像度に見合った撮像装置の性能を検討することもできる。つまり、三次元計測装置が有する投影装置および撮像装置は、互いに見合った性能のものを使用する必要があるため、シミュレーション結果を用いて、投影装置および撮像装置の性能を検討することが好ましい。 As described above, since the projection condition information and the shooting condition information including the performance such as the resolution and the angle of view of the projection device and the image pickup device can be set individually, the measurement error that may occur in the actual three-dimensional measurement device can be set more accurately. It is possible to reproduce. For example, when the resolution of the image pickup device is lower than the resolution of the projection device, even if the projection pattern of the projection device is made finer, the pattern of the projection pattern cannot be finely discriminated from the captured image of the projection pattern. It causes errors and defects in three-dimensional measurement. Since the virtual captured image generation unit 102 generates a virtual captured image based on the resolution of the imaging device, the fineness of the identifiable projection pattern of the imaging device can be found by analyzing the virtual captured image. Thereby, the limit value of the fineness of the projection pattern that can be discriminated by the imaging device can be estimated as the upper limit value of the resolution of the projection device. Alternatively, the performance of the imaging device corresponding to the resolution of the projection device can be examined. That is, since it is necessary to use the projection device and the imaging device of the three-dimensional measuring device having the performances commensurate with each other, it is preferable to examine the performance of the projection device and the imaging device using the simulation results.

仮想撮影画像生成部102は、計測条件情報に基づいて、撮像装置が出力する撮影画像を再現した仮想撮影画像を生成する。仮想撮影画像生成部102は、計測条件情報に含まれる計測対象物情報および非計測対象物情報に基づいて、撮影空間内に存在する物体の配置を仮想の撮影空間内で再現し、撮影条件情報に基づいて、仮想撮影画像が示す撮影空間内の部分を特定することができる。さらに仮想撮影画像生成部102は、投影条件情報、計測対象物情報および非計測対象物情報に基づく反射モデルを用いて、撮影空間内で投影光により生じる陰影を再現することができる。仮想撮影画像生成部102は、撮像装置が出力する撮影画像における投影光によって生じる陰影の境界を示す位置を画素値で再現することができる。ここで、陰影の境界を示す位置に含まれる誤差は、撮影画像中で光の視認性を低下させる。光の視認性の低下とは、投影光が撮影空間内で照射される三次元位置と、撮影画像上における投影光の照射位置の検出結果とが整合しなくなることや、投影装置が二次元の投影パターンを投影する場合において、光の陰影境界、例えば、投影光が照射される領域と投影光が照射されない領域との境界であるパターン境界が正しく検出できなくなることを意味する。このため、光の視認性が低下すると、三次元計測の計測結果に誤差が生じたり、計測不可能な状態となったりして、三次元計測の品質が低下する。 The virtual captured image generation unit 102 generates a virtual captured image that reproduces the captured image output by the imaging device based on the measurement condition information. The virtual shooting image generation unit 102 reproduces the arrangement of the objects existing in the shooting space in the virtual shooting space based on the measurement target information and the non-measurement target information included in the measurement condition information, and the shooting condition information. Based on, the part in the shooting space indicated by the virtual shot image can be specified. Further, the virtual captured image generation unit 102 can reproduce the shadow generated by the projected light in the imaging space by using the reflection model based on the projection condition information, the measurement object information, and the non-measurement object information. The virtual captured image generation unit 102 can reproduce the position indicating the boundary of the shadow generated by the projected light in the captured image output by the imaging device with the pixel value. Here, the error included in the position indicating the boundary of the shadow reduces the visibility of the light in the captured image. The decrease in light visibility means that the three-dimensional position where the projected light is irradiated in the shooting space and the detection result of the projected light irradiation position on the shot image do not match, or the projection device is two-dimensional. When projecting a projection pattern, it means that the shadow boundary of light, for example, the pattern boundary which is the boundary between the area where the projected light is irradiated and the area where the projected light is not irradiated cannot be detected correctly. Therefore, when the visibility of light is lowered, an error occurs in the measurement result of the three-dimensional measurement or the measurement becomes impossible, and the quality of the three-dimensional measurement is deteriorated.

撮影画像における光の陰影境界の位置に誤差が生じる要因には、投影装置に起因するものと、撮像装置に起因するものとが含まれうる。投影装置に起因する誤差要因としては、投影装置からの投影光が第1の面で反射した後、第2の面に入射して第2の面を照らす相互反射、投影装置のピントが合わないことによる光のボケなどが考えられる。第2の面は、第1の面と異なる物体の表面であってもよいし、第1の面と同じ物体の異なる部位であってもよい。 Factors that cause an error in the position of the shadow boundary of light in the captured image may include those caused by the projection device and those caused by the imaging device. The error factors caused by the projection device include mutual reflection in which the projected light from the projection device is reflected by the first surface and then incident on the second surface to illuminate the second surface, and the projection device is out of focus. It is possible that the light is out of focus. The second surface may be the surface of an object different from the first surface, or may be a different part of the same object as the first surface.

撮像装置に起因する誤差要因としては、撮像装置が有するレンズの歪曲収差などによる画像ひずみ、画像に規則性なく出現するランダムノイズ、撮像装置のピントが合っていないことによる画像ボケなどが考えられる。なお、誤差要因として扱われる現象は、上記に限定されず、光の投影状態が変化したり、撮影される画像が変化したりする原因となるあらゆる現象を含めてよい。 Possible error factors caused by the image pickup device include image distortion due to distortion of the lens of the image pickup device, random noise appearing irregularly in the image, and image blur due to the image pickup device being out of focus. The phenomenon treated as an error factor is not limited to the above, and may include any phenomenon that causes a change in the projection state of light or a change in the captured image.

上述の相互反射が生じやすい状況の一例としては、2以上の物体が近接して配置されている場合が挙げられる。投影装置から照射される光線が、撮影空間中の第1の物体の表面で反射して、反射光が第1の物体と異なる第2の物体を照らす場合がある。また、撮影空間に存在する第1の物体の部位Xで反射した光が、同じ第1の物体の部位Xと異なる部位Yを照らす場合も考えられる。 As an example of the above-mentioned situation in which mutual reflection is likely to occur, there is a case where two or more objects are arranged close to each other. The light beam emitted from the projection device may be reflected on the surface of the first object in the photographing space, and the reflected light may illuminate the second object different from the first object. It is also conceivable that the light reflected by the part X of the first object existing in the photographing space illuminates the part Y different from the part X of the same first object.

相互反射は、投影装置からの投影光だけでなく、室内照明および屋外からの日光といった環境光においても同様に生じうる。また、光線の反射は一度とは限られず、複数回の反射も起こり得る。ただし、光は反射のたびにエネルギーが吸収されるため、反射回数を重ねると、撮像装置の観測感度を下回り、撮影画像に影響を及ぼさなくなることが多い。このため、予め定めた回数以上の反射光による相互反射は無視してもよい。 Mutual reflection can occur not only in the projected light from the projection device, but also in ambient light such as indoor lighting and outdoor sunlight. In addition, the reflection of light rays is not limited to one time, and multiple reflections may occur. However, since light absorbs energy each time it is reflected, if the number of reflections is repeated, the sensitivity of the light falls below the observation sensitivity of the image pickup apparatus and often does not affect the captured image. Therefore, mutual reflection due to reflected light more than a predetermined number of times may be ignored.

相互反射による光の強度は、仮想撮影画像を生成するときと同様の反射モデルに加えて、反射前の光の強度と反射点の反射特性および光の進行経路に基づいて決定することができる。 The intensity of light due to mutual reflection can be determined based on the intensity of light before reflection, the reflection characteristics of the reflection point, and the traveling path of light, in addition to the same reflection model as when generating a virtual captured image.

相互反射が生じると、画像上で観測されるべきパターン境界以外にも光の陰影境界が観測されることがある。パターン境界以外の境界が観測された部分においては、光の照射方向を正しく計算することができず、三次元計測の際に計測誤差の原因となる。 When mutual reflection occurs, a shadow boundary of light may be observed in addition to the pattern boundary that should be observed on the image. In the part where the boundary other than the pattern boundary is observed, the light irradiation direction cannot be calculated correctly, which causes a measurement error in the three-dimensional measurement.

仮想撮影画像生成部102は、光の相互反射の影響を考慮して、仮想撮影画像を生成するため、三次元計測演算部103が出力する計測値には、実際に相互反射が生じ得る計測対象物に対して三次元計測を行った際に生じ得る計測誤差が再現されている。このため、計測誤差の大きさや出現傾向を、実際に三次元計測装置を構成する前に把握することが可能になる。計測誤差の出現傾向を事前に把握することができれば、投影装置および撮像装置の位置関係または計測対象物の配置方法などの計測条件を変更することで、相互反射の影響を低減する方法を検討することもできる。したがって、三次元計測の精度を向上させることが可能である。 Since the virtual photographed image generation unit 102 generates a virtual photographed image in consideration of the influence of the mutual reflection of light, the measurement value output by the three-dimensional measurement calculation unit 103 is a measurement target in which mutual reflection may actually occur. The measurement error that can occur when three-dimensional measurement is performed on an object is reproduced. Therefore, it is possible to grasp the magnitude and appearance tendency of the measurement error before actually configuring the three-dimensional measuring device. If the appearance tendency of measurement error can be grasped in advance, a method of reducing the influence of mutual reflection will be examined by changing the measurement conditions such as the positional relationship between the projection device and the imaging device or the arrangement method of the measurement object. You can also do it. Therefore, it is possible to improve the accuracy of three-dimensional measurement.

投影装置のピントずれが生じると、光の陰影境界のボケが生じ、パターン境界がぼやけるため、光の照射方向を特定する目的で、撮影画像上における投影パターンの解析精度が低下し、光の照射方向が誤って算出される可能性がある。撮影空間が一定以上の奥行を有する場合、投影装置のピントを撮影空間の全体に合わせることができないことも考えられる。このような場合、投影装置のピントずれが生じた場合でも精度よく投影パターンを解析できるような計算方法を検討することが必要となる。しかしながら、実際に投影装置および撮像装置を動作させて計測対象物を観測したデータである実データを用いて投影パターンの解析方法を検証しようとしても、実データにおけるパターン境界の真の位置を知ることは困難である。このため、検証結果が正しいかどうかを厳密に判断することはできない。これに対して、シミュレーション装置10では、計測条件情報に基づいてパターン境界の真の位置を取得することができ、投影装置のピントずれに起因するパターン境界のボケを再現した仮想撮影画像を生成する。そのため、投影パターンの解析方法を改良した結果として、パターン境界の検出結果が改善しているかどうかを容易に判定することが可能になる。したがって、三次元計測に要する投影パターンの解析アルゴリズムの開発を効率化することが可能になる。 When the projection device is out of focus, the shadow boundary of the light is blurred and the pattern boundary is blurred. Therefore, for the purpose of specifying the light irradiation direction, the analysis accuracy of the projection pattern on the captured image is lowered, and the light irradiation is performed. The direction may be calculated incorrectly. When the shooting space has a certain depth or more, it is possible that the projection device cannot be focused on the entire shooting space. In such a case, it is necessary to study a calculation method that can accurately analyze the projection pattern even when the projection device is out of focus. However, even if you try to verify the analysis method of the projection pattern using the actual data, which is the data obtained by actually operating the projection device and the imaging device and observing the object to be measured, it is necessary to know the true position of the pattern boundary in the actual data. It is difficult. Therefore, it is not possible to strictly judge whether the verification result is correct. On the other hand, the simulation device 10 can acquire the true position of the pattern boundary based on the measurement condition information, and generates a virtual captured image that reproduces the blurring of the pattern boundary due to the out-of-focus of the projection device. .. Therefore, as a result of improving the projection pattern analysis method, it becomes possible to easily determine whether or not the detection result of the pattern boundary is improved. Therefore, it becomes possible to streamline the development of the projection pattern analysis algorithm required for three-dimensional measurement.

また、投影装置のピントずれの度合と三次元計測の計測結果との関係をシミュレーションすることができるため、どの程度のピントずれであれば計測結果の誤差が許容範囲内となるかを検証することができ、投影装置のピントがあう奥行の範囲といった要求性能を見積もることが可能になる。したがって、シミュレーション装置10は、三次元計測装置の設計を容易にすることができるという効果を奏する。 In addition, since the relationship between the degree of focus shift of the projection device and the measurement result of the three-dimensional measurement can be simulated, it is necessary to verify how much the focus shift is within the permissible range. It is possible to estimate the required performance such as the range of depth of field where the projection device is in focus. Therefore, the simulation device 10 has an effect that the design of the three-dimensional measuring device can be facilitated.

また、仮想撮影画像生成部102は、撮像装置のレンズによる歪曲収差の効果として、画像ひずみを計算することができる。画像ひずみのモデルの一例として、画像にひずみが生じる前後の画素の対応は、下記の数式(1)を用いて求めることができる。 Further, the virtual captured image generation unit 102 can calculate the image distortion as an effect of the distortion aberration caused by the lens of the image pickup apparatus. As an example of the image distortion model, the correspondence between the pixels before and after the distortion occurs in the image can be obtained by using the following mathematical formula (1).

Figure 2020165976
Figure 2020165976

ここで、(x,y)は、ひずみのない画像における画像座標であり、(x,y)は、ひずみのある画像における画像座標であり、Kは、ひずみの度合を示す係数であり、rは、画像中心から注目画素までの距離である。注目画素は、ひずみのある画像の任意の座標(x,y)の画素である。仮想撮影画像生成部102は、注目画素として、ひずみのある画像のすべての画素を順次選択してもよい。画像ひずみは、簡略化したモデルから詳細なモデルまで多数提案されている。シミュレーション装置10は、画像ひずみの計算式として、数式(1)を含む任意のモデルを用いることができる。 Here, (x u, y u) is the image coordinates of the undistorted image, (x d, y d) is the image coordinates of the image with a distortion, K is a coefficient indicating the degree of strain And r is the distance from the center of the image to the pixel of interest. The pixel of interest is a pixel at arbitrary coordinates (x d , y d ) of the distorted image. The virtual captured image generation unit 102 may sequentially select all the pixels of the distorted image as the pixels of interest. Many image distortions have been proposed, from simplified models to detailed models. The simulation device 10 can use any model including the mathematical formula (1) as the calculation formula of the image distortion.

仮想撮影画像生成部102は、画素ごとまたは画像上の一定領域ごとに、ノイズの出現確率および強度を設定することで、ランダムノイズを再現することができる。仮想撮影画像生成部102は、出現確率を用いて画素または領域にノイズを付与するか否かを判定し、付与すると判定した場合には、設定した強度に基づいて画素または領域の色を変化させる。強度の指定の方法としては、元の画素または領域の色に対する変化率としてもよいし、整数値としてもよい。強度は、固定の変化率または整数値を用いて示してもよいし、一定の範囲を有するものとしてもよい。また、強度は、画素の輝度の上昇を意味する正の値と、輝度の下降を意味する負の値の両方を取り得る。 The virtual captured image generation unit 102 can reproduce random noise by setting the appearance probability and intensity of noise for each pixel or for each fixed region on the image. The virtual photographed image generation unit 102 determines whether or not to add noise to the pixel or area using the appearance probability, and if it is determined to add noise, changes the color of the pixel or area based on the set intensity. .. As a method of specifying the intensity, the rate of change with respect to the color of the original pixel or region may be used, or an integer value may be used. The intensity may be indicated using a fixed rate of change or an integer value, or may have a range. Further, the intensity can take both a positive value meaning an increase in the brightness of the pixel and a negative value meaning a decrease in the brightness of the pixel.

仮想撮影画像生成部102は、注目画素の周囲の画素の色情報を用いて、撮像装置のピントずれに起因する画像ボケを再現することができる。注目画素としては、画像上の任意の画素を選択してよい。画像ボケが生じた後の色の計算方法としては、注目画素とその周囲の画素における色の平均値とする方法、注目画素に近い画素ほど高い比率で合成するガウシアン平滑化などがある。ガウシアン平滑化を用いることで、平均値をとる方法よりも正確に画像ボケを再現することができるという利点がある。また、平均値をとる方法は、ガウシアン平滑化を用いる方法よりも処理時間が早いという利点がある。また、画像ボケは、撮像装置から物体までの距離によっても変化する。ピントが合っている物体はボケが少なく、ピントがあっていない物体はより大きくぼやけた像として撮像される。距離によるボケの度合の変化とピントが合っている距離といった情報をさらに用いることで、仮想撮影画像生成部102は、より実際の撮影画像に近いボケを再現することが可能である。該情報は、計測条件情報として取得してもよいし、計測条件情報に含まれる他の情報から計算により求めてもよい。なお、仮想撮影画像生成部102が誤差要因を再現する具体的な方法については、一例を実施の形態2および3で説明するが、再現方法はこれらに限定されない。 The virtual photographed image generation unit 102 can reproduce the image blur caused by the out-of-focus of the image pickup apparatus by using the color information of the pixels around the pixel of interest. Any pixel on the image may be selected as the pixel of interest. As a method of calculating the color after the image blurring occurs, there are a method of using the average value of the colors in the pixel of interest and the pixels around it, and Gaussian smoothing in which pixels closer to the pixel of interest are synthesized at a higher ratio. Using Gaussian smoothing has the advantage that image blur can be reproduced more accurately than the method of taking an average value. Further, the method of taking the average value has an advantage that the processing time is faster than the method using Gaussian smoothing. The image blur also changes depending on the distance from the image pickup device to the object. Objects that are in focus have less blur, and objects that are out of focus are imaged as a larger and blurry image. By further using information such as the change in the degree of blurring due to the distance and the in-focus distance, the virtual photographed image generation unit 102 can reproduce the blurring closer to the actual photographed image. The information may be acquired as measurement condition information, or may be obtained by calculation from other information included in the measurement condition information. A specific method for the virtual captured image generation unit 102 to reproduce the error factor will be described in Examples 2 and 3, but the reproduction method is not limited thereto.

三次元計測演算部103は、仮想撮影画像を入力として、三次元計測処理を実行する。三次元計測演算部103が実行する三次元計測処理は、三次元計測装置が実環境で撮影した撮影画像を用いて行う三次元計測処理と同じであってよい。三次元計測処理は、計測対象物に照射された投影パターンの識別処理と、距離計測処理とを含む。投影パターンの識別処理は、複数枚の撮影画像から同じ位置の画素の輝度情報を取得し、それぞれの画素が投影装置によって照らされているかどうかを判定し、その組み合わせを取得する。パターン識別処理としては、上記の他にも、注目画素の周囲のローカルな投影パターンの模様を解析する方法がある。ローカルな投影パターンがパターン全体においても独自性があるように設計されていれば、投影装置から投光されている投影パターン全体のうち、注目画素周辺に照射されている部分がどこに位置するかを特定することができる。いずれのパターン識別方法においても、投影装置から注目画素までのベクトルを一意に求めることが目的である。 The three-dimensional measurement calculation unit 103 executes the three-dimensional measurement process by inputting the virtual captured image. The three-dimensional measurement process executed by the three-dimensional measurement calculation unit 103 may be the same as the three-dimensional measurement process performed by the three-dimensional measurement device using the captured image taken in the actual environment. The three-dimensional measurement process includes a process of identifying the projection pattern irradiated on the object to be measured and a process of measuring the distance. The projection pattern identification process acquires luminance information of pixels at the same position from a plurality of captured images, determines whether or not each pixel is illuminated by a projection device, and acquires a combination thereof. In addition to the above, there is a method of analyzing the pattern of the local projection pattern around the pixel of interest as the pattern identification process. If the local projection pattern is designed to be unique in the entire pattern, it is possible to determine where the portion of the entire projection pattern projected from the projection device that is illuminated around the pixel of interest is located. Can be identified. The purpose of each pattern recognition method is to uniquely obtain the vector from the projection device to the pixel of interest.

投影パターンの識別処理によって、投影装置から注目画素までのベクトルを求めると、三次元計測演算部103は、計測条件情報に含まれる、投影装置および撮像装置の位置および姿勢といった配置条件を示すセンサ情報に基づいて、三角測量の原理で距離計測処理を行う。距離計測処理の詳細は、使用する投影パターンによって異なる。シミュレーション装置10が使用する投影パターンは任意の投影パターンであってよいため、距離計測処理は、使用する投影パターンに合わせて選択される。 When the vector from the projection device to the pixel of interest is obtained by the projection pattern identification process, the three-dimensional measurement calculation unit 103 contains sensor information indicating the arrangement conditions such as the positions and orientations of the projection device and the image pickup device, which are included in the measurement condition information. Based on the above, the distance measurement process is performed based on the principle of triangulation. The details of the distance measurement process depend on the projection pattern used. Since the projection pattern used by the simulation device 10 may be any projection pattern, the distance measurement process is selected according to the projection pattern to be used.

図4は、図1に示すシミュレーション装置10が出力する表示画面20の一例を示す図である。表示画面20は、処理結果表示領域21と、計測条件表示領域22と、計測条件のリスト表示領域23と、表示内容選択領域24と、実行ボタン25と、保存ボタン26と、終了ボタン27とを含む。処理結果表示領域21には、シミュレーション結果が表示される。計測条件表示領域22には、個別の計測条件が表示されるとともに、表示された計測条件の変更入力ができるようになっている。計測条件のリスト表示領域23には、保存済みの計測条件がリスト表示される。リスト表示領域23に表示された計測条件のリストの中から1つが選択されると、選択された計測条件が計測条件表示領域22に表示される。表示内容選択領域24には、処理結果表示領域21に表示する内容を選択するための操作部が表示され、ここでは、仮想撮影画像生成部102が再現した撮影画像と、計測データとが選択肢として表示されている。 FIG. 4 is a diagram showing an example of a display screen 20 output by the simulation device 10 shown in FIG. The display screen 20 includes a processing result display area 21, a measurement condition display area 22, a measurement condition list display area 23, a display content selection area 24, an execute button 25, a save button 26, and an end button 27. include. The simulation result is displayed in the processing result display area 21. In the measurement condition display area 22, individual measurement conditions are displayed, and the displayed measurement conditions can be changed and input. In the measurement condition list display area 23, the saved measurement conditions are displayed in a list. When one is selected from the list of measurement conditions displayed in the list display area 23, the selected measurement conditions are displayed in the measurement condition display area 22. In the display content selection area 24, an operation unit for selecting the content to be displayed in the processing result display area 21 is displayed. Here, the captured image reproduced by the virtual captured image generation unit 102 and the measurement data are options. It is displayed.

実行ボタン25は、計測条件表示領域22に表示されている計測条件を使用して、シミュレーション処理を実行するための操作部である。保存ボタン26は、計測条件表示領域22に表示されている計測条件を保存するための操作部である。終了ボタン27は、三次元計測のシミュレーション処理を終了するための操作部である。 The execution button 25 is an operation unit for executing the simulation process using the measurement conditions displayed in the measurement condition display area 22. The save button 26 is an operation unit for saving the measurement conditions displayed in the measurement condition display area 22. The end button 27 is an operation unit for ending the simulation process of the three-dimensional measurement.

計測条件取得部101は、実行ボタン25が操作されると、計測条件表示領域22に表示されている計測条件を取得して仮想撮影画像生成部102に入力する。仮想撮影画像生成部102が仮想撮影画像を生成して三次元計測演算部103に入力し、三次元計測演算部103が三次元計測処理を実行して計測結果を出力部104に入力すると、出力部104は、仮想撮影画像、計測値といったシミュレーション処理の過程で得られる処理結果、計測条件情報などシミュレーション処理への入力データなどを処理結果表示領域21に出力する。 When the execution button 25 is operated, the measurement condition acquisition unit 101 acquires the measurement conditions displayed in the measurement condition display area 22 and inputs them to the virtual captured image generation unit 102. When the virtual captured image generation unit 102 generates a virtual captured image and inputs it to the three-dimensional measurement calculation unit 103, and the three-dimensional measurement calculation unit 103 executes the three-dimensional measurement process and inputs the measurement result to the output unit 104, it is output. The unit 104 outputs the processing results obtained in the process of the simulation processing such as the virtual captured image and the measured value, the input data to the simulation processing such as the measurement condition information, and the like to the processing result display area 21.

ユーザにとって見やすい出力となるように、出力部104は、注目箇所を強調する、コントラストを調整する、ノイズを除去するなどの処理を行ってもよい。図4に示す表示画面20は一例であり、図4の例に限定されない。図4に示す表示画面20を用いることで、ユーザは、計測条件を逐次調整しながら、繰返しシミュレーション結果を確認することができる。 The output unit 104 may perform processing such as emphasizing the point of interest, adjusting the contrast, and removing noise so that the output is easy for the user to see. The display screen 20 shown in FIG. 4 is an example, and is not limited to the example of FIG. By using the display screen 20 shown in FIG. 4, the user can confirm the repeated simulation result while sequentially adjusting the measurement conditions.

以上説明したように、本発明の実施の形態1によれば、実際の撮像装置が出力する撮影画像を再現した仮想撮影画像が生成され、仮想撮影画像に基づいて、三次元計測処理が行われる。このような構成をとることで、実際に三次元計測装置を構成することなく、三次元計測の計測結果を得ることができる。また、シミュレーション装置10は、実際の三次元計測装置で取得される撮影画像に含まれる光の位置の誤差を再現することができる。誤差は、例えば、歪曲収差による画像ひずみ、ランダムノイズ、画像ボケ、相互反射などに起因して生じる。実際に三次元計測装置を構成した場合に、実際の撮影画像に後からこれらの誤差を付加するのは難しいが、仮想撮影画像上でこれらの誤差を再現することで、三次元計測のシミュレーション結果の精度を向上することができる。また、仮想撮影画像に再現性よく投影パターンおよび誤差を再現することができれば、三次元計測処理は通常の処理を用いることが可能である。 As described above, according to the first embodiment of the present invention, a virtual captured image that reproduces the captured image output by the actual imaging device is generated, and three-dimensional measurement processing is performed based on the virtual captured image. .. By adopting such a configuration, it is possible to obtain the measurement result of the three-dimensional measurement without actually configuring the three-dimensional measuring device. Further, the simulation device 10 can reproduce the error of the position of the light included in the captured image acquired by the actual three-dimensional measuring device. The error is caused by, for example, image distortion due to distortion, random noise, image blur, mutual reflection, and the like. When actually configuring a 3D measurement device, it is difficult to add these errors to the actual captured image later, but by reproducing these errors on the virtual captured image, the simulation result of 3D measurement The accuracy of Further, if the projection pattern and the error can be reproduced with good reproducibility in the virtual photographed image, it is possible to use a normal process for the three-dimensional measurement process.

実施の形態2.
図5は、本発明の実施の形態2にかかる仮想撮影画像生成部102の機能構成を示す図である。仮想撮影画像生成部102は、光学再現画像生成部301と、画質劣化処理部302とを有する。なお、図示していないが、図5に示す仮想撮影画像生成部102を備え、図1に示すシミュレーション装置10と同様の構成を示す装置を、実施の形態2にかかるシミュレーション装置12と称する。シミュレーション装置12は、仮想撮影画像生成部102以外の構成については、図1に示す実施の形態1と同様であるため、ここでは詳細な説明を省略する。以下、実施の形態1と同様の構成要素については、図1に示す符号を用いて説明し、実施の形態1と異なる部分について主に説明する。
Embodiment 2.
FIG. 5 is a diagram showing a functional configuration of the virtual captured image generation unit 102 according to the second embodiment of the present invention. The virtual captured image generation unit 102 includes an optical reproduction image generation unit 301 and an image quality deterioration processing unit 302. Although not shown, an apparatus including the virtual captured image generation unit 102 shown in FIG. 5 and showing the same configuration as the simulation apparatus 10 shown in FIG. 1 is referred to as a simulation apparatus 12 according to the second embodiment. Since the simulation device 12 has the same configuration as that of the first embodiment shown in FIG. 1 except for the virtual captured image generation unit 102, detailed description thereof will be omitted here. Hereinafter, the same components as those in the first embodiment will be described with reference to the reference numerals shown in FIG. 1, and the parts different from the first embodiment will be mainly described.

光学再現画像生成部301は、計測条件情報に基づいて、光学的なシミュレーションを行い、撮影画像を再現した光学再現画像を生成する。画質劣化処理部302は、光学再現画像に対して、誤差要因に応じた画質の劣化処理を施す。仮想撮影画像生成部102は、劣化処理後の画像を仮想撮影画像とする。 The optical reproduction image generation unit 301 performs an optical simulation based on the measurement condition information and generates an optical reproduction image that reproduces the captured image. The image quality deterioration processing unit 302 performs image quality deterioration processing on the optically reproduced image according to an error factor. The virtual captured image generation unit 102 sets the image after the deterioration processing as a virtual captured image.

図6は、図5に示す仮想撮影画像生成部102を有するシミュレーション装置12の動作を示すフローチャートである。計測条件取得部101は、計測条件情報を取得する(ステップS201)。計測条件取得部101は、取得した計測条件情報を仮想撮影画像生成部102に入力する。 FIG. 6 is a flowchart showing the operation of the simulation device 12 having the virtual captured image generation unit 102 shown in FIG. The measurement condition acquisition unit 101 acquires the measurement condition information (step S201). The measurement condition acquisition unit 101 inputs the acquired measurement condition information to the virtual captured image generation unit 102.

仮想撮影画像生成部102の光学再現画像生成部301は、計測条件情報に基づいて、光学再現画像を生成する(ステップS202)。光学再現画像生成部301は、生成した光学再現画像を画質劣化処理部302に入力する。 The optical reproduction image generation unit 301 of the virtual captured image generation unit 102 generates an optical reproduction image based on the measurement condition information (step S202). The optical reproduction image generation unit 301 inputs the generated optical reproduction image to the image quality deterioration processing unit 302.

画質劣化処理部302は、光学再現画像に対して、画質劣化処理を実行する(ステップS203)。画質劣化処理部302は、画質劣化処理後の画像を仮想撮影画像として三次元計測演算部103に入力する。 The image quality deterioration processing unit 302 executes image quality deterioration processing on the optically reproduced image (step S203). The image quality deterioration processing unit 302 inputs the image after the image quality deterioration processing to the three-dimensional measurement calculation unit 103 as a virtual captured image.

三次元計測演算部103は、仮想撮影画像を用いて、三次元計測処理を行い、計測結果を得る(ステップS204)。三次元計測演算部103は、計測結果を出力部104に入力する。出力部104は、計測結果を含むシミュレーション結果を出力する(ステップS205)。 The three-dimensional measurement calculation unit 103 performs a three-dimensional measurement process using the virtual captured image and obtains a measurement result (step S204). The three-dimensional measurement calculation unit 103 inputs the measurement result to the output unit 104. The output unit 104 outputs a simulation result including the measurement result (step S205).

光学再現画像生成部301は、画像中の各画素に対応する撮影空間内の撮像位置を計算し、計算した撮像位置に投影光が照射されているかどうか、つまり、投影装置の投影光が撮像位置に到達しているか否かを判定する。まず、光学再現画像生成部301は、センサ情報と、撮影空間内に存在する物体の配置および特性を示す情報とに基づいて、撮像装置の光学中心Ocamから各画素を通るベクトルVcamを計算する。光学再現画像生成部301は、ベクトルVcamと最初に交差する物体の表面上の点Pobjを検出する。このような計算によって、各画素に撮像されている物体を把握することができる。The optical reproduction image generation unit 301 calculates the imaging position in the photographing space corresponding to each pixel in the image, and whether or not the calculated imaging position is irradiated with the projected light, that is, the projected light of the projection device is the imaging position. Is determined. First, the optical reproduction image generation unit 301 calculates a vector V cam passing through each pixel from the optical center O cam of the imaging device based on the sensor information and the information indicating the arrangement and characteristics of the object existing in the photographing space. do. The optical reproduction image generation unit 301 detects a point P obj on the surface of the object that first intersects the vector V cam. By such a calculation, it is possible to grasp the object imaged in each pixel.

続いて、光学再現画像生成部301は、物体の表面上の点Pobjが投影装置によって照らされているかどうかを判定する。光学再現画像生成部301は、まず、投影装置の光学中心Oprojから点Pobjに向かうベクトルVprojを計算する。光学再現画像生成部301は、センサ情報と、投影装置の投影パターンを示すパターン情報とを用いて、投影装置から投影パターンが照射される範囲にベクトルVprojが含まれているか否かを判定する。含まれる場合、物体の表面上の点Pobjは、投影装置に照らされていると判定することができる。Subsequently, the optical reproduction image generation unit 301 determines whether or not the point P obj on the surface of the object is illuminated by the projection device. The optical reproduction image generation unit 301 first calculates a vector V proj from the optical center O proj of the projection device toward the point P obj. The optical reproduction image generation unit 301 determines whether or not the vector V proj is included in the range in which the projection pattern is irradiated from the projection device by using the sensor information and the pattern information indicating the projection pattern of the projection device. .. When included, the point P obj on the surface of the object can be determined to be illuminated by the projection device.

光学再現画像生成部301は、上記の計算結果に加えて、計測条件情報に含まれる反射特性および環境光の状態を示す情報を用いて、各画素の色を決定することができる。色を決定するために用いられる代表的な反射モデルとしては、拡散反射においてはランバート反射、鏡面反射においてはフォンの反射モデルが挙げられる。しかしながら、光学再現画像生成部301が使用する反射モデルはこれらに限定されず、任意の反射モデルを使用することができる。 In addition to the above calculation result, the optical reproduction image generation unit 301 can determine the color of each pixel by using the information indicating the reflection characteristic and the state of ambient light included in the measurement condition information. Typical reflection models used to determine color include Lambertian reflection for diffuse reflection and Phong reflection model for specular reflection. However, the reflection model used by the optical reproduction image generation unit 301 is not limited to these, and any reflection model can be used.

なお、光学再現画像の生成において、画像は離散的な画素の集合体であるため、ひとつの画素に撮像される範囲に、物体の境界、投影装置の投影パターンの境界部分が含まれることがある。その場合は、境界を構成する2つ以上の物体の色が混ざった色を画素の色とする方が自然である。しかし、上述のベクトルVcamは、撮影空間中の1点の交差点しか検出することができない。このため、境界を構成する物体のうち、ベクトルVcamと交差する物体の色のみが画素の色として決定されてしまう。結果として、物体や投影パターンの境界が不自然に見える画像が生成される可能性がある。これはいわゆる量子化誤差に起因する現象の一種であり、画像処理の分野においてはしばしば問題となる現象である。In the generation of the optically reproduced image, since the image is an aggregate of discrete pixels, the boundary of the object and the boundary of the projection pattern of the projection device may be included in the range imaged by one pixel. .. In that case, it is more natural to use a pixel color as a color in which the colors of two or more objects constituting the boundary are mixed. However, the above-mentioned vector V cam can detect only one intersection in the photographing space. Therefore, among the objects constituting the boundary, only the color of the object that intersects the vector V cam is determined as the pixel color. As a result, an image may be generated in which the boundaries of objects and projection patterns look unnatural. This is a kind of phenomenon caused by so-called quantization error, and is often a problem in the field of image processing.

量子化誤差に起因する現象の問題を解決するために、光学再現画像を仮想撮影画像の解像度よりも高い解像度で作成しておき、画質劣化処理において画像サイズになるように画像を縮小する処理を加えることで、仮想撮影画像を生成する方法がある。例えば、光学再現画像生成部301は、最終的に出力する仮想撮影画像の解像度の4倍の解像度で光学再現画像を生成する。この場合、仮想撮影画像の各画素の色は、光学再現画像におけるその画素にもっとも近い4画素分の色情報を用いて決定することができる。これにより、物体および投影パターンの境界付近の表現が自然な仮想撮影画像を生成することができる。 In order to solve the problem of the phenomenon caused by the quantization error, an optically reproduced image is created at a resolution higher than the resolution of the virtual photographed image, and the image is reduced to the image size in the image quality deterioration process. By adding, there is a method of generating a virtual photographed image. For example, the optical reproduction image generation unit 301 generates an optical reproduction image at a resolution four times the resolution of the virtual captured image to be finally output. In this case, the color of each pixel of the virtual captured image can be determined by using the color information of the four pixels closest to the pixel in the optically reproduced image. As a result, it is possible to generate a virtual captured image in which the representation near the boundary between the object and the projection pattern is natural.

光学再現画像生成部301は、誤差要因のうち、例えば、投影装置に起因する誤差要因である相互反射および投影装置のピントずれの情報を用いて、光学再現画像を生成する。これらは投影パターンの投影状態に影響するため、例えば、ピントずれが生じる場合には、光学再現画像生成部301は、光学再現画像におけるパターン境界を含む光の陰影境界をぼやけさせる。光学再現画像生成部301は、例えば、第1の面で反射した反射光が第2の面に入射する入射点を含む画素の輝度を、相互反射の影響を考慮しないときの輝度よりも高くすることで、相互反射を再現することができる。また、光学再現画像生成部301は、光の陰影境界に対応する画素の輝度を調整することで、光の陰影境界のボケを再現することができる。相互反射を再現する具体的な方法、および、投影装置のピントずれに起因する光の陰影境界のボケを再現する具体的な方法については、例えば、実施の形態3で説明する方法を用いることができる。 The optical reproduction image generation unit 301 generates an optical reproduction image by using, for example, information on mutual reflection and focus shift of the projection device, which are error factors caused by the projection device, among the error factors. Since these affect the projection state of the projection pattern, for example, when the focus shift occurs, the optical reproduction image generation unit 301 blurs the shadow boundary of light including the pattern boundary in the optical reproduction image. The optical reproduction image generation unit 301 makes, for example, the brightness of the pixel including the incident point where the reflected light reflected by the first surface is incident on the second surface higher than the brightness when the influence of mutual reflection is not taken into consideration. Therefore, mutual reflection can be reproduced. Further, the optical reproduction image generation unit 301 can reproduce the blurring of the light shadow boundary by adjusting the brightness of the pixel corresponding to the light shadow boundary. As a specific method for reproducing the mutual reflection and a specific method for reproducing the blurring of the shadow boundary of light due to the out-of-focus of the projection device, for example, the method described in the third embodiment may be used. can.

画質劣化処理部302は、例えば、撮像装置に起因する誤差要因である画像ひずみ、ランダムノイズおよび撮像装置のピントずれの情報を用いて、光学再現画像の画質を劣化させる。例えば、画質劣化処理部302は、画像中の輝度変化を平坦化するフィルタリング処理を行って、物体の輪郭、光の陰影境界などをぼやけさせたり、ランダムに選択した位置の画素の輝度を変化させたりすることで、光学再現画像の画質を劣化させることができる。 The image quality deterioration processing unit 302 deteriorates the image quality of the optically reproduced image by using, for example, information on image distortion, random noise, and out-of-focus of the image pickup device, which are error factors caused by the image pickup device. For example, the image quality deterioration processing unit 302 performs a filtering process for flattening a change in brightness in an image to blur the outline of an object, a shadow boundary of light, or the like, or change the brightness of pixels at randomly selected positions. By doing so, the image quality of the optically reproduced image can be deteriorated.

本発明の実施の形態2にかかるシミュレーション装置12によれば、光学シミュレーションによって、光が物体に遮蔽されることによる影を含めた光学的な効果を再現した画像である光学再現画像を得ることができる。さらに、光学再現画像に画質の劣化処理を施すことで、実際の撮影画像を精度よく再現することが可能になる。 According to the simulation apparatus 12 according to the second embodiment of the present invention, it is possible to obtain an optically reproduced image which is an image reproducing an optical effect including a shadow due to light being shielded by an object by an optical simulation. can. Further, by performing the deterioration processing of the image quality on the optically reproduced image, it becomes possible to accurately reproduce the actual photographed image.

また、光学的な現象を再現する処理と画質の劣化を再現する処理とを明示的に分けることで、三次元計測の誤差要因をそれぞれ独立して分析することが容易になる。三次元計測装置の実機を用いて三次元計測の計測誤差を検証する場合、各誤差要因がどれくらいの比率で影響しているのかを切り分けることは困難であるが、シミュレーション装置12を用いることで、投影装置に起因して生じる計測誤差と、撮像装置に起因して生じる計測誤差とを切り分けて検証することができる。したがって、三次元計測装置の設計や、投影装置および撮像装置などの機器の性能の検討を正確に行うことができる。また、実環境で三次元計測装置の実機を用いて検証するためには、様々な計測条件に対応する機器および計測対象物をそろえる必要があるため、多大な費用および時間がかかる。シミュレーション装置12によれば、シミュレーションによって検討を実施することができるため、より多くの計測条件で三次元計測装置を評価することができ、製品保証が容易になるという効果がある。 Further, by explicitly separating the process of reproducing the optical phenomenon and the process of reproducing the deterioration of the image quality, it becomes easy to analyze the error factors of the three-dimensional measurement independently. When verifying the measurement error of 3D measurement using an actual 3D measurement device, it is difficult to determine the ratio of each error factor affecting it, but by using the simulation device 12, it is possible to use the simulation device 12. It is possible to separate and verify the measurement error caused by the projection device and the measurement error caused by the imaging device. Therefore, it is possible to accurately design a three-dimensional measuring device and accurately examine the performance of devices such as a projection device and an imaging device. Further, in order to verify using an actual three-dimensional measuring device in an actual environment, it is necessary to prepare equipment and measurement objects corresponding to various measurement conditions, which requires a great deal of cost and time. According to the simulation device 12, since the examination can be carried out by simulation, the three-dimensional measuring device can be evaluated under more measurement conditions, and there is an effect that the product guarantee becomes easy.

実施の形態3.
図7は、本発明の実施の形態3にかかるシミュレーション装置13の機能構成を示す図である。シミュレーション装置13は、計測条件取得部101と、仮想撮影画像生成部102と、三次元計測演算部103と、出力部104と、誤差情報取得部105とを有する。以下、シミュレーション装置12と異なる部分について主に説明する。
Embodiment 3.
FIG. 7 is a diagram showing a functional configuration of the simulation device 13 according to the third embodiment of the present invention. The simulation device 13 includes a measurement condition acquisition unit 101, a virtual captured image generation unit 102, a three-dimensional measurement calculation unit 103, an output unit 104, and an error information acquisition unit 105. Hereinafter, the parts different from the simulation device 12 will be mainly described.

シミュレーション装置13は、シミュレーション装置12の構成に加えて、誤差情報取得部105を有する。誤差情報取得部105は、仮想撮影画像で表現する誤差要因を示す誤差情報を外部から取得する。誤差情報には、誤差要因の種類ごとの誤差の強度および付加順のうち少なくとも1つが含まれる。誤差情報取得部105は、取得した誤差情報を仮想撮影画像生成部102に入力する。 The simulation device 13 has an error information acquisition unit 105 in addition to the configuration of the simulation device 12. The error information acquisition unit 105 acquires error information indicating an error factor represented by a virtual captured image from the outside. The error information includes at least one of the strength of the error and the order of addition for each type of error factor. The error information acquisition unit 105 inputs the acquired error information to the virtual captured image generation unit 102.

図8は、図7に示す仮想撮影画像生成部102の機能構成を示す図である。シミュレーション装置13において、仮想撮影画像生成部102は、光学再現画像生成部301と、画質劣化処理部302と、誤差要因決定部303とを有する。 FIG. 8 is a diagram showing a functional configuration of the virtual captured image generation unit 102 shown in FIG. 7. In the simulation device 13, the virtual photographed image generation unit 102 includes an optical reproduction image generation unit 301, an image quality deterioration processing unit 302, and an error factor determination unit 303.

誤差要因決定部303は、誤差情報に基づいて、光学再現画像を生成して画質の劣化処理を施す誤差要因付加処理の強度および付加順の少なくとも1つを含む誤差要因付加処理の処理条件を決定する。誤差要因決定部303は、決定した処理条件を光学再現画像生成部301に入力する。 Based on the error information, the error factor determination unit 303 determines the processing conditions of the error factor addition processing including at least one of the strength and the addition order of the error factor addition processing that generates the optically reproduced image and performs the deterioration processing of the image quality. do. The error factor determination unit 303 inputs the determined processing conditions to the optical reproduction image generation unit 301.

光学再現画像生成部301は、計測条件情報と誤差情報と誤差要因決定部303から入力される処理条件とに基づいて、光学再現画像を生成する。画質劣化処理部302は、計測条件情報と誤差情報とに基づいて、光学再現画像に対して画質の劣化処理を施す。 The optical reproduction image generation unit 301 generates an optical reproduction image based on the measurement condition information, the error information, and the processing conditions input from the error factor determination unit 303. The image quality deterioration processing unit 302 performs image quality deterioration processing on the optically reproduced image based on the measurement condition information and the error information.

図9は、図7に示すシミュレーション装置13の動作を示すフローチャートである。計測条件取得部101は、計測条件情報を取得する(ステップS301)。計測条件取得部101は、取得した計測条件情報を仮想撮影画像生成部102に入力する。 FIG. 9 is a flowchart showing the operation of the simulation device 13 shown in FIG. The measurement condition acquisition unit 101 acquires the measurement condition information (step S301). The measurement condition acquisition unit 101 inputs the acquired measurement condition information to the virtual captured image generation unit 102.

誤差情報取得部105は、誤差情報を取得する(ステップS302)。誤差情報取得部105は、取得した誤差情報を仮想撮影画像生成部102に入力する。なお、ステップS301の処理とステップS302の処理とは同時並行で行われてよい。 The error information acquisition unit 105 acquires error information (step S302). The error information acquisition unit 105 inputs the acquired error information to the virtual captured image generation unit 102. The process of step S301 and the process of step S302 may be performed in parallel.

仮想撮影画像生成部102の誤差要因決定部303は、誤差要因の強度および付加順の少なくとも1つを含む、誤差要因付加処理の処理条件を決定する(ステップS303)。誤差要因決定部303は、決定した処理条件を光学再現画像生成部301に入力する。 The error factor determination unit 303 of the virtual captured image generation unit 102 determines the processing conditions of the error factor addition processing including at least one of the strength of the error factor and the addition order (step S303). The error factor determination unit 303 inputs the determined processing conditions to the optical reproduction image generation unit 301.

光学再現画像生成部301は、処理条件と、計測条件情報とに基づいて、光学的なシミュレーションによって光学再現画像を生成する(ステップS304)。光学再現画像生成部301は、生成した光学再現画像を画質劣化処理部302に入力する。 The optical reproduction image generation unit 301 generates an optical reproduction image by an optical simulation based on the processing conditions and the measurement condition information (step S304). The optical reproduction image generation unit 301 inputs the generated optical reproduction image to the image quality deterioration processing unit 302.

画質劣化処理部302は、計測条件情報と誤差情報とに基づいて、光学再現画像の画質劣化処理を実行する(ステップS305)。画質劣化処理部302は、画質劣化処理後の画像を仮想撮影画像として三次元計測演算部103に入力する。 The image quality deterioration processing unit 302 executes the image quality deterioration processing of the optically reproduced image based on the measurement condition information and the error information (step S305). The image quality deterioration processing unit 302 inputs the image after the image quality deterioration processing to the three-dimensional measurement calculation unit 103 as a virtual captured image.

三次元計測演算部103は、仮想撮影画像を用いて、三次元計測処理を実行し、計測結果を得る(ステップS306)。三次元計測演算部103は、計測結果を出力部104に入力する。出力部104は、計測結果を含むシミュレーション結果を出力する(ステップS307)。 The three-dimensional measurement calculation unit 103 executes the three-dimensional measurement process using the virtual captured image and obtains the measurement result (step S306). The three-dimensional measurement calculation unit 103 inputs the measurement result to the output unit 104. The output unit 104 outputs a simulation result including the measurement result (step S307).

図10は、図9に示すステップS304の詳細を示すフローチャートである。光学再現画像生成部301は、まず、誤差要因を含まない光学再現画像を生成する(ステップS401)。上記の通り、光学再現画像生成部301は、投影光によって直接照らされる領域である投影領域と、照らされない領域である非投影領域とを判別し、投影領域を非投影領域よりも明るい色で描画する。 FIG. 10 is a flowchart showing the details of step S304 shown in FIG. The optical reproduction image generation unit 301 first generates an optical reproduction image that does not include an error factor (step S401). As described above, the optical reproduction image generation unit 301 discriminates between the projected area, which is a region directly illuminated by the projected light, and the non-projected region, which is an unilluminated region, and draws the projected region in a brighter color than the non-projected region. do.

続いて光学再現画像生成部301は、誤差情報から誤差要因の付加順を取得する(ステップS402)。さらに光学再現画像生成部301は、誤差情報から誤差要因の種類および種類ごとの強度を取得する(ステップS403)。以下、光学再現画像生成部301は、ステップS402で取得した付加順に従って、光学再現画像に誤差を付加するか否かを判断していく。光学再現画像生成部301は、誤差情報に基づいて、まず、光学再現画像に相互反射を付加するか否かを判断する(ステップS404)。 Subsequently, the optical reproduction image generation unit 301 acquires the order of adding error factors from the error information (step S402). Further, the optical reproduction image generation unit 301 acquires the type of error factor and the intensity for each type from the error information (step S403). Hereinafter, the optical reproduction image generation unit 301 determines whether or not to add an error to the optical reproduction image according to the addition order acquired in step S402. The optical reproduction image generation unit 301 first determines whether or not to add mutual reflection to the optical reproduction image based on the error information (step S404).

相互反射を付加する場合(ステップS404:Yes)、光学再現画像生成部301、光学再現画像に相互反射を付加する(ステップS405)。具体的には、相互反射が生じる場合、物体の第1の面で反射した反射光が、第2の面に入射する。このとき光学再現画像生成部301は、第2の面に反射光が入射する入射点を含む画素の輝度を、相互反射によって輝度が増加する画素とする。光学再現画像生成部301は、輝度の増加量を、第1の面を含む物体および第2の面を含む物体の位置姿勢と、第1の面および第2の面の表面特性とに基づいて決定する。光学再現画像の各画素の輝度は、相互反射の影響を考慮しないときの画素の第1の輝度に、相互反射による輝度の増加量を加えた第2の輝度となる。 When adding mutual reflection (step S404: Yes), the optical reproduction image generation unit 301 adds mutual reflection to the optical reproduction image (step S405). Specifically, when mutual reflection occurs, the reflected light reflected by the first surface of the object is incident on the second surface. At this time, the optical reproduction image generation unit 301 sets the brightness of the pixel including the incident point where the reflected light is incident on the second surface as a pixel whose brightness is increased by mutual reflection. The optical reproduction image generation unit 301 increases the brightness based on the position and orientation of the object including the first surface and the object including the second surface, and the surface characteristics of the first surface and the second surface. decide. The brightness of each pixel of the optically reproduced image is the second brightness obtained by adding the amount of increase in brightness due to mutual reflection to the first brightness of the pixel when the influence of mutual reflection is not taken into consideration.

なお、光学再現画像生成部301は、ステップS405の処理において、必ずしも全ての光の反射において相互反射による輝度増加を計算しなくてもよい。例えば、光の鏡面反射率が低い面については、輝度増加量は画像の分解能よりも小さくなることがあるため、閾値以下の鏡面反射率を有する面については、相互反射による輝度の増加はないものとみなすことができる。 In the process of step S405, the optical reproduction image generation unit 301 does not necessarily have to calculate the brightness increase due to mutual reflection in the reflection of all light. For example, for a surface with low mirror reflectance of light, the amount of increase in brightness may be smaller than the resolution of the image, so for a surface with mirror reflectance below the threshold, there is no increase in brightness due to mutual reflection. Can be regarded as.

光学再現画像生成部301は、ステップS405の相互反射を付加する処理を終えると、誤差付加処理が終了であるか否かを判断する(ステップS406)。誤差付加処理が終了である場合(ステップS406:Yes)、光学再現画像生成部301は、誤差付加処理を終了して、光学再現画像を画質劣化処理部302に入力する。誤差付加処理が終了でない場合(ステップS406:No)、光学再現画像生成部301は、ステップS403の処理に戻る。 When the optical reproduction image generation unit 301 finishes the process of adding the mutual reflection in step S405, it determines whether or not the error adding process is finished (step S406). When the error addition processing is completed (step S406: Yes), the optical reproduction image generation unit 301 ends the error addition processing and inputs the optical reproduction image to the image quality deterioration processing unit 302. If the error addition process is not completed (step S406: No), the optical reproduction image generation unit 301 returns to the process of step S403.

相互反射を付加しない場合(ステップS404:No)、光学再現画像生成部301は、投影装置の光ボケを付加するか否かを判断する(ステップS407)。 When no mutual reflection is added (step S404: No), the optical reproduction image generation unit 301 determines whether or not to add the optical blur of the projection device (step S407).

投影装置の光ボケを付加する場合(ステップS407:Yes)、光学再現画像生成部301は、投影装置の光ボケを光学再現画像に付加する(ステップS408)。光の陰影境界のボケは、画素の輝度で表現することができる。具体的には、光学再現画像生成部301は、計測条件情報に基づき、光学再現画像においてピントずれがないと仮定した場合に光が投影される領域である第1の領域と、同じく投影装置のピントずれがないと仮定した場合に光が投影されない領域である第2の領域とを判別する。光学再現画像生成部301は、判別結果に基づいて、第1の領域と第2の領域との境界から予め定められた距離以内の画素を特定する。これらの画素の最大輝度は、光が投影される領域の輝度であり、最小輝度は、光が投影されない領域の輝度である。画素の輝度は、境界付近において、注目画素と境界との距離に基づいて決定されてよい。画素の輝度は、注目画素が第1の領域に近いほど最大値の輝度に近くなり、注目画素が第2の領域に近いほど最小値の輝度に近くなるように決定されてもよい。このようにして注目画素と第1の領域との最短距離に基づいて輝度を変化させることで、投影装置のピントがずれた状態を再現することが可能である。 When adding the optical blur of the projection device (step S407: Yes), the optical reproduction image generation unit 301 adds the optical blur of the projection device to the optical reproduction image (step S408). The blurring of the light shadow boundary can be expressed by the brightness of the pixels. Specifically, the optical reproduction image generation unit 301 is the same as the first area, which is the area where light is projected when it is assumed that there is no focus shift in the optical reproduction image, based on the measurement condition information, and the projection device. It is determined from the second region, which is a region where light is not projected when it is assumed that there is no out-of-focus. The optical reproduction image generation unit 301 identifies pixels within a predetermined distance from the boundary between the first region and the second region based on the discrimination result. The maximum brightness of these pixels is the brightness of the region where light is projected, and the minimum brightness is the brightness of the region where light is not projected. The brightness of a pixel may be determined near the boundary based on the distance between the pixel of interest and the boundary. The brightness of the pixels may be determined so that the closer the pixel of interest is to the first region, the closer to the maximum value of brightness, and the closer the pixel of interest is to the second region, the closer to the minimum value of brightness. By changing the brightness based on the shortest distance between the pixel of interest and the first region in this way, it is possible to reproduce a state in which the projection device is out of focus.

光学再現画像生成部301は、ステップS408の処理を終えると、ステップS406に進む。投影装置の光ボケを付加しない場合(ステップS407:No)、光学再現画像生成部301は、環境光を光学再現画像に付加するか否かを判断する(ステップS409)。 When the optical reproduction image generation unit 301 finishes the process of step S408, the optical reproduction image generation unit 301 proceeds to step S406. When the optical blur of the projection device is not added (step S407: No), the optical reproduction image generation unit 301 determines whether or not to add the ambient light to the optical reproduction image (step S409).

環境光を付加する場合(ステップS409:Yes)、光学再現画像生成部301は、環境光を光学再現画像に付加する(ステップS410)。環境光は、画素の輝度および色の少なくとも一方で表現される。光学再現画像生成部301は、ステップS410の処理を終えると、ステップS406に進む。また、環境光を付加しない場合(ステップS409:No)、光学再現画像生成部301は、誤差付加処理を終了する。 When the ambient light is added (step S409: Yes), the optical reproduction image generation unit 301 adds the ambient light to the optical reproduction image (step S410). Ambient light is represented by at least one of the brightness and color of the pixels. When the optical reproduction image generation unit 301 finishes the process of step S410, the optical reproduction image generation unit 301 proceeds to step S406. When no ambient light is added (step S409: No), the optical reproduction image generation unit 301 ends the error addition process.

図11は、図9に示すステップS305の詳細を示すフローチャートである。画質劣化処理部302は、まず、誤差情報に基づいて、誤差要因の付加順を取得する(ステップS501)。画質劣化処理部302は、誤差情報に基づいて、さらに、誤差要因の種類と誤差の強度とを取得する(ステップS502)。以下、画質劣化処理部302は、ステップS501で取得した付加順に従って、誤差を付加するか否かを判断する。 FIG. 11 is a flowchart showing the details of step S305 shown in FIG. The image quality deterioration processing unit 302 first acquires the order of adding error factors based on the error information (step S501). The image quality deterioration processing unit 302 further acquires the type of error factor and the intensity of the error based on the error information (step S502). Hereinafter, the image quality deterioration processing unit 302 determines whether or not to add an error according to the addition order acquired in step S501.

まず画質劣化処理部302は、画像ひずみを付加するか否かを判断する(ステップS503)。画像ひずみを付加すると判断した場合(ステップS503:Yes)、画質劣化処理部302は、光学再現画像に画像ひずみを付加する(ステップS504)。画像ひずみを付加した後、画質劣化処理部302は、画質劣化処理を終了するか否かを判断する(ステップS505)。画質劣化処理を終了すると判断した場合(ステップS505:Yes)、画質劣化処理部302は処理を終了する。画質劣化処理を終了しないと判断した場合(ステップS505:No)、画質劣化処理部302は、ステップS502の処理に戻る。 First, the image quality deterioration processing unit 302 determines whether or not to add image distortion (step S503). When it is determined that the image distortion is to be added (step S503: Yes), the image quality deterioration processing unit 302 adds the image distortion to the optically reproduced image (step S504). After adding the image distortion, the image quality deterioration processing unit 302 determines whether or not to end the image quality deterioration processing (step S505). When it is determined that the image quality deterioration processing is finished (step S505: Yes), the image quality deterioration processing unit 302 ends the processing. When it is determined that the image quality deterioration processing is not completed (step S505: No), the image quality deterioration processing unit 302 returns to the processing in step S502.

画像ひずみを付加しないと判断した場合(ステップS503:No)、画質劣化処理部302は、続いて、ランダムノイズを付加するか否かを判断する(ステップS506)。ランダムノイズを付加すると判断した場合(ステップS506:Yes)、画質劣化処理部302は、光学再現画像にランダムノイズを付加する(ステップS507)。ステップS507の処理が終わると、画質劣化処理部302は、ステップS505の処理に進む。 When it is determined that the image distortion is not added (step S503: No), the image quality deterioration processing unit 302 subsequently determines whether or not to add random noise (step S506). When it is determined that random noise is to be added (step S506: Yes), the image quality deterioration processing unit 302 adds random noise to the optically reproduced image (step S507). When the process of step S507 is completed, the image quality deterioration processing unit 302 proceeds to the process of step S505.

ランダムノイズを付加しないと判断した場合(ステップS506:No)、画質劣化処理部302は、画像ボケを付加するか否かを判断する(ステップS508)。画像ボケを付加しないと判断した場合(ステップS508:No)、画質劣化処理部302は処理を終了する。画像ボケを付加すると判断した場合(ステップS508:Yes)、画質劣化処理部302は、光学再現画像に画像ボケを付加する(ステップS509)。ステップS509の処理が終わると、画質劣化処理部302は、ステップS505の処理に進む。 When it is determined that the random noise is not added (step S506: No), the image quality deterioration processing unit 302 determines whether or not to add the image blur (step S508). When it is determined that the image blur is not added (step S508: No), the image quality deterioration processing unit 302 ends the process. When it is determined that the image blur is to be added (step S508: Yes), the image quality deterioration processing unit 302 adds the image blur to the optically reproduced image (step S509). When the process of step S509 is completed, the image quality deterioration processing unit 302 proceeds to the process of step S505.

なお、画質劣化処理部302は、1つの種類の誤差要因だけを光学再現画像に付加してもよいし、同じ誤差要因を複数回、光学再現画像に付加してもよい。例えば、ランダムノイズの付加と画像ボケの付加を交互に複数回実行すると、対象の物体の見え方に色ムラが生じたような効果を得ることができる。このように誤差要因の付加順と強度の組み合わせによって、さまざまな画質効果を再現することができる。 The image quality deterioration processing unit 302 may add only one type of error factor to the optical reproduction image, or may add the same error factor to the optical reproduction image a plurality of times. For example, when the addition of random noise and the addition of image blur are alternately executed a plurality of times, it is possible to obtain an effect in which color unevenness occurs in the appearance of the target object. In this way, various image quality effects can be reproduced by combining the order of addition of error factors and the intensity.

図12は、図7に示すシミュレーション装置13が出力する表示画面30の一例を示す図である。表示画面30は、処理結果表示領域21と、計測条件表示領域22と、計測条件のリスト表示領域23と、表示内容選択領域24と、実行ボタン25と、保存ボタン26と、終了ボタン27と、誤差要因設定領域28とを有する。 FIG. 12 is a diagram showing an example of the display screen 30 output by the simulation device 13 shown in FIG. 7. The display screen 30 includes a processing result display area 21, a measurement condition display area 22, a measurement condition list display area 23, a display content selection area 24, an execute button 25, a save button 26, and an end button 27. It has an error factor setting area 28.

表示画面30は、実施の形態1で説明した表示画面20の構成要素に加えて、誤差要因設定領域28を有する。以下、表示画面20と同様の部分については説明を省略し、表示画面20と異なる部分について主に説明する。 The display screen 30 has an error factor setting area 28 in addition to the components of the display screen 20 described in the first embodiment. Hereinafter, the same parts as the display screen 20 will be omitted, and the parts different from the display screen 20 will be mainly described.

誤差要因設定領域28は、誤差要因の種類ごとに、誤差の強度および誤差の付加順を設定するための領域である。ユーザは、誤差要因設定領域28に対して、誤差の強度および付加順を入力して設定することができる。誤差情報取得部105は、実行ボタン25が操作されたときに誤差要因設定領域28に表示されている誤差情報を取得することができる。 The error factor setting area 28 is an area for setting the strength of the error and the order of adding the error for each type of error factor. The user can input and set the strength of the error and the order of addition in the error factor setting area 28. The error information acquisition unit 105 can acquire the error information displayed in the error factor setting area 28 when the execution button 25 is operated.

以上説明したように、本発明の実施の形態3にかかるシミュレーション装置13は、誤差情報取得部105によって、ユーザが設定した誤差情報を反映したシミュレーションを実行することができる。このような構成をとることで、ユーザは、所望の動作条件において実行された三次元計測の評価を行うことができる。また、誤差要因の種類、誤差を光学再現画像に付加する付加順および強度を選択することができるため、再現可能な画質のバリエーションを増やすことができるという効果がある。動作条件や使用環境をランダムに変化させて試験することも可能であるため、設計者が事前に想定できなかった条件の組み合わせでの試験をすることもでき、試験内容が網羅的となるため、結果的に三次元計測装置の信頼性が高まるという効果も期待できる。 As described above, the simulation device 13 according to the third embodiment of the present invention can execute the simulation reflecting the error information set by the user by the error information acquisition unit 105. With such a configuration, the user can evaluate the three-dimensional measurement performed under the desired operating conditions. Further, since the type of error factor, the order of addition and the intensity of adding the error to the optically reproduced image can be selected, there is an effect that the variation of the reproducible image quality can be increased. Since it is possible to perform tests by randomly changing the operating conditions and usage environment, it is possible to perform tests with a combination of conditions that the designer could not have expected in advance, and the test contents will be comprehensive. As a result, the effect of increasing the reliability of the three-dimensional measuring device can be expected.

実施の形態4.
図13は、本発明の実施の形態4にかかる光学再現画像生成部301の機能構成を示す図である。光学再現画像生成部301は、センサ視点データ生成部401と、マップ生成部402と、画像合成部403とを有する。
Embodiment 4.
FIG. 13 is a diagram showing a functional configuration of the optical reproduction image generation unit 301 according to the fourth embodiment of the present invention. The optical reproduction image generation unit 301 includes a sensor viewpoint data generation unit 401, a map generation unit 402, and an image composition unit 403.

なお、図13に示す光学再現画像生成部301を備え、図7に示すシミュレーション装置13と同様の構成を有する不図示の装置を、実施の形態4にかかるシミュレーション装置14と称する。シミュレーション装置14は、図7に示すシミュレーション装置13と同様の構成を有し、仮想撮影画像生成部102の光学再現画像生成部301の構成がシミュレーション装置13と異なる。以下、シミュレーション装置13と同様の構成要素については説明を省略し、シミュレーション装置13と異なる部分について主に説明する。 A device (not shown) including the optical reproduction image generation unit 301 shown in FIG. 13 and having the same configuration as the simulation device 13 shown in FIG. 7 is referred to as a simulation device 14 according to the fourth embodiment. The simulation device 14 has the same configuration as the simulation device 13 shown in FIG. 7, and the configuration of the optical reproduction image generation unit 301 of the virtual photographed image generation unit 102 is different from that of the simulation device 13. Hereinafter, the description of the components similar to those of the simulation device 13 will be omitted, and the parts different from the simulation device 13 will be mainly described.

センサ視点データ生成部401は、撮像装置から見える撮影空間を示す第1画像と、撮像装置および投影装置のそれぞれから撮影空間内の物体までの距離データとを含むセンサ視点データを生成する。センサ視点データ生成部401は、生成したセンサ視点データをマップ生成部402に入力する。 The sensor viewpoint data generation unit 401 generates sensor viewpoint data including a first image showing the photographing space seen from the imaging device and distance data from each of the imaging device and the projection device to an object in the imaging space. The sensor viewpoint data generation unit 401 inputs the generated sensor viewpoint data to the map generation unit 402.

図14は、図13に示すセンサ視点データ生成部401の詳細な機能構成を示す図である。センサ視点データ生成部401が生成する第1画像は、投影光が照射されたときの明るさで撮影空間の全体が表現された明画像と、撮影空間に投影光が照射されていない暗画像とを含む。センサ視点データ生成部401は、明画像を生成する明画像生成部501と、暗画像を生成する暗画像生成部502と、距離データを生成する距離データ生成部503とを有する。 FIG. 14 is a diagram showing a detailed functional configuration of the sensor viewpoint data generation unit 401 shown in FIG. The first image generated by the sensor viewpoint data generation unit 401 includes a bright image in which the entire shooting space is represented by the brightness when the projected light is irradiated, and a dark image in which the shooting space is not irradiated with the projected light. including. The sensor viewpoint data generation unit 401 includes a bright image generation unit 501 that generates a bright image, a dark image generation unit 502 that generates a dark image, and a distance data generation unit 503 that generates distance data.

センサ視点データ生成部401は、明画像生成部501が生成した明画像と、暗画像生成部502が生成した暗画像とを含む第1画像と、距離データ生成部503が生成する距離データとを含むセンサ視点データを出力する。 The sensor viewpoint data generation unit 401 generates a first image including a bright image generated by the bright image generation unit 501, a dark image generated by the dark image generation unit 502, and distance data generated by the distance data generation unit 503. Output the sensor viewpoint data including.

図13の説明に戻る。センサ視点データ生成部401が出力するセンサ視点データは、マップ生成部402に入力される。マップ生成部402は、計測条件情報に基づいて、投影装置からの光が照らされる第1領域と、投影装置からの光が照らされない第2領域とを異なる数値で示すマップである照射マップを生成する。例えば、照射マップは、第1領域を「1」、第2領域を「0」で表すことができる。マップ生成部402は、生成した照射マップを画像合成部403に入力する。 Returning to the description of FIG. The sensor viewpoint data output by the sensor viewpoint data generation unit 401 is input to the map generation unit 402. Based on the measurement condition information, the map generation unit 402 generates an irradiation map which is a map showing different numerical values of the first region where the light from the projection device is illuminated and the second region where the light from the projection device is not illuminated. do. For example, in the irradiation map, the first region can be represented by "1" and the second region can be represented by "0". The map generation unit 402 inputs the generated irradiation map to the image composition unit 403.

図15は、図13に示すマップ生成部402の詳細な機能構成を示す図である。マップ生成部402は、照射領域算出部601と、照射マップ生成部602と、光ボケ再現部603と、反射領域算出部604と、反射マップ生成部605とを有する。 FIG. 15 is a diagram showing a detailed functional configuration of the map generation unit 402 shown in FIG. The map generation unit 402 includes an irradiation area calculation unit 601, an irradiation map generation unit 602, an optical blur reproduction unit 603, a reflection area calculation unit 604, and a reflection map generation unit 605.

照射領域算出部601は、計測条件情報に基づいて、投影装置からの光が照らされ得る領域を算出する。照射領域算出部601は、算出した領域を示す情報を照射マップ生成部602に入力する。 The irradiation area calculation unit 601 calculates an area where the light from the projection device can be illuminated based on the measurement condition information. The irradiation area calculation unit 601 inputs information indicating the calculated area to the irradiation map generation unit 602.

照射マップ生成部602は、照射領域算出部601からの情報と、計測条件情報とを用いて、投影装置からの光が照らされる第1領域と投影装置からの光が照らされない第2領域とを異なる数値で示すマップである照射マップを生成する。照射マップ生成部602は、生成した照射マップを光ボケ再現部603に入力する。 The irradiation map generation unit 602 uses the information from the irradiation area calculation unit 601 and the measurement condition information to obtain a first region in which the light from the projection device is illuminated and a second region in which the light from the projection device is not illuminated. Generate an irradiation map, which is a map indicated by different numerical values. The irradiation map generation unit 602 inputs the generated irradiation map to the optical blur reproduction unit 603.

反射領域算出部604は、計測条件情報とセンサ視点データとを用いて、投影装置から照射された光が一度撮影空間内の物体に反射して光線の強度および方向が変化した光である反射光線によって照らされる点の三次元位置と、第1画像上の座標とを対応づけることによって、第1画像において反射光線によって照らされる領域である反射領域を算出する。反射領域算出部604は、算出した反射領域を示す情報を反射マップ生成部605に入力する。反射マップ生成部605は、反射領域を示す情報と計測条件情報とを用いて、投影装置が投影パターンごとに、反射領域と反射光に照らされない領域とを異なる数値で示すマップである反射マップを生成する。例えば、反射マップは、反射領域を「1」、反射光に照らされない領域を「0」で表すことができる。反射マップ生成部605は、生成した反射マップを光ボケ再現部603に入力する。 The reflection area calculation unit 604 uses the measurement condition information and the sensor viewpoint data to reflect the light emitted from the projection device once on an object in the photographing space, and the intensity and direction of the light rays are changed. By associating the three-dimensional position of the point illuminated by with the coordinates on the first image, the reflection region, which is the region illuminated by the reflected light rays in the first image, is calculated. The reflection area calculation unit 604 inputs the calculated information indicating the reflection area to the reflection map generation unit 605. The reflection map generation unit 605 uses the information indicating the reflection area and the measurement condition information to generate a reflection map, which is a map in which the projection device indicates the reflected area and the area not illuminated by the reflected light with different numerical values for each projection pattern. Generate. For example, in the reflection map, the reflection area can be represented by "1" and the area not illuminated by the reflected light can be represented by "0". The reflection map generation unit 605 inputs the generated reflection map to the light blur reproduction unit 603.

光ボケ再現部603は、照射マップに光のボケの効果を再現する。具体的には、光ボケ再現部603は、光の陰影境界のボケの度合によって照射マップの値を0から1の実数に調整する。光ボケ再現部603は、反射マップについても照射マップと同様に光のボケの効果を再現する。具体的には、光ボケ再現部603は、光の陰影境界のボケの度合によって照射マップの値を0から1の実数に調整する。光ボケ再現部603は、値を調整した後の照射マップおよび反射マップを出力する。 The light blur reproduction unit 603 reproduces the effect of light blur on the irradiation map. Specifically, the light blur reproduction unit 603 adjusts the value of the irradiation map from 0 to 1 according to the degree of blur of the shadow boundary of light. The light blur reproduction unit 603 reproduces the effect of light blur on the reflection map as well as the irradiation map. Specifically, the light blur reproduction unit 603 adjusts the value of the irradiation map from 0 to 1 according to the degree of blur of the shadow boundary of light. The optical blur reproduction unit 603 outputs an irradiation map and a reflection map after adjusting the values.

画像合成部403は、照射マップおよび反射マップの情報に基づいて第1画像に含まれる明画像と暗画像とを合成することで光学再現画像を生成する。具体的には、画像合成部403は、光学再現画像の各画素の輝度を、照射マップの値に基づいて、明画像または暗画像における同じ位置の画素から取得した輝度とすることで、明画像と暗画像とを合成する。また、画像合成部403は、光ボケ再現部603によって照射マップおよび反射マップの値が調整されている場合、調整後の値に基づいて各画素の輝度を重みづけすることができる。 The image synthesizing unit 403 generates an optically reproduced image by synthesizing a bright image and a dark image included in the first image based on the information of the irradiation map and the reflection map. Specifically, the image synthesizing unit 403 sets the brightness of each pixel of the optically reproduced image to be the brightness obtained from the pixels at the same position in the bright image or the dark image based on the value of the irradiation map, so that the bright image And the dark image are combined. Further, when the values of the irradiation map and the reflection map are adjusted by the light blur reproduction unit 603, the image synthesizing unit 403 can weight the brightness of each pixel based on the adjusted values.

仮想撮影画像の枚数は、投影パターンの数に等しい。したがって、投影パターンが増えると、仮想撮影画像を作成するための処理時間が長くなるという問題がある。そこで、異なる投影パターンの照射において仮想撮影画像を作成する際に共通する処理を、1回だけ行えばよいように実装することが有効である。共通する処理の例としては、撮像装置視点から見た撮影空間の明画像および暗画像の作成、撮像装置および投影装置から撮影空間に存在する物体までの距離データの計算などが挙げられる。 The number of virtual captured images is equal to the number of projection patterns. Therefore, as the number of projection patterns increases, there is a problem that the processing time for creating a virtual captured image becomes long. Therefore, it is effective to implement a process that is common when creating a virtual captured image by irradiating different projection patterns so that it only needs to be performed once. Examples of common processing include the creation of bright and dark images of the imaging space viewed from the viewpoint of the imaging device, the calculation of distance data from the imaging device and the projection device to an object existing in the imaging space, and the like.

投影装置からの投影光によって照らされる領域の計算は、投影パターンが異なると計算結果が異なる。しかし、物体の陰になって投影光が遮蔽されて陰になる領域の計算については、投影パターンによらず一定であるため、共通処理として抜き出すことができる。 The calculation of the area illuminated by the projected light from the projection device differs depending on the projection pattern. However, since the calculation of the region where the projected light is shielded and shaded by the shadow of the object is constant regardless of the projection pattern, it can be extracted as a common process.

投影装置のピントが合っていない場合、シーンに投影されるパターンがボケるため、パターンの認識精度が低下し、結果的に3次元計測の精度が低下する可能性がある。パターン光のボケは、撮像装置の撮影の際に生じるものではなく、投影装置からのパターン投光の際に生じるものである。したがって、仮想撮影画像に対してボケを付加する方法では、現象を再現することはできない。 When the projection device is out of focus, the pattern projected on the scene is out of focus, so that the pattern recognition accuracy may decrease, and as a result, the accuracy of the three-dimensional measurement may decrease. The blurring of the pattern light does not occur when the image pickup device takes a picture, but occurs when the pattern light is projected from the projection device. Therefore, the phenomenon cannot be reproduced by the method of adding blur to the virtual photographed image.

そこで、仮想撮影画像において投影光によって照らされる領域を示す照射マップを作成する。照射マップは、仮想撮影画像と同じ要素数を持つ2次元配列として定義でき、各要素は0から1までの実数の値を持つ。投影光によって照らされている領域は1、投影光が届かない領域は0、投影光のボケの影響を受けて通常よりも低い強度で照らされている領域は0より大きく1より小さい値として表現できる。これを数式で表すと、以下の数式(2)のようになる。 Therefore, an irradiation map showing an area illuminated by the projected light in the virtual photographed image is created. The irradiation map can be defined as a two-dimensional array having the same number of elements as the virtual captured image, and each element has a real number value from 0 to 1. The area illuminated by the projected light is expressed as 1, the area not reached by the projected light is expressed as 0, and the area illuminated with a lower intensity than usual due to the influence of the blur of the projected light is expressed as a value larger than 0 and smaller than 1. can. This can be expressed by a mathematical formula as shown in the following mathematical formula (2).

Figure 2020165976
Figure 2020165976

ここで、Ii,jは、仮想撮影画像の画像座標(i,j)における輝度であり、Pi,jは、照射マップの座標(i,j)における値であり、Bi,jは、明画像の画像座標(i,j)における輝度であり、Si,jは、暗画像の画像座標(i,j)における輝度である。Here, I i, j is the brightness in the image coordinates (i, j) of the virtual captured image, P i, j is the value in the coordinates (i, j) of the irradiation map, and B i, j is. , The brightness at the image coordinates (i, j) of the bright image, and S i, j is the brightness at the image coordinates (i, j) of the dark image.

照射マップを作成する際には、まず投影装置のピントが合っている状態、すなわち投影光のボケがない状態を仮定し、投影パターンで照らされる領域を計算する。この時点では照射マップの各要素が持つ値は、0または1である。この照射マップに対して、ガウシアン平滑化などの平滑化フィルタを施すことによって、投影光のボケを再現する。ガウシアン平滑化を施すことにより、パターン光によって照らされる領域と照らされない領域の境界付近における照射マップの値の変化が滑らかになる。境界部分の値の変化が滑らかになることで、投影光の境界がぼやける効果が得られ、投影光のボケを再現することが可能である。 When creating an irradiation map, it is first assumed that the projection device is in focus, that is, there is no blurring of the projected light, and the area illuminated by the projection pattern is calculated. At this point, the value of each element of the irradiation map is 0 or 1. By applying a smoothing filter such as Gaussian smoothing to this irradiation map, the blur of the projected light is reproduced. By applying Gaussian smoothing, the change in the value of the irradiation map near the boundary between the area illuminated by the pattern light and the area not illuminated by the pattern light becomes smooth. By smoothing the change in the value of the boundary portion, the effect of blurring the boundary of the projected light can be obtained, and the blur of the projected light can be reproduced.

図16は、本発明の実施の形態4にかかるシミュレーション装置14の動作を示すフローチャートである。センサ視点データ生成部401は、明画像生成部501および暗画像生成部502において、明画像および暗画像を生成する(ステップS601)。センサ視点データ生成部401は、ステップS601と同時並行で、距離データ生成部503において、各視点の距離データを生成する(ステップS602)。センサ視点データ生成部401は、生成した明画像、暗画像および距離データを含むセンサ視点データをマップ生成部402に入力する。 FIG. 16 is a flowchart showing the operation of the simulation device 14 according to the fourth embodiment of the present invention. The sensor viewpoint data generation unit 401 generates a bright image and a dark image in the bright image generation unit 501 and the dark image generation unit 502 (step S601). The sensor viewpoint data generation unit 401 generates distance data for each viewpoint in the distance data generation unit 503 in parallel with step S601 (step S602). The sensor viewpoint data generation unit 401 inputs the sensor viewpoint data including the generated bright image, dark image, and distance data to the map generation unit 402.

マップ生成部402は、照射領域算出部601において、照射領域を算出する(ステップS603)。続いてマップ生成部402は、照射マップ生成部602において照射マップを生成する(ステップS604)。 The map generation unit 402 calculates the irradiation area in the irradiation area calculation unit 601 (step S603). Subsequently, the map generation unit 402 generates an irradiation map in the irradiation map generation unit 602 (step S604).

マップ生成部402は、誤差要因の付加順を取得する(ステップS605)。続いてマップ生成部402は、誤差要因の種類と強度を取得する(ステップS606)。マップ生成部402は、相互反射を付加するか否かを判断する(ステップS607)。相互反射を付加すると判断した場合(ステップS607:Yes)、マップ生成部402は、反射領域算出部604に反射領域を算出させ(ステップS608)、反射マップ生成部605に反射マップを生成させる(ステップS609)。 The map generation unit 402 acquires the order in which the error factors are added (step S605). Subsequently, the map generation unit 402 acquires the type and intensity of the error factor (step S606). The map generation unit 402 determines whether or not to add mutual reflection (step S607). When it is determined that mutual reflection is to be added (step S607: Yes), the map generation unit 402 causes the reflection area calculation unit 604 to calculate the reflection area (step S608) and causes the reflection map generation unit 605 to generate a reflection map (step S607: Yes). S609).

相互反射を付加しないと判断した場合(ステップS607:No)、ステップS608およびステップS609の処理は省略される。続いてマップ生成部402は、光ボケを付加するか否かを判断する(ステップS610)。光ボケを付加すると判断した場合(ステップS610:Yes)、マップ生成部402の光ボケ再現部603は、照射マップに光ボケを再現する(ステップS611)。 When it is determined that the mutual reflection is not added (step S607: No), the processes of step S608 and step S609 are omitted. Subsequently, the map generation unit 402 determines whether or not to add optical blur (step S610). When it is determined that the light blur is to be added (step S610: Yes), the light blur reproduction unit 603 of the map generation unit 402 reproduces the light blur on the irradiation map (step S611).

光ボケを付加しないと判断した場合(ステップS610:No)、ステップS611の処理は省略される。続いてマップ生成部402は、環境光を付加するか否かを判断する(ステップS612)。環境光を付加すると判断した場合(ステップS612:Yes)、マップ生成部402の照射マップ生成部602は、照射マップに環境光を付加する(ステップS613)。環境光を付加しないと判断した場合(ステップS612:No)、ステップS613の処理は省略される。 When it is determined that the optical blur is not added (step S610: No), the process of step S611 is omitted. Subsequently, the map generation unit 402 determines whether or not to add ambient light (step S612). When it is determined that the ambient light is to be added (step S612: Yes), the irradiation map generation unit 602 of the map generation unit 402 adds the ambient light to the irradiation map (step S613). When it is determined that the ambient light is not added (step S612: No), the process of step S613 is omitted.

マップ生成部402は、誤差付加処理を終了するか否かを判断する(ステップS614)。誤差付加処理を終了しないと判断した場合(ステップS614:No)、ステップS606の処理に戻る。誤差付加処理を終了すると判断した場合(ステップS614:Yes)、画像合成部403は、画像合成処理を実行する(ステップS615)。 The map generation unit 402 determines whether or not to end the error addition process (step S614). When it is determined that the error addition process is not completed (step S614: No), the process returns to step S606. When it is determined that the error addition processing is completed (step S614: Yes), the image synthesizing unit 403 executes the image synthesizing process (step S615).

以上説明したように、本発明の実施の形態4にかかるシミュレーション装置14によれば、光学的な現象を個別に再現した画像である第1画像、照射マップ、反射マップを作成することで、複数の投影パターンを用いる場合の光学再現画像を生成する処理およびデータ構造を簡素化することができる。また、照射マップを用いてピントずれに起因する光の陰影境界のボケ効果を表現し、反射マップを用いて相互反射の効果を表現することで、簡易な演算処理によって投影装置のピントずれ、相互反射といった複雑な光学現象が複合した撮影画像を再現することができるという効果を奏する。 As described above, according to the simulation apparatus 14 according to the fourth embodiment of the present invention, a plurality of first images, irradiation maps, and reflection maps, which are images that individually reproduce optical phenomena, are created. It is possible to simplify the process of generating an optically reproduced image and the data structure when the projection pattern of is used. In addition, by expressing the blurring effect of the shadow boundary of light caused by the out-of-focus using the irradiation map and expressing the effect of mutual reflection using the reflection map, the out-of-focus and mutual of the projection device can be expressed by simple arithmetic processing. It has the effect of being able to reproduce captured images in which complex optical phenomena such as reflection are combined.

実際の三次元計測装置を構成して評価を行う場合、光学的な現象が全て混在した状態の結果しか得ることができない。これに対してシミュレーション装置14によれば、複数の種類の光学的な現象のそれぞれを個別に再現することができる。このため、三次元計測によって生じる計測誤差がどの要因によって引き起こされたかをより詳細に知ることができる。このような構成をとることで、三次元計測装置の設計および性能評価が容易になるという効果を奏する。 When an actual three-dimensional measuring device is configured and evaluated, only the result in a state where all the optical phenomena are mixed can be obtained. On the other hand, according to the simulation device 14, each of a plurality of types of optical phenomena can be reproduced individually. Therefore, it is possible to know in more detail which factor caused the measurement error caused by the three-dimensional measurement. Such a configuration has the effect of facilitating the design and performance evaluation of the three-dimensional measuring device.

実施の形態5.
実施の形態5にかかる不図示のシミュレーション装置15は、図7に示すシミュレーション装置13と同様の構成を有する。シミュレーション装置15は、出力する表示画面がシミュレーション装置13と異なる。以下、シミュレーション装置13と同様の部分については説明を省略し、シミュレーション装置13と異なる部分について主に説明する。
Embodiment 5.
The simulation device 15 (not shown) according to the fifth embodiment has the same configuration as the simulation device 13 shown in FIG. 7. The output display screen of the simulation device 15 is different from that of the simulation device 13. Hereinafter, the same parts as the simulation device 13 will be omitted, and the parts different from the simulation device 13 will be mainly described.

図17は、本発明の実施の形態5にかかるシミュレーション装置15が出力する表示画面40の一例を示す図である。シミュレーション装置15は、計測条件情報の少なくとも一部と、仮想撮影画像とのうち少なくとも一方をさらに含むシミュレーション結果を出力することができる。 FIG. 17 is a diagram showing an example of a display screen 40 output by the simulation device 15 according to the fifth embodiment of the present invention. The simulation device 15 can output a simulation result including at least a part of the measurement condition information and at least one of the virtual captured images.

表示画面40は、調整項目表示領域41と、保存ボタン42と、終了ボタン43と、計測結果表示領域44とを含むことができる。調整項目表示領域41は、調整対象の項目の設定値がリスト表示される領域である。計測結果表示領域44は、調整対象の計測条件の項目をリスト表示されたそれぞれの設定値に設定したときの計測値を表示する領域である。保存ボタン42は、計測結果を保存する操作を行うための操作部であり、終了ボタン43は、処理を終了させる操作を行うための操作部である。 The display screen 40 can include an adjustment item display area 41, a save button 42, an end button 43, and a measurement result display area 44. The adjustment item display area 41 is an area in which the setting values of the items to be adjusted are displayed in a list. The measurement result display area 44 is an area for displaying the measured values when the items of the measurement conditions to be adjusted are set to the respective set values displayed in the list. The save button 42 is an operation unit for performing an operation for saving the measurement result, and the end button 43 is an operation unit for performing an operation for ending the process.

表示画面40では、調整対象の計測条件の項目の設定値と、処理結果である計測値と、中間結果として処理過程で得られる仮想撮影画像、照射マップなどが並べて表示される。また、いずれかの設定値における処理結果を基準とした差分結果を併せて表示したり、処理結果の差異が大きい部分を強調表示したりしてもよい。 On the display screen 40, the set value of the item of the measurement condition to be adjusted, the measured value which is the processing result, the virtual photographed image obtained in the processing process as the intermediate result, the irradiation map, and the like are displayed side by side. Further, the difference result based on the processing result at any of the set values may be displayed together, or the portion where the difference in the processing result is large may be highlighted.

以上説明したように、本発明の実施の形態5にかかるシミュレーション装置15によれば、計測値とあわせて、計測条件情報および仮想撮影画像などを出力することにより、ユーザが、計測条件ごとの三次元計測結果の過程を確認することができる。このとき、複数の計測条件に対応する処理結果および中間結果を並べて表示することで、計測条件の設定値を比較して検討することが可能になる。したがって、投影装置および撮像装置の配置、性能の検討が容易になるという効果を奏する。 As described above, according to the simulation device 15 according to the fifth embodiment of the present invention, the user can output the measurement condition information, the virtual photographed image, and the like together with the measured value, so that the user can perform a three-dimensional operation for each measurement condition. You can check the process of the original measurement result. At this time, by displaying the processing results and the intermediate results corresponding to a plurality of measurement conditions side by side, it is possible to compare and examine the set values of the measurement conditions. Therefore, there is an effect that the arrangement and performance of the projection device and the image pickup device can be easily examined.

実施の形態6.
図18は、本発明の実施の形態6にかかるシミュレーション装置16の機能構成を示す図である。シミュレーション装置16は、計測条件取得部101と、仮想撮影画像生成部102と、三次元計測演算部103と、出力部104と、誤差情報取得部105と、評価基準データ生成部106と、計測評価部107とを有する。
Embodiment 6.
FIG. 18 is a diagram showing a functional configuration of the simulation device 16 according to the sixth embodiment of the present invention. The simulation device 16 includes a measurement condition acquisition unit 101, a virtual photographed image generation unit 102, a three-dimensional measurement calculation unit 103, an output unit 104, an error information acquisition unit 105, an evaluation reference data generation unit 106, and measurement evaluation. It has a part 107.

シミュレーション装置16は、シミュレーション装置13の構成に加えて、評価基準データ生成部106と、計測評価部107とを有する。以下、シミュレーション装置13と同様の構成については詳細な説明を省略し、シミュレーション装置13と異なる部分について主に説明する。 The simulation device 16 has an evaluation reference data generation unit 106 and a measurement evaluation unit 107 in addition to the configuration of the simulation device 13. Hereinafter, detailed description of the configuration similar to that of the simulation device 13 will be omitted, and parts different from the simulation device 13 will be mainly described.

評価基準データ生成部106は、計測条件情報を用いて、シミュレーション結果の評価基準となる評価基準データを生成する。評価基準データ生成部106は、生成した評価基準データを計測評価部107に入力する。計測評価部107は、評価基準データを用いてシミュレーション結果を評価し、シミュレーション評価を取得する。出力部104は、シミュレーション結果に加えて、シミュレーション評価結果も出力する。 The evaluation standard data generation unit 106 uses the measurement condition information to generate evaluation standard data that serves as an evaluation standard for the simulation result. The evaluation standard data generation unit 106 inputs the generated evaluation standard data to the measurement evaluation unit 107. The measurement evaluation unit 107 evaluates the simulation result using the evaluation reference data and acquires the simulation evaluation. The output unit 104 outputs the simulation evaluation result in addition to the simulation result.

図19は、図18に示すシミュレーション装置16の動作を示すフローチャートである。図19に示す動作は、ステップS301からステップS307までは、図9と同様であるため詳細な説明を省略する。本実施の形態では、三次元計測処理が終わった後、評価基準データ生成部106が評価基準データを生成する(ステップS701)。続いて、計測評価部107は、シミュレーションによって得られた計測データと評価基準データとを比較して定量的な評価値を算出する計測評価処理を行う(ステップS702)。出力部104は、シミュレーション評価を出力する(ステップS703)。 FIG. 19 is a flowchart showing the operation of the simulation device 16 shown in FIG. Since the operation shown in FIG. 19 is the same as that in FIG. 9 from step S301 to step S307, detailed description thereof will be omitted. In the present embodiment, after the three-dimensional measurement process is completed, the evaluation reference data generation unit 106 generates the evaluation reference data (step S701). Subsequently, the measurement evaluation unit 107 performs a measurement evaluation process of comparing the measurement data obtained by the simulation with the evaluation reference data and calculating a quantitative evaluation value (step S702). The output unit 104 outputs the simulation evaluation (step S703).

評価基準データとしては、センサ視点データに含まれる、撮像装置からの距離データ、誤差要因を付加する前の仮想撮影画像を入力とした場合の三次元計測の処理結果、照射マップのような処理の過程で得られるデータ、実際に計測対象物を計測して得られる実計測データが考えられる。 The evaluation reference data includes the distance data from the imaging device included in the sensor viewpoint data, the processing result of three-dimensional measurement when the virtual captured image before adding the error factor is input, and the processing such as the irradiation map. Data obtained in the process and actual measurement data obtained by actually measuring the object to be measured can be considered.

シミュレーション評価としては、理論上、計測データが得られうる領域である計測可能領域に対する、計測データが得られない欠損領域の割合、評価基準データと比較した場合の計測誤差などを用いることが考えられる。計測可能領域は、例えば、誤差要因を付加する前の仮想撮影画像を入力として得られる計測データにおいて、欠損が生じていない領域とすることができる。また、評価基準データとシミュレーション結果とを比較して得られる、平均値、分散、標準偏差、最大値といった統計量を評価指標として用いてもよい。 Theoretically, as the simulation evaluation, it is conceivable to use the ratio of the missing area where the measurement data cannot be obtained to the measurable area which is the area where the measurement data can be obtained, the measurement error when compared with the evaluation reference data, and the like. .. The measurable region can be, for example, a region in which no loss has occurred in the measurement data obtained by inputting the virtual captured image before adding the error factor. In addition, statistics such as mean value, variance, standard deviation, and maximum value obtained by comparing the evaluation reference data and the simulation result may be used as the evaluation index.

実計測データを評価基準データとして用いる場合、よりシミュレーション評価がよくなるように、すなわち実計測データとシミュレーション結果の間の差異が小さくなるようにフィードバックをすることも有用である。 When the actual measurement data is used as the evaluation reference data, it is also useful to provide feedback so that the simulation evaluation is improved, that is, the difference between the actual measurement data and the simulation result is small.

フィードバックの方法としては、例えば、複数の異なるシミュレーション結果を生成し、最もシミュレーション評価が良い設定値を取得することが考えられる。複数のシミュレーション結果を得るためには、例えば、計測条件における計測対象物の表面特性の値を変化させたり、誤差要因の強度を変化させたりする方法がある。 As a feedback method, for example, it is conceivable to generate a plurality of different simulation results and acquire a setting value having the best simulation evaluation. In order to obtain a plurality of simulation results, for example, there is a method of changing the value of the surface characteristic of the object to be measured under the measurement conditions or changing the intensity of the error factor.

シミュレーション評価が最もよくなるときの、計測対象物の表面特性、誤差要因の強度といったパラメータが、最適なシミュレーション設定として定義できる。この最適なシミュレーション設定をユーザに提供することによって、より正確な検証実験が実施できるようになる。 Parameters such as the surface characteristics of the object to be measured and the strength of error factors when the simulation evaluation is the best can be defined as the optimum simulation settings. By providing the user with this optimum simulation setting, a more accurate verification experiment can be performed.

図20は、図18に示すシミュレーション装置16の表示画面50の一例を示す図である。表示画面50は、表示画面40の構成要素に加えて、評価基準データ表示領域51を含む。 FIG. 20 is a diagram showing an example of the display screen 50 of the simulation device 16 shown in FIG. The display screen 50 includes an evaluation reference data display area 51 in addition to the components of the display screen 40.

表示画面50では、計測条件の調整対象項目の複数の設定値と並んで、評価基準データが表示される。また、基準値を使用した三次元計測処理のシミュレーションから得られる中間結果も表示してもよい。また、表示画面50は、シミュレーション評価をさらに表示することもできる。 On the display screen 50, the evaluation reference data is displayed along with a plurality of set values of the adjustment target items of the measurement conditions. In addition, an intermediate result obtained from a simulation of a three-dimensional measurement process using a reference value may also be displayed. Further, the display screen 50 can further display the simulation evaluation.

以上説明したように、本発明の実施の形態6にかかるシミュレーション装置16では、シミュレーション結果に加えて、評価基準データを得ることができる。評価基準データは、シミュレーション結果を評価する際に基準となるデータであって、実計測データなどである。シミュレーション装置16は、シミュレーション結果に含まれる計測値と、評価基準データとを並べて表示することで、シミュレーション結果の検討を容易にすることができる。 As described above, in the simulation device 16 according to the sixth embodiment of the present invention, evaluation reference data can be obtained in addition to the simulation results. The evaluation reference data is data that serves as a reference when evaluating the simulation result, and is actual measurement data or the like. The simulation device 16 can facilitate the examination of the simulation result by displaying the measured value included in the simulation result and the evaluation reference data side by side.

また、シミュレーション装置16は、評価基準データを用いてシミュレーション結果を評価したシミュレーション評価を得ることができる。このような構成をとることで、計測誤差および欠損を定量的に把握することができる。このため、撮影装置および投影装置の性能検討、計測対象物ごとに三次元計測の適不適を判定するなどの作業が容易になる。また、性能評価方法が規格で定められている場合、その性能評価方法を使用してシミュレーション評価を得ることで、容易に適不適の判定を行うことが可能になる。 Further, the simulation device 16 can obtain a simulation evaluation in which the simulation result is evaluated using the evaluation reference data. With such a configuration, measurement errors and defects can be quantitatively grasped. Therefore, it becomes easy to examine the performance of the imaging device and the projection device, and to determine the suitability of the three-dimensional measurement for each measurement object. Further, when the performance evaluation method is defined by the standard, it is possible to easily determine the suitability by obtaining the simulation evaluation using the performance evaluation method.

実施の形態7.
図21は、本発明の実施の形態7にかかるシミュレーション装置17の機能構成を示す図である。シミュレーション装置17は、実施の形態6にかかるシミュレーション装置16の構成に加えて、物体認識処理部108および認識評価部109を有する。以下、シミュレーション装置16と異なる部分を主に説明する。
Embodiment 7.
FIG. 21 is a diagram showing a functional configuration of the simulation device 17 according to the seventh embodiment of the present invention. The simulation device 17 has an object recognition processing unit 108 and a recognition evaluation unit 109 in addition to the configuration of the simulation device 16 according to the sixth embodiment. Hereinafter, the parts different from the simulation device 16 will be mainly described.

物体認識処理部108は、三次元計測演算部103が出力するシミュレーション結果と、計測条件取得部101が出力する計測条件情報とを入力として、撮影空間内に存在する物体の位置姿勢と、物体を把持可能な位置である把持位置とのうち少なくとも1つを含む認識結果を取得する。物体認識処理部108は、認識結果を認識評価部109に入力する。 The object recognition processing unit 108 inputs the simulation result output by the three-dimensional measurement calculation unit 103 and the measurement condition information output by the measurement condition acquisition unit 101, and inputs the position and orientation of the object existing in the photographing space and the object. The recognition result including at least one of the gripping position which is the gripping position is acquired. The object recognition processing unit 108 inputs the recognition result to the recognition evaluation unit 109.

認識評価部109は計測条件情報に基づいて、認識結果を評価する。具体的には、認識評価部109は、認識結果に含まれる位置姿勢の推定精度と、把持位置の推定精度のうち少なくとも1つを含む認識評価結果を取得する。認識評価部109は、物体の認識結果および認識評価結果を出力部104に入力する。出力部104は、シミュレーション結果およびシミュレーション評価に加えて、認識結果および認識評価結果を出力する。 The recognition evaluation unit 109 evaluates the recognition result based on the measurement condition information. Specifically, the recognition evaluation unit 109 acquires the recognition evaluation result including at least one of the estimation accuracy of the position and orientation included in the recognition result and the estimation accuracy of the gripping position. The recognition evaluation unit 109 inputs the recognition result of the object and the recognition evaluation result to the output unit 104. The output unit 104 outputs the recognition result and the recognition evaluation result in addition to the simulation result and the simulation evaluation.

図22は、図21に示すシミュレーション装置17の動作を示すフローチャートである。ステップS301からステップS307,ステップS701からステップS703の動作は、図19と同様であるためここでは説明を省略する。以下、図19と異なる部分について主に説明する。 FIG. 22 is a flowchart showing the operation of the simulation device 17 shown in FIG. Since the operations of steps S301 to S307 and steps S701 to S703 are the same as those in FIG. 19, description thereof will be omitted here. Hereinafter, the parts different from those in FIG. 19 will be mainly described.

ステップS306に示す三次元計測処理が終わると、物体認識処理部108は、物体認識処理を実行して認識結果を取得する(ステップS801)。認識結果が得られると、認識評価部109は、認識結果を評価する認識評価処理を実行する(ステップS802)。認識評価結果が得られると、出力部104は、認識評価結果を出力する(ステップS803)。ここでステップS803において、認識評価結果に加えて、認識結果を出力してもよい。 When the three-dimensional measurement process shown in step S306 is completed, the object recognition processing unit 108 executes the object recognition process and acquires the recognition result (step S801). When the recognition result is obtained, the recognition evaluation unit 109 executes a recognition evaluation process for evaluating the recognition result (step S802). When the recognition evaluation result is obtained, the output unit 104 outputs the recognition evaluation result (step S803). Here, in step S803, the recognition result may be output in addition to the recognition evaluation result.

物体の三次元計測を行う目的の1つとして、計測対象物の位置姿勢などの認識が挙げられる。例えばロボットに物体を把持させるアプリケーションプログラムが該当する。把持対象となる物体の位置姿勢があらかじめ分かっていない場合には、その場で対象物をセンシングし、対象物の位置姿勢もしくはロボットが把持可能な位置を認識する必要がある。 One of the purposes of performing three-dimensional measurement of an object is to recognize the position and orientation of the object to be measured. For example, an application program that causes a robot to grasp an object is applicable. When the position and orientation of the object to be gripped are not known in advance, it is necessary to sense the object on the spot and recognize the position and orientation of the object or the position where the robot can grip.

そこで本発明の実施の形態7では、三次元計測のシミュレーション結果を入力として、物体認識処理を行う物体認識処理部108を備える。物体認識処理部108における物体認識のためのアルゴリズムは任意のアルゴリズムを使用してよい。物体認識アルゴリズムは、三次元計測の結果を三次元空間における点の集合として扱う三次元点群を入力としてもよいし、三次元計測結果を二次元画像で表現したデプス画像を入力としてもよい。 Therefore, in the seventh embodiment of the present invention, the object recognition processing unit 108 that performs the object recognition processing by inputting the simulation result of the three-dimensional measurement is provided. Any algorithm may be used as the algorithm for object recognition in the object recognition processing unit 108. The object recognition algorithm may input a three-dimensional point group that treats the result of the three-dimensional measurement as a set of points in the three-dimensional space, or may input a depth image expressing the three-dimensional measurement result as a two-dimensional image.

さらに、物体認識の結果を用いて、認識した物体の位置姿勢の推定精度や把持位置の推定精度といった認識結果の評価も行う。物体の位置姿勢を認識するアルゴリズムを評価する際、多くのケースで問題となるのは、物体の位置姿勢の真値が分からないことである。真値が分からないため、物体の位置姿勢の認識結果が出力されても、その良し悪しを定量的に判断することは難しい。しかし、シミュレーションにおいては物体の位置姿勢が既知であるため、認識結果を定量的に評価することが可能である。 Furthermore, using the result of object recognition, the recognition result such as the estimation accuracy of the position and orientation of the recognized object and the estimation accuracy of the gripping position is also evaluated. When evaluating an algorithm that recognizes the position and orientation of an object, the problem in many cases is that the true value of the position and orientation of the object is unknown. Since the true value is not known, it is difficult to quantitatively judge whether the object is good or bad even if the recognition result of the position and orientation of the object is output. However, since the position and orientation of the object are known in the simulation, it is possible to quantitatively evaluate the recognition result.

以上説明したように、本発明の実施の形態7にかかるシミュレーション装置17によれば、シミュレーション結果を用いて物体認識の検証を行うことが可能になる。このような構成をとることで、実際に三次元計測装置を構成することなく物体認識の性能評価が可能になる。シミュレーション空間において、認識対象物の位置姿勢は既知であるため、物体認識結果を真値と比較することができ、物体認識性能の定量的な評価が容易になるという効果を奏する。 As described above, according to the simulation device 17 according to the seventh embodiment of the present invention, it is possible to verify the object recognition using the simulation results. With such a configuration, it is possible to evaluate the performance of object recognition without actually configuring a three-dimensional measuring device. Since the position and orientation of the object to be recognized are known in the simulation space, the object recognition result can be compared with the true value, which has the effect of facilitating the quantitative evaluation of the object recognition performance.

ロボットで認識した物体を把持するシステムでは、物体認識の精度が十分であるか否かを定量的に評価することが非常に重要である。ロボットによる把持が成功するかどうかは物体認識の精度に大きく影響されるためである。しかしながら、例えば複数の物体が規則性なく積まれたばら積み状態からの把持を想定すると、ばら積みされた物体の位置姿勢の真値を知ることは困難である。そのため三次元計測装置およびロボットを含む実機を用いて試験を行ったとしても、物体認識の厳密な精度を定量的に把握することができない。本発明によれば、シミュレーションによって容易に真値を取得して、物体認識の精度を定量的に評価することができるという利点がある。 In a system that grips an object recognized by a robot, it is very important to quantitatively evaluate whether or not the accuracy of object recognition is sufficient. This is because the success of gripping by the robot is greatly affected by the accuracy of object recognition. However, for example, assuming that a plurality of objects are gripped from a bulky state in which they are stacked irregularly, it is difficult to know the true value of the position and orientation of the bulky objects. Therefore, even if the test is performed using an actual machine including a three-dimensional measuring device and a robot, the exact accuracy of object recognition cannot be quantitatively grasped. According to the present invention, there is an advantage that the true value can be easily obtained by simulation and the accuracy of object recognition can be quantitatively evaluated.

実施の形態8.
図23は、本発明の実施の形態8にかかるシミュレーション装置18の機能構成を示す図である。シミュレーション装置18は、実施の形態7にかかるシミュレーション装置17の構成に加えて、物体把持評価部110を有する。
Embodiment 8.
FIG. 23 is a diagram showing a functional configuration of the simulation device 18 according to the eighth embodiment of the present invention. The simulation device 18 has an object grip evaluation unit 110 in addition to the configuration of the simulation device 17 according to the seventh embodiment.

以下、シミュレーション装置17と同様の構成については説明を省略し、シミュレーション装置17と異なる部分について主に説明する。 Hereinafter, the description of the same configuration as that of the simulation device 17 will be omitted, and the parts different from the simulation device 17 will be mainly described.

物体把持評価部110は、計測条件取得部101が出力する計測条件情報と、三次元計測演算部103が出力するシミュレーション結果と、物体認識処理部108が出力する認識結果とに基づいて、物体の把持成功確率を評価した物体の把持評価結果を取得する。物体把持評価部110は、把持評価結果を出力部104に入力する。出力部104は、把持評価結果も出力する。 The object grasping evaluation unit 110 is based on the measurement condition information output by the measurement condition acquisition unit 101, the simulation result output by the three-dimensional measurement calculation unit 103, and the recognition result output by the object recognition processing unit 108. Acquire the gripping evaluation result of the object for which the gripping success probability is evaluated. The object grip evaluation unit 110 inputs the grip evaluation result to the output unit 104. The output unit 104 also outputs the grip evaluation result.

図24は、図23に示すシミュレーション装置18の動作を示すフローチャートである。ステップS301からステップS307,ステップS701からステップS703,ステップS801からステップS803の動作は図22と同様であるため、ここでは説明を省略する。以下、図22と異なる部分について主に説明する。 FIG. 24 is a flowchart showing the operation of the simulation device 18 shown in FIG. 23. Since the operations of steps S301 to S307, steps S701 to S703, and steps S801 to S803 are the same as those in FIG. 22, the description thereof will be omitted here. Hereinafter, the parts different from those in FIG. 22 will be mainly described.

物体認識結果が得られると、物体把持評価部110は、物体把持評価を実行する(ステップS901)。物体把持評価部110は、把持評価結果を出力部104に入力する。出力部104は、把持評価結果を出力する(ステップS902)。ステップS901の動作は、認識評価処理と同時並行で実行することができる。 When the object recognition result is obtained, the object grip evaluation unit 110 executes the object grip evaluation (step S901). The object grip evaluation unit 110 inputs the grip evaluation result to the output unit 104. The output unit 104 outputs the grip evaluation result (step S902). The operation of step S901 can be executed in parallel with the recognition evaluation process.

物体の認識結果を用いることで、ロボットハンドがどの位置で物体を把持するかの情報を得ることができる。その情報を用いることで、ロボットハンドを把持位置まで移動させ、把持動作を実行した場合に、物体と接触する位置や、ロボットハンドあるいは物体に生じる力の大きさと方向をシミュレーションすることができる。 By using the object recognition result, it is possible to obtain information on the position where the robot hand grips the object. By using the information, it is possible to simulate the position of contact with the object and the magnitude and direction of the force generated in the robot hand or the object when the robot hand is moved to the gripping position and the gripping operation is executed.

ロボットハンドおよび物体に生じる力の大きさと方向が分かれば、把持が成功するかどうかを推定することが可能である。例えば、ロボットハンドが2本の爪を有する平行ハンドである場合を考える。把持に失敗するのは、ロボットハンドの爪の隙間から把持物体が外れてしまうケースである。このケースに該当する状況としては、把持物体に対して、平行ハンドが閉じる方向に対して垂直な方向にかかる力が、ロボットハンドと把持物体との間の摩擦力よりも大きいときが考えられる。したがって、ロボットハンドおよび把持物体の表面の摩擦係数、把持物体の重量、ロボットハンドの把持力といった情報があれば把持が成功するか否かの判定が可能である。 Knowing the magnitude and direction of the force generated by the robot hand and the object makes it possible to estimate the success of the grip. For example, consider the case where the robot hand is a parallel hand having two claws. Gripping fails when the gripped object comes off from the gap between the claws of the robot hand. A situation corresponding to this case is considered to be a case where the force applied to the gripping object in the direction perpendicular to the closing direction of the parallel hand is larger than the frictional force between the robot hand and the gripping object. Therefore, it is possible to determine whether or not the gripping is successful if there is information such as the friction coefficient of the surface of the robot hand and the gripping object, the weight of the gripping object, and the gripping force of the robot hand.

ただし、把持の成功確率を評価する方法は、ロボットハンドと把持物体との間に生じる力を推定する方法だけでなく、任意の評価方法を用いて良い。本発明の実施の形態8では、このようなロボットによる物体把持のシミュレーション機能を備えた物体把持評価部110を有する。実施の形態8における出力画面例を図25に示す。図25は、図23に示すシミュレーション装置18が出力する表示画面60の一例を示す図である。表示画面60は、表示画面30の表示内容に加えて、認識および把持評価結果表示領域61を有する。認識結果および把持評価結果の出力方法としては、認識や把持の成否を成功の場合と失敗の場合とで異なる記号を出力してもよいし、失敗時には失敗の原因を出力してもよいし、評価に用いる何らかの定量値を表示してもよい。 However, as a method for evaluating the success probability of gripping, not only a method of estimating the force generated between the robot hand and the gripping object but also an arbitrary evaluation method may be used. In the eighth embodiment of the present invention, the object grasping evaluation unit 110 having such an object grasping simulation function by a robot is provided. An example of the output screen according to the eighth embodiment is shown in FIG. FIG. 25 is a diagram showing an example of a display screen 60 output by the simulation device 18 shown in FIG. 23. The display screen 60 has a recognition and grip evaluation result display area 61 in addition to the display contents of the display screen 30. As a method of outputting the recognition result and the grip evaluation result, different symbols may be output depending on whether the recognition or grip is successful or unsuccessful, or the cause of the failure may be output at the time of failure. Some quantitative value used for evaluation may be displayed.

以上説明したように、本発明の実施の形態8にかかるシミュレーション装置18によれば、シミュレーション上で把持成功率が評価できるため、ロボットシステムを構築する前の事前検証が容易になるという効果がある。 As described above, according to the simulation device 18 according to the eighth embodiment of the present invention, since the gripping success rate can be evaluated on the simulation, there is an effect that the preliminary verification before constructing the robot system becomes easy. ..

ロボット実機を用いて物体の認識から把持までの一連の動作が可能なシステムを構築するためには、3次元計測装置の設置から物体認識のソフトウェア調整、およびロボットの動作調整など、多大な期間とコストを要する。さらに、実空間で物体の把持を繰り返し行う試験にも長い時間と試行錯誤を要する。本発明によれば、シミュレーション上で把持試験が可能になるため、従来よりも短期間で試験を行うことができる。 In order to build a system that can perform a series of operations from object recognition to gripping using an actual robot, it takes a long time to install a 3D measuring device, adjust the object recognition software, and adjust the robot operation. It costs money. Furthermore, a test in which an object is repeatedly gripped in real space also requires a long time and trial and error. According to the present invention, since the gripping test can be performed by simulation, the test can be performed in a shorter period of time than before.

また、実際のロボットシステムを用いて把持試験を行い、把持失敗の原因分析をしようとした場合、3次元計測の誤差からロボットの動作調整ミスまで、あらゆる失敗要因が混在した状態で把持成功か把持失敗かの結果だけが得られることになる。そのため、どこを修正すれば把持の成功率が向上するかを解析するのは困難である。本発明ではシミュレーションによって失敗要因を切り分けて検証することができるため、短期間で原因究明および改善を行うことができる。 In addition, when a gripping test is performed using an actual robot system and an attempt is made to analyze the cause of gripping failure, gripping success or gripping is performed in a state where all failure factors are mixed, from errors in 3D measurement to robot motion adjustment errors. Only the result of failure will be obtained. Therefore, it is difficult to analyze where to modify to improve the success rate of gripping. In the present invention, since the cause of failure can be isolated and verified by simulation, the cause can be investigated and improved in a short period of time.

続いて、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18のハードウェア構成について説明する。計測条件取得部101、仮想撮影画像生成部102、三次元計測演算部103、出力部104、誤差情報取得部105、評価基準データ生成部106、計測評価部107、物体認識処理部108、認識評価部109および物体把持評価部110は、処理回路により実現される。これらの処理回路は、専用のハードウェアにより実現されてもよいし、CPU(Central Processing Unit)を用いた制御回路であってもよい。 Subsequently, the hardware configurations of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention will be described. Measurement condition acquisition unit 101, virtual captured image generation unit 102, three-dimensional measurement calculation unit 103, output unit 104, error information acquisition unit 105, evaluation reference data generation unit 106, measurement evaluation unit 107, object recognition processing unit 108, recognition evaluation The unit 109 and the object grip evaluation unit 110 are realized by a processing circuit. These processing circuits may be realized by dedicated hardware, or may be control circuits using a CPU (Central Processing Unit).

上記の処理回路が、専用のハードウェアにより実現される場合、これらは、図26に示す処理回路90により実現される。図26は、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能を実現するための専用のハードウェアを示す図である。処理回路90は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものである。 When the above processing circuits are realized by dedicated hardware, these are realized by the processing circuit 90 shown in FIG. FIG. 26 is a diagram showing dedicated hardware for realizing the functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention. The processing circuit 90 is a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

上記の処理回路が、CPUを用いた制御回路で実現される場合、この制御回路は例えば図27に示す構成の制御回路91である。図27は、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能を実現するための制御回路91の構成を示す図である。図27に示すように、制御回路91は、プロセッサ92と、メモリ93とを備える。プロセッサ92は、CPUであり、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などとも呼ばれる。メモリ93は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などである。 When the above processing circuit is realized by a control circuit using a CPU, this control circuit is, for example, a control circuit 91 having the configuration shown in FIG. 27. FIG. 27 is a diagram showing a configuration of a control circuit 91 for realizing the functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention. As shown in FIG. 27, the control circuit 91 includes a processor 92 and a memory 93. The processor 92 is a CPU, and is also called a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like. The memory 93 is, for example, a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EEPROM (registered trademark) (Electrically EPROM). Magnetic discs, flexible discs, optical discs, compact discs, mini discs, DVDs (Digital Versatile Disk), etc.

上記の処理回路が制御回路91により実現される場合、プロセッサ92がメモリ93に記憶された、各構成要素の処理に対応するプログラムを読み出して実行することにより実現される。また、メモリ93は、プロセッサ92が実行する各処理における一時メモリとしても使用される。 When the above processing circuit is realized by the control circuit 91, it is realized by the processor 92 reading and executing a program stored in the memory 93 corresponding to the processing of each component. The memory 93 is also used as a temporary memory in each process executed by the processor 92.

また、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能は、図28に示す構成のハードウェアを用いて実現することもできる。図28は、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能を実現するためのハードウェア構成の一例を示す図である。本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能は、プロセッサ92およびメモリ93に加えて、入力装置94および出力装置95を用いて実現することができる。入力装置94は、キーボード、マウス、タッチセンサなどユーザからの入力操作を受け付ける入力インタフェースである。出力装置95は、例えば表示装置であり、ユーザに対して出力画面を表示することができる。なお、タッチパネルを用いる場合、タッチパネルの表示装置が出力装置95であり、表示装置に重畳されたタッチセンサが入力装置94である。 Further, the functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention can also be realized by using the hardware having the configuration shown in FIG. 28. .. FIG. 28 is a diagram showing an example of a hardware configuration for realizing the functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention. The functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention use the input device 94 and the output device 95 in addition to the processor 92 and the memory 93. Can be realized. The input device 94 is an input interface that accepts input operations from users such as a keyboard, a mouse, and a touch sensor. The output device 95 is, for example, a display device, and can display an output screen to the user. When a touch panel is used, the display device of the touch panel is the output device 95, and the touch sensor superimposed on the display device is the input device 94.

例えば、シミュレーション装置10,12,13,14,15,16,17,18の計測条件取得部101および出力部104の機能は、プロセッサ92だけによって実現されてもよいし、プロセッサ92と入力装置94または出力装置95、もしくはそれらとのインタフェースとによって実現されてもよい。 For example, the functions of the measurement condition acquisition unit 101 and the output unit 104 of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 may be realized only by the processor 92, or the processor 92 and the input device 94. Alternatively, it may be realized by the output device 95 or an interface with them.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above-described embodiment shows an example of the content of the present invention, can be combined with another known technique, and is one of the configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

例えば、本発明の実施の形態1〜8にかかるシミュレーション装置10,12,13,14,15,16,17,18の機能は、1台のハードウェア上で実現されてもよいし、複数のハードウェアで分散処理されてもよい。 For example, the functions of the simulation devices 10, 12, 13, 14, 15, 16, 17, and 18 according to the first to eighth embodiments of the present invention may be realized on one hardware or a plurality of functions. It may be distributed in hardware.

また、上記で示した表示画面20,30,40,50,60は一例であり、様々な変更を加えることが可能である。 Further, the display screens 20, 30, 40, 50, and 60 shown above are examples, and various changes can be made.

10,12,13,14,15,16,17,18 シミュレーション装置、20,30,40,50,60 表示画面、21 処理結果表示領域、22 計測条件表示領域、23 リスト表示領域、24 表示内容選択領域、25 実行ボタン、26,42 保存ボタン、27,43 終了ボタン、28 誤差要因設定領域、41 調整項目表示領域、44 計測結果表示領域、51 評価基準データ表示領域、61 認識および把持評価結果表示領域、90 処理回路、91 制御回路、92 プロセッサ、93 メモリ、101 計測条件取得部、102 仮想撮影画像生成部、103 三次元計測演算部、104 出力部、105 誤差情報取得部、106 評価基準データ生成部、107 計測評価部、108 物体認識処理部、109 認識評価部、110 物体把持評価部、201 投影条件情報取得部、202 撮影条件情報取得部、203 計測対象物情報取得部、204 非計測対象物情報取得部、301 光学再現画像生成部、302 画質劣化処理部、303 誤差要因決定部、401 センサ視点データ生成部、402 マップ生成部、403 画像合成部、501 明画像生成部、502 暗画像生成部、503 距離データ生成部、601 照射領域算出部、602 照射マップ生成部、603 光ボケ再現部、604 反射領域算出部、605 反射マップ生成部。 10, 12, 13, 14, 15, 16, 17, 18 Simulation device, 20, 30, 40, 50, 60 Display screen, 21 Processing result display area, 22 Measurement condition display area, 23 List display area, 24 Display contents Selection area, 25 execute button, 26, 42 save button, 27, 43 end button, 28 error factor setting area, 41 adjustment item display area, 44 measurement result display area, 51 evaluation standard data display area, 61 recognition and grasp evaluation result Display area, 90 processing circuit, 91 control circuit, 92 processor, 93 memory, 101 measurement condition acquisition unit, 102 virtual shooting image generation unit, 103 three-dimensional measurement calculation unit, 104 output unit, 105 error information acquisition unit, 106 evaluation criteria Data generation unit, 107 measurement evaluation unit, 108 object recognition processing unit, 109 recognition evaluation unit, 110 object grip evaluation unit, 201 projection condition information acquisition unit, 202 shooting condition information acquisition unit, 203 measurement object information acquisition unit, 204 non Measurement target information acquisition unit, 301 optical reproduction image generation unit, 302 image quality deterioration processing unit, 303 error factor determination unit, 401 sensor viewpoint data generation unit, 402 map generation unit, 403 image composition unit, 501 bright image generation unit, 502 Dark image generation unit, 503 distance data generation unit, 601 irradiation area calculation unit, 602 irradiation map generation unit, 603 light blur reproduction unit, 604 reflection area calculation unit, 605 reflection map generation unit.

上述した課題を解決し、目的を達成するために、本発明にかかるシミュレーション装置は、光を計測対象物に投影する投影装置と、投影装置からの投影光が照射された計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の計測条件を示す計測条件情報を取得する計測条件取得部と、計測条件情報に基づいて、撮像装置が出力する撮影画像を再現した仮想撮影画像を生成する仮想撮影画像生成部と、仮想撮影画像を用いて計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得る三次元計測演算部と、計測値を含むシミュレーション結果を出力する出力部と、を備えることを特徴とする。仮想撮影画像生成部は、計測条件情報に基づいて、撮影画像における投影光によって生じる陰影の境界を示す位置に含まれる誤差を画素値で再現した仮想撮影画像を生成する。 In order to solve the above-mentioned problems and achieve the object, the simulation apparatus according to the present invention includes a projection device that projects light onto a measurement object and a photographing object that is irradiated with the projection light from the projection device. A virtual captured image that reproduces the captured image output by the imaging device based on the measurement condition acquisition unit that acquires the measurement condition information indicating the measurement conditions of the three-dimensional measuring device equipped with the imaging device that captures the space. A 3D measurement calculation unit that obtains the measured value by executing a 3D measurement process that measures the 3D position of the surface of the object to be measured using the virtual captured image It is characterized by including an output unit for outputting a simulation result including the simulation result. Based on the measurement condition information, the virtual captured image generation unit generates a virtual captured image in which the error included in the position indicating the boundary of the shadow generated by the projected light in the captured image is reproduced by the pixel value.

Claims (29)

光を計測対象物に投影する投影装置と、前記投影装置からの投影光が照射された前記計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の計測条件を示す計測条件情報を取得する計測条件取得部と、
前記計測条件情報に基づいて、前記撮像装置が出力する撮影画像を再現した仮想撮影画像を生成する仮想撮影画像生成部と、
前記仮想撮影画像を用いて前記計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得る三次元計測演算部と、
前記計測値を含むシミュレーション結果を出力する出力部と、
を備えることを特徴とするシミュレーション装置。
Measurement conditions indicating the measurement conditions of a three-dimensional measuring device including a projection device that projects light onto a measurement object and an imaging device that captures an imaging space including the measurement object irradiated with the projected light from the projection device. Measurement condition acquisition unit to acquire information and
A virtual captured image generation unit that generates a virtual captured image that reproduces the captured image output by the imaging device based on the measurement condition information.
A three-dimensional measurement calculation unit that executes a three-dimensional measurement process that measures the three-dimensional position of the surface of the measurement object using the virtual captured image and obtains the measured value.
An output unit that outputs simulation results including the measured values, and
A simulation device characterized by being equipped with.
前記計測条件情報は、前記投影装置の投影条件を示す情報と、前記撮像装置の撮影条件を示す情報と、前記計測対象物の形状を示す情報と、前記計測対象物の状態を示す情報と、前記計測対象物の特性を示す情報との少なくとも1つを含むことを特徴とする請求項1に記載のシミュレーション装置。 The measurement condition information includes information indicating the projection conditions of the projection device, information indicating the imaging conditions of the imaging device, information indicating the shape of the measurement object, and information indicating the state of the measurement object. The simulation apparatus according to claim 1, further comprising at least one of information indicating the characteristics of the measurement object. 前記投影条件を示す情報は、前記投影装置の位置姿勢、解像度およびピントを特定可能な情報であり、
前記撮影条件を示す情報は、前記撮像装置の位置姿勢、解像度およびピントを特定可能な情報であり、
前記計測対象物の状態を示す情報は、前記計測対象物の位置および姿勢の少なくとも1つを含み、
前記計測対象物の特性を示す情報は、前記計測対象物の色、拡散反射率、および鏡面反射率の少なくとも1つを含むことを特徴とする請求項2に記載のシミュレーション装置。
The information indicating the projection condition is information that can specify the position / orientation, resolution, and focus of the projection device.
The information indicating the shooting conditions is information that can specify the position / orientation, resolution, and focus of the imaging device.
The information indicating the state of the measurement object includes at least one of the position and orientation of the measurement object.
The simulation apparatus according to claim 2, wherein the information indicating the characteristics of the measurement object includes at least one of the color, the diffuse reflectance, and the mirror surface reflectance of the measurement object.
前記計測条件情報は、前記撮影空間を構成する前記計測対象物以外の物体の位置、形状および特性の少なくとも1つを示す情報をさらに含むことを特徴とする請求項1から3のいずれか1項に記載のシミュレーション装置。 Any one of claims 1 to 3, wherein the measurement condition information further includes information indicating at least one of a position, a shape, and a characteristic of an object other than the measurement object constituting the photographing space. The simulation apparatus described in. 前記計測条件情報は、環境光の状態を示す情報をさらに含むことを特徴とする請求項1から4のいずれか1項に記載のシミュレーション装置。 The simulation apparatus according to any one of claims 1 to 4, wherein the measurement condition information further includes information indicating a state of ambient light. 前記仮想撮影画像生成部は、前記計測条件情報に基づいて、前記撮影画像における前記投影光によって生じる陰影の境界を示す位置に含まれる誤差を画素値で再現した前記仮想撮影画像を生成することを特徴とする請求項1から5のいずれか1項に記載のシミュレーション装置。 Based on the measurement condition information, the virtual captured image generation unit generates the virtual captured image in which the error included in the position indicating the boundary of the shadow generated by the projected light in the captured image is reproduced by the pixel value. The simulation apparatus according to any one of claims 1 to 5, which is characterized. 前記仮想撮影画像生成部は、物体の表面で反射した光によって照らされる相互反射、前記投影装置のピントが合っていないことに起因する前記投影光のボケ、前記撮像装置のレンズの湾曲収差に起因する画像ひずみ、ランダムノイズ、および前記撮像装置のピントが合っていないことに起因する画像ボケのうち少なくとも1つの発生要因から生じる前記誤差を再現した前記仮想撮影画像を生成することを特徴とする請求項6に記載のシミュレーション装置。 The virtual captured image generation unit is caused by mutual reflection illuminated by the light reflected on the surface of the object, blurring of the projected light due to the out-of-focus of the projection device, and curvature aberration of the lens of the imaging device. A claim characterized by generating the virtual captured image that reproduces the error caused by at least one of the image distortion, the random noise, and the image blur caused by the image pickup device being out of focus. Item 6. The simulation apparatus according to Item 6. 前記仮想撮影画像生成部は、
前記計測条件情報に基づいて、光学的なシミュレーションにより前記撮影画像を再現した光学再現画像を生成する光学再現画像生成部と、
前記光学再現画像に対して、前記誤差に基づいて画質の劣化処理を施す画質劣化処理部と、を含み、
前記画質の劣化処理後の画像を前記仮想撮影画像とすることを特徴とする請求項6または7に記載のシミュレーション装置。
The virtual captured image generation unit
An optical reproduction image generation unit that generates an optical reproduction image that reproduces the photographed image by an optical simulation based on the measurement condition information.
The optical reproduction image includes an image quality deterioration processing unit that performs image quality deterioration processing based on the error.
The simulation apparatus according to claim 6 or 7, wherein the image after the deterioration processing of the image quality is used as the virtual captured image.
前記仮想撮影画像生成部は、
前記仮想撮影画像で表現する前記誤差の発生要因を示す誤差情報を取得する誤差情報取得部、
をさらに備え、
前記光学再現画像生成部は、前記計測条件情報および前記誤差情報に基づいて、前記光学再現画像を生成し、
前記画質劣化処理部は、前記計測条件情報および前記誤差情報に基づいて、前記光学再現画像に対して画質の劣化処理を施すことを特徴とする請求項8に記載のシミュレーション装置。
The virtual captured image generation unit
An error information acquisition unit that acquires error information indicating the cause of the error represented by the virtual captured image,
With more
The optical reproduction image generation unit generates the optical reproduction image based on the measurement condition information and the error information, and generates the optical reproduction image.
The simulation apparatus according to claim 8, wherein the image quality deterioration processing unit performs image quality deterioration processing on the optically reproduced image based on the measurement condition information and the error information.
前記誤差情報は、前記誤差の発生要因の種類ごとの誤差の強度を含み、
前記仮想撮影画像生成部は、前記誤差情報に基づいて、前記光学再現画像に対して施す前記劣化処理の強度を、前記誤差の発生要因の種類ごとに決定することを特徴とする請求項9に記載のシミュレーション装置。
The error information includes the strength of the error for each type of the cause of the error.
9. The virtual photographed image generation unit is characterized in that, based on the error information, the intensity of the deterioration processing applied to the optically reproduced image is determined for each type of the cause of the error. The simulation device described.
前記誤差情報は、前記誤差の発生要因の種類ごとの付加順を含み、
前記仮想撮影画像生成部は、前記誤差情報に基づいて、前記光学再現画像に対して施す前記劣化処理の順序を、前記誤差の発生要因の種類ごとに決定することを特徴とする請求項9または10に記載のシミュレーション装置。
The error information includes the order of addition for each type of the cause of the error.
9. 10. The simulation apparatus according to 10.
前記仮想撮影画像生成部は、前記計測条件情報に基づいて前記光の進行経路を算出し、前記投影光が第1の面で反射し、反射光が第2の面に入射する場合、前記第2の面における前記反射光の入射点を含む画素の輝度を前記反射光の影響を考慮しない第1の輝度よりも増加させることを特徴とする請求項1から11のいずれか1項に記載のシミュレーション装置。 The virtual captured image generation unit calculates the traveling path of the light based on the measurement condition information, and when the projected light is reflected on the first surface and the reflected light is incident on the second surface, the first The invention according to any one of claims 1 to 11, wherein the brightness of the pixel including the incident point of the reflected light on the second surface is increased as compared with the first brightness that does not consider the influence of the reflected light. Simulation equipment. 前記仮想撮影画像生成部は、輝度を増加させる前記画素の輝度の増加量を、前記第1の面の表面特性、前記第2の面の表面特性、および、前記第1の面の前記第2の面に対する姿勢に基づき決定することを特徴とする請求項12に記載のシミュレーション装置。 The virtual captured image generation unit uses the amount of increase in the brightness of the pixel to increase the brightness as the surface characteristics of the first surface, the surface characteristics of the second surface, and the second surface of the first surface. The simulation apparatus according to claim 12, wherein the simulation apparatus is determined based on an attitude toward a surface. 前記仮想撮影画像生成部は、前記計測条件情報に基づいて、前記投影光が照射される領域である第1の領域と、前記投影光が照射されない領域である第2の領域とを算出し、前記第1の領域と前記第2の領域との境界から予め定められた距離以内の画素の輝度を、前記画素と前記境界との距離に基づいて決定することを特徴とする請求項1から13のいずれか1項に記載のシミュレーション装置。 Based on the measurement condition information, the virtual captured image generation unit calculates a first region which is a region where the projected light is irradiated and a second region which is a region where the projected light is not irradiated. Claims 1 to 13 are characterized in that the brightness of a pixel within a predetermined distance from the boundary between the first region and the second region is determined based on the distance between the pixel and the boundary. The simulation apparatus according to any one of the above items. 前記仮想撮影画像生成部は、前記境界から予め定められた距離以内の前記画素の輝度を、前記投影光が照射された場合の輝度である最大値以下であり、前記投影光が照射されない場合の輝度である最小値以上とすることを特徴とする請求項14に記載のシミュレーション装置。 In the virtual captured image generation unit, the brightness of the pixel within a predetermined distance from the boundary is equal to or less than the maximum value which is the brightness when the projected light is irradiated, and the projected light is not irradiated. The simulation apparatus according to claim 14, wherein the brightness is at least a minimum value. 前記仮想撮影画像生成部は、前記画素が前記第1の領域に近いほど当該画素の輝度を前記最大値に近づけ、前記画素が前記第2の領域に近いほど当該画素の輝度を前記最小値に近づけることを特徴とする請求項15に記載のシミュレーション装置。 The virtual captured image generation unit brings the brightness of the pixel closer to the maximum value as the pixel is closer to the first region, and reduces the brightness of the pixel to the minimum value as the pixel is closer to the second region. The simulation apparatus according to claim 15, characterized in that they are brought closer to each other. 前記仮想撮影画像生成部は、
前記計測条件情報を用いて、前記撮像装置から見える前記撮影空間を示す第1画像と、前記撮像装置および前記投影装置のそれぞれから前記撮影空間内の物体までの距離データとを含むセンサ視点データを生成するセンサ視点データ生成部と、
前記計測条件情報に基づいて、前記第1画像において前記投影光が照射される領域と、前記投影光が照射されない領域とを異なる数値で示すマップである照射マップを生成するマップ生成部と、
を有し、
前記照射マップおよび前記第1画像に基づいて、前記仮想撮影画像を生成することを特徴とする請求項1から16のいずれか1項に記載のシミュレーション装置。
The virtual captured image generation unit
Using the measurement condition information, sensor viewpoint data including a first image showing the imaging space seen from the imaging device and distance data from each of the imaging device and the projection device to an object in the imaging space is obtained. The sensor viewpoint data generator to be generated and
Based on the measurement condition information, a map generation unit that generates an irradiation map that is a map showing a region irradiated with the projected light and a region not irradiated with the projected light with different numerical values in the first image.
Have,
The simulation apparatus according to any one of claims 1 to 16, wherein the virtual captured image is generated based on the irradiation map and the first image.
前記第1画像は、前記投影光が照射されたときの明るさで前記撮影空間の全体が表現された明画像と、前記撮影空間に前記投影光が照射されていない暗画像とを含み、
前記仮想撮影画像生成部は、前記照射マップの値に基づいて、画素ごとに前記明画像と前記暗画像とを合成して前記仮想撮影画像を生成することを特徴とする請求項17に記載のシミュレーション装置。
The first image includes a bright image in which the entire shooting space is represented by the brightness when the projected light is irradiated, and a dark image in which the shooting space is not irradiated with the projected light.
The 17th claim, wherein the virtual photographed image generation unit generates the virtual photographed image by synthesizing the bright image and the dark image for each pixel based on the value of the irradiation map. Simulation equipment.
前記マップ生成部は、
前記計測条件情報および前記センサ視点データを用いて、前記投影光が照射された点の三次元位置と、前記第1画像上の座標とを対応づけて、前記第1画像中で前記投影光が照射される領域である照射領域を算出する照射領域算出部と、
前記照射領域と前記計測条件情報とを用いて、前記投影光が示す投影パターンごとに前記照射マップを生成する照射マップ生成部と、
を有することを特徴とする請求項18に記載のシミュレーション装置。
The map generator
Using the measurement condition information and the sensor viewpoint data, the three-dimensional position of the point irradiated with the projected light is associated with the coordinates on the first image, and the projected light is generated in the first image. An irradiation area calculation unit that calculates an irradiation area, which is an irradiation area,
An irradiation map generation unit that generates the irradiation map for each projection pattern indicated by the projected light using the irradiation region and the measurement condition information.
18. The simulation apparatus according to claim 18.
前記マップ生成部は、
前記光の陰影境界のボケの度合に応じて前記照射マップの値を調整することで前記光のボケを再現する光ボケ再現部をさらに有し、
調整後の前記照射マップの値に基づいて、前記明画像および前記暗画像の輝度のそれぞれを重みづけし、重みづけした輝度を合計して前記仮想撮影画像の各画素の輝度を決定することを特徴とする請求項19に記載のシミュレーション装置。
The map generator
It further has an optical blur reproduction unit that reproduces the blur of light by adjusting the value of the irradiation map according to the degree of blur of the shadow boundary of the light.
Based on the adjusted value of the irradiation map, the brightness of the bright image and the brightness of the dark image are weighted, and the weighted brightness is summed to determine the brightness of each pixel of the virtual captured image. The simulation apparatus according to claim 19.
前記マップ生成部は、
前記計測条件情報および前記センサ視点データを用いて、前記投影装置から照射された光線が前記撮影空間内の物体に反射して光線の強度および方向が変化した光線である反射光線が照射される点の三次元位置と、前記第1画像上の座標とを対応づけることによって、前記第1画像中で前記反射光線が照射される領域である反射領域を算出する反射領域算出部と、
前記反射領域と前記計測条件情報とを用いて、前記投影光が示す投影パターンごとに、前記反射領域と前記反射光線が照射されない領域とを異なる数値で示すマップである反射マップを生成する反射マップ生成部と、
を有し、
前記反射マップ、前記照射マップ、および前記第1画像を用いて、前記仮想撮影画像を生成することを特徴とする請求項18から20のいずれか1項に記載のシミュレーション装置。
The map generator
Using the measurement condition information and the sensor viewpoint data, a point at which a light beam emitted from the projection device is reflected by an object in the photographing space and is irradiated with a reflected light ray, which is a light ray whose intensity and direction are changed. By associating the three-dimensional position of the above with the coordinates on the first image, a reflection area calculation unit that calculates a reflection area that is a region to which the reflected light rays are irradiated in the first image, and a reflection area calculation unit.
A reflection map that uses the reflection region and the measurement condition information to generate a reflection map, which is a map showing the reflection region and the region not irradiated with the reflected light with different numerical values for each projection pattern indicated by the projected light. Generator and
Have,
The simulation apparatus according to any one of claims 18 to 20, wherein the virtual captured image is generated by using the reflection map, the irradiation map, and the first image.
前記マップ生成部は、前記反射光線の強度および前記投影光の陰影境界のボケの度合に応じて前記反射マップの値を調整し、調整後の前記反射マップおよび前記照射マップの値に基づいて、前記明画像および前記暗画像の輝度のそれぞれを重みづけし、重みづけした輝度を合計して前記仮想撮影画像の各画素の輝度を決定することを特徴とする請求項21に記載のシミュレーション装置。 The map generator adjusts the value of the reflection map according to the intensity of the reflected light and the degree of blurring of the shadow boundary of the projected light, and based on the adjusted values of the reflection map and the irradiation map. The simulation apparatus according to claim 21, wherein each of the brightness of the bright image and the brightness of the dark image is weighted, and the weighted brightness is summed to determine the brightness of each pixel of the virtual captured image. 前記出力部は、前記計測条件情報の少なくとも一部および前記仮想撮影画像の少なくとも一方をさらに含む前記シミュレーション結果を出力することを特徴とする請求項1から22のいずれか1項に記載のシミュレーション装置。 The simulation apparatus according to any one of claims 1 to 22, wherein the output unit outputs the simulation result including at least a part of the measurement condition information and at least one of the virtual captured images. .. 前記計測条件取得部は、複数の前記計測条件情報を取得し、
前記出力部は、複数の前記計測条件情報のうち調整対象項目として指定された1つ以上の項目の情報と前記計測値とを対応づけたシミュレーション結果のリストを出力することを特徴とする請求項1から23のいずれか1項に記載のシミュレーション装置。
The measurement condition acquisition unit acquires a plurality of the measurement condition information and obtains the plurality of measurement condition information.
The claim is characterized in that the output unit outputs a list of simulation results in which the information of one or more items designated as adjustment target items among the plurality of measurement condition information and the measured values are associated with each other. The simulation apparatus according to any one of 1 to 23.
前記計測条件情報を用いて、前記シミュレーション結果の評価基準である評価基準データを生成する評価基準データ生成部と、
前記シミュレーション結果および前記評価基準データを用いて、前記シミュレーション結果を評価する計測評価部と、
をさらに備え、
前記出力部は、前記シミュレーション結果に加えて、評価結果を出力することを特徴とする請求項1から24のいずれか1項に記載のシミュレーション装置。
An evaluation standard data generation unit that generates evaluation standard data, which is an evaluation standard for the simulation results, using the measurement condition information.
A measurement evaluation unit that evaluates the simulation results using the simulation results and the evaluation reference data,
With more
The simulation apparatus according to any one of claims 1 to 24, wherein the output unit outputs an evaluation result in addition to the simulation result.
前記シミュレーション結果に基づいて、前記撮影空間内の物体の位置姿勢と前記物体を把持可能な位置である把持位置とのうち少なくとも1つを認識結果として取得する物体認識処理部と、
前記認識結果と前記計測条件情報とを用いて、前記位置姿勢の推定精度と前記把持位置の推定精度とのうち少なくとも1つを含む認識評価結果を取得する認識評価部と、
をさらに備え、
前記出力部は、前記認識評価結果をさらに出力することを特徴とする請求項1から25のいずれか1項に記載のシミュレーション装置。
Based on the simulation result, an object recognition processing unit that acquires at least one of the position and orientation of the object in the photographing space and the gripping position that is the position where the object can be gripped as a recognition result.
A recognition evaluation unit that acquires a recognition evaluation result including at least one of the estimation accuracy of the position and the posture and the estimation accuracy of the gripping position by using the recognition result and the measurement condition information.
With more
The simulation apparatus according to any one of claims 1 to 25, wherein the output unit further outputs the recognition evaluation result.
前記計測条件情報と前記認識結果とを用いて、前記撮影空間内の物体の把持成功確率を評価する物体把持評価部、
をさらに備えることを特徴とする請求項26に記載のシミュレーション装置。
An object grasping evaluation unit that evaluates a successful gripping probability of an object in the photographing space by using the measurement condition information and the recognition result.
26. The simulation apparatus according to claim 26.
光を計測対象物に投影する投影装置と、前記投影装置からの投影光が照射された前記計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の三次元計測処理をシミュレーションするシミュレーション装置が、
前記三次元計測装置の計測条件を示す計測条件情報を取得するステップと、
前記計測条件情報に基づいて、前記撮像装置が出力する撮影画像を再現した仮想撮影画像を生成するステップと、
前記仮想撮影画像を用いて前記計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得るステップと、
前記計測値を含むシミュレーション結果を出力するステップと、
を含むことを特徴とするシミュレーション方法。
Simulates the three-dimensional measurement processing of a three-dimensional measuring device including a projection device that projects light onto a measurement object and an imaging device that captures an imaging space including the measurement object irradiated with the projected light from the projection device. Simulation device
A step of acquiring measurement condition information indicating the measurement conditions of the three-dimensional measuring device, and
Based on the measurement condition information, a step of generating a virtual captured image that reproduces the captured image output by the imaging device, and
A step of executing a three-dimensional measurement process for measuring the three-dimensional position of the surface of the measurement object using the virtual photographed image and obtaining a measured value, and a step of obtaining the measured value.
The step of outputting the simulation result including the measured value and
A simulation method characterized by including.
光を計測対象物に投影する投影装置と、前記投影装置からの投影光が照射された前記計測対象物を含む撮影空間を撮影する撮像装置とを備える三次元計測装置の計測条件を示す計測条件情報を取得するステップと、
前記計測条件情報に基づいて、前記撮像装置が出力する撮影画像を再現した仮想撮影画像を生成するステップと、
前記仮想撮影画像を用いて前記計測対象物の表面の三次元位置を計測する三次元計測処理を実行し、計測値を得るステップと、
前記計測値を含むシミュレーション結果を出力するステップと、
をコンピュータに実行させることを特徴とするシミュレーションプログラム。
Measurement conditions indicating the measurement conditions of a three-dimensional measuring device including a projection device that projects light onto a measurement object and an imaging device that captures an imaging space including the measurement object irradiated with the projected light from the projection device. Steps to get information and
Based on the measurement condition information, a step of generating a virtual captured image that reproduces the captured image output by the imaging device, and
A step of executing a three-dimensional measurement process for measuring the three-dimensional position of the surface of the measurement object using the virtual photographed image and obtaining a measured value, and a step of obtaining the measured value.
The step of outputting the simulation result including the measured value and
A simulation program characterized by having a computer execute.
JP2020571967A 2019-02-13 2019-02-13 Simulation equipment and simulation method Active JP7094400B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/005156 WO2020165976A1 (en) 2019-02-13 2019-02-13 Simulation device, simulation method, and simulation program

Publications (2)

Publication Number Publication Date
JPWO2020165976A1 true JPWO2020165976A1 (en) 2021-09-30
JP7094400B2 JP7094400B2 (en) 2022-07-01

Family

ID=72044404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571967A Active JP7094400B2 (en) 2019-02-13 2019-02-13 Simulation equipment and simulation method

Country Status (4)

Country Link
JP (1) JP7094400B2 (en)
CN (1) CN113412500B (en)
DE (1) DE112019006855T5 (en)
WO (1) WO2020165976A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102507277B1 (en) * 2020-10-23 2023-03-07 엘아이지넥스원 주식회사 Method for simulating image sensor
CN115802014A (en) * 2021-09-09 2023-03-14 卡西欧计算机株式会社 Recording medium, setting simulation method, and setting simulation apparatus
JP7380661B2 (en) * 2021-09-21 2023-11-15 セイコーエプソン株式会社 Projection method and projection system
CN114202981B (en) * 2021-12-10 2023-06-16 新疆工程学院 Simulation platform for photogrammetry experiments

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203652A (en) * 2014-04-15 2015-11-16 キヤノン株式会社 Information processing unit and information processing method
WO2016186211A1 (en) * 2015-05-21 2016-11-24 国立大学法人 鹿児島大学 Three-dimensional measurement system, three-dimensional measurement method, and three-dimensional measurement program
JP2018144158A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200907764A (en) * 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
JP5198078B2 (en) * 2008-01-24 2013-05-15 株式会社日立製作所 Measuring device and measuring method
DE112015007146T5 (en) * 2015-11-25 2018-08-02 Mitsubishi Electric Corporation DEVICE AND METHOD FOR THREE-DIMENSIONAL IMAGE MEASUREMENT

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203652A (en) * 2014-04-15 2015-11-16 キヤノン株式会社 Information processing unit and information processing method
WO2016186211A1 (en) * 2015-05-21 2016-11-24 国立大学法人 鹿児島大学 Three-dimensional measurement system, three-dimensional measurement method, and three-dimensional measurement program
JP2018144158A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device

Also Published As

Publication number Publication date
JP7094400B2 (en) 2022-07-01
CN113412500B (en) 2023-12-29
CN113412500A (en) 2021-09-17
DE112019006855T5 (en) 2021-11-04
WO2020165976A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP7094400B2 (en) Simulation equipment and simulation method
JP7422689B2 (en) Article inspection with dynamic selection of projection angle
US9563954B2 (en) Method for capturing the three-dimensional surface geometry of objects
CN107525479A (en) Object property is determined for particular optical measurement
CN107025663A (en) It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system
JP6519265B2 (en) Image processing method
JP6054576B2 (en) Method and apparatus for generating at least one virtual image of a measurement object
US9396411B2 (en) Method and system for generating intrinsic images using a single reflectance technique
US20110150358A1 (en) Method and system for factoring an illumination image
US11176651B2 (en) Computer-controlled 3D analysis of collectible objects
Logothetis et al. A cnn based approach for the point-light photometric stereo problem
JP5599849B2 (en) Lens inspection apparatus and method
Mecca et al. Luces: A dataset for near-field point light source photometric stereo
CN106415198B (en) image recording method and coordinate measuring machine for carrying out said method
KR20230136291A (en) Method for assessing 3D mesh quality using structural similarity of projective space, apparatus and computer program for performing the method
US20020065637A1 (en) Method and apparatus for simulating the measurement of a part without using a physical measurement system
JP2023534175A (en) Neural network analysis of LFA specimens
US7899236B2 (en) Evaluation of optical distortion in a transparency
JP2015206654A (en) Information processing apparatus, information processing method, and program
JP6822086B2 (en) Simulation equipment, simulation method and simulation program
JP4764963B2 (en) Image processing device
US20040258311A1 (en) Method for generating geometric models for optical partial recognition
KR102645539B1 (en) Apparatus and method for encoding in a structured depth camera system
Sihvonen et al. Image based evaluation of textured 3DSEM models
JP2006329898A (en) Measuring method and device of surface distortion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7094400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150