DE112019006855T5 - SIMULATION DEVICE AND SIMULATION METHOD - Google Patents

SIMULATION DEVICE AND SIMULATION METHOD Download PDF

Info

Publication number
DE112019006855T5
DE112019006855T5 DE112019006855.5T DE112019006855T DE112019006855T5 DE 112019006855 T5 DE112019006855 T5 DE 112019006855T5 DE 112019006855 T DE112019006855 T DE 112019006855T DE 112019006855 T5 DE112019006855 T5 DE 112019006855T5
Authority
DE
Germany
Prior art keywords
image
measurement
generation unit
simulation
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019006855.5T
Other languages
German (de)
Inventor
Ryosuke Kawanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112019006855T5 publication Critical patent/DE112019006855T5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models

Abstract

Eine Simulationsvorrichtung (10) beinhaltet: eine Messbedingungserhaltungseinheit (101), die Messbedingungsinformationen erhält, welche eine Messbedingung einer Vorrichtung für räumliche Messungen angeben, die eine projizierende Vorrichtung zum Projizieren von Licht auf ein auszumessendes Messobjekt und eine abbildende Vorrichtung zum Aufnehmen eines Bilds eines Abbildungsraums, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird; eine Generationseinheit für virtuelle Aufnahmebilder (102), die ein virtuelles Aufnahmebild generiert, das ein durch die abbildende Vorrichtung ausgegebenes aufgenommenes Bild reproduziert, was auf der Grundlage der Messbedingungsinformationen erfolgt; eine Recheneinheit für räumliche Messungen (103), die einen räumlichen Messprozess des Ermittelns einer räumlichen Position auf einer Oberfläche des Messobjekts durch Verwendung des virtuellen Aufnahmebilds, um einen Messwert zu erhalten, vornimmt; und eine Ausgabeeinheit (104), welche ein Simulationsergebnis, das den Messwert enthält, ausgibt.A simulation device (10) includes: a measurement condition obtaining unit (101) that receives measurement condition information indicating a measurement condition of a spatial measurement device that includes a projecting device for projecting light onto a measurement object to be measured and an imaging device for taking an image of an imaging space, which includes the measurement object which is irradiated with projected light from the projecting device; a virtual captured image generation unit that generates a virtual captured image that reproduces a captured image output by the imaging device based on the measurement condition information; a spatial measurement arithmetic unit that performs a spatial measurement process of determining a spatial position on a surface of the measurement object by using the virtual captured image to obtain a measurement value; and an output unit (104) that outputs a simulation result containing the measurement value.

Description

Gebietarea

Die vorliegende Erfindung betrifft eine Simulationsvorrichtung, ein Simulationsverfahren und ein Simulationsprogramm, die in der Lage sind, ein Messergebnis einer Vorrichtung für räumliche Messungen zu simulieren.The present invention relates to a simulation device, a simulation method and a simulation program which are capable of simulating a measurement result of a device for spatial measurements.

Allgemeiner Stand der TechnikGeneral state of the art

Vorrichtungen, die räumliche Messungen durch Verwendung einer projizierenden Vorrichtung, die Licht auf ein auszumessendes Messobjekt projiziert, und einer abbildenden Vorrichtung, welche ein Bild des Messobjekts aufnimmt, sind vorbekannt. So offenbart Patentdokument 1 eine Vorrichtung für räumliche Messungen, die räumliche Messungen mithilfe eines Aktiv-Stereo-Verfahrens vornimmt. Die im Patentdokument 1 offenbarte Vorrichtung für räumliche Messungen projiziert ein geometrisches Muster auf ein Messobjekt mithilfe einer projizierenden Vorrichtung, legt eine Vielzahl von Erfassungspunkten in dem geometrischen Muster auf einem durch eine abbildende Vorrichtung ausgegebenen Aufnahmebild fest und berechnet räumliche Positionen auf einer Oberfläche des Messobjekts, die den Erfassungspunkten entsprechen, basierend auf dem Triangulationsverfahren.Devices that take spatial measurements using a projecting device that projects light onto a measurement object to be measured and an imaging device that records an image of the measurement object are previously known. Thus, Patent Document 1 discloses a spatial measurement apparatus that makes spatial measurements using an active stereo method. The spatial measurement apparatus disclosed in Patent Document 1 projects a geometric pattern onto a measurement object using a projecting device, sets a plurality of detection points in the geometric pattern on a captured image output by an imaging device, and calculates spatial positions on a surface of the measurement object which correspond to the detection points based on the triangulation method.

Liste der AnführungenList of citations

PatentliteraturPatent literature

Patentdokument 1: Japanische Offenlegungsschrift Nr. 2015-203652 Patent Document 1: Japanese Patent Application Laid-Open No. 2015-203652

KurzdarstellungBrief description

Technische AufgabeTechnical task

Im Falle der im Patentdokument 1 beschriebenen Technik ist es allerdings erforderlich, eine reale Umgebung bereitzustellen und Proben eines Messobjekts vorzubereiten, um Messergebnisse zu erlangen. Demnach bestand ein Problem darin, dass Messergebnisse in einer realen Umgebung in einem Fall, in dem es keine reale Umgebung gibt, oder in einem Fall, in dem die Anzahl der Proben eines Messobjekts gering ist, nicht ausgewertet werden können.In the case of the technique described in Patent Document 1, however, it is necessary to provide a real environment and prepare samples of a measurement object in order to obtain measurement results. Accordingly, there has been a problem that measurement results in a real environment cannot be evaluated in a case where there is no real environment or in a case where the number of samples of a measurement object is small.

Die vorliegende Erfindung ist im Hinblick auf Vorstehendes entstanden, und ein ihr zugrunde liegendes Ziel besteht in der Bereitstellung einer Simulationsvorrichtung, die zum Auswerten von Messergebnissen selbst in einem Fall, in dem es keine reale Umgebung gibt, oder in einem Fall, in dem die Anzahl der Proben eines Messobjekts gering ist, in der Lage ist.The present invention has been made in view of the above, and an underlying object is to provide a simulation apparatus capable of evaluating measurement results even in a case where there is no real environment or in a case where the number the samples of a measurement object is small, is able.

Lösung der AufgabeSolution of the task

Zur Lösung der vorstehenden Aufgaben und zum Erreichen des Ziels umfasst eine Simulationsvorrichtung gemäß der vorliegenden Erfindung: eine Messbedingungserhaltungseinheit zum Erhalten von Messbedingungsinformationen, die eine Messbedingung einer Vorrichtung für räumliche Messungen angeben, welche eine projizierende Vorrichtung zum Projizieren von Licht auf ein auszumessendes Messobjekt und eine abbildende Vorrichtung zum Aufnehmen eines Bilds eines Abbildungsraums, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird, beinhaltet; eine Generationseinheit für virtuelle Aufnahmebilder zum Generieren eines virtuellen Aufnahmebilds, das ein durch die abbildende Vorrichtung ausgegebenes aufgenommenes Bild reproduziert, auf der Grundlage der Messbedingungsinformationen; eine Recheneinheit für räumliche Messungen zum Durchführen eines räumlichen Messprozesses des Ermittelns einer räumlichen Position auf einer Oberfläche des Messobjekts durch Verwendung des virtuellen Aufnahmebilds, um einen Messwert zu erhalten; und eine Ausgabeeinheit zum Ausgeben eines Simulationsergebnisses einschließlich des Messwerts.In order to achieve the above objects and to achieve the object, a simulation device according to the present invention comprises: a measurement condition obtaining unit for obtaining measurement condition information indicating a measurement condition of a spatial measurement device that includes a projecting device for projecting light onto a measurement object to be measured and an imaging device Device for picking up an image of an imaging space including the measurement object, which is irradiated with projected light from the projecting device; a virtual captured image generation unit for generating a virtual captured image that reproduces a captured image output by the imaging device based on the measurement condition information; a spatial measurement arithmetic unit for performing a spatial measurement process of determining a spatial position on a surface of the measurement object by using the virtual captured image to obtain a measurement value; and an output unit for outputting a simulation result including the measured value.

Vorteilhafte Effekte der ErfindungAdvantageous Effects of the Invention

Gemäß der vorliegenden Erfindung wird ein vorteilhafter Effekt erzeugt, der darin besteht, dass die Auswertung von Messergebnissen selbst in einem Fall, in dem es keine reale Umgebung gibt, oder in einem Fall, in dem die Anzahl der Proben eines Messobjekts gering ist, ermöglicht wird.According to the present invention, there is produced an advantageous effect that evaluation of measurement results is enabled even in a case where there is no real environment or in a case where the number of samples of a measurement object is small .

FigurenlisteFigure list

  • 1 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung darstellt. 1 Fig. 13 is a diagram showing a functional configuration of a simulation device according to a first embodiment of the present invention.
  • 2 ist ein Flussdiagramm, das den Betrieb der in 1 dargestellten Simulationsvorrichtung darstellt. 2 FIG. 13 is a flow chart illustrating the operation of the FIG 1 illustrated simulation device represents.
  • 3 ist ein Schema, das eine detaillierte funktionelle Konfiguration einer Messbedingungserhaltungseinheit darstellt, die in 1 dargestellt ist. 3 FIG. 13 is a diagram showing a detailed functional configuration of a measurement condition obtaining unit shown in FIG 1 is shown.
  • 4 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm darstellt, der durch die in 1 dargestellte Simulationsvorrichtung ausgegeben wird. 4th Fig. 13 is a diagram showing an example of a display screen represented by the in 1 simulation device shown is output.
  • 5 ist ein Schema, das eine funktionelle Konfiguration einer Generationseinheit für virtuelle Aufnahmebilder gemäß einer zweiten Ausführungsform der vorliegenden Erfindung darstellt. 5 Fig. 13 is a diagram showing a functional configuration of a virtual captured image generation unit according to a second embodiment of the present invention.
  • 6 ist ein Flussdiagramm, das den Betrieb einer Simulationsvorrichtung zeigt, welche die in 5 dargestellte Generationseinheit für virtuelle Aufnahmebilder aufweist. 6th FIG. 13 is a flowchart showing the operation of a simulation apparatus employing the FIG 5 has shown generation unit for virtual recorded images.
  • 7 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung gemäß einer dritten Ausführungsform der vorliegenden Erfindung darstellt. 7th Fig. 13 is a diagram showing a functional configuration of a simulation device according to a third embodiment of the present invention.
  • 8 stellt eine funktionelle Konfiguration einer Generationseinheit für virtuelle Aufnahmebilder dar, die in 7 dargestellt ist. 8th represents a functional configuration of a generation unit for virtual recording images, which are shown in 7th is shown.
  • 9 ist ein Flussdiagramm, das den Betrieb der in 7 dargestellten Simulationsvorrichtung darstellt. 9 FIG. 13 is a flow chart illustrating the operation of the FIG 7th illustrated simulation device represents.
  • 10 ist ein Flussdiagramm, das Einzelheiten des in 9 dargestellten Schritts S304 darstellt. 10 Fig. 3 is a flow chart showing details of the in 9 illustrated step S304.
  • 11 ist ein Flussdiagramm, das Einzelheiten des in 9 dargestellten Schritts S305 darstellt. 11 Fig. 3 is a flow chart showing details of the in 9 illustrated step S305.
  • 12 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm darstellt, der durch die in 7 dargestellte Simulationsvorrichtung ausgegeben wird. 12th Fig. 13 is a diagram showing an example of a display screen represented by the in 7th simulation device shown is output.
  • 13 ist ein Schema, das eine funktionelle Konfiguration einer Generationseinheit für optisch reproduzierte Bilder gemäß einer vierten Ausführungsform der vorliegenden Erfindung darstellt. 13th Fig. 13 is a diagram showing a functional configuration of an optically reproduced image generation unit according to a fourth embodiment of the present invention.
  • 14 ist ein Schema, das eine detaillierte funktionelle Auslegung einer Sensorstandpunktdatengenerationseinheit darstellt, die in 13 dargestellt ist. 14th FIG. 13 is a diagram showing a detailed functional layout of a sensor viewpoint data generation unit shown in FIG 13th is shown.
  • 15 ist ein Schema, das eine detaillierte funktionelle Konfiguration einer Kartengenerationseinheit darstellt, die in 13 dargestellt ist. 15th Fig. 13 is a diagram showing a detailed functional configuration of a card generation unit shown in 13th is shown.
  • 16 ist ein Flussdiagramm, das den Betrieb einer Simulationsvorrichtung gemäß einer vierten Ausführungsform der vorliegenden Erfindung darstellt. 16 Fig. 13 is a flowchart showing the operation of a simulation device according to a fourth embodiment of the present invention.
  • 17 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm, der durch eine Simulationsvorrichtung ausgegeben wird, gemäß einer fünften Ausführungsform der vorliegenden Erfindung darstellt. 17th Fig. 13 is a diagram showing an example of a display screen output by a simulation device according to a fifth embodiment of the present invention.
  • 18 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung gemäß einer sechsten Ausführungsform der vorliegenden Erfindung darstellt. 18th Fig. 13 is a diagram showing a functional configuration of a simulation device according to a sixth embodiment of the present invention.
  • 19 ist ein Flussdiagramm, das den Betrieb der in 18 dargestellten Simulationsvorrichtung darstellt. 19th FIG. 13 is a flow chart illustrating the operation of the FIG 18th illustrated simulation device represents.
  • 20 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm an der Simulationsvorrichtung darstellt, die in 18 dargestellt ist. 20th FIG. 13 is a diagram showing an example of a display screen on the simulation apparatus shown in FIG 18th is shown.
  • 21 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung gemäß einer siebten Ausführungsform der vorliegenden Erfindung darstellt. 21 Fig. 13 is a diagram showing a functional configuration of a simulation device according to a seventh embodiment of the present invention.
  • 22 ist ein Flussdiagramm, das den Betrieb der in 21 dargestellten Simulationsvorrichtung darstellt. 22nd FIG. 13 is a flow chart illustrating the operation of the FIG 21 illustrated simulation device represents.
  • 23 ist ein Schema, das eine funktionelle Auslegung einer Simulationsvorrichtung gemäß einer achten Ausführungsform der vorliegenden Erfindung darstellt. 23 Fig. 13 is a diagram showing a functional configuration of a simulation device according to an eighth embodiment of the present invention.
  • 24 ist ein Flussdiagramm, das den Betrieb der in 23 dargestellten Simulationsvorrichtung darstellt. 24 FIG. 13 is a flow chart illustrating the operation of the FIG 23 illustrated simulation device represents.
  • 25 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm darstellt, der durch die in 23 dargestellte Simulationsvorrichtung ausgegeben wird. 25th Fig. 13 is a diagram showing an example of a display screen represented by the in 23 simulation device shown is output.
  • 26 ist ein Schema, das dedizierte Hardware zum Implementieren der Funktionen der Simulationsvorrichtungen gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. 26th Fig. 13 is a diagram showing dedicated hardware for implementing the functions of the simulation devices according to the first to eighth embodiments of the present invention.
  • 27 ist ein Schema, das eine Konfiguration einer Steuerschaltung zum Implementieren der Funktionen der Simulationsvorrichtungen gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. 27 Fig. 13 is a diagram showing a configuration of a control circuit for implementing the functions of the simulation devices according to the first to eighth embodiments of the present invention.
  • 28 ist ein Schema, das ein Beispiel für eine Hardware-Konfiguration zum Implementieren der Funktionen der Simulationsvorrichtungen gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. 28 Fig. 13 is a diagram showing an example of a hardware configuration for implementing the functions of the simulation devices according to the first to eighth embodiments of the present invention.

Beschreibung von AusführungsformenDescription of embodiments

Eine Simulationsvorrichtung, ein Simulationsverfahren und ein Simulationsprogramm gemäß bestimmten Ausführungsformen der vorliegenden Erfindung wird nachstehend unter Bezugnahme auf die Zeichnungen im Detail beschrieben. Es sei darauf hingewiesen, dass die vorliegende Erfindung nicht auf die Ausführungsformen beschränkt ist.A simulation apparatus, a simulation method, and a simulation program according to certain embodiments of the present invention will be described in detail below with reference to the drawings. It should be noted that the present invention is not limited to the embodiments.

Erste AusführungsformFirst embodiment

1 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung 10 gemäß einer ersten Ausführungsform der vorliegenden Erfindung darstellt. Die Simulationsvorrichtung 10 beinhaltet eine Messbedingungserhaltungseinheit 101, eine Generationseinheit für virtuelle Aufnahmebilder 102, eine Recheneinheit für räumliche Messungen 103 und eine Ausgabeeinheit 104. 1 Fig. 16 is a diagram showing a functional configuration of a simulation device 10 according to a first embodiment of the present invention. The simulation device 10 includes a measurement condition maintenance unit 101 , a generation unit for virtual recording images 102 , a computing unit for spatial measurements 103 and an output unit 104 .

Die Simulationsvorrichtung 10 weist Funktionen des Simulierens eines Messergebnisses einer Vorrichtung für räumliche Messungen auf, die räumliche Positionen auf einer Oberfläche eines auszumessenden Messobjekts misst, was durch Verwendung des Aktiv-Stereo-Verfahrens auf der Grundlage von Messbedingungsinformationen erfolgt, die Messbedingungen der Vorrichtung für räumliche Messungen angeben. Die vorliegend angenommene Vorrichtung für räumliche Messungen beinhaltet eine projizierende Vorrichtung, die Licht auf das Messobjekt projiziert, und eine abbildende Vorrichtung, die Bilder von einem Abbildungsraum aufnimmt, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird. Das projizierte Licht von der projizierenden Vorrichtung weist ein Projektionsmuster auf, das zur räumlichen Messung verwendet wird. Im Folgenden bezeichnet „projiziertes Licht“ Licht, welches das Projektionsmuster aufweist. Die Vorrichtung für räumliche Messungen kann einen Prozess der räumlichen Messung von räumlichen Positionen auf einer Oberfläche des Messobjekts auf der Grundlage eines Projektionsmusters vornehmen, das in einem durch die abbildende Vorrichtung ausgegebenen Aufnahmebild beinhaltet ist. Die Simulationsvorrichtung 10 kann zudem ein Ausgabeergebnis eines Systems simulieren, das die Vorrichtung für räumliche Messungen verwendet.The simulation device 10 has functions of simulating a measurement result of a spatial measurement device that measures spatial positions on a surface of a measurement object to be measured, which is done by using the active stereo method based on measurement condition information indicating measurement conditions of the spatial measurement device. The device for spatial measurements assumed here includes a projecting device that projects light onto the measurement object, and an imaging device that records images of an imaging space that contains the measurement object, which is irradiated with projected light from the projecting device. The projected light from the projecting device has a projection pattern that is used for spatial measurement. In the following, “projected light” refers to light that has the projection pattern. The spatial measurement device can perform a process of spatial measurement of spatial positions on a surface of the measurement object on the basis of a projection pattern included in a captured image output by the imaging device. The simulation device 10 can also simulate an output result of a system using the apparatus for spatial measurements.

Die Messbedingungserhaltungseinheit 101 erhält die Messbedingungsinformationen, welche die Messbedingungen der Vorrichtung für räumliche Messungen angeben. Details zu den Messbedingungsinformationen werden weiter unten beschrieben. Die Messbedingungserhaltungseinheit 101 gibt die erhaltenen Messbedingungsinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein.The measurement condition maintenance unit 101 receives the measurement condition information indicating the measurement conditions of the spatial measurement device. Details of the measurement condition information are described below. The measurement condition maintenance unit 101 inputs the measurement condition information obtained into the generation unit for virtual recording images 102 a.

Die Generationseinheit für virtuelle Aufnahmebilder 102 generiert ein virtuelles Aufnahmebild, bei dem es sich um ein Computergrafik(CG)-Bild handelt, das ein Aufnahmebild reproduziert, welches durch die in der Vorrichtung für räumliche Messungen beinhaltete abbildende Vorrichtung ausgegeben wird, was auf der Grundlage der von der Messbedingungserhaltungseinheit 101 eingegebenen Messbedingungsinformationen erfolgt. Die Generationseinheit für virtuelle Aufnahmebilder 102 gibt das generierte virtuelle Aufnahmebild in die Recheneinheit für räumliche Messungen 103 ein.The generation unit for virtual recording images 102 generates a captured virtual image that is a computer graphic (CG) image that reproduces a captured image output by the imaging device included in the spatial measurement apparatus based on the information obtained from the measurement condition obtaining unit 101 input measurement condition information takes place. The generation unit for virtual recording images 102 sends the generated virtual recording image to the computing unit for spatial measurements 103 a.

Die Recheneinheit für räumliche Messungen 103 nimmt den Prozess des räumlichen Messens, der durch die Vorrichtung für räumliche Messungen vorgenommen wird, durch Verwendung des von der Generationseinheit für virtuelle Aufnahmebilder 102 eingegebenen virtuellen Aufnahmebilds vor, um einen Messwert zu erhalten. Die Recheneinheit für räumliche Messungen 103 gibt den erhaltenen Messwert in die Ausgabeeinheit 104 ein.The computing unit for spatial measurements 103 adopts the spatial measurement process performed by the spatial measurement apparatus by using that of the virtual captured image generation unit 102 entered virtual recording image in order to obtain a measured value. The computing unit for spatial measurements 103 sends the received measured value to the output unit 104 a.

Die Ausgabeeinheit 104 gibt ein Simulationsergebnis aus, das den von der Recheneinheit für räumliche Messungen 103 eingegebenen Messwert beinhaltet.The output unit 104 outputs a simulation result that corresponds to the calculation unit for spatial measurements 103 the entered measured value.

2 ist ein Flussdiagramm, das den Betrieb der in 1 dargestellten Simulationsvorrichtung 10 darstellt. Die Messbedingungserhaltungseinheit 101 der Simulationsvorrichtung 10 erhält die Messbedingungsinformationen (Schritt S101). Die Messbedingungserhaltungseinheit 101 gibt die erhaltenen Messbedingungsinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein. 2 FIG. 13 is a flow chart illustrating the operation of the FIG 1 illustrated simulation device 10 represents. The measurement condition maintenance unit 101 the simulation device 10 obtains the measurement condition information (step S101). The measurement condition maintenance unit 101 inputs the measurement condition information obtained into the generation unit for virtual recording images 102 a.

Die Generationseinheit für virtuelle Aufnahmebilder 102 generiert ein virtuelles Aufnahmebild auf der Grundlage der Messbedingungsinformationen (Schritt S102). Die Generationseinheit für virtuelle Aufnahmebilder 102 gibt das generierte virtuelle Aufnahmebild in die Recheneinheit für räumliche Messungen 103 ein.The generation unit for virtual recording images 102 generates a captured virtual image based on the measurement condition information (step S102). The generation unit for virtual recording images 102 sends the generated virtual recording image to the computing unit for spatial measurements 103 a.

Die Recheneinheit für räumliche Messungen 103 nimmt eine Berechnung einer räumlichen Messung durch Verwendung des virtuellen Aufnahmebilds vor, um einen Messwert zu erhalten (Schritt S103). Die Recheneinheit für räumliche Messungen 103 gibt den erhaltenen Messwert in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt ein Simulationsergebnis aus, das den Messwert beinhaltet (Schritt S104).The computing unit for spatial measurements 103 performs spatial measurement calculation by using the captured virtual image to obtain a measurement value (step S103). The computing unit for spatial measurements 103 sends the received measured value to the output unit 104 a. The output unit 104 outputs a simulation result including the measurement value (step S104).

Die Simulationsvorrichtung 10 kann den Prozess des räumlichen Messens vornehmen, indem sie ein virtuelles Aufnahmebild generiert, das ein durch die abbildende Vorrichtung ausgegebenes Aufnahmebild auf der Grundlage der Messbedingungsinformationen der Vorrichtung für räumliche Messungen und durch Verwendung des virtuellen Aufnahmebilds reproduziert. Eine derartige Konfiguration ermöglicht eine Überprüfung der räumlichen Messung mittels Simulation ohne Bereitstellung einer projizierenden Vorrichtung und einer abbildenden Vorrichtung und Erhalten echter Daten. Dies hebt die Notwendigkeit eines Arbeitsablaufs des Installierens der Vorrichtung für räumliche Messungen vor Ort, eines Arbeitsablaufs des Steuerns von Hardware und Software der Vorrichtung für räumliche Messungen und eines Arbeitsablaufs des Erhebens echter Daten des Messobjekts auf, was die für Arbeitsabläufe erforderliche Zeit verkürzen und Arbeitskosten sowie Materialkosten senken kann. Somit ermöglicht die Simulation mit verschiedenartig eingestellten Messbedingungen der Vorrichtung für räumliche Messungen die Simulation somit geeignete Messbedingungen, die zu bestimmen sind. Dies kann folglich den Zeitraum für die Einrichtung der Vorrichtung für räumliche Messungen und den Zeitraum für Verifizierungen mittels Versuch und Irrtum verringern, die vorgenommen werden, bevor die Vorrichtung für räumliche Messungen vor Ort installiert und in Betrieb gesetzt wird.The simulation device 10 can perform the spatial measurement process by generating a captured virtual image that reproduces a captured image output by the imaging device based on the measurement condition information of the spatial measurement device and by using the captured virtual image. Such a configuration enables the spatial measurement to be checked by simulation without providing a projecting device and an imaging device and obtaining real data. This eliminates the need of a workflow of installing the spatial measurement device on site, a workflow of controlling hardware and software of the spatial measurement device, and a workflow of acquiring real data of the measurement object, which shorten the time and labor costs required for workflows as well Can reduce material costs. Thus, the simulation with differently set measurement conditions of the device for spatial measurements enables Simulation thus suitable measurement conditions to be determined. This can thus reduce the time required to set up the spatial measurement device and the time required for trial and error verification before installing and operating the spatial measurement device in the field.

3 ist ein Schema, das eine detaillierte funktionelle Konfiguration der Messbedingungserhaltungseinheit 101 darstellt, die in 1 dargestellt ist. Die Messbedingungserhaltungseinheit 101 erhält die Messbedingungsinformationen, welche die Messbedingungen der Vorrichtung für räumliche Messungen angeben. Die Messbedingungserhaltungseinheit 101 beinhaltet eine Projektionsbedingungsinformationserhaltungseinheit 201, eine Abbildungsbedingungsinformationserhaltungseinheit 202, eine Messobjektinformationserhaltungseinheit 203 und eine Nichtmessobjektinformationserhaltungseinheit 204. 3 Fig. 13 is a diagram showing a detailed functional configuration of the measurement condition obtaining unit 101 represents that in 1 is shown. The measurement condition maintenance unit 101 receives the measurement condition information indicating the measurement conditions of the spatial measurement device. The measurement condition maintenance unit 101 includes a projection condition information obtaining unit 201 , a mapping condition information obtaining unit 202 , a measurement object information acquisition unit 203 and a non-measurement object information acquisition unit 204 .

Die Projektionsbedingungsinformationserhaltungseinheit 201 erhält Projektionsbedingungsinformationen, die Projektionsbedingungen der projizierenden Vorrichtung angeben. Die Projektionsbedingungsinformationen können Informationen beinhalten, die in der Lage sind, wenigstens eines von der Leistung und dem Verwendungszustand der projizierenden Vorrichtung zu spezifizieren. Zu Beispielen für die Leistung der projizierenden Vorrichtung zählen die Auflösung und der Blickwinkel, und zu Beispielen für den Zustand der projizierenden Vorrichtung zählen eine Position und eine Stellung wie auch der Fokussierzustand der projizierenden Vorrichtung. Die Projektionsbedingungsinformationen können zudem Informationen beinhalten, die das Projektionsmuster angeben. Zu den das Projektionsmuster angebenden Informationen gehören Informationen, welche die Gestaltung bzw. die Konstruktion des Projektionsmusters angeben. Es sei darauf hingewiesen, dass in einem Falle, in dem eine Vielzahl von Projektionsmustern vorliegt, können zu den das Projektionsmuster angebenden Informationen des Weiteren Informationen gehören, welche die Anzahl der Projektionsmuster angeben. Bei der Gestaltung des Projektionsmusters kann es sich um ein Streifenmuster, in dem Streifen mit einer für jedes Projektionsmuster zuvor festgelegten Dicke gemäß einer bestimmten Regel angeordnet sind, um ein Punktmuster, in dem Punkte unregelmäßig angeordnet sind, ein graduelles Muster, das ein Projektionsmuster ist, bei dem die Stärke des projizierten Lichts stufenlos geändert wird, oder eine Kombination daraus handeln. Die vorbeschriebenen Gestaltungen stellen Beispiele dar, und es kann ein Projektionsmuster mit jeder Gestaltung verwendet werden. Die Anzahl der Projektionsmuster ist jede Anzahl größer oder gleich eins. Außerdem kann es sich bei den die Gestaltung des Projektionsmusters angebenden Informationen um Informationen handeln, welche die Art der Gestaltung angeben, oder um Informationen, die die Intensitätsverteilung des Lichts auf einer vorgegebenen Projektionsebene angeben, als Beispiel.The projection condition information obtaining unit 201 obtains projection condition information indicating projection conditions of the projecting device. The projection condition information may include information capable of specifying at least one of the performance and the state of use of the projecting device. Examples of the performance of the projecting device include resolution and angle of view, and examples of the state of the projecting device include a position and posture as well as the focusing state of the projecting device. The projection condition information can also include information indicating the projection pattern. The information specifying the projection pattern includes information specifying the design or construction of the projection pattern. It should be noted that, in a case where there are a plurality of projection patterns, the information indicating the projection pattern may further include information indicating the number of the projection patterns. The design of the projection pattern may be a stripe pattern in which stripes having a thickness predetermined for each projection pattern are arranged according to a certain rule, a dot pattern in which dots are arranged irregularly, a gradual pattern which is a projection pattern, which continuously changes the strength of the projected light, or a combination of these. The above-described configurations are examples, and a projection pattern of any configuration can be used. The number of projection patterns is any number greater than or equal to one. In addition, the information specifying the design of the projection pattern can be information specifying the type of design or information specifying the intensity distribution of the light on a predetermined projection plane, for example.

Die Abbildungsbedingungsinformationserhaltungseinheit 202 erhält Abbildungsbedingungsinformationen, die Abbildungsbedingungen der abbildenden Vorrichtung angeben. Die Abbildungsbedingungsinformationen können Informationen beinhalten, die in der Lage sind, wenigstens eines von der Leistung und dem Verwendungszustand der abbildenden Vorrichtung zu spezifizieren. Zu Beispielen für die Leistung der abbildenden Vorrichtung zählen die Auflösung und der Blickwinkel, und zu Beispielen für den Zustand der abbildenden Vorrichtung zählen die Position und die Stellung wie auch der Fokussierzustand der abbildenden Vorrichtung.The imaging condition information obtaining unit 202 obtains imaging condition information indicating imaging conditions of the imaging device. The imaging condition information may include information capable of specifying at least one of the performance and the state of use of the imaging device. Examples of the performance of the imaging device include resolution and angle of view, and examples of the condition of the imaging device include the position and posture as well as the focus condition of the imaging device.

Die Messobjektinformationserhaltungseinheit 203 erhält Informationen über das Messobjekt, etwa Messobjektinformationen, bei denen es sich um Informationen handelt, welche die Form, den Zustand wie bspw. die Position und die Stellung wie auch Charakteristika des Messobjekts angeben, als Beispiel. Die Charakteristika des Messobjekts sind beispielsweise die Reflexionscharakteristika des Messobjekts. Zu den Informationen, welche die Reflexionscharakteristika des Messobjekts angeben, gehört wenigstens eines von der Farbe, der diffusen Reflexion und der gerichteten Reflexion des Messobjekts, als Beispiel.The measurement object information preservation unit 203 receives information about the measurement object, for example measurement object information, which is information that specifies the shape, the state such as the position and the posture as well as characteristics of the measurement object, as an example. The characteristics of the measurement object are, for example, the reflection characteristics of the measurement object. The information indicating the reflection characteristics of the measurement object includes at least one of the color, diffuse reflection, and specular reflection of the measurement object, for example.

Die Nichtmessobjektinformationserhaltungseinheit 204 erhält Nichtmessobjektinformationen, bei denen es sich um Informationen handelt, die ein Nichtmessobjekt betreffen, also ein anderes Objekt als das Messobjekt oder Umgebungslicht, das nicht das in dem Abbildungsraum vorhandene projizierte Licht ist. Das Nichtmessobjekt ist beispielsweise ein Behälter, eine Halterung oder ein Gestell, womit das Messobjekt gehalten wird. Es sei darauf hingewiesen, dass das Nichtmessobjekt nicht auf die vorgenannten Beispiele beschränkt ist und auch ein anderes Objekt als das Messobjekt einschließt, das in einem durch eine tatsächliche Bilderfassungsvorrichtung erfassten Bild erfasst werden kann, etwa eine Wand, ein Fenster, andere umliegende Objekte, sowie Licht wie bspw. Beleuchtungslicht, mit dem das vorgenannte Objekt angestrahlt wird. Zu den Nichtmessobjektinformation können wenigstens eines von der Position, der Stellung und den Charakteristika des Nichtmessobjekts wie auch Informationen gehören, die den Zustand des Umgebungslichts angeben.The non-measurement object information obtaining unit 204 receives non-measurement object information, which is information relating to a non-measurement object, that is to say an object other than the measurement object or ambient light that is not the projected light present in the imaging space. The non-measurement object is, for example, a container, a holder or a frame with which the measurement object is held. It should be noted that the non-measurement object is not limited to the aforementioned examples and also includes an object other than the measurement object that can be captured in an image captured by an actual image capturing device, such as a wall, a window, other surrounding objects, as well Light such as illuminating light with which the aforementioned object is illuminated. The non-measurement object information may include at least one of the position, posture, and characteristics of the non-measurement object as well as information indicating the state of the ambient light.

Es sei darauf hingewiesen, dass die die Form eines Objekts angebenden Informationen, die zu den Messobjektinformationen und zu den Nichtmessobjektinformationen gehören, anhand einer Kombination aus Gittern wie bspw. einer dreidimensionalen rechnergestützten Zeichnung (3D-CAD), von Primitiven wie einer Kugel oder einem rechtwinkligen Parallelepiped oder einer Menge daraus ausgedrückt werden kann. Die Reflexionscharakteristika eines Objekts werden verwendet, um zu reproduzieren, wie das Objekt aussieht, wenn es mit Licht angeleuchtet wird. Die den Zustand des Umgebungslichts angebenden Informationen werden verwendet, um einen derartigen Schatteneffekt zu erhalten, als ob ein Bild tatsächlich durch die abbildende Vorrichtung aufgenommen worden ist. Außerdem kann sich ein Objekt in der Luft befinden, oder eine Bodenoberfläche und eine Box zum Fassen eines Objekts kann hingestellt sein und das Objekt kann sich im Inneren der Box befinden. Es ist bevorzugt, dass die Reflexionscharakteristika der Bodenoberfläche und der Box ebenfalls in einer dem Objekt ähnelnden Art und Weise eingestellt werden können.It should be noted that the information indicating the shape of an object, which belongs to the measurement object information and the non-measurement object information, is based on a combination of grids such as, for example, a three-dimensional computer-aided drawing (3D CAD) from Primitives like a sphere or a right-angled parallelepiped or a set of them can be expressed. The reflective characteristics of an object are used to reproduce what the object looks like when illuminated with light. The information indicating the state of the ambient light is used to obtain such a shadow effect as if an image had actually been taken by the imaging device. In addition, an object may be in the air, or a floor surface and a box for holding an object may be placed and the object may be inside the box. It is preferable that the reflection characteristics of the floor surface and the box can also be adjusted in a manner similar to the object.

Da die Projektionsbedingungsinformationen und die Abbildungsbedingungsinformationen, zu denen die Leistung wie bspw. die Auflösung und der Blickwinkel der projizierenden Vorrichtung und der abbildenden Vorrichtung gehören, wie vorbeschrieben einzeln eingestellt werden können, können Messfehler, die bei einer tatsächlichen Vorrichtung für räumliche Messungen auftreten können, mit höherer Genauigkeit reproduziert werden. In einem Fall, in dem die Auflösung der abbildenden Vorrichtung geringer als jene der projizierenden Vorrichtung ist, kann zum Beispiel die Gestaltung des Projektionsmusters von dem Aufnahmebild des Projektionsmusters ausgehend selbst dann nicht präzise bestimmt werden, wenn ein feineres Projektionsmuster der projizierenden Vorrichtung verwendet wird, was Fehler und Defekte in räumlichen Messungen verursacht. Da die Generationseinheit für virtuelle Aufnahmebilder 102 ein virtuelles Aufnahmebild auf der Grundlage der Auflösung der abbildenden Vorrichtung generiert, kann die Feinheit des Projektionsmusters, welche durch die abbildende Vorrichtung bestimmt werden kann, per Analyse des virtuellen Aufnahmebilds erhalten werden. Somit kann die Grenze der Feinheit des Projektionsmusters, welche mithilfe der abbildenden Vorrichtung bestimmt werden kann, als Obergrenze der Auflösung der projizierenden Vorrichtung geschätzt werden. Alternativ kann die Leistung der abbildenden Vorrichtung, die der Auflösung der projizierenden Vorrichtung entspricht, betrachtet werden. Da die projizierende Vorrichtung und die abbildende Vorrichtung, die in der Vorrichtung für räumliche Messungen beinhaltet sind, einander entsprechende Leistungen aufweisen müssen, ist es folglich bevorzugt, die Leistungen der projizierenden Vorrichtung und der abbildenden Vorrichtung durch Verwendung der Simulationsergebnisse zu betrachten.Since the projection condition information and the imaging condition information, which include the performance such as the resolution and the angle of view of the projecting device and the imaging device, can be set individually as described above, measurement errors that may occur in an actual spatial measurement device can be avoided can be reproduced with higher accuracy. For example, in a case where the resolution of the imaging device is lower than that of the projecting device, the configuration of the projection pattern cannot be precisely determined from the captured image of the projection pattern even if a finer projection pattern of the projecting device is used, which is Causes errors and defects in spatial measurements. As the generation unit for virtual recording images 102 If a virtual captured image is generated on the basis of the resolution of the imaging device, the fineness of the projection pattern, which can be determined by the imaging device, can be obtained by analyzing the virtual captured image. Thus, the limit of the fineness of the projection pattern, which can be determined with the aid of the imaging device, can be estimated as the upper limit of the resolution of the projecting device. Alternatively, the performance of the imaging device, which corresponds to the resolution of the projecting device, can be considered. Accordingly, since the projecting device and the imaging device included in the spatial measurement device must have corresponding performances, it is preferable to consider the performances of the projecting device and the imaging device by using the simulation results.

Die Generationseinheit für virtuelle Aufnahmebilder 102 generiert ein virtuelles Aufnahmebild, das ein durch die abbildende Vorrichtung ausgegebenes Aufnahmebild auf der Grundlage der Messbedingungsinformationen reproduziert. Die Generationseinheit für virtuelle Aufnahmebilder 102 kann auf der Grundlage der Messobjektinformationen und der Nichtmessobjektinformationen, die in den Messbedingungsinformationen beinhaltet sind, in einem virtuellen Abbildungsraum die Anordnung von Objekten reproduzieren, die in einem Abbildungsraum vorhanden sind, und einen Teil in dem Abbildungsraum, der in dem virtuellen Aufnahmebild gezeigt ist, auf der Grundlage der Abbildungsbedingungsinformationen spezifizieren. Die Generationseinheit für virtuelle Aufnahmebilder 102 kann durch Verwendung eines Reflexionsmodells auf der Grundlage der Projektionsbedingungsinformationen, der Messobjektinformationen und der Nichtmessobjektinformationen des Weiteren einen Schatten reproduzieren, der durch projiziertes Licht in dem Abbildungsraum geworfen wird. Die Generationseinheit für virtuelle Aufnahmebilder 102 kann, mit Pixelwerten, die Position reproduzieren, die der Grenze des Schattens entspricht, der durch das projizierte Licht in einem durch die abbildende Vorrichtung ausgegebenen Aufnahmebild geworfen wird. Es sei darauf hingewiesen, dass ein Fehler, welcher in der Position, die der Grenze des Schattens entspricht, enthalten ist, die Sichtbarkeit des Lichts in dem Aufnahmebild mindert. Geringere Sichtbarkeit des Lichts bedeutet, dass eine mit dem projizierten Licht angestrahlte räumliche Position in dem Abbildungsraum und ein Erfassungsergebnis einer Anstrahlposition des projizierten Lichts in dem Aufnahmebild einander nicht entsprechen oder dass, in einem Falle, in dem die projizierende Vorrichtung ein zweidimensionales Projektionsmuster projiziert, eine Grenze eines Schattens von Licht, etwa eine Mustergrenze, die eine Grenze zwischen einer mit dem projizierten Licht angestrahlten Region und einer nicht mit dem projizierten Licht angestrahlten Region ist, nicht korrekt erfasst werden kann. Wenn die Sichtbarkeit des Lichts abnimmt, wird folglich ein Fehler im Messergebnis der räumlichen Messung verursacht, oder die Messung wird unmöglich, was die Güte der räumlichen Messung mindert.The generation unit for virtual recording images 102 generates a virtual captured image that reproduces a captured image output by the imaging device based on the measurement condition information. The generation unit for virtual recording images 102 can, based on the measurement object information and the non-measurement object information included in the measurement condition information, reproduce in a virtual imaging space the arrangement of objects existing in an imaging space and a part in the imaging space shown in the captured virtual image on the basis of the imaging condition information. The generation unit for virtual recording images 102 can further reproduce a shadow cast by projected light in the imaging space by using a reflection model based on the projection condition information, the measurement object information, and the non-measurement object information. The generation unit for virtual recording images 102 can reproduce, with pixel values, the position corresponding to the boundary of the shadow cast by the projected light in a captured image output by the imaging device. It should be noted that an error contained in the position corresponding to the boundary of the shadow lowers the visibility of the light in the captured image. Lower visibility of the light means that a spatial position in the imaging space that is irradiated with the projected light and a detection result of an irradiation position of the projected light in the recorded image do not correspond to one another, or that, in a case in which the projecting device projects a two-dimensional projection pattern, a A boundary of a shadow of light, such as a pattern boundary which is a boundary between a region irradiated with the projected light and a region not irradiated with the projected light, cannot be correctly detected. As a result, when the visibility of the light decreases, an error is caused in the measurement result of the spatial measurement, or the measurement becomes impossible, which lowers the quality of the spatial measurement.

Zu Faktoren für Fehler an der Position einer Grenze eines Schattens des Lichts in einem Aufnahmebild können jene zählen, die durch die projizierende Vorrichtung hervorgerufen werden, und jene, die durch die abbildende Vorrichtung verursacht werden. Bei Faktoren für Fehler, die durch die projizierende Vorrichtung hervorgerufen werden, kann es sich um Interreflexion von projiziertem Licht von der projizierenden Vorrichtung, das durch eine erste Fläche reflektiert wird und dann auf eine zweite Fläche trifft, um die zweite Fläche anzuleuchten, um Lichtunschärfe, die dadurch verursacht wird, dass sich die projizierende Vorrichtung nicht im Fokus befindet, oder dergleichen handeln. Die zweite Fläche kann eine Oberfläche eines anderen Objekts als des Objekts mit der ersten Fläche sein, oder sie kann ein Bestandteil eben des Objekts mit der ersten Fläche sein.Factors for errors in the position of a boundary of a shadow of light in a captured image may include those caused by the projecting device and those caused by the imaging device. Factors for errors caused by the projecting device may be interreflection of projected light from the projecting device that is reflected by a first surface and then hits a second surface to illuminate the second surface to reduce light blurring, caused by the projecting device being out of focus, or the like. The second surface can be a surface of an object other than the object with the first surface, or it can be part of the same object with the first surface.

Zu Faktoren für Fehler, die durch die abbildende Vorrichtung hervorgerufen werden, können eine Bildverzeichnung aufgrund einer Verzeichnung eines Objektivs der abbildenden Vorrichtung oder dergleichen, Zufallsrauschen, das unregelmäßig in dem Bild erscheint, Bildunschärfe, die dadurch entsteht, dass sich die abbildende Vorrichtung nicht im Fokus befindet, oder dergleichen zählen. Es sei darauf hingewiesen, dass die als Fehlerfaktoren betrachteten Phänomene nicht auf das Vorgenannte begrenzt sind und ein jedes Phänomen einschließen können, das eine Änderung der Lichtprojektionsbedingung oder eine Änderung in einem Aufnahmebild verursacht.Factors for errors caused by the imaging device can include image distortion due to distortion of a lens of the imaging device or the like, random noise that appears irregularly in the image, image blurring that occurs because the imaging device is not in focus is located, or the like count. It should be noted that the phenomena regarded as error factors are not limited to the above and may include any phenomenon that causes a change in the light projection condition or a change in a captured image.

Ein Beispiel für eine Situation, in der die Interreflexion wahrscheinlich auftreten wird, ist ein Fall, in dem sich zwei oder mehr Objekte nahe beieinander befinden. Ein von der projizierenden Vorrichtung ausgesendeter Lichtstrahl kann von einer Oberfläche eines ersten Objekts in einem Abbildungsraum reflektiert werden, und das reflektierte Licht kann ein zweites Objekt, das sich von dem ersten Objekt unterscheidet, anleuchten. Alternativ kann Licht, das von einem Teil X eines ersten Objekts, das in einem Abbildungsraum vorhanden ist, reflektiert wird, ein Teil Y anleuchten, welches sich von dem Teil X ein und desselben ersten Objekts unterscheidet.An example of a situation where the interreflection is likely to occur is a case where two or more objects are close to each other. A light beam emitted from the projecting device can be reflected from a surface of a first object in an imaging space, and the reflected light can illuminate a second object different from the first object. Alternatively, light that is reflected from a part X of a first object which is present in an imaging space can illuminate a part Y which differs from the part X of one and the same first object.

Zusätzlich zur Interreflexion von projiziertem Licht von der projizierenden Vorrichtung kann eine Interreflexion von Umgebungslicht wie der Raumbeleuchtung und Sonnenlicht von außen in ähnlicher Weise wie das projizierte Licht auftreten. Außerdem ist die Häufigkeit, mit der ein Lichtstrahl reflektiert wird, nicht auf Eins begrenzt, und ein Lichtstrahl kann mehrmals reflektiert werden. Da jedoch jedes Mal, wenn Licht reflektiert wird, Lichtenergie absorbiert wird, ist es wahrscheinlich, dass die Lichtenergie mit steigender Reflexionshäufigkeit geringer wird als die Wahrnehmungsempfindlichkeit der abbildenden Vorrichtung, was zum Ergebnis hat, dass sich das Licht nicht auf ein Aufnahmebild auswirkt. Demzufolge kann die Interreflexion von Licht, das mit einer vorgegebenen Häufigkeit oder öfter reflektiert wird, außer Acht gelassen werden.In addition to interreflection of projected light from the projecting device, interreflection of ambient light such as room lighting and outside sunlight may occur in a manner similar to that of the projected light. In addition, the number of times a light beam is reflected is not limited to one, and a light beam can be reflected multiple times. However, since light energy is absorbed every time light is reflected, the more the reflection frequency increases, the light energy is likely to become less than the perceptual sensitivity of the imaging device, with the result that the light does not affect a captured image. As a result, the interreflection of light reflected a predetermined number of times or more can be disregarded.

Die sich aus der Interreflexion ergebende Lichtstärke kann bestimmt werden auf der Grundlage der Lichtstärke vor der Reflexion, der Reflexioncharakteristika an einem Reflexionspunkt und eines Ausbreitungswegs des Lichts, zusätzlich zu einem Reflexionsmodell ähnlich jenem, das zur Generation eines virtuellen Aufnahmebilds verwendet wird.The light intensity resulting from the interreflection can be determined based on the light intensity before the reflection, the reflection characteristics at a reflection point and a propagation path of the light, in addition to a reflection model similar to that used for generating a virtual captured image.

Wenn eine Interreflexion auftritt, lässt sich zusätzlich zu einer auf einem Bild zu beobachtenden Mustergrenze eine Schattengrenze des Lichts beobachten. An einer Position, an der eine andere Grenze als eine Mustergrenze beobachtet wird, kann die Richtung der Lichtbestrahlung nicht korrekt berechnet werden, wodurch ein Messfehler in der räumlichen Messung entsteht.When interreflection occurs, a shadow boundary of light can be observed in addition to a pattern boundary to be observed on an image. At a position where a boundary other than a pattern boundary is observed, the direction of light irradiation cannot be correctly calculated, thereby causing a measurement error in spatial measurement.

Weil die Generationseinheit für virtuelle Aufnahmebilder 102 ein virtuelles Aufnahmebild in Anbetracht des Einflusses der Interreflexion von Licht generiert, wird ein Messfehler, der in einer räumlichen Messung eines Messobjekts, das tatsächlich eine Interreflexion verursachen kann, auftreten kann, in einem von der Recheneinheit für räumliche Messungen 103 ausgegebenen Messwert reproduziert. Aus diesem Grund können Ausmaß und Tendenz des Auftretens eines Messfehlers erhalten werden, bevor die Vorrichtung für räumliche Messungen tatsächlich bereitgestellt wird. Wenn die Tendenz des Auftretens eines Messfehlers im Voraus erhalten werden kann, so kann ein Verfahren zum Verringern des Einflusses der Interreflexion durch Änderung von Messbedingungen wie bspw. relativen Positionen der projizierenden Vorrichtung und der abbildenden Vorrichtung oder ein Anordnungsverfahren eines Messobjekts in Erwägung gezogen werden. Die Genauigkeit einer räumlichen Messung kann somit verbessert werden.Because the generation unit for virtual recording images 102 If a virtual recording image is generated in consideration of the influence of the interreflection of light, a measurement error that can occur in a spatial measurement of a measurement object that can actually cause interreflection is generated in one of the arithmetic unit for spatial measurements 103 output measured value is reproduced. For this reason, the extent and tendency of the occurrence of a measurement error can be obtained before the spatial measurement apparatus is actually provided. If the tendency for a measurement error to occur can be obtained in advance, a method of reducing the influence of interreflection by changing measurement conditions such as relative positions of the projecting device and the imaging device or an arrangement method of a measurement object can be considered. The accuracy of a spatial measurement can thus be improved.

Wenn die projizierende Vorrichtung defokussiert ist, ist eine Schattengrenze des Lichts unscharf und eine Mustergrenze wird undeutlich. Daher kann es sein, dass die Genauigkeit des Analysierens eines Projektionsmusters auf einem Aufnahmebild zum Zwecke der Bestimmung der Richtung der Lichtbestrahlung gemindert und dass die Richtung der Lichtbestrahlung fehlerhaft berechnet wird. In einem Fall, in dem ein Abbildungsraum eine Tiefe mit einem vorgegebenen Wert oder größer aufweist, ist die projizierende Vorrichtung möglicherweise nicht in der Lage, auf den gesamten Abbildungsraum zu fokussieren. In einem derartigen Falle ist es notwendig, ein Berechnungsverfahren vorzusehen, das selbst dann in der Lage ist, ein Projektionsmuster zu analysieren, wenn die projizierende Vorrichtung defokussiert ist. Selbst wenn versucht wird, ein Verfahren zum Analysieren eines Projektionsmusters durch Verwendung realer Daten zu verifizieren, wobei es sich um Daten handelt, die durch Beobachten eines Messobjekts durch tatsächliches Bedienen der projizierenden Vorrichtung und der bildgebenden Vorrichtung erhalten wird, ist es schwer, eine wirkliche Position einer Mustergrenze in den realen Daten in Erfahrung zu bringen. Daher kann nicht exakt bestimmt werden, ob ein Verifizierungsergebnis korrekt ist oder nicht. Im Gegensatz dazu kann die Simulationsvorrichtung 10 eine wirkliche Position einer Mustergrenze auf der Grundlage der Messbedingungsinformationen erhalten und generiert ein virtuelles Aufnahmebild, das eine Unschärfe der Mustergrenze reproduziert, welche durch die Defokussierung der projizierenden Vorrichtung hervorgerufen wird. Somit kann infolge einer Verbesserung des Verfahrens zum Analysieren eines Projektionsmusters ohne Weiteres bestimmt werden, ob ein Ergebnis des Erfassens einer Mustergrenze verbessert wird oder nicht. Algorithmen zum Analysieren eines Projektionsmusters, die für räumliche Messungen notwendig sind, können demnach effizienter entwickelt werden.When the projecting device is defocused, a shadow boundary of light is blurred and a pattern boundary becomes indistinct. Therefore, the accuracy of analyzing a projection pattern on a captured image for the purpose of determining the direction of light irradiation may be lowered and the direction of light irradiation may be incorrectly calculated. In a case where an imaging space has a depth of a predetermined value or greater, the projecting apparatus may not be able to focus on the entire imaging space. In such a case, it is necessary to provide a calculation method capable of analyzing a projection pattern even when the projecting device is out of focus. Even if an attempt is made to verify a method of analyzing a projection pattern by using real data, which is data obtained by observing a measurement object by actually operating the projecting device and the imaging device, it is difficult to find a real position a model boundary in the real data. Therefore, it cannot be determined exactly whether or not a verification result is correct. In contrast, the simulation device 10 obtain an actual position of a pattern boundary based on the measurement condition information and generate a virtual captured image that reproduces a blurring of the pattern boundary caused by defocusing of the projecting device. Thus, as a result of an improvement in the method of analyzing a projection pattern, it can be easily determined whether a result of detecting a pattern boundary is improved or not. Algorithms for analyzing a projection pattern, which are necessary for spatial measurements, can therefore be developed more efficiently.

Des Weiteren kann das Verhältnis zwischen dem Defokussierungsgrad der projizierenden Vorrichtung und dem Messergebnis einer räumlichen Messung simuliert werden, was eine Verifizierung dessen, welcher Grad an Defokussierung Fehler in einem Messergebnis innerhalb eines zulässigen Bereichs ergibt, und eine Schätzung einer erforderlichen Leistung wie bspw. eines Bereichs der Tiefe, in dem die projizierende Vorrichtung fokussiert ist, ermöglicht. Die Simulationsvorrichtung 10 bringt folglich einen vorteilhaften Effekt hervor, der darin besteht, dass sie in der Lage ist, die Gestaltung der Vorrichtung für räumliche Messungen zu erleichtern.Furthermore, the relationship between the degree of defocusing of the projecting device and the measurement result of a spatial measurement can be simulated, which enables verification of which degree of defocusing gives errors in a measurement result within an allowable range, and an estimation of a required performance such as a range the depth at which the projecting device is in focus. The simulation device 10 consequently produces an advantageous effect in that it is able to facilitate the design of the spatial measurement device.

Außerdem kann die Generationseinheit für virtuelle Aufnahmebilder 102 die Bildverzeichnung als Effekt der Verzeichnung eines Objektivs der abbildenden Vorrichtung berechnen. Als ein Beispiel für ein Modell der Bildverzeichnung kann der Zusammenhang zwischen Pixeln vor und nach dem Auftreten einer Verzeichnung auf einem Bild durch Verwendung der folgenden Formel (1) erhalten werden.
[Formel 1] x u = x d + ( x d x c ) ( K 1 r 2 + K 2 r 4 + ) y u = y d + ( y d y c ) ( K 1 r 2 + K 2 r 4 + )

Figure DE112019006855T5_0001
In addition, the generation unit for virtual recorded images 102 calculate the image distortion as the effect of the distortion of a lens of the imaging device. As an example of a model of image distortion, the relationship between pixels before and after occurrence of distortion on an image can be obtained by using the following formula (1).
[Formula 1] x u = x d + ( x d - x c ) ( K 1 r 2 + K 2 r 4th + ) y u = y d + ( y d - y c ) ( K 1 r 2 + K 2 r 4th + )
Figure DE112019006855T5_0001

In der Formel stehen (xu, yu) für Bildkoordinaten in einem Bild ohne Verzeichnung, (xd, yd) für Bildkoordinaten in einem Bild mit Verzeichnung, K für einen Koeffizienten, der einen Verzeichnungsgrad angibt, und r für den Abstand von der Bildmitte zu einem Zielpixel. Das Zielpixel ist ein Pixel an gegebenen Koordinaten (xd, yd) in einem Bild mit Verzeichnung. Die Generationseinheit für virtuelle Aufnahmebilder 102 kann nacheinander jedes Pixel in dem Bild mit Verzeichnung als Zielpixel auswählen. Eine große Anzahl an Bildverzeichnungen wurde vorgeschlagen, die von vereinfachten Modellen bis hin zu detaillierten Modellen reicht. Für die Simulationsvorrichtung 10 kann ein jedes Modell verwendet werden, das die Formel (1) als eine Formel zum Berechnen der Bildverzeichnung beinhaltet.In the formula, (x u , y u ) stand for image coordinates in an image without distortion, (x d , y d ) for image coordinates in an image with distortion, K for a coefficient indicating a degree of distortion, and r for the distance from the center of the image to a target pixel. The target pixel is a pixel at given coordinates (x d , y d ) in an image with distortion. The generation unit for virtual recording images 102 can sequentially select each pixel in the distorted image as the target pixel. A large number of image distortions have been proposed, ranging from simplified models to detailed models. For the simulation device 10 Any model including the formula (1) as a formula for calculating the image distortion can be used.

Die Generationseinheit für virtuelle Aufnahmebilder 102 kann Zufallsrauschen reproduzieren, indem die Wahrscheinlichkeit des Auftretens und die Intensität des Rauschens bei jedem Pixel oder in jeder vorgegebenen Region in einem Bild festgelegt werden. Die Generationseinheit für virtuelle Aufnahmebilder 102 bestimmt durch Verwendung der Auftrittswahrscheinlichkeit, ob auf ein Pixel oder eine Region Rauschen aufzubringen ist, und wenn sie bestimmt, dass Rauschen aufzubringen ist, ändert sie die Farbe des Pixels oder der Region auf der Grundlage der festgelegten Intensität. Als Verfahrensweise zum Spezifizieren der Intensität kann eine Änderungsrate in Bezug auf die Farbe des ursprünglichen Pixels oder der ursprünglichen Region oder ein ganzzahliger Wert verwendet werden. Die Intensität kann mithilfe einer festgesetzten Änderungsrate oder eines festgesetzten ganzzahligen Werts ausgedrückt werden oder einen bestimmten Wertebereich aufweisen. Des Weiteren kann die Intensität sowohl einen positiven Wert, der eine Zunahme der Leuchtdichte eines Pixels angibt, als auch einen negativen Wert annehmen, welcher eine Abnahme der Leuchtdichte angibt.The generation unit for virtual recording images 102 can reproduce random noise by determining the probability of occurrence and the intensity of the noise at each pixel or in any given region in an image. The generation unit for virtual recording images 102 determines whether to apply noise to a pixel or region by using the occurrence probability, and when it determines that noise is to be applied, it changes the color of the pixel or region based on the specified intensity. As a method of specifying the intensity, a rate of change with respect to the color of the original pixel or region or an integer value can be used. The intensity can be expressed in terms of a fixed rate of change or a fixed integer value, or it can have a specific range of values. Furthermore, the intensity can assume both a positive value, which indicates an increase in the luminance of a pixel, and a negative value, which indicates a decrease in the luminance.

Mithilfe von Farbinformationen an Pixeln in der Umgebung eines Zielpixels kann die Generationseinheit für virtuelle Aufnahmebilder 102 eine Bildunschärfe reproduzieren, die durch Defokussierung der abbildenden Vorrichtung hervorgerufen wird. Jedes Pixel in einem Bild kann als Zielpixel ausgewählt werden. Beispiele für ein Verfahren zum Berechnen der Farbe nach Auftreten einer Bildunschärfe sind u. a. ein Verfahren des Verwendens eines durchschnittlichen Farbwerts eines Zielpixels und umliegender Pixel, Gaußsches Weichzeichnen, das im Generieren eines zusammengesetzten Werts besteht, bei dem ein Pixel, das sich näher an einem Zielpixel befindet, einen höheren Anteil besitzt, und dergleichen. Um eine korrektere Reproduktion einer Bildunschärfe zu ermöglichen, ist die Verwendung des Gaußschen Weichzeichnens vorteilhafter als das Verfahren der Verwendung eines Durchschnittswerts. Im Gegensatz dazu ist das Verfahren der Verwendung eines Durchschnittswerts insofern vorteilhaft, als die Verarbeitungszeit kürzer als beim Verfahren des Gaußschen Weichzeichnens ist. Des Weiteren ändert sich eine Bildunschärfe auch abhängig vom Abstand von der abbildenden Vorrichtung zu einem Objekt. Ein Aufnahmebild eines Objekts, das im Fokus ist, ist weniger unscharf, und ein Aufnahmebild eines Objekts, das nicht im Fokus ist, ist erheblich unschärfer. Die zusätzliche Verwendung von Informationen wie einer Änderung des Unschärfegrads, die vom Abstand und der Fokusentfernung abhängig ist, versetzt die Generationseinheit für virtuelle Aufnahmebilder 102 in die Lage, eine Unschärfe zu reproduzieren, die jener in einem tatsächlich aufgenommenen Bild ähnelt. Die Informationen können als die Messbedingungsinformationen erhalten werden, oder sie können mittels Berechnung ausgehend von anderen Informationen erhalten werden, die in den Messbedingungsinformationen enthalten sind. Es sei darauf hingewiesen, dass Beispiele für das spezifische Verfahren zum Reproduzieren von Fehlerfaktoren durch die Generationseinheit für virtuelle Aufnahmebilder 102 zwar in einer zweiten und dritten Ausführungsform beschrieben sind, das Reproduktionsverfahren jedoch nicht darauf beschränkt ist.With the help of color information on pixels in the vicinity of a target pixel, the generation unit for virtual recorded images 102 reproduce image blurring caused by defocusing of the imaging device. Any pixel in an image can be selected as a target pixel. Examples of a method of calculating color after image blurring has occurred include a method of using an average color value of a target pixel and surrounding pixels, Gaussian blurring, which is to generate a composite value where a pixel that is closer to a target pixel , has a higher proportion, and the like. In order to enable image blur to be reproduced more correctly, the use of Gaussian blurring is more advantageous than the method of using an average value. In contrast, the method of using an average value is advantageous in that the processing time is shorter than that of the Gaussian blurring method. Furthermore, an image blurring also changes depending on the distance from the imaging device to an object. A captured image of an object that is in focus is less blurred, and a captured image of an object that is not in focus is significantly more blurred. The additional use of information such as a change in the degree of blurring, which is dependent on the distance and the focus distance, offsets the generation unit for virtual recorded images 102 able to reproduce a blur similar to that in an actual captured image. The information may be obtained as the measurement condition information, or it may be obtained by calculation based on other information included in the measurement condition information. It should be noted that examples of the specific method for reproducing error factors by the virtual captured image generation unit 102 Although the second and third embodiments are described, the reproducing method is not limited thereto.

Die Recheneinheit für räumliche Messungen 103 nimmt den Prozess des räumlichen Messens in Reaktion auf eine Eingabe eines virtuellen Aufnahmebilds vor. Der durch die Recheneinheit für räumliche Messungen 103 vorgenommene Prozess des räumlichen Messens kann der gleiche wie der Prozess des räumlichen Messens sein, welcher durch die Vorrichtung für räumliche Messungen durch Verwendung eines in einer realen Umgebung aufgenommenen Bilds vorgenommen wird. Der Prozess des räumlichen Messens beinhaltet einen Prozess des Identifizierens eines Projektionsmusters, das auf ein Messobjekt emittiert wird, und einen Abstandsmessprozess. Der Prozess des Identifizierens eines Projektionsmusters beinhaltet ein Erhalten auf die Leuchtdichte bezogener Informationen zu Pixeln an gleicher Position aus einer Vielzahl von Aufnahmebildern, ein Bestimmen, ob jedes der Pixel durch die projizierende Vorrichtung angestrahlt wird oder nicht, und ein Erhalten von Kombinationen daraus. Zusätzlich zum Vorgenannten kann es sich bei dem Prozess des Identifizierens eines Projektionsmusters alternativ um ein Verfahren zum Analysieren der Gestaltung eines lokalen Projektionsmusters, das ein Zielpixel umgibt, handeln. Wenn das lokale Projektionsmuster derart gestaltet ist, dass es über das gesamte Muster hinweg einmalig ist, kann die Position des Teils, der auf die Umgebung des Zielpixels in dem gesamten Projektionsmuster emittiert wird, welches durch die projizierende Vorrichtung projiziert wird, identifiziert werden. Ein jedes der Verfahren zur Musteridentifizierung zielt darauf ab, einmalig einen Vektor von der projizierenden Vorrichtung zu einem Zielpixel zu erhalten.The computing unit for spatial measurements 103 performs the spatial measurement process in response to an input of a virtual captured image. The one by the computing unit for spatial measurements 103 The spatial measurement process performed may be the same as the spatial measurement process performed by the spatial measurement apparatus by using an image captured in a real environment. The process of spatial measurement includes a process of identifying a projection pattern that is emitted onto a measurement object and a distance measurement process. The process of identifying a projection pattern includes obtaining luminance-related information about pixels in the same position from a plurality of captured images, determining whether or not each of the pixels is illuminated by the projecting device, and obtaining combinations thereof. In addition to the foregoing, the process of identifying a projection pattern may alternatively be a method of analyzing the layout of a local projection pattern surrounding a target pixel. If the local projection pattern is designed to be unique throughout the pattern, the position of the part emitted to the vicinity of the target pixel in the entire projection pattern projected by the projecting device can be identified. Each of the methods for pattern identification aims to obtain a vector once from the projecting device to a target pixel.

Wenn der Vektor von der projizierenden Vorrichtung zu einem Zielpixel mithilfe des Prozesses des Identifizierens eines Projektionsmusters erhalten wird, nimmt die Recheneinheit für räumliche Messungen 103 den Abstandsmessprozess gemäß dem Triangulationsprinzip auf der Grundlage von Sensorinformationen vor, die Anordnungsbedingungen wie bspw. die Positionen und Stellungen der projizierenden Vorrichtung und der abbildenden Vorrichtung angeben, welche in den Messbedingungsinformationen enthalten sind. Die Einzelheiten des Abstandsmessprozesses unterscheiden sich je nach Projektionsmuster. Da das durch die Simulationsvorrichtung 10 verwendete Projektionsmuster ein jedes Projektionsmuster sein kann, wird der Abstandsmessprozess je nach verwendetem Projektionsmuster ausgewählt.When the vector is obtained from the projecting device to a target pixel through the process of identifying a projection pattern, the spatial measurement arithmetic unit takes 103 the distance measuring process according to the triangulation principle on the basis of sensor information indicating arrangement conditions such as the positions and postures of the projecting device and the imaging device contained in the measuring condition information. The details of the distance measurement process differ depending on the projection pattern. Since that through the simulation device 10 The projection pattern used can be any projection pattern, the distance measuring process is selected depending on the projection pattern used.

4 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm 20 darstellt, der durch die in 1 dargestellte Simulationsvorrichtung 10 ausgegeben wird. Der Anzeigebildschirm 20 weist eine Verarbeitungsergebnisanzeigeregion 21, eine Messbedingungsanzeigeregion 22, eine Messbedingungslistenanzeigeregion 23, eine Auswahlregion für angezeigte Inhalte 24, eine Ausführen-Schaltfläche 25, eine Speichern-Schaltfläche 26 und eine Beenden-Schaltfläche 27 auf. Ein Simulationsergebnis wird in der Verarbeitungsergebnisanzeigeregion 21 angezeigt. Einzelne Messbedingungen werden in der Messbedingungsanzeigeregion 22 angezeigt, und eine Änderung bzgl. der angezeigten Messbedingungen kann darin eingegeben werden. Eine Liste gespeicherter Messbedingungen wird in der Messbedingungslistenanzeigeregion 23 angezeigt. Wenn eine Messbedingung aus der Messbedingungsliste ausgewählt wird, die in der Listenanzeigeregion 23 angezeigt wird, so wird die ausgewählte Messbedingung in der Messbedingungsanzeigeregion 22 angezeigt. Ein Bedienungsabschnitt zum Auswählen von Inhalten, die in der Verarbeitungsergebnisanzeigeregion 21 angezeigt werden sollen, wird in der Auswahlregion für angezeigte Inhalte 24 angezeigt, in der ein durch die Generationseinheit für virtuelle Aufnahmebilder 102 reproduziertes Aufnahmebild und Messdaten als Optionen hierin angezeigt werden. 4th is a diagram showing an example of a display screen 20th represented by the in 1 illustrated simulation device 10 is issued. The display screen 20th has a processing result display region 21 , a measurement condition display region 22nd , a measurement condition list display region 23 , a selection region for displayed content 24 , a run button 25th , a save button 26th and a stop button 27 on. A simulation result is displayed in the processing result display region 21 displayed. Individual measurement conditions are displayed in the measurement condition display region 22nd is displayed, and a change in the displayed measurement conditions can be entered therein. A list of stored measurement conditions is displayed in the measurement condition list display region 23 displayed. When a measurement condition is selected from the measurement condition list displayed in the list display region 23 is displayed, the selected measurement condition is displayed in the measurement condition display region 22nd displayed. An operation section for selecting contents displayed in the processing result display region 21 should be displayed is in the selection region for displayed content 24 displayed in the one by the generation unit for virtual captured images 102 reproduced recorded image and measurement data are displayed as options herein.

Die Ausführen-Schaltfläche 25 ist ein Bedienungsabschnitt zum Vornehmen eines Simulationsprozesses durch Verwendung der in der Messbedingungsanzeigeregion 22 angezeigten Messbedingung. Die Speichern-Schaltfläche 26 ist ein Bedienungsabschnitt zum Speichern der in der Messbedingungsanzeigeregion 22 angezeigten Messbedingung. Die Beenden-Schaltfläche 27 ist ein Bedienungsabschnitt zum Abschließen des Prozesses des Simulierens räumlicher Messungen.The run button 25th is an operation section for performing a simulation process by using that in the measurement condition display region 22nd displayed measurement condition. The save button 26th is an operation section for storing the information in the measurement condition display region 22nd displayed measurement condition. The exit button 27 is an operation section for completing the process of simulating spatial measurements.

Wenn die Ausführen-Schaltfläche 25 betätigt wird, erhält die Messbedingungserhaltungseinheit 101 die in der Messbedingungsanzeigeregion 22 angezeigte Messbedingung und gibt die erhaltene Messbedingung in die Generationseinheit für virtuelle Aufnahmebilder 102 ein. Wenn die Generationseinheit für virtuelle Aufnahmebilder 102 ein virtuelles Aufnahmebild generiert und das generierte virtuelle Aufnahmebild in die Recheneinheit für räumliche Messungen 103 eingibt und die Recheneinheit für räumliche Messungen 103 den Prozess des räumlichen Messens vornimmt und das Messergebnis in die Ausgabeeinheit 104 eingibt, gibt die Ausgabeeinheit 104 ein virtuelles Aufnahmebild, ein Verarbeitungsergebnis, etwa einen Messwert, das im Laufe eines Simulationsprozesses erhalten wird, Eingabedaten wie die Messbedingungsinformationen für den Simulationsprozess und dergleichen in die Verarbeitungsergebnisanzeigeregion 21 ein.When the run button 25th is operated, the measurement condition maintenance unit receives 101 those in the measurement condition display region 22nd displayed measurement condition and enters the received measurement condition into the generation unit for virtual recording images 102 a. When the generation unit for virtual recording images 102 a virtual recording image is generated and the generated virtual recording image is transferred to the computing unit for spatial measurements 103 and the computing unit for spatial measurements 103 carries out the process of spatial measurement and transfers the measurement result to the output unit 104 gives the output unit 104 a captured virtual image, a processing result such as a measurement value obtained in the course of a simulation process, input data such as the measurement condition information for the simulation process, and the like to the processing result display region 21 a.

Um die Ausgabe für den Benutzer leicht einsehbar zu machen, kann die Ausgabeeinheit 104 Prozesse wie bspw. das Hervorheben eines Zielpunkts, Einstellen des Kontrasts und Entfernen von Rauschen vornehmen. Bei dem in 4 dargestellten Anzeigebildschirm 20 handelt es sich um ein Beispiel, und der Anzeigebildschirm ist nicht auf das Beispiel von 4 begrenzt. Die Verwendung des in 4 dargestellten Anzeigebildschirms 20 versetzt den Benutzer in die Lage, das Simulationsergebnis zu überprüfen, während die Messbedingungen sukzessive eingestellt werden.In order to make the output easily visible to the user, the output unit 104 Perform processes such as highlighting a target point, adjusting contrast, and removing noise. The in 4th display screen shown 20th it is an example and the display screen is not based on the example of 4th limited. Using the in 4th displayed display screen 20th enables the user to check the simulation result while the measurement conditions are successively set.

Wie vorbeschrieben, werden gemäß der ersten Ausführungsform der vorliegenden Erfindung ein virtuelles Aufnahmebild, das ein durch die tatsächliche abbildende Vorrichtung ausgegebenes Aufnahmebild reproduziert, generiert und der Prozess des räumlichen Messens auf der Grundlage des virtuellen Aufnahmebilds vorgenommen. Diese Konfiguration ermöglicht es, ein Messergebnis einer räumlichen Messung zu erhalten, ohne die Vorrichtung für räumliche Messungen tatsächlich bereitzustellen. Des Weiteren ist die Simulationsvorrichtung 10 in der Lage, Fehler hinsichtlich der Position von Licht zu reproduzieren, die in einem durch die tatsächliche Vorrichtung für räumliche Messungen erhaltenen Aufnahmebild enthalten sind. Die Fehler werden durch Bildverzeichnung aufgrund von Verzeichnung, Zufallsrauschen, einer Bildunschärfe, Interreflexion und dergleichen hervorgerufen. Während sich die Fehler schwierig zu einem Bild hinzufügen lassen, nachdem das Bild in einem Fall, in dem die Vorrichtung für räumliche Messungen tatsächlich bereitgestellt ist, tatsächlich aufgenommen wurde, kann die Reproduktion der Fehler in einem virtuellen Aufnahmebild die Genauigkeit des Simulationsergebnisses der räumlichen Messung verbessern. Wenn das Projektionsmuster und die Fehler in einem virtuellen Aufnahmebild mit hoher Reproduzierbarkeit reproduziert werden können, kann außerdem ein normaler Prozess für den Prozess des räumlichen Messens verwendet werden.As described above, according to the first embodiment of the present invention, a captured virtual image reproducing a captured image output by the actual imaging device is generated, and the spatial measurement process is performed based on the captured virtual image. This configuration makes it possible to obtain a measurement result of spatial measurement without actually providing the spatial measurement device. Furthermore, the simulation device 10 able to reproduce errors in the position of light contained in a captured image obtained by the actual spatial measurement device. The errors are caused by image distortion due to distortion, random noise, image blurring, interreflection and the like. While the errors are difficult to add to an image after the image is actually captured in a case where the spatial measurement apparatus is actually provided, reproducing the errors in a virtual captured image can improve the accuracy of the simulation result of the spatial measurement . In addition, if the projection pattern and defects can be reproduced in a captured virtual image with high reproducibility, a normal process can be used for the process of spatial measurement.

Zweite AusführungsformSecond embodiment

5 ist ein Schema, das eine funktionelle Konfiguration einer Generationseinheit für virtuelle Aufnahmebilder 102 gemäß einer zweiten Ausführungsform der vorliegenden Erfindung darstellt. Die Generationseinheit für virtuelle Aufnahmebilder 102 beinhaltet eine Generationseinheit für optisch reproduzierte Bilder 301 und eine Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302. Wenngleich sie nicht dargestellt ist, wird eine Vorrichtung, welche die in 5 dargestellte Generationseinheit für virtuelle Aufnahmebilder 102 beinhaltet und eine Konfiguration aufweist, die jener der in 1 dargestellten Simulationsvorrichtung 10 ähnelt, als Simulationsvorrichtung 12 gemäß der zweiten Ausführungsform bezeichnet. Da die Simulationsvorrichtung 12 eine Konfigurationaufweist, die mit Ausnahme der Generationseinheit für virtuelle Aufnahmebilder 102 jener der in 1 dargestellten ersten Ausführungsform ähnlich ist, wird eine detaillierte Beschreibung davon an dieser Stelle nicht wiederholt. Im Folgenden werden Komponenten, die jenen in der ersten Ausführungsform ähnlich sind, unter Verwendung der in 1 beschriebenen Bezugszeichen beschrieben und hauptsächlich Unterschiede zur ersten Ausführungsform beschrieben. 5 is a diagram showing a functional configuration of a generation unit for virtual captured images 102 according to a second embodiment of the present invention. The generation unit for virtual recording images 102 contains a generation unit for optically reproduced images 301 and an image quality deterioration processing unit 302 . Although not shown, a device which incorporates the in 5 Generation unit shown for virtual recording images 102 and has a configuration similar to that of the in 1 illustrated simulation device 10 resembles, as a simulation device 12th referred to according to the second embodiment. As the simulation device 12th has a configuration other than the generation unit for virtual captured images 102 that of the in 1 is similar to the first embodiment illustrated, a detailed description thereof is not repeated here. In the following, components similar to those in the first embodiment will be described using the method shown in FIG 1 and mainly differences from the first embodiment are described.

Die Generationseinheit für optisch reproduzierte Bilder 301 nimmt eine optische Simulation auf der Grundlage der Messbedingungsinformationen vor und generiert ein optisch reproduziertes Bild, welches ein Aufnahmebild reproduziert. Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 nimmt einen Bildqualitätsbeeinträchtigungsprozess in Abhängigkeit von Fehlerfaktoren an dem optisch reproduzierten Bild vor. Die Generationseinheit für virtuelle Aufnahmebilder 102 stellt das dem Beeinträchtigungsprozess unterzogene Bild als virtuelles Aufnahmebild bereit.The generation unit for optically reproduced images 301 performs an optical simulation based on the measurement condition information and generates an optically reproduced image that reproduces a captured image. The image quality deterioration processing unit 302 performs an image quality deterioration process depending on error factors on the optically reproduced image. The generation unit for virtual recording images 102 provides the image subjected to the impairment process as a virtual recorded image.

6 ist ein Flussdiagramm, das den Betrieb der Simulationsvorrichtung 12 darstellt, das die in 5 dargestellte Generationseinheit für virtuelle Aufnahmebilder 102 beinhaltet. Die Messbedingungserhaltungseinheit 101 erhält Messbedingungsinformationen (Schritt S201). Die Messbedingungserhaltungseinheit 101 gibt die erhaltenen Messbedingungsinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein. 6th Fig. 13 is a flow chart showing the operation of the simulation device 12th represents the in 5 Generation unit shown for virtual recording images 102 contains. The measurement condition maintenance unit 101 obtains measurement condition information (step S201). The measurement condition maintenance unit 101 inputs the measurement condition information obtained into the generation unit for virtual recording images 102 a.

Die Generationseinheit für optisch reproduzierte Bilder 301 der Generationseinheit für virtuelle Aufnahmebilder 102 generiert ein optisch reproduziertes Bild auf der Grundlage der Messbedingungsinformationen (Schritt S202). Die Generationseinheit für optisch reproduzierte Bilder 301 gibt das generierte optisch reproduzierte Bild in die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 ein.The generation unit for optically reproduced images 301 the generation unit for virtual recording images 102 generates an optically reproduced image based on the measurement condition information (step S202). The generation unit for optically reproduced images 301 inputs the generated optically reproduced image into the image quality deterioration processing unit 302 a.

Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 nimmt den Bildqualitätsbeeinträchtigungsprozess an dem optisch reproduzierten Bild vor (Schritt S203). Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 gibt ein dem Bildqualitätsbeeinträchtigungsprozess unterzogenes Bild als virtuelles Aufnahmebild in die Recheneinheit für räumliche Messungen 103 ein.The image quality deterioration processing unit 302 performs the image quality deterioration process on the optically reproduced image (step S203). The image quality deterioration processing unit 302 sends an image subjected to the image quality impairment process as a virtual recording image to the computing unit for spatial measurements 103 a.

Die Recheneinheit für räumliche Messungen 103 nimmt den Prozess der räumlichen Messung durch Verwendung des virtuellen Aufnahmebilds vor, um ein Messergebnis zu erhalten (Schritt S204). Die Recheneinheit für räumliche Messungen 103 gibt das Messergebnis in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt ein Simulationsergebnis aus, welches das Messergebnis beinhaltet (Schritt S205).The computing unit for spatial measurements 103 performs the spatial measurement process by using the captured virtual image to obtain a measurement result (step S204). The computing unit for spatial measurements 103 sends the measurement result to the output unit 104 a. The output unit 104 outputs a simulation result including the measurement result (step S205).

Die Generationseinheit für optisch reproduzierte Bilder 301 berechnet eine Abbildungsposition in einem Abbildungsraum, die jedem Pixel in einem Bild entspricht, und bestimmt, ob die berechnete Abbildungsposition mit projiziertem Licht angestrahlt wird oder nicht, das heißt, ob projiziertes Licht von der projizierenden Vorrichtung die Abbildungsposition erreicht oder nicht. Die Generationseinheit für optisch reproduzierte Bilder 301 berechnet zunächst einen Vektor Vcam, der jedes Pixel von der optischen Mitte Ocam der abbildenden Vorrichtung passiert, auf der Grundlage von Sensorinformationen und von Informationen, welche die Anordnung und Charakteristika in dem Abbildungsraum vorhandener Objekte angeben. Die Generationseinheit für optisch reproduzierte Bilder 301 erfasst einen Punkt Pobj auf einer Oberfläche eines Objekts, der den Vektor Vcam als Erstes schneidet. Diese Berechnung ermöglicht es, ein Objekt, das an jedem Pixel abgebildet wird, zu erhalten.The generation unit for optically reproduced images 301 calculates an imaging position in an imaging space that corresponds to each pixel in an image, and determines whether the calculated imaging position is illuminated with projected light becomes or not, that is, whether or not projected light from the projecting device reaches the imaging position. The generation unit for optically reproduced images 301 first computes a vector V cam passing through each pixel from the optical center O cam of the imaging device based on sensor information and information indicating the arrangement and characteristics of objects present in the imaging space. The generation unit for optically reproduced images 301 detects a point P obj on a surface of an object that first intersects the vector Vcam. This calculation makes it possible to obtain an object that is imaged at each pixel.

Daraufhin bestimmt die Generationseinheit für optisch reproduzierte Bilder 301, ob der Punkt Pobj auf der Oberfläche des Objekts durch die projizierende Vorrichtung angestrahlt wird oder nicht. Die Generationseinheit für optisch reproduzierte Bilder 301 berechnet zunächst einen Vektor Vproj, der von der optischen Mitte Oproj der projizierenden Vorrichtung zu dem Punkt Pobj geleitet wird. Die Generationseinheit für optisch reproduzierte Bilder 301 bestimmt, ob der Vektor Vproj in einem Bereich beinhaltet ist, der durch die projizierende Vorrichtung mit einem Projektionsmuster angestrahlt wird, mithilfe der Sensorinformationen und von Musterinformationen, welche das Projektionsmuster der projizierenden Vorrichtung angeben. Wenn der Vektor Vproj in dem Bereich beinhaltet ist, kann bestimmt werden, dass der Punkt Pobj auf der Oberfläche des Objekts durch die projizierende Vorrichtung angestrahlt wird.The generation unit then determines for optically reproduced images 301 whether or not the point P obj on the surface of the object is irradiated by the projecting device. The generation unit for optically reproduced images 301 first computes a vector V proj which is guided from the optical center O proj of the projecting device to the point P obj . The generation unit for optically reproduced images 301 determines whether the vector V proj is included in an area irradiated with a projection pattern by the projecting device using the sensor information and pattern information indicative of the projection pattern of the projecting device. When the vector V proj is included in the area, it can be determined that the point P obj on the surface of the object is irradiated by the projecting device.

Zusätzlich zu dem vorstehenden Berechnungsergebnis kann die Generationseinheit für optisch reproduzierte Bilder 301 die Farbe jedes Pixels mithilfe der Reflexionscharakteristika und der Informationen bestimmen, die den Zustand des Umgebungslichts angeben, welche in den Messbedingungsinformationen enthalten sind. Typische Reflexionsmodelle, die zum Bestimmen der Farbe verwendet werden, sind die Lambertsche Reflexion im Falle der diffusen Reflexion und das Reflexionsmodell nach Phong für die gerichtete Reflexion. Das von der Generationseinheit für optisch reproduzierte Bilder 301 verwendete Reflexionsmodell ist allerdings nicht auf diese Modelle begrenzt, und es kann ein jedes Reflexionsmodell verwendet werden.In addition to the above calculation result, the optically reproduced image generation unit can 301 determine the color of each pixel using the reflection characteristics and the information indicating the state of the ambient light contained in the measurement condition information. Typical reflection models used to determine the color are Lambertian reflection in the case of diffuse reflection and the Phong reflection model for directional reflection. That of the generation unit for optically reproduced images 301 However, the reflection model used is not limited to these models, and any reflection model can be used.

Es sei darauf hingewiesen, dass beim Generieren eines optisch reproduzierten Bilds, da ein Bild eine Reihe einzelner Pixel ist, eine Grenze eines Objekts oder eine Grenze eines Projektionsmusters der projizierenden Vorrichtung in einen Bereich einbezogen werden kann, der an einem Pixel abgebildet wird. In diesem Falle wäre eine Farbe von einer Mischung der Farben von zwei oder mehr Objekten, die die Grenze bilden, natürlicher als die Farbe des Pixels. Mit dem oben genannten Vektor Vcam kann allerdings nur eine Schnittstelle in dem Abbildungsraum erfasst werden. Aus diesem Grund wird nur die Farbe des Objekts, die eine Schnittstelle mit dem Vektor Vcam bildet, unter den die Grenze bildenden Objekten als die Farbe des Pixels bestimmt. Infolgedessen kann es sein, dass ein Bild, in dem Grenzen von Objekten und ein Projektionsmuster unnatürlich erscheinen, generiert wird. Dabei handelt es sich um eine Art Phänomen, das durch sogenannte Quantisierungsfehler hervorgerufen wird, ein Problem, das auf dem Gebiet der Bildverarbeitung häufig auftritt.It should be noted that, in generating an optically reproduced image, since an image is a series of individual pixels, a boundary of an object or a boundary of a projection pattern of the projecting device may be included in an area imaged on a pixel. In this case, a color from a mixture of the colors of two or more objects forming the border would be more natural than the color of the pixel. With the above-mentioned vector Vcam, however, only one interface can be recorded in the imaging space. For this reason, only the color of the object intersecting with the vector V cam among the objects forming the boundary is determined as the color of the pixel. As a result, an image in which boundaries of objects and a projection pattern appear unnatural may be generated. This is a kind of phenomenon caused by so-called quantization errors, a problem that is common in the field of image processing.

Zur Lösung des Problems von Phänomenen, die durch Quantisierungsfehler hervorgerufen werden, existiert ein Verfahren des Generierens eines virtuellen Aufnahmebilds durch Generieren eines optisch reproduzierten Bilds mit einer Auflösung, die höher als jene des virtuellen Aufnahmebilds ist, und Anwenden eines Prozesses des Verkleinerns des Bilds auf eine Bildgröße mithilfe des Bildqualitätsbeeinträchtigungsprozesses. Beispielsweise generiert die Generationseinheit für optisch reproduzierte Bilder 301 ein optisch reproduziertes Bild mit einer Auflösung, die einem Vierfachen der Auflösung eines letztlich auszugebenden virtuellen Aufnahmebilds entspricht. In diesem Falle kann die Farbe jedes Pixels in dem virtuellen Aufnahmebild anhand von Farbinformationen für vier Pixel bestimmt werden, die sich am nächsten an dem Pixel in dem optisch reproduzierten Bild befinden. Im Ergebnis kann ein virtuelles Aufnahmebild mit natürlicher Erscheinung im Bereich der Grenzen von Objekten und einem Projektionsmuster generiert werden.In order to solve the problem of phenomena caused by quantization errors, there is a method of generating a virtual captured image by generating an optically reproduced image with a resolution higher than that of the virtual captured image and applying a process of reducing the image to a Image size using the image quality degradation process. For example, the generation unit generates for optically reproduced images 301 an optically reproduced image with a resolution that corresponds to four times the resolution of a virtual recorded image that is ultimately to be output. In this case, the color of each pixel in the virtual captured image can be determined from color information for four pixels that are closest to the pixel in the optically reproduced image. As a result, a virtual recording image with a natural appearance in the area of the boundaries of objects and a projection pattern can be generated.

Die Generationseinheit für optisch reproduzierte Bilder 301 generiert ein optisch reproduziertes Bild anhand von Informationen über Interreflexion und Defokussierung der projizierenden Vorrichtung, wobei es sich um durch die projizierende Vorrichtung hervorgerufene Fehlerfaktoren, als Beispiel von Fehlerfaktoren, handelt. Da diese sich auf den Projizierungszustand eines Projektionsmusters auswirken, wenn eine Defokussierung auftritt, als Beispiel, bewirkt die Generationseinheit für optisch reproduzierte Bilder 301, dass Schattengrenzen von Licht, einschließlich Mustergrenzen in dem optisch reproduzierten Bild, unscharf werden. Die Generationseinheit für optisch reproduzierte Bilder 301 kann Interreflexion reproduzieren, indem sie bewirkt, dass die Leuchtdichte eines Pixels, das einen Auftreffpunkt aufweist, an dem von einer ersten Fläche reflektiertes Licht auf einer zweiten Fläche auftrifft, höher als die Leuchtdichte in dem Fall ist, in dem der Einfluss der Interreflexion nicht berücksichtigt wird. Des Weiteren kann die Generationseinheit für optisch reproduzierte Bilder 301 eine Unschärfe einer Schattengrenze des Lichts durch Anpassen der Leuchtdichte eines Pixels, die der Schattengrenze des Lichts entspricht, reproduzieren. Für ein konkretes Verfahren zum Reproduzieren von Interreflexion und ein konkretes Verfahren zum Reproduzieren einer Unschärfe einer Schattengrenze des Lichts, die durch Defokussierung der projizierenden Vorrichtung hervorgerufen werden, können beispielsweise Verfahren verwendet werden, die in der dritten Ausführungsform beschrieben werden.The generation unit for optically reproduced images 301 generates an optically reproduced image based on information about interreflection and defocusing of the projecting device, which are error factors caused by the projecting device, as an example of error factors. Since these affect the projected state of a projection pattern when defocus occurs, for example, the generation unit effects optically reproduced images 301 that shadow boundaries of light, including pattern boundaries in the optically reproduced image, become blurred. The generation unit for optically reproduced images 301 can reproduce interreflection by causing the luminance of a pixel having a point of incidence where light reflected from a first surface is incident on a second surface to be higher than the luminance in the case where the influence of interreflection is not taken into account will. Furthermore, the generation unit for optically reproduced images 301 reproduce a blurring of a shadow boundary of the light by adjusting the luminance of a pixel corresponding to the shadow boundary of the light. For a specific method of reproducing interreflection and a specific method for reproducing blurring of a shadow boundary of light caused by defocusing the projecting device, for example, methods described in the third embodiment can be used.

Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 beeinträchtigt die Bildqualität eines optisch reproduzierten Bilds anhand von Informationen zu Bildverzeichnung, Zufallsrauschen und Defokussierung der abbildenden Vorrichtung, wobei es sich um Fehlerfaktoren handelt, die durch die abbildende Vorrichtung hervorgerufen werden, als Beispiel. Beispielsweise kann die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 die Bildqualität eines optisch reproduzierten Bilds beeinträchtigen, indem sie einen Filterprozess durch Glätten von Änderungen der Leuchtdichte in dem Bild vornimmt, um zu bewirken, dass die Außenkonturen eines Objekts, die Schattengrenzen des Lichts und dergleichen unscharf werden, oder indem sie die Leuchtdichte von Pixeln an zufällig ausgewählten Positionen ändert.The image quality deterioration processing unit 302 affects the image quality of an optically reproduced image based on information on image distortion, random noise and defocusing of the imaging device, which are error factors caused by the imaging device, for example. For example, the image quality deterioration processing unit may 302 affect the image quality of an optically reproduced image by performing a filtering process by smoothing changes in luminance in the image to cause the outlines of an object, the shadow boundaries of light and the like to be blurred, or by increasing the luminance of pixels randomly selected positions changes.

Mit der Simulationsvorrichtung 12 gemäß der zweiten Ausführungsform der vorliegenden Erfindung kann ein optisch reproduziertes Bild, das ein Bild ist, in dem optische Effekte, darunter Schatten, die durch Objekte, die das Licht blockieren, reproduziert werden, mittels optischer Simulation erhalten werden. Außerdem wird der Bildqualitätsbeeinträchtigungsprozess an dem optisch reproduzierten Bild vorgenommen, der eine Reproduktion eines tatsächlich aufgenommenen Bild mit hoher Genauigkeit ermöglicht.With the simulation device 12th According to the second embodiment of the present invention, an optically reproduced image, which is an image in which optical effects including shadows reproduced by objects blocking light, can be obtained through optical simulation. In addition, the image quality deterioration process is performed on the optically reproduced image, which enables an actually captured image to be reproduced with high accuracy.

Des Weiteren sind der Prozess des Reproduzierens optischer Phänomene und der Prozess des Reproduzierens einer Beeinträchtigung der Bildqualität explizit voneinander getrennt, was die Analyse jeweiliger Fehlerfaktoren in räumlichen Messungen unabhängig voneinander erleichtert. In einem Fall, in dem eine tatsächliche Vorrichtung für räumliche Messungen verwendet wird, um die Messfehler räumlicher Messungen zu verifizieren, ist es schwierig, die Anteile des Einflusses der jeweiligen Fehlerfaktoren auseinanderzuhalten. Mit der Verwendung der Simulationsvorrichtung 12 ist es allerdings möglich, zwischen Messfehlern, die durch die projizierende Vorrichtung hervorgerufen werden, und Messfehlern, welche durch die abbildende Vorrichtung hervorgerufen werden, zu unterscheiden, um die Messfehler zu verifizieren. Somit können die Gestaltung der Vorrichtung für räumliche Messungen und die Leistungen von Vorrichtungen wie der projizierenden Vorrichtung und abbildenden Vorrichtung korrekt betrachtet werden. Zum Vornehmen einer Verifizierung unter Verwendung einer tatsächlichen Vorrichtung für räumliche Messungen in einer realen Umgebung müssen außerdem Vorrichtungen und Messobjekte, die mit verschiedenen Messbedingungen verbunden sind, bereitgestellt werden, was einen hohen Kosten- und Zeitaufwand erforderlich macht. Mit der Simulationsvorrichtung 12 kann die Erwägung durch Simulation erfolgen, was vorteilhafte Effekte hervorbringt, die darin bestehen, dass eine Bewertung einer Vorrichtung für räumliche Messungen mit mehr Messbedingungen ermöglicht und die Produktsicherung gefördert wird.Furthermore, the process of reproducing optical phenomena and the process of reproducing an impairment of the image quality are explicitly separated from one another, which facilitates the analysis of respective error factors in spatial measurements independently of one another. In a case where an actual spatial measurement apparatus is used to verify the measurement errors of spatial measurements, it is difficult to distinguish the proportions of the influence of the respective error factors. With the use of the simulation device 12th However, it is possible to differentiate between measurement errors that are caused by the projecting device and measurement errors that are caused by the imaging device in order to verify the measurement errors. Thus, the configuration of the spatial measurement device and the performances of devices such as the projecting device and imaging device can be properly viewed. In addition, in order to perform verification using an actual spatial measurement device in a real environment, devices and measurement objects associated with various measurement conditions must be provided, which requires a lot of cost and time. With the simulation device 12th For example, the consideration can be carried out by simulation, which brings about advantageous effects, which are that an evaluation of a device for spatial measurements with more measurement conditions is enabled and product assurance is promoted.

Dritte Ausführungsform.Third embodiment.

7 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung 13 gemäß einer dritten Ausführungsform der vorliegenden Erfindung darstellt. Die Simulationsvorrichtung 13 beinhaltet die Messbedingungserhaltungseinheit 101, die Generationseinheit für virtuelle Aufnahmebilder 102, die Recheneinheit für räumliche Messungen 103, die Ausgabeeinheit 104 und eine Fehlerinformationserhaltungseinheit 105. Nachfolgend werden hauptsächlich Unterschiede zur Simulationsvorrichtung 12 beschrieben. 7th Fig. 16 is a diagram showing a functional configuration of a simulation device 13th according to a third embodiment of the present invention. The simulation device 13th includes the measurement condition maintenance unit 101 , the generation unit for virtual recording images 102 , the computing unit for spatial measurements 103 , the output unit 104 and a failure information obtaining unit 105 . The following are mainly differences from the simulation device 12th described.

Die Simulationsvorrichtung 13 beinhaltet die Fehlerinformationserhaltungseinheit 105 zusätzlich zur Auslegung der Simulationsvorrichtung 12. Die Fehlerinformationserhaltungseinheit 105 erhält, von außen, Fehlerinformationen, die Fehlerfaktoren angeben, welche sich in einem virtuellen Aufnahmebild manifestieren. Zu den Fehlerinformationen zählen zumindest eines von der Intensität und der Hinzufügungsreihenfolge von Fehlern, die von der Art der Fehlerfaktoren abhängig sind. Die Fehlerinformationserhaltungseinheit 105 gibt die erhaltenen Fehlerinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein.The simulation device 13th includes the failure information preservation unit 105 in addition to the design of the simulation device 12th . The error information preservation unit 105 receives, from the outside, error information indicating error factors which are manifested in a virtual recorded image. The error information includes at least one of the intensity and adding order of errors, which depend on the kinds of the error factors. The error information preservation unit 105 passes the received error information into the generation unit for virtual recorded images 102 a.

8 stellt eine funktionelle Konfiguration der Generationseinheit für virtuelle Aufnahmebilder 102 dar, die in 7 dargestellt ist. In der Simulationsvorrichtung 13 beinhaltet die Generationseinheit für virtuelle Aufnahmebilder 102 die Generationseinheit für optisch reproduzierte Bilder 301 und die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 sowie eine Fehlerfaktorbestimmungseinheit 303. 8th represents a functional configuration of the generation unit for virtual recording images 102 represent that in 7th is shown. In the simulation device 13th contains the generation unit for virtual recording images 102 the generation unit for optically reproduced images 301 and the image quality deterioration processing unit 302 and an error factor determination unit 303 .

Die Fehlerfaktorbestimmungseinheit 303 bestimmt eine Verarbeitungsbedingung eines Fehlerfaktorhinzufügungsprozesses, wozu zumindest eines von der Intensität und der Hinzufügungsreihenfolge in dem Fehlerfaktorhinzufügungsprozess auf der Grundlage der Fehlerinformationen zählen. Der Fehlerfaktorhinzufügungsprozess beinhaltet ein Generieren eines optisch reproduzierten Bilds und ein Vornehmen des Bildqualitätsbeeinträchtigungsprozesses an dem optisch reproduzierten Bild. Die Fehlerfaktorbestimmungseinheit 303 gibt die bestimmte Verarbeitungsbedingung in die Generationseinheit für optisch reproduzierte Bilder 301 ein.The error factor determination unit 303 determines a processing condition of an error factor adding process including at least one of the intensity and the addition order in the error factor adding process based on the error information. The error factor adding process includes generating an optically reproduced image and performing the image quality deterioration process on the optically reproduced image. The error factor determination unit 303 gives the certain processing condition to the generation unit for optically reproduced images 301 a.

Die Generationseinheit für optisch reproduzierte Bilder 301 generiert ein optisch reproduziertes Bild auf der Grundlage der Messbedingungsinformationen, der Fehlerinformationen und der Verarbeitungsbedingung, die von der Fehlerfaktorbestimmungseinheit 303 eingegeben wurde. Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 nimmt den Bildqualitätsbeeinträchtigungsprozess an dem optisch reproduzierten Bild auf der Grundlage der Messbedingungsinformationen und der Fehlerinformationen vor.The generation unit for optically reproduced images 301 generates an optically reproduced image based on the measurement condition information, the error information, and the processing condition obtained from the error factor determination unit 303 was entered. The image quality deterioration processing unit 302 performs the image quality deterioration process on the optically reproduced image based on the measurement condition information and the error information.

9 ist ein Flussdiagramm, das den Betrieb der in 7 dargestellten Simulationsvorrichtung 13 darstellt. Die Messbedingungserhaltungseinheit 101 erhält die Messbedingungsinformationen (Schritt S301). Die Messbedingungserhaltungseinheit 101 gibt die erhaltenen Messbedingungsinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein. 9 FIG. 13 is a flow chart illustrating the operation of the FIG 7th illustrated simulation device 13th represents. The measurement condition maintenance unit 101 obtains the measurement condition information (step S301). The measurement condition maintenance unit 101 inputs the measurement condition information obtained into the generation unit for virtual recording images 102 a.

Die Fehlerinformationserhaltungseinheit 105 erhält die Fehlerinformationen (Schritt S302). Die Fehlerinformationserhaltungseinheit 105 gibt die erhaltenen Fehlerinformationen in die Generationseinheit für virtuelle Aufnahmebilder 102 ein. Es sei darauf hingewiesen, dass der Prozess in Schritt S301 und der Prozess in Schritt S302 parallel zueinander vorgenommen werden können.The error information preservation unit 105 obtains the error information (step S302). The error information preservation unit 105 passes the received error information into the generation unit for virtual recorded images 102 a. It should be noted that the process in step S301 and the process in step S302 can be performed in parallel with each other.

Die Fehlerfaktorbestimmungseinheit 303 der Generationseinheit für virtuelle Aufnahmebilder 102 bestimmt die Verarbeitungsbedingung des Fehlerfaktorhinzufügungsprozesses, wozu zumindest eines von der Intensität und der Hinzufügungsreihenfolge von Fehlerfaktoren zählen (Schritt S303). Die Fehlerfaktorbestimmungseinheit 303 gibt die bestimmte Verarbeitungsbedingung in die Generationseinheit für optisch reproduzierte Bilder 301 ein.The error factor determination unit 303 the generation unit for virtual recording images 102 determines the processing condition of the error factor adding process including at least one of the intensity and adding order of error factors (step S303). The error factor determination unit 303 gives the certain processing condition to the generation unit for optically reproduced images 301 a.

Die Generationseinheit für optisch reproduzierte Bilder 301 generiert ein optisch reproduziertes Bild mittels optischer Simulation auf der Grundlage der Verarbeitungsbedingung und der Messbedingungsinformationen (Schritt S304). Die Generationseinheit für optisch reproduzierte Bilder 301 gibt das generierte optisch reproduzierte Bild in die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 ein.The generation unit for optically reproduced images 301 generates an optically reproduced image through optical simulation based on the processing condition and the measurement condition information (step S304). The generation unit for optically reproduced images 301 inputs the generated optically reproduced image into the image quality deterioration processing unit 302 a.

Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 nimmt den Bildqualitätsbeeinträchtigungsprozess an dem optisch reproduzierten Bild auf der Grundlage der Messbedingungsinformationen und der Fehlerinformationen vor (Schritt S305). Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 gibt ein dem Bildqualitätsbeeinträchtigungsprozess unterzogenes Bild als virtuelles Aufnahmebild in die Recheneinheit für räumliche Messungen 103 ein.The image quality deterioration processing unit 302 performs the image quality deterioration process on the optically reproduced image based on the measurement condition information and the error information (step S305). The image quality deterioration processing unit 302 sends an image subjected to the image quality impairment process as a virtual recording image to the computing unit for spatial measurements 103 a.

Die Recheneinheit für räumliche Messungen 103 nimmt den Prozess der räumlichen Messung durch Verwendung des virtuellen Aufnahmebilds vor, um ein Messergebnis zu erhalten (Schritt S306). Die Recheneinheit für räumliche Messungen 103 gibt das Messergebnis in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt ein Simulationsergebnis aus, welches das Messergebnis beinhaltet (Schritt S307).The computing unit for spatial measurements 103 performs the spatial measurement process by using the captured virtual image to obtain a measurement result (step S306). The computing unit for spatial measurements 103 sends the measurement result to the output unit 104 a. The output unit 104 outputs a simulation result including the measurement result (step S307).

10 ist ein Flussdiagramm, das Einzelheiten des in 9 dargestellten Schritts S304 darstellt. Die Generationseinheit für optisch reproduzierte Bilder 301 generiert zunächst ein optisch reproduziertes Bild, das keine Fehlerfaktoren beinhaltet (Schritt S401). Wie vorbeschrieben, unterscheidet die Generationseinheit für optisch reproduzierte Bilder 301 zwischen projizierten Regionen, was Regionen sind, die direkt mit projiziertem Licht angestrahlt werden, und nicht projizierten Regionen, also Regionen, welche nicht mit projiziertem Licht angestrahlt werden, und stellt die projizierten Regionen in Farben bereit, die heller als die Farben der nicht projizierten Regionen sind. 10 Fig. 3 is a flow chart showing details of the in 9 illustrated step S304. The generation unit for optically reproduced images 301 first generates an optically reproduced image that does not contain any error factors (step S401). As described above, the generation unit distinguishes between optically reproduced images 301 between projected regions, which are regions that are directly illuminated with projected light, and unprojected regions, i.e. regions that are not illuminated with projected light, and provides the projected regions in colors that are brighter than the colors of the unprojected regions are.

Anschließend erhält die Generationseinheit für optisch reproduzierte Bilder 301 die Hinzufügungsreihenfolge von Fehlerfaktoren aus den Fehlerinformationen (Schritt S402). Die Generationseinheit für optisch reproduzierte Bilder 301 erhält die Arten der Fehlerfaktoren und die von den Arten abhängigen Intensitäten aus den Fehlerinformationen (Schritt S403). Daraufhin bestimmt die Generationseinheit für optisch reproduzierte Bilder 301, ob dem optisch reproduzierten Bild ein Fehler hinzuzufügen ist oder nicht, gemäß der in Schritt S402 erhaltenen Hinzufügungsreihenfolge. Die Generationseinheit für optisch reproduzierte Bilder 301 bestimmt zunächst, ob dem optisch reproduzierten Bild Interreflexion hinzuzufügen ist oder nicht, auf der Grundlage der Fehlerinformationen (Schritt S404).Subsequently, the generation unit receives for optically reproduced images 301 the adding order of error factors from the error information (step S402). The generation unit for optically reproduced images 301 obtains the kinds of the error factors and the intensities depending on the kinds from the error information (step S403). The generation unit then determines for optically reproduced images 301 whether or not to add an error to the optically reproduced image according to the adding order obtained in step S402. The generation unit for optically reproduced images 301 first determines whether or not to add interreflection to the optically reproduced image based on the error information (step S404).

Wenn eine Interreflexion hinzuzufügen ist (Schritt S404: Ja), fügt die Generationseinheit für optisch reproduzierte Bilder 301 dem optisch reproduzierten Bild die Interreflexion hinzu (Schritt S405). Genauer gesagt, wenn eine Interreflexion auftritt, trifft von einer ersten Fläche eines Objekts reflektiertes Licht auf eine zweite Fläche auf. In diesem Fall legt die Generationseinheit für optisch reproduzierte Bilder 301 die Leuchtdichte eines Pixels, das den Auftreffpunkt aufweist, an dem das reflektierte Licht auf der zweiten Fläche auftrifft, als durch die Interreflexion erhöhte Leuchtdichte fest. Die Generationseinheit für optisch reproduzierte Bilder 301 bestimmt den Betrag der Erhöhung der Leuchtdichte auf der Grundlage von Positionen und Stellungen des Objekts mit der ersten Fläche und des Objekts mit der zweiten Fläche sowie der Oberflächencharakteristika der ersten Fläche und der zweiten Fläche. Die Leuchtdichte jedes Pixels in dem optisch reproduzierten Bild wird eine zweite Leuchtdichte, die durch Addition des Betrags der Leuchtdichtenerhöhung wegen Interreflexion auf eine erste Leuchtdichte des Pixels, bei dem der Effekt der Interreflexion nicht betrachtet wird, erhalten wird.When interreflection is to be added (step S404: Yes), the optically reproduced image generation unit adds 301 the interreflection is added to the optically reproduced image (step S405). More specifically, when interreflection occurs, light reflected from a first surface of an object is incident on a second surface. In this case, the generation unit sets for optically reproduced images 301 the luminance of a pixel which has the point of impact at which the reflected light strikes the second surface as the luminance increased by the interreflection. The generation unit for optically reproduced images 301 determines the amount of increase in luminance based on positions and postures of the object having the first face and the object having the second face and the surface characteristics of the first face and the second face. The luminance each Pixels in the optically reproduced image become a second luminance obtained by adding the amount of luminance increase due to interreflection to a first luminance of the pixel at which the effect of interreflection is not considered.

Es sei darauf hingewiesen, dass die Generationseinheit für optisch reproduzierte Bilder 301 im Prozess von Schritt S405 die Leuchtdichtenerhöhung wegen Interreflexion nicht unbedingt für jede Lichtreflexion berechnen muss. Da beispielsweise der Betrag der Leuchtdichtenerhöhung geringer als die Auflösung des Bilds an einer Oberfläche mit einer geringen gerichteten Lichtreflexion sein kann, kann angenommen werden, dass die Leuchtdichte an einer Oberfläche mit einer gerichteten Reflexion auf oder unter einem Schwellenwert nicht durch Interreflexion erhöht wird.It should be noted that the generation unit for optically reproduced images 301 in the process of step S405, the luminance increase due to interreflection does not necessarily have to be calculated for each light reflection. For example, since the amount of luminance increase may be less than the resolution of the image on a surface with a low specular light reflection, it can be assumed that the luminance on a surface with a specular reflection at or below a threshold value is not increased by interreflection.

Bei Abschluss des Prozesses des Hinzufügens von Interreflexion bei Schritt S405 bestimmt die Generationseinheit für optisch reproduzierte Bilder 301, ob der Fehlerhinzufügungsprozess abgeschlossen ist oder nicht (Schritt S406). Wenn der Fehlerhinzufügungsprozess abgeschlossen ist (Schritt S406: Ja), schließt die Generationseinheit für optisch reproduzierte Bilder 301 den Fehlerhinzufügungsprozess ab und gibt das optisch reproduzierte Bild in die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 ein. Ist der Fehlerhinzufügungsprozess nicht abgeschlossen (Schritt S406: Nein), so kehrt die Generationseinheit für optisch reproduzierte Bilder 301 zu dem Prozess bei Schritt S403 zurück.Upon completion of the process of adding interreflection in step S405, the optically reproduced image generation unit determines 301 whether or not the error adding process is completed (step S406). When the error adding process is completed (step S406: Yes), the optically reproduced image generation unit closes 301 executes the error adding process and outputs the optically reproduced image to the image quality deterioration processing unit 302 a. If the error adding process is not completed (step S406: No), the optically reproduced image generation unit returns 301 back to the process in step S403.

Wenn keine Interreflexion hinzuzufügen ist (Schritt S404: Nein), bestimmt die Generationseinheit für optisch reproduzierte Bilder 301, ob eine Lichtunschärfe der projizierenden Vorrichtung hinzuzufügen ist oder nicht (Schritt S407) .If no interreflection is to be added (step S404: No), the optically reproduced image generation unit determines 301 whether or not to add a light blur to the projecting device (step S407).

Wenn eine Lichtunschärfe von der projizierenden Vorrichtung hinzuzufügen ist (Schritt S407: Ja), fügt die Generationseinheit für optisch reproduzierte Bilder 301 dem optisch reproduzierten Bild eine Lichtunschärfe der projizierenden Vorrichtung hinzu (Schritt S408). Eine Unschärfe an einer Schattengrenze des Lichts kann durch die Leuchtdichte von Pixeln ausgedrückt werden. Konkret unterscheidet die Generationseinheit für optisch reproduzierte Bilder 301 zwischen einer ersten Region, die eine Region ist, in der Licht in dem optisch reproduzierten Bild projiziert wird, wenn angenommen wird, dass keine Defokussierung vorliegt, und einer zweiten Region, welche eine Region ist, in der Licht nicht projiziert wird, wenn angenommen wird, dass auch keine Defokussierung der projizierenden Vorrichtung vorliegt, was auf der Grundlage der Messbedingungsinformationen erfolgt. Die Generationseinheit für optisch reproduzierte Bilder 301 identifiziert Pixel innerhalb eines vorgegebenen Abstands von der Grenze zwischen der ersten Region und der zweiten Region auf der Grundlage des Ergebnisses der Unterscheidung. Die höchste Leuchtdichte unter diesen Pixeln ist die Leuchtdichte in der Region, in der Licht projiziert wird, und die geringste Leuchtdichte ist die Leuchtdichte in der Region, in welcher Licht nicht projiziert wird. Die Leuchtdichte von Pixeln in der Umgebung einer Grenze kann auf der Grundlage des Abstands zwischen einem Zielpixel und der Grenze bestimmt werden. Die Leuchtdichte von Pixeln kann als der maximalen Leuchtdichte näher bestimmt werden, weil sich ein Zielpixel in größerer Nähe zur ersten Region befindet, und als der minimalen Leuchtdichte näher bestimmt werden, weil sich ein Zielpixel in größerer Nähe zur zweiten Region befindet. Im Ergebnis des derartigen Änderns der Leuchtdichte auf der Grundlage des kürzesten Abstands zwischen einem Zielpixel und der ersten Region kann der Defokussierungszustand der projizierenden Vorrichtung reproduziert werden.When a light blur from the projecting device is to be added (step S407: Yes), the optically reproduced image generation unit adds 301 light blur of the projecting device is added to the optically reproduced image (step S408). A blurring at a shadow boundary of the light can be expressed by the luminance of pixels. Specifically, the generation unit distinguishes between optically reproduced images 301 between a first region, which is a region in which light is projected in the optically reproduced image when it is assumed that there is no defocus, and a second region, which is a region in which light is not projected, when it is assumed that there is also no defocusing of the projecting device, which is done on the basis of the measurement condition information. The generation unit for optically reproduced images 301 identifies pixels within a predetermined distance from the boundary between the first region and the second region based on the result of the discrimination. The highest luminance among these pixels is the luminance in the region where light is projected, and the lowest luminance is the luminance in the region where light is not projected. The luminance of pixels in the vicinity of a boundary can be determined based on the distance between a target pixel and the boundary. The luminance of pixels can be determined closer to the maximum luminance because a target pixel is in closer proximity to the first region and can be determined closer to the minimum luminance because a target pixel is in closer proximity to the second region. As a result of thus changing the luminance based on the shortest distance between a target pixel and the first region, the defocused state of the projecting device can be reproduced.

Bei Abschluss des Prozesses bei Schritt S408 geht die Generationseinheit für optisch reproduzierte Bilder 301 zu Schritt S406 über. Wenn keine Lichtunschärfe der projizierenden Vorrichtung hinzuzufügen ist (Schritt S407: Nein), bestimmt die Generationseinheit für optisch reproduzierte Bilder 301, ob dem optisch reproduzierten Bild Umgebungslicht hinzuzufügen ist oder nicht (Schritt S409) .Upon completion of the process in step S408, the optically reproduced image generation unit goes 301 to step S406. When there is no light blur to be added to the projecting device (step S407: No), the optically reproduced image generation unit determines 301 whether or not to add ambient light to the optically reproduced image (step S409).

Wenn Umgebungslicht hinzuzufügen ist (Schritt S409: Ja), fügt die Generationseinheit für optisch reproduzierte Bilder 301 dem optisch reproduzierten Bild Umgebungslicht hinzu (Schritt S410). Das Umgebungslicht wird durch wenigstens eines von der Leuchtdichte und der Farbe von Pixeln ausgedrückt. Bei Abschluss des Prozesses bei Schritt S410 geht die Generationseinheit für optisch reproduzierte Bilder 301 zu Schritt S406 über. Wenn kein Umgebungslicht hinzuzufügen ist (Schritt S409: Nein), schließt die Generationseinheit für optisch reproduzierte Bilder 301 den Fehlerhinzufügungsprozess ab.When ambient light is to be added (step S409: Yes), the optically reproduced image generation unit adds 301 ambient light is added to the optically reproduced image (step S410). The ambient light is expressed by at least one of luminance and color of pixels. Upon completion of the process in step S410, the optically reproduced image generation unit goes 301 to step S406. If there is no ambient light to be added (step S409: No), the optically reproduced image generation unit closes 301 the bug adding process.

11 ist ein Flussdiagramm, das Einzelheiten des in 9 dargestellten Schritts S305 darstellt. Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 erhält zunächst die Hinzufügungsreihenfolge von Fehlerfaktoren auf der Grundlage der Fehlerinformationen (Schritt S501). Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 erhält weiterhin die Arten von Fehlerfaktoren und die Intensitäten von Fehlern auf der Grundlage der Fehlerinformationen (Schritt S502). Daraufhin bestimmt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302, ob ein Fehler hinzuzufügen ist oder nicht, gemäß der in Schritt S501 erhaltenen Hinzufügungsreihenfolge. 11 Fig. 3 is a flow chart showing details of the in 9 illustrated step S305. The image quality deterioration processing unit 302 first obtains the adding order of error factors based on the error information (step S501). The image quality deterioration processing unit 302 further obtains the types of error factors and the intensities of errors based on the error information (step S502). The image quality deterioration processing unit then determines 302 whether or not to add an error according to the adding order obtained in step S501.

Die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 bestimmt zunächst, ob eine Bildverzeichnung hinzuzufügen ist oder nicht (Schritt S503). Wenn bestimmt wird, dass eine Bildverzeichnung hinzuzufügen ist (Schritt S503: Ja), fügt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 dem optisch reproduzierten Bild eine Bildverzeichnung hinzu (Schritt S504). Nach dem Hinzufügen der Bildverzeichnung bestimmt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302, ob der Bildqualitätsbeeinträchtigungsprozess abzuschließen ist oder nicht (Schritt S505). Wenn bestimmt wird, dass der Bildqualitätsbeeinträchtigungsprozess abzuschließen ist (Schritt S505: Ja), schließt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 den Prozess ab. Wenn bestimmt wird, dass der Bildqualitätsbeeinträchtigungsprozess nicht abzuschließen ist (Schritt S505: Nein), kehrt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 zu dem Prozess in Schritt S502 zurück.The image quality deterioration processing unit 302 first determines whether a Image distortion is to be added or not (step S503). When it is determined that image distortion is to be added (step S503: Yes), the image quality deterioration processing unit adds 302 image distortion is added to the optically reproduced image (step S504). After adding the image distortion, the image quality deterioration processing unit determines 302 whether or not to complete the image quality deterioration process (step S505). When it is determined that the image quality deterioration process is to be completed (step S505: Yes), the image quality deterioration processing unit closes 302 the process. When it is determined that the image quality deterioration process is not to be completed (step S505: No), the image quality deterioration processing unit returns 302 back to the process in step S502.

Falls bestimmt wird, dass die Bildverzeichnung nicht hinzuzufügen ist (Schritt S503: Nein), bestimmt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 daraufhin, ob Zufallsrauschen hinzuzufügen ist oder nicht (Schritt S506). Wenn bestimmt wird, dass Zufallsrauschen hinzuzufügen ist (Schritt S506: Ja), fügt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 dem optisch reproduzierten Bild Zufallsrauschen hinzu (Schritt S507). Bei Abschluss des Prozesses bei Schritt S507 geht die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 zu dem Prozess in Schritt S505 über.If it is determined that the image distortion is not to be added (step S503: No), the image quality deterioration processing unit determines 302 then whether or not to add random noise (step S506). When it is determined that random noise is to be added (step S506: Yes), the image quality deterioration processing unit adds 302 adds random noise to the optically reproduced image (step S507). Upon completion of the process in step S507, the image quality deterioration processing unit goes 302 to the process in step S505.

Wenn bestimmt wird, dass kein Zufallsrauschen hinzuzufügen ist (Schritt S506: Nein), bestimmt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302, ob Bildunschärfe hinzuzufügen ist oder nicht (Schritt S508). Wenn bestimmt wird, dass keine Bildunschärfe hinzuzufügen ist (Schritt S508: Nein), schließt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 den Prozess ab. Wird bestimmt, dass Bildunschärfe hinzuzufügen ist (Schritt S508: Ja), fügt die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 dem optisch reproduzierten Bild Bildunschärfe hinzu (Schritt S509). Bei Abschluss des Prozesses bei Schritt S509 geht die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 zu dem Prozess in Schritt S505 über.When it is determined that no random noise is to be added (step S506: No), the image quality deterioration processing unit determines 302 whether or not to add image blur (step S508). When it is determined that no image blur is to be added (step S508: No), the image quality deterioration processing unit closes 302 the process. If it is determined that image blur is to be added (step S508: Yes), the image quality deterioration processing unit adds 302 add image blur to the optically reproduced image (step S509). Upon completion of the process in step S509, the image quality deterioration processing unit goes 302 to the process in step S505.

Es sei darauf hingewiesen, dass die Bildqualitätsbeeinträchtigungsverarbeitungseinheit 302 dem optisch reproduzierten Bild nur eine Art Fehlerfaktor hinzufügen kann oder dem optisch reproduzierten Bild den gleichen Fehlerfaktor mehrmals hinzufügen kann. Wenn zum Beispiel das Hinzufügen von Zufallsrauschen und das Hinzufügen von Bildunschärfe mehrmals abwechselnd vorgenommen werden, kann ein Effekt wie eine Farbunregelmäßigkeit im Erscheinungsbild eines entsprechenden Objekts erzeugt werden. Wie vorbeschrieben, können verschiedene Bildqualitätseffekte durch Kombinationen aus der Hinzufügungsreihenfolge und Intensitäten von Fehlerfaktoren reproduziert werden.It should be noted that the image quality deterioration processing unit 302 can add only one kind of error factor to the optically reproduced image, or can add the same error factor to the optically reproduced image several times. For example, if the addition of random noise and the addition of image blur are alternately made several times, an effect such as color irregularity can be produced in the appearance of a corresponding object. As described above, various picture quality effects can be reproduced by combinations of the order of addition and intensities of error factors.

12 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm 30 darstellt, der durch die in 7 dargestellte Simulationsvorrichtung 13 ausgegeben wird. Der Anzeigebildschirm 30 weist die Verarbeitungsergebnisanzeigeregion 21, die Messbedingungsanzeigeregion 22, die Messbedingungslistenanzeigeregion 23, die Auswahlregion für ausgewählte Inhalte 24, die Ausführen-Schaltfläche 25, die Speichern-Schaltfläche 26, die Beenden-Schaltfläche 27 und eine Fehlerfaktorfestlegungsregion 28 auf. 12th is a diagram showing an example of a display screen 30th represented by the in 7th illustrated simulation device 13th is issued. The display screen 30th assigns the processing result display region 21 , the measurement condition display region 22nd , the measurement condition list display region 23 , the selection region for selected content 24 who have favourited the Run button 25th who have favourited Save button 26th who have favourited the quit button 27 and an error factor setting region 28 on.

Der Anzeigebildschirm 30 weist die Fehlerfaktorfestlegungsregion 28 zusätzlich zu den Komponenten des in der ersten Ausführungsform beschriebenen Anzeigebildschirms 20 auf. Nachfolgend wird die Beschreibung von Teilen, die jenen auf dem Anzeigebildschirm 20 ähnlich sind, nicht wiederholt; beschrieben werden hauptsächlich Unterschiede zum Anzeigebildschirm 20.The display screen 30th indicates the error factor setting region 28 in addition to the components of the display screen described in the first embodiment 20th on. The following is the description of parts similar to those on the display screen 20th are similar, not repeated; It mainly describes differences from the display screen 20th .

Die Fehlerfaktorfestlegungsregion 28 ist eine Region zum Festlegen von Intensitäten von Fehlern und der Hinzufügungsreihenfolge von Fehlern je nach Art der Fehlerfaktoren. Ein Benutzer kann die Intensitäten und die Hinzufügungsreihenfolge von Fehlern in die Fehlerfaktorfestlegungsregion 28 eingeben. Wenn die Ausführen-Schaltfläche 25 betätigt wird, kann die Fehlerinformationserhaltungseinheit 105 die Fehlerinformationen erhalten, die in der Fehlerfaktorfestlegungsregion 28 angezeigt werden.The error factor setting region 28 is a region for setting intensities of defects and the adding order of defects according to the kinds of the defect factors. A user can see the intensities and the adding order of errors in the error factor setting region 28 input. When the run button 25th is operated, the error information obtaining unit 105 the error information obtained in the error factor setting region 28 are displayed.

Wie vorbeschrieben, ist es in der Simulationsvorrichtung 13 gemäß der dritten Ausführungsform der vorliegenden Erfindung mit der Fehlerinformationserhaltungseinheit 105 möglich, eine Simulation vorzunehmen, welche die durch den Benutzer festgelegten Fehlerinformationen reflektiert. Diese Auslegung versetzt den Benutzer in die Lage, unter gewünschten Betriebsbedingungen vorgenommene räumliche Messungen auszuwerten. Weil die Arten von Fehlerfaktoren, die Hinzufügungsreihenfolge, in der einem optisch reproduzierten Bild Fehler hinzugefügt werden, und die Intensitäten der Fehler ausgewählt werden können, wird des Weiteren ein vorteilhafter Effekt hervorgebracht, der darin besteht, Variationen an reproduzierbarer Bildqualität zu erhöhen. Da Tests mit zufällig geänderten Betriebsbedingungen und Nutzungsumgebungen ebenfalls ausgeführt werden können, können auch Tests mit Kombinationen aus Bedingungen durchgeführt werden, welche nicht im Vorfeld durch den Gestalter erwartet worden waren, was die Tests umfassend macht und daher dazu führt, dass ein Effekt einer Zunahme der Zuverlässigkeit der Vorrichtung für räumliche Messungen erwartet werden kann.As described above, it is in the simulation device 13th according to the third embodiment of the present invention with the failure information obtaining unit 105 possible to run a simulation that reflects the error information specified by the user. This design enables the user to evaluate spatial measurements made under desired operating conditions. Furthermore, since the kinds of error factors, the addition order in which errors are added to an optically reproduced image, and the intensities of the errors can be selected, an advantageous effect of increasing variations in reproducible image quality is brought about. Since tests with randomly changed operating conditions and usage environments can also be carried out, tests with combinations of conditions that were not expected in advance by the designer can also be carried out, which makes the tests comprehensive and therefore leads to an effect of increasing the Reliability of the device for spatial measurements can be expected.

Vierte Ausführungsform. 13 ist ein Schema, das eine funktionelle Konfiguration einer Generationseinheit für optisch reproduzierte Bilder 301 gemäß einer vierten Ausführungsform der vorliegenden Erfindung darstellt. Die Generationseinheit für optisch reproduzierte Bilder 301 beinhaltet eine Generationseinheit für Sensorstandpunktdaten 401, eine Kartengenerationseinheit 402 und eine Bildkombinationseinheit 403.Fourth embodiment. 13th is a diagram showing a functional configuration of a generation unit for optically reproduced images 301 according to a fourth embodiment of the present invention. The generation unit for optically reproduced images 301 contains a generation unit for sensor position data 401 , a map generation unit 402 and an image combining unit 403 .

Es sei darauf hingewiesen, dass eine Vorrichtung, die nicht dargestellt ist und die in 13 dargestellte Generationseinheit für optisch reproduzierte Bilder 301 beinhaltet und eine Konfiguration aufweist, die jener der in 7 dargestellten Simulationsvorrichtung 13 ähnelt, als Simulationsvorrichtung 14 gemäß der vierten Ausführungsform bezeichnet wird. Die Simulationsvorrichtung 14 weist eine Auslegung auf, die jener der in 7 dargestellten Simulationsvorrichtung 13 ähnelt, sich aber im Hinblick auf die Konfiguration der Generationseinheit für optisch reproduzierte Bilder 301 der Generationseinheit für virtuelle Aufnahmebilder 102 von der Simulationsvorrichtung 13 unterscheidet. Nachfolgend wird die Beschreibung von Komponenten, die jenen der Simulationsvorrichtung 13 ähnlich sind, nicht wiederholt; beschrieben werden hauptsächlich Unterschiede zur Simulationsvorrichtung 13.It should be noted that a device, which is not shown and which is shown in FIG 13th Generation unit shown for optically reproduced images 301 and has a configuration similar to that of the in 7th illustrated simulation device 13th resembles, as a simulation device 14th is designated according to the fourth embodiment. The simulation device 14th has an interpretation that is similar to that of in 7th illustrated simulation device 13th is similar, but with respect to the configuration of the generation unit for optically reproduced images 301 the generation unit for virtual recording images 102 from the simulation device 13th differs. The following is the description of components similar to those of the simulation device 13th are similar, not repeated; The main differences to the simulation device are described 13th .

Die Generationseinheit für Sensorstandpunktdaten 401 generiert Sensorstandpunktdaten, die ein erstes Bild eines Abbildungsraums vom Standpunkt der abbildenden Vorrichtung und Abstandsdaten von jeder von der abbildenden Vorrichtung und der projizierenden Vorrichtung zu Objekten in dem Abbildungsraum enthalten. Die Generationseinheit für Sensorstandpunktdaten 401 gibt die generierten Sensorstandpunktdaten in die Kartengenerationseinheit 402 ein.The generation unit for sensor position data 401 generates sensor point of view data including a first image of an imaging space from the point of view of the imaging device and distance data from each of the imaging device and the projecting device to objects in the imaging space. The generation unit for sensor position data 401 sends the generated sensor position data to the map generation unit 402 a.

14 ist ein Schema, das eine detaillierte funktionelle Konfiguration der in 13 dargestellten Generationseinheit für Sensorstandpunktdaten 401 darstellt. Das erste durch die Generationseinheit für Sensorstandpunktdaten 401 generierte Bild beinhaltet ein helles Bild, in dem der gesamte Abbildungsraum mit einer solchen Helligkeit dargestellt wird wie in dem Fall, dass der Abbildungsraum mit projiziertem Licht angestrahlt wird, und ein dunkles Bild, in dem der Abbildungsraum nicht mit projiziertem Licht angestrahlt wird. Die Generationseinheit für Sensorstandpunktdaten 401 beinhaltet eine Generationseinheit für helle Bilder 501, die ein helles Bild generiert, und eine Generationseinheit für dunkle Bilder 502, welche ein dunkles Bild generiert, und eine Generationseinheit für Abstandsdaten 503, die Abstandsdaten generiert. 14th is a schematic showing a detailed functional configuration of the in 13th shown generation unit for sensor position data 401 represents. The first by the generation unit for sensor position data 401 The generated image includes a light image in which the entire image space is displayed with such a brightness as in the case that the image space is irradiated with projected light, and a dark image in which the image space is not irradiated with projected light. The generation unit for sensor position data 401 contains a generation unit for bright images 501 that generates a bright image and a generation unit for dark images 502 , which generates a dark image, and a generation unit for distance data 503 that generates distance data.

Die Generationseinheit für Sensorstandpunktdaten 401 gibt Sensorstandpunktdaten aus, die ein erstes Bild, beinhaltend ein durch die Generationseinheit für helle Bilder 501 generiertes helles Bild und ein durch die Generationseinheit für dunkle Bilder 502 generiertes dunkles Bild, und durch die Generationseinheit für Abstandsdaten 503 generierte Abstandsdaten beinhalten.The generation unit for sensor position data 401 outputs sensor standpoint data including a first image included by the bright image generation unit 501 bright image generated and one generated by the generation unit for dark images 502 generated dark image, and by the generation unit for distance data 503 include generated distance data.

Die Beschreibung nimmt erneut auf 13 Bezug. Die Ausgabe der Sensorstandpunktdaten durch die Generationseinheit für Sensorstandpunktdaten 401 wird in die Kartengenerationseinheit 402 eingegeben. Die Kartengenerationseinheit 402 generiert eine Anstrahlungskarte, bei der es sich um eine Karte handelt, die eine erste Region, die mit Licht von der projizierenden Vorrichtung angestrahlt wird, und eine zweite Region, welche nicht mit Licht von der projizierenden Vorrichtung angestrahlt wird, zeigt, anhand von verschiedenen Zahlenwerten voneinander, auf der Grundlage der Messbedingungsinformationen. Auf der Anstrahlungskarte können zum Beispiel die erste Region durch „1“ und die zweite Region durch „0“ repräsentiert werden. Die Kartengenerationseinheit 402 gibt die generierte Anstrahlungskarte in die Bildkombinationseinheit 403 ein.The description resumes 13th Relation. The output of the sensor standpoint data by the sensor standpoint data generation unit 401 becomes in the card generation unit 402 entered. The card generation unit 402 generates an irradiation map that is a map showing a first region that is irradiated with light from the projecting device and a second region that is not irradiated with light from the projecting device, based on various numerical values from each other based on the measurement condition information. For example, the first region can be represented by “1” and the second region by “0” on the exposure map. The card generation unit 402 puts the generated exposure map into the image combination unit 403 a.

15 ist ein Schema, das eine detaillierte funktionelle Konfiguration der in 13 dargestellten Kartengenerationseinheit 402 darstellt. Die Kartengenerationseinheit 402 beinhaltet eine Anstrahlungsregionenberechnungseinheit 601, eine Anstrahlungskartengenerationseinheit 602, eine Lichtunschärfereproduktionseinheit 603, eine Reflexionsregionenberechnungseinheit 604 und eine Reflexionskartengenerationseinheit 605. 15th is a schematic showing a detailed functional configuration of the in 13th map generation unit shown 402 represents. The card generation unit 402 includes an exposure region calculation unit 601 , an exposure map generation unit 602 , a light blur reproduction unit 603 , a reflection region calculation unit 604 and a reflection map generation unit 605 .

Die Anstrahlungsregionenberechnungseinheit 601 berechnet eine Region, die mit Licht von der projizierenden Vorrichtung angestrahlt werden kann, auf der Grundlage der Messbedingungsinformationen. Die Anstrahlungsregionenberechnungseinheit 601 gibt Informationen, welche die berechnete Region angeben, in die Anstrahlungskartengenerationseinheit 602 ein.The exposure region calculation unit 601 calculates a region that can be irradiated with light from the projecting device based on the measurement condition information. The exposure region calculation unit 601 inputs information indicating the calculated region into the exposure map generation unit 602 a.

Die Anstrahlungskartengenerationseinheit 602 generiert eine Anstrahlungskarte, bei der es sich um eine Karte handelt, die eine erste Region, die mit Licht von der projizierenden Vorrichtung angestrahlt wird, und eine zweite Region, welche nicht mit Licht von der projizierenden Vorrichtung angestrahlt wird, zeigt, durch die Verwendung unterschiedlicher Zahlenwerte, durch Verwendung der Informationen von der Anstrahlungsregionenberechnungseinheit 601 und der Messbedingungsinformationen. Die Anstrahlungskartengenerationseinheit 602 gibt die generierte Anstrahlungskarte in die Lichtunschärfereproduktionseinheit 603 ein.The exposure map generation unit 602 generates an exposure map that is a map showing a first region that is illuminated with light from the projecting device and a second region that is not illuminated with light from the projecting device by using different ones Numerical values by using the information from the exposure region calculating unit 601 and the measurement condition information. The exposure map generation unit 602 sends the generated exposure map to the light blur reproduction unit 603 a.

Die Reflexionsregionenberechnungseinheit 604 stellt eine Verknüpfung zwischen Koordinaten auf dem ersten Bild und der räumlichen Position eines mit einem reflektierten Lichtstrahl angestrahlten Punkts, wobei es sich um von der projizierenden Vorrichtung ausgesendetes Licht handelt, das einmal durch ein Objekt in dem Abbildungsraum reflektiert wird und dessen Intensität und Richtung so geändert wird, her, was durch Verwendung der Messbedingungsinformationen und der Sensorstandpunktdaten erfolgt, um eine Reflexionsregion zu berechnen, die eine Region ist, welche mit dem reflektierten Lichtstrahl in dem ersten Bild angestrahlt wird. Die Reflexionsregionenberechnungseinheit 604 gibt Informationen, welche die berechnete Reflexionsregion angeben, in die Reflexionskartengenerationseinheit 605 ein. Die Reflexionskartengenerationseinheit 605 generiert eine Reflexionskarte, bei der es sich um eine Karte handelt, die eine Reflexionsregion und eine Region zeigt, die nicht mit reflektiertem Licht angestrahlt wird, durch Verwendung verschiedener Zahlenwerte voneinander, für jedes Projektionsmuster der projizierenden Vorrichtung anhand der Informationen, welche die Reflexionsregion und die Messbedingungsinformationen angeben. Beispielsweise können auf der Reflexionskarte die Reflexionsregion durch „1“ und die Region, die nicht mit reflektiertem Licht angestrahlt wird, durch „0“ repräsentiert werden. Die Reflexionskartengenerationseinheit 605 gibt die generierte Reflexionskarte in die Lichtunschärfereproduktionseinheit 603 ein.The reflection region calculation unit 604 provides a link between coordinates on the first image and the spatial position of a point irradiated with a reflected light beam, which is light emitted by the projecting device, which is reflected once by an object in the imaging space and whose intensity and direction are thus changed is done by using the measurement condition information and the sensor point of view data to calculate a reflection region that is a region irradiated with the reflected light beam in the first image. The reflection region calculation unit 604 inputs information indicating the calculated reflection region into the reflection map generation unit 605 a. The reflection map generation unit 605 generates a reflection map which is a map showing a reflection region and a region which is not irradiated with reflected light by using different numerical values from each other for each projection pattern of the projecting device based on the information which the reflection region and the Specify measurement condition information. For example, on the reflection map, the reflection region can be represented by “1” and the region that is not illuminated with reflected light by “0”. The reflection map generation unit 605 puts the generated reflection map into the light blur reproduction unit 603 a.

Die Lichtunschärfereproduktionseinheit 603 reproduziert einen Effekt der Unschärfe von Licht auf einer Anstrahlungskarte. Konkret stellt die Lichtunschärfereproduktionseinheit 603 einen Wert der Anstrahlungskarte auf eine reelle Zahl von 0 bis 1 je nach Unschärfegrad von Schattengrenzen des Lichts ein. Die Lichtunschärfereproduktionseinheit 603 reproduziert zudem einen Effekt der Unschärfe von Licht auf einer Reflexionskarte in ähnlicher Weise zur Anstrahlungskarte. Konkret stellt die Lichtunschärfereproduktionseinheit 603 einen Wert der Anstrahlungskarte auf eine reelle Zahl von 0 bis 1 je nach Unschärfegrad von Schattengrenzen des Lichts ein. Die Lichtunschärfereproduktionseinheit 603 gibt die Anstrahlungskarte und die Reflexionskarte, die der Einstellung der Werte unterzogen wurden, aus.The light blur reproduction unit 603 reproduces an effect of blurring light on an exposure map. Specifically, the light blur reproduction unit represents 603 a value of the exposure map to a real number from 0 to 1 depending on the degree of uncertainty of the shadow boundaries of the light. The light blur reproduction unit 603 also reproduces an effect of blurring light on a reflection map in a manner similar to the exposure map. Specifically, the light blur reproduction unit represents 603 a value of the exposure map to a real number from 0 to 1 depending on the degree of uncertainty of the shadow boundaries of the light. The light blur reproduction unit 603 outputs the exposure map and the reflection map subjected to the setting of the values.

Die Bildkombinationseinheit 403 kombiniert das helle Bild und das dunkle Bild, die in dem ersten Bild enthalten sind, auf der Grundlage der Informationen auf der Anstrahlungskarte und der Reflexionskarte, um ein optisch reproduziertes Bild zu generieren. Konkret kombiniert die Bildkombinationseinheit 403 das helle Bild und das dunkle Bild durch Anpassen der Leuchtdichte jedes Pixels in dem optisch reproduzierten Bild auf die Leuchtdichte, die von dem Pixel an der gleichen Position in dem hellen Bild oder dem dunklen Bild erhalten wurde, auf der Grundlage der Werte in der Anstrahlungskarte. Des Weiteren kann die Bildkombinationseinheit 403 in einem Fall, in dem die Werte in der Anstrahlungskarte und der Reflexionskarte durch die Lichtunschärfereproduktionseinheit 603 angepasst werden, die Leuchtdichte jedes Pixels auf der Grundlage der angepassten Werte gewichten.The image combining unit 403 combines the light image and the dark image contained in the first image based on the information on the exposure map and the reflection map to generate an optically reproduced image. Concretely, the image combining unit combines 403 the light image and the dark image by adjusting the luminance of each pixel in the optically reproduced image to the luminance obtained from the pixel at the same position in the light image or the dark image based on the values in the exposure map. Furthermore, the image combination unit 403 in a case where the values in the exposure map and the reflection map are determined by the light blur reproduction unit 603 adjusted, weight the luminance of each pixel based on the adjusted values.

Die Anzahl der virtuellen Aufnahmebilder entspricht der Anzahl der Projektionsmuster. Somit besteht ein Problem darin, dass mit steigender Anzahl der Projektionsmuster die Verarbeitungszeit zum Generieren virtueller Aufnahmebilder länger wird. Somit ist eine Implementierung effektiv, bei der Prozesse, die zur Anstrahlung mit verschiedenen Projektionsmustern bei der Generierung von virtuellen Aufnahmebildern gebräuchlich sind, nur einmal vorgenommen werden müssen. Zu Beispielen für die Prozesse, die gebräuchlich sind, zählen die Generierung eines hellen Bilds und eines dunklen Bilds eines Abbildungsraums vom Standpunkt der abbildenden Vorrichtung und die Berechnung von Abstandsdaten von der abbildenden Vorrichtung und der projizierenden Vorrichtung zu Objekten, die in dem Abbildungsraum vorhanden sind.The number of virtual recorded images corresponds to the number of projection patterns. Thus, there is a problem that as the number of projection patterns increases, the processing time for generating virtual captured images becomes longer. An implementation is thus effective in which processes which are used for illuminating with different projection patterns in the generation of virtual recorded images only have to be carried out once. Examples of the processes in use include generating a light image and a dark image of an imaging space from the point of view of the imaging device, and calculating distance data from the imaging device and the projecting device to objects present in the imaging space.

Die Berechnungsergebnisse einer Region, die mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird, unterscheiden sich bei verschiedenen Projektionsmustern. Die Berechnung von Regionen, die sich hinter Objekten befinden und damit im Schatten liegen, weil das projizierte Licht blockiert wird, ist dagegen unabhängig von den Projektionsmustern konstant und kann somit als gemeinsamer Prozess extrahiert werden.The calculation results of a region irradiated with projected light from the projecting device differ in different projection patterns. The calculation of regions that are located behind objects and are therefore in the shade because the projected light is blocked, on the other hand, is constant regardless of the projection patterns and can thus be extracted as a common process.

In einem Fall, in dem die projizierende Vorrichtung defokussiert ist, ist ein Muster, das auf eine Szene projiziert wird, unscharf, was die Genauigkeit der Mustererkennung mindern kann, wodurch es sein kann, dass die Genauigkeit räumlicher Messungen gemindert wird. Die Unschärfe von Musterlicht tritt beim Abbilden durch die abbildende Vorrichtung nicht auf, bei der Musterprojektion durch die projizierende Vorrichtung aber schon. Folglich kann das Verfahren des Hinzufügens einer Unschärfe zu einem virtuellen Aufnahmebild das Phänomen nicht reproduzieren.In a case where the projecting device is defocused, a pattern projected onto a scene is fuzzy, which can lower the accuracy of pattern recognition, which can lower the accuracy of spatial measurements. The blurring of the pattern light does not occur during imaging by the imaging device, but does occur during the pattern projection by the projecting device. As a result, the method of adding a blur to a captured virtual image cannot reproduce the phenomenon.

Aus diesem Grund wird eine Anstrahlungskarte generiert, die eine mit projiziertem Licht angestrahlte Region in einem virtuellen Aufnahmebild angibt. Die Anstrahlungskarte kann als zweidimensionale Anordnung definiert werden, die die gleiche Anzahl an Elementen wie das virtuelle Aufnahmebild aufweist, wobei jedes Element einen Wert einer reellen Zahl von 0 bis 1 hat. Eine mit projiziertem Licht angestrahlte Region kann durch 1 ausgedrückt werden, eine Region, zu der das projizierte Licht nicht gelangt, kann durch 0 ausgedrückt werden, und eine Region, in der Unschärfe von projiziertem Licht auftritt und die dadurch mit einer Intensität angestrahlt wird, welche geringer als die normale Intensität ist, kann durch einen Wert von über 0 und unter 1 ausgedrückt werden. Dies kann wie in der folgenden Formel (2) ausgedrückt werden.
[Formel 2] I i , j = P i , j B i , j + ( 1 P i , j ) S i , j

Figure DE112019006855T5_0002
For this reason, an irradiation map is generated which indicates a region irradiated with projected light in a virtual recorded image. The exposure map can be defined as a two-dimensional arrangement that has the same number of elements as the virtual recorded image, each element having a value of a real number from 0 to 1. A region irradiated with projected light can be expressed by 1, a region to which the projected light does not reach can be expressed by 0, and a region in which blurring of projected light occurs and is thereby irradiated with an intensity which lower than normal intensity can be expressed by a value greater than 0 and less than 1. This can be expressed as in the following formula (2).
[Formula 2] I. i , j = P. i , j B. i , j + ( 1 - P. i , j ) S. i , j
Figure DE112019006855T5_0002

In der Formel steht Ii,j für die Leuchtdichte an den Bildkoordinaten (i,j) in dem virtuellen Aufnahmebild, steht Pi,j für den Wert an den Koordinaten (i,j) in der Anstrahlungskarte, steht Bi,j für die Leuchtdichte an den Bildkoordinaten (i,j) in dem hellen Bild und steht Si,j für die Leuchtdichte an den Bildkoordinaten (i,j) in dem dunklen Bild.In the formula I i, j stands for the luminance at the image coordinates (i, j) in the virtual recorded image, P i, j stands for the value at the coordinates (i, j) in the exposure map, B i, j stands for is the luminance at the image coordinates (i, j) in the light image and S i, j stands for the luminance at the image coordinates (i, j) in the dark image.

Zum Generieren der Anstrahlungskarte wird zunächst ein Zustand angenommen, in dem die projizierende Vorrichtung fokussiert ist, sprich, ein Zustand, in dem das projizierte Licht nicht unscharf ist, und eine mit einem Projektionsmuster angestrahlte Region wird berechnet. An dieser Stelle beträgt der Wert jedes Elements auf der Anstrahlungskarte 0 oder 1. Ein Glättungsfilter wie bspw. Gaußsches Weichzeichnen wird auf die Anstrahlungskarte angewendet, um die Unschärfe von projiziertem Licht zu reproduzieren. Infolge der Anwendung des Gaußschen Weichzeichnens werden Änderungen der Werte in der Anstrahlungskarte im Bereich der Grenze zwischen einer Region, die mit Musterlicht angestrahlt wird, und einer Region, welche nicht mit Musterlicht angestrahlt wird, geglättet. Die Glättung der Änderungen der Werte an der Grenze bringt einen Effekt hervor, der darin besteht, dass die Grenze des projizierten Lichts unscharf gemacht wird, weshalb die Unschärfe des projizierten Lichts reproduziert werden kann.To generate the irradiation map, a state is first assumed in which the projecting device is focused, that is, a state in which the projected light is not blurred, and a region irradiated with a projection pattern is calculated. At this point, the value of each element on the exposure map is 0 or 1. A smoothing filter such as Gaussian blur is applied to the exposure map to reproduce the blurring of projected light. As a result of the application of Gaussian blurring, changes in the values in the irradiation map in the area of the boundary between a region which is irradiated with pattern light and a region which is not irradiated with pattern light are smoothed. The smoothing of the changes in the values at the boundary brings about an effect that the boundary of the projected light is blurred, and therefore the blurring of the projected light can be reproduced.

16 ist ein Flussdiagramm, das den Betrieb der Simulationsvorrichtung 14 gemäß der vierten Ausführungsform der vorliegenden Erfindung darstellt. Die Generationseinheit für Sensorstandpunktdaten 401 generiert ein helles Bild und ein dunkles Bild mithilfe der Generationseinheit für helle Bilder 501 und der Generationseinheit für dunkle Bilder 502 (Sensorstandpunktdaten S601). Die Generationseinheit für Sensorstandpunktdaten 401 generiert Abstandsdaten an jedem Standpunkt mithilfe der Abstandsdatengenerationseinheit 503 parallel zu Schritt S601 (Schritt S602). Die Generationseinheit für Sensorstandpunktdaten 401 gibt die Sensorstandpunktdaten, welche das generierte helle Bild, dunkle Bild und Abstandsdaten enthalten, in die Kartengenerationseinheit 402 ein. 16 Fig. 13 is a flow chart showing the operation of the simulation device 14th according to the fourth embodiment of the present invention. The generation unit for sensor position data 401 generates a light image and a dark image using the light image generation unit 501 and the generation unit for dark images 502 (Sensor position data S601). The generation unit for sensor position data 401 generates distance data at each station using the distance data generation unit 503 in parallel with step S601 (step S602). The generation unit for sensor position data 401 inputs the sensor position data including the generated light image, dark image and distance data into the map generation unit 402 a.

Die Kartengenerationseinheit 402 berechnet eine Anstrahlungsregion mithilfe der Anstrahlungsregionenberechnungseinheit 601 (Schritt S603). Daraufhin generiert die Kartengenerationseinheit 402 eine Anstrahlungskarte mithilfe der Anstrahlungskartengenerationseinheit 602 (Schritt S604).The card generation unit 402 calculates an irradiation region using the irradiation region calculating unit 601 (Step S603). The map generation unit then generates 402 an exposure map using the exposure map generation unit 602 (Step S604).

Die Kartengenerationseinheit 402 erhält die Hinzufügungsreihenfolge von Fehlerfaktoren (Schritt S605). Daraufhin erhält die Kartengenerationseinheit 402 die Arten und die Intensität der Fehlerfaktoren (Schritt S606). Die Kartengenerationseinheit 402 bestimmt, ob eine Interreflexion hinzuzufügen ist oder nicht (Schritt S607). Wenn eine Interreflexion hinzuzufügen ist (Schritt S607: Ja), veranlasst die Kartengenerationseinheit 402 die Reflexionsregionenberechnungseinheit 604 dazu, eine Reflexionsregion zu berechnen (Schritt S608), und sie veranlasst die Reflexionskartengenerationseinheit 605 dazu, eine Reflexionskarte zu generieren (Schritt S609).The card generation unit 402 obtains the adding order of error factors (step S605). The card generation unit then receives 402 the types and the intensity of the error factors (step S606). The card generation unit 402 determines whether or not to add interreflection (step S607). If interreflection is to be added (step S607: Yes), the map generation unit causes 402 the reflection region calculation unit 604 to calculate a reflection region (step S608), and it causes the reflection map generation unit 605 to generate a reflection map (step S609).

Wird bestimmt, dass keine Interreflexion hinzuzufügen ist (Schritt S607: Nein), so werden die Prozesse in den Schritten S608 und S609 weggelassen. Daraufhin bestimmt die Kartengenerationseinheit 402, ob Lichtunschärfe hinzuzufügen ist oder nicht (Schritt S610). Wenn bestimmt, dass Lichtunschärfe hinzuzufügen ist (Schritt S610: Ja), reproduziert die Lichtunschärfereproduktionseinheit 603 der Kartengenerationseinheit 402 eine Lichtunschärfe auf der Anstrahlungskarte (Schritt S611).If it is determined that no interreflection is to be added (step S607: No), the processes in steps S608 and S609 are omitted. The card generation unit then determines 402 whether or not to add light blur (step S610). If it determines that light blur is to be added (step S610: Yes), the light blur reproduction unit reproduces 603 the card generation unit 402 a light blur on the exposure map (step S611).

Wird bestimmt, dass keine Lichtunschärfe hinzuzufügen ist (Schritt S610: Nein), wird der Prozess in Schritt S611 weggelassen. Daraufhin bestimmt die Kartengenerationseinheit 402, ob Umgebungslicht hinzuzufügen ist oder nicht (Schritt S612). Wird bestimmt, dass Umgebungslicht hinzuzufügen ist (Schritt S612: Ja), fügt die Anstrahlungskartengenerationseinheit 602 der Kartengenerationseinheit 402 Umgebungslicht auf der Anstrahlungskarte hinzu (Schritt S613). Wenn bestimmt wird, dass kein Umgebungslicht hinzuzufügen ist (Schritt S612: Nein), wird der Prozess in Schritt S613 weggelassen.If it is determined that there is no light blur to be added (step S610: No), the process in step S611 is omitted. The card generation unit then determines 402 whether or not to add ambient light (step S612). If it is determined that ambient light is to be added (step S612: Yes), the exposure map generation unit adds 602 the card generation unit 402 Add ambient light on the exposure map (step S613). When it is determined that no ambient light is to be added (step S612: No), the process in step S613 is omitted.

Die Kartengenerationseinheit 402 bestimmt, ob der Fehlerhinzufügungsprozess abzuschließen ist oder nicht (Schritt S614). Wenn bestimmt wird, dass der Fehlerhinzufügungsprozess nicht abzuschließen ist (Schritt S614: Nein), kehrt der Prozess zu Schritt S606 zurück. Wenn bestimmt wird, dass der Fehlerhinzufügungsprozess abzuschließen ist (Schritt S614: Ja), nimmt die Bildkombinationseinheit 403 einen Bildkombinationsprozess vor (Schritt S615).The card generation unit 402 determines whether or not to complete the error adding process (step S614). When it is determined that the error adding process is not to be completed (step S614: No), the process returns to step S606. When it is determined that the error adding process is to be completed (step S614: Yes), the image combining unit takes 403 perform an image combining process (step S615).

Wie vorbeschrieben, werden mit der Simulationsvorrichtung 14 gemäß der vierten Ausführungsform der vorliegenden Erfindung ein erstes Bild, das ein Bild ist, in dem optische Phänomene einzeln reproduziert werden, eine Anstrahlungskarte und eine Reflexionskarte generiert, was die Prozesse zum Generieren eines optisch reproduzierten Bilds und der Datenstruktur bei Verwendung einer Vielzahl von Projektionsmustern vereinfachen kann. Des Weiteren werden der Effekt von Unschärfen von Schattengrenzen des Lichts, die durch Defokussierung hervorgerufen werden, durch Verwendung einer Anstrahlungskarte ausgedrückt und der Effekt der Interreflexion durch Verwendung einer Reflexionskarte ausgedrückt, was einen vorteilhaften Effekt hervorbringt, der darin besteht, dass die Reproduktion eines Aufnahmebilds ermöglicht wird, in der komplizierte optische Phänomene wie bspw. eine Defokussierung der projizierenden Vorrichtung und Interreflexion durch einfache Berechnungsprozesse kombiniert werden.As described above, the simulation device 14th According to the fourth embodiment of the present invention, generates a first image that is an image in which optical phenomena are individually reproduced, an exposure map and a reflection map, which simplify the processes for generating an optically reproduced image and the data structure using a plurality of projection patterns can. Of Further, the effect of blurring of shadow boundaries of light caused by defocusing is expressed by using an illumination map, and the effect of interreflection is expressed by using a reflection map, which brings about an advantageous effect that it enables reproduction of a captured image , in which complicated optical phenomena such as defocusing of the projecting device and interreflection are combined by simple calculation processes.

In einem Fall, in dem eine tatsächliche Vorrichtung für räumliche Messungen zur Bewertung bereitgestellt wird, können nur Ergebnisse in einem Zustand erhalten werden, in dem alle optischen Phänomene vermischt sind. Im Gegensatz dazu kann gemäß der Simulationsvorrichtung 14 jede von einer Vielzahl von Arten optischer Phänomene einzeln reproduziert werden. Somit können Faktoren, durch die Messfehler bei räumlichen Messungen hervorgerufen werden, eingehender bestimmt werden. Diese Konfiguration bringt einen vorteilhaften Effekt hervor, der darin besteht, dass die Gestaltung und Leistungsbewertung einer Vorrichtung für räumliche Messungen erleichtert wird.In a case where an actual spatial measurement apparatus is provided for evaluation, results can only be obtained in a state where all of the optical phenomena are mixed. In contrast, according to the simulation device 14th each of a variety of kinds of optical phenomena can be individually reproduced. In this way, factors that cause measurement errors in spatial measurements can be determined in more detail. This configuration brings about an advantageous effect that the design and performance evaluation of a spatial measurement apparatus is facilitated.

Fünfte Ausführungsform.Fifth embodiment.

Eine Simulationsvorrichtung 15, die nicht dargestellt ist, gemäß einer fünften Ausführungsform weist eine Konfiguration auf, die jener der in 7 dargestellten Simulationsvorrichtung 13 ähnlich ist. Die Simulationsvorrichtung 15 unterscheidet sich in einem Anzeigebildschirm, der ausgegeben wird, von der Simulationsvorrichtung 13. Nachfolgend wird die Beschreibung von Teilen, die jenen der Simulationsvorrichtung 13 ähnlich sind, nicht wiederholt; beschrieben werden hauptsächlich Unterschiede zur Simulationsvorrichtung 13.A simulation device 15th , which is not shown, according to a fifth embodiment has a configuration similar to that of the FIGS 7th illustrated simulation device 13th is similar. The simulation device 15th differs from the simulation device in a display screen that is output 13th . The following is the description of parts similar to those of the simulation device 13th are similar, not repeated; The main differences to the simulation device are described 13th .

17 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm 40 darstellt, der durch die Simulationsvorrichtung 15 gemäß der fünften Ausführungsform der vorliegenden Erfindung ausgegeben wird. Die Simulationsvorrichtung 15 kann ein Simulationsergebnis ausgeben, das ferner zumindest eines von wenigstens einem Teil der Messbedingungsinformationen und einem virtuellen Aufnahmebild beinhaltet. 17th is a diagram showing an example of a display screen 40 represents that by the simulation device 15th according to the fifth embodiment of the present invention. The simulation device 15th can output a simulation result that further includes at least one of at least part of the measurement condition information and a virtual captured image.

Der Anzeigebildschirm 40 kann eine Anpassungsaspektanzeigeregion 41, eine Speichern-Schaltfläche 42, eine Beenden-Schaltfläche 43 und eine Messergebnisanzeigeregion 44 beinhalten. Bei der Anpassungsaspektanzeigeregion 41 handelt es sich um eine Region, in der eine Liste festgelegter Werte eines anzupassenden Aspekts angezeigt wird. Die Messergebnisanzeigeregion 44 ist eine Region, in der Messwerte angezeigt werden, die jeweils mit einem der in der Liste angezeigten festgelegten Werte verknüpft sind, in Bezug auf welche der Aspekt der Messbedingungen, der anzupassen ist, festgelegt wird. Die Speichern-Schaltfläche 42 ist ein Bedienungsabschnitt zum Vornehmen eines Bedienungsvorgangs des Speicherns eines Messergebnisses, und die Beenden-Schaltfläche 43 ist ein Bedienungsabschnitt zum Vornehmen eines Bedienungsvorgangs des Abschließens eines Prozesses.The display screen 40 can be a customization aspect display region 41 , a save button 42 , a quit button 43 and a measurement result display region 44 include. At the adjustment aspect display region 41 it is a region that displays a list of fixed values for an aspect to be adjusted. The measurement result display region 44 is a region in which measured values are displayed, each associated with one of the specified values displayed in the list, in relation to which the aspect of the measurement conditions to be adjusted is specified. The save button 42 is an operation section for performing an operation of storing a measurement result, and the exit button 43 is an operation section for performing an operation of completing a process.

Auf dem Anzeigebildschirm 40 werden die festgelegten Werte eines Aspekts der Messbedingungen, der anzupassen ist, Messwerte, die Verarbeitungsergebnisse sind, und virtuelle Aufnahmebilder, Anstrahlungskarten und dergleichen, die als Zwischenergebnisse während des Prozesses erhalten werden, nebeneinander angezeigt. Des Weiteren können Ergebnisse in Bezug auf Differenzen von einem Verarbeitungsergebnis bei einem jeden der festgelegten Werte ebenfalls angezeigt werden, und Verarbeitungsergebnisse mit großen Differenzen können hervorgehoben werden.On the display screen 40 For example, the set values of an aspect of the measurement conditions to be adjusted, measurement values that are processing results, and virtual captured images, exposure maps and the like obtained as intermediate results during the process are displayed side by side. Furthermore, results relating to differences from a processing result in each of the set values can also be displayed, and processing results having large differences can be highlighted.

Wie vorbeschrieben, werden mit der Simulationsvorrichtung 15 gemäß der fünften Ausführungsform der vorliegenden Erfindung die Messbedingungsinformationen, das virtuelle Aufnahmebild und dergleichen ebenfalls zusätzlich zum Messwert ausgegeben, was den Benutzer in die Lage versetzt, die Prozesse zu überprüfen, durch welche ein Ergebnis einer räumlichen Messung unter jeder Messbedingung erhalten wird. In diesem Fall werden die Verarbeitungsergebnisse und die Zwischenergebnisse, die mit einer Vielzahl von Messbedingungen verknüpft sind, nebeneinander angezeigt, was einen Vergleich zwischen festgelegten Werten von Messbedingungen zur Begutachtung ermöglicht. Somit wird ein vorteilhafter Effekt hervorgebracht, der darin besteht, die Begutachtung von der Anordnung und der Leistungen der projizierenden Vorrichtung und der abbildenden Vorrichtung zu erleichtern.As described above, the simulation device 15th According to the fifth embodiment of the present invention, the measurement condition information, the captured virtual image and the like are also output in addition to the measurement value, which enables the user to check the processes by which a spatial measurement result is obtained under each measurement condition. In this case, the processing results and the intermediate results associated with a plurality of measurement conditions are displayed side by side, which enables comparison between specified values of measurement conditions for assessment. Thus, an advantageous effect is brought about which is to facilitate the assessment of the arrangement and the performances of the projecting device and the imaging device.

Sechste Ausführungsform.Sixth embodiment.

18 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung 16 gemäß einer sechsten Ausführungsform der vorliegenden Erfindung darstellt. Die Simulationsvorrichtung 16 beinhaltet die Messbedingungserhaltungseinheit 101, die Generationseinheit für virtuelle Aufnahmebilder 102, die Recheneinheit für räumliche Messungen 103, die Ausgabeeinheit 104, die Fehlerinformationserhaltungseinheit 105, eine Auswertungsreferenzdatengenerationseinheit 106 und eine Messungsbewertungseinheit 107. 18th Fig. 16 is a diagram showing a functional configuration of a simulation device 16 according to a sixth embodiment of the present invention. The simulation device 16 includes the measurement condition maintenance unit 101 , the generation unit for virtual recording images 102 , the computing unit for spatial measurements 103 , the output unit 104 , the failure information preservation unit 105 , an evaluation reference data generation unit 106 and a measurement evaluation unit 107 .

Die Simulationsvorrichtung 16 beinhaltet die Auswertungsreferenzdatengenerationseinheit 106 und die Messungsbewertungseinheit 107 zusätzlich zur Konfiguration der Simulationsvorrichtung 13. Nachfolgend wird die detaillierte Beschreibung der Konfiguration, die jener der Simulationsvorrichtung 13 ähnlich ist, nicht wiederholt; beschrieben werden hauptsächlich Unterschiede zur Simulationsvorrichtung 13.The simulation device 16 contains the evaluation reference data generation unit 106 and the measurement evaluation unit 107 in addition to the configuration of the simulation device 13th . The following is the detailed description of the configuration that is the same as that of the simulation device 13th is similar, not repeated; The main differences to the simulation device are described 13th .

Die Auswertungsreferenzdatengenerationseinheit 106 generiert Auswertungsreferenzdaten, wobei es sich um eine Referenz zur Auswertung eines Simulationsergebnisses handelt, durch Verwendung der Messbedingungsinformationen. Die Auswertungsreferenzdatengenerationseinheit 106 gibt die generierten Auswertungsreferenzdaten in die Messungsbewertungseinheit 107 ein. Die Messungsbewertungseinheit 107 wertet ein Simulationsergebnis anhand der Auswertungsreferenzdaten aus und erhält eine Simulationsbewertung. Die Ausgabeeinheit 104 gibt auch ein Simulationsbewertungsergebnis zusätzlich zu einem Simulationsergebnis aus.The evaluation reference data generation unit 106 generates evaluation reference data, which is a reference for evaluating a simulation result, by using the measurement condition information. The evaluation reference data generation unit 106 inputs the generated evaluation reference data to the measurement evaluation unit 107 a. The measurement evaluation unit 107 evaluates a simulation result based on the evaluation reference data and receives a simulation evaluation. The output unit 104 also outputs a simulation evaluation result in addition to a simulation result.

19 ist ein Flussdiagramm, das den Betrieb der in 18 dargestellten Simulationsvorrichtung 16 darstellt. Bei dem in 19 dargestellten Betrieb ähneln die Schritte S301 bis S307 jenen in 9, weshalb ihre detaillierte Erläuterung nicht wiederholt wird. In der vorliegenden Ausführungsform generiert die Auswertungsreferenzdatengenerationseinheit 106 nach Abschluss des Prozesses der räumlichen Messung die Auswertungsreferenzdaten (Schritt S701). Daraufhin nimmt die Messungsbewertungseinheit 107 einen Messungsbewertungsprozess des Vergleichens der durch Simulation erhaltenen Messdaten mit den Auswertungsreferenzdaten vor, um einen quantitativen Bewertungswert zu berechnen (Schritt S702). Die Ausgabeeinheit 104 gibt eine Simulationsbewertung aus (Schritt S703). 19th FIG. 13 is a flow chart illustrating the operation of the FIG 18th illustrated simulation device 16 represents. The in 19th In the operation shown, steps S301 to S307 are similar to those in FIG 9 hence their detailed explanation is not repeated. In the present embodiment, the evaluation reference data generation unit generates 106 after completing the spatial measurement process, the evaluation reference data (step S701). The measurement evaluation unit then takes 107 a measurement evaluation process of comparing the measurement data obtained by simulation with the evaluation reference data to calculate a quantitative evaluation value (step S702). The output unit 104 outputs a simulation evaluation (step S703).

Die Auswertungsreferenzdaten können sein: die Abstandsdaten von der abbildenden Vorrichtung, die in den Sensorstandpunktdaten enthalten sind, ein Verarbeitungsergebnis einer räumlichen Messung, wenn ein virtuelles Aufnahmebild eingegeben wird, bevor Fehlerfaktoren hinzugefügt werden, Daten wie etwa eine Anstrahlungskarte, die während des Prozesses erhalten werden, oder tatsächliche Messdaten, welche durch tatsächliches Messen eines Messobjekts erhalten werden.The evaluation reference data may be: the distance data from the imaging device included in the sensor position data, a processing result of spatial measurement when a captured virtual image is input before error factors are added, data such as an exposure map obtained during the process, or actual measurement data obtained by actually measuring a measurement object.

Bei der Simulationsbewertung kann es sich theoretisch um ein Verhältnis von einer fehlerhaften Region, in der keine Messdaten erhalten werden können, zu einer messbaren Region, also einer Region, in welcher Messdaten erhalten werden können, um Messfehler, die bei Vergleich mit den Auswertungsreferenzdaten erhalten werden, oder dergleichen handeln. Beispielsweise kann die messbare Region eine Region sein, in der kein Defekt in Messdaten vorkommt, die erhalten werden, wenn ein virtuelles Aufnahmebild eingegeben wird, bevor Fehlerfaktoren hinzugefügt werden. Des Weiteren können statistische Daten wie ein Durchschnittswert, eine Varianz, eine Standardabweichung und ein Höchstwert, die durch Vergleich zwischen den Auswertungsreferenzdaten und einem Simulationsergebnis erhalten werden, als Bewertungsindizes verwendet werden.The simulation evaluation can theoretically be a ratio of a faulty region in which no measurement data can be obtained to a measurable region, i.e. a region in which measurement data can be obtained, to measurement errors that are obtained when compared with the evaluation reference data , or something like that. For example, the measurable region may be a region in which there is no defect in measurement data obtained when a virtual captured image is input before error factors are added. Furthermore, statistical data such as an average value, a variance, a standard deviation and a maximum value obtained by comparison between the evaluation reference data and a simulation result can be used as evaluation indexes.

In einem Fall, in dem tatsächliche Messdaten als Auswertungsreferenzdaten verwendet werden, ist es zudem nützlich, eine Rückkopplung bereitzustellen, um eine bessere Simulationsbewertung bereitzustellen, sprich, um die Differenz zwischen den tatsächlichen Messdaten und dem Simulationsergebnis zu verringern.In a case where actual measurement data are used as evaluation reference data, it is also useful to provide feedback in order to provide a better simulation evaluation, i.e. to reduce the difference between the actual measurement data and the simulation result.

Ein Verfahren für die Rückkopplung kann im Generieren einer Vielzahl von verschiedenen Simulationsergebnissen und Erhalten eines festgelegten Werts bestehen, mit dem die beste Simulationsbewertung erhalten wird, als Beispiel. Um eine Vielzahl von Simulationsergebnissen zu erhalten, gibt es ein Verfahren des Änderns von Werten der Oberflächencharakteristika eines Messobjekts unter einer Messbedingung und ein Verfahren des Änderns der Intensitäten von Fehlerfaktoren, als Beispiel.One method for feedback may be to generate a variety of different simulation results and obtain a fixed value with which the best simulation score is obtained, for example. In order to obtain a variety of simulation results, there are a method of changing values of the surface characteristics of a measurement object under a measurement condition and a method of changing the intensities of error factors, for example.

Parameter wie die Oberflächencharakteristika eines Messobjekts und die Intensitäten von Fehlerfaktoren, wenn die beste Simulationsbewertung erhalten wird, können als optimale Simulationseinstellung definiert werden. Die optimale Simulationseinstellung wird dem Benutzer bereitgestellt, was das Durchführen korrekterer Verifizierungstests ermöglicht.Parameters such as the surface characteristics of a measurement object and the intensities of error factors when the best simulation evaluation is obtained can be defined as the optimal simulation setting. The optimal simulation setting is provided to the user, which enables more correct verification tests to be performed.

20 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm 50 der in 18 dargestellten Simulationsvorrichtung 16 darstellt. Der Anzeigebildschirm 50 beinhaltet eine Auswertungsreferenzdatenanzeigeregion 51 zusätzlich zu den Komponenten des Anzeigebildschirms 40. 20th is a diagram showing an example of a display screen 50 the in 18th illustrated simulation device 16 represents. The display screen 50 includes an evaluation reference data display region 51 in addition to the components of the display screen 40 .

Auf dem Anzeigebildschirm 50 werden die Auswertungsreferenzdaten nebeneinander mit einer Vielzahl festgelegter Werte eines anzupassenden Aspekts von Messbedingungen angezeigt. Des Weiteren können auch Zwischenergebnisse, die durch Simulation des Prozesses der räumlichen Messung erhalten werden, unter Verwendung eines Referenzwerts angezeigt werden. Der Anzeigebildschirm 50 kann außerdem die Simulationsbewertung anzeigen.On the display screen 50 the evaluation reference data is displayed side by side with a plurality of specified values of an aspect of measurement conditions to be adjusted. Furthermore, intermediate results obtained by simulating the process of spatial measurement can also be displayed using a reference value. The display screen 50 can also display the simulation rating.

Wie vorbeschrieben, können mit der Simulationsvorrichtung 16 gemäß der sechsten Ausführungsform der vorliegenden Erfindung die Auswertungsreferenzdaten zusätzlich zu dem Simulationsergebnis erhalten werden. Die Auswertungsreferenzdaten werden als Referenz zur Bewertung eines Simulationsergebnisses verwendet, und es handelt sich bei ihnen um tatsächliche Messdaten oder dergleichen. Die Simulationsvorrichtung 16 kann die Berücksichtigung von Simulationsergebnissen erleichtern, indem sie den im Simulationsergebnis enthaltenen Messwert und die Auswertungsreferenzdaten nebeneinander anzeigt.As described above, the simulation device 16 According to the sixth embodiment of the present invention, the evaluation reference data can be obtained in addition to the simulation result. The evaluation reference data are used as a reference for evaluating a simulation result, and they are actual measurement data or the like. The simulation device 16 can the Facilitate consideration of simulation results by displaying the measured value contained in the simulation result and the evaluation reference data side by side.

Des Weiteren ist die Simulationsvorrichtung 16 in der Lage, eine Simulationsbewertung zu erlangen, die ein Simulationsergebnis durch Verwendung der Auswertungsreferenzdaten auswertet. Diese Konfiguration ermöglicht es, Messfehler und Defekte quantitativ zu bestimmen. Dies erleichtert Operationen wie die Untersuchung der Leistungen einer Bilderfassungsvorrichtung und der projizierenden Vorrichtung und die Bestimmung, ob eine räumliche Messung für jedes Messobjekt geeignet ist oder nicht. In einem Fall, in dem ein Leistungsbewertungsverfahren durch einen Standard definiert ist, wird die Simulationsbewertung des Weiteren durch Verwendung des Leistungsbewertungsverfahrens erhalten, das die Bestimmung erleichtert, ob eine räumliche Messung geeignet ist oder nicht.Furthermore, the simulation device 16 able to obtain a simulation evaluation that evaluates a simulation result by using the evaluation reference data. This configuration enables measurement errors and defects to be determined quantitatively. This facilitates operations such as examining the performances of an image capturing device and the projecting device and determining whether or not a spatial measurement is appropriate for each measurement object. Further, in a case where a performance evaluation method is defined by a standard, the simulation evaluation is obtained by using the performance evaluation method that facilitates the determination of whether or not spatial measurement is appropriate.

Siebte Ausführungsform.Seventh embodiment.

21 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung 17 gemäß einer siebten Ausführungsform der vorliegenden Erfindung darstellt. Die Simulationsvorrichtung 17 beinhaltet eine Objekterkennungsverarbeitungseinheit 108 und eine Erkennungsbewertungseinheit 109 zusätzlich zu der Auslegung der Simulationsvorrichtung 16 gemäß der sechsten Ausführungsform. Nachfolgend werden hauptsächlich Unterschiede zur Simulationsvorrichtung 16 beschrieben. 21 Fig. 16 is a diagram showing a functional configuration of a simulation device 17th according to a seventh embodiment of the present invention. The simulation device 17th includes an object recognition processing unit 108 and a recognition evaluation unit 109 in addition to the design of the simulation device 16 according to the sixth embodiment. The following are mainly differences from the simulation device 16 described.

Wenn ein durch die Recheneinheit für räumliche Messungen 103 ausgegebenes Simulationsergebnis und die durch die Messbedingungserhaltungseinheit 101 ausgegebenen Messbedingungsinformationen eingegeben werden, erhält die Objekterkennungsverarbeitungseinheit 108 ein Erkennungsergebnis, das zumindest eines von Positionen und Stellungen in einem Abbildungsraum vorhandener Objekte und eine Greifposition, was eine Position, an der ein Objekt ergriffen werden kann, enthält. Die Objekterkennungsverarbeitungseinheit 108 gibt das Erkennungsergebnis in die Erkennungsbewertungseinheit 109 ein.If one by the computing unit for spatial measurements 103 output simulation result and that by the measurement condition maintenance unit 101 outputted measurement condition information is inputted to the object recognition processing unit 108 a recognition result containing at least one of positions and postures of objects present in an imaging space and a gripping position which is a position at which an object can be gripped. The object recognition processing unit 108 inputs the recognition result into the recognition evaluation unit 109 a.

Die Erkennungsbewertungseinheit 109 wertet das Erkennungsergebnis auf der Grundlage der Messbedingungsinformationen aus. Konkret erhält die Erkennungsbewertungseinheit 109 ein Erkennungsbewertungsergebnis, das zumindest eines von der Genauigkeit der Schätzung von Positionen und Stellungen, die in dem Erkennungsergebnis enthalten ist, und der Genauigkeit der Schätzung der Greifposition enthält. Die Erkennungsbewertungseinheit 109 gibt das Objekterkennungsergebnis und das Erkennungsbewertungsergebnis in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt Erkennungsergebnis und das Erkennungsbewertungsergebnis zusätzlich zu dem Simulationsergebnis und der Simulationsbewertung aus.The recognition evaluation unit 109 evaluates the recognition result based on the measurement condition information. Specifically, the recognition evaluation unit receives 109 a recognition evaluation result including at least one of the accuracy of the estimation of positions and postures included in the recognition result and the accuracy of the estimation of the grasping position. The recognition evaluation unit 109 outputs the object recognition result and the recognition evaluation result to the output unit 104 a. The output unit 104 outputs the recognition result and the recognition evaluation result in addition to the simulation result and the simulation evaluation.

22 ist ein Flussdiagramm, das den Betrieb der in 21 dargestellten Simulationsvorrichtung 17 darstellt. Da die Arbeitsabläufe in den Schritten S301 bis S307 und den Schritten S701 bis S703 jenen in 19 ähneln, wird ihre Erläuterung hier nicht wiederholt. Nachfolgend werden hauptsächlich Unterschiede zu 19 beschrieben. 22nd FIG. 13 is a flow chart illustrating the operation of the FIG 21 illustrated simulation device 17th represents. Since the operations in steps S301 to S307 and steps S701 to S703 are similar to those in 19th are similar, their explanation is not repeated here. The following are mainly differences too 19th described.

Nach Abschluss des in Schritt S306 dargestellten Prozesses des räumlichen Messens nimmt die Objekterkennungsverarbeitungseinheit 108 einen Objekterkennungsprozess vor, um ein Erkennungsergebnis zu erhalten (Schritt S801). Bei Erhalt eines Erkennungsergebnisses nimmt die Erkennungsbewertungseinheit 109 einen Erkennungsbewertungsprozess zum Auswerten des Erkennungsergebnisses vor (Schritt S802). Bei Erhalt eines Erkennungsbewertungsergebnisses gibt die Ausgabeeinheit 104 das Erkennungsbewertungsergebnis aus (Schritt S803). Es sei darauf hingewiesen, dass in Schritt S803 das Erkennungsergebnis zusätzlich zum Erkennungsbewertungsergebnis ebenfalls ausgegeben werden kann.After completing the spatial measurement process illustrated in step S306, the object recognition processing unit takes 108 perform an object recognition process to obtain a recognition result (step S801). Upon receiving a recognition result, the recognition evaluation unit takes 109 a recognition evaluation process for evaluating the recognition result (step S802). Upon receipt of a recognition evaluation result, the output unit gives 104 the recognition evaluation result (step S803). It should be noted that, in step S803, the recognition result can also be output in addition to the recognition evaluation result.

Ein Zweck des Vornehmens einer räumlichen Messung an einem Objekt besteht u. a. in der Erkennung der Position und Stellung eines Messobjekts. Beispielsweise ist ein Anwendungsprogramm anwendbar, mit dem ein Roboter veranlasst wird, ein Objekt zu ergreifen. In einem Fall, in dem die Position und Stellung eines zu ergreifenden Objekts im Vorfeld nicht bekannt sind, ist es notwendig, das Objekt an Ort und Stelle zu erfassen, um die Position und Stellung des Objekts oder die Position, an welcher der Roboter das Objekt greifen kann, zu erkennen.One purpose of taking a spatial measurement on an object is, among other things. in the detection of the position and posture of a measuring object. For example, an application program can be used with which a robot is made to grasp an object. In a case where the position and posture of an object to be grasped are not known beforehand, it is necessary to detect the object on the spot to determine the position and posture of the object or the position at which the robot moves the object can grasp, recognize.

In der siebten Ausführungsform der vorliegenden Erfindung ist aus diesem Grunde die Objekterkennungsverarbeitungseinheit 108 beinhaltet, die den Objekterkennungsprozess vornimmt, wenn ein Simulationsergebnis einer räumlichen Messung eingegeben wird. Ein Algorithmus, der zur Objekterkennung durch die Objekterkennungsverarbeitungseinheit 108 verwendet wird, kann ein jeder Algorithmus sein. Eine räumliche Punktgruppe, in der das Ergebnis einer räumlichen Messung als Menge von Punkten in einem dreidimensionalen Raum verwendet wird, kann in den Objekterkennungsalgorithmus eingegeben werden, oder ein Tiefenbild, welches das Ergebnis einer räumlichen Messung in einem zweidimensionalen Bild ausdrückt, kann in den Objekterkennungsalgorithmus eingegeben werden.In the seventh embodiment of the present invention, for this reason, is the object recognition processing unit 108 that performs the object recognition process when a simulation result of spatial measurement is input. An algorithm used for object recognition by the object recognition processing unit 108 any algorithm can be used. A spatial point group in which the result of a spatial measurement is used as a set of points in a three-dimensional space can be input into the object recognition algorithm, or a depth image which expresses the result of a spatial measurement in a two-dimensional image can be input into the object recognition algorithm will.

Darüber hinaus wird das Ergebnis einer Objekterkennung verwendet, um das Erkennungsergebnis wie bspw. die Genauigkeit der Schätzung der Position und Stellung des erkannten Objekts und die Genauigkeit der Schätzung der Greifposition auszuwerten. Ein Problem beim Bewerten eines Algorithmus zum Erkennen der Position und Stellung eines Objekts besteht in vielen Fällen darin, dass echte Werte bzgl. der Position und Stellung des Objekts nicht bekannt sind. Weil die echten Werte nicht bekannt sind, ist es schwierig, quantitativ zu bestimmen, ob ein ausgegebenes Erkennungsergebnis der Position und Stellung eines Objekts korrekt ist oder nicht. Bei der Simulation sind die Position und Stellung eines Objekts allerdings bekannt, was eine quantitative Auswertung eines Erkennungsergebnisses ermöglicht.In addition, the result of an object detection is used to determine the To evaluate recognition results such as, for example, the accuracy of the estimation of the position and posture of the recognized object and the accuracy of the estimation of the gripping position. A problem when evaluating an algorithm for recognizing the position and posture of an object is in many cases that real values relating to the position and posture of the object are not known. Because the real values are not known, it is difficult to quantitatively determine whether or not an outputted recognition result of the position and posture of an object is correct. In the simulation, however, the position and posture of an object are known, which enables a quantitative evaluation of a recognition result.

Wie vorbeschrieben, ermöglicht die Simulationsvorrichtung 17 gemäß der siebten Ausführungsform der vorliegenden Erfindung die Verifizierung der Objekterkennung durch Verwendung eines Simulationsergebnisses. Diese Auslegung ermöglicht eine Leistungsbewertung der Objekterkennung, ohne dass tatsächlich eine Vorrichtung für räumliche Messungen bereitgestellt wird. Da die Position und Stellung eines zu erkennenden Objekts in einem Simulationsraum bekannt sind, kann ein Objekterkennungsergebnis mit echten Werten verglichen werden, was einen Effekt hervorbringt, der im Erleichtern der quantitativen Bewertung der Objekterkennungsleistung besteht.As described above, the simulation device enables 17th According to the seventh embodiment of the present invention, the verification of the object recognition by using a simulation result. This design enables a performance evaluation of the object recognition without actually providing a device for spatial measurements. Since the position and posture of an object to be recognized are known in a simulation space, an object recognition result can be compared with real values, which brings about an effect of facilitating the quantitative evaluation of the object recognition performance.

Für ein System, in dem ein Roboter ein Objekt erkennt und ergreift, ist sehr wichtig, quantitativ zu bewerten, ob die Genauigkeit der Objekterkennung ausreichend ist oder nicht. Dies liegt daran, dass sich die Genauigkeit der Objekterkennung erheblich darauf auswirkt, ob dem Roboter das Ergreifen gelingt oder nicht. Beispielsweise in einem Fall, in dem ein Objekt im angehäuften Zustand ergriffen wird, in dem eine Vielzahl von Objekten unregelmäßig aufeinandergestapelt sind, ist es schwierig, echte Werte von Positionen und Stellungen der lose in einem Haufen liegenden Objekte in Erfahrung zu bringen. Selbst wenn Tests durch Verwendung tatsächlicher Vorrichtungen ausgeführt werden, einschließlich der Vorrichtung für räumliche Messungen und des Roboters, kann daher die exakte Genauigkeit der Objekterkennung nicht quantitativ erhalten werden. Die vorliegende Erfindung ist vorteilhaft beim einfachen Erhalten echter Werte mittels Simulation und Ermöglichen einer quantitativen Bewertung der Genauigkeit der Objekterkennung.For a system in which a robot recognizes and grasps an object, it is very important to quantitatively evaluate whether the accuracy of object recognition is sufficient or not. This is because the accuracy of the object detection has a significant impact on whether or not the robot succeeds in grasping it. For example, in a case where an object is gripped in the heaped state in which a plurality of objects are irregularly piled up, it is difficult to know real values of positions and postures of the objects loosely in a heap. Therefore, even when tests are carried out by using actual devices including the spatial measurement device and the robot, the exact accuracy of object recognition cannot be obtained quantitatively. The present invention is advantageous in easily obtaining real values through simulation and enabling quantitative evaluation of the accuracy of object recognition.

Achte Ausführungsform.Eighth embodiment.

23 ist ein Schema, das eine funktionelle Konfiguration einer Simulationsvorrichtung 18 gemäß einer achten Ausführungsform der vorliegenden Erfindung darstellt. Die Simulationsvorrichtung 18 beinhaltet eine Objektergreifungsbewertungseinheit 110 zusätzlich zu der Konfiguration der Simulationsvorrichtung 17 gemäß der siebten Ausführungsform. 23 Fig. 16 is a diagram showing a functional configuration of a simulation device 18th according to an eighth embodiment of the present invention. The simulation device 18th includes an object grasping evaluation unit 110 in addition to the configuration of the simulation device 17th according to the seventh embodiment.

Nachfolgend wird die Beschreibung der Konfiguration, die jener der Simulationsvorrichtung 17 ähnlich ist, nicht wiederholt; beschrieben werden hauptsächlich Unterschiede zur Simulationsvorrichtung 17.The following is the description of the configuration that is the same as that of the simulation device 17th is similar, not repeated; The main differences to the simulation device are described 17th .

Die Objektergreifungsbewertungseinheit 110 erhält ein Ergreifungsbewertungsergebnis eines Objekts, bezüglich dessen die Erfolgswahrscheinlichkeit des Ergreifens auf der Grundlage der Messbedingungsinformationen, die durch die Messbedingungserhaltungseinheit 101 ausgegeben werden, des Simulationsergebnisses, das durch die Recheneinheit für räumliche Messungen 103 ausgegeben wird, und des Erkennungsergebnisses, welches durch die Objekterkennungsverarbeitungseinheit 108 ausgegeben wird, bewertet wird. Die Objektergreifungsbewertungseinheit 110 gibt das Ergreifungsbewertungsergebnis in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt zudem das Ergreifungsbewertungsergebnis aus.The object gripping assessment unit 110 obtains a gripping judgment result of an object of which the success probability of gripping based on the measurement condition information obtained by the measurement condition obtaining unit 101 are output, the simulation result that is generated by the computing unit for spatial measurements 103 is output, and the recognition result obtained by the object recognition processing unit 108 is output, is evaluated. The object gripping assessment unit 110 outputs the seizure evaluation result to the output unit 104 a. The output unit 104 also outputs the capture assessment result.

24 ist ein Flussdiagramm, das den Betrieb der in 23 dargestellten Simulationsvorrichtung 18 darstellt. Da die Arbeitsabläufe in den Schritten S301 bis S307, den Schritten S701 bis S703 und den Schritten S801 bis S803 jenen in 22 ähneln, wird ihre detaillierte Erläuterung hier nicht wiederholt. Nachfolgend werden hauptsächlich Unterschiede zu 22 beschrieben. 24 FIG. 13 is a flow chart illustrating the operation of the FIG 23 illustrated simulation device 18th represents. Since the operations in steps S301 to S307, steps S701 to S703, and steps S801 to S803 are similar to those in 22nd are similar, their detailed explanation is not repeated here. The following are mainly differences too 22nd described.

Bei Erhalt des Objekterkennungsergebnisses nimmt die Objektergreifungsbewertungseinheit 110 eine Objektergreifungsbewertung vor (Schritt S901). Die Objektergreifungsbewertungseinheit 110 gibt das Ergreifungsbewertungsergebnis in die Ausgabeeinheit 104 ein. Die Ausgabeeinheit 104 gibt das Ergreifungsbewertungsergebnis aus (Schritt S902). Der Arbeitsablauf von Schritt S901 kann parallel mit dem Erkennungsbewertungsprozess vorgenommen werden.Upon receiving the object recognition result, the object grasping evaluation unit takes 110 an object grasping evaluation (step S901). The object gripping assessment unit 110 outputs the seizure evaluation result to the output unit 104 a. The output unit 104 outputs the seizure judgment result (step S902). The operation of step S901 can be performed in parallel with the recognition evaluation process.

Durch Verwendung des Objekterkennungsergebnisses können Informationen über die Position, an welcher eine Roboterhand ein Objekt ergreift, erhalten werden. Anhand der Informationen können die Position, an der die Roboterhand mit dem Objekt in Berührung tritt, sowie die Beträge und Richtungen von Kräften, die an der Roboterhand oder dem Objekt wirken, wenn die Roboterhand zur Greifposition bewegt wird und die Greifoperation durchgeführt wird, simuliert werden.By using the object recognition result, information on the position at which a robot hand grasps an object can be obtained. The information can be used to simulate the position at which the robot hand comes into contact with the object and the amounts and directions of forces acting on the robot hand or the object when the robot hand is moved to the gripping position and the gripping operation is performed .

Wenn die Beträge und Richtungen der Kräfte, die an der Roboterhand und dem Objekt wirken, bekannt sind, ist es möglich zu schätzen, ob das Ergreifen gelingen wird oder nicht. Es wird zum Beispiel ein Fall angenommen, in dem die Roboterhand eine Parallelhand mit zwei Greifern ist. Ein Fall, in dem ein ergriffenes Objekt durch die Lücke zwischen den Greifern der Roboterhand fällt, entspricht einem Fehlschlag beim Ergreifen. Eine Situation, die diesem Fall entspricht, kann darin bestehen, dass eine Kraft, die in einer Richtung auf das ergriffene Objekt einwirkt, welche senkrecht zur Schließrichtung der Parallelhand verläuft, größer als eine Reibungskraft zwischen der Roboterhand und dem ergriffenen Objekt ist. Daher ermöglichen Informationen wie Reibungskoeffizienten der Oberflächen der Roboterhand und des ergriffenen Objekts, das Gewicht des ergriffenen Objekts und die Greifkraft der Roboterhand eine Bestimmung dessen, ob das Ergreifen gelingen wird oder nicht.If the amounts and directions of the forces acting on the robot hand and the object are known, it is possible to estimate whether that is Seizing will succeed or not. For example, assume a case where the robot hand is a parallel hand with two grippers. A case where a gripped object falls through the gap between the grippers of the robot hand corresponds to a failure to grasp. A situation corresponding to this case may be that a force acting on the gripped object in a direction perpendicular to the closing direction of the parallel hand is greater than a frictional force between the robot hand and the gripped object. Therefore, information such as coefficients of friction of the surfaces of the robot hand and the gripped object, the weight of the gripped object, and the gripping force of the robot hand enable a determination of whether or not the gripping will succeed.

Das Verfahren zum Bewerten der Erfolgswahrscheinlichkeit des Ergreifens ist dabei jedoch nicht auf das Verfahren zum Schätzen der Kräfte beschränkt, die zwischen der Roboterhand und dem ergriffenen Objekt wirken; stattdessen kann ein jedes Bewertungsverfahren verwendet werden. In der achten Ausführungsform der vorliegenden Erfindung ist die Objektergreifungsbewertungseinheit 110 beinhaltet, die eine derartige Funktion des Simulierens des Ergreifens eines Objekts durch einen Roboter aufweist. Ein Beispiel für einen ausgegebenen Bildschirm in der achten Ausführungsform ist in 25 dargestellt. 25 ist ein Schema, das ein Beispiel für einen Anzeigebildschirm 60 darstellt, der durch die in 23 dargestellte Simulationsvorrichtung 18 ausgegeben wird. Der Anzeigebildschirm 60 beinhaltet eine Erkennungs- und Ergreifungsbewertungsergebnisanzeigeregion 61 zusätzlich zur Anzeige des Anzeigebildschirms 30. Das Verfahren zum Ausgeben des Erkennungsergebnisses und des Ergreifungsbewertungsergebnisses kann im Ausgeben des Gelingens oder Fehlschlags der Erkennung oder Ergreifung mithilfe verschiedener Symbole für den Fall des Gelingens und den Fall des Fehlschlags bestehen, im Ausgeben einer Ursache des Fehlschlags im Falle eines Fehlschlags bestehen, oder im Anzeigen eines zur Bewertung verwendeten quantitativen Werts bestehen.The method for evaluating the probability of success of the gripping is not limited to the method for estimating the forces that act between the robot hand and the gripped object; instead, any evaluation method can be used. In the eighth embodiment of the present invention, the object grasping evaluation unit is 110 which has such a function of simulating grasping of an object by a robot. An example of an output screen in the eighth embodiment is shown in FIG 25th shown. 25th is a diagram showing an example of a display screen 60 represented by the in 23 illustrated simulation device 18th is issued. The display screen 60 includes a recognition and seizure evaluation result display region 61 in addition to displaying the display screen 30th . The method of outputting the recognition result and the seizure judgment result may be outputting the success or failure of the recognition or grasping using various symbols in the case of success and the failure, outputting a cause of failure in the case of failure, or displaying consist of a quantitative value used for valuation.

Wie vorbeschrieben, ist die Simulationsvorrichtung 18 gemäß der achten Ausführungsform der vorliegenden Erfindung in der Lage, eine Erfolgsrate des Ergreifens durch Simulation zu bewerten, was einen vorteilhaften Effekt hervorbringt, der darin besteht, eine Vorverifizierung zu erleichtern, ehe ein Robotersystem konstruiert wird.As described above, the simulation device is 18th according to the eighth embodiment of the present invention, is able to evaluate a success rate of grasping by simulation, which brings about an advantageous effect that is to facilitate pre-verification before a robot system is constructed.

Um ein System zu konstruieren, das eine Reihe an Arbeitsabläufen vom Erkennen zum Ergreifen eines Objekts durch Verwendung eines tatsächlichen Roboters ermöglicht, ist ein erheblicher Zeit- und Kostenaufwand für die Installation einer Vorrichtung für räumliche Messungen, die Einstellung von Software zur Objekterkennung, die Einstellung von Arbeitsabläufen des Roboters und dergleichen erforderlich. Darüber hinaus sind auch eine lange Zeit und Versuch und Irrtum für Tests erforderlich, in denen das Ergreifen eines Objekts in einem realen Raum wiederholt wird. Gemäß der vorliegenden Erfindung können Ergreifungstests durch Simulation durchgeführt werden, was es ermöglicht, Tests in einem kürzeren Zeitraum durchzuführen als solche aus dem Stand der Technik.To construct a system that enables a variety of workflows from detecting to grasping an object by using an actual robot, it takes a significant amount of time and money to install a spatial measurement device, adjust object recognition software, adjust Work processes of the robot and the like are required. In addition, a long time and trial and error are also required for tests in which grasping an object is repeated in a real space. According to the present invention, gripping tests can be performed by simulation, which enables tests to be performed in a shorter period of time than those of the prior art.

In einem Fall, in dem ein tatsächliches Robotersystem verwendet wird, um Ergreifungstests durchzuführen und eine Analyse der Ursache für Ergreifungsfehlschläge versucht wird, können Ergebnisse zum Gelingen des Ergreifens oder Fehlschlag des Ergreifens nur in einem Zustand erhalten werden, in dem alle Fehlschlagfaktoren, die von Fehlern in räumlichen Messungen bis hin zu Fehlern beim Einstellen von Arbeitsabläufen des Roboters reichen, vorliegen. Folglich ist es schwierig zu analysieren, welche Korrekturen vorgenommen werden sollten, um die Erfolgsrate des Ergreifens zu verbessern. Im Rahmen der vorliegenden Erfindung können die Fehlschlagfaktoren voneinander unterschieden und durch Simulation verifiziert werden, was eine Bestimmung von Ursachen und Verbesserung in einem kurzen Zeitraum ermöglicht.In a case where an actual robot system is used to conduct seizure tests and an analysis of the cause of seizure failures is attempted, results of the success of grasping or failure of grasping can only be obtained in a state in which all the failure factors caused by errors ranging from spatial measurements to errors in setting up the robot's workflows. As a result, it is difficult to analyze what corrections should be made to improve the success rate of the grasping. Within the scope of the present invention, the failure factors can be distinguished from one another and verified by simulation, which enables causes and improvements to be determined in a short period of time.

Nachfolgend wird eine Hardware-Konfiguration der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung beschrieben. Die Messbedingungserhaltungseinheit 101, die Generationseinheit für virtuelle Aufnahmebilder 102, die Recheneinheit für räumliche Messungen 103, die Ausgabeeinheit 104, die Fehlerinformationserhaltungseinheit 105, die Auswertungsreferenzdatengenerationseinheit 106, die Messungsbewertungseinheit 107, die Objekterkennungsverarbeitungseinheit 108, die Erkennungsbewertungseinheit 109 und die Objektergreifungsbewertungseinheit 110 sind durch eine Verarbeitungsschaltung implementiert. Die Verarbeitungsschaltung kann durch dedizierte Hardware implementiert werden oder eine Steuerschaltung unter Verwendung einer zentralen Verarbeitungseinheit (CPU) sein.The following is a hardware configuration of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention. The measurement condition maintenance unit 101 , the generation unit for virtual recording images 102 , the computing unit for spatial measurements 103 , the output unit 104 , the failure information preservation unit 105 , the evaluation reference data generation unit 106 , the measurement evaluation unit 107 , the object recognition processing unit 108 , the recognition evaluation unit 109 and the object grasping evaluation unit 110 are implemented by a processing circuit. The processing circuit can be implemented by dedicated hardware or a control circuit using a central processing unit (CPU).

In einem Fall, in dem die Verarbeitungsschaltung durch dedizierte Hardware implementiert wird, werden die Komponenten durch die in 26 dargestellte Verarbeitungsschaltung 90 implementiert. 26 ist ein Schema, das dedizierte Hardware zum Implementieren der Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. Die Verarbeitungsschaltung 90 ist eine Einzelschaltung, eine Verbundschaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor, eine anwendungsspezifische integrierte Schaltung (ASIC), eine feldprogrammierbare Gatter-Anordnung (FPGA) oder eine Kombination daraus.In a case where the processing circuit is implemented by dedicated hardware, the components are implemented by the in 26th processing circuit shown 90 implemented. 26th is a scheme showing dedicated hardware for implementing the functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention. The processing circuit 90 is a single circuit, a compound circuit, a programmed processor, a parallel programmed processor, an application-specific integrated circuit (ASIC), a field-programmable gate arrangement (FPGA) or a combination thereof.

In einem Fall, in dem die Verarbeitungsschaltung durch eine Steuerschaltung unter Verwendung einer CPU implementiert wird, ist die Steuerschaltung eine Steuerschaltung 91 mit einer in 27 dargestellten Konfiguration, als Beispiel. 27 ist ein Schema, das eine Konfiguration der Steuerschaltung 91 zum Implementieren der Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. Wie in 27 dargestellt, beinhaltet die Steuerschaltung 91 einen Prozessor 92 und einen Speicher 93. Der Prozessor 92 ist eine CPU und wird auch als zentrales Verarbeitungsgerät, verarbeitende Vorrichtung, Rechenvorrichtung, Mikroprozessor, Mikrocomputer, digitaler Signalprozessor (DSP) oder dergleichen bezeichnet. Der Speicher 93 ist ein nichtflüchtiger oder flüchtiger Halbleiterspeicher wie zum Beispiel ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), ein Flash-Speicher, ein löschbarer programmierbarer ROM (EPROM) oder ein elektrisch löschbarer programmierbarer ROM (EEPROM; Registered Trademark), eine Magnetplatte, eine flexible Platte, eine optische Platte, eine Compact Disc, eine Mini Disc, eine Digital Versatile Disk (DVD) oder dergleichen, als Beispiel.In a case where the processing circuit is implemented by a control circuit using a CPU, the control circuit is a control circuit 91 with an in 27 configuration shown, as an example. 27 is a diagram showing a configuration of the control circuit 91 for implementing the functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention. As in 27 shown includes the control circuit 91 a processor 92 and a memory 93 . The processor 92 is a CPU and is also referred to as a central processing device, processing device, computing device, microprocessor, microcomputer, digital signal processor (DSP) or the like. The memory 93 is a non-volatile or volatile semiconductor memory such as a random access memory (RAM), a read-only memory (ROM), a flash memory, an erasable programmable ROM (EPROM) or an electrically erasable programmable ROM (EEPROM; Registered Trademark), a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a digital versatile disk (DVD) or the like, for example.

In einem Fall, in dem die Verarbeitungsschaltung durch die Steuerschaltung 91 implementiert wird, wird die Verarbeitungsschaltung durch den Prozessor 92 implementiert, der Programme ausliest und ausführt, die den Prozessen der jeweiligen Komponenten, die in dem Speicher 93 gespeichert sind, entsprechen. Des Weiteren wird der Speicher 93 auch als temporärer Speicher in Prozessen verwendet, die durch den Prozessor 92 durchgeführt werden.In a case where the processing circuit is controlled by the control circuit 91 is implemented, the processing circuitry is implemented by the processor 92 implemented, which reads and executes programs that the processes of the respective components that are in the memory 93 are stored. Furthermore, the memory 93 also used as temporary storage in processes run by the processor 92 be performed.

Außerdem können die Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung auch durch Hardware mit einer in 28 dargestellten Konfiguration implementiert werden. 28 ist ein Schema, das ein Beispiel für eine Hardware-Konfiguration zum Implementieren der Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung darstellt. Die Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung können durch Verwendung einer Eingabevorrichtung 94 und einer Ausgabevorrichtung 95 zusätzlich zu dem Prozessor 92 und dem Speicher 93 implementiert werden. Die Eingabevorrichtung 94 ist eine Eingabeschnittstelle wie eine Tastatur, eine Maus oder ein Berührungssensor, die durch einen Benutzer eingegebene Operationen empfängt. Die Ausgabevorrichtung 95 ist eine Anzeigevorrichtung, als Beispiel, die Bildschirme für den Benutzer anzeigen kann. In einem Fall, in dem ein berührungsempfindliches Bedienfeld verwendet wird, entspricht eine Anzeigevorrichtung des berührungsempfindlichen Bedienfelds der Ausgabevorrichtung 95, und ein Berührungssensor, der über die Anzeigevorrichtung gelegt ist, entspricht der Eingabevorrichtung 94.In addition, the functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention also by hardware with an in 28 can be implemented. 28 Fig. 13 is a diagram showing an example of a hardware configuration for implementing the functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention. The functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th According to the first to eighth embodiments of the present invention, by using an input device 94 and an output device 95 in addition to the processor 92 and the memory 93 implemented. The input device 94 is an input interface such as a keyboard, mouse, or touch sensor that receives operations input by a user. The output device 95 is a display device, for example, that can display screens to the user. In a case where a touch panel is used, a display device of the touch panel corresponds to the output device 95, and a touch sensor overlaid on the display device corresponds to the input device 94.

Beispielsweise können die Funktionen der Messbedingungserhaltungseinheit 101 und der Ausgabeeinheit 104 der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 durch den Prozessor 92 implementiert werden, oder sie können durch den Prozessor 92 und die Eingabevorrichtung 94 oder die Ausgabevorrichtung 95 oder Schnittstellen davon implementiert werden.For example, the functions of the measurement condition maintenance unit 101 and the output unit 104 of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th through the processor 92 or they can be implemented by the processor 92 and the input device 94 or the output device 95 or interfaces thereof are implemented.

Die Auslegungen, die in den vorstehenden Ausführungsformen dargelegt werden, sind Beispiele der vorliegenden Erfindung und können mit anderen bekannten Techniken kombiniert werden oder teilweise weggelassen oder abgewandelt werden, ohne vom Umfang der vorliegenden Erfindung abzuweichen.The constructions set forth in the above embodiments are examples of the present invention and can be combined with other known techniques or partially omitted or modified without departing from the scope of the present invention.

Beispielsweise können die Funktionen der Simulationsvorrichtungen 10, 12, 13, 14, 15, 16, 17 und 18 gemäß der ersten bis achten Ausführungsform der vorliegenden Erfindung durch ein Hardwareteil implementiert werden, oder sie können in verteilter Weise durch eine Vielzahl von Hardwareteilen verarbeitet werden.For example, the functions of the simulation devices 10 , 12th , 13th , 14th , 15th , 16 , 17th and 18th according to the first to eighth embodiments of the present invention can be implemented by one piece of hardware, or they can be processed in a distributed manner by a plurality of pieces of hardware.

Außerdem handelt es sich bei den vorbeschriebenen Anzeigebildschirmen 20, 30, 40, 50 und 60 um Beispiele, die in unterschiedlicher Art und Weise abgewandelt werden können.In addition, they are the display screens described above 20th , 30th , 40 , 50 and 60 about examples that can be modified in different ways.

BezugszeichenlisteList of reference symbols

10, 12, 13, 14, 15, 16, 17, 1810, 12, 13, 14, 15, 16, 17, 18
Simulationsvorrichtung;Simulation device;
20, 30, 40, 50, 6020, 30, 40, 50, 60
Anzeigebildschirm;Display screen;
2121
Verarbeitungsergebnisanzeigeregion;Processing result display region;
2222nd
Messbedingungsanzeigeregion;Measurement condition display region;
2323
Listenanzeigeregion;List display region;
2424
Auswahlregion für ausgewählte Inhalte;Selection region for selected content;
2525th
Ausführen-Schaltfläche;Run button;
26, 4226, 42
Speichern-Schaltfläche;Save button;
27, 4327, 43
Beenden-Schaltfläche;Exit button;
2828
Fehlerfaktorfestlegungsregion;Error factor setting region;
4141
Anpassungsaspektanzeigeregion;Adjustment aspect display region;
4444
Verarbeitungsschaltung; Messergebnisanzeigeregion;Processing circuit; Measurement result display region;
5151
Auswertungsreferenzdatenanzeigeregion;Evaluation reference data display region;
6161
Erkennungs- und Ergreifungsbewertungsergebnisanzeigeregion;Detection and seizure evaluation result display region;
90 9190 91
Steuerschaltung;Control circuit;
9292
Prozessor;Processor;
9393
Speicher;Storage;
101101
Messbedingungserhaltungseinheit;Measurement condition maintenance unit;
102102
Generationseinheit für virtuelle Aufnahmebilder;Generation unit for virtual recorded images;
103103
Recheneinheit für räumliche Messungen;Computing unit for spatial measurements;
104104
Ausgabeeinheit;Output unit;
105105
Fehlerinformationserhaltungseinheit;Failure information preservation unit;
106106
Auswertungsreferenzdatengenerationseinheit;Evaluation reference data generation unit;
107107
Messungsbewertungseinheit;Measurement evaluation unit;
108108
Objekterkennungsverarbeitungseinheit;Object recognition processing unit;
109109
Erkennungsbewertungseinheit;Recognition evaluation unit;
110110
Objekterkennungsverarbeitungseinheit;Object recognition processing unit;
201201
Projektionsbedingungsinformationserhaltungseinheit;Projection condition information obtaining unit;
202202
Abbildungsbedingungsinformationserhaltungseinheit;Mapping condition information obtaining unit;
203203
Messobjektinformationserhaltungseinheit;Measurement object information preservation unit;
204204
Nichtmessobjektinformationserhaltungseinheit;Non-measurement object information obtaining unit;
301301
Generationseinheit für optisch reproduzierte Bilder;Generation unit for optically reproduced images;
302302
Bildqualitätsbeeinträchtigungsverarbeitungseinheit;Image quality deterioration processing unit;
303303
Fehlerfaktorbestimmungseinheit;Error factor determination unit;
401401
Generationseinheit für Sensorstandpunktdaten;Generation unit for sensor position data;
402402
Kartengenerationseinheit;Card generation unit;
403403
Bildkombinationseinheit;Image combining unit;
501501
Generationseinheit für helle Bilder;Generation unit for bright images;
502502
Generationseinheit für dunkle Bilder;Generation unit for dark images;
503503
Abstandsdatengenerationseinheit;Distance data generation unit;
601601
Anstrahlungsregionenberechnungseinheit;Exposure region calculation unit;
602602
Anstrahlungskartengenerationseinheit;Exposure map generation unit;
603603
Lichtunschärfereproduktionseinheit;Light blur reproduction unit;
604604
Reflexionsregionenberechnungseinheit;Reflection region calculation unit;
605605
Reflexionskartengenerationseinheit.Reflection map generation unit.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • JP 2015203652 [0003]JP 2015203652 [0003]

Claims (29)

Simulationsvorrichtung, umfassend: eine Messbedingungserhaltungseinheit zum Erhalten von Messbedingungsinformationen, die eine Messbedingung einer Vorrichtung für räumliche Messungen angibt, welche eine projizierende Vorrichtung zum Projizieren von Licht auf ein auszumessendes Messobjekt und eine abbildende Vorrichtung zum Aufnehmen eines Bilds eines Abbildungsraums, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird, beinhaltet; eine Generationseinheit für virtuelle Aufnahmebilder zum Generieren eines virtuellen Aufnahmebilds, das ein durch die abbildende Vorrichtung ausgegebenes Aufnahmebild auf der Grundlage der Messbedingungsinformationen reproduziert; eine Recheneinheit für räumliche Messungen zum Durchführen eines räumlichen Messprozesses des Ermittelns einer räumlichen Position auf einer Oberfläche des Messobjekts durch Verwendung des virtuellen Aufnahmebilds, um einen Messwert zu erhalten; und eine Ausgabeeinheit zum Ausgeben eines Simulationsergebnisses, das den Messwert enthält.Simulation device comprising: a measurement condition obtaining unit for obtaining measurement condition information indicating a measurement condition of a spatial measurement device that includes a projecting device for projecting light onto a measurement object and an imaging device for capturing an image of an imaging space containing the measurement object, which is projected with light from the projecting device is irradiated includes; a virtual captured image generation unit for generating a virtual captured image that reproduces a captured image output by the imaging device based on the measurement condition information; a spatial measurement arithmetic unit for performing a spatial measurement process of determining a spatial position on a surface of the measurement object by using the virtual captured image to obtain a measurement value; and an output unit for outputting a simulation result that contains the measured value. Simulationsvorrichtung nach Anspruch 1, wobei die Messbedingungsinformationen zumindest eines von Informationen, die eine Projektionsbedingung der projizierenden Vorrichtung angeben, Informationen, die eine Abbildungsbedingung der abbildenden Vorrichtung angeben, Informationen, die eine Form des Messobjekts angeben, Informationen, welche einen Zustand des Messobjekts angeben, und Informationen, die Charakteristika des Messobjekts angeben, enthalten.Simulation device according to Claim 1 wherein the measurement condition information includes at least one of information indicating a projection condition of the projecting device, information indicating an imaging condition of the imaging device, information indicating a shape of the measuring object, information indicating a state of the measuring object, and information indicating the characteristics of the measurement object are included. Simulationsvorrichtung nach Anspruch 2, wobei die Informationen, welche die Projektionsbedingung angeben, Informationen sind, die es ermöglichen, dass eine Position und eine Stellung, eine Auflösung und ein Fokus der projizierenden Vorrichtung bestimmt werden, die Informationen, welche die Abbildungsbedingung angeben, Informationen sind, die es ermöglichen, dass eine Position und eine Stellung, eine Auflösung und ein Fokus der abbildenden Vorrichtung bestimmt werden, die Informationen, welche den Zustand des Messobjekts angeben, zumindest eines von einer Position und einer Stellung des Messobjekts enthalten, und die Informationen, welche die Charakteristika des Messobjekts angeben, zumindest eines von der Farbe, diffusen Reflexion und gerichteten Reflexion des Messobjekts enthalten.Simulation device according to Claim 2 wherein the information indicating the projection condition is information that enables a position and a posture, a resolution and a focus of the projecting device to be determined, the information indicating the imaging condition is information that enables that a position and a posture, a resolution and a focus of the imaging device are determined, the information indicating the state of the measurement object, at least one of a position and a posture of the measurement object, and the information indicating the characteristics of the measurement object , contain at least one of the color, diffuse reflection and specular reflection of the target. Simulationsvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Messbedingungsinformationen weiterhin Informationen beinhalten, die zumindest eines von einer Position, einer Form und Charakteristika eines anderen Objekts als des Messobjekts, das in dem Abbildungsraum beinhaltet ist, angeben.Simulation device according to one of the Claims 1 until 3 wherein the measurement condition information further includes information indicating at least one of a position, a shape, and characteristics of an object other than the measurement object included in the imaging space. Simulationsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Messbedingungsinformationen weiterhin Informationen beinhalten, die einen Zustand des Umgebungslichts angeben.Simulation device according to one of the Claims 1 until 4th wherein the measurement condition information further includes information indicating a state of the ambient light. Simulationsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Generationseinheit für virtuelle Aufnahmebilder das virtuelle Aufnahmebild generiert, wobei mit einem Pixelwert ein Fehler, der an einer Position enthalten ist, die einer Grenze eines durch das projizierte Licht in dem Aufnahmebild geworfenen Schattens entspricht, reproduziert wird, was auf der Grundlage der Messbedingungsinformationen erfolgt.Simulation device according to one of the Claims 1 until 5 wherein the captured virtual image generation unit generates the captured virtual image with a pixel value reproducing an error contained at a position corresponding to a boundary of a shadow cast by the projected light in the captured image based on the measurement condition information he follows. Simulationsvorrichtung nach Anspruch 6, wobei die Generationseinheit für virtuelle Aufnahmebilder das virtuelle Aufnahmebild generiert, wobei der Fehler reproduziert wird, der durch wenigstens einen Auftrittsfaktor von Interreflexion, die durch Anstrahlung mit von einer Oberfläche eines Objekts reflektierten Lichts verursacht wird, Unschärfe des projizierten Lichts, die durch Defokussierung der projizierenden Vorrichtung verursacht wird, Bildverzeichnung, die durch Verzeichnung eines Objekts der abbildenden Vorrichtung verursacht wird, Zufallsrauschen und eine durch Defokussierung der abbildenden Vorrichtung verursachte Bildunschärfe, hervorgerufen wird.Simulation device according to Claim 6 wherein the generation unit for virtual recorded images generates the virtual recorded image, the error being reproduced which is caused by at least one occurrence factor of interreflection caused by exposure to light reflected from a surface of an object, blurring of the projected light caused by defocusing of the projecting Device, image distortion caused by distortion of an object of the imaging device, random noise, and image blurring caused by defocusing of the imaging device. Simulationsvorrichtung nach Anspruch 6 oder 7, wobei die Generationseinheit für virtuelle Aufnahmebilder beinhaltet: eine Generationseinheit für optisch reproduzierte Bilder zum Generieren eines optisch reproduzierten Bilds, wobei das Aufnahmebild durch optische Simulation auf der Grundlage der Messbedingungsinformationen reproduziert wird; und eine Bildqualitätsbeeinträchtigungsverarbeitungseinheit zum Vornehmen eines Bildqualitätsbeeinträchtigungsprozesses an dem optisch reproduzierten Bild auf der Grundlage des Fehlers, und ein Bild, das dem Bildqualitätsbeeinträchtigungsprozess unterzogen wurde, als das virtuelle Aufnahmebild verwendet wird.Simulation device according to Claim 6 or 7th wherein the captured virtual image generation unit includes: an optically reproduced image generation unit for generating an optically reproduced image, the captured image being reproduced by optical simulation based on the measurement condition information; and an image quality deterioration processing unit for performing an image quality deterioration process on the optically reproduced image based on the defect, and an image that has been subjected to the image quality deterioration process is used as the captured virtual image. Simulationsvorrichtung nach Anspruch 8, wobei die Generationseinheit für virtuelle Aufnahmebilder weiterhin beinhaltet: eine Fehlerinformationserhaltungseinheit zum Erhalten von Fehlerinformationen, die einen Auftrittsfaktor des Fehlers, der in dem virtuellen Aufnahmebild auszudrücken ist, angibt, die Generationseinheit für optisch reproduzierte Bilder das optisch reproduzierte Bild auf der Grundlage der Messbedingungsinformationen und der Fehlerinformationen generiert, und die Bildqualitätsbeeinträchtigungsverarbeitungseinheit einen Bildqualitätsbeeinträchtigungsprozess an dem optisch reproduzierten Bild auf der Grundlage der Messbedingungsinformationen und der Fehlerinformationen vornimmt.Simulation device according to Claim 8 wherein the captured virtual image generation unit further includes: an error information obtaining unit for obtaining error information indicating an occurrence factor of the error to be expressed in the captured virtual image, the optically reproduced image generation unit based on the optically reproduced image of the measurement condition information and the error information, and the image quality deterioration processing unit performs an image quality deterioration process on the optically reproduced image based on the measurement condition information and the error information. Simulationsvorrichtung nach Anspruch 9, wobei die Fehlerinformationen Intensitäten von Fehlern je nach Arten von Auftrittsfaktoren der Fehler enthalten, und die Generationseinheit für virtuelle Aufnahmebilder eine Intensität des Beeinträchtigungsprozesses, der an dem optisch reproduzierten Bild vorzunehmen ist, je nach Arten der Auftrittsfaktoren der Fehler auf der Grundlage der Fehlerinformationen bestimmt.Simulation device according to Claim 9 wherein the defect information includes intensities of defects depending on types of occurrence factors of defects, and the virtual captured image generation unit determines an intensity of the deterioration process to be performed on the optically reproduced image depending on types of occurrence factors of defects based on the defect information. Simulationsvorrichtung nach Anspruch 9 oder 10, wobei die Fehlerinformationen eine Hinzufügungsreihenfolge von Fehlern je nach Arten von Auftrittsfaktoren der Fehler enthalten, und die Generationseinheit für virtuelle Aufnahmebilder eine Reihenfolge des Beeinträchtigungsprozesses, der an dem optisch reproduzierten Bild vorzunehmen ist, je nach Arten der Auftrittsfaktoren der Fehler auf der Grundlage der Fehlerinformationen bestimmt.Simulation device according to Claim 9 or 10 wherein the defect information includes an addition order of defects according to kinds of occurrence factors of the defects, and the virtual captured image generation unit determines an order of the deterioration process to be performed on the optically reproduced image according to kinds of occurrence factors of the defects based on the defect information . Simulationsvorrichtung nach einem der Ansprüche 1 bis 11, wobei die Generationseinheit für virtuelle Aufnahmebilder einen Ausbreitungsweg des Lichts auf der Grundlage der Messbedingungsinformationen berechnet, und, wenn das projizierte Licht von einer ersten Fläche reflektiert wird und reflektiertes Licht auf einer zweiten Fläche auftrifft, eine Leuchtdichte eines Pixels, das einen Auftreffpunkt des reflektierten Lichts auf der zweiten Fläche aufweist, derart erhöht, dass sie höher als eine erste Leuchtdichte ist, bei welcher der Einfluss des reflektierten Lichts nicht berücksichtigt wird.Simulation device according to one of the Claims 1 until 11 wherein the virtual captured image generation unit calculates a propagation path of the light based on the measurement condition information, and when the projected light is reflected from a first surface and reflected light is incident on a second surface, a luminance of a pixel that is an incident point of the reflected light on the second surface, increased such that it is higher than a first luminance in which the influence of the reflected light is not taken into account. Simulationsvorrichtung nach Anspruch 12, wobei die Generationseinheit für virtuelle Aufnahmebilder einen Betrag der Erhöhung der Leuchtdichte des Pixels auf der Grundlage von Oberflächencharakteristika der ersten Fläche, Oberflächencharakteristika der zweiten Fläche und einer Stellung der ersten Fläche in Bezug auf die zweite Fläche bestimmt.Simulation device according to Claim 12 wherein the captured virtual image generation unit determines an amount of increase in luminance of the pixel based on surface characteristics of the first surface, surface characteristics of the second surface, and a position of the first surface with respect to the second surface. Simulationsvorrichtung nach einem der Ansprüche 1 bis 13, wobei die Generationseinheit für virtuelle Aufnahmebilder eine erste Region, die eine Region ist, welche mit dem projizierten Licht angestrahlt wird, und eine zweite Region, bei der es sich um eine Region handelt, die nicht mit dem projizierten Licht angestrahlt wird, auf der Grundlage der Messbedingungsinformationen berechnet und eine Leuchtdichte eines Pixels innerhalb eines vorgegebenen Abstands von einer Grenze zwischen der ersten Region und der zweiten Region auf der Grundlage eines Abstands zwischen dem Pixel und der Grenze bestimmt.Simulation device according to one of the Claims 1 until 13th wherein the virtual captured image generation unit has a first region that is a region that is irradiated with the projected light and a second region that is a region that is not irradiated with the projected light on the basis of the measurement condition information, and determines a luminance of a pixel within a predetermined distance from a boundary between the first region and the second region based on a distance between the pixel and the boundary. Simulationsvorrichtung nach Anspruch 14, wobei die Generationseinheit für virtuelle Aufnahmebilder die Leuchtdichte des Pixels innerhalb des vorgegebenen Abstands von der Grenze derart festlegt, dass sie kleiner als oder gleich einem maximalen Wert ist, der mit einer Leuchtdichte mit Anstrahlung mit dem projizierten Licht korrespondiert, und größer als oder gleich einem minimalen Wert ist, welcher mit einer Leuchtdichte ohne Anstrahlung mit dem projizierten Licht korrespondiert.Simulation device according to Claim 14 , wherein the generation unit for virtual recorded images sets the luminance of the pixel within the predetermined distance from the boundary such that it is less than or equal to a maximum value that corresponds to a luminance with illumination with the projected light, and greater than or equal to a is the minimum value which corresponds to a luminance without irradiation with the projected light. Simulationsvorrichtung nach Anspruch 15, wobei die Generationseinheit für virtuelle Aufnahmebilder die Leuchtdichte des Pixels näher bei dem maximalen Wert festlegt, wenn sich das Pixel in größerer Nähe zu der ersten Region befindet, und die Leuchtdichte des Pixels näher bei dem minimalen Wert festlegt, wenn sich das Pixel in größerer Nähe zu der zweiten Region befindet.Simulation device according to Claim 15 wherein the captured virtual image generation unit sets the luminance of the pixel closer to the maximum value when the pixel is in closer proximity to the first region, and sets the luminance of the pixel closer to the minimum value when the pixel is in closer proximity to the second region is located. Simulationsvorrichtung nach einem der Ansprüche 1 bis 16, wobei die Generationseinheit für virtuelle Aufnahmebilder beinhaltet: eine Generationseinheit für Sensorstandpunktdaten zum Generieren von Sensorstandpunktdaten, die ein erstes Bild des Abbildungsraums vom Standpunkt der abbildenden Vorrichtung und Abstandsdaten von jeder von der abbildenden Vorrichtung und der projizierenden Vorrichtung zu einem Objekt in dem Abbildungsraum enthalten, durch Verwendung der Messbedingungsinformationen; und eine Kartengenerationseinheit zum Generieren einer Anstrahlungskarte, bei der es sich um eine Karte handelt, die mit verschiedenen Zahlenwerten eine Region, die mit dem projizierten Licht angestrahlt wird, und eine Region, welche nicht mit dem projizierten Licht angestrahlt wird, in dem ersten Bild angibt, auf der Grundlage der Messbedingungsinformationen, und die Generationseinheit für virtuelle Aufnahmebilder das virtuelle Aufnahmebild auf der Grundlage der Anstrahlungskarte und des ersten Bilds generiert.Simulation device according to one of the Claims 1 until 16 wherein the virtual captured image generation unit includes: a sensor standpoint data generation unit for generating sensor standpoint data including a first image of the imaging space from the viewpoint of the imaging device and distance data from each of the imaging device and the projecting device to an object in the imaging space Use of the measurement condition information; and a map generation unit for generating an exposure map which is a map indicating, with different numerical values, a region that is irradiated with the projected light and a region that is not irradiated with the projected light in the first image , based on the measurement condition information, and the virtual captured image generation unit generates the virtual captured image based on the exposure map and the first image. Simulationsvorrichtung nach Anspruch 17, wobei das erste Bild ein helles Bild, in dem der gesamte Abbildungsraum mit einer Helligkeit von der Anstrahlung mit dem projizierten Licht dargestellt wird, und ein dunkles Bild beinhaltet, in welchem der Abbildungsraum nicht mit dem projizierten Licht angestrahlt wird, und die Generationseinheit für virtuelle Aufnahmebilder das virtuelle Aufnahmebild durch Kombinieren des hellen Bilds und des dunklen Bilds in Einheiten von Pixeln auf der Grundlage der Werte auf der Anstrahlungskarte generiert.Simulation device according to Claim 17 , wherein the first image includes a bright image in which the entire imaging space is displayed with a brightness of the irradiation with the projected light, and a dark image in which the imaging space is not irradiated with the projected light, and the generation unit for virtual Pickup Images the virtual pickup image by combining the light image and the dark image in units of Pixels generated based on the values on the exposure map. Simulationsvorrichtung nach Anspruch 18, wobei die Kartengenerationseinheit beinhaltet: eine Anstrahlungsregionenberechnungseinheit zum Berechnen einer Anstrahlungsregion, die eine Region ist, welche mit dem projizierten Licht angestrahlt wird, in dem ersten Bild durch Verknüpfen einer räumlichen Position eines Punkts, der mit dem projizierten Licht angestrahlt wird, mit Koordinaten in dem ersten Bild durch Verwendung der Messbedingungsinformationen und der Sensorstandpunktdaten; und eine Anstrahlungskartengenerationseinheit zum Generieren der Anstrahlungskarte für jedes Projektionsmuster des projizierten Lichts durch Verwendung der Anstrahlungsregion und der Messbedingungsinformationen.Simulation device according to Claim 18 wherein the map generation unit includes: an irradiation region calculating unit for calculating an irradiation region, which is a region irradiated with the projected light, in the first image by associating a spatial position of a point irradiated with the projected light with coordinates in the first image by using the measurement condition information and the sensor point of view data; and an exposure map generation unit for generating the exposure map for each projection pattern of the projected light by using the exposure region and the measurement condition information. Simulationsvorrichtung nach Anspruch 19, wobei die Kartengenerationseinheit weiterhin beinhaltet: eine Lichtunschärfereproduktionseinheit zum Reproduzieren von Unschärfe des Lichts durch Anpassen der Werte auf der Anstrahlungskarte in Abhängigkeit von einem Unschärfegrad einer Schattengrenze des Lichts, und die Kartengenerationseinheit jede der Leuchtdichten des hellen Bilds und des dunklen Bilds auf der Grundlage der angepassten Werte auf der Anstrahlungskarte gewichtet und die gewichteten Leuchtdichten summiert, um eine Leuchtdichte jedes Pixels in dem virtuellen Aufnahmebild zu bestimmen.Simulation device according to Claim 19 wherein the map generation unit further includes: a light blur reproduction unit for reproducing blurring of the light by adjusting the values on the exposure map depending on a degree of blurring of a shadow boundary of the light, and the map generating unit each of the luminances of the light image and the dark image based on the adjusted Values are weighted on the exposure map and the weighted luminances are summed in order to determine a luminance of each pixel in the virtual recorded image. Simulationsvorrichtung nach einem der Ansprüche 18 bis 20, wobei die Kartengenerationseinheit beinhaltet: eine Reflexionsregionenberechnungseinheit zum Berechnen einer Reflexionsregion, die eine Region ist, welche mit einem reflektierten Lichtstrahl angestrahlt wird, in dem ersten Bild, durch Verknüpfen einer räumlichen Position eines mit dem reflektierten Lichtstrahl angestrahlten Punkts mit Koordinaten auf dem ersten Bild durch Verwendung der Messbedingungsinformationen und der Sensorstandpunktdaten, wobei der reflektierte Lichtstrahl ein Lichtstrahl ist, der von der projizierenden Vorrichtung ausgesendet wird, von einem Objekt in dem Abbildungsraum reflektiert wird und dessen Intensität und Richtung sich ändern; und eine Reflexionskartengenerationseinheit zum Generieren einer Reflexionskarte, bei der es sich um eine Karte handelt, die mit verschiedenen Zahlenwerten die Reflexionsregion und eine Region angibt, welche nicht mit dem reflektierten Lichtstrahl angestrahlt wird, für jedes Projektionsmuster des projizierten Lichts durch Verwendung der Reflexionsregion und der Messbedingungsinformationen, und das virtuelle Aufnahmebild durch Verwendung der Reflexionskarte, der Anstrahlungskarte und des ersten Bilds generiert wird.Simulation device according to one of the Claims 18 until 20th wherein the map generation unit includes: a reflection region calculation unit for calculating a reflection region, which is a region irradiated with a reflected light beam, in the first image by associating a spatial position of a point irradiated with the reflected light beam with coordinates on the first image Using the measurement condition information and the sensor standpoint data, wherein the reflected light beam is a light beam emitted from the projecting device, reflected from an object in the imaging space, and the intensity and direction of which are changed; and a reflection map generation unit for generating a reflection map, which is a map indicating, with various numerical values, the reflection region and a region which is not irradiated with the reflected light beam, for each projection pattern of the projected light by using the reflection region and the measurement condition information , and the captured virtual image is generated by using the reflection map, the exposure map, and the first image. Simulationsvorrichtung nach Anspruch 21, wobei die Kartengenerationseinheit Werte in der Reflexionskarte in Abhängigkeit von einer Intensität des reflektierten Lichtstrahls und eines Unschärfegrads einer Schattengrenze des projizierten Lichts anpasst, jede der Leuchtdichten des hellen Bilds und des dunklen Bilds auf der Grundlage der angepassten Werte auf der Reflexionskarte und der Anstrahlungskarte gewichtet und die gewichteten Leuchtdichten summiert, um eine Leuchtdichte jedes Pixels in dem virtuellen Aufnahmebild zu bestimmen.Simulation device according to Claim 21 wherein the map generation unit adjusts values in the reflection map depending on an intensity of the reflected light beam and a degree of blurring of a shadow boundary of the projected light, weighting each of the luminances of the light image and the dark image based on the adjusted values on the reflection map and the exposure map, and sums the weighted luminances to determine a luminance of each pixel in the virtual captured image. Simulationsvorrichtung nach einem der Ansprüche 1 bis 22, wobei die Ausgabeeinheit das Simulationsergebnis ausgibt, das weiterhin zumindest eines von wenigstens einem Teil der Messbedingungsinformationen und des virtuellen Aufnahmebilds enthält.Simulation device according to one of the Claims 1 until 22nd , wherein the output unit outputs the simulation result, which furthermore contains at least one of at least part of the measurement condition information and the virtual recorded image. Simulationsvorrichtung nach einem der Ansprüche 1 bis 23, wobei die Messbedingungserhaltungseinheit eine Vielzahl von Teilen der Messbedingungsinformationen erhält, und die Ausgabeeinheit eine Liste von Simulationsergebnissen ausgibt, die jeweils Informationen über einen oder mehrere Aspekte, die als Aspekte spezifiziert sind, welche von den Teilen der Messbedingungsinformationen anzupassen sind, mit dem Messwert verknüpfen.Simulation device according to one of the Claims 1 until 23 wherein the measurement condition obtaining unit receives a plurality of pieces of the measurement condition information, and the output unit outputs a list of simulation results each relating information on one or more aspects specified as aspects to be adjusted by the pieces of the measurement condition information with the measurement value. Simulationsvorrichtung nach einem der Ansprüche 1 bis 24, weiterhin umfassend: eine Auswertungsreferenzdatengenerationseinheit zum Generieren von Auswertungsreferenzdaten, die eine Referenz zur Auswertung des Simulationsergebnisses sind, durch Verwendung der Messbedingungsinformationen; und eine Messungsbewertungseinheit zum Auswerten des Simulationsergebnisses durch Verwendung des Simulationsergebnisses und der Bewertungsreferenzdaten, wobei die Ausgabeeinheit ein Bewertungsergebnis zusätzlich zu dem Simulationsergebnis ausgibt.Simulation device according to one of the Claims 1 until 24 , further comprising: an evaluation reference data generation unit for generating evaluation reference data, which is a reference for evaluating the simulation result, by using the measurement condition information; and a measurement evaluation unit for evaluating the simulation result by using the simulation result and the evaluation reference data, the output unit outputting an evaluation result in addition to the simulation result. Simulationsvorrichtung nach einem der Ansprüche 1 bis 25, weiterhin umfassend: eine Objekterkennungsverarbeitungseinheit zum Erhalten, als Erkennungsergebnis, zumindest eines von einer Position und einer Stellung eines Objekts in dem Abbildungsraum und einer Greifposition, bei welcher es sich um eine Position handelt, an der das Objekt in der Lage ist, ergriffen zu werden, auf der Grundlage des Simulationsergebnisses; und eine Erkennungsbewertungseinheit zum Erhalten eines Erkennungsbewertungsergebnisses, das zumindest eines von einer Genauigkeit einer Schätzung der Position und der Stellung und einer Genauigkeit einer Schätzung der Greifposition enthält, durch Verwendung des Erkennungsergebnisses und der Messbedingungsinformationen, wobei die Ausgabeeinheit weiterhin das Erkennungsbewertungsergebnis ausgibt.Simulation device according to one of the Claims 1 until 25th , further comprising: an object recognition processing unit for obtaining, as a recognition result, at least one of a position and a posture of an object in the imaging space and a gripping position which is a position at which the object is able to be gripped , based on the simulation result; and a recognition evaluation unit for obtaining a recognition evaluation result including at least one of an accuracy of an estimation of the position and the posture and an accuracy of an estimation of the gripping position Using the recognition result and the measurement condition information, wherein the output unit continues to output the recognition evaluation result. Simulationsvorrichtung nach Anspruch 26, weiterhin umfassend: eine Objektergreifungsbewertungseinheit zum Bewerten der Wahrscheinlichkeit des Gelingens des Ergreifens eines Objekts in dem Abbildungsraum durch Verwendung der Messbedingungsinformationen und des Erkennungsergebnisses.Simulation device according to Claim 26 , further comprising: an object gripping evaluation unit for evaluating the probability of succeeding in grasping an object in the imaging space by using the measurement condition information and the recognition result. Simulationsverfahren, das von einer Simulationsvorrichtung ausgeführt wird, die einen Prozess des räumlichen Messens einer Vorrichtung für räumliche Messungen simuliert, welche eine projizierende Vorrichtung zum Projizieren von Licht auf ein auszumessendes Messobjekt und eine abbildende Vorrichtung zum Aufnehmen eines Bilds eines Abbildungsraums, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird, beinhaltet, wobei das Simulationsverfahren umfasst: einen Schritt des Erhaltens von Messbedingungsinformationen, die eine Messbedingung der Vorrichtung für räumliche Messungen angeben; einen Schritt des Generierens eines virtuellen Aufnahmebilds, wobei ein Aufnahmebild reproduziert wird, das durch die abbildende Vorrichtung ausgegeben wird, auf der Grundlage der Messbedingungsinformationen; einen Schritt des Vornehmens eines räumlichen Messprozesses des Ermittelns einer räumlichen Position auf einer Oberfläche des Messobjekts durch Verwendung des virtuellen Aufnahmebilds, um einen Messwert zu erhalten; und einen Schritt des Ausgebens eines Simulationsergebnisses, das den Messwert enthält.Simulation method that is executed by a simulation device that simulates a process of spatial measurement of a device for spatial measurements that includes a projecting device for projecting light onto a measurement object to be measured and an imaging device for capturing an image of an imaging space containing the measurement object, which is irradiated with projected light from the projecting device, the simulation method comprising: a step of obtaining measurement condition information indicating a measurement condition of the spatial measurement apparatus; a step of generating a virtual captured image, reproducing a captured image output by the imaging device based on the measurement condition information; a step of performing a spatial measurement process of determining a spatial position on a surface of the measurement object by using the virtual captured image to obtain a measurement value; and a step of outputting a simulation result that contains the measured value. Simulationsprogramm, das einen Computer zum Ausführen von Folgendem veranlasst: einem Schritt des Erhaltens von Messbedingungsinformationen, die eine Messbedingung einer Vorrichtung für räumliche Messungen angeben, welche eine projizierende Vorrichtung zum Projizieren von Licht auf ein auszumessendes Messobjekt und eine abbildende Vorrichtung zum Aufnehmen eines Bilds eines Abbildungsraums, der das Messobjekt beinhaltet, welches mit projiziertem Licht von der projizierenden Vorrichtung angestrahlt wird, beinhaltet; einem Schritt des Generierens eines virtuellen Aufnahmebilds, wobei ein Aufnahmebild reproduziert wird, das durch die abbildende Vorrichtung ausgegeben wird, auf der Grundlage der Messbedingungsinformationen; einem Schritt des Vornehmens eines räumlichen Messprozesses des Ermittelns einer räumlichen Position auf einer Oberfläche des Messobjekts durch Verwendung des virtuellen Aufnahmebilds, um einen Messwert zu erhalten; und einem Schritt des Ausgebens eines Simulationsergebnisses, das den Messwert enthält.Simulation program that causes a computer to do the following: a step of obtaining measurement condition information indicating a measurement condition of a device for spatial measurements, which a projecting device for projecting light onto a measurement object to be measured and an imaging device for taking an image of an imaging space containing the measurement object, which with projected light from the projecting device is irradiated includes; a step of generating a virtual captured image, reproducing a captured image output by the imaging device based on the measurement condition information; a step of performing a spatial measurement process of determining a spatial position on a surface of the measurement object by using the virtual captured image to obtain a measurement value; and a step of outputting a simulation result that contains the measured value.
DE112019006855.5T 2019-02-13 2019-02-13 SIMULATION DEVICE AND SIMULATION METHOD Pending DE112019006855T5 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/005156 WO2020165976A1 (en) 2019-02-13 2019-02-13 Simulation device, simulation method, and simulation program

Publications (1)

Publication Number Publication Date
DE112019006855T5 true DE112019006855T5 (en) 2021-11-04

Family

ID=72044404

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019006855.5T Pending DE112019006855T5 (en) 2019-02-13 2019-02-13 SIMULATION DEVICE AND SIMULATION METHOD

Country Status (4)

Country Link
JP (1) JP7094400B2 (en)
CN (1) CN113412500B (en)
DE (1) DE112019006855T5 (en)
WO (1) WO2020165976A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102507277B1 (en) * 2020-10-23 2023-03-07 엘아이지넥스원 주식회사 Method for simulating image sensor
CN115802014A (en) * 2021-09-09 2023-03-14 卡西欧计算机株式会社 Recording medium, setting simulation method, and setting simulation apparatus
CN114202981B (en) * 2021-12-10 2023-06-16 新疆工程学院 Simulation platform for photogrammetry experiments

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203652A (en) 2014-04-15 2015-11-16 キヤノン株式会社 Information processing unit and information processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200907764A (en) * 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
JP5198078B2 (en) * 2008-01-24 2013-05-15 株式会社日立製作所 Measuring device and measuring method
WO2016186211A1 (en) 2015-05-21 2016-11-24 国立大学法人 鹿児島大学 Three-dimensional measurement system, three-dimensional measurement method, and three-dimensional measurement program
WO2017090111A1 (en) * 2015-11-25 2017-06-01 三菱電機株式会社 Three-dimensional image measurement device and method
JP2018144158A (en) 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203652A (en) 2014-04-15 2015-11-16 キヤノン株式会社 Information processing unit and information processing method

Also Published As

Publication number Publication date
JPWO2020165976A1 (en) 2021-09-30
CN113412500B (en) 2023-12-29
WO2020165976A1 (en) 2020-08-20
CN113412500A (en) 2021-09-17
JP7094400B2 (en) 2022-07-01

Similar Documents

Publication Publication Date Title
DE10081029B4 (en) Image editing to prepare a textual analysis
DE102008015499C5 (en) Method and device for determining the 3D coordinates of an object
DE102018129425B4 (en) System for recognizing a machining error for a laser machining system for machining a workpiece, laser machining system for machining a workpiece by means of a laser beam comprising the same, and method for detecting a machining error in a laser machining system for machining a workpiece
DE102008041523B4 (en) Method for three-dimensional measurement and device for three-dimensional measurement
DE10000364B4 (en) Feature-based detection of errors
DE102017116952A1 (en) SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA
DE102017001366A1 (en) GEOMETRY MEASURING SYSTEM, GEOMETRY MEASURING APPARATUS AND GEOMETRY MEASURING METHOD
DE602006000627T2 (en) Three-dimensional measuring method and three-dimensional measuring device
DE102015116047A1 (en) Test apparatus and control method for a test apparatus
DE112019006855T5 (en) SIMULATION DEVICE AND SIMULATION METHOD
EP1610270A2 (en) Process for qualitative evaluation of a material with at least one identification characteristic
EP3688725B1 (en) Method and device for creating a 3d reconstruction of an object
EP2886043A1 (en) Method for continuing recordings to detect three-dimensional geometries of objects
DE10062251A1 (en) Device and method for checking the quality of a body
DE69921696T2 (en) METHOD FOR THE PERSPECTIVE PRESENTATION, STARTING FROM A VOXEL ROOM
DE112008004172T5 (en) Structural measuring device and structural measuring method
EP1882232B1 (en) Method and device for determining the material interfaces of a test object
EP3071928B1 (en) Image capturing simulation in a coordinate measuring apparatus
DE19951146A1 (en) Noise reduction in signal from imaging apparatus e.g. for semiconductor device manufacture by replacing gray scale values for pixels lying outside region of acceptable values
DE112018001600T5 (en) SYSTEM AND METHOD FOR 3D PROFILE DETERMINATION USING A MODEL-BASED PEAK SELECTION
DE102019131693A1 (en) MEASURING DEVICE FOR EXAMINATION OF A SAMPLE AND METHOD OF DETERMINING AN ALTITUDE MAP OF A SAMPLE
DE10150105A1 (en) Automatic determination of geometric models for optical part recognition
DE102006011008A1 (en) Multi-staged method, for preparing of corrected projection data as improved CT-reconstruction, includes initializing in which orientation of specimen is roughly determined and used for extraction of feature points
DE102015210619A1 (en) Three-dimensional shape measuring apparatus, measurement data processing unit, measurement data processing method and computer program
DE20317095U1 (en) Cast metal part surface error inspection unit has imaging of reflected light with processing algorithm grouping pixels above threshold for error examination and contour construction

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence