WO2024048049A1 - 画像処理システム、寸法測定システム、画像処理方法、及びプログラム - Google Patents

画像処理システム、寸法測定システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2024048049A1
WO2024048049A1 PCT/JP2023/023967 JP2023023967W WO2024048049A1 WO 2024048049 A1 WO2024048049 A1 WO 2024048049A1 JP 2023023967 W JP2023023967 W JP 2023023967W WO 2024048049 A1 WO2024048049 A1 WO 2024048049A1
Authority
WO
WIPO (PCT)
Prior art keywords
instrument
unit
image
area
measurement
Prior art date
Application number
PCT/JP2023/023967
Other languages
English (en)
French (fr)
Inventor
大輔 西村
祥平 鎌田
稔博 秋山
哲夫 石田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2024048049A1 publication Critical patent/WO2024048049A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Definitions

  • the present disclosure relates to an image processing system, a dimension measurement system, an image processing method, and a program.
  • Patent Document 1 discloses a three-dimensional information measurement/display device that measures the dimensions of a rectangular plane such as a rectangle or square on an object without requiring colors, patterns, or markers that serve as optical marks on the object. are doing.
  • the three-dimensional information measurement/display device includes a depth image capturing section, a plane detection section, a plane contour extraction section, and a dimension/position/orientation calculation section.
  • the depth image capturing unit photographs the object and obtains a depth image including depth information for each pixel of a two-dimensional image.
  • the plane detection section extracts a plane region from the depth image acquired by the depth image capturing section, and calculates an equation of a plane including the extracted plane region.
  • the planar contour extracting section extracts a contour obtained by approximating a rectangular region from a region obtained by projecting the planar region extracted by the plane detecting section onto the two-dimensional image.
  • the dimension/position/orientation calculation unit converts the contour on the two-dimensional image extracted by the plane contour extraction unit into the contour on the plane specified by the above equation by perspective projection transformation, and the Detects the length and width of the area.
  • Patent Document 1 discloses a technique for determining the dimensions of a rectangular plane on a target object.
  • Patent Document 1 when attempting to measure the dimensions of an appliance installed on an installation surface, it is difficult to distinguish between the plane of the appliance and the installation surface, and it is difficult to measure the dimensions of an appliance installed on the installation surface. That was difficult. For example, in the technique disclosed in Patent Document 1, it is difficult to measure the dimensions of an instrument installed on an installation surface when the proportion of a flat surface occupying the surface of the instrument is low.
  • An object of the present disclosure is to provide an image processing system, a dimension measurement system, an image processing method, and a program that can accurately measure the dimensions of an instrument installed on an installation surface.
  • An image processing system includes a data acquisition section, an outline setting section, a plane estimation section, a projection section, and a measurement section.
  • the data acquisition unit acquires data of a two-dimensional image generated by imaging an instrument installed on an installation surface, and measurement data of a three-dimensional shape of the instrument.
  • the outer shape setting section sets an area corresponding to the outer shape of the instrument in the two-dimensional image as an instrument area.
  • the plane estimation section estimates a detection plane corresponding to the installation surface based on the measurement data.
  • the projection unit forms a projection area on the detection plane by projecting the instrument area onto the detection plane.
  • the measurement unit measures dimensions of the instrument based on the projection area.
  • a dimension measurement system includes the above-described image processing system and an imaging unit that generates the two-dimensional image data and the measurement data.
  • An image processing method includes a data acquisition step, an outline setting step, a plane estimation step, a projection step, and a measurement step.
  • the data acquisition step acquires two-dimensional image data generated by imaging the instrument installed on the installation surface, and measurement data of the three-dimensional shape of the instrument.
  • a region corresponding to the external shape of the instrument in the two-dimensional image is set as an instrument region.
  • the plane estimation step estimates a detection plane corresponding to the installation surface based on the measurement data.
  • the projection step forms a projection area on the detection plane by projecting the instrument area onto the detection plane.
  • the measuring step measures dimensions of the instrument based on the projection area.
  • a program according to one aspect of the present disclosure causes a computer system to execute the above-described image processing method.
  • FIG. 1 is a block diagram showing a dimension measurement system including an image processing system according to an embodiment.
  • FIG. 2 is a perspective view showing an example of an instrument to be measured by the above-mentioned dimension measurement system.
  • FIG. 3 is a diagram showing a first example of a two-dimensional image in the above image processing system.
  • FIG. 4 is a diagram showing the instrument area set in the two-dimensional image same as above.
  • FIG. 5 is a diagram showing a second example of a two-dimensional image in the above image processing system.
  • FIG. 6 is a diagram showing the instrument area set in the two-dimensional image same as above.
  • FIG. 7 is a diagram showing a projection area on a detection plane in the above image processing system.
  • FIG. 1 is a block diagram showing a dimension measurement system including an image processing system according to an embodiment.
  • FIG. 2 is a perspective view showing an example of an instrument to be measured by the above-mentioned dimension measurement system.
  • FIG. 3 is a diagram showing a
  • FIG. 8 is a diagram showing a projection area on another detection plane in the above image processing system.
  • FIG. 9A is a diagram showing a two-dimensional image in the image processing system of the first modification.
  • FIG. 9B is a diagram showing the outline of the instrument extracted from the two-dimensional image.
  • FIG. 10 is a diagram showing the instrument area set in the two-dimensional image same as above.
  • FIG. 11 is a block diagram showing an external shape setting section of an image processing system according to a second modification.
  • FIG. 12 is a diagram showing an auxiliary instrument area set in a two-dimensional image in the above image processing system.
  • FIG. 13 is a diagram showing a contour image on a detection plane in the above image processing system.
  • FIG. 14 is a block diagram showing a specific configuration of a dimension measuring system according to a third modification.
  • FIG. 15 is a diagram showing the first operation screen of the fourth modification.
  • FIG. 16 is a diagram showing the second operation screen same as above.
  • FIG. 17 is a flowchart showing an image processing method executed by the image processing system.
  • the following embodiments generally relate to an image processing system, a dimension measurement system, an image processing method, and a program. More specifically, the following embodiments relate to an image processing system, a dimension measurement system, an image processing method, and a program for measuring the dimensions of an instrument installed on an installation surface.
  • the appliances 8 include lighting fixtures, air conditioners, electric appliances, gas appliances, and the like. Moreover, the fixture is installed embedded in the installation surface, or installed on the surface of the installation surface.
  • replacing (including replacing) appliances may be considered.
  • the image processing system 1 includes the configuration shown in FIG. 1 and measures the dimensions of the instrument 8 installed on the installation surface 9.
  • the image processing system 1 includes a data acquisition section 11 , an outline setting section 12 , a plane estimation section 13 , a projection section 14 , and a measurement section 15 .
  • the data acquisition unit 11 acquires data of a two-dimensional image generated by imaging the instrument 8 installed on the installation surface 9 and measurement data of the three-dimensional shape of the instrument 8.
  • the outline setting unit 12 sets an area corresponding to the outline of the instrument 8 in the two-dimensional image as an instrument area.
  • the plane estimation unit 13 estimates a detection plane corresponding to the installation surface 9 based on the measurement data.
  • the projection unit 14 forms a projection area on the detection plane by projecting the instrument area onto the detection plane.
  • the measuring unit 15 measures the dimensions of the instrument 8 based on the projection area.
  • the image processing system 1 having the above-described configuration can accurately measure the dimensions of the instrument 8 installed on the installation surface 9.
  • the image processing system 1 can easily and accurately measure the dimensions of the instrument 8 installed on the installation surface 9, even if the proportion of the plane occupying the surface of the instrument 8 is low.
  • the dimension measurement system 100 includes an image processing system 1 and an imaging section 2.
  • the imaging unit 2 images the instrument 8 and generates two-dimensional image data and measurement data of the three-dimensional shape of the instrument 8.
  • the dimension measurement system 100 having the above-described configuration can also accurately measure the dimensions of the instrument 8 installed on the installation surface 9.
  • the dimension measurement system 100 further includes an image processing system 1, an imaging section 2, a display section 3, and an operation section 4.
  • the image processing system 1 includes a data acquisition section 11 , an outline setting section 12 , a plane estimation section 13 , a projection section 14 , and a measurement section 15 .
  • the dimension measurement system 100 is realized using a portable information terminal such as a tablet terminal or a smartphone.
  • each function of the image processing system 1, the imaging section 2, the display section 3, and the operation section 4 is realized by one information terminal.
  • the information terminal has installed in advance an application for a dimension measurement process for measuring the dimensions of the instrument 8, and starts the dimension measurement process by starting the application. Then, a user such as a worker moves within the building carrying the information terminal and images the instrument 8 to be measured.
  • the image processing system 1 measures the dimensions of the instrument 8 based on the captured image of the instrument 8.
  • the installation surface 9 is a ceiling surface, a wall surface, a floor surface, etc., and is a flat surface or a surface with few irregularities.
  • the surface of a ceiling panel, wall panel, or floor panel corresponds to the installation surface 9.
  • the appliance 8 is a lighting appliance, an air conditioner, an electric appliance, a gas appliance, or the like.
  • the fixture 8 may be embedded in the installation surface 9 or installed on the surface of the installation surface 9 . Further, the shape of the instrument 8 is not limited to a specific shape.
  • FIG. 2 illustrates, as an example of the fixture 8, a long rectangular lighting fixture installed embedded in the ceiling surface.
  • the fixture 8 is a lighting fixture
  • the installation surface 9 is a ceiling surface.
  • the imaging unit 2 includes a two-dimensional camera 21 and a depth camera 22.
  • the imaging unit 2 drives the two-dimensional camera 21 and the depth camera 22 simultaneously (or almost simultaneously).
  • the two-dimensional camera 21 and the depth camera 22 are arranged close to each other, and the imaging range and imaging direction of the two-dimensional camera 21 and the imaging range and imaging direction of the depth camera 22 are the same (or almost the same). It can be considered.
  • the imaging unit 2 has a function of correcting the deviation when the imaging range and imaging direction of the two-dimensional camera 21 and the imaging range and imaging direction of the depth camera 22 deviate. That is, the imaging range, imaging direction, and imaging timing of the two-dimensional camera 21 and the depth camera 22 are the same (or almost the same).
  • the two-dimensional camera 21 is a camera that generates two-dimensional image data.
  • the pixel value of each pixel constituting the two-dimensional image indicates a gray level value. If the two-dimensional image is a monochrome image, the pixel value indicates a gray scale value. If the two-dimensional image is a color image, the pixel value indicates the gradation value of each color of red (R), green (G), and blue (B).
  • the depth camera 22 is a camera that generates a depth image.
  • the pixel value of each pixel constituting the depth image indicates the distance from the depth camera 22. That is, the depth image includes measurement data of the three-dimensional shape of the imaging target.
  • Methods by which the depth camera 22 generates depth images include a TOF (Time of Flight) method, a stereo camera method, a structured illumination method, and a LiDAR (Light Detection and Ranging) method.
  • the imaging unit 2 is preferably provided integrally with the information terminal T1, but may be provided separately from the information terminal T1.
  • the display unit 3 is a liquid crystal display, an organic EL display, or the like, and receives image data from the image processing system 1 and displays the image data.
  • the image data is, for example, data on an operation screen for executing and stopping a dimension measurement process for measuring the dimensions of the instrument 8, and a notification screen for displaying the execution process, execution result, etc. of the dimension measurement process.
  • the operation unit 4 has a user interface function that accepts user operations. It has at least one user interface such as an operation unit 4, a touch panel display, a keyboard, and a mouse. The user performs an operation on the operation unit 4 to cause the image processing system 1 to execute dimension measurement processing.
  • the user performs operations such as executing and stopping the dimension measurement process, and confirms the process and results of the dimension measurement process.
  • the display section 3 and the operation section 4 are preferably provided integrally with the information terminal T1, but may be provided separately from the information terminal T1.
  • the image processing system 1 preferably includes a computer system.
  • the computer system implements part or all of the image processing system 1 by executing a program.
  • a computer system includes, as its main hardware configuration, a processor that operates according to a program.
  • the type of processor does not matter as long as it can implement a function by executing a program.
  • a processor is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integration (LSI).
  • IC or LSI large scale integration
  • they are called IC or LSI, but the name changes depending on the degree of integration, and may also be called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration).
  • FPGAs Field programmable gate arrays
  • reconfigurable logic devices that can reconfigure the interconnections within the LSI or set up circuit sections within the LSI, may also be used for the same purpose. Can be done.
  • a plurality of electronic circuits may be integrated on one chip or may be provided on a plurality of chips.
  • a plurality of chips may be integrated into one device, or may be provided in a plurality of devices.
  • the program is recorded on a non-transitory storage medium such as a ROM, optical disk, or hard disk drive that can be read by a computer system.
  • the program may be stored in advance on a non-transitory recording medium, or may be supplied to the non-transitory recording medium via a wide area communication network including the Internet.
  • a portable information terminal such as a tablet terminal or a smartphone constitutes a computer system.
  • the computer system is not limited to one computer device, but may be realized by multiple computer devices that cooperate with each other. Further, the computer system may be constructed as a cloud computing system.
  • the data acquisition unit 11 acquires two-dimensional image data and depth image data from the imaging unit 2.
  • the two-dimensional image data is image data generated by the two-dimensional camera 21 of the imaging unit 2.
  • the depth image data is image data generated by the depth camera 22 of the imaging unit 2, and includes measurement data of the three-dimensional shape of the imaging target.
  • Outer shape setting section 12 sets an area corresponding to the outer shape of the instrument 8 in the two-dimensional image as an instrument area.
  • the external shape setting unit 12 sets the instrument area based on at least two coordinates set in the two-dimensional image by the user's operation.
  • FIG. 3 shows a two-dimensional image Ga1 as a first example of a two-dimensional image.
  • the two-dimensional image Ga1 is, for example, an image obtained by capturing an elongated rectangular lighting fixture shown in FIG. 2 as the fixture 8 from diagonally below.
  • the fixture 8 is a lighting fixture whose lower end surface is rectangular, and the installation surface 9 is a ceiling surface.
  • the two-dimensional image Ga1 includes an imaging area Ra1 of the instrument 8 and an imaging area Ra2 of the installation surface 9.
  • the two-dimensional image Ga1 is a monochrome image or a color image, and the pixel value of each pixel indicates a gradation value.
  • the outline setting section 12 displays the two-dimensional image Ga1 on the display section 3.
  • the user places a pin Pn (n is a natural number) on the two-dimensional image Ga1 by operating the operation unit 4 while viewing the two-dimensional image Ga1 displayed on the display unit 3.
  • the pin Pn points to one point on the two-dimensional image Ga1 and specifies one coordinate in the two-dimensional image Ga1.
  • the imaging area Ra1 is a long rectangle corresponding to the lower end surface of the instrument 8, and has two long sides and two short sides.
  • Pins P1 and P2 each point to both ends of the longer long side L1 of the two long sides of the imaging area Ra1, and specify two coordinates corresponding to both ends of the long side L1 in the two-dimensional image Ga1.
  • Pins P3 and P4 each point to both ends of the longer short side L2 of the two short sides of the imaging area Ra1, and specify two coordinates corresponding to both ends of the short side L2 in the two-dimensional image Ga1.
  • the external shape setting unit 12 fits a parallelogram (parallelogram approximation) so as to include each coordinate specified by pins P1 to P4 (see FIG. 3).
  • a parallelogram instrument area Ra3 is set in the two-dimensional image Ga1.
  • the outline setting unit 12 generates a parallelogram approximated to include a long side L1 and a short side L2 by fitting.
  • the outer shape setting unit 12 calculates the coordinates of the starting end Q1 and the ending end Q2 of the long side L3 of the instrument area Ra3 and the starting end Q3 and the ending end Q4 of the short side L4 in the two-dimensional image Ga1 for the parallelogram instrument area Ra3. .
  • FIG. 5 shows a two-dimensional image Ga2 as a second example of the two-dimensional image.
  • the two-dimensional image Ga2 is, for example, an image of a downlight embedded in the ceiling surface, captured from diagonally below.
  • the fixture 8 is a lighting fixture whose lower end surface is circular, and the installation surface 9 is a ceiling surface.
  • the two-dimensional image Ga2 includes an imaging area Ra11 of the instrument 8 and an imaging area Ra12 of the installation surface 9.
  • the two-dimensional image Ga2 is a monochrome image or a color image, and the pixel value of each pixel indicates a gradation value.
  • the outline setting section 12 displays the two-dimensional image Ga2 on the display section 3.
  • the user places a pin Pn (n is a natural number) on the two-dimensional image Ga2 by operating the operation unit 4 while viewing the two-dimensional image Ga2 displayed on the display unit 3.
  • the pin Pn points to one point on the two-dimensional image Ga2 and specifies one coordinate in the two-dimensional image Ga2.
  • the imaging area Ra11 is elliptical. Pins P11 and P12 point to both ends of the long axis L11 (corresponding to the diameter of the circular lower end surface of the instrument 8) of the imaging area Ra11, respectively, and specify two coordinates corresponding to both ends of the long axis L11 in the two-dimensional image Ga2. do.
  • the outline setting unit 12 fits the ellipse (ellipse approximation) so as to include each coordinate indicated by the pins P11-P12 (see FIG. 5), thereby fitting the two-dimensional image Ga2.
  • An elliptical instrument area Ra13 is set in .
  • the outer shape setting unit 12 generates, by fitting, an ellipse that is approximated to include the major axis L11.
  • the outer shape setting unit 12 determines the coordinates of the starting end Q11 and the ending end Q12 of the long axis L12 of the instrument region Ra13 in the two-dimensional image Ga2 for the elliptical instrument region Ra13.
  • the plane estimating unit 13 estimates a detection plane, which is a plane corresponding to the installation surface 9, based on measurement data of the three-dimensional shape of the instrument 8.
  • the measurement data is included in the depth image captured by the depth camera 22 of the imaging unit 2.
  • the pixel value of each pixel constituting the depth image indicates the distance from the depth camera 22. That is, the depth image includes measurement data of the three-dimensional shape of the instrument 8.
  • the plane estimating unit 13 superimposes the instrument region on the depth image and creates detection plane data corresponding to the installation surface 9 based on measurement data around the instrument region (outside the instrument region).
  • the pixel value of each pixel on the detection plane indicates the distance from the depth camera 22 and includes measurement data of the three-dimensional shape of the instrument 8. Therefore, the plane estimating unit 13 can create highly accurate detection plane data.
  • the plane estimation unit 13 superimposes the instrument area Ra3 (see FIG. 4) on the depth image corresponding to the two-dimensional image Ga1, and detects the area corresponding to the installation surface 9 based on the measurement data around the instrument area Ra3. Create data for plane M1 (see FIG. 7).
  • the plane estimation unit 13 also superimposes the instrument area Ra13 (see FIG. 6) on the depth image corresponding to the two-dimensional image Ga2, and detects the area corresponding to the installation surface 9 based on the measurement data around the instrument area Ra13. Data for the plane M11 (see FIG. 8) is created.
  • the projection unit 14 forms a projection area on the detection plane by projecting the instrument area onto the detection plane estimated by the plane estimation unit 13.
  • the projection unit 14 projects the instrument area Ra3 onto the detection plane M1 estimated by the plane estimation unit 13.
  • the projection unit 14 uses the coordinates of the starting end Q1 and the ending end Q2 of the long side L3 of the instrument area Ra3 and the starting end Q3 and the ending end Q4 of the short side L4 in the two-dimensional image Ga1 as measurement coordinates Q1b, Q2b, Q3b, and Q4b.
  • a parallelogram projection region Rb3 whose vertices are the measurement coordinates Q1b, Q2b, Q3b, and Q4b is formed on the detection plane M1.
  • the measurement coordinates Q1b, Q2b, Q3b, and Q4b are coordinates on the contour of the projection region Rb3.
  • the projection unit 14 projects the instrument area Ra13 onto the detection plane M11 estimated by the plane estimation unit 13.
  • the projection unit 14 projects the coordinates of the starting end Q11 and the ending end Q12 of the long axis L12 of the instrument area Ra13 in the two-dimensional image Ga2 onto the detection plane M11 as measurement coordinates Q11b and Q12b.
  • an elliptical projection region Rb13 whose major axis is the measurement coordinates Q11b and Q12b is formed on the detection plane M11.
  • the measurement coordinates Q11b and Q12b are coordinates on the outline of the projection region Rb13.
  • the measuring unit 15 measures the dimensions of the instrument 8 based on the projection area.
  • the measuring unit 15 uses the pixel value of each pixel of the depth image corresponding to each of the pair of measurement coordinates on the detection plane in addition to the pair of measurement coordinates to determine the length dimension between the pair of measurement coordinates. That is, the measurement unit 15 uses measurement data of a three-dimensional shape corresponding to each of the pair of measurement coordinates in addition to the pair of measurement coordinates to determine the length dimension between the pair of measurement coordinates.
  • a combination of measurement coordinates and measurement data of a three-dimensional shape corresponds to three-dimensional coordinates that specify a position in a three-dimensional space.
  • the measuring unit 15 measures the length dimension W1 between the measurement coordinates Q1b-Q2b of the projection region Rb3 projected onto the detection plane M1 as the long side dimension of the instrument 8. Specifically, the measuring unit 15 uses the measurement coordinate Q1b, the measurement coordinate Q2b, the three-dimensional measurement data at the measurement coordinate Q1b, and the three-dimensional measurement data at the measurement coordinate Q2b to measure the three-dimensional measurement between the measurement coordinates Q1b and Q2b. The distance in space is determined as the length dimension W1. Furthermore, the measuring unit 15 detects the length dimension W2 between the measurement coordinates Q3b-Q4b of the projection region Rb3 projected onto the detection plane M1 as the short side dimension of the instrument 8.
  • the measuring unit 15 uses the measurement coordinate Q3b, the measurement coordinate Q4b, the three-dimensional measurement data at the measurement coordinate Q3b, and the three-dimensional measurement data at the measurement coordinate Q4b to measure the three-dimensional measurement between the measurement coordinates Q3b and Q4b.
  • the distance in space is determined as the length dimension W2. That is, the measurement unit 15 measures the measurement data based on the measurement data corresponding to the plurality of measurement coordinates Q1b, Q2b, Q3b, Q4b and the plurality of measurement coordinates Q1b, Q2b, Q3b, Q4b on the outline of the projection region Rb3 in the detection plane M1. Then, measure the length dimensions W1 and W2 of the instrument 8.
  • the measuring unit 15 can measure the length dimensions W1 and W2 of the instrument 8 with high precision.
  • the measuring unit 15 measures the length dimension W11 between the measurement coordinates Q11b-Q12b of the projection region Rb13 projected onto the detection plane M11 as the diameter dimension of the instrument 8. Specifically, the measurement unit 15 uses the measurement coordinate Q11b, the measurement coordinate Q12b, the three-dimensional measurement data at the measurement coordinate Q11b, and the three-dimensional measurement data at the measurement coordinate Q12b to measure the three-dimensional measurement between the measurement coordinates Q11b and Q12b. The distance in space is determined as the length dimension W11.
  • the measuring unit 15 determines the length dimension of the instrument 8 based on a plurality of measurement coordinates Q11b, Q12b on the contour of the projection region Rb13 on the detection plane M11, and measurement data corresponding to the plurality of measurement coordinates Q11b, Q12b, respectively. Measure W11.
  • the measuring unit 15 can measure the length W11 of the instrument 8 with high precision.
  • the measurement unit 15 outputs the measurement results of the dimensions of the instrument 8 to the display unit 3.
  • the display section 3 displays the measurement results of the dimensions of the instrument 8.
  • the measurement unit 15 displays a screen including the projection region Rb3 and measurement coordinates Q1b-Q4b shown in FIG. 7, or a screen including the projection region Rb13 and measurement coordinates Q11b-Q12b shown in FIG. 8 on the display unit 3. It's okay. In this case, the user can correct the measurement results by operating the operation unit 4 to change the positions of the measurement coordinates Q1b-Q4b and Q11b-Q12b on the screen.
  • the measurement unit 15 may display a screen including the detection plane M1 shown in FIG. 7 or a screen including the detection plane M11 shown in FIG. 8 on the display unit 3. In this case, the user can operate the operation unit 4 to switch whether or not to display the detection planes M1 and M11 on the screen.
  • the image processing system 1 estimates the detection planes M1 and M11 corresponding to the installation surface 9, and projects the instrument areas Ra3 and Ra13 onto the detection planes M1 and M11. Then, projection regions Rb3 and Rb13 are formed on the detection planes M1 and M11. The image processing system 1 then measures the dimensions of the instrument 8 based on the projection regions Rb3 and Rb13. Therefore, the image processing system 1 can accurately measure the dimensions of the instrument 8 installed on the installation surface 9. The image processing system 1 can easily and accurately measure the dimensions of the instrument 8 installed on the installation surface 9, even if the proportion of the plane occupying the surface of the instrument 8 is low, for example.
  • the external shape setting unit 12 sets the instrument area using the learning model. That is, the external shape setting unit 12 includes a learning model that receives two-dimensional image data as input and outputs two-dimensional image data in which the instrument area is set.
  • the learning model is a model that receives a two-dimensional image as input and outputs data of the instrument area set in the two-dimensional image.
  • the learning model is constructed by machine learning using a large number of two-dimensional images as training data.
  • the learning model is preferably constructed by machine learning such as deep learning using a neural network.
  • the learning model is constructed by deep learning using FCN (Fully Convolutional Networks).
  • Machine learning uses two-dimensional images and segmentation images of two-dimensional images as training data.
  • a two-dimensional image segmentation image is an image in which a two-dimensional image is divided into a plurality of classes by associating labels with all pixels constituting the two-dimensional image through semantic segmentation processing.
  • "appliance" is included in a plurality of classes divided by semantic segmentation.
  • the learning model can perform semantic segmentation processing on the two-dimensional image and divide the two-dimensional image into a plurality of classes.
  • the learning model sets the area corresponding to the class "instrument” as the instrument area. If the class "instrument” does not exist in the two-dimensional image, the learning model determines that no instrument has been detected, and outputs the determination result.
  • the two-dimensional image Ga3 shown in FIG. 9A is an image of the elongated rectangular lighting fixture shown in FIG. 2 taken as the fixture 8 from diagonally below.
  • the fixture 8 is a lighting fixture whose lower end surface is rectangular
  • the installation surface 9 is a ceiling surface.
  • the two-dimensional image Ga3 includes an imaging area Ra21 of the instrument 8 and an imaging area Ra22 of the installation surface 9.
  • the two-dimensional image Ga3 is a monochrome image or a color image, and the pixel value of each pixel indicates a gradation value.
  • the external shape setting unit 12 inputs the two-dimensional image Ga3 to the learning model.
  • the learning model performs semantic segmentation processing on the two-dimensional image Ga3, and extracts a contour L20 of the "instrument” class from the two-dimensional image Ga3, as shown in FIG. 9B.
  • the learning model sets a rectangular instrument area Ra23 in the two-dimensional image Ga3 as shown in FIG. 10 by fitting a rectangle to the outline L20 (rectangular approximation).
  • the instrument area Ra23 is a long rectangle and has two long sides and two short sides. Therefore, the learning model selects the longer long side L21 from the two long sides of the rectangular instrument area Ra23, and determines the coordinates of the starting end Q21 and the ending end Q22 of the long side L21. Furthermore, the learning model selects the longer short side L22 from the two short sides of the rectangular instrument area Ra23, and determines the coordinates of the starting end Q23 and the ending end Q24 of the short side L22.
  • the projection unit 14 projects the coordinates of the starting end Q21 and the ending end Q22 of the long side L21 of the instrument area Ra23 in the two-dimensional image Ga3, and the starting end Q23 and the ending end Q24 of the short side L22, on the detection plane as measurement coordinates.
  • the learning model may be a model using other algorithms such as multiple regression analysis and support vector machine.
  • the image processing system 1 can easily and accurately set the instrument area Ra23 by using the learning model.
  • the outer shape setting section 12A includes an auxiliary outer shape setting section 121, an auxiliary projection section 122, a contour generation section 123, and an outer shape determining section 124.
  • the auxiliary external shape setting unit 121 sets a region corresponding to the external shape of the instrument 8 in the two-dimensional image as an auxiliary instrument region.
  • the auxiliary projection unit 122 forms an auxiliary projection area on the detection plane by projecting the auxiliary instrument area onto the detection plane.
  • the contour generation unit 123 generates a contour image of the auxiliary projection area with the detection plane as a reference based on the measurement data.
  • the external shape determining unit 124 sets the instrument area based on the contour image.
  • the plane estimation unit 13 estimates a detection plane M1 (see FIG. 13), which is a plane corresponding to the installation surface 9, based on the measurement data of the three-dimensional shape of the instrument 8.
  • the auxiliary external shape setting unit 121 sets a region corresponding to the external shape of the instrument 8 in the two-dimensional image Ga1 as an auxiliary instrument region Rc1.
  • the auxiliary external shape setting unit 121 sets the instrument area Ra3 (see FIG. 4) by the user's operation described in the above embodiment, or sets the instrument region Ra23 (see FIG. 10) by the learning model described in the first modification.
  • the area corresponding to the outer shape of the instrument 8 in the two-dimensional image Ga1 is set as the auxiliary instrument area Rc1.
  • the auxiliary projection unit 122 forms an auxiliary projection region Rd1 on the detection plane M1 as shown in FIG. 13 by projecting the auxiliary instrument region Rc1 onto the detection plane M1.
  • the auxiliary projection area Rd1 is an area formed similarly to the above-described projection area Rb3 (see FIG. 7).
  • the contour generation unit 123 generates a contour image Gb1 (see FIG. 13) of the auxiliary projection area Rd1 with the detection plane M1 as a reference based on the measurement data of the three-dimensional shape of the instrument 8.
  • the measurement data is included in the depth image.
  • the contour image Gb1 is an image in which contour lines L31 to L33 are formed inside the auxiliary projection area Rd1.
  • the contour lines L31 to L33 can be set in both the positive direction (convex portion) and the negative direction (concave portion) with respect to the detection plane M1. That is, the contour image Gb1 visually represents the three-dimensional shape of the instrument 8, such as its unevenness, by the contour lines L31 to L33 formed inside the auxiliary projection area Rd1.
  • the contour image Gb1 is configured so that the unevenness of the instrument 8 can be easily grasped visually by varying at least one of the color or the shade between each of the contour lines L31 to L33.
  • the external shape determination unit 124 sets the instrument area based on the contour image Gb1. For example, the external shape determining unit 124 superimposes the contour image Gb1 on the two-dimensional image Ga1. The external shape determination unit 124 determines the two-dimensional shape including the contour image Gb1, similar to the setting of the instrument area Ra3 by the user's operation described in the above-described embodiment or the setting of the instrument region Ra3 by the learning model described in the first modification. An instrument area is set in image Ga1.
  • the learning model used by the external shape determining unit 124 uses a contour image and a segmentation image of the contour image as training data. As a result, when the contour line image is input, the learning model used by the external shape determination unit 124 can perform semantic segmentation processing on the contour line image and divide the contour line image into a plurality of classes. Then, the learning model used by the external shape determination unit 124 determines an area corresponding to the class of "instrument” as the instrument area if the class of "instrument” exists in the contour image. If the class "instrument” does not exist in the contour image, the learning model determines that no instrument has been detected, and outputs the determination result.
  • the projection unit 14 forms a projection area on the detection plane M1 by projecting the instrument area onto the detection plane M1.
  • the measuring unit 15 measures the dimensions of the instrument 8 based on the projection area.
  • the external shape setting unit 12A of this modification sets the instrument area using the contour image Gb1 that visually represents the three-dimensional shape (uneven shape) of the instrument 8. Therefore, even if the outline of the imaging area Ra1 of the instrument 8 in the two-dimensional image Ga1 is unclear, the outline of the imaging area Ra1 of the instrument 8 can be accurately determined by using the contour image Gb1. As a result, the external shape determination unit 124 can accurately set the instrument area.
  • the fixture 8 is a lighting fixture
  • the imaging unit 2 captures an image of the lighting fixture that is lit
  • the outline of the imaging area Ra1 of the fixture 8 becomes unclear in the two-dimensional image Ga1 due to optical expansion (halation).
  • the external shape setting unit 12A of this modification can accurately determine the outline of the imaging area Ra1 of the instrument 8 and accurately set the instrument area.
  • FIG. 14 shows a specific configuration example of the dimension measurement system 100. It is preferable that the dimension measurement system 100 is realized by an information terminal T1 that can be carried by a user, and a server device T2.
  • the information terminal T1 is, for example, a tablet terminal or a smartphone.
  • the information terminal T1 includes the following functions: a data acquisition section 11, a plane estimation section 13, a projection section 14, a measurement section 15, an imaging section 2, a display section 3, and an operation section 4.
  • the user then moves within the building, carrying the information terminal T1.
  • the server device T2 is installed in a remote location away from the building, and has the function of the external shape setting section 12.
  • the information terminal T1 has installed in advance an application for dimension measurement processing to measure the dimensions of the instrument 8, and by executing the application, it connects the wide area communication network NT1 including the Internet etc. with the server device T2. It is configured to be able to communicate via.
  • the information terminal T1 running the application can send and receive various data to and from the server device T2.
  • the information terminal T1 transmits the two-dimensional image data acquired by the data acquisition unit 11 to the server device T2.
  • the external shape setting unit 12 of the server device T2 sets a region corresponding to the external shape of the instrument 8 in the two-dimensional image as an instrument region.
  • the server device T2 transmits data of the set appliance area to the information terminal T1.
  • the plane estimation section 13, the projection section 14, and the measurement section 15 perform the same processing as described above.
  • the external shape setting unit 12 of this modification sets the instrument area using a learning model, similarly to the above-described first modification.
  • the external shape setting unit 12 by providing the external shape setting unit 12 in the server device T2, resources for the external configuration setting unit 12 to execute processing using the learning model can be easily secured, and the load on the information terminal T1 can be reduced.
  • FIG. 15 shows the first operation screen F1 displayed on the display unit 3 when the imaging unit 2 images the instrument 8.
  • the display unit 3 has a rectangular display, and the captured image Gc1 of the two-dimensional camera 21 of the imaging unit 2 is displayed in real time on the rectangular first operation screen F1.
  • the display section 3 is a touch panel display, and an operation section 4 is also formed on the first operation screen F1.
  • operation units 41-43 as the operation unit 4 are arranged side by side along the right side of the first operation screen F1.
  • the operation section 41 is a photographing setting button, and by operating the operation section 41, it is possible to use the photographing light or not, and select data to be saved.
  • the operation unit 42 is a photographing button, and when the operation unit 42 is operated, the two-dimensional camera 21 and the depth camera 22 are driven, and the imaging unit 2 generates each data of a two-dimensional image and a depth image.
  • the operation section 43 is a measurement mode setting button, and by operating the operation section 43, a mode (measurement mode) for measuring the dimensions of the instrument 8 is selected.
  • the measurement modes include a straight line measurement mode, a rectangular measurement mode, a diameter measurement mode, and the like.
  • the straight line measurement mode is a mode in which the dimension of one straight side included in the outline of the instrument 8 is measured.
  • the rectangular measurement mode is a mode in which each dimension of the long side and short side of the rectangular outline of the instrument 8 is measured.
  • the diameter measurement mode is a mode in which the diameter dimension of the circular contour of the instrument 8 is measured.
  • FIG. 16 shows a second operation screen F2 that is displayed on the display unit 3 after the imaging unit 2 captures an image of the instrument 8.
  • the display unit 3 has a rectangular display, and a two-dimensional image Ga4 captured by the two-dimensional camera 21 of the imaging unit 2 is displayed on the rectangular second operation screen F2.
  • the display section 3 is a touch panel display, and an operation section 4 is also formed on the second operation screen F2.
  • the operation unit 44 as the operation unit 4 is arranged outside the right side of the two-dimensional image Ga4.
  • the operation unit 44 is a measurement setting button, and is used to select display contents and save data as the dimension measurement process progresses.
  • a result display area Rx is also formed on the second operation screen F2.
  • the result display area Rx is arranged outside the right side of the two-dimensional image Ga4. In the result display area Rx, the measurement results of the dimensions of the instrument 8 by the measurement unit 15 are displayed.
  • the second operation screen F2 has a different screen configuration depending on the measurement mode selected by operating the operation section 43 (measurement mode setting button) of the first operation screen F1. That is, the second operation screen F2 to which the first operation screen F1 transitions differs depending on the measurement mode selected by operating the operation unit 43 on the first operation screen F1.
  • the data acquisition unit 11 is not limited to the configuration in which the data of the two-dimensional image of the instrument 8 and the measurement data of the three-dimensional shape of the instrument 8 are acquired from the imaging unit 2.
  • two-dimensional image data and three-dimensional shape measurement data are stored in a data server in advance, and the data acquisition unit 11 acquires (reads) the two-dimensional image data and three-dimensional shape measurement data from the data server. ) may be done.
  • the second operation screen F2 displayed on the display unit 3 after reading the two-dimensional image data and the three-dimensional shape measurement data can be changed for each measurement mode. It is preferable to use different screen configurations.
  • an object ID (identification information) is given to the combination of two-dimensional image data and three-dimensional shape measurement data of the instrument 8.
  • two-dimensional image data and three-dimensional shape measurement data are managed using object IDs.
  • the shape of the instrument 8 is not limited to the above-mentioned shapes, but may be other shapes such as a hemisphere, a prism, a cylinder, and an irregular shape.
  • the appliance 8 is not limited to a lighting fixture, and may be other appliances such as an air conditioner, an electric appliance, and a gas appliance.
  • the imaging unit 2 may include a configuration that generates point cloud data using a laser, such as a three-dimensional laser scanner or LiDAR (Light Detection and Ranging). In this case, measurement data of the three-dimensional shape of the instrument 8 is included in the point cloud data.
  • a laser such as a three-dimensional laser scanner or LiDAR (Light Detection and Ranging).
  • measurement data of the three-dimensional shape of the instrument 8 is included in the point cloud data.
  • the imaging unit 2 may be a stereo camera having two or more lenses.
  • the image processing method includes a data acquisition step S1, an outline setting step S2, a plane estimation step S3, a projection step S4, and a measurement step S5.
  • the data acquisition unit 11 acquires data of two-dimensional images Ga1 and Ga2 generated by imaging the instrument 8 installed on the installation surface 9, and measurement data of the three-dimensional shape of the instrument 8. get.
  • the outer shape setting step S2 the outer shape setting unit 12 (or 12A) sets regions corresponding to the outer shape of the instrument 8 in the two-dimensional images Ga1 and Ga2 as instrument regions Ra3 and Ra13.
  • the plane estimation unit 13 estimates detection planes M1 and M11 corresponding to the installation surface 9 based on the measurement data.
  • the projection unit 14 projects the instrument regions Ra3 and Ra13 onto the detection planes M1 and M11, thereby forming projection regions Rb3 and Rb13 on the detection planes M1 and M11.
  • the measurement unit 15 measures the dimensions of the instrument 8 based on the projection regions Rb3 and Rb13.
  • the image processing method including each of the steps described above can accurately measure the dimensions of the instrument 8 installed on the installation surface 9.
  • the image processing method can easily and accurately measure the dimensions of the instrument 8 installed on the installation surface 9, even if the proportion of the plane occupying the surface of the instrument 8 is low, for example.
  • the image processing system (1) of the first aspect includes a data acquisition section (11), an outline setting section (12, 12A), a plane estimation section (13), and a projection section ( 14) and a measuring section (15).
  • the data acquisition unit (11) acquires data on two-dimensional images (Ga1, Ga2, Ga3) generated by imaging the instrument (8) installed on the installation surface (9), and data on three of the instruments (8). Obtain measurement data of dimensional shape.
  • the external shape setting unit (12, 12A) sets a region corresponding to the external shape of the instrument (8) in the two-dimensional image (Ga1, Ga2, Ga3) as an instrument region (Ra3, Ra13, Ra23).
  • a plane estimation unit (13) estimates a detection plane (M1, M11) corresponding to the installation surface (9) based on the measurement data.
  • the projection unit (14) forms a projection area (Rb3, Rb13) on the detection plane (M1, M11) by projecting the instrument area (Ra3, Ra13, Ra23) onto the detection plane (M1, M11).
  • the measurement unit (15) measures the dimensions of the instrument (8) based on the projection area (Rb3, Rb13).
  • the above-described image processing system (1) can accurately measure the dimensions of the instrument (8) installed on the installation surface (9).
  • the image processing system (1) can easily and accurately measure the dimensions of the fixture (8) installed on the installation surface (9), even if the proportion of the plane occupying the surface of the fixture (8) is low. can be measured.
  • the outline setting unit (12) has at least two shapes set in the two-dimensional image (Ga1, Ga2) by the user's operation. It is preferable to set the instrument area (Ra3, Ra13) based on the coordinates.
  • the above-described image processing system (1) can set the instrument area (Ra3, Ra13) based on the user's operation.
  • the external shape setting unit (12) receives data of the two-dimensional image (Ga3) and converts the two-dimensional image (Ga3) It is equipped with a learning model that outputs data of the instrument area (Ra23) set to .
  • the above-described image processing system (1) can easily and accurately set the instrument area (Ra23) by using a learning model.
  • the outline setting section (12A) includes an auxiliary outline setting section (121) and an auxiliary projection. (122), a contour generation section (123), and an outline determination section (124).
  • the auxiliary external shape setting unit (121) sets a region corresponding to the external shape of the instrument (8) in the two-dimensional image (Ga1) as an auxiliary instrument region (Rc1).
  • the auxiliary projection unit (122) forms an auxiliary projection region (Rd1) on the detection plane (M1) by projecting the auxiliary instrument region (Rc1) onto the detection plane (M1).
  • the contour generation unit (123) generates a contour image (Gb1) of the auxiliary projection area (Rd1) with the detection plane (M1) as a reference based on the measurement data.
  • the external shape determining unit (124) sets the instrument area based on the contour image (Gb1).
  • the above-described image processing system (1) can accurately determine the outline of the imaging region of the instrument (8) and set the instrument region with high precision.
  • the measurement data is included in the depth image in any one of the first to fourth aspects.
  • the plane estimation unit (13) superimposes the instrument regions (Ra3, Ra13, Ra23) on the depth image, and determines the detection plane (M1, M11) based on the measurement data around the instrument regions (Ra3, Ra13, Ra23). It is preferable to create data of.
  • the above-described image processing system (1) can create highly accurate detection plane data (M1, M11).
  • the measurement unit measures the projection area (Rb3) on the detection plane (M1, M11). , Rb13) on the contour (Q1b, Q2b, Q3b, Q4b, Q11b, Q12b) and the measurement data corresponding to the plurality of coordinates (Q1b, Q2b, Q3b, Q4b, Q11b, Q12b), respectively. , it is preferred to measure the dimensions (W1, W2, W11) of the instrument (8).
  • the above-described image processing system (1) can measure the dimensions (W1, W2, W11) of the instrument (8) with high precision.
  • a dimension measurement system (100) includes the image processing system (1) according to any one of the first to sixth aspects, data of two-dimensional images (Ga1, Ga2, Ga3), and An imaging unit (2) that generates measurement data.
  • the dimension measurement system (100) described above can accurately measure the dimensions of the instrument (8) installed on the installation surface (9).
  • the image processing method of the eighth aspect according to the above-described embodiment includes a data acquisition step (S1), an outline setting step (S2), a plane estimation step (S3), a projection step (S4), and a measurement step ( S5).
  • the data acquisition step (S1) includes data on two-dimensional images (Ga1, Ga2, Ga3) generated by imaging the instrument (8) installed on the installation surface (9), and data on three of the instruments (8). Obtain measurement data of dimensional shape.
  • the external shape setting step (S2) a region corresponding to the external shape of the instrument (8) is set in the two-dimensional image (Ga1, Ga2, Ga3) as an instrument region (Ra3, Ra13, Ra23).
  • the plane estimation step (S3) estimates a detection plane (M1, M11) corresponding to the installation surface (9) based on the measurement data.
  • the projection step (S4) forms a projection area (Rb3, Rb13) on the detection plane (M1, M11) by projecting the instrument area (Ra3, Ra13, Ra23) onto the detection plane (M1, M11).
  • the measuring step (S5) measures the dimensions of the instrument (8) based on the projection area (Rb3, Rb13).
  • the above-described image processing method can accurately measure the dimensions of the instrument (8) installed on the installation surface (9).
  • the program according to the ninth aspect of the embodiment causes a computer system to execute the image processing method according to the eighth aspect.
  • the above program can accurately measure the dimensions of the instrument (8) installed on the installation surface (9).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本開示の課題は、設置面に設置された器具の寸法を精度よく測定することができる画像処理システム、寸法測定システム、画像処理方法、及びプログラムを提供することである。画像処理システム(1)では、データ取得部(11)は、設置面(9)に設置されている器具(8)を撮像することで生成された2次元画像のデータ、及び器具(8)の3次元形状の測定データを取得する。外形設定部(12)は、2次元画像における器具(8)の外形に対応する領域を器具領域として設定する。平面推定部(13)は、測定データに基づいて、設置面(9)に対応する検出平面を推定する。投影部(14)は、検出平面に器具領域を投影することで、検出平面上に投影領域を形成する。測定部(15)は、投影領域に基づいて、器具(8)の寸法を測定する。

Description

画像処理システム、寸法測定システム、画像処理方法、及びプログラム
 本開示は、画像処理システム、寸法測定システム、画像処理方法、及びプログラムに関する。
 特許文献1は、対象物に光学的に目印となる色、模様、マーカ類を必要とせずに、対象物上の長方形や正方形など矩形平面の寸法を計測する3次元情報計測・表示装置を開示している。
 3次元情報計測・表示装置は、デプス画像撮像部と、平面検出部と、平面輪郭抽出部と、寸法・位置姿勢算出部と、を備える。デプス画像撮像部は、対象物を撮影し、2次元画像の画素ごとに深さ情報を備えたデプス画像を取得する。平面検出部は、デプス画像撮像部により取得されたデプス画像から平面領域を抽出し、抽出した平面領域を含む平面の方程式を計算する。平面輪郭抽出部は、平面検出部により抽出された平面領域を上記2次元画像に射影した領域を四角形に近似した輪郭を抽出する。寸法・位置姿勢算出部は、平面輪郭抽出部により抽出された2次元画像上の輪郭を、透視投影変換により上記方程式で特定される平面上の輪郭に変換し、変換後の輪郭で囲まれた領域の縦横の辺の長さを検出する。
 上述の特許文献1は、対象物上の矩形平面の寸法を求める技術を開示している。
 しかしながら、特許文献1の技術では、設置面に設置された器具の寸法を測定しようとすると、器具の平面と設置面とを区別することが難しく、設置面に設置された器具の寸法を測定することは困難であった。例えば、特許文献1の技術では、器具の表面を占める平面の割合が低いときには、設置面に設置された器具の寸法を測定することは困難であった。
国際公開2014/147863号
 本開示の目的は、設置面に設置された器具の寸法を精度よく測定することができる画像処理システム、寸法測定システム、画像処理方法、及びプログラムを提供することにある。
 本開示の一態様に係る画像処理システムは、データ取得部と、外形設定部と、平面推定部と、投影部と、測定部と、を備える。前記データ取得部は、設置面に設置されている器具を撮像することで生成された2次元画像のデータ、及び前記器具の3次元形状の測定データを取得する。前記外形設定部は、前記2次元画像における前記器具の外形に対応する領域を器具領域として設定する。前記平面推定部は、前記測定データに基づいて、前記設置面に対応する検出平面を推定する。前記投影部は、前記検出平面に前記器具領域を投影することで、前記検出平面上に投影領域を形成する。前記測定部は、前記投影領域に基づいて、前記器具の寸法を測定する。
 本開示の一態様に係る寸法測定システムは、上述の画像処理システムと、前記2次元画像のデータ及び前記測定データを生成する撮像部と、を備える。
 本開示の一態様に係る画像処理方法は、データ取得ステップと、外形設定ステップと、平面推定ステップと、投影ステップと、測定ステップと、を含む。前記データ取得ステップは、設置面に設置されている器具を撮像することで生成された2次元画像のデータ、及び前記器具の3次元形状の測定データを取得する。前記外形設定ステップは、前記2次元画像における前記器具の外形に対応する領域を器具領域として設定する。前記平面推定ステップは、前記測定データに基づいて、前記設置面に対応する検出平面を推定する。前記投影ステップは、前記検出平面に前記器具領域を投影することで、前記検出平面上に投影領域を形成する。前記測定ステップは、前記投影領域に基づいて、前記器具の寸法を測定する。
 本開示の一態様に係るプログラムは、コンピュータシステムに上述の画像処理方法を実行させる。
図1は、実施形態の画像処理システムを備える寸法測定システムを示すブロック図である。 図2は、同上の寸法測定システムの測定対象となる器具の一例を示す斜視図である。 図3は、同上の画像処理システムにおける2次元画像の第1例を示す図である。 図4は、同上の2次元画像に設定された器具領域を示す図である。 図5は、同上の画像処理システムにおける2次元画像の第2例を示す図である。 図6は、同上の2次元画像に設定された器具領域を示す図である。 図7は、同上の画像処理システムにおける検出平面上の投影領域を示す図である。 図8は、同上の画像処理システムにおける別の検出平面上の投影領域を示す図である。 図9Aは、第1変形例の画像処理システムにおける2次元画像を示す図である。図9Bは、2次元画像から抽出された器具の輪郭を示す図である。 図10は、同上の2次元画像に設定された器具領域を示す図である。 図11は、第2変形例の画像処理システムの外形設定部を示すブロック図である。 図12は、同上の画像処理システムにおいて2次元画像に設定された補助器具領域を示す図である。 図13は、同上の画像処理システムにおける検出平面上の等高線画像を示す図である。 図14は、第3変形例の寸法測定システムの具体構成を示すブロック図である。 図15は、第4変形例の第1操作画面を示す図である。 図16は、同上の第2操作画面を示す図である。 図17は、画像処理システムが実行する画像処理方法を示すフローチャートである。
 以下の実施形態は、一般に画像処理システム、寸法測定システム、画像処理方法、及びプログラムに関する。より詳細に、以下の実施形態は、設置面に設置された器具の寸法を測定する画像処理システム、寸法測定システム、画像処理方法、及びプログラムに関する。
 以下、実施形態に係る画像処理システム、寸法測定システム、画像処理方法、及びプログラムについて、図面を参照して詳細に説明する。ただし、下記の実施形態において説明する各図は模式的な図であり、各構成要素の大きさや厚さそれぞれの比が必ずしも実際の寸法比を反映しているとは限らない。
 また、以下に説明する実施形態は、本開示の実施形態の一例にすぎない。本開示は、以下の実施形態に限定されず、本開示の効果を奏することができれば、設計等に応じて種々の変更が可能である。
 (1)概要
 建築物には、天井面、壁面、床面などの設置面に、様々な器具が設置されている。器具8は、照明器具、空調装置、電気器具、及びガス器具などである。また、器具は、設置面に埋込設置されたり、設置面の表面に設置されたりしている。
 そして、建築物の改修工事(リフォーム、リノベーション、改築、及び増築など)では、器具の置換(交換を含む)を検討することがある。このような改修工事における器具の置換を検討する際には、現在設置されている器具の寸法に関する情報を容易、かつ、精度よく測定できることが好ましい。
 そこで、画像処理システム1は、図1に示す構成を備えて、設置面9に設置された器具8の寸法を測定する。
 画像処理システム1は、データ取得部11と、外形設定部12と、平面推定部13と、投影部14と、測定部15と、を備える。データ取得部11は、設置面9に設置されている器具8を撮像することで生成された2次元画像のデータ、及び器具8の3次元形状の測定データを取得する。外形設定部12は、2次元画像における器具8の外形に対応する領域を器具領域として設定する。平面推定部13は、測定データに基づいて、設置面9に対応する検出平面を推定する。投影部14は、検出平面に器具領域を投影することで、検出平面上に投影領域を形成する。測定部15は、投影領域に基づいて、器具8の寸法を測定する。
 上述の構成を備える画像処理システム1は、設置面9に設置された器具8の寸法を精度よく測定することができる。特に、画像処理システム1は、例えば器具8の表面を占める平面の割合が低くても、設置面9に設置された器具8の寸法を容易、かつ、高精度に測定することができる。
 また、寸法測定システム100は、画像処理システム1と、撮像部2と、を備える。撮像部2は、器具8を撮像して、2次元画像のデータ及び器具8の3次元形状の測定データを生成する。
 上述の構成を備える寸法測定システム100も、設置面9に設置された器具8の寸法を精度よく測定することができる。
 (2)詳細
 以下、本実施形態の画像処理システム1を備える寸法測定システム100の詳細を説明する。
 寸法測定システム100は、画像処理システム1、撮像部2、表示部3、及び操作部4を更に備える。画像処理システム1は、データ取得部11、外形設定部12、平面推定部13、投影部14、及び測定部15を備える。
 寸法測定システム100は、例えばタブレット端末又はスマートフォンなどの携行型の情報端末を用いて実現されることが好ましい。本実施形態では、画像処理システム1、撮像部2、表示部3、及び操作部4の各機能は、1つの情報端末で実現される。情報端末は、器具8の寸法を測定する寸法測定処理のためのアプリケーションを予めインストールしており、当該アプリケーションを起動することで、寸法測定処理を開始する。そして、作業者などのユーザは、情報端末を携行して建築物内を移動し、測定対象となる器具8を撮像する。画像処理システム1は、器具8の撮像画像に基づいて、器具8の寸法を測定する。
 (2.1)器具
 器具8は、設置面9に設置されている。
 設置面9は、天井面、壁面、又は床面などであり、平面、又は凹凸が少ない面である。例えば天井パネル、壁パネル、床パネルの表面が、設置面9に相当する。
 器具8は、照明器具、空調装置、電気器具、又はガス器具などである。器具8は、設置面9に埋込設置される構成、及び設置面9の表面に設置される構成のいずれでもよい。また、器具8の形状は特定の形状に限定されない。
 図2は、器具8の一例として、天井面に埋込設置された長尺の矩形体形状の照明器具を例示する。この場合、器具8は照明器具であり、設置面9は天井面である。
 (2.2)撮像部
 撮像部2は、2次元カメラ21、及びデプスカメラ22を備える。撮像部2は、2次元カメラ21とデプスカメラ22とを同時(又はほぼ同時)に駆動する。2次元カメラ21とデプスカメラ22とが近接して配置されており、2次元カメラ21の撮像範囲及び撮像方向とデプスカメラ22の撮像範囲及び撮像方向とは同一(又はほぼ同一)である、とみなせる。また、撮像部2は、2次元カメラ21の撮像範囲及び撮像方向とデプスカメラ22の撮像範囲及び撮像方向とがずれている場合には、当該ずれを補正する機能を有する。すなわち、2次元カメラ21及びデプスカメラ22のそれぞれの撮像範囲、撮像方向、及び撮像タイミングは、同一(又はほぼ同一)になる。
 2次元カメラ21は、2次元画像のデータを生成するカメラである。2次元画像を構成する各画素の画素値は、濃淡値を示す。2次元画像がモノクロ画像であれば、画素値はグレースケールの濃淡値を示す。2次元画像がカラー画像であれば、画素値は、赤(R)、緑(G)、青(B)の各色の濃淡値を示す。
 デプスカメラ22は、デプス画像を生成するカメラである。デプス画像を構成する各画素の画素値は、デプスカメラ22からの距離を示す。すなわち、デプス画像は、撮像対象の3次元形状の測定データを含んでいる。デプスカメラ22がデプス画像を生成する方式には、TOF(Time of Flight)方式、ステレオカメラ方式、構造化照明方式、及びLiDAR(Light Detection and Ranging)方式などがある。
 なお、撮像部2は、情報端末T1に一体に設けられていることが好ましいが、情報端末T1とは別体に設けられていてもよい。
 (2.3)表示部及び操作部
 表示部3は、液晶ディスプレイ又は有機ELディスプレイなどであり、画像処理システム1から画像データを受け取り、画像データを表示する。画像データは、例えば器具8の寸法を測定する寸法測定処理の実行及び停止などの操作画面、並びに寸法測定処理の実行過程、実行結果などの通知画面のデータである。
 操作部4は、ユーザの操作を受け付けるユーザインタフェース機能を有する。操作部4、タッチパネルディスプレイ、キーボード、及びマウスなどの少なくとも1つのユーザインタフェースを有する。ユーザは、画像処理システム1に寸法測定処理を実行させるための操作を、操作部4に対して行う。
 そして、ユーザは、表示部3に表示された画面を見ながら操作部4を操作することで、寸法測定処理の実行及び停止などの操作、並びに寸法測定処理の過程及び結果の確認を行う。
 なお、表示部3及び操作部4は、情報端末T1に一体に設けられていることが好ましいが、情報端末T1とは別体に設けられていてもよい。
 (2.4)画像処理システム
 画像処理システム1は、コンピュータシステムを備えることが好ましい。コンピュータシステムは、プログラムを実行することによって、画像処理システム1の一部又は全部を実現する。コンピュータシステムは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、又はLSI(Large Scale Integration)を含む一つ又は複数の電子回路で構成される。ここでは、ICやLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、若しくはULSI(Ultra Large Scale Integration) と呼ばれるものであってもよい。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータシステムが読み取り可能なROM、光ディスク、ハードディスクドライブなどの非一時的記録媒体に記録される。プログラムは、非一時的記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して非一時的記録媒体に供給されてもよい。
 本実施形態では、タブレット端末又はスマートフォンなどの携行型の情報端末がコンピュータシステムを構成している。
 なお、コンピュータシステムは、1台のコンピュータ装置に限らず、互いに連携した複数台のコンピュータ装置で実現されていてもよい。また、コンピュータシステムは、クラウドコンピューティングシステムとして構築されていてもよい。
 (2.4.1)データ取得部
 データ取得部11は、撮像部2から、2次元画像のデータ、及びデプス画像のデータを取得する。2次元画像のデータは、撮像部2の2次元カメラ21が生成した画像データである。デプス画像のデータは、撮像部2のデプスカメラ22が生成した画像データであり、撮像対象の3次元形状の測定データを含んでいる。
 (2.4.2)外形設定部
 外形設定部12は、2次元画像における器具8の外形に対応する領域を器具領域として設定する。本実施形態では、外形設定部12は、ユーザの操作によって2次元画像に設定された少なくとも2つの座標に基づいて、器具領域を設定する。
 以下、図3に示す2次元画像Ga1、及び図5に示す2次元画像Ga2を用いて説明する。
 図3は、2次元画像の第1例として、2次元画像Ga1を示す。2次元画像Ga1は、例えば、図2に示す長尺の矩形体形状の照明器具を、器具8として斜め下方から撮像した画像である。この場合、器具8は下端面が長方形となる照明器具であり、設置面9は天井面である。2次元画像Ga1は、器具8の撮像領域Ra1、及び設置面9の撮像領域Ra2を含む。2次元画像Ga1は、モノクロ画像又はカラー画像であり、各画素の画素値は濃淡値を示す。
 外形設定部12は、2次元画像Ga1を表示部3に表示する。ユーザは、表示部3に表示された2次元画像Ga1を見ながら操作部4を操作することで、2次元画像Ga1にピンPn(nは自然数)を配置する。ピンPnは、2次元画像Ga1の一点を指し、2次元画像Ga1における1つの座標を指定する。2次元画像Ga1では、撮像領域Ra1は、器具8の下端面に対応する長尺の四角形であり、2つの長辺と2つの短辺とを有する。ピンP1、P2は、撮像領域Ra1の2つの長辺のうちより長い長辺L1の両端をそれぞれ指し、2次元画像Ga1における長辺L1の両端に対応する2つの座標を指定する。ピンP3、P4は、撮像領域Ra1の2つの短辺のうちより長い短辺L2の両端をそれぞれ指し、2次元画像Ga1における短辺L2の両端に対応する2つの座標を指定する。
 次に、外形設定部12は、図4に示すように、ピンP1-P4(図3参照)で指定された各座標を含むように平行四辺形をフィッティング(平行四辺形近似)することで、2次元画像Ga1に平行四辺形の器具領域Ra3を設定する。例えば、外形設定部12は、長辺L1と短辺L2を含むように近似される平行四辺形をフィッティングによって生成する。そして、外形設定部12は、平行四辺形の器具領域Ra3について、2次元画像Ga1における器具領域Ra3の長辺L3の始端Q1及び終端Q2、短辺L4の始端Q3及び終端Q4の各座標を求める。
 図5は、2次元画像の第2例として、2次元画像Ga2を示す。2次元画像Ga2は、例えば、天井面に埋込設置されたダウンライトを斜め下方から撮像した画像である。この場合、器具8は下端面が円形となる照明器具であり、設置面9は天井面である。2次元画像Ga2は、器具8の撮像領域Ra11、及び設置面9の撮像領域Ra12を含む。2次元画像Ga2は、モノクロ画像又はカラー画像であり、各画素の画素値は濃淡値を示す。
 外形設定部12は、2次元画像Ga2を表示部3に表示する。ユーザは、表示部3に表示された2次元画像Ga2を見ながら操作部4を操作することで、2次元画像Ga2にピンPn(nは自然数)を配置する。ピンPnは、2次元画像Ga2の一点を指し、2次元画像Ga2における1つの座標を指定する。2次元画像Ga2では、撮像領域Ra11は楕円形である。ピンP11、P12は、撮像領域Ra11の長径L11(器具8の円形状の下端面の直径に相当する)の両端をそれぞれ指し、2次元画像Ga2における長径L11の両端に対応する2つの座標を指定する。
 次に、外形設定部12は、図6に示すように、ピンP11-P12(図5参照)で示される各座標を含むように楕円形をフィッティング(楕円近似)することで、2次元画像Ga2に楕円形の器具領域Ra13を設定する。例えば、外形設定部12は、長径L11を含むように近似される楕円形をフィッティングによって生成する。そして、外形設定部12は、楕円形の器具領域Ra13について、2次元画像Ga2における器具領域Ra13の長径L12の始端Q11及び終端Q12の各座標を求める。
 (2.4.3)平面推定部
 平面推定部13は、器具8の3次元形状の測定データに基づいて、設置面9に対応する平面である検出平面を推定する。測定データは、撮像部2のデプスカメラ22が撮像したデプス画像に含まれている。デプス画像を構成する各画素の画素値は、デプスカメラ22からの距離を示す。すなわち、デプス画像は、器具8の3次元形状の測定データを含んでいる。
 平面推定部13は、デプス画像に器具領域を重ね合わせて、器具領域の周囲(器具領域の外側)の測定データに基づいて、設置面9に対応する検出平面のデータを作成する。検出平面の各画素の画素値は、デプスカメラ22からの距離を示し、器具8の3次元形状の測定データを含んでいる。したがって、平面推定部13は、精度のよい検出平面のデータを作成できる。
 例えば、平面推定部13は、2次元画像Ga1に対応するデプス画像に器具領域Ra3(図4参照)を重ね合わせて、器具領域Ra3の周囲の測定データに基づいて、設置面9に対応する検出平面M1(図7参照)のデータを作成する。
 また、平面推定部13は、2次元画像Ga2に対応するデプス画像に器具領域Ra13(図6参照)を重ね合わせて、器具領域Ra13の周囲の測定データに基づいて、設置面9に対応する検出平面M11(図8参照)のデータを作成する。
 (2.4.4)投影部
 投影部14は、平面推定部13が推定した検出平面に器具領域を投影することで、検出平面上に投影領域を形成する。
 以下、図7及び図8を用いて説明する。
 図7では、投影部14は、平面推定部13が推定した検出平面M1に器具領域Ra3を投影している。例えば、投影部14は、2次元画像Ga1における器具領域Ra3の長辺L3の始端Q1及び終端Q2、短辺L4の始端Q3及び終端Q4の各座標を、測定座標Q1b、Q2b、Q3b、Q4bとして検出平面M1に投影する。この結果、検出平面M1上には、測定座標Q1b、Q2b、Q3b、Q4bを頂点とする平行四辺形の投影領域Rb3が形成される。測定座標Q1b、Q2b、Q3b、Q4bは、投影領域Rb3の輪郭上の座標である。
 図8では、投影部14は、平面推定部13が推定した検出平面M11に器具領域Ra13を投影している。例えば、投影部14は、2次元画像Ga2における器具領域Ra13の長径L12の始端Q11及び終端Q12の各座標を、測定座標Q11b、Q12bとして検出平面M11に投影する。この結果、検出平面M11上には、測定座標Q11b、Q12bを長径とする楕円形の投影領域Rb13が形成される。測定座標Q11b、Q12bは、投影領域Rb13の輪郭上の座標である。
 (2.4.5)測定部
 測定部15は投影領域に基づいて、器具8の寸法を測定する。測定部15は、検出平面における一対の測定座標のそれぞれに対応するデプス画像の各画素の画素値も一対の測定座標に併せて用いて、一対の測定座標間の長さ寸法を求める。すなわち、測定部15は、一対の測定座標のそれぞれに対応する3次元形状の測定データも一対の測定座標に併せて用いて、一対の測定座標間の長さ寸法を求める。測定座標に3次元形状の測定データを組み合わせたものは、3次元空間における位置を指定する3次元座標に相当する。
 図7では、測定部15は、検出平面M1上に投影された投影領域Rb3の測定座標Q1b-Q2b間の長さ寸法W1を、器具8の長辺寸法として測定する。具体的に、測定部15は、測定座標Q1b、測定座標Q2b、測定座標Q1bにおける3次元の測定データ、及び測定座標Q2bにおける3次元の測定データを用いて、測定座標Q1b-Q2b間の3次元空間における距離を長さ寸法W1として求める。また、測定部15は、検出平面M1上に投影された投影領域Rb3の測定座標Q3b-Q4b間の長さ寸法W2を、器具8の短辺寸法として検出する。具体的に、測定部15は、測定座標Q3b、測定座標Q4b、測定座標Q3bにおける3次元の測定データ、及び測定座標Q4bにおける3次元の測定データを用いて、測定座標Q3b-Q4b間の3次元空間における距離を長さ寸法W2として求める。すなわち、測定部15は、検出平面M1における投影領域Rb3の輪郭上の複数の測定座標Q1b、Q2b、Q3b、Q4b、及び複数の測定座標Q1b、Q2b、Q3b、Q4bにそれぞれ対応する測定データに基づいて、器具8の長さ寸法W1、W2を測定する。測定部15は、器具8の長さ寸法W1、W2を高精度に測定できる。
 図8では、測定部15は、検出平面M11上に投影された投影領域Rb13の測定座標Q11b-Q12b間の長さ寸法W11を、器具8の直径寸法として測定する。具体的に、測定部15は、測定座標Q11b、測定座標Q12b、測定座標Q11bにおける3次元の測定データ、及び測定座標Q12bにおける3次元の測定データを用いて、測定座標Q11b-Q12b間の3次元空間における距離を長さ寸法W11として求める。すなわち、測定部15は、検出平面M11における投影領域Rb13の輪郭上の複数の測定座標Q11b、Q12b、及び複数の測定座標Q11b、Q12bにそれぞれ対応する測定データに基づいて、器具8の長さ寸法W11を測定する。測定部15は、器具8の長さ寸法W11を高精度に測定できる。
 そして、測定部15は、器具8の寸法の測定結果を表示部3へ出力する。表示部3は、器具8の寸法の測定結果を表示する。
 なお、測定部15は、図7に示す投影領域Rb3、及び測定座標Q1b-Q4bを含む画面、又は図8に示す投影領域Rb13、及び測定座標Q11b-Q12bを含む画面を表示部3に表示してもよい。この場合、ユーザは、操作部4を操作して画面内の測定座標Q1b-Q4b、Q11b-Q12bの各位置を変更して、測定結果を補正できる。
 また、測定部15は、図7に示す検出平面M1を含む画面、又は図8に示す検出平面M11を含む画面を表示部3に表示してもよい。この場合、ユーザは、操作部4を操作して、画面内における検出平面M1、M11の表示の可否を切り替えることができる。
 (2.4.6)小括
 上述のように、画像処理システム1は、設置面9に対応する検出平面M1、M11を推定し、検出平面M1、M11に器具領域Ra3、Ra13を投影することで、検出平面M1、M11上に投影領域Rb3、Rb13を形成する。そして、画像処理システム1は、投影領域Rb3、Rb13に基づいて、器具8の寸法を測定する。したがって、画像処理システム1は、設置面9に設置された器具8の寸法を精度よく測定することができる。画像処理システム1は、例えば器具8の表面を占める平面の割合が低くても、設置面9に設置された器具8の寸法を容易、かつ、高精度に測定することができる。
 (3)第1変形例
 第1変形例では、外形設定部12の変形例について説明する。
 本変形例では、外形設定部12は、学習モデルを用いて器具領域を設定する。すなわち、外形設定部12は、2次元画像のデータを入力されて、器具領域を設定した2次元画像のデータを出力する学習モデルを備える。
 学習モデルは、2次元画像を入力されて、2次元画像に設定した器具領域のデータを出力するモデルである。学習モデルは、多数の2次元画像を教師データとして用いた機械学習によって構築される。例えば、学習モデルは、ニューラルネットワークを用いたディープラーニング(Deep Learning)などの機械学習によって構築されることが好ましい。
 例えば、学習モデルは、FCN(Fully Convolutional Networks)を用いたディープラーニングによって構築される。機械学習は、2次元画像、及び2次元画像のセグメンテーション画像を教師データとする。2次元画像のセグメンテーション画像は、セマンティックセグメンテーション(Semantic Segmentation)の処理によって、2次元画像を構成する全ての画素にラベルを対応付けて、2次元画像内を複数のクラスに分割した画像である。本実施形態では、セマンティックセグメンテーションによって分割される複数のクラスに「器具」が含まれている。この結果、学習モデルは、2次元画像を入力されると、2次元画像にセマンティックセグメンテーションの処理を施して、2次元画像を複数のクラスに分割することができる。
 そして、学習モデルは、2次元画像に「器具」のクラスが存在すれば、「器具」のクラスに対応する領域を器具領域として設定する。学習モデルは、2次元画像に「器具」のクラスが存在しなければ、器具未検出と判定して、当該判定結果を出力する。
 具体的には、図9Aに示す2次元画像Ga3は、図2に示す長尺の矩形体形状の照明器具を、器具8として斜め下方から撮像した画像である。この場合、器具8は下端面が長方形となる照明器具であり、設置面9は天井面である。2次元画像Ga3は、器具8の撮像領域Ra21、及び設置面9の撮像領域Ra22を含む。2次元画像Ga3は、モノクロ画像又はカラー画像であり、各画素の画素値は濃淡値を示す。
 外形設定部12は、2次元画像Ga3を学習モデルに入力する。学習モデルは、2次元画像Ga3にセマンティックセグメンテーションの処理を施し、図9Bに示すように2次元画像Ga3から「器具」のクラスの輪郭L20を抽出する。次に、学習モデルは、輪郭L20に四角形をフィッティング(四角形近似)することで、図10に示すように2次元画像Ga3に四角形の器具領域Ra23を設定する。
 器具領域Ra23は長尺の四角形であり、2つの長辺と2つの短辺とを有する。そこで、学習モデルは、四角形の器具領域Ra23の2つの長辺から、より長い長辺L21を選択し、長辺L21の始端Q21及び終端Q22の各座標を求める。また、学習モデルは、四角形の器具領域Ra23の2つの短辺から、より長い短辺L22を選択し、短辺L22の始端Q23及び終端Q24の各座標を求める。
 そして、投影部14は、2次元画像Ga3における器具領域Ra23の長辺L21の始端Q21及び終端Q22、短辺L22の始端Q23及び終端Q24の各座標を、測定座標として検出平面に投影する。
 また、学習モデルは、重回帰分析、サポートベクターマシン(Support Vector Machine)などの他のアルゴリズムを用いたモデルであってもよい。
 上述のように、画像処理システム1は、学習モデルを用いることで、器具領域Ra23を簡易、かつ、高精度に設定することができる。
 (4)第2変形例
 第2変形例では、外形設定部12の変形例である外形設定部12Aについて説明する。
 図11に示すように、外形設定部12Aは、補助外形設定部121、補助投影部122、等高線生成部123、及び外形決定部124を備える。補助外形設定部121は、2次元画像に器具8の外形に対応する領域を補助器具領域として設定する。補助投影部122は、検出平面に補助器具領域を投影することで、検出平面上に補助投影領域を形成する。等高線生成部123は、測定データに基づいて、検出平面を基準とした補助投影領域の等高線画像を生成する。外形決定部124は、等高線画像に基づいて器具領域を設定する。
 具体的に、図12及び図13を用いて説明する。
 平面推定部13は、器具8の3次元形状の測定データに基づいて、設置面9に対応する平面である検出平面M1(図13参照)を推定する。
 補助外形設定部121は、図12に示すように、2次元画像Ga1に器具8の外形に対応する領域を補助器具領域Rc1として設定する。補助外形設定部121は、上述の実施形態で説明したユーザの操作による器具領域Ra3(図4参照)の設定、又は第1変形例で説明した学習モデルによる器具領域Ra23(図10参照)の設定と同様に、2次元画像Ga1における器具8の外形に対応する領域を、補助器具領域Rc1として設定する。
 補助投影部122は、検出平面M1に補助器具領域Rc1を投影することで、図13に示すように検出平面M1上に補助投影領域Rd1を形成する。補助投影領域Rd1は、上述の投影領域Rb3(図7参照)と同様に形成された領域である。
 等高線生成部123は、器具8の3次元形状の測定データに基づいて、検出平面M1を基準とした補助投影領域Rd1の等高線画像Gb1(図13参照)を生成する。測定データは、デプス画像に含まれている。等高線画像Gb1は、補助投影領域Rd1の内部に等高線L31~L33を形成した画像である。等高線L31~L33は、検出平面M1を基準として、正方向(凸部)及び負方向(凹部)の両方に設定可能である。すなわち、等高線画像Gb1は、補助投影領域Rd1の内部に形成された等高線L31~L33によって、器具8の凹凸などの3次元形状を視覚的に表している。具体的に、等高線画像Gb1は、等高線L31~L33の各間の色又は濃淡の少なくとも一方を異ならせることで、器具8の凹凸を視覚的に容易に把握できるように構成されている。
 そして、外形決定部124は、等高線画像Gb1に基づいて器具領域を設定する。例えば、外形決定部124は、2次元画像Ga1に等高線画像Gb1を重ね合わせる。外形決定部124は、上述の実施形態で説明したユーザの操作による器具領域Ra3の設定、又は第1変形例で説明した学習モデルによる器具領域Ra3の設定と同様に、等高線画像Gb1を含む2次元画像Ga1に器具領域を設定する。
 外形決定部124が用いる学習モデルは、機械学習においては、等高線画像、及び等高線画像のセグメンテーション画像を教師データとする。この結果、外形決定部124が用いる学習モデルは、等高線画像を入力されると、等高線画像にセマンティックセグメンテーションの処理を施して、等高線画像を複数のクラスに分割することができる。そして、外形決定部124が用いる学習モデルは、等高線画像に「器具」のクラスが存在すれば、「器具」のクラスに対応する領域を器具領域として決定する。学習モデルは、等高線画像に「器具」のクラスが存在しなければ、器具未検出と判定して、当該判定結果を出力する。
 そして、上述の実施形態と同様に、投影部14は、検出平面M1に器具領域を投影することで、検出平面M1上に投影領域を形成する。測定部15は、投影領域に基づいて、器具8の寸法を測定する。
 本変形例の外形設定部12Aは、器具8の3次元形状(凹凸形状)を視覚的に表した等高線画像Gb1を用いて器具領域を設定する。したがって、2次元画像Ga1における器具8の撮像領域Ra1の輪郭が不鮮明であっても、等高線画像Gb1を用いることで、器具8の撮像領域Ra1の輪郭を精度よく見極められる。この結果、外形決定部124は、器具領域を精度よく設定できる。
 例えば、器具8が照明器具であるときに、撮像部2が点灯中の照明器具を撮像すると、2次元画像Ga1では、器具8の撮像領域Ra1の輪郭が光膨張(ハレーション)によって不鮮明になることがある。しかしながら、本変形例の外形設定部12Aは、等高線画像Gb1を用いることで、器具8の撮像領域Ra1の輪郭を精度よく見極めて器具領域を精度よく設定できる。
 (5)第3変形例
 図14は、寸法測定システム100の具体的な構成例を示す。寸法測定システム100は、ユーザが携行可能な情報端末T1、及びサーバ装置T2によって実現されることが好ましい。情報端末T1は、例えばタブレット端末又はスマートフォンなどである。情報端末T1は、データ取得部11、平面推定部13、投影部14、測定部15、撮像部2、表示部3、及び操作部4の各機能を備える。そして、ユーザは、情報端末T1を携行して、建築物内を移動する。サーバ装置T2は、建築物から離れた遠隔地に設置されており、外形設定部12の機能を備える。
 情報端末T1は、器具8の寸法を測定する寸法測定処理のためのアプリケーションを予めインストールしており、当該アプリケーションを実行することで、サーバ装置T2との間でインターネット等を含む広域通信網NT1を介して通信可能に構成されている。アプリケーションを実行している情報端末T1は、サーバ装置T2との間で各種データの送信及び受信を行うことができる。
 そして、情報端末T1は、データ取得部11が取得した2次元画像のデータを、サーバ装置T2へ送信する。サーバ装置T2の外形設定部12は、2次元画像に器具8の外形に対応する領域を器具領域として設定する。サーバ装置T2は、設定した器具領域のデータを情報端末T1へ送信する。情報端末T1では、平面推定部13、投影部14、及び測定部15が上記同様の処理を行う。
 ここで、本変形例の外形設定部12は、上述の第1変形例と同様に、学習モデルを用いて器具領域を設定することが好ましい。この場合、外形設定部12をサーバ装置T2に設けることで、外形設定部12が学習モデルを用いた処理を実行するためのリソースを容易に確保することができ、情報端末T1の負荷を低減できる。
 (6)第4変形例
 第4変形例では、表示部3に表示する画面(表示画面)について説明する。
 図15は、撮像部2が器具8を撮像するときに表示部3に表示される第1操作画面F1を示す。表示部3は矩形状のディスプレイを有し、矩形状の第1操作画面F1には、撮像部2の2次元カメラ21の撮像画像Gc1がリアルタイムで表示される。
 さらに、表示部3は、タッチパネルディスプレイであり、第1操作画面F1には操作部4も形成されている。具体的に、操作部4としての操作部41-43が、第1操作画面F1の右辺に沿って並んで配置されている。操作部41は撮影設定ボタンであり、操作部41の操作によって、撮影用ライトの使用の可否、及び保存データの選択などが行われる。操作部42は撮影ボタンであり、操作部42が操作されると、2次元カメラ21及びデプスカメラ22が駆動し、撮像部2は、2次元画像及びデプス画像の各データを生成する。操作部43は測定モード設定ボタンであり、操作部43の操作によって、器具8の寸法を測定するモード(測定モード)の選択が行われる。測定モードには、直線測定モード、矩形測定モード、直径測定モードなどが含まれる。直線測定モードは、器具8の輪郭に含まれる直線状の1辺の寸法を測定するモードである。矩形測定モードは、器具8の矩形状の輪郭の長辺及び短辺の各寸法を測定するモードである。直径測定モードは、器具8の円形の輪郭の直径の寸法を測定するモードである。
 図16は、撮像部2が器具8を撮像した後に表示部3に表示される第2操作画面F2を示す。表示部3は矩形状のディスプレイを有し、矩形状の第2操作画面F2には、撮像部2の2次元カメラ21が撮像した2次元画像Ga4が表示される。
 さらに、表示部3は、タッチパネルディスプレイであり、第2操作画面F2には操作部4も形成されている。具体的に、操作部4としての操作部44が、2次元画像Ga4の右辺の外側に配置されている。操作部44は測定設定ボタンであり、寸法測定処理の経過に伴う表示内容の選択、及び保存データの選択などが行われる。
 さらに、第2操作画面F2には結果表示領域Rxも形成されている。結果表示領域Rxは、2次元画像Ga4の右辺の外側に配置されている。結果表示領域Rxは、測定部15による器具8の寸法の測定結果が表示される。
 また、第2操作画面F2は、第1操作画面F1の操作部43(測定モード設定ボタン)の操作によって選択された測定モード毎に異なる画面構成であることが好ましい。すなわち、第1操作画面F1からの遷移先となる第2操作画面F2は、第1操作画面F1の操作部43の操作によって選択された測定モード毎に異なる。
 また、第1操作画面F1で操作部42の操作によって2次元画像及びデプス画像の各データを生成すると、第2操作画面F2に遷移することなく、2次元画像及びデプス画像の各データを画像処理システム1に保存することも可能である。
 (7)第5変形例
 データ取得部11は、器具8の2次元画像のデータ、及び器具8の3次元形状の測定データを、撮像部2から取得する構成に限定されない。例えば、2次元画像のデータ及び3次元形状の測定データを、データサーバに予め格納しておき、データ取得部11は、2次元画像のデータ及び3次元形状の測定データをデータサーバから取得(読み込み)してもよい。
 また、本変形例においても、測定モードを選択することで、2次元画像のデータ及び3次元形状の測定データを読み込んだ後に表示部3に表示される第2操作画面F2を、測定モード毎に異なる画面構成とすることが好ましい。
 (8)第6変形例
 器具8の2次元画像のデータ及び3次元形状の測定データの組み合わせには、オブジェクトID(識別情報)が付与されることが好ましい。この場合、2次元画像のデータ及び3次元形状の測定データは、オブジェクトIDを用いて管理される。
 器具8の形状は、上述の形状に限定されず、例えば半球形、角柱、円柱、及び不規則形状などの他の形状であってもよい。
 器具8は、照明器具に限定されず、例えば空調装置、電気器具、及びガス器具などの他の器具であってもよい。
 撮像部2は、3次元レーザスキャナ、又はLiDAR(Light Detection and Ranging)などのように、レーザを用いて点群データを生成する構成を備えていてもよい。この場合、器具8の3次元形状の測定データは、点群データに含まれる。
 また、撮像部2は、2つ以上のレンズを有するステレオカメラであってもよい。
 また、上述の実施形態及び各変形例の構成を適宜組み合わせることも可能である。
 (9)画像処理方法
 上述の画像処理システム1が行う画像処理方法をまとめると、画像処理方法は、図17のフローチャートに示される。
 画像処理方法は、データ取得ステップS1と、外形設定ステップS2と、平面推定ステップS3と、投影ステップS4と、測定ステップS5と、を含む。データ取得ステップS1では、データ取得部11が、設置面9に設置されている器具8を撮像することで生成された2次元画像Ga1、Ga2のデータ、及び器具8の3次元形状の測定データを取得する。外形設定ステップS2では、外形設定部12(又は12A)が、2次元画像Ga1、Ga2における器具8の外形に対応する領域を器具領域Ra3、Ra13として設定する。平面推定ステップS3では、平面推定部13が、測定データに基づいて、設置面9に対応する検出平面M1、M11を推定する。投影ステップS4では、投影部14が、検出平面M1、M11に器具領域Ra3、Ra13を投影することで、検出平面M1、M11上に投影領域Rb3、Rb13を形成する。測定ステップS5では、測定部15が、投影領域Rb3、Rb13に基づいて、器具8の寸法を測定する。
 上述の各ステップを含む画像処理方法は、設置面9に設置された器具8の寸法を精度よく測定することができる。画像処理方法は、例えば器具8の表面を占める平面の割合が低くても、設置面9に設置された器具8の寸法を容易、かつ、高精度に測定することができる。
 (10)まとめ
 実施形態に係る第1の態様の画像処理システム(1)は、データ取得部(11)と、外形設定部(12、12A)と、平面推定部(13)と、投影部(14)と、測定部(15)と、を備える。データ取得部(11)は、設置面(9)に設置されている器具(8)を撮像することで生成された2次元画像(Ga1、Ga2、Ga3)のデータ、及び器具(8)の3次元形状の測定データを取得する。外形設定部(12、12A)は、2次元画像(Ga1、Ga2、Ga3)に器具(8)の外形に対応する領域を器具領域(Ra3、Ra13、Ra23)として設定する。平面推定部(13)は、測定データに基づいて、設置面(9)に対応する検出平面(M1、M11)を推定する。投影部(14)は、検出平面(M1、M11)に器具領域(Ra3、Ra13、Ra23)を投影することで、検出平面(M1、M11)上に投影領域(Rb3、Rb13)を形成する。測定部(15)は、投影領域(Rb3、Rb13)に基づいて、器具(8)の寸法を測定する。
 上述の画像処理システム(1)は、設置面(9)に設置された器具(8)の寸法を精度よく測定することができる。特に、画像処理システム(1)は、例えば器具(8)の表面を占める平面の割合が低くても、設置面(9)に設置された器具(8)の寸法を容易、かつ、高精度に測定することができる。
 実施形態に係る第2の態様の画像処理システム(1)では、第1の態様において、外形設定部(12)は、ユーザの操作によって2次元画像(Ga1、Ga2)に設定された少なくとも2つの座標に基づいて、器具領域(Ra3、Ra13)を設定することが好ましい。
 上述の画像処理システム(1)は、ユーザの操作に基づいて器具領域(Ra3、Ra13)を設定できる。
 実施形態に係る第3の態様の画像処理システム(1)では、第1の態様において、外形設定部(12)は、2次元画像(Ga3)のデータを入力されて、2次元画像(Ga3)に設定した器具領域(Ra23)のデータを出力する学習モデルを備える。
 上述の画像処理システム(1)は、学習モデルを用いることで、器具領域(Ra23)を簡易、かつ、高精度に設定することができる。
 実施形態に係る第4の態様の画像処理システム(1)では、第1乃至第3の態様のいずれか1つにおいて、外形設定部(12A)は、補助外形設定部(121)と、補助投影部(122)と、等高線生成部(123)と、外形決定部(124)と、を備える。補助外形設定部(121)は、2次元画像(Ga1)に器具(8)の外形に対応する領域を補助器具領域(Rc1)として設定する。補助投影部(122)は、検出平面(M1)に補助器具領域(Rc1)を投影することで、検出平面(M1)上に補助投影領域(Rd1)を形成する。等高線生成部(123)は、測定データに基づいて、検出平面(M1)を基準とした補助投影領域(Rd1)の等高線画像(Gb1)を生成する。外形決定部(124)は、等高線画像(Gb1)に基づいて器具領域を設定する。
 上述の画像処理システム(1)は、等高線画像(Gb1)を用いることで、器具(8)の撮像領域の輪郭を精度よく見極めて器具領域を精度よく設定できる。
 実施形態に係る第5の態様の画像処理システム(1)では、第1乃至第4の態様のいずれか1つにおいて、測定データはデプス画像に含まれる。平面推定部(13)は、デプス画像に器具領域(Ra3、Ra13、Ra23)を重ね合わせて、器具領域(Ra3、Ra13、Ra23)の周囲の測定データに基づいて、検出平面(M1、M11)のデータを作成することが好ましい。
 上述の画像処理システム(1)は、精度のよい検出平面(M1、M11)のデータを作成できる。
 実施形態に係る第6の態様の画像処理システム(1)では、第1乃至第5の態様のいずれか1つにおいて、測定部(15)は、検出平面(M1、M11)における投影領域(Rb3、Rb13)の輪郭上の複数の座標(Q1b、Q2b、Q3b、Q4b、Q11b、Q12b)、及び複数の座標(Q1b、Q2b、Q3b、Q4b、Q11b、Q12b)にそれぞれ対応する測定データに基づいて、器具(8)の寸法(W1、W2、W11)を測定することが好ましい。
 上述の画像処理システム(1)は、器具(8)の寸法(W1、W2、W11)を高精度に測定できる。
 実施形態に係る第7の態様の寸法測定システム(100)は、第1乃至第6の態様のいずれか1つの画像処理システム(1)と、2次元画像(Ga1、Ga2、Ga3)のデータ及び測定データを生成する撮像部(2)と、を備える。
 上述の寸法測定システム(100)は、設置面(9)に設置された器具(8)の寸法を精度よく測定することができる。
 上述の実施形態に係る第8の態様の画像処理方法は、データ取得ステップ(S1)と、外形設定ステップ(S2)と、平面推定ステップ(S3)と、投影ステップ(S4)と、測定ステップ(S5)と、を含む。データ取得ステップ(S1)は、設置面(9)に設置されている器具(8)を撮像することで生成された2次元画像(Ga1、Ga2、Ga3)のデータ、及び器具(8)の3次元形状の測定データを取得する。外形設定ステップ(S2)は、2次元画像(Ga1、Ga2、Ga3)に器具(8)の外形に対応する領域を器具領域(Ra3、Ra13、Ra23)として設定する。平面推定ステップ(S3)は、測定データに基づいて、設置面(9)に対応する検出平面(M1、M11)を推定する。投影ステップ(S4)は、検出平面(M1、M11)に器具領域(Ra3、Ra13、Ra23)を投影することで、検出平面(M1、M11)上に投影領域(Rb3、Rb13)を形成する。測定ステップ(S5)は、投影領域(Rb3、Rb13)に基づいて、器具(8)の寸法を測定する。
 上述の画像処理方法は、設置面(9)に設置された器具(8)の寸法を精度よく測定することができる。
 実施形態に係る第9の態様のプログラムは、コンピュータシステムに第8の態様の画像処理方法を実行させる。
 上述のプログラムは、設置面(9)に設置された器具(8)の寸法を精度よく測定することができる。
 100 寸法測定システム
 1 画像処理システム
 11 データ取得部
 12、12A 外形設定部
 121 補助外形設定部
 122 補助投影部
 123 等高線生成部
 124 外形決定部
 13 平面推定部
 14 投影部
 15 測定部
 2 撮像部
 8 器具
 9 設置面
 Ga1、Ga2、Ga3 2次元画像
 Ra3、Ra13、Ra23 器具領域
 M1、M11 検出平面
 Rb3、Rb13 投影領域
 Rc1 補助器具領域
 Rd1 補助投影領域
 Gb1 等高線画像
 Q1b、Q2b、Q3b、Q4b、Q11b、Q12b 測定座標(座標)
 W1、W2、W11 長さ寸法(寸法)
 S1 データ取得ステップ
 S2 外形設定ステップ
 S3 平面推定ステップ
 S4 投影ステップ
 S5 測定ステップ

Claims (9)

  1.  設置面に設置されている器具を撮像することで生成された2次元画像のデータ、及び前記器具の3次元形状の測定データを取得するデータ取得部と、
     前記2次元画像における前記器具の外形に対応する領域を器具領域として設定する外形設定部と、
     前記測定データに基づいて、前記設置面に対応する検出平面を推定する平面推定部と、
     前記検出平面に前記器具領域を投影することで、前記検出平面上に投影領域を形成する投影部と、
     前記投影領域に基づいて、前記器具の寸法を測定する測定部と、を備える
     画像処理システム。
  2.  前記外形設定部は、ユーザの操作によって前記2次元画像に設定された少なくとも2つの座標に基づいて、前記器具領域を設定する
     請求項1の画像処理システム。
  3.  前記外形設定部は、前記2次元画像のデータを入力されて、前記2次元画像に設定した前記器具領域のデータを出力する学習モデルを備える
     請求項1の画像処理システム。
  4.  前記外形設定部は、
      前記2次元画像に前記器具の外形に対応する領域を補助器具領域として設定する補助外形設定部と、
      前記検出平面に前記補助器具領域を投影することで、前記検出平面上に補助投影領域を形成する補助投影部と、
      前記測定データに基づいて、前記検出平面を基準とした前記補助投影領域の等高線画像を生成する等高線生成部と、
      前記等高線画像に基づいて前記器具領域を設定する外形決定部と、を備える
     請求項1乃至3のいずれか1つの画像処理システム。
  5.  前記測定データはデプス画像に含まれ、
     前記平面推定部は、前記デプス画像に前記器具領域を重ね合わせて、前記器具領域の周囲の前記測定データに基づいて、前記検出平面のデータを作成する
     請求項1乃至4のいずれか1つの画像処理システム。
  6.  前記測定部は、前記検出平面における前記投影領域の輪郭上の複数の座標、及び前記複数の座標にそれぞれ対応する測定データに基づいて、前記器具の寸法を測定する
     請求項1乃至5のいずれか1つの画像処理システム。
  7.  請求項1乃至6のいずれか1つの画像処理システムと、
     前記2次元画像のデータ及び前記測定データを生成する撮像部と、を備える
     寸法測定システム。
  8.  設置面に設置されている器具を撮像することで生成された2次元画像のデータ、及び前記器具の3次元形状の測定データを取得するデータ取得ステップと、
     前記2次元画像における前記器具の外形に対応する領域を器具領域として設定する外形設定ステップと、
     前記測定データに基づいて、前記設置面に対応する検出平面を推定する平面推定ステップと、
     前記検出平面に前記器具領域を投影することで、前記検出平面上に投影領域を形成する投影ステップと、
     前記投影領域に基づいて、前記器具の寸法を測定する測定ステップと、を含む
     画像処理方法。
  9.  コンピュータシステムに請求項8の画像処理方法を実行させる
     プログラム。
PCT/JP2023/023967 2022-08-29 2023-06-28 画像処理システム、寸法測定システム、画像処理方法、及びプログラム WO2024048049A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022136220 2022-08-29
JP2022-136220 2022-08-29

Publications (1)

Publication Number Publication Date
WO2024048049A1 true WO2024048049A1 (ja) 2024-03-07

Family

ID=90099459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/023967 WO2024048049A1 (ja) 2022-08-29 2023-06-28 画像処理システム、寸法測定システム、画像処理方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2024048049A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10326347A (ja) * 1997-05-27 1998-12-08 Meidensha Corp 部品の円特徴の三次元位置姿勢検出装置、その検出方法及びその記録媒体
JP2017009557A (ja) * 2015-06-26 2017-01-12 大成建設株式会社 境界点抽出方法およびトータルステーションを用いた測定方法
JP2021015616A (ja) * 2019-07-15 2021-02-12 株式会社Mujin 画像データに基づく物体検出システム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10326347A (ja) * 1997-05-27 1998-12-08 Meidensha Corp 部品の円特徴の三次元位置姿勢検出装置、その検出方法及びその記録媒体
JP2017009557A (ja) * 2015-06-26 2017-01-12 大成建設株式会社 境界点抽出方法およびトータルステーションを用いた測定方法
JP2021015616A (ja) * 2019-07-15 2021-02-12 株式会社Mujin 画像データに基づく物体検出システム及び方法

Similar Documents

Publication Publication Date Title
US11580691B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP2018124985A (ja) 平面セグメントを用いて点群を完成させる方法およびシステム
CN105939472B (zh) 具有视频叠加的激光投影系统
CA2826092C (en) Camera assembly for the extraction of image depth discontinuity and method of use
US20220262084A1 (en) Tracking an ongoing construction by using fiducial markers
WO2022078442A1 (zh) 一种基于光扫描和智能视觉融合的3d信息采集方法
US10819972B2 (en) Method and apparatus for light and computer vision based dimensional metrology and 3D reconstruction
WO2022078439A1 (zh) 一种空间与物体三维信息采集匹配设备及方法
WO2024048049A1 (ja) 画像処理システム、寸法測定システム、画像処理方法、及びプログラム
Burbano et al. 3D cameras benchmark for human tracking in hybrid distributed smart camera networks
KR100733396B1 (ko) 3차원 측정 데이터 획득장치 및 방법
US11937024B2 (en) Projection system, projection device and projection method
CN112254676A (zh) 一种便携式智能3d信息采集设备
CN104034729A (zh) 用于电路板分选的五维成像系统及其成像方法
WO2023230182A1 (en) Three dimensional mapping
CN107798722A (zh) 虚拟实境与扩增实境的建置系统及其方法
JP2021015016A (ja) 点検装置及び天井内点検方法
Sielachowska et al. Measurements of the luminance distribution in the classroom using the SkyWatcher type system
CN112254678B (zh) 一种室内3d信息采集设备及方法
Sareen et al. Hierarchical data clustering approach for segmenting colored three-dimensional point clouds of building interiors
WO2020003818A1 (ja) 検査装置及び検査方法
WO2021039425A1 (ja) 投影システム及び投影方法
US20200151848A1 (en) System and Method for Surface Profiling
CN112254674B (zh) 一种近距离智能视觉3d信息采集设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23859819

Country of ref document: EP

Kind code of ref document: A1