WO2023095490A1 - プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム - Google Patents

プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム Download PDF

Info

Publication number
WO2023095490A1
WO2023095490A1 PCT/JP2022/038652 JP2022038652W WO2023095490A1 WO 2023095490 A1 WO2023095490 A1 WO 2023095490A1 JP 2022038652 W JP2022038652 W JP 2022038652W WO 2023095490 A1 WO2023095490 A1 WO 2023095490A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
learning model
scanner
color
information processing
Prior art date
Application number
PCT/JP2022/038652
Other languages
English (en)
French (fr)
Inventor
康 吉村
敏明 櫻井
健太 津田
Original Assignee
新興窯業株式会社
合同会社Soraサクライ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022108555A external-priority patent/JP2023079151A/ja
Application filed by 新興窯業株式会社, 合同会社Soraサクライ filed Critical 新興窯業株式会社
Publication of WO2023095490A1 publication Critical patent/WO2023095490A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control

Definitions

  • the present invention relates to a program, an information processing device, an information processing method, a learning model generation method, and a photography system.
  • Patent Document 1 In quality inspections such as appearance inspections or functional inspections, the standard product and the finished product may be visually compared, but human evaluations are unreliable. Therefore, a proposal has been made to quantify the hue of a measurement target using a spectrophotometer (Patent Document 1).
  • Patent Document 1 the area that can be measured at one time is smaller than that of an imaging device such as a scanner. Therefore, when measuring an object to be inspected for quality, there is a problem that the measured values vary depending on the place of measurement, making it difficult to quantify them accurately.
  • the purpose is to provide a program, etc. that can accurately digitize objects.
  • a program acquires image data obtained by reading an object with a first scanner, and obtains image data obtained by reading a plurality of types of reference objects with the first scanner, and the color of each pixel in the image data.
  • the acquired image data is input to the first learning model trained by the first training data including the averaged image data, and the corrected image data is output.
  • FIG. 1 is a schematic diagram showing a configuration example of a color difference correction system according to Embodiment 1;
  • FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment;
  • FIG. FIG. 2 is a block diagram showing a configuration example of a terminal in this embodiment;
  • FIG. FIG. 4 is a schematic diagram showing a configuration example of a learning model;
  • FIG. 10 is a schematic diagram for explaining an overview of calculation of a correction value;
  • FIG. 11 is a flow chart showing a processing procedure for generating a red learning model;
  • FIG. 4 is a flow chart showing a processing procedure of a program executed by an information processing device; It is explanatory drawing which shows the data layout of building material DB.
  • FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment
  • FIG. 2 is a block diagram showing a configuration example of a terminal in this embodiment
  • FIG. 4 is a schematic diagram showing
  • FIG. 4 is an explanatory diagram showing a data layout of a reference value DB;
  • FIG. 10 is an explanatory diagram showing a screen for accepting input of type information;
  • FIG. 10 is an explanatory diagram showing a screen displaying a result of quality evaluation;
  • 4 is a flow chart showing a processing procedure of a program executed by an information processing device;
  • FIG. 10 is a schematic diagram showing a configuration example of a color difference correction system according to Embodiment 2;
  • FIG. 10 is a flow chart showing a processing procedure when fine-tuning a red learning model;
  • FIG. 1 is an external perspective view of a scanner device;
  • FIG. FIG. 4 is a schematic diagram when acquiring image data of a plurality of objects;
  • 4 is a flow chart showing a processing procedure of a program executed by an information processing device;
  • a color difference is a deviation of numerical values that occurs when an object is imaged using a scanner, for example. Even if a single-color drawing paper is imaged, the colors of the pixels in the imaging area do not always match. Therefore, a color difference correction system is used to eliminate numerical deviations and accurately quantify the colors of objects.
  • Examples of objects to which this system is applied include objects with patterns such as building materials.
  • Building materials are materials used in constructing buildings and include tiles, glass, flooring, wallpaper, and the like. In this embodiment, it is assumed that the building material is a tile.
  • FIG. 1 is a schematic diagram showing a configuration example of a color difference correction system according to Embodiment 1.
  • the color difference correction system includes an information processing device 10 , a terminal 20 and a scanner 200 .
  • Information processing apparatus 10 and terminal 20 are connected to communication network NW.
  • Terminal 20 is communicably connected to scanner 200 .
  • the information processing device 10 is a server computer, a personal computer, or the like, and provides a color difference correction system.
  • the information processing device 10 performs machine learning to learn predetermined training data and generates a machine learning model. Specifically, the first learning model described in the first embodiment and the second learning model described in the second embodiment are generated. Note that the information processing apparatus 10 may generate the first learning model for each scanner model.
  • the terminal 20 is an information processing terminal operated by a user who uses the color difference correction system (for example, an employee who performs quality inspection), and is a personal computer, a smartphone, a tablet terminal, or the like.
  • the terminal 20 can use the color difference correction system provided by the information processing device 10 via the communication network NW.
  • the scanner 200 is a two-dimensional or three-dimensional scanner used by the provider of the color difference correction system to generate the first learning model.
  • the scanner 200 transmits captured image data to the information processing device 10 via the terminal 20 .
  • FIG. 2 is a block diagram showing a configuration example of the information processing device 10 according to this embodiment.
  • Information processing apparatus 10 includes control unit 11 , main storage unit 12 , communication unit 13 , and auxiliary storage unit 14 .
  • the control unit 11 is a processor such as one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), or quantum processor, and executes various information processing.
  • CPU Central Processing Unit
  • MPU Micro-Processing Unit
  • GPU Graphics Processing Unit
  • quantum processor executes various information processing.
  • the main storage unit 12 is a temporary storage area such as SRAM (Static Random Access Memory) or DRAM (Dynamic Random Access Memory), and temporarily stores data necessary for the control unit 11 to execute processing.
  • SRAM Static Random Access Memory
  • DRAM Dynamic Random Access Memory
  • the communication unit 13 is a communication interface for connecting to the communication network NW.
  • the auxiliary storage unit 14 is a memory such as SSD (Solid State Drive) or HDD (Hard Disk Drive).
  • the auxiliary storage unit 14 stores a program 140 (program product) that causes the information processing device 10 to execute processing, a building material DB (data base) 150, a reference value DB 151, and other data.
  • the information processing apparatus 10 may include a reading unit that reads the portable storage medium 10a, and may read the program 140 from the portable storage medium 10a.
  • a training data storage unit 141 and a learning model storage unit 142 are provided in the auxiliary storage unit 14 .
  • the training data storage unit 141 stores first training data used for learning model generation processing.
  • the first training data is, for example, data in which input information and output information for a learning model are associated with each other.
  • the input information is image data of a reference material
  • the output information is image data obtained by averaging the color of each pixel in the image data.
  • the learning model storage unit 142 stores data including neural network configuration information, coefficients and threshold values of each neuron, etc. for the first learning model.
  • a red learning model, a green learning model, and a blue learning model are generated corresponding to red, green, and blue colors, respectively.
  • the reference materials are single-color drawing paper and single-color tiles. After capturing images of the 77-color reference materials, the scanner 200 transmits the image data of the reference materials to the information processing apparatus 10 .
  • the image data of the reference material includes red, green, and blue color data.
  • the red color data is input to the red learning model
  • the green color data is input to the green learning model
  • the blue color data is input to the blue learning model, corresponding to each color.
  • the information processing apparatus 10 combines the image data output from the learning models of each color and outputs the image data in which the color difference is corrected.
  • the color of the image data can be represented by the absolute value of RGB (Red, Green, Blue) or the ratio of RGB. For example, (0,0,0) is black, (255,255,255) is white, (255,0,0) is red, (0,255,0) is green, and (0,0,255) is blue.
  • RGB Red, Green, Blue
  • FIG. 3 is a block diagram showing a configuration example of the terminal 20 according to this embodiment.
  • Terminal 20 includes control unit 21 , storage unit 22 , first communication unit 23 , second communication unit 24 , input unit 25 and display unit 26 .
  • the control unit 21 is a processor such as one or more CPUs, MPUs, GPUs, or quantum processors, and executes various information processing.
  • the storage unit 22 is a temporary storage area such as SRAM or DRAM, and temporarily stores data necessary for the control unit 21 to execute processing.
  • the first communication unit 23 is a communication interface for connecting to the communication network NW.
  • the second communication unit 24 is a communication interface for transmitting and receiving information to and from the scanner 200.
  • the input unit 25 is an input interface such as a touch panel or mechanical operation buttons, and receives operation input from the user. Note that the input unit 25 may be a microphone that collects user's voice commands.
  • the display unit 26 is a display screen such as a liquid crystal display or an organic EL (Electro Luminescence) display, and displays images.
  • a display screen such as a liquid crystal display or an organic EL (Electro Luminescence) display, and displays images.
  • one computer performs the processing, but a plurality of computers may perform the processing in a distributed manner.
  • FIG. 4 is a schematic diagram showing a configuration example of a learning model.
  • a neural network learning model consists of an input layer that accepts one or more data inputs, an intermediate layer that performs arithmetic processing on the data accepted by the input layer, and one or more intermediate layers that aggregate the operation results. and an output layer that outputs the value of
  • the red color data of each pixel is input as the actual measurement value, and the red color data of each pixel is output as the correction value.
  • the data input to the learning model is exemplified as red, but it is the same even if it is green or blue.
  • Information in units may be input and information in area units may be output.
  • information in units of 100 ⁇ 100 pixels may be input and information in units of 100 pixels may be output.
  • an average value, a median value, a mode value, or the like is input in units of 100 pixels.
  • a learning model for example, has the structure of a neural network in which multiple neurons are interconnected.
  • a neuron is an element that performs operations on a plurality of inputs and outputs one value as an operation result.
  • a neuron has information such as weighting coefficients and threshold values used in calculations.
  • learning models use algorithms such as CNN (Convolutional Neural Network), transformers, U-Net, autoencoders, decision trees, random forests, gradient boosting, or SVM (Support Vector Machine). It may be configured, or may be configured by combining a plurality of algorithms.
  • CNN Convolutional Neural Network
  • U-Net Transformers
  • autoencoders decision trees
  • random forests random forests
  • gradient boosting gradient boosting
  • SVM Small Vector Machine
  • the information processing device 10 learns a set of image data of a reference material and image data obtained by averaging the color of each pixel in the image data as first training data, and generates a learning model.
  • the information processing device 10 inputs the image data of the reference material to the neural network, and acquires as output image data obtained by averaging the colors of each pixel in the image data.
  • the information processing apparatus 10 compares the color of each pixel output from the neural network with the averaged color of each pixel actually input, and performs error backpropagation or the like so that the error becomes zero. are used to update weights and the like between neurons.
  • the information processing apparatus 10 also inputs a plurality of types of reference materials to the neural network to update weights and the like between neurons, and generates a final learning model for use in quality inspection of building materials.
  • red, green, and blue learning models will be described based on FIGS. 5 and 6.
  • the color data of red, green, and blue input to the learning model will be referred to as R value, G value, and B value.
  • FIG. 5 is a schematic diagram for explaining the outline when calculating the correction value.
  • the image data is a 3 ⁇ 3 image (pixel) block and the correction value is calculated in the 3 ⁇ 3 image area.
  • a in FIG. 5 shows the measured R value of each region.
  • the information processing device 10 acquires the R value of the reference material in each region from the scanner 200 .
  • the information processing apparatus 10 performs processing based on the correction value on the measurement result (actual measurement value) to calculate the R value after correction.
  • the information processing device 10 performs similar processing on the G value and the B value.
  • the information processing device 10 stores the calculated correction value for each color in the auxiliary storage unit 14 .
  • FIG. 6 is a flowchart showing the processing procedure for generating the red learning model.
  • the control unit 11 of the information processing device 10 executes the following processes based on the program 140 . Note that the procedures for generating the green learning model and the blue learning model are the same, so the description is omitted.
  • the control unit 11 acquires image data of the reference material captured by the scanner (step S101).
  • the control unit 11 acquires the R value of the image data (step S102).
  • the control unit 11 calculates an average R value for each pixel (step S103).
  • the control unit 11 stores the first training data including the actually measured R value and the calculated average R value (step S104).
  • the control unit 11 repeats the processing from step S101 to step S104 for different reference materials, and stores a plurality of first training data in the main storage unit 12.
  • the control unit 11 generates a red learning model based on the plurality of first training data stored in the main storage unit 12 (step S105).
  • the control unit 11 ends the series of processes.
  • FIG. 7 is a flowchart showing the processing procedure of the program 140 executed by the information processing device 10.
  • FIG. The control unit 11 of the information processing device 10 executes the following processes based on the program 140 .
  • the control unit 11 reads the first learning model from the learning model storage unit 142 (step S201).
  • the control unit 11 acquires image data of building materials from the scanner 200 (step S202).
  • the control unit 11 extracts red, green, and blue colors from the image data (step S203).
  • the control unit 11 inputs the extracted colors to the corresponding red, green, and blue learning models (step S204).
  • the control unit 11 acquires the corrected R value, G value and B value (step S205).
  • the control unit 11 acquires the corrected image data (step S206).
  • the control unit 11 ends the series of processes.
  • the information processing apparatus 10 can correct the color difference that occurs when the scanner 200 captures an image of the object.
  • FIG. 8 is an explanatory diagram showing the data layout of the building material DB 150.
  • the building material DB 150 is a DB that stores the fields of lot, tile type, shape and size, color number, place of manufacture, threshold (black), and threshold (white).
  • a predetermined number assigned to each tile is stored in the lot field.
  • the tile type field stores the types of tiles such as interior tiles.
  • the shape and size field stores the shape and size of a 200 mm square tile.
  • the color number field stores a predetermined color number assigned to each tile color.
  • the manufacturing location field stores the location of manufacturing the tiles, such as the location of the factory.
  • the threshold (black) field stores a threshold for specifying the area of black spots or patterns included in white or near-white tiles.
  • the threshold (white) field stores a threshold for specifying the area of white spots or patterns included in black or nearly black tiles.
  • FIG. 9 is an explanatory diagram showing the data layout of the reference value DB 151.
  • the reference value DB 151 is a DB that stores fields of manufacturing number, R value, G value, B value, number of black spots, number of white spots, and pattern area.
  • the fields of R value, G value, B value, number of black spots, number of white spots, and pattern area store predetermined reference values that serve as standards for shipment as an industrial product.
  • a predetermined serial number assigned to each tile is stored in the serial number field.
  • a reference R value is stored in the R value field.
  • a reference G value is stored in the G value field.
  • the B value field stores a reference B value.
  • the number of black spots used as a reference is stored in the number of black spots field.
  • the number of white spots used as a reference is stored in the number of white spots field.
  • the pattern area field stores the area of the pattern that serves as a reference.
  • the worker places the tile on the scanner 200 and takes an image.
  • the operator inputs information (type information) about the type of the imaged tile through the terminal 20 .
  • the information processing apparatus 10 receives input of type information.
  • the information processing device 10 requests the scanner 200 to acquire tile image data.
  • the scanner 200 transmits image data to the information processing device 10 .
  • the information processing apparatus 10 inputs the received image data to the first learning model, and stores the output corrected image data in the auxiliary storage unit 14 .
  • the information processing device 10 identifies pixels containing spots from the image data stored in the auxiliary storage unit 14 based on the threshold value corresponding to the color number. Specifically, the information processing device 10 identifies spots according to the color of the building material. For example, white or near-white tiles are based on threshold (black), black or near-black tiles are based on threshold (white), blue tiles are based on threshold (black) and threshold (white), Spots are identified.
  • the information processing device 10 determines whether or not a predetermined number of pixels or more are connected. When judging whether or not the tiles are connected, if a predetermined number of pixels or more are continuous in the X-axis direction or the Y-axis direction in the image area, the spots of the tiles are regarded as a pattern. .
  • the information processing device 10 determines that the specified spots are patterns.
  • the information processing device 10 measures the area of the pattern based on the number of connected pixels.
  • the information processing apparatus 10 stores the measured area of the pattern in the auxiliary storage unit 14 .
  • the information processing device 10 identifies tile spots based on the threshold value read from the building material DB 150 .
  • the information processing device 10 measures the number of spots based on the specified spots on the tile.
  • the information processing device 10 stores the measured number of spots in the auxiliary storage unit 14 .
  • the information processing apparatus 10 can specify the number of spots on the tile and the area of the pattern in correspondence with the coordinate information.
  • FIG. 10 is an explanatory diagram showing a screen for accepting input of type information.
  • the information processing device 10 accepts input of type information through the terminal 20 .
  • the type information includes the type of tile (for example, interior floor tile, etc.), shape and size (for example, equal 200 mm square), color number, manufacturing place, and the like.
  • the information processing apparatus 10 identifies tiles based on the received type information.
  • the terminal 20 displays tile type: interior floor tile, shape and size: 200 mm square flat, color number: No. 2, and manufacturing location: Gifu Factory, etc. as type information.
  • the terminal 20 displays the image data acquired by the scanner 200 .
  • the information processing device 10 When the operator selects the designation button after inputting the lot through the terminal 20, the information processing device 10 reads the type information corresponding to the lot from the building material DB 150, and designates the input item corresponding to the type information. You may make it
  • the tile may be identified by the worker reading the one-dimensional code or two-dimensional code attached to the tile through the terminal 20.
  • the terminal 20 displays the screen in FIG. 11 after accepting the selection of the lower right execution button.
  • FIG. 11 is an explanatory diagram showing a screen displaying the results of quality evaluation.
  • the terminal 20 displays the results of quality evaluations regarding building materials.
  • the terminal 20 displays the current lot, reference values, type information, scanned tile image data, RGB information, and the number of spots or the area of the pattern.
  • selected area e.g, selected area: 6
  • Terminal 20 displays the measured value and the average value for the selected area.
  • the information processing apparatus 10 may read the result of the previous measurement from the building material DB 150 and display it on the terminal 20 together with the result of the tile measured this time. The worker can evaluate the quality of the building material by comparing the reference value, the measurement result of the previous lot, and the measurement result of the current lot.
  • FIG. 12 is a flowchart showing the processing procedure of the program 140 executed by the information processing device 10.
  • FIG. The control unit 11 of the information processing device 10 executes the following processes based on the program 140 .
  • the control unit 11 acquires tile image data through the scanner 200 (step S301).
  • the control unit 11 receives input of tile type information from the operator (step S302).
  • the control unit 11 reads the threshold corresponding to the color number from the building material DB 150 (step S303).
  • the control unit 11 inputs the acquired tile image data to the first learning model (step S304).
  • the control unit 11 acquires the corrected image data output from the first learning model (step S305).
  • the control unit 11 identifies pixels including spots from the image data based on the read threshold (step S306).
  • the control unit 11 After counting the number of pixels including the spots (step S307), the control unit 11 determines whether or not a predetermined number of pixels or more are connected (step S308). If more than the predetermined number of pixels are combined (step S308: YES), the control unit 11 determines that the specified spots are patterns. The control unit 11 measures the area of the pattern based on the number of connected pixels (step S309). On the other hand, if the predetermined number of pixels or more are not combined (step S308: NO), the control unit 11 measures the number of spots based on the specified tile spots (step S310).
  • the control unit 11 acquires coordinate information of the spot or pattern (step S311).
  • the control unit 11 displays the number of spots or the area of the pattern and the coordinate information on the terminal 20 as the measurement result (step S312).
  • the control unit 11 ends the series of processes.
  • the quality of building materials can be accurately quantified.
  • Embodiment 2 a form in which a person who takes an image of a building material with a scanner 300 different from the scanner 200 uses a color difference correction system will be described.
  • a color difference correction system When an object is imaged by different scanners, color differences may occur even for the same object due to machine differences. Therefore, by generating the second learning model by fine-tuning the first learning model, it is possible to provide a more accurate color difference correction system.
  • symbol is attached and description is abbreviate
  • FIG. 13 is a schematic diagram showing a configuration example of a color difference correction system according to the second embodiment.
  • the color difference correction system includes information processing device 10 , terminal 20 , scanner 200 and scanner 300 .
  • Scanner 300 is communicably connected to terminal 20 .
  • the scanner 300 is a two-dimensional or three-dimensional scanner used when fine-tuning the first learning model.
  • the scanner 300 transmits the acquired image data to the information processing device 10 via the terminal 20 .
  • the information processing device 10 acquires image data of the reference material captured by the scanner 300 via the terminal 20 .
  • the information processing apparatus 10 generates a second learning model using second training data including the acquired image data of the reference material and image data obtained by averaging the color of each pixel in the image data. Note that the number of second training data may be less than the number of first training data.
  • the generated second learning model is a fine-tuning learning model of the first learning model.
  • the information processing apparatus 10 uses the weights between neurons in the first learning model as initial values to re-learn the weights of the entire model.
  • the information processing device 10 transmits the generated second learning model to the terminal 20 .
  • the terminal 20 uses the received second learning model for digitization processing of building materials.
  • FIG. 14 is a flowchart showing the processing procedure for fine-tuning the red learning model.
  • the control unit 11 of the information processing device 10 executes the following processes based on the program 140 . Since the fine tuning of the green learning model and the blue learning model is the same, the explanation is omitted.
  • the control unit 11 acquires image data of the reference material captured by the scanner 300 (step S401).
  • the control unit 11 acquires the R value of the image data (step S402).
  • the control unit 11 calculates an average R value for each pixel (step S403).
  • the control unit 11 stores the second training data including the actually measured R value and the calculated average R value (step S404).
  • the control unit 11 repeats the processing from step S401 to step S404 for different reference materials, and stores a plurality of second training data in the main storage unit 12.
  • the control unit 11 fine-tunes the red learning model based on the plurality of second training data stored in the main storage unit 12 (step S405).
  • the control unit 11 ends the series of processes.
  • the quality of building materials can be more suitably quantified by performing fine tuning.
  • Embodiments 1 and 2 it is possible to provide a program or the like that can accurately quantify the quality of building materials.
  • the object to which the color difference correction system is applied has been described as building materials, but the object is not limited to this.
  • the system may be applied to various products such as clothes, resin films, or printed matter.
  • Embodiment 3 an auxiliary device 40 (hereinafter referred to as a scanner device 40) used when acquiring image data of an object will be described.
  • a scanner device 40 used when acquiring image data of an object
  • FIG. 15 is an external perspective view of the scanner device 40.
  • scanner device 40 includes scanner 200 , holding portion 41 , support portion 42 , hinge 43 , and light shielding case 44 .
  • a two-dot chain line indicates a rectangular plate-shaped tile.
  • a tile is an example of an object.
  • the directions of front, back, left, right, up, and down indicated by arrows in the drawings will be used.
  • the scanner 200 is placed on a desk (not shown) with the scanning surface facing upward.
  • the scanner 200 is connected to the terminal 20 by a cable (not shown).
  • the scanner 200 may be connected to the terminal 20 by wireless communication.
  • the holding part 41 has a left pedestal 41a, a right pedestal 41b, and a connection plate 41c.
  • the left pedestal 41a and the right pedestal 41b have a quadrangular columnar shape with the longitudinal direction oriented in the front-rear direction.
  • the left pedestal 41a and the right pedestal 41b have the same shape and the same size.
  • the connection plate 41c has a rectangular plate shape with the thickness direction in the front-rear direction and the longitudinal direction in the left-right direction.
  • the connection plate 41c connects the front end of the left pedestal 41a and the front end of the right pedestal 41b.
  • the left pedestal 41a, right pedestal 41b, and connecting plate 41c as a whole form a U-shape with an opening facing the rear side in FIG.
  • the width of the opening is wider than the width of scanner 200 .
  • connection plate 41c includes a substantially U-shaped handle 41d.
  • the handle 41d is positioned in the center of the connection plate 41c.
  • the handle 41d is attached to the front surface of the connection plate 41c with the opening facing the connection plate 41c.
  • the holding part 41 has two guides 410 .
  • the guide 410 has a quadrangular prism shape with its longitudinal direction oriented in the left-right direction.
  • the guide 410 has a length equivalent to the lateral width of the left pedestal 41a.
  • the guides 410 are positioned at the rear ends of the upper surfaces of the left pedestal 41a and the right pedestal 41b, respectively.
  • the front surfaces of the guides 410 are arranged on the same plane.
  • the material of guide 410 is, for example, rubber.
  • the support part 42 is two round bars extending in the front-rear direction.
  • the supports 42 are arranged parallel to each other and parallel to the ground.
  • the two support portions 42 pass through the center portions of the left pedestal 41a and the right pedestal 41b, respectively.
  • the support portion 42 supports the holding portion 41 so as to be movable in the longitudinal direction.
  • the length of the support portion 42 exceeds twice the length of the left pedestal 41a.
  • a leg 420 is fixed to each of the front end face and the rear end face of the support portion 42 .
  • the leg 420 has a quadrangular prism shape with its longitudinal direction oriented in the up-down direction.
  • the legs 420 are installed on the top surface of a desk (not shown).
  • the length of the leg 420 in the vertical direction is such that when the scanner device 40 is placed on the desk, the holding portion 41 does not come into contact with the desk.
  • the support portion 42 supports the holding portion 41 so that the upper surface of the holding portion 41 is higher than the upper surface of the scanner 200 .
  • the light shielding case 44 has a rectangular box shape.
  • FIG. 15 shows a state in which the light shielding case 44 is open. The opening of the light shielding case 44 faces forward.
  • the light-shielding case 44 has its lower edge and the upper surfaces of the two legs 420 on the rear side connected via two hinges 43 .
  • the light shielding case 44 is closed by turning about 90 degrees counterclockwise about the hinge 43 from the state shown in FIG.
  • the light shielding case 44 has a depth such that a space is formed between it and the scanner 200 or the holder 41 when closed.
  • the light shielding case 44 has a dimension that covers the holding portion 41 at the second position described later when closed.
  • the light shielding case 44 has a substantially U-shaped handle 44d.
  • the handle 44 d is attached with the opening directed toward the upper surface of the light shielding case 44 .
  • the handle 44d is provided at a position closer to the front than the center of the upper surface when the light shielding case 44 is closed.
  • the light shielding case 44 is open and the holder 41 is at the first position.
  • the first position is a position where the front end of the holding portion 41 hits the front leg 420 .
  • the scanner 200 is positioned behind the rear end of the holding portion 41 .
  • the worker places the tile so as to straddle both the left pedestal 41a and the right pedestal 41b.
  • the operator determines the position of the tile by sliding the tile on the holding part 41 and hitting the edge of the tile against the rubber guide 410 . Since the guide 410 is made of rubber, the corner of the tile can be placed without damaging it, and image data can be obtained with good reproducibility.
  • the second position is a position where the rear end of the holding portion 41 abuts against the leg 420 on the rear side.
  • the scanner 200 is positioned between the left pedestal 41a and the right pedestal 41b.
  • the length of the leg 420 in the vertical direction is such that when the scanner device 40 is placed on the desk, the holding portion 41 does not come into contact with the desk. Therefore, the holding part 41 can slide without coming into contact with the desk.
  • the support part 42 supports the holding part 41 so as to be movable from the first position to the second position.
  • the scanner device 40 is configured such that the tile placed on the holding portion 41 can be slid together with the holding portion 41 from the first position to the second position. In this way, by distinguishing between the first position where the tile is placed and the second position where the tile is scanned, even if the worker accidentally drops the tile, if the work is done at the first position, the scanner can be 200 body damage can be avoided. Also, since the tiles are not placed directly on the scanner 200, there is no risk of damaging the scanning surface of the scanner 200. FIG.
  • the operator After sliding the holding part 41 on which the tiles are placed to the second position, the operator closes the light shielding case 44 using the handle 44d. A space is formed in the light shielding case 44 when the light shielding case 44 is closed. This makes it possible to apply the present system to three-dimensional objects such as tiles.
  • the operator After closing the light shielding case 44, the operator operates the terminal 20 to start scanning. Since the scanner device 40 is provided with the light shielding case 44, it is possible to scan while shielding the external light, and to more accurately digitize an object such as a tile. Also, when the operator wants to check the state during scanning, he/she can check the state during scanning by opening the front opening of the light shielding case 44 .
  • the operator After scanning, the operator opens the light shielding case 44 using the handle 44d. The operator pulls the handle 41d to return the holding portion 41 from the second position to the first position. When it is desired to scan another tile, after removing the scanned tile, a new tile is placed on the holding unit 41 and the above operation is repeated.
  • a transparent holding plate may be further placed on the holding section 41 to scan the tiles.
  • the tile can be scanned without being placed directly on the scanner 200.
  • the guide 410 may be formed as an L-shaped rectangular parallelepiped, in addition to the quadrangular prism shape shown in FIG. With this configuration, the tiles can be placed on the holding portion 41 not only in the front-rear direction but also in the left-right direction with good reproducibility. Further, the number of guides 410 installed in the holding portion 41 is not limited to two, and four guides may be installed in accordance with the four corners of the tile. In that case, the guide 410 is configured to move the installation location according to the size of the tile.
  • the support part 42 is described as being composed of two pieces in FIG. 15, it is not limited to this. If the holding part 41 is supported so as to be parallel to the ground, the supporting part 42 may be configured by one on either the left or right side. Further, the support portion 42 may be a square bar as well as a round bar.
  • the handle 41d and the handle 44d may be provided to improve the operability of the scanner device 40, but are not essential components.
  • the present system can be applied more preferably using the scanner device 40 .
  • FIG. 16 is a schematic diagram when acquiring image data of a plurality of objects.
  • the operator places six eggs on the scanner 200.
  • When scanning food such as eggs first place a transparent film or petri dish on the scanner 200 and place the food on top of it so that the scanner 200 is not dirty.
  • the operator covers the six eggs with the light shielding case 44 from above before scanning begins.
  • the scanner 200 acquires image data by reading six eggs. With this configuration, it is possible to scan a three-dimensional object while blocking external light, so that image data can be obtained more preferably. Furthermore, image data can be acquired efficiently by scanning a plurality of objects with a single operation.
  • the scanner 200 transmits the image data to the information processing device 10 through the terminal 20, as in the first and second embodiments.
  • the information processing apparatus 10 inputs the received image data to the first learning model and outputs corrected image data. This makes it possible to quantify the color of the yolk and albumen and to inspect the quality of the eggs.
  • the object is bread
  • the degree of baking that gives the best taste is determined.
  • the object is raisin bread, the number and distribution of raisins can be measured.
  • the object is a liquid such as wine, it is possible to obtain image data of the liquid by pouring the wine into a petri dish placed on the scanner 200 .
  • FIG. 17 is a flowchart showing the processing procedure of the program 140 executed by the information processing device 10.
  • FIG. The control unit 11 of the information processing device 10 executes the following processes based on the program 140 .
  • the control unit 11 reads the first learning model from the learning model storage unit 142 (step S501).
  • the control unit 11 acquires image data including a plurality of objects from the scanner 200 (step S502).
  • the control unit 11 inputs the acquired image data to the first learning model and outputs the corrected image data (step S503).
  • the control unit 11 ends the series of processes.
  • a two-dimensional object such as printed matter but also a three-dimensional object such as an egg or a liquid object such as wine can be imaged. Data can be obtained. As a result, multiple types of objects can be digitized accurately.
  • the quality can be suitably controlled by quantifying the colors.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)

Abstract

対象物の品質を精確に数値化できるプログラム等を提供すること。 プログラムは、対象物を第一スキャナにより読み取った画像データを取得し、複数種類の基準対象物を前記第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データにより学習された第一学習モデルに、取得した画像データを入力して補正後の画像データを出力する。好適には、前記第一学習モデルは赤、緑、および青の各色に対応して赤色学習モデル、緑色学習モデル、および青色学習モデルが生成されており、取得した画像データの赤色の色データを前記赤色学習モデルに入力し、取得した画像データの緑色の色データを前記緑色学習モデルに入力し、取得した画像データの青色の色データを前記青色学習モデルに入力し、各モデルから出力された色により構成される画像データを出力する。

Description

プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム
 本発明は、プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システムに関する。
 外観検査または機能検査等の品質検査において、基準となる製品と完成品とを目視で比較することがあるが、人間がおこなう評価は信頼性に乏しい。そこで、分光測色計により測定対象の色合いを数値化する提案がなされている(特許文献1)。
特開2000-292259号公報
 しかし、特許文献1に開示された提案では、スキャナ等の撮像装置と比較して一度に測定できる面積が小さい。そのため、品質検査の対象となる対象物を測定する際、測定する場所次第で測定値にばらつきが生じてしまい、精確な数値化が難しいという問題点があった。
 一つの側面では、対象物を精確に数値化できるプログラム等を提供することを目的とする。
 一つの側面に係るプログラムは、対象物を第一スキャナにより読み取った画像データを取得し、複数種類の基準対象物を前記第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データにより学習された第一学習モデルに、取得した画像データを入力して補正後の画像データを出力する。
 一つの側面では、対象物の品質を精確に数値化できるプログラム等を提供できる。
実施の形態1における色差補正システムの構成例を示す模式図である。 本実施の形態における情報処理装置の構成例を示すブロック図である。 本実施の形態における端末の構成例を示すブロック図である。 学習モデルの構成例を示す模式図である。 補正値を算出する際の概要を説明するための模式図である。 赤色学習モデルの生成処理手順を示すフローチャートである。 情報処理装置が実行するプログラムの処理手順を示すフローチャートである。 建築材料DBのデータレイアウトを示す説明図である。 基準値DBのデータレイアウトを示す説明図である。 種類情報の入力を受け付ける画面を示す説明図である。 品質評価の結果を表示する画面を示す説明図である。 情報処理装置が実行するプログラムの処理手順を示すフローチャートである。 実施の形態2における色差補正システムの構成例を示す模式図である。 赤色学習モデルをファインチューニングする際の処理手順を示すフローチャートである。 スキャナ装置の外観斜視図である。 複数の対象物の画像データを取得する際の模式図である。 情報処理装置が実行するプログラムの処理手順を示すフローチャートである。
 本実施の形態では、対象物を撮像して取得した画像データの色差(色のばらつき)を補正する色差補正システムについて説明する。色差は、たとえばスキャナを用いて対象物を撮像した際に生じる数値のずれのことである。たとえ単一色の画用紙を撮像しても、撮像領域すべてのピクセルの色が一致するとは限らない。そこで、色差補正システムにより数値のずれを取り除き、対象物の色を精確に数値化する。
 本システムを適用する対象物は、建築材料のように模様のある対象物が例として挙げられる。建築材料は、建築物を建てる際に使用される材料であり、タイル、ガラス、フローリング、および壁紙等が含まれる。本実施の形態では、建築材料がタイルであるものとして説明する。
 以下、本発明の実施の形態を図面に基づいて説明する。
[実施の形態1]
 図1は、実施の形態1における色差補正システムの構成例を示す模式図である。色差補正システムは、情報処理装置10、端末20、およびスキャナ200を含む。情報処理装置10および端末20は、通信ネットワークNWに接続されている。端末20は、スキャナ200と通信可能に接続されている。
 情報処理装置10は、サーバコンピュータまたはパーソナルコンピュータ等であり、色差補正システムを提供する。情報処理装置10は、所定の訓練データを学習する機械学習をおこない、機械学習モデルを生成する。具体的には、実施の形態1で説明する第一学習モデルと、実施の形態2で説明する第二学習モデルとを生成する。なお、情報処理装置10は、スキャナの機種ごとに第一学習モデルを生成してもよい。
 端末20は、色差補正システムを利用する利用者(たとえば品質検査をおこなう従業員)が操作する情報処理端末であり、パーソナルコンピュータ、スマートフォンまたはタブレット端末等である。端末20は、通信ネットワークNWを介して、情報処理装置10が提供する色差補正システムを利用できる。
 スキャナ200は、色差補正システムの提供者が第一学習モデルを生成する際に用いる2次元または3次元スキャナである。スキャナ200は、端末20を介して、撮像した画像データを情報処理装置10に送信する。
 図2は、本実施の形態における情報処理装置10の構成例を示すブロック図である。情報処理装置10は、制御部11、主記憶部12、通信部13、および補助記憶部14を含む。
 制御部11は、一または複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、もしくは量子プロセッサ等のプロセッサであり、種々の情報処理を実行する。
 主記憶部12は、SRAM(Static Random Access Memory)またはDRAM(Dynamic Random Access Memory)等の一時記憶領域であり、制御部11が処理を実行するうえで必要なデータを一時的に記憶する。
 通信部13は、通信ネットワークNWに接続するための通信インターフェイスである。
 補助記憶部14は、SSD(Solid State Drive)またはHDD(Hard Disk Drive)等のメモリである。補助記憶部14は、情報処理装置10に処理を実行させるプログラム140(プログラム製品)、建築材料DB(data base)150、基準値DB151、およびその他のデータを記憶している。なお、情報処理装置10は、可搬型記憶媒体10aを読み取る読取部を備え、可搬型記憶媒体10aからプログラム140を読み込んでもよい。
 補助記憶部14には、訓練データ記憶部141および学習モデル記憶部142が設けられている。
 訓練データ記憶部141は、学習モデルの生成処理に用いる第一訓練データを記憶する。第一訓練データは、たとえば学習モデルに対する入力情報と出力情報とを対応付けたデータである。本実施の形態では、入力情報が基準材料の画像データであり、出力情報が当該画像データにおける各画素の色を平均化した画像データである。
 学習モデル記憶部142は、第一学習モデルについて、ニューラルネットワークの構成情報ならびに各ニューロンの係数および閾値等を含むデータを記憶する。第一学習モデルは、赤、緑、および青色の各色に対応して赤色学習モデル、緑色学習モデル、および青色学習モデルが生成されている。
 基準材料は、単一色の画用紙および単一色のタイル等である。スキャナ200は、77色の基準材料を撮像した後、情報処理装置10に基準材料の画像データを送信する。
 基準材料の画像データには、赤、緑、および青色の色データが含まれる。学習モデルに入力される際には、各色に対応して、赤色の色データは赤色学習モデルに、緑色の色データは緑色学習モデルに、青色の色データは青色学習モデルに入力される。情報処理装置10は、各色の学習モデルから出力された画像データを結合し、色差が補正された画像データを出力する。
 画像データの色は、RGB(Red,Green,Blue)の絶対値またはRGBの割合で表すことができる。たとえば(0,0,0)は黒色、(255,255,255)は白色、(255,0,0)は赤色、(0,255,0)は緑色、(0,0,255)は青色のように表すことができる。
 図3は、本実施の形態における端末20の構成例を示すブロック図である。端末20は、制御部21、記憶部22、第一通信部23、第二通信部24、入力部25、および表示部26を含む。
 制御部21は、一または複数のCPU、MPU、GPU、もしくは量子プロセッサ等のプロセッサであり、種々の情報処理を実行する。
 記憶部22は、SRAMまたはDRAM等の一時記憶領域であり、制御部21が処理を実行するうえで必要なデータを一時的に記憶する。
 第一通信部23は、通信ネットワークNWに接続するための通信インターフェイスである。
 第二通信部24は、スキャナ200に対して情報の送受信をするための通信インターフェイスである。
 入力部25は、タッチパネルまたは機械式操作ボタン等の入力インターフェイスであり、ユーザから操作入力を受け付ける。なお、入力部25は、ユーザの音声指令を収集するマイクロフォンであってもよい。
 表示部26は、液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイ等の表示画面であり、画像を表示する。
 なお、本実施の形態では、一つのコンピュータが処理をおこなうものとして説明するが、複数のコンピュータが分散して処理をおこなってもよい。
 図4は、学習モデルの構成例を示す模式図である。ニューラルネットワークの学習モデルは、一または複数のデータの入力を受け付ける入力層と、入力層にて受け付けたデータに対して演算処理をおこなう中間層と、中間層の演算結果を集約して一または複数の値を出力する出力層とを備える。
 図4に示すように、本実施の形態では、実測値として各画素の赤色の色データが入力され、補正値として各画素の赤色の色データが出力される。なお、図4では、学習モデルに入力されるデータが赤色として例示されているが、緑色および青色であっても同様である。
 なお、本実施の形態においては、学習モデルに一画素単位の情報を入力し、一画素単位の情報を出力する例を示しているが、これに限るものではなく、複数画素により構成される領域単位の情報を入力し、領域単位の情報を出力してもよい。たとえば100×100画素単位の情報を入力し、100画素単位の情報を出力するようにしてもよい。この場合、100画素単位の平均値、中央値、または最頻値等が入力される。
 学習モデルは、たとえば複数のニューロンが相互に結合したニューラルネットワークの構造をなしている。ニューロンは複数の入力に対して演算をおこない、演算結果として1つの値を出力する素子である。ニューロンは、演算に用いられる重み付けの係数および閾値等の情報を有している。
 なお、学習モデルはニューラルネットワークの他に、CNN(Convolutional Neural Network)、トランスフォーマ、U-Net、オートエンコーダ、決定木、ランダムフォレスト、勾配ブースティング、またはSVM(Support Vector Machine)等のアルゴリズムを用いて構成されてもよく、複数のアルゴリズムを組み合わせて構成されてもよい。
 情報処理装置10は、基準材料の画像データと、当該画像データにおける各画素の色を平均化した画像データとの組を第一訓練データとして学習し、学習モデルを生成する。
 具体的には、情報処理装置10は、基準材料の画像データをニューラルネットワークに入力して、当該画像データにおける各画素の色を平均化した画像データを出力として取得する。情報処理装置10は、ニューラルネットワークから出力された各画素の色を、実際に入力した画素ごとに平均化した色と比較し、誤差がゼロとなるように、たとえば誤差逆伝播法(Backpropagation)等を用いてニューロン間の重み等を更新する。また、情報処理装置10は、複数種類の基準材料をニューラルネットワークに入力してニューロン間の重み等を更新していき、建築材料の品質検査に利用するための最終的な学習モデルを生成する。
 次に、赤、緑、および青色学習モデルを生成する処理について、図5および図6に基づいて説明する。以下、学習モデルに入力する赤、緑、および青色の色データをR値、G値、およびB値という。
 図5は、補正値を算出する際の概要を説明するための模式図である。説明を容易にするため、画像データを3×3画像(ピクセル)のブロックとし、3×3画像の領域において補正値を算出する場合を例示する。
 図5のAは、各領域の実測したR値を示している。情報処理装置10は、各領域における基準材料のR値をスキャナ200から取得する。当該測定結果の場合、情報処理装置10は、(平均のR値)=(9つのR値の和)÷9の計算より、平均のR値を75と算出する。
 図5のBは、実測値および平均値に基づき算出した補正値を示している。情報処理装置10は、(補正値)=(平均のR値)-(実測したR値)の計算より、各領域の補正値を算出する。
 図5のCは、補正後のR値を示している。情報処理装置10は、測定結果(実測値)に対して補正値に基づく処理をおこない、補正後のR値を算出する。
 情報処理装置10は、G値およびB値に対しても同様の処理をおこなう。情報処理装置10は、算出した各色の補正値を補助記憶部14に記憶する。
 図6は、赤色学習モデルの生成処理手順を示すフローチャートである。情報処理装置10の制御部11は、プログラム140に基づき以下の処理を実行する。なお、緑色学習モデルおよび青色学習モデルの生成処理手順も同様のため、説明は省略する。
 制御部11は、スキャナにより撮像した基準材料の画像データを取得する(ステップS101)。制御部11は、当該画像データのR値を取得する(ステップS102)。制御部11は、画素ごとに平均のR値を算出する(ステップS103)。制御部11は、実測されたR値と、算出された平均のR値とを含む第一訓練データを記憶する(ステップS104)。
 制御部11は、異なる基準材料について、ステップS101からステップS104の処理を繰り返し、複数の第一訓練データを主記憶部12に記憶する。制御部11は、主記憶部12に記憶した複数の第一訓練データに基づき、赤色学習モデルを生成する(ステップS105)。制御部11は、一連の処理を終了する。
 図7は、情報処理装置10が実行するプログラム140の処理手順を示すフローチャートである。情報処理装置10の制御部11は、プログラム140に基づき以下の処理を実行する。
 制御部11は、学習モデル記憶部142から第一学習モデルを読み出す(ステップS201)。制御部11は、スキャナ200から建築材料の画像データを取得する(ステップS202)。
 制御部11は、当該画像データから赤、緑、および青の色を抽出する(ステップS203)。制御部11は、抽出した各色を対応する赤、緑、および青色学習モデルに入力する(ステップS204)。制御部11は、補正されたR値、G値、およびB値を取得する(ステップS205)。制御部11は、補正後の画像データを取得する(ステップS206)。制御部11は、一連の処理を終了する。
 以上、赤、緑、および青色学習モデルを生成することによって、情報処理装置10は、スキャナ200で対象物を撮像する際に生じる色差を補正することができる。
 次に、タイルの斑点数と模様の面積とを特定する際の詳細について説明する。
 図8は、建築材料DB150のデータレイアウトを示す説明図である。建築材料DB150は、ロット、タイルの種類、形状および寸法、色番、製造場所、閾値(黒)、ならびに閾値(白)のフィールドを記憶するDBである。
 ロットフィールドには、タイルに対応して付与された所定の番号が記憶されている。タイルの種類フィールドには、内装タイル等のタイルの種類が記憶されている。形状および寸法フィールドには、200mm角平等のタイルの形状および寸法が記憶されている。色番フィールドには、タイルの色に対応して付与された所定の色番号が記憶されている。製造場所フィールドには、工場の所在地等のタイルを製造した場所が記憶されている。閾値(黒)フィールドには、白色または白色に近いタイルに含まれる黒色の斑点または模様の面積を特定するための閾値が記憶されている。閾値(白)フィールドには、黒色または黒色に近いタイルに含まれる白色の斑点または模様の面積を特定するための閾値が記憶されている。
 図9は、基準値DB151のデータレイアウトを示す説明図である。基準値DB151は、製造番号、R値、G値、B値、黒色の斑点数、白色の斑点数、および模様の面積のフィールドを記憶するDBである。R値、G値、B値、黒色の斑点数、白色の斑点数、および模様の面積のフィールドには、工業製品として出荷する際の基準となる所定の基準値が記憶されている。
 製造番号フィールドには、タイルに対応して付与された所定の製造番号が記憶されている。R値フィールドには、基準となるR値が記憶されている。G値フィールドには、基準となるG値が記憶されている。B値フィールドには、基準となるB値が記憶されている。黒色の斑点数フィールドには、基準となる黒色の斑点数が記憶されている。白色の斑点数フィールドには、基準となる白色の斑点数が記憶されている。模様の面積フィールドには、基準となる模様の面積が記憶されている。
 作業者は、スキャナ200にタイルを載せて撮像する。作業者は、端末20を通じて、撮像したタイルの種類に関する情報(種類情報)を入力する。情報処理装置10は、種類情報の入力を受け付ける。
 情報処理装置10は、スキャナ200に対してタイルの画像データの取得を要求する。スキャナ200は、情報処理装置10に画像データを送信する。情報処理装置10は、受信した画像データを第一学習モデルに入力し、出力された補正後の画像データを補助記憶部14に記憶する。
 情報処理装置10は、色番に対応する閾値に基づき、補助記憶部14に記憶してある画像データから斑点を含むピクセルを特定する。具体的には、情報処理装置10は、建築材料の色に応じて斑点を特定する。たとえば、白または白に近い色のタイルは閾値(黒)に基づき、黒または黒に近い色のタイルは閾値(白)に基づき、青色のタイルは閾値(黒)および閾値(白)に基づき、斑点が特定される。
 情報処理装置10は、当該斑点を含むピクセル数を計測した後、所定のピクセル数以上が結合しているか否かを判定する。結合しているか否かを判定する際には、画像領域において、X軸方向またはY軸方向に対して所定のピクセル数以上が連続している場合に、タイルの斑点が模様であるものとする。
 所定のピクセル数以上が結合している場合、情報処理装置10は、特定した斑点を模様であるものとして判定する。情報処理装置10は、結合しているピクセル数に基づき、模様の面積を計測する。情報処理装置10は、計測した模様の面積を補助記憶部14に記憶する。
 一方、所定のピクセル数以上が結合していない場合、情報処理装置10は、建築材料DB150から読み出した閾値に基づき、タイルの斑点を特定する。情報処理装置10は、特定したタイルの斑点に基づき、斑点数を計測する。情報処理装置10は、計測された斑点数を補助記憶部14に記憶する。
 情報処理装置10は、特定された斑点または模様がある場所の座標情報(たとえば(X,Y)=(100,150)等)と、計測された斑点数または模様の面積とを対応させて、端末20に表示する。
 以上、情報処理装置10は、タイルの斑点数と模様の面積とを座標情報に対応させて特定できる。
 図10は、種類情報の入力を受け付ける画面を示す説明図である。
 情報処理装置10は、端末20を通じて種類情報の入力を受け付ける。当該種類情報には、タイルの種類(たとえば内装床タイル等)、形状および寸法(たとえば200mm角平等)、色番、ならびに製造場所等が含まれる。情報処理装置10は、受け付けた種類情報に基づいてタイルを特定する。図10の画面例において、端末20は、タイルの種類:内装床タイル、形状および寸法:200mm角平、色番:2番、ならびに製造場所:岐阜工場等を種類情報として表示する。また、端末20は、スキャナ200により取得された画像データを表示する。
 なお、作業者が端末20を通じてロットを入力した後、指定ボタンを選択した場合、情報処理装置10は、ロットに対応した種類情報を建築材料DB150から読み出し、当該種類情報と対応する入力項目を指定するようにしてもよい。
 また、作業者が端末20を通じてタイルに付与された1次元コードまたは2次元コードを読み取ることにより、タイルを特定してもよい。
 図10において、端末20は右下の実行ボタンの選択を受け付けた後、図11の画面を表示する。
 図11は、品質評価の結果を表示する画面を示す説明図である。
 端末20は、建築材料に関する品質評価の結果を表示する。図11の画面例において、端末20は、今回のロット、基準値、種類情報、スキャンしたタイルの画像データ、RGB情報、および斑点数または模様の面積を表示する。
 作業者は、端末20を通じて、測定したタイルの任意の領域を選択できる。端末20は、領域の選択を受け付けた後、選択された領域(たとえば選択領域:6)を太枠で囲み表示する。端末20は、選択された領域について、たとえば(X,Y)=(100,150)のように座標情報として表示する。端末20は、選択された領域の測定値と平均値とを表示する。
 なお、情報処理装置10は、今回測定したタイルに関する結果とともに、前回測定した結果を建築材料DB150から読み出し、端末20に表示してもよい。作業者は、基準値、前回ロットの測定結果、および今回ロットの測定結果を比較して、建築材料の品質を評価できる。
 図12は、情報処理装置10が実行するプログラム140の処理手順を示すフローチャートである。情報処理装置10の制御部11は、プログラム140に基づき以下の処理を実行する。
 制御部11は、スキャナ200を通じてタイルの画像データを取得する(ステップS301)。制御部11は、作業者からタイルの種類情報の入力を受け付ける(ステップS302)。制御部11は、色番に対応した閾値を建築材料DB150から読み出す(ステップS303)。
 制御部11は、第一学習モデルに取得したタイルの画像データを入力する(ステップS304)。制御部11は、第一学習モデルから出力された補正後の画像データを取得する(ステップS305)。制御部11は、読み出した閾値に基づき、画像データから斑点を含むピクセルを特定する(ステップS306)。
 制御部11は、当該斑点を含むピクセル数を計測した後(ステップS307)、所定のピクセル数以上が結合しているか否かを判定する(ステップS308)。所定のピクセル数以上が結合している場合(ステップS308:YES)、制御部11は、特定した斑点を模様であるものとして判定する。制御部11は、結合しているピクセル数に基づき、模様の面積を計測する(ステップS309)。一方、所定のピクセル数以上が結合していない場合(ステップS308:NO)、制御部11は、特定したタイルの斑点に基づき、斑点数を計測する(ステップS310)。
 制御部11は、斑点または模様がある場所の座標情報を取得する(ステップS311)。制御部11は、計測結果として、斑点数または模様の面積と座標情報とを端末20に表示する(ステップS312)。制御部11は、一連の処理を終了する。
 以上、実施の形態1によれば、建築材料の品質を精確に数値化できる。
[実施の形態2]
 実施の形態2では、スキャナ200とは異なるスキャナ300で建築材料を撮像する者が、色差補正システムを利用する形態について説明する。異なるスキャナで対象物を撮像すると、同じ対象物であっても、機差の影響により色差が生じる場合がある。そこで、第一学習モデルをファインチューニングした第二学習モデルを生成することにより、より精確な色差補正システムの提供が可能となる。なお、実施の形態1と重複する内容については、同一の符号を付して説明を省略する。
 図13は、実施の形態2における色差補正システムの構成例を示す模式図である。色差補正システムは、情報処理装置10、端末20、スキャナ200、およびスキャナ300を含む。スキャナ300は、端末20と通信可能に接続されている。
 スキャナ300は、第一学習モデルをファインチューニングする際に用いる2次元または3次元スキャナである。スキャナ300は、端末20を介して、取得した画像データを情報処理装置10に送信する。
 情報処理装置10は、端末20を介して、スキャナ300により撮像された基準材料の画像データを取得する。情報処理装置10は、取得した基準材料の画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第二訓練データにより、第二学習モデルを生成する。なお、第二訓練データの数は、第一訓練データの数より少なくてもよい。
 生成される第二学習モデルは、第一学習モデルをファインチューニングした学習モデルである。情報処理装置10は、第一学習モデルにおけるニューロン間の重みを初期値として、モデル全体の重みを再学習する。
 情報処理装置10は、生成した第二学習モデルを端末20に送信する。端末20は受信した第二学習モデルを用いて、建築材料の数値化処理に利用する。
 図14は、赤色学習モデルをファインチューニングする際の処理手順を示すフローチャートである。情報処理装置10の制御部11は、プログラム140に基づき以下の処理を実行する。なお、緑色学習モデルおよび青色学習モデルのファインチューニングも同様のため、説明は省略する。
 制御部11は、スキャナ300により撮像した基準材料の画像データを取得する(ステップS401)。制御部11は、当該画像データのR値を取得する(ステップS402)。制御部11は、画素ごとに平均のR値を算出する(ステップS403)。制御部11は、実測されたR値と、算出された平均のR値とを含む第二訓練データを記憶する(ステップS404)。
 制御部11は、異なる基準材料について、ステップS401からステップS404の処理を繰り返し、複数の第二訓練データを主記憶部12に記憶する。制御部11は、主記憶部12に記憶した複数の第二訓練データに基づき、赤色学習モデルをファインチューニングする(ステップS405)。制御部11は、一連の処理を終了する。
 以上、実施の形態2によれば、ファインチューニングをおこなうことで、より好適に建築材料の品質を数値化できる。
 以上の通り、実施の形態1および実施の形態2によれば、建築材料の品質を精確に数値化できるプログラム等を提供できる。
 なお、本実施の形態では、色差補正システムを適用する対象を建築材料であるものとして説明したが、これに限るものではない。建築材料以外に、たとえば衣服、樹脂フィルム、または印刷物などの各種商品に本システムを適用してもよい。
 さらに建築材料以外に、たとえば食品(卵、食パン、クッキー、ハム、茶葉、およびコーヒー豆)、布、木、プラスティック、革、紙、ポスター、和紙、粉体、液体(ワイン)、石、畳、スポンジ等の各種商品に本システムを適用してもよい。
[実施の形態3]
 実施の形態3では、対象物の画像データを取得する際に用いる補助装置40(以下、スキャナ装置40)について説明する。
[スキャナ装置40の構造]
 図15は、スキャナ装置40の外観斜視図である。図15に示すように、スキャナ装置40は、スキャナ200、保持部41、支持部42、蝶番43、および遮光ケース44を含む。二点鎖線は、四角形板状のタイルを示す。タイルは、対象物の例示である。以下、図中に矢印で示す、前、後、左、右、上、下のそれぞれの向きを使用して説明する。
 スキャナ200は、スキャン面を上に向けて、図示を省略する机の上に配置されている。スキャナ200は、図示を省略するケーブルにより端末20に接続されている。スキャナ200は、無線通信により端末20に接続されていてもよい。
 保持部41は、左方台座41a、右方台座41b、および接続板41cを有する。左方台座41aおよび右方台座41bは、長手方向を前後方向に向けた四角形柱状である。左方台座41aと右方台座41bとは、同一形状、同一寸法である。接続板41cは、厚さ方向を前後方向に、長手方向を左右方向に向けた長方形板状である。接続板41cは、左方台座41aの前側の端部と右方台座41bの前側の端部とを接続する。
 左方台座41a、右方台座41b、および接続板41cは、全体として、図15における後ろ側に開口部を向けたU字型を形成している。開口部の幅は、スキャナ200の幅より広い。
 接続板41cは、略U字型の取手41dを備える。取手41dは、接続板41cの中央に位置する。取手41dは、接続板41cの前側の面に、開口部を接続板41cに向けて取り付けられている。
 保持部41は、2個のガイド410を備える。ガイド410は、長手方向を左右方向に向けた四角形柱状である。ガイド410は、左方台座41aの左右幅と同等の長さを有する。ガイド410は、左方台座41aおよび右方台座41bの上面の後端にそれぞれ位置する。ガイド410の前面は、同一平面上に配置される。ガイド410の材質は、たとえばゴム製である。
 支持部42は、前後方向に延びる2本の丸棒である。支持部42は互いに平行に配置され、地面に平行である。2本の支持部42は、左方台座41aおよび右方台座41bの中心部をそれぞれ貫通している。支持部42は、保持部41を長手方向に移動可能に支持する。支持部42の長さは、左方台座41aの長さの2倍を超える。
 支持部42の前端面および後端面には、それぞれ脚420が固定されている。脚420は、長手方向を上下方向に向けた四角形柱状である。脚420は、図示を省略する机の天面に設置される。脚420の上下方向の長さは、スキャナ装置40を机に置いた際、保持部41が机と接触しないような長さである。また、支持部42は、保持部41の上面が、スキャナ200の上面より高い位置になるように、保持部41を支持する。
 遮光ケース44は、四角形箱型である。図15は、遮光ケース44が開いた状態を示す。遮光ケース44の開口部が前側を向いている。遮光ケース44は、下側の縁と、後ろ側の2個の脚420の上面とが、2個の蝶番43を介して連結している。
 遮光ケース44は、図15の状態から蝶番43を軸にして反時計回りに約90度回ることにより閉じる。遮光ケース44は、閉じた場合に、スキャナ200または保持部41との間に空間が形成される深さである。遮光ケース44は、閉じた場合に、後述する第2位置にある保持部41を覆う寸法である。
 遮光ケース44は、略U字型の取手44dを備える。取手44dは、開口部を遮光ケース44の上面に向けて取り付けられている。取手44dは、遮光ケース44を閉じた状態における上面の中央から前方寄りの位置に設けられる。
[スキャナ装置40の使用手順]
 スキャナ装置40を使用する際の最初の状態は、遮光ケース44が開いており、保持部41が第1位置にある。第1位置は、保持部41の前端が、前側の脚420に突き当たる位置である。第1位置においては、スキャナ200は保持部41の後端よりも後ろ側に位置する。作業者は、タイルを左方台座41aと右方台座41bとの両方に跨るように載せる。作業者は、保持部41の上でタイルを滑らせて、ゴム製のガイド410にタイルの縁を突き当てることにより、タイルの位置を決める。ガイド410がゴム製であるため、タイルの角を傷つけずに載せることができ、再現性よく画像データを取得することができる。
 第1位置でタイルを載せた後、作業者は取手41dを押して、保持部41を第2位置にスライドさせる。第2位置は、保持部41の後端が、後ろ側の脚420に突き当たる位置である。第2位置においては、左方台座41aと右方台座41bとの間にスキャナ200が位置する。脚420の上下方向の長さは、スキャナ装置40を机に置いた際、保持部41が机と接触しないような長さである。そのため、保持部41は机と接触せずにスライド可能である。
 支持部42は、保持部41を第1位置から第2位置まで移動可能に支持する。つまり、スキャナ装置40は、保持部41に載せたタイルを、第1位置から第2位置まで保持部41と一緒にスライド可能な構成となっている。このように、タイルを載せる第1位置と、タイルをスキャンする第2位置とを区別することで、作業者が誤ってタイルを落下させた場合でも、第1位置での作業であれば、スキャナ200本体の破損を避けることができる。また、タイルをスキャナ200に直接載せないため、スキャナ200のスキャン面を傷つけるおそれがない。
 作業者は、タイルを載せた保持部41を第2位置までスライドさせた後、取手44dを用いて遮光ケース44を閉じる。遮光ケース44を閉じた際には、遮光ケース44内に空間が形成される。これにより、タイル等の立体的な対象物に対しても、本システムを適用することができる。
 遮光ケース44を閉じた後、作業者が端末20を操作してスキャンを開始させる。スキャナ装置40が遮光ケース44を備えることにより、外部の光を遮断してスキャンすることができ、タイル等の対象物をより精確に数値化できる。また、作業者がスキャン中の様子を確認したい際には、遮光ケース44の前面の開口部を開けることで、スキャン中の様子を確認することも可能である。
 スキャン終了後、作業者は取手44dを用いて遮光ケース44を開ける。作業者は、取手41dを引いて保持部41を第2位置から第1位置まで戻す。別のタイルをスキャンしたい際には、スキャン済みのタイルを取り除いた後、新たなタイルを保持部41に載せ、上述の操作を繰り返す。
[スキャナ装置40の変形例]
 スキャンする際には、保持部41上に、さらに透明性の保持板を置いてタイルをスキャンしてもよい。この透明性の保持板を置くことにより、タイルの大きさが保持部41に載せられる幅より小さい場合であっても、直接スキャナ200にタイルを載せずにスキャンすることができる。
 ガイド410は、図15に示した四角形柱状のほか、L字型の直方体で形成してもよい。この形態により、前後方向だけでなく左右方向にも、保持部41に再現性よくタイルを載せることができる。また、保持部41に設置するガイド410の個数は2個であることに限定されず、タイルの四隅に合わせて4個設置してもよい。その場合、ガイド410は、タイルの大きさに合わせて設置場所を動かせるよう構成される。
 支持部42は、図15において、2本で構成するものとして説明したが、これに限定されない。保持部41が地面と平行になるよう支持されれば、支持部42は、左右どちらか1本で構成されてもよい。また、支持部42は丸棒のほか、角棒であってもよい。
 取手41dおよび取手44dは、スキャナ装置40の操作性を向上させるために設けてもよいが、必須の構成ではない。
 以上、実施の形態3によれば、スキャナ装置40を用いてより好適に本システムを適用することができる。
[変形例]
 次に、複数の対象物をスキャンする場合に、本システムを適用する例を説明する。本変形例では、6個の卵をスキャンする場合を例にして説明する。
 図16は、複数の対象物の画像データを取得する際の模式図である。
 図16に示すように、作業者が6個の卵をスキャナ200上に載せる。卵のような食品をスキャンする際には、スキャナ200が汚れないよう、最初に透明フィルムまたはシャーレをスキャナ200上に置いて、その上に食品を載せる。作業者はスキャンが始まる前に、6個の卵の上部から遮光ケース44を被せる。スキャナ200は、6個の卵を読み取り画像データを取得する。この構成により外部の光を遮断しつつ立体物をスキャンできるため、より好適に画像データを取得することができる。さらに、一度の操作で複数の対象物をスキャンすることで、効率的に画像データを取得することができる。
 その後、実施の形態1および実施の形態2と同様に、スキャナ200は、端末20を通じて当該画像データを情報処理装置10に送信する。情報処理装置10は、受信した画像データを第一学習モデルに入力して補正後の画像データを出力する。これにより、卵黄および卵白の色を数値化して卵の質を検査することができる。
 なお、上述した卵の他、対象物が食パンであれば食味が最適となる焼き具合を判定し、対象物がクッキーであればオーブン内の位置関係に応じた焼き具合を数値化し、または、対象物がレーズンパンであれば干しぶどうの個数および分布を測定することができる。さらに、対象物がワインのような液体であっても、スキャナ200上に載せられたシャーレ内にワインを注ぐことで液体の画像データを取得することができる。
 図17は、情報処理装置10が実行するプログラム140の処理手順を示すフローチャートである。情報処理装置10の制御部11は、プログラム140に基づき以下の処理を実行する。
 作業者が複数の対象物をスキャナ200上に載せる。制御部11は、学習モデル記憶部142から第一学習モデルを読み出す(ステップS501)。制御部11は、スキャナ200から複数の対象物を含む画像データを取得する(ステップS502)。制御部11は、取得した画像データを第一学習モデルに入力して補正後の画像データを出力する(ステップS503)。制御部11は、一連の処理を終了する。
 上述したように、本システムによれば、印刷物のような平面的な対象物に限らず、卵のような立体的な対象物、または、ワインのような液体状の対象物に対しても画像データを取得することができる。これにより、複数種類の対象物を精確に数値化することができる。
 以上の変形例によれば、建築材料に限らず、食品(卵、食パン、クッキー、ハム、茶葉、およびコーヒー豆)、布、木、プラスティック、革、紙、印刷物(ポスター)、和紙、粉体、液体(ワイン)、石、畳、スポンジ、樹脂フィルム等の対象物に関しても、色の数値化により好適に品質を管理することができる。
 今回開示された実施の形態はすべての点において例示であり、制限的なものではない。本発明の技術的範囲は上記のように開示された意味ではなく、請求の範囲の記載に基づいて定められ、請求の範囲と均等の意味および範囲内において、すべての変更が含まれる。
 各実施形態に記載した事項は、相互に組み合わせることができる。また、請求の範囲に記載した独立請求項および従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることができる。さらに、請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも一つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載してもよい。
 10   情報処理装置
 10a  可搬型記憶媒体
 11   制御部
 12   主記憶部
 13   通信部
 14   補助記憶部
 140  プログラム(プログラム製品)
 141  訓練データ記憶部
 142  学習モデル記憶部
 150  建築材料DB
 151  基準値DB
 20   端末
 21   制御部
 22   記憶部
 23   第一通信部
 24   第二通信部
 25   入力部
 26   表示部
 200  スキャナ
 300  スキャナ
 40   スキャナ装置(補助装置)
 41   保持部
 410  ガイド
 41a  左方台座
 41b  右方台座
 41c  接続板
 41d  取手
 42   支持部
 420  脚
 43   蝶番
 44   遮光ケース
 44d  取手
 NW   通信ネットワーク

Claims (11)

  1.  対象物を第一スキャナにより読み取った画像データを取得し、
     複数種類の基準対象物を前記第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データにより学習された第一学習モデルに、取得した画像データを入力して補正後の画像データを出力する
     処理をコンピュータに実行させるプログラム。
  2.  前記第一学習モデルは赤、緑、および青の各色に対応して赤色学習モデル、緑色学習モデル、および青色学習モデルが生成されており、
     取得した画像データの赤色の色データを前記赤色学習モデルに入力し、
     取得した画像データの緑色の色データを前記緑色学習モデルに入力し、
     取得した画像データの青色の色データを前記青色学習モデルに入力し、
     各モデルから出力された色により構成される画像データを出力する
     請求項1に記載のプログラム。
  3.  前記第一スキャナとは異なる第二スキャナにより読み取った画像データを取得し、
     複数種類の基準対象物を前記第二スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第二訓練データにより、前記第一学習モデルをファインチューニングして第二学習モデルを生成する
     請求項1または請求項2に記載のプログラム。
  4.  前記対象物はタイルであり、
     補正後のタイルの画像データを取得し、
     前記タイルの種類に関する種類情報を取得し、
     補正後の画像データおよび種類情報に基づき、前記タイルの斑点または模様を特定する
     請求項3に記載のプログラム。
  5.  前記種類情報は、タイルの種類、形状、および色番を含み、前記種類情報に対応する斑点または模様を特定するための閾値を読み出し、
     読み出した当該閾値に基づき、斑点数または模様の面積を特定する
     請求項4に記載のプログラム。
  6.  スキャンしたタイルの画像データ、種類情報、および斑点数または模様の面積を表示する
     請求項4に記載のプログラム。
  7.  複数の対象物を第一スキャナにより読み取った画像データを取得し、
     取得した画像データを前記第一学習モデルに入力して補正後の画像データを出力する
     請求項1または請求項2に記載のプログラム。
  8.  制御部を備える情報処理装置において、
     前記制御部は、
      対象物を第一スキャナにより読み取った画像データを取得し、
      複数種類の基準対象物を前記第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データにより学習された第一学習モデルに、取得した画像データを入力して補正後の画像データを出力する
     情報処理装置。
  9.  対象物を第一スキャナにより読み取った画像データを取得し、
     複数種類の基準対象物を前記第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データにより学習された第一学習モデルに、取得した画像データを入力して補正後の画像データを出力する
     情報処理方法。
  10.  複数種類の基準対象物を第一スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む第一訓練データに基づいて、画像データを入力した場合に補正後の画像データを出力する第一学習モデルを生成する
     学習モデルの生成方法。
  11.  情報処理装置と補助装置とスキャナとを備える撮影システムにおいて、
     前記情報処理装置は制御部を備え、
      前記制御部は、
       対象物を前記スキャナにより読み取った画像データを取得し、
       複数種類の基準対象物を前記スキャナにより読み取った画像データと、当該画像データにおける各画素の色を平均化した画像データとを含む訓練データにより学習された学習モデルに、取得した画像データを入力して補正後の画像データを出力し、
     前記補助装置は、
      対象物を保持する保持部と、
      前記保持部を第1位置から、前記対象物を前記スキャナでスキャン可能な第2位置まで移動可能に支持する支持部と、
      前記対象物を前記第2位置で遮光する遮光ケースと
     を備え、
      前記遮光ケースは、前記支持部に開閉可能に備えられる
     撮影システム。
PCT/JP2022/038652 2021-11-26 2022-10-18 プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム WO2023095490A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021-191858 2021-11-26
JP2021191858 2021-11-26
JP2022108555A JP2023079151A (ja) 2021-11-26 2022-07-05 プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム
JP2022-108555 2022-07-05

Publications (1)

Publication Number Publication Date
WO2023095490A1 true WO2023095490A1 (ja) 2023-06-01

Family

ID=86539283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038652 WO2023095490A1 (ja) 2021-11-26 2022-10-18 プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム

Country Status (1)

Country Link
WO (1) WO2023095490A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339463A (ja) * 1999-05-27 2000-12-08 Nabura:Kk 画像処理方法及びその装置並びに記憶媒体
WO2003031956A1 (en) * 2001-10-05 2003-04-17 Millennium Venture Holdings Ltd System and method for classifying workpieces according to tonal variations
JP2004193682A (ja) * 2002-12-06 2004-07-08 Sharp Corp 画像処理方法ならびに画像処理装置およびそれを備える画像形成装置
JP2004242099A (ja) * 2003-02-06 2004-08-26 Ntt Docomo Inc 色歪み補正方法、色歪み補正装置、携帯端末、プログラム及び記憶媒体
CN109732765A (zh) * 2018-12-27 2019-05-10 佛山欧神诺陶瓷有限公司 一种用于瓷砖识别、记录、跟踪和分选的方法
JP2019184597A (ja) * 2018-04-07 2019-10-24 東洋製罐グループホールディングス株式会社 色味検査装置、及び色味検査プログラム
JP2021087201A (ja) * 2019-11-29 2021-06-03 キヤノン株式会社 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
JP2021113744A (ja) * 2020-01-20 2021-08-05 株式会社コンセプトアートテクノロジーズ 撮像システム
JP2021149825A (ja) * 2020-03-23 2021-09-27 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
WO2021192376A1 (ja) * 2020-03-24 2021-09-30 日本電産株式会社 外観検査システムおよびコンピュータプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339463A (ja) * 1999-05-27 2000-12-08 Nabura:Kk 画像処理方法及びその装置並びに記憶媒体
WO2003031956A1 (en) * 2001-10-05 2003-04-17 Millennium Venture Holdings Ltd System and method for classifying workpieces according to tonal variations
JP2004193682A (ja) * 2002-12-06 2004-07-08 Sharp Corp 画像処理方法ならびに画像処理装置およびそれを備える画像形成装置
JP2004242099A (ja) * 2003-02-06 2004-08-26 Ntt Docomo Inc 色歪み補正方法、色歪み補正装置、携帯端末、プログラム及び記憶媒体
JP2019184597A (ja) * 2018-04-07 2019-10-24 東洋製罐グループホールディングス株式会社 色味検査装置、及び色味検査プログラム
CN109732765A (zh) * 2018-12-27 2019-05-10 佛山欧神诺陶瓷有限公司 一种用于瓷砖识别、记录、跟踪和分选的方法
JP2021087201A (ja) * 2019-11-29 2021-06-03 キヤノン株式会社 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
JP2021113744A (ja) * 2020-01-20 2021-08-05 株式会社コンセプトアートテクノロジーズ 撮像システム
JP2021149825A (ja) * 2020-03-23 2021-09-27 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
WO2021192376A1 (ja) * 2020-03-24 2021-09-30 日本電産株式会社 外観検査システムおよびコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP2001000419A (ja) 肌のイメージング及び分析システムとその方法
TW201132957A (en) Inspection system
US8531667B2 (en) Print color predicting method, print color predicting apparatus, computer-readable recording medium with print color predicting program recorded therein, and profile generating method
EP2448241B1 (en) Print color predicting apparatus, print color predicting method, and recording medium
WO2015158024A1 (zh) 图像处理方法、装置和自动光学检测机
US11614362B1 (en) Method of digital measuring color of fabrics based on digital camera
Arikan et al. Color-managed 3D printing with highly translucent printing materials
WO2023095490A1 (ja) プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム
US9862218B2 (en) Method for printing on a media object in a flatbed printing system
JPWO2005124302A1 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2023079151A (ja) プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム
JPH1063859A (ja) 画質評価方法および装置
Hajjdiab et al. A vision-based approach for nondestructive leaf area estimation
KR101213697B1 (ko) 해상도 측정장치 및 해상도 측정방법
JP6181025B2 (ja) 印刷物の測定位置決定方法及び装置並びに測定方法
JP2019184597A (ja) 色味検査装置、及び色味検査プログラム
JP4826153B2 (ja) プロファイル作成方法及び印刷管理方法
JP6627356B2 (ja) カラーパッチ生成装置及び画像形成装置並びにプログラム
JP6285837B2 (ja) 測定位置提示方法及び測定位置提示ガイドの製造方法並びに印刷物の測定方法
Kılıç et al. Scanner-based color measurement in L* a* b* format with artificial neural networks (ANN)
US11748925B2 (en) Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method
US20190385293A1 (en) Method and device for inspecting images on print products using an image inspection robot
JP2003016443A (ja) 画質評価方法および画質評価装置ならびに画質評価用チャート画像
JP6761201B2 (ja) 粒状物外観品位判別装置
WO2022024516A1 (ja) 画像補正装置、画像補正方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22898274

Country of ref document: EP

Kind code of ref document: A1