WO2022138547A1 - 生地検索装置、生地検索システム、生地検索方法およびプログラム - Google Patents

生地検索装置、生地検索システム、生地検索方法およびプログラム Download PDF

Info

Publication number
WO2022138547A1
WO2022138547A1 PCT/JP2021/046986 JP2021046986W WO2022138547A1 WO 2022138547 A1 WO2022138547 A1 WO 2022138547A1 JP 2021046986 W JP2021046986 W JP 2021046986W WO 2022138547 A1 WO2022138547 A1 WO 2022138547A1
Authority
WO
WIPO (PCT)
Prior art keywords
fabric
information
ordered
evaluation value
feature amount
Prior art date
Application number
PCT/JP2021/046986
Other languages
English (en)
French (fr)
Inventor
英行 上羽
Original Assignee
Bird fab studio株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bird fab studio株式会社 filed Critical Bird fab studio株式会社
Priority to CN202180040097.7A priority Critical patent/CN115943427A/zh
Publication of WO2022138547A1 publication Critical patent/WO2022138547A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present invention relates to a fabric search device, a fabric search system, a fabric search method and a program.
  • a fabric search system has been proposed in which a screen for allowing an operator to select whether to search for fabrics based on the above is displayed on the display unit (see, for example, Patent Document 1).
  • a screen for allowing an operator to select whether to search for fabrics based on the above is displayed on the display unit (see, for example, Patent Document 1).
  • a screen showing that the sensitivity evaluation value of the fabric can be selected is displayed on the display unit, and the sensitivity selected by the operator.
  • the product data of the fabric corresponding to the evaluation value is searched and the search result is displayed on the display unit.
  • the present invention has been made in view of the above reasons, and an object of the present invention is to provide a fabric search device, a fabric search system, a fabric search method, and a program capable of easily finding a desired fabric.
  • the fabric search device is The ordering fabric image acquisition unit that acquires the ordering fabric image information showing the image of the fabric ordered by the orderer, A feature amount calculation unit that calculates the feature amount of the ordered fabric image information, Using a neural network for obtaining an evaluation value from the feature amount, a neural network calculation unit for obtaining the evaluation value from the ordered fabric image information, and a neural network calculation unit. Based on the correspondence between the evaluation value and the fabric identification information set in advance, the ordered fabric identification that specifies the fabric identification information corresponding to the image of the fabric ordered by the orderer from the evaluation value for the ordered fabric image information. It is equipped with a department.
  • the neural network calculation unit obtains an evaluation value for the ordered fabric image information using the neural network. Then, the ordered fabric specifying unit specifies the fabric identification information corresponding to the image of the fabric ordered by the orderer from the evaluation value for the requested fabric image information.
  • the fabric identification information for identifying the fabric desired by the orderer can be obtained only by selecting the fabric image information of the fabric desired by the orderer, so that the fabric desired by the orderer can be easily found. Can be done.
  • (A) is an operation explanatory diagram when determining the weighting coefficient of the neural network of the fabric search device according to the embodiment
  • (B) is an operation explanatory diagram when the fabric search device according to the embodiment outputs evaluation value information. It is an operation explanatory diagram.
  • the fabric search device includes an order fabric image acquisition unit that acquires order fabric image information indicating an image of the fabric ordered by the orderer, and a feature amount calculation unit that calculates the feature amount of the order fabric image information. , Ordering based on the correspondence between the neural network calculation unit that obtains the evaluation value from the ordered fabric image information and the preset evaluation value and the fabric identification information using the neural network for obtaining the evaluation value from the feature amount. It is provided with an ordered fabric specifying unit that specifies fabric identification information corresponding to the image of the fabric ordered by the orderer from the evaluation value for the fabric image information.
  • the dough search system includes a dough search device 1, a dough search device 1, and terminal devices 2 and 3 capable of communicating via a network NW1.
  • the network NW1 is, for example, the Internet.
  • a web management server 10 that manages web images including images of fabrics, clothes, and the like is connected to the network NW1.
  • the terminal device 2 is owned by a user belonging to a company that purchases fabrics, such as an apparel maker.
  • the terminal device 3 is owned by, for example, a user belonging to a fabric maker.
  • the terminal device 2 is, for example, a smartphone, and as shown in FIG. 2, the CPU (Central Processing Unit) 201, the main storage unit 202, the auxiliary storage unit 203, the display unit 204, the input unit 205, and wide area communication. It is a first terminal device including a unit 206 and a bus 209 connecting each unit.
  • the main storage unit 202 is a volatile memory such as a RAM (RandomAccessMemory), and is used as a work area of the CPU 201.
  • the auxiliary storage unit 203 is a non-volatile memory such as a semiconductor flash memory, and stores a program for the CPU 201 to execute various processes.
  • the display unit 204 is a display device such as a liquid crystal display, and displays various information input from the CPU 201.
  • the input unit 205 is, for example, a transparent touch pad arranged on top of the display unit 204, receives various operation information according to the user's operation, and outputs the received operation information to the CPU 201.
  • the wide area communication unit 206 has an interface for connecting to the network NW1 and communicates with the fabric search device 1 via the network NW1.
  • the CPU 201 reads the program stored in the auxiliary storage unit 203 into the main storage unit 202 and executes it, so that, for example, as shown in FIG. 3, the reception unit 211, the display control unit 212, the fabric image acquisition unit 213, and the fabric image transmission It functions as a unit 214.
  • the auxiliary storage unit 203 shown in FIG. 2 is for constructing a fabric image storage unit 231 for storing fabric image information showing a fabric image and an operation screen image to be displayed on the display unit 204. It has an image storage unit 232 for storing image information indicating a template image or the like.
  • the reception unit 211 receives operation information indicating the operation content of the operation performed by the user on the input unit 205.
  • the display control unit 212 acquires image information corresponding to the operation information received by the reception unit 211 from the image storage unit 232, and causes the display unit 204 to display the operation screen image corresponding to the acquired image information. Further, the display control unit 212 causes the display unit 204 to display the home page image indicated by the homepage image information acquired by the fabric image acquisition unit 213 from the web management server 10.
  • the fabric image acquisition unit 213 acquires the homepage image information including the fabric image information transmitted from the web management server 10, and obtains the fabric image information indicating the fabric image cut out from the homepage image indicated by the acquired homepage image information. It is stored in the fabric image storage unit 231. Here, the user performs an operation of selecting an image portion of clothes, fabrics, etc.
  • the reception unit 211 receives operation information including information indicating the position, shape, size, etc. of the image portion selected by the user in the homepage image.
  • the fabric image acquisition unit 213 is an image showing an image portion of clothes, fabric, etc. selected by the user based on the operation information received by the reception unit 211 from the homepage image information acquired from the web management server 10. Generate information as fabric image information.
  • the fabric image acquisition unit 213 stores the generated fabric image information in the fabric image storage unit 231.
  • the fabric image transmission unit 214 adds orderer information including information such as the orderer's whereabouts and order number to the order fabric image information indicating the image of the fabric to be ordered according to the operation information received by the reception unit 211. It is transmitted to the fabric search device 1.
  • the ordering party is a user belonging to the company that purchases the above-mentioned dough.
  • the fabric image transmission unit 214 performs an operation for the orderer to input unit 205 of the terminal device 2 to select a fabric image of the fabric to be ordered from the fabric image information stored in the fabric image storage unit 231. When the operation of inputting the orderer information of the orderer is performed, the selected fabric image information is transmitted to the fabric search device 1 as the order fabric image information.
  • the terminal device 3 is, for example, a personal computer, and like the terminal device 2, the CPU 301, the main storage unit 302, the auxiliary storage unit 303, the display unit 304, the input unit 305, and a wide area. It is a second terminal device including a communication unit 306 and a bus 309 connecting each unit.
  • the main storage unit 302 is a volatile memory used as a work area of the CPU 501.
  • the auxiliary storage unit 303 is a non-volatile memory such as a semiconductor flash memory, and stores programs for realizing various functions of the terminal device 3.
  • the display unit 304 is, for example, a display device such as a liquid crystal display
  • the input unit 305 is, for example, a keyboard, which receives various operation information according to the user's operation and outputs the received operation information to the CPU 301.
  • the wide area communication unit 306 has an interface for connecting to the network NW1.
  • the CPU 301 reads the program stored in the auxiliary storage unit 303 into the main storage unit 302 and executes it, so that, for example, as shown in FIG. 3, the reception unit 311, the display control unit 312, the fabric information acquisition unit 313, and the registered fabric image. It functions as a transmission unit 314 and a correction fabric information transmission unit 315.
  • the auxiliary storage unit 303 shown in FIG. 2 includes an ordering fabric information storage unit 331 that stores ordering fabric information including fabric identification information for identifying the ordered fabric, and a plurality of pre-registered auxiliary storage units 303.
  • the modified fabric information storage unit 333 stores the fabric identification information of the fabric corresponding to the fabric image information for which the evaluation value for the feature amount of the fabric image information described later needs to be corrected, in association with the orderer information.
  • the image storage unit 334 stores image information indicating a template image or the like for constructing an operation screen image to be displayed on the display unit 304.
  • the reception unit 311 receives operation information indicating the operation content of the operation performed by the user on the input unit 305.
  • the reception unit 311 performs an operation of inputting the fabric image information of each of the plurality of types of fabrics to be registered via the input unit 305, the fabrics of the plurality of types of fabrics input in response to the operation are performed.
  • the image information is stored in the registered fabric image storage unit 332.
  • the reception unit 311 notifies the registered fabric image transmission unit 314 that the fabric image information of each of the plurality of types of fabrics is stored in the registered fabric image storage unit 332.
  • the reception unit 311 performs an operation via the input unit 305 to input the fabric identification information of the fabric corresponding to the fabric image information for which the evaluation value for the feature amount of the fabric image information needs to be corrected.
  • the input fabric identification information is stored in the modified fabric information storage unit 333 in association with the orderer information.
  • the reception unit 311 notifies the modified fabric information transmitting unit 315 that the fabric identification information is stored in the modified fabric information storage unit 333.
  • the display control unit 312 acquires image information corresponding to the operation information received by the reception unit 311 from the image storage unit 334, and causes the display unit 304 to display the operation screen image corresponding to the acquired image information.
  • the fabric information acquisition unit 313 acquires the order fabric information from the fabric search device 1
  • the fabric information acquisition unit 313 stores the acquired order fabric information in the order fabric information storage unit 331.
  • the display control unit 312 causes the display unit 304 to display the ordered fabric information acquired from the fabric search device 1 by the fabric information acquisition unit 313.
  • the registered fabric image transmission unit 314 transmits the fabric image information of each of the plurality of types of fabrics stored in the registered fabric image storage unit 332 to the fabric search device 1 in response to the notification from the reception unit 311.
  • the modified fabric information transmission unit 315 transmits the modified fabric information including the fabric identification information stored in the modified fabric information storage unit 333 to the fabric search device 1 in response to the notification from the reception unit 311.
  • the fabric search device 1 is a server computer, and includes a CPU 101, a main storage unit 102, an auxiliary storage unit 103, a wide area communication unit 106, and a bus 109 that connects them to each other.
  • CPUI01 is, for example, a multi-core processor.
  • the main storage unit 102 is used as a work area of the CPU 101, and the auxiliary storage unit 103 stores a program for the CPU 101 to execute various processes.
  • the wide area communication unit 106 has an interface for connecting to the network NW1.
  • the ordering fabric image acquisition unit 111 By reading the program stored in the auxiliary storage unit 103 into the main storage unit 102 and executing the CPU 101, as shown in FIG. 4, the ordering fabric image acquisition unit 111, the feature amount calculation unit 112, the ordering fabric specifying unit 113, It functions as a neural network calculation unit 114, an ordering fabric information transmission unit 115, a registered fabric image acquisition unit 116, a coefficient determination unit 117, a coefficient setting unit 118, a correction fabric information acquisition unit 119, and an evaluation value setting unit 120. Further, as shown in FIG. 4, the auxiliary storage unit 103 shown in FIG. 2 includes an order fabric image storage unit 131, a feature quantity storage unit 132, a fabric identification information storage unit 133, and a registered fabric image storage unit 134.
  • the ordering fabric image storage unit 131 inputs the ordering fabric image information indicating the fabric image of the fabric to be ordered input to the terminal device 2 by the ordering party, such as the ordering party's whereabouts and order number. It is stored in association with the orderer information including the information of.
  • the fabric identification information storage unit 133 associates the evaluation value information indicating the evaluation value obtained by the neural network calculation unit 114 with the fabric identification information for identifying the fabric.
  • the dough identification information a unique identification number assigned to each of the plurality of types of dough, a field name of each of the plurality of types of dough, and the like are adopted.
  • the evaluation values associated with each of the plurality of types of fabric identification information are different from each other, and one evaluation value and one fabric identification information are associated one-to-one.
  • the feature amount storage unit 132 has a plurality of types of feature amounts FV [0, j], FV [1, j], ..., FV [k, j], which represent the characteristics of the fabric.
  • the feature amount information indicating the feature amount vector having ... as an element is stored in association with the evaluation value information indicating the preset evaluation value.
  • a feature amount such as SIFT (Scale-Invariant and Feature Transform), SURF (Speed Up Robust Feature), and HOG (Histogram of Oriented Gradient) derived from the fabric image information can be adopted.
  • the registered fabric image storage unit 134 stores the fabric image information indicating the fabric images of each of the plurality of types of fabrics registered in advance in association with the fabric identification information for identifying each fabric.
  • the neural network storage unit 135 stores information about a neural network having a predetermined number of nodes and layers used by the neural network calculation unit 114. Specifically, the neural network storage unit 135 stores information indicating the number of nodes, the number of layers, the weighting coefficient corresponding to each node, and the activation function of the neural network. This neural network is for obtaining the evaluation value of the fabric desired by the orderer.
  • This neural network has an input layer L10, a hidden layer L20, and an output layer L30 as shown in FIG.
  • the input layer L10 inputs the numerical values indicated by the operation history information, the environmental performance information, and the guest room information to the hidden layer L20.
  • the hidden layer L20 includes N (N is a positive integer) including a node x [j, i] (1 ⁇ i ⁇ M [j], M [j] is a positive integer) of a preset number M [j]. ) Consists of layers. That is, the hidden layer L20 has a structure in which each node row is connected to each other.
  • the output y [j, i] of each node x [j, i] is represented by the relational expression of the following equation (1).
  • W [j, i, k] indicates a weighting coefficient
  • f (*) indicates an activation function.
  • This weighting coefficient W [j, i, k] corresponds to the neural network coefficient that determines the structure of the above-mentioned neural network.
  • the activation function a nonlinear function such as a sigmoid function, a ramp function, a step function, or a softmax function is used.
  • the hidden layer L20 is the sum of the information input to the nodes obtained by multiplying the output of each node in the previous layer by a weighting coefficient. Then, the output of the activation function with the sum as an argument is transmitted to the next layer.
  • the output layer L30 outputs the output y [j, i] from the final layer of the hidden layer L20 as it is.
  • the neural network storage unit 135 stores information indicating the structure of the neural network represented by the equation (1) and information indicating the weighting coefficient W [j, i, k] of the neural network. Further, the neural network storage unit 135 stores initial weighting coefficient information indicating an initial value of the weighting coefficient of the neural network.
  • the ordering fabric image acquisition unit 111 acquires the ordering fabric image information transmitted from the terminal device 2
  • the acquired ordering fabric image information corresponds to the ordering party information added to the ordering fabric image information. It is also stored in the order fabric image storage unit 131.
  • the feature amount calculation unit 112 acquires the acquired ordering fabric image information from the ordering fabric image storage unit 131 and calculates the feature amount of the acquired ordered fabric image information. Then, the feature amount information indicating the calculated feature amount is notified to the ordering fabric specifying unit 113.
  • the feature amount calculation unit 112 calculates the feature amount of the acquired registered fabric image information.
  • the feature amount storage unit 132 stores the feature amount information indicating the feature amount vector having the calculated feature amount as an element.
  • the feature amount calculation unit 112 adopts, for example, S1FT as the feature amount
  • the feature amount calculation unit 112 first determines the position of a pixel that is a candidate for a feature point from the image shown by the registered fabric image information, that is, a pixel having the maximum brightness change. Detects pixels that are invariant to changes in image similarity from among the pixels that are candidates for the detected feature points.
  • the feature amount calculation unit 112 features by generating a histogram of a plurality of types of local patterns for each of the detected pixels based on the local pattern of the luminance gradient in hearing between the pixel and the pixels around the pixel. Calculate the quantity vector.
  • the evaluation value setting unit 120 sets the evaluation value corresponding to the feature amount information corresponding to each of the plurality of types of registered fabric image information stored in the registered fabric image storage unit 134.
  • the evaluation value setting unit 120 sets the evaluation values so that the evaluation values corresponding to the feature amount information corresponding to each of the plurality of types of registered fabric image information are different from each other.
  • the order fabric specifying unit 113 is obtained by the neural network calculation unit 114 based on the feature amount indicated by the notified feature amount information. Acquire evaluation value information. Then, the ordering fabric identification unit 113 specifies the fabric identification information corresponding to the acquired evaluation value information from the fabric identification information stored in the fabric identification information storage unit 133. The ordering fabric specifying unit 113 notifies the ordering fabric information transmitting unit 115 of the specified fabric identification information. The ordering fabric information transmitting unit 115 transmits the ordering fabric information including the fabric identification information notified from the ordering fabric specifying unit 113 and the ordering party information stored in the ordering fabric image storage unit 131 to the terminal device 3.
  • the coefficient determination unit 117 determines the weight coefficient of the neural network for obtaining the evaluation value of the fabric desired by the above-mentioned orderer based on the feature amount information and the evaluation value information stored in the feature amount storage unit 132.
  • the coefficient setting unit 117 acquires initial weighting coefficient information indicating the initial weighting coefficient from the neural network storage unit 135, and sets the acquired initial weighting coefficient as the weighting coefficient of the neural network.
  • the coefficient determination unit 117 acquires the evaluation value information calculated by the neural network calculation unit 114 using the neural network, for example, as shown in FIG. 8A.
  • the neural network calculation unit 114 calculates an evaluation value from the feature amount information FV [0, j], ..., FV [k, j], ...
  • the coefficient determination unit 117 acquires the evaluation value information SC [j] which is the teacher information stored in the feature quantity storage unit 132, and uses the evaluation value and the neural network indicated by the acquired evaluation value information SC [j]. Calculate the error from the evaluation value calculated in the above. Then, the coefficient determination unit 117 determines the weighting coefficient of the neural network by the error back propagation method (backpropagation) based on the calculated error. Here, the coefficient determination unit 117 determines the weighting coefficient using, for example, an autoencoder. Then, the coefficient determination unit 117 stores the weight coefficient information indicating the determined weight coefficient in the neural network storage unit 135.
  • the coefficient setting unit 118 sets the weighting coefficient determined by the coefficient determining unit 117 as the weighting coefficient of the neural network.
  • the neural network calculation unit 114 obtains an evaluation value from the feature amount information notified from the ordering fabric specifying unit 113 by using the neural network whose weighting coefficient is determined by the coefficient determination unit 115.
  • the neural network calculation unit 114 uses the weighting coefficient determined by the coefficient determination unit 117 stored in the neural network storage unit 135 by the coefficient setting unit 118. Set to a coefficient.
  • the neural network calculation unit 114 calculates an evaluation value from the feature amount information notified from the ordering fabric specifying unit 113 using the neural network in which the weighting coefficient is set by the coefficient setting unit 118, and the calculated evaluation value.
  • the evaluation value information SC indicating the above is output to the ordering fabric specifying unit 113.
  • the operation of the fabric search system according to the present embodiment will be described with reference to FIGS. 9 and 10.
  • the terminal device 3 receives the input registered fabric.
  • the image information is received and stored in the registered fabric image storage unit 332 (step S1).
  • the registered fabric image information of each of the input plurality of types of fabrics is transmitted from the terminal device 3 to the fabric search device 1 (step S2).
  • the fabric search device 1 acquires the registered fabric image information
  • the acquired registered fabric image information is stored in the registered fabric image storage unit 134.
  • the fabric search device 1 calculates the feature amount corresponding to each of the registered fabric image information of the plurality of types of fabrics stored in the registered fabric image storage unit 134 (step S3).
  • the fabric search device 1 stores the feature amount information indicating the calculated feature amount in the feature amount storage unit 132.
  • the fabric search device 1 sets an evaluation value corresponding to each feature amount information indicating the calculated feature amount (step S4).
  • the fabric search device 1 stores the evaluation value information indicating the evaluation value corresponding to each feature amount information stored in the feature amount storage unit 132 in the feature amount storage unit 132.
  • the fabric search device 1 executes a coefficient determination process for determining the weighting coefficient of the neural network based on the feature amount information and the evaluation value information stored in the feature amount storage unit 132 (step S5).
  • the fabric search device 1 stores the weight coefficient information indicating the weight coefficient of the neural network determined by executing the coefficient determination process in the neural network storage unit 135.
  • the user who purchases the dough performs an operation of ordering the dough from the input unit 205 of the terminal device 2.
  • the user can display the image portion of the clothes, fabrics, etc. included in the homepage image in the state where the terminal device 2 displays the homepage image including the image portions of clothes, fabrics, etc. on the display unit 204. Select the image part corresponding to the fabric to be purchased from the list, and input the ordered fabric image information indicating the selected image portion and the orderer information.
  • the terminal device 2 accepts the ordering operation (step S6).
  • the received ordered fabric image information is transmitted from the terminal device 2 to the fabric search device 1 (step S7).
  • the fabric search device 1 acquires the ordered fabric image information, it calculates the feature amount of the acquired ordered fabric image information (step S8). Subsequently, the fabric search device 1 calculates an evaluation value using a neural network based on the feature amount information indicating the calculated feature amount (step S9). After that, the fabric search device 1 identifies the fabric identification information corresponding to the calculated evaluation value from the fabric identification information stored in the fabric identification information storage unit 133 (step S10). Next, the ordered fabric information including the specified fabric identification information and the above-mentioned orderer information is transmitted from the fabric search device 1 to the terminal device 3 (step S11).
  • the terminal device 3 displays the acquired ordered fabric information on the display unit 304 (step S12). Then, the user of the fabric maker refers to the ordered fabric information displayed on the display unit 304 of the terminal device 3 and provides the orderer with the fabric identified by the fabric identification information included in the ordered fabric information.
  • the user of the fabric maker said that the fabric provided to the orderer is different from the fabric desired by the orderer, and the weight coefficient update operation for updating the weight coefficient of the neural network is performed on the input unit 305 of the terminal device 3. do.
  • the user performs an operation of inputting the fabric identification information and the orderer information of the fabric desired by the orderer.
  • the terminal device 3 receives the modified fabric identification information input by the user (step S13).
  • the modified fabric information including the received fabric identification information and the orderer information is transmitted from the terminal device 3 to the fabric search device 1 (step S14).
  • the fabric search device 1 calculates the feature amount corresponding to the ordered fabric image information from the ordered fabric image information stored in the ordered fabric image storage unit 131 (step S15). After that, the fabric search device 1 identifies the evaluation value information corresponding to the fabric identification information included in the modified fabric information from the evaluation value information stored in the fabric identification information storage unit 133 (step S16). Next, the fabric search device 1 includes feature amount information and evaluation value information stored in the feature amount storage unit 132, feature amount information indicating the calculated feature amount, and evaluation value information corresponding to the specified feature amount information. , A coefficient determination process for determining the weight coefficient of the neural network is executed (step S17). The fabric search device 1 updates the weight coefficient information stored in the neural network storage unit 135 with the weight coefficient information determined by executing the coefficient determination process.
  • step S101 determines whether or not the registered fabric image information of each of the plurality of types of fabrics registered in advance is received from the terminal device 3 (step S101). If it is determined that the registered fabric image acquisition unit 116 has not acquired the registered fabric image information (step S101: No), the process of step S106 described later is executed.
  • the registered fabric image storage unit 134 registers the acquired registered fabric image information and the fabric identification information added thereto. Is stored in (step S102).
  • the feature amount calculation unit 112 calculates the feature amount corresponding to each of the registered fabric image information of the plurality of types of fabrics stored in the registered fabric image storage unit 134 (step S103).
  • the fabric search device 1 stores the feature amount information indicating the calculated feature amount in the feature amount storage unit 132.
  • the evaluation value setting unit 120 sets the evaluation value corresponding to each of the feature amount information indicating the calculated feature amount (step S104).
  • the evaluation value setting unit 120 stores the evaluation value information indicating the evaluation value corresponding to each feature amount information stored in the feature amount storage unit 132 in the feature amount storage unit 132.
  • the coefficient determination unit 117 executes a coefficient determination process for determining the weight coefficient of the neural network based on the feature amount information and the evaluation value information stored in the feature amount storage unit 132 (step S105).
  • the neural network calculation unit 114 acquires the feature amount information and the evaluation value information from the feature amount storage unit 132 (step S201).
  • the coefficient setting unit 118 acquires the initial weighting coefficient information indicating the initial weighting coefficient or the weighting coefficient information indicating the most recently used weighting coefficient from the neural network storage unit 135, and the weighting coefficient indicated by the acquired weighting coefficient information. Is set in the weighting coefficient of the neural network (step S02).
  • the neural network calculation unit 114 calculates a predicted evaluation value from the acquired feature amount information using the neural network in which the weighting coefficient is set by the coefficient setting unit 118 (step S203).
  • the coefficient determination unit 117 calculates an error between the calculated predicted evaluation value and the evaluation value indicated by the acquired evaluation value information (step S204). Next, the coefficient determination unit 117 newly determines the weighting coefficient of the neural network by the error backpropagation method (backpropagation) based on the calculated error (step S205). Then, the coefficient determination unit 117 stores the determined weighting coefficient in the neural network storage unit 135 (step S206).
  • the ordering fabric image acquisition unit 111 determines whether or not the ordering fabric image information has been acquired from the terminal device 2 (step S106).
  • the ordering fabric image acquisition unit 111 determines that the outgoing fabric image information has not been acquired from the terminal device 2 (step S106: No)
  • the process of step S112 described later is executed.
  • the ordering material image acquisition unit 111 determines that the ordering material image information has been acquired from the terminal device 2 (step S106: Yes)
  • the ordering material image information acquired and the ordering person information added to the acquired ordering material image information are selected as the ordering material. It is stored in the image storage unit 131 (step S107).
  • the feature amount calculation unit 112 calculates the feature amount of the order fabric image information stored in the order fabric image storage unit 131 (step S108).
  • the neural network calculation unit 114 obtains an evaluation value from the feature amount information indicating the feature amount calculated by the feature amount calculation unit 112 using the neural network in which the weighting coefficient is set by the coefficient setting unit 118 (step S109). ). At this time, the neural network calculation unit 114 notifies the ordering fabric specifying unit 113 of the evaluation value information indicating the calculated evaluation value. Next, the ordering fabric specifying unit 113 specifies the fabric identification information corresponding to the evaluation value information notified from the neural network calculation unit 114 from the fabric identification information stored in the fabric identification information storage unit 133 (step S110). ). Here, the ordering fabric identification unit 113 notifies the ordering fabric information transmitting unit 115 of the specified fabric identification information.
  • the ordering fabric information transmitting unit 115 includes the fabric identification information notified from the ordering fabric specifying unit 113 and the ordering party information corresponding to the notified fabric identification information stored in the ordering fabric image storage unit 131.
  • the order fabric information is generated and transmitted to the terminal device 3 (step S111).
  • the modified fabric information acquisition unit 119 determines whether or not the modified fabric information including the fabric identification information and the orderer information has been acquired from the terminal device 3 (step S112).
  • the correction fabric information acquisition unit 119 determines that the correction fabric information has not been acquired (step Sl12: No)
  • the process of step S101 is executed again.
  • the modified fabric information acquisition unit 119 determines that the modified fabric information has been acquired (step Sl12: Yes)
  • the amount is calculated (step S113).
  • the coefficient determination unit 117 specifies the evaluation value information corresponding to the fabric identification information included in the modified fabric information from the evaluation value information stored in the fabric identification information storage unit 133 (step S114). Subsequently, the coefficient determination unit 117 includes feature amount information and evaluation value information stored in the feature amount storage unit 132, feature amount information indicating the calculated feature amount, and evaluation value information corresponding to the specified feature amount information. , A coefficient determination process for determining the weight coefficient of the neural network is executed (step S115). Here, the coefficient determination unit 117 updates the weight coefficient information stored in the neural network storage unit 135 with the weight coefficient information determined by executing the coefficient determination process. After that, the process of step S101 is executed again.
  • the neural network calculation unit 114 evaluates the ordered fabric image information using the neural network in which the weighting coefficient is determined by the coefficient determination unit 117. Find the value. Then, the ordered fabric specifying unit 113 specifies the fabric identification information corresponding to the image of the fabric ordered by the orderer from the evaluation value for the requested fabric image information. As a result, the fabric identification information for identifying the fabric desired by the orderer can be obtained only by selecting the fabric image information of the fabric desired by the orderer, so that the fabric desired by the orderer can be easily found. Can be done.
  • the modified fabric information acquisition unit 119 identifies the fabric identification information corresponding to the evaluation value obtained by using the neural network from the feature amount of the ordered fabric image information by the fabric identification information. Acquire the modified fabric information for modifying so as to be the fabric identification information that identifies other fabrics different from the fabric. Then, the coefficient determination unit 117 updates the weight coefficient information based on the feature amount information indicating the feature amount of the ordered fabric image information and the evaluation value information indicating the evaluation value corresponding to the fabric identification information included in the modified fabric information. do. As a result, it is possible to reduce the frequency of occurrence of deviation between the fabric identification information obtained by using the neural network from the feature amount of the ordered fabric image information and the fabric identification information for identifying the fabric desired by the orderer. It is possible to improve the search accuracy of the fabric.
  • the ordered fabric image information is not limited to the one showing a still image of the fabric, but may indicate a moving image obtained by imaging the fabric for a preset time.
  • the terminal device 2 may be, for example, VR (Virtua1 Reality) goggles, and may provide a user with a three-dimensional image of the fabric.
  • VR Virtuala1 Reality
  • various functions of the fabric search device 1 may be realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program, and the program can be read by a computer such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disc) and MO (Magneto-Optical Disc).
  • a compact disc capable of realizing each of the above-mentioned functions may be configured by storing and distributing the program in a recording medium, reading the program into a compact disc, and installing the program.
  • OS Operating System
  • only the part other than the OS may be stored in the recording medium.
  • each program may be posted on a bulletin board system (BBS, Bulletin Board System) on the network, and the program may be distributed via the network. Then, by starting these programs and executing them in the same manner as other application programs under the control of the OS, the above-mentioned processing may be executed.
  • BSS bulletin board System
  • the present invention is suitable for a system for searching for fabrics.
  • 1 Fabric search device, 2, 3: Terminal device, 10: Web management server, 101, 201, 301: CPU, 102, 202, 302: Main storage unit, 103, 203, 303: Auxiliary storage unit, 106: Wide area Communication unit, 109, 209, 309: Bus, 111: Order fabric image acquisition unit, 112: Feature amount calculation unit, 113: Order fabric identification unit, 114: Neural network calculation unit, 115: Order fabric information transmission unit, 116: Registered fabric image acquisition unit 117: Coefficient determination unit 118: Coefficient setting unit 119: Modified fabric information acquisition unit 120: Evaluation value setting unit, 131: Order fabric image storage unit, 132: Feature quantity storage unit 133: Fabric identification information storage unit, 134: Registered fabric image storage unit, 135: Neural network storage unit, 204, 304: Display unit, 205, 305: Input unit, 206, 306: Communication unit, 211, 311: Reception unit, 212 , 312: Display control unit, 213: Fabric

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

所望する生地を容易に見つけることができる生地検索装置、生地検索システム、生地検索方法およびプログラムを提供する。 生地検索装置1は、発注者が発注した生地の画像を示す発注生地画像情報を取得する発注生地画像取得部111と、発注生地画像情報の特徴量を算出する特徴量算出部112と、特徴量から評価値を求めるためのニューラルネットワークを用いて、発注生地画像情報から評価値を求めるニューラルネットワーク計算部114と、予め設定された評価値と生地識別情報との対応関係に基づいて、発注生地画像情報に対する評価値から、発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部113と、を備える。

Description

生地検索装置、生地検索システム、生地検索方法およびプログラム
 本発明は、生地検索装置、生地検索システム、生地検索方法およびプログラムに関する。
 生地の商品データと、視覚および触覚を感性尺度として生地を評価した感性評価値データに基づいて生地を検索するか、または、生地の生地種、素材および生地の用途を基本項目とする基本項目データに基づいて生地を検索するかを操作者に選択させる画面を表示部に表示させる生地検索システムが提案されている(例えば特許文献1参照)。この生地検索システムでは、操作者が感性評価値データから生地を検索することを選択した場合、生地の感性評価値を選択可能に示された画面を表示部に表示させ、操作者が選択した感性評価値に該当する生地の商品データを検索して検索結果を表示部に表示する。
特開2017―16378号公報
 しかしながら、特許文献1に記載された生地検索システムでは、操作者が感性評価値を選択する操作を行う必要があり、例えば操作者が感性評価値の意義を十分に把握していない場合、操作者が所望する生地を上手く見つけることができない虞がある。
 本発明は上記事由に鑑みてなされたものであり、所望する生地を容易に見つけることができる生地検索装置、生地検索システム、生地検索方法およびプログラムを提供することを目的とする。
 上記目的を達成するため、本発明に係る生地検索装置は、
 発注者が発注した生地の画像を示す発注生地画像情報を取得する発注生地画像取得部と、
 前記発注生地画像情報の特徴量を算出する特徴量算出部と、
 前記特徴量から評価値を求めるためのニューラルネットワークを用いて、前記発注生地画像情報から前記評価値を求めるニューラルネットワーク計算部と、
 予め設定された前記評価値と生地識別情報との対応関係に基づいて、前記発注生地画像情報に対する評価値から、前記発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部と、を備える。
 本発明によれば、ニューラルネットワーク計算部が、ニューラルネットワークを用いて、発注生地画像情報に対する評価値を求める。そして、発注生地特定部が、求められた発注生地画像情報に対する評価値から、発注者が発注した生地の画像に対応する生地識別情報を特定する。これにより、発注者が所望する生地の生地画像情報を選択するだけで、発注者が所望する生地を識別する生地識別情報を取得することができるので、発注者が所望する生地を容易に見つけることができる。
本発明の実施の形態に係る生地検索システムの概略構成図である。 実施の形態に係る生地検索システムのハードウェア構成を示すブロック図である。 実施の形態に係る端末装置の機能ブロック図である。 実施の形態に係る生地検索装置の機能ブロック図である。 (A)は実施の形態に係る発注生地画像記憶部が記憶する情報の一例を示す図であり、(B)は実施の形態に係る生地識別情報記憶部が記憶する情報の一例を示す図である。 実施の形態に係る特徴量記憶部が記憶する情報の一例を示す図である。 実施の形態に係る生地検索装置で用いられるニューラルネットワークの説明図である。 (A)は実施の形態に係る生地検索装置のニューラルネットワークの重み係数を決定する際の動作説明図であり、(B)は実施の形態に係る生地検索装置が評価値情報を出力する際の動作説明図である。 実施の形態に係る生地検索システムの動作の一例を示すシーケンス図である。 実施の形態に係る生地検索システムの動作の一例を示すシーケンス図である。 実施の形態に係る生地検索装置が実行する生地検索処理の流れの一例を示すフローチャートである。 実施の形態に係る生地検索装置が実行する係数決定処理の流れの一例を示すフローチャートである。
 以下、本発明の実施の形態に係る生地検索システムついて、図面を参照しながら説明する。本実施の形態に係る生地検索装置は、発注者が発注した生地の画像を示す発注生地画像情報を取得する発注生地画像取得部と、発注生地画像情報の特徴量を算出する特徴量算出部と、特徴量から評価値を求めるためのニューラルネットワークを用いて、発注生地画像情報から評価値を求めるニューラルネットワーク計算部と、予め設定された評価値と生地識別情報との対応関係に基づいて、発注生地画像情報に対する評価値から、発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部と、を備える。
 図1に示すように、本実施の形態に係る生地検索システムは、生地検索装置1と、生地検索装置1とネットワークNW1を介して通信可能な端末装置2、3と、を備える。ネットワークNW1は、例えばインターネットである。また、ネットワークNW1には、生地、衣服等の画像を含むウェブ画像を管理するウェブ管理サーバ10が接続されている。端末装置2は、例えばアパレルメーカのような生地を購入する企業に属する利用者が所持する。また、端末装置3は、例えば生地メーカに属する利用者が保有する。
 端末装置2は、例えばスマートフォンであり、図2に示すように、CPU(Central Processing Unit)201と、主記憶部202と、補助記憶部203と、表示部204と、入力部205と、広域通信部206と、各部を接続するバス209と、を備える第1端末装置である。主記憶部202は、RAM(Random Access Memory)のような揮発性メモリであり、CPU201の作業領域として使用される。補助記憶部203は、半導体フラッシュメモリのような不揮発性メモリであり、CPU201が各種処理を実行するためのプログラムを記憶する。表示部204は、例えば液晶ディスプレイのような表示装置であり、CPU201から入力された各種情報を表示する。入力部205は、例えば表示部204に重ねて配置される透明なタッチパッドであり、利用者の操作に応じた各種操作情報を受け付けて、受け付けた操作情報をCPU201へ出力する。広域通信部206は、ネットワークNW1に接続するためのインタフェースを有し、生地検索装置1との間でネットワークNW1を介して通信する。
 CPU201は、補助記憶部203が記憶するプログラムを主記憶部202に読み出して実行することにより、例えば図3に示すように、受付部211、表示制御部212、生地画像取得部213および生地画像送信部214として機能する。また、図2に示す補助記憶部203は、図3に示すように、生地画像を示す生地画像情報を記憶する生地画像記憶部231と、表示部204に表示させる操作画面画像を構築するためのテンプレート画像等を示す画像情報を記憶する画像記憶部232と、を有する。受付部211は、利用者が入力部205に対して行った操作の操作内容を示す操作情報を受け付ける。表示制御部212は、画像記憶部232から、受付部211が受け付けた操作情報に応じた画像情報を取得し、取得した画像情報に対応する操作画面画像を表示部204に表示させる。また、表示制御部212は、生地画像取得部213がウェブ管理サーバ10から取得したホームページ画像情報が示すホ一ムページ画像を表示部204に表示させる。生地画像取得部213は、ウェブ管理サーバ10から送信される生地画像情報を含むホームページ画像情報を取得し、取得したホームページ画像情報が示すホームページ画像の中から切り出された生地画像を示す生地画像情報を生地画像記憶部231に記憶させる。ここで、利用者が、表示部204に衣服、生地等を含むホームページ画像が表示された状態で、入力部205に対してホームページ画像に含まれる衣服、生地等の画像部分を選択する操作を行ったとする。この場合、受付部211は、ホームページ画像中における利用者が選択した画像部分の位置、形状、大きさ等を示す情報が含まれる操作情報を受け付ける。そして、生地画像取得部213は、ウェブ管理サーバ10から取得したホームページ画像情報の中から受付部211が受け付けた操作情報に基づいて、利用者により選択された衣服、生地等の画像部分を示す画像情報を生地画像情報として生成する。生地画像取得部213は、生成した生地画像情報を生地画像記憶部231に記憶させる。
 生地画像送信部214は、受付部211が受け付けた操作情報に応じて、発注したい生地の画像を示す発注生地画像情報に発注者の居所、注文番号等の情報を含む発注者情報を付加して生地検索装置1へ送信する。ここで、発注者は、前述の生地を購入する企業に属する利用者である。生地画像送信部214は、例えば発注者が端末装置2の入力部205に対して、生地画像記憶部231が記憶する生地画像情報の中から発注したい生地の生地画像を選択する操作を行うとともに、発注者の発注者情報を入力する操作を行うと、選択された生地画像情報を発注生地画像情報として生地検索装置1へ送信する。
 図2に戻って、端末装置3は、例えばパーソナルコンピュータであり、端末装置2と同様に、CPU301と、主記憶部302と、補助記憶部303と、表示部304と、入力部305と、広域通信部306と、各部を接続するバス309と、を備える第2端末装置である。主記憶部302は、CPU501の作業領域として使用される揮発性メモリである。補助記憶部303は、半導体フラッシュメモリのような不揮発性メモリであり、端末装置3の各種機能を実現するためのプログラムを記憶する。表示部304は、例えば液晶ディスプレイのような表示装置であり、入力部305は、例えばキーボードであり、利用者の操作に応じた各種操作情報を受け付けて、受け付けた操作情報をCPU301へ出力する。広域通信部306は、ネットワークNW1に接続するためのインタフェースを有する。
 CPU301は、補助記憶部303が記憶するプログラムを主記憶部302に読み出して実行することにより、例えば図3に示すように、受付部311、表示制御部312、生地情報取得部313、登録生地画像送信部314および修正生地情報送信部315として機能する。また、図2に示す補助記憶部303は、図3に示すように、発注された生地を識別する生地識別情報を含む発注生地情報を記憶する発注生地情報記憶部331と、予め登録された複数種類の生地それぞれの画像を示す登録生地画像情報を記憶する登録生地画像記憶部332と、修正生地情報記憶部333と、画像記憶部334と、を有する。修正生地情報記憶部333は、後述する生地画像情報の特徴量に対する評価値の修正が必要とされる生地画像情報に対応する生地の生地識別情報を、発注者情報に対応づけて記憶する。画像記憶部334は、表示部304に表示させる操作画面画像を構築するためのテンプレート画像等を示す画像情報を記憶する。
 受付部311は、利用者が入力部305に対して行った操作の操作内容を示す操作情報を受け付ける。受付部311は、利用者が入力部305を介して登録しようとする複数種類の生地それぞれの生地画像情報を入力する操作を行うと、これに応じて、入力された複数種類の生地それぞれの生地画像情報を登録生地画像記憶部332に記憶させる。このとき、受付部311は、複数種類の生地それぞれの生地画像情報が登録生地画像記憶部332に記憶させたことを登録生地画像送信部314に通知する。また、受付部311は、利用者が入力部305を介して生地画像情報の特徴量に対する評価値の修正が必要とされる生地画像情報に対応する生地の生地識別情報を入力する操作を行うと、これに応じて、入力された生地識別情報を、発注者情報に対応づけて修正生地情報記憶部333に記憶させる。このとき、受付部311は、生地識別情報を修正生地情報記憶部333に記憶させたことを修正生地情報送信部315に通知する。
 表示制御部312は、画像記憶部334から、受付部311が受け付けた操作情報に応じた画像情報を取得し、取得した画像情報に対応する操作画面画像を表示部304に表示させる。生地情報取得部313は、生地検索装置1から発注生地情報を取得すると、取得した発注生地情報を発注生地情報記憶部331に記憶させる。このとき、表示制御部312は、生地情報取得部313が生地検索装置1から取得した発注生地情報を表示部304に表示させる。登録生地画像送信部314は、受付部311からの通知に応じて、登録生地画像記憶部332が記憶する複数種類の生地それぞれの生地画像情報を生地検索装置1へ送信する。修正生地情報送信部315は、受付部311からの通知に応じて、修正生地情報記憶部333が記憶する生地識別情報を含む修正生地情報を生地検索装置1へ送信する。
 図2に戻って、生地検索装置1は、サーバ用コンピュータであり、CPU101と、主記憶部102と、補助記憶部103と、広域通信部106と、これらを互いに接続するバス109と、を備える。CPUI01は、例えばマルチコアプロセッサである。主記憶部102は、CPU101の作業領域として使用され、補助記憶部103は、CPU101が各種処理を実行するためのプログラムを記憶する。広域通信部106は、ネットワークNW1に接続するためのインタフェースを有する。
 CPU101は、補助記憶部103が記憶するプログラムを主記憶部102に読み出して実行することにより、図4に示すように、発注生地画像取得部111、特徴量算出部112、発注生地特定部113、ニューラルネットワーク計算部114、発注生地情報送信部115、登録生地画像取得部116、係数決定部117、係数設定部118、修正生地情報取得部119および評価値設定部120として機能する。また、図2に示す補助記憶部103は、図4に示すように、発注生地画像記憶部131と、特徴量記憶部132と、生地識別情報記憶部133と、登録生地画像記憶部134と、ニューラルネットワーク記憶部135と、を有する。発注生地画像記憶部131は、例えば図5(A)に示すように、発注者が端末装置2に入力した発注したい生地の生地画像を示す発注生地画像情報を、発注者の居所、注文番号等の情報を含む発注者情報に対応づけて記憶している。
 生地識別情報記憶部133は、例えば図5(B)に示すように、ニューラルネットワーク計算部114により求められる評価値を示す評価値情報と、生地を識別する生地識別情報と、を互いに対応づけて記憶する。ここで、生地識別情報としては、複数種類の生地それぞれに付与された固有の識別番号、複数種類の生地それぞれの圃有名称等が採用される。また、複数種類の生地識別情報それぞれに対応づけられた評価値は、互いに異なっており、1つの評価値と1つの生地識別情報とが一対一で対応づけられている。
 特徴量記憶部132は、例えば図6に示すように、生地の特徴を表す複数種類の特徴量FV[0,j]、FV[1,j]、・・・、FV[k,j],・・・を要素とする特徴量ベクトルを示す特徴量情報を、予め設定された評価値を示す評価値情報に対応づけて記憶する。特徴量としては、例えば生地画像情報から導出されるSIFT(Scale-Invariant and Feature Transform)、SURF(Speed Up Robust Feature)、HOG(Histogram of Oriented Gradient)等の特徴量を採用することができる。図4に戻って、登録生地画像記憶部134は、予め登録された複数種類の生地それぞれの生地画像を示す生地画像情報を、各生地を識別する生地識別情報に対応づけて記憶する。
 ニューラルネットワーク記憶部135は、ニューラルネットワーク計算部114が用いる予め定められたノード数および層数を有するニューラルネットワークに関する情報を記憶する。具体的には、ニューラルネットワーク記憶部135は、ニューラルネットワークのノード数、層数、各ノードに対応する重み係数および活性化関数それぞれを示す情報を記憶する。このニューラルネットワークは、発注者が所望する生地の評価値を求めるためのものである。このニューラルネットワークは、図7に示すように入力層L10、隠れ層L20および出力層L30を有する。入力層L10は、動作履歴情報、環境実績情報および客室情報それぞれが示す数値を、隠れ層L20へ入力する。
 隠れ層L20は、予め設定された数M[j]のノードx[j,i](1≦i≦M[j]、M[j]は正の整数)を含むN(Nは正の整数)個の層から構成されている。即ち、隠れ層L20は、各ノード列同士が繋がれた構造を有する。ここで、各ノードx[j,i]の出力y[j,i]は、下記式(1)の関係式で表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、W[j,i,k]は、重み係数を示し、f(*)は、活性化関数を示す。この重み係数W[j,i,k]が、前述のニューラルネットワークの構造を決めるニューラルネットワーク係数に相当する。また、活性化関数としては、シグモイド関数、ランプ関数、ステップ関数、ソフトマックス関数等の非線形関数が用いられる。隠れ層L20は、ノードに入力される情報が前の層の各ノードの出力にそれぞれに重み係数を乗じたものの総和となっている。そして、総和を引数とする活性化関数の出力が次の層へ伝達される。出力層L30は、隠れ層L20の最終層からの出力y[j,i]をそのまま出力する。そして、ニューラルネットワーク記憶部135は、式(1)で表されるニューラルネットワークの構造を示す情報と、ニューラルネットワークの重み係数W[j,i,k]を示す情報と、を記憶する。また、ニューラルネットワーク記憶部135は、ニューラルネットワークの重み係数の初期値を示す初期重み係数情報を記憶する。
 図4に戻って、発注生地画像取得部111は、端末装置2から送信される発注生地画像情報を取得すると、取得した発注生地画像情報を、発注生地画像情報に付加された発注者情報に対応づけて発注生地画像記憶部131に記憶させる。特徴量算出部112は、発注生地画像取得部111が発注生地画像情報を取得すると、取得した発注生地画像情報を発注生地画像記憶部131から取得し、取得した発注生地画像情報の特徴量を算出し、算出した特徴量を示す特徴量情報を発注生地特定部113に通知する。また、特徴量算出部112は、登録生地画像取得部116が端末装置3から送信された複数種類の生地それぞれの登録生地画像情報を取得すると、取得した登録生地画像情報の特徴量を算出し、算出した特徴量を要素とする特徴量ベクトルを示す特徴量情報を特徴量記憶部132に記憶させる。ここで、特徴量算出部112は、例えばS1FTを特徴量として採用する場合、まず、登録生地画像情報が示す画像から特徴点の候補となる画素、即ち、輝度変化が最大となる画素の位置を検出し、検出した特徴点の候補となる画素の中から画像の相似変化に不変な画素を検出する。次に、特徴量算出部112は、検出した画素それぞれについて、その画素とその画素の周囲の画素との聞における輝度勾配の局所パターンに基づいて複数種類の局所パターンのヒストグラムを生成することにより特徴量ベクトルを算出する。
 評価値設定部120は、登録生地画像記憶部134が記憶する複数種類の登録生地画像情報それぞれに対応する特徴量情報に対応する評価値を設定する。ここで、評価値設定部120は、複数種類の登録生地画像情報それぞれに対応する特徴量情報に対応する評価値が互いに異なる値となるように評価値を設定する。
 発注生地特定部113は、特徴量算出部112から発注生地画像情報に対応する特徴量情報が通知されると、通知された特徴量情報が示す特徴量に基づいてニューラルネットワーク計算部114により求められる評価値情報を取得する。そして、発注生地特定部113は、生地識別情報記憶部133が記憶する生地識別情報の中から、取得した評価値情報に対応する生地識別情報を特定する。発注生地特定部113は、特定した生地識別情報を発注生地情報送信部115に通知する。発注生地情報送信部115は、発注生地特定部113から通知された生地識別情報と、発注生地画像記憶部131が記憶する発注者情報と、を含む発注生地情報を端末装置3へ送信する。
 係数決定部117は、特徴量記憶部132が記憶する特徴量情報と評価値情報とに基づいて、前述の発注者が所望する生地の評価値を求めるためのニューラルネットワークの重み係数を決定する。係数設定部117は、まず、ニューラルネットワーク記憶部135から初期の重み係数を示す初期重み係数情報を取得し、取得した初期重み係数をニューラルネットワークの重み係数に設定する。次に、係数決定部117は、例えば図8(A)に示すように、ニューラルネットワーク計算部114がニューラルネットワークを用いて算出した評価値情報を取得する。ここで、ニューラルネットワーク計算部114は、教師情報である特徴量情報FV[0,j]、・・・、FV[k、j]、・・・から、ニューラルネットワークを用いて評価値を算出する。続いて、係数決定部117は、特徴量記憶部132が記憶する教師情報である評価値情報SC[j]を取得し、取得した評価値情報SC[j]が示す評価値とニューラルネットワークを用いて算出された評価値との誤差を算出する。そして、係数決定部117は、算出した誤差に基づいて、誤差逆伝播法(バックプロパゲーション)によりニューラルネットワークの重み係数を決定する。ここで、係数決定部117は、例えばオートエンコーダを用いて重み係数を決定する。そして、係数決定部117は、決定した重み係数を示す重み係数情報をニューラルネットワーク記憶部135に記憶させる。
 係数設定部118は、係数決定部117が決定した重み係数を、ニューラルネットワークの重み係数に設定する。ニューラルネットワーク計算部114は、係数決定部115により重み係数が決定されたニューラルネットワークを用いて、発注生地特定部113から通知される特徴量情報から、評価値を求める。ここでは、図8(B)に示すように、係数設定部118が、ニューラルネットワーク記憶部135が記憶する係数決定部117により決定された重み係数を、ニューラルネットワーク計算部114が用いるニューラルネットワークの重み係数に設定する。そして、ニューラルネットワーク計算部114は、発注生地特定部113から通知される特徴量情報から、係数設定部118により重み係数が設定されたニューラルネットワークを用いて、評価値を算出し、算出した評価値を示す評価値情報SCを発注生地特定部113に出力する。
 次に、本実施の形態に係る生地検索システムの動作について図9および図10を参照しながら説明する。まず、図9に示すように、生地メーカの利用者が、端末装置3の入力部305に対して複数種類の登録生地画像情報の入力操作を行うと、端末装置3は、入力された登録生地画像情報を受け付けて登録生地画像記憶部332に記憶させる(ステップS1)。次に、入力された複数種類の生地それぞれの登録生地画像情報が、端末装置3から生地検索装置1へ送信される(ステップS2)。一方、生地検索装置1は、登録生地画像情報を取得すると、取得した登録生地画像情報を登録生地画像記憶部134に記憶させる。そして、生地検索装置1は、登録生地画像記憶部134が記憶する複数種類の生地の登録生地画像情報それぞれに対応する特徴量を算出する(ステップS3)。ここで、生地検索装置1は、算出した特徴量を示す特徴量情報を特徴量記憶部132に記憶させる。続いて、生地検索装置1は、算出した特徴量を示す特徴量情報それぞれに対応する評価値を設定する(ステップS4)。ここで、生地検索装置1は、特徴量記憶部132が記憶する各特徴量情報それぞれに対応する評価値を示す評価値情報を特徴量記憶部132に記憶させる。その後、生地検索装置1は、特徴量記憶部132が記憶する特徴量情報および評価値情報に基づいて、ニューラルネットワークの重み係数を決定する係数決定処理を実行する(ステップS5)。生地検索装置1は、係数決定処理を実行することにより決定されたニューラルネットワークの重み係数を示す重み係数情報をニューラルネットワーク記憶部135に記憶させる。
 次に、生地を購入する利用者が、端末装置2の入力部205に対して生地を発注する操作を行ったとする。ここで、利用者は、前述のように端末装置2が表示部204に衣服、生地等の画像部分を含むホームページ画像を表示させた状態で、ホームページ画像に含まれる衣服、生地等の画像部分の中から、購入したい生地に対応する画像部分を選択し、選択した画像部分を示す発注生地画像情報と、発注者情報と、を入力する操作を行う。この場合、端末装置2は、発注操作を受け付ける(ステップS6)。そして、受け付けた発注生地画像情報が、端末装置2から生地検索装置1へ送信される(ステップS7)。一方、生地検索装置1は、発注生地画像情報を取得すると、取得した発注生地画像情報の特徴量を算出する(ステップS8)。続いて、生地検索装置1は、算出した特徴量を示す特徴量情報に基づいて、ニューラルネットワークを用いて、評価値を算出する(ステップS9)。その後、生地検索装置1は、生地識別情報記憶部133が記憶する生地識別情報の中から、算出した評価値に対応する生地識別情報を特定する(ステップS10)。次に、特定した生地識別情報と前述の発注者情報とを含む発注生地情報が、生地検索装置1から端末装置3へ送信される(ステップS11)。一方、端末装置3は、発注生地情報を取得すると、取得した発注生地情報を表示部304に表示させる(ステップS12)。そして、生地メーカの利用者は、端末装置3の表示部304に表示される発注生地情報を参照して、発注生地情報に含まれる生地識別情報で識別される生地を発注者に提供する。
 また、生地メーカの利用者が、発注者に提供した生地が発注者の所望する生地と異なり、端末装置3の入力部305に対してニューラルネットワークの重み係数を更新する重み係数更新操作を行ったとする。ここで、利用者は、発注者の所望する生地の生地識別情報と発注者情報とを入力する操作を行う。この場合、端末装置3は利用者により入力された修正後の生地識別情報を受け付ける(ステップS13)。続いて、図10に示すように、受け付けた生地識別情報と発注者情報とを含む修正生地情報が、端末装置3から生地検索装置1へ送信される(ステップS14)。一方、生地検索装置1は、発注生地画像記憶部131が記憶する発注生地画像情報から、発注生地画像情報に対応する特徴量を算出する(ステップS15)。その後、生地検索装置1は、生地識別情報記憶部133が記憶する評価値情報の中から、修正生地情報に含まれる生地識別情報に対応する評価値情報を特定する(ステップS16)。次に、生地検索装置1は、特徴量記憶部132が記憶する特徴量情報および評価値情報と、算出した特徴量を示す特徴量情報と、特定したこの特徴量情報に対応する評価値情報と、に基づいて、ニューラルネットワークの重み係数を決定する係数決定処理を実行する(ステップS17)。生地検索装置1は、係数決定処理を実行することにより決定された重み係数情報でニューラルネットワーク記憶部135が記憶する重み係数情報を更新する。
 次に、本実施の形態に係る生地検索装置1が実行する生地検索処理について図11および図12を参照しながら説明する。この生地検索処理は、例えば生地検索装置1へ電源が投入されたことを契機として開始される。まず、登録生地画像取得部116は、端末装置3から予め登録された複数種類の生地それぞれの登録生地画像情報を受信したか否かを判定する(ステップS101)。登録生地画像取得部116が登録生地画像情報を取得していないと判定すると(ステップS101:No)、後述するステップS106の処理が実行される。一方、登録生地画像取得部116は、登録生地画像情報を取得したと判定すると(ステップS101:Yes)、取得した登録生地画像情報とこれに付加された生地識別情報とを登録生地画像記憶部134に記憶させる(ステップS102)。
 次に、特徴量算出部112は、登録生地画像記憶部134が記憶する複数種類の生地の登録生地画像情報それぞれに対応する特徴量を算出する(ステップS103)。ここで、生地検索装置1は、算出した特徴量を示す特徴量情報を特徴量記憶部132に記憶させる。続いて、評価値設定部120は、算出した特徴量を示す特徴量情報それぞれに対応する評価値を設定する(ステップS104)。ここで、評価値設定部120は、特徴量記憶部132が記憶する各特徴量情報それぞれに対応する評価値を示す評価値情報を特徴量記憶部132に記憶させる。その後、係数決定部117は、特徴量記憶部132が記憶する特徴量情報および評価値情報に基づいて、ニューラルネットワークの重み係数を決定する係数決定処理を実行する(ステップS105)。
 ここで、係数決定処理の詳細について、図12を参照しながら詳細に説明する。まず、ニューラルネットワーク計算部114は、特徴量記憶部132から特徴量情報および評価値情報を取得する(ステップS201)。次に、係数設定部118が、ニューラルネットワーク記憶部135から初期重み係数を示す初期重み係数情報または直近に用いられた重み係数を示す重み係数情報を取得し、取得した重み係数情報が示す重み係数を、ニューラルネットワークの重み係数に設定する(ステップS02)。続いて、ニューラルネットワーク計算部114は、係数設定部118により重み係数が設定されたニューラルネットワークを用いて、取得した特徴量情報から、予測評価値を算出する(ステップS203)。その後、係数決定部117は、算出された予測評価値と、取得した評価値情報が示す評価値と、の誤差を算出する(ステップS204)。次に、係数決定部117は、算出された誤差に基づいて、誤差逆伝播法(バックプロパゲーション)によりニューラルネットワークの重み係数を新たに決定する(ステップS205)。そして、係数決定部117は、決定した重み係数をニューラルネットワーク記憶部135に記憶させる(ステップS206)。
 図11に戻って、次に、発注生地画像取得部111は、端末装置2から発注生地画像情報を取得したか否かを判定する(ステップS106)。発注生地画像取得部111が、端末装置2から発往生地画像情報を取得していないと判定すると(ステップS106:No)、後述するステップS112の処理が実行される。一方、発注生地画像取得部111は、端末装置2から発注生地画像情報を取得したと判定すると(ステップS106:Yes)、取得した発注生地画像情報とこれに付加された発注者情報とを発注生地画像記憶部131に記憶させる(ステップS107)。続いて、特徴量算出部112は、発注生地画像記憶部131が記憶する発注生地画像情報の特徴量を算出する(ステップS108)。
 その後、ニューラルネットワーク計算部114は、係数設定部118により重み係数が設定されたニューラルネットワークを用いて、特徴量算出部112が算出した特徴量を示す特徴量情報から、評価値を求める(ステップS109)。このとき、ニューラルネットワーク計算部114は、算出した評価値を示す評価値情報を発注生地特定部113に通知する。次に、発注生地特定部113は、生地識別情報記憶部133が記憶する生地識別情報の中から、ニューラルネットワーク計算部114から通知される評価値情報に対応する生地識別情報を特定する(ステップS110)。ここで、発注生地特定部113は、特定した生地識別情報を発注生地情報送信部115に通知する。続いて、発注生地情報送信部115は、発注生地特定部113から通知される生地識別情報と、発注生地画像記憶部131が記憶する通知された生地識別情報に対応する発注者情報と、を含む発注生地情報を生成して端末装置3へ送信する(ステップS111)。
 その後、修正生地情報取得部119は、生地識別情報と発注者情報とを含む修正生地情報を端末装置3から取得したか否かを判定する(ステップS112)。修正生地情報取得部119が、修正生地情報を取得していないと判定すると(ステップSl12:No)、再びステップS101の処理が実行される。一方、修正生地情報取得部119は、修正生地情報を取得したと判定すると(ステップSl12:Yes)、発注生地画像記憶部131が記憶する、取得した修正生地情報に対応する発注生地画像情報の特徴量を算出する(ステップS113)。次に、係数決定部117は、生地識別情報記憶部133が記憶する評価値情報の中から、修正生地情報に含まれる生地識別情報に対応する評価値情報を特定する(ステップS114)。続いて、係数決定部117は、特徴量記憶部132が記憶する特徴量情報および評価値情報と、算出した特徴量を示す特徴量情報と、特定したこの特徴量情報に対応する評価値情報と、に基づいて、ニューラルネットワークの重み係数を決定する係数決定処理を実行する(ステップS115)。ここで、係数決定部117は、係数決定処理を実行することにより決定された重み係数情報でニューラルネットワーク記憶部135が記憶する重み係数情報を更新する。その後、再びステップS101の処理が実行される。
 以上説明したように、本実施の形態に係る生地検索装置1によれば、ニューラルネットワーク計算部114が、係数決定部117により重み係数が決定されたニューラルネットワークを用いて、発注生地画像情報に対する評価値を求める。そして、発注生地特定部113が、求められた発注生地画像情報に対する評価値から、発注者が発注した生地の画像に対応する生地識別情報を特定する。これにより、発注者が所望する生地の生地画像情報を選択するだけで、発注者が所望する生地を識別する生地識別情報を取得することができるので、発注者が所望する生地を容易に見つけることができる。
 また、本実施の形態に係る修正生地情報取得部119は、発注生地画像情報の特徴量からニューラルネットワークを用いて求められた評価値に対応する生地識別情報を、当該生地識別情報で識別される生地とは異なる他の生地を識別する生地識別情報となるように修正するための修正生地情報を取得する。そして、係数決定部117が、発注生地画像情報の特徴量を示す特徴量情報と修正生地情報に含まれる生地識別情報に対応する評価値を示す評価値情報とに基づいて、重み係数情報を更新する。これにより、発注生地画像情報の特徴量からニューラルネットワークを用いて求められる生地識別情報と、発注者が所望する生地を識別する生地識別情報と、のずれの発生頻度を低減することができるので、生地の検索精度を向上させることができる。
 以上、本発明の実施の形態について説明したが、本発明は前述の実施の形態によって限定されるものではない。例えば、発注生地画像情報は、生地の静止画像を示すものに限定されるものではなく生地を予め設定された時間の間撮像して得られる動画画像を示すものであってもよい。
 実施の形態において、端末装置2が、例えばVR(Virtua1 Reality)ゴーグルであり、利用者に生地の三次元画像を提供するものであってもよい。
 また、本発明に係る生地検索装置1の各種機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現されてもよい。この場合、ソフトウェアまたはファームウェアは、プログラムとして記述され、プログラムを、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)およびMO(Magneto-Optical Disc)等のコンビュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンビュータに読み込んでインストールすることにより、前述の各機能を実現することができるコンビュータを構成してもよい。そして、各機能をOS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協同により実現する場合等には、OS以外の部分のみを記録媒体に格納しでもよい。
 さらに、搬送波に各プログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(BBS,Bulletin Board System)に当該プログラムを掲示し、ネットワークを介して当該プログラムを配信してもよい。そして、これらのプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前述の処理を実行できるように構成してもよい。
 本発明は、生地を検索するシステムに好適である。
1:生地検索装置、2,3:端末装置、10:ウェブ管理サーバ、101,201,301:CPU 、102,202,302:主記憶部、103,203,303:補助記憶部、106:広域通信部、109,209,309:バス、111:発注生地画像取得部、112:特徴量算出部、113:発注生地特定部、114:ニューラルネットワーク計算部、115:発注生地情報送信部、116:登録生地画像取得部、117:係数決定部、118:係数設定部、119:修正生地情報取得部、120:評価値設定部、131:発注生地画像記憶部、132:特徴量記憶部、133:生地識別情報記憶部、134:登録生地画像記憶部、135:ニューラルネットワーク記憶部、204,304:表示部、205,305:入力部、206, 306:通信部、211,311:受付部、212,312:表示制御部、213:生地画像取得部、214:生地画像送信部、231:生地画像記憶部、232,334:画像記憶部、313:生地画像取得部、314:登録生地画像送信部、315:修正生地情報送信部、331:発注生地情報記憶部、332:登録生地画像記憶部、333:修正生地情報記憶部、NW1:ネットワーク

Claims (6)

  1.  発注者が発注した生地の画像を示す発注生地画像情報を取得する発注生地画像取得部と、
     前記発注生地画像情報の特徴量を算出する特徴量算出部と、
     前記特徴量から評価値を求めるためのニューラルネットワークを用いて、前記発注生地画像情報から前記評価値を求めるニューラルネットワーク計算部と、
     予め設定された前記評価値と生地識別情報との対応関係に基づいて、前記発注生地画像情報に対する評価値から、前記発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部と、を備える、
    生地検索装置。
  2.  予め登録された複数種類の生地それぞれの画像を示す複数種類の生地画像情報を取得する登録生地画像取得部と、
     前記複数種類の生地画像情報それぞれを識別する生地識別情報に対応する評価値を設定する評価値設定部と、
     前記複数種類の生地画像情報それぞれの特徴量を示す特徴量情報と前記評価値を示す評価値情報とに基づいて、前記ニューラルネットワークのニューラルネットワーク係数を決定する係数決定部と、を備え、
     前記特徴量算出部は、前記複数種類の生地画像情報それぞれの特徴量を算出し、算出した特徴量を示す特徴量情報を前記係数決定部に通知する、
    請求項1に記載の生地検索装置。
  3.  前記発注生地画像情報の特徴量から前記ニューラルネットワークを用いて求められた前記評価値に対応する生地識別情報を、前記生地識別情報で識別される生地とは異なる他の生地を識別する生地識別情報となるように修正するための、前記他の生地を識別する生地識別情報を含む修正生地情報を取得し、する修正生地情報取得部を更に備え、
     前記係数決定部は、前記発注生地画像情報の特徴量を示す特徴量情報と前記修正生地情報に含まれる生地識別情報に対応する評価値を示す評価値情報とに基づいて、前記ニューラルネットワーク係数を更新する、
    請求項2に記載の生地検索装置。
  4.  発注者が所持する第1端末装置と、
     前記発注者に生地を提供する利用者が所持する第2端末装置と、
     前記第1端末装置から送信される発注者が発注した生地の両像を示す発注生地画像情報を取得する発注生地画像取得部と、
     前記発注生地画像情報の特徴量を算出する特徴量算出部と、
     前記特徴量から評価値を求めるためのニューラルネットワークを用いて、前記発注生地画像情報から前記評価値を求めるニューラルネットワーク計算部と、
     予め設定された前記評価値と生地識別情報との対応関係に基づいて、前記発注生地画像情報に対する評価値から、前記発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部と、
     前記発注生地特定部により特定された前記生地識別情報を前記第2端末装置へ送信する発注生地情報送信部と、を備える、
    生地検索システム。
  5.  発注者が発注した生地の画像を示す発注生地画像情報を取得するステップと、
     前記発注生地画像情報の特徴量を算出するステップと、
     前記特徴量から評価値を求めるためのニューラルネットワークを用いて、前記発注生地画像情報から前記評価値を求めるステップと、
     予め設定された前記評価値と生地識別情報との対応関係に基づいて、前記発注生地画像情報に対する評価値から、前記発注者が発注した生地の画像に対応する生地識別情報を特定するステップと、を含む、
    生地検索方法。
  6.  コンピュータを、
     発注者が発注した生地の画像を示す発注生地画像情報を取得する発注生地画像取得部、
     前記発注生地画像情報の特徴量を算出する特徴量算出部、
     前記特徴量から評価値を求めるためのニューラルネットワークを用いて、前記発注生地画像情報から前記評価値を求めるニューラルネットワーク計算部、
     予め設定された前記評価値と生地識別情報との対応関係に基づいて、前記発注生地画像情報に対する評価値から、前記発注者が発注した生地の画像に対応する生地識別情報を特定する発注生地特定部、
    として機能させるためのプログラム。
PCT/JP2021/046986 2020-12-24 2021-12-20 生地検索装置、生地検索システム、生地検索方法およびプログラム WO2022138547A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202180040097.7A CN115943427A (zh) 2020-12-24 2021-12-20 布料搜索装置、布料搜索系统、布料搜索方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020220065A JP7144077B2 (ja) 2020-12-24 2020-12-24 生地検索装置、生地検索システムおよび生地検索プログラム
JP2020-220065 2020-12-24

Publications (1)

Publication Number Publication Date
WO2022138547A1 true WO2022138547A1 (ja) 2022-06-30

Family

ID=82157920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046986 WO2022138547A1 (ja) 2020-12-24 2021-12-20 生地検索装置、生地検索システム、生地検索方法およびプログラム

Country Status (3)

Country Link
JP (2) JP7144077B2 (ja)
CN (1) CN115943427A (ja)
WO (1) WO2022138547A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139325A (ja) * 1997-07-22 1999-02-12 Matsushita Electric Ind Co Ltd 類似検索方法及び類似検索システム
WO2018016494A1 (ja) * 2016-07-20 2018-01-25 株式会社サンクレエ 在庫管理サーバ、在庫管理システム、在庫管理プログラムおよび在庫管理方法
CN109344924A (zh) * 2018-09-10 2019-02-15 湖州易有科技有限公司 基于深度学习的识别商品方法及基于机器视觉的商品存储和识别系统
CN111125397A (zh) * 2019-11-28 2020-05-08 苏州正雄企业发展有限公司 一种基于卷积神经网络的布料图像检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139325A (ja) * 1997-07-22 1999-02-12 Matsushita Electric Ind Co Ltd 類似検索方法及び類似検索システム
WO2018016494A1 (ja) * 2016-07-20 2018-01-25 株式会社サンクレエ 在庫管理サーバ、在庫管理システム、在庫管理プログラムおよび在庫管理方法
CN109344924A (zh) * 2018-09-10 2019-02-15 湖州易有科技有限公司 基于深度学习的识别商品方法及基于机器视觉的商品存储和识别系统
CN111125397A (zh) * 2019-11-28 2020-05-08 苏州正雄企业发展有限公司 一种基于卷积神经网络的布料图像检索方法

Also Published As

Publication number Publication date
JP7144077B2 (ja) 2022-09-29
JP2022184903A (ja) 2022-12-13
JP2022101412A (ja) 2022-07-06
CN115943427A (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
US11250487B2 (en) Computer vision and image characteristic search
US10803407B2 (en) Method for selecting learned model corresponding to sensing data and provisioning selected learned model, and learned model provision device
US11921777B2 (en) Machine learning for digital image selection across object variations
US20190147361A1 (en) Learned model provision method and learned model provision device
US10176398B2 (en) Textile matching using color and pattern recognition and methods of use
US11972466B2 (en) Computer storage media, method, and system for exploring and recommending matching products across categories
CN105786838A (zh) 一种信息匹配处理方法和装置
US10832305B1 (en) System and method for image processing and searching for classification in a product database
CN111507285A (zh) 人脸属性识别方法、装置、计算机设备和存储介质
TW201931253A (zh) 資料處理方法、裝置、設備及電腦可讀儲存媒體
CN114331492A (zh) 媒体资源的推荐方法、装置、设备及存储介质
KR20200044197A (ko) 머신러닝 기반의 의류 핏 추천 장치
EP3803764A1 (en) Image retrieval apparatus image retrieval method, product catalog generation system, and recording medium
CN115393903A (zh) 图像底库的更新方法、装置、设备及存储介质
CN113919895A (zh) 排序方法、装置、设备和存储介质
US11164233B2 (en) Computer system for filtering and matching garments with users
WO2022138547A1 (ja) 生地検索装置、生地検索システム、生地検索方法およびプログラム
CN112017276B (zh) 一种三维模型构建方法、装置以及电子设备
CN116157817A (zh) 伪造物品检测系统
WO2016017241A1 (ja) 統計データ生成サーバ装置、統計データ生成システム、及び統計データ生成方法
JP6403861B1 (ja) 提供プログラム、提供装置、および提供方法
CN116467594A (zh) 一种推荐模型的训练方法及相关装置
CN115758271A (zh) 数据处理方法、装置、计算机设备和存储介质
US20140258043A1 (en) Comparable product matching: system and method
CN114547430A (zh) 信息对象的标签标注方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910692

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910692

Country of ref document: EP

Kind code of ref document: A1