WO2006078015A1 - カテゴリカル色知覚システム - Google Patents

カテゴリカル色知覚システム Download PDF

Info

Publication number
WO2006078015A1
WO2006078015A1 PCT/JP2006/300964 JP2006300964W WO2006078015A1 WO 2006078015 A1 WO2006078015 A1 WO 2006078015A1 JP 2006300964 W JP2006300964 W JP 2006300964W WO 2006078015 A1 WO2006078015 A1 WO 2006078015A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
input
color component
component
intermediate layer
Prior art date
Application number
PCT/JP2006/300964
Other languages
English (en)
French (fr)
Inventor
Tomoharu Nagao
Noriko Yata
Keiji Uchikawa
Original Assignee
National University Corporation Yokohama National University
Tokyo Institute Of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University Corporation Yokohama National University, Tokyo Institute Of Technology filed Critical National University Corporation Yokohama National University
Priority to JP2006553985A priority Critical patent/JP4625962B2/ja
Publication of WO2006078015A1 publication Critical patent/WO2006078015A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Definitions

  • the present invention relates to a categorical color perception system that automatically determines categorical colors, and relates to a technique that can accurately determine under various environments.
  • Non-Patent Document 1 Keisuke Takebe, 3 others, “Digital color imaging with color constancy”, IEICE Transactions D-—, IEICE, August 2000, Vol. J83— D- II No. 8, p. 1753-1762
  • Non-Patent Document 2 Tetsuaki Suzuki et al., 4 others, "Learning of color categorical perception by neural network", ITE Technical Report, IPSJ, 1999, 23rd, 29th, p. 19-24
  • an object of the present invention is to provide a category power color perception system that can accurately determine a category color even under various environments.
  • the categorical color perception system inputs an ambient light component in a determination environment and a reflected color component of a determination target force in the determination environment, and an observer performs the determination in the determination environment.
  • This judgment target power is a categorical color perception system that outputs a categorized color name that is predicted to be perceived, and has the following elements.
  • Input layer illumination light component corresponding part for inputting the illumination light component
  • input layer test color component corresponding part for inputting the test color component that is a reflection of the color sample force by the illumination light.
  • the input layer does not combine with the input layer test color component corresponding portion but combines with the input side illumination light component corresponding portion with the input layer illumination light component corresponding portion and the input layer without combining with the input layer illumination light component corresponding portion.
  • the output side intermediate layer is connected to the input side intermediate layer illumination light component corresponding part and the input side intermediate layer test color component corresponding part.
  • the output layer is used for learning the configuration corresponding to the category color.
  • the learning illumination light color component and the learning test color component are input to the circuit, and the error is such that the color sample force under the illumination light and the learning category color perceived by the subject are output.
  • Judgment connection weight data storage unit that stores connection weights obtained by learning using the back propagation method
  • the ambient light component of the judgment environment is input as the illumination light color component
  • the reflected color component of the judgment target power in the judgment environment is the test color.
  • the neural network calculation processing is performed according to the coupling load that is input as a component and stored in the coupling load data storage unit for determination, and the result of the processing is determined by the observer in the determination environment.
  • Target power A neural network for judgment that outputs a category color predicted to be perceived.
  • the learning neural network and the determination neural network have the same number of units for inputting color components of the same method, and the input layer illumination light component corresponding portion and the input layer test color component corresponding partial force.
  • the side intermediate layer illumination light component corresponding portion and the input side intermediate layer test color component corresponding portion have the same number of units, and the coupling between the input layer illumination light component corresponding portion and the input side intermediate layer illumination light component corresponding portion.
  • the connection load related to the input layer test color component corresponding part and the connection load related to the connection between the input side intermediate layer test color component corresponding part is to use a common connection load between the corresponding bonds in the configuration.
  • the number of units in the input side intermediate layer illumination light component corresponding part and the number of units in the input side intermediate layer test color component corresponding part are the number of units in the input layer illumination light component corresponding part and the input layer test color component corresponding part. It is more than the number of units.
  • the number of units corresponding to the input layer illumination light component and the number of units corresponding to the input layer test color component are 3, and the number of units corresponding to the input side intermediate layer illumination light component and the input side intermediate layer test color.
  • the number of units corresponding to the component is four.
  • the number of units in the output side intermediate layer is greater than the number of units in the input side intermediate layer illumination light component corresponding part and the number of units in the input side intermediate layer test color component corresponding part.
  • the number of units in the output intermediate layer is less than or equal to the number of units in the output layer.
  • the number of units in the input side intermediate layer illumination light component corresponding part and the number of units in the input side intermediate layer test color component corresponding part are 4, the number of units in the output side intermediate layer is 7, It is characterized by 11 units.
  • the robot has the following elements.
  • Ambient light input camera unit that captures ambient light and outputs the ambient light reception signal as the first output signal
  • Ambient light color component sensor unit that receives the first output signal and extracts the ambient light color component from the first output signal
  • Target reflected color component sensor unit that receives the second output signal and extracts the color component of the reflected light from the second output signal
  • a categorical color perception system that inputs the color component of ambient light and the color component of reflected light and determines the category color of the object to be judged according to the color component of the ambient light and the color component of the reflected light.
  • Robot control unit that inputs a category color and generates a control signal to control the robot based on the category color
  • a robot drive unit that inputs a control signal and drives the motion device according to the control signal.
  • the surveillance camera system includes the following elements:
  • Ambient light input camera unit that captures ambient light and outputs the ambient light reception signal as the first output signal
  • Ambient light color component sensor unit that receives the first output signal and extracts the ambient light color component from the first output signal
  • Camera unit for photographing an object that captures the reflected light of the object to be judged and outputs a light reception signal of the reflected light of the object to be judged as a second output signal
  • Target reflected color component sensor unit that receives the second output signal and extracts the color component of the reflected light from the second output signal
  • a categorical color perception system that inputs the color component of ambient light and the color component of reflected light and determines the category color of the object to be judged according to the color component of the ambient light and the color component of the reflected light.
  • a surveillance camera control unit that inputs a category color and generates control information for controlling the surveillance camera system based on the category color.
  • the color coordination simulation system is characterized by having the following elements:
  • Ambient light color component generator that converts ambient light designation information into ambient light color components
  • Camera unit for shooting an object that captures the reflected light of the object to be judged and outputs the received light signal of the reflected light of the object to be judged as an output signal
  • a categorical color perception system that inputs the color component of ambient light and the color component of reflected light and determines the category color of the object to be judged according to the color component of the ambient light and the color component of the reflected light.
  • the color coordination simulation system is characterized by having the following elements:
  • Input unit for inputting specification information of ambient light and specification information of reflected light from the object to be judged
  • Ambient light color component generator that converts ambient light designation information into ambient light color components
  • a categorical color perception system that inputs the color component of ambient light and the color component of reflected light and determines the category color of the object to be judged according to the color component of the ambient light and the color component of the reflected light.
  • the illumination light component corresponding part and the test color component corresponding part are independently provided on the input side, and these coupling loads are shared, so that the illumination light component of the input intermediate layer
  • the visual signal processing by the corresponding part is equivalent to the visual signal processing by the test color component corresponding part of the input side intermediate layer, and the perceptual significance of the signal group caused by the sample light and the signal group caused by the illumination light is It is unified and functionally corrects the irradiation light in higher-order perception. This makes it possible to accurately determine basic category colors even in various environments.
  • Figure 1 shows the configuration of the hierarchical-type dual network used for learning. As shown in the figure, this is a feed-forward-Eural network with 4 layers (input layer, input side intermediate layer, output side intermediate layer, output layer).
  • the input layer includes an input layer test color component corresponding portion 101 and an input layer illumination light component corresponding portion 102. Both parts have 3 units corresponding to 3 types of cones (L, M, S).
  • a cone response value with respect to reflected light (test color) obtained by illuminating the color sample with illumination light is input.
  • Input layer illumination light A cone response value with respect to illumination light is input to each unit of the component corresponding portion 102.
  • the input-side intermediate layer includes an input-side intermediate layer test color component corresponding portion 103 and an input-side intermediate layer illumination light component corresponding portion 104.
  • the input side intermediate layer test color component corresponding part 103 and the input side intermediate layer illumination light component corresponding part 104 have the same number of plural units. In this example, each has 4 units.
  • the input side intermediate layer test color component corresponding portion 103 is fully coupled to the input layer test color component corresponding portion 101. That is, each unit included in the input layer test color component corresponding portion 101 is combined with all units included in the input side intermediate layer test color component corresponding portion 103.
  • the input side intermediate layer illumination light component corresponding part 104 is fully coupled to the input layer illumination light component corresponding part 102. That is, each unit included in the input layer illumination light component corresponding part 102 is combined with all units included in the input side intermediate layer illumination light component corresponding part 104.
  • the output side intermediate layer has a plurality of units. In this example, it has 7 units.
  • the output side intermediate layer is fully coupled to the input side intermediate layer (the input side intermediate layer test color component corresponding portion 103 and the input side intermediate layer illumination light component corresponding portion 104). In other words, each unit included in the input-side intermediate layer is combined with all units included in the output-side intermediate layer.
  • the output layer has a plurality of units. In this example, we have 11 units.
  • Each of the 11 units corresponds to 11 basic category colors.
  • the output layer is fully connected to the output intermediate layer. In other words, each unit included in the output-side intermediate layer is combined with all units included in the output layer.
  • the input layer and the input side intermediate layer are divided into the test color component corresponding part and the illumination light component corresponding part, and no coupling relationship is provided between them. Independent of each other. For this reason, the input side intermediate layer separately transmits a signal group caused only by the test color component and a signal group caused only by the illumination light component. The test color correction using illumination light is performed on the output side intermediate layer.
  • test color component corresponding part and the illumination light component corresponding part share a combined load!
  • a common bond load is stored between the bonds corresponding to each other in structure, and is shared by the process for the test color component and the process for the illumination light component.
  • Input layer test color component corresponding part 101 The L unit, M unit, and S unit correspond to the L unit, M unit, and S unit of the input layer illumination light component corresponding portion 102 in structure.
  • the input side intermediate layer test color component corresponding part 103 a unit, b unit, c unit and d unit are respectively the input side intermediate layer illumination light component corresponding part 104 e unit, f unit, g unit and h unit. It corresponds in structure.
  • the L unit of the input layer test color component corresponding part 101 and the a unit of the input side intermediate layer test color component corresponding part 103 are combined with the L unit of the input layer illumination light component corresponding part 102 and the input side.
  • the structure corresponds to the coupling of the e unit of the intermediate layer illumination light component corresponding portion 104, and one common coupling load storage area is used as the coupling load data of both couplings.
  • the L of the input layer illumination light component corresponding part 102 Even when reading the coupling load related to the coupling between the unit and the e-unit of the input side intermediate layer illumination light component 104, it is configured to read and use the data of the common coupling load storage area force coupling load. And The input layer illumination light component corresponding part is also used when correcting the coupling load related to the connection between the L unit of the input layer test color component corresponding part 101 and the input side intermediate layer test color component corresponding part 103 a unit.
  • a sigmoid function is used as an input / output function of each unit of the input side intermediate layer, the output side intermediate layer, and the output layer.
  • the teacher data set used in this example was prepared by a psychophysical experiment that measured the perception of category colors under three types of illumination light. This experiment was performed by presenting 424 OSA color charts (example color samples) one by one on a gray board of N5 (Munsell color system) under illumination by a ceiling LCD projector.
  • Figure 2 shows the correlated color temperature and C IE (1931) xy chromaticity of the three types of illumination light used at this time.
  • Figure 3 shows the spectral distribution of these illumination lights.
  • the test color component of the input data of the teacher data set also converts the luminance 1 ⁇ 1111 of the 03 8-color chart measured under each illumination light (1931) chromaticity coordinates, y) force.
  • the obtained (X, Y, Z) was converted into L, M, and S cone response values using Smith-Pokorny cone spectral sensitivity function.
  • the illumination light component of the input data of the teacher data set was converted from the measured light values Lum and (X, y) to the (L, M, S) cone response values in the same way.
  • the obtained (L, M, S) obtained by normalizing between [0, 1] was used as input data.
  • connection between the input layer and the input-side intermediate layer is learned using the connection load shared by the connections corresponding to each other in the test color component corresponding part and the illumination light component corresponding part. .
  • a network is formed between the input layer and the input side intermediate layer so that the coupling load is the same in the test color component corresponding part and the illumination light color component corresponding part.
  • the correct answer rate 1 is the probability that the most powerful color name of the output of the Ural network matches the color name most frequently answered among the eight responses of psychophysical experiments
  • the correct answer rate 2 is- It is the probability that the most powerful color name of the output of the Ral network matches the color name that was answered in one of the eight responses of the psychophysical experiment
  • FIG. 7 shows the acquired joint weight of the -Eural network.
  • positive values are represented by solid lines and negative values are represented by broken lines.
  • size of a joint load is represented by the thickness of a line.
  • the contrasting neural network is a three-layer feedforward type neural network consisting of 6 input layers, 11 intermediate layers, and 11 output layers.
  • the A sigmoid function was used as the input / output function of the unit of the intermediate layer and the output layer.
  • the input layer is the same as the -Ural network according to the present invention.
  • the number of units in the intermediate layer was determined by learning the different-unitary network using the same learning data.
  • the unit of the output layer is the same as the -Ural network according to the present invention.
  • the coupling between the input layer and the intermediate layer is total coupling, and the coupling between the intermediate layer and the output layer is also complete coupling.
  • the teacher data set used was the same as that in the above-described experiment, and the corrected moment method of the error back-propagation method was used as the learning method as in the above-described experiment.
  • FIG. 9 is a diagram showing the verification results for the teacher data in the comparison experiment. It can be said that the verification result for the teacher data is good.
  • Fig. 10 shows the combined load of the acquired -Eural network.
  • FIG. 11 shows the verification results for the change of unknown illumination light, which was performed in the same manner as the above-described experiment.
  • a high accuracy rate is maintained with illumination light that is close to chromaticity to the illumination light used as the teacher data.
  • the accuracy rate decreases. You can see that it is closed. In particular, the correct answer power of DL5000K to DL6000K S is not good.
  • the input / output response of the unit in the intermediate layer was also examined in the experiment of the present invention.
  • the input value is created by changing the (x, y) chromaticity of the test color every 0.01, and the response of the intermediate unit at each brightness for each illumination light from the output value Asked. From the response of these intermediate units, we inferred what kind of internal expression each unit represents in human color vision. As a result, an intermediate unit that performs linear processing on the input was acquired in the input-side intermediate layer.
  • the output value changes when the illumination light input to most intermediate units changes, and in the case of all illumination light, a different output value is output for each test color input, A clear boundary that divides the color space is shown. In other words, there was no intermediate unit specific to the illumination light of the teacher data, and it became clear that robust correction was possible for general illumination light as a whole.
  • the illumination light component corresponding part and the test color component corresponding part are independently provided on the input side, and these coupling loads are shared, so that the input side intermediate layer
  • the visual signal processing by the illumination light component corresponding part of the image and the visual system signal processing by the test color component corresponding part of the input side intermediate layer are equivalent, and the signal group caused by the sample light and the signal group caused by the illumination light are perceived. This means that the global significance was unified and the correction of irradiation light in higher order perception was functionally realized.
  • Figure 12 shows the configuration for learning.
  • a learning neural network 1201 and a learning connection weight data storage unit 1202 are provided.
  • the learning neural network 1201 uses the above-described neural network according to the present invention for learning.
  • the learning connection weight data storage unit 1202 is a storage area for storing the connection weight acquired by the neural network according to the present invention.
  • the learning neural network 1201 has at least four layers: an input layer, an input-side intermediate layer, an output-side intermediate layer provided between the input-side intermediate layer and the output layer, and an output layer. is doing.
  • the input layer includes an input layer illumination light component corresponding part 102 for inputting the illumination light component in the experimental environment, and an input layer test color component corresponding part 101 for inputting the test color component reflected from the color sample by the illumination light. And have.
  • the input side intermediate layer is not combined with the input layer test color component corresponding part 101, but is combined with the input layer illumination light component corresponding part 102, and the input side intermediate layer illumination light component corresponding part 104 and the input layer illumination light component corresponding part
  • An input-side intermediate layer test color component corresponding portion 103 that is combined with the input layer test color component corresponding portion 101 without being combined with 102 is provided.
  • the output side intermediate layer is coupled to the input side intermediate layer illumination light component corresponding portion 104 and the input side intermediate layer test color component corresponding portion 103.
  • the output layer has units corresponding to the category colors. In the above example, four layers are used, but five or more layers may be used.
  • the added layers are between the input layer illumination light component corresponding portion 102 and the input side intermediate layer illumination light component corresponding portion 104, and between the input layer test color component corresponding portion 101 and the input side intermediate layer test color component corresponding portion 103. It can be considered to be provided in between.
  • the layer added as the illumination light component corresponding part and the layer added as the test color component corresponding part have the same number of units and have an equivalent coupling relationship. It is also possible to add them between the input-side intermediate layer and the output-side intermediate layer, or between the output-side intermediate layer and the output layer.
  • the learning connection load data storage unit 1202 includes a connection load related to the connection between the input layer illumination light component corresponding portion 102 and the input side intermediate layer illumination light component corresponding portion 104, and the input layer test color component corresponding portion 101. And the input side intermediate layer test color component corresponding part 103 have a common combined load storage area for storing a common combined load among the corresponding connections in terms of configuration. For other bond loads, use a dedicated bond load. Has a dedicated combined load storage area for storage!
  • FIG. 13 shows a configuration related to determination.
  • a judgment neural network 1301 and a judgment combined load data storage unit 1302 are provided.
  • the determination neural network 1301 uses the above-described neural network according to the present invention for determination.
  • the judgment connection weight data storage unit 1302 is an area for duplicating and storing the connection weight acquired by the learning connection weight data storage unit 1202. That is, the determination combined load data storage unit 1302 stores the same combined load data as the learning combined load data storage unit 1202.
  • the determination neural network 1301 inputs the ambient light component of the determination environment as the illumination light color component, and inputs the reflected color component of the determination target force under the determination environment as the test color component.
  • the neural network calculation processing is performed according to the coupling load stored in the coupling load data storage unit 1302, and the processing result is output so as to output a category color that the observer is expected to perceive from the determination target in the determination environment. To do.
  • the category color corresponding to the unit having the largest output value among the plurality of units in the output layer is output. That is, a category color determining unit that compares output values of a plurality of units in the output layer, identifies a category color assigned to the unit of the maximum output value, and outputs the category color is provided.
  • the categorical color perception system is a computer, and each element can execute processing by a program. Further, the program can be stored in a storage medium so that the storage medium power can be read by the computer.
  • the computer has a bus, an arithmetic device connected to the bus, a memory, a storage medium, an input device for inputting data, and an output device for outputting data.
  • the neural network for learning and the neural network for determination can be processed by a program stored in a storage medium, and each program is loaded into a memory via a storage medium power bus.
  • the arithmetic unit reads the program code loaded in the memory and sequentially executes the code processing.
  • the learning neural network and the determination neural network are provided separately.
  • the gorical color perception system further includes an illumination light component input unit 1203 for inputting illumination light components, a test component input unit 1204 for inputting test color components, and a category color.
  • Category color input unit 1205 for inputting information to be input
  • ambient light input unit 1303 for inputting environmental light components of the judgment environment
  • reflected color component input unit 1304 for inputting components of reflected colors from the judgment target in the judgment environment
  • a power category color output unit 1306 is provided for outputting information specifying the category color.
  • a combined load data replication unit 1206 for replicating the combined load data from the learning combined load data storage unit 1202 to the determination combined load data storage unit 1302 is also provided.
  • the configuration related to learning in the categorical color perception system shown in FIG. 12 and the configuration related to determination in the categorical color perception system shown in FIG. 13 may be separate computers. In that case, the combined load data is transferred to the computer having the configuration related to the learning via the portable storage medium or the communication medium.
  • the computer having the configuration related to learning has the combined load data output unit 1207 that reads out and outputs the combined load data from the learning combined load data storage unit 1202, and the computer having the configuration related to the determination includes the combined load data.
  • the purpose of this system is to identify, as a category, the original color of the determination target that excludes the influence of each ambient light under various ambient light.
  • the following describes the features of this system's configuration and the achievement of this objective through the action of those features.
  • connections have the function of expanding the light component input to the input layer into a new space component of the coordinate system by the input side intermediate layer.
  • there are three input light components (L cone response value, M cone response value, S cone response value), and the input light component in the 3D space is converted to another 4D component. It is converted to the space component of the coordinate system.
  • the L cone response value and the M cone response value show a relatively close wavelength distribution, but the S cone response value is far from the L cone response value and the M cone response value. It is known to have Therefore, it is presumed that the space due to the component of the input light is uneven in the spatial density depending on the spectral region.
  • the input side intermediate layer illumination light component corresponding part and the input side intermediate layer test color component corresponding part are provided in order to obtain a coordinate system in which the spatial density is uniform in the entire spectral region for the illumination light and the test color. As shown in Fig. 6, it is presumed that it is due to this configuration that good judgment results can be obtained for illumination light of any spectrum from DL5000K to DL20000K.
  • the optimum form is increased by one dimension, the three-dimensional force, the force converted to the higher four-dimensional force, and even when converted to the higher dimension or the same dimension, the spatial density is increased in the entire spectral region. It can be expected to obtain a uniform coordinate system.
  • the number of units corresponding to the input-side intermediate layer illumination light component (the number of units corresponding to the input-side intermediate layer test color component) is the same.
  • the effect of the present invention can be obtained in two or more forms or the same number of forms.
  • the illumination light and the test color are converted into space components in the same coordinate system. That is, the same type of units corresponding to the configuration of the input side intermediate layer illumination light component corresponding part and the input side intermediate layer test color component corresponding part (for example, 103 a and 104 e in FIG. 1, or b and f in FIG. 1). Indicates the same coordinate axes. In this way, by developing the illumination light and the test color in the same coordinate system space, it becomes easier to obtain a mechanism that eliminates the influence of the illumination light.
  • the converted test color component force of the input side intermediate layer is expected to obtain the original color component of the color sample by subtracting the illumination light component as well as eliminating the influence of the illumination light. . To do so, cancel the test color component with the same component of the illumination light. It is presumed that the operation to be performed is performed. As shown in Figure 7,
  • Unit b on the output side intermediate layer has a negative connection with the unit corresponding to the input side intermediate layer test color component corresponding part, and a positive connection with unit g corresponding to the structure of the part corresponding to the input side intermediate layer illumination light component.
  • Unit d on the output side intermediate layer has a positive coupling with unit a corresponding to the input side intermediate layer test color component, and a negative combination with unit e corresponding to the configuration of the input side intermediate layer illumination light component corresponding portion.
  • Unit e on the output side intermediate layer has a negative connection with the unit corresponding to the input side intermediate layer test color component, and a positive connection with unit f corresponding to the structure of the input side intermediate layer illumination light component corresponding part. Offset.
  • Unit f on the output side intermediate layer has a negative connection with the unit corresponding to the input side intermediate layer test color component corresponding part, and a positive connection with unit g corresponding to the structure of the input side intermediate layer illumination light component corresponding part.
  • the output side intermediate layer unit g has a positive coupling with the unit corresponding to the input side intermediate layer test color component corresponding part, and a negative connection with the unit g corresponding to the input side intermediate layer illumination light component corresponding part configuration.
  • the output side intermediate layer obtains the original color component as described above, and by connecting the input side intermediate layer and the output layer respectively, realizes a high-dimensional determination mechanism that associates the color component with the basic category color. It is estimated that In order to cancel each component as described above, that is, to cancel the coupling with the unit corresponding to the input side intermediate layer test color component by canceling the coupling with the unit corresponding to the input side intermediate layer illumination component, It is considered that the number of layer units needs to be at least the number of components, that is, the number of units corresponding to the input side intermediate layer test color component (the same number of units corresponding to the input side intermediate layer illumination light component).
  • FIG. 14 is a diagram showing the configuration of a robot to which the categorical color perception system is applied.
  • the robot has an ambient light input camera unit 1401 that captures ambient light as the robot's eyes, and an ambient light color component sensor unit 1402 that extracts the ambient light component from the output signal power of the ambient light input camera unit 1401.
  • An object shooting camera unit 1403 that captures reflected light of the determination target object, a determination target reflection color component sensor unit 1404 that extracts a color component from the output signal of the object shooting camera unit 1403, and an ambient light color Component sensor unit 1402 output signal and cut target reflection color Component sensor unit 1404 output signal is input to determine the category color of the object to be judged Legal color perception system 1405, robot controller 1406 for controlling the robot, robot It has a robot drive unit 1407 that inputs control information from the control unit 1406 and drives an operation device such as a motor.
  • the operation is as follows.
  • the ambient light input camera unit 1401 captures ambient light and outputs an ambient light reception signal as an output signal.
  • the ambient light color component sensor unit 1402 receives the output signal output from the ambient light input camera unit 1401 and extracts the color component of ambient light from the output signal.
  • the object photographing camera unit 1403 captures the reflected light of the determination target and outputs a light reception signal of the reflected light of the determination target as an output signal.
  • the judgment target reflected color component sensor part 1404 receives the output signal output from the object photographing camera unit 1403 and extracts the color component of the reflected light from the output signal.
  • the categorical color perception system 1405 receives the ambient light color component output from the ambient light color component sensor unit 1402 and the reflected light color component output from the judgment target reflected color component sensor unit 1404. As described above, the category color of the determination object is determined.
  • the robot control unit 1406 receives a category color that is an output of the categorical color perception system 1405, and generates a control signal for controlling the robot according to the category color.
  • the robot drive unit 1407 inputs the control signal that is the output of the robot control unit 1406 and outputs the control signal. Therefore, an operating device such as a motor is driven.
  • this robot uses the categorical color perception system 1405 according to the present invention, it can perform color discrimination similar to that of human eyes in various environments. For example, even if the ambient light is not uniform, it is possible to track or grasp the moving body of the specified category color.
  • FIG. 15 is a diagram showing a configuration of a surveillance camera system to which the categorical color perception system is applied.
  • the surveillance camera system includes an ambient light input camera unit 1401, an ambient light color component sensor unit 1402, an object photographing camera unit 1403, a judgment target reflected color component sensor unit 1 404, and a categorical color as described above.
  • the monitoring power control unit 1501 that controls the surveillance camera
  • the video recording unit 1502 that records the video captured by the object shooting camera unit 1403, and the control signal output from the surveillance camera control unit 1501
  • An alarm generation unit 1503 for generating an alarm and an information recording unit 1504 for recording a recognition result output from the surveillance camera control unit 1501 are provided.
  • the operation is as follows.
  • the ambient light input camera unit 1401 captures ambient light and outputs an ambient light reception signal as an output signal.
  • the ambient light color component sensor unit 1402 receives the output signal output from the ambient light input camera unit 1401 and extracts the color component of ambient light from the output signal.
  • the object photographing camera unit 1403 captures the reflected light of the determination object, and outputs a light reception signal of the reflected light of the determination object as an output signal.
  • the judgment target reflected color component sensor part 1404 receives the output signal output from the object photographing camera unit 1403, and extracts the color component of the reflected light from the output signal.
  • the categorical color perception system 1405 receives the ambient light color component output from the ambient light color component sensor unit 1402 and the reflected light color component output from the judgment target reflected color component sensor unit 1404. As described above, the category color of the determination object is determined.
  • the surveillance camera control unit 1501 is a categorical output that is an output of the categorical color perception system 1405. A recolor is input, and a control signal for controlling the surveillance camera according to the category color is generated. For example, when outputting an alarm instruction as a control signal, the alarm generation unit 1503 generates an alarm according to the alarm instruction. Further, when the control signal outputs a recognition result, the information recording unit 1504 records the recognition result.
  • this surveillance camera system uses the categorical color perception system 1405 according to the present invention, color discrimination similar to that of human eyes can be performed in various environments. For example, even when the ambient light is not like, when an object with the indicated category color (for example, a person wearing red clothes) is recognized, an alarm can be generated or the recognition result can be recorded. Become.
  • FIG. 16 is a diagram showing a configuration of a first example of a color coordination simulation system to which a categorical color perception system is applied.
  • the color coordination simulation system is similar to the above-described object photographing camera unit 1403, judgment target reflection color component sensor unit 1404, and categorical color perception system 1405.
  • Ambient light information input from the degeneration simulation control unit 1603 also displays the ambient light color component generation unit 1602 that generates the ambient light color component, the input unit 1601 that inputs information specifying the ambient light, and displays the simulation results, etc.
  • a display portion 1604 is provided.
  • the operation is as follows.
  • the input unit 1601 inputs ambient light designation information.
  • the ambient light color component generation unit 1602 converts ambient light designation information into ambient light color components.
  • the object photographing camera unit 1403 captures the reflected light of the determination target and outputs a light reception signal of the reflected light of the determination target as an output signal.
  • the judgment target reflected color component sensor part 1404 receives the output signal output from the object photographing camera unit 1403, and extracts the color component of the reflected light from the output signal.
  • the categorical color perception system 1405 includes an environmental light color component equivalent to the environmental light output from the environmental light color component generation unit 1602 and an output from the judgment target reflection color component sensor unit 1404. Input the color component of reflected light, which is a force, and determine the category color of the determination target as described above
  • FIG. 7 is a diagram showing a configuration of a second example of a color coordinate simulation system to which the categorical color perception system is applied.
  • the input unit 1601 inputs information for designating ambient light and information for designating reflected light of the determination target.
  • the ambient light color component generation unit 1602 converts ambient light designation information into ambient light color components.
  • the determination target reflected color component generation unit 1701 converts the designation information of the reflected light of the determination target into the color component of the reflected light.
  • the categorical color perception system 1405 includes an ambient light color component equivalent to the ambient light output from the ambient light color component generation unit 1602 and a reflected light output from the determination target reflected color component generation unit 1701. And the category color of the determination target is determined as described above.
  • FIG. 1 is a diagram showing a neural network configuration according to the present invention.
  • FIG. 2] -It is a diagram showing the chromaticity of the illumination light used for learning of the Ural network.
  • FIG. 3 -A diagram showing a spectral distribution of illumination light used for learning of the Ural network.
  • FIG. 4 is a diagram showing verification results for teacher data in an experiment of the present invention.
  • FIG. 5 is a diagram showing a spectral distribution of Daylight data.
  • FIG. 6 is a diagram showing a verification result for unknown illumination light in the experiment of the present invention.
  • FIG. 7 is a diagram showing a -Ural network coupling load in an experiment of the present invention.
  • FIG. 8 A diagram showing a configuration of a Yural network related to a comparison experiment.
  • FIG. 9 is a diagram showing verification results for teacher data in a comparison experiment.
  • FIG. 10 is a diagram showing a -Eural network coupling weight in a contrast experiment.
  • FIG. 11 is a diagram showing a verification result for unknown illumination light in a comparison experiment.
  • FIG. 12 is a diagram showing a configuration related to learning in the categorical color perception system.
  • FIG. 13 is a diagram showing a configuration related to determination in a categorical color perception system.
  • FIG. 14 is a diagram showing a configuration of a robot to which a categorical color perception system is applied.
  • FIG. 15 is a diagram showing a configuration of a surveillance camera system to which a categorical color perception system is applied.
  • FIG. 16 is a diagram showing a configuration of a first example of a color coordinate simulation system to which a categorical color perception system is applied.
  • FIG. 17 is a diagram showing a configuration of a second example of a color coordination simulation system to which a categorical color perception system is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

 自動的にカテゴリ色を判定するカテゴリカル色知覚システムに係り、多様な環境光の下で正確にカテゴリ色を判定することを課題とする。学習用神経回路網の入力層テスト色成分対応部分101に実験時に計測したテスト色を入力し、入力層照明光成分対応部分102に実験時の照明光成分を入力し、被験者が判定したカテゴリ色を出力するように、誤差逆伝播法で学習させて結合荷重を獲得する。入力層テスト色成分対応部分101と入力側中間層テスト色成分対応部分103の間の構成と、入力層照明光成分対応部分102と入力側中間層照明光成分対応部分104の間の構成は独立しているが、構造上対応する結合同士の荷重は同じにする。

Description

明 細 書
カテゴリカル色知覚システム 技術分野
[0001] 本発明は、自動的にカテゴリ色を判定するカテゴリカル色知覚システムに係り、多 様な環境の下で正確に判定できる技術に関する。
背景技術
[0002] 我々人間は、色の微妙な違いを見分けることができる力 その色を他者に伝えようと するときには、赤 ·青などのように色を 、くつかのカテゴリにまとめて表現することが多 い。これを色のカテゴリカル知覚という。このように、具体的な色から特定の色名を普 遍的に導き出せることは、物を識別し、あるいは標識など力も指示を認知するなど社 会的にも重要なことである。
[0003] このカテゴリカル知覚に関して、言語や人に因らず等しく用いられる基本カテゴリ色 力 Sあることも知られている。 Berlin and Kayは、 100種類以上の言語を調べて白' 赤 '緑'黄 '青'茶 '橙'紫 '祧'灰 '黒の 11色が基本カテゴリ色であることを示した。また
、チンパンジーの行動実験でも同様のことが示されている。このことから、基本カテゴ リ色名は、他の色名と違い、視覚系にその色名に対応するメカニズムが存在する可 能性があると考えられる。
[0004] 一方、我々人間は、環境光のスペクトルに応じて物体からの反射スペクトルが変化 しても、物体固有の色を安定して知覚することができる。これを色恒常性という。
[0005] 従って、多様な環境下で物体の色の見えがどのカテゴリ色となるかは、その物体の 反射光スペクトルだけではなぐ周囲の環境にも影響され、色恒常性を伴って決まる と言える。
非特許文献 1 :竹部 啓輔、外 3名, 「色恒常性を有するディジタルカラーイメージング 」,電子情報通信学会論文誌 D— Π,電子情報通信学会, 2000年 8月, Vol. J83— D-II No. 8, p. 1753- 1762
非特許文献 2 :鈴木 哲明他、外 4名, 「ニューラルネットワークによる色のカテゴリカル 知覚の学習」,映像情報メディア学会技術報告,映像情報メディア学会, 1999年, 第 23卷,第 29号, p. 19- 24
発明の開示
発明が解決しょうとする課題
[0006] そこで、本発明は、多様な環境の下でも、正確にカテゴリ色を判定し得るカテゴリ力 ル色知覚システムを提供することを目的とする。
課題を解決するための手段
[0007] 本発明に係るカテゴリカル色知覚システムは、判定環境における環境光の成分と、 当該判定環境下での判定対象力 の反射色の成分とを入力し、観察者が当該判定 環境下で当該判定対象力 知覚すると予測される、カテゴリ化された色名であるカテ ゴリ色を出力するカテゴリカル色知覚システムであって、以下の要素を有することを特 徴とする
(1)少なくとも入力層と、入力側中間層と、前記入力側中間層と出力層の間に設けら れた出力側中間層と、出力層の 4層を有し、入力層は、実験環境における照明光の 成分を入力する入力層照明光成分対応部分と、当該照明光による色サンプル力 の 反射であるテスト色の成分を入力する入力層テスト色成分対応部分とを有し、入力側 中間層は、入力層テスト色成分対応部分と結合せずに入力層照明光成分対応部分 と結合する入力側中間層照明光成分対応部分と、入力層照明光成分対応部分と結 合せずに入力層テスト色成分対応部分と結合する入力側中間層テスト色成分対応 部分とを有し、出力側中間層は、入力側中間層照明光成分対応部分及び入力側中 間層テスト色成分対応部分と結合し、出力層は、カテゴリ色に対応する構成の学習 用神経回路網に、学習用の照明光色成分と学習用のテスト色成分とを入力し、当該 照明光の下で当該色サンプル力 被験者が知覚した学習用のカテゴリ色を出力する ように、誤差逆伝播法で学習させて得られた結合荷重を記憶した判定用結合荷重デ ータ記憶部
(2)前記学習用神経回路網と同様の構成を有し、判定環境の環境光の成分を照明 光色成分として入力し、当該判定環境下での判定対象力 の反射色の成分をテスト 色成分として入力し、判定用結合荷重データ記憶部に記憶した結合荷重に従つて神 経回路網演算処理を行い、処理結果として、観察者が当該判定環境下で当該判定 対象力 知覚すると予測されるカテゴリ色を出力する判定用神経回路網。
[0008] 更に、学習用神経回路網及び判定用神経回路網は、入力層照明光成分対応部分 及び入力層テスト色成分対応部分力 同じ方式の色成分を入力する同数のユニット を有し、入力側中間層照明光成分対応部分及び入力側中間層テスト色成分対応部 分が、同数のユニットを有し、入力層照明光成分対応部分と入力側中間層照明光成 分対応部分の間の結合に係る結合荷重と、入力層テスト色成分対応部分と入力側 中間層テスト色成分対応部分の間の結合に係る結合荷重とは、構成上対応する結 合同士で共用の結合荷重を用いることを特徴とする。
[0009] 更に、入力側中間層照明光成分対応部分のユニット数及び入力側中間層テスト色 成分対応部分のユニット数は、入力層照明光成分対応部分のユニット数及び入力層 テスト色成分対応部分のユニット数以上であることを特徴とする。
[0010] 更に、入力層照明光成分対応部分のユニット数及び入力層テスト色成分対応部分 のユニット数は 3であり、入力側中間層照明光成分対応部分のユニット数及び入力 側中間層テスト色成分対応部分のユニット数は 4であることを特徴とする。
[0011] 更に、出力側中間層のユニット数は、入力側中間層照明光成分対応部分のュニッ ト数及び入力側中間層テスト色成分対応部分のユニット数以上であることを特徴とす る。
[0012] 更に、出力側中間層のユニット数は、出力層のユニット数以下であることを特徴とす る。
[0013] 更に、入力側中間層照明光成分対応部分のユニット数及び入力側中間層テスト色 成分対応部分のユニット数は 4であり、出力側中間層のユニット数は 7であり、出力層 のユニット数は 11であることを特徴とする。
[0014] ロボットは、以下の要素を有することを特徴とする
(1)環境光を撮り込み、環境光の受光信号を第一の出力信号として出力する環境光 入力用カメラ部
(2)第一の出力信号を入力し、第一の出力信号から環境光の色成分を抽出する環 境光色成分センサー部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を第二の出 力信号として出力する対象物撮影用カメラ部
(4)第二の出力信号を入力し、第二の出力信号から反射光の色成分を抽出する判 断対象反射色成分センサー部
(5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定するカテゴリカル色知覚システム
(6)カテゴリ色を入力し、カテゴリ色に基づいてロボットを制御する制御信号を生成す るロボット制御部
(7)制御信号を入力し、制御信号に従って動作装置を駆動するロボット駆動部。
[0015] 監視カメラシステムは、以下の要素を有することを特徴とする
(1)環境光を撮り込み、環境光の受光信号を第一の出力信号として出力する環境光 入力用カメラ部
(2)第一の出力信号を入力し、第一の出力信号から環境光の色成分を抽出する環 境光色成分センサー部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を第二の出 力信号として出力する対象物撮影用カメラ部
(4)第二の出力信号を入力し、第二の出力信号から反射光の色成分を抽出する判 断対象反射色成分センサー部
(5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定するカテゴリカル色知覚システム
(6)カテゴリ色を入力し、カテゴリ色に基づ 、て監視カメラシステムを制御する制御情 報を生成する監視カメラ制御部。
[0016] 色彩コーディネートシュミレーシヨンシステムは、以下の要素を有することを特徴とす る
(1)環境光の指定情報を入力する入力部
(2)環境光の指定情報を環境光の色成分に変換する環境光色成分生成部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を出力信号 として出力する対象物撮影用カメラ部
(4)出力信号を入力し、出力信号から反射光の色成分を抽出する判断対象反射色 成分センサー部
(5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定するカテゴリカル色知覚システム。
[0017] 色彩コーディネートシュミレーシヨンシステムは、以下の要素を有することを特徴とす る
(1)環境光の指定情報と判定対象物の反射光の指定情報を入力する入力部
(2)環境光の指定情報を環境光の色成分に変換する環境光色成分生成部
(3)判定対象物の反射光の指定情報を反射光の色成分に変換する判断対象反射 色成分生成部
(4)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定するカテゴリカル色知覚システム。
発明の効果
[0018] ニューラルネットワークの構造として、入力側に照明光成分対応部分とテスト色成分 対応部分を独立的に設け、更にこれらの結合荷重を共通化しているので、入力側中 間層の照明光成分対応部分による視覚系信号処理と、入力側中間層のテスト色成 分対応部分による視覚系信号処理が同等となり、サンプル光に起因する信号群と照 明光に起因する信号群の知覚的な意義が統一され、高次知覚における照射光の補 正を機能的に実現できる。これにより、多様な環境下でも正確に基本カテゴリ色を判 定できる。
発明を実施するための最良の形態
[0019] 実施の形態 1.
まず、ニューラルネットワークの構造について説明する。学習に用いた階層型-ュ 一ラルネットワークの構成を図 1に示す。図に示すように 4層(入力層、入力側中間層 、出力側中間層、出力層)のフィードフォワード型-ユーラルネットワークである。
[0020] 入力層は、入力層テスト色成分対応部分 101と入力層照明光成分対応部分 102 力 なる。両部分ともに、 3種類の錐体 (L, M, S)に相当する 3ユニットを有している。 そして、入力層テスト色成分対応部分 101の各ユニットには、色サンプルに照明光を 照らして得られる反射光 (テスト色)に対する錐体応答値を入力する。入力層照明光 成分対応部分 102の各ユニットには、照明光に対する錐体応答値を入力する。
[0021] また、入力側中間層は、入力側中間層テスト色成分対応部分 103と入力側中間層 照明光成分対応部分 104からなる。入力側中間層テスト色成分対応部分 103と入力 側中間層照明光成分対応部分 104は、同数の複数ユニットを有している。この例で は、それぞれ 4個のユニットを有している。そして、入力側中間層テスト色成分対応部 分 103は、入力層テスト色成分対応部分 101と全結合している。つまり、入力層テスト 色成分対応部分 101に含まれる各ユニットは、入力側中間層テスト色成分対応部分 103に含まれるすべてのユニットと結合している。また、入力側中間層照明光成分対 応部分 104は、入力層照明光成分対応部分 102と全結合している。つまり、入力層 照明光成分対応部分 102に含まれる各ユニットは、入力側中間層照明光成分対応 部分 104に含まれるすべてのユニットと結合して 、る。
[0022] 出力側中間層は、複数のユニットを有している。この例では、 7個のユニットを有して いる。出力側中間層は、入力側中間層(入力側中間層テスト色成分対応部分 103及 び入力側中間層照明光成分対応部分 104)と全結合している。つまり、入力側中間 層に含まれる各ユニットは、出力側中間層に含まれるすべてのユニットと結合して ヽ る。
[0023] 出力層は、複数のユニットを有して 、る。この例では、 11個のユニットを有して 、る。
11個の各ユニットは、 11色の基本カテゴリ色に対応している。そして、出力層は、出 力側中間層と全結合している。つまり、出力側中間層に含まれる各ュ -ットは、出力 層に含まれるすべてのユニットと結合して 、る。
[0024] このように、入力層と入力側中間層は、テスト色成分対応部分と照明光成分対応部 分に分割され、それぞれの間で結合関係を設けていない。互いに独立している。この ため、入力側中間層では、テスト色成分にのみ起因する信号群と、照明光成分にの み起因する信号群とを別々に伝達する。そして、照明光によるテスト色に対する補正 は、出力側中間層で行なう。
[0025] また、テスト色成分対応部分と照明光成分対応部分では、結合荷重を共有して!/ヽる 。互いに構造上対応する結合同士で、共通の結合荷重を記憶し、テスト色成分に対 する処理と照明光成分に対する処理で共用する。入力層テスト色成分対応部分 101 の Lユニットと Mユニットと Sユニットは、それぞれ入力層照明光成分対応部分 102の Lユニットと Mユニットと Sユニットと構造上対応している。また、入力側中間層テスト色 成分対応部分 103の aユニットと bユニットと cユニットと dユニットは、それぞれ入力側 中間層照明光成分対応部分 104の eユニットと fユニットと gユニットと hユニットと構造 上対応している。従って、例えば入力層テスト色成分対応部分 101の Lユニットと入 力側中間層テスト色成分対応部分 103の aユニットの結合は、入力層照明光成分対 応部分 102の Lユ ットと入力側中間層照明光成分対応部分 104の eユ ットの結合 と、構造上対応しており、両結合の結合荷重のデータとして 1つの共通の結合荷重記 憶領域を用いる。入力層テスト色成分対応部分 101の Lユニットと入力側中間層テス ト色成分対応部分 103の aユニットの間の結合に係る結合荷重を読み出す場合にも 、入力層照明光成分対応部分 102の Lユニットと入力側中間層照明光成分対応部 分 104の eユニットの間の結合に係る結合荷重を読み出す場合にも、共用の結合荷 重記憶領域力 結合荷重のデータを読み出して用いるように構成されて 、る。また、 入力層テスト色成分対応部分 101の Lユニットと入力側中間層テスト色成分対応部 分 103の aユニットの間の結合に係る結合荷重を修正する場合にも、入力層照明光 成分対応部分 102の Lユニットと入力側中間層照明光成分対応部分 104の eユニット の間の結合に係る結合荷重を修正する場合にも、共用の結合荷重記憶領域力 結 合荷重のデータを読出し、当該データに修正量を加減算して、同じ共用の結合荷重 記憶領域に書き戻すように構成されて 、る。
[0026] なお、入力側中間層と出力側中間層と出力層の各ユニットの入出力関数には、シ グモイド関数を用いる。
[0027] ニューラルネットワークの学習に用いた学習データについて説明する。本実施例で 用いた教師データセットは、 3種類の照明光下でのカテゴリ色の知覚を測定した心理 物理実験により用意した。この実験は、天井の LCDプロジェクタによる照明下で、 N5 (マンセル表色系)の灰色のボード上に 424枚用意した OSA色票(色サンプルの例) を 1枚ずつ提示して行なった。このとき用いた 3種類の照明光の相関色温度および C IE (1931) xy色度を図 2に示す。また、これらの照明光の分光分布を図 3に示す。
[0028] 提示刺激の色の見えはカテゴリカルカラーネーミング法で測定した。これは、 11個 の基本カテゴリ色の中から、照明光下でのその色票の見えをもっとも良く表す色名を
1個答えるという方法である。被験者は 4名で、それぞれ色票 424枚に対してのネーミ ングを 1セッションとして、同一照明光で 2回のセッションを行い、 3照明光 X 2回 =6 セッションを行った。これにより、教師データセットには、 3照明光 X 424枚 = 1272セ ットを用意し 7こ。
[0029] 教師データセットの入力データのテスト色成分は、それぞれの照明光下で測定され た 03八色票の輝度1^1111とじ正(1931) 色度座標 , y)力も変換する。まず、下式 に従って XYZ表色系の値 (X, Y, Z)へ変換する。
X= (x/y) X Lum
Y=Lum
Z= ( (l -x-y) /y) X Lum
次に、得られた (X, Y, Z)を Smith— Pokornyの錐体分光感度関数を用いて L、 M、 S錐体応答値へ変換した。教師データセットの入力データの照明光成分は、照 明光の測定値 Lumと (X, y)から同様にして (L, M, S)錐体応答値へ変換した。ここ で得られた (L, M, S)を [0, 1]の間に正規ィ匕したものを入力データに用いた。
[0030] 出力の教師データには、実験で得られた結果の 4名 X 2セッション =8回の回答中 で、ある色票の見えに対してある基本色名が何度用いられたかを表す色名使用比率 を、 [0, 1]に正規ィ匕した実数値を用いた。
[0031] 次に、学習方法について説明する。以上のようにして作成した教師データセットを 用いて、上述の-ユーラルネットワークの学習を行った。学習には誤差逆伝播法の修 正モーメント法を用いた。このような教師データをネットワークに学習させることで、二 ユーラルネットワークは人間の脳が行っている LMS錐体応答力 基本カテゴリ色名 への写像を計算課題として学習する。
[0032] 本発明では、前述のように入力層と入力側中間層の結合について、テスト色成分 対応部分と照明光成分対応部分で構造上対応する結合同士で共有する結合荷重 を用いて学習する。その結果、入力層と入力側中間層の間では、テスト色成分対応 部分と照明光色成分対応部分で結合荷重が同じになるネットワークが形成される。
[0033] 学習結果について説明する。この学習が正しく行われたことを確認するために、学 習データセットと同じ入力値を、獲得した-ユーラルネットワークに入力して出力を確 認した。このときの出力値と教師データとの誤差、及び出力色名の正解率を図 4に示 す。平均二乗誤差とは-ユーラルネットワークの出力値と教師データの誤差の二乗を 平均したものである。出力色名の正解率とは、ニューラルネットワークの出力値が最 大になったユニットの対応する色名と心理物理実験における回答の全 1272データ 中での一致率を表すものである。正解率 1とは-ユーラルネットワークの出力の一番 大き力つた色名が心理物理実験の回答 8回のうちもっとも多く答えられた色名と一致 した確率であり、正解率 2とは-ユーラルネットワークの出力の一番大き力つた色名が 心理物理実験の回答 8回のうちのいずれかで答えられた色名と一致した確率である
[0034] また、実験に用いた 3つの照明光以外の照明光に対する検証を行なった。これは、 未知データに対する出力の検証であって、獲得した-ユーラルネットワークの性能の 評価に役立つ。未知の照明光として、色温度力 000Κ〜20000Κの 10種類の Day lightデータを用いた。 Daylightデータの分光分布を図 5に示す。このときの出力結 果の正解率を求めるために前述の心理物理実験の結果を各色票の色名の正解とし て用!/、、 5000K:〜 6000Kの出力結果 ίま 3000K力 6500Kの実験結果の!/、ずれ力 と一致したものを正解とした。同様に、 7000 :〜 20000Κの出力結果は 6500Κ力 2 5000Κの場合、 6500Κの出力結果は 6500Κの場合と一致したものを正解とした。 図 6より、すべての照明光条件に対して高い正解率の出力ができる-ユーラルネット ワークが獲得できたことが分かる。
[0035] 図 7に、獲得した-ユーラルネットワークの結合荷重を示す。ここでは、プラスの値を 実線で、マイナスの値を破線で表す。また、結合荷重の大きさを線の太さで表す。
[0036] また、本発明に係る-ユーラルネットワークの有効性を調べるために、別の-ユーラ ルネットワークについても同様の実験を行なった。照明光の変化に対して十分に適 応できて ヽな 、別の-ユーラルネットワークと対比して、本発明に係る-ユーラルネッ トワークが照明光の変化に頑健なモデルであることを明らかにする。
[0037] 対比するニューラルネットワークは図 8に示すように 3層のフィードフォワード型ニュ 一ラルネットワークで、入力層 6ユニット、中間層 11ユニット、出力層 11ユニットからな る。中間層と出力層のユニットの入出力関数には、シグモイド関数を用いた。
[0038] 入力層は、本発明に係る-ユーラルネットワークと同様である。中間層のユニット数 は予備実験として、同じ学習データを用いて中間ユニット数の異なる-ユーラルネット ワークの学習を行い決定した。予備実験の結果力 平均二乗誤差の小さくなるュ-ッ ト数を選び、中間ユニット数 11ユニットのネットワークを用いることとした。出力層のュ ニットは、本発明に係る-ユーラルネットワークと同様である。
[0039] 入力層と中間層の間は、全結合であり、中間層と出力層の間も、全結合である。
[0040] 教師データセットは、前述の実験と同様のものを用い、学習方法として、前述の実 験と同様に誤差逆伝播法の修正モーメント法を用いた。
[0041] 対比実験の実験結果を示す。図 9は、対比実験における教師データに対する検証 結果を示す図である。教師データに対する検証結果は、良好な結果が得られている と言える。尚、獲得した-ユーラルネットワークの結合荷重を図 10に示す。
[0042] 前述の実験と同様に行なった未知照明光の変化に対する検証結果を図 11に示す 。教師データとして用いた照明光に色度の近い照明光では高い正解率を保っている が、教師データと教師データの間の色度を持つ照明光を用 、たときに正解率が下が つてしまっていることが分かる。特に、 DL5000K〜DL6000Kの正解率力 S良くない。
[0043] 比較実験で獲得した-ユーラルネットワークに対して、照明光(3000K, 6500K, 2 5000K: 3種)と輝度(Lum= 5, 10, 30, 50, 75 [cd/m2]: 5種)毎に、テス卜色の (X, y)色度で 0. 01毎に変化させて入力値を作成し、その出力値より照明光毎のそ れぞれの輝度にぉ 、ての中間ユニットの応答を求めた。この中間ユニットの応答から 、ニューラルネットワークがどのようにしてカテゴリカル知覚を実現して 、るかを推定し た。その結果、比較実験の照明光の変化に対する検証結果で、教師データで用いた 照明光から色度の遠い照明光(DL5000K〜DL6000K等)を未知データとして用 V、た場合に、色名の正解率が低!、理由につ 、て推測できた。
[0044] 比較実験の中間層のユニットの出力応答を見てみると、入力される照明光が変化し たときに出力値が変わるものは 2つのみであり、しかも、ある照明光の時のみテスト色 の入力毎に違う出力値を出す力 その他の照明光の時にはテスト色の入力によらず 一定の出力となっている。つまり、一見照明光に応答しているように思われる中間ュ ニットは、いずれも教師データの照明光に特ィ匕したものであって、他の照明光に対し て反応して ヽな 、ものであった。
[0045] このことは、照明光の補正に関して、教師データとして用いた 3種類の照明光に特 化した中間ユニットを獲得することが、ニューラルネットワークの誤差逆伝播法による 学習として最も効率的であったことを意味し、未知の照明光での正解率が低い評価 結果と合致する。
[0046] そこで、本発明の実験についても中間層のユニットの入出力応答を調べた。本発明 の実験で得られた-ユーラルネットワークに対して、照明光(3000K, 6500K, 250 001^: 3種)と輝度(1^1111= 5, 10, 30, 50, 75 [cdZm2] : 5種)毎に、テスト色の(x , y)色度で 0. 01毎に変化させて入力値を作成し、その出力値より照明光毎のそれ ぞれの輝度においての中間ユニットの応答を求めた。この中間ユニットの応答から、 それぞれのユニットが人間の色覚のどのような内部表現を表しているの力推測した。 その結果、入力側中間層では、入力に対して線形な処理を行う中間ユニットが獲得 されていた。また、出力側中間層ではほとんどの中間ユニットが入力される照明光が 変化したときに出力値が変わり、さらにすベての照明光の場合においてテスト色の入 力毎に違う出力値を出し、色空間を分割するようなはっきりとした境界線を示した。つ まり、教師データの照明光に特ィ匕する中間ユニットは出現せず、全体として一般的な 照明光に対して頑健な補正が行えるようになつていることがわ力つた。
[0047] このことは、図 6に示す本発明の実験結果において、対比実験で正解率が低かつ た未知の照明光(DL5000K〜DL6000K等)での正解率が高いことによつても裏付 けられる。
[0048] 本発明では、ニューラルネットワークの構造として、入力側に照明光成分対応部分 とテスト色成分対応部分を独立に設け、更にこれらの結合荷重を共通化して 、るの で、入力側中間層の照明光成分対応部分による視覚系信号処理と、入力側中間層 のテスト色成分対応部分による視覚系信号処理が同等となり、サンプル光に起因す る信号群と照明光に起因する信号群の知覚的な意義が統一され、高次知覚におけ る照射光の補正を機能的に実現できたことを意味する。
[0049] このように、比較実験との対比により本発明の-ユーラルネットワークが頑健な知覚 系メカニズムを獲得したことがわかる。
[0050] 最後に、カテゴリカル色知覚システムの構成について説明する。図 12に、学習に係 る構成を示す。学習用神経回路網 1201と学習用結合荷重データ記憶部 1202を有 している。学習用神経回路網 1201は、前述の本発明に係る神経回路網を学習用と して用いるものである。学習用結合荷重データ記憶部 1202は、前述の本発明に係 る神経回路網で獲得した結合荷重を記憶する記憶領域である。
[0051] 学習用神経回路網 1201は、少なくとも入力層と、入力側中間層と、前記入力側中 間層と出力層の間に設けられた出力側中間層と、出力層の 4層を有している。入力 層は、実験環境における照明光の成分を入力する入力層照明光成分対応部分 102 と、当該照明光による色サンプルからの反射であるテスト色の成分を入力する入力層 テスト色成分対応部分 101とを有している。入力側中間層は、入力層テスト色成分対 応部分 101と結合せずに入力層照明光成分対応部分 102と結合する入力側中間層 照明光成分対応部分 104と、入力層照明光成分対応部分 102と結合せずに入力層 テスト色成分対応部分 101と結合する入力側中間層テスト色成分対応部分 103とを 有している。出力側中間層は、入力側中間層照明光成分対応部分 104及び入力側 中間層テスト色成分対応部分 103と結合している。出力層は、カテゴリ色に対応する ユニットを有している。前述の例では、 4層としたが、 5層以上であってもよい。追加さ れる層は、入力層照明光成分対応部分 102と入力側中間層照明光成分対応部分 1 04の間及び入力層テスト色成分対応部分 101と入力側中間層テスト色成分対応部 分 103の間に設けることが考えられる。その場合、照明光成分対応部分として追加さ れる層と、テスト色成分対応部分として追加される層は、同じユニット数であり、同等 の結合関係を有する。また、入力側中間層と出力側中間層の間、または出力側中間 層と出力層の間に追加することも考えられる。
[0052] 学習用結合荷重データ記憶部 1202は、入力層照明光成分対応部分 102と入力 側中間層照明光成分対応部分 104の間の結合に係る結合荷重と、入力層テスト色 成分対応部分 101と入力側中間層テスト色成分対応部分 103の間の結合に係る結 合荷重について、構成上対応する結合同士で共用の結合荷重を記憶するための共 用結合荷重記憶領域を有している。他の結合荷重については、専用の結合荷重を 記憶するための専用結合荷重記憶領域を有して!/ヽる。
[0053] 図 13に、判定に係る構成を示す。判定用神経回路網 1301と判定用結合荷重デ ータ記憶部 1302を有している。判定用神経回路網 1301は、前述の本発明に係る 神経回路網を判定用として用いるものである。判定用結合荷重データ記憶部 1302 は、学習用結合荷重データ記憶部 1202で獲得した結合荷重を複製して記憶する領 域である。つまり、判定用結合荷重データ記憶部 1302は、学習用結合荷重データ 記憶部 1202と同じ結合荷重データを記憶して ヽる。
[0054] 判定用神経回路網 1301は、判定環境の環境光の成分を照明光色成分として入力 し、当該判定環境下での判定対象力 の反射色の成分をテスト色成分として入力し、 判定用結合荷重データ記憶部 1302に記憶した結合荷重に従って神経回路網演算 処理を行い、処理結果として、観察者が当該判定環境下で当該判定対象から知覚 すると予測されるカテゴリ色を出力するように動作する。このとき、出力層の複数のュ ニットのうち最も出力値の大きいユニットに対応するカテゴリ色を出力とする。つまり、 出力層の複数のユニットの出力値を比較し、最大出力値のユニットに割り当てられて V、るカテゴリ色を特定し、そのカテゴリ色を出力するカテゴリ色判定部を有して 、る。
[0055] 本発明に係るカテゴリカル色知覚システムは、コンピュータであり、各要素はプログ ラムにより処理を実行することができる。また、プログラムを記憶媒体に記憶させ、記 憶媒体力もコンピュータに読み取られるようにすることができる。コンピュータは、バス と、バスに接続する演算装置、メモリ、記憶媒体、データを入力する入力装置、及び データを出力する出力装置を有している。学習用神経回路網、及び判定用神経回 路網は、記憶媒体に記憶されているプログラムにより処理を実行することができ、それ ぞれのプログラムは、記憶媒体力 バスを介してメモリにロードされ、演算装置はメモ リにロードされたプログラムのコードを読み込み、順次コードの処理を実行する。上述 の例では、学習用神経回路網と判定用神経回路網を別個に設けたが、共用する場 合は同一の神経回路網を用いてもよい。また、上述の例では、学習用結合荷重デー タ記憶部と判定用結合荷重データ記憶部を別個に設けたが、共用する場合は同一 の結合荷重データ記憶部を用いてもよ 、。学習用結合荷重データ記憶部と判定用 結合荷重データ記憶部は、通常、上述の記憶媒体あるいはメモリに設けられる。カテ ゴリカル色知覚システムは、図 12及び図 13に示すように、更に、照明光の成分を入 力する照明光成分入力部 1203、テスト色の成分を入力するテスト成分入力部 1204 、カテゴリ色を特定する情報を入力するカテゴリ色入力部 1205、判定環境の環境光 の成分を入力する環境光入力部 1303、判定環境下での判定対象からの反射色の 成分を入力する反射色成分入力部 1304、カテゴリ色を特定する情報を出力する力 テゴリ色出力部 1306を有している。更に、学習用結合荷重データ記憶部 1202から 判定用結合荷重データ記憶 1302へ結合荷重データを複製する結合荷重データ複 製部 1206も有している。また、図 12に示したカテゴリカル色知覚システムのうち学習 に係る構成と、図 13に示したカテゴリカル色知覚システムのうち判定に係る構成を別 個のコンピュータとしてもよい。その場合には、学習に係る構成のコンピュータ力も判 定に係る構成のコンピュータへ、可搬な記憶媒体あるいは通信媒体を介して結合荷 重データを転送する。つまり、学習に係る構成のコンピュータは、学習用結合荷重デ ータ記憶部 1202から結合荷重データを読み出して出力する結合荷重データ出力部 1207を有し、判定に係る構成のコンピュータは、結合荷重データを入力し、判定用 結合荷重データ記憶部 1302に記憶させる結合荷重データ入力部 1305を有する。
[0056] 本システムの目的は、多様な環境光の下で、各環境光の影響を排除した判定対象 の本来の色をカテゴリとして識別することである。以下、本システムの構成の特徴と、 その特徴による作用によってこの目的を達成して 、ることを述べる。
[0057] A.入力層照明光成分対応部分と入力側中間層照明光成分対応部分の結合、及 び入力層テスト色成分対応部分と入力側中間層テスト色成分対応部分の結合につ いて
これらの結合は、入力層に入力した光の成分を入力側中間層による新たな座標系 の空間の成分へ展開する機能を有している。例では、入力光の成分は 3つ (L錐体応 答値、 M錐体応答値、 S錐体応答値)であり、その 3次元空間中の入力光の成分を、 4次元の別の座標系の空間の成分に変換している。入力光の成分のうち L錐体応答 値と M錐体応答値は、比較的近い波長分布を示すが、 S錐体応答値は、 L錐体応答 値及び M錐体応答値と遠い波長分布を有していることが知られている。従って、入力 光の成分による空間は、スペクトル領域によって空間密度に斑があると推測される。 しかし、本発明の目的に従ってすベてのスペクトル領域で正確に色知覚を行なうため には、密度の一様な空間中で操作を行なうことが望ましい。入力側中間層照明光成 分対応部分と入力側中間層テスト色成分対応部分は、照明光とテスト色について全 スペクトル領域で空間密度が一様となる座標系を得るために設けた。図 6に示すよう に、 DL5000Kから DL20000Kまでのいずれのスペクトルの照明光に対しても良好 な判定結果が得られるのは、この構成に依るものと推測される。
[0058] 例では、最適な形態として 1次元増やし、 3次元力 高次元の 4次元に変換した力 更に高次元に変換する場合や同次元に変換する場合にも、全スペクトル領域で空間 密度が一様となる座標系を得ることが期待できる。つまり、入力側中間層照明光成分 対応部分のユニット数 (入力側中間層テスト色成分対応部分のユニット数も同じ)は、 入力層照明光成
分対応部分のユニット数 (入力層テスト色成分対応部分のユニット数も同じ)より 1つ 多い例の他、 2つ以上多い形態あるいは同数の形態でも、本発明による効果が得ら れる。
[0059] B.入力層照明光成分対応部分と入力側中間層照明光成分対応部分の間の結合 に係る結合荷重と、入力層テスト色成分対応部分と入力側中間層テスト色成分対応 部分の間の結合に係る結合荷重が、構成上対応する結合同士で共用の結合荷重を 用いることについて
共用の結合荷重を用いることによって、照明光とテスト色が同一の座標系の空間の 成分に変換されることになる。つまり、入力側中間層照明光成分対応部分と入力側 中間層テスト色成分対応部分の構成上対応する同種のユニット同士 (例えば、図 1の 103の aと 104の e、あるいは同じく bと f)は、同じ座標軸を示すものである。このように 、照明光とテスト色を同じ座標系の空間に展開することにより、照明光の影響を排除 するメカニズムが得やすくなる。
[0060] C.入力側中間層と出力側中間層の結合について
この結合では、入力側中間層の変換されたテスト色成分力 同じく照明光成分を差 し引くことによって、照明光の影響を排除して色サンプル本来の色の成分を得ること を期待している。その為には、テスト色の成分を照明光の同種の成分によって打ち消 される操作が行なわれるものと推測される。図 7に示す通り、
•出力側中間層のユニット bは、入力側中間層テスト色成分対応部分のユニットじとの マイナスの結合を、入力側中間層照明光成分対応部分の構成上対応するユニット g とのプラスの結合で相殺して 、る。
•出力側中間層のユニット dは、入力側中間層テスト色成分対応部分のユニット aとの プラスの結合を、入力側中間層照明光成分対応部分の構成上対応するユニット eと のマイナスの結合で相殺して 、る。
•出力側中間層のユニット eは、入力側中間層テスト色成分対応部分のユニット との マイナスの結合を、入力側中間層照明光成分対応部分の構成上対応するユニット f とのプラスの結合で相殺して 、る。
•出力側中間層のユニット fは、入力側中間層テスト色成分対応部分のユニットじとの マイナスの結合を、入力側中間層照明光成分対応部分の構成上対応するユニット g とのプラスの結合で相殺して 、る。
•出力側中間層のユニット gは、入力側中間層テスト色成分対応部分のユニットじとの プラスの結合を、入力側中間層照明光成分対応部分の構成上対応するユニット gと のマイナスの結合で相殺して 、る。
[0061] このようにして、出力側中間層では、照明光の影響を排除して本来の色成分がえら れているものと推測される。
[0062] D.出力側中間層について
出力側中間層は、前述の通り本来の色成分を得るとともに、入力側中間層及び出 力層をそれぞれ連結することにより、その色成分を基本カテゴリ色に対応付ける高次 元な判定メカニズムを実現して ヽると推測される。上述の通り各成分を相殺する為、 つまり入力側中間層テスト色成分対応部分のユニットとの結合を、入力側中間層照 明光成分対応部分のユニットとの結合で打ち消す為には、出力側中間層のユニット の数は、少なくとも成分の数、つまり入力側中間層テスト色成分対応部分のユニット 数 (入力側中間層照明光成分対応部分のユニット数も同じ)が必要であると考えられ る。但し、上述の基本カテゴリ色との対応付けを行なうためには、更に多くのユニット が必要であり、加えて出力層のユニット数以下のユニット数であれば、本発明の効果 が得られる。尚、実験によれば、例の通り 7つのユニットを設けることが最適であった。
[0063] 実施の形態 2.
本実施の形態では、本発明のカテゴリカル色知覚システムをロボットに応用する形 態について説明する。図 14は、カテゴリカル色知覚システムを適用したロボットの構 成を示す図である。
[0064] ロボットは、ロボットの眼として環境光を撮り込む環境光入力用カメラ部 1401と、環 境光入力用カメラ部 1401の出力信号力も環境光の成分を抽出する環境光色成分 センサー部 1402と、判定対象物の反射光を撮り込む対象物撮影用カメラ部 1403と 、対象物撮影用カメラ部 1403の出力信号から色成分を抽出する判断対象反射色成 分センサー部 1404と、環境光色成分センサー部 1402の出力信号と断対象反射色 成分センサー部 1404の出力信号を入力して判定対象物のカテゴリ色を判定する力 テゴリカル色知覚システム 1405と、ロボットを制御するロボット制御部 1406、ロボット 制御部 1406から制御情報を入力してモータなどの動作装置を駆動するロボット駆動 部 1407を有する。
[0065] 動作は次の通りである。環境光入力用カメラ部 1401は、環境光を撮り込み、環境 光の受光信号を出力信号として出力する。環境光色成分センサー部 1402は、環境 光入力用カメラ部 1401の出力した出力信号を入力し、その出力信号から環境光の 色成分を抽出する。
[0066] また同時に対象物撮影用カメラ部 1403は、判定対象物の反射光を撮り込み、判定 対象物の反射光の受光信号を出力信号として出力する。判断対象反射色成分セン サ一部 1404は、対象物撮影用カメラ部 1403の出力した出力信号を入力し、その出 力信号から反射光の色成分を抽出する。
[0067] カテゴリカル色知覚システム 1405は、環境光色成分センサー部 1402の出力であ る環境光の色成分と、判断対象反射色成分センサー部 1404の出力である反射光の 色成分を入力し、前述の通り判定対象物のカテゴリ色を判定する。
[0068] ロボット制御部 1406は、カテゴリカル色知覚システム 1405の出力であるカテゴリ色 を入力し、そのカテゴリ色に従ってロボットを制御する制御信号を生成する。ロボット 駆動部 1407は、ロボット制御部 1406の出力である制御信号を入力し、制御信号に 従ってモータなどの動作装置を駆動する。
[0069] このロボットは、本発明に係るカテゴリカル色知覚システム 1405を用いるので、多 様な環境で人間の眼と同様の色判別ができることになる。例えば、環境光が一様で ない場合でも、指示されたカテゴリ色の動体を追跡したり、把握する動作などができる ようになる。
[0070] 実施の形態 3.
本実施の形態では、本発明のカテゴリカル色知覚システムを監視カメラシステムに 応用する形態について説明する。図 15は、カテゴリカル色知覚システムを適用した 監視カメラシステムの構成を示す図である。
[0071] 監視カメラシステムは、前述と同様の環境光入力用カメラ部 1401、環境光色成分 センサー部 1402、対象物撮影用カメラ部 1403、判断対象反射色成分センサー部 1 404、及びカテゴリカル色知覚システム 1405に加えて、監視カメラを制御する監視力 メラ制御部 1501、対象物撮影用カメラ部 1403で撮影した映像を記録する映像記録 部 1502、監視カメラ制御部 1501から出力される制御信号に従ってアラームを発生 するアラーム発生部 1503、及び監視カメラ制御部 1501から出力される認識結果を 記録する情報記録部 1504を有する。
[0072] 動作は次の通りである。環境光入力用カメラ部 1401は、環境光を撮り込み、環境 光の受光信号を出力信号として出力する。環境光色成分センサー部 1402は、環境 光入力用カメラ部 1401の出力した出力信号を入力し、その出力信号から環境光の 色成分を抽出する。
[0073] また同時に対象物撮影用カメラ部 1403は、判定対象物の反射光を撮り込み、判定 対象物の反射光の受光信号を出力信号として出力する。判断対象反射色成分セン サ一部 1404は、対象物撮影用カメラ部 1403の出力した出力信号を入力し、その出 力信号をから反射光の色成分を抽出する。
[0074] カテゴリカル色知覚システム 1405は、環境光色成分センサー部 1402の出力であ る環境光の色成分と、判断対象反射色成分センサー部 1404の出力である反射光の 色成分を入力し、前述の通り判定対象物のカテゴリ色を判定する。
[0075] 監視カメラ制御部 1501は、カテゴリカル色知覚システム 1405の出力であるカテゴ リ色を入力し、そのカテゴリ色に従って監視カメラを制御する制御信号を生成する。 例えば、制御信号としてアラーム指示を出力する場合には、アラーム発生部 1503は 、アラーム指示に従ってアラームを発生させる。また、制御信号が認識結果を出力す る場合には、情報記録部 1504は、この認識結果を記録する。
[0076] この監視カメラシステムは、本発明に係るカテゴリカル色知覚システム 1405を用い るので、多様な環境で人間の眼と同様の色判別ができることになる。例えば、環境光 がー様でない場合でも、指示されたカテゴリ色の動体 (例えば、赤い服を着た人)を 認識した場合に、アラームを発生させたり、認識結果を記録する動作ができるように なる。
[0077] 実施の形態 4.
本実施の形態では、本発明のカテゴリカル色知覚システムを色彩コーディネートシ ユミレーシヨンシステムに応用する形態について説明する。図 16は、カテゴリカル色 知覚システムを適用した色彩コーディネートシュミレーシヨンシステムの第一例の構成 を示す図である。
[0078] 色彩コーディネートシュミレーシヨンシステムは、前述と同様の対象物撮影用カメラ 部 1403、判断対象反射色成分センサー部 1404、及びカテゴリカル色知覚システム 1405にカロえて、カラーコーディネーションシミュレーション制御部 1603、カラーコー ディネーシヨンシミュレーション制御部 1603から入力される環境光情報力も環境光色 成分を生成する環境光色成分生成部 1602、環境光を指定する情報を入力する入 力部 1601、シミュレーション結果などを表示する表示部 1604を有する。
[0079] 動作は次の通りである。入力部 1601は、環境光の指定情報を入力する。環境光色 成分生成部 1602は、環境光の指定情報を環境光の色成分に変換する。
[0080] また同時に対象物撮影用カメラ部 1403は、判定対象物の反射光を撮り込み、判定 対象物の反射光の受光信号を出力信号として出力する。判断対象反射色成分セン サ一部 1404は、対象物撮影用カメラ部 1403の出力した出力信号を入力し、その出 力信号をから反射光の色成分を抽出する。
[0081] カテゴリカル色知覚システム 1405は、環境光色成分生成部 1602からの出力であ る環境光相当の環境光の色成分と、判断対象反射色成分センサー部 1404からの出 力である反射光の色成分を入力し、前述の通り判定対象物のカテゴリ色を判定する
[0082] これによつて、指定された環境光を想定して、対象物撮影カメラ部 1403で撮影され た対象物の色情報が、人間の目視によっていかなるカテゴリ色と判定されるかをシミ ユレーシヨンできるようになる。
[0083] 実施の形態 5.
本実施の形態では、更に対象物の反射光を指定する形態について説明する。図 1
7は、カテゴリカル色知覚システムを適用した色彩コーディネートシュミレーシヨンシス テムの第二例の構成を示す図である。
[0084] 入力部 1601は、環境光を指定する情報と判定対象物の反射光を指定する情報を 入力する。環境光色成分生成部 1602は、環境光の指定情報を環境光の色成分に 変換する。
[0085] また同時に判断対象反射色成分生成部 1701は、判定対象物の反射光の指定情 報を反射光の色成分に変換する。
[0086] カテゴリカル色知覚システム 1405は、環境光色成分生成部 1602からの出力であ る環境光相当の環境光の色成分と、判断対象反射色成分生成部 1701からの出力 である反射光の色成分を入力し、前述の通り判定対象物のカテゴリ色を判定する。
[0087] これによつて、指定された環境光と判定対象物の反射光を想定して、対象物が、人 間の目視によっていかなるカテゴリ色と判定されるかをシミュレーションできるようにな る。
図面の簡単な説明
[0088] [図 1]本発明に係るニューラルネットワーク構成を示す図である。
[図 2]-ユーラルネットワークの学習に用いた照明光の色度を示す図である。
[図 3]-ユーラルネットワークの学習に用いた照明光の分光分布を示す図である。
[図 4]本発明の実験における教師データに対する検証結果を示す図である。
[図 5]Daylightデータの分光分布を示す図である。
[図 6]本発明の実験における未知の照明光に対する検証結果を示す図である。
[図 7]本発明の実験における-ユーラルネットワーク結合荷重を示す図である。 [図 8]対比実験に係る-ユーラルネットワーク構成を示す図である。
[図 9]対比実験における教師データに対する検証結果を示す図である。
[図 10]対比実験における-ユーラルネットワーク結合荷重を示す図である。
[図 11]対比実験における未知の照明光に対する検証結果を示す図である。
[図 12]カテゴリカル色知覚システムのうち学習に係る構成を示す図である。
[図 13]カテゴリカル色知覚システムのうち判定に係る構成を示す図である。
[図 14]カテゴリカル色知覚システムを適用したロボットの構成を示す図である。
[図 15]カテゴリカル色知覚システムを適用した監視カメラシステムの構成を示す図で ある。
[図 16]カテゴリカル色知覚システムを適用した色彩コーディネートシュミレーシヨンシ ステムの第一例の構成を示す図である。
[図 17]カテゴリカル色知覚システムを適用した色彩コーディネートシュミレーシヨンシ ステムの第二例の構成を示す図である。
符号の説明
101 入力層テスト色成分対応部分、 102 入力層照明光成分対応部分、 103 入 力側中間層テスト色成分対応部分、 104 入力側中間層照明光成分対応部分、 12 01 学習用神経回路網、 1202 学習用結合荷重データ記憶部、 1203 照明光成 分入力部、 1204 テスト色成分入力部、 1205 カテゴリ色入力部、 1206 結合荷 重データ複製部、 1207 結合荷重データ出力部、 1301 判定用神経回路網、 130 2 判定用結合荷重データ記憶部、 1303 環境光成分入力部、 1304 反射色成分 入力部、 1305 結合荷重データ入力部、 1306 カテゴリ色出力部、 1401 環境光 入力用カメラ部、 1402 環境光色成分センサー部、 1403 対象物撮影用カメラ部、 1404 判断対象反射色成分センサー部、 1405 カテゴリカル色知覚システム、 140 6 ロボット制御部、 1407 ロボット駆動部、 1501 監視カメラ制御部、 1502 映像 記録部、 1503 アラーム発生部、 1504 情報記録部、 1601 入力部、 1602 環境 光色成分生成部、 1603 カラーコーディネーションシミュレーション制御部、 1604 表示部、 1701 判断対象反射色成分生成部。

Claims

請求の範囲 [1] 判定環境における環境光の成分と、当該判定環境下での判定対象からの反射色 の成分とを入力し、観察者が当該判定環境下で当該判定対象から知覚すると予測さ れる、カテゴリ化された色名であるカテゴリ色を出力するカテゴリカル色知覚システム であって、以下の要素を有することを特徴とするカテゴリカル色知覚システム
(1)少なくとも入力層と、入力側中間層と、前記入力側中間層と出力層の間に設けら れた出力側中間層と、出力層の 4層を有し、入力層は、実験環境における照明光の 成分を入力する入力層照明光成分対応部分と、当該照明光による色サンプル力 の 反射であるテスト色の成分を入力する入力層テスト色成分対応部分とを有し、入力側 中間層は、入力層テスト色成分対応部分と結合せずに入力層照明光成分対応部分 と結合する入力側中間層照明光成分対応部分と、入力層照明光成分対応部分と結 合せずに入力層テスト色成分対応部分と結合する入力側中間層テスト色成分対応 部分とを有し、出力側中間層は、入力側中間層照明光成分対応部分及び入力側中 間層テスト色成分対応部分と結合し、出力層は、カテゴリ色に対応する構成の学習 用神経回路網に、学習用の照明光色成分と学習用のテスト色成分とを入力し、当該 照明光の下で当該色サンプル力 被験者が知覚した学習用のカテゴリ色を出力する ように、誤差逆伝播法で学習させて得られた結合荷重を記憶した判定用結合荷重デ ータ記憶部
(2)前記学習用神経回路網と同様の構成を有し、判定環境の環境光の成分を照明 光色成分として入力し、当該判定環境下での判定対象力 の反射色の成分をテスト 色成分として入力し、判定用結合荷重データ記憶部に記憶した結合荷重に従つて神 経回路網演算処理を行い、処理結果として、観察者が当該判定環境下で当該判定 対象力 知覚すると予測されるカテゴリ色を出力する判定用神経回路網。
[2] 学習用神経回路網及び判定用神経回路網は、入力層照明光成分対応部分及び 入力層テスト色成分対応部分力 同じ方式の色成分を入力する同数のユニットを有 し、入力側中間層照明光成分対応部分及び入力側中間層テスト色成分対応部分が 、同数のユニットを有し、入力層照明光成分対応部分と入力側中間層照明光成分対 応部分の間の結合に係る結合荷重と、入力層テスト色成分対応部分と入力側中間 層テスト色成分対応部分の間の結合に係る結合荷重とは、構成上対応する結合同 士で共用の結合荷重を用いることを特徴とする請求項 1記載のカテゴリカル色知覚シ ステム。
[3] 入力側中間層照明光成分対応部分のユニット数及び入力側中間層テスト色成分 対応部分のユニット数は、入力層照明光成分対応部分のユニット数及び入力層テス ト色成分対応部分のユニット数以上であることを特徴とする請求項 2記載のカテゴリ力 ル色知覚システム。
[4] 入力層照明光成分対応部分のユニット数及び入力層テスト色成分対応部分のュニ ット数は 3であり、入力側中間層照明光成分対応部分のユニット数及び入力側中間 層テスト色成分対応部分のユニット数は 4であることを特徴とする請求項 3記載のカテ ゴリカル色知覚システム。
[5] 出力側中間層のユニット数は、入力側中間層照明光成分対応部分のユニット数及 び入力側中間層テスト色成分対応部分のユニット数以上であることを特徴とする請求 項 2記載のカテゴリカル色知覚システム。
[6] 出力側中間層のユニット数は、出力層のユニット数以下であることを特徴とする請 求項 5記載のカテゴリカル色知覚システム。
[7] 入力側中間層照明光成分対応部分のユニット数及び入力側中間層テスト色成分 対応部分のユニット数は 4であり、出力側中間層のユニット数は 7であり、出力層のュ ニット数は 11であることを特徴とする請求項 6記載のカテゴリカル色知覚システム。
[8] 以下の要素を有することを特徴とするロボット
(1)環境光を撮り込み、環境光の受光信号を第一の出力信号として出力する環境光 入力用カメラ部
(2)第一の出力信号を入力し、第一の出力信号から環境光の色成分を抽出する環 境光色成分センサー部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を第二の出 力信号として出力する対象物撮影用カメラ部
(4)第二の出力信号を入力し、第二の出力信号から反射光の色成分を抽出する判 断対象反射色成分センサー部 (5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定する請求項 1記載のカテゴリカル色知覚 システム
(6)カテゴリ色を入力し、カテゴリ色に基づいてロボットを制御する制御信号を生成す るロボット制御部
(7)制御信号を入力し、制御信号に従って動作装置を駆動するロボット駆動部。
[9] 以下の要素を有することを特徴とする監視カメラシステム
(1)環境光を撮り込み、環境光の受光信号を第一の出力信号として出力する環境光 入力用カメラ部
(2)第一の出力信号を入力し、第一の出力信号から環境光の色成分を抽出する環 境光色成分センサー部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を第二の出 力信号として出力する対象物撮影用カメラ部
(4)第二の出力信号を入力し、第二の出力信号から反射光の色成分を抽出する判 断対象反射色成分センサー部
(5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定する請求項 1記載のカテゴリカル色知覚 システム
(6)カテゴリ色を入力し、カテゴリ色に基づ 、て監視カメラシステムを制御する制御情 報を生成する監視カメラ制御部。
[10] 以下の要素を有することを特徴とする色彩コーディネートシュミレーシヨンシステム
(1)環境光の指定情報を入力する入力部
(2)環境光の指定情報を環境光の色成分に変換する環境光色成分生成部
(3)判定対象物の反射光を撮り込み、判定対象物の反射光の受光信号を出力信号 として出力する対象物撮影用カメラ部
(4)出力信号を入力し、出力信号から反射光の色成分を抽出する判断対象反射色 成分センサー部
(5)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定する請求項 1記載のカテゴリカル色知覚 システム。
以下の要素を有することを特徴とする色彩コーディネートシュミレーシヨンシステム
(1)環境光の指定情報と判定対象物の反射光の指定情報を入力する入力部
(2)環境光の指定情報を環境光の色成分に変換する環境光色成分生成部
(3)判定対象物の反射光の指定情報を反射光の色成分に変換する判断対象反射 色成分生成部
(4)環境光の色成分と反射光の色成分を入力し、環境光の色成分と反射光の色成 分に従って判定対象物のカテゴリ色を判定する請求項 1記載のカテゴリカル色知覚 システム。
PCT/JP2006/300964 2005-01-24 2006-01-23 カテゴリカル色知覚システム WO2006078015A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006553985A JP4625962B2 (ja) 2005-01-24 2006-01-23 カテゴリカル色知覚システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005015313 2005-01-24
JP2005-015313 2005-01-24

Publications (1)

Publication Number Publication Date
WO2006078015A1 true WO2006078015A1 (ja) 2006-07-27

Family

ID=36692387

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/300964 WO2006078015A1 (ja) 2005-01-24 2006-01-23 カテゴリカル色知覚システム

Country Status (2)

Country Link
JP (1) JP4625962B2 (ja)
WO (1) WO2006078015A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668829B1 (ko) * 2010-04-21 2016-10-25 삼성전자주식회사 공간 주파수 상에서 인간 시각 특성이 반영된 텍스처 향상 방법 및 장치
WO2021235093A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 画像表示装置、学習済みニューラルネットワークモデルの生成方法、並びにコンピュータプログラム
JP7476387B2 (ja) 2016-08-22 2024-04-30 マジック リープ, インコーポレイテッド 深層学習センサを有する拡張現実ディスプレイデバイス

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101028A (ja) * 1991-10-04 1993-04-23 Nippon Telegr & Teleph Corp <Ntt> 複数特徴量の統合判定方法
JP2000298661A (ja) * 1999-04-15 2000-10-24 Fuji Xerox Co Ltd ニューラルネットワーク装置
JP2002203240A (ja) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd 物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3310009B2 (ja) * 1992-02-27 2002-07-29 株式会社東芝 ニューラルネットワークシステム
GB2273191B (en) * 1992-10-23 1996-01-03 Port Of Singapore Authority A container code verification apparatus
JP3325934B2 (ja) * 1992-11-30 2002-09-17 住友大阪セメント株式会社 光学的パターン認識分類装置
JPH06309293A (ja) * 1993-04-26 1994-11-04 Nippon Telegr & Teleph Corp <Ntt> 多層構造型ニューラルネットワークの構成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101028A (ja) * 1991-10-04 1993-04-23 Nippon Telegr & Teleph Corp <Ntt> 複数特徴量の統合判定方法
JP2000298661A (ja) * 1999-04-15 2000-10-24 Fuji Xerox Co Ltd ニューラルネットワーク装置
JP2002203240A (ja) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd 物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUZUKI T. ET AL.: "Acquirement of Categorical Perceptions of Colors by a Neural Network", ITE TECHNICAL REPORT, vol. 23, no. 29, 24 March 1999 (1999-03-24), pages 19 - 24, XP002998063 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668829B1 (ko) * 2010-04-21 2016-10-25 삼성전자주식회사 공간 주파수 상에서 인간 시각 특성이 반영된 텍스처 향상 방법 및 장치
JP7476387B2 (ja) 2016-08-22 2024-04-30 マジック リープ, インコーポレイテッド 深層学習センサを有する拡張現実ディスプレイデバイス
WO2021235093A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 画像表示装置、学習済みニューラルネットワークモデルの生成方法、並びにコンピュータプログラム

Also Published As

Publication number Publication date
JP4625962B2 (ja) 2011-02-02
JPWO2006078015A1 (ja) 2008-08-07

Similar Documents

Publication Publication Date Title
US20080221734A1 (en) Categorical Color Perception System
TW436611B (en) Method for imager device color calibration utilizing light-emitting diodes or other spectral light sources
US7866832B2 (en) Multi-projector intensity blending system
CN102023465B (zh) 平衡通过多个投影仪的显示中的亮度差异
JP2000311243A (ja) 画像色補正方法及び装置
JP2978615B2 (ja) カラーバランス調整装置及び方法
CN101917631B (zh) 一种在日常照明环境下的投影显示颜色再现方法
US20190098724A1 (en) Methods and Apparatus for Image Analysis for Lighting Control
WO2006078015A1 (ja) カテゴリカル色知覚システム
WO2001030067A1 (en) An apparatus for and method of estimating the illumination of an image
JP3304740B2 (ja) 色シミュレーション装置
Hira et al. Hue rotation (HR) and hue blending (HB): Real‐time image enhancement methods for digital component video signals to support red‐green color‐defective observers
JP4898578B2 (ja) 画像処理システム、撮像システム、及び顕微鏡撮像システム
JP6552131B2 (ja) 飲酒検査の認証プロセスおよびデバイス
JP2007159141A (ja) 色補正計算方法
CN109427414A (zh) 实时互动分析的扩增实境方法及系统
CN111698486B (zh) 用于模拟数字成像设备的方法
JP4248867B2 (ja) 色覚変換処理装置
CN113727089B (zh) 双目模组镜头组装防呆的检测方法、系统、装置及设备
CN109688672A (zh) 一种设备指示灯处理方法及系统
Pavel et al. Model-based sensor fusion for aviation
JPH0483471A (ja) 色補正装置
JPH05266190A (ja) 色識別装置
JPH09233352A (ja) 色シミュレーション装置
Zhang et al. Proprioceptive Feedback Plays a Key Role in Self-Other Differentiation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006553985

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11795694

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 06712180

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6712180

Country of ref document: EP