WO2022086063A1 - Method and device for calculating style information on social network service account - Google Patents

Method and device for calculating style information on social network service account Download PDF

Info

Publication number
WO2022086063A1
WO2022086063A1 PCT/KR2021/014314 KR2021014314W WO2022086063A1 WO 2022086063 A1 WO2022086063 A1 WO 2022086063A1 KR 2021014314 W KR2021014314 W KR 2021014314W WO 2022086063 A1 WO2022086063 A1 WO 2022086063A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
calculating
social
social data
emotional
Prior art date
Application number
PCT/KR2021/014314
Other languages
French (fr)
Korean (ko)
Inventor
김태훈
Original Assignee
주식회사 파라스타
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파라스타 filed Critical 주식회사 파라스타
Publication of WO2022086063A1 publication Critical patent/WO2022086063A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism

Definitions

  • the present invention relates to a method of calculating style information of social data, and more particularly, to a method of calculating style information of social data using a color matching emotion scale and an artificial neural network.
  • Korean Patent Registration KR1768521 which is a prior art, discloses a technique for detecting an object and classifying the properties of an object by inputting a given image into a convolutional neural network, "Method and system for providing information data about an object included in an image”. .
  • the present disclosure has been devised in response to the above-described background art, and aims to calculate style information of social data.
  • the method includes: calculating partial style information including a style expression for at least one social data included in a social data set; and calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data.
  • the calculating of partial style information including a style expression for the at least one social data may include calculating first sentiment information from the social data based on a sentiment word set and a color matching sentiment scale. step; calculating second sentiment information from the social data based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module;
  • the method may include at least one of calculating the third emotional information from the social data based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module.
  • the sentiment word set may include one or more sentiment words included in the color matching sentiment scale.
  • the calculating of the first sentiment information from the social data may include: comparing distances between a plurality of color chips included in the color matching sentiment scale and a representative partial image of an image included in the social data to calculating a color chip corresponding to the representative partial image on the color matching sensitivity scale; and calculating the first emotion information based on the emotion word mapped to the color chip corresponding to the representative partial image.
  • the calculating of the first sentiment information from the social data includes: comparing distances between a plurality of color chips included in the color matching sentiment scale and a first partial image of the image included in the social data. calculating a color chip corresponding to the first partial image on the color matching sensitivity scale; calculating a color chip corresponding to a second partial image on the color matching emotional scale by comparing distances between a plurality of color chips included in the color matching emotional scale and a second partial image of the image included in the social data; determining to change the score of the first emotional word mapped to the color chip corresponding to the first partial image with respect to the plurality of emotional words included in the emotional word set; determining to change the score of a second sentiment word mapped to a color chip corresponding to the second partial image with respect to a plurality of sentiment words included in the sentiment word set; and calculating the first sentiment information based at least in part on the score of the first sentiment word and the score of the second sentiment word included in the sentiment word set.
  • the color chip corresponding to the partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the partial image.
  • calculating the second sentiment information from the social data may include: inputting an image included in the social data into an object detection module to obtain a detection result; obtaining a word vector of the at least one object by inputting the name of the at least one object included in the detection result into a word embedding model; calculating a similarity between a word vector of the at least one object and a word vector of each of a plurality of emotional words included in the emotional word set; determining to change the score of one or more sentiment words having a word vector similar to the word vector of the at least one object based on the similarity calculation result; and calculating second sentiment information based on scores of a plurality of sentiment words included in the sentiment word set.
  • the calculating of the third sentiment information from the social data may include: obtaining a processing result obtained by inputting text included in the social data into a natural language processing module; obtaining a word vector of the at least one keyword by inputting at least one keyword included in the processing result into a word embedding model; calculating a similarity between a word vector of the at least one keyword and a word vector of a plurality of sentiment words included in the sentiment word set; determining to change the score of one or more sentiment words having a word vector similar to a word vector of the at least one keyword based on the similarity calculation result; and calculating third emotional information based on scores of a plurality of emotional words included in the emotional word set.
  • the calculating of the partial style information including the style expression for the at least one social data may include, for each of the first emotional information, the second emotional information, and the third emotional information, according to the first emotional information. Comprising the step of calculating partial style information using a weight value, a weight according to the second emotion information, and a weight applied to the third emotion information, wherein the weight according to the third emotion information is applied to the third emotion information.
  • the result value exceeds a predetermined upper limit value
  • the result value may be replaced with a predetermined upper limit value.
  • the step of calculating the style information of the social account from the partial style information of the at least one social data may include calculating a weight according to each social data based on attribute information corresponding to the at least one social data. generating; and calculating the style information of the social account by applying a weight according to the social data to the partial style information of the at least one social data.
  • the attribute information corresponding to the social data may include feedback information of other users on the social data or time information of the social data.
  • the style information of the social account may be calculated based on additionally calculated statistical values related to the style information of at least one other social account.
  • the calculating of partial style information including a style expression for the at least one social data may include: based on a sentiment word set and a color matching sentiment scale, a first sentiment from an image included in the social data. calculating information; calculating second sentiment information based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module; and calculating third sentiment information based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module.
  • a computer program stored in a computer-readable storage medium is disclosed according to an embodiment of the present disclosure for realizing the above-described problems.
  • the computer program when executed on one or more processors, causes the following operations to be performed for calculating style information including a style representation of a social account, the operations comprising: at least one included in a social data set; calculating partial style information including a style expression for social data of and calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data.
  • the apparatus may include one or more processors; Memory; and a network unit, and wherein the one or more processors calculate partial style information including a style expression for at least one social data included in a social data set, and add to attribute information corresponding to the at least one social data. Based on the partial style information for the at least one piece of social data, style information of the social account may be calculated.
  • the present disclosure may effectively provide a method of calculating style information of a social account.
  • FIG. 1 is a block diagram of a computing device for calculating style information of a social account according to an embodiment of the present disclosure.
  • FIG. 2 is an exemplary diagram for expressing a color coordination emotional scale according to an embodiment of the present disclosure.
  • FIG. 3 is an exemplary diagram exemplarily illustrating a color chip and a partial image according to an embodiment of the present disclosure.
  • FIG. 4 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure.
  • FIG. 5 is an exemplary diagram illustrating a word vector in a two-dimensional coordinate space according to an embodiment of the present disclosure.
  • FIG. 6 is a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • a component can be, but is not limited to being, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer.
  • an application running on a computing device and the computing device may be a component.
  • One or more components may reside within a processor and/or thread of execution.
  • a component may be localized within one computer.
  • a component may be distributed between two or more computers.
  • these components can execute from various computer readable media having various data structures stored therein.
  • Components may communicate via a network such as the Internet with another system, for example, via a signal having one or more data packets (eg, data and/or signals from one component interacting with another component in a local system, distributed system, etc.) may communicate via local and/or remote processes depending on the data being transmitted).
  • a network such as the Internet
  • data packets eg, data and/or signals from one component interacting with another component in a local system, distributed system, etc.
  • social data may be used as a term including social network service (SNS) or online postings, electronic documents, and the like in some embodiments.
  • Social data may include various types of data such as images, videos, and texts.
  • Social data may be used as a term to refer to an arbitrary data unit uploaded by an SNS user to their social account.
  • the arbitrary data unit may include a data unit according to an online page, channel, or the like, or a data unit according to a posting date and time.
  • Social data may refer to, for example, a set of text and images uploaded by a user at the same time.
  • social data set may be used as a term meaning a set including one or more social data.
  • the social data set may refer to the entire social data set included in the social account on the SNS in some embodiments.
  • the social data set may refer to one or more social data sets extracted according to an arbitrary criterion among all social data included in a social account on SNS in some other embodiments.
  • the term “emotional word” may be used as a meaning including a word expressing an emotion or atmosphere that a user feels from an image or text included in social data.
  • the emotional word for the social data may correspond to "cool", “cool”, and the like.
  • the emotional word for the social data may include "hot”, “passionate”, “severe heat”, and the like.
  • Emotional words include words for expressing images included in social data.
  • Emotional words include words for expressing text included in social data.
  • the term “emotional word set” may mean a word set including N (eg, 120) emotional words as described above.
  • style information may refer to information representing a style of social data.
  • the style information may be information including one or more emotional words that may be calculated from at least one piece of social data.
  • style information may be used as information expressing a style for the entire social account.
  • partial style information means a subset of style information.
  • the partial style information may be used as information representing a style for one piece of social data.
  • the partial style information calculated for the first social data is “blue”; It may include emotional words such as “refreshing”, “relaxing”, “pleasant”, and the like.
  • the second social data includes an image about a mountain and text such as “Hiking is always fun”
  • the partial style information calculated for the second social data is "green” , “tough”, “enjoyable”, etc. may include emotional words.
  • the style information calculated for the social account including the first social data and the second social data may be calculated including emotional words such as “dynamic”, “trend”, “vigorous”, and the like. Partial style information and a method of calculating style information will be described later in detail.
  • the above-described partial style information and examples of style information are merely exemplary and do not limit the present disclosure.
  • FIG. 1 is a block diagram of a computing device for calculating style information of a social account according to an embodiment of the present disclosure.
  • the configuration of the computing device 100 shown in FIG. 1 is only a simplified example.
  • the computing device 100 may include other components for performing the computing environment of the computing device 100 , and only some of the disclosed components may configure the computing device 100 .
  • the computing device 100 may include a processor 110 , a memory 130 , and a network unit 150 .
  • the processor 110 may include one or more cores, and a central processing unit (CPU) of a computing device, a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU). unit) and the like, and may include a processor for data analysis and deep learning.
  • the processor 110 may read a computer program stored in the memory 130 to perform data processing for machine learning according to an embodiment of the present disclosure. According to an embodiment of the present disclosure, the processor 110 may perform an operation for learning the neural network.
  • the processor 110 for learning of the neural network such as processing input data for learning in deep learning (DL), extracting features from the input data, calculating an error, updating the weight of the neural network using backpropagation calculations can be performed.
  • DL deep learning
  • At least one of a CPU, a GPGPU, and a TPU of the processor 110 may process learning of a network function.
  • the CPU and the GPGPU can process learning of a network function and data classification using the network function.
  • learning of a network function and data classification using the network function may be processed by using the processors of a plurality of computing devices together.
  • the computer program executed in the computing device according to an embodiment of the present disclosure may be a CPU, GPGPU or TPU executable program.
  • the memory 130 may store any type of information generated or determined by the processor 110 and any type of information received by the network unit 150 .
  • the memory 130 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read (PROM) -Only Memory), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium.
  • the computing device 100 may operate in relation to a web storage that performs a storage function of the memory 130 on the Internet.
  • the description of the above-described memory is only an example, and the present disclosure is not limited thereto.
  • the network unit 150 may use any type of wired or wireless communication systems.
  • the network unit 150 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN).
  • PAN personal area network
  • WAN wide area network
  • the network may be a well-known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth).
  • IrDA infrared
  • Bluetooth Bluetooth
  • the processor 110 receives partial style information including the style representation for at least one social data included in the social data set. can be calculated.
  • the processor 110 may calculate style information of a social account based on partial style information on at least one or more social data included in the social data set.
  • the style information of the social account may include emotional words representing the SNS account.
  • the style information of the social account may be calculated from two or more partial style information.
  • the style information of the social account may be calculated from the first partial style information and the second partial style information.
  • the first partial style information and the second partial style information may be respectively calculated from different first and second social data.
  • the processor 110 according to the present disclosure adds up partial style information for a plurality of social data to finally obtain style information of a social account including emotional words such as “cute”, “elegant”, “comfortable”, etc. can be calculated.
  • the detailed description of the user's style information described above is only an example and does not limit the present disclosure.
  • the step of the processor 110 calculating the partial style information including the style expression for the at least one social data is based on the emotional word set and the color matching emotion scale, the first emotional information from the social data calculating, based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module, calculating second emotional information from the social data or the emotional word set and the The method may include at least one of calculating third emotional information from the social data based on a processing result obtained by inputting text included in the social data into the natural language processing module.
  • the color matching emotion scale is based on the human psychology felt from the color chip, and the emotion is classified according to the color chip.
  • the color chip may include a color scheme that is a combination of colors.
  • the color matching emotion scale is based on the statistics of the emotion according to the color chip, and after dividing the emotion felt in the color chip into a scale, the emotion words according to the color chip are mapped for each different color chip.
  • the color matching sensitivity scale may be expressed in a two-dimensional coordinate plane.
  • the color matching emotion scale may be data obtained by mapping color chips according to a color combination for each emotional word according to each coordinate on a two-dimensional coordinate plane having two axes.
  • the color matching sensibility scale may include a first axis and a second axis as two axes.
  • the first axis may be, for example, an axis in which a psychological feeling (ie, emotion) of a color combination included in the color chip is expressed numerically according to the degree of dynamic. Both ends of the first axis may be dynamic-static, respectively.
  • the second axis may be an axis in which a psychological feeling of a color combination included in the color chip is expressed numerically according to the degree of softness. Both ends of the second shaft may each be soft-hard. As shown in FIG. 2 , each color chip is mapped on two-dimensional coordinates and can be matched with emotional words such as “glamorous”, “elegant”, and “dynamic”.
  • the color matching emotion scale may include data to which a color chip corresponding to each coordinate corresponding to one or more emotional words is mapped.
  • the (1, 1) point 211 of the color matching sensibility scale shown in FIG. 2 has the emotional word “natural” and may be mapped to a color chip indicated by reference numeral 213 .
  • the (-1, -1) point 231 of the color matching sensibility scale shown in FIG. 2 has the emotional word “glamorous” and may be mapped to a color chip indicated by reference numeral 233 . It will be apparent to those skilled in the art that the above-described color matching emotion scale is only an example, and in implementing the present disclosure, a color matching emotion scale including various types of color chips and corresponding emotion words may be used.
  • each emotion information expressed as "first emotion information”, "second emotion information”, and "third emotion information” is data of a plurality of emotion words included in the emotion word set.
  • the first emotion information, the second emotion information, and the third emotion information may include one or more emotion words as emotion information that is a basis for calculating the partial style information.
  • the sentiment information may include scores of each of a plurality of sentiment words included in the sentiment word set as data.
  • the sentiment information may include sentiment words included in the sentiment word set as candidate sentiment words.
  • the score of each sentiment word may be included as data.
  • the score of each sentiment word included in the sentiment word set may have a value of '0' as an initial value.
  • Each emotional word included in the emotional word set may have a different pre-determined initial score for each emotional word.
  • the step of the processor 110 calculating the first emotion information from the social data may include comparing distances between a plurality of color chips included in the color matching emotion scale and a representative partial image of the image included in the social data.
  • the method may include calculating a color chip corresponding to the representative partial image on the color matching emotion scale and calculating first emotional information based on the emotion word mapped to the color chip corresponding to the representative partial image.
  • the processor 110 may calculate a color chip corresponding to the representative partial image on the color matching emotional scale by comparing distances between the plurality of color chips included in the color matching emotional scale and the representative partial image of the image included in the social data.
  • the representative partial image may be generated based on an image included in the social data.
  • the representative partial image may be one partial image including at least a part of the image included in the social data.
  • the representative partial image may be an image itself included in the social data.
  • the representative partial image may be separately generated from an image included in the social data through a series of generation processes.
  • the representative partial image generation process may include lowering the resolution of an image included in the social data.
  • the processor 110 may calculate an average value of the values of each RGB channel based on a window having a size of 3x3 pixels, and then replace it with 1x1 pixels.
  • the processor 110 may generate a representative partial image having a size of 3x3 pixels from an image of a size of 9x9 pixels through a window having a size of 3x3 pixels.
  • the color chip corresponding to the representative partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the representative partial image.
  • the representative partial image generating process may include an operation of extracting one or more main colors from an image included in social data.
  • the processor 110 may configure a representative partial image by extracting N main colors from an image included in the social data.
  • the N main colors may be selected based on statistical calculations on colors of a plurality of pixels included in the image.
  • the color data may be an ordered pair representing RGB values.
  • the statistical operation on the color may include a filtering operation for reducing the total number of colors.
  • the filtering operation may include an operation of substituting one RGB value for pixels having a difference in RGB values less than or equal to a threshold value.
  • the representative partial image may include the top N main colors having the largest number of pixels in the image of the social data.
  • the representative partial image may include not only the top N main colors having the largest number of pixels in the image of the social data, but also ratio weights between the top N main colors.
  • the processor 110 may extract four main colors from the image included in the social data in the following data format.
  • each tuple included in the data may include the RGB value of the main color and the ratio weight.
  • the processor 110 may generate a representative partial image except for one or more main colors having the highest weight. For example, when extracting the top N main colors, the processor 110 may obtain N+M main colors, cut out the top M main colors, and extract the remaining N main colors as the main colors. M may be a natural number of 1 or more. When one or more main colors with high weight are excluded as described above, the processor 110 has the effect of extracting emotional information by focusing on the colors other than the background from the image photographed in the same background. In another embodiment, the processor 110 may perform an operation of extracting the top N main colors to be included in the representative partial image from the remaining image after cutting out the portion corresponding to the background.
  • . 3 is an exemplary diagram exemplarily illustrating a color chip and a partial image according to an embodiment of the present disclosure.
  • the processor 110 may calculate a distance between the representative partial image 310 composed of four pixels and each color chip 330 included in the plurality of color chips.
  • the processor 110 may compare a distance between the plurality of color chips and the representative partial image 310 with each other.
  • the processor 110 may calculate the distance between the RGB value coordinates by matching each pixel and each color one-to-one.
  • the distance function between the RGB value coordinates may include, for example, a Manhattan distance function (L1 distance function), a Euclidean distance function (L2 distance function), and the like.
  • Equation 2 When the distance function between the RGB value coordinates is the Euclidean distance function, Equation 2 is the same.
  • the RGB value of the first pixel 311 included in the representative partial image 310 is [102,102,051]
  • the RGB value of the second pixel 313 is [102,000,102]
  • the RGB value of the third pixel The value may be [255,153,255]
  • the RGB value of the fourth pixel 317 may be [255,204,255].
  • the color chip 330 for distance calculation includes a first color 331 having an RGB value of [000, 000, 102], a second color 333 having an RGB value of [051, 051, 102], It may be composed of a third color 335 having an RGB value of [051, 051, 153].
  • the distance between the first pixel 311 and the RGB value of the first color 331 is can be Similarly, the distance between the first pixel 311 and the RGB values of the second color 333 may be calculated as 153 and the distance between the first pixel 311 and the RGB values of the third color 335 may be calculated as 204 . According to Equation 2, the distance between the first pixel 311 and the RGB value of the first color 331 is can be Similarly, the distance between the RGB values of the first pixel 311 and the second color 333 may be 88.3, and the distance between the first pixel 311 and the RGB values of the third color 335 may be 124.9.
  • the processor 110 calculates the distances between the RGB values of the first pixel 311 included in the representative partial image 310 and the RGB values of the first, second, and third colors included in the color chip 330 .
  • the distance between the first pixel 311 and the color chip 330 may be calculated by summing the distances between the RGB values.
  • the summation may include, for example, a sum total, an average, a weighted sum, and the like.
  • the distance between the first pixel 311 and the color chip 330 may be calculated as 204, which is an average of 255, 153, and 204.
  • the above-described summing method is merely an example and includes various summation methods for various values without limitation.
  • the processor 110 determines the distance between the first pixel 311 and the color chip 330 and the distance between the second pixel 313 and the color chip 330 for a plurality of pixels included in the representative partial image 310 , The distance between the third pixel 315 and the color chip 330 and the distance between the fourth pixel 317 and the color chip 330 may be calculated. Thereafter, the processor 110 may calculate the distance between the representative partial image 310 and the color chip 330 by summing the distances to the color chip 330 calculated for each pixel. The summation may include, for example, a sum total, an average, or a weighted sum.
  • the processor 110 calculates the distance between the representative partial image 310 and the color chip 330 for a plurality of color chips, and then performs each of the representative partial image 310 and each color chip included in the plurality of color chips. The distance between the color chips can be compared with each other.
  • the processor 110 may calculate a color chip having the smallest distance among the distances between the representative partial image 310 and each color chip included in the plurality of color chips as a color chip corresponding to the representative partial image.
  • the representative partial image may include N main colors expressed by (A_1, A_2, A_3, ..., A_N).
  • the ratio weights W_1, W_2, W_3, ..., W_N of each of the N main colors may be further included.
  • a first color chip among a plurality of color chips included in the color matching sensibility scale may include colors expressed by (B_1, B_2, B_3).
  • the degree of similarity between the representative partial image and the first color chip may be calculated based on the similarity between the representative partial image and the color B_1, the similarity between the representative partial image and the color B_2, and the similarity between the representative partial image and the color B_3. Furthermore, the degree of similarity between the representative partial image and the B_1 color may be calculated by applying a ratio weight existing for each main color to the difference between the B_1 color and each main color included in the representative partial image. More specifically, the degree of similarity between the representative partial image and each color chip may be calculated based on Equation 3, for example.
  • N denotes the total number of main colors included in the representative partial image
  • A_i denotes the RGB value of the i-th main color in the representative partial image
  • B_j denotes the RGB value of the j-th color in the color chip.
  • M is the number of colors included in one color chip, and may be, for example, three.
  • the processor 110 can calculate the degree of similarity between each color chip and the representative partial image as described above, and when it is performed for all color chips, the most similar predetermined number of color chips according to the degree of similarity can decide
  • the processor 110 may calculate the first emotion information based on the emotion word mapped to the color chip corresponding to the representative partial image 310 .
  • the processor 110 may determine that the score of the emotional word of the color chip having the smallest distance from the representative partial image 310 among the plurality of emotional words is changed.
  • the alteration may include increasing the score of the sentiment word.
  • the processor 110 sets the color scheme with the emotional word of the color chip having the smallest distance from the representative partial image 310 among the plurality of emotional words and the emotional word of the color chip having the smallest distance from the representative partial image 310 . It is possible to increase the score of the top M (eg, 5) emotional words according to the distance on the sentiment scale.
  • the processor 110 may calculate the first emotion information by increasing the score of one or more emotion words based on the emotion words mapped with the color chip corresponding to the representative partial image 310 .
  • the first sentiment information may include a plurality of sentiment words and scores for each sentiment word as data.
  • the step of the processor 110 calculating the first emotion information from the social data may include comparing the distances between the plurality of color chips included in the color matching emotion scale and the first partial image of the image included in the social data. calculating a color chip corresponding to the first partial image on the color matching emotional scale by comparing the distances between the plurality of color chips included in the color matching emotional scale and the second partial image of the image included in the social data.
  • the method may include calculating the first emotional information based on the scores of the emotional words.
  • the first partial image and the second partial image according to the present disclosure may be partial images including at least a part of an image included in social data. At least a part of the image included in the social data may mean a set of one or more pixels existing in an arbitrary area of the image included in the social data.
  • the first partial image and the second partial image may be partial images in which at least one pixel is not equal to each other.
  • the first partial image and the second partial image may be partial images having a size of 2x2 pixels as indicated by reference numeral 310 of FIG. 3 .
  • the processor 110 compares distances between a plurality of color chips included in the color matching sensitivity scale and the first partial image to calculate a color chip corresponding to the first partial image on the color matching emotional scale
  • the step of comparing the distances between a plurality of color chips included in the color matching sensitivity scale and the second partial image and calculating a color chip corresponding to the second partial image on the color matching emotional scale corresponds to the representative partial image described above. It can be clearly understood from the point of view of a person skilled in the art that it can be performed in the same way as the method of calculating the color chip, so it is omitted.
  • the color chip corresponding to the first partial image is based on a distance between the RGB value of at least one color included in the color chip and the RGB value of at least one pixel included in the first partial image.
  • the color chip corresponding to the second partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the second partial image.
  • the method of calculating the distance between the RGB values may be understood in the same manner with reference to FIG. 3 .
  • the processor 110 After calculating the color chip corresponding to the first partial image as described above, the processor 110 refers to the color matching emotion scale for a plurality of emotional words included in the emotional word set to the color chip corresponding to the first partial image. It may be determined that the score of the mapped first sentiment word is changed. For example, the alteration may include increasing the score of the first sentimental word. In the same manner, the processor 110 calculates a color chip corresponding to the second partial image, and then refers to the color matching emotion scale for a plurality of emotional words included in the emotional word set, and the color chip corresponding to the second partial image. It may be determined to change the score of the second sentiment word mapped to . For example, the alteration may include increasing the score of the second sentiment word.
  • the processor 110 After the processor 110 performs score adjustment on the plurality of emotional words included in the emotional word set by each partial image, the first emotional information based on the scores of the plurality of emotional words included in the emotional word set can be calculated.
  • the emotional word set contains [“dynamic”, “cynic”, “cute”].
  • the first emotional word mapped to the color chip corresponding to the first partial image may be “dynamic”, and the processor 110 may increase the score of the first emotional word.
  • the second emotional word mapped to the color chip corresponding to the second partial image may also be “dynamic”, and thus the processor 110 may increase the score of the second emotional word.
  • the scores of the plurality of emotional words included in the emotional word set may be [“dynamic”:2, “cynic”:0, “cute”:0].
  • the processor 110 may calculate this score as the first emotion information.
  • the above-described embodiment is only one embodiment, and the present disclosure includes various embodiments for calculating the first sentiment information from a sentiment word set including a plurality of sentiment words without limitation.
  • the step of the processor 110 calculating the second emotional information from the social data may include: inputting an image included in the social data into an object detection module to obtain a detection result; obtaining a word vector of the at least one object by inputting the name of the included at least one object into a word embedding model, each of the word vector of the at least one object and a plurality of emotional words included in the emotional word set calculating the similarity between word vectors of , increasing the score of one or more sentiment words having a word vector similar to the word vector of the at least one object based on the similarity calculation result, and included in the sentiment word set
  • the method may include calculating second sentiment information based on the scores of the plurality of sentiment words.
  • FIG. 4 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure.
  • neural networks may be used interchangeably.
  • an object detection module, a word embedding model, or a natural language processing module in the present disclosure may operate based on a neural network, which will be specifically described below.
  • a neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons.
  • a neural network is configured to include at least one or more nodes. Nodes (or neurons) constituting the neural networks may be interconnected by one or more links.
  • one or more nodes connected through a link may relatively form a relationship between an input node and an output node.
  • the concepts of an input node and an output node are relative, and any node in an output node relationship with respect to one node may be in an input node relationship in a relationship with another node, and vice versa.
  • an input node-to-output node relationship may be created around a link.
  • One or more output nodes may be connected to one input node through a link, and vice versa.
  • the value of the data of the output node may be determined based on data input to the input node.
  • a link interconnecting the input node and the output node may have a weight.
  • the weight may be variable, and may be changed by a user or an algorithm in order for the neural network to perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node sets values input to input nodes connected to the output node and links corresponding to the respective input nodes. An output node value may be determined based on the weight.
  • one or more nodes are interconnected through one or more links to form an input node and an output node relationship in the neural network.
  • the characteristics of the neural network may be determined according to the number of nodes and links in the neural network, the correlation between the nodes and the links, and the value of a weight assigned to each of the links. For example, when the same number of nodes and links exist and there are two neural networks having different weight values of the links, the two neural networks may be recognized as different from each other.
  • a neural network may consist of a set of one or more nodes.
  • a subset of nodes constituting the neural network may constitute a layer.
  • Some of the nodes constituting the neural network may configure one layer based on distances from the initial input node.
  • a set of nodes having a distance of n from the initial input node may constitute n layers.
  • the distance from the initial input node may be defined by the minimum number of links that must be passed to reach the corresponding node from the initial input node.
  • the definition of such a layer is arbitrary for description, and the order of the layer in the neural network may be defined in a different way from the above.
  • a layer of nodes may be defined by a distance from the final output node.
  • the initial input node may mean one or more nodes to which data is directly input without going through a link in a relationship with other nodes among nodes in the neural network.
  • it may mean nodes that do not have other input nodes connected by a link.
  • the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network.
  • the hidden node may mean nodes constituting the neural network other than the first input node and the last output node.
  • the neural network according to an embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be the same as the number of nodes in the output layer, and the number of nodes decreases and then increases again as progresses from the input layer to the hidden layer.
  • the number of nodes in the input layer may be less than the number of nodes in the output layer, and the number of nodes may be reduced as the number of nodes progresses from the input layer to the hidden layer. there is.
  • the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be greater than the number of nodes in the output layer, and the number of nodes increases as the number of nodes progresses from the input layer to the hidden layer.
  • the neural network according to another embodiment of the present disclosure may be a neural network in a combined form of the aforementioned neural networks.
  • a deep neural network may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer.
  • Deep neural networks can be used to identify the latent structures of data. In other words, it can identify the potential structure of photos, texts, videos, voices, and music (e.g., what objects are in the photos, what the text and emotions are, what the texts and emotions are, etc.) .
  • Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs).
  • Deep neural network a deep belief network (DBN), a Q network, a U network, a Siamese network, and a Generative Adversarial Network (GAN).
  • DNN deep belief network
  • Q Q network
  • U U network
  • Siamese network Siamese network
  • GAN Generative Adversarial Network
  • the network function may include an autoencoder.
  • the auto-encoder may be a kind of artificial neural network for outputting output data similar to input data.
  • the auto encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between the input/output layers.
  • the number of nodes in each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with reduction from the bottleneck layer to the output layer (symmetrically with the input layer).
  • the auto-encoder can perform non-linear dimensionality reduction.
  • the number of input layers and output layers may correspond to a dimension after preprocessing the input data.
  • the number of nodes of the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so a certain number or more (e.g., more than half of the input layer, etc.) ) may be maintained.
  • the neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.
  • a neural network can be trained in a way that minimizes output errors.
  • iteratively input the training data into the neural network, calculate the output of the neural network and the target error for the training data, and calculate the error of the neural network from the output layer of the neural network to the input layer in the direction to reduce the error. It is a process of updating the weight of each node in the neural network by backpropagation in the direction.
  • learning data in which the correct answer is labeled in each learning data is used (ie, labeled learning data), and in the case of comparative learning, the correct answer may not be labeled in each learning data.
  • learning data in the case of teacher learning related to data classification may be data in which categories are labeled in each of the learning data.
  • Labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data.
  • an error may be calculated by comparing the input training data with the neural network output. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation.
  • the change amount of the connection weight of each node to be updated may be determined according to a learning rate.
  • the computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently according to the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning of a neural network, a high learning rate can be used to enable the neural network to quickly obtain a certain level of performance, thereby increasing efficiency, and using a low learning rate at a later stage of learning can increase accuracy.
  • the training data may be a subset of real data (that is, data to be processed using the trained neural network), and thus, the error on the training data is reduced, but the error on the real data is reduced.
  • Overfitting is a phenomenon in which errors on actual data increase by over-learning on training data as described above. For example, a phenomenon in which a neural network that has learned a cat by seeing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing errors in machine learning algorithms. In order to prevent such overfitting, various optimization methods can be used. In order to prevent overfitting, methods such as increasing the training data, regularization, and dropout that deactivate some of the nodes of the network in the process of learning, and the use of a batch normalization layer are applied. can
  • a convolutional neural network may include a sequence of neural network layers.
  • the neural network layer may include a convolutional layer, a pooling layer, a fully connected layer, and the like.
  • the initial input to the convolutional neural network may be received by the lowest first layer in the sequence.
  • a convolutional neural network may sequentially input an initial input to layers in a sequence to generate a final output from the initial input.
  • the initial input may be, for example, an image and the final output may be a set of scores for each category in a set of categories comprising one or more categories.
  • each neural network layer in a convolutional neural network includes a set of nodes.
  • Each neural network layer may receive an initial input to the convolutional neural network or an output of the previous neural network layer as an input.
  • the N-th neural network layer may receive the output of the N-1 th neural network layer as an input.
  • Each neural network layer within a convolutional neural network generates an output from its input. If the layer is the highest layer in the sequence, it is treated as the final output of the convolutional neural network.
  • the processor 110 when the processor 110 inputs an image included in social data to the object detection module, the processor 110 may obtain a detection result from the object detection module.
  • the object detection module may include at least one node including a learnable parameter.
  • the object detection module may include at least one convolutional neural network layer for object detection.
  • the object detection module may be a previously learned module to detect various types of objects present in the input image.
  • the object detection module may output at least one of a position, size, name, or type of one or more objects present in the input image.
  • the detection result obtained by the processor 110 from the object detection module includes the names of one or more objects present in the image included in the social data. For example, suppose an image contained in social data includes a cup and a clock. In this case, the processor 110 may obtain the name of the object such as “cup” and “watch” as a detection result from the object detection module.
  • the processor 110 may obtain a word vector of the at least one object by inputting the name of at least one object included in the detection result obtained from the object detection module into the word embedding model.
  • Word embedding is a term referring to a method for expressing a word as a vector, and mainly means converting from a sparse representation of a word vector to a dense representation of a word vector.
  • the index value of the word to be expressed may be 1, and the remaining index values may be expressed as 0.
  • the sparse expression most of the values of elements of a vector or matrix are expressed as 0.
  • Word embedding may mean an operation of expressing a word as a dense expression vector.
  • a vector generated through a word embedding method may be referred to as an embedding vector or a word embedding vector throughout this specification.
  • the word embedding method may include word2vec, FastText, Glove, and the like.
  • the word embedding model may include one or more neural network layers.
  • the word embedding model may include at least one hidden layer.
  • the layer may include one or more nodes.
  • the word embedding model may obtain an input value of the hidden layer by using a first matrix for a sparse vector of a word input to the input layer, and transmit an output value to the output layer using the input value of the hidden layer and the second matrix.
  • the output value may be a dense vector of input words.
  • the input word may be one of a word related to an object that may exist in an image included in the social data or an emotional word included in the emotional word set.
  • the neural network structure of the above-described word embedding model is merely an example, and the present disclosure is not limited thereto.
  • connection weight and bias value of each node included in the word embedding model may be pre-trained by a corpus including a plurality of words.
  • the corpus for dictionary learning may include emotional words included in the emotional word set according to an embodiment of the present disclosure.
  • the learned word embedding model may convert a word vector of a sparse expression into a word vector of a dense expression for a plurality of emotional words included in the emotional word set.
  • the processor 110 may calculate a similarity between a word vector of at least one object included in the image of the social data and a word vector of a plurality of sentiment words included in the emotional word set.
  • the similarity may be calculated based on a distance of two word vectors in a vector space.
  • the distance in the vector space may be defined as, for example, a Manhattan distance or a Euclidean distance.
  • Word vectors generated through the word embedding model according to the present disclosure may form a cluster according to the degree of similarity. For example, when the word A and the word B are similar words, the distance between the word vector for word A and the word vector for word B in the vector space may be close. In this case, the word A and the word B will be located close to each other in the vector space, and the distance value is small, so that the word A and the word B may have high similarity.
  • the similarity may be defined as cosine similarity.
  • the cosine similarity may be a value for determining the similarity by obtaining a cosine angle between two vectors.
  • the cosine similarity may have a value between -1 and 1 depending on the degree of agreement between two vectors.
  • the cosine similarity value may have a value of 1 when the two vectors completely match.
  • the description of the embodiment of the degree of similarity is merely an example, and the present disclosure is not limited thereto.
  • the processor 110 may determine to change the score of one or more sentiment words having a word vector similar to the word vector of at least one object based on the similarity calculation result.
  • An example of a change may include increasing the score of a sentiment word.
  • FIG. 5 is an exemplary diagram illustrating a word vector in a two-dimensional coordinate space according to an embodiment of the present disclosure.
  • the processor 110 may determine one sentiment word having the highest similarity to the word vector of at least one object included in the image of the social data. Specifically, in FIG. 5, the word vector coordinates 511 of the first emotional word, the word vector coordinates 513 of the second emotional word, the word vector coordinates 515 of the third emotional word, and the fourth emotional word are exemplarily shown in FIG. Word vector coordinates 517 are shown.
  • the word vector of the sentiment word having the highest similarity to the coordinates 531 of the word vector of the first object included in the image may be determined as the word vector coordinates 511 of the first sentiment word.
  • the similarity may be calculated based on the Euclidean distance between word vector coordinates.
  • the processor 110 may determine that the word vector coordinates 531 of the first object are closest to the word vector coordinates 531 of the first emotional word, and increase the score of the first emotional word.
  • the processor 110 may determine top N sentiment words having a word vector having a high similarity to a word vector of at least one object included in the image of the social data. Specifically, if N is 2, and the processor 110 seeks to find the upper two sentiment word word vectors similar to the word vector of the first object, the processor 110 is ordered close to the word vector coordinates 531 of the first object. As shown, it is possible to calculate the word vector coordinates 511 of the first emotional word, which are the word vector coordinates of the upper two emotional words, and the word vector coordinates 513 of the second emotional word.
  • the processor 110 may determine the upper two word vectors having a high similarity to the word vector of the first object as the word vector of the first sentiment word and the word vector of the second sentiment word. Subsequently, the processor 110 may determine to change the scores of the first sentiment word and the second sentiment word based on the similarity calculation result. An example of such a change may include increasing the scores of the first sentiment word and the second sentiment word.
  • the processor 110 when determining one or more sentiment words having a word vector similar to a word vector of at least one object included in the image of the social data, the processor 110 is additionally based on the detection result of the object detection module can do.
  • the detection result of the object detection module may include at least one of a name of the detected object and a detection accuracy (confidence score).
  • the processor 110 may obtain 'lemon' and 'flower' as detection results after inputting an image of social data into the object detection module.
  • the processor 110 may additionally acquire the detection accuracy (eg, ['lemon', 0.95] or ['flower', 0.88], etc.) for each detection result from the object detection module.
  • the processor 110 may determine one or more sentiment words for the image of the social data based additionally on detection accuracy. For example, it is assumed that the processor 110 according to the present disclosure extracts top N sentiment words having a word vector having a high similarity with respect to an individual object detected from an image of social data.
  • the top N emotional word set A (for example, 'fresh', 'yellow', 'cool', etc.) will be extracted for the first object (eg 'lemon') extracted from the image of social data can Also, for the second object (for example, 'flower') extracted from the image of the same social data, the top N emotional word set B (for example, 'beautiful', 'soft', 'lively', etc.) will be extracted.
  • the processor 110 sets the top N sentiment words having a word vector with high similarity to the word vector of the first object and the second object in consideration of the detection accuracy for each object included in the detection result obtained from the object detection module. C can be determined.
  • the processor 110 determines the sentiment word set C, the result of multiplying the detection accuracy (eg, 0.95) of the first object by the sentiment word set A as a weight and the detection accuracy of the second object (eg 0.88) ) as a weight, a calculation process of summing the result of multiplying the emotional word set B may be included.
  • the processor 110 according to the present disclosure may change the score for at least one sentiment word based on the determined score of the sentiment word set C.
  • the method of calculating the style information of the social account according to the present disclosure has the effect of more accurately extracting emotional words by reflecting the object detection result of the object detection module and the reliability of the object detection module in the style information calculation process as described above.
  • the higher the detection accuracy of the object the more reliable the detection result is, and the style information calculation method according to the present disclosure assigns a high weight to a powerful detection object having high reliability, so that the object detection module is present in the image. It has the advantage that reliable results can be derived even if some objects are not recognized properly due to noise. That is, the present disclosure discloses a method of calculating style information having a characteristic robust to noise.
  • the processor 110 may determine one or more sentiment words having a word vector within a predetermined threshold similarity to a word vector of at least one object included in the image of the social data.
  • reference numeral 535 of FIG. 5 denotes a circle indicating an area separated by a predetermined distance from the word vector coordinate 533 of the second object.
  • the similarity is calculated based on, for example, the Euclidean distance between the vectors, the circle 535 representing the area separated by a certain distance from the word vector coordinate 533 of the second object is the area representing the predetermined threshold similarity range.
  • the processor 110 considers the word vector coordinates 533 of the second object and a predetermined threshold similarity, and exists inside the circle 535 indicating the area separated by a predetermined distance from the word vector coordinates 533 of the second object.
  • the word vector coordinates 515 of the third emotional word and the word vector coordinates 517 of the fourth emotional word may be calculated.
  • the processor 110 may determine one or more word vectors within a predetermined threshold similarity with the word vector of the second object as the word vector of the third sentiment word and the word vector of the fourth sentiment word.
  • the processor 110 may determine to change the scores of the third sentiment word and the fourth sentiment word based on the similarity calculation result.
  • An example of such a change may include increasing the scores of the third sentiment word and the fourth sentiment word.
  • the processor 110 calculates a word vector of one or more sentiment words similar to the word vector of an object through a word vector by a word embedding model, and increases the score of the sentiment word based on the similarity calculation result,
  • the second emotion information may be calculated based on the scores of the plurality of emotional words included in the emotional word set.
  • the step of the processor 110 according to the present disclosure calculating the third emotional information from the social data includes: obtaining a processing result obtained by inputting text included in the social data into a natural language processing module; at least included in the processing result inputting one keyword into a word embedding model to obtain a word vector of the at least one keyword; calculating the similarity between the word vector of the at least one keyword and the word vector of a plurality of sentiment words included in the sentiment word set increasing the score of one or more sentiment words having a word vector similar to the word vector of the at least one keyword based on the similarity calculation result, and based on the scores of a plurality of sentiment words included in the sentiment word set It may include calculating the third emotional information.
  • the natural language processing module may receive text included in social data and perform a natural language processing (NLP) operation.
  • the natural language processing operation performed by the natural language processing module may include a morpheme analysis operation for the input text, a keyword extraction operation, and the like.
  • the natural language processing module may analyze the input text by dividing it into morpheme units through a morpheme analysis operation.
  • the natural language processing module can analyze the input text by dividing it into a real morpheme and a formal morpheme.
  • the natural language processing module may analyze the input text by dividing it into lexical morphemes and grammatical morphemes. For example, if the natural language processing module performs a stemming operation on the text “I went home”, the text is converted to morphemes can be analyzed.
  • morpheme analysis may be performed on the text as “mountain/noun + li/subordinate + blue/adjective + da/endum”.
  • the natural language processing module may perform an operation of extracting a keyword after the morpheme analysis operation.
  • the natural language processing module may calculate one or more extracted keywords as a processing result.
  • the processing result may include an importance level corresponding to the keyword extracted from the text.
  • a keyword may be extracted in the form of a root or prototype of an actual morpheme or a lexical morpheme in the morpheme analysis result. For example, when two morphemes “home” and “a” are analyzed as actual morphemes, the natural language processing module may extract “home” and “go” as keywords and then calculate the two keywords as processing results.
  • the above-described example regarding the operation of the natural language processing module is merely an example for explanation, and the present disclosure includes without limitation a natural language processing module for extracting keywords from input text.
  • the processor 110 inputs at least one keyword included in the processing result into the word embedding model to obtain a word vector of the at least one keyword. There is. Thereafter, the processor 110 may calculate a similarity between a word vector of at least one keyword and a word vector of a plurality of sentiment words included in the sentiment word set. Calculation of similarity between word vectors may be performed based on, for example, distance or cosine similarity in vector space, as described above. The processor 110 may determine to change the score of one or more sentiment words having a word vector similar to a word vector of at least one keyword based on the similarity calculation result. An example of a change may include increasing the score of a sentiment word. One or more word vectors similar to the word vectors of the keyword may be determined as described above with reference to FIG. 5 .
  • the processor 110 may additionally be based on a processing result of the natural language processing module when determining one or more emotional words to be subjected to a score change from text included in the social data.
  • the processing result of the natural language processing module may include at least one of the extracted keyword and the importance level corresponding to the keyword.
  • the processor 110 inputs the text of the social data (eg, “night snack is also chicken”) to the natural language processing module, and then obtains processing results including 'night snack' and 'chicken'.
  • the processor 110 may additionally obtain a processing result including a degree of importance (eg, ['night snack', 0.12] or ['chicken', 0.33], etc.) corresponding to each keyword from the natural language processing module.
  • the processor 110 may determine one or more sentiment words for the text of the social data based on the importance. For example, it is assumed that the processor 110 according to the present disclosure extracts top N sentiment words having a word vector with high similarity for each keyword extracted from text of social data.
  • the top N emotional word set D (for example, 'pleasant', 'guilty', 'depressed', etc.) can
  • the second keyword eg, 'chicken'
  • the top N emotional word set E (eg, 'crispy', 'delicious', 'happy', etc.) can be extracted.
  • the processor 110 considers the importance of each keyword included in the processing result obtained from the natural language processing module, and the top N sentiment word set F having a word vector with high similarity to the word vector of the first keyword and the second keyword.
  • the processor 110 determines the emotional word set F, the result of multiplying the emotional word set D by the importance (for example, 0.12) of the first keyword as a weight and the importance (for example, 0.33) of the second keyword A calculation process of summing the multiplication result of the emotional word set E as a weight may be included.
  • the processor 110 according to the present disclosure may change the score for at least one sentiment word based on the determined score of the sentiment word set F. It will be apparent to those skilled in the art that the above-described examples are merely exemplary descriptions for the implementation of the present disclosure, and do not limit the present disclosure, and that operations on a plurality of keywords and emotional word sets extracted in various aspects can be performed. will be.
  • processor 110 of the present disclosure calculates third sentiment information from text included in social data. It is assumed that the processor 110 inputs the text “It is summer, but I am stuck at home because of the epidemic” into the natural language processing module.
  • the processor 110 may obtain a processing result including keywords 'summer', 'epidemic', 'home', and 'stuck' from the natural language processing module. Thereafter, the processor 110 may obtain a word vector for each of 'summer', 'epidemic', 'home', and 'stuck' by inputting keywords included in the processing result into the word embedding model.
  • the processor 110 may determine the most similar one or more emotional words by calculating the similarity between the word vector of each keyword and the word vector of a plurality of emotional words included in the emotional word set. Additionally, for example, suppose that the emotional word set contains the emotional words . At this time, the processor 110 may determine the emotional word having the word vector most similar to the word vector for the keyword 'summer' as 'active', and then increase the score of the emotional word 'active'. For example, increasing the score of a sentiment word in the present disclosure may include giving the sentiment word a relatively high weight or giving the sentiment word a relatively high priority over other sentiment words. .
  • the processor 110 determines the emotional word having the word vector most similar to the word vector for the keyword 'epidemic' as 'depressed' and 'desperate', and then determines the emotional word score of 'depressed' and 'desperate' Each can be increased. Finally, the score distribution of the plurality of emotional words included in the emotional word set is ['gloomy':2, 'cozy':1, 'happy':1, 'desperate':1, 'bright':1, 'dark' ':1, 'lonely':3, 'active':1]. The processor 110 may calculate the third sentiment information based on the score distribution of the plurality of sentiment words included in the sentiment word set.
  • the above-described example is merely an example and does not limit the present disclosure.
  • the step of the processor 110 calculating partial style information including a style expression for at least one social data may include: first emotional information, second emotional information, and third emotional information, respectively.
  • the method may include calculating partial style information using values to which a weight according to the first emotion information, a weight according to the second emotion information, and a weight according to the third emotion information are applied.
  • the first emotion information may be treated as information about the emotion that a person receives from the color of the image included in the social data.
  • the second emotion information may be treated as information about emotion that a person receives from an object included in the social data.
  • the third emotion information may be treated as information about emotion that a person receives from the meaning of the text included in the social data. Based on the difference between the types of each emotion information as described above, the user may set different weights according to the first emotion information, the weights according to the second emotion information, and the weights according to the third emotion information.
  • the first emotional information calculated from the social data is ['gloomy':0, 'cozy':4, 'happy':1, 'desperate':0, 'bright':1, 'dark': 0, 'lonely':2, 'active':0].
  • the second emotional information calculated from the social data is ['depressed':0, 'cozy':0, 'happy':3, 'desperate':0, 'bright':1, 'dark':2, 'lonely' ':0, 'active':1].
  • the third emotional information calculated from social data is ['gloomy':0, 'cozy':4, 'happy':1, 'desperate':0, 'bright':1, 'dark':0, 'loneliness' It can contain data such as ':2, 'active':0].
  • the weight according to the first emotion information, the weight according to the second emotion information, and the weight according to the third emotion information may be set to 3, 2, 1.
  • the processor 110 may calculate partial style information of social data by multiplying and summing a weight according to the type of each emotional information for each emotional information.
  • partial style information is ['gloomy':0, 'cozy':16, 'happy':10, 'desperate':0, 'bright':5, 'dark': 4, 'lonely':8, 'active':2].
  • a weight according to each emotion information may be set as a ratio of an arbitrary value.
  • a result value obtained by applying a weight according to the third emotion information to the third emotion information may be compared with a predetermined upper limit value.
  • the result value may be substituted with the upper limit value.
  • the predetermined upper limit value may be set based on a score of an emotional word. For example, a result value obtained by multiplying the third emotion information by a weight according to the third emotion information may be replaced with 10 when it exceeds 10 so that a maximum score of 10 or more cannot be obtained for one emotion word.
  • the weight according to the third emotion information may be adjusted by the processor 110 so that a result of multiplying the third emotion information does not exceed a predetermined upper limit value. For example, when the predetermined upper limit for each emotional word is 10, and the score of the highest emotional word in the entire emotional word set is 5, the processor 110 may set the weight according to the third emotional information to 2 or less. there is.
  • a predetermined upper limit value for each emotional word is 10
  • the processor 110 may set the weight according to the third emotional information to 2 or less.
  • the attribute information corresponding to the social data may include feedback information of other users on the social data or time information of the social data.
  • the feedback information may include, for example, the number of 'likes', the number of comments, the number of views, and the number of clicks of other users on social data.
  • the time information may include, for example, a creation time, a modification time, and the like.
  • the processor 110 may generate a weight according to the social data based on the feedback information for each social data in the plurality of social data.
  • the feedback information may include, for example, the number of 'likes', the number of plays, and the number of comments, and the processor 110 generates a weight according to social data using at least one or more data among the number of 'likes', the number of plays, and the number of comments. can do.
  • the processor 110 may sum the partial style information for the first social data, the partial style information for the second social data, and the partial style information for the third social data in a ratio of 2:1:1.
  • the processor 110 assigns a higher weight to the number of comments than the number of 'Likes' because the act of writing a comment corresponds to more active feedback information than the act of displaying 'Like'. It is possible to create weights according to social data.
  • the processor 110 may generate a weight according to the social data based on time information of each social data in the plurality of social data.
  • the processor 110 may generate a weight based on a difference value between the generation time of the social data and the current time. For example, if the difference between the generation time of the first social data and the current time is 1 day, and the difference between the generation time of the second social data and the current time is 7 days, the processor 110 determines the partial style for the first social data Information and partial style information for the second social data may be weighted and summed in a ratio reflecting 7:1 or an arbitrary length of time.
  • the style information of the social account is the previously calculated style information of the at least one other social account. It may be additionally calculated based on statistical values related to style information.
  • the statistical value may be a value calculated from the previously calculated style information of a plurality of other social accounts.
  • the statistical value may include, for example, an average value, quartile value, variance, standard deviation, and the like for style information of a plurality of different social accounts.
  • the processor 110 is The style information may be corrected in consideration of a difference from the average value of the style information of other social accounts. For example, the processor 110 may proportionally multiply the score for each emotional word included in the style information of the first social account by a certain constant C by the difference between the score and the average score, and then add it.
  • the style information of the first social account corrected in the above example may be expressed as ['A':13, 'B':5, 'C':10].
  • the statistical value of the style information of a plurality of other social accounts calculated in this way is used in the process of calculating the style information of the social account that is the subject of the style information calculation, the unique individuality contrary to the overall trend can be further emphasized.
  • FIG. 6 is a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • methods of the present disclosure can be applied to single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, and the like. It will be appreciated that each of these may be implemented in other computer system configurations, including those capable of operating in connection with one or more associated devices.
  • the described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network.
  • program modules may be located in both local and remote memory storage devices.
  • Computers typically include a variety of computer-readable media. Any medium accessible by a computer can be a computer-readable medium, and such computer-readable media includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-transitory media. including removable media.
  • computer-readable media may include computer-readable storage media and computer-readable transmission media.
  • Computer readable storage media includes volatile and nonvolatile media, temporary and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media.
  • a computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.
  • Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data, etc. in a modulated data signal such as a carrier wave or other transport mechanism, and Includes all information delivery media.
  • modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal.
  • computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.
  • An example environment 1100 implementing various aspects of the disclosure is shown including a computer 1102 , the computer 1102 including a processing unit 1104 , a system memory 1106 , and a system bus 1108 . do.
  • a system bus 1108 couples system components, including but not limited to system memory 1106 , to the processing device 1104 .
  • the processing device 1104 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 1104 .
  • the system bus 1108 may be any of several types of bus structures that may further interconnect a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures.
  • System memory 1106 includes read only memory (ROM) 1110 and random access memory (RAM) 1112 .
  • ROM read only memory
  • RAM random access memory
  • a basic input/output system (BIOS) is stored in non-volatile memory 1110, such as ROM, EPROM, EEPROM, etc., the BIOS is the basic input/output system (BIOS) that helps transfer information between components within computer 1102, such as during startup. contains routines.
  • BIOS basic input/output system
  • RAM 1112 may also include high-speed RAM, such as static RAM, for caching data.
  • the computer 1102 may also include an internal hard disk drive (HDD) 1114 (eg, EIDE, SATA) - this internal hard disk drive 1114 may also be configured for external use within a suitable chassis (not shown).
  • HDD hard disk drive
  • FDD magnetic floppy disk drive
  • optical disk drive 1120 eg, a CD-ROM
  • the hard disk drive 1114 , the magnetic disk drive 1116 , and the optical disk drive 1120 are connected to the system bus 1108 by the hard disk drive interface 1124 , the magnetic disk drive interface 1126 , and the optical drive interface 1128 , respectively.
  • the interface 1124 for implementing an external drive includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
  • drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like.
  • drives and media correspond to storing any data in a suitable digital format.
  • computer readable media refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, etc. It will be appreciated that other tangible computer-readable media such as etc. may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure.
  • a number of program modules may be stored in the drive and RAM 1112 , including an operating system 1130 , one or more application programs 1132 , other program modules 1134 , and program data 1136 . All or portions of the operating system, applications, modules, and/or data may also be cached in RAM 1112 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.
  • a user may enter commands and information into the computer 1102 via one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140 .
  • Other input devices may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like.
  • these and other input devices are connected to the processing unit 1104 through an input device interface 1142 that is often connected to the system bus 1108, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.
  • a monitor 1144 or other type of display device is also coupled to the system bus 1108 via an interface, such as a video adapter 1146 .
  • the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.
  • Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communications.
  • Remote computer(s) 1148 may be workstations, computing device computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are typically connected to computer 1102 . Although it includes many or all of the components described for it, only memory storage device 1150 is shown for simplicity.
  • the logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, eg, a wide area network (WAN) 1154 .
  • LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.
  • the computer 1102 When used in a LAN networking environment, the computer 1102 is coupled to the local network 1152 through a wired and/or wireless communication network interface or adapter 1156 .
  • Adapter 1156 may facilitate wired or wireless communication to LAN 1152 , which LAN 1152 also includes a wireless access point installed therein for communicating with wireless adapter 1156 .
  • the computer 1102 When used in a WAN networking environment, the computer 1102 may include a modem 1158, be connected to a communication computing device on the WAN 1154, or establish communications over the WAN 1154, such as over the Internet. have other means.
  • a modem 1158 which may be internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142 .
  • program modules described for computer 1102 may be stored in remote memory/storage device 1150 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.
  • the computer 1102 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.
  • PDA portable data assistant
  • Wi-Fi Wireless Fidelity
  • Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station.
  • Wi-Fi networks use a radio technology called IEEE 802.11 (a, b, g, etc) to provide secure, reliable, and high-speed wireless connections.
  • Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet).
  • Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). .
  • the various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques.
  • article of manufacture includes a computer program, carrier, or media accessible from any computer-readable storage device.
  • computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.).
  • various storage media presented herein include one or more devices and/or other machine-readable media for storing information.
  • the present invention may be used in a computing device that calculates style information of social data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

According to one embodiment of the present disclosure, disclosed is a method performed by a computing device comprising at least one processor, for calculating style information including style representation on a social account. The method may comprise the steps of: calculating partial style information including a style representation for at least one piece of social data included in a social data set; and on the basis of feature information corresponding to the at least one piece of social data, calculating style information of the social account from the partial style information for the at least one piece of social data.

Description

소셜 네트워크 서비스 계정의 스타일 정보를 산출하는 방법 및 장치Method and device for calculating style information of social network service accounts
본 발명은 소셜 데이터의 스타일 정보를 산출하는 방법에 관련한 것으로서, 보다 구체적으로 배색 감성 스케일 및 인공 신경망을 이용하여 소셜 데이터의 스타일 정보를 산출하는 방법에 관한 것이다.The present invention relates to a method of calculating style information of social data, and more particularly, to a method of calculating style information of social data using a color matching emotion scale and an artificial neural network.
SNS 서비스 사용자 수가 폭발적으로 증가하면서, 소셜 네트워크 서비스에 존재하는 많은 양의 데이터를 분류하기 위한 기술들이 생겨나고 있다. 대표적으로 당업계에는 컨볼루션 뉴럴 네트워크를 이용하여 이미지 데이터로부터 정보를 획득하고 데이터를 분류하는 기술 또는 자연어 처리 엔진을 이용하여 텍스트 데이터로부터 정보를 획득하고 텍스트 데이터를 분류하는 기술 등이 존재한다. As the number of SNS service users increases explosively, techniques for classifying a large amount of data existing in social network services are emerging. Representatively, in the art, there is a technique for acquiring information from image data and classifying data using a convolutional neural network or a technique for acquiring information from text data and classifying text data using a natural language processing engine.
다만, 이미지 또는 텍스트를 인공 신경망에 입력하여 학습시키는 것만으로는 방대한 양으로 SNS 상에 존재하는 데이터를 분류할 수 없을 뿐만 아니라 실제 인간이 느끼는 감성과 관련한 지표가 반영되지 않는 문제점이 있다. 즉, 소셜 데이터를 인간이 느끼는 감정을 기준으로 분류하고자 하는 수요가 당업계에 존재해왔다. However, only by inputting images or texts into the artificial neural network to learn, it is not possible to classify the data existing on the SNS in a vast amount, and there is a problem in that the indicators related to the emotions actually felt by humans are not reflected. That is, there has been a demand in the art to classify social data based on human emotions.
선행 기술인 대한민국 등록특허 KR1768521 "이미지에 포함된 객체에 대한 정보 데이터를 제공하는 방법 및 시스템"은, 주어진 이미지를 컨볼루션 뉴럴 네트워크에 입력하여 물체를 검출하고 물체의 속성을 분류하는 기술을 개시하고 있다.Korean Patent Registration KR1768521, which is a prior art, discloses a technique for detecting an object and classifying the properties of an object by inputting a given image into a convolutional neural network, "Method and system for providing information data about an object included in an image". .
본 개시는 전술한 배경기술에 대응하여 안출 된 것으로, 소셜 데이터의 스타일 정보를 산출하는 것을 목적으로 한다.The present disclosure has been devised in response to the above-described background art, and aims to calculate style information of social data.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하는 방법이 개시된다. 상기 방법은: 소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계; 및 상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 단계를 포함할 수 있다.Disclosed is a method of calculating style information including a style representation of a social account performed by a computing device including at least one processor according to an embodiment of the present disclosure for realizing the above-described task. do. The method includes: calculating partial style information including a style expression for at least one social data included in a social data set; and calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data.
대안적인 실시예에서, 상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는, 감성 단어 집합 및 배색 감성 스케일에 기초하여, 상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계; 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 획득되는 검출 결과에 기초하여, 상기 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계; 또는 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과에 기초하여, 상기 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the calculating of partial style information including a style expression for the at least one social data may include calculating first sentiment information from the social data based on a sentiment word set and a color matching sentiment scale. step; calculating second sentiment information from the social data based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module; Alternatively, the method may include at least one of calculating the third emotional information from the social data based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module.
대안적인 실시예에서, 상기 감성 단어 집합은, 상기 배색 감성 스케일에 포함된 하나 이상의 감성 단어들을 포함할 수 있다.In an alternative embodiment, the sentiment word set may include one or more sentiment words included in the color matching sentiment scale.
대안적인 실시예에서, 상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는: 상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 대표 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 상기 대표 부분 이미지에 대응되는 컬러칩을 산출하는 단계; 및 상기 대표 부분 이미지에 대응되는 컬러칩과 매핑된 감성 단어에 기초하여 제 1 감성 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, the calculating of the first sentiment information from the social data may include: comparing distances between a plurality of color chips included in the color matching sentiment scale and a representative partial image of an image included in the social data to calculating a color chip corresponding to the representative partial image on the color matching sensitivity scale; and calculating the first emotion information based on the emotion word mapped to the color chip corresponding to the representative partial image.
대안적인 실시예에서, 상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는: 상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 제 1 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 제 1 부분 이미지에 대응되는 컬러칩을 산출하는 단계; 상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 제 2 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 제 2 부분 이미지에 대응되는 컬러칩을 산출하는 단계; 상기 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 1 부분 이미지에 대응되는 컬러칩과 매핑된 제 1 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 상기 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 2 부분 이미지에 대응되는 컬러칩과 매핑된 제 2 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및 상기 감성 단어 집합에 포함된 상기 제 1 감성 단어의 점수 및 상기 제 2 감성 단어의 점수에 적어도 부분적으로 기초하여 제 1 감성 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, the calculating of the first sentiment information from the social data includes: comparing distances between a plurality of color chips included in the color matching sentiment scale and a first partial image of the image included in the social data. calculating a color chip corresponding to the first partial image on the color matching sensitivity scale; calculating a color chip corresponding to a second partial image on the color matching emotional scale by comparing distances between a plurality of color chips included in the color matching emotional scale and a second partial image of the image included in the social data; determining to change the score of the first emotional word mapped to the color chip corresponding to the first partial image with respect to the plurality of emotional words included in the emotional word set; determining to change the score of a second sentiment word mapped to a color chip corresponding to the second partial image with respect to a plurality of sentiment words included in the sentiment word set; and calculating the first sentiment information based at least in part on the score of the first sentiment word and the score of the second sentiment word included in the sentiment word set.
대안적인 실시예에서, 상기 부분 이미지에 대응되는 컬러칩은 상기 컬러칩에 포함된 적어도 하나의 색상의 RGB값과 상기 부분 이미지에 포함된 적어도 하나의 픽셀의 RGB값 사이의 거리에 기초하여 산출될 수 있다.In an alternative embodiment, the color chip corresponding to the partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the partial image. can
대안적인 실시예에서, 상기 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계는: 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 검출 결과를 획득하는 단계; 상기 검출 결과에 포함된 적어도 하나의 물체의 명칭을 워드 임베딩 모델에 입력하여 상기 적어도 하나의 물체의 워드 벡터를 획득하는 단계; 상기 적어도 하나의 물체의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들 각각의 워드 벡터 사이의 유사도를 계산하는 단계; 상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 2 감성 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, calculating the second sentiment information from the social data may include: inputting an image included in the social data into an object detection module to obtain a detection result; obtaining a word vector of the at least one object by inputting the name of the at least one object included in the detection result into a word embedding model; calculating a similarity between a word vector of the at least one object and a word vector of each of a plurality of emotional words included in the emotional word set; determining to change the score of one or more sentiment words having a word vector similar to the word vector of the at least one object based on the similarity calculation result; and calculating second sentiment information based on scores of a plurality of sentiment words included in the sentiment word set.
대안적인 실시예에서, 상기 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계는: 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과를 획득하는 단계; 상기 처리 결과에 포함된 적어도 하나의 키워드를 워드 임베딩 모델에 입력하여 상기 적어도 하나의 키워드의 워드 벡터를 획득하는 단계; 상기 적어도 하나의 키워드의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터 사이의 유사도를 계산하는 단계; 상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 키워드의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 3 감성 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, the calculating of the third sentiment information from the social data may include: obtaining a processing result obtained by inputting text included in the social data into a natural language processing module; obtaining a word vector of the at least one keyword by inputting at least one keyword included in the processing result into a word embedding model; calculating a similarity between a word vector of the at least one keyword and a word vector of a plurality of sentiment words included in the sentiment word set; determining to change the score of one or more sentiment words having a word vector similar to a word vector of the at least one keyword based on the similarity calculation result; and calculating third emotional information based on scores of a plurality of emotional words included in the emotional word set.
대안적인 실시예에서 상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는, 제 1 감성 정보, 제 2 감성 정보 및 제 3 감성 정보 각각에 대해 제 1 감성 정보에 따른 가중치, 제 2 감성 정보에 따른 가중치 및 제 3 감성 정보에 따른 가중치를 적용한 값을 이용하여 부분 스타일 정보를 산출하는 단계를 포함하되, 상기 제 3 감성 정보에 상기 제 3 감성 정보에 따른 가중치가 적용된 결과값이 사전 결정된 상한값을 초과하는 경우, 상기 결과값은 사전 결정된 상한값으로 치환되는 것을 특징으로 할 수 있다.In an alternative embodiment, the calculating of the partial style information including the style expression for the at least one social data may include, for each of the first emotional information, the second emotional information, and the third emotional information, according to the first emotional information. Comprising the step of calculating partial style information using a weight value, a weight according to the second emotion information, and a weight applied to the third emotion information, wherein the weight according to the third emotion information is applied to the third emotion information When the result value exceeds a predetermined upper limit value, the result value may be replaced with a predetermined upper limit value.
대안적인 실시예에서, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 단계는, 상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여 각 소셜 데이터에 따른 가중치를 생성하는 단계; 및 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보에 상기 소셜 데이터에 따른 가중치를 적용하여 소셜 계정의 스타일 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, the step of calculating the style information of the social account from the partial style information of the at least one social data may include calculating a weight according to each social data based on attribute information corresponding to the at least one social data. generating; and calculating the style information of the social account by applying a weight according to the social data to the partial style information of the at least one social data.
대안적인 실시예에서, 상기 소셜 데이터에 대응되는 속성 정보는, 상기 소셜 데이터에 대한 다른 유저의 피드백 정보 또는 상기 소셜 데이터의 시간 정보를 포함할 수 있다.In an alternative embodiment, the attribute information corresponding to the social data may include feedback information of other users on the social data or time information of the social data.
대안적인 실시예에서, 상기 소셜 계정의 스타일 정보는, 기 산출된 적어도 하나의 다른 소셜 계정의 스타일 정보에 관한 통계값에 추가적으로 기초하여 산출될 수 있다.In an alternative embodiment, the style information of the social account may be calculated based on additionally calculated statistical values related to the style information of at least one other social account.
대안적인 실시예에서, 상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는, 감성 단어 집합 및 배색 감성 스케일에 기초하여, 상기 소셜 데이터에 포함된 이미지로부터 제 1 감성 정보를 산출하는 단계; 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 획득되는 검출 결과에 기초하여 제 2 감성 정보를 산출하는 단계; 및 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과에 기초하여 제 3 감성 정보를 산출하는 단계를 포함할 수 있다.In an alternative embodiment, the calculating of partial style information including a style expression for the at least one social data may include: based on a sentiment word set and a color matching sentiment scale, a first sentiment from an image included in the social data. calculating information; calculating second sentiment information based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module; and calculating third sentiment information based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은: 소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 동작; 및 상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 동작을 포함 할 수 있다.A computer program stored in a computer-readable storage medium is disclosed according to an embodiment of the present disclosure for realizing the above-described problems. The computer program, when executed on one or more processors, causes the following operations to be performed for calculating style information including a style representation of a social account, the operations comprising: at least one included in a social data set; calculating partial style information including a style expression for social data of and calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하기 위한 장치가 개시된다. 상기 장치는 하나 이상의 프로세서; 메모리; 및 네트워크부를 포함하고, 그리고 상기 하나 이상의 프로세서는, 소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하고, 상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출할 수 있다.Disclosed is an apparatus for calculating style information including a style representation of a social account according to an embodiment of the present disclosure for realizing the above-described task. The apparatus may include one or more processors; Memory; and a network unit, and wherein the one or more processors calculate partial style information including a style expression for at least one social data included in a social data set, and add to attribute information corresponding to the at least one social data. Based on the partial style information for the at least one piece of social data, style information of the social account may be calculated.
본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly to those of ordinary skill in the art to which the present disclosure belongs from the description below. can be understood
본 개시는 효과적으로 소셜 계정의 스타일 정보를 산출하는 방법을 제공할 수 있다.The present disclosure may effectively provide a method of calculating style information of a social account.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. .
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.Various aspects are now described with reference to the drawings, wherein like reference numbers are used to refer to like elements collectively. In the following example, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. It will be apparent, however, that such aspect(s) may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form in order to facilitate describing one or more aspects.
도 1은 본 개시의 일 실시예에 따른 소셜 계정의 스타일 정보를 산출하기 위한 컴퓨팅 장치의 블록 구성도이다.1 is a block diagram of a computing device for calculating style information of a social account according to an embodiment of the present disclosure.
도 2는 본 개시의 실시예에 따른 배색 감성 스케일을 표현하기 위한 예시도이다.2 is an exemplary diagram for expressing a color coordination emotional scale according to an embodiment of the present disclosure.
도 3은 본 개시의 실시예에 따른 컬러칩과 부분 이미지를 각각 예시적으로 도시한 예시도이다.3 is an exemplary diagram exemplarily illustrating a color chip and a partial image according to an embodiment of the present disclosure.
도 4는 본 개시의 실시예에 따른 네트워크 함수를 나타낸 개략도이다.4 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure.
도 5는 본 개시의 실시예에 따른 워드 벡터를 2차원 좌표공간 상에 표현한 예시도이다. 5 is an exemplary diagram illustrating a word vector in a two-dimensional coordinate space according to an embodiment of the present disclosure.
도 6은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다.6 is a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the present disclosure. However, it is apparent that these embodiments may be practiced without these specific descriptions.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.The terms “component,” “module,” “system,” and the like, as used herein, refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or execution of software. For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and the computing device may be a component. One or more components may reside within a processor and/or thread of execution. A component may be localized within one computer. A component may be distributed between two or more computers. In addition, these components can execute from various computer readable media having various data structures stored therein. Components may communicate via a network such as the Internet with another system, for example, via a signal having one or more data packets (eg, data and/or signals from one component interacting with another component in a local system, distributed system, etc.) may communicate via local and/or remote processes depending on the data being transmitted).
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Also, the terms "comprises" and/or "comprising" should be understood to mean that the feature and/or element in question is present. However, it should be understood that the terms "comprises" and/or "comprising" do not exclude the presence or addition of one or more other features, elements and/or groups thereof. Also, unless otherwise specified or unless it is clear from context to refer to a singular form, the singular in the specification and claims should generally be construed to mean “one or more”.
그리고, “A 또는 B 중 적어도 하나”이라는 용어는, “A만을 포함하는 경우”, “B 만을 포함하는 경우”, “A와 B의 구성으로 조합된 경우”를 의미하는 것으로 해석되어야 한다. And, the term “at least one of A or B” should be interpreted as meaning “includes only A”, “includes only B”, and “combined with the configuration of A and B”.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those skilled in the art will further appreciate that the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein may be implemented in electronic hardware, computer software, or combinations of both. It should be recognized that they can be implemented with To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.
제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예 들로 한정되는 것이 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.Descriptions of the presented embodiments are provided to enable those skilled in the art to use or practice the present invention. Various modifications to these embodiments will be apparent to those skilled in the art of the present disclosure. The generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Therefore, the present invention is not limited to the embodiments presented herein. This invention is to be interpreted in its widest scope consistent with the principles and novel features presented herein.
본 개시내용에서, "소셜 데이터"라는 용어는 몇몇 실시예에서 SNS(Social Network Service) 또는 온라인 상의 게시글, 전자 문서 등을 포함하는 용어로써 사용될 수 있다. 소셜 데이터는 이미지, 동영상, 텍스트 등의 여러 형태의 데이터를 포함할 수 있다. 소셜 데이터는 SNS 사용자가 자신의 소셜 계정에 업로드한 임의의 데이터 단위를 지칭하는 용어로 사용될 수 있다. 상기 임의의 데이터 단위란 온라인의 페이지, 채널 등에 따른 데이터 단위 또는 포스팅 날짜, 시간 등에 따른 데이터 단위를 포함할 수 있다. 소셜 데이터는 예를 들어 사용자가 같은 시각에 업로드한 텍스트 및 이미지 세트를 지칭할 수 있다. In the present disclosure, the term “social data” may be used as a term including social network service (SNS) or online postings, electronic documents, and the like in some embodiments. Social data may include various types of data such as images, videos, and texts. Social data may be used as a term to refer to an arbitrary data unit uploaded by an SNS user to their social account. The arbitrary data unit may include a data unit according to an online page, channel, or the like, or a data unit according to a posting date and time. Social data may refer to, for example, a set of text and images uploaded by a user at the same time.
본 개시내용에서, "소셜 데이터 셋"이라는 용어는 하나 이상의 소셜 데이터를 포함하는 집합을 의미하는 용어로써 사용될 수 있다. 소셜 데이터 셋은 몇몇 실시예에서 SNS 상의 소셜 계정에 포함된 전체 소셜 데이터 집합을 의미할 수 있다. 소셜 데이터 셋은 다른 몇몇 실시예에서 SNS 상의 소셜 계정에 포함된 전체 소셜 데이터 중 임의의 기준에 따라 추출된 하나 이상의 소셜 데이터 집합을 의미할 수 있다.In the present disclosure, the term “social data set” may be used as a term meaning a set including one or more social data. The social data set may refer to the entire social data set included in the social account on the SNS in some embodiments. The social data set may refer to one or more social data sets extracted according to an arbitrary criterion among all social data included in a social account on SNS in some other embodiments.
본 개시내용에서, "감성 단어"라는 용어는 소셜 데이터에 포함된 이미지 또는 텍스트로부터 사용자가 느끼는 감정 또는 분위기를 표현하는 단어를 포함하는 의미로써 사용될 수 있다. 예컨대 소셜 데이터에 포함된 이미지가 '해수욕장'에 관한 이미지인 경우 상기 소셜 데이터에 대한 감성 단어는 "시원한", "청량한" 등이 해당될 수 있다. 다른 예로서 소셜 데이터에 포함된 텍스트에 '한 여름'이라는 단어가 포함된 경우, 해당 소셜 데이터에 대한 감성 단어는 "뜨거운", "정열적인", "무더위" 등이 해당될 수 있다. 감성 단어는 소셜 데이터에 포함된 이미지를 표현하기 위한 단어를 포함한다. 감성 단어는 소셜 데이터에 포함된 텍스트를 표현하기 위한 단어를 포함한다. 본 개시내용에서, "감성 단어 집합"이라는 용어는 상술한 바와 같은 감성 단어를 N개(예를 들어 120개) 포함하는 단어 집합을 의미할 수 있다.In the present disclosure, the term “emotional word” may be used as a meaning including a word expressing an emotion or atmosphere that a user feels from an image or text included in social data. For example, when the image included in the social data is an image about 'beach', the emotional word for the social data may correspond to "cool", "cool", and the like. As another example, when the word 'midsummer' is included in the text included in the social data, the emotional word for the social data may include "hot", "passionate", "severe heat", and the like. Emotional words include words for expressing images included in social data. Emotional words include words for expressing text included in social data. In the present disclosure, the term “emotional word set” may mean a word set including N (eg, 120) emotional words as described above.
본 개시 내용에서, "스타일 정보"라는 용어는 소셜 데이터의 스타일을 표현하는 정보를 의미할 수 있다. 스타일 정보는 적어도 하나의 소셜 데이터에서 산출될 수 있는 하나 이상의 감성 단어들을 포함하는 정보일 수 있다. 본 개시내용에 있어서, "스타일 정보"라는 용어는 소셜 계정 전체에 대한 스타일을 표현하는 정보로 사용될 수 있다. 본 개시내용에 있어서 "부분 스타일 정보"라는 용어는 스타일 정보의 서브세트를 의미한다. 일례로, 부분 스타일 정보는 하나의 소셜 데이터에 대한 스타일을 표현하는 정보로 사용될 수 있다. 예를 들어, 제 1 소셜 데이터에 바다에 관한 이미지와 "오랜만의 여름 휴가를 바다로 왔어요"와 같은 텍스트가 포함되어 있는 경우, 상기 제 1 소셜 데이터에 대해 산출된 부분 스타일 정보는 "파란색", "청량한", "나른한", "기분 좋은" 등과 같은 감성 단어들을 포함할 수 있다. 계속해서, 예를 들어 제 2 소셜 데이터에 산에 관한 이미지와 "산행은 언제나 즐거워요."와 같은 내용의 텍스트가 포함되어 있는 경우, 상기 제 2 소셜 데이터에 대해 산출된 부분 스타일 정보는 "초록색", "힘든", "즐거운" 등과 같은 감성 단어들을 포함할 수 있다. 그 후, 제 1 소셜 데이터와 제 2 소셜 데이터를 포함하는 소셜 계정에 대해 산출된 스타일 정보는 "역동적인", "트렌디한", "활발한" 등과 같은 감성 단어들을 포함하여 산출될 수 있다. 부분 스타일 정보 및 스타일 정보를 산출하는 방법에 관하여는 후술하여 자세히 설명한다. 전술한 부분 스타일 정보 및 스타일 정보에 관한 예시는 일 예시에 불과할 뿐 본 개시를 제한하지 않는다. In the present disclosure, the term “style information” may refer to information representing a style of social data. The style information may be information including one or more emotional words that may be calculated from at least one piece of social data. In the present disclosure, the term “style information” may be used as information expressing a style for the entire social account. In the present disclosure, the term "partial style information" means a subset of style information. As an example, the partial style information may be used as information representing a style for one piece of social data. For example, when the first social data includes an image about the sea and text such as "I came to the sea after a long summer vacation," the partial style information calculated for the first social data is "blue"; It may include emotional words such as "refreshing", "relaxing", "pleasant", and the like. Continuing, for example, when the second social data includes an image about a mountain and text such as "Hiking is always fun", the partial style information calculated for the second social data is "green" , "tough", "enjoyable", etc. may include emotional words. Thereafter, the style information calculated for the social account including the first social data and the second social data may be calculated including emotional words such as “dynamic”, “trend”, “vigorous”, and the like. Partial style information and a method of calculating style information will be described later in detail. The above-described partial style information and examples of style information are merely exemplary and do not limit the present disclosure.
도 1은 본 개시의 일 실시예에 따른 소셜 계정의 스타일 정보를 산출하기 위한 컴퓨팅 장치의 블록 구성도이다.1 is a block diagram of a computing device for calculating style information of a social account according to an embodiment of the present disclosure.
도 1에 도시된 컴퓨팅 장치(100)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 본 개시의 일 실시예에서 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 컴퓨팅 장치(100)를 구성할 수도 있다.The configuration of the computing device 100 shown in FIG. 1 is only a simplified example. In an embodiment of the present disclosure, the computing device 100 may include other components for performing the computing environment of the computing device 100 , and only some of the disclosed components may configure the computing device 100 .
컴퓨팅 장치(100)는 프로세서(110), 메모리(130), 네트워크부(150)를 포함할 수 있다.The computing device 100 may include a processor 110 , a memory 130 , and a network unit 150 .
프로세서(110)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(110)는 메모리(130)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 본 개시의 일실시예에 따라 프로세서(110)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(110)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(110)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The processor 110 may include one or more cores, and a central processing unit (CPU) of a computing device, a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU). unit) and the like, and may include a processor for data analysis and deep learning. The processor 110 may read a computer program stored in the memory 130 to perform data processing for machine learning according to an embodiment of the present disclosure. According to an embodiment of the present disclosure, the processor 110 may perform an operation for learning the neural network. The processor 110 for learning of the neural network, such as processing input data for learning in deep learning (DL), extracting features from the input data, calculating an error, updating the weight of the neural network using backpropagation calculations can be performed. At least one of a CPU, a GPGPU, and a TPU of the processor 110 may process learning of a network function. For example, the CPU and the GPGPU can process learning of a network function and data classification using the network function. Also, in an embodiment of the present disclosure, learning of a network function and data classification using the network function may be processed by using the processors of a plurality of computing devices together. In addition, the computer program executed in the computing device according to an embodiment of the present disclosure may be a CPU, GPGPU or TPU executable program.
본 개시의 일 실시예에 따르면, 메모리(130)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(150)가 수신한 임의의 형태의 정보를 저장할 수 있다.According to an embodiment of the present disclosure, the memory 130 may store any type of information generated or determined by the processor 110 and any type of information received by the network unit 150 .
본 개시의 일 실시예에 따르면, 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 130 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read (PROM) -Only Memory), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The computing device 100 may operate in relation to a web storage that performs a storage function of the memory 130 on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.
본 개시의 일 실시예에 따른 네트워크부(150)는 임의의 형태의 유선 또는 무선 통신 시스템들을 사용할 수 있다. The network unit 150 according to an embodiment of the present disclosure may use any type of wired or wireless communication systems.
본 개시에서 네트워크부(150)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In the present disclosure, the network unit 150 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN). can In addition, the network may be a well-known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth).
본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The techniques described herein may be used in the networks mentioned above, as well as in other networks.
본 개시에 따라 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하기 위해, 프로세서(110)는 소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출할 수 있다.In order to calculate the style information including the style representation of the social account according to the present disclosure, the processor 110 receives partial style information including the style representation for at least one social data included in the social data set. can be calculated.
본 개시에 따른 프로세서(110)는 소셜 데이터 셋에 포함된 적어도 하나 이상의 소셜 데이터에 대한 부분 스타일 정보에 기초하여 소셜 계정의 스타일 정보를 산출할 수 있다. 소셜 계정의 스타일 정보는 SNS 계정을 대표하는 감성 단어들을 포함할 수 있다. 소셜 계정의 스타일 정보는 둘 이상의 부분 스타일 정보로부터 산출될 수 있다. 소셜 계정의 스타일 정보는 제 1 부분 스타일 정보 및 제 2 부분 스타일 정보로부터 산출될 수 있다. 제 1 부분 스타일 정보 및 제 2 부분 스타일 정보는 서로 다른 제 1 소셜 데이터 및 제 2 소셜 데이터로부터 각각 산출될 수 있다. 예를 들어 본 개시에 따른 프로세서(110)는 복수의 소셜 데이터에 대한 부분 스타일 정보를 합산하여 최종적으로 "귀여운", "우아한", "편안한" 등의 감성 단어를 포함하는 소셜 계정의 스타일 정보를 산출할 수 있다. 전술한 사용자의 스타일 정보에 관한 구체적 기재는 일 예시에 불과할 뿐 본 개시를 제한하지 않는다.The processor 110 according to the present disclosure may calculate style information of a social account based on partial style information on at least one or more social data included in the social data set. The style information of the social account may include emotional words representing the SNS account. The style information of the social account may be calculated from two or more partial style information. The style information of the social account may be calculated from the first partial style information and the second partial style information. The first partial style information and the second partial style information may be respectively calculated from different first and second social data. For example, the processor 110 according to the present disclosure adds up partial style information for a plurality of social data to finally obtain style information of a social account including emotional words such as “cute”, “elegant”, “comfortable”, etc. can be calculated. The detailed description of the user's style information described above is only an example and does not limit the present disclosure.
본 개시에 따라 프로세서(110)가 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는, 감성 단어 집합 및 배색 감성 스케일에 기초하여, 상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계, 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 획득되는 검출 결과에 기초하여, 상기 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계 또는 상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과에 기초하여, 상기 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계 중 적어도 하나를 포함할 수 있다.According to the present disclosure, the step of the processor 110 calculating the partial style information including the style expression for the at least one social data is based on the emotional word set and the color matching emotion scale, the first emotional information from the social data calculating, based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module, calculating second emotional information from the social data or the emotional word set and the The method may include at least one of calculating third emotional information from the social data based on a processing result obtained by inputting text included in the social data into the natural language processing module.
도 2는 본 개시의 실시예에 따른 배색 감성 스케일을 표현하기 위한 예시도이다. 배색 감성 스케일은 컬러칩에서 느껴지는 인간의 심리를 바탕으로 컬러칩에 따라 감성을 구분한 것이다. 상기 컬러칩은 색채의 조합인 배색을 포함할 수 있다. 배색 감성 스케일은 컬러칩에 따른 감성의 통계에 근거하여, 컬러칩에서 느껴지는 감정을 척도로 구분한 후 서로 다른 컬러칩마다 컬러칩에 따른 감성 단어를 매핑(mapping)한 것이다. 배색 감성 스케일은 2차원 좌표 평면에서 표현될 수 있다. 배색 감성 스케일은 2 개의 축을 갖는 2차원 좌표 평면 상에 각 좌표에 따른 감성 단어 마다 색의 조합에 따른 컬러칩을 매핑(mapping)한 데이터일 수 있다. 배색 감성 스케일은 2 개의 축으로서 제 1축 및 제 2축을 포함할 수 있다. 제 1축은 예를 들어 컬러칩에 포함된 색의 조합이 갖는 심리적 느낌(즉, 감성)이 동적인 정도를 그 정도에 따라 수치로 표현한 축일 수 있다. 제 1축의 양 끝단은 각각 동적인(dynamic)-정적인(static)일 수 있다. 제 2축은 컬러칩에 포함된 색의 조합이 갖는 심리적 느낌이 부드러운 정도를 그 정도에 따라 수치로 표현한 축일 수 있다. 제 2 축의 양 끝단은 각각 부드러운(soft)-딱딱한(hard)일 수 있다. 도 2에 도시된 바와 같이 각 컬러칩은 2차원 좌표상에 매핑되어 "화려한", "우아한", "다이나믹한" 등의 감성 단어와 매칭될 수 있다. 배색 감성 스케일은 하나 이상의 감성 단어에 해당하는 좌표마다 대응되는 컬러칩이 매핑된 데이터를 포함할 수 있다. 예를 들어, 도 2에 도시된 배색 감성 스케일의 (1, 1) 지점(211)은 "내추럴한"이라는 감성 단어를 가지며 참조번호 213가 지시하는 컬러칩과 매핑될 수 있다. 다른 예를 들어 도 2에 도시된 배색 감성 스케일의 (-1, -1) 지점(231)은 "화려한"이라는 감성 단어를 가지며 참조번호 233가 지시하는 컬러칩과 매핑될 수 있다. 전술한 배색 감성 스케일은 일 예시일 뿐 본 개시를 실시함에 있어서 다양한 종류의 컬러칩 및 이에 대응되는 감성 단어를 포함하는 배색 감성 스케일을 사용할 수 있음은 통상의 기술자에게 자명할 것이다.2 is an exemplary diagram for expressing a color coordination emotional scale according to an embodiment of the present disclosure. The color matching emotion scale is based on the human psychology felt from the color chip, and the emotion is classified according to the color chip. The color chip may include a color scheme that is a combination of colors. The color matching emotion scale is based on the statistics of the emotion according to the color chip, and after dividing the emotion felt in the color chip into a scale, the emotion words according to the color chip are mapped for each different color chip. The color matching sensitivity scale may be expressed in a two-dimensional coordinate plane. The color matching emotion scale may be data obtained by mapping color chips according to a color combination for each emotional word according to each coordinate on a two-dimensional coordinate plane having two axes. The color matching sensibility scale may include a first axis and a second axis as two axes. The first axis may be, for example, an axis in which a psychological feeling (ie, emotion) of a color combination included in the color chip is expressed numerically according to the degree of dynamic. Both ends of the first axis may be dynamic-static, respectively. The second axis may be an axis in which a psychological feeling of a color combination included in the color chip is expressed numerically according to the degree of softness. Both ends of the second shaft may each be soft-hard. As shown in FIG. 2 , each color chip is mapped on two-dimensional coordinates and can be matched with emotional words such as “glamorous”, “elegant”, and “dynamic”. The color matching emotion scale may include data to which a color chip corresponding to each coordinate corresponding to one or more emotional words is mapped. For example, the (1, 1) point 211 of the color matching sensibility scale shown in FIG. 2 has the emotional word “natural” and may be mapped to a color chip indicated by reference numeral 213 . For another example, the (-1, -1) point 231 of the color matching sensibility scale shown in FIG. 2 has the emotional word “glamorous” and may be mapped to a color chip indicated by reference numeral 233 . It will be apparent to those skilled in the art that the above-described color matching emotion scale is only an example, and in implementing the present disclosure, a color matching emotion scale including various types of color chips and corresponding emotion words may be used.
본 개시의 상세한 설명 및 청구범위에 있어서 "제 1 감성 정보", "제 2 감성 정보", "제 3 감성 정보"와 같이 표현되는 각 감성 정보는 감성 단어 집합에 포함된 복수의 감성 단어들을 데이터로서 포함할 수 있다. 제 1 감성 정보, 제 2 감성 정보 및 제 3 감성 정보는 부분 스타일 정보 산출의 기초가 되는 감성 정보로서 하나 이상의 감성 단어들을 공통적으로 포함할 수 있다. 감성 정보는 감성 단어 집합에 포함된 복수의 감성 단어들 각각의 점수를 데이터로서 포함할 수 있다. 감성 정보는 감성 단어 집합에 포함된 감성 단어들을 후보 감성 단어로서 포함할 수 있다. 예를 들어 감성 단어 집합에 포함된 감성 단어가 ["다이나믹한", "화려한", "차분한"]인 경우, 제 1 감성 정보는 ["다이나믹한":5, "화려한":6, "차분한":0]과 같이 각 감성 단어의 점수를 데이터로서 포함할 수 있다. 감성 단어 집합에 포함된 각각의 감성 단어의 점수는 초기값으로 '0'의 값을 가질 수 있다. 감성 단어 집합에 포함된 각각의 감성 단어는 감성 단어 별로 서로 다르게 사전 결정된 점수 초기값을 가질 수도 있다. In the detailed description and claims of the present disclosure, each emotion information expressed as "first emotion information", "second emotion information", and "third emotion information" is data of a plurality of emotion words included in the emotion word set. can be included as The first emotion information, the second emotion information, and the third emotion information may include one or more emotion words as emotion information that is a basis for calculating the partial style information. The sentiment information may include scores of each of a plurality of sentiment words included in the sentiment word set as data. The sentiment information may include sentiment words included in the sentiment word set as candidate sentiment words. For example, if the emotional words included in the emotional word set are ["dynamic", "glamorous", "calm"], the first emotional information is ["dynamic":5, "glamorous":6, "serious"] Like ":0], the score of each sentiment word may be included as data. The score of each sentiment word included in the sentiment word set may have a value of '0' as an initial value. Each emotional word included in the emotional word set may have a different pre-determined initial score for each emotional word.
본 개시에 따라 프로세서(110)가 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는, 배색 감성 스케일에 포함된 복수의 컬러칩들과 소셜 데이터에 포함된 이미지의 대표 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 대표 부분 이미지에 대응되는 컬러칩을 산출하는 단계 및 대표 부분 이미지에 대응되는 컬러칩과 매핑된 감성 단어에 기초하여 제 1 감성 정보를 산출하는 단계를 포함할 수 있다.According to the present disclosure, the step of the processor 110 calculating the first emotion information from the social data may include comparing distances between a plurality of color chips included in the color matching emotion scale and a representative partial image of the image included in the social data. The method may include calculating a color chip corresponding to the representative partial image on the color matching emotion scale and calculating first emotional information based on the emotion word mapped to the color chip corresponding to the representative partial image.
프로세서(110)는 배색 감성 스케일에 포함된 복수의 컬러칩들과 소셜 데이터에 포함된 이미지의 대표 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 대표 부분 이미지에 대응되는 컬러칩을 산출할 수 있다. 대표 부분 이미지는 소셜 데이터에 포함된 이미지에 기초하여 생성될 수 있다. 대표 부분 이미지는 소셜 데이터에 포함된 이미지의 적어도 일부를 포함하는 하나의 부분 이미지일 수 있다. 대표 부분 이미지는 소셜 데이터에 포함된 이미지 그 자체일 수도 있다. 대표 부분 이미지는 소셜 데이터에 포함된 이미지로부터 일련의 생성 프로세스를 통해 별도로 생성될 수도 있다. The processor 110 may calculate a color chip corresponding to the representative partial image on the color matching emotional scale by comparing distances between the plurality of color chips included in the color matching emotional scale and the representative partial image of the image included in the social data. . The representative partial image may be generated based on an image included in the social data. The representative partial image may be one partial image including at least a part of the image included in the social data. The representative partial image may be an image itself included in the social data. The representative partial image may be separately generated from an image included in the social data through a series of generation processes.
본 개시에 따른 일 실시예에서, 상기 대표 부분 이미지 생성 프로세스는 소셜 데이터에 포함된 이미지의 해상도를 낮추는 작업을 포함할 수 있다. 예컨대 가로x세로의 크기가 9x9 픽셀인 이미지의 경우, 프로세서(110)는 3x3 픽셀 크기를 갖는 윈도우에 기초하여 각 RGB 채널의 값의 평균값을 계산한후 1x1 픽셀로 치환할 수 있다. 이 경우, 상술한 예시에 있어서 프로세서(110)는 3x3 픽셀 크기를 갖는 윈도우를 통해 9x9 픽셀 크기의 이미지로부터 3x3 픽셀 크기를 갖는 대표 부분 이미지를 생성할 수 있다. 상기 대표 부분 이미지에 대응되는 컬러칩은, 상기 컬러칩에 포함된 적어도 하나의 색상의 RGB값과 대표 부분 이미지에 포함된 적어도 하나의 픽셀의 RGB값 사이의 거리에 기초하여 산출될 수 있다. In an embodiment according to the present disclosure, the representative partial image generation process may include lowering the resolution of an image included in the social data. For example, in the case of an image having a size of 9x9 pixels, the processor 110 may calculate an average value of the values of each RGB channel based on a window having a size of 3x3 pixels, and then replace it with 1x1 pixels. In this case, in the above-described example, the processor 110 may generate a representative partial image having a size of 3x3 pixels from an image of a size of 9x9 pixels through a window having a size of 3x3 pixels. The color chip corresponding to the representative partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the representative partial image.
본 개시에 따른 다른 일 실시예에서, 상기 대표 부분 이미지 생성 프로세스는 소셜 데이터에 포함된 이미지로부터 하나 이상의 메인 컬러를 추출하는 연산하는 작업을 포함할 수 있다. 프로세서(110)는 소셜 데이터에 포함된 이미지로부터 N개의 메인 컬러를 추출하여 대표 부분 이미지를 구성할 수 있다. 상기 N개의 메인 컬러는 이미지에 포함된 복수의 픽셀들의 색상에 관한 통계 연산에 기초하여 선택될 수 있다. 상기 색상에 대한 데이터는 RGB 값을 나타내는 순서쌍일 수 있다. 상기 색상에 관한 통계 연산은 총 색상의 수를 줄이기 위한 필터링 연산을 포함할 수 있다. 상기 필터링 연산은 임계값 이하의 RGB 값 차이를 갖는 픽셀들을 하나의 RGB 값으로 치환시키는 연산을 포함할 수 있다. 상기 대표 부분 이미지에는 소셜 데이터의 이미지 내에서 가장 많은 수의 픽셀을 갖는 상위 N개의 메인 컬러들이 포함될 수 있다. 상기 대표 부분 이미지에는 소셜 데이터의 이미지 내에서 가장 많은 수의 픽셀을 갖는 상위 N개의 메인 컬러들이 포함될 뿐만 아니라 상위 N개의 메인 컬러들 사이의 비율 가중치가 포함될 수도 있다. 예를 들어 프로세서(110)는 소셜 데이터에 포함된 이미지로부터 4개의 메인 컬러를 다음과 같은 데이터 형태로 추출할 수 있다.In another embodiment according to the present disclosure, the representative partial image generating process may include an operation of extracting one or more main colors from an image included in social data. The processor 110 may configure a representative partial image by extracting N main colors from an image included in the social data. The N main colors may be selected based on statistical calculations on colors of a plurality of pixels included in the image. The color data may be an ordered pair representing RGB values. The statistical operation on the color may include a filtering operation for reducing the total number of colors. The filtering operation may include an operation of substituting one RGB value for pixels having a difference in RGB values less than or equal to a threshold value. The representative partial image may include the top N main colors having the largest number of pixels in the image of the social data. The representative partial image may include not only the top N main colors having the largest number of pixels in the image of the social data, but also ratio weights between the top N main colors. For example, the processor 110 may extract four main colors from the image included in the social data in the following data format.
[ <(255,255,255), 0.56> <(198,197,193), 0.27> <(0,255,255), 0.10> <(0, 0, 0), 0.07> ][ <(255,255,255), 0.56> <(198,197,193), 0.27> <(0,255,255), 0.10> <(0, 0, 0), 0.07> ]
위의 예시에서 데이터에 포함된 각 튜플(tuple)은 메인 컬러의 RGB 값과 비율 가중치를 포함할 수 있다. 본 개시의 다른 실시예에서 프로세서(110)는 가장 비중이 높은 하나 이상의 메인 컬러를 제외하고 대표 부분 이미지를 생성할 수도 있다. 예를 들어 상위 N개의 메인 컬러 추출 시, 프로세서(110)는 N+M개의 메인 컬러를 획득한 후, 상위 M개의 메인 컬러를 잘라내고 나머지 N개를 메인 컬러로 추출할 수 있다. 상기 M은 1 이상의 자연수일 수 있다. 이와 같이 비중이 높은 하나 이상의 메인 컬러를 제외할 경우 프로세서(110)는 동일한 배경에서 촬영된 이미지에서 배경을 제외한 나머지의 색상에 집중하여 감성 정보를 추출할 수 있는 효과를 갖는다. 또다른 실시예에서 프로세서(110)는 배경에 해당하는 부분을 잘라낸 후 남은 이미지로부터 대표 부분 이미지에 포함될 상위 N개의 메인 컬러를 추출하는 연산을 수행할 수도 있다.In the above example, each tuple included in the data may include the RGB value of the main color and the ratio weight. In another embodiment of the present disclosure, the processor 110 may generate a representative partial image except for one or more main colors having the highest weight. For example, when extracting the top N main colors, the processor 110 may obtain N+M main colors, cut out the top M main colors, and extract the remaining N main colors as the main colors. M may be a natural number of 1 or more. When one or more main colors with high weight are excluded as described above, the processor 110 has the effect of extracting emotional information by focusing on the colors other than the background from the image photographed in the same background. In another embodiment, the processor 110 may perform an operation of extracting the top N main colors to be included in the representative partial image from the remaining image after cutting out the portion corresponding to the background.
이하에서는 프로세서(110)가 복수의 컬러칩들과 소셜 데이터에 포함된 이미지의 대표 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 대표 부분 이미지에 대응되는 컬러칩을 산출하는 구체적 방법에 관하여 서술한다. 도 3은 본 개시의 실시예에 따른 컬러칩과 부분 이미지를 각각 예시적으로 도시한 예시도이다. 본 개시에 따른 일 실시예로서 프로세서(110)는 4개의 픽셀로 구성된 대표 부분 이미지(310)와 복수의 컬러칩들에 포함된 각 컬러칩(330)과의 거리를 계산할 수 있다. 프로세서(110)는 복수의 컬러칩들과 대표 부분 이미지(310) 사이의 거리를 서로 비교할 수 있다. Hereinafter, a specific method in which the processor 110 compares distances between a plurality of color chips and a representative partial image of an image included in the social data to calculate a color chip corresponding to the representative partial image on the color matching emotion scale will be described. . 3 is an exemplary diagram exemplarily illustrating a color chip and a partial image according to an embodiment of the present disclosure. As an embodiment according to the present disclosure, the processor 110 may calculate a distance between the representative partial image 310 composed of four pixels and each color chip 330 included in the plurality of color chips. The processor 110 may compare a distance between the plurality of color chips and the representative partial image 310 with each other.
프로세서(110)는 컬러칩(330)과 대표 부분 이미지(310) 사이의 거리 계산을 위해 상기 각 픽셀과 상기 각 색상을 일대일 대응시켜 RGB값 좌표 사이의 거리를 연산할 수 있다. RGB값 좌표 사이의 거리 함수는 예를 들어 맨하탄 거리 함수(L1 거리 함수), 유클리드 거리 함수(L2 거리 함수) 등을 포함할 수 있다.In order to calculate the distance between the color chip 330 and the representative partial image 310 , the processor 110 may calculate the distance between the RGB value coordinates by matching each pixel and each color one-to-one. The distance function between the RGB value coordinates may include, for example, a Manhattan distance function (L1 distance function), a Euclidean distance function (L2 distance function), and the like.
RGB값 좌표 사이의 거리 함수가 맨하탄 거리함수인 경우 수식은 수학식 1과 같다.When the distance function between the RGB value coordinates is the Manhattan distance function, the equation is the same as Equation 1.
Figure PCTKR2021014314-appb-img-000001
Figure PCTKR2021014314-appb-img-000001
Figure PCTKR2021014314-appb-img-000002
은 맨하탄 거리함수를 나타낸다.
Figure PCTKR2021014314-appb-img-000003
Figure PCTKR2021014314-appb-img-000004
는 각각 서로 다른 RGB값 좌표들을 나타낸다.
Figure PCTKR2021014314-appb-img-000005
Figure PCTKR2021014314-appb-img-000006
는 각각
Figure PCTKR2021014314-appb-img-000007
Figure PCTKR2021014314-appb-img-000008
Figure PCTKR2021014314-appb-img-000009
번째 원소의 값을 나타낸다.
Figure PCTKR2021014314-appb-img-000002
is the Manhattan distance function.
Figure PCTKR2021014314-appb-img-000003
Wow
Figure PCTKR2021014314-appb-img-000004
represents different RGB value coordinates, respectively.
Figure PCTKR2021014314-appb-img-000005
Wow
Figure PCTKR2021014314-appb-img-000006
is each
Figure PCTKR2021014314-appb-img-000007
Wow
Figure PCTKR2021014314-appb-img-000008
of
Figure PCTKR2021014314-appb-img-000009
Indicates the value of the second element.
RGB값 좌표 사이의 거리 함수가 유클리드 거리함수인 경우 수식은 수학식 2와 같다.When the distance function between the RGB value coordinates is the Euclidean distance function, Equation 2 is the same.
Figure PCTKR2021014314-appb-img-000010
Figure PCTKR2021014314-appb-img-000010
Figure PCTKR2021014314-appb-img-000011
는 유클리드 거리함수를 나타낸다.
Figure PCTKR2021014314-appb-img-000012
Figure PCTKR2021014314-appb-img-000013
는 각각 서로 다른 RGB값 좌표들을 나타낸다.
Figure PCTKR2021014314-appb-img-000014
Figure PCTKR2021014314-appb-img-000015
는 각각
Figure PCTKR2021014314-appb-img-000016
Figure PCTKR2021014314-appb-img-000017
Figure PCTKR2021014314-appb-img-000018
번째 원소의 값을 나타낸다.
Figure PCTKR2021014314-appb-img-000011
is the Euclidean distance function.
Figure PCTKR2021014314-appb-img-000012
Wow
Figure PCTKR2021014314-appb-img-000013
represents different RGB value coordinates, respectively.
Figure PCTKR2021014314-appb-img-000014
Wow
Figure PCTKR2021014314-appb-img-000015
is each
Figure PCTKR2021014314-appb-img-000016
Wow
Figure PCTKR2021014314-appb-img-000017
of
Figure PCTKR2021014314-appb-img-000018
Indicates the value of the second element.
본 개시의 일 실시예에 따라 대표 부분 이미지(310)에 포함된 제 1 픽셀(311)의 RGB값이 [102,102,051], 제 2 픽셀(313)의 RGB값이 [102,000,102], 제 3 픽셀의 RGB값이 [255,153,255], 제 4 픽셀(317) RGB값이 [255,204,255]일 수 있다. 이 때 거리 계산을 위한 컬러칩(330)이 [000, 000, 102]의 RGB 값을 갖는 제 1 색상(331), [051, 051, 102]의 RGB 값을 갖는 제 2 색상(333), [051, 051, 153]의 RGB 값을 갖는 제 3 색상(335)으로 구성될 수 있다. 수학식 1에 따르면 제 1 픽셀(311)과 제 1 색상(331)의 RGB값 사이의 거리는
Figure PCTKR2021014314-appb-img-000019
일 수 있다. 마찬가지로 제 1 픽셀(311)과 제 2 색상(333)의 RGB값 사이의 거리는 153, 제 1 픽셀(311)과 제 3 색상(335)의 RGB값 사이의 거리는 204로 계산될 수 있다. 수학식 2에 따를 경우 제 1 픽셀(311)과 제 1 색상(331)의 RGB값 사이의 거리는
Figure PCTKR2021014314-appb-img-000020
일 수 있다. 마찬가지로 제 1 픽셀(311)과 제 2 색상(333)의 RGB값 사이의 거리는 88.3, 제 1 픽셀(311)과 제 3 색상(335)의 RGB값 사이의 거리는 124.9일 수 있다.
According to an embodiment of the present disclosure, the RGB value of the first pixel 311 included in the representative partial image 310 is [102,102,051], the RGB value of the second pixel 313 is [102,000,102], and the RGB value of the third pixel The value may be [255,153,255], and the RGB value of the fourth pixel 317 may be [255,204,255]. At this time, the color chip 330 for distance calculation includes a first color 331 having an RGB value of [000, 000, 102], a second color 333 having an RGB value of [051, 051, 102], It may be composed of a third color 335 having an RGB value of [051, 051, 153]. According to Equation 1, the distance between the first pixel 311 and the RGB value of the first color 331 is
Figure PCTKR2021014314-appb-img-000019
can be Similarly, the distance between the first pixel 311 and the RGB values of the second color 333 may be calculated as 153 and the distance between the first pixel 311 and the RGB values of the third color 335 may be calculated as 204 . According to Equation 2, the distance between the first pixel 311 and the RGB value of the first color 331 is
Figure PCTKR2021014314-appb-img-000020
can be Similarly, the distance between the RGB values of the first pixel 311 and the second color 333 may be 88.3, and the distance between the first pixel 311 and the RGB values of the third color 335 may be 124.9.
프로세서(110)는 대표 부분 이미지(310)에 포함된 제 1 픽셀(311)의 RGB값과 컬러칩(330)에 포함된 제 1 색상, 제 2 색상 및 제 3 색상의 RGB값 사이의 거리들을 각각 계산한 후, 상기 RGB값 사이의 거리들을 합산하여 제 1 픽셀(311)과 컬러칩(330)의 거리를 연산할 수 있다. 상기 합산은 예를 들어 총합, 평균, 가중합 등을 포함할 수 있다. 일 예로써 제 1 픽셀(311)과 컬러칩(330)의 거리는 RGB값 사이의 거리의 총합으로서 255+153+204 = 612로 계산될 수 있다. 다른 예를 들어 제 1 픽셀(311)과 컬러칩(330)의 거리는 255, 153, 204의 평균인 204로 계산될 수도 있다. 전술한 합산 방식에 관한 기재는 일 예시에 불과할 뿐 여러 값에 대한 다양한 합산 방식을 제한없이 포함한다.The processor 110 calculates the distances between the RGB values of the first pixel 311 included in the representative partial image 310 and the RGB values of the first, second, and third colors included in the color chip 330 . After each calculation, the distance between the first pixel 311 and the color chip 330 may be calculated by summing the distances between the RGB values. The summation may include, for example, a sum total, an average, a weighted sum, and the like. As an example, the distance between the first pixel 311 and the color chip 330 may be calculated as 255+153+204=612 as the sum of the distances between RGB values. As another example, the distance between the first pixel 311 and the color chip 330 may be calculated as 204, which is an average of 255, 153, and 204. The above-described summing method is merely an example and includes various summation methods for various values without limitation.
프로세서(110)는 대표 부분 이미지(310)에 포함된 복수의 픽셀들에 대해 제 1 픽셀(311)과 컬러칩(330)의 거리, 제 2 픽셀(313)과 컬러칩(330)의 거리, 제 3 픽셀(315)과 컬러칩(330)의 거리, 제 4 픽셀(317)과 컬러칩(330)의 거리를 연산할 수 있다. 그 후 프로세서(110)는 각 픽셀마다 연산된 컬러칩(330)과의 거리들을 합산하여 대표 부분 이미지(310)와 컬러칩(330)의 거리를 연산할 수 있다. 상기 합산은 예를 들어 총합, 평균 또는 가중합 등을 포함할 수 있다. The processor 110 determines the distance between the first pixel 311 and the color chip 330 and the distance between the second pixel 313 and the color chip 330 for a plurality of pixels included in the representative partial image 310 , The distance between the third pixel 315 and the color chip 330 and the distance between the fourth pixel 317 and the color chip 330 may be calculated. Thereafter, the processor 110 may calculate the distance between the representative partial image 310 and the color chip 330 by summing the distances to the color chip 330 calculated for each pixel. The summation may include, for example, a sum total, an average, or a weighted sum.
프로세서(110)는 상술한 바와 같이 대표 부분 이미지(310)와 컬러칩(330)의 거리 연산을 복수의 컬러칩에 대해 수행한 후, 대표 부분 이미지(310)와 복수의 컬러칩에 포함된 각 컬러칩 사이의 거리를 서로 비교할 수 있다. 프로세서(110)는 대표 부분 이미지(310)와 복수의 컬러칩에 포함된 각 컬러칩 사이의 거리 중 거리가 최소인 컬러칩을 대표 부분 이미지에 대응되는 컬러칩으로 산출할 수 있다.As described above, the processor 110 calculates the distance between the representative partial image 310 and the color chip 330 for a plurality of color chips, and then performs each of the representative partial image 310 and each color chip included in the plurality of color chips. The distance between the color chips can be compared with each other. The processor 110 may calculate a color chip having the smallest distance among the distances between the representative partial image 310 and each color chip included in the plurality of color chips as a color chip corresponding to the representative partial image.
본 개시의 추가적인 실시예로서 프로세서(110)가 상위 N개의 메인 컬러를 추출하는 방식으로 대표 부분 이미지를 생성한 경우에 대표 부분 이미지에 대응되는 컬러칩을 산출하는 방법에 대해 서술한다. 본 개시의 일 실시예에 따른 대표 부분 이미지는 전술한 바와 같이 (A_1, A_2, A_3, ..., A_N)로 표현되는 N개의 메인 컬러를 포함할 수 있다. 또한 N개의 메인 컬러 각각의 비율 가중치(W_1, W_2, W_3, ..., W_N)를 더 포함할 수 있다. 한 편, 배색 감성 스케일에 포함된 복수의 컬러칩들 중 제 1 컬러칩은 (B_1, B_2, B_3)으로 표현되는 색상들을 포함할 수 있다. 이러한 경우 대표 부분 이미지와 제 1 컬러칩간 유사도는 대표 부분 이미지와 B_1 색상의 유사도, 대표 부분 이미지와 B_2 색상의 유사도 및 대표 부분 이미지와 B_3 색상의 유사도에 기초하여 연산될 수 있다. 나아가, 상기 대표 부분 이미지와 B_1 색상의 유사도는 B_1 색상과 대표 부분 이미지에 포함된 각 메인 컬러의 차이에 메인 컬러마다 존재하는 비율 가중치가 적용되어 연산될 수 있다. 보다 구체적으로, 대표 부분 이미지와 각 컬러칩의 유사도는 예를 들어 수학식 3에 기초하여 연산될 수 있다.As an additional embodiment of the present disclosure, a method of calculating a color chip corresponding to the representative partial image when the processor 110 generates the representative partial image by extracting the top N main colors will be described. As described above, the representative partial image according to an embodiment of the present disclosure may include N main colors expressed by (A_1, A_2, A_3, ..., A_N). In addition, the ratio weights W_1, W_2, W_3, ..., W_N of each of the N main colors may be further included. Meanwhile, a first color chip among a plurality of color chips included in the color matching sensibility scale may include colors expressed by (B_1, B_2, B_3). In this case, the degree of similarity between the representative partial image and the first color chip may be calculated based on the similarity between the representative partial image and the color B_1, the similarity between the representative partial image and the color B_2, and the similarity between the representative partial image and the color B_3. Furthermore, the degree of similarity between the representative partial image and the B_1 color may be calculated by applying a ratio weight existing for each main color to the difference between the B_1 color and each main color included in the representative partial image. More specifically, the degree of similarity between the representative partial image and each color chip may be calculated based on Equation 3, for example.
Figure PCTKR2021014314-appb-img-000021
Figure PCTKR2021014314-appb-img-000021
수학식 3에서 N은 대표 부분 이미지에 포함된 메인 컬러의 총 수, A_i는 대표 부분 이미지 내에서 i번째 메인컬러의 RGB값, B_j는 컬러칩 내의 j번째 색상의 RGB값을 표시한다. M은 컬러칩 하나에 포함된 색상의 수이며 예를 들어 3일 수 있다. 전술한 대표 부분 이미지와 컬러칩의 유사도에 대한 계산 방식 및 수식은 본 개시를 설명하기 위한 일 예시에 불과하며, 본 개시는 대표 부분 이미지에 포함된 색상, 비율 그리고 컬러칩에 포함된 색상에 기초하여 유사도를 연산할 수 있는 모든 방법을 제한없이 포함한다.In Equation 3, N denotes the total number of main colors included in the representative partial image, A_i denotes the RGB value of the i-th main color in the representative partial image, and B_j denotes the RGB value of the j-th color in the color chip. M is the number of colors included in one color chip, and may be, for example, three. The above-described calculation method and formula for the degree of similarity between the representative partial image and the color chip is merely an example for explaining the present disclosure, and the present disclosure is based on the color, ratio, and color included in the representative partial image and the color chip. Therefore, all methods that can calculate the similarity are included without limitation.
본 개시에 따른 프로세서(110)는 위와 같이 각각의 컬러칩과 대표 부분 이미지 사이의 유사도를 연산할 수 있고 모든 컬러칩에 대해 수행할 경우, 유사도의 크기에 따라 가장 유사한 사전 결정된 개수의 컬러칩을 결정할 수 있다.The processor 110 according to the present disclosure can calculate the degree of similarity between each color chip and the representative partial image as described above, and when it is performed for all color chips, the most similar predetermined number of color chips according to the degree of similarity can decide
본 개시의 일 실시예에 따라 프로세서(110)는 대표 부분 이미지(310)에 대응되는 컬러칩과 매핑된 감성 단어에 기초하여 제 1 감성 정보를 산출할 수 있다. 일 실시예에서 프로세서(110)는 복수의 감성 단어들 중 대표 부분 이미지(310)와의 거리가 가장 작은 컬러칩의 감성 단어의 점수를 변경시킨다고 결정할 수 있다. 예를 들어, 상기 변경은 상기 감성 단어의 점수를 증가시키는 것을 포함할 수 있다. 다른 실시예에서 프로세서(110)는 복수의 감성 단어들 중 대표 부분 이미지(310)와의 거리가 가장 작은 컬러칩의 감성 단어 및 대표 부분 이미지(310)와의 거리가 가장 작은 컬러칩의 감성 단어와 배색 감성 스케일 상에서 거리에 따른 상위 M 개(예를 들어 5 개)의 감성 단어들의 점수를 증가시킬 수 있다. 프로세서(110)는 대표 부분 이미지(310)에 대응되는 컬러칩과 매핑된 감성 단어에 기초하여 하나 이상의 감성 단어의 점수를 증가시킴으로써 제 1 감성 정보를 산출할 수 있다. 제 1 감성 정보는 복수의 감성 단어들 및 각각의 감성 단어에 대한 점수를 데이터로서 포함할 수 있다.According to an embodiment of the present disclosure, the processor 110 may calculate the first emotion information based on the emotion word mapped to the color chip corresponding to the representative partial image 310 . In an embodiment, the processor 110 may determine that the score of the emotional word of the color chip having the smallest distance from the representative partial image 310 among the plurality of emotional words is changed. For example, the alteration may include increasing the score of the sentiment word. In another embodiment, the processor 110 sets the color scheme with the emotional word of the color chip having the smallest distance from the representative partial image 310 among the plurality of emotional words and the emotional word of the color chip having the smallest distance from the representative partial image 310 . It is possible to increase the score of the top M (eg, 5) emotional words according to the distance on the sentiment scale. The processor 110 may calculate the first emotion information by increasing the score of one or more emotion words based on the emotion words mapped with the color chip corresponding to the representative partial image 310 . The first sentiment information may include a plurality of sentiment words and scores for each sentiment word as data.
본 개시에 따라 프로세서(110)가 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는, 배색 감성 스케일에 포함된 복수의 컬러칩들과 소셜 데이터에 포함된 이미지의 제 1 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 제 1 부분 이미지에 대응되는 컬러칩을 산출하는 단계, 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 제 2 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 제 2 부분 이미지에 대응되는 컬러칩을 산출하는 단계, 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 1 부분 이미지에 대응되는 컬러칩과 매핑된 제 1 감성 단어의 점수를 증가시키는 단계, 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 2 부분 이미지에 대응되는 컬러칩과 매핑된 제 2 감성 단어의 점수를 증가시키는 단계 및 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 1 감성 정보를 산출하는 단계를 포함할 수 있다.According to the present disclosure, the step of the processor 110 calculating the first emotion information from the social data may include comparing the distances between the plurality of color chips included in the color matching emotion scale and the first partial image of the image included in the social data. calculating a color chip corresponding to the first partial image on the color matching emotional scale by comparing the distances between the plurality of color chips included in the color matching emotional scale and the second partial image of the image included in the social data. Calculating a color chip corresponding to the second partial image on the color matching emotional scale, and the score of the first emotional word mapped with the color chip corresponding to the first partial image for a plurality of emotional words included in the emotional word set increasing the score of the second emotional word mapped to the color chip corresponding to the second partial image with respect to the plurality of emotional words included in the emotional word set, and the plurality of emotional words included in the emotional word set The method may include calculating the first emotional information based on the scores of the emotional words.
본 개시에 따른 제 1 부분 이미지 및 제 2 부분 이미지는 소셜 데이터에 포함된 이미지의 적어도 일부를 포함하는 부분 이미지일 수 있다. 소셜 데이터에 포함된 이미지의 적어도 일부란 소셜 데이터에 포함된 이미지의 임의의 영역에 존재하는 하나 이상의 픽셀 집합을 의미할 수 있다. 제 1 부분 이미지 및 제 2 부분 이미지는 적어도 하나의 픽셀은 서로 같지 않은 부분 이미지일 수 있다. 예를 들어 제 1 부분 이미지 및 제 2 부분 이미지는 도 3의 참조번호 310과 같이 2x2 픽셀 크기를 갖는 부분 이미지일 수 있다. The first partial image and the second partial image according to the present disclosure may be partial images including at least a part of an image included in social data. At least a part of the image included in the social data may mean a set of one or more pixels existing in an arbitrary area of the image included in the social data. The first partial image and the second partial image may be partial images in which at least one pixel is not equal to each other. For example, the first partial image and the second partial image may be partial images having a size of 2x2 pixels as indicated by reference numeral 310 of FIG. 3 .
본 개시의 일 실시예에 따라 프로세서(110)가 배색 감성 스케일에 포함된 복수의 컬러칩들과 제 1 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 제 1 부분 이미지에 대응되는 컬러칩을 산출하는 단계 혹은 배색 감성 스케일에 포함된 복수의 컬러칩들과 제 2 부분 이미지 사이의 거리들을 비교하여 배색 감성 스케일에서 제 2 부분 이미지에 대응되는 컬러칩을 산출하는 단계는 전술한 대표 부분 이미지에 대응되는 컬러칩을 산출하는 방법과 동일한 방식으로 이뤄질 수 있음을 통상의 기술자 입장에서 명확하게 이해할 수 있으므로 생략한다. According to an embodiment of the present disclosure, the processor 110 compares distances between a plurality of color chips included in the color matching sensitivity scale and the first partial image to calculate a color chip corresponding to the first partial image on the color matching emotional scale The step of comparing the distances between a plurality of color chips included in the color matching sensitivity scale and the second partial image and calculating a color chip corresponding to the second partial image on the color matching emotional scale corresponds to the representative partial image described above. It can be clearly understood from the point of view of a person skilled in the art that it can be performed in the same way as the method of calculating the color chip, so it is omitted.
본 개시의 일 실시예에 따라 제 1 부분 이미지에 대응되는 컬러칩은 컬러칩에 포함된 적어도 하나의 색상의 RGB값과 제 1 부분 이미지에 포함된 적어도 하나의 픽셀의 RGB값 사이의 거리에 기초하여 산출될 수 있다. 또한 제 2 부분 이미지에 대응되는 컬러칩은 컬러칩에 포함된 적어도 하나의 색상의 RGB값과 제 2 부분 이미지에 포함된 적어도 하나의 픽셀의 RGB값 사이의 거리에 기초하여 산출될 수 있다. 상기 RGB값 사이의 거리 산출 방식은 도 3을 참조하여 동일한 방식으로 이해될 수 있다.According to an embodiment of the present disclosure, the color chip corresponding to the first partial image is based on a distance between the RGB value of at least one color included in the color chip and the RGB value of at least one pixel included in the first partial image. can be calculated by Also, the color chip corresponding to the second partial image may be calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the second partial image. The method of calculating the distance between the RGB values may be understood in the same manner with reference to FIG. 3 .
프로세서(110)는 위와 같이 제 1 부분 이미지에 대응되는 컬러칩을 산출한 후, 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 배색 감성 스케일을 참조하여 제 1 부분 이미지에 대응되는 컬러칩에 매핑된 제 1 감성 단어의 점수를 변경시킨다고 결정할 수 있다. 예를 들어, 상기 변경은 제 1 감성 단어의 점수를 증가시키는 것을 포함할 수 있다. 같은 방식으로 프로세서(110)는 제 2 부분 이미지에 대응되는 컬러칩을 산출한 후, 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 배색 감성 스케일을 참조하여 제 2 부분 이미지에 대응되는 컬러칩에 매핑된 제 2 감성 단어의 점수를 변경시킨다고 결정할 수 있다. 예를 들어, 상기 변경은 제 2 감성 단어의 점수를 증가시키는 것을 포함할 수 있다. 프로세서(110)는 각각의 부분 이미지에 의해 감성 단어 집합에 포함된 복수의 감성 단어들에 대한 점수 조정을 수행한 이후, 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 1 감성 정보를 산출할 수 있다. 구체적으로 예를 들어 감성 단어 집합이 [“역동적인”, “시니컬한”, “귀여운”]을 포함한다고 가정해보자. 이 때 제 1 부분 이미지에 대응되는 컬러칩에 매핑된 제 1 감성 단어는 “역동적인”일 수 있고 프로세서(110)는 제 1 감성 단어의 점수를 증가시킬 수 있다. 그 후 제 2 부분 이미지에 대응되는 컬러칩에 매핑된 제 2 감성 단어 역시 “역동적인”일 수 있고 따라서 프로세서(110)는 제 2 감성 단어의 점수를 증가시킬 수 있다. 최종적으로 감성 단어 집합에 포함된 복수의 감성 단어들의 점수는 [“역동적인”:2, “시니컬한”:0, “귀여운”:0]일 수 있다. 프로세서(110)는 이러한 점수를 제 1 감성 정보로 산출할 수 있다. 전술한 실시예는 일 실시예에 불과할 뿐, 본 개시는 복수의 감성 단어들을 포함하는 감성 단어 집합으로부터 제 1 감성 정보를 산출하기 위한 다양한 실시예들을 제한없이 포함한다.After calculating the color chip corresponding to the first partial image as described above, the processor 110 refers to the color matching emotion scale for a plurality of emotional words included in the emotional word set to the color chip corresponding to the first partial image. It may be determined that the score of the mapped first sentiment word is changed. For example, the alteration may include increasing the score of the first sentimental word. In the same manner, the processor 110 calculates a color chip corresponding to the second partial image, and then refers to the color matching emotion scale for a plurality of emotional words included in the emotional word set, and the color chip corresponding to the second partial image. It may be determined to change the score of the second sentiment word mapped to . For example, the alteration may include increasing the score of the second sentiment word. After the processor 110 performs score adjustment on the plurality of emotional words included in the emotional word set by each partial image, the first emotional information based on the scores of the plurality of emotional words included in the emotional word set can be calculated. Concretely, for example, suppose that the emotional word set contains [“dynamic”, “cynic”, “cute”]. In this case, the first emotional word mapped to the color chip corresponding to the first partial image may be “dynamic”, and the processor 110 may increase the score of the first emotional word. Thereafter, the second emotional word mapped to the color chip corresponding to the second partial image may also be “dynamic”, and thus the processor 110 may increase the score of the second emotional word. Finally, the scores of the plurality of emotional words included in the emotional word set may be [“dynamic”:2, “cynic”:0, “cute”:0]. The processor 110 may calculate this score as the first emotion information. The above-described embodiment is only one embodiment, and the present disclosure includes various embodiments for calculating the first sentiment information from a sentiment word set including a plurality of sentiment words without limitation.
본 개시의 실시예에 따라 프로세서(110)가 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계는, 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 검출 결과를 획득하는 단계, 상기 검출 결과에 포함된 적어도 하나의 물체의 명칭을 워드 임베딩 모델에 입력하여 상기 적어도 하나의 물체의 워드 벡터를 획득하는 단계, 상기 적어도 하나의 물체의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들 각각의 워드 벡터 사이의 유사도를 계산하는 단계, 상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 증가시키는 단계 및 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 2 감성 정보를 산출하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the step of the processor 110 calculating the second emotional information from the social data may include: inputting an image included in the social data into an object detection module to obtain a detection result; obtaining a word vector of the at least one object by inputting the name of the included at least one object into a word embedding model, each of the word vector of the at least one object and a plurality of emotional words included in the emotional word set calculating the similarity between word vectors of , increasing the score of one or more sentiment words having a word vector similar to the word vector of the at least one object based on the similarity calculation result, and included in the sentiment word set The method may include calculating second sentiment information based on the scores of the plurality of sentiment words.
도 4는 본 개시의 실시예에 따른 네트워크 함수를 나타낸 개략도이다.4 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 상호 교환 가능하게 사용될 수 있다. 예를 들어, 본 개시내용에서의 물체 검출 모듈, 워드 임베딩 모델 또는 자연어 처리 모듈은 이하에서 구체적으로 설명될 신경망에 기반하여 동작할 수 있다. Throughout this specification, computational models, neural networks, network functions, and neural networks may be used interchangeably. For example, an object detection module, a word embedding model, or a natural language processing module in the present disclosure may operate based on a neural network, which will be specifically described below.
신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.A neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network is configured to include at least one or more nodes. Nodes (or neurons) constituting the neural networks may be interconnected by one or more links.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. In the neural network, one or more nodes connected through a link may relatively form a relationship between an input node and an output node. The concepts of an input node and an output node are relative, and any node in an output node relationship with respect to one node may be in an input node relationship in a relationship with another node, and vice versa. As described above, an input node-to-output node relationship may be created around a link. One or more output nodes may be connected to one input node through a link, and vice versa.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In the relationship between the input node and the output node connected through one link, the value of the data of the output node may be determined based on data input to the input node. Here, a link interconnecting the input node and the output node may have a weight. The weight may be variable, and may be changed by a user or an algorithm in order for the neural network to perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node sets values input to input nodes connected to the output node and links corresponding to the respective input nodes. An output node value may be determined based on the weight.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in a neural network, one or more nodes are interconnected through one or more links to form an input node and an output node relationship in the neural network. The characteristics of the neural network may be determined according to the number of nodes and links in the neural network, the correlation between the nodes and the links, and the value of a weight assigned to each of the links. For example, when the same number of nodes and links exist and there are two neural networks having different weight values of the links, the two neural networks may be recognized as different from each other.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may consist of a set of one or more nodes. A subset of nodes constituting the neural network may constitute a layer. Some of the nodes constituting the neural network may configure one layer based on distances from the initial input node. For example, a set of nodes having a distance of n from the initial input node may constitute n layers. The distance from the initial input node may be defined by the minimum number of links that must be passed to reach the corresponding node from the initial input node. However, the definition of such a layer is arbitrary for description, and the order of the layer in the neural network may be defined in a different way from the above. For example, a layer of nodes may be defined by a distance from the final output node.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. The initial input node may mean one or more nodes to which data is directly input without going through a link in a relationship with other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network. In addition, the hidden node may mean nodes constituting the neural network other than the first input node and the last output node.
본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The neural network according to an embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be the same as the number of nodes in the output layer, and the number of nodes decreases and then increases again as progresses from the input layer to the hidden layer. can Also, in the neural network according to another embodiment of the present disclosure, the number of nodes in the input layer may be less than the number of nodes in the output layer, and the number of nodes may be reduced as the number of nodes progresses from the input layer to the hidden layer. there is. In addition, the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be greater than the number of nodes in the output layer, and the number of nodes increases as the number of nodes progresses from the input layer to the hidden layer. can The neural network according to another embodiment of the present disclosure may be a neural network in a combined form of the aforementioned neural networks.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. A deep neural network (DNN) may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can be used to identify the latent structures of data. In other words, it can identify the potential structure of photos, texts, videos, voices, and music (e.g., what objects are in the photos, what the text and emotions are, what the texts and emotions are, etc.) . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs). machine), a deep belief network (DBN), a Q network, a U network, a Siamese network, and a Generative Adversarial Network (GAN). The description of the deep neural network described above is only an example, and the present disclosure is not limited thereto.
본 개시의 일 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In an embodiment of the present disclosure, the network function may include an autoencoder. The auto-encoder may be a kind of artificial neural network for outputting output data similar to input data. The auto encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between the input/output layers. The number of nodes in each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with reduction from the bottleneck layer to the output layer (symmetrically with the input layer). The auto-encoder can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to a dimension after preprocessing the input data. In the auto-encoder structure, the number of nodes of the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so a certain number or more (e.g., more than half of the input layer, etc.) ) may be maintained.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다. The neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained in a way that minimizes output errors. In the training of a neural network, iteratively input the training data into the neural network, calculate the output of the neural network and the target error for the training data, and calculate the error of the neural network from the output layer of the neural network to the input layer in the direction to reduce the error. It is a process of updating the weight of each node in the neural network by backpropagation in the direction. In the case of teacher learning, learning data in which the correct answer is labeled in each learning data is used (ie, labeled learning data), and in the case of comparative learning, the correct answer may not be labeled in each learning data. That is, for example, learning data in the case of teacher learning related to data classification may be data in which categories are labeled in each of the learning data. Labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of comparison learning related to data classification, an error may be calculated by comparing the input training data with the neural network output. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. The change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning of a neural network, a high learning rate can be used to enable the neural network to quickly obtain a certain level of performance, thereby increasing efficiency, and using a low learning rate at a later stage of learning can increase accuracy.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.In the training of neural networks, in general, the training data may be a subset of real data (that is, data to be processed using the trained neural network), and thus, the error on the training data is reduced, but the error on the real data is reduced. There may be increasing learning cycles. Overfitting is a phenomenon in which errors on actual data increase by over-learning on training data as described above. For example, a phenomenon in which a neural network that has learned a cat by seeing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing errors in machine learning algorithms. In order to prevent such overfitting, various optimization methods can be used. In order to prevent overfitting, methods such as increasing the training data, regularization, and dropout that deactivate some of the nodes of the network in the process of learning, and the use of a batch normalization layer are applied. can
본 발명의 상세한 설명 및 청구항들에 있어서 컨볼루션 신경망은 신경망 레이어들의 시퀀스(sequence)를 포함할 수 있다. 상기 신경망 레이어는 컨볼루션 레이어, 풀링 레이어, 완전 연결 레이어 등을 포함할 수 있다. 컨볼루션 신경망에 대한 최초 입력은 시퀀스 내 가장 낮은 최초의 레이어에 의해 수신될 수 있다. 컨볼루션 신경망은 최초 입력으로부터 최종 출력을 생성하기 위해 최초 입력을 시퀀스 내 레이어들에 순차적으로 입력할 수 있다. 상기 최초 입력은 예를 들어 이미지일 수 있고 그에 대한 최종 출력은 하나 이상의 카테고리를 포함하는 카테고리 집합에 있어서 각각의 카테고리에 대한 스코어 집합일 수 있다.In the detailed description and claims of the present invention, a convolutional neural network may include a sequence of neural network layers. The neural network layer may include a convolutional layer, a pooling layer, a fully connected layer, and the like. The initial input to the convolutional neural network may be received by the lowest first layer in the sequence. A convolutional neural network may sequentially input an initial input to layers in a sequence to generate a final output from the initial input. The initial input may be, for example, an image and the final output may be a set of scores for each category in a set of categories comprising one or more categories.
본 발명의 상세한 설명 및 청구항들에 있어서 컨볼루션 신경망 내 각 신경망 레이어는 노드들의 세트를 포함한다. 각 신경망 레이어는 컨볼루션 신경망에 대한 최초 입력 또는 직전 신경망 레이어의 출력을 입력으로 수신할 수 있다. 예를 들어, 복수의 신경망 레이어로 이루어진 시퀀스에 있어서 제 N 번째 신경망 레이어는 제 N-1 번째 신경망 레이어의 출력을 입력으로 수신할 수 있다. 컨볼루션 신경망 내의 각 신경망 레이어는 입력으로부터 출력을 생성한다. 상기 레이어가 시퀀스에서 가장 높은 레이어인 경우, 컨볼루션 신경망의 최종 출력으로 취급된다.In the description and claims of the present invention, each neural network layer in a convolutional neural network includes a set of nodes. Each neural network layer may receive an initial input to the convolutional neural network or an output of the previous neural network layer as an input. For example, in a sequence including a plurality of neural network layers, the N-th neural network layer may receive the output of the N-1 th neural network layer as an input. Each neural network layer within a convolutional neural network generates an output from its input. If the layer is the highest layer in the sequence, it is treated as the final output of the convolutional neural network.
본 개시의 실시예에 따라 프로세서(110)가 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하는 경우, 프로세서(110)는 물체 검출 모듈로부터 검출 결과를 획득할 수 있다. 물체 검출 모듈은 학습 가능한 파라미터를 포함하는 노드를 적어도 하나 포함할 수 있다. 물체 검출 모듈은 물체 검출을 위한 적어도 하나의 컨볼루션 신경망 레이어를 포함할 수 있다. 물체 검출 모듈은 입력 이미지에 존재하는 다양한 종류의 물체를 검출하기 위해 기 학습된 모듈일 수 있다. 물체 검출 모듈은 입력 이미지에 존재하는 하나 이상의 물체의 위치, 크기, 명칭 또는 종류 중 적어도 하나를 출력할 수 있다. 프로세서(110)가 물체 검출 모듈로부터 획득하는 검출 결과는, 소셜 데이터에 포함된 이미지에 존재하는 하나 이상의 물체의 명칭을 포함한다. 예를 들어 소셜 데이터에 포함된 이미지가 컵과 시계를 포함한다고 가정하자. 이 경우 프로세서(110)는 물체 검출 모듈로부터 검출 결과로서 “컵”, “시계”와 같이 사물의 명칭을 획득할 수 있다. According to an embodiment of the present disclosure, when the processor 110 inputs an image included in social data to the object detection module, the processor 110 may obtain a detection result from the object detection module. The object detection module may include at least one node including a learnable parameter. The object detection module may include at least one convolutional neural network layer for object detection. The object detection module may be a previously learned module to detect various types of objects present in the input image. The object detection module may output at least one of a position, size, name, or type of one or more objects present in the input image. The detection result obtained by the processor 110 from the object detection module includes the names of one or more objects present in the image included in the social data. For example, suppose an image contained in social data includes a cup and a clock. In this case, the processor 110 may obtain the name of the object such as “cup” and “watch” as a detection result from the object detection module.
본 개시의 실시예에 따라 프로세서(110)는 물체 검출 모듈로부터 획득한 검출 결과에 포함된 적어도 하나의 물체의 명칭을 워드 임베딩 모델에 입력하여 상기 적어도 하나의 물체의 워드 벡터를 획득할 수 있다. 워드 임베딩이란, 단어(word)를 벡터로 표현하기 위한 방법을 말하는 용어로서, 주로 단어 벡터의 희소 표현(Sparse Representation)에서 단어 벡터의 밀집 표현(Dense Representation)으로 변환하는 것을 의미한다. 예를 들어, 원 핫 인코딩(One Hot Encoding) 방식을 통해 생성된 원 핫 벡터(One Hot Vector)는 표현하고자 하는 단어의 인덱스 값이 1이며, 나머지 인덱스 값은 0으로 표현될 수 있다. 이처럼 희소 표현에서는 벡터 또는 행렬의 원소의 값이 대부분 0으로 표현된다. 이에 반해 밀집 표현은, 벡터 또는 행렬의 원소의 값이 실수값을 가질 수 있고 그 결과 워드 벡터의 차원을 원 핫 벡터 보다 줄일 수 있다. 워드 임베딩이란, 단어를 밀집 표현 벡터로 표현하는 작업을 의미할 수 있다. 본 명세서에 걸쳐 워드 임베딩 방식을 통해 생성된 벡터를 임베딩 벡터(embedding vector) 또는 워드 임베딩 벡터(word embedding vector)로 호칭할 수 있다. 워드 임베딩의 방법으로는 word2vec, FastText, Glove 등을 포함할 수 있다. According to an embodiment of the present disclosure, the processor 110 may obtain a word vector of the at least one object by inputting the name of at least one object included in the detection result obtained from the object detection module into the word embedding model. Word   embedding is a term referring to a method for expressing a word as a vector, and mainly means converting from a sparse representation of a word vector to a dense representation of a word vector. For example, in the One Hot Vector generated through the One Hot Encoding method, the index value of the word to be expressed may be 1, and the remaining index values may be expressed as 0. As such, in the sparse expression, most of the values of elements of a vector or matrix are expressed as 0. On the other hand, in the dense representation, the values of elements of a vector or matrix may have real values, and as a result, the dimension of a word vector may be reduced compared to a one-hot vector. Word   embedding may mean an operation of expressing a word as a dense   expression vector. A vector generated through a word embedding method may be referred to as an embedding vector or a word embedding vector throughout this specification. The word embedding method may include word2vec, FastText, Glove, and the like.
본 개시의 일 실시예에 있어서, 워드 임베딩 모델은 하나 이상의 신경망 레이어를 포함할 수 있다. 워드 임베딩 모델은 적어도 하나 이상의 히든 레이어(Hidden Layer)를 포함할 수 있다. 상기 레이어는 하나 이상의 노드를 포함할 수 있다. 워드 임베딩 모델은 입력 레이어에 입력된 단어의 희소 벡터에 대해 제 1 행렬을 이용하여 히든 레이어의 입력 값을 구하고, 히든 레이어의 입력 값과 제 2 행렬을 이용하여 출력 레이어로 출력값을 전달할 수 있다. 출력값은 입력된 단어의 밀집 벡터일 수 있다. 입력된 단어는 소셜 데이터에 포함된 이미지에 존재할 수 있는 물체와 관련한 단어 또는 감성 단어 집합에 포함된 감성 단어 중 하나일 수 있다. 전술한 워드 임베딩 모델의 신경망 구조는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 워드 임베딩 모델에 포함된 각 노드의 연결 가중치 및 편향값은 복수의 단어들을 포함하는 말뭉치에 의해 사전 학습될 수 있다. 사전 학습을 위한 말뭉치는 본 개시의 일 실시예에 따른 감성 단어 집합에 포함된 감성 단어들을 포함할 수 있다. 그 결과 학습된 워드 임베딩 모델은 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 희소 표현의 워드 벡터를 밀집 표현의 워드 벡터로 변환할 수 있다.In an embodiment of the present disclosure, the word embedding model may include one or more neural network layers. The word embedding model may include at least one hidden layer. The layer may include one or more nodes. The word embedding model may obtain an input value of the hidden layer by using a first matrix for a sparse vector of a word input to the input layer, and transmit an output value to the output layer using the input value of the hidden layer and the second matrix. The output value may be a dense vector of input words. The input word may be one of a word related to an object that may exist in an image included in the social data or an emotional word included in the emotional word set. The neural network structure of the above-described word embedding model is merely an example, and the present disclosure is not limited thereto. The connection weight and bias value of each node included in the word embedding model may be pre-trained by a corpus including a plurality of words. The corpus for dictionary learning may include emotional words included in the emotional word set according to an embodiment of the present disclosure. As a result, the learned word embedding model may convert a word vector of a sparse expression into a word vector of a dense expression for a plurality of emotional words included in the emotional word set.
본 개시의 실시예에 따라 프로세서(110)는 소셜 데이터의 이미지에 포함된 적어도 하나의 물체의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터 사이의 유사도를 계산할 수 있다. According to an embodiment of the present disclosure, the processor 110 may calculate a similarity between a word vector of at least one object included in the image of the social data and a word vector of a plurality of sentiment words included in the emotional word set.
일 실시예에서 상기 유사도는 두 워드 벡터의 벡터 공간에서의 거리에 기초하여 계산될 수 있다. 벡터 공간에서의 거리는 예를 들어, 맨하탄 거리, 유클리디안 거리로 정의될 수 있다. 본 개시에 따른 워드 임베딩 모델을 통해 생성된 워드 벡터들은 유사 정도에 따라 군집(clustering)을 형성할 수 있다. 예를 들어 워드 A와 워드 B가 서로 유사한 단어인 경우, 워드 A에 대한 워드 벡터와 워드 B에 대한 워드 벡터의 벡터 공간에서의 거리가 가까울 수 있다. 이 경우 워드 A와 워드 B는 벡터 공간 상에서 서로 가까이 위치할 것이며 거리의 값이 작아 높은 유사도를 가질 수 있다.In an embodiment, the similarity may be calculated based on a distance of two word vectors in a vector space. The distance in the vector space may be defined as, for example, a Manhattan distance or a Euclidean distance. Word vectors generated through the word embedding model according to the present disclosure may form a cluster according to the degree of similarity. For example, when the word A and the word B are similar words, the distance between the word vector for word A and the word vector for word B in the vector space may be close. In this case, the word A and the word B will be located close to each other in the vector space, and the distance value is small, so that the word A and the word B may have high similarity.
다른 일 실시예에서 상기 유사도는 코사인 유사도(Cosine Similarity)로 정의될 수도 있다. 코사인 유사도(Cosine Similarity)는 두 벡터 간의 코사인 각도를 구하여 유사도를 결정하는 값일 수 있다. 코사인 유사도는 두 벡터의 일치도에 따라 -1에서 1 사이의 값을 가질 수 있다. 코사인 유사도 값은 두 벡터가 완전히 일치하는 경우 1의 값을 가질 수 있다. 상기 유사도의 실시예에 관한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. In another embodiment, the similarity may be defined as cosine similarity. The cosine similarity may be a value for determining the similarity by obtaining a cosine angle between two vectors. The cosine similarity may have a value between -1 and 1 depending on the degree of agreement between two vectors. The cosine similarity value may have a value of 1 when the two vectors completely match. The description of the embodiment of the degree of similarity is merely an example, and the present disclosure is not limited thereto.
본 개시에 따른 프로세서(110)는 유사도 계산 결과에 기초하여 적어도 하나의 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경할 것을 결정할 수 있다. 변경에 대한 일례는 감성 단어의 점수를 증가시키는 것을 포함할 수 있다. 이하에서는 도 5를 참조하여 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어를 결정하는 방법을 서술한다.The processor 110 according to the present disclosure may determine to change the score of one or more sentiment words having a word vector similar to the word vector of at least one object based on the similarity calculation result. An example of a change may include increasing the score of a sentiment word. Hereinafter, a method of determining one or more emotional words having a word vector similar to a word vector of an object will be described with reference to FIG. 5 .
도 5는 본 개시의 실시예에 따른 워드 벡터를 2차원 좌표공간 상에 표현한 예시도이다. 5 is an exemplary diagram illustrating a word vector in a two-dimensional coordinate space according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따라 프로세서(110)는 소셜 데이터의 이미지에 포함된 적어도 하나의 물체의 워드 벡터와 유사도가 가장 높은 워드 벡터를 갖는 하나의 감성 단어를 결정할 수 있다. 구체적으로, 도 5에는 예시적으로 제 1 감성 단어의 워드 벡터 좌표(511), 제 2 감성 단어의 워드 벡터 좌표(513), 제 3 감성 단어의 워드 벡터 좌표(515), 제 4 감성 단어의 워드 벡터 좌표(517) 들이 도시되어 있다. 이 때 이미지에 포함된 제 1 물체의 워드 벡터의 좌표(531)와 가장 유사도가 높은 감성 단어의 워드 벡터는 제 1 감성 단어의 워드 벡터 좌표(511)로 결정될 수 있다. 이 때 유사도는 워드 벡터 좌표간 유클리드 거리에 기초하여 계산될 수 있다. 프로세서(110)는 제 1 물체의 워드 벡터 좌표(531)와 제 1 감성 단어의 워드 벡터 좌표(531)가 가장 가까운 것으로 결정하고, 제 1 감성 단어의 점수를 증가시킬 수 있다.According to an embodiment of the present disclosure, the processor 110 may determine one sentiment word having the highest similarity to the word vector of at least one object included in the image of the social data. Specifically, in FIG. 5, the word vector coordinates 511 of the first emotional word, the word vector coordinates 513 of the second emotional word, the word vector coordinates 515 of the third emotional word, and the fourth emotional word are exemplarily shown in FIG. Word vector coordinates 517 are shown. In this case, the word vector of the sentiment word having the highest similarity to the coordinates 531 of the word vector of the first object included in the image may be determined as the word vector coordinates 511 of the first sentiment word. In this case, the similarity may be calculated based on the Euclidean distance between word vector coordinates. The processor 110 may determine that the word vector coordinates 531 of the first object are closest to the word vector coordinates 531 of the first emotional word, and increase the score of the first emotional word.
본 개시의 다른 일 실시예에 따라 프로세서(110)는 소셜 데이터의 이미지에 포함된 적어도 하나의 물체의 워드 벡터와 유사도가 높은 워드 벡터를 갖는 상위 N 개의 감성 단어들을 결정할 수 있다. 구체적으로 상기 N이 2이고, 프로세서(110)가 제 1 물체의 워드 벡터와 유사한 상위 2개의 감성 단어 워드 벡터를 찾고자 한다면, 프로세서(110)는 제 1 물체의 워드 벡터 좌표(531)와 가까운 순서대로 상위 2개의 감성 단어의 워드 벡터 좌표인 제 1 감성 단어의 워드 벡터 좌표(511), 제 2 감성 단어의 워드 벡터 좌표(513)들을 연산할 수 있다. 그 결과 프로세서(110)는 제 1 물체의 워드 벡터와 유사도가 높은 상위 2개의 워드 벡터를 제 1 감성 단어의 워드 벡터 및 제 2 감성 단어의 워드 벡터로 결정할 수 있다. 계속하여 프로세서(110)는 유사도 계산 결과에 기초하여 제 1 감성 단어 및 제 2 감성 단어의 점수를 변경시킬 것을 결정할 수 있다. 이러한 변경의 일례는 제 1 감성 단어 및 제 2 감성 단어의 점수를 증가시키는 것을 포함할 수 있다.According to another embodiment of the present disclosure, the processor 110 may determine top N sentiment words having a word vector having a high similarity to a word vector of at least one object included in the image of the social data. Specifically, if N is 2, and the processor 110 seeks to find the upper two sentiment word word vectors similar to the word vector of the first object, the processor 110 is ordered close to the word vector coordinates 531 of the first object. As shown, it is possible to calculate the word vector coordinates 511 of the first emotional word, which are the word vector coordinates of the upper two emotional words, and the word vector coordinates 513 of the second emotional word. As a result, the processor 110 may determine the upper two word vectors having a high similarity to the word vector of the first object as the word vector of the first sentiment word and the word vector of the second sentiment word. Subsequently, the processor 110 may determine to change the scores of the first sentiment word and the second sentiment word based on the similarity calculation result. An example of such a change may include increasing the scores of the first sentiment word and the second sentiment word.
본 개시의 추가적인 실시예에서 프로세서(110)는 소셜 데이터의 이미지에 포함된 적어도 하나의 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어를 결정할 때, 상기 물체 검출 모듈의 검출 결과에 추가적으로 기초할 수 있다. 상기 물체 검출 모듈의 검출 결과에는 검출된 물체의 명칭 및 검출 정확도(Confidence score) 중 적어도 하나가 포함될 수 있다. 구체적으로 예를 들어, 프로세서(110)는 소셜 데이터의 이미지를 물체 검출 모듈에 입력한 후 '레몬' 및 '꽃'을 검출 결과로 획득할 수 있다. 프로세서(110)는 추가적으로 각 검출 결과에 대한 검출 정확도(예를 들어, ['레몬', 0.95] 또는 ['꽃', 0.88] 등)를 물체 검출 모듈로부터 획득할 수도 있다. 물체 검출 모듈에 의해 소셜 데이터의 이미지로부터 복수의 물체가 검출되는 경우, 프로세서(110)는 검출 정확도에 추가적으로 기초하여 소셜 데이터의 이미지에 대해 하나 이상의 감성 단어를 결정할 수 있다. 예를 들어, 본 개시에 따른 프로세서(110)가 소셜 데이터의 이미지로부터 검출되는 개별 물체에 대해 유사도가 높은 워드 벡터를 갖는 상위 N 개의 감성 단어들을 추출한다고 가정하자. 이러한 경우 소셜 데이터의 이미지에서 추출된 제 1 물체(예를 들어 '레몬')에 대해 상위 N개의 감성 단어 집합 A(예를 들어 '상큼한', '노란색', '청량한' 등)가 추출될 수 있다. 또한 같은 소셜 데이터의 이미지에서 추출된 제 2 물체(예를 들어 '꽃')에 대해 상위 N개의 감성 단어 집합 B(예를 들어 '아름다운', '연약한', '생동감 있는' 등)가 추출될 수 있다. 나아가 프로세서(110)는 물체 검출 모듈로부터 획득된 검출 결과에 포함된 각 물체에 대한 검출 정확도를 고려하여 제 1 물체 및 제 2 물체의 워드 벡터와 유사도가 높은 워드 벡터를 갖는 상위 N 개의 감성 단어 집합 C를 결정할 수 있다. 프로세서(110)가 감성 단어 집합 C를 결정하는 과정에는 제 1 물체에 대한 검출 정확도(예를 들어 0.95)를 가중치로써 감성 단어 집합 A에 곱한 결과와 제 2 물체에 대한 검출 정확도(예를 들어 0.88)를 가중치로써 감성 단어 집합 B에 곱한 결과를 합산하는 연산 과정이 포함될 수 있다. 본 개시에 따른 프로세서(110)는 상기 결정된 감성 단어 집합 C의 점수에 기초하여 적어도 하나의 감성 단어에 대한 점수를 변경할 수 있다. 전술한 예시는 본 개시의 실시를 위한 예시적 기재일 뿐 본 개시를 제한하지 않으며, 다양한 양태로 감성 단어 집합에 대한 연산을 수행할 수 있음은 통상의 기술자에게 자명할 것이다. 본 개시에 따른 소셜 계정의 스타일 정보를 산출하는 방법은 위와 같이 물체 검출 모듈의 물체 검출 결과 및 물체 검출 모듈의 신뢰도를 스타일 정보 산출과정에 반영함으로써 보다 정확한 감성 단어를 추출할 수 있는 효과를 가진다. 예를 들어, 물체의 검출 정확도가 높을수록 검출 결과를 신뢰할 수 있다는 뜻이며 본 개시에 따른 스타일 정보 산출 방법은 높은 신뢰도를 가지는 유력한 검출 물체에 대해서는 높은 가중치를 부여함으로써 물체 검출 모듈이 이미지 내에 존재하는 노이즈로 인해 몇몇 물체를 제대로 인식하지 못하더라도 신뢰할 수 있는 결과를 도출할 수 있다는 장점이 있다. 즉, 본 개시는 노이즈에 강건한 특징을 가지는 스타일 정보 산출 방법을 개시한다.In a further embodiment of the present disclosure, when determining one or more sentiment words having a word vector similar to a word vector of at least one object included in the image of the social data, the processor 110 is additionally based on the detection result of the object detection module can do. The detection result of the object detection module may include at least one of a name of the detected object and a detection accuracy (confidence score). Specifically, for example, the processor 110 may obtain 'lemon' and 'flower' as detection results after inputting an image of social data into the object detection module. The processor 110 may additionally acquire the detection accuracy (eg, ['lemon', 0.95] or ['flower', 0.88], etc.) for each detection result from the object detection module. When a plurality of objects are detected from the image of the social data by the object detection module, the processor 110 may determine one or more sentiment words for the image of the social data based additionally on detection accuracy. For example, it is assumed that the processor 110 according to the present disclosure extracts top N sentiment words having a word vector having a high similarity with respect to an individual object detected from an image of social data. In this case, the top N emotional word set A (for example, 'fresh', 'yellow', 'cool', etc.) will be extracted for the first object (eg 'lemon') extracted from the image of social data can Also, for the second object (for example, 'flower') extracted from the image of the same social data, the top N emotional word set B (for example, 'beautiful', 'soft', 'lively', etc.) will be extracted. can Furthermore, the processor 110 sets the top N sentiment words having a word vector with high similarity to the word vector of the first object and the second object in consideration of the detection accuracy for each object included in the detection result obtained from the object detection module. C can be determined. In the process of the processor 110 determining the sentiment word set C, the result of multiplying the detection accuracy (eg, 0.95) of the first object by the sentiment word set A as a weight and the detection accuracy of the second object (eg 0.88) ) as a weight, a calculation process of summing the result of multiplying the emotional word set B may be included. The processor 110 according to the present disclosure may change the score for at least one sentiment word based on the determined score of the sentiment word set C. FIG. It will be apparent to those skilled in the art that the above-described examples are merely exemplary descriptions for carrying out the present disclosure, and do not limit the present disclosure, and that operations on sentiment word sets may be performed in various aspects. The method of calculating the style information of the social account according to the present disclosure has the effect of more accurately extracting emotional words by reflecting the object detection result of the object detection module and the reliability of the object detection module in the style information calculation process as described above. For example, the higher the detection accuracy of the object, the more reliable the detection result is, and the style information calculation method according to the present disclosure assigns a high weight to a powerful detection object having high reliability, so that the object detection module is present in the image. It has the advantage that reliable results can be derived even if some objects are not recognized properly due to noise. That is, the present disclosure discloses a method of calculating style information having a characteristic robust to noise.
본 개시의 다른 일 실시예에 따라 프로세서(110)는 소셜 데이터의 이미지에 포함된 적어도 하나의 물체의 워드 벡터와 사전 결정된 임계 유사도 내에 있는 워드 벡터를 갖는 하나 이상의 감성 단어들을 결정할 수 있다. 구체적으로 도 5의 참조번호 535는 제 2 물체의 워드 벡터 좌표(533)와 일정 거리만큼 떨어진 영역을 나타내는 원을 도시한다. 유사도가 예를 들어 벡터 사이의 유클리디안 거리에 기초하여 계산되는 경우, 제 2 물체의 워드 벡터 좌표(533)와 일정 거리만큼 떨어진 영역을 나타내는 원(535)은 사전 결정된 임계 유사도 범위를 나타내는 영역일 수 있다. 따라서 프로세서(110)는 제 2 물체의 워드 벡터 좌표(533) 및 사전 결정된 임계 유사도를 고려하여, 제 2 물체의 워드 벡터 좌표(533)와 일정 거리만큼 떨어진 영역을 나타내는 원(535) 내부에 존재하는 제 3 감성 단어의 워드 벡터 좌표(515) 및 제 4 감성 단어의 워드 벡터 좌표(517)를 연산할 수 있다. 그 결과 프로세서(110)는 제 2 물체의 워드 벡터와 사전 결정된 임계 유사도 내에 있는 하나 이상의 워드 벡터를 제 3 감성 단어의 워드 벡터 및 제 4 감성 단어의 워드 벡터로 결정할 수 있다. 계속하여 프로세서(110)는 유사도 계산 결과에 기초하여 제 3 감성 단어 및 제 4 감성 단어의 점수를 변경시킬 것을 결정할 수 있다. 이러한 변경의 일례는 제 3 감성 단어 및 제 4 감성 단어의 점수를 증가시키는 것을 포함할 수 있다.According to another embodiment of the present disclosure, the processor 110 may determine one or more sentiment words having a word vector within a predetermined threshold similarity to a word vector of at least one object included in the image of the social data. In detail, reference numeral 535 of FIG. 5 denotes a circle indicating an area separated by a predetermined distance from the word vector coordinate 533 of the second object. When the similarity is calculated based on, for example, the Euclidean distance between the vectors, the circle 535 representing the area separated by a certain distance from the word vector coordinate 533 of the second object is the area representing the predetermined threshold similarity range. can be Accordingly, the processor 110 considers the word vector coordinates 533 of the second object and a predetermined threshold similarity, and exists inside the circle 535 indicating the area separated by a predetermined distance from the word vector coordinates 533 of the second object. The word vector coordinates 515 of the third emotional word and the word vector coordinates 517 of the fourth emotional word may be calculated. As a result, the processor 110 may determine one or more word vectors within a predetermined threshold similarity with the word vector of the second object as the word vector of the third sentiment word and the word vector of the fourth sentiment word. Subsequently, the processor 110 may determine to change the scores of the third sentiment word and the fourth sentiment word based on the similarity calculation result. An example of such a change may include increasing the scores of the third sentiment word and the fourth sentiment word.
상술한 바와 같이 프로세서(110)는 워드 임베딩 모델에 의한 워드 벡터를 통해 물체의 워드 벡터와 유사한 하나 이상의 감성 단어의 워드 벡터를 연산하고, 유사도 연산 결과에 기초하여 감성 단어의 점수를 증가시킨 뒤, 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 2 감성 정보를 산출할 수 있다.As described above, the processor 110 calculates a word vector of one or more sentiment words similar to the word vector of an object through a word vector by a word embedding model, and increases the score of the sentiment word based on the similarity calculation result, The second emotion information may be calculated based on the scores of the plurality of emotional words included in the emotional word set.
본 개시에 따른 프로세서(110)가 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계는, 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과를 획득하는 단계, 처리 결과에 포함된 적어도 하나의 키워드를 워드 임베딩 모델에 입력하여 상기 적어도 하나의 키워드의 워드 벡터를 획득하는 단계, 적어도 하나의 키워드의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터 사이의 유사도를 계산하는 단계, 상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 키워드의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 증가시키는 단계 및 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 3 감성 정보를 산출하는 단계를 포함할 수 있다.The step of the processor 110 according to the present disclosure calculating the third emotional information from the social data includes: obtaining a processing result obtained by inputting text included in the social data into a natural language processing module; at least included in the processing result inputting one keyword into a word embedding model to obtain a word vector of the at least one keyword; calculating the similarity between the word vector of the at least one keyword and the word vector of a plurality of sentiment words included in the sentiment word set increasing the score of one or more sentiment words having a word vector similar to the word vector of the at least one keyword based on the similarity calculation result, and based on the scores of a plurality of sentiment words included in the sentiment word set It may include calculating the third emotional information.
본 개시에 따른 자연어 처리 모듈은 소셜 데이터에 포함된 텍스트를 입력 받아 자연어 처리(Natural Language Processing: NLP) 동작을 수행할 수 있다. 상기 자연어 처리 모듈이 수행하는 자연어 처리 동작은 입력된 텍스트에 대한 형태소 분석 동작, 키워드 추출 동작 등을 포함할 수 있다. The natural language processing module according to the present disclosure may receive text included in social data and perform a natural language processing (NLP) operation. The natural language processing operation performed by the natural language processing module may include a morpheme analysis operation for the input text, a keyword extraction operation, and the like.
본 개시에 따른 자연어 처리 모듈은 형태소 분석 동작을 통해 입력된 텍스트를 형태소 단위로 쪼개어 분석할 수 있다. 예를 들어 자연어 처리 모듈은 입력된 텍스트를 실질형태소와 형식형태소로 나누어 분석할 수 있다. 다른 예를 들어 자연어 처리 모듈은 입력된 텍스트를 어휘형태소와 문법형태소로 나누어 분석할 수 있다. 예를 들어 자연어 처리 모듈이 “집에 갔습니다”라는 텍스트에 대해 형태소 분석 동작을 수행하는 경우 “집/명사 + 에/격조사 + 가/동사 + 았/선어말어미 + 습니다/어말어미”로 텍스트에 대한 형태소를 분석할 수 있다. 다른 예를 들어 “산이 푸르다”라는 텍스트에 대해 형태소 분석 동작을 수행하는 경우 “산/명사 + 이/보조사 + 푸른/형용사 + 다/어말어미”로 텍스트에 대해 형태소 분석을 수행할 수 있다. The natural language processing module according to the present disclosure may analyze the input text by dividing it into morpheme units through a morpheme analysis operation. For example, the natural language processing module can analyze the input text by dividing it into a real morpheme and a formal morpheme. For another example, the natural language processing module may analyze the input text by dividing it into lexical morphemes and grammatical morphemes. For example, if the natural language processing module performs a stemming operation on the text “I went home”, the text is converted to morphemes can be analyzed. For another example, when a morphological analysis operation is performed on the text “mountain is blue”, morpheme analysis may be performed on the text as “mountain/noun + li/subordinate + blue/adjective + da/endum”.
본 개시에 따른 자연어 처리 모듈은 형태소 분석 동작 후 키워드를 추출하는 동작을 수행할 수 있다. 자연어 처리 모듈은 추출된 하나 이상의 키워드를 처리 결과로 산출할 수 있다. 상기 처리 결과에는 텍스트 내에서 추출된 키워드에 대응되는 중요도를 포함할 수 있다. 키워드는 형태소 분석 결과에 있어서 실질 형태소 또는 어휘 형태소의 어근 또는 원형의 형태로 추출될 수 있다. 예를 들어 “집”, “가” 두 형태소가 실질 형태소로 분석된 경우, 자연어 처리 모듈은 “집” 및 “가다”를 키워드로 추출한 후 상기 두 키워드를 처리 결과로 산출할 수 있다. 전술한 자연어 처리 모듈의 동작에 관한 예시는 설명을 위한 예시에 불과하며 본 개시는 입력된 텍스트에서 키워드를 추출하기 위한 자연어 처리 모듈을 제한없이 포함한다. The natural language processing module according to the present disclosure may perform an operation of extracting a keyword after the morpheme analysis operation. The natural language processing module may calculate one or more extracted keywords as a processing result. The processing result may include an importance level corresponding to the keyword extracted from the text. A keyword may be extracted in the form of a root or prototype of an actual morpheme or a lexical morpheme in the morpheme analysis result. For example, when two morphemes “home” and “a” are analyzed as actual morphemes, the natural language processing module may extract “home” and “go” as keywords and then calculate the two keywords as processing results. The above-described example regarding the operation of the natural language processing module is merely an example for explanation, and the present disclosure includes without limitation a natural language processing module for extracting keywords from input text.
본 개시의 실시예에 따라 프로세서(110)는 자연어 처리 모듈로부터 처리 결과를 획득한 후 처리 결과에 포함된 적어도 하나의 키워드를 워드 임베딩 모델에 입력하여 상기 적어도 하나의 키워드의 워드 벡터를 획득할 수 있다. 그 후 프로세서(110)는 적어도 하나의 키워드의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터 사이의 유사도를 계산할 수 있다. 워드 벡터 사이의 유사도 계산은 상술한 바와 같이 예를 들어 벡터 공간에서의 거리 또는 코사인 유사도에 기초하여 수행될 수 있다. 프로세서(110)는 유사도 계산 결과에 기초하여 적어도 하나의 키워드의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경할 것을 결정할 수 있다. 변경에 대한 일례는 감성 단어의 점수를 증가시키는 것을 포함할 수 있다. 키워드의 워드 벡터와 유사한 하나 이상의 워드 벡터는 도 5를 참조하여 상술한 바와 같이 결정될 수 있다. According to an embodiment of the present disclosure, after obtaining the processing result from the natural language processing module, the processor 110 inputs at least one keyword included in the processing result into the word embedding model to obtain a word vector of the at least one keyword. there is. Thereafter, the processor 110 may calculate a similarity between a word vector of at least one keyword and a word vector of a plurality of sentiment words included in the sentiment word set. Calculation of similarity between word vectors may be performed based on, for example, distance or cosine similarity in vector space, as described above. The processor 110 may determine to change the score of one or more sentiment words having a word vector similar to a word vector of at least one keyword based on the similarity calculation result. An example of a change may include increasing the score of a sentiment word. One or more word vectors similar to the word vectors of the keyword may be determined as described above with reference to FIG. 5 .
본 개시의 추가적인 실시예에서 프로세서(110)는 소셜 데이터에 포함된 텍스트로부터 점수 변경의 대상이 되는 하나 이상의 감성 단어를 결정할 때, 상기 자연어 처리 모듈의 처리 결과에 추가적으로 기초할 수 있다. 상기 자연어 처리 모듈의 처리 결과에는 추출된 키워드 및 키워드에 대응되는 중요도 중 적어도 하나가 포함될 수 있다. 구체적으로 예를 들어, 프로세서(110)는 소셜 데이터의 텍스트(예를 들어, “야식은 역시 치킨”)를 자연어 처리 모듈에 입력한 후 '야식' 및 '치킨'을 포함하는 처리 결과를 획득할 수 있다. 프로세서(110)는 추가적으로 각 키워드에 대응되는 중요도(예를 들어, ['야식', 0.12] 또는 ['치킨', 0.33] 등)를 포함하는 처리 결과를 자연어 처리 모듈로부터 획득할 수도 있다. 자연어 처리 모듈에 의해 소셜 데이터의 텍스트로부터 복수의 키워드가 추출되는 경우, 프로세서(110)는 중요도에 추가적으로 기초하여 소셜 데이터의 텍스트에 대해 하나 이상의 감성 단어를 결정할 수 있다. 예를 들어, 본 개시에 따른 프로세서(110)가 소셜 데이터의 텍스트로부터 추출되는 각각의 키워드에 대해 유사도가 높은 워드 벡터를 갖는 상위 N 개의 감성 단어들을 추출한다고 가정하자. 이러한 경우 소셜 데이터의 텍스트에서 추출된 제 1 키워드(예를 들어 '야식')에 대해 상위 N개의 감성 단어 집합 D(예를 들어 '즐거운', '죄책감의', '우울한' 등)가 추출될 수 있다. 또한 같은 소셜 데이터의 텍스트에서 추출된 제 2 키워드(예를 들어 '치킨')에 대해 상위 N개의 감성 단어 집합 E(예를 들어 '바삭한', '맛있는', '행복한' 등)가 추출될 수 있다. 나아가 프로세서(110)는 자연어 처리 모듈로부터 획득된 처리 결과에 포함된 각 키워드에 대한 중요도를 고려하여 제 1 키워드 및 제 2 키워드의 워드 벡터와 유사도가 높은 워드 벡터를 갖는 상위 N 개의 감성 단어 집합 F를 결정할 수 있다. 프로세서(110)가 감성 단어 집합 F를 결정하는 과정에는 제 1 키워드에 대한 중요도(예를 들어 0.12)를 가중치로써 감성 단어 집합 D에 곱한 결과와 제 2 키워드에 대한 중요도(예를 들어 0.33)를 가중치로써 감성 단어 집합 E에 곱한 결과를 합산하는 연산 과정이 포함될 수 있다. 본 개시에 따른 프로세서(110)는 상기 결정된 감성 단어 집합 F의 점수에 기초하여 적어도 하나의 감성 단어에 대한 점수를 변경할 수 있다. 전술한 예시는 본 개시의 실시를 위한 예시적 기재일 뿐 본 개시를 제한하지 않으며, 다양한 양태로 추출된 복수의 키워드들 및 감성 단어 집합에 대한 연산을 수행할 수 있음은 통상의 기술자에게 자명할 것이다. In a further embodiment of the present disclosure, the processor 110 may additionally be based on a processing result of the natural language processing module when determining one or more emotional words to be subjected to a score change from text included in the social data. The processing result of the natural language processing module may include at least one of the extracted keyword and the importance level corresponding to the keyword. Specifically, for example, the processor 110 inputs the text of the social data (eg, “night snack is also chicken”) to the natural language processing module, and then obtains processing results including 'night snack' and 'chicken'. can The processor 110 may additionally obtain a processing result including a degree of importance (eg, ['night snack', 0.12] or ['chicken', 0.33], etc.) corresponding to each keyword from the natural language processing module. When a plurality of keywords are extracted from the text of the social data by the natural language processing module, the processor 110 may determine one or more sentiment words for the text of the social data based on the importance. For example, it is assumed that the processor 110 according to the present disclosure extracts top N sentiment words having a word vector with high similarity for each keyword extracted from text of social data. In this case, the top N emotional word set D (for example, 'pleasant', 'guilty', 'depressed', etc.) can In addition, for the second keyword (eg, 'chicken') extracted from the text of the same social data, the top N emotional word set E (eg, 'crispy', 'delicious', 'happy', etc.) can be extracted. there is. Furthermore, the processor 110 considers the importance of each keyword included in the processing result obtained from the natural language processing module, and the top N sentiment word set F having a word vector with high similarity to the word vector of the first keyword and the second keyword. can be decided In the process of the processor 110 determining the emotional word set F, the result of multiplying the emotional word set D by the importance (for example, 0.12) of the first keyword as a weight and the importance (for example, 0.33) of the second keyword A calculation process of summing the multiplication result of the emotional word set E as a weight may be included. The processor 110 according to the present disclosure may change the score for at least one sentiment word based on the determined score of the sentiment word set F. It will be apparent to those skilled in the art that the above-described examples are merely exemplary descriptions for the implementation of the present disclosure, and do not limit the present disclosure, and that operations on a plurality of keywords and emotional word sets extracted in various aspects can be performed. will be.
본 개시의 프로세서(110)가 소셜 데이터에 포함된 텍스트로부터 제 3 감성 정보를 산출하는 일 예시를 설명한다. 프로세서(110)가 자연어 처리 모듈에 “여름인데 전염병 때문에 집에 갇혔어”라는 텍스트를 입력한 경우를 가정하자. 프로세서(110)는 자연어 처리 모듈로부터 '여름', '전염병', '집', '갇히다' 라는 키워드들을 포함하는 처리 결과를 획득할 수 있다. 그 후 프로세서(110)는 상기 처리 결과에 포함된 키워드를 워드 임베딩 모델에 입력하여 '여름', '전염병', '집', '갇히다' 각각에 대한 워드 벡터를 획득할 수 있다. 프로세서(110)는 각 키워드의 워드 벡터와 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터의 유사도를 계산하여 가장 유사한 하나 이상의 감성 단어를 결정할 수 있다. 추가적으로 예를 들어 감성 단어 집합이 ['우울한', '아늑한', '행복한', '절망적인', '밝은', '어두운', '외로운', '활발한']의 감성 단어들을 포함한다고 가정한다. 이 때 프로세서(110)는 '여름'이라는 키워드에 대한 워드 벡터와 가장 유사한 워드 벡터를 갖는 감성 단어를 '활발한'으로 결정한 후, '활발한'이라는 감성 단어의 점수를 증가시킬 수 있다. 예를 들어, 본 개시내용에 감성 단어의 점수를 증가시킨다는 것은 상기 감성 단어에게 상대적으로 높은 가중치를 부여하거나 또는 상기 감성 단어를 다른 감성 단어에 비해 상대적으로 높은 우선순위를 부여한다는 것을 포함할 수 있다. 프로세서(110)는 '전염병'이라는 키워드에 대한 워드 벡터와 가장 유사한 워드 벡터를 갖는 감성 단어를 '우울한', '절망적인'으로 결정한 후, '우울한', '절망적인'이라는 감성 단어의 점수를 각각 증가시킬 수 있다. 최종적으로 감성 단어 집합에 포함된 복수의 감성 단어들의 점수 분포는 ['우울한':2, '아늑한':1, '행복한':1, '절망적인':1, '밝은':1, '어두운':1, '외로운':3, '활발한':1]과 같이 나타날 수 있다. 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수 분포에 기초하여 프로세서(110)는 제 3 감성 정보를 산출할 수 있다. 전술한 예시는 일 예시에 불과할 뿐 본 개시를 제한하지 않는다.An example in which the processor 110 of the present disclosure calculates third sentiment information from text included in social data will be described. It is assumed that the processor 110 inputs the text “It is summer, but I am stuck at home because of the epidemic” into the natural language processing module. The processor 110 may obtain a processing result including keywords 'summer', 'epidemic', 'home', and 'stuck' from the natural language processing module. Thereafter, the processor 110 may obtain a word vector for each of 'summer', 'epidemic', 'home', and 'stuck' by inputting keywords included in the processing result into the word embedding model. The processor 110 may determine the most similar one or more emotional words by calculating the similarity between the word vector of each keyword and the word vector of a plurality of emotional words included in the emotional word set. Additionally, for example, suppose that the emotional word set contains the emotional words . At this time, the processor 110 may determine the emotional word having the word vector most similar to the word vector for the keyword 'summer' as 'active', and then increase the score of the emotional word 'active'. For example, increasing the score of a sentiment word in the present disclosure may include giving the sentiment word a relatively high weight or giving the sentiment word a relatively high priority over other sentiment words. . The processor 110 determines the emotional word having the word vector most similar to the word vector for the keyword 'epidemic' as 'depressed' and 'desperate', and then determines the emotional word score of 'depressed' and 'desperate' Each can be increased. Finally, the score distribution of the plurality of emotional words included in the emotional word set is ['gloomy':2, 'cozy':1, 'happy':1, 'desperate':1, 'bright':1, 'dark' ':1, 'lonely':3, 'active':1]. The processor 110 may calculate the third sentiment information based on the score distribution of the plurality of sentiment words included in the sentiment word set. The above-described example is merely an example and does not limit the present disclosure.
본 개시의 일 실시예에 있어서 프로세서(110)가 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는, 제 1 감성 정보, 제 2 감성 정보 및 제 3 감성 정보 각각에 대해 제 1 감성 정보에 따른 가중치, 제 2 감성 정보에 따른 가중치 및 제 3 감성 정보에 따른 가중치를 적용한 값을 이용하여 부분 스타일 정보를 산출하는 단계를 포함할 수 있다. In an embodiment of the present disclosure, the step of the processor 110 calculating partial style information including a style expression for at least one social data may include: first emotional information, second emotional information, and third emotional information, respectively. The method may include calculating partial style information using values to which a weight according to the first emotion information, a weight according to the second emotion information, and a weight according to the third emotion information are applied.
본 개시에 있어서 제 1 감성 정보는 소셜 데이터에 포함된 이미지가 갖는 색감으로부터 사람이 받는 감성에 관한 정보로 취급될 수 있다. 제 2 감성 정보는 소셜 데이터에 포함된 물체로부터 사람이 받는 감성에 관한 정보로 취급될 수 있다. 제 3 감성 정보는 소셜 데이터에 포함된 텍스트가 갖는 의미로부터 사람이 받는 감성에 관한 정보로 취급될 수 있다. 상술한 바와 같은 각 감성 정보의 유형의 차이에 기초하여 사용자는 제 1 감성 정보에 따른 가중치, 제 2 감성 정보에 따른 가중치 및 제 3 감성 정보에 따른 가중치를 서로 다르게 설정할 수 있다.In the present disclosure, the first emotion information may be treated as information about the emotion that a person receives from the color of the image included in the social data. The second emotion information may be treated as information about emotion that a person receives from an object included in the social data. The third emotion information may be treated as information about emotion that a person receives from the meaning of the text included in the social data. Based on the difference between the types of each emotion information as described above, the user may set different weights according to the first emotion information, the weights according to the second emotion information, and the weights according to the third emotion information.
예를 들어, 소셜 데이터로부터 산출된 제 1 감성 정보는 ['우울한':0, '아늑한':4, '행복한':1, '절망적인':0, '밝은':1, '어두운':0, '외로운':2, '활발한':0]와 같은 데이터를 포함할 수 있다. 소셜 데이터로부터 산출된 제 2 감성 정보는 ['우울한':0, '아늑한':0, '행복한':3, '절망적인':0, '밝은':1, '어두운':2, '외로운':0, '활발한':1]와 같은 데이터를 포함할 수 있다. 소셜 데이터로부터 산출된 제 3 감성 정보는 ['우울한':0, '아늑한':4, '행복한':1, '절망적인':0, '밝은':1, '어두운':0, '외로운':2, '활발한':0]와 같은 데이터를 포함할 수 있다. 이 때 제 1 감성 정보에 따른 가중치, 제 2 감성 정보에 따른 가중치 및 제 3 감성 정보에 따른 가중치는 3,2,1로 설정될 수 있다. 프로세서(110)는 각 감성 정보의 종류에 따른 가중치를 각각의 감성 정보마다 곱한 후 합산하여 소셜 데이터의 부분 스타일 정보를 산출할 수 있다. 상기 예시에 기초하여 추가적으로 서술할 경우, 부분 스타일 정보는 ['우울한':0, '아늑한':16, '행복한':10, '절망적인':0, '밝은':5, '어두운':4, '외로운':8, '활발한':2]와 같은 데이터를 포함할 수 있다. 각 감성 정보에 따른 가중치는 임의의 값의 비율로 설정될 수 있다.For example, the first emotional information calculated from the social data is ['gloomy':0, 'cozy':4, 'happy':1, 'desperate':0, 'bright':1, 'dark': 0, 'lonely':2, 'active':0]. The second emotional information calculated from the social data is ['depressed':0, 'cozy':0, 'happy':3, 'desperate':0, 'bright':1, 'dark':2, 'lonely' ':0, 'active':1]. The third emotional information calculated from social data is ['gloomy':0, 'cozy':4, 'happy':1, 'desperate':0, 'bright':1, 'dark':0, 'loneliness' It can contain data such as ':2, 'active':0]. In this case, the weight according to the first emotion information, the weight according to the second emotion information, and the weight according to the third emotion information may be set to 3, 2, 1. The processor 110 may calculate partial style information of social data by multiplying and summing a weight according to the type of each emotional information for each emotional information. When additionally described based on the example above, partial style information is ['gloomy':0, 'cozy':16, 'happy':10, 'desperate':0, 'bright':5, 'dark': 4, 'lonely':8, 'active':2]. A weight according to each emotion information may be set as a ratio of an arbitrary value.
본 개시의 일 실시예에 있어서, 제 3 감성 정보에 제 3 감성 정보에 따른 가중치가 적용된 결과값이 사전 결정된 상한값과 비교될 수 있다. 비교 결과 상기 결과값이 상기 상한값을 초과한다고 결정되는 경우 상기 결과값은 상기 상한값으로 치환될 수 있다. 예를 들어, 상기 제 3 감성 정보를 상기 제 3 감성 정보에 따른 가중치와 곱한 결과값이 사전 결정된 상한값을 초과하는 경우 상기 결과값은 사전 결정된 상한값으로 치환될 수 있다. 일 실시예에서 상기 사전 결정된 상한값은 감성 단어의 점수를 기준을 설정될 수 있다. 예를 들어, 제 3 감성 정보에 제 3 감성 정보에 따른 가중치를 곱한 결과값은 하나의 감성 단어에 있어서 최대 10 이상의 점수를 가질 수 없도록 10을 초과하는 경우 10으로 치환될 수 있다. In an embodiment of the present disclosure, a result value obtained by applying a weight according to the third emotion information to the third emotion information may be compared with a predetermined upper limit value. When it is determined as a result of the comparison that the result value exceeds the upper limit value, the result value may be substituted with the upper limit value. For example, when a result value obtained by multiplying the third emotion information by a weight according to the third emotion information exceeds a predetermined upper limit value, the result value may be replaced with a predetermined upper limit value. In an embodiment, the predetermined upper limit value may be set based on a score of an emotional word. For example, a result value obtained by multiplying the third emotion information by a weight according to the third emotion information may be replaced with 10 when it exceeds 10 so that a maximum score of 10 or more cannot be obtained for one emotion word.
본 개시의 다른 일 실시예에서 상기 제 3 감성 정보에 따른 가중치는, 상기 제 3 감성 정보와 곱한 결과값이 사전 결정된 상한값을 초과하지 않기 위해 프로세서(110)에 의해 조정될 수 있다. 예를 들어 사전 결정된 감성 단어별 상한값이 10이고, 전체 감성 단어 집합에서 가장 점수가 높은 감성 단어의 점수가 5인 경우, 프로세서(110)는 제 3 감성 정보에 따른 가중치를 2 이하로 설정될 수 있다. 전술한 예시는 일 예시에 불과할 뿐 본 개시를 제한하지 않는다.In another embodiment of the present disclosure, the weight according to the third emotion information may be adjusted by the processor 110 so that a result of multiplying the third emotion information does not exceed a predetermined upper limit value. For example, when the predetermined upper limit for each emotional word is 10, and the score of the highest emotional word in the entire emotional word set is 5, the processor 110 may set the weight according to the third emotional information to 2 or less. there is. The above-described example is merely an example and does not limit the present disclosure.
본 개시에 따른 프로세서(110)가 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 단계는, 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여 각 소셜 데이터에 따른 가중치를 생성하는 단계 및 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보에 상기 소셜 데이터에 따른 가중치를 적용하여 소셜 계정의 스타일 정보를 산출하는 단계를 포함할 수 있다. 소셜 데이터에 대응되는 속성 정보는 소셜 데이터에 대한 다른 유저의 피드백 정보 또는 소셜 데이터의 시간 정보를 포함할 수 있다. 구체적으로 상기 피드백 정보는 예를 들어 소셜 데이터에 대한 다른 유저의 '좋아요' 수, 댓글 수, 조회 수, 클릭 수 등을 포함할 수 있다. 상기 시간 정보는 예를 들어 생성 시간, 수정 시간 등을 포함할 수 있다.In the step of the processor 110 according to the present disclosure, calculating the style information of the social account from the partial style information of the at least one social data, a weight according to each social data based on attribute information corresponding to the at least one social data and calculating style information of a social account by applying a weight according to the social data to partial style information for at least one piece of social data. The attribute information corresponding to the social data may include feedback information of other users on the social data or time information of the social data. Specifically, the feedback information may include, for example, the number of 'likes', the number of comments, the number of views, and the number of clicks of other users on social data. The time information may include, for example, a creation time, a modification time, and the like.
본 개시의 일 실시예에 있어서 프로세서(110)는 복수의 소셜 데이터에 있어서 각 소셜 데이터에 대한 피드백 정보에 기초하여 소셜 데이터에 따른 가중치를 생성할 수 있다. 상기 피드백 정보는 예를 들어 '좋아요' 수, 재생 수, 댓글 수를 포함할 수 있으며 프로세서(110)는 '좋아요' 수, 재생 수, 댓글 수 중 적어도 하나 이상의 데이터로 소셜 데이터에 따른 가중치를 생성할 수 있다. In an embodiment of the present disclosure, the processor 110 may generate a weight according to the social data based on the feedback information for each social data in the plurality of social data. The feedback information may include, for example, the number of 'likes', the number of plays, and the number of comments, and the processor 110 generates a weight according to social data using at least one or more data among the number of 'likes', the number of plays, and the number of comments. can do.
예를 들어 제 1 소셜 데이터에 대한 '좋아요' 수: 100개, 제 2 소셜 데이터에 대한 '좋아요' 수: 50개, 제 3 소셜 데이터에 대한 '좋아요' 수: 50개인 경우, 프로세서(110)는 제 1 소셜 데이터에 대한 부분 스타일 정보, 제 2 소셜 데이터에 대한 부분 스타일 정보 및 제 3 소셜 데이터에 대한 부분 스타일 정보를 2:1:1의 비율로 합산할 수 있다. For example, if the number of 'likes' for the first social data: 100, the number of 'likes' for the second social data: 50, and the number of 'likes' for the third social data: 50, the processor 110 may sum the partial style information for the first social data, the partial style information for the second social data, and the partial style information for the third social data in a ratio of 2:1:1.
예를 들어 제 1 소셜 데이터에 대한 '좋아요' 수: 100개 - 댓글 수: 0개, 제 2 소셜 데이터에 대한 '좋아요' 수: 50개 - 댓글 수: 20개, 제 3 소셜 데이터에 대한 '좋아요' 수: 50개 - 댓글 수: 0개인 경우, 댓글을 기재하는 행위가 '좋아요'를 표시하는 행위보다 적극적인 피드백 정보에 해당하므로 프로세서(110)는 댓글 수에 '좋아요' 수보다 높은 비중을 두어 소셜 데이터에 따른 가중치를 생성할 수 있다. 즉, 소셜 데이터에 따른 가중치를 생성함에 있어서 '좋아요'와 댓글의 비중이 1: 9인 경우, 제 1 소셜 데이터에 대한 부분 스타일 정보, 제 2 소셜 데이터에 대한 부분 스타일 정보 및 제 3 소셜 데이터에 대한 부분 스타일 정보는 100*1+0*9:50*1+30*9:50*1+0*9(=10:32:5)의 비율로 합산할 수 있다.For example, the number of 'likes' for the first social data: 100 - the number of comments: 0, the number of 'likes' for the second social data: 50 - the number of comments: 20, ' for the third social data Number of Likes: 50 - Number of Comments: 0 If the number of comments is 0, the processor 110 assigns a higher weight to the number of comments than the number of 'Likes' because the act of writing a comment corresponds to more active feedback information than the act of displaying 'Like'. It is possible to create weights according to social data. That is, when the proportion of 'likes' and comments is 1: 9 in generating weights according to social data, partial style information for the first social data, partial style information for the second social data, and the third social data are The partial style information for the stylus can be summed at a ratio of 100*1+0*9:50*1+30*9:50*1+0*9 (=10:32:5).
본 개시의 다른 일 실시예에 있어서 프로세서(110)는 복수의 소셜 데이터에 있어서 각 소셜 데이터의 시간 정보에 기초하여 소셜 데이터에 따른 가중치를 생성할 수 있다. 프로세서(110)는 소셜 데이터의 생성 시간과 현재 시간의 차이값에 기초하여 가중치를 생성할 수 있다. 예를 들어 제 1 소셜 데이터의 생성 시간과 현재 시간의 차이가 1일이고, 제 2 소셜 데이터의 생성 시간과 현재 시간의 차이가 7일인 경우, 프로세서(110)는 제 1 소셜 데이터에 대한 부분 스타일 정보와 제 2 소셜 데이터에 대한 부분 스타일 정보를 7:1 또는 임의의 시간 길이가 반영된 비율로 가중 합산할 수 있다. In another embodiment of the present disclosure, the processor 110 may generate a weight according to the social data based on time information of each social data in the plurality of social data. The processor 110 may generate a weight based on a difference value between the generation time of the social data and the current time. For example, if the difference between the generation time of the first social data and the current time is 1 day, and the difference between the generation time of the second social data and the current time is 7 days, the processor 110 determines the partial style for the first social data Information and partial style information for the second social data may be weighted and summed in a ratio reflecting 7:1 or an arbitrary length of time.
본 개시의 일 실시예에 있어서 프로세서(110)가 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출할 때, 소셜 계정의 스타일 정보는 기 산출된 적어도 하나의 다른 소셜 계정의 스타일 정보에 관한 통계값에 추가적으로 기초하여 산출될 수 있다. 상기 통계값은 기 산출된 복수의 다른 소셜 계정의 스타일 정보로부터 연산된 값일 수 있다. 상기 통계값은 예를 들어 복수의 다른 소셜 계정의 스타일 정보에 대한 평균값, 사분위값, 분산, 표준편차 등을 포함할 수 있다. In an embodiment of the present disclosure, when the processor 110 calculates the style information of the social account from the partial style information of the at least one social data, the style information of the social account is the previously calculated style information of the at least one other social account. It may be additionally calculated based on statistical values related to style information. The statistical value may be a value calculated from the previously calculated style information of a plurality of other social accounts. The statistical value may include, for example, an average value, quartile value, variance, standard deviation, and the like for style information of a plurality of different social accounts.
예컨대 기 산출된 복수의 다른 소셜 계정의 스타일 정보의 평균 값이 ['A':1, 'B':5, 'C':10]과 같다고 가정하자. 이 때 A, B, C는 각각 감성 단어를 의미한다. 그리고 스타일 정보를 산출하기 위한 대상이 되는 제 1 소셜 계정의 스타일 정보가 ['A':5, 'B':5, 'C':10]인 경우, 프로세서(110)는 제 1 소셜 계정의 스타일 정보를 다른 소셜 계정의 스타일 정보의 평균값과의 차이를 고려하여 보정할 수 있다. 예를 들어 프로세서(110)는 제 1 소셜 계정의 스타일 정보에 포함된 각 감성 단어에 대한 점수에 상기 점수와 평균 점수와의 차이만큼 일정 상수(C)를 비례하여 곱한 뒤 추가할 수 있다. 즉, C가 2일 경우, 위의 예시에서 보정된 제 1 소셜 계정의 스타일 정보는 ['A':13, 'B':5, 'C':10]으로 나타날 수 있다. 이와 같이 기 산출된 복수의 다른 소셜 계정의 스타일 정보의 통계값을 스타일 정보 산출의 대상이 되는 소셜 계정의 스타일 정보를 산출하는 과정에서 이용하는 경우, 전체적인 경향에 반하는 독특한 개성을 더욱 부각시킬 수 있는 효과가 있다.For example, it is assumed that the calculated average values of style information of a plurality of different social accounts are equal to ['A':1, 'B':5, 'C':10]. In this case, A, B, and C mean emotional words, respectively. And when the style information of the first social account, which is the target for calculating the style information, is ['A':5, 'B':5, 'C':10], the processor 110 is The style information may be corrected in consideration of a difference from the average value of the style information of other social accounts. For example, the processor 110 may proportionally multiply the score for each emotional word included in the style information of the first social account by a certain constant C by the difference between the score and the average score, and then add it. That is, when C is 2, the style information of the first social account corrected in the above example may be expressed as ['A':13, 'B':5, 'C':10]. When the statistical value of the style information of a plurality of other social accounts calculated in this way is used in the process of calculating the style information of the social account that is the subject of the style information calculation, the unique individuality contrary to the overall trend can be further emphasized. there is
도 6은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다.6 is a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
본 개시가 일반적으로 컴퓨팅 장치에 의해 구현될 수 있는 것으로 전술되었지만, 당업자라면 본 개시가 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어 및/또는 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로써 구현될 수 있다는 것을 잘 알 것이다.Although the present disclosure has been described above as being generally capable of being implemented by a computing device, those skilled in the art will appreciate that the present disclosure may be implemented in hardware and software in combination with computer-executable instructions and/or other program modules and/or in combination with computer-executable instructions and/or other program modules that may be executed on one or more computers. It will be appreciated that it can be implemented as a combination.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드(handheld) 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, those skilled in the art will appreciate that the methods of the present disclosure can be applied to single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, and the like. It will be appreciated that each of these may be implemented in other computer system configurations, including those capable of operating in connection with one or more associated devices.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computers typically include a variety of computer-readable media. Any medium accessible by a computer can be a computer-readable medium, and such computer-readable media includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-transitory media. including removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media. Computer readable storage media includes volatile and nonvolatile media, temporary and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media. A computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터 등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data, etc. in a modulated data signal such as a carrier wave or other transport mechanism, and Includes all information delivery media. The term modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An example environment 1100 implementing various aspects of the disclosure is shown including a computer 1102 , the computer 1102 including a processing unit 1104 , a system memory 1106 , and a system bus 1108 . do. A system bus 1108 couples system components, including but not limited to system memory 1106 , to the processing device 1104 . The processing device 1104 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 1104 .
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may further interconnect a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read only memory (ROM) 1110 and random access memory (RAM) 1112 . A basic input/output system (BIOS) is stored in non-volatile memory 1110, such as ROM, EPROM, EEPROM, etc., the BIOS is the basic input/output system (BIOS) that helps transfer information between components within computer 1102, such as during startup. contains routines. RAM 1112 may also include high-speed RAM, such as static RAM, for caching data.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 may also include an internal hard disk drive (HDD) 1114 (eg, EIDE, SATA) - this internal hard disk drive 1114 may also be configured for external use within a suitable chassis (not shown). Yes—a magnetic floppy disk drive (FDD) 1116 (eg, for reading from or writing to removable diskette 1118), and an optical disk drive 1120 (eg, a CD-ROM) for reading from, or writing to, disk 1122, or other high capacity optical media, such as DVD. The hard disk drive 1114 , the magnetic disk drive 1116 , and the optical disk drive 1120 are connected to the system bus 1108 by the hard disk drive interface 1124 , the magnetic disk drive interface 1126 , and the optical drive interface 1128 , respectively. ) can be connected to The interface 1124 for implementing an external drive includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of computer readable media above refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, etc. It will be appreciated that other tangible computer-readable media such as etc. may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure.
운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in the drive and RAM 1112 , including an operating system 1130 , one or more application programs 1132 , other program modules 1134 , and program data 1136 . All or portions of the operating system, applications, modules, and/or data may also be cached in RAM 1112 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into the computer 1102 via one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140 . Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are connected to the processing unit 1104 through an input device interface 1142 that is often connected to the system bus 1108, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also coupled to the system bus 1108 via an interface, such as a video adapter 1146 . In addition to the monitor 1144, the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다. Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communications. Remote computer(s) 1148 may be workstations, computing device computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are typically connected to computer 1102 . Although it includes many or all of the components described for it, only memory storage device 1150 is shown for simplicity. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, eg, a wide area network (WAN) 1154 . Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is coupled to the local network 1152 through a wired and/or wireless communication network interface or adapter 1156 . Adapter 1156 may facilitate wired or wireless communication to LAN 1152 , which LAN 1152 also includes a wireless access point installed therein for communicating with wireless adapter 1156 . When used in a WAN networking environment, the computer 1102 may include a modem 1158, be connected to a communication computing device on the WAN 1154, or establish communications over the WAN 1154, such as over the Internet. have other means. A modem 1158 , which may be internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142 . In a networked environment, program modules described for computer 1102 , or portions thereof, may be stored in remote memory/storage device 1150 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.The computer 1102 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a, b, g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) makes it possible to connect to the Internet, etc. without a wired connection. Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station. Wi-Fi networks use a radio technology called IEEE 802.11 (a, b, g, etc) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). .
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.One of ordinary skill in the art of this disclosure will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, instructions, information, signals, bits, symbols, and chips that may be referenced in the above description are voltages, currents, electromagnetic waves, magnetic fields or particles, optical field particles or particles, or any combination thereof.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 소프트웨어로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as software) or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 제조 물품은 임의의 컴퓨터-판독가능 저장장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term article of manufacture includes a computer program, carrier, or media accessible from any computer-readable storage device. For example, computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.). Also, various storage media presented herein include one or more devices and/or other machine-readable media for storing information.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on design priorities, it is to be understood that the specific order or hierarchy of steps in the processes may be rearranged within the scope of the present disclosure. The appended method claims present elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.
상기와 같이 발명의 실시를 위한 최선의 형태에서 관련 내용을 기술하였다.As described above, the relevant contents have been described in the best mode for carrying out the invention.
본 발명은 소셜 데이터의 스타일 정보를 산출하는 컴퓨팅 장치 등에 사용될 수 있다.The present invention may be used in a computing device that calculates style information of social data.

Claims (15)

  1. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하는 방법으로서,A method of calculating style information comprising a style representation of a social account performed by a computing device comprising at least one processor, the method comprising:
    소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계; 및calculating partial style information including a style expression for at least one social data included in the social data set; and
    상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 단계;calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는:Calculating partial style information including a style expression for the at least one social data may include:
    감성 단어 집합 및 배색 감성 스케일에 기초하여, 상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계;calculating first sentiment information from the social data based on a sentiment word set and a color matching sentiment scale;
    상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 획득되는 검출 결과에 기초하여, 상기 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계; 또는calculating second sentiment information from the social data based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module; or
    상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과에 기초하여, 상기 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계;calculating third emotional information from the social data based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module;
    중 적어도 하나를 포함하는,comprising at least one of
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  3. 제 2 항에 있어서,3. The method of claim 2,
    상기 감성 단어 집합은,The emotional word set is,
    상기 배색 감성 스케일에 포함된 하나 이상의 감성 단어들을 포함하는,Containing one or more emotional words included in the color matching emotional scale,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  4. 제 2 항에 있어서,3. The method of claim 2,
    상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는:Calculating the first emotional information from the social data includes:
    상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 대표 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 상기 대표 부분 이미지에 대응되는 컬러칩을 산출하는 단계; 및calculating a color chip corresponding to the representative partial image on the color matching emotional scale by comparing distances between a plurality of color chips included in the color matching emotional scale and a representative partial image of the image included in the social data; and
    상기 대표 부분 이미지에 대응되는 컬러칩과 매핑된 감성 단어에 기초하여 제 1 감성 정보를 산출하는 단계;calculating first emotion information based on the emotion word mapped to the color chip corresponding to the representative partial image;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  5. 제 2 항에 있어서,3. The method of claim 2,
    상기 소셜 데이터로부터 제 1 감성 정보를 산출하는 단계는:Calculating the first emotional information from the social data includes:
    상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 제 1 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 제 1 부분 이미지에 대응되는 컬러칩을 산출하는 단계;calculating a color chip corresponding to the first partial image on the color matching emotional scale by comparing distances between a plurality of color chips included in the color matching emotion scale and a first partial image of the image included in the social data;
    상기 배색 감성 스케일에 포함된 복수의 컬러칩들과 상기 소셜 데이터에 포함된 이미지의 제 2 부분 이미지 사이의 거리들을 비교하여 상기 배색 감성 스케일에서 제 2 부분 이미지에 대응되는 컬러칩을 산출하는 단계;calculating a color chip corresponding to a second partial image on the color matching emotional scale by comparing distances between a plurality of color chips included in the color matching emotional scale and a second partial image of the image included in the social data;
    상기 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 1 부분 이미지에 대응되는 컬러칩과 매핑된 제 1 감성 단어의 점수를 변경시킬 것을 결정하는 단계; determining to change the score of the first emotional word mapped to the color chip corresponding to the first partial image with respect to the plurality of emotional words included in the emotional word set;
    상기 감성 단어 집합에 포함된 복수의 감성 단어들에 대해 상기 제 2 부분 이미지에 대응되는 컬러칩과 매핑된 제 2 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및determining to change the score of a second sentiment word mapped to a color chip corresponding to the second partial image with respect to a plurality of sentiment words included in the sentiment word set; and
    상기 감성 단어 집합에 포함된 상기 제 1 감성 단어의 점수 및 상기 제 2 감성 단어의 점수에 적어도 부분적으로 기초하여 제 1 감성 정보를 산출하는 단계;calculating first sentiment information based at least in part on the score of the first sentiment word and the score of the second sentiment word included in the sentiment word set;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  6. 제 4 항 또는 제 5 항에 있어서,6. The method according to claim 4 or 5,
    상기 부분 이미지에 대응되는 컬러칩은,The color chip corresponding to the partial image,
    상기 컬러칩에 포함된 적어도 하나의 색상의 RGB값과 상기 부분 이미지에 포함된 적어도 하나의 픽셀의 RGB값 사이의 거리에 기초하여 산출되는,calculated based on a distance between an RGB value of at least one color included in the color chip and an RGB value of at least one pixel included in the partial image,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  7. 제 2 항에 있어서,3. The method of claim 2,
    상기 소셜 데이터로부터 제 2 감성 정보를 산출하는 단계는:Calculating the second emotional information from the social data includes:
    상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 검출 결과를 획득하는 단계;obtaining a detection result by inputting an image included in the social data into an object detection module;
    상기 검출 결과에 포함된 적어도 하나의 물체의 명칭을 워드 임베딩 모델에 입력하여 상기 적어도 하나의 물체의 워드 벡터를 획득하는 단계;obtaining a word vector of the at least one object by inputting the name of the at least one object included in the detection result into a word embedding model;
    상기 적어도 하나의 물체의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들 각각의 워드 벡터 사이의 유사도를 계산하는 단계;calculating a similarity between a word vector of the at least one object and a word vector of each of a plurality of emotional words included in the emotional word set;
    상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 물체의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및determining to change the score of one or more sentiment words having a word vector similar to the word vector of the at least one object based on the similarity calculation result; and
    상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 2 감성 정보를 산출하는 단계;calculating second emotional information based on scores of a plurality of emotional words included in the emotional word set;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  8. 제 2 항에 있어서,3. The method of claim 2,
    상기 소셜 데이터로부터 제 3 감성 정보를 산출하는 단계는:Calculating the third emotional information from the social data includes:
    상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과를 획득하는 단계;obtaining a processing result obtained by inputting text included in the social data into a natural language processing module;
    상기 처리 결과에 포함된 적어도 하나의 키워드를 워드 임베딩 모델에 입력하여 상기 적어도 하나의 키워드의 워드 벡터를 획득하는 단계;obtaining a word vector of the at least one keyword by inputting at least one keyword included in the processing result into a word embedding model;
    상기 적어도 하나의 키워드의 워드 벡터와 상기 감성 단어 집합에 포함된 복수의 감성 단어들의 워드 벡터 사이의 유사도를 계산하는 단계;calculating a similarity between a word vector of the at least one keyword and a word vector of a plurality of sentiment words included in the sentiment word set;
    상기 유사도 계산 결과에 기초하여 상기 적어도 하나의 키워드의 워드 벡터와 유사한 워드 벡터를 갖는 하나 이상의 감성 단어의 점수를 변경시킬 것을 결정하는 단계; 및determining to change the score of one or more sentiment words having a word vector similar to a word vector of the at least one keyword based on the similarity calculation result; and
    상기 감성 단어 집합에 포함된 복수의 감성 단어들의 점수에 기초하여 제 3 감성 정보를 산출하는 단계;calculating third emotional information based on scores of a plurality of emotional words included in the emotional word set;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  9. 제 1 항에 있어서,The method of claim 1,
    상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는,Calculating partial style information including a style expression for the at least one social data includes:
    제 1 감성 정보, 제 2 감성 정보 및 제 3 감성 정보 각각에 대해 제 1 감성 정보에 따른 가중치, 제 2 감성 정보에 따른 가중치 및 제 3 감성 정보에 따른 가중치를 적용한 값을 이용하여 부분 스타일 정보를 산출하는 단계;Partial style information is obtained by applying a weight according to the first emotion information, a weight according to the second emotion information, and a weight according to the third emotion information to each of the first emotion information, the second emotion information, and the third emotion information. calculating;
    를 포함하되,including,
    상기 제 3 감성 정보에 상기 제 3 감성 정보에 따른 가중치가 적용된 결과값이 사전 결정된 상한값을 초과하는 경우, 상기 결과값은 사전 결정된 상한값으로 치환되는 것을 특징으로 하는,When the result value to which the weight according to the third emotion information is applied to the third emotion information exceeds a predetermined upper limit value, the result value is replaced with a predetermined upper limit value,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  10. 제 1 항에 있어서,The method of claim 1,
    상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 단계는:Calculating the style information of the social account from the partial style information of the at least one social data includes:
    상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여 각 소셜 데이터에 따른 가중치를 생성하는 단계; 및generating a weight according to each social data based on attribute information corresponding to the at least one social data; and
    상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보에 상기 소셜 데이터에 따른 가중치를 적용하여 소셜 계정의 스타일 정보를 산출하는 단계; calculating style information of a social account by applying a weight according to the social data to partial style information of the at least one social data;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  11. 제 10 항에 있어서,11. The method of claim 10,
    상기 소셜 데이터에 대응되는 속성 정보는,The attribute information corresponding to the social data is,
    상기 소셜 데이터에 대한 다른 유저의 피드백 정보 또는 상기 소셜 데이터의 시간 정보를 포함하는,Including feedback information of other users on the social data or time information of the social data,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  12. 제 1 항에 있어서,The method of claim 1,
    상기 소셜 계정의 스타일 정보는,The style information of the social account,
    기 산출된 적어도 하나의 다른 소셜 계정의 스타일 정보에 관한 통계값에 추가적으로 기초하여 산출되는,calculated based on additionally calculated statistical values related to style information of at least one other social account,
    사용자의 스타일 정보를 산출하는 방법.How to calculate the user's style information.
  13. 제 1 항에 있어서,The method of claim 1,
    상기 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 단계는,Calculating partial style information including a style expression for the at least one social data includes:
    감성 단어 집합 및 배색 감성 스케일에 기초하여, 상기 소셜 데이터에 포함된 이미지로부터 제 1 감성 정보를 산출하는 단계;calculating first emotion information from the image included in the social data based on the emotion word set and the color matching emotion scale;
    상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 이미지를 물체 검출 모듈에 입력하여 획득되는 검출 결과에 기초하여 제 2 감성 정보를 산출하는 단계; 및calculating second sentiment information based on a detection result obtained by inputting the emotional word set and the image included in the social data into an object detection module; and
    상기 감성 단어 집합 및 상기 소셜 데이터에 포함된 텍스트를 자연어 처리 모듈에 입력하여 획득되는 처리 결과에 기초하여 제 3 감성 정보를 산출하는 단계;calculating third sentiment information based on a processing result obtained by inputting the emotional word set and the text included in the social data into a natural language processing module;
    를 포함하는,containing,
    소셜 계정의 스타일 정보를 산출하는 방법.How to calculate style information for social accounts.
  14. 컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은:A computer program stored in a computer readable storage medium, wherein the computer program, when executed on one or more processors, performs the following operations for calculating style information including a style representation of a social account, the operation heard:
    소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하는 동작; 및calculating partial style information including a style expression for at least one social data included in the social data set; and
    상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는 동작;calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data;
    을 포함하는,containing,
    컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable storage medium.
  15. 소셜 계정의 스타일 표현(style representation)을 포함하는 스타일 정보를 산출하기 위한 장치로서,An apparatus for calculating style information including a style representation of a social account, comprising:
    하나 이상의 프로세서; one or more processors;
    메모리; 및Memory; and
    네트워크부;network department;
    를 포함하고, 그리고including, and
    상기 하나 이상의 프로세서는,The one or more processors,
    소셜 데이터 셋에 포함된 적어도 하나의 소셜 데이터에 대한 스타일 표현을 포함하는 부분 스타일 정보를 산출하고,Calculating partial style information including a style expression for at least one social data included in the social data set,
    상기 적어도 하나의 소셜 데이터에 대응되는 속성 정보에 기초하여, 상기 적어도 하나의 소셜 데이터에 대한 부분 스타일 정보로부터 소셜 계정의 스타일 정보를 산출하는,calculating style information of a social account from partial style information on the at least one social data based on attribute information corresponding to the at least one social data;
    소셜 계정의 스타일 정보를 산출하기 위한 장치.A device for calculating style information for social accounts.
PCT/KR2021/014314 2020-10-21 2021-10-15 Method and device for calculating style information on social network service account WO2022086063A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200136995A KR20220052726A (en) 2020-10-21 2020-10-21 Method and apparatus for calculating style information for social network service accounts
KR10-2020-0136995 2020-10-21

Publications (1)

Publication Number Publication Date
WO2022086063A1 true WO2022086063A1 (en) 2022-04-28

Family

ID=81290700

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/014314 WO2022086063A1 (en) 2020-10-21 2021-10-15 Method and device for calculating style information on social network service account

Country Status (2)

Country Link
KR (1) KR20220052726A (en)
WO (1) WO2022086063A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140101906A (en) * 2013-02-12 2014-08-21 이주양 Apparatus and Method for social data analysis
KR101713558B1 (en) * 2015-10-30 2017-03-08 조선대학교산학협력단 Method of classification and analysis of sentiment in social network service
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR20180073851A (en) * 2016-12-23 2018-07-03 건국대학교 산학협력단 Apparatus and method for selecting image based on human affects
KR20190136337A (en) * 2018-05-30 2019-12-10 가천대학교 산학협력단 Social Media Contents Based Emotion Analysis Method, System and Computer-readable Medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140101906A (en) * 2013-02-12 2014-08-21 이주양 Apparatus and Method for social data analysis
KR101713558B1 (en) * 2015-10-30 2017-03-08 조선대학교산학협력단 Method of classification and analysis of sentiment in social network service
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR20180073851A (en) * 2016-12-23 2018-07-03 건국대학교 산학협력단 Apparatus and method for selecting image based on human affects
KR20190136337A (en) * 2018-05-30 2019-12-10 가천대학교 산학협력단 Social Media Contents Based Emotion Analysis Method, System and Computer-readable Medium

Also Published As

Publication number Publication date
KR20220052726A (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US9965717B2 (en) Learning image representation by distilling from multi-task networks
US20200311198A1 (en) N-ary relation prediction over text spans
WO2020180170A1 (en) Effective user modeling with time-aware based binary hashing
WO2021040354A1 (en) Data processing method using neural network
Islam et al. A potent model to recognize bangla sign language digits using convolutional neural network
WO2022005090A1 (en) Method and apparatus for providing diagnosis result
WO2023134083A1 (en) Text-based sentiment classification method and apparatus, and computer device and storage medium
WO2021261825A1 (en) Device and method for generating meteorological data on basis of machine learning
WO2019125054A1 (en) Method for content search and electronic device therefor
WO2022119162A1 (en) Medical image-based disease prediction method
WO2019098454A1 (en) Technique for generating and utilizing virtual fingerprint representing text data
Goswami et al. CNN model for american sign language recognition
WO2018212584A2 (en) Method and apparatus for classifying class, to which sentence belongs, using deep neural network
WO2022265292A1 (en) Method and device for detecting abnormal data
WO2024117708A1 (en) Facial image conversion method using diffusion model
CN110889505A (en) Cross-media comprehensive reasoning method and system for matching image-text sequences
CN114048314A (en) Natural language steganalysis method
WO2024080791A1 (en) Method for generating dataset
WO2021118050A1 (en) Computer program for automatically editing highlights video
WO2024058465A1 (en) Method for training local neural network model for federated learning
CN113535949A (en) Multi-mode combined event detection method based on pictures and sentences
WO2022086063A1 (en) Method and device for calculating style information on social network service account
WO2023101417A1 (en) Method for predicting precipitation based on deep learning
WO2023195769A1 (en) Method for extracting similar patent documents by using neural network model, and apparatus for providing same
WO2021194105A1 (en) Expert simulation model training method, and device for training

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21883134

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21883134

Country of ref document: EP

Kind code of ref document: A1