WO2016017777A1 - 音象徴語の感覚関連性分布図生成装置 - Google Patents

音象徴語の感覚関連性分布図生成装置 Download PDF

Info

Publication number
WO2016017777A1
WO2016017777A1 PCT/JP2015/071708 JP2015071708W WO2016017777A1 WO 2016017777 A1 WO2016017777 A1 WO 2016017777A1 JP 2015071708 W JP2015071708 W JP 2015071708W WO 2016017777 A1 WO2016017777 A1 WO 2016017777A1
Authority
WO
WIPO (PCT)
Prior art keywords
onomatopoeia
adjective
principal component
sound
unit
Prior art date
Application number
PCT/JP2015/071708
Other languages
English (en)
French (fr)
Inventor
真樹 坂本
Original Assignee
国立大学法人電気通信大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人電気通信大学 filed Critical 国立大学法人電気通信大学
Priority to JP2016538449A priority Critical patent/JP6573399B2/ja
Publication of WO2016017777A1 publication Critical patent/WO2016017777A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor

Definitions

  • the present invention relates to a language expression analysis technique.
  • the phonetic symbol word is often used to express the texture, but the phonetic symbol word has a cross-modality that spans multiple senses. There is a case where it is impossible to accurately grasp to what extent the texture to be expressed is related to which sense.
  • the onomatopoeia “smooth” has the meaning of “shiny” visually and the meaning of “smooth” tactilely, so if only one of the former or the latter comes to mind , You will not understand the true meaning.
  • a request for “more“ smooth ”” is received from another person, only visual improvement or tactile improvement can be performed, and the request cannot be sufficiently met. This is not limited to the narrow sense of texture (visual and tactile sensations of the material), but can be said about the whole sense of expression that is intended to be expressed in terms of phonetic symbols.
  • the present invention has been proposed in view of the above-mentioned conventional problems, and its object is to visualize the relationship of a phonetic symbol word to a plurality of senses and to support the understanding of the phonetic symbol word. .
  • an input unit for inputting a plurality of phonological symbols and a quantitative evaluation unit for quantitatively evaluating the phonological words inputted by the input unit with respect to a plurality of adjective pairs
  • the principal component analysis is performed on the quantitative evaluation result of the quantitative evaluation unit, and the position symbol of the adjective pair is based on the principal component loading of the adjective pair on the distribution map with the predetermined number of principal components as the axes.
  • a position placement unit that places the position symbol of the phonetic symbol based on the principal component score of the phonetic word, and obtains the principal component score for each position in the distribution map, and the adjective based on the obtained principal component score
  • the evaluation value of the pair is calculated, the relevance for each sense of the position is calculated based on the calculated evaluation value and the perceptual relevance for each adjective pair, and the region for each sense with the predetermined value as a boundary is shown in the figure A region placement unit to be placed.
  • the phoneme database memorize
  • the qualitative image list memorize
  • storage device of an onomatopoeia image evaluation system
  • onomatopoeia has an abundance of onomatopoeia and mimetic words (hereinafter referred to as “onomatopoeia”).
  • Onomatopoeia is widely used in everyday language activities and can be said to be one of the important language expressions in Japanese.
  • Onomatopoeia is also useful for impressing consumers with copies of advertisements and product names because of its features such as concise and specific descriptive power, capable of high-impact expressions, and good vocabulary. Many are used. Onomatopoeia is also widely used in the literary field at various times and in various categories to evoke a specific image for readers.
  • creative onomatopoeia When creative onomatopoeia is used in these advertising and literature fields, creative onomatopoeia that is not generally used may be created and used. When such a new onomatopoeia is created, the creator needs to know what the onomatopoeia can be seen by consumers and readers. Therefore, it is considered that presenting an objective image of onomatopoeia to the creator can support the creative activities of the creator.
  • Onomatopoeia forms and meanings can be referred to and the forms and meanings of onomatopoeia that systematize the unique phonological forms that characterize the expression of onomatopoeia described in Kuroshio Publishing. Although the forms of onomatopoeia appear to be diverse, most are composed of combinations of basic forms consisting of several sounds. In Reference 1 and Reference 2, unique phonological forms that characterize onomatopoeia are systematized and represented by their respective phonological forms. A unique meaning is presented.
  • Onomatopoeia there is a case where some relationship is found between a phoneme and the meaning represented by the phoneme. Such a phenomenon is called a phonetic symbol.
  • Reference 3 (Hamano Shoko (1986) .The Sound-symbolic System of Japanese, Doctoral dissertation. Gainesville: University of Florida.) Describes Japanese onomatopoeia according to the location of a specific phoneme or phoneme combination in Onomatopoeia. The basic symbolic meaning of a certain onomatopoeia can be predicted from its onomatopoeia form and phonological composition.
  • the onomatopoeia image evaluation system P1 of this embodiment includes a storage device P2, a user interface P3, and an onomatopoeia image evaluation device P4.
  • the storage device P2 includes a phoneme form database storage unit P21 and an image database storage unit P22.
  • the phoneme form database storage unit P21 includes phoneme form analysis information for analyzing the phoneme form of onomatopoeia based on phoneme elements and endings, and the phoneme notation for expressing the phoneme form analyzed by the phoneme form analysis information.
  • the phoneme form database P21a storing information is stored.
  • FIG. 2 shows an example of the phoneme form database P21a.
  • the phoneme form analysis information “vowel; V”, “consonant; C”, “promotion sound“ tsu ”; Q”, “repellent sound; N”, “long sound; R”, “(End of word)” ri “; ri”, “sound / semi-sound”, “repetition”, etc.
  • the image database storage unit P22 stores a qualitative image list P22a and a quantitative image table P22b.
  • the qualitative image list P22a is a list of words and phrases indicating images for each phoneme form based on known established information.
  • FIGS. 3A, 3B, and 4 are examples of the qualitative image list P22a, and FIGS. 3A and 3B are lists of words indicating images of each phoneme form relating to the phoneme form “vowel” and “consonant”.
  • FIG. 4 is a list of words indicating the images of the phoneme forms “(end of word)“ ri ”,“ promotion sound “tsu” ”,“ long sound ”, and“ repetition ”.
  • the quantitative image table P22b is an image evaluation value obtained by evaluating the phonological form obtained by the evaluation experiment, in which a measure of the influence of each phonological form on the onomatopoeia image is quantified for each adjective pair having a contrasting meaning. Is a table storing. The image evaluation value for each adjective pair can be added or modified by performing a cognitive experiment.
  • FIG. 5A and 5B are examples of the quantitative image table P22b.
  • FIG. 5A has 15 sets of contrasting meanings related to the phoneme forms “vowel”, “repellent sound”, “promotion sound“ tsu ””, and “long sound”.
  • FIG. 5B stores image evaluation values indicating numerically the scale of the effect on the onomatopoeia image for each of the 15 similar adjective pairs with respect to the phoneme forms “consonant”, “turbid sound / semi-voiced sound”, and “stuttering sound”.
  • This image evaluation value is a known relative value evaluated for onomatopoeia of 2 mora. “Mora” represents a syllable unit, and “1 mora” is basically composed of a combination of one vowel and one consonant.
  • the user interface P3 outputs, in order to present to the user, output information generated by an input interface P31 that is operated by the user to input an onomatopoeia to be evaluated and an output information generation unit P45 of the image evaluation apparatus P4 described later. And an output interface P32 having an output interface.
  • the onomatopoeia image evaluation device P4 includes a phonological form analysis unit P41, a qualitative image evaluation unit P42, a document information generation unit P43, a quantitative image evaluation unit P44, and an output information generation unit P45.
  • the phonological form analysis unit P41 analyzes the phonological form of onomatopoeia inputted from the input interface P31 of the user interface P3 based on the phonological form analysis information stored in the phonological form database P21a stored in the storage device P2, and The phoneme constituting the onomatopoeia is specified, and phoneme notation information to be indicated according to the phoneme notation information stored in the phoneme form database P21a is generated.
  • the qualitative image evaluation unit P42 specifies a phrase indicating an image of each phoneme form indicated by the phoneme notation information generated in the phoneme form analysis unit P41 with reference to the qualitative image list P22a, and the plurality of specified phrases are Obtained as qualitative image evaluation information for onomatopoeia.
  • the document information generation unit P43 generates document information indicating an image of the onomatopoeia from the qualitative image evaluation information acquired by the qualitative image evaluation unit P42.
  • the quantitative image evaluation unit P44 specifies an image evaluation value for each preset adjective pair of each phoneme form indicated by the phoneme notation information generated by the phoneme form analysis unit P41 with reference to the quantitative image table P22b. Further, from the image evaluation value for each adjective pair of each specified phoneme form, the image evaluation value of the onomatopoeia for each of these adjective pairs is calculated as quantitative image evaluation information of the onomatopoeia.
  • the output information generation unit P45 outputs output information for outputting document information indicating the onomatopoeia image generated by the document information generation unit P43 and quantitative image evaluation information of the onomatopoeia calculated by the quantitative image evaluation unit P44. Is generated.
  • the phoneme form analysis unit P41 stores the phoneme form database P21a stored in the storage device P2. Based on the phoneme form analysis information, the phoneme form of the onomatopoeia is analyzed, and the phonemes constituting the onomatopoeia are specified, and phoneme notation information is created according to the phoneme form information stored in the phoneme form database P21a. (Step S2).
  • a phrase indicating an image for each phoneme form indicated by the phoneme notation information generated in the phoneme form analysis unit P41 is specified with reference to the qualitative image list P22a, and the specified plurality of phrases are the onomatopoeia. Obtained as qualitative image evaluation information (step S3).
  • qualitative image evaluation information step S3
  • only a plurality of representative words arbitrarily selected from the qualitative image list P22a are acquired as words indicating images for each phoneme form, but the method for acquiring words is limited to this. Instead, a randomly selected word or phrase may be acquired, or all the phrases may be acquired.
  • the image for each phoneme form of the above phoneme symbol information “/ s // a // r // a // Q // s // a // r // a // ri /”.
  • 3A, 3B, and 4 are referred to as “flowing quietly”, “flat”, “abruptly ends”, “tight”, “turning”, Representative words such as “relaxing movement” are identified, and these phrases are acquired as qualitative image evaluation information of the onomatopoeia “Saraburi”.
  • document information indicating the onomatopoeia image is generated from the qualitative image evaluation information acquired by the qualitative image evaluation unit P42 by the document information generation unit P43 (step S4).
  • the document information showing the image of the above-mentioned onomatopoeia “smoothly” is “An impression that flows quietly, is flat, and ends suddenly. It is an impression that flows quietly, is tight, turns, and relaxes.” Is generated.
  • the image evaluation value for each preset adjective pair of each phoneme form indicated by the phoneme symbol information generated in step S2 is specified with reference to the quantitative image table P22b (step S5).
  • the phonetic symbol information “/ s // a // r // a // Q // s // a // r // a // ri /” is shown as an adjective pair “clean”
  • the image evaluation values of “-Maitai” are obtained by referring to FIG. 5A and FIG. 5B, so that / s / is 0.34, / a / is 0, / r / is 1.56, and / Q / is ⁇ 0. .20, / ri / is specified to be 1.56.
  • the image evaluation value of the onomatopoeia for each adjective pair is calculated as the quantitative image evaluation information of the onomatopoeia from the image evaluation value for each adjective pair of each specified phoneme form (step S6).
  • the image evaluation value of this onomatopoeia is calculated after being corrected to 2 mora by the following equation (1).
  • Y is the calculated image evaluation value of onomatopoeia
  • X1 to X5 are image evaluation values of adjective pairs of each phoneme form
  • Mora is the number of mora of the onomatopoeia.
  • the output information generation unit P45 the phoneme form analyzed in step S2 and the generated phoneme notation information, the document information indicating the image of the onomatopoeia generated in step S4, and the calculated in step S6 From the onomatopoeia image evaluation value as the onomatopoeia quantitative image evaluation information, output information for outputting these information as onomatopoeia image evaluation information is generated.
  • the generated output information is sent to the user interface P3 and output from the output interface P32 (step S7).
  • FIG. 7 shows an example of the image evaluation information of the onomatopoeia “Sara Sarari” output to the display screen as the output interface P32.
  • the phonetic form and phoneme notation information P71 of the onomatopoeia “smoothly”, document information P72 indicating an image, and quantitative image evaluation information P73 in which image evaluation values are graphed are displayed. They are displayed at the same time.
  • FIG. 7 is based on the 15 scale adjective pairs (FIGS. 5A and 5B) described above, but more detailed image evaluation can be performed by increasing the number of adjective pairs.
  • FIGS. 8A-8D show examples of onomatopoeia image evaluation with 43 scale adjective pairs.
  • the document information indicating the image of the onomatopoeia and the graph of the image evaluation value shown for each adjective pair are displayed on the same screen.
  • the evaluated information can be output, and the user can easily obtain objective image information of the desired onomatopoeia.
  • the phoneme form analysis unit analyzes the input phoneme form of onomatopoeia based on the phoneme form analysis information stored in the storage device in advance.
  • the phonological form database is not provided, and the phonological form analysis unit holds the calculation formula for analysis and uses it for analysis, or when the user inputs onomatopoeia, also inputs information necessary for analysis You may do it.
  • the functions of the phonological form analysis unit, the qualitative image evaluation unit, the document information generation unit, the quantitative image evaluation unit, and the output information generation unit of the onomatopoeia image evaluation apparatus of the present embodiment are programmed and incorporated into a computer, It is also possible to construct the computer as an onomatopoeia image evaluation device.
  • Sense distribution map generation A mechanism for generating a sensory relevance distribution map of phonetic symbol words will be described below. Although the case where the phonetic symbol word is onomatopoeia and the texture is expressed will be described as an example, it goes without saying that other phonetic symbol words and senses can be applied.
  • FIG. 9 is a diagram illustrating a configuration example of the sensory relevance distribution map generation device 1 according to the embodiment of the present invention.
  • the sensory relevance distribution map generation device 1 includes an interface unit 11, an onomatopoeia analysis unit 12, and a drawing unit 13 as functional units.
  • These functional units are computers that are executed on hardware resources such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) of the computer constituting the sensory relevance distribution map generation device 1. It is realized by a program. Each unit does not need to be arranged on a single computer, and may be distributed on a plurality of computers as necessary.
  • the computer program may be installed from a recording medium such as a CD-ROM, or may be downloaded and installed from a storage device of a server (not shown) that is communicably connected via the Internet or the like. It may be a thing.
  • the sensory relevance distribution diagram generation device 1 includes a form database 14, a quantitative evaluation database 15, and a relevance database 16 as databases to be referred to and updated during processing. These databases systematically hold predetermined data in a storage area on a storage medium such as an HDD (Hard Disk Disk Drive) in the sensory relevance distribution map generation apparatus 1. These databases do not need to be arranged on a single computer, but may be distributed on a plurality of computers as needed.
  • a storage medium such as an HDD (Hard Disk Disk Drive) in the sensory relevance distribution map generation apparatus 1.
  • the interface unit 11 includes a graphical user interface unit 111 and has a function of interactively inputting information (such as onomatopoeia input) and outputting (such as screen display of a distribution diagram) with the user U.
  • a distribution map can be output to a printer or the like (distribution map output to paper).
  • the onomatopoeia analysis unit 12 includes an analysis / evaluation management unit 121, a form analysis unit 122, and a quantitative evaluation unit 123, and has a function of quantitatively evaluating onomatopoeia input from the user U with respect to a plurality of adjective evaluation scales. .
  • the analysis / evaluation management unit 121 has a function of performing comprehensive management in the onomatopoeia analysis unit 12.
  • the morphological analysis unit 122 has a function of performing morphological analysis from the onomatopoeia character string input from the user U with reference to the morphological database 14 and generating onomatopoeia expression data that is an internal representation of the onomatopoeia.
  • the quantitative evaluation unit 123 has a function of calculating evaluation values for a plurality of adjective pair evaluation scales with reference to the quantitative evaluation database 15 based on onomatopoeia expression data. Details of the data structures of the form database 14 and the quantitative evaluation database 15 and processing using them will be described later.
  • the drawing unit 13 includes a drawing management unit 131, a principal component analysis / position arrangement unit 132, a relevance area arrangement unit 133, and an additional position arrangement unit 134, and mainly provides evaluation values for a plurality of adjective evaluation scales for a plurality of onomatopoeia.
  • Position symbols are adjective pairs or points that indicate relative positions on the distribution of onomatopoeia, headline character strings, etc., and adjective pairs also include lines that connect points that indicate the positions of two adjectives that face each other. It is.
  • the drawing management unit 131 has a function of performing comprehensive management in the drawing unit 13.
  • the principal component analysis / positioning unit 132 performs principal component analysis on evaluation values for a plurality of adjective evaluation scales for a plurality of onomatopoeia, and a position symbol of the adjective pair and a position of the onomatopoeia on a distribution diagram with the higher principal components as axes. It has a function to arrange symbols.
  • the relevance level area arrangement unit 133 acquires a principal component score for each position in the distribution map, calculates an evaluation value of the adjective pair based on the acquired principal component score, and the sensory relevance level of the calculated evaluation value and each adjective pair Based on the above, the degree of relevance for each sense of each position is calculated, and a region having a predetermined value as a boundary is arranged on the distribution map. Details of the data structure of the relevance database 16 and processing using them will be described later.
  • FIG. 10 is a diagram illustrating a hardware configuration example of the sensory relevance distribution diagram generation device 1, and is a general computer configuration.
  • the sensory relevance distribution map generation apparatus 1 includes a CPU (Central Processing Unit) 1002, a ROM (Read Only Memory) 1003, a RAM (Random Access Memory) 1004, an NVRAM (Non-Volatile) connected to a system bus 1001. Random Access Memory 1005.
  • the sensory relevance distribution map generation device 1 includes an I / F (Interface) 1006, an I / O (Input / Output Device) 1007, an HDD (Hard Disk Drive) 1008, and a NIC (NIC) connected to the I / F 1006.
  • I / F Interface
  • I / O Input / Output Device
  • HDD Hard Disk Drive
  • NIC NIC
  • a CD / DVD (Compact Disk / Digital Versatile Disk) drive or the like can be connected to the I / O 1007.
  • FIG. 11 is a flowchart showing a processing example of the above embodiment, and shows an example of processing for generating and presenting a sensory relevance distribution map from a plurality of onomatopoeia inputted from the user U.
  • the graphical user interface unit 111 of the interface unit 11 delivers the input onomatopoeia to the onomatopoeia analysis unit 12 (step S11).
  • the morphological analysis unit 122 of the onomatopoeic analysis unit 12 refers to the morphological database 14 and performs morphological analysis on each onomatopoeia to generate onomatopoeia expression data (step S12).
  • FIG. 12 is a diagram showing an example of the data structure of the form database 14, and “Hiragana / Katakana”, “phonemes”, and “forms” are stored in association with each other. In addition, examples of phonemes of vowels, consonants, and small vowels are shown. In addition, consonants with stuttering (/ ky /, etc.), prompting sound (/ Q /), repelling sound (/ N /), long sound (/ R / ), “Ri” (/ ri /), etc.
  • the form analysis unit 122 of the onomatopoeia analysis unit 12 collates the input character string of each onomatopoeia with the form data of the form database 14 from the top, and obtains phonemes and forms.
  • the morphological analysis unit 122 follows the rules as shown in FIG. 13 for “consonant”, “muddy sound”, “stuttering”, “vowel”, “small vowel”, “special sound” (second mora eye) for the first and second mora of Onomatopoeia. Is “special ending”), and analyzes any of the categories shown (for example, “none”, “muddy sound”, “semi-voiced sound” for “muddy sound”) and the presence or absence of repetition, as shown in FIG. Generate onomatopoeia representation data in the format. “Mora” refers to the number of beats in the Japanese rhythm. For example, in the case of the onomatopoeia “Zuki”, “Z” corresponds to the first mora and “Kit” corresponds to the second mora.
  • the quantitative evaluation unit 123 of the onomatopoeical analysis unit 12 refers to the quantitative evaluation database 15 based on each onomatopoeia expression data generated by the morphological analysis unit 122, and performs quantitative evaluation (a plurality of adjective pairs evaluation scales). (Evaluation value calculation for) is performed (step S13).
  • FIG. 15 is a diagram showing an example of the data structure of the quantitative evaluation database 15, and numerical values corresponding to items (items) of onomatopoeia expression data are set for adjective pairs (such as “warm-cold”) as an evaluation scale. Yes.
  • the data shown in the figure is a part, and the evaluation scale and items are not limited to those shown in the figure, and there are numerical values for the second mora.
  • the 43 scale adjective pairs shown in FIGS. 8A to 8D can be used.
  • Quantitative evaluation data is a human psychological experiment on multiple onomatopoeia that covers the assumed phonemes, and numerically shows the effect of each item's category based on the quantification theory class I and other methods based on the responses of how to feel each evaluation scale. It has become.
  • the quantitative evaluation unit 123 obtains the values of the variables X 1 to X 13 corresponding to the phoneme items as shown in FIG. 16A for each evaluation scale from the quantitative evaluation data shown in FIG. 15, and shown in FIG. 16B.
  • the evaluation value Y for each evaluation scale is calculated by such a mathematical formula.
  • n is the number of mora
  • Const is a constant term.
  • the variable X 1 is “0.16” when the consonant of the first mora is “ka line”.
  • the number of mora divided by n is set to “ ⁇ 2”. Even when an onomatopoeia composed of two or more mora is input, the evaluation value that is normalized and output equivalent to two mora is output. This is to correct the range.
  • the principal component analysis / position arrangement unit 132 of the drawing unit 13 performs principal component analysis on evaluation values for a plurality of adjective pair evaluation scales for a plurality of onomatopoeia (step S14).
  • Principal component analysis is a mathematical process for transforming original observations that are correlated between variables into values called uncorrelated principal components using orthogonal rotation, integrating multivariate data, Used to create new comprehensive indicators.
  • FIGS. 17A to 17C are diagrams showing examples of results of principal component analysis.
  • FIG. 17A shows eigenvalues, contribution rates, and cumulative contribution rates for principal components PC1 to PC8.
  • the eigenvalue means how much information each principal component has corresponding to the original scale.
  • the contribution rate is a value obtained by dividing the eigenvalue by the number of original scales, and indicates the ratio of the total amount of information possessed by each principal component.
  • the cumulative contribution rate is obtained by accumulating contribution rates in descending order of contribution rate.
  • the cumulative contribution ratio up to the second principal component is 77%, it is possible to create a two-dimensional distribution map by using the first principal component and the second principal component. It can be considered that the distribution map has 77% of the information.
  • the device on the display of a distribution map is needed, it can also be set as a three-dimensional or more distribution map by using the 3rd main component or less.
  • FIG. 17B shows an example of principal component loadings for the first and second principal components for each adjective pair of the evaluation scale.
  • the principal component loading is a correlation coefficient between each adjective pair and the principal component. From this value, it is possible to know how much each adjective pair is related to each principal component.
  • FIG. 17C shows an example of principal component scores for the first and second principal components for onomatopoeia.
  • the principal component score represents the correlation between each adjective pair and the principal component, and indicates the relationship between the onomatopoeia and the principal component.
  • the principal component analysis / positioning unit 132 of the drawing unit 13 displays the principal components of the adjective pair on the distribution diagram with the predetermined number of higher-order components as axes based on the result of the principal component analysis.
  • the position symbol of the adjective pair is arranged based on the load amount, and the position symbol of onomatopoeia is arranged based on the principal component score of onomatopoeia (step S15).
  • FIG. 18 is a diagram showing a display example of the position of the adjective pair after arrangement, using the first principal component and the second principal component, the horizontal axis as the principal component load for the first principal component, and the vertical axis as the second.
  • the position is plotted with the adjectives constituting each adjective pair at both ends as principal component loadings with respect to the principal components.
  • FIG. 19 is a diagram showing a display example of the position of onomatopoeia after placement, using the first principal component and the second principal component, the horizontal axis as the principal component score for the first principal component, and the vertical axis as the second principal component.
  • the position of each onomatopoeia is plotted as the principal component score for.
  • the onomatopoeia “Fuwafuwa” is expressed as “Fuwa”.
  • FIG. 20 is a diagram showing an example in which the position of the adjective pair and the position of the onomatopoeia are displayed in an overlapping manner, and the scales are adjusted so that the maximum values of the respective axes in FIGS. 18 and 19 are equal.
  • the relevance region arrangement unit 133 of the drawing unit 13 obtains principal component scores for each position at a predetermined interval on the distribution diagram (in the case of a two-dimensional distribution diagram, the horizontal axis direction and the vertical axis direction). Principal component score is obtained directly from the coordinate position of), and the evaluation value for each adjective pair is calculated based on the acquired principal component score, and the position based on the calculated evaluation value and the sensory relevance for each adjective pair The degree of association for each sense is calculated, and an area having a predetermined value as a boundary is arranged on the distribution map (step S16).
  • FIG. 21 is a diagram showing an example of a calculation formula for the degree of sensory relevance.
  • the sum of the principal component score corresponding to the coordinate position of each position at a predetermined interval on the distribution map multiplied by the eigenvector of each principal component is taken, and this is multiplied by the standard deviation for each adjective pair of the evaluation scale, and evaluated.
  • An evaluation value is obtained by adding the average of each adjective pair of the scale.
  • FIG. 21 shows an example of standard deviation and average for each adjective pair.
  • the sensory relevance for each sense is calculated by multiplying the absolute value of the evaluation value of each adjective pair thus calculated by the sensory relevance of each adjective pair and taking the sum. The reason why the evaluation value is an absolute value is that the degree of sensory relevance acts at both ends of the adjective pair.
  • the sensory relevance level of each adjective pair is acquired from the relevance database 16.
  • FIG. 22 is a diagram showing an example of the data structure of the relevance database 16, and for each adjective pair, the visual and tactile sensory relevance levels are held in this example.
  • Relevance data is a human psychological experiment for each adjective pair, and in this example for each adjective pair, the effect on each sensation is quantified by methods such as quantification theory class I from the answer of how to feel it visually or tactilely. It is what.
  • the relevance level area arrangement unit 133 specifies a boundary of an area that becomes a predetermined threshold (for example, 25th percentile) from the sense relevance level for each sense, and arranges it on the distribution map.
  • a predetermined threshold for example, 25th percentile
  • FIG. 23A to FIG. 23C are diagrams showing display examples of the visual and tactile relevance area after placement, and FIG. 23A shows the visual related area where the visual predominance (the part with the grid is the visual related area) 23B shows a tactile sense related region where the tactile sense is dominant (the portion where the lattice is present is a tactile sense related region), and FIG. 23C shows both of them superimposed.
  • a region I is a region that cannot be related to both visual and tactile senses and cannot be classified into either one at present.
  • Region II is a region that is strongly related to tactile sensation.
  • Region III is a region that has a strong visual connection.
  • Region IV is a region that is strongly related to both visual and tactile sensations.
  • the difference in area is indicated by the presence or absence of a grid, but the actual display on a screen, paper, or the like can be displayed by distinguishing the area by a difference in color, a hatching pattern, or the like.
  • sight and touch were taken up as sensations corresponding to the texture, other sensations can be visualized as well.
  • FIG. 24 is a diagram showing an example in which the positions of adjective pairs and onomatopoeia and visual and tactile relevance areas are displayed in an overlapping manner. That is, FIG. 20 and FIG. 23C are displayed in an overlapping manner, and are final distribution maps.
  • this distribution map to see where the desired onomatopoeia exists, the relevance between the texture impression of the onomatopoeia and the visual / tactile sense can be grasped.
  • onomatopoeia characterized by the dimensions of “glossy-no-glossy”, “smooth-coarse”, and “concave-flat” is visual-dominant
  • onomatopoeia rated “slip” is tactile-dominant I understand that. Therefore, when a request for texture is made using onomatopoeia, it becomes easy to understand the meaning of the onomatopoeia from the distribution map, and it is possible to take measures against the request without omission.
  • FIG. 25 is a flowchart showing another processing example of the above-described embodiment, and shows an example of processing for additionally arranging a new onomatopoeia position symbol on the already generated distribution map.
  • the graphical user interface unit 111 of the interface unit 11 delivers the input onomatopoeia to the onomatopoeia analysis unit 12 (step S21).
  • the onomatopoeia input is assumed to be a character string input using a keyboard or the like. However, a character string may be acquired by inputting by voice using a voice input function.
  • the morphological analyzer 122 of the onomatopoeia analyzing unit 12 refers to the morphological database 14 and morphologically analyzes the onomatopoeia to generate onomatopoeia expression data (step S22).
  • the quantitative evaluation unit 123 of the onomatopoeia analysis unit 12 performs quantitative evaluation (calculation of evaluation values for a plurality of adjective evaluation scales) with reference to the quantitative evaluation database 15 based on the onomatopoeia expression data generated by the morphological analysis unit 122. This is performed (step S23).
  • the additional position arrangement unit 134 of the drawing unit 13 calculates a principal component score of onomatopoeia from the quantitative evaluation result and the principal component loading of each adjective pair (step S24), and the position of the onomatopoeia based on the calculated principal component score A symbol is arranged (step S25).
  • the distribution screens are displayed side by side on the image determination screen shown in FIG. 8A to FIG. 8D and input to the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 音象徴語の複数の感覚に対する関連性を可視化し、音象徴語の理解を支援する。複数の音象徴語を入力する入力部と、前記入力部により入力された音象徴語を複数の形容詞対尺度について定量評価する定量評価部と、前記定量評価部の定量評価結果に対して主成分分析を行い、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、音象徴語の主成分得点に基づいて音象徴語の位置記号を配置する位置配置部と、分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする感覚毎の領域を図上に配置する領域配置部とを備える。

Description

音象徴語の感覚関連性分布図生成装置
 本発明は、言語表現の解析技術に関する。
 質感を表現するのにオノマトペ(擬音語、擬態語の総称)に代表される音象徴語が多用される傾向がある。これは、音象徴語が、音の響き自体が対象の性質を表し、その音を聞いただけで共通のイメージを呼び起こす性質を持っているからである。
 なお、本発明者らは、オノマトペの評価および生成に関する技術の提案を行っている(特許文献1、2等を参照。)。
特許第5354425号公報 特開2013-33351号公報
 上述したように音象徴語は質感を表現するのに用いられることが多いが、音象徴語は複数の感覚にまたがるクロスモーダル性を有しているものが存在するため、そのような音象徴語により表現しようとしている質感がどの感覚にどの程度関連するものなのかを正確に把握できない場合が考えられる。
 例えば、「つるつる」というオノマトペは、視覚的に「つやのある」という意味と、触覚的に「滑らかな」という意味とを有しているため、前者または後者の一方しか頭に浮かばない場合には、真意を理解できないことになる。例えば、他者から「もっと“つるつる”にして欲しい」という要求を受けた場合、視覚的な改善または触覚的な改善のいずれかしか行えなくなり、要求に十分に応えることができない。なお、狭義の質感(材質が持つ、視覚的・触覚的な感じ)に限らず、音象徴語により表現しようとしている感覚全般について言えることである。
 本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、音象徴語の複数の感覚に対する関連性を可視化し、音象徴語の理解を支援することにある。
 上記の課題を解決するため、本発明にあっては、複数の音象徴語を入力する入力部と、前記入力部により入力された音象徴語を複数の形容詞対尺度について定量評価する定量評価部と、前記定量評価部の定量評価結果に対して主成分分析を行い、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、音象徴語の主成分得点に基づいて音象徴語の位置記号を配置する位置配置部と、分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする感覚毎の領域を図上に配置する領域配置部とを備える。
 本発明にあっては、音象徴語の複数の感覚に対する関連性を可視化し、音象徴語の理解を支援することができる。
オノマトペのイメージ評価システムの構成を示すブロック図である。 オノマトペのイメージ評価システムの記憶装置の音韻データベース記憶部に記憶される音韻データベースの一例である。 オノマトペのイメージ評価システムの記憶装置のイメージデータベース記憶部に記憶される定性イメージリストの一例である。 オノマトペのイメージ評価システムの記憶装置のイメージデータベース記憶部に記憶される定性イメージリストの一例である。 オノマトペのイメージ評価システムの記憶装置のイメージデータベース記憶部に記憶される定性イメージリストの一例である。 オノマトペのイメージ評価システムの記憶装置のイメージデータベース記憶部に記憶される定量イメージリストの一例である。 オノマトペのイメージ評価システムの記憶装置のイメージデータベース記憶部に記憶される定量イメージリストの一例である。 オノマトペのイメージ評価システムの動作を説明するフローチャートである。 オノマトペのイメージ評価システムにより出力されたオノマトペのイメージ評価情報が出力されたときの一例を示す画面構成図である。 43尺度でオノマトペのイメージ評価情報を出力した場合の例を示す図である。 43尺度でオノマトペのイメージ評価情報を出力した場合の例を示す図である。 43尺度でオノマトペのイメージ評価情報を出力した場合の例を示す図である。 43尺度でオノマトペのイメージ評価情報を出力した場合の例を示す図である。 本発明の一実施形態にかかる感覚関連性分布図生成装置の構成例を示す図である。 感覚関連性分布図生成装置のハードウェア構成例を示す図である。 実施形態の処理例を示すフローチャートである。 形態データベースのデータ構造例を示す図である。 形態解析部による解析項目の例を示す図である。 オノマトペ表現データのデータ構造例を示す図である。 定量評価データベースのデータ構造例を示す図である。 評価尺度毎の定量評価の算出式の例を示す図である。 評価尺度毎の定量評価の算出式の例を示す図である。 主成分分析の結果の例を示す図である。 主成分分析の結果の例を示す図である。 主成分分析の結果の例を示す図である。 形容詞対の位置の表示例を示す図である。 オノマトペの位置の表示例を示す図である。 形容詞対の位置とオノマトペの位置とを重ねて表示した例を示す図である。 感覚関連度の算出式の例を示す図である。 関連性データベースのデータ構造例を示す図である。 視覚と触覚の関連度領域の表示例を示す図である。 視覚と触覚の関連度領域の表示例を示す図である。 視覚と触覚の関連度領域の表示例を示す図である。 形容詞対およびオノマトペの位置と視覚および触覚の関連度領域とを重ねて表示した例を示す図である。 実施形態の他の処理例を示すフローチャートである。
 以下、本発明の好適な実施形態につき説明する。
 <<イメージ評価>>
 以下にイメージ評価のための仕組について説明する。なお、音象徴語をオノマトペを例に説明するが、その他の音象徴語についても適用できることは言うまでもない。
 日本語には、擬音語・擬態語(以下、「オノマトペ」という)が豊富に存在する。オノマトペは日常の言語活動で広く利用されており、日本語において重要な言語表現手段のひとつであるといえる。
 また、オノマトペは、簡潔で具体的な描写力を持つ、インパクトのある表現が可能である、語呂がよく記憶に残りやすい等の特長から、広告のコピーや商品名を消費者に印象づけるためにも多く利用されている。またオノマトペは、文学分野においてもさまざまな時代、さまざまなカテゴリの作品で、読者に具体的なイメージを喚起させるために広く使われている。
 これらの広告分野や文学分野等でオノマトペが利用される際には、一般的には用いられていない創作的なオノマトペが生み出され使用されることがある。このような新たなオノマトペが創作されたときには、この創作者はこのオノマトペが消費者や読者にどのようなイメージで捉えられるかを知りたいという要求がある。ゆえにオノマトペの客観的なイメージを創作者に提示することは、創作者の創作的活動を支援することができると考えられる。
 オノマトペのイメージを客観的に分析するため、文献1(筧壽雄・田守育啓(編)(1993).『オノマトピア 擬音・擬態語の楽園』,東京:勁草書房.)および文献2(田守育啓・Lawrence Schourup (1999). 『オノマトペ 形態と意味』.くろしお出版)に記載された、オノマトペの表現を特徴付ける独特の音韻形態を体系化した、オノマトペの形態と意味を参照することができる。オノマトペの形態は多様に見えるがほとんどは数音からなる基本形の組み合わせで構成されており、この文献1および文献2では、オノマトペを特徴づける独特の音韻形態を体系化し、それぞれの音韻形態により表わされる独自の意味が提示されている。
 例えば、「語尾に『り』がつく形態」の意味は「ゆったりした動き」や「動作の完了」であり、「反復の形態」の意味は「音や動作の継続・繰り返し」であることなどが示されている。
 また、オノマトペでは音韻とその音韻により表される意味との間に何らかの関係性が見られる場合あり、このような現象は音象徴と呼ばれる。文献3(Hamano Shoko(1986).The Sound-symbolic System of Japanese, Doctoral dissertation. Gainesville: University of Florida.)においては、日本語オノマトペについて、オノマトペの中における特定の音韻または音韻の組み合わせの箇所によって表される音象徴的意味を体系化し、あるオノマトペの基本的な音象徴的意味はそのオノマトペの形態と音韻の構成から予測できることを示している。
 さらに文献4(藤沢望・尾畑文野・高田正幸・岩宮眞一郎(2006).2モーラの擬音語からイメージされる音の印象.『日本音響学会誌』,62(11),pp.774-783.)においては、評価実験により、各音韻特性要素の有無がオノマトペの印象に与える影響を数値化し、この数値の線形和で当該オノマトペのイメージが決定されると仮定することで、オノマトペの音韻と印象評価値との関係をモデル化している。これらの文献1~4を参照することにより、オノマトペの客観的なイメージを知ることができる。
 しかしながら、創作したオノマトペを、上記の非特許文献に記載された情報に基づいてどの形態に属するかを分析し、その意味やイメージを特定する作業は煩雑であり、これらの処理を容易に実行可能な技術が望まれていた。
 従来の擬音語を分析する装置として文献5(特許第2897701号公報)に示す効果音検索装置があるが、この発明の技術では入力した擬音語文字列から一文字または文字列からなる音韻情報を取り出すことで擬音語の形態を分析することは行われるが、この形態の分析は効果音を検索するためのものであり、さらにこれらの意味やイメージに関する情報を取得することは行われていなかった。
 そこで、オノマトペの客観的なイメージの情報を提示するオノマトペのイメージ評価システム、イメージ評価装置、およびイメージ評価用プログラムを提供する。
 <オノマトペのイメージ評価システムの構成>
 本実施形態のオノマトペのイメージ評価システムP1は、図1に示すように、記憶装置P2と、ユーザインタフェースP3と、オノマトペのイメージ評価装置P4とを備える。
 記憶装置P2は、音韻形態データベース記憶部P21と、イメージデータベース記憶部P22とを有する。
 音韻形態データベース記憶部P21は、オノマトペの音韻形態を、音韻の要素や語尾等により解析するための音韻形態解析情報と、この音韻形態解析情報により解析された音韻形態を音素表記するための音素表記情報とを格納した、音韻形態データベースP21aを記憶する。
 図2は音韻形態データベースP21aの一例であり、音韻形態解析情報として「母音;V」、「子音;C」、「促音『っ』;Q」、「撥音;N」、「長音;R」、「(語末の)『り』;ri」、「濁音・半濁音」、「反復」等が記憶され、この「母音」の音素表記情報として「/a/,/i/,/u/,/e/,/o/」、「子音」の音素表記情報として「/k/,/g/,/s/,/z/,/t/,/d/,/n/,/h/,/b/,/p/,/m/,/r/,/w/」、「拗音つき子音」の音素表記情報として「/ky/,/gy/,/sy/,/zy/,/ty/,/dy/,/ny/,/hy/,/by/,/py/,/my/,/ry/」、「促音『っ』」の音素表記情報として「/Q/」、「撥音」の音素表記情報として「/N/」、「長音」の音素表記情報として「/R/」、「(語末の)『り』」の音素表記情報として「/ri/」が格納されている。イメージデータベース記憶部P22は、定性イメージリストP22aと、定量イメージテーブルP22bとを記憶する。
 定性イメージリストP22aは、既知の確立された情報により、音韻形態ごとのイメージを示す語句をリスト化したものである。
 図3A、図3Bおよび図4は定性イメージリストP22aの一例であり、図3Aおよび図3Bは音韻形態「母音」、「子音」に関する各音韻形態のイメージを示す語句のリストである。また、図4は、音韻形態「(語末の)『り』」、「促音『っ』」、「長音」、「反復」のイメージを示す語句のリストである。
 定量イメージテーブルP22bは、評価実験により得られた、音韻形態ごとに、各音韻形態の有無がオノマトペのイメージに与える影響の尺度を、対照的な意味を持つ形容詞対ごとに数値化したイメージ評価値を格納するテーブルである。この形容詞対ごとのイメージ評価値は、認知実験を行うことにより追加や修正が可能なものである。
 図5Aおよび図5Bは定量イメージテーブルP22bの一例であり、図5Aは音韻形態「母音」、「撥音」、「促音『っ』」、および「長音」に関する、15組の対照的な意味を持つ形容詞対ごとのオノマトペのイメージに与える影響の尺度を数値で示したイメージ評価値を格納する。また、図5Bは音韻形態「子音」、「濁音・半濁音」、「拗音」に関する、同様の15組の形容詞対ごとのオノマトペのイメージに与える影響の尺度を数値で示したイメージ評価値を格納する。なお、このイメージ評価値は2モーラのオノマトペについて評価した既知の相対的な数値である。「モーラ」とは音節単位を表し、基本的に一母音と一子音との組み合わせにより「1モーラ」が構成される。
 ユーザインタフェースP3は、ユーザにより操作され評価処理対象のオノマトペを入力する入力インタフェースP31と、後述するイメージ評価装置P4の出力情報生成部P45で生成される出力情報を、ユーザに提示するために出力する出力インタフェースを有する出力インタフェースP32とを有する。
 オノマトペのイメージ評価装置P4は、音韻形態解析部P41と、定性イメージ評価部P42と、文書情報生成部P43と、定量イメージ評価部P44と、出力情報生成部P45とを有する。
 音韻形態解析部P41は、ユーザインタフェースP3の入力インタフェースP31から入力されたオノマトペの音韻形態を、記憶装置P2に記憶された音韻形態データベースP21aに記憶された音韻形態解析情報に基づいて解析し、さらに当該オノマトペを構成する音素を特定して音韻形態データベースP21aに記憶された音素表記情報に従って表記する音素表記情報を生成する。
 定性イメージ評価部P42は、音韻形態解析部P41において生成された音素表記情報で示される各音韻形態のイメージを示す語句を、定性イメージリストP22aを参照して特定し、特定した複数の語句を当該オノマトペの定性的なイメージ評価情報として取得する。
 文書情報生成部P43は、定性イメージ評価部P42において取得した定性的なイメージ評価情報から、当該オノマトペのイメージを示す文書情報を生成する。
 定量イメージ評価部P44は、音韻形態解析部P41において生成された音素表記情報で示される各音韻形態の、予め設定された形容詞対ごとのイメージ評価値を定量イメージテーブルP22bを参照して特定する。また、特定した各音韻形態の形容詞対ごとのイメージ評価値から、これらの形容詞対ごとの当該オノマトペのイメージ評価値を、当該オノマトペの定量的なイメージ評価情報として算出する。
 出力情報生成部P45は、文書情報生成部P43で生成されたオノマトペのイメージを示す文書情報と、定量イメージ評価部P44で算出されたオノマトペの定量的なイメージ評価情報とを出力するための出力情報を生成する。
 <一実施形態によるオノマトペのイメージ評価システムの動作>
 次に、本実施形態によるオノマトペのイメージ評価システムP1を利用して、ユーザによって入力されるオノマトペのイメージ評価情報を表示させるときの、オノマトペのイメージ評価装置の動作について図6のフローチャートを参照して説明する。
 まず、ユーザの操作により、ユーザインタフェースP3の入力インタフェースP31から評価処理対象のオノマトペが入力されると(ステップS1)、音韻形態解析部P41において、記憶装置P2に記憶された音韻形態データベースP21aに記憶された音韻形態解析情報に基づいて当該オノマトペの音韻形態が解析されるとともに、当該オノマトペを構成する音素が特定され音韻形態データベースP21aに記憶された音素表記情報に従って表記する音素表記情報が生成される(ステップS2)。
 例えば、ここで評価処理対象のオノマトペとして「さらっさらり」が入力されると、この「さらっさらり」の音韻形態が音韻形態解析情報に基づいて「CVCVQCVCVri」であることが解析され、さらに音素記号情報として「/s/ /a/ /r/ /a/ /Q/ /s/ /a/ /r/ /a/ /ri/」が生成される。
 次に、音韻形態解析部P41において生成された音素表記情報で示される各音韻形態ごとのイメージを示す語句が、定性イメージリストP22aが参照されて特定され、特定された複数の語句が当該オノマトペの定性的なイメージ評価情報として取得される(ステップS3)。なお、本実施形態では各音韻形態ごとのイメージを示す語句として、定性イメージリストP22a中から任意に選択された代表語のみが複数取得されているが、語句の取得方法はこれに限定されるものではなく、ランダムに選択された語句が取得されるようにしたり、また全ての語句が取得されるようにしてもよい。
 本実施形態においては例えば上記の音素記号情報「/s/ /a/ /r/ /a/ /Q/ /s/ /a/ /r/ /a/ /ri/」の各音韻形態ごとのイメージを示す語句としては、図3A、図3Bおよび図4が参照されることにより、「静かに流れる」、「平らな」、「急に終わる」、「ぴんと張った」、「回るような」、「ゆったりした動き」などの代表語が特定され、これらの語句がオノマトペ「さらっさらり」の定性的なイメージ評価情報として取得される。
 次に、文書情報生成部P43により、定性イメージ評価部P42において取得された定性的なイメージ評価情報から、当該オノマトペのイメージを示す文書情報が生成される(ステップS4)。
 例えば、上記のオノマトペ「さらっさらり」のイメージを示す文書情報としては、「静かに流れ、平らで、急に終わる印象です。静かに流れ、ぴんと張った、回るような、ゆったりした印象です。」が生成される。
 また、ステップS2で生成された音素記号情報で示される各音韻形態の、予め設定された形容詞対ごとのイメージ評価値が、定量イメージテーブルP22bが参照されて特定される(ステップS5)。
 例えば、上記の音素記号情報「/s/ /a/ /r/ /a/ /Q/ /s/ /a/ /r/ /a/ /ri/」で示される各音韻形態の形容詞対「きれいな-きたない」のイメージ評価値は、図5Aおよび図5Bが参照されることにより、/s/は0.34、/a/は0、/r/は1.56、/Q/は-0.20、/ri/は1.56であることが特定される。
 次に、特定された各音韻形態の形容詞対ごとのイメージ評価値から、これらの形容詞対ごとの当該オノマトペのイメージ評価値が、当該オノマトペの定量的なイメージ評価情報として算出される(ステップS6)。このオノマトペのイメージ評価値は、下記の式(1)により2モーラに補正されて算出される。
Figure JPOXMLDOC01-appb-M000001
 ここで、Yは算出されるオノマトペのイメージ評価値であり、X1~X5は各音韻形態の形容詞対のイメージ評価値であり、Moraは当該オノマトペのモーラ数である。
 次に、出力情報生成部P45において、ステップS2で解析された音韻形態および生成された音素表記情報と、ステップS4で生成された当該オノマトペのイメージを示す文書情報と、ステップS6で算出された当該オノマトペの定量的なイメージ評価情報としてのオノマトペのイメージ評価値とから、これらの情報を当該オノマトペのイメージ評価情報として出力するための出力情報が生成される。生成された出力情報はユーザインタフェースP3に送出され、出力インタフェースP32から出力される(ステップS7)。
 出力インタフェースP32としての表示画面に出力された、オノマトペ「さらっさらり」のイメージ評価情報の例を図7に示す。
 図7においては、表示画面P7上に、オノマトペ「さらっさらり」の音韻形態および音素表記情報P71と、イメージを示す文書情報P72と、イメージ評価値をグラフ化した定量的なイメージ評価情報P73とが同時に表示されている。
 図7は前述した15尺度の形容詞対(図5A、図5B)に基づくものであるが、形容詞対を更に多くすることで、より詳細なイメージ評価を行うことができる。図8A~図8Dは、43尺度の形容詞対によるオノマトペのイメージ評価の例を示している。
 以上の本実施形態によれば、ユーザが評価処理対象のオノマトペを入力することにより、当該オノマトペのイメージを示す文書情報と形容詞対ごとに示されたイメージ評価値のグラフとが同一画面上に表示された評価情報を出力させることができ、ユーザは所望のオノマトペの客観的なイメージの情報を容易に得ることができる。
 なお、本実施形態においては、入力されたオノマトペの音韻形態を音韻形態解析部において解析する際に、予め記憶装置に記憶された音韻形態データベースの音韻形態解析情報に基づいて解析する場合について説明したが、音韻形態データベースを設けず、音韻形態解析部が解析用の計算式を保持しこれを利用することにより解析するようにしたり、ユーザがオノマトペを入力する際に解析に必要な情報も入力するようにしてもよい。
 また、本実施形態のオノマトペのイメージ評価装置の音韻形態解析部、定性イメージ評価部、文書情報生成部、定量イメージ評価部、および出力情報生成部の各機能をプログラム化してコンピュータに組み込むことにより、当該コンピュータをオノマトペのイメージ評価装置として構築することも可能である。
 <<感覚関連性分布図生成>>
 以下に音象徴語の感覚関連性分布図生成のための仕組について説明する。なお、音象徴語をオノマトペとし、質感の表現する場合を例に説明するが、その他の音象徴語や感覚についても適用できることは言うまでもない。
 <構成>
 図9は本発明の一実施形態にかかる感覚関連性分布図生成装置1の構成例を示す図である。図9において、感覚関連性分布図生成装置1は、機能部として、インタフェース部11とオノマトペ解析部12と作図部13とを備えている。これらの機能部は、感覚関連性分布図生成装置1を構成するコンピュータのCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のハードウェア資源上で実行されるコンピュータプログラムによって実現されるものである。各部は、単一のコンピュータ上に配置される必要はなく、必要に応じて複数のコンピュータ上に分散される形態であってもよい。コンピュータプログラムは、CD-ROM等の記録媒体からインストールされたものであってもよいし、インターネット等を介して通信可能に接続されたサーバ(図示せず)の記憶装置からダウンロードされ、インストールされたものであってもよい。
 また、感覚関連性分布図生成装置1は、処理に際して参照・更新するデータベースとして、形態データベース14と定量評価データベース15と関連性データベース16とを備えている。これらのデータベースは、感覚関連性分布図生成装置1内のHDD(Hard Disk Drive)等の記憶媒体上の記憶領域に所定のデータを体系的に保持するものである。これらのデータベースは、単一のコンピュータ上に配置される必要はなく、必要に応じて複数のコンピュータ上に分散される形態であってもよい。
 インタフェース部11は、グラフィカルユーザインタフェース部111を備え、ユーザUとの間で対話的に情報の入力(オノマトペの入力等)および出力(分布図の画面表示等)を行う機能を有している。なお、画面表示とは別に、プリンタ等への分布図の出力(用紙への分布図の出力)を行うこともできる。
 オノマトペ解析部12は、解析・評価管理部121と形態解析部122と定量評価部123とを備え、ユーザUから入力されたオノマトペを複数の形容詞評価尺度について定量評価を行う機能を有している。解析・評価管理部121は、オノマトペ解析部12における総合的な管理を行う機能を有している。形態解析部122は、ユーザUから入力されたオノマトペの文字列から、形態データベース14を参照して形態解析を行い、オノマトペの内部表現であるオノマトペ表現データを生成する機能を有している。定量評価部123は、オノマトペ表現データに基づき、定量評価データベース15を参照して複数の形容詞対評価尺度に対する評価値を算出する機能を有している。形態データベース14および定量評価データベース15のデータ構造およびそれらを用いた処理の詳細については後述する。
 作図部13は、作図管理部131と主成分分析・位置配置部132と関連度領域配置部133と追加位置配置部134とを備え、複数のオノマトペについての複数の形容詞評価尺度に対する評価値を主成分分析して得た上位の主成分を軸とした分布図上に、形容詞対の位置記号、オノマトペの位置記号、および、関連度領域(例えば、視覚が優位な領域、触覚が優位な領域等)を配置する機能を有している。位置記号は、形容詞対またはオノマトペの分布図上での相対的な位置を示す点や見出し文字列等であり、形容詞対については、対峙する2つの形容詞の位置を示す点等をつなぐ線も含まれる。
 作図管理部131は、作図部13における総合的な管理を行う機能を有している。主成分分析・位置配置部132は、複数のオノマトペについての複数の形容詞評価尺度に対する評価値を主成分分析し、上位の主成分を軸とした分布図上に形容詞対の位置記号とオノマトペの位置記号を配置する機能を有している。関連度領域配置部133は、分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて各位置の感覚毎の関連度を算出し、所定値を境界とする領域を分布図上に配置する機能を有している。関連性データベース16のデータ構造およびそれらを用いた処理の詳細については後述する。
 図10は感覚関連性分布図生成装置1のハードウェア構成例を示す図であり、一般的なコンピュータの構成である。図10において、感覚関連性分布図生成装置1は、システムバス1001に接続されたCPU(Central Processing Unit)1002、ROM(Read Only Memory)1003、RAM(Random Access Memory)1004、NVRAM(Non-Volatile Random Access Memory)1005を備えている。また、感覚関連性分布図生成装置1は、I/F(Interface)1006と、I/F1006に接続された、I/O(Input/Output Device)1007、HDD(Hard Disk Drive)1008、NIC(Network Interface Card)1009と、I/O1007に接続されたモニタ1010、キーボード1011、マウス1012等を備えている。I/O1007にはCD/DVD(Compact Disk/Digital Versatile Disk)ドライブ等を接続することもできる。
 <動作>
 図11は上記の実施形態の処理例を示すフローチャートであり、ユーザUから入力された複数のオノマトペから感覚関連性分布図を生成して提示する処理の例を示すものである。
 図11において、インタフェース部11のグラフィカルユーザインタフェース部111は、ユーザUから対象の複数のオノマトペを入力すると、入力したオノマトペをオノマトペ解析部12に引き渡す(ステップS11)。
 オノマトペ解析部12の形態解析部122は、形態データベース14を参照して各オノマトペを形態解析し、オノマトペ表現データを生成する(ステップS12)。
 図12は形態データベース14のデータ構造例を示す図であり、「ひらがな・カタカナ」と「音素」と「形態」とが対応付けて保持されている。なお、母音、子音、小母音の音素の例を示しているが、その他に、拗音付き子音(/ky/等)、促音(/Q/)、撥音(/N/)、長音(/R/)、「り」(/ri/)等が存在する。
 オノマトペ解析部12の形態解析部122は、入力された各オノマトペの文字列を先頭から形態データベース14の形態データと照合し、音素および形態を得る。
 また、形態解析部122は、図13に示すようなルールに従い、オノマトペの1モーラ目と2モーラ目について「子音」「濁音」「拗音」「母音」「小母音」「特殊音(2モーラ目は「特殊語尾」)」について図示のカテゴリのいずれか(例えば、「濁音」については「なし」「濁音」「半濁音」のいずれか)および反復の有無を解析し、図14に示すような形式のオノマトペ表現データを生成する。なお、「モーラ」とは、日本語リズムにおける拍数を指すものである。例えば、「ズキッ」というオノマトペの場合、「ズ」が第1モーラ、「キッ」が第2モーラに該当する。
 次いで、図11に戻り、オノマトペ解析部12の定量評価部123は、形態解析部122により生成された各オノマトペ表現データに基づき、定量評価データベース15を参照して定量評価(複数の形容詞対評価尺度に対する評価値の算出)を行う(ステップS13)。
 図15は定量評価データベース15のデータ構造例を示す図であり、評価尺度となる形容詞対(「暖かい-冷たい」等)に対し、オノマトペ表現データの項目(アイテム)に対応した数値が設定されている。なお、図示のデータは一部を示したものであり、評価尺度や項目は図示のものに限られず、2モーラ目についての数値も存在する。評価尺度としては、図8A~図8Dに示した43尺度の形容詞対を用いることができる。定量評価データは、想定される音素をカバーする複数のオノマトペについて、人間による心理実験を行い、各評価尺度に対する感じ方の回答から数量化理論I類等の手法により各項目のカテゴリによる影響を数値化したものである。
 そして、定量評価部123は、図16Aに示すような、音韻の項目に対応した変数X~X13の値を図15に示した定量評価データから評価尺度毎に取得し、図16Bに示すような数式により評価尺度毎の評価値Yを算出する。nはモーラ数であり、Constは定数項である。例えば、評価尺度「暖かい-冷たい」につき、1モーラ目の子音が「カ行」である場合、変数Xは「0.16」となる。なお、数式において、モーラ数nで割り、「×2」としているのは、2モーラ以上で構成されるオノマトペが入力された場合でも、2モーラと同等に正規化され、出力される評価値の範囲を補正するためである。
 次いで、図11に戻り、作図部13の主成分分析・位置配置部132は、複数のオノマトペについての複数の形容詞対評価尺度に対する評価値を主成分分析する(ステップS14)。主成分分析は、直交回転を用いて変数間に相関がある元の観測値を、相関の無い主成分とよばれる値に変換するための数学的な処理であり、多変量データを統合し、新たな総合指標を作り出すために用いられる。
 図17A~図17Cは主成分分析の結果の例を示す図であり、図17Aでは、主成分PC1~PC8につき、固有値と寄与率と累積寄与率が示されている。なお、主成分分析においては、各主成分についての固有ベクトルも併せて取得される。固有値は、各主成分が元の尺度何個分に相当する情報量を持っているかを意味する。寄与率は、固有値を元の尺度の数で割った値であり、各主成分が持つ情報量の全体における割合を示している。累積寄与率は、寄与率の高い順に寄与率を累積したものである。この例では、第2主成分までの累積寄与率は77%であるため、第1主成分と第2主成分を用いることで、2次元の分布図を作成することが可能であり、作成される分布図は全体の77%の情報を持っていると考えることができる。なお、分布図の表示上の工夫は必要となるが、第3主成分以下も用いることにより、3次元以上の分布図とすることもできる。
 図17Bは、評価尺度の各形容詞対について、第1・第2主成分に対する主成分負荷量の例を示している。主成分負荷量は、各形容詞対と主成分の相関係数である。この値から、各形容詞対と各主成分がどの程度関連しているかを知ることができる。
 図17Cは、オノマトペについて、第1・第2主成分に対する主成分得点の例を示している。主成分得点は、各形容詞対と主成分との相関を表しており、オノマトペと主成分の関係性を示している。
 次いで、図11に戻り、作図部13の主成分分析・位置配置部132は、主成分分析の結果に基づき、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、オノマトペの主成分得点に基づいてオノマトペの位置記号を配置する(ステップS15)。
 図18は配置後の形容詞対の位置の表示例を示す図であり、第1主成分と第2主成分を用い、横軸を第1主成分に対する主成分負荷量とし、縦軸を第2主成分に対する主成分負荷量とし、各形容詞対を構成する形容詞を両端に、位置をプロットしたものである。
 図19は配置後のオノマトペの位置の表示例を示す図であり、第1主成分と第2主成分を用い、横軸を第1主成分に対する主成分得点とし、縦軸を第2主成分に対する主成分得点とし、各オノマトペの位置をプロットしたものである。なお、ここでは繰り返しであるABAB型(「ふわふわ」等)のオノマトペに限ったため、見やすさを考慮し、繰り返さずに表記している(例えば、オノマトペ「ふわふわ」は「ふわ」と表記)。
 図20は形容詞対の位置とオノマトペの位置とを重ねて表示した例を示す図であり、図18と図19の各軸の最大値が同等となるようにスケールを合わせている。
 次いで、図11に戻り、作図部13の関連度領域配置部133は、分布図上の所定間隔の各位置について主成分得点を取得(2次元の分布図の場合は横軸方向および縦軸方向の座標位置から主成分得点を直接に取得)し、取得した主成分得点に基づいて各形容詞対に対する評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする領域を分布図上に配置する(ステップS16)。
 図21は感覚関連度の算出式の例を示す図である。先ず、分布図上の所定間隔の各位置の座標位置に対応する主成分得点に各主成分の固有ベクトルを乗算したものの総和をとり、これに評価尺度の形容詞対毎の標準偏差を乗算し、評価尺度の形容詞対毎の平均を加えることにより、評価値を得る。図21には各形容詞対に対する標準偏差と平均の例を示してある。次いで、このようにして算出した各形容詞対の評価値の絶対値に各形容詞対の感覚関連度を乗算して総和をとることにより、感覚毎の感覚関連度を算出する。なお、評価値を絶対値にしているのは、形容詞対の両端において感覚関連度は高く作用するからである。各形容詞対の感覚関連度は関連性データベース16から取得する。
 図22は関連性データベース16のデータ構造例を示す図であり、各形容詞対に対して、この例では視覚と触覚の感覚関連度を保持している。関連性データは、各形容詞対について、人間による心理実験を行い、各形容詞対のこの例では視覚または触覚に対する感じ方の回答から数量化理論I類等の手法により各感覚への影響を数値化したものである。
 次いで、関連度領域配置部133は、感覚毎の感覚関連度から、所定の閾値(例えば、25パーセンタイル)となる領域の境界を特定し、分布図上に配置する。
 図23A~図23Cは配置後の視覚と触覚の関連度領域の表示例を示す図であり、図23Aは視覚が優位となる視覚関連領域(格子がある部分が視覚関連領域)を示し、図23Bは触覚が優位となる触覚関連領域(格子がある部分が触覚関連領域)を示し、図23Cは両者を重ねて示したものである。図23Cにおいて、領域Iは、視覚・触覚両方の関連を捉えられず、現時点ではどちらかに分類することはできない領域である。領域IIは、触覚に強い関連を持つ領域である。領域IIIは、視覚に強い関連を持つ領域である。領域IVは、視覚・触覚両方に強い関連を持つ領域である。なお、領域の違いを格子の有無で示したが、実際の画面や用紙等への表示については、色の違いやハッチング模様等の違いにより領域を区別して表示することができる。また、質感に対応する感覚として視覚と触覚を取り上げたが、他の感覚についても同様に可視化することが可能である。
 図24は形容詞対およびオノマトペの位置と視覚および触覚の関連度領域とを重ねて表示した例を示す図である。すなわち、図20と図23Cとを重ねて表示したものであり、最終的な分布図である。この分布図を利用し、所望のオノマトペがどの位置に存在するかを見ることで、そのオノマトペの持つ質感印象と視覚・触覚との関連性を把握することができる。例えば、「つやのある-つやのない」・「なめらかな-粗い」・「凸凹な-平らな」という次元で特徴付けられるオノマトペは視覚優位であり、「滑る」と評価されるオノマトペは触覚優位であることが分かる。従って、オノマトペを用いて質感に対する要求がなされた場合、分布図によりそのオノマトペの意味する可能性を理解することが容易となり、要求に対する対策を漏れなく施すことが可能となる。
 次に、図25は上記の実施形態の他の処理例を示すフローチャートであり、既に生成された分布図に新たなオノマトペの位置記号を追加配置する処理の例を示すものである。
 図25において、インタフェース部11のグラフィカルユーザインタフェース部111は、ユーザUから任意のオノマトペを入力すると、入力したオノマトペをオノマトペ解析部12に引き渡す(ステップS21)。なお、オノマトペの入力はキーボード等による文字列の入力を想定しているが、音声入力機能を用い、音声で入力して文字列を取得してもよい。
 オノマトペ解析部12の形態解析部122は、形態データベース14を参照してオノマトペを形態解析し、オノマトペ表現データを生成する(ステップS22)。
 次いで、オノマトペ解析部12の定量評価部123は、形態解析部122により生成されたオノマトペ表現データに基づき、定量評価データベース15を参照して定量評価(複数の形容詞評価尺度に対する評価値の算出)を行う(ステップS23)。
 次いで、作図部13の追加位置配置部134は、定量評価結果と各形容詞対の主成分負荷量からオノマトペの主成分得点を算出し(ステップS24)、算出した主成分得点に基づいてオノマトペの位置記号を配置する(ステップS25)。
 これにより、分布図上にないオノマトペを用いた要求がされた場合、その位置が明確となり、要求の意味するところを正確に理解することが可能となる。
 また、図8A~図8Dに示したイメージ判定の画面に分布図(図18~図20、図23A~図23C、図24のいずれかまたは複数の組み合わせ)の画面を並べて表示し、ユーザに入力された判定対象のオノマトペのイメージの詳細と分布図上での位置が一望できるようにすることで、より理解しやすいものとすることができる。
 <総括>
 以上説明したように、本実施形態によれば、音象徴語の複数の感覚に対する関連性を可視化し、音象徴語の理解を支援することができる。
 以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
 本国際出願は、2014年8月1日に出願した日本国特許出願第2014-157793号に基づく優先権を主張するものであり、日本国特許出願第2014-157793号の全内容を本国際出願に援用する。
 1      感覚関連性分布図生成装置
 11     インタフェース部
 111    グラフィカルユーザインタフェース部
 12     オノマトペ解析部
 121    解析・評価管理部
 122    形態解析部
 123    定量評価部
 13     作図部
 131    作図管理部
 132    主成分分析・位置配置部
 133    関連度領域配置部
 134    追加位置配置部
 14     形態データベース
 15     定量評価データベース
 16     関連性データベース
 U      ユーザ
 P1     イメージ評価システム
 P2     記憶装置
 P3     ユーザインタフェース
 P4     イメージ評価装置
 P7     表示画面
 P21    音韻形態データベース記憶部
 P21a   音韻形態データベース
 P22    イメージデータベース記憶部
 P22a   定性イメージリスト
 P22b   定量イメージテーブル
 P31    入力インタフェース
 P32    出力インタフェース
 P41    音韻形態解析部
 P42    定性イメージ評価部
 P43    文書情報生成部
 P44    定量イメージ評価部
 P45    出力情報生成部
 P71    音素表記情報
 P72    文書情報
 P73    イメージ評価情報
 

Claims (5)

  1.  複数の音象徴語を入力する入力部と、
     前記入力部により入力された音象徴語を複数の形容詞対尺度について定量評価する定量評価部と、
     前記定量評価部の定量評価結果に対して主成分分析を行い、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、音象徴語の主成分得点に基づいて音象徴語の位置記号を配置する位置配置部と、
     分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする感覚毎の領域を図上に配置する領域配置部と
    を備えたことを特徴とする音象徴語の感覚関連性分布図生成装置。
  2.  請求項1に記載の音象徴語の感覚関連性分布図生成装置において、
     前記領域配置部は、感覚毎の関連度が所定値を超える領域と超えない領域とを区別して配置する
    ことを特徴とする音象徴語の感覚関連性分布図生成装置。
  3.  請求項1または2のいずれか一項に記載の音象徴語の感覚関連性分布図生成装置において、
     追加の音象徴語を入力する追加入力部と、
     前記追加入力部により入力された音象徴語の主成分得点を算出し、分布図上に追加された音象徴語の位置記号の追加配置を行う位置追加配置部と
    を備えたことを特徴とする音象徴語の感覚関連性分布図生成装置。
  4.  コンピュータが実行する方法であって、
     複数の音象徴語を入力する入力工程と、
     前記入力工程により入力された音象徴語を複数の形容詞対尺度について定量評価する定量評価工程と、
     前記定量評価工程の定量評価結果に対して主成分分析を行い、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、音象徴語の主成分得点に基づいて音象徴語の位置記号を配置する位置配置工程と、
     分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする感覚毎の領域を図上に配置する領域配置工程と
    を備えたことを特徴とする音象徴語の感覚関連性分布図生成方法。
  5.  コンピュータを、
     複数の音象徴語を入力する入力手段、
     前記入力手段により入力された音象徴語を複数の形容詞対尺度について定量評価する定量評価手段、
     前記定量評価手段の定量評価結果に対して主成分分析を行い、上位の所定数の主成分を軸とした分布図上に、形容詞対の主成分負荷量に基づいて形容詞対の位置記号を配置し、音象徴語の主成分得点に基づいて音象徴語の位置記号を配置する位置配置手段、
     分布図の各位置について主成分得点を取得し、取得した主成分得点に基づいて形容詞対の評価値を算出し、算出した評価値と形容詞対毎の感覚関連度とに基づいて当該位置の感覚毎の関連度を算出し、所定値を境界とする感覚毎の領域を図上に配置する領域配置手段
    として機能させる音象徴語の感覚関連性分布図生成プログラム。
     
PCT/JP2015/071708 2014-08-01 2015-07-30 音象徴語の感覚関連性分布図生成装置 WO2016017777A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016538449A JP6573399B2 (ja) 2014-08-01 2015-07-30 音象徴語の感覚関連性分布図生成装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-157793 2014-08-01
JP2014157793 2014-08-01

Publications (1)

Publication Number Publication Date
WO2016017777A1 true WO2016017777A1 (ja) 2016-02-04

Family

ID=55217673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/071708 WO2016017777A1 (ja) 2014-08-01 2015-07-30 音象徴語の感覚関連性分布図生成装置

Country Status (2)

Country Link
JP (1) JP6573399B2 (ja)
WO (1) WO2016017777A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022331A (ja) * 2016-08-03 2018-02-08 国立大学法人電気通信大学 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム
JP2019021285A (ja) * 2017-03-17 2019-02-07 国立大学法人電気通信大学 情報処理システム、情報処理方法及びプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JUNJI WATANABE: "Onomatopoeias no Onshochosei o Riyo shita Sawari-Gokochi no Teiryoka", 2011 NENDO ANNUAL CONFERENCE OF JSAI (THE 25TH) RONBUNSHU, 3 June 2011 (2011-06-03), pages 1 - 2 *
NOZOMU FUJISAWA: "Study on Auditory Imagery Associated with Onomatopoeic Representation", IEICE TECHNICAL REPORT, vol. 103, no. 750, 23 March 2004 (2004-03-23), pages 19 - 24 *
TOMOHIKO HAYAKAWA: "Classification Method of Tactile Textures Using Onomatopoeias", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 15, no. 3, 30 September 2010 (2010-09-30), pages 487 - 490 *
TOMOHIKO HAYAKAWA: "Shokusozu no On'inron-teki Bunseki", THE 14TH VIRTUAL REALITY SOCIETY OF JAPAN TAIKAI RONBUNSHU, 11 September 2009 (2009-09-11), pages 1 - 4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022331A (ja) * 2016-08-03 2018-02-08 国立大学法人電気通信大学 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム
JP2019021285A (ja) * 2017-03-17 2019-02-07 国立大学法人電気通信大学 情報処理システム、情報処理方法及びプログラム
JP7170299B2 (ja) 2017-03-17 2022-11-14 国立大学法人電気通信大学 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2016017777A1 (ja) 2017-06-01
JP6573399B2 (ja) 2019-09-11

Similar Documents

Publication Publication Date Title
Hubner How did we get here? A framing and source analysis of early COVID-19 media coverage
Pham et al. Vietnamese compounds show an anti-frequency effect in visual lexical decision
CN106383815A (zh) 结合用户和产品信息的神经网络情感分析方法
Burns et al. Designing with pictographs: Envision topics without sacrificing understanding
US10936971B2 (en) Optimization apparatus and optimization method for hyper parameter
Booth et al. Expectations on hierarchical scales of discourse: Multifractality predicts both short-and long-range effects of violating gender expectations in text reading
Fernay et al. Visualized voices: a case study of audio-visual synesthesia
JP5354425B2 (ja) オノマトペのイメージ評価システム、イメージ評価装置、およびイメージ評価用プログラム
JP5678836B2 (ja) オノマトペ自動生成システム
JP6573399B2 (ja) 音象徴語の感覚関連性分布図生成装置
Taraghi et al. Web analytics of user path tracing and a novel algorithm for generating recommendations in Open Journal Systems
JP6712803B2 (ja) 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム
Westfall et al. Teaching principal components using correlations
JP5534167B2 (ja) グラフ作成装置、グラフ作成方法およびグラフ作成プログラム
Schaefer et al. Intuitive visualizations of pitch and loudness in speech
JP2015121858A (ja) データ処理装置、及びデータ処理方法
Hossain et al. Cognitive load based adaptive assistive technology design for reconfigured mobile android phone
JP6718535B2 (ja) 評価装置、評価方法、および評価プログラム
Doizaki et al. A system for evaluating tactile feelings expressed by sound symbolic words
JP2008250409A (ja) 典型文分析装置、その方法及びそのプログラム
Yahya et al. Kansei design customization based on personality modelling
Kim et al. Readability visualization for massive text data
JP7198492B2 (ja) パーソナリティ出力装置、パーソナリティ出力方法、パーソナリティ出力プログラム、単語評価値生成装置、単語評価値生成方法および単語評価値生成プログラム
El Mouatasim et al. Topics Classification of Arabic Text in Quran by Using Matlab
JP2017199364A (ja) 三相データ分析方法および分析プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15828124

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016538449

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15828124

Country of ref document: EP

Kind code of ref document: A1