WO2004012181A1 - 情報信号コンバートシステム - Google Patents

情報信号コンバートシステム Download PDF

Info

Publication number
WO2004012181A1
WO2004012181A1 PCT/JP2003/009461 JP0309461W WO2004012181A1 WO 2004012181 A1 WO2004012181 A1 WO 2004012181A1 JP 0309461 W JP0309461 W JP 0309461W WO 2004012181 A1 WO2004012181 A1 WO 2004012181A1
Authority
WO
WIPO (PCT)
Prior art keywords
information signal
emotion
melody
consonant
expressing
Prior art date
Application number
PCT/JP2003/009461
Other languages
English (en)
French (fr)
Inventor
Hidenori Watanabe
Hidenobu Kawakami
Original Assignee
Photon, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Photon, Inc. filed Critical Photon, Inc.
Priority to AU2003248115A priority Critical patent/AU2003248115A1/en
Publication of WO2004012181A1 publication Critical patent/WO2004012181A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Definitions

  • the present invention uses a consonant that is widely recognized as “harmonic” as a medium, and performs mutual conversion between an information signal composed of a melody expressing an emotion and an information signal expressing an emotion other than a melody. It relates to a smooth information signal conversion system.
  • communication media for communicating emotions such as emotions, emotions, and pleasures of an individual to a third party include language (words), spatial art, and time art.
  • words language
  • spatial art painting or sculpture expressed in two or three dimensions at the same time
  • temporal art music.
  • colors and figures which are the constituent units of paintings and sculptures, tend to have a relatively common sentiment.
  • the color is centered on a circular "hue" 101 composed of iridescent primary colors such as red, blue, and yellow.
  • "Lightness” expressed by the balance of black and white 103, vivid primary colors
  • "saturation” expressed by the degree of saturation is expressed by a combination of parameters that indicate three types of emotions, namely, 105. For example, red can express emotions such as “passion” and “anger”, and pink and light blue can express emotions such as “pain”.
  • creating music required a certain level of knowledge and skills, as well as time and tools (voices and instruments). That is, no one can easily and quickly create music to assert and convey their own feelings, share each other's feelings with each other, and use language and graphics that do not require technology or their own skills as a means. If they did, there was a problem that they could not communicate emotions.
  • the melody which is a component of music, is not simply created by a series of accidental sounds, but is first realized with the concept of “consonance”.
  • a “consonant” is a simple integer ratio where the frequency ratio between all two tones of a constituent sound is 15:16 or less (as shown in Fig. 11). Divided by the frequency of the higher sound is 15 Z 16 or less), and refers to a group of sounds that do not produce groaning, and consonance is comfortable and familiar to the human ear (harmony It is clear that the theory has been established worldwide.
  • a consonant that produces multiple tones at the same time is generally called a "chord,” and a non-simultaneous (time-series) sound that produces one or more tones is called a “melody.”
  • a “melody” is not always composed of consonants, but it is always played under a chord and contains at least a consonant, so there is no concept of a consonant. No melody is born.
  • consonants and melodies have emotional classifications based on “minor” and “major”, which are also recognized throughout the world.
  • other parameters that express emotions include “notes (sound length)”, “pitch (sound pitch)”, “sound volume”, “tone (sound type)”, and “tempo”. (Fast, slow) ",” tone (bouncy, stretches) “and the like.
  • the inventor of the present invention uses the medium of “consonance,” which is widely recognized as being in harmony, uses the language and graphics from children, unfamiliar with the art, to the elderly. Or by converting an information signal generated by one's own technology into an information signal consisting of harmonized melodies that anyone can share their emotions with, or vice versa. Can easily and instantly and easily share their emotions in the same place (network), even if the communicating persons are not in the same place. Invented an information signal conversion system that facilitates communication.
  • An information signal conversion system that converts an information signal consisting of a melody expressing emotions and an information signal other than the melody expressing emotions into a harmonious consonant as a medium.
  • Each of the information signals which expresses each state of the emotion parameter in numerical or stepwise manner, is unique to each other.
  • An emotion database that is stored in correspondence with the consonant and a consonant database that stores Z or the constituent sounds of the scale; and a consonance for each data of emotion parameters extracted from information signals other than the melody expressing emotion.
  • the harmonized melody and the information signal other than the melody are smoothly converted to each other, and emotion is complemented between the information signals.
  • An information signal conversion system having an emotion setting means for arbitrarily setting a chord progression composed of the data of the emotion parameter and / or the consonant and Z or the scale and / or consonant.
  • the user can freely change the selection of the emotion parameter and the consonant one after another, thereby flexibly responding to the change of the emotion, the preference of the user, and the use.
  • the invention of claim 3 is:
  • An information signal conversion system having an emotion parameter including at least one of a minor, a major type, a musical note type, a pitch, a loudness, a loudness, a timbre, a tempo, and a tone. It is.
  • the emotional parameters that are shared by all the persons have a rich emotional expression as a melody.
  • Claim 4 of the invention
  • An information signal conversion system in which the information signal expressing the emotion includes an emotion type having an emotion parameter such as emotion, emotion, and so on.
  • an information signal expressing emotion can be generated by adding the emotion type. Can be.
  • the invention of claim 5 is:
  • the information signal conversion system includes a color having an emotion parameter including at least one of hue, lightness, and saturation in the information signal expressing the emotion.
  • the invention of claim 6 is:
  • An information signal converter for converting the melody expressing the emotion and the information signal other than the color into an information signal including the melody and an information signal including the color, and performing Z or an inverse conversion thereof; System.
  • the invention of claim 7 is:
  • the information signal expressing the emotion includes a spatial figure having an emotion parameter including at least one of coordinate data, an input signal type from an input device such as a controller, a pen pressure, a graphic type, and a color. It is an information signal conversion system.
  • the information signal conversion system includes a language having an emotion parameter including at least one of a keystroke timing of a keyboard, a character type, and a word in the information signal expressing the emotion.
  • a parameter representing an emotion specific to the information signal is added to the information signal other than the melody expressing the emotion, and mutual correspondence and complementation of the emotion can be achieved. Be clearer.
  • the invention of claim 9 is:
  • FIG. 1 is a diagram showing an example of the system configuration of the present invention.
  • FIG. 2 is a diagram showing the concept of the present invention.
  • FIG. 3 is a diagram showing an example of details of the emotion database of the present invention.
  • FIG. 4 is a diagram showing an example of details of the consonant database of the present invention.
  • FIG. 5 is a flowchart showing an example of the process flow of the present invention.
  • FIG. 6 is a diagram showing another example of the system configuration of the present invention.
  • FIG. 7 is a diagram showing an example in which consonant sounds are assigned to character codes.
  • FIG. 8 is a diagram showing an example of assigning constituent sounds of a scale to character codes.
  • FIG. 9 is a diagram showing an example in which the input character string is converted into a melody and a color.
  • FIG. 9 is a diagram showing an example in which the input character string is converted into a melody and a color.
  • FIG. 10 is a diagram showing an example in which a plurality of users chat via a network.
  • FIG. 11 is a diagram showing an example of a consonant tone.
  • FIG. 12 is a diagram showing an example of a color solid.
  • FIG. 13 is a diagram showing an example of the configuration of a scale and a consonant.
  • FIG. 1 is an example of a system configuration of an information signal compartment system 1 of the present invention.
  • the information signal conversion system 1 has an input means 3, a conversion means 5, an emotion setting means 7, an emotion database 9, a consonance database 11, and an output means 13.
  • the input means 3 is a means for inputting an arbitrary information signal. For example, when inputting a language, characters are sequentially input from an input device such as a keyboard, a text file in which characters are input is read, and a character string or a sentence recognized by voice recognition software or the like is converted into text. Convert to a file and input information signals in a language consisting of text (words) or sentences composed of multiple text strings.
  • the conversion means 5 converts the information signal having no emotion added to the information signal having no emotion or the information signal having the emotion input by the input means 3 into another signal using a medium called consonance. This is a means for converting into an information signal having a form of emotion.
  • a language is input as an information signal.
  • the information signal input by the input means 3 is converted into numerical information for representing a character on a computer, such as an ASCII code, an EUC code, a shift JIS code, and a font data.
  • the emotion setting means 7 selects an emotion parameter stored in the emotion database 9 and selects a consonant or scale as a conversion medium stored in the consonance database 11.
  • the input signal is assigned at least one consonant sound that reflects the state of the selected emotion parameter over time for each numerical information previously converted, and the input signal and Is converted into an information signal containing at least another form of "melody" that can express emotions.
  • the method of assigning the consonant tones and the order of conversion are arbitrary. If the character type (font) is not taken into account during the conversion, the input information signal is simply converted to a character code such as an ASCII code. Is fine.
  • the emotional parameters are defined as major and minor key types, note types, pitch, large and small, timbre, tempo, tone, etc., which constitute a "melody” which is a form of the information signal converted by the conversion means 5.
  • the emotional elements, as well as the emotional elements of hue, lightness, and saturation that make up “color”, which is a form of the information signal to be converted, are converted into data by numerical values or steps.
  • the emotion parameters are associated with specific emotion types such as emotions and emotions and stored in the emotion database 9.
  • the emotion parameter is unique to each information signal form (melody, color, etc.) and is an element constituting the information signal.
  • the emotion type is also an emotion parameter and one form of the information signal.
  • the emotion type is an emotion common to all information signals that do not particularly depend on information signals and is not an essential component of the emotion database 9, but the link between emotion parameters of different information signals It has the advantage of being stiff. Also, when converting a language that does not have an emotion (for example, only character codes) into a melody or the like that has an emotion, it is naturally necessary to add emotions to the language (character codes). The information signal of the emotion type is also used effectively.
  • FIG. 3 shows an example of the correspondence in the emotion database 9. In Fig.
  • the emotion of "sad” includes a melody composed of "minor, low pitch, slow tempo, and low-tone instrument", and “dark blue, lightness ratio of 10: It can be seen that the colors corresponding to 90 and the saturation ratio are 0 to 30 "correspond.
  • association associations may be prepared in advance, or may be customized for each user.
  • emotion types such as emotions and emotions
  • words and character types (fonts) included in a character string input by the input means 3 are not included.
  • the keying timing may be associated with the emotion parameter.
  • Some words and character types can express emotions such as emotions and emotions, and these are a type of emotion parameter that constitutes “language”.
  • the type of ⁇ note '' which is one of the emotional parameters that compose the melody, is the timing of the keying of the character string input to the keyboard by the input means 3 (16th note when the keying timing is fast, If it is late, it may be associated with a half note, etc., and when reading a text file instead of typing on the keyboard in real time, etc., notes may be set according to the set tempo and tone or randomly. May be determined.
  • the “consonant or scale” used as a conversion medium in the present invention is used for converting the information signal input at the input means 3 into an information signal of another form at the conversion means 5. Is to help.
  • consonance is an essential element for generating melodies, it is difficult to generate melodies from scratch, and even for general users who are not familiar with the concept of music and consonants, By giving a consonant as a medium, it is possible to easily generate a “harmonized” melody by decomposing the constituent sounds of the consonant and playing them in chronological order.
  • the consonant sound is assigned to each character type, word, or character code (alphabetic keys on the keyboard in the case of ASCII codes).
  • a consonant consisting of four sounds of "Domi-Soshi” is selected as the medium, as shown in Fig. 7, "de”, “mi”, “so” and “shi” may be assigned in order from the lower left of the keyboard, Do, Mi, So, and Si may be randomly assigned.
  • Fig. 7 shows an example in which a consonant consisting of five sounds of "Domisolare” is assigned to a character code. Note that sounds are not necessarily assigned one by one, but may be one or more.
  • the three consonants of “domiso” (this is the major Is converted to a minor consonant called "Domitso", and de, mi, and b are assigned to each key on the keyboard.
  • the higher domeso sound may be assigned to each key of the keyboard.
  • the constituent sounds may be assigned in order from a lower sound to a higher sound.
  • the input character code is converted by the conversion means 5 by reflecting the state of the other emotional parameters (tone, tempo, etc.) in each component sound of the consonant corresponding to the character code. Then, a melody (or a multi-tone melody when two or more consonant constituent sounds are assigned to each character code) that reflects a specific emotion based on the state of the emotion parameter is generated. Because this melody is generated by the consonant components, it is much more musical than simply arranging the sounds randomly. This allows anyone to easily create a melody.
  • a scale refers to a sequence of sounds that no one feels uncomfortable.
  • the constituent notes of the C scale are composed of "doremifasoraside" starting from “C” which represents "C” itself. Does not include the black key
  • each component of the scale is assigned a frequency.
  • the frequency is assigned to each sound, with “de” as the starting point being "1 degree".
  • the sound that combines the first, third, and fifth notes is the "basic consonant.”
  • a combination of this basic consonant and the remaining frequencies is also a consonant.
  • the combination of the basic consonant of C and the 7th "S” is called “C7” as it is.
  • any combination of the constituent notes of the C scale is a consonant.
  • consonants not only consonants but also musical scales may be stored in the consonance desperate base 11.
  • the user selects an arbitrary consonant or scale as a medium.
  • This medium itself may be regarded as an emotion paralysis.
  • a specific chord progression composed of a consonant may be stored in the consonant database 11. If you choose to be a chord progression medium,
  • the "color”, which is an information signal other than the melody converted by the conversion means 5, may be fixed to one color while showing a certain emotion, or may be a consonant sound May be assigned to each color.
  • hue and lightness can be fixed, and saturation can be varied in a certain range, and it can be assigned as a gradation. If the hue is random, a melody that combines rainbow colors is generated Is done.
  • a rainbow-colored melody may express the feeling of "quick and busy" or the emotion of "very fun," but it is a combination of other emotional parameters and input strings.
  • the emotion setting means 7 is a means for selecting an emotion parameter and a medium. However, it is not necessary to select all the emotion parameters, and in that case, it may be determined randomly or arbitrarily. .
  • a specific key sequence such as a numeric keypad may be assigned to the emotion parameter of tone and color or switching of the medium, or a file storing the emotion parameters and the setting data of the medium may be sequentially read.
  • the emotion parameter may be changed according to the difference between a man and a woman.
  • the output means 13 is means for outputting the information signal converted by the conversion means 5.
  • the auditory signal of the melody is audible to the ear through a speaker, and the visual signal of color is visible to a display device such as a display. Since the color is not time-series information like melody, there is no particular limitation on the output form (shape and timing), but it is more effective to express the color in the form of a note and output it in synchronization with the melody output Emotional expression is possible.
  • the form of the information signal to be converted and output is not limited to the above-mentioned melody and color, but may be any information signal that is expressed by unique emotion parameters. It is represented by coordinate data, pen pressure, input signals from input devices such as controllers, etc.
  • Spatial figures and the like are also examples of information signals having unique emotion parameters.
  • the emotion database 9 and the consonance database 11 are prepared, the character strings and sentences input by the user can be used to express the emotions, words, and words of the user at each time (real time).
  • Emotions represented by character types can be converted into information signals such as melodies and colors and added to them, and expressions can be added to character information.
  • the information signal conversion system 1 of the present invention can also execute the reverse conversion process. If an information signal such as a melody or a color having an emotion parameter is input to the input means 3 in advance, the state of the emotion parameter included in the melody or the color and the consonant used as a medium are stored in the emotion database. If it is specified from 9 and the consonant database 11 and converted by the conversion means 5, the specific character string, sentence, Z or emotion type is output by the output means 13 .
  • the emotion can be complemented by adding an information signal to the melody or color by another emotion expression means called language. .
  • an information signal other than a melody is converted into a melody
  • an emotion parameter included in the information signal other than the melody is extracted, and the emotion parameter is matched with the emotion parameter.
  • the emotion parameters of the corresponding melody which are reflected in the consonant sound, are assigned to the emotion parameters of the information signal other than the melody, and converted to the melody.
  • the emotion parameters and consonance of the melody are extracted from the constituent sounds that make up the melody, and are assigned to the emotion parameters of the information signal other than the melody. Converts sound into information signals other than melody.
  • the emotion setting means 7 receives the emotion types such as emotions and emotions and the settings of the emotion parameters such as Z or timbre and hue by pressing the key of the keypad or reading the setting file (S10).
  • the emotion setting means 7 sets a consonant serving as a medium (S20).
  • a consonant may be set in advance, or a scale including a plurality of arbitrary consonants may be set as a medium.
  • the order of S10 and S20 is not limited to this.
  • the sentence that is the information unit of the input information signal For each character code, a constituent sound and color of the consonant to which the set emotion is added are assigned one by one, and a correspondence table between the character code and the consonant and the color is created (S30).
  • the emotion setting means 7 sets the medium to the consonant “C 7” and the emotion type “fun”, the consonant database 11 to C in FIG. A constituent sound (domisosshi) corresponding to 7 is extracted, and an emotion parameter equivalent to “fun” is extracted from the emotion database 9 in FIG.
  • the melody is “major”
  • the tone is “piano”
  • the color is “yellow”
  • the lightness is 80:20
  • the saturation is within a certain range.
  • the tone is set to the piano sound, and the consonant tone is a major tone, which is called "domisosshi,” and the character code is either "domisosshi.” Is assigned.
  • FIG. 7 shows an example in which this correspondence table is replaced with a keyboard. (Although not shown, each key in Fig. 7 is also assigned a color.)
  • the input means 3 inputs an information signal in a language by reading a keyboard or a text file, and the conversion means 5 converts the information signal into a character code (S40, S50) o For example, "Hello" When the information signal is input, it is sequentially converted into the character code corresponding to each alphabet of "konnnichiwa".
  • a character code S40, S50
  • the conversion means 5 sequentially converts the input information signal into a melody and color information signal based on the created correspondence table, and the output means 13 outputs the converted information signal (S600). ). Based on the previously created correspondence table in Fig. 7, the "fun" melody output when "Hello” is input is as shown in Fig. 9.
  • the melody that is output when "Hello! Is input is shown in Fig. 9.
  • the notes may be generated in accordance with the keying timing, or may be generated randomly to match a preset tempo or tone. Since the melody converted using the information signal conversion system 1 of the present invention uses a consonant as a medium, a harmonious musical melody is always generated, and the feeling of "fun” is reflected. It will be.
  • a note-shaped “fun” color may be displayed on a display or the like in synchronization with each sound of the melody “Sydomimisisomisimimid” in FIG.
  • the combination of the melody that reflects the emotion of “fun” and the color that reflects the emotion of “fun” enhances the expression of emotions.
  • the input information signal, the converted output information signal, the emotion parameter set by the emotion setting means 7, and the consonant used as the medium can be stored in a computer hard disk, a network server, or the like. Therefore, the user can save the past creation results of colors and colors as data corresponding to the input information signal and reproduce it at any time.
  • FIG. 6 shows an example of a system configuration in this embodiment.
  • Each user's information signal convert system 1 or a computer equipped with the information signal convert system 1 has a network communication function (communication means) and a network server 17 via a network 15. Connected to.
  • the network server 17 manages the storage database 19.
  • each user's information signal converting system 1 is the same as those described above, but by having other communication means, it is possible to communicate with the network server 17 or other users. Thus, it is possible to transmit and receive an input information signal and an output information signal converted into a melody or color.
  • the network server 17 may mediate transmission and reception of information signals between users, and may be used for information signals transmitted and received via the network 15 and conversion.
  • the emotion parameters and the consonants used as the conversion medium may be stored in the storage database 19.
  • the user can view information signals generated by other users in the past, or use other information signals.
  • Another information signal can be generated by modifying the information signal generated by the user.
  • FIG. 10 shows an example of a case where a plurality of users have a chat via the network 15 using the information signal conversion system 1 of the present invention.
  • Ichiguchi Yuichi, Hanako and Ichiro set their emotions in the emotion setting means 7 and also set their own consonants in the same way. It is assumed that a cable has been generated.
  • the musical expression can be enriched.
  • the "consonant room of C" and “chord of the G scale” The network server 17 prepares a chat room in which media and emotion parameters are set in advance, such as a room for progress and a room in minor, and all or part of the media and emotions set by the user. If you open the melody and color to other users, it will be easy for users with similar emotions to gather, and when multiple users output melody and color at the same time, the melody and color session It is performed smoothly without discomfort.
  • the information signal conversion system 1 is generated between information signals (for example, spatial art and temporal art) generated by different expression methods and having emotions, respectively.
  • the emotion data base 9 includes the state of the emotion parameter of the information signal input by the input means 3 and the emotion parameter of the information signal output by the output means 13. There is a need to set the correspondence with the state and store it.
  • the coordinate data which is a set of emotional parameters of the figure
  • numerical data such as ⁇ NZ ⁇ FF of the mouse, pen pressure by pendablet operation, etc. (If colors are added, hue, lightness, saturation, etc. may be included in the emotion parameter.)
  • numerical data such as musical notes, timbres, and tones that are the emotional parameters of the melody to be output are associated with each other.
  • the emotion parameters of the corresponding melody will be added to the coordinate data of the input figure or the signals of the controller's ⁇ , ⁇ , mouth, X, etc.
  • a consonant tone that reflects the state of the tone is assigned, and the input figure is converted to a melody. This is an example The procedure is the same as that in step 1, in which the consonant sound is assigned to the character code.
  • the character codes are converted into the format in the order in which the character codes are input, but the conversion order is arbitrary. Therefore, in the present embodiment, for example, when the input information signal is coordinate data composed of Xyz, it may be converted to a melody in ascending or descending order of each value.
  • the melody may be converted in ascending or descending order of the radius distance and radian value, or in the case of the controller ⁇ , ⁇ , mouth, X, the number II determined as ⁇ ⁇ A ⁇ C1 ⁇ X It may be converted to a format.
  • the consonant and emotion parameters constituting the melody should be extracted from the consonant database 11 and the emotion database 9 and output corresponding to the emotion parameters of the melody.
  • the state of the emotion parameter of the figure is extracted, and the constituent sounds of the consonant are assigned to the coordinate data of the figure to be output and the ⁇ , ⁇ , ⁇ , and X of the controller, and are sequentially converted to the figure.
  • each means and database in the present invention may be logically distinguished only in its function, and may have the same physical or practical area.
  • a data file may be used instead of a database, and the description of a database includes a data file.
  • the program itself read from the storage medium implements the functions of the above-described embodiments, and the storage medium storing the program constitutes the present invention.
  • a storage medium for supplying the program for example, a magnetic disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, or the like can be used.
  • the functions of the above-described embodiments are not only realized by executing the program read by the computer, but also the operating system running on the computer based on the instructions of the program.
  • the present invention also includes a case in which some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
  • the present invention is a tool that complements emotions by adding melody and color to characters, or adding characters to melody and color, and converting between melody and figures. Can be used. From children to the elderly, character strings and sentences input by users who do not have the technology to create music and paintings are converted into information signals such as melodies and colors of the users' emotions at each moment (real time). Can be added to the input text or text, and everyone can easily express their emotions.
  • Artists with different artistic expression methods can easily exchange their creations into different artistic expression methods and exchange or session. For example, musicians who are not well versed in the art field can easily integrate sound and painting by converting their own music into spatial art. The same goes for artists who are not music-savvy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

感情を表現するメロディからなる情報信号と、メロディ以外の感情を表現する情報信号とで相互変換を行うため、感情を表現する1以上の感情パラメータの各状態を数値的又は段階的に表した前記情報信号毎に固有のデータを、相互に対応させ格納している感情データベースと、協和音及び/又は音階の構成音を格納している協和音データベースと、感情を表現するメロディ以外の情報信号から抽出された感情パラメータのデータ毎に前記協和音データベースから抽出された協和音の構成音を1音以上ずつ割り当て、感情を表現するメロディからなる情報信号への変換及び/又はそれらの逆変換を行う変換手段とを有する情報信号コンバートシステムである。

Description

明 細 書 情報信号コンバートシステム 技術分野
本発明は、 「調和する」ものとして広く認識されている協和音を媒体として、 感情を表現するメロディからなる情報信号と、 メ口ディ以外の感情を表現す る情報信号とで、 相互変換を円滑に行う情報信号コンバートシステムに関す る。 背景技術
従来より、 個人が持つ喜怒哀楽等の感情を第三者に伝える為のコミュ二 ケ一シヨン媒体としては、 言語 (言葉) 、 空間芸術、 時間芸術等が挙げられ る。 空間芸術の代表的なものは同一時間に二次元や三次元で表現される絵画 や彫刻であり、 時間芸術の代表的なものは音楽である。
しかし、 例えば 「うれしい」 という言葉で第三者に感情を伝える場合、 異 なる言語間ではその言語に内在する情緖的意味合いを伝達することは不可能 であった。
絵画や彫刻は、 技術や道具 (筆や絵の具) が必要なので、 万人が自己の感 情をそのまま絵画や彫刻にして伝達するということは非常に困難であった。 又、 音楽等に比べて風土や歴史条件等に影響されるところが大であり、 同じ 絵画や彫刻から異なつた感情が生じるという状態は避けられなかつた。
しかし、 絵画や彫刻の構成単位である色彩や図形には比較的万人共通の感 情が生じやすい。 例えば、 色彩は第 1 2図の略円錐を並べた色立体に示され るように、 赤、 青、 黄等の虹色の原色で構成された環状の 「色相」 1 0 1を 中心として、 白と黒のバランスで表現される 「明度」 1 0 3、 原色の鮮やか さの度合いで表現される 「彩度」 1 0 5の計 3種類の感情を示すパラメ一夕 の組み合わせで表現されることが一般に知られている。 例えば、 赤は 「情熱」 や 「怒り」 、 ピンクや水色は 「淡い思い」 等といった感情を表現することが 可能である。
これに対し、 音楽は国籍、 宗教、 民族を超えて感情のコミュニケーション がしやすい。 この理由は後述するように協和音という概念が存在し、 万人共 通の基盤となっているからである。
しかし、 音楽を創作する為には、 ある一定水準以上の知識と技術、 更には 時間と道具 (声や楽器) が必要であった。 すなわち、 誰もが容易かつ即座に 音楽を創作して自己の感情を主張、 伝達したり、 互いに感情を共有すること は出来ず、 技術を必要としない言語や図形又は自分の得意技術を手段とした 場合には、 感情のコミュニケーションを図れないという問題があった。
ところで、 音楽の構成要素であるメロディ (旋律) は、 単に偶発的な音の 羅列によって生み出されるものではなく、 「協和音」 という概念があって、 初めて成立するものである。
「協和音」 とは、 第 1 1図にその一例を示すように、 構成音の全ての 2音 間の周波数比率が 1 5 : 1 6以下の簡単な整数比 (低い方の音の周波数を高 い方の音の周波数で割ったものが 1 5 Z 1 6以下) で表され、 かつ唸りが発 生しない周波数の音の集まりを指し、 協和音は人間の耳に心地よく、 馴染み やすい (調和する) ことが明らかとなっており、 全世界的にその理論が確立 されている。
この協和音を同時に複数音鳴らしたものが一般に 「コード」 と呼ばれ、 非 同時 (時系列的) に 1以上の音を鳴らしたものが 「メロディ (分散コードと も言われる) 」 と呼ばれ、 以降、 本明細書に於いてもその定義を引用する。 「メロディ」は必ずしも協和音のみで構成されている訳ではないが、必ずコー ドの下で奏でられ、 少なくとも協和音を含んでいるので、 協和音の概念なく してメロディは生まれないのである。
又、 協和音やメロディには、 「短調 (マイナー) 」 、 「長調 (メジャ一) 」 による情緒的分類があり、 これも全世界共通に認識されている。 短調や長調 以外にも、 感情を表すパラメ一夕としては 「音符 (音の長短) 」 、 「ピッチ (音の高低) 」 、 「音の大小」 、 「音色 (音の種類) 」 、 「テンポ (速い、 遅い) 」 、 「トーン (弾む、 伸びる) 」 等が挙げられる。
例えば、 長調で、 テンポが速く、 ピアノの音色で、 かつ高音で 1 6分音符 のメロディを聴けば、 誰もが 「明るい、 楽しい、 やさしい」 といった感覚を 連想するので、例え言語環境や風土等が異なっていても、調和されたメロディ を通じて感情の共有が可能である。 発明の開示
そこで本発明者は上記問題に鑑み、 「調和する」 ものとして広く認識され ている 「協和音」 を媒体として、 芸術に精通していない子供からお年寄りま での全ての人が、 言語や図形や自分の得意とする技術で生成された情報信号 を、 誰もがその感情を共有することが出来る調和されたメロディからなる情 報信号に変換したり、 又はその逆変換を行うことにより、 感情の補完を行う ことが出来、 コミュニケーションする当人同士が同じ場所に居合わせていな くても、 即座かつ容易に、 その感情を、 仮想的に同じ場所 (ネットワーク) で共有することが出来、 円滑なコミュニケーションを促進する情報信号コン バートシステムを発明した。
請求の範囲 1の発明は、
感情を表現するメロディからなる情報信号と、 感情を表現するメロディ以外 の情報信号とを、 調和性のある協和音を媒体として相互に変換する情報信号 コンバートシステムであって、 感情を表現する 1以上の感情パラメ一夕の各 状態を数値的又は段階的に表した前記情報信号毎に固有のデ一夕を、 相互に 対応させ格納している感情データベースと、 協和音及び Z又は音階の構成音 を格納している協和音データベースと、 感情を表現するメロディ以外の情報 信号から抽出された感情パラメータのデータ毎に前記協和音データベースか ら抽出された協和音の構成音を 1音以上ずつ割り当て、 感情を表現するメロ ディからなる情報信号への変換及び/又はそれらの逆変換を行う変換手段と を有する情報信号コンパートシステムである。
請求の範囲 1の発明により、 調和されたメロディとメロディ以外の情報信 号の相互変換が円滑に行われ、 情報信号同士で感情の補完がなされる。
請求の範囲 2の発明は、
前記感情パラメ一夕のデータ及び/又は前記協和音及び Z又は音階及び/又 は協和音からなるコード進行を任意に設定する感情設定手段を有する情報信 号コンバートシステムである。
請求の範囲 2の発明により、 感情パラメ一夕や協和音の選択をユーザが自 由に、 逐次変えることにより、 感情の変化やユーザの好みや用途に柔軟に対 応することが出来る。
請求の範囲 3の発明は、
前記感情を表現するメロディからなる情報信号が、 短調,長調の種類、 音符 種類、 音の高低、 音の大小、 音色、 テンポ、 トーンの少なくとも 1以上から なる感情パラメ一夕を有する情報信号コンバートシステムである。
請求の範囲 3の発明により、 これら万人が共通の感覚として持ち合わせて いる感情パラメータにより、メロディとしての感情表現が豊かなものとなる。 請求の範囲 4の発明は、
前記感情を表現する情報信号に、 喜怒哀楽等の感情パラメ一夕を有する感情 種類が含まれる情報信号コンバートシステムである。
請求の範囲 4の発明により、 言語等の感情を表現しない情報信号であって も、 感情種類を付加することにより、 感情を表現する情報信号を生成するこ とが出来る。
請求の範囲 5の発明は、
前記感情を表現する情報信号に、 色相、 明度、 彩度の少なくとも 1以上から なる感情パラメータを有する色彩が含まれる情報信号コンバートシステムで ある。
請求の範囲 6の発明は、
前記変換手段に於いて、 前記感情を表現するメロディと色彩以外の情報信号 から、 前記メロディからなる情報信号と前記色彩からなる情報信号とに変換 及び Z又はそれらの逆変換を行う情報信号コンバ一トシステムである。
請求の範囲 6の発明により、メロディと色彩をともに出力することにより、 より効果的な感情表現が可能となる。
請求の範囲 7の発明は、
前記感情を表現する情報信号に、 座標デ一夕、 コントローラ等の入力デバィ スからの入力信号種類、 筆圧、 図形種類、 色彩の少なくとも 1以上からなる 感情パラメ一夕を有する空間図形が含まれる情報信号コンバートシステムで ある。
請求の範囲 8の発明は、
前記感情を表現する情報信号に、 キーボードの打鍵タイミング、 文字種類、 単語の少なくとも 1以上からなる感情パラメータを有する言語が含まれる情 報信号コンバートシステムである。
請求の範囲 5、 請求の範囲 7、 請求の範囲 8の発明により、 感情を表現す るメロディ以外の情報信号にその情報信号固有の感情を表すパラメータが付 加され、 感情の相互対応、 補完がより明確となる。
請求の範囲 9の発明は、
前記情報信号を格納する蓄積データベースを有するネットワークサーバ又は 他の情報信号コンバートシステムとで、 ネットワークを介して情報信号の送 受信を行う通信手段を有する情報信号コンバートシステムである。
請求の範囲 9の発明により、 世界中の誰もが、 より感情豊かで、 多彩な チャット、 ゲーム、 メール送受信、 セッション等を行うことが出来る。 符号の説明
1 :情報信号コンバートシステム 3 :入力手段 5 :変換手段 7 :感 情設定手段 9 :感情データベース 1 1 :協和音データベース 1 3 :出 力手段 1 5 :ネットワーク 1 7 :ネットワークサーバ 1 9 :蓄積デ一 夕ベース 1 0 1 :色相 1 0 3 :明度 1 0 5 :彩度 図面の簡単な説明
第 1図は本発明のシステム構成の一例を示す図である。 第 2図は本発明の 概念を示す図である。 第 3図は本発明の感情データベースの詳細の一例を示 す図である。 第 4図は本発明の協和音データベースの詳細の一例を示す図で ある。 第 5図は本発明のプロセスの流れの一例を示すフローチャート図であ る。 第 6図は本発明のシステム構成の他の一例を示す図である。 第 7図は文 字コードに協和音の構成音を割り当てた一例を示す図である。 第 8図は文字 コードに音階の構成音を割り当てた一例を示す図である。 第 9図は入力した 文字列をメロディと色彩に変換した一例を示す図である。 第 1 0図は複数の ユーザがネットワークを介してチヤットを行う一例を示す図である。 第 1 1図は協和音の一例を示す図である。 第 1 2図は色立体の一例を示す図で ある。 第 1 3図は音階と協和音の構成の一例を示す図である。 発明を実施するための最良の形態
本発明の実施態様の一例を図を用いて詳細に説明する。 第 1図は本発明の 情報信号コンパートシステム 1のシステム構成の一例である。 情報信号コンバートシステム 1は、 入力手段 3、 変換手段 5、 感情設定手 段 7、 感情データベース 9、 協和音データベース 1 1、 出力手段 1 3を有す る。
入力手段 3は、 任意の情報信号を入力する手段である。 例えば、 言語を入 力する場合には、 キーボード等の入力デバイスから文字を逐次入力したり、 文字が入力されたテキス卜ファイルを読み込んだり、 音声認識ソフト等に よって認識した文字列や文章をテキストファイルに変換して、 文字列 (単語) や、 複数の文字列によって構成された文章からなる言語による情報信号を入 力する。
変換手段 5は、 入力手段 3に於いて入力された、 感情を有さない情報信号 にユーザの感情を付加したもの、 又は感情を有する情報信号を、 協和音とい う媒体を用いて、 別の形態の感情を有する情報信号に変換する手段である。 ここで、 言語を情報信号として入力する場合を例に詳細を説明する。
まず入力手段 3に於いて入力された情報信号は、 アスキーコードや E U C コードやシフト J I Sコ一ドやフォントデ一夕等のコンピュータ上で文字を 表す為の数値情報に変換される。
次に感情設定手段 7は、 感情データベース 9に格納されている感情パラ メータの選択と、 協和音データべ一ス 1 1に格納されている変換媒体である 協和音又は音階の選択を行う。
入力信号は、 これら選択に基づいて、 先に変換された数値情報毎に、 選択 された感情パラメ一夕の状態を反映させた協和音の構成音を 1音以上割り当 てられ、 入力信号とは別の形態の、 感情を表すことが出来る 「メロディ」 を 少なくとも含む情報信号に変換される。
協和音の構成音の割り当て方や、 変換の順序 (情報信号の入力順に変換す る等) は任意である。 尚、 変換の際に文字種類 (フォン卜) を考慮しない場 合、 入力された情報信号はアスキーコード等の文字コードに変換されるだけ でよい。
ここで、 感情データベース 9に格納されている感情パラメ一夕と、 協和音 データベース 1 1に格納されている変換媒体である協和音について各々説明 を行う。
感情パラメ一夕とは、 変換手段 5に於いて変換される情報信号の一形態で ある 「メロディ」 を構成する長調 ·短調の種類、 音符の種類、 ピッチ、 大小、 音色、 テンポ、 トーン等の感情的要素、 同様に、 変換される情報信号の一形 態である 「色彩」 を構成する色相、 明度、 彩度の感情的要素を、 数値又は段 階によってデータ化したものであり、 これらの感情パラメ一夕と、 喜怒哀楽 等の特定の感情種類とが対応付けられ、 感情データベース 9に格納されてい る。
尚、 感情パラメ一夕は、 情報信号の形態 (メロディ、 色彩等) 毎に固有で、 その情報信号を構成する要素であり、 感情種類も感情パラメータかつ情報信 号の一形態である。
一方、 感情種類は、 情報信号に特に依存することのない全ての情報信号に 共通の感情であり感情データベース 9の必須構成要素ではないが、 異なる情 報信号の感情パラメ一夕同士の紐付けがしゃすくなるという利点がある。 又、 感情を有さない言語 (例えば文字コードのみ) を、 感情を有するメロ ディ等に変換する際には、 当然言語 (文字コード) に感情を付加する必要が あるので、その場合に於いても感情種類という情報信号が有効に利用される。 感情データべ一ス 9内の対応の一例を第 3図に示す。 第 3図に於いて、 例 えば 「悲しい」 という感情には、 「短調、 ピッチが低い、 テンポが遅い、 音 色は低音楽器」 で構成されるメロディと、 「紺青、 明度割合が 1 0 : 9 0、 彩度割合が 0〜 3 0」 で構成される色彩が対応していることが分かる。
これらの対応付けは、 予め用意されたものでもよいし、 ユーザ毎にカス夕 マイズされてもよい。 ' 又、 喜怒哀楽等の感情種類と感情パラメータとが対応付けられるだけでは なぐ入力手段 3に於いて入力される文字列に含まれる単語や文字種類(フォ ント) ゃキ一ポ一ドへの打鍵タイミングと、 感情パラメ一夕とが対応付けら れてもよい。 単語や文字種類によつては喜怒哀楽等の感情を表すことが出来 るものもあり、 これらは 「言語」 を構成する感情パラメータの一種である。 メロディを構成する感情パラメ一夕の 1つである 「音符」 の種類は、 入力 手段 3に於いて入力される文字列のキーボードへの打鍵タイミングそのもの (打鍵タイミングが速い時は 1 6分音符、 遅い時は 2分音符等) と対応付け られてもよいし、 リアルタイムでキーボードから入力するのではなくテキス トファイルを読み込む時等は、 設定されたテンポやトーンに合わせて、 又は ランダムに、 音符の種類が定められてもよい。
次に、本発明で変換媒体として用いる 「協和音又は音階」は、入力手段 3に 於いて入力された情報信号を変換手段 5に於いて、 別の形態の情報信号に変 換するに際し、 変換の手助けを行うものである。
協和音についての定義と役割は、 背景技術に於いて説明した通りである。 協和音はメ口ディを生成する為の不可欠要素であるが、 一からメ口ディを 生成することが困難で、 音楽や協和音の概念に精通していない一般ュ一ザで あっても、 協和音を媒体として与えれば、 協和音の構成音を分解して、 それ を時系列的に奏でることによって容易に 「調和された」 メロディを生成する ことが出来る。
具体的には、 協和音を媒体として変換を行う場合、 文字種類や単語そのも の、 又は文字コード (アスキーコードの場合はキーボードのアルファベット キーそのもの) に、 協和音の構成音が 1音ずつ割り当てられる。
例えば、 「ドミソシ」 の 4音からなる協和音が媒体として選択された場合 は、 第 7図のように、 キ一ボードの左下から順にドとミとソとシが割り当て られてもよいし、 ランダムにドとミとソとシが割り当てられてもよい。 同様に、 「ドミソラレ」 の 5音からなる協和音が文字コードに割り当てら れた例を第 7図に示す。 尚、 音の割り当て方は必ずしも 1音ずつである必要 はなく、 1音以上であればよい。
又、 先の感情設定手段 7に於いて設定された感情パラメ一夕の状態に基づ いて、 例えば「短調」 が選択されている場合、 「ドミソ」 の 3音の協和音(こ れは長調である) は 「ドミトソ」 という短調の協和音に変換され、 ドとミ b とソがキーボードの各キーに割り当てられる。
又、 例えば、 感情パラメータのうち、 ピッチが 「高い」 と選択されている 場合は、高い方のドミソの音がキーボードの各キ一に割り当てられればよい。 特にピッチの状態が選択されていない場合には、 音の低い方から高い方に順 番に構成音が割り当てられてもよい。
このように、 文字コードに対応した協和音の各構成音に、 その他の感情パ ラメ一夕の状態 (音色、 テンポ等) も反映させて、 入力された文字コードを 変換手段 5に於いて変換すると、 感情パラメータの状態によるある特定の感 情が反映されたメロディ (文字コード毎に協和音の構成音を 2音以上ずつ割 り当てた場合には、 多重音のメロディ) が生成され、 しかもこのメロディは 協和音の構成音によって生成されているので、 単に音をランダムに並べるよ りも遥かに音楽的なものとなる。 これにより、 誰もが容易にメロディを生成 することが出来る。
ここで、 協和音と音階の仕組みについて、 第 1 3図を参照しながら触れて おく。 音階には一般に 1 2通りの音階があることが知られるが、 音階とは誰 もが不快とは感じない音列を指す。 例えば、 C音階の構成音は第 1 3図に示 すように、 「C」 そのものを表す 「ド」 を起点として 「ドレミファソラシド」 で構成され、 C音階の場合にはピアノの鍵盤で言うところの黒鍵は含まれな い
又、 音階の各構成音には度数が付けられており、 例えば C音階の場合は、 起点となる 「ド」 を 「1度」 として、 第 1 3図に示すように、 各音に度数が 割り振られている。
一般に、 1度と 3度と 5度の 3音を組み合わせた音が「基本となる協和音」 である。 この基本の協和音に、 残りの度数の音を組み合わせたものも又協和 音である。 例えば、 Cの基本協和音に 7度の 「シ」 を組み合わせたものをそ のまま 「C 7」 と呼ぶ。 このように、 C音階の構成音の任意の組み合わせは、 いずれも協和音となる。
従って、 協和音デ一夕ベース 1 1には、 協和音のみならず、 音階が格納さ れていてもよい。 第 4図に一例を示すように、 音階又は協和音の名称と構成 音の対応が格納されていれば、 ユーザは、 好みで任意の協和音や音階を選択 して媒体とする。 この媒体そのものを感情パラメ一夕と見なしてもよい。 又、 協和音からなる特定のコード進行が協和音データベース 1 1に格納さ れていてもよい。 コード進行き媒体として選択すれば、 コード進行 (例えば、
C→G→C等) に沿ったメロディが生成され、 より音楽的になる。 コード理 論に詳しいユーザであれば、 自分で作成したコード進行を登録しておけば、 簡易作曲ツールとしても本発明を利用することが出来る。
変換手段 5に於いて変換されるメロディ以外の情報信号である 「色彩」 に ついては、 ある感情を示している間は一色に固定して変換されるようにして もよいし、 協和音の構成音に各色彩を割り当てられてもよい。
例えば、 色相と明度を固定して、 彩度をある一定の範囲で可変させたもの がグラデーション的に割り当てられてもよいし、 色相をランダムにすれば、 虹色の色彩を合わせ持つメロディが生成される。 虹色のメロディは 「目まぐ るしい、 忙しい」 という感情を表すかもしれないし、 「とても楽しい」 とい う感情を表すかもしれないが、 それは他の感情パラメ一夕や入力文字列とを 総合すれば、 どちらの感情を表すのかは、 第三者でも一義的に判断可能であ る。 すなわち、変換されるメロディや色彩の感情パラメ一夕の設定数が多い程、 一義的に感情を判断しやすくなるのは当然であるが、 「メロディだけ」 又は 「色彩だけ」 では、 必ずしも感情を正確に表現出来ない場合もある為、 入力 情報信号と、 感情が付加された複数の出力情報信号とが相互に補完しあうこ とによって、 感情を表現し、 第三者に伝達したり、 共有することが出来るよ うになるのである。
尚、 感情設定手段 7は、 前述の通り、 感情パラメータと媒体を選択する手 段であるが、 必ずしも全ての感情パラメータを選択する必要はなく、 その場 合はランダム又は任意に決定してもよい。
又、 感情データベース 9に格納されている感情パラメ一夕や協和音データ ベース 1 1に格納されている協和音を変更したい時は、 逐次キ一ポ一ド等か ら変更出来るようにすれば、 文字列毎や文章毎に逐次感情を切替えることが 容易となる。
例えば、 テンキー等の特定のキー列を音色や色彩の感情パラメ一夕や媒体 の切替えに割り当てておいてもよいし、 感情パラメータや媒体の設定データ を格納したファイルを逐次読み込んでもよい。 又、 男性か女性か等の差異に よって、 感情パラメータを変更出来るようにしてもよい。
出力手段 1 3は、 変換手段 5に於いて変換された情報信号を出力する手段 である。 メロディの聴覚的信号はスピーカーによって耳に聴こえるものとな り、 色彩の視覚的信号はディスプレイ等の表示装置によって目に見えるもの となる。 色彩は、 メロディのような時系列情報ではないので出力形態 (形や タイミング) に特に決まりはないが、 色彩を音符の形で表現して、 メロディ の出力と同期させて出力させると、 より効果的な感情表現が可能となる。 尚、 変換、 出力される情報信号の形態は、 上記のメロディや色彩に限らず、 固有の感情パラメ一夕で表現される情報信号であればよい。 座標データや、 筆圧や、 コントローラ等の入力デバイスからの入力信号等によって表現され る空間図形等も固有の感情パラメ一夕を有する情報信号の一例である。 以上のように、 感情データベース 9及び協和音データべ一ス 1 1が用意さ れていれば、 ユーザによって入力された文字列や文章に、 ユーザのその時々 (リアルタイム) に於ける感情又は単語や文字種類によって表される感情を メロディや色彩といった情報信号に変換して付加することが出来、 文字情報 にいわば表情を付けることが出来る。
これにより、 感情を表現する為にわざわざ音楽を創作する必要はなく、 誰 もが容易に感情を表現し、 互いに共有することが出来る。
尚、 本発明の情報信号コンバートシステム 1は、 逆の変換プロセスも実行 可能である。 入力手段 3に於いて予め感情パラメ一夕を有するメロディや色 彩等の情報信号を入力すれば、 メロディや色彩に含まれる感情パラメ一夕の 状態と、 媒体となった協和音を、 感情データベース 9及び協和音データべ一 ス 1 1から特定し、 変換手段 5に於いて変換を行えば、 出力手段 1 3に於い ては、 特定の文字列や文章及び Z又は感情種類が出力される。
このように、 メロディや色彩が先にあるような場合であっても、 メロディ や色彩に言語という別の感情表現手段による情報信号を付加することによ り、 感情の相互補完を図ることが出来る。
以上は、 感情を持たない言語と感情を有するメロディや色彩との相互変換 の例であつたが、 本発明は、 協和音を媒体とした情報信号の相互変換ツール であることからも明らかなように、 第 2図の概念図に示されるように、 協和 音の構成音を含むメロディからなる情報信号と、 色彩 ·図形 ·言語 ·感情種 類等のメロディ以外の感情を有する情報信号 (感情を有さない言語の場合に は感情種類等を付加して感情を持たせる) との相互変換ツールであることに 他ならない。
すなわち、メロディ以外の情報信号をメロディに変換する場合は、メロディ 以外の情報信号が有する感情パラメ一夕を抽出し、 その感情パラメータと対 応するメロディの感情パラメータを協和音の構成音に反映させたものを、 メ 口ディ以外の情報信号が有する感情パラメ一夕に割り当て、 メロディに変換 する。
メロディをメロディ以外の情報信号に変換する場合は、 メ口ディを構成す る構成音からメロディの感情パラメータと協和音を抽出し、 メロディ以外の 情報信号が有する感情パラメ一夕に割り当て、 各構成音をメ口ディ以外の情 報信号に変換する。
もちろん、 メロディとメロディ以外の情報信号の相互変換に限らず、 メロ ディを介して、 メロディ以外の情報信号間 (例えば、 言語と色彩、 図形と色 彩等) の相互変換も 「調和性」 を持ったメロディ (協和音) を経由して円滑 に行われることになる。 実施例 1
次に本発明のプロセスの流れの一例を第 5図のフローチャート図、 第 1図 のシステム構成図、 第 2図の概念図とを用いて詳細に説明する。 本実施例に 於いては、 感情を有さない言語からなる情報信号に、 感情を付加して、 入力 された順にメ口ディと色彩の情報信号に変換して出力する場合について説明 する。
感情設定手段 7は、 喜怒哀楽等の感情種類及び Z又は音色や色相等の感情 パラメータの設定をキ一ポードのキーの押下や設定ファィルの読み込み等に より受信する (S 1 0 ) 。
同様に感情設定手段 7は、 媒体となる協和音の設定を行う(S 2 0 )。 予め 任意の協和音が設定されていてもよいし、 任意の協和音を複数含む音階が媒 体として設定されてもよい。 尚、 S 1 0と S 2 0の順序についてはこれに限 らない。
感情及び協和音の設定がされた段階で、 入力情報信号の情報単位である文 字コ一ド毎に、 設定された感情が付加された協和音の構成音及び色彩が 1つ ずつ割り当てられ、 文字コードと協和音及び色彩との対応テーブルが作成さ れる(S 3 0 )。
例えば、 文字コードがアスキーコードで、 感情設定手段 7が、 媒体を 「C 7」 という協和音に設定し、 「楽しい」 という感情種類を設定した場合、 第 4図の協和音データベース 1 1から C 7に相当する構成音 (ドミソシ) が抽 出され、第 3図の感情データベース 9から「楽しい」に相当する感情パラメ一 夕が抽出される。
ここで、 例えばメロディには 「長調」 、 音色は 「ピアノ」 という感情、 色 彩には 「黄」 、 明度は白と黒の割合が 8 0 : 2 0、 彩度は一定の範囲内で任 意、 等という感情が対応していることが分かるので、 音色はピアノの音に設 定された上で、 協和音の構成音は長調でそのまま 「ドミソシ」 として、 文字 コードに 「ドミソシ」 のいずれかが割り当てられる。
又、 文字コードには、 協和音だけでなく色彩も割り当てられる。 黄色系で 彩度を可変させた色彩が順に文字コードに割り当てられてもよい。 この対応 テーブルをキーボード上に置き換えたものが、 第 7図に示す例である。 (図 示はされていないが、 第 7図の各キーには色彩も割り当てられているものと する。 )
尚、媒体として C音階(ドレミファソラシド) を設定した場合には、第 8図 に一例を示すような対応テ一ブルが作成される。
入力手段 3は、 キーボードや、 テキストファイルの読み込みによって言語 による情報信号を入力し、 変換手段 5はこの情報信号を文字コードに変換す る(S 4 0、 S 5 0 ) o 例えば、 「こんにちわ」 という情報信号が入力された 場合は、 「k o n n n i c h i w a」の各アルファべットに対応する文字コー ドに順次変換される。
尚、 例えば 「ありがとう」 という単語が入力された時に第 3図の感情デー 夕ベース 9に示されるような表の右列に記載された感情パラメ一夕が設定さ れ、 対応テーブルが作成されるという場合には、 対応テーブルが作成される 前に入力手段 3は情報信号を入力し、 「ありがとう」 に対応する文字コード が入力されたことを検知してから対応テーブルが作成される必要があるの で、 当然のことながら、 S 3 0と S 4 0〜S 5 0の順序は逆となる。
変換手段 5は、 作成された対応テ一ブルに基づいて、 入力された情報信号 を逐次メロディと色彩の情報信号に変換し、 出力手段 1 3は変換された情報 信号を出力する (S 6 0 ) 。 先に作成された第 7図の対応テーブルに基づい て、 「こんにちわ」 と入力した時に出力される 「楽しい」 メロディは第 9図 に示した通りである。
同様に、 「はじめまして」 と入力した時に出力されるメロディも第 9図に 示す。 音符は、 打鍵タイミングに従って生成されてもよいし、 予め設定した テンポやトーンに合うようにランダムに生成されてもよい。 本発明の情報信 号コンバートシステム 1を用いて変換されたメロディは、 協和音を媒体とし ているので、 必ず調和性のある音楽的なメロディが生成され、 かつ 「楽しい」 という感情が反映されたものとなる。
又、 第 9図の 「シドミミミシソミシミド」 というメロディの各音に同期し て、 音符の形をした 「楽しい」 色彩がディスプレイ等に表示されてもよい。 「楽しい」 という感情が反映されたメロディと 「楽しい」 という感情が反映 された色彩との組み合わせによって、 より感情表現が豊かとなる。
感情や媒体の設定に変更がある場合は、 逐次 S 1 0に戻り、 対応テーブル が再生成される(S 7 0 )。
これまでのステップとは逆に、 第 9図の 「シドミミミシソミシミド」 とい うメロディが先にあり、 このメ口ディを文字コ一ドに変換する場合について 説明すると、 まずメロディがどの協和音で構成されているかふが協和音デー 夕べ一ス 1 1から抽出される。 メロディが 「ドミソシ」 の協和音で出来ていることが分かれば、 「ドミソ シ」 と文字コードとを対応させ、 メロディの順番に文字コードに変換してい くと、 メロディは「こんにちわ」 という言葉に変換される。更には、 メロディ の感情パラメータを分析し、 感情データベース 9から、 対応する感情種類を 探せば、 その感情種類が 「楽しい」 であることが分かる。
尚、 入力情報信号と、 変換された出力情報信号と、 感情設定手段 7が設定 した感情パラメータと、 媒体として用いた協和音は、 コンピュータのハード ディスクやネットワークサーバ等に蓄積可能である。 従って、 ュ一ザは過去 のメ口ディや色彩の作成結果を入力情報信号と対応させたデータとして保存 し、 いつでも再現させることが可能である。 実施例 2
次に、 セッション、 チャット、 ゲーム、 メール送受信等の用途に於いて、 本発明の情報信号コンバートシステム 1を複数のユーザがネットワークを介 して、 利用する場合の実施例を説明する。 '
第 6図に本実施例に於けるシステム構成の一例を示す。 各ユーザの情報信 号コンバ一トシステム 1又は情報信号コンバ一トシステム 1を搭載したコン ピュー夕は、ネットヮ一ク通信機能(通信手段) を有し、ネットワーク 1 5を 介してネットワークサーバ 1 7に接続される。 ネットワークサーバ 1 7は蓄 積デ一タベース 1 9を管理している。
各ユーザの情報信号コンバ一トシステム 1のシステム構成及び実施例は、 先に説明したのと同様であるが、その他に通信手段を有することにより、ネッ トワークサーバ 1 7又は他のユーザとの間で、 入力情報信号や、 メロディや 色彩に変換された出力情報信号の送受信を行うことが出来る。
ネットワークサーバ 1 7は、 ユーザ間の情報信号の送受信の仲介を行つて もよいし、 ネットワーク 1 5を介して送受信された情報信号や変換に用いた 感情パラメ一夕や変換媒体となった協和音を蓄積データベース 1 9に蓄積し てもよい。
蓄積データベース 1 9に情報信号等を格納することにより、 複数のユーザ が同時にネットワークサーバ 1 7にアクセスしない場合でも、 ユーザは、 他 のユーザが過去に生成した情報信号を閱覧したり、 他のユーザが生成した情 報信号に手を加えて、 別の情報信号を生成することも出来る。
本発明の情報信号コンバートシステム 1を用いて、 ネットワーク 1 5を介 して、 複数ユーザがチャットを行う場合の一例を第 1 0図に示す。 第 1 0図 に於いて、夕口一とハナコとイチローは、それぞれの感情を感情設定手段 7に 於いて設定し、 媒体である協和音についても同様に各自設定しており、 各々 対応テ一ブルが生成されているものとする。
第 1 0図に於いて、 タローによって 「こんにちわ」 と入力されると、 「k o n n n i c h i w a」 に対応する文字コードに変換され、 対応テーブルに 従って、第 1 0図に示すような「シドミミミシソミシミド」という感情を持つ たメロディが出力され、 感情を表す色彩とともに、 ハナコとイチローに送信 される。ハナコによって「はじめまして」 と入力された時も、イチローによつ て 「昨日はありがとう」 と入力された時も同様の手順で、 メロディと色彩を 出力し、 互いにこれら入出力情報信号の送受信を行う。 これにより、 文字の みをやりとりするよりも遥かに感情表現豊かなチヤットが行われる。
第 1 0図の例のように、 複数のユーザが各々異なる媒体を設定しても音楽 的な表現が豊かになるが、 一方で、 例えば 「Cの協和音の部屋」 、 「G音階 のコード進行の部屋」、 「短調の部屋」等といった、ネットワークサーバ 1 7側 で媒体や感情パラメータを予め設定したチヤッ卜の場を用意しておいたり、 自分が設定した媒体や感情の全て又は一部を他のユーザに公開しておくよう にしても、同じような感情を持ったユーザが集いやすくなり、又、複数のユー ザが同時にメロディや色彩を出力した時に、 メロディや色彩のセッションが 違和感なく円滑に行われる。
以上のように、 本実施例に於いては、 ネットワークを介して、 複数のユー ザ間で、 同時又は非同時による感情の共有、 伝達を円滑に行うことが出来、 メロディや色彩によるセッション、 チャット、 ゲーム、 メール送受信等が可 能となる。 実施例 3
次に、 異なる表現手法によって生成され、 各々感情を有する情報信号 (例 えば空間芸術と時間芸術) 間で実行される情報信号コンバートシステム 1で ある場合の実施例を説明する。
本実施例に於いては、 入出力されるいずれの情報信号にも感情が含まれて いる。 従って、 感情デ一夕ベース 9には、 入力手段 3に於いて入力される情 報信号が有する感情パラメータの状態と、 出力手段 1 3に於いて出力される 情報信号が有する感情パラメ一夕の状態との対応を設定し、 格納しておく必 要力 Sある。
例えば、 マウス、 ペンタブレツト、 コントローラ等の入力デバイスにより 図形 (空間芸術) を創作し、 変換手段 5がこれをメロディ (時間芸術) に変 換する場合、 図形の感情パラメ一夕である座標デ一夕の数値や、 マウスの〇 NZ〇F F、 ペンダブレット操作による筆圧等の数値データ (色が付けられ ている場合は、 色相、 明度、 彩度等も感情パラメ一夕に含んでもよい) と、 出力されるべきメロディの感情パラメ一夕である音符や、 音色や、 トーン等 の数値データとを対応付けておく。
ここで協和音データベース 1 1から任意の協和音又は音階が選択されれ ば、 入力された図形の座標データやコントローラの〇、 △、 口、 X等の信号 に、 対応するメロディの感情パラメ一夕の状態を反映させた協和音の構成音 が割り当てられ、 入力された図形はメロディに変換される。 これは、 実施例 1に於いて、 文字コードに協和音の構成音が割り当てられたのと同様の手順 である。
実施例 1に於いては、文字コ一ドが入力された順に、文字コードがメ口ディ に変換されたが、 変換の順序は任意である。 従って、 本実施例に於いては、 例えば、 入力情報信号が X y zからなる座標データの場合には各値の昇順や 降順でメロディに変換されてもよいし、 極座標の場合には中心からの半径距 離とラジアン値の昇順や降順でメロディに変換されてもよいし、 コントロー ラの〇、 △、 口、 Xの場合には〇→A→C1→Xのように決められた II番にメ 口ディに変換されてもよい。
逆にメロディを図形に変換する場合は、 メロディを構成している協和音及 び感情パラメ一夕が協和音データベース 1 1及び感情データベース 9から抽 出され、 メロディの感情パラメータに対応する出力すべき図形の感情パラ メータの状態が抽出されるとともに、 協和音の構成音が、 出力すべき図形の 座標データやコントローラの〇、 口、 △、 X等に割り当てられ、 順次図形に 変換される。
以上のように、 感情を有する情報信号同士を相互に変換することにより、 一方が他方の感情表現を補完し、 より効果的な感情表現や芸術表現が可能と なる。 空間芸術と時間芸術の例に於いては、 空間芸術と時間芸術を同時に出 力することにより、 感情表現豊かなセッションや、 音と図形の融合が容易に 行われる。 , 本発明に於ける各手段、 データベースは、 その機能が論理的に区別されて いるのみであって、物理上あるいは事実上は同一の領域を為していてもよい。 又データベースの代わりにデータファイルであってもよいことは言うまでも なく、 データベースとの記載にはデータファイルをも含んでいる。
尚、 本発明を実施するにあたり本実施態様の機能を実現するソフトウェア のプログラムを記録した記憶媒体をシステムに供給し、 そのシステムのコン ピュー夕が記憶媒体に格納されたプログラムを読み出し実行することによつ ても実現される。
この場合、 記憶媒体から読み出されたプログラム自体が前記した実施態様 の機能を実現することとなり、 そのプログラムを記憶した記憶媒体は本発明 を構成する。
プログラムを供給する為の記憶媒体としては、 例えば磁気ディスク、 ハ一 ドディスク、 光ディスク、 光磁気ディスク、 磁気テープ、 不揮発性のメモリ 力一ド等を使用することが出来る。
又、 コンピュータが読み出したプログラムを実行することにより、 上述し た実施態様の機能が実現されるだけではなく、 そのプログラムの指示に基づ き、 コンピュータ上で稼働しているオペレ一ティングシステムなどが実際の 処理の一部又は全部を行い、 その処理によって前記した実施態様の機能が実 現される場合も本発明に含まれる。 産業上の利用可能性
本発明は、 文字にメロディ、 色彩を付加したり、 又はメロディ、 色彩に文 字を付加したり、メロディと図形を相互変換するという、感情の相互補完ツー ルとして、 誰もが簡単に即座に利用することが出来る。 子供からお年寄りま で、音楽や絵画を創作する技術を持たないユーザが入力した文字列や文章を、 ユーザのその時々 (リアルタイム) に於ける感情をメ口ディや色彩といった 情報信号に変換して、 入力した文字列や文章に付加することが出来、 誰もが 簡単に感情を表現することが出来る。
文字列や文章に表情を付けることが出来るので、 その場に居合わせること なく、 ネットワークを介して、 複数のユーザ間の同時又は非同時による感情 の共有、 伝達や、 音や色による情緖溢れるセッションやチャットやゲームや メール送受信が可能となり、 世界中の円滑なコミュニケーションの促進が図 られる。
空間芸術と時間芸術のいずれか一方にしか秀でていない又は精通していな い人にとっては、 精通していない芸術を自分の得意な芸術表現手法で理解す ることが出来るようになる。 例えば、 目の不自由な人にとっては、 与えられ た空間芸術を時間芸術に変換することにより、 目に見えない空間芸術を理解 する為の一助となり、 耳の不自由な人にとっては、 与えられた時間芸術を空 間芸術に変換することにより、 耳に聴こえない時間芸術を理解する為の一助 となる。
異なる芸術表現手法を有する芸術家同士が、 互いの創作物を容易に異なる 芸術表現手法に変換して、 交換したり、 セッションすることが出来る。 又、 例えば美術の分野に精通していない音楽家が、 自分の創作した音楽を空間芸 術に変換することにより、 容易に音と絵の融合を図ることが出来る。 音楽に 精通していない美術家についても同様である。

Claims

請 求 の 範 囲
1 . 感情を表現するメロディからなる情報信号と、 感情を表現するメロディ 以外の情報信号とを、 調和性のある協和音を媒体として相互に変換する情報 信号コンバートシステムであって、
感情を表現する 1以上の感情パラメータの各状態を数値的又は段階的に表し た前記情報信号毎に固有のデータを、 相互に対応させ格納している感情デー 夕ベースと、
協和音及び Z又は音階の構成音を格納している協和音データベースと、 感情を表現するメロディ以外の情報信号から抽出された感情パラメータの データ毎に前記協和音データベースから抽出された協和音の構成音を 1音以 上ずつ割り当て、 感情を表現するメロディからなる情報信号への変換及び/ 又はそれらの逆変換を行う変換手段とを、
有することを特徴とする情報信号コンバートシステム。
2 . 前記情報信号コンバートシステムは、
前記感情パラメータのデータ及び Z又は前記協和音及び Z又は音階及び 又 は協和音からなるコード進行を任意に設定する感情設定手段を
有することを特徴とする請求の範囲 1に記載の情報信号コンパ一トシステ ム
3 . 前記情報信号コンバートシステムは、
前記感情を表現するメロディからなる情報信号が、
短調 ·長調の種類、 音符種類、 音の高低、 音の大小、 音色、 テンポ、 トーン の少なくとも 1以上からなる感情パラメ一夕を有する
ことを特徴とする請求の範囲 1又は請求の範囲 2に記載の情報信号コンバー 卜システム。
4. 前記情報信号コンバートシステムは、
前記感情を表現する情報信号に、
喜怒哀楽等の感情パラメ一夕を有する感情種類が含まれる
ことを特徴とする請求の範囲 1から請求の範囲 3のいずれかに記載の情報信 号コンバートシステム。
5 . 前記情報信号コンパートシステムは、
前記感情を表現する情報信号に、
色相、 明度、 彩度の少なくとも 1以上からなる感情パラメ一夕を有する色彩 が含まれる
ことを特徴とする請求の範囲 1から請求の範囲 4のいずれかに記載の情報信 号コンバートシステム。
6 . 前記情報信号コンバートシステムは、
前記変換手段に於いて、 前記感情を表現するメロディと色彩以外の情報信号 から、 前記メロディからなる情報信号と前記色彩からなる情報信号とに変換 及び Z又はそれらの逆変換を行う
ことを特徴とする請求の範囲 5に記載の情報信号コンバー卜システム。
7 . '前記情報信号コンバートシステムは、
前記感情を表現する情報信号に、
座標データ、 コントローラ等の入力デバイスからの入力信号種類、 筆圧、 図 形種類、 色彩の少なくとも 1以上からなる感情パラメータを有する空間図形 が含まれる ことを特徴とする請求の範囲 1から請求の範囲 6のいずれかに記載の情報信 号コンパ一卜システム。
8 . 前記情報信号コンパ一トシステムは、
前記感情を表現する情報信号に、
キーボードの打鍵タイミング、 文字種類、 単語の少なくとも 1以上からなる 感情パラメ一夕を有する言語が含まれる
ことを特徴とする請求の範囲 1から請求の範囲 7のいずれかに記載の情報信 号コンバートシステム。
9 . 前記情報信号コンバ一トシステムは、
前記情報信号を格納する蓄積データベースを有するネットワークサーバ又は 他の情報信号コンパ一トシステムとで、 ネットワークを介して情報信号の送 受信を行う通信手段を
有することを特徴とする請求の範囲 1から請求の範囲 8のいずれかに記載の 情報信号コンバートシステム。
PCT/JP2003/009461 2002-07-25 2003-07-25 情報信号コンバートシステム WO2004012181A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003248115A AU2003248115A1 (en) 2002-07-25 2003-07-25 Information signal converting system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-217194 2002-07-25
JP2002217194A JP2004061666A (ja) 2002-07-25 2002-07-25 情報信号コンバートシステム

Publications (1)

Publication Number Publication Date
WO2004012181A1 true WO2004012181A1 (ja) 2004-02-05

Family

ID=31184600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/009461 WO2004012181A1 (ja) 2002-07-25 2003-07-25 情報信号コンバートシステム

Country Status (3)

Country Link
JP (1) JP2004061666A (ja)
AU (1) AU2003248115A1 (ja)
WO (1) WO2004012181A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023524A (ja) * 2004-07-08 2006-01-26 Sony Corp 音響信号の分析装置および再生装置
JP4456537B2 (ja) 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
US7893342B2 (en) 2006-09-08 2011-02-22 Panasonic Corporation Information processing terminal and music information generating program
JP5402141B2 (ja) * 2009-03-25 2014-01-29 富士通株式会社 メロディ作成装置、メロディ作成プログラムおよびメロディ作成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124082A (ja) * 1992-10-09 1994-05-06 Victor Co Of Japan Ltd 作曲支援装置及び作曲支援方法
JPH11327552A (ja) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> 楽曲の編曲支援方法及び装置及び楽曲の編曲支援プログラムを格納した記憶媒体
JP2001027896A (ja) * 1999-05-07 2001-01-30 Atr Media Integration & Communications Res Lab マルチメディア・アート製作装置
JP2002091445A (ja) * 2000-09-20 2002-03-27 Shozo Tanaka 自動作曲装置、自動作曲方法および自動作曲プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002162968A (ja) * 2000-11-28 2002-06-07 M Zone:Kk 音楽自動生成方法、音楽自動生成プログラム、および音楽自動生成プログラムを記録した記録媒体
JP2002366156A (ja) * 2001-06-12 2002-12-20 Rumiko Matsuoka アミノ酸配列または文字配列による音楽自動生成方法およびそのシステム、並びに記憶媒体および配信方法
JP2003241749A (ja) * 2002-02-18 2003-08-29 Douumanzu:Kk 文書入出力装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124082A (ja) * 1992-10-09 1994-05-06 Victor Co Of Japan Ltd 作曲支援装置及び作曲支援方法
JPH11327552A (ja) * 1998-05-15 1999-11-26 Nippon Telegr & Teleph Corp <Ntt> 楽曲の編曲支援方法及び装置及び楽曲の編曲支援プログラムを格納した記憶媒体
JP2001027896A (ja) * 1999-05-07 2001-01-30 Atr Media Integration & Communications Res Lab マルチメディア・アート製作装置
JP2002091445A (ja) * 2000-09-20 2002-03-27 Shozo Tanaka 自動作曲装置、自動作曲方法および自動作曲プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002162968A (ja) * 2000-11-28 2002-06-07 M Zone:Kk 音楽自動生成方法、音楽自動生成プログラム、および音楽自動生成プログラムを記録した記録媒体
JP2002366156A (ja) * 2001-06-12 2002-12-20 Rumiko Matsuoka アミノ酸配列または文字配列による音楽自動生成方法およびそのシステム、並びに記憶媒体および配信方法
JP2003241749A (ja) * 2002-02-18 2003-08-29 Douumanzu:Kk 文書入出力装置

Also Published As

Publication number Publication date
JP2004061666A (ja) 2004-02-26
AU2003248115A1 (en) 2004-02-16

Similar Documents

Publication Publication Date Title
Wishart On sonic art
Kanno Prescriptive notation: Limits and challenges
US20010047717A1 (en) Portable communication terminal apparatus with music composition capability
KR20180063163A (ko) 언어 및/또는 그래픽 아이콘 기반 음악적 경험 디스크립터를 채택한 자동화된 음악 작곡 및 생성 기계, 시스템 및 프로세스
Gresham-Lancaster Relationships of sonification to music and sound art
US10553188B2 (en) Musical attribution in a two-dimensional digital representation
CN107430849A (zh) 声音控制装置、声音控制方法和声音控制程序
Qureshi Musical gesture and extra-musical meaning: words and music in the Urdu ghazal
JP4971023B2 (ja) 音楽生成方法,音楽生成装置,音楽生成システム
Latartara Laptop Composition at the Turn of the Millennium: Repetition and Noise in the Music of Oval, Merzbow, and Kid606
WO2004012181A1 (ja) 情報信号コンバートシステム
Bordelon Finding “the Feeling”. Oriental Dance, Musiqa al-Gadid, and Tarab
JP4298612B2 (ja) 音楽データ加工方法、音楽データ加工装置、音楽データ加工システム及びコンピュータプログラム
JP2002196779A (ja) 音声信号の楽音変更のための方法と装置
JP2002278548A (ja) 作詞作曲装置及びプログラム
Dickie Singing the Psalms: applying principles of African music to bible translation
Marandi et al. A novel method to musicalize shape and visualize music and a novel technique in music cryptography
Bresin et al. Expressive musical icons
JPH08212258A (ja) 作品作成支援システム
JP3694698B2 (ja) 音楽データ生成システム、音楽データ生成サーバ装置
KR20060118094A (ko) 작곡 서비스 시스템 및 그 운영방법
JP6787491B2 (ja) 音発生装置及び方法
JPH07244496A (ja) テキスト朗読装置
Darroch Cultural convergence: traditional Maori flutes and contemporary New Zealand classical music
JP6732216B2 (ja) 歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase