JP2010044162A - Processing of sound information and utilization system therefor - Google Patents

Processing of sound information and utilization system therefor Download PDF

Info

Publication number
JP2010044162A
JP2010044162A JP2008207004A JP2008207004A JP2010044162A JP 2010044162 A JP2010044162 A JP 2010044162A JP 2008207004 A JP2008207004 A JP 2008207004A JP 2008207004 A JP2008207004 A JP 2008207004A JP 2010044162 A JP2010044162 A JP 2010044162A
Authority
JP
Japan
Prior art keywords
sound
music
data
terminal
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008207004A
Other languages
Japanese (ja)
Inventor
Satoshi Inoue
吏司 井上
Takashi Yokoi
尭 横井
Tomohiro Kano
知宙 加納
Yoshio Ishii
美穂 石井
Chiyoko Takada
知世子 高田
Shun Takenaka
駿 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INOUE DENKI KK
Original Assignee
INOUE DENKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INOUE DENKI KK filed Critical INOUE DENKI KK
Priority to JP2008207004A priority Critical patent/JP2010044162A/en
Publication of JP2010044162A publication Critical patent/JP2010044162A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To compose a music piece appropriate and accurate in musical scale with humming and singing voice or the like emitted by a person who has a mobile terminal, and to utilize the music piece as an incoming melody or the like. <P>SOLUTION: In the system, music note data 5 are imparted to a caller's singing voice and humming or the like called via a terminal 1 through a voice analysis means 4 of an administrator 2 and are converted into a desired music piece having appropriate syllable and accurate musical scale, that is, a song, humming, and performance sound of a musical instrument or the like by rhythm data 7, musical instrument data 8, and a scat processing means 10 in a music conversion processing means 6. The music such as the music piece converted in this way is stored with being filed every terminal holder as music data 11. The terminal holder selects the desired music piece from own music data stored in this way and arbitrarily utilizes it as the incoming melody of own mobile terminal or the like. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は携帯電話等の通信端末機を用いて、人の歌声、ハミング、自然の音、人工の音等をデータ化し、電話等の通信時にこれらのデータ化された音を適宜利用することができるよう構成したシステムであって、より詳細には音声処理を行いかつこの処理を行った音データを利用するシステムである。   In the present invention, using a communication terminal such as a cellular phone, human singing voice, humming, natural sound, artificial sound, etc. can be converted into data, and these data-converted sounds can be appropriately used during communication such as a telephone. More specifically, the system is a system that performs voice processing and uses sound data that has been subjected to this processing.

電話機能を中心とした従来の携帯電話も昨今では多数の情報対象にアクセスできる多機能端末機として機能するよう構成されているものが多くなり、この多機能性を生かして各種のサービスが提供されている。   Conventional mobile phones centering on telephone functions are now configured to function as multi-function terminals that can access a large number of information objects, and various services are provided by taking advantage of this multi-functionality. ing.

この様な技術的背景の下、発明者等は携帯電話等の通信端末(以下実施例も含めて「端末機」とする)を利用して端末機所有者等が自己の鼻唄、ハミング等の人声、或いは波の音、小鳥のさえずり、川の流れの音等の自然の音、更にはアナウンスを含めた空港内の音や競技場等の音等の人工的な音をデータ化し、かつ人声では適宜音楽的に処理し、この音データを電話の着信音や自己聴取用に利用するシステムを発明した。   Under such a technical background, the inventors use a communication terminal such as a mobile phone (hereinafter referred to as “terminal” including the embodiment) and the terminal owner etc. Human voices or sound of waves, birdsongs, river sounds, natural sounds such as river sounds, and airport sounds including announcements, artificial sounds such as stadium sounds, etc., and We have invented a system that processes musically as appropriate for human voice and uses this sound data for telephone ringtones and self-listening.

発明者等は上記観点から先行記述を調査したが、このような技術的目的に立脚して成された先行技術は発見されなかった。
下記文献は本願発明とは技術目的及びその構成も異なるものであるが、携帯電話等の端末機を利用する点と音声処理を行っている点において一応の共通項が認められるものである。
特開2005−208394 特開2004−301884 特開2004−310054
The inventors investigated prior descriptions from the above viewpoint, but no prior art based on such a technical purpose was found.
The following documents are different from the present invention in terms of technical purpose and configuration, but some common items are recognized in terms of using a terminal such as a mobile phone and performing voice processing.
JP-A-2005-208394 JP-A-2004-301884 JP 2004-310054 A

上記文献のうち、特許文献1は合成音声により歌声を生成するシステムであって、本願のような人の肉声等を楽曲処理する場合と逆の関係にあるシステムであり、特許文献2は端末機にカラオケ機能を持たせるようにして歌にカラオケを重畳したものであり、また特許文献3は人の歌声にBGM(バック・グラウンド・ミュージック)を重畳させてファイル化するものであり、これも一種のカラオケシステムである。   Among the above documents, Patent Document 1 is a system that generates a singing voice using synthesized speech, and is a system that is in reverse relation to the case where music processing of a human voice or the like as in the present application is performed, and Patent Document 2 is a terminal device. Karaoke is superimposed on the song so as to have a karaoke function, and Patent Document 3 forms a file by superimposing BGM (background music) on a person's singing voice. Karaoke system.

本発明は上記従来技術とは異なり、人が適宜に(或いは「適当」に)発声した歌声、ハミング(鼻唄)、スキャット等の音声を、音声解析して、音楽的に適正な楽節、音階からなる音声に近似させ、この処理音声をデータ化し、かつ人声の他の自然音、人工音も収録編集することにより、これらの音データを電話着信時の着信音として利用する等、適宜利用可能なシステムを得ることを課題とするものである。   The present invention is different from the above-described prior art in that a voice such as singing voice, humming (nasal fin), scat, etc. uttered by a person as appropriate (or “appropriately”) is analyzed from a musically appropriate passage or scale. It is possible to use this sound data as a ringtone when receiving a phone call by converting the processed sound into data and recording and editing other natural sounds and artificial sounds. It is a problem to obtain a simple system.

上記課題を解決するため本発明は基本的に以下の構成を有している。
即ち、本システムは携帯電話等の端末機と、この端末機が電話等の通信を行う場合に、所謂通信電話会社等の通信システムを管理する者(以下実施例をも含めて「管理者」とする)との間に成立するシステムであって、端末機は通常の携帯電話と同様、マイクロフォン等の音声を入力する手段を有し、かつ管理者は受信した音声を解析する手段と、解析された音声データを楽曲に編集する手段と、編集された楽曲データをストックしたデータベースとを有する第1の構成と、
端末が発信するのは自然音或いは人工音であって、これらの音を分類する手段と、分類された音を格納する手段と、格納した音を目的に応じて適宜出力する手段とを有し、要すれば前記第1の発明における楽曲を出力するときにこの出力される楽曲に対して、選択された自然音或いは人工音を重畳させる手段とを有することを特徴とする第2の構成から成るものである。
In order to solve the above problems, the present invention basically has the following configuration.
That is, this system is a person who manages a communication system such as a so-called communication telephone company when the terminal performs communication such as a telephone with a terminal such as a mobile phone (hereinafter referred to as “manager” including the embodiments). The terminal has a means for inputting sound such as a microphone as in a normal mobile phone, and the manager analyzes and analyzes the received sound. A first configuration having means for editing the edited audio data into music, and a database stocked with the edited music data;
The terminal transmits natural sounds or artificial sounds, and has means for classifying these sounds, means for storing the classified sounds, and means for outputting the stored sounds as appropriate according to the purpose. If necessary, it has means for superposing the selected natural sound or artificial sound on the outputted music when outputting the music in the first invention. It consists of.

端末機所有者が発した音声が適正な楽曲になったり、収録した自然音や人工音を用いた音データを利用して、システム利用者は唯一無二の音データを作成し、この音データを着信音等に適宜利用することが可能となる。   The sound produced by the terminal owner becomes an appropriate piece of music, or the system user creates unique sound data using sound data that uses recorded natural sounds or artificial sounds. Can be appropriately used for a ring tone or the like.

端末機は携帯電話とし、管理者はこの携帯電話の通信事業を行う携帯電話会社とすることにより、携帯電話により本発明の内容を現時点のシステムをそのまま用いて実施することが可能である。   The terminal can be a mobile phone, and the administrator can be a mobile phone company that conducts the mobile phone communication business, so that the content of the present invention can be implemented using the mobile phone as it is.

以下本発明の実施例を図面を参考に説明する。
図1は本発明の第1の構成を示す。
本発明は特定の個人が所有する端末機1と、この端末機1の通信システムを統括する管理者2との間に構成されるシステムである。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows a first configuration of the present invention.
The present invention is a system configured between a terminal 1 owned by a specific individual and an administrator 2 who controls the communication system of the terminal 1.

先ず端末機1の所有者はこの端末機1を用いて自己の音声をハミング或いはスキャット、場合によっては歌声等の音声情報としてとして端末機1に入力する。この場合、後述の手段により音声情報は既存の曲も当然処理可能であるが、所有者が自分が思うままに口ずさんだハミング或いはスキャットであれば、最終的な音楽データが所有者のオリジナルとなるため本システムの効果をより一層発揮することができる。   First, the owner of the terminal 1 uses the terminal 1 to input his / her voice into the terminal 1 as voice information such as humming or scat, and sometimes singing voice. In this case, the audio information can naturally process the existing music by means described later, but if the owner hums or screams as he / she thinks, the final music data will be the original of the owner Therefore, the effect of this system can be exhibited further.

端末機1に入力された音声情報はリアルタイムに、或いは端末機1に一端録音された後に管理者2のシステムに送信される。送信された音声情報は1/Oポート3を経て音声解析手段4に入力される。この音声解析手段4は入力した音声情報を例えばフーリエ変換してデジタル化し、音の高低情報をグラフ化或いは数値化する。   The audio information input to the terminal 1 is transmitted to the system of the manager 2 in real time or once recorded in the terminal 1. The transmitted voice information is input to the voice analysis means 4 through the 1 / O port 3. The voice analysis means 4 digitizes the input voice information by, for example, Fourier transform, and graphs or digitizes the pitch information.

次にこの音高低情報は楽譜データ5により音譜で表現可能な音情報に処理され、音楽化処理手段6に入力される。音楽化処理手段6においては楽譜表現された音情報を、音楽の構成に則して小節等が割り振られ、元の音情報に近似させながら正確な楽曲構成を持った音情報に再構成される。   Next, the pitch information is processed into sound information that can be expressed as a musical score by the score data 5 and input to the music processing means 6. In the music processing means 6, the musical score-expressed sound information is allocated with measures and the like according to the music composition, and is reconstructed into sound information having an accurate musical composition while approximating the original sound information. .

音楽化処理手段6における楽曲の構成においては、リズムデータ7、楽器音データ8、人声データ9等を用いて所望の楽曲に構成することが可能である。例えばリズムデータ7から所定のリズムを選択して、例えば楽曲をタンゴにしたりボレロにしたりワルツにしたりすることが可能である。またこの楽曲に対して楽器音データ8のデータを用いてピアノのタンゴ、バイオンリンのワルツにする等の編曲が自由に設定できる。   In the composition of music in the music processing means 6, it is possible to compose a desired music using rhythm data 7, instrument sound data 8, human voice data 9, and the like. For example, it is possible to select a predetermined rhythm from the rhythm data 7 and to make the music into tango, bolero, or waltz, for example. In addition, it is possible to freely set arrangements such as piano tango and violin waltz using the musical instrument sound data 8 for this musical piece.

また、この楽曲を人声データ9から女性の声又は男性の声とし、さらにその声をソプラノ、アルト、ベース等と設定することもできる。更にスキッャット処理手段10を起動させることによりこの人声楽曲を「ルルルルルル」「ララララララ」等の発音により音階を成すスキッャットに構成することも可能である。このように構成された人声楽曲は音楽データ11として格納され、例えば着信音として端末機1にダウンロードされたり、この端末機1の所有者が端末機1を用いて管理者2側に格納されている各種の音楽データを聴取するなど色々な利用が可能となる。   Further, this musical piece can be made into a female voice or a male voice from the human voice data 9, and the voice can be set as soprano, alto, bass or the like. Furthermore, by activating the skit processing means 10, it is also possible to configure the human voice musical composition into a skit that forms a musical scale by generating pronunciations such as “rururu rururu” and “la la la la la la”. The human voice composition configured as described above is stored as music data 11, for example, downloaded as a ringtone to the terminal 1, or the owner of the terminal 1 is stored on the manager 2 side using the terminal 1. Various uses such as listening to various types of music data are possible.

図2は上記構成におけるシステムの実施状態の一例を示すものである。
即ち、管理者2において特定の端末機所有者からの音情報を音楽化をする旨の音楽化設定情報が受信(SA1)されたならば、この音情報が図1に示す音楽化処理システムに出力されるようセットされ、この状態でハミング等の音情報が入力される(SA2)。なお、音楽化設定情報は発信者が音情報を送る前に、予め定められたコードを管理者に発信する等により設定できる。
FIG. 2 shows an example of an implementation state of the system in the above configuration.
That is, if the manager 2 receives the music setting information for converting the sound information from the specific terminal owner into a music (SA1), the sound information is sent to the music processing system shown in FIG. In this state, sound information such as humming is input (SA2). The music setting information can be set by transmitting a predetermined code to the administrator before the sender sends the sound information.

以後は、音声解析手段4において受信した音情報を解析し(SA3)、楽譜データ5を用いて解析した音情報を楽譜化処理する(SA4)。さらに楽譜化処理された音情報に対して前記リズムデータ7、楽器音データ8、人声データ9、スキャット処理手段10等のデータを加えて所望の楽曲データを合成し(SA5)、音楽データを作成する(SA6)。   Thereafter, the sound information received by the sound analysis means 4 is analyzed (SA3), and the sound information analyzed using the score data 5 is processed into a score (SA4). Further, the music data is synthesized by adding data such as the rhythm data 7, musical instrument sound data 8, human voice data 9, scatter processing means 10 and the like to the sound information that has been scored, thereby synthesizing desired music data (SA5). Create (SA6).

この音楽データはサンプルデータとして発信者に送信される(SA7)。発信者は送信されてきた楽曲サンプルの評価を行い(SA8)、よければ音楽データ11として設定され、気に入らなければ、例えば楽器音をバイオリンからピアノに変更したり、リズムをワルツからボレロにする等の指定を行う。管理者2側のシステムはこの指定に対応して再度音楽データ6を作成し、最終的に発信者が了承したならば音楽データ11として設定する(SA9)。   This music data is transmitted to the caller as sample data (SA7). The caller evaluates the transmitted music sample (SA8), and if it is good, it is set as music data 11, and if not liked, for example, the instrument sound is changed from violin to piano, the rhythm is changed from waltz to bolero, etc. Specify. The system on the manager 2 side creates the music data 6 again in response to this designation, and finally sets it as the music data 11 if the sender approves (SA9).

図3は第2の実施例を示す。
前記実施例が人の音声を処理するものであるのに対して、本実施例は自然音、人工音等を処理するシステムとして構成されている。
FIG. 3 shows a second embodiment.
In contrast to the embodiment that processes human voice, the present embodiment is configured as a system that processes natural sounds, artificial sounds, and the like.

先ず自然音とは例えば川の流れの音(せせらぎ)、波の音、虫の音、雨垂れ等自然の営みにより発生する音を指し、人工音とは人の営みにより発生する音であるが、データとして記録し利用するものである以上、騒音等のように人が不快に感じる音は対象から除外される。この様な点から人工音は競技場での歓声を中心とした音、ジェット音を背景とした空港のアナウンス音等ある程度限られたものとなると考えられる。また当然のことながら自然音も聞き心地のよいものが中心となる。   First, natural sound refers to sounds generated by natural activities such as river flow sounds, swelling waves, insect sounds, raindrops, and artificial sounds are sounds generated by human activities. As long as it is recorded and used as data, sounds that people feel uncomfortable, such as noise, are excluded. From this point of view, artificial sounds are considered to be limited to some extent, such as sounds centered on cheering at the stadium and airport announcement sounds against the background of jet sounds. Of course, natural sounds are mainly comfortable and comfortable to listen to.

端末機1の所有者は、例えば海岸において波の音を収録し、この収録した音を管理者2に出力する。出力した音情報はI/Oポート3を経て情報処理手段12に入力される。この場合、入力された音情報12aは例えば前記実施例の音声解析手段4におけるようにフーリエ変換して波形分析し、この波形分析結果と予め入力しておいた波形パターンから波の音、風の音、虫の音等の分類を行いこの分類情報12bに基づいて分類コード付与手段13により分類コード14を付して音データベースに格納する。   For example, the owner of the terminal 1 records the sound of a wave on the beach and outputs the recorded sound to the manager 2. The output sound information is input to the information processing means 12 via the I / O port 3. In this case, the input sound information 12a is subjected to Fourier transform and waveform analysis, for example, as in the sound analysis means 4 of the above-described embodiment, and from the waveform analysis result and the previously input waveform pattern, the sound of the wave, the sound of the wind, The sound of insects and the like is classified, and based on the classification information 12b, the classification code is added by the classification code adding means 13 and stored in the sound database.

また、入力した音情報が当該情報処理手段12において分類できなかった場合には、端末機1の利用者に対して「送信された音情報が分類出来なかった」旨の情報を例えば電子メールで送信する。この場合送信者は理者との間で予め取り決められたコードをい用いて、送信した音情報の種類を送信する。たとえば数字の1は自然音、2は人工音に分類し、次に自然音1を前提として1は川の音、2は波の音、3は風の音・・・・・・、同様に人工音2を前提として、1は空港、2はサッカー場、3は自動車レース場・・・・等と設定しておく。これにより例えば電子メールで1−1と送信すればこの音情報は自然音でかつ川の音、また2−3とすれば人工音でかつ自動車レース場の音と指定できる。情報処理部12はこの指定情報に基づいて分類不能であった音情報を分類して音データベース15にその分類コードと共に格納する。   If the input sound information cannot be classified by the information processing means 12, information indicating that the transmitted sound information could not be classified is given to the user of the terminal 1 by e-mail, for example. Send. In this case, the transmitter transmits the type of the transmitted sound information using a code decided in advance with the reasoner. For example, the number 1 is classified as a natural sound, 2 is classified as an artificial sound, then the natural sound 1 is assumed, 1 is a river sound, 2 is a wave sound, 3 is a wind sound, and so on. Assuming 2 is set, 1 is an airport, 2 is a soccer field, 3 is a car race track, etc. Thus, for example, if 1-1 is transmitted by e-mail, this sound information can be designated as a natural sound and a river sound, or 2-3 as an artificial sound and a sound of a car race track. The information processing unit 12 classifies the sound information that could not be classified based on the designation information and stores it in the sound database 15 together with the classification code.

16は用途別データであって音データベース15に格納されている音情報をその用途に対応して引き出して利用するよう予め設定されている。より具体的には端末機1の利用者が、例えば波の音を着信音として利用したい場合に、利用者は用途別利用情報17を管理者2に出力する。管理者2側はこの用途別利用情報17に基づいて音データベース15から所定の音情報を引出し、端末機1に出力する。端末機1の利用者はこの音情報を着信音としてインストールし、以後着信音として利用する等である。またこの場合、単に収録した音情報だけでなく、前記実施例で作成した音楽データ11のうち所望の音楽データをこのこの音情報に重畳して着信音とする等、音情報の加工も可能である。符号18はこの音楽データ11から出力された特定の音楽情報を着信音に重畳させるための重畳手段である。以上の各構成が、主として音情報を分類、蓄積、或いは加工する部分であって、図の点線で区分された部分の上部側の設定部に対応する構成である。   Reference numeral 16 denotes application-specific data, which is set in advance so that sound information stored in the sound database 15 is extracted and used corresponding to the application. More specifically, when the user of the terminal 1 wants to use, for example, a wave sound as a ringtone, the user outputs usage-specific usage information 17 to the administrator 2. The administrator 2 side extracts predetermined sound information from the sound database 15 based on the use-specific usage information 17 and outputs it to the terminal 1. The user of the terminal 1 installs this sound information as a ring tone and uses it as a ring tone thereafter. In this case, not only the recorded sound information but also the sound information can be processed such that desired music data of the music data 11 created in the above embodiment is superimposed on this sound information to be used as a ring tone. is there. Reference numeral 18 denotes a superimposing means for superimposing specific music information output from the music data 11 on the ring tone. Each of the above configurations is a portion that mainly classifies, accumulates, or processes sound information, and corresponds to a setting unit on the upper side of the portion divided by dotted lines in the figure.

一方、上記設定部に蓄積された音情報は例えば次のように利用される。
端末機1の利用者は、管理者2において蓄積された音情報の利用形態を利用情報19として管理者2に出力する。この利用情報19により管理者2のシステムのうち利用部は、音情報の利用形態を確認し、その利用形態に対応した音情報を音データベース15から引出し、かつ用途別データ16において各音情報を用途を設定し、更に用途に対応した音情報の送信先を送信先決定手段20により決定し、決定された送信先に送信する。
On the other hand, the sound information stored in the setting unit is used as follows, for example.
The user of the terminal 1 outputs the usage form of the sound information stored in the administrator 2 as usage information 19 to the administrator 2. Based on this usage information 19, the usage unit of the system of the administrator 2 confirms the usage pattern of the sound information, extracts the sound information corresponding to the usage mode from the sound database 15, and stores each sound information in the application-specific data 16. The application is set, and the transmission destination of the sound information corresponding to the application is determined by the transmission destination determination means 20 and transmitted to the determined transmission destination.

例えば、音情報の送信先が端末機1の利用者の通話先である場合にはこの端末機1の通話先である第三者の端末機21にこの音情報を送信する。また端末機1の利用者が、例えば就寝する前に波の音を聞きたい等の理由で利用情報19を出力したときは、音データベース15から選択された波の音情報を用途別データの「自己利用」に設定し、かつ送信先決定手段20を介して端末機1に出力する等である。   For example, when the transmission destination of the sound information is a call destination of the user of the terminal 1, the sound information is transmitted to the third party terminal 21 that is the call destination of the terminal 1. Also, when the user of the terminal 1 outputs the usage information 19 for the purpose of listening to the sound of the waves before going to bed, for example, the sound information of the waves selected from the sound database 15 is stored in the “ For example, it is set to “self-use” and is output to the terminal 1 via the transmission destination determination means 20.

図4は図3に示す構成の実施状態の一例を示すフロー図である。
同図において、管理者2側において、端末機1で収録された分類情報を受信し(SB1)、かつこれに続いて或いは同時に音情報が受信される(SB2)。各音情報は前記分類情報に対応したコードが付与され(SB3)、音データベース15が作成される (SB4)。
FIG. 4 is a flowchart showing an example of an implementation state of the configuration shown in FIG.
In the figure, the administrator 2 side receives the classification information recorded in the terminal 1 (SB1), and subsequently or simultaneously receives the sound information (SB2). Each sound information is given a code corresponding to the classification information (SB3), and a sound database 15 is created (SB4).

次に用途別利用情報17を受信したとき(SB5)は、この用途別利用情報17に対応した音データを音データベース15から引出して用途別データを作成し(SB6)、かつ音楽データの付加要求があるか否かを確認し(S7)、音楽データの付加要求がある場合には音楽データの付加を行った音データを、またこの要求がない場合にはそのままの音情報を用途別データとして記録することにより設定を完了する(SB9)。   Next, when usage-specific usage information 17 is received (SB5), sound data corresponding to the usage-specific usage information 17 is extracted from the sound database 15 to create usage-specific data (SB6), and a request for adding music data is made. If there is a request for adding music data, the sound data to which the music data has been added is used as the data for each use. The setting is completed by recording (SB9).

この状態において端末機1の利用者から利用情報17を受信したならば(SB10)、利用別データ16からその利用情報に対応したデータを選択し(SB11)、送信先決定手段20においてこの利用情報に対応した送信先を選定し(SB12)、選定された送信先に選択された音情報を送信する(SB13)。   If the usage information 17 is received from the user of the terminal 1 in this state (SB10), data corresponding to the usage information is selected from the usage-specific data 16 (SB11), and the transmission destination determination means 20 uses this usage information. Is selected (SB12), and the selected sound information is transmitted to the selected transmission destination (SB13).

本発明に係るシステムはモバイル端末の全ての種類で実施可能であるが、特に携帯電話機能を中心とした端末で最も効果的に実施可能である。   The system according to the present invention can be implemented in all types of mobile terminals, but can be most effectively implemented especially in terminals centering on mobile phone functions.

本発明の第1の実施例を示す人声を処理・利用するシステムを構成するブロック図である。It is a block diagram which comprises the system which processes and utilizes the human voice which shows the 1st Example of this invention. 図1に示すシステムの利用状態の一例を示すフロー図である。It is a flowchart which shows an example of the utilization condition of the system shown in FIG. 本発明の第2の実施例を示す自然音・人工音を処理・利用するシステムを構成するブロック図である。It is a block diagram which comprises the system which processes and uses the natural sound and artificial sound which show the 2nd Example of this invention. 図3に示すシステムの利用状態の一例を示すフロー図である。It is a flowchart which shows an example of the utilization condition of the system shown in FIG.

符号の説明Explanation of symbols

1 端末機
2 管理者
3 I/Oボート
4 音声解析手段
5 楽譜データ
6 音楽化処理手段
7 リズムデータ
8 楽器音データ
9 人声データ
10 スキャット処理手段
11 音楽データ
12 情報処理手段
12a 音情報
12b 分類情報
13 分類コード付与手段
14 分類コード
15 音データベース
16 用途別データ
17 用途別利用情報
18 重畳手段
19 利用情報
21 第三者の端末機
1 Terminal
2 administrators
3 I / O boat 4 Voice analysis means 5 Music score data 6 Music processing means 7 Rhythm data 8 Musical instrument sound data 9 Human voice data 10 Scatter processing means 11 Music data 12 Information processing means 12a Sound information 12b Classification information 13 Classification code giving means 14 classification code 15 sound database 16 use data 17 use information 18 superimposing means 19 use information 21 third party terminal

Claims (7)

携帯電話機能を有する端末機とこの端末機の機能を管理する管理者との間に成立するシステムであって、端末機を介して管理者に送信される音データは、ハミング、スキャット、歌声等の人声であり、管理者側には送信された人声を解析する音声解析手段と、音声解析手段で解析された音声データを、音楽を構成する規約に則って当該音声データに近似して改編する音楽化処理手段と、この音楽化処理手段から出力された音楽データを蓄積する手段とを有し、蓄積された音楽データのうちから端末機利用者の要求に応じて、所定の音楽データを所定の対象に出力するよう構成したことを特徴とする音情報の処理・利用システム。 This is a system established between a terminal having a mobile phone function and an administrator who manages the function of this terminal, and sound data transmitted to the administrator via the terminal is humming, scat, singing voice, etc. The voice analysis means for analyzing the transmitted voice and the voice data analyzed by the voice analysis means are approximated to the voice data in accordance with the rules constituting music. A music processing unit for reorganization and a unit for storing music data output from the music processing unit, and predetermined music data in accordance with a request from a terminal user from the stored music data A system for processing and using sound information, characterized in that the sound information is output to a predetermined target. 前記音楽化処理手段にはリズムデータを格納した手段が接続し、音楽化処理された音楽データを選択された特定のリズムで構成するようにしたことを特徴とする請求項1記載の音情報の処理・利用システム。 2. The sound information according to claim 1, wherein means for storing rhythm data is connected to said music processing means, and the music data subjected to music processing is constituted by a selected specific rhythm. Processing / use system. 前記音楽化処理手段には楽器音データを格納した手段が接続し、音楽化処理された音楽データを特定の楽器音で構成するようにしたことを特徴とする請求項1又は2記載の音情報の処理・利用システム。 3. The sound information according to claim 1, wherein a means for storing musical instrument sound data is connected to the music conversion processing means, and the music data subjected to the music conversion processing is constituted by a specific musical instrument sound. Processing and usage system. 前記音楽化処理手段には人声データを格納した手段が接続し、音楽化処理された音楽データを特定の人声で構成するようにしたことを特徴とする請求項1又は2記載の音情報の処理・利用システム。 3. The sound information according to claim 1, wherein means for storing voice data is connected to the music processing means, and the music data subjected to the music processing is constituted by a specific voice. Processing and usage system. 携帯電話機能を有する端末機とこの端末機の機能を管理する管理者との間に成立するシステムであって、端末機を介して管理者に送信される音データは、自然音又は人工音であり、管理者側には送信された自然音又は人工音に対してその種類毎に分類するコードを付与する手段と、分類された音情報をこのコードに基づいて格納する音データベースと、端末機利用者から発信される用途別利用情報により前記分類された音情報を用途別に区分する用途別データとを有し、蓄積された音データのうちから端末機利用者の要求に応じて、所定の音データを所定の対象に出力するよう構成したことを特徴とする音情報の処理・利用システム。 The system is established between a terminal having a mobile phone function and an administrator who manages the function of the terminal. Sound data transmitted to the administrator through the terminal is a natural sound or an artificial sound. There are means for assigning a code for classifying the transmitted natural sound or artificial sound for each type to the administrator side, a sound database for storing the classified sound information based on this code, and a terminal Use-specific data for classifying the classified sound information by use according to the use-specific use information transmitted from the user, and according to the request of the terminal user from the stored sound data, a predetermined A sound information processing / utilizing system configured to output sound data to a predetermined target. 前記用途別データを蓄積した手段に対して音楽データを重畳させる手段が接続することを特徴とする請求項5記載の音情報の処理・利用システム。 6. The sound information processing / utilizing system according to claim 5, wherein means for superimposing music data is connected to the means for storing the application-specific data. 前記用途別データに対しては管理者に出力された利用情報に対応して送信先を決定する手段が接続し、端末機利用者の利用情報に対応して所定の音情報を所定の送信先に送信するよう構成したことを特徴とする請求項5又は6記載の音情報の処理・利用システム。 A means for determining a transmission destination corresponding to the usage information output to the administrator is connected to the use-specific data, and predetermined sound information is sent to the predetermined transmission destination corresponding to the usage information of the terminal user. 7. The sound information processing / utilizing system according to claim 5, wherein the sound information is transmitted to the sound information.
JP2008207004A 2008-08-11 2008-08-11 Processing of sound information and utilization system therefor Pending JP2010044162A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008207004A JP2010044162A (en) 2008-08-11 2008-08-11 Processing of sound information and utilization system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008207004A JP2010044162A (en) 2008-08-11 2008-08-11 Processing of sound information and utilization system therefor

Publications (1)

Publication Number Publication Date
JP2010044162A true JP2010044162A (en) 2010-02-25

Family

ID=42015609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008207004A Pending JP2010044162A (en) 2008-08-11 2008-08-11 Processing of sound information and utilization system therefor

Country Status (1)

Country Link
JP (1) JP2010044162A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234027A (en) * 2011-04-28 2012-11-29 Troche:Kk Electric musical instrument

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045103A (en) * 1999-07-30 2001-02-16 Sony Corp Telephone system
JP2001265338A (en) * 2000-03-22 2001-09-28 Funai Electric Co Ltd Mobile phone and input sound identifying method
JP2001339477A (en) * 2000-03-22 2001-12-07 Namco Ltd Incoming call tone generation system
JP2004072254A (en) * 2002-08-02 2004-03-04 Fuji Photo Film Co Ltd Code data generating server, data processing server, and sound data conversion system
JP2004193840A (en) * 2002-12-10 2004-07-08 Netsurvivor:Kk Ringer tone providing system
JP2005123827A (en) * 2003-10-15 2005-05-12 Zen:Kk Portable terminal device and program
JP2006025132A (en) * 2004-07-07 2006-01-26 Snk Playmore Corp Data supply server, mobile communication terminal, data supply method and program
JP2008042499A (en) * 2006-08-04 2008-02-21 Sharp Corp Sound volume control device and voice data reproducing device using the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045103A (en) * 1999-07-30 2001-02-16 Sony Corp Telephone system
JP2001265338A (en) * 2000-03-22 2001-09-28 Funai Electric Co Ltd Mobile phone and input sound identifying method
JP2001339477A (en) * 2000-03-22 2001-12-07 Namco Ltd Incoming call tone generation system
JP2004072254A (en) * 2002-08-02 2004-03-04 Fuji Photo Film Co Ltd Code data generating server, data processing server, and sound data conversion system
JP2004193840A (en) * 2002-12-10 2004-07-08 Netsurvivor:Kk Ringer tone providing system
JP2005123827A (en) * 2003-10-15 2005-05-12 Zen:Kk Portable terminal device and program
JP2006025132A (en) * 2004-07-07 2006-01-26 Snk Playmore Corp Data supply server, mobile communication terminal, data supply method and program
JP2008042499A (en) * 2006-08-04 2008-02-21 Sharp Corp Sound volume control device and voice data reproducing device using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234027A (en) * 2011-04-28 2012-11-29 Troche:Kk Electric musical instrument

Similar Documents

Publication Publication Date Title
US7693719B2 (en) Providing personalized voice font for text-to-speech applications
JP5225847B2 (en) Information processing terminal, music information generation method, and program
JP5966326B2 (en) Masker sound output device, masker sound output system, and program
JP2009112000A6 (en) Method and apparatus for creating and distributing real-time interactive content on wireless communication networks and the Internet
JP3589216B2 (en) Speech synthesis system and speech synthesis method
EP2380170B1 (en) Method and system for adapting communications
CN110379401A (en) A kind of music is virtually chorused system and method
US8768406B2 (en) Background sound removal for privacy and personalization use
CN115004297A (en) Traffic management device and method
US20030120492A1 (en) Apparatus and method for communication with reality in virtual environments
KR20080037402A (en) Method for making of conference record file in mobile terminal
JP2010044162A (en) Processing of sound information and utilization system therefor
TW529018B (en) Terminal apparatus, guide voice reproducing method, and storage medium
JP2007187748A (en) Sound selective processing device
JP5747490B2 (en) Masker sound generation device, masker sound output device, and masker sound generation program
KR100509126B1 (en) Audio melody tune generation device and portable terminal device using it
JP2007259427A (en) Mobile terminal unit
JP2002101203A (en) Speech processing system, speech processing method and storage medium storing the method
US20040054524A1 (en) Speech transformation system and apparatus
JPWO2007015319A1 (en) Audio output device, audio communication device, and audio output method
CN1857028B (en) Loudspeaker sensitive sound reproduction
Young Proximity/Infinity
RU66103U1 (en) DEVICE FOR PROCESSING SPEECH INFORMATION FOR MODULATION OF INPUT VOICE SIGNAL BY ITS TRANSFORMATION INTO OUTPUT VOICE SIGNAL
JPH03145698A (en) Voice synthesizing device
JPH09152890A (en) Audio equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130528