JP2014501941A - クライアント端末機を用いた音楽コンテンツ製作システム - Google Patents

クライアント端末機を用いた音楽コンテンツ製作システム Download PDF

Info

Publication number
JP2014501941A
JP2014501941A JP2013539785A JP2013539785A JP2014501941A JP 2014501941 A JP2014501941 A JP 2014501941A JP 2013539785 A JP2013539785 A JP 2013539785A JP 2013539785 A JP2013539785 A JP 2013539785A JP 2014501941 A JP2014501941 A JP 2014501941A
Authority
JP
Japan
Prior art keywords
music
client terminal
unit
lyrics
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013539785A
Other languages
English (en)
Inventor
ハク ヨム,ジョン
モ カン,ウォン
Original Assignee
チジェンス カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by チジェンス カンパニー リミテッド filed Critical チジェンス カンパニー リミテッド
Publication of JP2014501941A publication Critical patent/JP2014501941A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/126Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本発明は、クライアント端末機を用いた音楽コンテンツ製作システムに関し、より詳細には、コンピューター音声合成技術を用いて音楽ボーカルコンテンツを生成する技術でオンライン又はクラウドコンピューター、エンベデッド端末機などのクライアント端末機において任意の歌詞、音階、音長、唱法などの多様な音楽情報を入力すると、音階による韻律を示す音声を該当の音長で発声して行う音声に合成してクライアント端末機に伝達するクライアント端末機を用いた音楽コンテンツ製作システムに関する。
【選択図】図1

Description

本発明は、クライアント端末機を用いた音楽コンテンツ製作システムに関し、より詳細には、コンピューター音声合成技術を用いて音楽ボーカルコンテンツを生成する技術でオンライン又はクラウドコンピューター、エンベデッド端末機などのクライアント端末機において任意の歌詞、音階、音長、唱法などの多様な音楽情報を入力すると、音階による韻律を示す音声を該当の音長で発声して行う音声に合成してクライアント端末機に伝達するクライアント端末機を用いた音楽コンテンツ製作システムに関する。
従来の音声合成技術は、単純に入力されたテキスト文字を対話体形態の音声に出力し、ARS(自動応答サービス)、音声案内、ナビゲーション音声案内などの単純情報伝達機能に限定して使用されていた。
したがって、単純情報伝達機能以外に人間の全ての声機能を再現できる技術を活用して歌、作曲、ドラマ声優、知能型ロボットなどの多様なサービスに適用できる文字音声合成技術が要求されている。
そして、既存の音楽用音声合成技術においては、PC環境では歌詞編集と音声合成などの音楽生成のための一連の過程が一つのシステムで行われる。
しかし、携帯電話或いはスマートフォン環境、オンライン及びクラウドコンピューター環境では、CPU性能の制約、メモリの限界などにより、音声合成に必要な大容量のDBを迅速に処理するのに問題があり、多重接続による性能に制約が伴うしかなかった。
このような問題を解決するために、本発明では、クライアント―サーバー構造の音楽用音声合成システムを提案する。
したがって、本発明は、前記のような従来技術の問題を勘案して提案されたもので、本発明の目的は、オンライン、携帯電話、PDA、スマートフォンなどの多様なエンベデッド端末機のクライアント環境で歌詞の文字音声合成(TTS:text to speech)を用いて任意の歌詞、音階、音長によって合成された歌を出力したり、背景音楽と歌詞に該当する歌を合成してクライアント環境に伝送することにある。
本発明の他の目的は、任意の歌詞、音階、音長、音楽効果、背景音楽の設定、ビート/テンポなどの音楽に必要な要素を加工してデジタルコンテンツ形態に製作することができ、各種言語の特性に応じて歌詞に該当するテキストを分析し、歌詞と音声を合成して各種の音楽的効果を示すことができる音楽用音声合成方法を提供することにある。
本発明の更に他の目的は、音声合成伝送サーバーを別途に構成し、音声合成サーバーで音楽用音声合成情報をクライアント端末機に迅速に伝達することによって性能低下の問題を解決することにある。
本発明が解決しようとする課題を達成するために、
本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムは、
歌詞及び音源を編集し、ピアノの鍵盤位置に沿った音を再生させ、ボーカルエフェクトを編集したり、ボーカルに該当する歌手音源及びトラックを編集した音楽情報を音声合成サーバーに送出し、音声合成サーバーで合成及び加工された音楽を再生させるクライアント端末機と;
前記クライアント端末機から送出された音楽情報を獲得し、歌詞に該当する音源を抽出して合成及び加工する音声合成サーバーと;
前記音声合成サーバーから生成された音楽をクライアント端末機に送出する音声合成伝送サーバーと;を含んで構成される。
以上の構成及び作用を有する本発明に係るクライアント端末機を用いた音楽コンテンツ製作システムは、誰もが容易に音楽コンテンツをモバイル環境で編集できれば、音楽コンテンツを音楽用音声に合成して再びユーザーに提供することによって、個人が創作したコンテンツをオンライン、オフラインで流通することができ、携帯電話においてベル音、呼び出し音(RBT、Ring Back Tone)などの音楽コンテンツ応用付加サービスに用いることができ、多様な形態の携帯用機器において音楽再生、音声案内に用いることができ、ARS(自動応答システム)、ナビゲーション(地図案内装置)において人と似たイントネーションで音声案内サービスを提供することができ、人工知能ロボット装置において人と似たイントネーションで話し歌うようにするという効果を提供する。
また、ドラマやアニメーションコンテンツ製作において、声優に取って代わる自然な人のイントネーションを表現できるより良い効果を提供する。
また、音声合成伝送サーバーを別途に構成し、音声合成サーバーで音楽用音声合成情報をクライアント端末機に迅速に伝達することによって性能低下の問題を解決し、多数の顧客達に音源サービスを迅速に提供できるという効果を提供する。
本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムの全体構成図である。 本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムのクライアント端末機のブロック図である。 本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムの音声合成サーバーのブロック図である。 本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムの音声合成伝送サーバーのブロック図である。 本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムのクライアント端末機に出力される製作プログラムを示した画面である。
前記課題を達成するための本発明に係るクライアント端末機を用いた音楽コンテンツ製作システムは、
クライアント端末機を用いた音楽コンテンツ製作システムにおいて、
歌詞及び音源を編集し、ピアノの鍵盤位置に沿った音を再生させ、ボーカルエフェクトを編集したり、ボーカルに該当する歌手音源及びトラックを編集した音楽情報を音声合成サーバーに送出し、音声合成サーバーで合成及び加工された音楽を再生させるクライアント端末機と;
前記クライアント端末機から送出された音楽情報を獲得し、歌詞に該当する音源を抽出して合成及び加工する音声合成サーバーと;
前記音声合成サーバーから生成された音楽をクライアント端末機に送出する音声合成伝送サーバーと;を含んで構成されることを特徴とする。
このとき、前記クライアント端末機は、
歌詞を編集する歌詞編集部と、
音源を編集する音源編集部と、
ボーカルエフェクトを編集するボーカルエフェクト編集部と、
ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部と、
音声合成伝送サーバーから音声合成サーバーで合成された信号を受けて再生させる再生部とを含んで構成されることを特徴とする。
このとき、他の様相に係る前記クライアント端末機は、
歌詞を編集する歌詞編集部と、
音源を編集する音源編集部と、
ピアノの鍵盤位置に沿った音を再生する仮想ピアノ楽器部と、
ボーカルエフェクトを編集するボーカルエフェクト編集部と、
ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部と、
音声合成伝送サーバーから音声合成サーバーで合成された信号を受けて再生させる再生部とを含んで構成されることを特徴とする。
このとき、前記音声合成サーバーは、
クライアント端末機から送出された歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果を獲得する音楽情報獲得部と、
前記音楽情報獲得部によって獲得された歌詞の文章を分析し、これを言語的特性に応じて定義された形態に変換する構文分析部と、
前記構文分析部によって分析されたデータを音素基盤に変換する発音変換部と、
前記構文分析部及び発音変換部によって分析された歌詞に該当する最適音素を事前に定義された規則に従って選択する最適音素選択部と、
前記音楽情報獲得部によって獲得された歌手情報を獲得し、前記最適音素選択部を通して選択された音素に該当する音源を音源データベースから選択することによって、前記の獲得された歌手情報の音源を選択する音源選択部と、
歌詞の文章特性に応じて前記最適音素選択部によって選択された最適の音素を獲得し、最適の各音素をつなぎ合わせて合成するときに長さとピッチを制御する韻律制御部と、
前記韻律制御部によって合成された歌詞の文章を獲得し、前記音楽情報獲得部によって獲得された音階、音長、ビート、テンポによって再生されるように獲得された歌詞の文章をマッチングさせる音声変換部と、
前記音声変換部によって変換された音声を獲得し、前記音楽情報獲得部によって獲得された音楽効果によって再生されるように前記の変換された音声に音色をマッチングさせる音色変換部と、
前記音楽情報獲得部によって獲得された背景音楽情報と前記音色変換部によって最終的に変換された音色を合成する歌及び背景音楽合成部とを含んで構成されることを特徴とする。
このとき、前記音楽情報獲得部は、
歌詞情報を獲得する歌詞情報獲得部と、
音源データベースに格納された背景音楽音源から選ばれた背景音楽音源情報を獲得する背景音楽情報獲得部と、
ユーザーによって調節されたボーカルエフェクト情報を獲得するボーカルエフェクト獲得部と、
歌手情報を獲得する歌手情報獲得部とを含んで構成されることを特徴とする。
また、仮想ピアノ楽器でユーザーによって選択されたピアノの鍵盤位置情報を獲得するピアノ鍵盤位置獲得部をさらに含んで構成されることを特徴とする。
このとき、前記音声合成伝送サーバーは、
多数のクライアント端末機が同時に音声合成サーバーに接続して音声合成を要請できるように、クライアント端末機の音楽合成要請を順次的或いは並列的に管理するクライアント多重接続管理部と、
制約されたネットワーク環境で効率的な音楽データを伝送するために音楽データを圧縮する音楽データ圧縮処理部と、
クライアント端末機の音楽合成要請に応じて合成された音楽情報をクライアントに伝送する音楽データ伝送部と、
移動通信社のベル音サービス、呼び出し音サービスに音声合成基盤の音楽コンテンツを提供するために音楽コンテンツを外部システムに伝達する付加サービスインターフェース処理部とを含んで構成されることを特徴とする。
以下、本発明に係るクライアント端末機を用いた音楽コンテンツ製作システムの実施例を詳細に説明する。
図1は、本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムの全体構成図である。
図1に示したように、本発明に係るクライアント端末機を用いた音楽コンテンツ製作システムは、大きく、クライアント端末機、音声合成サーバー、音声合成伝送サーバー及びこれをネットワークで連結するネットワーク網を含んで構成される。
前記クライアント端末機は、歌詞及び音源を編集し、ピアノの鍵盤の位置に沿った音を再生させ、ボーカルエフェクトを編集したり、ボーカルに該当する歌手音源及びトラックを編集した音楽情報を音声合成サーバーに送出し、音声合成サーバーで合成及び加工された音楽を再生させる。前記音声合成サーバーは、クライアント端末機から送出された音楽情報を獲得し、歌詞に該当する音源を抽出して合成及び加工する。前記音声合成伝送サーバーは、音声合成サーバーから生成された音楽をクライアント端末機に送出する。
図2は、本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムのクライアント端末機のブロック図である。
図2に示したように、クライアント端末機200は、
歌詞を編集する歌詞編集部210と、
音源を編集する音源編集部220と、
ボーカルエフェクトを編集するボーカルエフェクト編集部240と、
ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部250と、
音声合成伝送サーバーから音声合成サーバーで合成された信号を受けて再生させる再生部260とを含んで構成される。
また、付加的な様相によって、ピアノの鍵盤位置に沿った音を再生する仮想ピアノ楽器部230をさらに含んで構成することもできる。
前記編集機能を行うために、ユーザーのクライアント端末機には、図5に示したように、本発明のシステムを活用するための製作プログラムが搭載される。
このとき、前記製作プログラムには、ユーザーが歌詞を編集できる歌詞編集領域410、背景音楽を編集できる背景音楽編集領域420、ユーザーがピアノの鍵盤を操作できる仮想ピアノ楽器領域430、ユーザーがボーカルエフェクトを編集できるボーカルエフェクト編集領域440、歌手或いはトラックを編集できる歌手設定領域450、ユーザーがファイル、編集、オーディオ、表示、作業、トラック、歌詞、設定、唱法、ヘルプなどを選択できる設定領域460が含まれ、これらが画面に出力されると、ユーザーは所望の編集を行えるようになる。
前記歌詞編集領域410は、言語の最小単位(音節)を入力することができ、各音節の音を表示し、発音記号を表示する。
また、前記歌詞編集領域410は、各音節に該当する音階(Pitch)、音長(Length)の属性を有する。
前記背景音楽編集領域420は、WAV、MP3などの従来の音源を入力して編集することができる。
前記仮想ピアノ楽器領域430は、ピアノ楽器に該当する機能を提供するもので、各ピアノの鍵盤位置に沿った音を再生することができる。
前記歌手設定領域450は、ボーカルに該当する歌手音源を選択することができ、多様なトラックを編集できる機能を提供し、多くの歌手を設定できる機能を行う。
前記設定領域460は、多様な歌の技法を設定できる唱法設定、編集基本単位音符、編集画面オプションなどを設定することができる。
前記各領域は、歌詞を編集する歌詞編集部210と、音源を編集する音源編集部220と、ボーカルエフェクトを編集するボーカルエフェクト編集部240と、ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部250を通して提供され、前記編集部で編集された情報を中央制御部(図示せず)で獲得して音声合成伝送サーバーに送出する。
このとき、前記音声合成伝送サーバー300は、
多数のクライアント端末機が同時に音声合成サーバーに接続して音声合成を要請できるように、クライアント端末機の音楽合成要請を順次的或いは並列的に管理するクライアント多重接続管理部310と、
制約されたネットワーク環境で効率的な音楽データを伝送するために音楽データを圧縮する音楽データ圧縮処理部320と、
クライアント端末機の音楽合成要請に応じて合成された音楽情報をクライアントに伝送する音楽データ伝送部330と、
移動通信社のベル音サービス、呼び出し音サービスに音声合成基盤の音楽コンテンツを提供するために音楽コンテンツを外部システムに伝達する付加サービスインターフェース処理部340とを含んで構成される。
前記クライアント多重接続管理部310は、多数のクライアント端末機が同時に音声合成サーバーに接続して音声合成を要請できるように、クライアント端末機の音楽合成要請を順次的或いは並列的に管理する機能を行う。
すなわち、 前記クライアント多重接続管理部310は、クライアント端末機で接続される時間によって順次処理するための順序を管理する。
前記音楽データ圧縮処理部320は、制約されたネットワーク環境で効率的な音楽データを伝送するために音楽データを圧縮するためのもので、前記クライアント端末機で音楽合成要請データを受けて圧縮を行い、音声合成サーバーに圧縮を解くための復号化部が存在することは当然である。
以後、音楽データ伝送部330では、クライアント端末機の音楽合成要請に応じて合成された音楽情報をクライアントに伝送する。
また、音声合成サーバーで合成された音楽情報を再びクライアント端末機に送出するときにも、前記音楽データ伝送部を用いることは当然である。
一方、付加サービスインターフェース処理部340は、移動通信社のベル音サービス、呼び出し音サービスに音声合成基盤の音楽コンテンツを提供するために音楽コンテンツを外部システムに伝達する機能を行うが、各クライアントが創作した音楽コンテンツをオンラインで流通する役割をする。
前記外部システムは、本発明の音声合成サーバーで提供される音楽コンテンツを受けるためのシステムであって、例えば、ベル音サービスを提供する移動通信社サーバー、呼び出し音サービスを提供する移動通信社サーバーなどを意味する。
図3は、本発明の一実施例に係るクライアント端末機を用いた音楽コンテンツ製作システムの音声合成サーバーのブロック図である。
図3に示したように、本発明の音声合成サーバー100は、
クライアント端末機から送出された歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果を獲得する音楽情報獲得部110と、
前記音楽情報獲得部によって獲得された歌詞の文章を分析し、これを言語的特性に応じて定義された形態に変換する構文分析部120と、
前記構文分析部によって分析されたデータを音素基盤に変換する発音変換部130と、
前記構文分析部及び発音変換部によって分析された歌詞に該当する最適音素を事前に定義された規則に従って選択する最適音素選択部140と、
前記音楽情報獲得部によって獲得された歌手情報を獲得し、前記最適音素選択部を通して選択された音素に該当する音源を音源データベースから選択することによって、前記の獲得された歌手情報の音源を選択する音源選択部150と、
歌詞の文章特性に応じて前記最適音素選択部によって選択された最適の音素を獲得し、最適の各音素をつなぎ合わせて合成するときに長さとピッチを制御する韻律制御部160と、
前記韻律制御部によって合成された歌詞の文章を獲得し、前記音楽情報獲得部によって獲得された音階、音長、ビート、テンポによって再生されるように獲得された歌詞の文章をマッチングさせる音声変換部170と、
前記音声変換部によって変換された音声を獲得し、前記音楽情報獲得部によって獲得された音楽効果によって再生されるように前記の変換された音声に音色をマッチングさせる音色変換部180と、
前記音楽情報獲得部によって獲得された背景音楽情報と前記音色変換部によって最終的に変換された音色を合成する歌及び背景音楽合成部190とを含んで構成される。
前記音楽情報獲得部110は、音楽再生のためにクライアント端末機から送出された歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果を獲得する。
すなわち、図5に示した文字音声合成を用いて音楽コンテンツを作業者が行えるように、音楽コンテンツ製作プログラムを本発明のクライアント端末機に搭載して画面に出力する。
前記歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果の情報などを音楽情報データベース195に格納して管理し、前記クライアントが選択した音楽再生に必要な情報を参照して音楽情報獲得部で音楽情報データベースに格納された該当の情報を獲得する。
音楽コンテンツの製作に必要な各種動作モードをユーザーが選択できるように製作プログラムをユーザーの端末機画面に出力し、ユーザーがこれを見て音楽再生のために入力された歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果、唱法などを選択すると、該当の選択された情報が音声合成サーバーに送出されて音楽情報獲得部110で獲得される。
このとき、前記音楽情報獲得部によって獲得された歌詞の文章を構文分析部120を通して分析し、これを言語的特性に応じて定義された形態に変換する。
前記言語的特性とは、韓国語の場合、構文が主語、目的語、動詞、助詞、副詞などからなり、羅列する順序があるが、これを言語的特性と定義しており、英語や日本語などの全ての言語がこのような特性を有している。
前記の定義された形態は言語の形態素で区分することを意味し、形態素は、言語において意味を有する最小の単位である。
例えば、‘ドンヘムルグァ ベクドゥサンイ(東海水と白頭山が)’という文章は、‘ドンヘムル(東海水)’+‘グァ(と)’+‘ベクドゥサン(白頭山)’+‘イ(が)’のような形態素で区分される。
前記形態素で区分した後、文章成分を分析するが、例えば、‘ドンヘムル(東海水)’=名詞、‘グァ(と)’=助詞、‘ベクドゥサン(白頭山)’=名詞、‘イ(が)’=助詞などのように、名詞、助詞、副詞、形容詞、動詞などに文章成分を分析する。
すなわち、選択された歌詞が韓国語であれば、韓国語の特性に応じて定義された形態に変換する。
前記構文分析部によって分析されたデータを発音変換部130から受けて音素基盤に変換し、最適音素選択部140を通して前記構文分析部及び発音変換部によって分析された歌詞に該当する最適音素を事前に定義された規則に従って選択する。
前記発音変換部は音素基盤に変換し、構文分析された文章をハングル読み規則に従って発音形態に変換する。
例えば、‘ドンヘムルグァ ベクドゥサンイ(東海水と白頭山が)’は、‘ドンヘムルガ ベクトゥサニ’のように表現され、これを音素基盤に区分すると、‘ドンヘムルグァ(東海水と)’は、‘ド+オン+Oヘ+ウム+ムル+ウルガ’のように変換される。
分析された歌詞が‘ドンヘムル(東海水)’である場合、最適音素は、例えば、ド、オン、Oヘ、エム、ムル、ウルガなどになり、前記最適音素選択部140がこれを選択する。
前記音源選択部150は、音楽情報獲得部によって獲得された歌手情報を獲得し、前記最適音素選択部を通して選択された音素に該当する音源を音源データベース196から選択することによって、前記の獲得された歌手情報の音源を選択する。
すなわち、歌手として‘ソニョシデ(少女時代)’を選択すると、‘ソニョシデ(少女時代)’に該当する音源を音源DBから選択する。
歌手情報以外にトラック情報を提供することもできるので、ユーザーが歌手以外にトラックを選択した場合、該当のトラック情報提供も可能である。
前記韻律制御部160は、歌詞の文章特性に応じて前記最適音素選択部によって選択された最適の音素を獲得し、自然な発声を出せるように最適の各音素をつなぎ合わせて合成するときに長さとピッチを制御する。
前記文章特性は、連音法則、口蓋音化などの文章を発音に変換するときに適用される法則、すなわち、文字で表現する表現記号と発音記号が変わる言語規則を意味する。
前記長さは、歌詞に該当する音長、すなわち、1、2、3拍子の長さを意味し、ピッチは、歌詞の音階、すなわち、‘ドレミファソラシド'などの音楽で定義した音の高さを意味する。
すなわち、 前記韻律制御部160は、文章の特性に応じて自然な発声を出せるように音素をつなぎ合わせて合成するときに長さとピッチを制御する役割をする。
前記音声変換部170は、韻律制御部によって合成された歌詞の文章を獲得し、前記音楽情報獲得部によって獲得された音階、音長、ビート、テンポによって再生されるように獲得された歌詞の文章をマッチングさせる役割をする。
すなわち、 前記音声変換部170は、歌詞に該当する音源を音階、音長、ビート、テンポによって音声に変換する機能を行うが、例えば、‘ドン'に該当する音源を‘ソ'という音階(ピッチ)、1拍子の音長、4/4拍子のビート、120のテンポで再生する。
前記音階(Pitch)は、音の高さを意味し、音の高さをユーザーが容易に指定できるように、本発明では仮想ピアノ楽器機能を提供している。
前記音長は音の長さを意味し、音楽の楽譜のように音符を提供して音長の編集を容易にする。
基本的に提供する音符は、1分音符(1)、2分音符(1/2)、4分音符(1/4)、8分音符(1/8)、16分音符(1/16)、32分音符(1/32)、64分音符(1/64)である。
前記ビート(Beat)は音楽での拍子の単位で、1/2拍子、1/4拍子、1/8拍子などがある。
分母に該当する数字は(1,2,4,8,16,32,64)で、分子に該当する数字は(1〜256)である。
前記テンポ(Tempo)は、音楽の楽曲進行速度を意味し、通常(20〜300)数字を提供し、数字が小さいほど遅い速度を意味し、数字が大きいほど速い速度を意味する。
通常、一拍子の長さの速度を120とする。
前記音色変換部180は、音声変換部によって変換された音声を獲得し、前記音楽情報獲得部によって獲得された音楽効果(vocal effect)或いは唱法によって再生されるように前記の変換された音声に音色をマッチングさせる役割をする。
例えば、‘ドン’という音源にバイブレーション、アタックなどの音楽効果を与えて音色に変化を与える。
前記音楽効果及び唱法は、音楽的効果を極大化させる機能を提供するためのもので、音楽効果は、人の自然な発声法を支援するための機能として次のように音色を変換させる。
図5に示したように、製作プログラムにおいては、VEL(velocity)、DYN(dynamics)、BRE(Breathiness)、BRI(Brightness)、CLE(Clearness)、OPE(Opening)、GEN(Gender Factor)、POR(Portamento Timing)、PIT(Pitch Bend)、PBS(Pitch Bend Sensitivity)、VIB(Vibration)などをクライアント端末機に提供する。
前記VEL(velocity)は、アタックであって、値を高くすると子音が短くなり、アタック感が強くなる。前記DYN(dynamics)は、強弱であり歌手のダイナミックス(音の大きさ、柔らかさ)を制御する。
前記BRE(Breathiness)は、値が高いと息づかいが加えられることを意味し、BRI(Brightness)は、音が高い周波数成分を増減させるもので、値が高いと明るい音を提供し、値が低いと暗く且つ穏やかな音を提供する。
前記CLE(Clearness)は、BRIと類似するが、原理が異なるもので、値が高いとシャープで且つ清い音を提供し、値が低いと低く且つ重い音を提供する。
前記OPE(Opening)は、口を開く状態によってトーンが変わる様子をシミュレートするもので、値が高いと鮮明な特性を提供し、値が低いと清らかでない特性を提供する。
前記GEN(Gender Factor)は、歌手のキャラクターを広範囲に変形するもので、値が高いと男性的な感じを提供し、値が低いと女性的な感じを提供する。
前記POR(Portamento Timing)は、ピッチが変わるポイントを調整するもので、前記PIT(Pitch Bend)は、ピッチに対するEQバンドを調整するもので、前記PBS(Pitch Bend Sensitivity)は、ピッチ調整に対する感度や感性の調整を行い、前記VIB(Vibration)は音の震えを調整する機能を行う。
唱法は、人の歌う方法を意味し、ボーカルの音源をボーカル音楽効果などの技法で加工して多様な唱法を具現する。
例えば、唱法は、女性の声、男性の声、子供の声、ロボットの声、ポップ、クラシック、トロット(韓国の大衆歌謡の一つ)などの歌の技法を提供する。
また、音楽情報獲得部によって獲得された背景音楽情報と前記音色変換部によって最終的に変換された音色を合成する歌及び背景音楽合成部190を含んで構成される。
例えば、‘ドンヘムルグァ ベクドゥサンイ(東海水と白頭山が)’という音源を再生させるとき、該当の歌の背景音楽(通常、楽器で演奏される音楽)を合成する。
すなわち、前記の変換された最終音色に背景音楽を合成し、完成した形態の音楽を出力する。
前記のような音楽情報を獲得するための音楽情報獲得部110は、
歌詞情報を獲得する歌詞情報獲得部(図示せず)と、
音源データベースに格納された背景音楽音源から選ばれた背景音楽音源情報を獲得する背景音楽情報獲得部(図示せず)と、
ユーザーによって調節されたボーカルエフェクト情報を獲得するボーカルエフェクト獲得部(図示せず)と、
歌手情報を獲得する歌手情報獲得部(図示せず)とを含んで構成される。
また、付加的な様相によって、画面に出力された仮想ピアノ楽器でユーザーによって選択されたピアノの鍵盤位置情報を獲得するピアノ鍵盤位置獲得部(図示せず)をさらに含んで構成することもできる。
前記のピアノの鍵盤位置情報は、ピアノ楽器に該当する各鍵盤の音の高さ(ピッチ)に該当する周波数を予め定義して提供する。
前記のような構成及び動作を通して誰もが容易に音楽コンテンツをモバイル環境で編集できれば、音楽コンテンツを音楽用音声に合成して再びユーザーに提供することによって、個人が創作したコンテンツをオンライン、オフラインで流通することができ、携帯電話でベル音、呼び出し音(RBT、Ring Back Tone)などの音楽コンテンツ応用付加サービスに用いることができ、多様な形態の携帯用機器で音楽再生、音声案内に用いることができ、ARS(自動応答システム)、ナビゲーション(地図案内装置)で人と似たイントネーションで音声案内サービスを提供することができ、人工知能ロボット装置で人と似たイントネーションで話し歌うことができるという効果を提供する。
以上説明した内容の本発明の属する技術分野の当業者は、本発明の技術的思想や必須特徴を変更せずとも他の具体的な形態で実施可能であることを理解できるだろう。従って、以上で記述した各実施例は、全ての面で例示的なものであって、限定的なものではないと理解しなければならない。
本発明の範囲は、前記詳細な説明よりは、後述する特許請求の範囲によって示されており、特許請求の範囲の意味及び範囲、そして、その等価概念から導出される全ての変更又は変形された形態が本発明の範囲に含まれると解釈しなければならない。
本発明は、誰もが容易に音楽コンテンツをモバイル環境で編集できれば、音楽コンテンツを音楽用音声に合成して再びユーザーに提供することによって、個人が創作したコンテンツをオンライン、オフラインで流通することができ、携帯電話でベル音、呼び出し音(RBT、Ring Back Tone)などの音楽コンテンツ応用付加サービスに用いることができ、音楽コンテンツ製作分野で広く活用することができる。
100:音声合成サーバー、200:クライアント端末機、300:音声合成伝送サーバー

Claims (7)

  1. クライアント端末機を用いた音楽コンテンツ製作システムにおいて、
    歌詞及び音源を編集し、ピアノの鍵盤位置に沿った音を再生させ、ボーカルエフェクトを編集したり、ボーカルに該当する歌手音源及びトラックを編集した音楽情報を音声合成サーバーに送出し、音声合成サーバーで合成及び加工された音楽を再生させるクライアント端末機と;
    前記クライアント端末機から送出された音楽情報を獲得し、歌詞に該当する音源を抽出して合成及び加工する音声合成サーバーと;
    前記音声合成サーバーから生成された音楽をクライアント端末機に送出する音声合成伝送サーバーと;
    を含んで構成されることを特徴とするクライアント端末機を用いた音楽コンテンツ製作システム。
  2. 前記クライアント端末機は、
    歌詞を編集する歌詞編集部と、
    音源を編集する音源編集部と、
    ボーカルエフェクトを編集するボーカルエフェクト編集部と、
    ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部と、
    音声合成伝送サーバーから音声合成サーバーで合成された信号を受けて再生させる再生部と、を含んで構成されることを特徴とする、請求項1に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
  3. 前記クライアント端末機は、
    歌詞を編集する歌詞編集部と、
    音源を編集する音源編集部と、
    ピアノの鍵盤位置に沿った音を再生する仮想ピアノ楽器部と、
    ボーカルエフェクトを編集するボーカルエフェクト編集部と、
    ボーカルに該当する歌手音源を選択し、多くのトラックを編集する歌手及びトラック編集部と、
    音声合成伝送サーバーから音声合成サーバーで合成された信号を受けて再生させる再生部と、を含んで構成されることを特徴とする、請求項1に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
  4. 前記音声合成サーバーは、
    クライアント端末機から送出された歌詞、歌手、トラック、音階、音長、ビート、テンポ、音楽効果を獲得する音楽情報獲得部と、
    前記音楽情報獲得部によって獲得された歌詞の文章を分析し、これを言語的特性に応じて定義された形態に変換する構文分析部と、
    前記構文分析部によって分析されたデータを音素基盤に変換する発音変換部と、
    前記構文分析部及び発音変換部によって分析された歌詞に該当する最適音素を事前に定義された規則に従って選択する最適音素選択部と、
    前記音楽情報獲得部によって獲得された歌手情報を獲得し、前記最適音素選択部を通して選択された音素に該当する音源を音源データベースから選択することによって、前記の獲得された歌手情報の音源を選択する音源選択部と、
    歌詞の文章特性に応じて前記最適音素選択部によって選択された最適の音素を獲得し、最適の各音素をつなぎ合わせて合成するときに長さとピッチを制御する韻律制御部と、
    前記韻律制御部によって合成された歌詞の文章を獲得し、前記音楽情報獲得部によって獲得された音階、音長、ビート、テンポによって再生されるように獲得された歌詞の文章をマッチングさせる音声変換部と、
    前記音声変換部によって変換された音声を獲得し、前記音楽情報獲得部によって獲得された音楽効果によって再生されるように前記の変換された音声に音色をマッチングさせる音色変換部と、
    前記音楽情報獲得部によって獲得された背景音楽情報と前記音色変換部によって最終的に変換された音色を合成する歌及び背景音楽合成部と、を含んで構成されることを特徴とする、請求項1に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
  5. 前記音楽情報獲得部は、
    歌詞情報を獲得する歌詞情報獲得部と、
    音源データベースに格納された背景音楽音源から選ばれた背景音楽音源情報を獲得する背景音楽情報獲得部と、
    ユーザーによって調節されたボーカルエフェクト情報を獲得するボーカルエフェクト獲得部と、
    歌手情報を獲得する歌手情報獲得部と、を含んで構成されることを特徴とする、請求項4に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
  6. 仮想ピアノ楽器でユーザーによって選択されたピアノの鍵盤位置情報を獲得するピアノ鍵盤位置獲得部をさらに含んで構成されることを特徴とする、請求項4に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
  7. 前記音声合成伝送サーバーは、
    多数のクライアント端末機が同時に音声合成サーバーに接続して音声合成を要請できるように、クライアント端末機の音楽合成要請を順次的或いは並列的に管理するクライアント多重接続管理部と、
    制約されたネットワーク環境で効率的な音楽データを伝送するために音楽データを圧縮する音楽データ圧縮処理部と、
    クライアント端末機の音楽合成要請に応じて合成された音楽情報をクライアントに伝送する音楽データ伝送部と、
    移動通信社のベル音サービス、呼び出し音サービスに音声合成基盤の音楽コンテンツを提供するために音楽コンテンツを外部システムに伝達する付加サービスインターフェース処理部と、を含んで構成されることを特徴とする、請求項1に記載のクライアント端末機を用いた音楽コンテンツ製作システム。
JP2013539785A 2011-04-28 2012-04-17 クライアント端末機を用いた音楽コンテンツ製作システム Pending JP2014501941A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110040360A KR101274961B1 (ko) 2011-04-28 2011-04-28 클라이언트단말기를 이용한 음악 컨텐츠 제작시스템
KR10-2011-0040360 2011-04-28
PCT/KR2012/002897 WO2012148112A2 (ko) 2011-04-28 2012-04-17 클라이언트단말기를 이용한 음악 컨텐츠 제작시스템

Publications (1)

Publication Number Publication Date
JP2014501941A true JP2014501941A (ja) 2014-01-23

Family

ID=47072862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013539785A Pending JP2014501941A (ja) 2011-04-28 2012-04-17 クライアント端末機を用いた音楽コンテンツ製作システム

Country Status (6)

Country Link
US (1) US20140046667A1 (ja)
EP (1) EP2704092A4 (ja)
JP (1) JP2014501941A (ja)
KR (1) KR101274961B1 (ja)
CN (1) CN103503015A (ja)
WO (1) WO2012148112A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194840A (ja) * 2014-03-31 2015-11-05 株式会社エクシング 音楽再生システム
KR20220145675A (ko) * 2021-04-22 2022-10-31 국민대학교산학협력단 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5895740B2 (ja) * 2012-06-27 2016-03-30 ヤマハ株式会社 歌唱合成を行うための装置およびプログラム
JP5821824B2 (ja) * 2012-11-14 2015-11-24 ヤマハ株式会社 音声合成装置
JP5949607B2 (ja) * 2013-03-15 2016-07-13 ヤマハ株式会社 音声合成装置
KR101427666B1 (ko) * 2013-09-09 2014-09-23 (주)티젠스 악보 편집 서비스 제공 방법 및 장치
US9218804B2 (en) 2013-09-12 2015-12-22 At&T Intellectual Property I, L.P. System and method for distributed voice models across cloud and device for embedded text-to-speech
CN103701994A (zh) * 2013-12-30 2014-04-02 华为技术有限公司 一种自动应答的方法及装置
US20180268792A1 (en) * 2014-08-22 2018-09-20 Zya, Inc. System and method for automatically generating musical output
KR20170081160A (ko) 2014-08-22 2017-07-11 지아, 인크. 텍스트형 메시지를 음악 작품으로 자동 변환하는 시스템 및 방법
CN106409282B (zh) * 2016-08-31 2020-06-16 得理电子(上海)有限公司 一种音频合成系统、方法及其电子设备和云服务器
CN106782493A (zh) * 2016-11-28 2017-05-31 湖北第二师范学院 一种儿童家教机个性化语音控制和点播系统
CN107170432B (zh) * 2017-03-31 2021-06-15 珠海市魅族科技有限公司 一种音乐产生方法和装置
US10062367B1 (en) * 2017-07-14 2018-08-28 Music Tribe Global Brands Ltd. Vocal effects control system
CN107704534A (zh) * 2017-09-21 2018-02-16 咪咕音乐有限公司 一种音频转换方法及装置
JP7000782B2 (ja) * 2017-09-29 2022-01-19 ヤマハ株式会社 歌唱音声の編集支援方法、および歌唱音声の編集支援装置
CN108053814B (zh) * 2017-11-06 2023-10-13 芋头科技(杭州)有限公司 一种模拟用户歌声的语音合成系统及方法
CN108492817B (zh) * 2018-02-11 2020-11-10 北京光年无限科技有限公司 一种基于虚拟偶像的歌曲数据处理方法及演唱交互系统
CN108877753B (zh) * 2018-06-15 2020-01-21 百度在线网络技术(北京)有限公司 音乐合成方法及系统、终端以及计算机可读存储介质
KR102103518B1 (ko) * 2018-09-18 2020-04-22 이승일 인공지능을 이용한 텍스트 및 그림 데이터를 동영상 데이터로 생성하는 시스템
TWI685835B (zh) * 2018-10-26 2020-02-21 財團法人資訊工業策進會 有聲播放裝置及其播放方法
CN113470670B (zh) * 2021-06-30 2024-06-07 广州资云科技有限公司 电音基调快速切换方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132281A (ja) * 2000-10-26 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 歌声メッセージ生成・配信方法及びその装置
JP2003223178A (ja) * 2002-01-30 2003-08-08 Nippon Telegr & Teleph Corp <Ntt> 電子歌唱カード生成方法、受信方法、装置及びプログラム
JP2006071931A (ja) * 2004-09-01 2006-03-16 Fyuutorekku:Kk 音楽データ加工方法、音楽データ加工装置、音楽データ加工システム及びコンピュータプログラム
JP2006258846A (ja) * 2005-03-15 2006-09-28 Yamaha Corp 歌データ入力プログラム
JP2008165130A (ja) * 2007-01-05 2008-07-17 Yamaha Corp 歌唱音合成装置およびプログラム
JP2008233930A (ja) * 2008-05-22 2008-10-02 Yamaha Corp 音声データ処理装置及びプログラムを記録した媒体
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3890692B2 (ja) * 1997-08-29 2007-03-07 ソニー株式会社 情報処理装置及び情報配信システム
TW495735B (en) * 1999-07-28 2002-07-21 Yamaha Corp Audio controller and the portable terminal and system using the same
JP2002221980A (ja) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd テキスト音声変換装置
KR20030005923A (ko) * 2001-07-10 2003-01-23 류두모 음악과 α파로 정신집중을 통한 학습능력 향상을 위한인터넷 교육 시스템
US20140000440A1 (en) * 2003-01-07 2014-01-02 Alaine Georges Systems and methods for creating, modifying, interacting with and playing musical compositions
JP2005149141A (ja) * 2003-11-14 2005-06-09 Sammy Networks Co Ltd 音楽コンテンツ配信方法、音楽コンテンツ配信システム、プログラムおよびコンピューター読み取り可能な記録媒体
KR100615626B1 (ko) * 2004-05-22 2006-08-25 (주)디지탈플로우 음원과 가사를 하나의 파일로 제공하는 멀티미디어 음악컨텐츠 서비스 방법 및 시스템
KR20060119224A (ko) * 2005-05-19 2006-11-24 전우영 음악합성을 통한 지식가요 및 학습가요 장치 및 방법
KR20070039692A (ko) * 2005-10-10 2007-04-13 주식회사 팬택 음악 생성, 반주 및 녹음 기능을 구비한 이동통신 단말기
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
JP4296514B2 (ja) * 2006-01-23 2009-07-15 ソニー株式会社 音楽コンテンツ再生装置、音楽コンテンツ再生方法及び音楽コンテンツ再生プログラム
US8705765B2 (en) * 2006-02-07 2014-04-22 Bongiovi Acoustics Llc. Ringtone enhancement systems and methods
US7977562B2 (en) * 2008-06-20 2011-07-12 Microsoft Corporation Synthesized singing voice waveform generator
CN101840722A (zh) * 2009-03-18 2010-09-22 美商原创分享控股集团有限公司 线上影音编辑处理方法、装置及系统
US8731943B2 (en) * 2010-02-05 2014-05-20 Little Wing World LLC Systems, methods and automated technologies for translating words into music and creating music pieces

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132281A (ja) * 2000-10-26 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 歌声メッセージ生成・配信方法及びその装置
JP2003223178A (ja) * 2002-01-30 2003-08-08 Nippon Telegr & Teleph Corp <Ntt> 電子歌唱カード生成方法、受信方法、装置及びプログラム
JP2006071931A (ja) * 2004-09-01 2006-03-16 Fyuutorekku:Kk 音楽データ加工方法、音楽データ加工装置、音楽データ加工システム及びコンピュータプログラム
JP2006258846A (ja) * 2005-03-15 2006-09-28 Yamaha Corp 歌データ入力プログラム
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途
JP2008165130A (ja) * 2007-01-05 2008-07-17 Yamaha Corp 歌唱音合成装置およびプログラム
JP2008233930A (ja) * 2008-05-22 2008-10-02 Yamaha Corp 音声データ処理装置及びプログラムを記録した媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194840A (ja) * 2014-03-31 2015-11-05 株式会社エクシング 音楽再生システム
KR20220145675A (ko) * 2021-04-22 2022-10-31 국민대학교산학협력단 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치
KR102490769B1 (ko) * 2021-04-22 2023-01-20 국민대학교산학협력단 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치

Also Published As

Publication number Publication date
KR20120122295A (ko) 2012-11-07
WO2012148112A2 (ko) 2012-11-01
CN103503015A (zh) 2014-01-08
KR101274961B1 (ko) 2013-06-13
EP2704092A2 (en) 2014-03-05
EP2704092A4 (en) 2014-12-24
US20140046667A1 (en) 2014-02-13
WO2012148112A3 (ko) 2013-04-04
WO2012148112A9 (ko) 2013-02-07

Similar Documents

Publication Publication Date Title
KR101274961B1 (ko) 클라이언트단말기를 이용한 음악 컨텐츠 제작시스템
CN101606190B (zh) 用力声音转换装置、声音转换装置、声音合成装置、声音转换方法、声音合成方法
US8073696B2 (en) Voice synthesis device
JP3938015B2 (ja) 音声再生装置
JP6561499B2 (ja) 音声合成装置および音声合成方法
CN111418006B (zh) 声音合成方法、声音合成装置及记录介质
JP2011048335A (ja) 歌声合成システム、歌声合成方法及び歌声合成装置
JP2022071098A (ja) 電子楽器、方法及びプログラム
CN111477210A (zh) 语音合成方法和装置
WO2015060340A1 (ja) 歌唱音声の合成
JP6474518B1 (ja) 簡易操作声質変換システム
JP4277697B2 (ja) 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末
JP6044284B2 (ja) 音声合成装置
JP2009157220A (ja) 音声編集合成システム、音声編集合成プログラム及び音声編集合成方法
JP2022065554A (ja) 音声合成方法およびプログラム
JP2022065566A (ja) 音声合成方法およびプログラム
JP2014098802A (ja) 音声合成装置
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
KR100994340B1 (ko) 문자음성합성을 이용한 음악 컨텐츠 제작장치
KR101348906B1 (ko) 음성 합성기의 화속변경방법
WO2023171522A1 (ja) 音響生成方法、音響生成システムおよびプログラム
Chamorro An Analysis of Jonathan Harvey’s Speakings for Orchestra and Electronics
Kyritsi et al. A score-to-singing voice synthesis system for the greek language
JP6578725B2 (ja) 制御用端末装置、合成歌唱生成装置
KR20230099934A (ko) 복수의 화자음성을 이용한 음성 변환 장치 및 그 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141202