JP6721570B2 - 楽曲再生システム、データ出力装置、及び楽曲再生方法 - Google Patents

楽曲再生システム、データ出力装置、及び楽曲再生方法 Download PDF

Info

Publication number
JP6721570B2
JP6721570B2 JP2017505427A JP2017505427A JP6721570B2 JP 6721570 B2 JP6721570 B2 JP 6721570B2 JP 2017505427 A JP2017505427 A JP 2017505427A JP 2017505427 A JP2017505427 A JP 2017505427A JP 6721570 B2 JP6721570 B2 JP 6721570B2
Authority
JP
Japan
Prior art keywords
music
display
motion graphics
data
lyrics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017505427A
Other languages
English (en)
Other versions
JPWO2016143907A1 (ja
Inventor
耕平 沼田
耕平 沼田
迅 斉藤
迅 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cotodama Inc
Original Assignee
Cotodama Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cotodama Inc filed Critical Cotodama Inc
Publication of JPWO2016143907A1 publication Critical patent/JPWO2016143907A1/ja
Application granted granted Critical
Publication of JP6721570B2 publication Critical patent/JP6721570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

関連出願への相互参照
本国際出願は、2015年3月12日に日本国特許庁に出願された日本国特許出願第2015−049663号に基づく優先権を主張するものであり、日本国特許出願第2015−049663号の全内容を本国際出願に参照により援用する。
本開示は、楽曲再生システム及び楽曲再生方法に関する。
従来、楽曲の再生に合わせて、モーショングラフィックスを表示デバイスに表示させる楽曲再生システムが知られている。歌詞に含まれる各語句の重要度を算出し、重要度が高いほど、その語句に対応する文字画像のサイズを大きくするようにして、表示デバイスに歌詞の文字画像を表示させる情報処理システムもまた知られている(例えば特許文献1参照)。表示する文字画像にアニメーションを付加する技術もまた知られている。
特開2012−088402号公報
楽曲の再生に合わせてモーショングラフィックスを表示する場合には、単調にモーショングラフィックスを表示すると、ユーザに飽きが生じ、モーショングラフィックスを表示することに対する価値が低くなる。一方、モーショングラフィックスを多様に表示しても、モーショングラフィックスの表示が楽曲とマッチしない場合には、ユーザに不快感を与える可能性がある。
従って、本開示の一側面によれば、再生される楽曲にマッチしたモーショングラフィックスを表示可能な新規技術を提供できることが望ましい。
本開示の一側面に係る楽曲再生システムは、再生制御ユニットと、表示制御ユニットと、を備える。再生制御ユニットは、音響デバイスに楽曲を再生させるように構成される。表示制御ユニットは、記憶デバイスが記憶するモーショングラフィックスデータに基づき、音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように構成される。モーショングラフィックスデータは、楽曲部分の種類毎に、当該種類に属する楽曲部分の再生時に表示デバイスに表示させるべきモーショングラフィックスを定義する。
表示制御ユニットは、音響デバイスにより再生される楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別するように構成される。表示制御ユニットは、各楽曲部分の再生時に、この楽曲部分の種類に対してモーショングラフィックスデータが定義するモーショングラフィックスを表示させるように、表示デバイスを制御する。このようにして、表示制御ユニットは、楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させる。従って、本開示の一側面によれば、再生される楽曲にマッチしたモーショングラフィックスを表示デバイスに表示させることができる。
本開示の一側面によれば、記憶デバイスは、モーショングラフィックスデータを、楽曲のジャンル毎に記憶し得る。表示制御ユニットは、記憶デバイスが記憶するモーショングラフィックスデータの内、音響デバイスにより再生される楽曲のジャンルに対応するモーショングラフィックスデータに基づき、表示デバイスにモーショングラフィックスを表示させるように構成され得る。
本開示の一側面によれば、モーショングラフィックスデータは、上記楽曲部分の種類として、楽曲を構成するセクションの種類毎に、表示デバイスに表示させるべきモーショングラフィックスを定義する構成にされてもよい。
本開示の一側面によれば、表示制御ユニットは、再生される楽曲部分の種類が切り替わることに伴って、表示デバイスに表示させるモーショングラフィックスを、第一のモーショングラフィックスから第二のモーショングラフィックスに切り替える場合には、第二のモーショングラフィックスへの切替前に、第一のモーショングラフィックスが有する特徴と第二のモーショングラフィックスが有する特徴とが混合した特徴を有する移行用のモーショングラフィックスを、表示デバイスに表示させるように、表示デバイスを制御する構成にされてもよい。移行用のモーショングラフィックスは、滑らかなモーショングラフィックスの切替を可能にする。
表示デバイスに表示されるモーショングラフィックスは、文字画像に関するモーショングラフィックス及び背景画像に関するモーショングラフィックスを含んでいてもよい。文字画像は、楽曲の歌詞に関する文字画像であってもよい。
モーショングラフィックスデータは、文字画像に関するモーショングラフィックスを定義する第一定義データ、及び、背景画像に関するモーショングラフィックスを定義する第二定義データを有した構成にされてもよい。モーショングラフィックスデータは、第一定義データ及び第二定義データの少なくとも一方が、楽曲部分の種類毎に、表示デバイスに表示させるべきモーショングラフィックスを定義するように構成され得る。
第一定義データは、上記楽曲部分の種類として、楽曲部分における歌詞の種類毎に、文字画像に関するモーショングラフィックスを定義する構成にされてもよい。歌詞の種類は、例えば歌詞の文字数及び再生長の少なくとも一方で定められ得る。この第一定義データによれば、歌詞の特徴にマッチしたモーショングラフィックスの表示を実現し得る。
本開示の一側面によれば、音響デバイスによって再生される楽曲の歌詞データであって、楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得する構成にされた取得ユニットが更に設けられてもよい。
表示制御ユニットは、上記歌詞データに基づき、音響デバイスによる楽曲再生に合わせて、楽曲の再生時刻に対応するタイムコードが付された文字列に関するモーショングラフィックスを、表示デバイスに表示させるように、表示デバイスを制御する構成にされ得る。
表示制御ユニットは、上記歌詞データに基づき、上記複数の文字列の内、互いに隣接する第一及び第二の文字列であって第一の文字列と第一の文字列に続く第二の文字列との間におけるタイムコードの時間差を判定するように構成されてもよい。
表示制御ユニットは、上記時間差が基準未満である場合には、タイムコードに従う第二の文字列に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、第一の文字列に関するモーショングラフィックスの表示が終了するように表示デバイスを制御する構成にされ得る。
表示制御ユニットは、上記時間差が基準以上である場合には、タイムコードに従う第一の文字列に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、第一の文字列に関するモーショングラフィックスの表示が終了するように表示デバイスを制御する構成にされてもよい。
表示制御ユニットは、上記時間差が基準以上である場合には、第一の文字列に関するモーショングラフィックスの表示後、第二の文字列に関するモーショングラフィックスの表示前に、別のモーショングラフィックスを表示デバイスに表示させるように、表示デバイスを制御する構成にされてもよい。
表示制御ユニットは、モーショングラフィックスを構成する文字画像を、楽曲の再生箇所における抑揚及びリズムの少なく一方に合わせて振動させるように、表示デバイスを制御する構成にされてもよい。
音響デバイスは、表示デバイスの表示面を部分的に覆うように配置された一以上のスピーカユニットを備えた構成にされてもよい。この場合、表示制御ユニットは、スピーカユニットの周囲から放射状に広がる幾何学図形のモーショングラフィックスを表示デバイスに表示させるように、表示デバイスを制御する構成にされてもよい。
本開示の一側面によれば、音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、音響デバイスによって再生される楽曲の歌詞データであって、楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得するように構成された取得ユニットと、取得ユニットが取得した歌詞データに基づき、音響デバイスによる楽曲再生に合わせて、楽曲の再生時刻に対応するタイムコードが付された文字列に関するモーショングラフィックスを表示デバイスに表示させるように、表示デバイスを制御する構成にされた表示制御ユニットと、を備える楽曲再生システムが提供されてもよい。表示制御ユニットは、上記時間差に基づく表示デバイスの制御を行うように構成され得る。
本開示の一側面によれば、音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、音響デバイスによって再生される楽曲の歌詞データを取得するように構成された取得ユニットと、取得ユニットが取得した歌詞データに基づき、音響デバイスによる楽曲再生に合わせて、歌詞を表す文字画像のモーショングラフィックスを表示デバイスに表示させるように表示デバイスを制御する構成にされた表示制御ユニットであって、上記文字画像を楽曲の再生箇所における抑揚及びリズムの少なく一方に合わせて振動させるように、表示デバイスを制御する構成にされた表示制御ユニットと、を備えた楽曲再生システムが提供されてもよい。
本開示の一側面によれば、複数のスピーカユニットを備える音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように構成された表示制御ユニットと、を備えた楽曲再生システムが提供されてもよい。複数のスピーカユニットは、表示デバイスの表示面を部分的に覆うように配置され得る。この場合、表示制御ユニットは、スピーカユニットの周囲から放射状に広がる幾何学図形のモーショングラフィックスを表示デバイスに表示させるように、表示デバイスを制御する構成にされ得る。
本開示の一側面によれば、楽曲に関する情報を取得するように構成された取得ユニットと、取得ユニットが取得した楽曲に関する情報、及び、記憶デバイスが記憶するモーショングラフィックスデータに基づき、音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるための表示用データを出力するように構成された出力ユニットと、を備えるデータ出力装置が提供されてもよい。出力ユニットは、上記楽曲に関する情報に基づき、この楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別し、上記表示用データとして、各楽曲部分の再生時に、この楽曲部分の種類に対してモーショングラフィックスデータが定義するモーショングラフィックスを表示デバイスに表示させるように構成された表示用データを生成する構成にされ得る。
取得ユニットは、音響デバイスにより再生される楽曲に関する情報を取得するように構成され得る。取得ユニットは、ネットワーク上の外部通信端末から上記楽曲に関する情報を取得するように構成されてもよい。出力ユニットは、上記楽曲に関する情報を取得ユニットに提供した外部通信端末に、表示用データを送信するように構成されてもよい。
本開示の一側面によれば、音響デバイスに楽曲を再生させることと、記憶デバイスが記憶するモーショングラフィックスデータに基づき、音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように、表示デバイスを制御することと、を含む楽曲再生方法が提供されてもよい。
上記表示デバイスを制御することは、音響デバイスにより再生される楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別することと、各楽曲部分の再生時に、この楽曲部分の種類に対してモーショングラフィックスデータが定義するモーショングラフィックスを表示させるように、表示デバイスを制御することにより、楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させることとを含んでいてもよい。
本開示の一側面によれば、楽曲に関する情報を取得することと、当該取得した楽曲に関する情報、及び、記憶デバイスが記憶するモーショングラフィックスデータに基づき、音響デバイスにより再生される上記楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるための表示用データを出力することと、を含むデータ出力方法が提供されてもよい。
本開示の一側面によれば、表示用データを出力することは、上記楽曲に関する情報に基づき、この楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別し、上記表示用データとして、各楽曲部分の再生時に、この楽曲部分の種類に対してモーショングラフィックスデータが定義するモーショングラフィックスを表示デバイスに表示させるように構成された表示用データを生成することを含んでいてもよい。
上記取得することは、音響デバイスにより再生される楽曲に関する情報を取得することを含んでいてもよい。上記取得することは、ネットワーク上の外部通信端末から上記楽曲に関する情報を取得することを含んでいてもよい。上記出力することは、上記楽曲に関する情報を取得ユニットに提供した外部通信端末に、表示用データを送信することを含んでいてもよい。
本開示の一側面によれば、上述の楽曲再生方法及びデータ出力方法の少なくとも一方を、コンピュータに実行させてもよい。本開示の一側面によれば、上述の楽曲再生方法及びデータ出力方法の少なくとも一方を、コンピュータに実行させるためのプログラムが提供されてもよい。
本開示の一側面によれば、プロセッサと、プロセッサに対する命令を記憶するメモリと、を備え、プロセッサが、当該命令に従う処理を実行することにより、再生制御ユニット、表示制御ユニット、及び取得ユニットの少なくとも一つとして機能する楽曲再生システムが提供されてもよい。本開示の一側面によれば、プロセッサと、プロセッサに対する命令を記憶するメモリと、を備え、プロセッサが、当該命令に従う処理を実行することにより、取得ユニット及び出力ユニットの少なくとも一つとして機能するデータ出力装置が提供されてもよい。
本開示の一側面によれば、コンピュータを、上記再生制御ユニット、表示制御ユニット、及び取得ユニットの少なくとも一つとして機能させるためのプログラムが提供されてもよい。本開示の一側面によれば、コンピュータを、上記取得ユニット及び出力ユニットの少なくとも一つとして機能させるためのプログラムが提供されてもよい。本開示の一側面によれば、上記プログラムを記憶する非遷移的実体的記録媒体が提供されてもよい。本開示の一側面によれば、上述したユニットの一つ又は複数は、ハードウェアにより実現されてもよい。
楽曲再生システムの概略構成を表すブロック図である。 携帯通信端末及び音響再生装置の概略構成を表すブロック図である。 モーショングラフィックスデータの構成を表す図である。 モーショングラフィックスデータの具体例を表す図である。 図5A−5Dは、文字画像のモーショングラフィックスの一例を示す図である。 図6A及び6Bは、背景画像のモーショングラフィックスの一例を示す図である。 移行期のモーショングラフィックスの一例を示す図である。 移行期のモーションの一例を示す図である。 携帯通信端末及び音響再生装置の制御ユニットにおいて実現される機能を表すブロック図である。 データ取得部が実行する処理を表すフローチャートである。 ディスプレイの詳細構成を表す図である。 スピーカユニットの周囲から放射状に広がるモーショングラフィックスの一例を示す図である。 第二実施形態に従うコンポーネントデータの構成を表す図である。 第二実施形態に従うテキストモーション定義データに関する説明図である。 第二実施形態においてデータ取得部が実行する処理を表すフローチャートである。 図15A及び図15Bは、第二実施形態におけるモーショングラフィックスの切替態様を表す図である。 歌詞データの構成を表す図である。 図17A−17Cは、第三実施形態におけるモーショングラフィックスの切替態様を表す図である。 第三実施形態においてデータ取得部が実行する処理を表すフローチャートである。 変形例においてデータ取得部が実行する処理を表すフローチャートである。 第四実施形態に従う楽曲再生システムの概略構成を表すブロック図である。 第四実施形態において音響再生装置が実行する処理を表すフローチャートである。 第四実施形態において受付サーバが実行する処理を表すフローチャートである。
以下に、本開示の例示的実施形態を、図面を参照して説明する。
[第一実施形態]
図1に示す本実施形態の楽曲再生システム1は、携帯通信端末10と、音響再生装置50と、第一サーバ装置70と、第二サーバ装置90と、を備える。携帯通信端末10は、例えばスマートフォン又はタブレット端末であり得る。
この楽曲再生システム1では、携帯通信端末10が楽曲データD1を再生処理して、楽曲データD1の再生用信号及び再生位置信号を音響再生装置50に送信する。携帯通信端末10は、この再生処理に先駆けて、楽曲データD1に基づいて再生される楽曲の曲目データを音響再生装置50に送信する。
音響再生装置50は、携帯通信端末10から受信した曲目データに基づき、再生処理対象の楽曲データD1に対応する歌詞データDLを第一サーバ装置70から取得し、対応する楽曲のジャンルを表す曲ジャンルデータDG、及び、この楽曲の曲構造を表す曲構造データDSを、第二サーバ装置90から取得する。
音響再生装置50は、携帯通信端末10からの再生用信号に基づき、対応する楽曲をスピーカ54から出力し、携帯通信端末10からの再生位置信号に基づき、楽曲の再生に合わせてモーショングラフィックスをディスプレイ55に表示させる。モーショングラフィックスには、歌詞を表す文字画像が含まれる。音響再生装置50は、このモーショングラフィックスの表示態様を、第二サーバ装置90から取得した曲ジャンルデータDG及び曲構造データDSに基づいて決定する。
携帯通信端末10と音響再生装置50との間の通信は、ブルートゥース(Bluetooth:登録商標)に代表される近距離無線通信、及び、無線LAN通信の少なくとも一方によって実現される。音響再生装置50と、第一サーバ装置70及び第二サーバ装置90と、の間の通信は、広域ネットワークを通じて実現される。広域ネットワークは、例えばインターネットである。
図2に示すように、携帯通信端末10は、制御ユニット11と、記憶ユニット13と、ユーザインタフェース15と、通信ユニット17と、を備える。制御ユニット11は、CPU11Aと、RAM11Bと、を備える。CPU11Aは、記憶ユニット13が記憶するプログラムに従う処理を実行する。RAM11Bは、CPU11Aによる処理実行時に作業領域として使用される。以下では、CPU11Aがプログラムに従って実行する処理を、携帯通信端末10又は制御ユニット11が実行する処理として説明する。
記憶ユニット13は、各種プログラム及びデータを記憶する。記憶ユニット13が記憶するデータには、一つ又は複数の楽曲データD1が含まれる。記憶ユニット13は、例えばフラッシュメモリによって構成される。
ユーザインタフェース15は、ディスプレイ及びタッチパネルを備える。ユーザインタフェース15は、制御ユニット11に制御されて、各種画面をディスプレイに表示し、タッチパネルを通じたユーザからの操作信号を制御ユニット11に入力する。通信ユニット17は、上記近距離無線通信及び無線LAN通信可能な構成にされる。制御ユニット11は、この通信ユニット17を介して音響再生装置50と無線通信する。
音響再生装置50は、制御ユニット51と、記憶ユニット53と、スピーカ54と、ディスプレイ55と、通信ユニット57と、を備える。制御ユニット51は、CPU51A及びRAM51Bを備え、CPU51Aは、各種プログラムに従う処理を実行する。RAM51Bは、CPU51Aによる処理実行時に作業領域として使用される。以下では、CPU51Aがプログラムに従って実行する処理を、音響再生装置50又は制御ユニット51が実行する処理として説明する。
記憶ユニット53は、各種プログラム及びデータを記憶する。記憶ユニット53が記憶するデータには、曲ジャンル毎のモーショングラフィックスデータD2(図3参照)が含まれる。音響再生装置50は、これらのモーショングラフィックスデータD2を、広域ネットワークを通して外部のサーバ装置から取得可能に構成され得る。
スピーカ54は、異なる複数の音域に対応した複数のスピーカユニット及びアンプを備え、制御ユニット51から入力されるオーディオ信号を音に変換して出力する。ディスプレイ55は、例えば液晶ディスプレイとして構成される。ディスプレイ55は、制御ユニット51に制御されて、楽曲再生中に、歌詞を表す文字画像を含むモーショングラフィックスを表示する。ディスプレイ55で表示されるモーショングラフィックスは、文字画像の変化、及び、背景画像の変化を含む。
通信ユニット57は、携帯通信端末10と同様に、近距離無線通信及び無線LAN通信可能に構成される。制御ユニット51は、この通信ユニット57を介して携帯通信端末10と近距離通信又は無線LAN通信を行う。制御ユニット51は、この通信ユニット57を介して、広域ネットワークに配置された第一サーバ装置70及び第二サーバ装置90と通信する。
第一サーバ装置70は、音響再生装置50からの要求信号に従って、音響再生装置50から要求された歌詞データDLを、音響再生装置50に送信するように構成される。第二サーバ装置90は、音響再生装置50からの要求信号に従って、音響再生装置50から要求された楽曲のジャンルを表す曲ジャンルデータDG及び曲構造を表す曲構造データDSを音響再生装置50に送信するように構成される。音響再生装置50は、既存のサーバ装置から、歌詞データDL、曲ジャンルデータDG及び曲構造データDSを取得するように構成され得る。
第二サーバ装置90としては、楽曲が有する音楽的要素を、楽曲のリピート構造や変調を理解しながら自動解析し、この解析結果に基づく曲構造データDSを曲ジャンルデータDGと共に蓄積するサーバ装置が知られている。例えばPOPミュージックの曲構造データDSは、楽曲が有する「イントロ」「Aメロ(バース)」「Bメロ(プレコーラス)」「サビ(コーラス)」「Cメロ(ブリッジ)」「アウトロ(エンディング)」「間奏」等のセクションを特定可能な情報を含む。「Aメロ」「Bメロ」「サビ」「Cメロ」は、日本市場での表現である。括弧書きで示したように「Aメロ」「Bメロ」「サビ」「Cメロ」は、夫々順に、「バース」「プレコーラス」「コーラス」「ブリッジ」に対応する。
この曲構造データDSは、楽曲を構成するセクションとして、曲調が変化する地点を境界とするセクション、反復性を示すセクション、及び、盛り上がりを示すサビ(コーラス)等に対応するセクションを特定可能な情報を含む。曲構造データDSは、曲調が変化する地点を境界とするセクションの中に、反復性を示すセクション、及び、盛り上がりを示すセクションを示した構成にされ得る。
続いて、音響再生装置50の記憶ユニット53が曲ジャンル毎に記憶するモーショングラフィックスデータD2の構成を説明する。モーショングラフィックスデータD2は、図3に示すように、対応ジャンルの楽曲に含まれる複数種類のセクションの夫々に対するコンポーネントデータD21を有した構成にされる。コンポーネントデータD21の夫々は、対応ジャンルの楽曲に含まれる特定種類のセクションの楽曲部分が再生されるときにディスプレイ55に表示させるべきモーショングラフィックスを定義する。
ここでいう曲ジャンルは、POPミュージック、R&B、及びロック等の分類で定義されるものであってもよいし、曲のムード、例えば雰囲気及び印象によって分類されるものであってもよいし、これらの組合せによって定義されるものであってもよい。
コンポーネントデータD21に対応するセクションは、曲構造データDSと同様、曲調、反復性、及び、盛り上がり等を基準に、他のセクションとは区別されるセクションとして定義される。例えば、モーショングラフィックスデータD2は、図4に示すように、「イントロ」「Aメロ」「Bメロ」「サビ」「間奏」「Cメロ」「アウトロ」に対応するセクション毎に、コンポーネントデータD21を有した構成にされる。但し、セクションの定義は、この例に限らない。曲調のみに基づいてセクションが定義されてもよい。
図3に示すように、コンポーネントデータD21の夫々は、対応するセクションの楽曲部分が再生されるときにディスプレイ55に表示させるべき文字画像(歌詞)のモーションを定義するテキストモーション定義データD211と、その文字画像と共にディスプレイ55に表示させるべき背景画像のモーションを定義する背景モーション定義データD212と、を有した構成にされる。
テキストモーション定義データD211は、文字画像のフォントタイプ及びサイズ、並びに、文字画像の動きのパターン及び速度を定義する。背景モーション定義データD212は、背景画像の種類、動きのパターン、及び、動きの速度を定義する。以下では、動きのパターンのことを「モーションパターン」とも表現する。
図5A、図5B、図5C及び図5Dには、文字画像のモーションパターンの例を示す。図5A−5Dに実線で示される矩形枠内は、ディスプレイ55の表示画面に対応し、白丸は、文字画像の出現地点を表し、黒丸は文字画像の消滅地点を表し、矢印は動きの方向を表す。
図5Aには、文字画像「ABCDE」が、表示画面の右から左に直線的に流れるように変化するモーションパターンが示される。図5Bには、文字画像「ABCDE」が、表示画面の上から下に直線的に流れるように変化するモーションパターンが示される。図5Cには、文字画像「ABCDE」が、表示画面の上から下に曲線的に流れるように変化するモーションパターンが示される。図5Dには、文字画像「ABCDE」が左下から右上にサイズを変化させながら変位するモーションパターンが示される。図5Dに示されるモーションパターンは、文字画像「ABCDE」が画面手前から奥に消える動きをユーザに連想させるモーションパターンの一例である。
文字画像が低速で曲線的に流れるモーションパターンは、穏やかな調子の楽曲部分に適したモーションパターンの一つであり、文字画像が直線的に高速で流れるモーションパターンは、激しい楽曲部分に適切なモーションパターンの一つである。文字画像を大きくするモーションパターンは、楽曲の盛り上がり部分に適切なモーションパターンの一つである。
このようにモーションパターンがユーザに与える印象は、モーションパターンの種類によって異なる。各コンポーネントデータD21が有するテキストモーション定義データD211は、文字画像のモーションパターンが、対応するジャンル及びセクションの楽曲部分の印象に適合するように作成される。
図6A及び図6Bには、背景画像のモーションパターンの例を示す。図6A及び図6Bに実線で示される矩形枠内は、ディスプレイ55の表示画面に対応し、矢印は動きの方向を表す。
図6Aには、水玉模様を構成する幾何学図形が表示画面上を浮遊するように変化する背景画像のモーションパターンが示される。図6Bには、波紋が表示画面上で放射状に広がるように変化する背景画像のモーションパターンが示される。これらのモーションパターンを比較すると、図6Aに示されるモーションパターンのほうが図6Bに示されるモーションパターンよりも穏やかな印象をユーザに与えやすい。このように背景画像についてもモーションパターンがユーザに与える印象は、モーションパターンの種類によって異なる。各コンポーネントデータD21が有する背景モーション定義データD212は、背景画像のモーションパターンが、対応するジャンル及びセクションの楽曲部分の印象に適合するように作成される。
付言すると、モーショングラフィックスデータD2は、セクションの境界におけるモーショングラフィックスの不連続性を緩和するための接続用モーションデータD22を有してもよい。接続用モーションデータD22は、モーショングラフィックスデータD2が有するコンポーネントデータD21の組合せ毎に、一つのコンポーネントデータD21に基づくモーショングラフィックスから別のコンポーネントデータD21に基づくモーショングラフィックスへの移行時に実現されるべきモーショングラフィックスを定義する。
例えば、文字画像が図7A上段に示されるモーションパターンで変化する先行セクションから、文字画像が図7A下段に示されるモーションパターンで変化する後続セクションへの移行期に対応するモーショングラフィックスとしては、図7A中段に示されるモーショングラフィックスが定義され得る。図7A上段に示されるモーションパターンは、図5Dに示されるモーションパターンに対応し、図7A下段に示されるモーションパターンは、図5Aに示されるモーションパターンに対応する。即ち、先行セクションにおける最後の文字画像「FGHJI」、又は、後続セクションにおける最初の文字画像「FGHIJ」を例外的に右上から左中央に屈折して変位させるようなモーショングラフィックスが移行期のモーショングラフィックとして定義され得る。図7A下段に示す文字画像「KLMNO」は、文字画像「FGHIJ」の次に表示される文字画像である。このように移行期のモーショングラフィックスとしては、先行セクション及び後続セクションのモーショングラフィックスの特徴が混在する、先行セクション及び後続セクションのモーショングラフィックスに対する中間的なモーショングラフィックスが定義され得る。
背景画像の種類が異なる二つのセクションの移行期に対応するモーショングラフィックスとしては、図7Bに示すように、先行セクションの画面全体(ハッチング領域に対応)を、表示画面上の特定地点に縮小させて消滅させるようなモーショングラフィックスが定義されてもよい。既知のフェードイン/フェードアウト技術が用いられてもよい。モーショングラフィックスは、上述した形態以外の様々な形態を採り得る。
続いて、携帯通信端末10の制御ユニット11により実現される機能の詳細を、図8を用いて説明する。制御ユニット11は、プログラムの実行により、主制御部111、第一送信制御部113、及び、第二送信制御部115として機能する。
主制御部111は、記憶ユニット13が記憶する楽曲データD1の一つに対する再生指示が、ユーザインタフェース15を通じてユーザから入力されると、再生指示により指定された再生処理対象の楽曲データD1に対応する曲目データを付した動作命令を、音響再生装置50に、通信ユニット17を介して送信する。
楽曲データD1は、楽曲データ本体にメタデータが付された構成にされる。メタデータは、楽曲名、作曲者名及び作詞者名等の楽曲情報を有する。主制御部111は、このメタデータを参照して、再生処理対象の楽曲データD1に対応する曲目データを付した動作命令を、音響再生装置50に送信する。曲目データは、音響再生装置50が再生処理対象の楽曲データD1に対応する歌詞データDL、曲ジャンルデータDG及び曲構造データDSをサーバ装置70,90から取得するために用いられる。
主制御部111は、この動作命令に応じて、音響再生装置50から送信される準備完了通知を受信すると、第一送信制御部113及び第二送信制御部115に対して処理開始を指示する。
第一送信制御部113は、上記処理開始の指示に従って、楽曲データD1に対する再生処理を実行することにより、楽曲データD1の再生用信号を、通信ユニット17を介して音響再生装置50に送信する。第一送信制御部113が実行する再生処理は、音響再生装置50が楽曲をスピーカ54から出力可能な形態まで、楽曲データD1をデコードする処理であり得る。本実施形態では、上記再生処理として、楽曲データD1のストリーム再生を実現するための処理が、第一送信制御部113により実行される。
第二送信制御部115は、上記処理開始の指示に従って、第一送信制御部113により再生処理される楽曲データD1の再生位置を表す再生位置信号を、通信ユニット17を介して音響再生装置50に送信するように動作する。第二送信制御部115は、第一送信制御部113が管理する再生位置の情報を、第一送信制御部113から取得して、その再生位置を表す再生位置信号を送信する構成にされ得る。
続いて、音響再生装置50の制御ユニット51により実現される機能の詳細を説明する。音響再生装置50の制御ユニット51は、プログラムの実行により、データ取得部511、再生制御部513、及び、表示制御部515として機能する。
データ取得部511は、携帯通信端末10からの動作命令に応じて、第一サーバ装置70から歌詞データDLを取得し、第二サーバ装置90から曲ジャンルデータDG及び曲構造データDSを取得する。このために、データ取得部511は、図9に示す処理を繰返し実行する。即ち、データ取得部511は、携帯通信端末10から送信される動作命令を、通信ユニット57を介して受信するまで待機する(S110)。
データ取得部511は、動作命令を受信すると(S110でYes)、携帯通信端末10から受信した動作命令に付された曲目データに基づき、携帯通信端末10が再生処理しようとする楽曲データD1に対応する歌詞データDLを、第一サーバ装置70から取得する(S120)。更に、データ取得部511は、携帯通信端末10が再生処理しようとする楽曲データD1に対応する曲ジャンルデータDG及び曲構造データDSを、第二サーバ装置90から取得する(S130)。
その後、データ取得部511は、第二サーバ装置90から取得した曲ジャンルデータDGに基づき、再生処理対象の楽曲データD1の曲ジャンルを特定し、特定した曲ジャンルのモーショングラフィックスデータD2を記憶ユニット53から読み出す(S140)。
更に、データ取得部511は、読み出したモーショングラフィックスデータD2に含まれるコンポートネントデータD21及び接続用モーションデータD22の一群と、曲構造データDSから特定される楽曲を構成するセクションの種類及び配列と、に基づき、モーショングラフィックスの再生計画を作成する(S150)。再生計画は、楽曲の先頭から終端までの再生に合わせてディスプレイ55に表示させるモーショングラフィックスの表示手順を表す。
例えば、再生処理対象の楽曲データD1により再生される楽曲が、「イントロ」「Aメロ」「Bメロ」「サビ」「間奏」「Aメロ」「Bメロ」「サビ」「間奏」「Cメロ」「サビ」「アウトロ」の順に演奏される楽曲である場合には、この並びの順に、対応するコンポーネントデータD21を参照して、各セクションに対応する楽曲部分の再生時にディスプレイ55に表示させるモーショングラフィックスを決定する。更に、接続用モーションデータD22に基づき、各セクションの移行期にディスプレイ55に表示させるモーショングラフィックスを決定する。このようにして、データ取得部511は、サーバ装置70,90からの取得データと記憶ユニット53が記憶するモーショングラフィックスデータD2とに基づき、楽曲の進行に合わせてディスプレイ55に表示させるモーショングラフィックスを事前決定し、この決定に従う再生計画を作成する。
その後、データ取得部511は、準備完了通知を携帯通信端末10に送信する(S160)。準備完了通知により、携帯通信端末10では、楽曲データD1の再生処理が開始されて、再生用信号及び再生位置信号が送られてくる。
再生制御部513は、この再生用信号を、携帯通信端末10から通信ユニット57を介して受信し、この再生用信号に基づく音をスピーカ54に出力させるためのオーディオ信号をスピーカ54に入力することにより、スピーカ54を通じた楽曲再生を実現する。
一方、表示制御部515は、携帯通信端末10から送信されてくる再生位置信号を、通信ユニット57を介して受信し、この再生位置信号に基づいて、スピーカ54からの出力音に対応するモーショングラフィックスがディスプレイ55に表示されるように、S150で作成された再生計画に従って、ディスプレイ55を制御する。このようにして制御ユニット51は、再生される楽曲の進行に合わせて、歌詞の文字画像を含むモーショングラフィックスをディスプレイ55に表示させるように、ディスプレイ55を制御する。
以上、本実施形態の楽曲再生システム1の構成を説明した。この楽曲再生システム1によれば、音響再生装置50におけるデータ取得部511がスピーカ54により再生される楽曲のジャンルに対応するモーショングラフィックスデータD2を記憶ユニット53から取得する。再生制御部513は、スピーカ54にオーディオ信号を入力して楽曲を再生させるように構成される。表示制御部515は、スピーカ54により再生される楽曲の進行に合わせて、ディスプレイ55にモーショングラフィックスを表示させるように構成される。記憶ユニット53は、楽曲のジャンル毎にモーショングラフィックスデータD2を記憶する。記憶ユニット53が記憶するジャンル毎のモーショングラフィックスデータD2は、上述したように、対応するジャンルの楽曲部分の種類毎のコンポーネントデータD21を有する。具体的に、モーショングラフィックスデータD2は、セクションの種類毎のコンポーネントデータD21を有する。
制御ユニット51は、スピーカ54により再生される楽曲が有するセクションの種類及び並びに応じてモーショングラフィックスデータD2が有するコンポーネントデータD21を使い分けてディスプレイ55を制御することにより、楽曲の進行に合わせたモーショングラフィックスをディスプレイ55に表示させる。
従って、本実施形態の楽曲再生システム1によれば、再生される楽曲の進行に合わせて、適切にディスプレイ55にモーショングラフィックスを表示させることができる。即ち、この楽曲再生システム1によれば、ジャンルの異なる様々な楽曲に関し、再生される楽曲の曲調及びその変化に合わせて多様なモーショングラフィックスをディスプレイ55に適切に表示させることができる。
以上に説明した本実施形態の楽曲再生システム1は、次のように変形されてもよい。例えば、音響再生装置50としての機能は、その一部又は全部が携帯通信端末10に組み込まれてもよい。
即ち、携帯通信端末10は、ジャンル毎のモーショングラフィックスデータD2を記憶ユニット13に記憶する構成にされてもよい。携帯通信端末10の制御ユニット11は、再生処理対象の楽曲データD1に対応する歌詞データDL、曲ジャンルデータDG、及び、曲構造データDSを、通信ユニット17を介してサーバ装置70,90から取得する構成にされてもよい。制御ユニット11は、サーバ装置70,90からの取得データに基づき、楽曲データD1に基づく楽曲の再生時に、ユーザインタフェース15が備えるディスプレイに楽曲の進行に合わせてモーショングラフィックスを表示させることができる。楽曲データD1に基づく再生音は、携帯通信端末10のスピーカ(図示せず)から出力することができる。
音響再生装置50が有する機能の全てが実質的に携帯通信端末10に組み込まれる場合、楽曲再生システム1において音響再生装置50は不要である。即ち、楽曲再生システム1には、携帯通信端末10及び音響再生装置50としての機能を統合した単一装置が携帯通信端末10及び音響再生装置50に代えて設けられ得る。単一装置は、携帯通信端末であってもよい。
携帯通信端末10は、音響再生装置50を単にスピーカ54及びディスプレイ55として用いるように構成されてもよい。即ち、携帯通信端末10は、楽曲データD1に基づく再生用信号、及び、これに同期したモーショングラフィックスを表す映像信号、又は、これらを統合した信号を、ストリーム信号として、音響再生装置50に送信するように構成されてもよい。この場合、音響再生装置50は、携帯通信端末10からの受信信号に基づき楽曲をスピーカ54から再生し、モーショングラフィックスをディスプレイ55に表示させるように動作し得る。携帯通信端末10は、デスクトップコンピュータ等の携帯性を有さない他の電子機器に置き換えられてもよい。
ディスプレイ55に表示させるモーショングラフィックスは、スピーカ54からの再生音量又は音量つまみ位置を加味して決定されてもよい。音響再生装置50は、曲ジャンル及び曲構造だけでなく、再生音量又は音量つまみ位置をもパラメータとして用いて、ディスプレイ55に表示させるモーショングラフィックスを決定するように構成され得る。再生音量が小さい環境では、落ち着いた鑑賞空間を形成するために、再生音量が大きい環境よりもディスプレイ55に変化の穏やかなモーショングラフィックスを表示させることが考えられる。
ディスプレイ55は、図10に示すように構成にされてもよい。図10に示すディスプレイ55は、液晶ディスプレイ本体551の両面を覆うように、透明板553,555が配置された構成される。具体的に、ディスプレイ55は、液晶ディスプレイ本体551の両面を挟むように、一対の透明板553が配置され、一対の透明板553を両側から挟むように一対の透明板555が配置された構成にされる。
ディスプレイ55は、液晶ディスプレイ本体551、透明板553、及び、透明板555が、上述した順にフレーム557に格納されて、箱状に構成にされる。一対の透明板555は、箱状のディスプレイ55の外表面を構成する。一対の透明板555の内、液晶ディスプレイ本体551の表示面と向き合う透明板555には、スピーカ54が備える複数のスピーカユニット541が組み込まれる。
このスピーカユニット541は、液晶ディスプレイ本体551の表示面を部分的に覆うように配置される。スピーカユニット541の例には、ツイータ及びスコーカが含まれる。スピーカユニット541の配置に起因して、透明板555は、音の振動面として機能し、透明板553は、音の振動が液晶ディスプレイ本体551に伝達するのを抑制するように機能する。このようなスピーカ54とディスプレイ55との一体化は、優れた意匠を有する音響再生装置50の製造を容易にする。
スピーカ54とディスプレイ55とが一体化された音響再生装置50では、表示制御部515が、モーショングラフィックスの一つとして、スピーカユニット541の周囲から放射状に広がる幾何学図形のモーショングラフィックスをディスプレイ55に表示させるように、ディスプレイ55を制御する構成にされ得る。図11によれば、スピーカユニット541の周囲から図11矢印で示すように放射状に広がる波紋のモーショングラフィックスが、液晶ディスプレイ本体551によって表示される。
この他、表示制御部515は、モーショングラフィックスを構成する文字画像を、楽曲の再生箇所における抑揚及びリズムの少なく一方に合わせて振動させるように、ディスプレイ55を制御する構成にされてもよい。
楽曲再生システム1は、第二実施形態に示すように構成されてもよい。第二実施形態の楽曲再生システムもまた第一実施形態の楽曲再生システム1の変形例に対応する。以下において、第二実施形態の楽曲再生システムを説明する際には、第一実施形態の楽曲再生システム1と同一構成部分の説明を適宜省略する。第二実施形態の楽曲再生システムにおいて第一実施形態の楽曲再生システム1と同一符号が付された部位は、ハードウェア構成について、第一実施形態と同一であると理解されてよい。同一符号が付された部位のソフトウェア構成も、特に代替する処理の説明がない限り、第一実施形態と基本的構成を同一にすると理解されてよい。
[第二実施形態]
第二実施形態の楽曲再生システムは、第一実施形態と同様、記憶ユニット53が曲ジャンル毎にモーショングラフィックスデータD2を記憶した構成にされる。但し、モーショングラフィックスデータD2は、第一実施形態のコンポーネントデータD21に代えて、本実施形態に特有のコンポーネントデータD23をセクション毎に備える。
コンポーネントデータD23の夫々は、複数のテキストモーション定義データD231及び複数の背景モーション定義データD232を備えた構成にされる。テキストモーション定義データD231の夫々は、第一実施形態のテキストモーション定義データD211に対応し、ディスプレイ55に表示させる文字画像のフォントタイプ及びサイズ、並びに、文字画像の動きのパターン及び速度を定義する。背景モーション定義データD232の夫々は、第一実施形態の背景モーション定義データD212に対応し、文字画像と共にディスプレイ55に表示させる背景画像の種類、動きのパターン、及び、動きの速度を定義する。
具体的に、テキストモーション定義データD231及び背景モーション定義データD232は、歌詞の種類毎に設けられる。テキストモーション定義データD231の夫々は、対応する種類の歌詞が再生されるときに表示されるべき文字画像のモーショングラフィックスを定義する。背景モーション定義データD232の夫々は、対応する種類の歌詞が再生されるときに表示されるべき背景画像のモーショングラフィックスを定義する。背景画像のモーショングラフィックスは、文字画像のモーショングラフィックスと調和するように定義される。
ここでいう歌詞の種類は、歌詞の文字数及び再生長で定められる種類である。再生長は、上記文字数分の歌詞が歌われる時間である。即ち、コンポーネントデータD23には、図13おいて概念的に示されるように、テキストモーション定義データD231が、歌詞の文字数及び再生長の組合せ毎に用意される。同様に、コンポーネントデータD23には、背景モーション定義データD232が、歌詞の文字数及び再生長の組合せ毎に用意される。
楽曲再生時には、データ取得部511及び表示制御部515の協働により、再生位置に対応する歌詞の文字数及び再生長に合致したテキストモーション定義データD231及び背景モーション定義データD232に基づくモーショングラフィックスがディスプレイ55に表示される。
上述した歌詞の文字数及び再生長は、楽曲の歌詞全体における所定の文字列単位で判別される。この所定の文字列単位でテキストモーション定義データD231及び背景モーション定義データD232は使い分けられて、モーショングラフィックスは切り替えられる。上記文字列単位は、例えば、歌詞の行単位である。歌詞データDLにおいて歌詞が分かち書きされている場合、上記文字列単位は、分かち書きにより分割された文字列単位であってもよい。
本実施形態のデータ取得部511は、S150において、再生される楽曲のセクション毎に図14に示す処理を実行し、モーショングラフィックスの再生計画を作成することができる。データ取得部511は、図14に示す処理を開始すると、最初に、対応するセクションのコンポーネントデータD23をモーショングラフィックスデータD2から読み出す(S151)。
続いて、データ取得部511は、対応するセクションにおける歌詞の文字列を先頭から順に処理対象に選択し(S153)、選択した処理対象文字列の文字数及び再生長を特定する(S155)。再生長は、例えば、歌詞データDLに含まれるタイムコードを参照して特定可能である。その後、データ取得部511は、特定した文字数及び再生長に対応するテキストモーション定義データD231及び背景モーション定義データD232を参照し、S153で選択した処理対象文字列に対応する楽曲部分に関して、この楽曲部分の再生時に、ディスプレイ55に表示させる処理対象文字列のモーショングラフィックス及び背景画像のモーショングラフィックスを決定する(S157)。
データ取得部511は、対応するセクションの終端まで、上述したS153〜S157の処理を繰り返し実行する。そして、対応するセクションの終端まで、上述した処理を実行すると(S159でYes)、対応するセクションの再生計画の作成を終了し、図14に示す処理を終了する。ここで言う対応するセクションの再生計画は、S157での決定内容に従うセクション内の文字列のモーショングラフィックス及び背景画像のモーショングラフィックスのシーケンス(即ち、表示手順)を表すデータに対応する。
図15Aに示す例によれば、1行目の歌詞に対して、分かち書きされた文字列の単位毎に、文字列のモーショングラフィックスTM11,TM12,TM13が決定され、モーショングラフィックスTM11,TM12,TM13の夫々に対応して、背景画像のモーショングラフィックスBM11,BM12,BM13が決定される。図15A及び図15Bにおいて示されるアスタリスクは、歌詞を構成する文字の抽象表現である。
同様に、2行目の歌詞に対して、分かち書きされた文字列の単位毎に、文字列のモーショングラフィックスTM21,TM22が決定され、モーショングラフィックスTM21,TM22の夫々に対応して、背景画像のモーショングラフィックスBM21,BM22が決定される。
データ取得部511は、S150において、楽曲を構成するセクションの配列順に各セクションに対する図14の処理を実行し、各セクションの再生計画を結合することにより、楽曲全体の再生計画を作成することができる。
以上に説明した第二実施形態の楽曲再生システムによれば、歌詞の特徴に合わせてモーショングラフィックスを表示することができるので、より楽曲にマッチしたモーショングラフィックスをディスプレイ55に表示させることが可能である。例えば、文字数の多い歌詞が歌われる楽曲部分では、多数の文字を表示するのに適したモーショングラフィックスを用いて、歌詞に対応する文字列をディスプレイ55に表示させることができる。文字数の少ない歌詞が歌われる楽曲部分では、少ない文字を表示面内にバランスよく配置可能なモーショングラフィックスを用いて、歌詞に対応する文字列をディスプレイ55に表示させることができる。
第二実施形態の楽曲再生システムは、次のように変形されてもよい。例えば、背景画像のモーショングラフィックスBM1,BM2は、図15Bに示すように行単位で決定されてもよい。例えば、データ取得部511は、背景画像に関しては、行単位で、その行の文字数及び再生長に対応する背景モーション定義データD232を参照し、背景画像のモーショングラフィックスを決定することができる。
あるいは、データ取得部511は、背景画像に関しては、対応する行の先頭文字列の文字数及び再生長に対応する背景モーション定義データD232を参照して、その行全体の背景画像のモーショングラフィックスを決定するように構成されてもよい。即ち、データ取得部511は、行内においては、背景画像のモーショングラフィックスを切り替えないように、再生計画を作成する構成にされてもよい。文字画像のモーショングラフィックスも同様に、行単位で決定されてよい。
この他、第二実施形態の楽曲再生システムは、第三実施形態に示すように変形されてもよい。以下において第三実施形態の楽曲再生システムを説明する際には、第二実施形態の楽曲再生システムと同一構成部分の説明を適宜省略する。第三実施形態の楽曲再生システムの各部は、特に代替する処理の説明がない限り、第二実施形態と同一構成を有すると理解されてよい。
[第三実施形態]
第三実施形態の楽曲再生システムは、図16に示すようにタイムコードTCが付された歌詞データDLを用いて、文字画像のモーショングラフィックスを表示制御するように構成される。タイムコードTCは、文字列単位で歌詞に付され、対応する文字列の表示開始時刻を、楽曲の再生開始時刻を起点とした経過時間で表す。即ち、歌詞データDLは、楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、文字列の表示開始時刻を表すタイムコードTCが付された構成にされる。
具体的に、本実施形態の楽曲再生システムは、互いに隣接する第一の文字列と第二の文字列との間の時間差TAをタイムコードTCに基づき判定し、その時間差TAに基づき、第一の文字列に関するモーショングラフィックスの表示終了タイミングを制御する。
図17Aに示すように、互いに隣接する第一及び第二の文字列に関し、先行する第一の文字列に付されたタイムコードTCが表す表示開始時刻T1と、第一の文字列に続く第二の文字列に付されたタイムコードTCが表す表示開始時刻T2との間の時間差TA=T2−T1が閾値TH未満である場合、第一の文字列に関するモーショングラフィックスの表示終了タイミングは、時刻T2より所定時間TB前の時刻TE1に制御される。
図17Bに示すように、上記時間差TAが閾値TH以上である場合には、第一の文字列の表示開始時刻T1より所定時間TD後の時刻TE2に、第一の文字列の表示終了タイミングは、制御される。図17A及び17Bにおける太矢印は、時間の流れを表し、メッシュ状のハッチングが施された領域は、文字列のモーショングラフィックスの表示期間を表し、斜線状のハッチングが施された領域は、対応する文字列が歌われる期間を表す。図17Bから理解できるように、所定時間TDは、時刻TE2が、対応する文字列が歌われる期間の終了時刻TEよりも後になるように定められる。
データ取得部511は、S150において、楽曲を構成するセクション毎に図14に示す処理を実行し、モーショングラフィックスの再生計画を作成することができる。データ取得部511は、図14に示す処理を開始すると、第二実施形態と同様に、S151〜S159の処理を実行する。但し、S157では、図18に示す処理を実行して、S153で選択した処理対象文字列のモーショングラフィックスの表示終了タイミングを決定する。なお、S153では、タイムコードTCが付された文字列単位で順に、文字列を処理対象に選択する。
図18に示す処理によれば、データ取得部511は、S153で選択した処理対象の文字列に付されたタイムコードTCから特定される、この文字列の表示開始時刻T1と、この処理対象の文字列に隣接する後続の文字列に付されたタイムコードTCから特定される、この後続文字列の表示開始時刻T2との時間差TAを算出する(S1571)。
その後、データ取得部511は、算出した時間差TAを予め定められた閾値THと比較し、時間差TAが閾値TH以上であるか否かを判断する(S1573)。
時間差TAが閾値TH未満であると判断すると(S1573でNo)、データ取得部511は、後続文字列の表示開始時刻T2を基準に、表示開始時刻T2より所定時間TB前の時刻TE1を、処理対象文字列のモーショングラフィックスの表示終了タイミングに決定して(S1575)、図18に示す処理を終了する。
時間差TAが閾値TH以上であると判断すると(S1573でYes)、データ取得部511は、処理対象文字列の表示開始時刻T1を基準に、表示開始時刻T1より所定時間TD後の時刻TE2を、処理対象文字列のモーショングラフィックスの表示終了タイミングに決定して(S1577)、図18に示す処理を終了する。
データ取得部511は、このようにしてモーショングラフィックスの表示終了タイミングを規定した再生計画を作成する。この再生計画において、各文字列のモーショングラフィックスの表示開始タイミングは、対応する文字列に付されたタイムコードTCが示す時刻に規定される。背景画像のモーショングラフィックスの表示開始及び表示終了タイミングは、文字列のモーショングラフィックスの表示開始及び表示終了タイミングに合わせることができる。
本実施形態によれば、楽曲の再生途中で、歌い終わった歌詞の文字列がディスプレイ55に長時間表示されたままとなり、ユーザに不快感が生じるのを抑制することができる。
S1577の処理により、処理対象文字列の表示終了タイミングが、後続文字列のモーショングラフィックスの表示開始時刻T2よりかなり前に調整される場合には、処理対象文字列の表示終了後、後続文字列のモーショングラフィックスの表示が開始されるまでの間において、ディスプレイ55の表示が静かになる。
従って、データ取得部511は、図19で示すように、S1577の処理終了後、S1579に移行し、処理対象文字列のモーショングラフィックスの表示終了時刻TE2と、後続文字列のモーショングラフィックスの表示開始時刻T2との間に、つなぎ用のモーショングラフィックスをディスプレイ55に表示させるように、再生計画を作成してもよい。図17Cにおいて縦縞でハッチングされた領域は、つなぎ用のモーショングラフィックスが表示される期間を表す。
[第四実施形態]
続いて説明する第四実施形態の楽曲再生システム4は、第一実施形態では音響再生装置50が有する機能の一部が、受付サーバ80に設けられた構成にされる。第四実施形態の楽曲再生システム4のハードウェア構成は、音響再生装置50と、第一サーバ装置70及び第二サーバ装置90との間に、受付サーバ80が設けられている点を除いて、第一実施形態の楽曲再生システム1と基本的に同一である。
以下では、受付サーバ80の構成及び処理動作を、図20及び図22を用いて説明し、音響再生装置50が、図9に示す処理に代えて実行する処理の内容を、図21を用いて説明する。第四実施形態の楽曲再生システム4が備える、第一実施形態の楽曲再生システム1と同一構成の部位に関する説明は、適宜省略する。第一実施形態の楽曲再生システム1と同一符号が付された部位は、ハードウェア構成について、第一実施形態と同一構成を有すると理解されたい。
本実施形態の受付サーバ80は、音響再生装置50と広域ネットワークを通じて通信可能に配置される。受付サーバ80は、音響再生装置50からの要求に応じて、音響再生装置50で再生される楽曲にマッチしたモーショングラフィックスの表示用データDMを、音響再生装置50に提供するように構成される。
受付サーバ80は、メインユニット81と、記憶ユニット83と、通信ユニット87と、を備える。メインユニット81は、CPU81A及びRAM81Bを備え、CPU81Aは、各種プログラムに従う処理を実行する。RAM81Bは、CPU81Aによる処理実行時に作業領域として使用される。以下では、CPU81Aがプログラムに従って実行する処理を、受付サーバ80又はメインユニット81が実行する処理として説明する。
記憶ユニット83は、各種プログラム及びデータを記憶する。記憶ユニット83が記憶するデータには、曲ジャンル毎のモーショングラフィックスデータD2(図3参照)が含まれる。通信ユニット87は、広域ネットワークを通じて、音響再生装置50、第一サーバ装置70及び第二サーバ装置90と通信可能に構成される。
第一サーバ装置70は、受付サーバ80からの要求信号に従って、受付サーバ80から要求された歌詞データDLを、受付サーバ80に送信するように構成される。第二サーバ装置90は、受付サーバ80からの要求信号に従って、受付サーバ80から要求された楽曲のジャンルを表す曲ジャンルデータDG及び曲構造を表す曲構造データDSを受付サーバ80に送信するように構成される。
音響再生装置50のデータ取得部511は、図9に示す処理代えて、図21に示す処理を繰返し実行する。このデータ取得部511は、携帯通信端末10から送信される動作命令を、通信ユニット57を介して受信するまで待機する(S210)。
データ取得部511は、動作命令を受信すると(S210でYes)、この動作命令に付された曲目データを含む要求信号であって、当該曲目データに対応する楽曲再生時に表示すべきモーショングラフィックスの表示用データDMを要求する信号を、受付サーバ80に通信ユニット57を介して送信する(S220)。
データ取得部511は、この要求信号に従って受付サーバ80から送信されてくる表示用データDMを、通信ユニット57を介して受信し(S230)、受信が完了すると、準備完了通知を携帯通信端末10に送信する(S260)。
第一実施形態と同様、この準備完了通知により、携帯通信端末10では、楽曲データD1の再生処理が開始されて、再生用信号及び再生位置信号が送られてくる。音響再生装置50の表示制御部515は、この再生位置信号を、通信ユニット57を介して受信し、この再生位置信号及び上記表示用データDMに基づいて、スピーカ54からの楽曲再生音に対応するモーショングラフィックスがディスプレイ55に表示されるようにディスプレイ55を制御する。このようにして制御ユニット51は、再生される楽曲の進行に合わせて、歌詞の文字画像を含むモーショングラフィックスをディスプレイ55に表示させるように、ディスプレイ55を制御する。
本実施形態において音響再生装置50に提供される上記表示用データDMは、第一実施形態における再生計画に対応する。但し、本実施形態の音響再生装置50は、モーショングラフィックスデータD2を備えていなくてもよい。従って、再生計画は、モーショングラフィックスデータD2への参照情報を含んだ構成にされてもよいが、表示用データDMは、モーショングラフィックスデータD2への参照情報を含まない。即ち、表示用データDMは、音響再生装置50が、モーショングラフィックスデータD2なしで楽曲に対応したモーショングラフィックスをディスプレイ55に表示させることが可能なデータとして構成される。表示用データDMは、表示制御部515が解釈可能なプログラムを含むデータであってもよいし、動画データであってもよい。
受付サーバ80のメインユニット81は、図22に示す処理を繰返し実行することにより、音響再生装置50がS220で送信する要求信号を受け付け、要求信号に従う表示用データDMを音響再生装置50に提供するように動作する。
図22に示す処理において、メインユニット81は、再生される楽曲の上記曲目データを含む上記要求信号を、通信ユニット87を介して音響再生装置50から受信するまで待機する(S310)。この要求信号を受信すると、メインユニット81は、受信した上記曲目データに基づき、対応する歌詞データDLを、通信ユニット87を介して第一サーバ装置70から取得する(S320)。更に、メインユニット81は、対応する曲ジャンルデータDG及び曲構造データDSを、第二サーバ装置90から取得する(S330)。
その後、メインユニット81は、上記曲ジャンルデータDGに基づき、再生される楽曲の曲ジャンルを特定し、特定した曲ジャンルのモーショングラフィックスデータD2を記憶ユニット83から読み出す(S340)。
更に、メインユニット81は、読み出したモーショングラフィックスデータD2に含まれるコンポートネントデータD21及び接続用モーションデータD22の一群と、曲構造データDSから判別される楽曲を構成するセクションの種類及び配列と、に基づき、第一実施形態の再生計画に対応した上記楽曲を構成するセクションの種類及び配列に対応したモーショングラフィックスの表示用データDMを作成する(S350)。
具体的に、メインユニット81は、曲構造データDSに基づき、再生される楽曲が有するセクションの種類及び配列を、再生開始時刻を起点とする時間軸と対応付けて判別する。そして、表示用データDMとして、各セクションに対応する楽曲部分の再生時に、再生されるセクションの種類に対して、この楽曲のジャンルに対応するモーショングラフィックスデータD2が定義するモーショングラフィックスを、音響再生装置50に表示させるための表示用データDMを生成する。
例えば、メインユニット81は、第一サーバ装置70から取得した歌詞データDLから特定される歌詞を構成する文字列の夫々に対し、テキストモーション定義データD211が表す文字画像のフォントタイプ及びサイズ、並びに、文字画像の動きのパターン及び速度に関する情報を付与して、上記表示用データDMに、歌詞に関するテキストモーショングラフィックスの表示用データを組み込む。
その後、メインユニット81は、上記作成した表示用データDMを、要求元の音響再生装置50に通信ユニット87を介して送信する(S360)。本実施形態によれば、このようにして、第一実施形態では音響再生装置50が有する機能の一部が、受付サーバ80で実現される。
本開示は、以上に説明した実施形態に限定されるものではなく、種々の態様を採ることができる。音響再生装置50が有する機能の一部を受付サーバ80設ける技術的思想は、第二実施形態及び第三実施形態に適用されてもよい。表示用データDMは、単に、モーショングラフィックデータD2から抽出された上記再生される楽曲が有する各セクションに対応するコンポーネントデータD21のセットであってもよい。この場合、表示用データDMには、歌詞データDL及び曲構造データDSを含ませることができる。
コンポーネントデータD21,D23は、セクションの種類毎に設けられなくてもよい。即ち、全セクションに対して共通のコンポーネントデータD21,D23がモーショングラフィックスデータD2に格納されてもよい。上記歌詞の種類毎にコンポーネントデータD21を備えるようにモーショングラフィックスデータD2は構成されてもよい。
上記各実施形態における1つの構成要素が有する機能を複数の構成要素に分担させたり、複数の構成要素が有する機能を1つの構成要素に発揮させたりしてもよい。上記各実施形態の構成の一部を省略してもよい。上記各実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
用語間の対応関係は、次の通りである。スピーカ54は、音響デバイスの一例に対応し、ディスプレイ55は、表示デバイスの一例に対応する。再生制御部513は、再生制御ユニットの一例に対応する。データ取得部511が実行するS150の処理及び表示制御部515が実行する処理は、表示制御ユニットが実行する処理の一例に対応する。データ取得部511が実行するS120の処理、又は、メインユニット81が実行するS310−S330の処理は、取得ユニットが実行する処理の一例に対応する。メインユニット81が実行するS340−S360の処理は、出力ユニットが実行する処理の一例に対応する。

Claims (18)

  1. 音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、
    記憶デバイスが記憶するモーショングラフィックスデータに基づき、前記音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように構成された表示制御ユニットと、
    前記音響デバイスによって再生される楽曲のジャンルを特定可能なジャンル情報を取得するように構成されたジャンル取得ユニットと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞を構成する歌詞部分毎に表示タイミングを示す情報が付された歌詞データを取得するように構成された歌詞取得ユニットと、
    を備え、
    前記モーショングラフィックスデータは、前記表示デバイスに表示させるべきモーショングラフィックスを定義する複数のコンポーネントデータを含み
    前記表示制御ユニットは、前記各歌詞部分に対応する前記歌詞データに基づく文字のモーショングラフィックスを、前記複数のコンポーネントデータのうちのいずれか一つのコンポーネントデータにおけるモーショングラフィックスの定義に従って前記表示デバイスに表示させるように構成され、
    前記一つのコンポーネントデータとしては、前記楽曲のジャンル、及び、前記各歌詞部分の文字数に対応したコンポーネントデータが用いられる楽曲再生システム。
  2. 前記記憶デバイスは、前記モーショングラフィックスデータを、楽曲のジャンル毎に記憶し、
    前記表示制御ユニットは、前記ジャンル情報に基づき、前記記憶デバイスが記憶する前記モーショングラフィックスデータの内、前記音響デバイスにより再生される楽曲のジャンルに対応するモーショングラフィックスデータに基づき、前記表示デバイスに前記モーショングラフィックスを表示させる請求項1記載の楽曲再生システム。
  3. 前記歌詞データは、前記表示タイミングを示す情報として、前記歌詞部分毎にタイムコードが付された構成にされ、
    前記一つのコンポーネントデータは、前記楽曲のジャンル、及び、前記歌詞データから特定される前記タイムコード間の歌詞部分の文字数に応じて選択される請求項1又は請求項2記載の楽曲再生システム。
  4. 前記一つのコンポーネントデータは、前記楽曲のジャンル、並びに、前記タイムコード間の歌詞部分の文字数及び再生長に応じて選択される請求項3記載の楽曲再生システム。
  5. 前記表示制御ユニットは、前記音響デバイスにより再生される楽曲の進行に合わせて、前記楽曲の再生時刻に対応する前記タイムコードが付された前記歌詞部分を表す文字のモーショングラフィックスを、前記表示デバイスに表示させるように、前記表示デバイスを制御する請求項3又は請求項4記載の楽曲再生システム。
  6. 前記モーショングラフィックスは、前記文字に関するモーショングラフィックス及び背景画像に関するモーショングラフィックスを含み、
    前記コンポーネントデータは、前記文字に関するモーショングラフィックスを定義する第一定義データ、及び、前記背景画像に関するモーショングラフィックスを定義する第二定義データを有し
    前記表示制御ユニットは、前記音響デバイスにより再生される楽曲の進行に合わせて、前記一つのコンポーネントデータに含まれる前記第一定義データが定義する前記文字のモーショングラフィックスであって、対応する歌詞部分を表す前記文字のモーショングラフィックスを表示させ、更には、前記文字のモーショングラフィックスと併せて、前記第二定義データが定義する前記背景画像のモーショングラフィックスを表示させるように、前記表示デバイスを制御する請求項1〜請求項のいずれか一項記載の楽曲再生システム。
  7. 記表示制御ユニットは更に、前記タイムコードに対応する時間軸上に並ぶ複数の歌詞部分の内、互いに隣接する第一及び第二の歌詞部分であって前記第一の歌詞部分と前記第一の歌詞部分に続く前記第二の歌詞部分との間における前記タイムコードの時間差を判定し、前記時間差が基準以上である場合には、前記第一の歌詞部分に関するモーショングラフィックスの表示後、前記第二の歌詞部分に関するモーショングラフィックスの表示前に、別のモーショングラフィックスを前記表示デバイスに表示させるように、前記表示デバイスを制御する請求項5又は請求項5を引用する請求項6記載の楽曲再生システム。
  8. 記表示制御ユニットは更に、前記タイムコードに対応する時間軸上に並ぶ複数の歌詞部分の内、互いに隣接する第一及び第二の歌詞部分であって前記第一の歌詞部分と前記第一の歌詞部分に続く前記第二の歌詞部分との間における前記タイムコードの時間差を判定し、前記時間差が基準未満である場合には、前記タイムコードに従う前記第二の歌詞部分に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、前記第一の歌詞部分に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御し、前記時間差が基準以上である場合には、前記タイムコードに従う前記第一の歌詞部分に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、前記第一の歌詞部分に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御する請求項5又は請求項5を引用する請求項6記載の楽曲再生システム。
  9. 音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、
    記憶デバイスが記憶するモーショングラフィックスデータに基づき、前記音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように構成された表示制御ユニットと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、前記文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得するように構成された取得ユニットと、
    を備え、
    前記モーショングラフィックスデータは、楽曲部分の種類毎に、前記種類に属する楽曲部分の再生時に前記表示デバイスに表示させるべきモーショングラフィックスを定義しており、
    前記表示制御ユニットは、前記音響デバイスにより再生される楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別し、前記各楽曲部分の再生時に、この楽曲部分の種類に対して前記モーショングラフィックスデータが定義するモーショングラフィックスを表示させるように、前記表示デバイスを制御し、前記歌詞データに基づき、前記モーショングラフィックスとして、前記楽曲の再生時刻に対応する前記タイムコードが付された文字列に関するモーショングラフィックスを、前記表示デバイスに表示させ、
    前記表示制御ユニットは更に、前記複数の文字列の内、互いに隣接する第一及び第二の文字列であって前記第一の文字列と前記第一の文字列に続く前記第二の文字列との間における前記タイムコードの時間差を判定し、前記時間差が基準未満である場合には、前記タイムコードに従う前記第二の文字列に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御し、前記時間差が基準以上である場合には、前記タイムコードに従う前記第一の文字列に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御する楽曲再生システム。
  10. 前記モーショングラフィックスデータは、前記楽曲部分の種類として、楽曲を構成するセクションの種類毎に、前記表示デバイスに表示させるべきモーショングラフィックスを定義する請求項9記載の楽曲再生システム。
  11. 前記モーショングラフィックスデータは、前記楽曲部分の種類として、前記楽曲部分における歌詞の種類毎に、前記表示デバイスに表示させるべきモーショングラフィックスを定義する請求項9記載の楽曲再生システム。
  12. 前記歌詞の種類は、歌詞の文字数及び再生長の少なくとも一方で定められる請求項11記載の楽曲再生システム。
  13. 前記音響デバイスは、前記表示デバイスの表示面を部分的に覆うように配置された一以上のスピーカユニットを備え、
    前記表示制御ユニットは、前記スピーカユニットの周囲から放射状に広がる幾何学図形のモーショングラフィックスを前記表示デバイスに表示させるように、前記表示デバイスを制御する請求項1〜請求項12のいずれか一項記載の楽曲再生システム。
  14. 音響デバイスに楽曲を再生させるように構成された再生制御ユニットと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、前記文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得するように構成された取得ユニットと、
    前記取得ユニットが取得した前記歌詞データに基づき、前記音響デバイスによる楽曲再生に合わせて、前記楽曲の再生時刻に対応する前記タイムコードが付された文字列に関するモーショングラフィックスを表示デバイスに表示させるように、前記表示デバイスを制御する構成にされた表示制御ユニットと、
    を備え、
    前記表示制御ユニットは、前記複数の文字列の内、互いに隣接する第一及び第二の文字列であって前記第一の文字列と前記第一の文字列に続く前記第二の文字列との間における前記タイムコードの時間差を判定し、前記時間差が基準未満である場合には、前記タイムコードに従う前記第二の文字列に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御し、前記時間差が基準以上である場合には、前記タイムコードに従う前記第一の文字列に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御する楽曲再生システム。
  15. 楽曲に関する情報を取得するように構成された取得ユニットと、
    前記取得ユニットが取得した前記楽曲に関する情報、及び、記憶デバイスが記憶するモーショングラフィックスデータに基づき、音響デバイスにより再生される前記楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるための表示用データを出力するように構成された出力ユニットと、
    を備え、
    前記モーショングラフィックスデータは、前記表示デバイスに表示させるべきモーショングラフィックスを定義する複数のコンポーネントデータを含み
    前記楽曲に関する情報は、前記楽曲のジャンルを特定可能なジャンル情報、及び、前記楽曲の歌詞を構成する歌詞部分毎に表示タイミングを示す情報が付された歌詞情報を含み、
    前記出力ユニットは、前記楽曲に関する情報及び前記モーショングラフィックスデータに基づき、前記表示用データとして、前記楽曲の歌詞を構成する各歌詞部分に対応する各楽曲部分の再生時に前記複数のコンポーネントデータのうちのいずれか一つのコンポーネントデータに従うモーショングラフィックスを前記表示デバイスに表示させるための表示用データを生成するように構成され、
    前記出力ユニットは、前記ジャンル情報から特定される前記楽曲のジャンル、及び、前記歌詞情報から特定される前記各歌詞部分の文字数に応じて、前記一つのコンポーネントデータを選択し、前記一つのコンポーネントデータに従うモーショングラフィックスとして、対応する歌詞部分を表す文字のモーショングラフィックスを、前記表示デバイスに表示させるための前記表示用データを生成するデータ出力装置。
  16. 音響デバイスに楽曲を再生させることと、
    記憶デバイスが記憶するモーショングラフィックスデータに基づき、前記音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように、前記表示デバイスを制御することと、
    前記音響デバイスによって再生される楽曲のジャンルを特定可能なジャンル情報を取得することと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞を構成する歌詞部分毎に表示タイミングを示す情報が付された歌詞データを取得することと、
    を含み、
    前記モーショングラフィックスデータは、前記表示デバイスに表示させるべきモーショングラフィックスを定義する複数のコンポーネントデータを含み
    前記表示デバイスを制御することは
    前記各歌詞部分に対応する前記歌詞データに基づく文字のモーショングラフィックスを、前記複数のコンポーネントデータのうちのいずれか一つのコンポーネントデータにおけるモーショングラフィックスの定義に従って前記表示デバイスに表示させることと、
    前記一つのコンポーネントデータとして、前記楽曲のジャンル、及び、前記各歌詞部分の文字数に対応したコンポーネントデータを選択することと、
    を含む楽曲再生方法。
  17. 音響デバイスに楽曲を再生させることと、
    記憶デバイスが記憶するモーショングラフィックスデータに基づき、前記音響デバイスにより再生される楽曲の進行に合わせて、表示デバイスにモーショングラフィックスを表示させるように、前記表示デバイスを制御することと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、前記文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得することと、
    を含み、
    前記モーショングラフィックスデータは、楽曲部分の種類毎に、前記種類に属する楽曲部分の再生時に前記表示デバイスに表示させるべきモーショングラフィックスを定義しており、
    前記表示デバイスを制御することは、
    前記音響デバイスにより再生される楽曲が有する複数の楽曲部分に関して、各楽曲部分の種類を判別することと、
    前記各楽曲部分の再生時に、この楽曲部分の種類に対して前記モーショングラフィックスデータが定義するモーショングラフィックスを表示させるように、前記表示デバイスを制御することにより、前記楽曲の進行に合わせて、前記表示デバイスにモーショングラフィックスを表示させることであって、前記歌詞データに基づき、前記音響デバイスによる楽曲再生に合わせて、前記楽曲の再生時刻に対応する前記タイムコードが付された文字列に関するモーショングラフィックスを、前記表示デバイスに表示させることと、
    前記複数の文字列の内、互いに隣接する第一及び第二の文字列であって前記第一の文字列と前記第一の文字列に続く前記第二の文字列との間における前記タイムコードの時間差を判定し、前記時間差が基準未満である場合には、前記タイムコードに従う前記第二の文字列に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御し、前記時間差が基準以上である場合には、前記タイムコードに従う前記第一の文字列に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御することと、
    を含む楽曲再生方法。
  18. 音響デバイスに楽曲を再生させることと、
    前記音響デバイスによって再生される楽曲の歌詞データであって、前記楽曲の歌詞全体を分割して定められる複数の文字列の夫々に対して、前記文字列の表示開始時刻を表すタイムコードが付された歌詞データを取得することと、
    取得した前記歌詞データに基づき、前記音響デバイスによる楽曲再生に合わせて、前記楽曲の再生時刻に対応する前記タイムコードが付された文字列に関するモーショングラフィックスを表示デバイスに表示させるように、前記表示デバイスを制御することと、
    を含み、
    前記表示デバイスを制御することは、前記複数の文字列の内、互いに隣接する第一及び第二の文字列であって前記第一の文字列と前記第一の文字列に続く前記第二の文字列との間における前記タイムコードの時間差を判定し、前記時間差が基準未満である場合には、前記タイムコードに従う前記第二の文字列に関するモーショングラフィックスの表示開始時刻より所定時間前の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御し、前記時間差が基準以上である場合には、前記タイムコードに従う前記第一の文字列に関するモーショングラフィックスの表示開始時刻より所定時間後の時刻に、前記第一の文字列に関するモーショングラフィックスの表示が終了するように前記表示デバイスを制御することを含む楽曲再生方法。
JP2017505427A 2015-03-12 2016-03-11 楽曲再生システム、データ出力装置、及び楽曲再生方法 Active JP6721570B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015049663 2015-03-12
JP2015049663 2015-03-12
PCT/JP2016/057868 WO2016143907A1 (ja) 2015-03-12 2016-03-11 楽曲再生システム、データ出力装置、及び楽曲再生方法

Publications (2)

Publication Number Publication Date
JPWO2016143907A1 JPWO2016143907A1 (ja) 2018-01-18
JP6721570B2 true JP6721570B2 (ja) 2020-07-15

Family

ID=56880164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017505427A Active JP6721570B2 (ja) 2015-03-12 2016-03-11 楽曲再生システム、データ出力装置、及び楽曲再生方法

Country Status (3)

Country Link
US (1) US10186246B2 (ja)
JP (1) JP6721570B2 (ja)
WO (1) WO2016143907A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016051534A1 (ja) * 2014-09-30 2016-04-07 株式会社Six 音響システム、通信機器及びプログラム
US10607586B2 (en) * 2016-05-05 2020-03-31 Jose Mario Fernandez Collaborative synchronized audio interface
JP6978028B2 (ja) * 2017-02-07 2021-12-08 株式会社Cotodama 表示制御システム、表示制御方法、及び、プログラム
JP7035486B2 (ja) * 2017-11-30 2022-03-15 カシオ計算機株式会社 情報処理装置、情報処理方法、情報処理プログラム、及び、電子楽器
US10872115B2 (en) * 2018-03-19 2020-12-22 Motorola Mobility Llc Automatically associating an image with an audio track
CN112380378B (zh) * 2020-11-17 2022-09-02 北京字跳网络技术有限公司 歌词特效展示方法、装置、电子设备及计算机可读介质
CN112380379B (zh) * 2020-11-18 2023-05-02 抖音视界有限公司 歌词特效展示方法、装置、电子设备及计算机可读介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3564753B2 (ja) 1994-09-05 2004-09-15 ヤマハ株式会社 歌唱用伴奏装置
JPH10222177A (ja) * 1997-02-04 1998-08-21 Matsushita Electric Ind Co Ltd 音楽再生装置
JP3522194B2 (ja) * 2000-06-14 2004-04-26 株式会社第一興商 歌詞表示の修飾表現に特徴を有するカラオケ装置
JP2003271158A (ja) * 2002-03-14 2003-09-25 Pioneer Electronic Corp 画像変更機能を持つカラオケ装置及びプログラム
JP2004354423A (ja) * 2003-05-27 2004-12-16 Xing Inc 音楽再生装置及びその映像表示方法
JP4962067B2 (ja) * 2006-09-20 2012-06-27 株式会社Jvcケンウッド 楽曲再生装置、楽曲再生方法、および楽曲再生プログラム
JP5297662B2 (ja) * 2007-03-13 2013-09-25 ヤマハ株式会社 楽曲データ加工装置、カラオケ装置、及びプログラム
JP5104709B2 (ja) * 2008-10-10 2012-12-19 ソニー株式会社 情報処理装置、プログラム、および情報処理方法
JP2012088402A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP5839956B2 (ja) * 2011-11-21 2016-01-06 株式会社エクシング カラオケシステム、カラオケ歌詞表示方法、カラオケ端末装置、及びコンピュータプログラム
JP6159989B2 (ja) * 2013-06-26 2017-07-12 Kddi株式会社 シナリオ生成システム、シナリオ生成方法およびシナリオ生成プログラム
WO2016051534A1 (ja) * 2014-09-30 2016-04-07 株式会社Six 音響システム、通信機器及びプログラム

Also Published As

Publication number Publication date
US10186246B2 (en) 2019-01-22
JPWO2016143907A1 (ja) 2018-01-18
WO2016143907A1 (ja) 2016-09-15
US20180047374A1 (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6721570B2 (ja) 楽曲再生システム、データ出力装置、及び楽曲再生方法
US10434420B2 (en) Music game software and input device utilizing a video player
JP3686906B2 (ja) 音楽ゲームプログラム及び音楽ゲーム装置
EP2760014B1 (en) Interactive score curve for adjusting audio parameters of a user's recording.
JP6665446B2 (ja) 情報処理装置、プログラム及び音声合成方法
KR20180063227A (ko) 오디오 컨텐츠의 동적 변경
US7777124B2 (en) Music reproducing program and music reproducing apparatus adjusting tempo based on number of streaming samples
US8761567B2 (en) Moving image reproducer reproducing moving image in synchronization with musical piece
JP4513578B2 (ja) 音響再生装置、音響再生方法、プログラム、及びテレビジョン装置
JP2013207466A (ja) 動画再生装置およびプログラム
CN115831080A (zh) 确定音频的方法、装置、电子设备及存储介质
US9508329B2 (en) Method for producing audio file and terminal device
JP6028489B2 (ja) 動画再生装置、動画再生方法、及びプログラム
JP6897101B2 (ja) 楽譜処理システム、楽譜処理方法および楽譜処理プログラム
JP3522194B2 (ja) 歌詞表示の修飾表現に特徴を有するカラオケ装置
JP6601615B2 (ja) 動画処理システム、動画処理プログラム、及び、携帯端末
JP7249859B2 (ja) カラオケシステム
JP6917723B2 (ja) 表示制御システム、表示制御方法、及び、プログラム
JP6978028B2 (ja) 表示制御システム、表示制御方法、及び、プログラム
WO2011030761A1 (ja) 音楽ゲームシステム及びそのコンピュータプログラム並びに効果音データの生成方法
JP5860575B1 (ja) 音声録音プログラム、音声録音端末装置、及び音声録音システム
JP2024506174A (ja) 特殊効果処理方法及び装置
JP5348173B2 (ja) 電子情報処理装置及びプログラム
JP5891883B2 (ja) 画像生成方法、画像生成装置及びプログラム
JP2011082714A (ja) 動画作成装置、コンピュータプログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250