JP2017010326A - 画像データ生成装置およびコンテンツ再生装置 - Google Patents

画像データ生成装置およびコンテンツ再生装置 Download PDF

Info

Publication number
JP2017010326A
JP2017010326A JP2015125896A JP2015125896A JP2017010326A JP 2017010326 A JP2017010326 A JP 2017010326A JP 2015125896 A JP2015125896 A JP 2015125896A JP 2015125896 A JP2015125896 A JP 2015125896A JP 2017010326 A JP2017010326 A JP 2017010326A
Authority
JP
Japan
Prior art keywords
image
image data
data
data generation
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015125896A
Other languages
English (en)
Inventor
辰弥 寺島
Tatsuya Terajima
辰弥 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015125896A priority Critical patent/JP2017010326A/ja
Publication of JP2017010326A publication Critical patent/JP2017010326A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツの内容に合わせた画像を生成する画像データ生成装置およびコンテンツ再生装置を提供する。【解決手段】画像データ生成装置は、コンテンツデータを取得する取得部と、画像データを生成する画像データ生成部と、前記コンテンツデータからテキスト情報を抽出する抽出部と、を備えている。そして、前記画像データ生成部は、複数の素材画像から、前記抽出部が抽出したテキスト情報に対応する素材画像を読み出し、前記コンテンツデータに同期した画像データを生成することを特徴とする。【選択図】図6

Description

本発明は、画像データを生成する画像データ生成装置に関する。
画像データ生成装置の一例として、例えばカラオケ装置がある。カラオケ装置は、カラオケ曲の再生を行うとともに、LCD等の表示装置に背景映像を表示することが一般的である。
背景映像は、曲調および歌詞の内容と一致しない場合、歌唱意欲を低下させることになり、カラオケにおいては好ましくない。しかし、曲毎に適切な背景映像を個別に用意するのは手間がかかり、かつデータ量が膨大となる。
そこで、例えば特許文献1には、歌詞に含まれるキーワードから背景映像を選択するカラオケ装置が提案されている。
特開平09−179568号公報
しかし、特許文献1の手法では、キーワードに対応する汎用的な背景映像が読み出されるだけであり、コンテンツの内容との一致精度には限界がある。
そこで、本発明は、より高精度にコンテンツの内容に合わせた画像を生成する画像データ生成装置および当該画像データ生成装置を備えたコンテンツ再生装置を提供することを目的とする。
本発明の画像データ生成装置は、コンテンツデータを取得する取得部と、画像データを生成する画像データ生成部と、前記コンテンツデータからテキスト情報を抽出する抽出部と、を備えている。そして、前記画像データ生成部は、複数の素材画像から、前記抽出部が抽出したテキスト情報に対応する素材画像を読み出し、前記コンテンツデータの再生進行に応じた画像データを生成することを特徴とする。
コンテンツデータは、テキスト情報が含まれたデータであり、例えば電子書籍、カラオケ楽曲、ニュースコンテンツ、またはブログ等のSNSコンテンツ等がある。画像データ生成装置は、コンテンツデータに同期して、当該コンテンツデータからテキスト情報を抽出して、対応する素材画像を読み出して画像データを生成することで、コンテンツの内容に合わせた画像の表示を行う。例えば、画像データ生成装置がカラオケの楽曲データを取得する場合、歌詞の内容に一致した内容の画像が生成される。
なお、抽出部は、前記コンテンツデータを所定区間毎に区切り、各所定区間について前記テキスト情報を抽出することが好ましい。この場合、さらに高精度にコンテンツの内容に一致した画像データ生成される。
また、各素材画像は、前記画像データにおける各素材画像の配置を指定する情報と対応付けられていることで、素材毎に適した配置を実現することができる。
なお、抽出されるテキスト情報に対応する素材画像が、複数存在する場合がある。そのため、各素材画像は、複数のキーワードと対応付けられていて、各キーワードには、優先度が割り当てられている態様とすることが好ましい。この場合、画像データ生成部は、テキスト情報に一致するキーワードを有する素材画像を複数選択し、選択した複数の素材画像から、最も優先度が高いキーワードと対応付けられた素材画像を読み出す。
また、画像データ生成部は、テキスト情報に対応する素材画像がなかった場合に、コンテンツ名に対応する素材画像を読み出すことで、何も表示されない状態を防ぐことが好ましい。
本発明の画像データ生成装置は、コンテンツの内容に合わせた画像を生成することができる。
カラオケ装置の構成を示したブロック図である。 楽曲データの構造を示す図である。 解析部14の機能ブロック図である。 歌詞の一例を示す図である。 オブジェクト情報を示す図である。 テキスト情報とオブジェクト情報の関係を示す図である。 図7(A)は、仮想空間の一例を示す図であり、図7(B)は、生成された画像データの一例を示す図である。 カラオケ装置の動作を示すフローチャートである。 シーケンス動作を示すフローチャートである。 コンテンツ再生装置の最小構成を示すブロック図である。 ヘッドマウントディスプレイを用いる場合の例を示す図である。
図1は、コンテンツ再生装置の構成を示すブロック図である。コンテンツ再生装置は、コンテンツデータを再生し、コンテンツの内容に合った画像データを生成する装置である。コンテンツデータは、少なくともテキスト情報を含むデータである。コンテンツ再生装置は、例えば電子書籍、カラオケ楽曲、ニュースコンテンツ、またはブログ等のSNSコンテンツを再生する。図1においては、一例としてカラオケ装置1を示し、コンテンツデータの一例として楽曲データを示す。
カラオケ装置1は、CPU11、RAM12、HDD13、ネットワークインタフェース(I/F)14、LCD(タッチパネル)15、マイク16、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、サウンドシステム(SS)20、スピーカ21、出力部22、モニタ23、操作部24、および送受信部25を備えている。
CPU11は、カラオケ装置1の動作を統括的に制御する。CPU11には、RAM12、HDD13、ネットワークインタフェース(I/F)14、LCD(タッチパネル)15、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、出力部22、操作部24、および送受信部25が接続されている。
CPU11は、HDD13に記憶されている動作用プログラムを読み出し、ワークメモリであるRAM12に読み出して種々の動作を行う。例えば、CPU11は、楽曲データに応じてカラオケ曲を演奏する曲シーケンサ101の機能を実現する(本発明の再生部として機能する)。また、CPU11は、モニタ23に背景映像として表示するための画像データを生成する画像シーケンサ103の機能を実現する(本発明の画像データ生成部として機能する)。
タッチパネル15および操作部24は、カラオケ装置の前面に設けられている。CPU11は、タッチパネル15から入力される操作情報に基づいて、操作情報に応じた画像をタッチパネル15上に表示し、GUIを実現する。また、リモコン9も同様のGUIを実現するものである。CPU11は、タッチパネル15、操作部24、または送受信部25を介してリモコン9から入力される操作情報に基づいて、各種の動作を行う。CPU11は、例えば音量の変更、テンポの変更、またはキーの変更等の動作を行う。
次に、カラオケ演奏について説明する。上述したように、CPU11は、機能的に曲シーケンサ101を内蔵している。CPU11は、RAM12の予約リストに登録された予約曲の曲番号に対応する楽曲データをHDD13から読み出し、曲シーケンサ101でカラオケ演奏を開始する。なお、楽曲データは、ネットワークI/F14を介して、定期的に配信センタ等から受信する。
図2は、楽曲データの構造を示す図である。楽曲データは、図2に示すように、曲番号、曲名(タイトル)、アーティスト、作詞作曲者、および楽曲ジャンル等が書き込まれているヘッダと、演奏用MIDIデータが書き込まれている楽音トラックと、ガイドメロディ用MIDIデータが書き込まれているガイドメロディトラックと、歌詞用MIDIデータが書き込まれている歌詞トラックと、バックコーラス再生タイミングおよび再生すべき音声データが書き込まれているコーラストラックと、からなる。
楽音トラックは、楽音を発生させる楽器の種類、タイミング、音程(キー)、強さ、長さ、定位(パン)、および音響効果(エフェクト)等を示す情報が記録されている。ガイドメロディトラックは、お手本の歌唱に対応する各音の発音開始タイミング、および発音の長さ等の情報が記録されている。
曲シーケンサ101は、楽音トラックのデータに基づいて音源18を制御し、カラオケ曲の楽音を発生する。音源18は、曲シーケンサ101の処理によってCPU11から入力されたデータ(ノートイベントデータ)に応じて楽音信号(デジタル音声信号)を生成する。生成された楽音信号は、ミキサ19に入力される。
また、曲シーケンサ101は、曲の進行に従ってコーラストラックの音声データ(楽曲データに付随しているMP3等の圧縮音声データ)を再生する。再生されたコーラス音は、デジタル音声信号としてミキサ19に入力される。
ミキサ19は、音源18が発生した楽音信号、コーラス音、およびマイク(歌唱音声入力手段)16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に対してエコー等の音響効果を付与するとともに、これらの信号をミキシングする。なお、エコー等の音響効果のパラメータは、画像シーケンサ103により生成される背景映像の内容に応じて変更してもよい。例えば反射音が大きい空間(例えば洞窟等)の背景映像が生成される場合には、反射音が大きくなるパラメータを設定する。
ミキシングされた信号は、サウンドシステム20に入力される。サウンドシステム20は、D/Aコンバータおよびパワーアンプを内蔵しており、入力されたデジタル信号をアナログ信号に変換して増幅し、スピーカ21から放音する。ミキサ19が各音声信号に付与する効果およびミキシングのバランスは、CPU11によって制御される。このようにして、カラオケ楽曲がスピーカ21から出力される。
また、CPU11の歌詞シーケンサ102は、歌詞トラックに基づいて曲の進行に同期して歌詞の文字パターンを生成する。歌詞シーケンサ102は、歌詞トラックが示すノートイベントに従って文字パターンを生成する。歌詞シーケンサ102により生成された文字パターンは、画像シーケンサ103により背景映像に合成される。
画像シーケンサ103は、曲シーケンサ101による楽音の発生と同期して、HDD13から素材画像(素材データ)を読み出し、背景映像となる画像データを生成する。読み出す対象と読み出すタイミングを示すシーケンスデータは、解析部104により生成される。なお、画像シーケンサ103が生成する画像データは、静止画または動画である。
図3は、解析部104の構成を示す機能ブロック図である。解析部104は、楽曲解析部141、歌詞解析部142、マッチング部143、およびシーケンスデータ作成部144を備えている。
楽曲解析部141は、HDD13から読み出した楽曲データを解析し、歌唱区間、間奏区間、調、またはコード進行、等を抽出する。歌唱区間、間奏区間、調、またはコード進行、等の情報は、背景映像の切り替えタイミングを決めるための情報である。歌唱区間は、ガイドメロディトラックのうちノートイベントがない箇所で区切る。あるいは、楽曲データがMP3等のオーディオデータである場合、楽曲解析部141は、無音区間を抽出し、当該無音区間を区切りとしてもよい。楽曲解析部141は、楽曲データのうち、抽出した歌唱区間を示す情報を歌詞解析部142およびシーケンスデータ作成部144に入力する。
歌詞解析部142は、本発明の抽出部に相当し、楽曲データの歌詞トラックから、歌唱区間毎にテキスト情報を抽出する。テキスト情報は、名詞、形容詞、または固有名詞等からなる。抽出手法は、コスト最小法、あるいは最長一致法等、どの様な手法を用いてもよい。抽出したテキスト情報は、マッチング部143に入力される。例えば、図4に示すような歌唱区間の歌詞であれば、「冬」、「雪」、「富士山」、「月」、「夜」、および「水辺」等のテキスト情報が抽出される。
マッチング部143は、歌詞解析部142で抽出されたテキスト情報に対応する素材データをHDD13から検索する。
図5は、素材データを管理するためのオブジェクト情報を示す図である。オブジェクト情報は、各素材データのヘッダとして、あるいは各素材データと対応付けられた別データとして、HDD13に記憶されている。
図5に示すように、オブジェクト情報には、代表単語、情景単語、属性、禁止属性、輝度情報、素材データ所在、移動シーケンス、追加オブジェクト指定、追加オブジェクト座標、追加オブジェクトサイズ、および追加オブジェクト角度等の情報が含まれている。
マッチング部143は、歌詞解析部142で抽出されたテキスト情報と同じ代表単語を有するオブジェクト情報を検索する。また、マッチング部143は、歌詞解析部142で抽出されたテキスト情報と同じ情景単語を有するオブジェクト情報も検索する。すなわち、マッチング部143は、画像シーケンサ103が画像データを生成するために必要な素材データを選択する処理を行う。
画像データの生成には、例えばBASE、BACKGROUND、WEATHER、FLY−OBJECT、NEAR−OBJECT、およびFAR−OBJECT等の属性を有する素材データが必要である。BASEは、地面に配置される素材であり、例えば浜辺、アスファルト、草原、部屋、ホール、スタジアム、または砂丘、等の素材である。BACKGROUNDは、地平線または水平線の近くに配置される素材であり、山、雲、またはビル等の素材である。WEATHERは、空に配置される素材であり、朝、夜、雨、雪、流れ星、虹、霧、またはオーロラ等の素材である。FLY−OBJECTは、背景映像内を飛ぶ物体に係る素材であり、例えば鳥、ほたる、水、パーティクル、隕石、飛行機、または人工衛星等の素材である。NEAR−OBJECTは、視点の近くに配置される物体に係る素材であり、テーブル、マイク、照明、または木等の素材である。FAR−OBJECTは、視点の遠くに配置される物体に係る素材であり、例えば富士山、木、またはビル等の素材である。
また、オブジェクト情報には、同時に使用できない属性として「禁止属性」が設定されている場合がある。例えば、BASEとして「ホール」が選択された場合には、BACKGROUNDの属性は選択されないようになっている。すなわち、「ホール」は室内であり、地平線および水平線が存在しないため、地平線または水平線の近くに配置される素材が選択されないようになっている。
マッチング部143は、BASEから順に、BACKGROUND、WEATHER、FLY−OBJECT、NEAR−OBJECT、およびFAR−OBJECTまで、それぞれ歌詞解析部142で抽出されたテキスト情報に対応するオブジェクト情報を選択する。ただし、マッチング部143は、複数のオブジェクト情報が検索された場合には、情景単語に付加されている優先順位点(優先度)が最も高いものを選択する。あるいは、利用者から各素材の人気投票を受け付け、利用者からの投票結果を集計して各素材に点数を付加し、当該点数の高いものを選択するようにしてもよい。
また、一致するオブジェクト情報がなかった場合には、コンテンツ名(曲名)に対応するオブジェクト情報を選択してもよい。あるいは、楽曲解析部141で解析された調に係る情報から対応するオブジェクト情報を選択してもよい。この場合、各調に対応するオブジェクト情報を予め用意しておく。
マッチング部143は、選択した各属性のオブジェクト情報をシーケンスデータ作成部144に入力する。シーケンスデータ作成部144は、入力されたオブジェクト情報に基づいて、画像シーケンサ103が画像データを生成するためのシーケンスデータを作成する。
画像シーケンサ103が画像データを生成するためのシーケンスデータは、楽音トラックおよび歌詞トラックと同様に、MIDI規格に準じたデータであり、使用する素材データを指定する情報(素材データ所在)と、当該素材データの配置を示す情報(属性)と、当該素材データを背景映像内に表示させるタイミングを示す情報と、が含まれている。また、当該素材データ自体の動きを示す情報(移動シーケンス)が含まれている場合もある。移動シーケンスは、各処理タイミングにおける素材データの位置を示す情報が含まれて、当該移動シーケンスを画像シーケンサ103が読み出すことで、素材データを移動させることができる。また、各素材自体が可動部を有する場合には、各可動部の動きを制御するための情報が含まれている。
例えば、図6(A)に示す例では、テキスト情報として、「冬」、「雪」、「富士山」、「月」、「夜」、および「水辺」等のテキスト情報が抽出されている。したがって、オブジェクト情報として、図6(B)乃至図6(F)に示すような属性を有するオブジェクト情報が選択される。すなわち、この例では、BASE属性として「水辺」のオブジェクト情報、WEATHER属性として「雪」および「夜」のオブジェクト情報、FLY−OBJECT属性として「月」のオブジェクト情報、FAR−OBJECT属性として「富士山」のオブジェクト情報が選択される。
したがって、シーケンスデータ作成部144は、これらオブジェクト情報に対応する素材データを指定する情報と、各素材データの配置を示す情報と、を含むシーケンスデータを作成する。また、代表単語「雪」のオブジェクト情報は、移動シーケンスが含まれているため、各処理タイミングにおける「雪」の素材データの位置を示す情報を生成する。ただし、「雪」のような素材データは、揺れながら緩やかに落下するように移動すればよいため、各処理タイミングにおける素材データの位置を示す情報までは不要である。例えばシーケンスデータ作成部144は、「揺れながら緩やかに落下させる」と示す情報を付加し、画像シーケンサ103は、当該情報に基づいて「雪」の画像を移動させればよい。
これにより、画像シーケンサ103は、対応する素材データをHDD13から読み出し、画像データを生成する。すなわち、画像シーケンサ103は、まずBASEの属性の素材データをHDD13から読み出し、仮想空間内に配置する。同様に、画像シーケンサ103は、BACKGROUND、WEATHER、FLY−OBJECT、NEAR−OBJECT、およびFAR−OBJECTの素材データを仮想空間内に配置する。そして、視点位置を任意に設定し、視点位置からカメラで撮影したような背景映像(画像データ)を生成する。なお、視点位置は固定であってもよいし、ランダムに移動させる動作を行ってもよい。あるいは、オブジェクト情報に視点位置(視点シーケンス)が記載されていてもよい。
例えば、図6(B)乃至図6(F)に示したオブジェクト情報が選択された場合、画像シーケンサ103は、図7(A)に示すように、水辺画像52、雪画像53、夜画像54、月画像55、および富士山画像56を、仮想空間上のそれぞれの属性に対応する位置に配置する。また、代表単語「夜」のオブジェクト情報には、輝度情報として「−50%]の情報が含まれているため、画像シーケンサ103は、空の画像を暗く設定する。さらに、図6(B)乃至図6(F)に示したオブジェクト情報では、追加オブジェクトとして松画像58および山脈画像59も含まれているため、画像シーケンサ103は、これら松画像58および山脈画像59も指定された位置に配置する。
これにより、CPU11は、歌詞トラックから抽出したテキスト情報に対応する素材データを読み出し、カラオケ曲の再生進行に応じた画像データを生成することができる。
また、生成された画像データには、歌詞の文字パターンも重畳される。上述したように、CPU11の歌詞シーケンサ102は、歌詞トラックに基づいて曲の進行に同期して歌詞の文字パターンを生成する。CPU11の画像シーケンサ103は、歌詞シーケンサ102の動作により生成された文字パターンを背景映像に重畳させる。CPU11は、当該文字パターンが重畳された2次元画像を出力部22に出力する。
なお、歌詞の文字パターンも、素材データの1つとして仮想空間上に配置されることが好ましい。この場合、視点の位置および方向の変化に応じて、他の素材データとともに歌詞の画像も画面内で移動することになる。また、歌詞に対応する素材データは、仮想空間内に1つだけ配置する例に限らず、複数箇所(例えば4箇所あるいは8箇所)に配置されていてもよい。複数箇所に配置されることで、視点位置および方向が変化した場合にも利用者は、必ず歌詞を視認することができる。
以上のようにして、モニタ23には、図7(B)に示すような背景映像および歌詞画像が表示される。上述したように、素材データは、所定の歌唱区間毎に歌詞を解析して選択されたものであり、かつ歌唱区間毎に変化するため、高精度に楽曲の内容に合致した背景映像が表示されることになる。ただし、背景映像の切り替えタイミングは、歌唱区間に限るものではない。例えば所定時間経過毎に定期的に切り替えられるようにしてもよい。
また、素材データは、予めHDD13に記憶されている場合、各楽曲データの容量が大きくなることはなく、新曲等の定期的な配信時にダウンロード量が大きくなることはない。
次に、カラオケ装置1の動作についてフローチャートを参照して説明する。図8は、カラオケ装置1の動作を示すフローチャートである。
まず、CPU11は、歌唱者から楽曲のリクエストを受け付ける(s11)。次に、CPU11は、リクエストされた楽曲データを読み出し(s12)、解析を行う(s13)。解析は、CPU11の機能部である解析部104が行う。上述したように、解析部104は、歌詞トラックを読み出して、歌唱区間毎にテキスト情報を抽出し、対応する素材データを読み出すためのシーケンスデータを作成する。
次に、CPU11は、解析部104で作成したシーケンスデータ、およびHDD13から読み出した楽曲データを用いてシーケンス動作を行う(s14)。
図9は、シーケンス動作を示すフローチャートである。シーケンス動作は、曲シーケンサ101、歌詞シーケンサ102、および画像シーケンサ103がそれぞれ行うが、所定のクロック(指定されたテンポ)単位で、楽曲データにおける各トラックが示す処理を行うことにより同期される。
まず、曲シーケンサ101、歌詞シーケンサ102、および画像シーケンサ103は、初期化処理を行う(s101)。次に、曲シーケンサ101は、楽音トラックのシーケンスを行う。楽音トラックがノートイベントを指し示す場合には、当該ノートイベントに従って音源18を制御し、カラオケ曲の楽音の生成を行う(s42)。また、曲シーケンサ101は、コーラストラックのシーケンスも行い、バックコーラスの音声データを再生する。なお、ここでは、曲シーケンサ101は、音源18を制御して楽音の生成を行う例を示しているが、MP3等のオーディオデータを再生することも可能である。
画像シーケンサ103は、シーケンスデータ作成部144で作成されたシーケンスデータが示す素材データをHDD13から読み出し(s22)、仮想空間上に配置する(s23)。そして、画像シーケンサ103は、所定の視点位置から仮想空間上の素材データの投影変換を行い、2次元画像を生成する(s24)。これにより、背景映像が生成される。
一方、歌詞シーケンサ102は、歌詞トラックのシーケンスを行う。歌詞シーケンサ102は、歌詞トラックがノートイベントを指し示す場合、当該ノートイベントに従って文字パターンを生成する(s32)。歌詞シーケンサ102により生成された文字パターンは、画像シーケンサ103により背景映像に合成される(s25)。このようにして生成された背景映像が出力部22に出力され(s26)、モニタ23に表示される。
以上のような処理が終了すると、次のクロックに移行する(s102)。CPU11は、カラオケ曲の演奏が曲の終了まで進行したか否かを判断し(s15)、曲が終了するまで楽音の生成、背景映像の生成、および歌詞画像の生成を行う。また、フローチャートには示していないが、採点処理および採点結果に応じた点数を表示する処理等も行う。
以上のようにして、楽音の生成、背景映像の生成、および歌詞画像の生成が同期して進行される。
なお、本実施形態では、素材データとして3DCGを用意し、仮想空間上に配置して、所定の視点位置から当該素材データを見た場合の2次元の背景映像を生成する例を示したが、本発明において必須の処理ではない。例えば2次元画像を読み出して、2次元座標上に配置して背景映像を生成するだけでもよい。
なお、本実施形態では、画像データ生成装置を備えたコンテンツ再生装置として、カラオケ装置1を用いてカラオケ演奏および背景映像の表示を行う態様を示したが、例えばユーザの所有するPCやスマートフォン、ゲーム機等の情報処理装置を用いることでも、本発明の画像データ生成装置を実現することが可能である。
画像データ生成装置は、図10に示すように、ROM73に記憶されているプログラムをRAM72に読み出し、コンテンツデータを取得するコンテンツ取得処理、解析処理、および画像データ生成処理を行うCPU71を備えていればよい。図10に示すハードウェア以外の構成は、本発明において必須の要素ではない。また、コンテンツデータ、オブジェクト情報、および素材データは、それぞれ画像データ生成装置のROM73に記憶されて、当該ROM73から取得する必要はなく、インターネットを介して都度サーバ等からダウンロード(ストリーミング)して取得すればよい。
次に、図11は、カラオケ装置の応用例を示す図である。この応用例では、ユーザが、ヘッドフォン81およびヘッドマウントディスプレイ(以下、HMDと称する。)82を装着する。
HMD82は、モーションセンサを備え、ユーザの位置(X,Y,Z座標)およびユーザが向いている方位(ヨーθおよびピッチφ)を検出する。ユーザの位置は、室内に設置されたカメラでHMD82を撮影することで検出してもよい。
ヘッドフォン81は、カラオケ装置1に接続されていて、サウンドシステム20から出力されるカラオケ楽曲のオーディオ信号が入力される。
HMD82は、カラオケ装置1に接続されていて、モーションセンサで検出したユーザの位置および方位をカラオケ装置1のCPU11に出力する。また、HMD82は、出力部22から出力される背景映像を入力し、ディスプレイに表示する。
HMD82は、右目用のディスプレイと左目用のディスプレイとを備えている。したがって、CPU11は、右目用の背景映像(R)と、左目用の背景映像(L)と、を生成する。右目用の背景映像(R)および左目用の背景映像(L)は、視差を考慮して左右に所定距離だけずれた映像となっている。すなわち、CPU11は、視点位置データに示されるカメラ位置をオフセットして、右目用カメラ位置および左目用カメラ位置を設定し、右目用カメラ位置から見た2次元画像と、左目用カメラ位置から見た2次元画像と、をそれぞれ生成する。これにより、ユーザは、奥行きのある3D映像を見ることができ、より臨場感を得られる。
また、CPU11は、HMD82から得られたユーザの位置および方位を用いて、カメラ位置および方位を変化させてもよい。CPU11は、例えばカラオケ曲の演奏開始時点のユーザの位置および方位を初期値として、ユーザが右に90度向いた場合に、仮想空間内におけるカメラ61の方位も右に90度回転させた映像を生成する。
このようにして、HMD82を用いて背景映像を表示することで、利用者は、より没入感を得ることができる。
なお、本実施形態では、楽曲データは、一例としてMIDIデータを示したが、本発明のコンテンツデータは、MIDI規格に準じたデータに限るものではない。例えば、楽音トラックは、PCMあるいはMP3等のオーディオデータからなる態様であってもよい。また、歌詞トラックについても、歌詞文字列と歌詞表示時間が対応付けられたデータ列があればどのような形式であってもよい。画像データを生成するためのシーケンスデータも、MIDI規格に準ずる必要はなく、使用する素材データを指定する情報と、当該素材データの配置を示す情報と、当該素材データを背景映像内に表示させるタイミングを示す情報と、が含まれているデータ列であればどのような形式であってもよい。
1…カラオケ装置
9…リモコン
11…CPU
12…RAM
13…HDD
14…解析部
15…タッチパネル
16…マイク
17…A/Dコンバータ
18…音源
19…ミキサ
20…サウンドシステム
21…スピーカ
22…出力部
23…モニタ
24…操作部
25…送受信部
52…水辺画像
53…雪画像
54…夜画像
55…月画像
56…富士山画像
58…松画像
59…山脈画像
61…カメラ
71…CPU
72…RAM
73…ROM
74…出力部
81…ヘッドフォン
82…HMD
101…曲シーケンサ
102…歌詞シーケンサ
103…画像シーケンサ
104…解析部
141…楽曲解析部
142…歌詞解析部
143…マッチング部
144…シーケンスデータ作成部

Claims (6)

  1. コンテンツデータを取得する取得部と、
    画像データを生成する画像データ生成部と、
    前記コンテンツデータからテキスト情報を抽出する抽出部と、
    を備えた画像データ生成装置であって、
    前記画像データ生成部は、複数の素材画像から、前記抽出部が抽出したテキスト情報に対応する素材画像を読み出し、前記コンテンツデータに同期した画像データを生成することを特徴とする画像データ生成装置。
  2. 前記抽出部は、前記コンテンツデータを所定区間毎に区切り、
    前記画像データ生成部は、所定区間毎に前記画像データを生成する請求項1に記載の画像データ生成装置。
  3. 各素材画像は、前記画像データにおける各素材画像の配置を指定する情報と対応付けられている請求項1または請求項2に記載の画像データ生成装置。
  4. 各素材画像は、複数のキーワードと対応付けられていて、
    各キーワードには、優先度が割り当てられていて、
    前記画像データ生成部は、前記テキスト情報に一致するキーワードを有する素材画像を複数選択し、選択した複数の素材画像から、最も優先度が高いキーワードと対応付けられた素材画像を読み出す請求項1乃至請求項3のいずれかに記載の画像データ生成装置。
  5. 前記画像データ生成部は、前記テキスト情報に対応する素材画像がなかった場合に、コンテンツ名に対応する素材画像を読み出す請求項1乃至請求項4のいずれかに記載の画像データ生成装置。
  6. 請求項1乃至請求項5のいずれかに記載の画像データ生成装置と、
    前記コンテンツデータを再生する再生部と、
    前記画像データを出力する出力部と、
    を備えたコンテンツ再生装置。
JP2015125896A 2015-06-23 2015-06-23 画像データ生成装置およびコンテンツ再生装置 Pending JP2017010326A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015125896A JP2017010326A (ja) 2015-06-23 2015-06-23 画像データ生成装置およびコンテンツ再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015125896A JP2017010326A (ja) 2015-06-23 2015-06-23 画像データ生成装置およびコンテンツ再生装置

Publications (1)

Publication Number Publication Date
JP2017010326A true JP2017010326A (ja) 2017-01-12

Family

ID=57763616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015125896A Pending JP2017010326A (ja) 2015-06-23 2015-06-23 画像データ生成装置およびコンテンツ再生装置

Country Status (1)

Country Link
JP (1) JP2017010326A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058525A (ja) * 2015-09-16 2017-03-23 株式会社エクシング カラオケ装置及びカラオケ用プログラム
CN112699720A (zh) * 2020-10-10 2021-04-23 杭州翔毅科技有限公司 基于人物信息集的监控方法、设备、存储介质及装置
KR20220061728A (ko) * 2020-11-06 2022-05-13 윤경 태몽과 관련된 이미지를 획득하는 방법 및 디바이스

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058525A (ja) * 2015-09-16 2017-03-23 株式会社エクシング カラオケ装置及びカラオケ用プログラム
CN112699720A (zh) * 2020-10-10 2021-04-23 杭州翔毅科技有限公司 基于人物信息集的监控方法、设备、存储介质及装置
CN112699720B (zh) * 2020-10-10 2023-10-20 杭州翔毅科技有限公司 基于人物信息集的监控方法、设备、存储介质及装置
KR20220061728A (ko) * 2020-11-06 2022-05-13 윤경 태몽과 관련된 이미지를 획득하는 방법 및 디바이스
KR102559006B1 (ko) * 2020-11-06 2023-07-25 윤경 태몽과 관련된 이미지를 획득하는 방법 및 디바이스

Similar Documents

Publication Publication Date Title
US9779708B2 (en) Networks of portable electronic devices that collectively generate sound
US11004434B2 (en) Systems and methods for visual image audio composition based on user input
US11972748B2 (en) Audiovisual collaboration system and method with seed/join mechanic
US11178457B2 (en) Interactive music creation and playback method and system
ES2855224T3 (es) Un sistema y método para generar un archivo de audio
US20210055905A1 (en) Short segment generation for user engagement in vocal capture applications
KR20180027423A (ko) 지리적으로 분산된 연주자로부터 캡처된 콘텐츠에 기반하여 조율된 오디오비주얼 작품을 자동 생성하는 기법
EP3142383B1 (en) Terminal sound mixing system and playing method
JP2004538496A (ja) ネットワーク基盤の音楽演奏/歌の伴奏サービスシステム及びその方法
JP6371283B2 (ja) 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法
JP2017010326A (ja) 画像データ生成装置およびコンテンツ再生装置
KR101414217B1 (ko) 실시간 영상합성 장치 및 그 방법
CN114072872A (zh) 用于提供电子乐谱的系统和方法
WO2020006556A1 (en) Audiovisual collaboration system and method with seed/join mechanic
JP2011053345A (ja) 歌詞文字の立体表示機能を有するカラオケシステム
JP6121139B2 (ja) カラオケ歌唱映像の歌唱音声選択システム
JP2019109324A (ja) カラオケ生成装置
Dean Widening unequal tempered microtonal pitch space for metaphoric and cognitive purposes with new prime number scales
EP4307656A1 (en) Content data processing method and content data processing device
Farley et al. Augmenting creative realities: The second life performance project
Priest Sound Theaters of the 21st Century: Material Functions and Voltaic Performativities
Jadinon LEO PALAYENG: BRIDGING THE GAP FROM TRADITIONAL TO ELECTRONIC ACHOLI MUSIC
JP6401492B2 (ja) 通信カラオケシステムのサーバ
JP2021157007A (ja) フォトムービー生成システム、フォトムービー生成装置、ユーザ端末、フォトムービー生成方法、及びプログラム
JP2017004353A (ja) 画像データ生成装置、コンテンツ再生装置、およびデータ構造

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191029