JP4003482B2 - Content processing apparatus, method thereof, and program - Google Patents

Content processing apparatus, method thereof, and program Download PDF

Info

Publication number
JP4003482B2
JP4003482B2 JP2002053502A JP2002053502A JP4003482B2 JP 4003482 B2 JP4003482 B2 JP 4003482B2 JP 2002053502 A JP2002053502 A JP 2002053502A JP 2002053502 A JP2002053502 A JP 2002053502A JP 4003482 B2 JP4003482 B2 JP 4003482B2
Authority
JP
Japan
Prior art keywords
content
information
character
processing
character information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002053502A
Other languages
Japanese (ja)
Other versions
JP2003251071A (en
JP2003251071A5 (en
Inventor
曜一郎 佐古
俊介 古川
充 鳥山
祥雅 内海
薫 木島
和子 櫻井
隆 木原
達也 猪口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002053502A priority Critical patent/JP4003482B2/en
Priority to US10/364,495 priority patent/US20030166414A1/en
Publication of JP2003251071A publication Critical patent/JP2003251071A/en
Publication of JP2003251071A5 publication Critical patent/JP2003251071A5/ja
Priority to US11/827,629 priority patent/US20070254737A1/en
Application granted granted Critical
Publication of JP4003482B2 publication Critical patent/JP4003482B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、音楽や映像などのコンテンツを記録または再生するコンテンツ処理装置およびその方法ならびプログラムに関するものである。
【0002】
【従来の技術】
仮想のキャラクタを育成してその成長過程を楽しむキャラクタ育成ゲームが、近年様々な形で具体化されている。例えば、液晶パネル上に表示されるキャラクタに餌を与えたり、運動を行わせたりするなどの飼育作業を反復することによってキャラクタを育成する携帯型のゲーム機や、育成するキャラクタとの対話が可能なパーソナルコンピュータのアプリケーションソフトなどがある。
【0003】
また、例えば「特開平11−231880号公報」では、カラオケなどの楽曲コンテンツを情報配信装置から情報端末装置へダウンロードした履歴に応じて、このダウンロードされた楽曲とともに情報端末装置において再生されるキャラクタ画像が育成される情報配信システムが開示されている。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した携帯型ゲーム機のブームが一過性であったことからも分かるように、ユーザが「キャラクタの育成」に熱中する期間はそれほど長いものではなく、これらのゲームはユーザに飽きられやすい問題がある。したがって、「キャラクタの育成」という要素に加えて、ユーザを容易に飽きさせない仕組みが望まれる。
【0005】
また、上述した情報配信システムでは、楽曲の演奏にキャラクタの育成という別のゲーム的要素を加えることによって娯楽性を高めているが、このシステムにおいて育成されるキャラクタは、楽曲がダウンロードされる情報端末装置に付属したものであり、同一の情報端末装置で楽曲の演奏を楽しむユーザは、キャラクタの情報を初期化しない限り、同じキャラクタの育成にしか関わることができない。したがって、育成中のキャラクタに飽きてしまった場合に面白味が低下してしまう問題がある。
【0006】
本発明はかかる事情に鑑みてなされたものであり、その目的は、ユーザがキャラクタの育成を楽しめるとともに、その娯楽性を高めてユーザを容易に飽きさせないコンテンツ処理装置とその方法、ならびにそのようなコンテンツ処理装置のプログラムを提供することにある。
【0007】
【課題を解決するための手段】
上記の目的を達成するため、本発明の第1の観点に係るコンテンツ処理装置は、少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、上記処理手段において処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段とを有し、上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う。
なお、本明細書中でいうコンテンツは、例えば音楽情報や動画情報、書籍情報、ゲームのプログラムなど、その提供者からユーザへ提供され、ユーザによって利用される際の単位となる一連の情報を広く一般に指すものである。
【0008】
本発明の第2の観点のコンテンツ処理方法は、少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段がコンテンツを処理する方法であって、処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成し、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う。
【0009】
本発明の第3の観点のプログラムは、少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行うコンテンツ処理装置に備わるコンピュータが実行するプログラムであって、処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するステップと、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行うステップとを有する。
【0010】
本発明の第4の観点のコンテンツ処理装置は、少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、時間情報を生成する時間情報生成手段と、上記時間情報生成手段が生成した時間情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段と、を有し、上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う。
【0011】
本発明の第5の観点のコンテンツ処理装置は、少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、地理的な位置の情報を生成する位置情報生成手段と、上記位置情報生成手段が生成した位置情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段とを有し、上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う。
【0012】
【発明の実施の形態】
本発明の実施形態に係るコンテンツ処理装置の3つの構成例について、それぞれ図面を参照して説明する。
(第1の構成例)
図1は、本発明の実施形態に係るコンテンツ処理装置の第1の構成例を示す概略的なブロック図である。
図1のコンテンツ処理装置100は、処理部1、記録部2、再生部3、ユーザインターフェース部4、キャラクタ情報生成部5、およびキャラクタメモリ6を有する。
【0013】
処理部1は、ユーザインターフェース部4から入力されるユーザの指示に応じて、コンテンツの再生処理または記録処理を行う。
【0014】
コンテンツの再生処理が行われる場合、記録部2に記録されたコンテンツから、ユーザの指示に応じて選択したコンテンツを読み出し、これを再生部3において再生させる。このとき、後述するキャラクタ情報生成部5において、このコンテンツに対応して生成されるキャラクタ情報も、コンテンツとともに再生させる。
例えば、再生部3においてコンテンツおよびキャラクタが画像として再生される場合に、コンテンツとキャラクタとを同一の画面上で重ねて表示させても良いし、コンテンツの再生前や再生後にキャラクタを登場させても良い。再生部3が複数のディスプレイ装置を含む場合には、異なる画面上にコンテンツとキャラクタをそれぞれ独立して表示させても良い。
【0015】
また、コンテンツの記録処理が行われる場合、当該コンテンツに対応して生成されたキャラクタ情報を、このコンテンツに付随させて記録部2に記録させる。例えば、コンテンツのデータとキャラクタ情報のデータとを同一のファイルに結合して記録させても良いし、あるいは、それぞれ別のファイルとして記録させても良い。
【0016】
記録部2は、処理部1の書き込み制御に応じて、処理部1から供給されるコンテンツおよびキャラクタ情報を記録するとともに、処理部1の読み出し制御に応じて、記録されたコンテンツを処理部1に出力する。
例えば、ハードディスク装置のような固定型の記憶装置を用いて構成しても良いし、あるいは、光磁気ディスクやICカードのようなリムーバブルの記録媒体とその読み取り装置および書き込み装置を用いて構成しても良い。
【0017】
再生部3は、処理部1の制御に応じて、コンテンツおよびキャラクタ情報を再生する。
例えば、画像情報を再生するディスプレイ装置や、音声情報を再生するスピーカなどを含んでおり、コンテンツおよびキャラクタ情報に応じた画像や音声を、これらの装置で再生する。
【0018】
ユーザインターフェース部4は、例えばスイッチやボタン、マウスやキーボード、マイクなどの入力装置を含んでおり、これらの入力装置に対する所定の操作によってユーザから与えられる指示を処理部1へ伝える。また、ディスプレイ装置やランプ、スピーカなどの出力装置によって、処理部1の処理結果をユーザに出力しても良い。
【0019】
キャラクタ情報生成部5は、処理部1において記録または再生されるコンテンツに付随した特定の情報に応じて、キャラクタ情報を生成する。
キャラクタ情報には、コンテンツに対応した仮想のキャラクタの画像や音声などを再生部3において再生させるための情報が含まれる。
【0020】
コンテンツに付随した特定の情報が、当該コンテンツの価格に関する情報の場合には、この価格の情報に応じてキャラクタ情報を生成しても良い。
例えば、コンテンツの価格が所定の価格に達したか否かをこの価格の情報に応じて判定し、その判定結果に応じたキャラクタ情報を生成する。コンテンツの価格が一定水準を越えている場合に、キャラクタの衣装をドレスにするようなキャラクタ情報を生成しても良い。
【0021】
また、コンテンツに付随した当該コンテンツの種類に関する情報に応じて、キャラクタ情報を生成しても良い。
例えば、コンテンツの種類が所定の種類の何れに該当するかをこの種類の情報に応じて判定し、その判定結果に応じたキャラクタ情報を生成する。
音楽コンテンツを例として説明すると、音楽コンテンツに付随する音楽ジャンルの情報(またはそれに関連する情報)から、その音楽コンテンツのジャンルがあらかじめ定めたジャンル(ロック、ジャズ、演歌、クラッシックなど)の何れに該当するかを判定し、この判定結果に応じたキャラクタ情報を生成する。例えば、コンテンツが演歌であると判定された場合に、キャラクタの衣装を着物にするようなキャラクタ情報を生成する。
【0022】
また、コンテンツに付随した当該コンテンツの過去のコピー回数に関する情報に応じて、キャラクタ情報を生成しても良い。
例えば、コンテンツのコピー回数が所定回数に達しているか否かをこのコピー回数の情報に応じて判定し、その判定結果に応じて、キャラクタ情報を生成する。コピー回数が一定水準を越えている場合に、キャラクタを双子にするようなキャラクタ情報を生成しても良い。
【0023】
また、コンテンツに付随した、以前に生成されたキャラクタ情報に応じて、キャラクタ情報を新たに生成しても良い。
例えば、価格や種類のように変化しない属性に関してはキャラクタ情報を変化させず、コンテンツのコピー回数や再生回数のように変化する属性に関しては、これに応じてキャラクタ情報を更新する。キャラクタ情報に含まれるコンテンツの再生回数やコピー回数に関する情報を、コンテンツが再生またはコピーされるたびに更新し、その再生回数やコピー回数が所定回数に達した場合に、キャラクタの画像や音声を変化させるようなキャラクタ情報を生成しても良い。
【0024】
また、キャラクタ情報生成部5は、その生成するキャラクタ情報に、キャラクタの所有者を識別するための識別情報を含めても良い。識別情報をコンテンツに付随させることにより、例えば不正にコピーされたコンテンツが発見された場合、そのキャラクタ情報に含まれる識別情報を調べることによって、不正コピーを行ったキャラクタの所有者を特定することができる。
【0025】
また、コンテンツに付随したキャラクタ情報に他者の識別情報が含まれている場合には、その他者のキャラクタ情報に応じて自らのキャラクタ情報を生成しても良い。
例えば、キャラクタ情報に含まれる識別情報が自らの識別情報と一致しているか否かを判定し、一致していない場合に、そのキャラクタ情報に含まれるキャラクタの種類や、性質、状態などに関する情報に応じて、自らのキャラクタ情報を新たに生成する。他者のキャラクタが子供の場合に、自らのキャラクタも同年代の子供になるようなキャラクタ情報を生成しても良い。
【0026】
また、他者の識別情報を含んだキャラクタ情報に、そのキャラクタが発するメッセージの情報が含まれている場合、自らのキャラクタがそのメッセージに対して返答するようなキャラクタ情報を生成しても良い。例えば、他者のキャラクタが「歳はいくつ?」というメッセージを発している場合に、自らのキャラクタが「5歳」と返答するようなキャラクタ情報を生成しても良い。
以上が、キャラクタ情報生成部5の説明である。
【0027】
キャラクタメモリ6は、キャラクタが成長、変化していく上で必要な情報を格納しており、キャラクタ情報生成部6においてキャラクタ情報が生成される際に、このキャラクタメモリ6に格納される情報が随時読み出されて使用される。例えば、再生部3においてキャラクタの画像や音声などを再生するために必要な情報を格納する。また、これに加えて、コンテンツ処理装置のユーザを識別するための上述した識別情報を格納しても良い。
キャラクタメモリ6は、例えば、ハードディスク装置のような固定型の記憶装置を用いて構成しても良いし、あるいは、光磁気ディスクやICカードのようなリムーバブルの記録媒体とその読み取り装置を用いて構成しても良い。
【0028】
ここで、上述した構成を有する図1のコンテンツ処理装置100の動作について説明する。
図2は、図1のコンテンツ処理装置100におけるコンテンツ処理の一例について説明するためのフローチャートである。
【0029】
ステップST1:
処理部1に、処理対象となるコンテンツが入力される。図1の例では、ユーザインターフェース部4から入力されるユーザの指示に応じて、記録部2に格納されているコンテンツから処理対象となるコンテンツが選択され、処理部1に読み出される。
【0030】
ステップST2:
入力されたコンテンツに付随する特定の情報S1に応じて、キャラクタ情報S5が生成される。
すなわち、コンテンツの価格や、種類、コピー回数、再生回数などに関する情報に応じて、キャラクタメモリ6からキャラクタの画像や音声の情報(例えば、キャラクタの顔や衣装、声、メッセージなどの情報)が読み出されて処理され、キャラクタ情報が生成される。
また、キャラクタ情報に他者の識別情報が含まれている場合には、その他者のキャラクタ情報に応じて自らのキャラクタ情報が生成される。
【0031】
図3は、このキャラクタ情報生成ステップST2の更に詳細な処理の一例について説明するためのフローチャートである。
図3のフローチャートによれば、まず入力されたコンテンツに、以前生成されたキャラクタ情報が付随しているか否かが判定される(ステップST21)。付随していない場合には、新たなキャラクタ情報が生成される(ステップST22)。
また、入力されたコンテンツにキャラクタ情報が付随している場合、次に、そのキャラクタ情報に自らの識別情報が含まれているか否かが判定され(ステップST23)、他者の識別情報が含まれている場合には、その他者のキャラクタ情報におけるキャラクタの種類や、性質、状態などに関する情報に応じて、自らのキャラクタ情報が新たに生成される(ステップST24)。
さらに、入力されたコンテンツに付随したキャラクタ情報に自らの識別情報が含まれている場合には、必要に応じて、そのキャラクタ情報を更新する(ステップST25)。例えば、コンテンツの再生回数やコピー回数が所定回数に達した場合などにおいて、キャラクタ情報を更新する。
【0032】
ステップST3:
入力されたコンテンツと、これに対応して生成されたキャラクタ情報とに対する記録処理または再生処理が行われる。
すなわち、コンテンツの記録処理においては、更新または新たに生成されたキャラクタ情報が、コンテンツに付随して記録部2に記録される。
コンテンツの再生処理においては、更新または新たに生成されたキャラクタ情報や、記録部2からコンテンツに付随して読み出されたキャラクタ情報が、コンテンツとともに再生される。
【0033】
以上説明したように、図1のコンテンツ処理装置100によれば、コンテンツを再生する通常の楽しみ方に、コンテンツに付随したキャラクタを育成するゲーム的要素が新しく加わるので、コンテンツ処理に対するユーザの娯楽性を高めることができる。
【0034】
また、育成されるキャラクタは、コンテンツ処理装置に付随したキャラクタではなく、コンテンツとともに移動し成長するキャラクタであるので、異なるコンテンツを再生するたびに、育成状態の異なるキャラクタを楽しむ機会をユーザに与えることができる。このため、1つのキャラクタだけを育成する場合に比べてキャラクタの育成を飽き難くすることができる。
【0035】
また、キャラクタ情報にキャラクタ所有者の識別情報を含めることにより、コンテンツを不正にコピーしたユーザの追跡が可能になるので、コンテンツの著作権侵害を抑止することができる。
【0036】
また、他者のキャラクタ情報に応じて自らのキャラクタ情報が新たに生成される場合に、自らのキャラクタだけを再生させても良いが、そのパートナーとして他者のキャラクタもともに表示させれば、あたかもキャラクタ同士がコミュニケーションを行っているような感覚をユーザに与えることができる。
例えば、他者のキャラクタが先生タイプの場合に、これに応じて自らのキャラクタを生徒タイプに設定し、これを先生タイプのキャラクタとともに表示させる。
また、例えば、他者のキャラクタが「いくら?」というメッセージを発している場合に、これに応じて「あげる」というメッセージを発する自らのキャラクタを、他者のキャラクタとともに表示させる。
このように、再生部3において再生される仮想的なキャラクタを通じて、コンテンツの記録・再生を行う他のユーザとのコミュニケーションを図ることが可能になるので、ユーザの娯楽性を更に高めることができる。
【0037】
(第2の構成例)
次に、コンテンツ処理装置の第2の構成例について、図4および図5を参照して説明する。
第2の構成例では、時間情報や位置情報に応じてキャラクタ情報が生成される。
【0038】
図4は、本発明の実施形態に係るコンテンツ処理装置の第2の構成例を示す概略的なブロック図である。
図4に示すコンテンツ処理装置101は、処理部1、記録部2、再生部3、ユーザインターフェース部4、キャラクタ情報生成部5a、キャラクタメモリ6、時間情報生成部7、および位置情報生成部8を有し、図4と図1の同一符号は同一の構成要素を示す。
【0039】
時間情報生成部7は、例えば時刻に関する情報や、1日の時間帯に関する情報(午前、午後など)、曜日に関する情報、月に関する情報、季節に関する情報など、時間に関する情報を生成する。
位置情報生成部8は、コンテンツ処理装置101の地理上の位置に関する情報を生成する。例えば、静止衛星などからの信号に応じて地理上の位置を測定するGPS(global positioning system)の仕組みを利用して、位置情報を生成しても良い。
【0040】
キャラクタ情報生成部5aは、図1における上述したキャラクタ情報生成部5と同様な機能に加えて、時間情報生成部7において生成される時間情報や、位置情報生成部8において生成される位置情報に応じて、キャラクタ情報を生成する機能を有する。
【0041】
例えば、コンテンツが夏の夜に処理される場合に、キャラクタに浴衣を着せるキャラクタ情報が生成される。
また、コンテンツがハワイで処理される場合に、キャラクタにアロハシャツを着せるキャラクタ情報が生成される。
【0042】
また、コンテンツの再生処理が行われる場合、その再生中に、時間情報や位置情報に応じてキャラクタの態様を変化させても良い。
図5は、図4のコンテンツ処理装置101におけるコンテンツ再生処理の一例について説明するためのフローチャートであり、図2におけるステップST3の処理の詳細例を示すものである。
【0043】
図5のフローチャートに示すコンテンツ再生処理によれば、コンテンツの再生が開始された後(ステップST31)、時間情報生成部7の時間情報によって示された時刻が所定の時刻に達しているか否かが判定され(ステップST32)、この所定時刻に達している場合には、この所定時刻に応じて再生中のキャラクタ情報が変更される(ステップST33)。たとえば、再生を行っている時刻が夜中の12時に達した場合、キャラクタの衣装がパジャマに変更される。
【0044】
次に、位置情報生成部8の位置情報により示されたコンテンツ処理装置101の所在地域に変更が生じたか否かが判定され(ステップST34)、変更が生じた場合には、変更先の地域に応じてキャラクタ情報も変更される(ステップST35)。たとえば、プロ野球に関するコンテンツを再生中のコンテンツ処理装置101がある地域から別の地域へ移動した場合、キャラクタに被せる野球帽のマークが、各地域のプロ野球チームに合わせて変更される。
【0045】
上述した時間情報の判定(ステップST32)および所在地の判定(ステップST34)が行われた後、コンテンツの再生が終了点に達しているか否か、および、ユーザインターフェース部4においてコンテンツの再生終了が指示されているか否かが判定される(ステップST36)。コンテンツの再生終了が判定された場合には、再生処理が終了され(ステップST37)、コンテンツの再生続行が判定された場合には、ステップST32に処理が再び戻される。
【0046】
上述した構成を有する図4のコンテンツ処理装置101によれば、図1と同等の効果を奏することが可能であるとともに、コンテンツが処理される時間や場所に応じてキャラクタ情報を変化させることができるので、キャラクタの育成パターンに多様なバリエーションが与えられ、ユーザの娯楽性を更に高めることができる。
【0047】
(第3の構成例)
次に、コンテンツ処理装置の第3の構成例について、図6を参照して説明する。
図6は、本発明の実施形態に係るコンテンツ処理装置の第3の構成例を示す概略的なブロック図である。
図6に示すコンテンツ処理装置102は、処理部1a、記録部2、再生部3、ユーザインターフェース部4、キャラクタ情報生成部5、キャラクタメモリ6、および通信部9を有し、図6と図1の同一符号は同一の構成要素を示す。
【0048】
通信部9は、他のコンテンツ処理装置や、これらのコンテンツ処理装置にコンテンツを供給するコンテンツ供給サーバとの間で、コンテンツおよびキャラクタ情報を交換する処理を行う。通信方式は任意であり、例えば、有線または無線の何れの通信方式でも良い。また、インターネットなどのネットワークを介した通信でも良い。
【0049】
処理部1aは、図1における上述した処理部1と同様な機能に加えて、ユーザインターフェース部4に入力されるユーザの指示に応じて、記録部2に記録されているコンテンツの中から所望のコンテンツを選択し、この選択したコンテンツを、通信部9から、他のコンテンツ処理装置や、これらのコンテンツ処理装置にコンテンツを供給するコンテンツ供給サーバに宛てて送信させる処理を行う。
また、通信部9を制御して、他のコンテンツ処理装置やコンテンツ供給装置にアクセスし、これらの装置に保持されたコンテンツを処理対象のコンテンツとしてダウンロードする処理や、他のコンテンツ処理装置やコンテンツ供給装置からのダウンロード要求に応じて、記録部2に記録されたコンテンツをこれらの装置に提供する処理を行っても良い。
【0050】
上述した構成を有する図6のコンテンツ処理装置102によれば、図1と同等の効果を奏することが可能であるとともに、他のコンテンツ処理装置やコンテンツ供給サーバとの間でコンテンツの交換・共有が可能になる。これにより、他のユーザと共同してキャラクタを育成したり、キャラクタの交換を行ったりすることが可能になるなど、ユーザの娯楽性を更に向上させることができる。
【0051】
なお、本発明は上述した実施形態に限定されず、種々の改変が可能である。
【0052】
例えば、上述した各実施形態において例として示したコンテンツ処理装置における構成の一部または全部を、プログラムに応じて処理を実行するコンピュータなどの処理装置によって実現することも可能である。このプログラムは、ハードディスクや半導体メモリなどの記憶装置、あるいはフロッピー(登録商標)ディスクや光磁気ディスクなどの記録媒体に格納させておき、これを処理装置に随時読み取らせて処理を実行させても良い。また、有線や無線の通信手段によって通信可能なサーバ装置にプログラムを格納させておき、これを処理装置に随時ダウンロードさせて処理を実行させても良い。
【0053】
コンテンツに付随して記録部2に記録されるキャラクタ情報には、キャラクタの再生に用いられる直接的な情報(例えばキャラクタの画像情報や音声情報など)を含めても良いし、あるいは、これらの直接的な情報を含めず、その代わりに、キャラクタの再生態様を指定する間接的な情報(例えばキャラクタの各パターンに対応付けられた番号の情報など)を含めても良い。後者の場合、キャラクタ情報のデータ量が画像情報や音声情報を含む場合に比べて削減されるので、記録部2の記録容量を節約することができる。
【0054】
【発明の効果】
本発明によれば、通常のコンテンツ処理に加えて、キャラクタ育成ゲームの楽しみをユーザに与えることができる。また、育成されるキャラクタがコンテンツに付随するため、コンテンツごとに育成状態の異なったキャラクタを楽しむ機会をユーザに与えることができる。
コンテンツに付随させるキャラクタ情報に、キャラクタの所有者を識別する識別情報を含めることにより、コンテンツの不正コピーの抑止効果を高めることができる。
他者が所有するキャラクタ情報に応じて自らのキャラクタ情報を生成することにより、キャラクタを通じて他者とのコミュニケーションを楽しむ機会をユーザに与えることができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るコンテンツ処理装置の第1の構成例を示す概略的なブロック図である。
【図2】図1のコンテンツ処理装置におけるコンテンツ処理の一例について説明するためのフローチャートである。
【図3】図2のフローチャートにおけるキャラクタ情報の生成処理の一例について説明するためのフローチャートである。
【図4】本発明の実施形態に係るコンテンツ処理装置の第2の構成例を示す概略的なブロック図である。
【図5】図4のコンテンツ処理装置におけるコンテンツの再生処理の一例について説明するためのフローチャートである。
【図6】本発明の実施形態に係るコンテンツ処理装置の第3の構成例を示す概略的なブロック図である。
【符号の説明】
1,1a…処理部、2…記録部、3…再生部、4…ユーザインターフェース部、5,5a…キャラクタ情報生成部、6…キャラクタメモリ、7…時間情報生成部、8…位置情報生成部、9…通信部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a content processing apparatus and method and program for recording or reproducing content such as music and video.
[0002]
[Prior art]
  VirtualIn recent years, character breeding games for nurturing characters and enjoying the growth process have been embodied in various forms. For example, it is possible to interact with a portable game machine that nurtures a character by repeating breeding work such as feeding or exercising the character displayed on the liquid crystal panel, or with the character to be bred Application software for personal computers.
[0003]
Also, for example, in “Japanese Patent Laid-Open No. 11-231880”, a character image that is reproduced on an information terminal device together with the downloaded music according to a history of downloading music content such as karaoke from the information distribution device to the information terminal device. Has been disclosed.
[0004]
[Problems to be solved by the invention]
However, as can be seen from the fact that the boom of the portable game machine described above was temporary, the period during which the user is enthusiastic about “nurturing characters” is not so long, and these games are bored by the user. There is an easy problem. Therefore, in addition to the element of “character development”, a mechanism that does not easily bore the user is desired.
[0005]
In the information distribution system described above, entertainment is enhanced by adding another game element of character development to the performance of the music. The character trained in this system is an information terminal from which music is downloaded. A user who is attached to the device and enjoys playing music on the same information terminal device can only be involved in breeding the same character unless the character information is initialized. Therefore, there is a problem that when the character being nurtured gets bored, the interest is reduced.
[0006]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a content processing apparatus and method that allow a user to enjoy character development and to enhance the entertainment so that the user is not bored easily. The object is to provide a program for a content processing apparatus.
[0007]
[Means for Solving the Problems]
  In order to achieve the above object, a content processing apparatus according to the first aspect of the present invention includes a processing unit that performs at least one of content reproduction processing and recording processing that can be reproduced as at least an image or sound, and at least an image. Or storage means for storing information for reproducing a virtual character as voice, and corresponding to the content processed in the processing meansDepending on specific information, including information indicating the price of the content,Character information for reproducing at least a virtual character corresponding to the content as an image or soundRawCharacter information generating means for generating, the processing means for reproducing the character information generated corresponding to the content together with the content, and the character information generated corresponding to the content At least one of the processes of recording together with the content is performed in association with the content.
  Note that the content in this specification includes a series of information that is a unit used when being used by a user, such as music information, video information, book information, and a game program. In general.
[0008]
  A content processing method according to a second aspect of the present invention is a method in which a processing unit that performs at least one of content playback processing and recording processing that can be played back as an image or sound processes content. In response to specific information including information indicating the price of the content corresponding to the content, character information for reproducing at least a virtual character corresponding to the content as an image or sound is generated, and corresponding to the content At least one of a process of reproducing the character information generated in association with the content and a process of recording the character information generated corresponding to the content in association with the content together with the content.
[0009]
  A program according to a third aspect of the present invention is a program executed by a computer provided in a content processing apparatus that performs at least one of reproduction processing and recording processing of content that can be reproduced as at least an image or sound. Generating character information for reproducing at least a virtual character corresponding to the content as an image or sound according to specific information including information indicating the price of the content corresponding to the content; Performing at least one of a process of reproducing the character information generated correspondingly with the content and a process of recording the character information generated corresponding to the content with the content in association with the content And have.
[0010]
  The content processing apparatus according to the fourth aspect of the present invention reproduces at least one of a reproduction process and a recording process of content that can be reproduced as an image or sound, and at least a virtual character as an image or sound. A storage means for storing information for generating information, a time information generating means for generating time information, and a virtual character corresponding to the content is reproduced as at least an image or sound according to the time information generated by the time information generating means. Character information generating means for generating character information for performing, and the processing means reproduces the character information generated corresponding to the content together with the content, and corresponds to the content. The generated character information is associated with the content and the Performing at least one of a process of recording with Ceiling.
[0011]
  A content processing apparatus according to a fifth aspect of the present invention reproduces at least one of a reproduction process and a recording process of content that can be reproduced as an image or sound, and at least a virtual character as an image or sound. At least a virtual character corresponding to the content according to the position information generated by the storage means for storing the information for the position, the position information generating means for generating the information of the geographical position, and the position information generated by the position information generating means. Or character information generating means for generating character information to be reproduced as audio, and the processing means reproduces the character information generated corresponding to the content together with the content, and Corresponding character information generated corresponding to the content Performing at least one of processing for recording together with the content.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Three configuration examples of the content processing apparatus according to the embodiment of the present invention will be described with reference to the drawings.
(First configuration example)
FIG. 1 is a schematic block diagram showing a first configuration example of a content processing apparatus according to an embodiment of the present invention.
1 includes a processing unit 1, a recording unit 2, a playback unit 3, a user interface unit 4, a character information generation unit 5, and a character memory 6.
[0013]
The processing unit 1 performs content reproduction processing or recording processing in accordance with a user instruction input from the user interface unit 4.
[0014]
When the content reproduction process is performed, the content selected according to the user's instruction is read from the content recorded in the recording unit 2 and is reproduced by the reproduction unit 3. At this time, character information generated corresponding to the content is also reproduced together with the content in the character information generation unit 5 described later.
For example, when the content and character are reproduced as images in the reproduction unit 3, the content and the character may be displayed on the same screen, or the character may appear before or after the content is reproduced. good. When the reproducing unit 3 includes a plurality of display devices, the content and the character may be displayed independently on different screens.
[0015]
When content recording processing is performed, the character information generated corresponding to the content is recorded in the recording unit 2 along with the content. For example, the content data and the character information data may be combined and recorded in the same file, or may be recorded as separate files.
[0016]
The recording unit 2 records the content and character information supplied from the processing unit 1 according to the writing control of the processing unit 1, and the recorded content to the processing unit 1 according to the reading control of the processing unit 1. Output.
For example, it may be configured using a fixed storage device such as a hard disk device, or may be configured using a removable recording medium such as a magneto-optical disk or an IC card, and its reading device and writing device. Also good.
[0017]
The reproduction unit 3 reproduces content and character information according to the control of the processing unit 1.
For example, a display device that reproduces image information, a speaker that reproduces audio information, and the like are included, and images and audio corresponding to content and character information are reproduced by these devices.
[0018]
The user interface unit 4 includes input devices such as switches, buttons, a mouse, a keyboard, and a microphone, for example, and transmits instructions given from the user to the processing unit 1 by a predetermined operation on these input devices. Further, the processing result of the processing unit 1 may be output to the user by an output device such as a display device, a lamp, or a speaker.
[0019]
The character information generation unit 5 generates character information according to specific information attached to the content recorded or reproduced by the processing unit 1.
The character information includes information for causing the reproduction unit 3 to reproduce a virtual character image or sound corresponding to the content.
[0020]
When the specific information attached to the content is information related to the price of the content, the character information may be generated according to the price information.
For example, whether or not the price of the content has reached a predetermined price is determined according to the price information, and character information corresponding to the determination result is generated. If the price of the content exceeds a certain level, character information such as dressing the character's costume may be generated.
[0021]
Further, the character information may be generated according to information regarding the type of the content attached to the content.
For example, it is determined according to this type of information whether the content type corresponds to a predetermined type, and character information corresponding to the determination result is generated.
Explaining music content as an example, from music genre information (or related information) attached to the music content, the genre of the music content corresponds to a predetermined genre (rock, jazz, enka, classic, etc.) It is determined whether or not to perform, and character information corresponding to the determination result is generated. For example, when it is determined that the content is enka, character information is generated so that the costume of the character is a kimono.
[0022]
Further, the character information may be generated in accordance with information relating to the past number of copies of the content accompanying the content.
For example, it is determined according to the information on the number of times of copying whether or not the number of times of copying the content has reached a predetermined number, and character information is generated according to the determination result. If the number of times of copying exceeds a certain level, character information that makes the character a twin may be generated.
[0023]
In addition, character information may be newly generated according to previously generated character information attached to the content.
For example, character information is not changed for attributes that do not change such as price and type, and character information is updated accordingly for attributes that change such as the number of copies and the number of reproductions of content. Information related to the number of times the content is played or copied is updated each time the content is played or copied, and the image or sound of the character changes when the number of times played or copied reaches the specified number. Such character information may be generated.
[0024]
In addition, the character information generation unit 5 may include identification information for identifying the owner of the character in the generated character information. By attaching identification information to the content, for example, when an illegally copied content is found, it is possible to identify the owner of the character who performed the illegal copy by examining the identification information included in the character information it can.
[0025]
In addition, when the character information attached to the content includes other person's identification information, the user's character information may be generated according to the other person's character information.
For example, it is determined whether or not the identification information included in the character information matches its own identification information. If the identification information does not match, information on the type, nature, state, etc. of the character included in the character information is included. In response, the user's own character information is newly generated. When the other character is a child, the character information may be generated so that his / her character becomes a child of the same age.
[0026]
In addition, when character information including identification information of another person includes information on a message issued by the character, character information may be generated such that the character responds to the message. For example, character information may be generated such that when the character of another person has issued a message “How old is?”, His / her character returns “5 years old”.
The above is the description of the character information generation unit 5.
[0027]
The character memory 6 stores information necessary for the character to grow and change. When character information is generated by the character information generation unit 6, the information stored in the character memory 6 is stored as needed. It is read and used. For example, the playback unit 3 stores information necessary for playing back character images, sounds, and the like. In addition to this, the above-described identification information for identifying the user of the content processing apparatus may be stored.
The character memory 6 may be configured using, for example, a fixed storage device such as a hard disk device, or may be configured using a removable recording medium such as a magneto-optical disk or an IC card and its reading device. You may do it.
[0028]
Here, the operation of the content processing apparatus 100 of FIG. 1 having the above-described configuration will be described.
FIG. 2 is a flowchart for explaining an example of content processing in the content processing apparatus 100 of FIG.
[0029]
Step ST1:
Content to be processed is input to the processing unit 1. In the example of FIG. 1, in response to a user instruction input from the user interface unit 4, content to be processed is selected from the content stored in the recording unit 2 and read out to the processing unit 1.
[0030]
Step ST2:
Character information S5 is generated according to specific information S1 accompanying the input content.
That is, according to information on the price, type, number of times of copying, number of times of reproduction, etc., the character memory 6 reads character image and sound information (for example, information on the character's face, costume, voice, message, etc.). And processed to generate character information.
If the character information includes other person's identification information, the character information of the person is generated according to the character information of the other person.
[0031]
FIG. 3 is a flowchart for explaining an example of further detailed processing of this character information generation step ST2.
According to the flowchart of FIG. 3, it is first determined whether or not previously input character information is attached to the input content (step ST21). If not, new character information is generated (step ST22).
If the input content is accompanied by character information, it is next determined whether or not the character information includes its own identification information (step ST23), and the other person's identification information is included. If so, the character information of the user is newly generated according to the information on the character type, nature, state, etc. in the character information of the other person (step ST24).
Further, if the character information attached to the input content includes its own identification information, the character information is updated as necessary (step ST25). For example, the character information is updated when the number of times the content has been reproduced or copied reaches a predetermined number.
[0032]
Step ST3:
A recording process or a reproduction process is performed on the input content and the character information generated corresponding to the input content.
That is, in the content recording process, the updated or newly generated character information is recorded in the recording unit 2 along with the content.
In the content reproduction process, the updated or newly generated character information and the character information read from the recording unit 2 along with the content are reproduced together with the content.
[0033]
As described above, according to the content processing apparatus 100 of FIG. 1, since a game element for nurturing a character associated with the content is newly added to the normal enjoyment of reproducing the content, the entertainment of the user for the content processing is improved. Can be increased.
[0034]
Moreover, since the character to be trained is not a character attached to the content processing apparatus but a character that moves and grows with the content, the user is given an opportunity to enjoy a character with a different breeding state every time different content is played. Can do. For this reason, compared with the case where only one character is nurtured, character nurturing can be made hard to get tired of.
[0035]
Further, by including the identification information of the character owner in the character information, it becomes possible to trace the user who has illegally copied the content, so that copyright infringement of the content can be suppressed.
[0036]
In addition, when one's own character information is newly generated according to the other person's character information, only his own character may be reproduced. It is possible to give the user a feeling that the characters are communicating with each other.
For example, when the character of the other person is a teacher type, the user's character is set as a student type in accordance with this, and this is displayed together with the teacher type character.
Further, for example, when the other person's character is issuing a message “How much?”, The user's own character that issues a message “raise” is displayed together with the other person's character.
As described above, since it is possible to communicate with other users who record and reproduce content through the virtual character reproduced in the reproduction unit 3, it is possible to further enhance the entertainment of the user.
[0037]
(Second configuration example)
Next, a second configuration example of the content processing apparatus will be described with reference to FIG. 4 and FIG.
In the second configuration example, character information is generated according to time information and position information.
[0038]
FIG. 4 is a schematic block diagram showing a second configuration example of the content processing apparatus according to the embodiment of the present invention.
4 includes a processing unit 1, a recording unit 2, a playback unit 3, a user interface unit 4, a character information generation unit 5a, a character memory 6, a time information generation unit 7, and a position information generation unit 8. The same reference numerals in FIG. 4 and FIG. 1 denote the same components.
[0039]
The time information generation unit 7 generates time-related information, for example, information related to time, information related to the time zone of the day (such as morning and afternoon), information related to the day of the week, information related to the month, and information related to the season.
The position information generation unit 8 generates information regarding the geographical position of the content processing apparatus 101. For example, position information may be generated using a GPS (global positioning system) mechanism that measures a geographical position in accordance with a signal from a geostationary satellite or the like.
[0040]
In addition to the same function as the character information generation unit 5 described above in FIG. 1, the character information generation unit 5 a adds time information generated by the time information generation unit 7 and position information generated by the position information generation unit 8. Accordingly, it has a function of generating character information.
[0041]
For example, when the content is processed on a summer night, character information for wearing a yukata on the character is generated.
In addition, when content is processed in Hawaii, character information for wearing an Aloha shirt on the character is generated.
[0042]
Further, when the content reproduction process is performed, the character mode may be changed according to the time information or the position information during the reproduction.
FIG. 5 is a flowchart for explaining an example of the content reproduction process in the content processing apparatus 101 of FIG. 4, and shows a detailed example of the process of step ST3 in FIG.
[0043]
According to the content reproduction processing shown in the flowchart of FIG. 5, after the reproduction of the content is started (step ST31), it is determined whether or not the time indicated by the time information of the time information generation unit 7 has reached a predetermined time. If the predetermined time has been reached (step ST32), the character information being reproduced is changed according to the predetermined time (step ST33). For example, if the playback time reaches 12:00 in the middle of the night, the costume of the character is changed to pajamas.
[0044]
Next, it is determined whether or not a change has occurred in the location area of the content processing apparatus 101 indicated by the position information of the position information generation unit 8 (step ST34). Accordingly, the character information is also changed (step ST35). For example, when the content processing apparatus 101 that is playing content related to professional baseball moves from one region to another, the mark of the baseball cap to be put on the character is changed according to the professional baseball team in each region.
[0045]
After the time information determination (step ST32) and the location determination (step ST34) described above are performed, whether or not the content playback has reached the end point and the user interface unit 4 instructs the end of the content playback. It is determined whether or not it has been performed (step ST36). If it is determined that the content has been played back, the playback process is terminated (step ST37). If it is determined that the content is to be played back again, the process returns to step ST32.
[0046]
According to the content processing apparatus 101 of FIG. 4 having the above-described configuration, it is possible to obtain the same effect as that of FIG. 1 and to change the character information according to the time and place where the content is processed. Therefore, various variations are given to the character breeding pattern, and the entertainment of the user can be further enhanced.
[0047]
(Third configuration example)
Next, a third configuration example of the content processing apparatus will be described with reference to FIG.
FIG. 6 is a schematic block diagram showing a third configuration example of the content processing apparatus according to the embodiment of the present invention.
6 includes a processing unit 1a, a recording unit 2, a playback unit 3, a user interface unit 4, a character information generation unit 5, a character memory 6, and a communication unit 9. The same reference numerals denote the same components.
[0048]
The communication unit 9 performs processing for exchanging content and character information with other content processing devices and content supply servers that supply content to these content processing devices. The communication method is arbitrary, and for example, either wired or wireless communication method may be used. Also, communication via a network such as the Internet may be used.
[0049]
In addition to the same functions as the processing unit 1 described above in FIG. 1, the processing unit 1 a selects a desired content from the content recorded in the recording unit 2 in response to a user instruction input to the user interface unit 4. A content is selected, and the selected content is transmitted from the communication unit 9 to another content processing device or a content supply server that supplies the content to these content processing devices.
In addition, the communication unit 9 is controlled to access other content processing devices and content supply devices, and the content stored in these devices is downloaded as content to be processed, other content processing devices and content supply In response to a download request from the device, processing for providing the content recorded in the recording unit 2 to these devices may be performed.
[0050]
According to the content processing apparatus 102 of FIG. 6 having the above-described configuration, it is possible to achieve the same effect as that of FIG. 1, and exchange and sharing of content with other content processing apparatuses and content supply servers. It becomes possible. Accordingly, it is possible to further improve the entertainment of the user, such as the ability to grow characters or exchange characters in cooperation with other users.
[0051]
The present invention is not limited to the above-described embodiment, and various modifications can be made.
[0052]
For example, part or all of the configuration of the content processing apparatus shown as an example in each of the above-described embodiments can be realized by a processing apparatus such as a computer that executes processing according to a program. This program may be stored in a storage device such as a hard disk or a semiconductor memory, or a recording medium such as a floppy (registered trademark) disk or a magneto-optical disk, and read by the processing device as needed to execute processing. . Alternatively, a program may be stored in a server device that can communicate by wired or wireless communication means, and the processing device may download the program as needed to execute processing.
[0053]
The character information recorded in the recording unit 2 in association with the content may include direct information used for character reproduction (for example, character image information, audio information, etc.), or these direct information. Indirect information (for example, information on numbers associated with each pattern of the character) may be included instead. In the latter case, the data amount of the character information is reduced as compared with the case where image information and audio information are included, so that the recording capacity of the recording unit 2 can be saved.
[0054]
【The invention's effect】
According to the present invention, in addition to normal content processing, it is possible to provide the user with enjoyment of a character training game. Moreover, since the character to be trained is attached to the content, it is possible to give the user an opportunity to enjoy characters having different breeding states for each content.
By including identification information for identifying the owner of the character in the character information that accompanies the content, the effect of preventing unauthorized copying of the content can be enhanced.
By generating one's own character information according to character information owned by another person, the user can be given an opportunity to enjoy communication with the other person through the character.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a first configuration example of a content processing apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining an example of content processing in the content processing apparatus of FIG. 1;
FIG. 3 is a flowchart for explaining an example of character information generation processing in the flowchart of FIG. 2;
FIG. 4 is a schematic block diagram illustrating a second configuration example of the content processing apparatus according to the embodiment of the present invention.
5 is a flowchart for explaining an example of content reproduction processing in the content processing apparatus of FIG. 4;
FIG. 6 is a schematic block diagram showing a third configuration example of the content processing apparatus according to the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1, 1a ... Processing part, 2 ... Recording part, 3 ... Reproducing part, 4 ... User interface part, 5, 5a ... Character information generation part, 6 ... Character memory, 7 ... Time information generation part, 8 ... Position information generation part , 9: Communication unit.

Claims (14)

少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、
少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、
上記処理手段において処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段と
を有し、
上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う
コンテンツ処理装置。
Processing means for performing at least one of reproduction processing and recording processing of content that can be reproduced at least as an image or sound;
Storage means for storing at least information for reproducing a virtual character as an image or sound;
Corresponding to the content to be processed in the processing means, depending on the specific information including information indicating a price of the content, the raw character information for reproducing at least as an image or sound a virtual character corresponding to the contents And character information generating means
The processing means is a process of reproducing the character information generated corresponding to the content together with the content, and a process of recording the character information generated corresponding to the content in association with the content together with the content A content processing apparatus that performs at least one of the above.
上記記憶手段は、当該コンテンツ処理装置の使用者を識別するための識別情報を記憶しており、
上記キャラクタ情報生成手段は、上記記憶手段に記憶される上記識別情報に基づいて、キャラクタの所有者を識別するための識別情報を含んだキャラクタ情報を生成する、
請求項1に記載のコンテンツ処理装置。
Said storage means stores identification information for identifying the user of the content processing apparatus,
The character information generation means generates character information including identification information for identifying the owner of the character based on the identification information stored in the storage means.
The content processing apparatus according to claim 1.
上記キャラクタ情報生成手段が生成する上記コンテンツに対応した特定の情報は、上記処理手段において処理されるコンテンツに対応する、当該コンテンツの種類を示す情報を含む、
請求項1または2に記載のコンテンツ処理装置。
The specific information corresponding to the content generated by the character information generating means includes information indicating the type of the content corresponding to the content processed by the processing means.
The content processing apparatus according to claim 1 or 2 .
上記キャラクタ情報生成手段が生成する上記コンテンツに対応した特定の情報は、上記処理手段において処理されるコンテンツに対応する、当該コンテンツが複製された回数を示す情報を含む、
請求項1乃至の何れか1つに記載のコンテンツ処理装置。
The specific information corresponding to the content generated by the character information generating means includes information indicating the number of times the content is copied, corresponding to the content processed by the processing means.
The content processing apparatus according to any one of claims 1 to 3 .
上記キャラクタ情報生成手段が生成する上記コンテンツに対応した特定の情報は、上記処理手段において処理されるコンテンツに、特定の識別情報とは異なる識別情報を含んだキャラクタ情報が対応する場合、当該対応するキャラクタ情報に含まれるキャラクタの種類、性質、または状態を示す情報を含む、
請求項2乃至の何れか1つに記載のコンテンツ処理装置。
The specific information corresponding to the content generated by the character information generation means corresponds to the content processed by the processing means when character information including identification information different from the specific identification information corresponds to the content processed by the processing means. Including information indicating the type, nature, or state of the character included in the character information,
The content processing apparatus according to any one of claims 2 to 4 .
上記キャラクタ情報生成手段が生成する上記コンテンツに対応した特定の情報は、上記処理手段において処理されるコンテンツに、特定の識別情報とは異なる識別情報を含んだキャラクタ情報が対応する場合、当該キャラクタ情報のキャラクタが発するメッセージの情報に応じた、所定の返答メッセージの情報を含む、
請求項2乃至の何れか1つに記載のコンテンツ処理装置。
The specific information corresponding to the content generated by the character information generation means is related to the content processed by the processing means when character information including identification information different from the specific identification information corresponds to the character information. Including information on a predetermined response message according to information on a message issued by the character of
The content processing apparatus according to any one of claims 2 to 4 .
上記処理手段は、再生するコンテンツに特定の識別情報とは異なる識別情報を含んだキャラクタ情報が対応する場合、上記キャラクタ情報生成手段において生成されたキャラクタ情報とともに、当該対応するキャラクタ情報を再生する、
請求項またはに記載のコンテンツ処理装置。
When the character information including identification information different from the specific identification information corresponds to the content to be reproduced, the processing means reproduces the corresponding character information together with the character information generated by the character information generation means.
The content processing apparatus according to claim 5 or 6 .
上記キャラクタ情報生成手段が生成する上記コンテンツに対応した特定の情報は、上記処理手段におけるそれぞれのコンテンツの再生回数を示す情報を含み、
上記キャラクタ情報生成手段は、上記処理手段においてコンテンツが再生されるたびに当該コンテンツに対応するキャラクタ情報に含まれる上記再生回数の情報を更新するとともに、当該更新した再生回数の情報に応じてキャラクタの画像および/または音声が変化するようにキャラクタ情報を生成する、
請求項1乃至の何れか1つに記載のコンテンツ処理装置。
The specific information corresponding to the content generated by the character information generating means includes information indicating the number of times each content is reproduced in the processing means,
The character information generation unit updates the information on the number of reproductions included in the character information corresponding to the content each time the content is reproduced by the processing unit, and the character information is generated according to the updated information on the number of reproductions. Generating character information so that the image and / or sound changes,
The content processing apparatus according to any one of claims 1 to 7 .
他のコンテンツ処理装置、または当該他のコンテンツ処理装置にコンテンツを供給するコンテンツ供給装置の少なくとも一方との間で、コンテンツおよびキャラクタ情報を交換する通信手段を含む、
請求項1乃至の何れか1つに記載のコンテンツ処理装置。
Including communication means for exchanging content and character information with at least one of another content processing device or a content supply device that supplies content to the other content processing device.
The content processing apparatus according to any one of claims 1 to 8 .
上記処理手段の制御に応じて、少なくとも画像または音声としてコンテンツおよびキャラクタ情報を再生する再生手段と、
上記処理手段の制御に応じて、上記処理手段から供給されるコンテンツおよびキャラクタ情報を記録する記録手段と
を有する請求項1乃至の何れか1つに記載のコンテンツ処理装置。
In accordance with the control of the processing means, reproducing means for reproducing content and character information as at least an image or sound;
Under control of the processing means, the content processing apparatus according to any one of claims 1 to 9 and a recording means for recording the content and the character information supplied from the processing means.
少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段がコンテンツを処理する方法であって、
処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成し、
当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行う
コンテンツ処理方法。
A processing unit that performs at least one of reproduction processing and recording processing of content that can be reproduced as at least an image or sound, and processes the content,
Corresponding to the content to be processed, depending on the particular information including information indicating a price of the content, forms character information for reproducing at least as an image or sound a virtual character corresponding to the contents fresh,
At least one of processing for reproducing the character information generated corresponding to the content together with the content and processing for recording the character information generated corresponding to the content corresponding to the content together with the content Content processing method.
少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行うコンテンツ処理装置に備わるコンピュータが実行するプログラムであって、
処理されるコンテンツに対応した、当該コンテンツの価格を示す情報を含む特定の情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するステップと、
当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行うステップと
を有するプログラム。
A program executed by a computer provided in a content processing apparatus that performs at least one of reproduction processing and recording processing of content that can be reproduced at least as an image or sound,
Corresponding to the content to be processed, steps depending on the specific information including information indicating a price of the content, to generate the character information for reproducing at least as an image or sound a virtual character corresponding to the contents When,
At least one of processing for reproducing the character information generated corresponding to the content together with the content and processing for recording the character information generated corresponding to the content corresponding to the content together with the content A program comprising the steps of:
少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、Processing means for performing at least one of reproduction processing and recording processing of content that can be reproduced at least as an image or sound;
少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、Storage means for storing at least information for reproducing a virtual character as an image or sound;
時間情報を生成する時間情報生成手段と、Time information generating means for generating time information;
上記時間情報生成手段が生成した時間情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段とCharacter information generating means for generating character information for reproducing at least a virtual character corresponding to the content as an image or sound according to the time information generated by the time information generating means;
を有し、Have
上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行うThe processing means is a process of reproducing the character information generated corresponding to the content together with the content, and a process of recording the character information generated corresponding to the content in association with the content together with the content Do at least one of
コンテンツ処理装置。Content processing device.
少なくとも画像または音声として再生可能なコンテンツの再生処理および記録処理の少なくとも何れか一方を行う処理手段と、Processing means for performing at least one of reproduction processing and recording processing of content that can be reproduced as at least an image or sound;
少なくとも画像または音声として仮想のキャラクタを再生するための情報を記憶する記憶手段と、Storage means for storing at least information for reproducing a virtual character as an image or sound;
地理的な位置の情報を生成する位置情報生成手段と、Position information generating means for generating information of geographical position;
上記位置情報生成手段が生成した位置情報に応じて、当該コンテンツに対応した仮想のキャラクタを少なくとも画像または音声として再生するためのキャラクタ情報を生成するキャラクタ情報生成手段とCharacter information generating means for generating character information for reproducing at least a virtual character corresponding to the content as an image or sound according to the position information generated by the position information generating means;
を有し、Have
上記処理手段は、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツとともに再生する処理、および、当該コンテンツに対応して生成されたキャラクタ情報を当該コンテンツに対応させて当該コンテンツとともに記録する処理の少なくとも何れか一方を行うThe processing means is a process of reproducing the character information generated corresponding to the content together with the content, and a process of recording the character information generated corresponding to the content in association with the content together with the content Do at least one of
コンテンツ処理装置。Content processing device.
JP2002053502A 2002-02-20 2002-02-28 Content processing apparatus, method thereof, and program Expired - Fee Related JP4003482B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002053502A JP4003482B2 (en) 2002-02-28 2002-02-28 Content processing apparatus, method thereof, and program
US10/364,495 US20030166414A1 (en) 2002-02-20 2003-02-11 Contents data processing apparatus and method
US11/827,629 US20070254737A1 (en) 2002-02-20 2007-07-12 Contents data processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002053502A JP4003482B2 (en) 2002-02-28 2002-02-28 Content processing apparatus, method thereof, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007112884A Division JP4748096B2 (en) 2007-04-23 2007-04-23 Content processing device

Publications (3)

Publication Number Publication Date
JP2003251071A JP2003251071A (en) 2003-09-09
JP2003251071A5 JP2003251071A5 (en) 2005-06-09
JP4003482B2 true JP4003482B2 (en) 2007-11-07

Family

ID=28664916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002053502A Expired - Fee Related JP4003482B2 (en) 2002-02-20 2002-02-28 Content processing apparatus, method thereof, and program

Country Status (1)

Country Link
JP (1) JP4003482B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261975A (en) * 2005-03-16 2006-09-28 Xing Inc Content distribution system, communication terminal device and server device
JP5690473B2 (en) 2009-01-28 2015-03-25 任天堂株式会社 Program and information processing apparatus
JP5527721B2 (en) 2009-01-28 2014-06-25 任天堂株式会社 Program and information processing apparatus
JP5813912B2 (en) 2009-01-28 2015-11-17 任天堂株式会社 Program, information processing apparatus, and information processing system
JP5229484B2 (en) 2009-01-28 2013-07-03 任天堂株式会社 Information processing system, program, and information processing apparatus
JP5985564B2 (en) * 2014-09-24 2016-09-06 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP6262174B2 (en) * 2015-07-16 2018-01-17 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JP6282684B2 (en) * 2016-04-01 2018-02-21 株式会社コーエーテクモゲームス Information processing program, information processing apparatus, and information processing method
JP6262292B2 (en) * 2016-08-04 2018-01-17 グリー株式会社 GAME PROGRAM, GAME CONTROL METHOD, AND COMPUTER
JPWO2023095646A1 (en) * 2021-11-24 2023-06-01

Also Published As

Publication number Publication date
JP2003251071A (en) 2003-09-09

Similar Documents

Publication Publication Date Title
US20070254737A1 (en) Contents data processing apparatus and method
US6875021B2 (en) Interactive communication system for communicating video game and karaoke software
JP3886260B2 (en) GAME DEVICE AND INFORMATION RECORDING MEDIUM
JP2000037559A5 (en)
JP4003482B2 (en) Content processing apparatus, method thereof, and program
JP2002136763A (en) Entertainment process based on competition game with multiple choices
JP2002197069A (en) Contents providing service system, server device, and client device
JP3500379B1 (en) GAME DEVICE, PROGRAM, AND GAME DEVICE CONTROL METHOD
JP2009217332A (en) Content-using device and program
JP4748096B2 (en) Content processing device
JP2007140211A (en) Content distribution system, content reproducing device, content providing server, and program used for same
JP3161894B2 (en) Karaoke device and method of using the same
JP4182590B2 (en) Mobile karaoke system
JP2002108372A (en) Karaoke device, contents reproducing device, music data managing method for karaoke device, and contents data managing method for contents reproducing device
JP4540356B2 (en) Portable information device, software execution method in portable information device, and game gaming system
JP4638427B2 (en) Content playback terminal
JP5221904B2 (en) Moving image distribution system and moving image distribution method
JP4299947B2 (en) Online karaoke system
JP3979510B2 (en) Online karaoke system
JP2003242289A (en) Device and method and program for contents processing
JPWO2003055216A1 (en) Content data playback program
JP4097283B2 (en) GAME DATA DISTRIBUTION DEVICE, GAME SYSTEM, AND INFORMATION RECORDING MEDIUM
JP4477674B2 (en) Method for providing music service on service page and system for performing this providing method
JP3350773B2 (en) How the system works
JP2022140156A (en) Game program, recording medium, abd game processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070813

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees