JP4529632B2 - Content processing method and content processing apparatus - Google Patents
Content processing method and content processing apparatus Download PDFInfo
- Publication number
- JP4529632B2 JP4529632B2 JP2004303934A JP2004303934A JP4529632B2 JP 4529632 B2 JP4529632 B2 JP 4529632B2 JP 2004303934 A JP2004303934 A JP 2004303934A JP 2004303934 A JP2004303934 A JP 2004303934A JP 4529632 B2 JP4529632 B2 JP 4529632B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- sub
- metadata
- main
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
この発明は、映像や音響などのコンテンツを処理する方法および装置に関する。 The present invention relates to a method and apparatus for processing content such as video and audio.
コンテンツの再生にあたって、別のコンテンツなどを一緒に再生または提示することが考えられている。 When playing back content, it is considered to play or present other content together.
例えば、特許文献1(特開平8−76779号公報)には、カラオケの曲の音楽情報を参照し、曲の内容に合わせて、その場の雰囲気を盛り上げるために照明や空調を制御することが示されている。 For example, Patent Literature 1 (Japanese Patent Laid-Open No. 8-76779) refers to music information of a karaoke song, and controls lighting and air conditioning in order to raise the atmosphere of the place according to the content of the song. It is shown.
また、特許文献2(特表2003−507808号公報)には、映像音声データの内容や構造を表記する記述方法が示されている。 Japanese Patent Application Laid-Open No. 2003-507808 discloses a description method for describing the contents and structure of video / audio data.
さらに、特許文献3(特開2001−333410号公報)には、コンテンツの最適視聴条件を記述したメタデータによって、ユーザが最適な条件でコンテンツを視聴できるようにすることや、ユーザの嗜好を示すデータによって、ユーザに提供するコンテンツを判定することが示されている。 Further, Patent Document 3 (Japanese Patent Laid-Open No. 2001-333410) shows that the user can view the content under the optimum condition and the user's preference by using the metadata describing the optimum viewing condition of the content. The data indicates that the content to be provided to the user is determined.
また、特許文献4(特開2002−158948号公報)には、同一シーンを記録した複数の映像音声データを関連づけて再生することが示されている。 Patent Document 4 (Japanese Patent Laid-Open No. 2002-158948) discloses that a plurality of video / audio data in which the same scene is recorded are reproduced in association with each other.
以上のように、音楽コンテンツの再生にあたって、その場の雰囲気を盛り上げるために、コンテンツ内容に応じて照明や空調を制御することが考えられており、また、ユーザの嗜好に応じてコンテンツを選択することが考えられている。 As described above, it is considered to control lighting and air conditioning according to content contents in order to increase the atmosphere of the place when playing music content, and to select content according to user preference It is considered.
上に挙げた先行技術文献は、以下の通りである。
しかしながら、特許文献1に示されるように、その場の雰囲気や臨場感を盛り上げる場合でも、最適な雰囲気や臨場感はユーザにとって異なることが多い。
However, as shown in
特に、スポーツ中継のようなコンテンツでは、応援しているチーム側のスタンドにいるような雰囲気であれば、楽しく鑑賞することができるが、相手チーム側のスタンドにいるような雰囲気であると、楽しく感じられないことが多い。 In particular, content such as sports broadcasts can be enjoyed as long as the atmosphere is on the stand of the supporting team, but it is fun if the atmosphere is on the other team's stand. Often not felt.
そのため、コンテンツの内容からだけでは、最適な雰囲気や臨場感を作ることは困難である。 For this reason, it is difficult to create an optimal atmosphere and presence only from the content.
また、同じ歌であっても、ユーザのそのときの気分などによって、手拍子を打つなどして聴きたいときと、静かにじっくりと聴きたいときとがあるが、上記のようにコンテンツの内容のみから雰囲気や臨場感を作成したのでは、ユーザのそのときの気分などに応じた雰囲気や臨場感を作ることはできない。 Even if the song is the same, depending on the mood of the user, there are times when you want to listen by clapping, etc., and when you want to listen carefully and quietly. If an atmosphere or a sense of presence is created, an atmosphere or a sense of presence corresponding to the user's current mood cannot be created.
そこで、この発明は、コンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができるようにしたものである。 In view of this, the present invention is capable of creating an optimal atmosphere and a realistic sensation according to not only the content but also the user's mood at that time.
この発明のコンテンツ処理方法は、
メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータと、ユーザプロファイルおよびそのときのユーザの身体的または精神的な状態を示すデータであるユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成ステップと、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコンテンツの特徴を示す特徴情報を生成する特徴情報生成ステップと、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテンツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブコンテンツ選択ステップと、
を備えるものである。
The content processing method of the present invention includes:
Sub-content to be played back together with the main content from the main content content metadata that characterizes the content of the main content and user status metadata that is data indicating the user profile and the physical or mental state of the user at that time A recommendation information generation step for generating recommendation information for recommending,
A feature information generating step for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
A sub-content selection step of selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
It is those with a.
上記のコンテンツ処理方法では、音楽や映像などのコンテンツを再生または記録するとき、そのコンテンツであるメインコンテンツの内容だけでなく、ユーザのそのときの状況に応じた最適な別のコンテンツが、サブコンテンツとして選択され、メインコンテンツと一緒に再生または記録されるので、コンテンツ(メインコンテンツ)の内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。 In the content processing method described above, when content such as music or video is played back or recorded, not only the content of the main content that is the content, but also other content that is optimal for the current situation of the user is used as the sub-content. Since it is selected and reproduced or recorded together with the main content, it is possible to create an optimal atmosphere and a sense of realism not only according to the content (main content) but also according to the user's mood at that time.
以上のように、この発明によれば、コンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。 As described above, according to the present invention, it is possible to create an optimal atmosphere and realistic sensation according to not only the contents but also the user's mood at that time.
[1.コンテンツを再生する場合の実施形態:図1〜図4]
コンテンツを再生する場合の実施形態を以下に示す。
[1. Embodiment for Reproducing Content: FIGS. 1 to 4]
An embodiment in the case of reproducing content will be described below.
なお、メインコンテンツおよびサブコンテンツというのは、上述したように便宜的に呼称したものであって、特にメインコンテンツの方がサブコンテンツより、重要である、データ量が多い、などという区別があるものではない。 The main content and the sub-content are named for convenience as described above, and there is no distinction that the main content is more important than the sub-content, and that the amount of data is large. .
(1−1.再生の場合の第1の例:図1〜図3)
図1は、この発明のコンテンツ処理装置の一例を示し、記録媒体に記録されたメインコンテンツの再生時、当該メインコンテンツの内容およびユーザの状況に応じたサブコンテンツを選択し、メインコンテンツと一緒に再生するものである。
(1-1. First example of reproduction: FIGS. 1 to 3)
FIG. 1 shows an example of a content processing apparatus according to the present invention. When main content recorded on a recording medium is reproduced, sub-content according to the content of the main content and the user's situation is selected and reproduced together with the main content. It is.
この例のコンテンツ処理装置は、コンテンツ再生装置として、ディスク再生部1を備え、システムコントローラ11による制御によってスピンドルモータ3および光ピックアップ4を駆動して、光ディスク2から、これに記録されているメインコンテンツを読み取り、再生するものである。
The content processing device of this example includes a
メインコンテンツは、この例では、映画やドラマなどの映像データ、字幕データおよび音声データが、MPEG(Moving Picture Experts Group)方式によって記録されたものである。 In this example, the main content is video data such as movies and dramas, subtitle data, and audio data recorded by the MPEG (Moving Picture Experts Group) system.
具体的に、メインコンテンツのデータストリームは、図2に示すように、ヘッダに対して映像パケット、字幕パケットおよび音声パケットの各パケットが付加されたものであり、各パケットは、ヘッダに対して映像データ、字幕データまたは音声データが付加されたものであり、音声パケットの音声データは、各音声チャネルの音声データからなるものである。 Specifically, as shown in FIG. 2, the data stream of the main content is obtained by adding video packets, subtitle packets, and audio packets to the header, and each packet includes video data for the header. Subtitle data or audio data is added, and the audio data of the audio packet consists of audio data of each audio channel.
光ディスク2には、メインコンテンツデータとともに、メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータを記録することができる。光ディスク2にメインコンテンツ内容メタデータを記録する場合、メインコンテンツ内容メタデータは、MPEG7の規格に準拠した書式、またはその他の書式で記述し、MPEGストリームのGOP(Group Of Pictures)ごとに、またはMPEGストリームのピクチャごとに多重化する。
On the
メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータは、一般には、(1)音楽、映画、ドラマ、ドキュメンタリー、スポーツなど、コンテンツのジャンルを示す情報、(2)音楽であれば、演奏中であることや曲間であることなどを示す情報、映画やドラマであれば、ストーリーの起承転結などを示す情報、スポーツであれば、得点シーンであることなどを示す情報など、シーンの分類を示す情報、(3)音楽などの音響(音声)であれば、音の大きさなどを示す情報、映像であれば、画面の明るさなどを示す情報など、信号としての特徴を示す情報、などである。 Main content content metadata that characterizes the content of main content is generally (1) information indicating the genre of content such as music, movies, dramas, documentaries, sports, and (2) if it is music, Information indicating the classification of scenes, such as information indicating that it is between songs, information indicating the succession of a story if it is a movie or drama, information indicating that it is a scoring scene if it is a sport, (3 In the case of sound (sound) such as music, information indicating the loudness of the sound, and in the case of video, information indicating the characteristics of the signal, such as information indicating the brightness of the screen.
MPEG21で規定された著作物の権利関係を示す情報も、コンテンツの内容を特徴づける情報として、そのコンテンツの2次加工などに関する条件などを、後述の推薦情報の生成に用いることができる。 Information indicating the copyright relationship of the copyrighted work defined in MPEG21 can also be used for generating recommendation information, which will be described later, as information characterizing the content of the content, such as conditions relating to secondary processing of the content.
以下では、上記のようにメインコンテンツ内容メタデータがメインコンテンツデータとともに光ディスク2に記録されている場合と、後述のようにコンテンツ処理装置(コンテンツ再生装置)において光ディスク2から読み取ったメインコンテンツデータからメインコンテンツ内容メタデータを生成する場合とを、一緒に示す。
In the following, the main content content metadata is recorded on the
光ピックアップ4によって光ディスク2から読み取られたデータは、RFアンプ12を通じて復調回路13に供給され、復調回路13で復調され、エラー訂正される。
Data read from the
さらに、その復調エラー訂正後のデータが、デマルチプレクサ14に供給されて、デマルチプレクサ14から、メインコンテンツを構成する映像データ、字幕データおよび音声データ、および光ディスク2にメインコンテンツ内容メタデータが記録されている場合にはメインコンテンツ内容メタデータが、分離されて得られる。
Further, the data after demodulation error correction is supplied to the
これら分離された映像データ、字幕データ、音声データおよびメインコンテンツ内容メタデータは、デコードタイムスタンプに従って、それぞれ映像デコーダ15、字幕デコーダ16、音声デコーダ17およびメタデータデコーダ18によってデコードされる。デコードされた映像データ、字幕データおよび音声データは、プレゼンテーションタイムスタンプに従って、それぞれ映像信号、字幕信号および音声信号に変換される。
The separated video data, subtitle data, audio data, and main content content metadata are decoded by the
その映像デコーダ15からの映像信号、および字幕デコーダ16からの字幕信号は、それぞれ映像再生回路21および字幕再生回路22を通じて字幕スーパーインポーズ回路23に供給され、字幕スーパーインポーズ回路23において、映像信号中に字幕信号がスーパーインポーズされて、液晶表示装置などの映像表示装置24の表示画面上に、字幕がスーパーインポーズされた映像が表示される。
The video signal from the
音声デコーダ17からの音声データは、後述のようにサブコンテンツ選択部46でサブコンテンツとして選択され、音声デコーダ47でデコードされた音声データとともに、音声データミキシング回路27に供給され、音声データミキシング回路27において、メインコンテンツの一部としての音声データとサブコンテンツとしての音声データがミキシングされて、スピーカやヘッドフォンなどの音響出力装置28から、ミキシング後の音声が出力される。
The audio data from the
一方、ユーザの状況を特徴づけるユーザ状況メタデータを生成するために、キー入力部31からのキー入力情報、生体センサ33からの生体情報、および外部記憶媒体35から読み出された情報が、それぞれインターフェース32,34および36を介してユーザ状況メタデータ生成部41に供給される。
On the other hand, in order to generate user situation metadata characterizing the user situation, key input information from the
キー入力部31は、コンテンツ処理装置本体のパネル部に設けられた、またはコンテンツ処理装置のリモートコントローラを構成する赤外線発光部とコンテンツ処理装置本体のパネル部に設けられた赤外線受光部とからなるもので、ユーザは、あらかじめ、またはコンテンツ再生時、このキー入力部31によって、ユーザの状況を入力する。
The
生体センサ33は、ユーザの身体的または精神的な状態を検出するもので、脈拍センサや発汗センサなどのセンサ、ユーザの体動(身体の一部または全体の動き)を検出するカメラ、ユーザが発した声を捉えるマイクロフォンなどである。
The
外部記憶媒体35は、ユーザの状況を示す情報が書き込まれたメモリカードなどのリムーバブル記憶媒体である。
The
ユーザの状況は、直接的には、(a)ユーザの好みの音楽ジャンルやアーティスト、ひいきのチームや選手などのユーザプロファイル、および(b)そのときのユーザの身体的または精神的な状態、具体的には、脈拍数、発汗量、指先の温度、聴力年齢、視覚年齢、体動の有無や大きさなどの状態、に大別することができるが、(b)の情報から検出することができる、音楽へのノリの様子、ストーリーへの集中の度合い、「楽しい」「ゆったりとしたい」などの気分も、(b)の身体的または精神的な状態に含ませる。 The user's situation is directly: (a) the user's favorite music genre or artist, user profile such as a favorite team or player, and (b) the physical or mental state of the user at that time, concrete Specifically, it can be roughly classified into the pulse rate, the amount of sweating, the temperature of the fingertip, the hearing age, the visual age, the presence or absence of body movement, the size, etc., but it can be detected from the information in (b). The feelings of music that can be done, the degree of concentration in the story, and the feelings of “fun” and “want to relax” are also included in the physical or mental state of (b).
また、そのときのユーザの視聴環境、例えば視聴室の暗騒音や明るさなども、ユーザの身体的または精神的な状態に影響を与えるものとして、(b)の身体的または精神的な状態に含ませる。 In addition, the viewing environment of the user at that time, for example, background noise or brightness in the viewing room, also affects the physical or mental state of the user. Include.
上記(a)の、ユーザプロファイルは、ユーザがキー入力部31によって入力し、または外部記憶媒体35に書き込んでおく。上記(b)の、そのときのユーザの身体的または精神的な状態は、生体センサ33によって直接検出し、または生体センサ33の出力信号を解析することによって検出する。また、そのときのユーザの視聴環境などは、ユーザプロファイルと同様に、ユーザがキー入力部31によって入力し、または外部記憶媒体35に書き込んでおくようにしてもよい。
The user profile (a) is input by the user through the
ユーザ状況メタデータ生成部41では、以上のようなユーザの状況を示す情報が総合的に分析されて、ユーザの状況を特徴づけるユーザ状況メタデータが生成される。生成されたユーザ状況メタデータは、推薦情報生成部42に送出される。
In the user situation
一方、上述したように、メインコンテンツ内容メタデータが光ディスク2に記録されていて、メタデータデコーダ18でデコードされる場合には、そのメタデータデコーダ18からのメインコンテンツ内容メタデータが、推薦情報生成部42に送出される。
On the other hand, as described above, when the main content content metadata is recorded on the
また、光ディスク2にメタデータが記録されていない場合には、映像デコーダ15からの映像データ、字幕デコーダ16からの字幕データ、および音声デコーダ17からの音声データが、メインコンテンツ内容メタデータ生成部43に供給されて、メインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータが生成され、推薦情報生成部42に送出される。
If no metadata is recorded on the
具体的に、メインコンテンツ内容メタデータ生成部43では、映像データ、字幕データおよび字幕データが分析されて、「暗いシーン」、「画面全体が赤いシーン」、「画面全体が青いシーン」、「暗騒音レベルが高いシーン」、「ダイナミックレンジが広いシーン」、「低域周波数成分のレベルが大きいシーン」、「高域周波数成分のレベルが大きいシーン」、「字幕が青色」、「白地に黄色の字幕」などのメインコンテンツ内容メタデータが生成される。
Specifically, the main content content
そして、推薦情報生成部42では、ユーザ状況メタデータ生成部41からのユーザ状況メタデータと、メタデータデコーダ18またはメインコンテンツ内容メタデータ生成部43からのメインコンテンツ内容メタデータとから、当該メインコンテンツと組み合わせるべきサブコンテンツを推薦する推薦情報が生成される。
The recommendation information generation unit 42 should combine the main content from the user status metadata from the user status
一方、この例では、あらかじめ外部記憶媒体37にサブコンテンツとしての音声データ(音声ファイル)が複数記録されていて、その外部記憶媒体37がコンテンツ処理装置にロードされることによって、外部記憶媒体37からサブコンテンツとしての音声データが読み出されて、インターフェース38を通じてサブコンテンツ内容メタデータ生成部44に供給される。サブコンテンツとしての音声データが記録された外部記憶媒体37は、上記のユーザプロファイルなどが記録された外部記憶媒体35と同一の記憶媒体でもよい。
On the other hand, in this example, a plurality of audio data (audio files) as sub-contents are recorded in advance in the
サブコンテンツ内容メタデータ生成部44では、そのサブコンテンツとしての音声データが分析されて、サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータが生成される。
The sub-content content
このサブコンテンツ内容メタデータ生成部44で生成されたサブコンテンツ内容メタデータは、特徴情報生成部45に送出され、特徴情報生成部45において、サブコンテンツとしての音声データの特徴を示す特徴情報が生成される。
The sub content content metadata generated by the sub content content
特徴情報は、具体的に、サブコンテンツの分析の結果を多次元空間上で表記することによって生成される。次元は、例えば、残響の豊かなコンサートホールでの拍手を録音したコンテンツの場合であれば、「ライブな気分を与える」、「聴衆による拍手」、「掛け声は無し」というものである。 Specifically, the feature information is generated by expressing the result of sub-content analysis on a multidimensional space. For example, in the case of content recorded with applause in a concert hall with a lot of reverberation, the dimensions are “giving a live feeling”, “applause by the audience”, and “no shout”.
この特徴情報生成部45で生成された特徴情報は、サブコンテンツ選択部46に送出され、サブコンテンツ選択部46において、推薦情報生成部42で生成された推薦情報と特徴情報生成部45で生成された特徴情報とから、サブコンテンツとして、特徴情報が推薦情報に最も近い音声データが選択される。
The feature information generated by the feature
具体的に、サブコンテンツ選択部46は、外部記憶媒体37に記録されている複数の曲などの複数の音声ファイルにつき特徴情報生成部45で生成された特徴情報を、そのときのユーザの状況およびメインコンテンツの内容に基づいて推薦情報生成部42で生成された推薦情報と比較して、特徴情報が推薦情報に最も近いサブコンテンツ(音声ファイル)を検出し、そのサブコンテンツの識別コードや曲名などの識別情報をシステムコントローラ11に通知する。これを受けて、システムコントローラ11は、その識別情報を有するサブコンテンツ(音声ファイル)を外部記憶媒体37から読み出し、インターフェース38を通じてサブコンテンツ選択部46に送出する。
Specifically, the
サブコンテンツの選択にあたっては、推薦情報の次元のうち、重要でない次元は、推薦情報と特徴情報との間の距離(違い)の判断に用いないように構成される。 In selecting the sub-content, the dimension that is not important among the dimensions of the recommendation information is configured not to be used for determining the distance (difference) between the recommendation information and the feature information.
このサブコンテンツ選択部46で選択された音声データは、音声デコーダ47でデコードされて、音声データミキシング回路27に供給され、音声デコーダ17でデコードされた音声データとミキシングされて、音響出力装置からミキシング後の音声が出力される。
The audio data selected by the
以上の例で、メインコンテンツ内容メタデータとしては、具体的に、「音楽ライブ」、「歌手Aの歌唱中」、「演奏曲目Bの終了時」、「野球中継」、「Cチームの攻撃中」、「得点シーン」、「明るい画面」、「静かなシーン」、「せりふを話しているシーン」、「効果音が流れているシーン」、「字幕が右から左にロールしながら表示されている状態」などのメタデータが、メインコンテンツのプレゼンテーションタイムに関連づけられて得られる。 In the above example, the main content content metadata specifically includes “music live”, “during singing by singer A”, “at the end of performance song B”, “baseball broadcast”, “during C team attack” , "Scoring scene", "Bright screen", "Quiet scene", "Speaking scene", "Scene with sound effects", "Subtitles are displayed rolling from right to left Metadata such as “status” is obtained in association with the presentation time of the main content.
推薦情報としては、具体的に、例えば、メインコンテンツ内容メタデータが「ポップス系の歌手」および「ライブコンサート」であり、ユーザ状況メタデータが「ひいきの歌手」、「好きな曲」および「楽しい気分」であったときには、「ライブコンサートの雰囲気を盛り上げる」および「参加している気分にさせる」という情報が生成される。 As the recommendation information, specifically, for example, the main content content metadata is “pop singer” and “live concert”, and the user situation metadata is “favorite singer”, “favorite song” and “fun mood” ”Is generated,“ Energize live concert atmosphere ”and“ Make you feel participating ”.
サブコンテンツとしては、具体的に、例えば、推薦情報が「ライブコンサートの雰囲気を盛り上げる」、「参加している気分にさせる」および「演奏曲終了」という情報であるとき、「ライブな気分を与える」、「聴衆による拍手」および「掛け声は無し」という特徴情報を有する「残響の豊かなコンサートホールでの拍手の録音」という音声ファイルが選択される。 As sub-contents, for example, when the recommended information is information such as “enliven the atmosphere of a live concert”, “feel like participating”, and “end of a performance song”, “provide a live feeling” ”,“ Applause by audience ”and“ Recording applause in a concert hall rich in reverberation ”having feature information of“ no applause ”are selected.
したがって、上述したコンテンツ処理方法(コンテンツ再生方法)では、メインコンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。 Therefore, in the above-described content processing method (content reproduction method), it is possible to create an optimal atmosphere and realistic sensation according to not only the content of the main content but also the user's mood at that time.
図3に、図1の例のコンテンツ処理装置(コンテンツ再生装置)がシステムコントローラ11の制御のもとに行う再生処理の例を示す。
FIG. 3 shows an example of reproduction processing performed by the content processing apparatus (content reproduction apparatus) in the example of FIG. 1 under the control of the
この例では、ユーザの再生開始操作によって再生を開始して、まずステップ51で、光ディスク2および光ピックアップ4を駆動して、メインコンテンツの多重化されたデータを読み出し、復調する。
In this example, the reproduction is started by the user's reproduction start operation. First, in
次に、ステップ52で、映像データ、字幕データ、音声データおよびメインコンテンツ内容メタデータ(光ディスク2にメインコンテンツ内容メタデータが記録されていない場合には、映像データ、字幕データおよび音声データ)を分離し、さらにステップ53に進んで、ユーザの指示やコンテンツ処理装置の再生環境に応じて、必要なパケットと音声チャネルを選択する。
Next, in
次に、ステップ54で、パケットのヘッダをみて、各データを対応するデコーダに送出し、さらにステップ55に進んで、各データを各デコーダでデコードする。光ディスク2にメインコンテンツ内容メタデータが記録されていない場合には、ステップ55の後に、メインコンテンツ内容メタデータを生成する。
Next, in
次に、ステップ56で、ユーザ状況メタデータを生成し、さらに、そのユーザ状況メタデータとメインコンテンツ内容メタデータとから、推薦情報を生成する。
Next, in
次に、ステップ57で、特徴情報を生成し、さらにステップ58に進んで、その特徴情報を推薦情報と比較して、サブコンテンツとしての音声データを選択する。
Next, in
次に、ステップ59で、メインコンテンツの映像、字幕および音声と、サブコンテンツの音声とを、組み合わせて提示する。すなわち、映像および字幕は、映像表示装置24により表示し、音声は音響出力装置28により出力する。ただし、ステップ53で選択しなかったパケットに係るコンテンツは別である。
Next, in
図1の例は、光ディスク2にメインコンテンツ内容メタデータが記録されている場合、またはメインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータを生成する場合であるが、メインコンテンツ内容メタデータは、コンテンツ処理装置が備える回線接続部によりコンテンツ提供元などのサーバに接続することによってコンテンツ処理装置の外部から取得し、またはメインコンテンツが記録された光ディスク2とは別のメモリカードなどの記憶媒体によって取得するようにしてもよい。
The example of FIG. 1 is a case where main content content metadata is recorded on the
また、図1の例は、外部記憶媒体37にサブコンテンツが記録されている場合であるが、サブコンテンツは、コンテンツ処理装置が備える回線接続部によりコンテンツ提供元などのサーバに接続することによってコンテンツ処理装置の外部から取得するようにしてもよい。
The example of FIG. 1 is a case where sub-contents are recorded on the
その場合、外部のサーバにおいて、サブコンテンツ内容メタデータ、さらには特徴情報を生成して、ユーザ側のコンテンツ処理装置に送信し、コンテンツ処理装置において、その特徴情報と推薦情報とから、推薦情報に最も近い特徴情報を有するサブコンテンツを選択するように、システムを構成してもよい。 In that case, sub-content content metadata and further feature information is generated in an external server and transmitted to the content processing device on the user side. The content processing device converts the feature information and recommendation information into recommendation information. The system may be configured to select the sub-content having the closest feature information.
さらに、ユーザ側のコンテンツ処理装置から外部のサーバに、メインコンテンツ内容メタデータおよびユーザ状況メタデータ、または推薦情報を送信することによって、あるいは、上記のように外部のサーバにメインコンテンツ内容メタデータを備え、または外部のサーバがメインコンテンツ内容メタデータを生成する場合には、ユーザ側のコンテンツ処理装置から外部のサーバに、ユーザ状況メタデータを送信することによって、外部のサーバにおいて、推薦情報と特徴情報とから、推薦情報に最も近い特徴情報を有するサブコンテンツを選択し、そのサブコンテンツをユーザ側のコンテンツ処理装置に送信するように、システムを構成してもよい。 Further, by transmitting the main content content metadata and user status metadata or recommendation information from the content processing device on the user side to the external server, or the main content content metadata is provided in the external server as described above, Alternatively, when the external server generates the main content content metadata, the user status metadata is transmitted from the content processing device on the user side to the external server, so that the external server uses the recommendation information and the feature information. The system may be configured to select the sub-content having the feature information closest to the recommendation information and transmit the sub-content to the user-side content processing apparatus.
(1−2.再生の場合の第2の例:図4)
図4に、放送を受信して、メインコンテンツを取得し、再生する場合の例を示す。
(1-2. Second example of reproduction: FIG. 4)
FIG. 4 shows an example in which a broadcast is received, main content is acquired and played back.
この例では、デジタル放送受信部61で、BSデジタル放送、CSデジタル放送、地上デジタル放送などのデジタル放送が、メインコンテンツとして受信される。受信されたメインコンテンツのデータは、復調回路63で復調され、デマルチプレクサ14で図1の例と同様に各データに分離される。
In this example, the digital broadcast receiving unit 61 receives digital broadcasts such as BS digital broadcasts, CS digital broadcasts, and terrestrial digital broadcasts as main contents. The received main content data is demodulated by the demodulation circuit 63 and separated into each data by the
さらに、この例では、コンテンツ処理装置(放送受信再生装置)が、回線接続部67により放送元などのコンテンツ提供元のサーバに接続してサブコンテンツを取得できるように構成される。取得されたサブコンテンツのデータは、インターフェース68を通じてサブコンテンツ内容メタデータ生成部44やサブコンテンツ選択部46に送出される。そのほかは、図1の例と同じである。
Furthermore, in this example, the content processing device (broadcast reception / playback device) is configured to be able to acquire sub-contents by connecting to a content provider server such as a broadcast source by the
放送では生中継の場合もあり、雰囲気や臨場感だけでなく即時性が要求されるが、この例では、メインコンテンツの放送が野球やサッカーなどの試合の中継であるとき、サブコンテンツとして各チームの応援席の最新の様子などのコンテンツを得ることができる。 Broadcasting may be live broadcasts, and not only the atmosphere and presence, but also immediacy is required. In this example, when the main content broadcast is a game relay such as baseball or soccer, sub-contents of each team You can get contents such as the latest state of the support seat.
具体的に、例えば、推薦情報が「野球のチームAとチームBとの対戦」、「チームAの攻撃中で選手Cの打席」、「選手Cの打率は0.33」および「ユーザは選手Cのファン」というものであるとき、サブコンテンツとして、「チームA側のスタンドの応援」および「選手Cへの応援」という特徴情報を有する「チームA側のスタンドで選手Cを応援する様子」という音声ファイルが選択され、メインコンテンツと組み合わされて再生される。 Specifically, for example, the recommendation information is “a match between baseball team A and team B”, “attack of player C during attack of team A”, “batting rate of player C is 0.33”, and “user is player When it is called “C fan”, the sub-contents have the characteristic information “support for the stand on the team A side” and “support for the player C”. Is selected and played in combination with the main content.
図4の例は、図1の例と同様にサブコンテンツが音声データの場合であるが、サブコンテンツは、映像データでも、映像データおよび音声データでもよい。メインコンテンツおよびサブコンテンツが共に映像を含む場合、サブコンテンツの映像は、メインコンテンツの映像とともに2画面表示により表示され、またはメインコンテンツの映像に代えて表示され、あるいはメインコンテンツの映像と交互に表示されるように、コンテンツ処理装置を構成する。 The example of FIG. 4 is a case where the sub-content is audio data as in the example of FIG. 1, but the sub-content may be video data, video data, and audio data. When the main content and the sub-content both include video, the sub-content video is displayed in a two-screen display together with the main content video, or is displayed in place of the main content video, or alternately with the main content video. The content processing apparatus is configured.
この例でも、図1の例につき上述したように、外部のサーバにおいてサブコンテンツを選択するように構成することができる。 Also in this example, as described above with reference to the example of FIG. 1, the sub-content can be selected in an external server.
[2.コンテンツを記録する場合の実施形態:図5〜図8]
この発明は、コンテンツを記録する場合にも適用することができる。
[2. Embodiment for Recording Content: FIGS. 5 to 8]
The present invention can also be applied when recording content.
図5に、その場合の一例として、撮像装置により被写体を撮影して得られた画像(画像データ)をメインコンテンツとし、当該メインコンテンツの内容およびユーザの状況に応じた画像(画像データ)をサブコンテンツとして選択して、メインコンテンツと組み合わせて記録する場合を示す。 As an example in FIG. 5, an image (image data) obtained by photographing a subject with an imaging device is used as main content, and an image (image data) according to the content of the main content and the user's situation is used as sub content. The case of selecting and recording in combination with the main content is shown.
この例のコンテンツ処理システムは、ユーザ側の撮像装置70と、サービス提供側のサーバシステムとによって構成され、例えば、図6に示すようなテーマパークで用いられる。 The content processing system of this example is configured by an imaging device 70 on the user side and a server system on the service providing side, and is used in a theme park as shown in FIG. 6, for example.
図6のテーマパークは、広い敷地90内に個別のテーマを有する複数の施設91〜97が設けられ、利用者が希望する施設を利用し、その施設の内部または近傍で写真を撮り、ビデオ撮影を行うことができるものである。
The theme park of FIG. 6 is provided with a plurality of
図5の撮像装置70は、デジタルビデオカメラ、デジタルスチルカメラ、カメラ付き携帯電話端末などであり、サービス提供側のサーバシステムは、敷地90内または敷地90外に一つ、またはホットスポットである施設91〜97ごとに設けられ、送受信用のアンテナ81、サービス提供側サーバ82およびコンテンツデータベース83を備えるものである。
The imaging device 70 in FIG. 5 is a digital video camera, a digital still camera, a mobile phone terminal with a camera, or the like, and the server system on the service providing side is one in or outside the
コンテンツデータベース83には、サブコンテンツとなる多数の画像ファイルや音声ファイルが蓄積される。この場合の画像は、アニメーション画像やキャラクタ画像などであり、音声は、音楽やキャラクタの声などであり、各施設91〜97にふさわしいものが複数ずつ用意される。また、それぞれの画像ファイルや音声ファイルには、上述したサブコンテンツ内容メタデータまたは特徴情報が付加される。
The
撮像装置70では、カメラ部71によって被写体が撮影され、カメラ部71から撮影画像データがメインコンテンツとして得られる。その撮影画像データは、画像処理部72で処理され、書き込み読み出し制御部73によって記録媒体74に記録される。記録媒体74は、例えば撮像装置70に装着されたリムーバブル記録媒体であるが、撮像装置70に内蔵された半導体メモリなどの記録媒体でもよい。
In the imaging device 70, a subject is photographed by the camera unit 71, and photographed image data is obtained as main content from the camera unit 71. The captured image data is processed by the image processing unit 72 and recorded on the
記録媒体74に記録された撮影画像データは、書き込み読み出し制御部73によって記録媒体74から読み出されて、画像処理部72で処理され、液晶表示部などの表示部75に撮影画像が表示される。
The captured image data recorded on the
さらに、撮影時または撮影直後、撮影画像データが、画像処理部72を通じてメインコンテンツ内容メタデータ生成部43に送出されて、メインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータが生成され、推薦情報生成部42に送出される。
Further, at the time of shooting or immediately after shooting, the shot image data is sent to the main content content
一方、撮影時または撮影直後、図1または図4の例と同様に、ユーザ状況メタデータ生成部41において、キー入力部31からインターフェース32を介して入力されたキー入力情報、生体センサ33からインターフェース34を介して入力された生体情報、および外部記憶媒体35から読み出されてインターフェース36を介して入力された情報から、ユーザの状況を特徴づけるユーザ状況メタデータが生成され、推薦情報生成部42に送出される。
On the other hand, at the time of shooting or immediately after shooting, as in the example of FIG. 1 or 4, in the user situation
また、この例では、撮像装置70が、GPS(Global Positioning System)アンテナ78およびGPS測位部79を備え、GPS衛星からの電波を受信し、データを処理することによって、撮像装置70の位置を測定できるようにされ、撮影時または撮影直後、その測定結果の位置情報が、推薦情報生成部42に送出される。
In this example, the imaging device 70 includes a GPS (Global Positioning System)
この場合のGPS測位情報は、メインコンテンツである撮影画像の内容を特徴づけるメインコンテンツ内容メタデータとなり得るものであり、サブコンテンツの選択のための判断材料となり得るものである。 The GPS positioning information in this case can be main content content metadata that characterizes the content of the captured image that is the main content, and can be a determination material for selecting the sub content.
例えば、ユーザが図6の施設91の前で撮影したとき、撮影された画像には施設91が写し出されるとともに、GPS測位情報は施設91の近くで撮影したことを示すものとなり、サブコンテンツとして、施設91にふさわしい画像や音声を選択することが可能となる。
For example, when the user takes a picture in front of the
推薦情報生成部42では、ユーザ状況メタデータ生成部41からのユーザ状況メタデータ、メインコンテンツ内容メタデータ生成部43からのメインコンテンツ内容メタデータ、およびGPS測位部79からのGPS測位情報から、メインコンテンツである撮影画像と組み合わせるべきサブコンテンツを推薦する推薦情報が生成される。
The recommendation information generation unit 42 is the main content from the user situation metadata from the user situation
そして、この例では、その推薦情報が送受信部76からアンテナ77を通じて、サービス提供側のサーバシステムに送信される。
In this example, the recommendation information is transmitted from the transmission /
サービス提供側のサーバシステムでは、サービス提供側サーバ82において、アンテナ81を通じて、その推薦情報が受信され、この例では、サブコンテンツとして、コンテンツデータベース83に蓄積されている多数の画像ファイルから、その特徴情報が、受信された推薦情報に最も近い画像ファイルが選択され、サービス提供側サーバ82から、アンテナ81を通じて撮像装置70に送信される。
In the server system on the service providing side, the recommendation information is received by the service providing server 82 via the
撮像装置70では、その提供された画像データが、アンテナ77を通じて送受信部76で受信され、画像処理部72に送出される。
In the imaging device 70, the provided image data is received by the transmission /
画像処理部72では、そのサブコンテンツとしての提供画像が、メインコンテンツとしての撮影画像と組み合わせられる。組み合わせ態様としては、ユーザの設定によって、図7に示すように、メインコンテンツ画像(撮影画像)Pmにサブコンテンツ画像(提供画像)Psが合成され、合成後の画像が一つの画像ファイルとして記録媒体74に記録される合成モードと、メインコンテンツ画像とサブコンテンツ画像とが関連識別子によってリンクされて別個の画像ファイルとして記録媒体74に記録されるリンク・モードの、いずれかを選択できるように、撮像装置70を構成する。
In the image processing unit 72, the provided image as the sub-content is combined with the captured image as the main content. As a combination mode, as shown in FIG. 7, the sub content image (provided image) Ps is combined with the main content image (captured image) Pm according to user settings, and the combined image is recorded as one image file on the
以上は、メインコンテンツとしての撮影画像にサブコンテンツとしての提供画像が組み合わせられる場合であるが、ユーザの設定によって、サブコンテンツが組み合わせられるモードと組み合わせられないモードのいずれかを選択できるように、撮像装置70を構成してもよい。 The above is a case where the provided image as the sub-content is combined with the captured image as the main content, but the imaging device can select either the mode in which the sub-content is combined or the mode in which the sub-content is not combined depending on the user setting. 70 may be configured.
以上は、サブコンテンツも画像の場合であるが、上述したようにサブコンテンツは音楽やキャラクタの声などの音声でもよい。その場合には、図8に示すように、メインコンテンツとしての画像ファイルFpとサブコンテンツとしての音声ファイルFaとが、関連識別子によってリンクされて記録媒体74に記録される。
The above is the case where the sub-content is also an image, but as described above, the sub-content may be sound such as music or voice of a character. In that case, as shown in FIG. 8, the image file Fp as the main content and the audio file Fa as the sub-content are linked by the related identifier and recorded on the
主要部については図中に全て記述したので、ここでは省略する。 Since all the main parts are described in the figure, they are omitted here.
Claims (18)
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成ステップと、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコン
テンツの特徴を示す特徴情報を生成する特徴情報生成ステップと、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテン
ツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブ
コンテンツ選択ステップと、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータであるコンテンツ処理方法。 And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation step of generating recommendation information for recommending sub content to be reproduced along with the main content ,
A feature information generating step for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
A sub-content selection step of selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
And the user situation metadata is data indicating physical or mental state of the user at the time when the recommendation information is generated .
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択ステップで選択されたサブコンテンツとを、一緒に再生
するコンテンツ処理方法。 The content processing method according to claim 1,
A content processing method for reproducing together the main content and the sub-content selected in the sub-content selection step as sub-content to be reproduced together with the main content.
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択ステップで選択されたサブコンテンツとを、合成して記
録し、または関連づけて記録するコンテンツ処理方法。 The content processing method according to claim 1,
A content processing method in which the main content and the sub-content selected in the sub-content selection step as sub-content to be reproduced together with the main content are combined and recorded, or recorded in association with each other.
ユーザ側のコンテンツ処理装置において、前記メインコンテンツを分析して前記メイン
コンテンツ内容メタデータを生成するコンテンツ処理方法。 The content processing method according to claim 1,
A content processing method for analyzing the main content and generating the main content content metadata in a content processing apparatus on a user side.
前記メインコンテンツ内容メタデータは、ユーザ側のコンテンツ処理装置の外部からユ
ーザ側のコンテンツ処理装置に取り込むコンテンツ処理方法。 The content processing method according to claim 1,
The content processing method for fetching the main content content metadata into the user-side content processing apparatus from outside the user-side content processing apparatus.
ユーザ側のコンテンツ処理装置において、前記サブコンテンツを分析して前記サブコンテンツ内容メタデータを生成するコンテンツ処理方法。 The content processing method according to claim 1,
A content processing method for analyzing the sub-content and generating the sub-content content metadata in a user-side content processing apparatus.
前記サブコンテンツ内容メタデータは、ユーザ側のコンテンツ処理装置の外部からユー
ザ側のコンテンツ処理装置に取り込むコンテンツ処理方法。 The content processing method according to claim 1,
The content processing method according to claim 1, wherein the sub-content content metadata is taken into the user-side content processing apparatus from outside the user-side content processing apparatus.
ユーザ側のコンテンツ処理装置において、前記推薦情報生成ステップ、前記特徴情報生
成ステップおよび前記サブコンテンツ選択ステップを実行するコンテンツ処理方法。 The content processing method according to claim 1,
A content processing method for executing the recommendation information generation step, the feature information generation step, and the sub-content selection step in a user-side content processing apparatus.
ユーザ側のコンテンツ処理装置において、前記推薦情報生成ステップを実行して、その
推薦情報生成ステップで生成された推薦情報を、前記ユーザ側のコンテンツ処理装置の外
部のサービス提供側の機器に送信し、そのサービス提供側の機器において、前記特徴情報
生成ステップおよび前記サブコンテンツ選択ステップを実行して、そのサブコンテンツ選
択ステップで選択されたサブコンテンツを、前記ユーザ側のコンテンツ処理装置に送信す
るコンテンツ処理方法。 The content processing method according to claim 1,
In the content processing device on the user side, the recommendation information generation step is executed, and the recommendation information generated in the recommendation information generation step is transmitted to a service providing side device outside the content processing device on the user side, A content processing method for executing the feature information generation step and the sub-content selection step in the service-providing device and transmitting the sub-content selected in the sub-content selection step to the content processing device on the user side .
ユーザ側のコンテンツ処理装置の外部のサービス提供側の機器において、前記ユーザ側
のコンテンツ処理装置から、前記メインコンテンツ内容メタデータおよび前記ユーザ状況
メタデータ、または前記ユーザ状況メタデータを取得し、前記推薦情報生成ステップ、前
記特徴情報生成ステップおよび前記サブコンテンツ選択ステップを実行して、そのサブコ
ンテンツ選択ステップで選択されたサブコンテンツを、前記ユーザ側のコンテンツ処理装
置に送信するコンテンツ処理方法。 The content processing method according to claim 1,
In the service providing device external to the user-side content processing apparatus, the main content content metadata and the user situation metadata or the user situation metadata are acquired from the user-side content processing apparatus, and the recommendation information A content processing method that executes a generation step, the feature information generation step, and the sub-content selection step, and transmits the sub-content selected in the sub-content selection step to the content processing apparatus on the user side.
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成手段と、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコン
テンツの特徴を示す特徴情報を生成する特徴情報生成手段と、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテン
ツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブ
コンテンツ選択手段と、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータである、コンテンツ処理装置。 And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation means for generating recommendation information for recommending sub content to be reproduced along with the main content ,
Feature information generating means for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
Sub-content selection means for selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
And the user situation metadata is data indicating a physical or mental state of the user at the time when the recommendation information is generated .
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択手段により選択されたサブコンテンツとを、一緒に再生
するコンテンツ処理装置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus that reproduces together the main content and the sub-content selected by the sub-content selection unit as the sub-content to be reproduced together with the main content.
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択手段により選択されたサブコンテンツとを、合成して記
録し、または関連づけて記録するコンテンツ処理装置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus that synthesizes and records the main content and the sub-content selected by the sub-content selection unit as sub-content to be reproduced together with the main content, or records the sub-content in association with each other.
前記メインコンテンツを分析して前記メインコンテンツ内容メタデータを生成するメイ
ンコンテンツ内容メタデータ生成手段を備えるコンテンツ処理装置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising main content content metadata generating means for analyzing the main content and generating the main content content metadata.
当該コンテンツ処理装置の外部から当該コンテンツ処理装置に前記メインコンテンツ内
容メタデータを取り込むメインコンテンツ内容メタデータ取得手段を備えるコンテンツ処
理装置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising main content content metadata acquisition means for fetching the main content content metadata from outside the content processing apparatus into the content processing apparatus.
前記サブコンテンツを分析して前記サブコンテンツ内容メタデータを生成するサブコン
テンツ内容メタデータ生成手段を備えるコンテンツ処理装置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising sub-content content metadata generating means for analyzing the sub-content and generating the sub-content content metadata.
当該コンテンツ処理装置の外部から当該コンテンツ処理装置に前記サブコンテンツ内容
メタデータを取り込むサブコンテンツ内容メタデータ取得手段を備えるコンテンツ処理装
置。 The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising sub-content content metadata acquisition means for fetching the sub-content content metadata from outside the content processing apparatus into the content processing apparatus.
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成手段と、
この推薦情報生成手段によって生成された推薦情報を、サービス提供側の機器に送信す
る送信手段と、
前記サービス提供側の機器において、コンテンツの特徴を示す特徴情報が前記送信手段
によって送信された推薦情報に最も近いコンテンツとして選択され、送信されたサブコン
テンツを、受信する受信手段と、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータである、コンテンツ処理装置。
And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation means for generating recommendation information for recommending sub content to be reproduced along with the main content ,
Transmitting means for transmitting the recommendation information generated by the recommendation information generating means to the device on the service providing side;
In the service providing device, the feature information indicating the feature of the content is selected as the content closest to the recommendation information transmitted by the transmitting unit, and the receiving unit receives the transmitted sub-content.
And the user situation metadata is data indicating a physical or mental state of the user at the time when the recommendation information is generated .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004303934A JP4529632B2 (en) | 2004-10-19 | 2004-10-19 | Content processing method and content processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004303934A JP4529632B2 (en) | 2004-10-19 | 2004-10-19 | Content processing method and content processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006119178A JP2006119178A (en) | 2006-05-11 |
JP4529632B2 true JP4529632B2 (en) | 2010-08-25 |
Family
ID=36537167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004303934A Expired - Fee Related JP4529632B2 (en) | 2004-10-19 | 2004-10-19 | Content processing method and content processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4529632B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008126775A1 (en) * | 2007-04-05 | 2008-10-23 | Nec Corporation | Information recommendation apparatus, information recommendation system, information recommendation method, and information recommendation program |
JP5649273B2 (en) * | 2008-08-25 | 2015-01-07 | 株式会社東芝 | Information processing apparatus, information processing method, and information processing program |
JP4780185B2 (en) | 2008-12-04 | 2011-09-28 | ソニー株式会社 | Music reproduction system and information processing method |
JP2018159970A (en) * | 2017-03-22 | 2018-10-11 | シャープ株式会社 | Image processing apparatus, control program and control method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282847A (en) * | 2000-04-03 | 2001-10-12 | Nec Corp | Sensibility adaptive type information-providing device and machine-readable recording medium recording program |
JP2002091454A (en) * | 2000-09-12 | 2002-03-27 | Sony Corp | Server device and distribution system and distribution method and terminal equipment |
JP2002287772A (en) * | 2001-03-23 | 2002-10-04 | Ricoh Co Ltd | System for delivering musical piece with still picture |
JP2002330419A (en) * | 2001-04-27 | 2002-11-15 | Matsushita Electric Ind Co Ltd | Multi-story viewing device and multi-story viewing method |
JP2003209523A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | System for displaying content list corresponding to dynamic state change of user |
JP2003235003A (en) * | 2002-02-12 | 2003-08-22 | Matsushita Electric Ind Co Ltd | Digital broadcast system |
JP2004070646A (en) * | 2002-08-06 | 2004-03-04 | Yamaha Corp | Information terminal device, server system, contents distribution system, method for restricting simultaneous reproduction of contents, and program |
JP2004206679A (en) * | 2002-12-12 | 2004-07-22 | Sony Corp | Information processing device and method, recording medium and program |
JP2004246535A (en) * | 2003-02-13 | 2004-09-02 | Sony Corp | Reproduction method, reproduction device, and content delivery system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10161654A (en) * | 1996-11-27 | 1998-06-19 | Sanyo Electric Co Ltd | Musical classification determining device |
JP3768347B2 (en) * | 1998-02-06 | 2006-04-19 | パイオニア株式会社 | Sound equipment |
JPH11244383A (en) * | 1998-03-02 | 1999-09-14 | Pioneer Electron Corp | Audio system |
-
2004
- 2004-10-19 JP JP2004303934A patent/JP4529632B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282847A (en) * | 2000-04-03 | 2001-10-12 | Nec Corp | Sensibility adaptive type information-providing device and machine-readable recording medium recording program |
JP2002091454A (en) * | 2000-09-12 | 2002-03-27 | Sony Corp | Server device and distribution system and distribution method and terminal equipment |
JP2002287772A (en) * | 2001-03-23 | 2002-10-04 | Ricoh Co Ltd | System for delivering musical piece with still picture |
JP2002330419A (en) * | 2001-04-27 | 2002-11-15 | Matsushita Electric Ind Co Ltd | Multi-story viewing device and multi-story viewing method |
JP2003209523A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | System for displaying content list corresponding to dynamic state change of user |
JP2003235003A (en) * | 2002-02-12 | 2003-08-22 | Matsushita Electric Ind Co Ltd | Digital broadcast system |
JP2004070646A (en) * | 2002-08-06 | 2004-03-04 | Yamaha Corp | Information terminal device, server system, contents distribution system, method for restricting simultaneous reproduction of contents, and program |
JP2004206679A (en) * | 2002-12-12 | 2004-07-22 | Sony Corp | Information processing device and method, recording medium and program |
JP2004246535A (en) * | 2003-02-13 | 2004-09-02 | Sony Corp | Reproduction method, reproduction device, and content delivery system |
Also Published As
Publication number | Publication date |
---|---|
JP2006119178A (en) | 2006-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10194115B2 (en) | Audio routing for audio-video recording | |
US8914820B2 (en) | Systems and methods for memorializing a viewers viewing experience with captured viewer images | |
US8078034B2 (en) | Method and apparatus for navigating through subtitles of an audio video data stream | |
US20030229679A1 (en) | System and method for reproducing information stored on a data recording medium in an interactive networked environment | |
US20070239847A1 (en) | Recording apparatus, reproducing apparatus, recording and reproducing apparatus, recording method, reproducing method, recording and reproducing method and recording medium | |
JP2006500860A (en) | Device for receiving digital information signals | |
JP2008312183A (en) | Information processing apparatus, method, and program | |
US8264609B2 (en) | Caption presentation method and apparatus using same | |
JP2008178090A (en) | Video processing apparatus | |
JP4529632B2 (en) | Content processing method and content processing apparatus | |
JP2004259375A (en) | Device and method for recording/reproducing message | |
JPH10322613A (en) | Information reception and reproduction device, and recording medium | |
JP5084022B2 (en) | Content playback apparatus, content playback system, content playback method, and program | |
JP2005303605A (en) | Display system and television receiving unit | |
KR20050076017A (en) | Apparatus and method for recording video data, and apparatus and method for reproducing video data | |
JP2002218331A (en) | Tv receiver set and receiving method | |
JP4284594B2 (en) | Recording / reproducing apparatus and method | |
JP2006148839A (en) | Broadcasting apparatus, receiving apparatus, and digital broadcasting system comprising the same | |
JP2008011397A (en) | Data broadcast playback apparatus and method | |
JP2005204233A (en) | Digital broadcast receiver and transmitter, receiving method, program, recording medium, and video recording and reproducing apparatus | |
JP2007048379A (en) | Program reproduction method | |
JP4105975B2 (en) | Video / audio playback device | |
JP2009105646A (en) | Television broadcast recording and reproducing device, and reproducing method for recorded digital broadcast | |
JP4730253B2 (en) | Movie playback apparatus and movie playback method | |
JP2007234089A (en) | Recording and reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090728 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090810 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100518 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100531 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4529632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |