JP4529632B2 - Content processing method and content processing apparatus - Google Patents

Content processing method and content processing apparatus Download PDF

Info

Publication number
JP4529632B2
JP4529632B2 JP2004303934A JP2004303934A JP4529632B2 JP 4529632 B2 JP4529632 B2 JP 4529632B2 JP 2004303934 A JP2004303934 A JP 2004303934A JP 2004303934 A JP2004303934 A JP 2004303934A JP 4529632 B2 JP4529632 B2 JP 4529632B2
Authority
JP
Japan
Prior art keywords
content
sub
metadata
main
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004303934A
Other languages
Japanese (ja)
Other versions
JP2006119178A (en
Inventor
雅美 三浦
進 矢部
功誠 山下
俊郎 寺内
曜一郎 佐古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004303934A priority Critical patent/JP4529632B2/en
Publication of JP2006119178A publication Critical patent/JP2006119178A/en
Application granted granted Critical
Publication of JP4529632B2 publication Critical patent/JP4529632B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

この発明は、映像や音響などのコンテンツを処理する方法および装置に関する。   The present invention relates to a method and apparatus for processing content such as video and audio.

コンテンツの再生にあたって、別のコンテンツなどを一緒に再生または提示することが考えられている。   When playing back content, it is considered to play or present other content together.

例えば、特許文献1(特開平8−76779号公報)には、カラオケの曲の音楽情報を参照し、曲の内容に合わせて、その場の雰囲気を盛り上げるために照明や空調を制御することが示されている。   For example, Patent Literature 1 (Japanese Patent Laid-Open No. 8-76779) refers to music information of a karaoke song, and controls lighting and air conditioning in order to raise the atmosphere of the place according to the content of the song. It is shown.

また、特許文献2(特表2003−507808号公報)には、映像音声データの内容や構造を表記する記述方法が示されている。   Japanese Patent Application Laid-Open No. 2003-507808 discloses a description method for describing the contents and structure of video / audio data.

さらに、特許文献3(特開2001−333410号公報)には、コンテンツの最適視聴条件を記述したメタデータによって、ユーザが最適な条件でコンテンツを視聴できるようにすることや、ユーザの嗜好を示すデータによって、ユーザに提供するコンテンツを判定することが示されている。   Further, Patent Document 3 (Japanese Patent Laid-Open No. 2001-333410) shows that the user can view the content under the optimum condition and the user's preference by using the metadata describing the optimum viewing condition of the content. The data indicates that the content to be provided to the user is determined.

また、特許文献4(特開2002−158948号公報)には、同一シーンを記録した複数の映像音声データを関連づけて再生することが示されている。   Patent Document 4 (Japanese Patent Laid-Open No. 2002-158948) discloses that a plurality of video / audio data in which the same scene is recorded are reproduced in association with each other.

以上のように、音楽コンテンツの再生にあたって、その場の雰囲気を盛り上げるために、コンテンツ内容に応じて照明や空調を制御することが考えられており、また、ユーザの嗜好に応じてコンテンツを選択することが考えられている。   As described above, it is considered to control lighting and air conditioning according to content contents in order to increase the atmosphere of the place when playing music content, and to select content according to user preference It is considered.

上に挙げた先行技術文献は、以下の通りである。
特開平8−76779号公報 特表2003−507808号公報 特開2001−333410号公報 特開2002−158948号公報
The prior art documents listed above are as follows.
JP-A-8-76779 Special table 2003-507808 gazette JP 2001-333410 A JP 2002-158948 A

しかしながら、特許文献1に示されるように、その場の雰囲気や臨場感を盛り上げる場合でも、最適な雰囲気や臨場感はユーザにとって異なることが多い。   However, as shown in Patent Document 1, even when the atmosphere and presence are enhanced, the optimum atmosphere and presence are often different for the user.

特に、スポーツ中継のようなコンテンツでは、応援しているチーム側のスタンドにいるような雰囲気であれば、楽しく鑑賞することができるが、相手チーム側のスタンドにいるような雰囲気であると、楽しく感じられないことが多い。   In particular, content such as sports broadcasts can be enjoyed as long as the atmosphere is on the stand of the supporting team, but it is fun if the atmosphere is on the other team's stand. Often not felt.

そのため、コンテンツの内容からだけでは、最適な雰囲気や臨場感を作ることは困難である。   For this reason, it is difficult to create an optimal atmosphere and presence only from the content.

また、同じ歌であっても、ユーザのそのときの気分などによって、手拍子を打つなどして聴きたいときと、静かにじっくりと聴きたいときとがあるが、上記のようにコンテンツの内容のみから雰囲気や臨場感を作成したのでは、ユーザのそのときの気分などに応じた雰囲気や臨場感を作ることはできない。   Even if the song is the same, depending on the mood of the user, there are times when you want to listen by clapping, etc., and when you want to listen carefully and quietly. If an atmosphere or a sense of presence is created, an atmosphere or a sense of presence corresponding to the user's current mood cannot be created.

そこで、この発明は、コンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができるようにしたものである。   In view of this, the present invention is capable of creating an optimal atmosphere and a realistic sensation according to not only the content but also the user's mood at that time.

この発明のコンテンツ処理方法は、
メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータと、ユーザプロファイルおよびそのときのユーザの身体的または精神的な状態を示すデータであるユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成ステップと、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコンテンツの特徴を示す特徴情報を生成する特徴情報生成ステップと、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテンツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブコンテンツ選択ステップと、
を備えるものである
The content processing method of the present invention includes:
Sub-content to be played back together with the main content from the main content content metadata that characterizes the content of the main content and user status metadata that is data indicating the user profile and the physical or mental state of the user at that time A recommendation information generation step for generating recommendation information for recommending,
A feature information generating step for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
A sub-content selection step of selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
It is those with a.

上記のコンテンツ処理方法では、音楽や映像などのコンテンツを再生または記録するとき、そのコンテンツであるメインコンテンツの内容だけでなく、ユーザのそのときの状況に応じた最適な別のコンテンツが、サブコンテンツとして選択され、メインコンテンツと一緒に再生または記録されるので、コンテンツ(メインコンテンツ)の内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。 In the content processing method described above, when content such as music or video is played back or recorded, not only the content of the main content that is the content, but also other content that is optimal for the current situation of the user is used as the sub-content. Since it is selected and reproduced or recorded together with the main content, it is possible to create an optimal atmosphere and a sense of realism not only according to the content (main content) but also according to the user's mood at that time.

以上のように、この発明によれば、コンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。   As described above, according to the present invention, it is possible to create an optimal atmosphere and realistic sensation according to not only the contents but also the user's mood at that time.

[1.コンテンツを再生する場合の実施形態:図1〜図4]
コンテンツを再生する場合の実施形態を以下に示す。
[1. Embodiment for Reproducing Content: FIGS. 1 to 4]
An embodiment in the case of reproducing content will be described below.

なお、メインコンテンツおよびサブコンテンツというのは、上述したように便宜的に呼称したものであって、特にメインコンテンツの方がサブコンテンツより、重要である、データ量が多い、などという区別があるものではない。   The main content and the sub-content are named for convenience as described above, and there is no distinction that the main content is more important than the sub-content, and that the amount of data is large. .

(1−1.再生の場合の第1の例:図1〜図3)
図1は、この発明のコンテンツ処理装置の一例を示し、記録媒体に記録されたメインコンテンツの再生時、当該メインコンテンツの内容およびユーザの状況に応じたサブコンテンツを選択し、メインコンテンツと一緒に再生するものである。
(1-1. First example of reproduction: FIGS. 1 to 3)
FIG. 1 shows an example of a content processing apparatus according to the present invention. When main content recorded on a recording medium is reproduced, sub-content according to the content of the main content and the user's situation is selected and reproduced together with the main content. It is.

この例のコンテンツ処理装置は、コンテンツ再生装置として、ディスク再生部1を備え、システムコントローラ11による制御によってスピンドルモータ3および光ピックアップ4を駆動して、光ディスク2から、これに記録されているメインコンテンツを読み取り、再生するものである。   The content processing device of this example includes a disc playback unit 1 as a content playback device, drives the spindle motor 3 and the optical pickup 4 under the control of the system controller 11, and stores the main content recorded on the optical disc 2. Read and play.

メインコンテンツは、この例では、映画やドラマなどの映像データ、字幕データおよび音声データが、MPEG(Moving Picture Experts Group)方式によって記録されたものである。   In this example, the main content is video data such as movies and dramas, subtitle data, and audio data recorded by the MPEG (Moving Picture Experts Group) system.

具体的に、メインコンテンツのデータストリームは、図2に示すように、ヘッダに対して映像パケット、字幕パケットおよび音声パケットの各パケットが付加されたものであり、各パケットは、ヘッダに対して映像データ、字幕データまたは音声データが付加されたものであり、音声パケットの音声データは、各音声チャネルの音声データからなるものである。   Specifically, as shown in FIG. 2, the data stream of the main content is obtained by adding video packets, subtitle packets, and audio packets to the header, and each packet includes video data for the header. Subtitle data or audio data is added, and the audio data of the audio packet consists of audio data of each audio channel.

光ディスク2には、メインコンテンツデータとともに、メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータを記録することができる。光ディスク2にメインコンテンツ内容メタデータを記録する場合、メインコンテンツ内容メタデータは、MPEG7の規格に準拠した書式、またはその他の書式で記述し、MPEGストリームのGOP(Group Of Pictures)ごとに、またはMPEGストリームのピクチャごとに多重化する。   On the optical disc 2, main content content metadata characterizing the content of the main content can be recorded together with the main content data. When the main content content metadata is recorded on the optical disc 2, the main content content metadata is described in a format compliant with the MPEG7 standard or other formats, and is recorded for each GOP (Group Of Pictures) of the MPEG stream or in the MPEG stream. Multiplex for each picture.

メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータは、一般には、(1)音楽、映画、ドラマ、ドキュメンタリー、スポーツなど、コンテンツのジャンルを示す情報、(2)音楽であれば、演奏中であることや曲間であることなどを示す情報、映画やドラマであれば、ストーリーの起承転結などを示す情報、スポーツであれば、得点シーンであることなどを示す情報など、シーンの分類を示す情報、(3)音楽などの音響(音声)であれば、音の大きさなどを示す情報、映像であれば、画面の明るさなどを示す情報など、信号としての特徴を示す情報、などである。   Main content content metadata that characterizes the content of main content is generally (1) information indicating the genre of content such as music, movies, dramas, documentaries, sports, and (2) if it is music, Information indicating the classification of scenes, such as information indicating that it is between songs, information indicating the succession of a story if it is a movie or drama, information indicating that it is a scoring scene if it is a sport, (3 In the case of sound (sound) such as music, information indicating the loudness of the sound, and in the case of video, information indicating the characteristics of the signal, such as information indicating the brightness of the screen.

MPEG21で規定された著作物の権利関係を示す情報も、コンテンツの内容を特徴づける情報として、そのコンテンツの2次加工などに関する条件などを、後述の推薦情報の生成に用いることができる。   Information indicating the copyright relationship of the copyrighted work defined in MPEG21 can also be used for generating recommendation information, which will be described later, as information characterizing the content of the content, such as conditions relating to secondary processing of the content.

以下では、上記のようにメインコンテンツ内容メタデータがメインコンテンツデータとともに光ディスク2に記録されている場合と、後述のようにコンテンツ処理装置(コンテンツ再生装置)において光ディスク2から読み取ったメインコンテンツデータからメインコンテンツ内容メタデータを生成する場合とを、一緒に示す。   In the following, the main content content metadata is recorded on the optical disc 2 together with the main content data as described above, and the main content content metadata is read from the main content data read from the optical disc 2 in the content processing device (content reproduction device) as described later. Together with the generation of.

光ピックアップ4によって光ディスク2から読み取られたデータは、RFアンプ12を通じて復調回路13に供給され、復調回路13で復調され、エラー訂正される。   Data read from the optical disk 2 by the optical pickup 4 is supplied to the demodulation circuit 13 through the RF amplifier 12, demodulated by the demodulation circuit 13, and error-corrected.

さらに、その復調エラー訂正後のデータが、デマルチプレクサ14に供給されて、デマルチプレクサ14から、メインコンテンツを構成する映像データ、字幕データおよび音声データ、および光ディスク2にメインコンテンツ内容メタデータが記録されている場合にはメインコンテンツ内容メタデータが、分離されて得られる。   Further, the data after demodulation error correction is supplied to the demultiplexer 14, and video data, subtitle data and audio data constituting the main content, and main content content metadata are recorded on the optical disc 2 from the demultiplexer 14. In some cases, the main content content metadata is obtained separately.

これら分離された映像データ、字幕データ、音声データおよびメインコンテンツ内容メタデータは、デコードタイムスタンプに従って、それぞれ映像デコーダ15、字幕デコーダ16、音声デコーダ17およびメタデータデコーダ18によってデコードされる。デコードされた映像データ、字幕データおよび音声データは、プレゼンテーションタイムスタンプに従って、それぞれ映像信号、字幕信号および音声信号に変換される。   The separated video data, subtitle data, audio data, and main content content metadata are decoded by the video decoder 15, subtitle decoder 16, audio decoder 17, and metadata decoder 18, respectively, according to the decoding time stamp. The decoded video data, subtitle data, and audio data are converted into a video signal, a subtitle signal, and an audio signal, respectively, according to the presentation time stamp.

その映像デコーダ15からの映像信号、および字幕デコーダ16からの字幕信号は、それぞれ映像再生回路21および字幕再生回路22を通じて字幕スーパーインポーズ回路23に供給され、字幕スーパーインポーズ回路23において、映像信号中に字幕信号がスーパーインポーズされて、液晶表示装置などの映像表示装置24の表示画面上に、字幕がスーパーインポーズされた映像が表示される。   The video signal from the video decoder 15 and the subtitle signal from the subtitle decoder 16 are supplied to the subtitle superimpose circuit 23 through the video reproduction circuit 21 and the subtitle reproduction circuit 22, respectively. The subtitle signal is superimposed on the screen, and the video with the subtitle superimposed is displayed on the display screen of the video display device 24 such as a liquid crystal display device.

音声デコーダ17からの音声データは、後述のようにサブコンテンツ選択部46でサブコンテンツとして選択され、音声デコーダ47でデコードされた音声データとともに、音声データミキシング回路27に供給され、音声データミキシング回路27において、メインコンテンツの一部としての音声データとサブコンテンツとしての音声データがミキシングされて、スピーカやヘッドフォンなどの音響出力装置28から、ミキシング後の音声が出力される。   The audio data from the audio decoder 17 is selected as sub-content by the sub-content selection unit 46 as will be described later, and is supplied to the audio data mixing circuit 27 together with the audio data decoded by the audio decoder 47, and the audio data mixing circuit 27 1, the audio data as a part of the main content and the audio data as the sub content are mixed, and the mixed audio is output from the sound output device 28 such as a speaker or a headphone.

一方、ユーザの状況を特徴づけるユーザ状況メタデータを生成するために、キー入力部31からのキー入力情報、生体センサ33からの生体情報、および外部記憶媒体35から読み出された情報が、それぞれインターフェース32,34および36を介してユーザ状況メタデータ生成部41に供給される。   On the other hand, in order to generate user situation metadata characterizing the user situation, key input information from the key input unit 31, biological information from the biological sensor 33, and information read from the external storage medium 35 are respectively The user status metadata generation unit 41 is supplied via the interfaces 32, 34 and 36.

キー入力部31は、コンテンツ処理装置本体のパネル部に設けられた、またはコンテンツ処理装置のリモートコントローラを構成する赤外線発光部とコンテンツ処理装置本体のパネル部に設けられた赤外線受光部とからなるもので、ユーザは、あらかじめ、またはコンテンツ再生時、このキー入力部31によって、ユーザの状況を入力する。   The key input unit 31 includes an infrared light emitting unit provided on the panel unit of the content processing apparatus main body or constituting a remote controller of the content processing apparatus and an infrared light receiving unit provided on the panel unit of the content processing apparatus main body. The user inputs the user's situation through the key input unit 31 in advance or at the time of content reproduction.

生体センサ33は、ユーザの身体的または精神的な状態を検出するもので、脈拍センサや発汗センサなどのセンサ、ユーザの体動(身体の一部または全体の動き)を検出するカメラ、ユーザが発した声を捉えるマイクロフォンなどである。   The biological sensor 33 detects a user's physical or mental state. The sensor such as a pulse sensor or a perspiration sensor, a camera that detects a user's body movement (part or whole body movement), and a user's For example, a microphone that captures the voice.

外部記憶媒体35は、ユーザの状況を示す情報が書き込まれたメモリカードなどのリムーバブル記憶媒体である。   The external storage medium 35 is a removable storage medium such as a memory card in which information indicating a user's situation is written.

ユーザの状況は、直接的には、(a)ユーザの好みの音楽ジャンルやアーティスト、ひいきのチームや選手などのユーザプロファイル、および(b)そのときのユーザの身体的または精神的な状態、具体的には、脈拍数、発汗量、指先の温度、聴力年齢、視覚年齢、体動の有無や大きさなどの状態、に大別することができるが、(b)の情報から検出することができる、音楽へのノリの様子、ストーリーへの集中の度合い、「楽しい」「ゆったりとしたい」などの気分も、(b)の身体的または精神的な状態に含ませる。   The user's situation is directly: (a) the user's favorite music genre or artist, user profile such as a favorite team or player, and (b) the physical or mental state of the user at that time, concrete Specifically, it can be roughly classified into the pulse rate, the amount of sweating, the temperature of the fingertip, the hearing age, the visual age, the presence or absence of body movement, the size, etc., but it can be detected from the information in (b). The feelings of music that can be done, the degree of concentration in the story, and the feelings of “fun” and “want to relax” are also included in the physical or mental state of (b).

また、そのときのユーザの視聴環境、例えば視聴室の暗騒音や明るさなども、ユーザの身体的または精神的な状態に影響を与えるものとして、(b)の身体的または精神的な状態に含ませる。   In addition, the viewing environment of the user at that time, for example, background noise or brightness in the viewing room, also affects the physical or mental state of the user. Include.

上記(a)の、ユーザプロファイルは、ユーザがキー入力部31によって入力し、または外部記憶媒体35に書き込んでおく。上記(b)の、そのときのユーザの身体的または精神的な状態は、生体センサ33によって直接検出し、または生体センサ33の出力信号を解析することによって検出する。また、そのときのユーザの視聴環境などは、ユーザプロファイルと同様に、ユーザがキー入力部31によって入力し、または外部記憶媒体35に書き込んでおくようにしてもよい。   The user profile (a) is input by the user through the key input unit 31 or written in the external storage medium 35. The physical or mental state of the user at that time in (b) is detected directly by the biosensor 33 or by analyzing the output signal of the biosensor 33. In addition, the user's viewing environment at that time may be input by the user using the key input unit 31 or written in the external storage medium 35 as in the case of the user profile.

ユーザ状況メタデータ生成部41では、以上のようなユーザの状況を示す情報が総合的に分析されて、ユーザの状況を特徴づけるユーザ状況メタデータが生成される。生成されたユーザ状況メタデータは、推薦情報生成部42に送出される。   In the user situation metadata generation unit 41, the information indicating the user situation as described above is comprehensively analyzed, and user situation metadata characterizing the user situation is generated. The generated user situation metadata is sent to the recommendation information generation unit 42.

一方、上述したように、メインコンテンツ内容メタデータが光ディスク2に記録されていて、メタデータデコーダ18でデコードされる場合には、そのメタデータデコーダ18からのメインコンテンツ内容メタデータが、推薦情報生成部42に送出される。   On the other hand, as described above, when the main content content metadata is recorded on the optical disc 2 and decoded by the metadata decoder 18, the main content content metadata from the metadata decoder 18 is used as the recommendation information generating unit 42. Is sent out.

また、光ディスク2にメタデータが記録されていない場合には、映像デコーダ15からの映像データ、字幕デコーダ16からの字幕データ、および音声デコーダ17からの音声データが、メインコンテンツ内容メタデータ生成部43に供給されて、メインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータが生成され、推薦情報生成部42に送出される。   If no metadata is recorded on the optical disc 2, the video data from the video decoder 15, the subtitle data from the subtitle decoder 16, and the audio data from the audio decoder 17 are sent to the main content content metadata generation unit 43. The main content content metadata is generated by the main content content metadata generation unit 43 and sent to the recommendation information generation unit 42.

具体的に、メインコンテンツ内容メタデータ生成部43では、映像データ、字幕データおよび字幕データが分析されて、「暗いシーン」、「画面全体が赤いシーン」、「画面全体が青いシーン」、「暗騒音レベルが高いシーン」、「ダイナミックレンジが広いシーン」、「低域周波数成分のレベルが大きいシーン」、「高域周波数成分のレベルが大きいシーン」、「字幕が青色」、「白地に黄色の字幕」などのメインコンテンツ内容メタデータが生成される。   Specifically, the main content content metadata generation unit 43 analyzes the video data, caption data, and caption data, and displays “dark scene”, “entire screen is red scene”, “entire screen is blue scene”, “dark noise”. "High-level scene", "Scene with wide dynamic range", "Scene with high level of low frequency component", "Scene with high level of high frequency component", "Subtitle is blue", "Yellow subtitle on white background" Main content content metadata such as “” is generated.

そして、推薦情報生成部42では、ユーザ状況メタデータ生成部41からのユーザ状況メタデータと、メタデータデコーダ18またはメインコンテンツ内容メタデータ生成部43からのメインコンテンツ内容メタデータとから、当該メインコンテンツと組み合わせるべきサブコンテンツを推薦する推薦情報が生成される。   The recommendation information generation unit 42 should combine the main content from the user status metadata from the user status metadata generation unit 41 and the main content content metadata from the metadata decoder 18 or the main content content metadata generation unit 43. Recommendation information for recommending sub-content is generated.

一方、この例では、あらかじめ外部記憶媒体37にサブコンテンツとしての音声データ(音声ファイル)が複数記録されていて、その外部記憶媒体37がコンテンツ処理装置にロードされることによって、外部記憶媒体37からサブコンテンツとしての音声データが読み出されて、インターフェース38を通じてサブコンテンツ内容メタデータ生成部44に供給される。サブコンテンツとしての音声データが記録された外部記憶媒体37は、上記のユーザプロファイルなどが記録された外部記憶媒体35と同一の記憶媒体でもよい。   On the other hand, in this example, a plurality of audio data (audio files) as sub-contents are recorded in advance in the external storage medium 37, and the external storage medium 37 is loaded into the content processing apparatus, so that the external storage medium 37 The audio data as the sub content is read and supplied to the sub content content metadata generation unit 44 through the interface 38. The external storage medium 37 in which the audio data as the sub-content is recorded may be the same storage medium as the external storage medium 35 in which the user profile and the like are recorded.

サブコンテンツ内容メタデータ生成部44では、そのサブコンテンツとしての音声データが分析されて、サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータが生成される。   The sub-content content metadata generation unit 44 analyzes the audio data as the sub-content and generates sub-content content metadata that characterizes the content of the sub-content.

このサブコンテンツ内容メタデータ生成部44で生成されたサブコンテンツ内容メタデータは、特徴情報生成部45に送出され、特徴情報生成部45において、サブコンテンツとしての音声データの特徴を示す特徴情報が生成される。   The sub content content metadata generated by the sub content content metadata generation unit 44 is sent to the feature information generation unit 45, and the feature information generation unit 45 generates feature information indicating the characteristics of the audio data as the sub content. Is done.

特徴情報は、具体的に、サブコンテンツの分析の結果を多次元空間上で表記することによって生成される。次元は、例えば、残響の豊かなコンサートホールでの拍手を録音したコンテンツの場合であれば、「ライブな気分を与える」、「聴衆による拍手」、「掛け声は無し」というものである。   Specifically, the feature information is generated by expressing the result of sub-content analysis on a multidimensional space. For example, in the case of content recorded with applause in a concert hall with a lot of reverberation, the dimensions are “giving a live feeling”, “applause by the audience”, and “no shout”.

この特徴情報生成部45で生成された特徴情報は、サブコンテンツ選択部46に送出され、サブコンテンツ選択部46において、推薦情報生成部42で生成された推薦情報と特徴情報生成部45で生成された特徴情報とから、サブコンテンツとして、特徴情報が推薦情報に最も近い音声データが選択される。   The feature information generated by the feature information generation unit 45 is sent to the sub-content selection unit 46, and the sub-content selection unit 46 generates the recommendation information generated by the recommendation information generation unit 42 and the feature information generation unit 45. From the feature information, the audio data whose feature information is closest to the recommendation information is selected as sub-contents.

具体的に、サブコンテンツ選択部46は、外部記憶媒体37に記録されている複数の曲などの複数の音声ファイルにつき特徴情報生成部45で生成された特徴情報を、そのときのユーザの状況およびメインコンテンツの内容に基づいて推薦情報生成部42で生成された推薦情報と比較して、特徴情報が推薦情報に最も近いサブコンテンツ(音声ファイル)を検出し、そのサブコンテンツの識別コードや曲名などの識別情報をシステムコントローラ11に通知する。これを受けて、システムコントローラ11は、その識別情報を有するサブコンテンツ(音声ファイル)を外部記憶媒体37から読み出し、インターフェース38を通じてサブコンテンツ選択部46に送出する。   Specifically, the sub-content selection unit 46 displays the feature information generated by the feature information generation unit 45 for a plurality of audio files such as a plurality of songs recorded in the external storage medium 37, and the user status at that time and Compared with the recommendation information generated by the recommendation information generation unit 42 based on the content of the main content, the sub-content (audio file) whose feature information is closest to the recommendation information is detected, and the identification code, song title, etc. of the sub-content are detected. Identification information is notified to the system controller 11. In response to this, the system controller 11 reads the sub-content (audio file) having the identification information from the external storage medium 37 and sends it to the sub-content selection unit 46 through the interface 38.

サブコンテンツの選択にあたっては、推薦情報の次元のうち、重要でない次元は、推薦情報と特徴情報との間の距離(違い)の判断に用いないように構成される。   In selecting the sub-content, the dimension that is not important among the dimensions of the recommendation information is configured not to be used for determining the distance (difference) between the recommendation information and the feature information.

このサブコンテンツ選択部46で選択された音声データは、音声デコーダ47でデコードされて、音声データミキシング回路27に供給され、音声デコーダ17でデコードされた音声データとミキシングされて、音響出力装置からミキシング後の音声が出力される。   The audio data selected by the sub-content selection unit 46 is decoded by the audio decoder 47, supplied to the audio data mixing circuit 27, mixed with the audio data decoded by the audio decoder 17, and mixed from the sound output device. Later audio is output.

以上の例で、メインコンテンツ内容メタデータとしては、具体的に、「音楽ライブ」、「歌手Aの歌唱中」、「演奏曲目Bの終了時」、「野球中継」、「Cチームの攻撃中」、「得点シーン」、「明るい画面」、「静かなシーン」、「せりふを話しているシーン」、「効果音が流れているシーン」、「字幕が右から左にロールしながら表示されている状態」などのメタデータが、メインコンテンツのプレゼンテーションタイムに関連づけられて得られる。   In the above example, the main content content metadata specifically includes “music live”, “during singing by singer A”, “at the end of performance song B”, “baseball broadcast”, “during C team attack” , "Scoring scene", "Bright screen", "Quiet scene", "Speaking scene", "Scene with sound effects", "Subtitles are displayed rolling from right to left Metadata such as “status” is obtained in association with the presentation time of the main content.

推薦情報としては、具体的に、例えば、メインコンテンツ内容メタデータが「ポップス系の歌手」および「ライブコンサート」であり、ユーザ状況メタデータが「ひいきの歌手」、「好きな曲」および「楽しい気分」であったときには、「ライブコンサートの雰囲気を盛り上げる」および「参加している気分にさせる」という情報が生成される。   As the recommendation information, specifically, for example, the main content content metadata is “pop singer” and “live concert”, and the user situation metadata is “favorite singer”, “favorite song” and “fun mood” ”Is generated,“ Energize live concert atmosphere ”and“ Make you feel participating ”.

サブコンテンツとしては、具体的に、例えば、推薦情報が「ライブコンサートの雰囲気を盛り上げる」、「参加している気分にさせる」および「演奏曲終了」という情報であるとき、「ライブな気分を与える」、「聴衆による拍手」および「掛け声は無し」という特徴情報を有する「残響の豊かなコンサートホールでの拍手の録音」という音声ファイルが選択される。   As sub-contents, for example, when the recommended information is information such as “enliven the atmosphere of a live concert”, “feel like participating”, and “end of a performance song”, “provide a live feeling” ”,“ Applause by audience ”and“ Recording applause in a concert hall rich in reverberation ”having feature information of“ no applause ”are selected.

したがって、上述したコンテンツ処理方法(コンテンツ再生方法)では、メインコンテンツの内容だけでなく、ユーザのそのときの気分などに応じた最適な雰囲気や臨場感を作り出すことができる。   Therefore, in the above-described content processing method (content reproduction method), it is possible to create an optimal atmosphere and realistic sensation according to not only the content of the main content but also the user's mood at that time.

図3に、図1の例のコンテンツ処理装置(コンテンツ再生装置)がシステムコントローラ11の制御のもとに行う再生処理の例を示す。   FIG. 3 shows an example of reproduction processing performed by the content processing apparatus (content reproduction apparatus) in the example of FIG. 1 under the control of the system controller 11.

この例では、ユーザの再生開始操作によって再生を開始して、まずステップ51で、光ディスク2および光ピックアップ4を駆動して、メインコンテンツの多重化されたデータを読み出し、復調する。   In this example, the reproduction is started by the user's reproduction start operation. First, in step 51, the optical disc 2 and the optical pickup 4 are driven, and the multiplexed data of the main content is read and demodulated.

次に、ステップ52で、映像データ、字幕データ、音声データおよびメインコンテンツ内容メタデータ(光ディスク2にメインコンテンツ内容メタデータが記録されていない場合には、映像データ、字幕データおよび音声データ)を分離し、さらにステップ53に進んで、ユーザの指示やコンテンツ処理装置の再生環境に応じて、必要なパケットと音声チャネルを選択する。   Next, in step 52, the video data, subtitle data, audio data, and main content content metadata (or video data, subtitle data, and audio data if main content content metadata is not recorded on the optical disc 2) are separated, Further, the process proceeds to step 53, where necessary packets and audio channels are selected according to the user instruction and the playback environment of the content processing apparatus.

次に、ステップ54で、パケットのヘッダをみて、各データを対応するデコーダに送出し、さらにステップ55に進んで、各データを各デコーダでデコードする。光ディスク2にメインコンテンツ内容メタデータが記録されていない場合には、ステップ55の後に、メインコンテンツ内容メタデータを生成する。   Next, in step 54, the packet header is viewed and each data is sent to the corresponding decoder, and the process proceeds to step 55 where each data is decoded by each decoder. If the main content content metadata is not recorded on the optical disc 2, the main content content metadata is generated after step 55.

次に、ステップ56で、ユーザ状況メタデータを生成し、さらに、そのユーザ状況メタデータとメインコンテンツ内容メタデータとから、推薦情報を生成する。   Next, in step 56, user status metadata is generated, and further, recommendation information is generated from the user status metadata and main content content metadata.

次に、ステップ57で、特徴情報を生成し、さらにステップ58に進んで、その特徴情報を推薦情報と比較して、サブコンテンツとしての音声データを選択する。   Next, in step 57, feature information is generated, and the process further proceeds to step 58, where the feature information is compared with recommendation information, and audio data as sub-contents is selected.

次に、ステップ59で、メインコンテンツの映像、字幕および音声と、サブコンテンツの音声とを、組み合わせて提示する。すなわち、映像および字幕は、映像表示装置24により表示し、音声は音響出力装置28により出力する。ただし、ステップ53で選択しなかったパケットに係るコンテンツは別である。   Next, in step 59, the main content video, subtitles and audio and the sub-content audio are presented in combination. That is, video and subtitles are displayed by the video display device 24, and audio is output by the acoustic output device 28. However, the contents related to the packets not selected in step 53 are different.

図1の例は、光ディスク2にメインコンテンツ内容メタデータが記録されている場合、またはメインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータを生成する場合であるが、メインコンテンツ内容メタデータは、コンテンツ処理装置が備える回線接続部によりコンテンツ提供元などのサーバに接続することによってコンテンツ処理装置の外部から取得し、またはメインコンテンツが記録された光ディスク2とは別のメモリカードなどの記憶媒体によって取得するようにしてもよい。   The example of FIG. 1 is a case where main content content metadata is recorded on the optical disc 2, or a case where main content content metadata is generated by the main content content metadata generation unit 43. The main content content metadata is a content processing device. It is acquired from the outside of the content processing apparatus by connecting to a server such as a content provider through a line connection unit included in the network, or acquired by a storage medium such as a memory card different from the optical disk 2 on which the main content is recorded. Also good.

また、図1の例は、外部記憶媒体37にサブコンテンツが記録されている場合であるが、サブコンテンツは、コンテンツ処理装置が備える回線接続部によりコンテンツ提供元などのサーバに接続することによってコンテンツ処理装置の外部から取得するようにしてもよい。   The example of FIG. 1 is a case where sub-contents are recorded on the external storage medium 37. The sub-contents are obtained by connecting to a server such as a content provider by a line connection unit provided in the content processing apparatus. You may make it acquire from the outside of a processing apparatus.

その場合、外部のサーバにおいて、サブコンテンツ内容メタデータ、さらには特徴情報を生成して、ユーザ側のコンテンツ処理装置に送信し、コンテンツ処理装置において、その特徴情報と推薦情報とから、推薦情報に最も近い特徴情報を有するサブコンテンツを選択するように、システムを構成してもよい。   In that case, sub-content content metadata and further feature information is generated in an external server and transmitted to the content processing device on the user side. The content processing device converts the feature information and recommendation information into recommendation information. The system may be configured to select the sub-content having the closest feature information.

さらに、ユーザ側のコンテンツ処理装置から外部のサーバに、メインコンテンツ内容メタデータおよびユーザ状況メタデータ、または推薦情報を送信することによって、あるいは、上記のように外部のサーバにメインコンテンツ内容メタデータを備え、または外部のサーバがメインコンテンツ内容メタデータを生成する場合には、ユーザ側のコンテンツ処理装置から外部のサーバに、ユーザ状況メタデータを送信することによって、外部のサーバにおいて、推薦情報と特徴情報とから、推薦情報に最も近い特徴情報を有するサブコンテンツを選択し、そのサブコンテンツをユーザ側のコンテンツ処理装置に送信するように、システムを構成してもよい。   Further, by transmitting the main content content metadata and user status metadata or recommendation information from the content processing device on the user side to the external server, or the main content content metadata is provided in the external server as described above, Alternatively, when the external server generates the main content content metadata, the user status metadata is transmitted from the content processing device on the user side to the external server, so that the external server uses the recommendation information and the feature information. The system may be configured to select the sub-content having the feature information closest to the recommendation information and transmit the sub-content to the user-side content processing apparatus.

(1−2.再生の場合の第2の例:図4)
図4に、放送を受信して、メインコンテンツを取得し、再生する場合の例を示す。
(1-2. Second example of reproduction: FIG. 4)
FIG. 4 shows an example in which a broadcast is received, main content is acquired and played back.

この例では、デジタル放送受信部61で、BSデジタル放送、CSデジタル放送、地上デジタル放送などのデジタル放送が、メインコンテンツとして受信される。受信されたメインコンテンツのデータは、復調回路63で復調され、デマルチプレクサ14で図1の例と同様に各データに分離される。   In this example, the digital broadcast receiving unit 61 receives digital broadcasts such as BS digital broadcasts, CS digital broadcasts, and terrestrial digital broadcasts as main contents. The received main content data is demodulated by the demodulation circuit 63 and separated into each data by the demultiplexer 14 as in the example of FIG.

さらに、この例では、コンテンツ処理装置(放送受信再生装置)が、回線接続部67により放送元などのコンテンツ提供元のサーバに接続してサブコンテンツを取得できるように構成される。取得されたサブコンテンツのデータは、インターフェース68を通じてサブコンテンツ内容メタデータ生成部44やサブコンテンツ選択部46に送出される。そのほかは、図1の例と同じである。   Furthermore, in this example, the content processing device (broadcast reception / playback device) is configured to be able to acquire sub-contents by connecting to a content provider server such as a broadcast source by the line connection unit 67. The acquired sub content data is sent to the sub content content metadata generation unit 44 and the sub content selection unit 46 through the interface 68. The rest is the same as the example of FIG.

放送では生中継の場合もあり、雰囲気や臨場感だけでなく即時性が要求されるが、この例では、メインコンテンツの放送が野球やサッカーなどの試合の中継であるとき、サブコンテンツとして各チームの応援席の最新の様子などのコンテンツを得ることができる。   Broadcasting may be live broadcasts, and not only the atmosphere and presence, but also immediacy is required. In this example, when the main content broadcast is a game relay such as baseball or soccer, sub-contents of each team You can get contents such as the latest state of the support seat.

具体的に、例えば、推薦情報が「野球のチームAとチームBとの対戦」、「チームAの攻撃中で選手Cの打席」、「選手Cの打率は0.33」および「ユーザは選手Cのファン」というものであるとき、サブコンテンツとして、「チームA側のスタンドの応援」および「選手Cへの応援」という特徴情報を有する「チームA側のスタンドで選手Cを応援する様子」という音声ファイルが選択され、メインコンテンツと組み合わされて再生される。   Specifically, for example, the recommendation information is “a match between baseball team A and team B”, “attack of player C during attack of team A”, “batting rate of player C is 0.33”, and “user is player When it is called “C fan”, the sub-contents have the characteristic information “support for the stand on the team A side” and “support for the player C”. Is selected and played in combination with the main content.

図4の例は、図1の例と同様にサブコンテンツが音声データの場合であるが、サブコンテンツは、映像データでも、映像データおよび音声データでもよい。メインコンテンツおよびサブコンテンツが共に映像を含む場合、サブコンテンツの映像は、メインコンテンツの映像とともに2画面表示により表示され、またはメインコンテンツの映像に代えて表示され、あるいはメインコンテンツの映像と交互に表示されるように、コンテンツ処理装置を構成する。   The example of FIG. 4 is a case where the sub-content is audio data as in the example of FIG. 1, but the sub-content may be video data, video data, and audio data. When the main content and the sub-content both include video, the sub-content video is displayed in a two-screen display together with the main content video, or is displayed in place of the main content video, or alternately with the main content video. The content processing apparatus is configured.

この例でも、図1の例につき上述したように、外部のサーバにおいてサブコンテンツを選択するように構成することができる。   Also in this example, as described above with reference to the example of FIG. 1, the sub-content can be selected in an external server.

[2.コンテンツを記録する場合の実施形態:図5〜図8]
この発明は、コンテンツを記録する場合にも適用することができる。
[2. Embodiment for Recording Content: FIGS. 5 to 8]
The present invention can also be applied when recording content.

図5に、その場合の一例として、撮像装置により被写体を撮影して得られた画像(画像データ)をメインコンテンツとし、当該メインコンテンツの内容およびユーザの状況に応じた画像(画像データ)をサブコンテンツとして選択して、メインコンテンツと組み合わせて記録する場合を示す。   As an example in FIG. 5, an image (image data) obtained by photographing a subject with an imaging device is used as main content, and an image (image data) according to the content of the main content and the user's situation is used as sub content. The case of selecting and recording in combination with the main content is shown.

この例のコンテンツ処理システムは、ユーザ側の撮像装置70と、サービス提供側のサーバシステムとによって構成され、例えば、図6に示すようなテーマパークで用いられる。   The content processing system of this example is configured by an imaging device 70 on the user side and a server system on the service providing side, and is used in a theme park as shown in FIG. 6, for example.

図6のテーマパークは、広い敷地90内に個別のテーマを有する複数の施設91〜97が設けられ、利用者が希望する施設を利用し、その施設の内部または近傍で写真を撮り、ビデオ撮影を行うことができるものである。   The theme park of FIG. 6 is provided with a plurality of facilities 91 to 97 having individual themes in a large site 90, using facilities desired by the user, taking pictures in or near the facilities, and taking video Is something that can be done.

図5の撮像装置70は、デジタルビデオカメラ、デジタルスチルカメラ、カメラ付き携帯電話端末などであり、サービス提供側のサーバシステムは、敷地90内または敷地90外に一つ、またはホットスポットである施設91〜97ごとに設けられ、送受信用のアンテナ81、サービス提供側サーバ82およびコンテンツデータベース83を備えるものである。   The imaging device 70 in FIG. 5 is a digital video camera, a digital still camera, a mobile phone terminal with a camera, or the like, and the server system on the service providing side is one in or outside the site 90 or a facility that is a hot spot. It is provided for each of 91 to 97, and includes a transmission / reception antenna 81, a service providing server 82, and a content database 83.

コンテンツデータベース83には、サブコンテンツとなる多数の画像ファイルや音声ファイルが蓄積される。この場合の画像は、アニメーション画像やキャラクタ画像などであり、音声は、音楽やキャラクタの声などであり、各施設91〜97にふさわしいものが複数ずつ用意される。また、それぞれの画像ファイルや音声ファイルには、上述したサブコンテンツ内容メタデータまたは特徴情報が付加される。   The content database 83 stores a large number of image files and audio files that are sub-contents. The image in this case is an animation image, a character image, or the like, and the sound is music or a voice of a character. A plurality of images suitable for each facility 91 to 97 are prepared. Further, the above-described sub-content content metadata or feature information is added to each image file and audio file.

撮像装置70では、カメラ部71によって被写体が撮影され、カメラ部71から撮影画像データがメインコンテンツとして得られる。その撮影画像データは、画像処理部72で処理され、書き込み読み出し制御部73によって記録媒体74に記録される。記録媒体74は、例えば撮像装置70に装着されたリムーバブル記録媒体であるが、撮像装置70に内蔵された半導体メモリなどの記録媒体でもよい。   In the imaging device 70, a subject is photographed by the camera unit 71, and photographed image data is obtained as main content from the camera unit 71. The captured image data is processed by the image processing unit 72 and recorded on the recording medium 74 by the writing / reading control unit 73. The recording medium 74 is, for example, a removable recording medium attached to the imaging device 70, but may be a recording medium such as a semiconductor memory built in the imaging device 70.

記録媒体74に記録された撮影画像データは、書き込み読み出し制御部73によって記録媒体74から読み出されて、画像処理部72で処理され、液晶表示部などの表示部75に撮影画像が表示される。   The captured image data recorded on the recording medium 74 is read from the recording medium 74 by the writing / reading control unit 73, processed by the image processing unit 72, and the captured image is displayed on the display unit 75 such as a liquid crystal display unit. .

さらに、撮影時または撮影直後、撮影画像データが、画像処理部72を通じてメインコンテンツ内容メタデータ生成部43に送出されて、メインコンテンツ内容メタデータ生成部43でメインコンテンツ内容メタデータが生成され、推薦情報生成部42に送出される。   Further, at the time of shooting or immediately after shooting, the shot image data is sent to the main content content metadata generation unit 43 through the image processing unit 72, and the main content content metadata generation unit 43 generates the main content content metadata. 42.

一方、撮影時または撮影直後、図1または図4の例と同様に、ユーザ状況メタデータ生成部41において、キー入力部31からインターフェース32を介して入力されたキー入力情報、生体センサ33からインターフェース34を介して入力された生体情報、および外部記憶媒体35から読み出されてインターフェース36を介して入力された情報から、ユーザの状況を特徴づけるユーザ状況メタデータが生成され、推薦情報生成部42に送出される。   On the other hand, at the time of shooting or immediately after shooting, as in the example of FIG. 1 or 4, in the user situation metadata generation unit 41, the key input information input from the key input unit 31 via the interface 32 and the interface from the biometric sensor 33. From the biometric information input via 34 and the information read from the external storage medium 35 and input via the interface 36, user status metadata characterizing the user status is generated, and the recommended information generation unit 42 Is sent out.

また、この例では、撮像装置70が、GPS(Global Positioning System)アンテナ78およびGPS測位部79を備え、GPS衛星からの電波を受信し、データを処理することによって、撮像装置70の位置を測定できるようにされ、撮影時または撮影直後、その測定結果の位置情報が、推薦情報生成部42に送出される。   In this example, the imaging device 70 includes a GPS (Global Positioning System) antenna 78 and a GPS positioning unit 79, receives radio waves from GPS satellites, processes the data, and measures the position of the imaging device 70. The position information of the measurement result is sent to the recommendation information generation unit 42 at the time of shooting or immediately after shooting.

この場合のGPS測位情報は、メインコンテンツである撮影画像の内容を特徴づけるメインコンテンツ内容メタデータとなり得るものであり、サブコンテンツの選択のための判断材料となり得るものである。   The GPS positioning information in this case can be main content content metadata that characterizes the content of the captured image that is the main content, and can be a determination material for selecting the sub content.

例えば、ユーザが図6の施設91の前で撮影したとき、撮影された画像には施設91が写し出されるとともに、GPS測位情報は施設91の近くで撮影したことを示すものとなり、サブコンテンツとして、施設91にふさわしい画像や音声を選択することが可能となる。   For example, when the user takes a picture in front of the facility 91 in FIG. 6, the facility 91 is shown in the photographed image, and the GPS positioning information indicates that the picture is taken near the facility 91. It becomes possible to select an image or sound suitable for the facility 91.

推薦情報生成部42では、ユーザ状況メタデータ生成部41からのユーザ状況メタデータ、メインコンテンツ内容メタデータ生成部43からのメインコンテンツ内容メタデータ、およびGPS測位部79からのGPS測位情報から、メインコンテンツである撮影画像と組み合わせるべきサブコンテンツを推薦する推薦情報が生成される。   The recommendation information generation unit 42 is the main content from the user situation metadata from the user situation metadata generation unit 41, the main content content metadata from the main content content metadata generation unit 43, and the GPS positioning information from the GPS positioning unit 79. Recommendation information for recommending sub-contents to be combined with the photographed image is generated.

そして、この例では、その推薦情報が送受信部76からアンテナ77を通じて、サービス提供側のサーバシステムに送信される。   In this example, the recommendation information is transmitted from the transmission / reception unit 76 through the antenna 77 to the server system on the service providing side.

サービス提供側のサーバシステムでは、サービス提供側サーバ82において、アンテナ81を通じて、その推薦情報が受信され、この例では、サブコンテンツとして、コンテンツデータベース83に蓄積されている多数の画像ファイルから、その特徴情報が、受信された推薦情報に最も近い画像ファイルが選択され、サービス提供側サーバ82から、アンテナ81を通じて撮像装置70に送信される。   In the server system on the service providing side, the recommendation information is received by the service providing server 82 via the antenna 81. In this example, the feature information is obtained from a large number of image files stored in the content database 83 as sub-contents. The image file whose information is closest to the received recommendation information is selected and transmitted from the service providing server 82 to the imaging device 70 through the antenna 81.

撮像装置70では、その提供された画像データが、アンテナ77を通じて送受信部76で受信され、画像処理部72に送出される。   In the imaging device 70, the provided image data is received by the transmission / reception unit 76 through the antenna 77 and sent to the image processing unit 72.

画像処理部72では、そのサブコンテンツとしての提供画像が、メインコンテンツとしての撮影画像と組み合わせられる。組み合わせ態様としては、ユーザの設定によって、図7に示すように、メインコンテンツ画像(撮影画像)Pmにサブコンテンツ画像(提供画像)Psが合成され、合成後の画像が一つの画像ファイルとして記録媒体74に記録される合成モードと、メインコンテンツ画像とサブコンテンツ画像とが関連識別子によってリンクされて別個の画像ファイルとして記録媒体74に記録されるリンク・モードの、いずれかを選択できるように、撮像装置70を構成する。   In the image processing unit 72, the provided image as the sub-content is combined with the captured image as the main content. As a combination mode, as shown in FIG. 7, the sub content image (provided image) Ps is combined with the main content image (captured image) Pm according to user settings, and the combined image is recorded as one image file on the recording medium 74. The imaging device 70 can select one of a synthesis mode recorded on the recording medium 74 and a link mode in which the main content image and the sub-content image are linked by a related identifier and recorded on the recording medium 74 as separate image files. Configure.

以上は、メインコンテンツとしての撮影画像にサブコンテンツとしての提供画像が組み合わせられる場合であるが、ユーザの設定によって、サブコンテンツが組み合わせられるモードと組み合わせられないモードのいずれかを選択できるように、撮像装置70を構成してもよい。   The above is a case where the provided image as the sub-content is combined with the captured image as the main content, but the imaging device can select either the mode in which the sub-content is combined or the mode in which the sub-content is not combined depending on the user setting. 70 may be configured.

以上は、サブコンテンツも画像の場合であるが、上述したようにサブコンテンツは音楽やキャラクタの声などの音声でもよい。その場合には、図8に示すように、メインコンテンツとしての画像ファイルFpとサブコンテンツとしての音声ファイルFaとが、関連識別子によってリンクされて記録媒体74に記録される。   The above is the case where the sub-content is also an image, but as described above, the sub-content may be sound such as music or voice of a character. In that case, as shown in FIG. 8, the image file Fp as the main content and the audio file Fa as the sub-content are linked by the related identifier and recorded on the recording medium 74.

この発明のコンテンツ処理装置の一例を示す図である。It is a figure which shows an example of the content processing apparatus of this invention. 光ディスクに記録されるMPEGストリームの一例を示す図である。It is a figure which shows an example of the MPEG stream recorded on an optical disk. 図1のコンテンツ処理装置における再生処理の一例を示す図である。It is a figure which shows an example of the reproduction | regeneration processing in the content processing apparatus of FIG. この発明のコンテンツ処理装置の他の例を示す図である。It is a figure which shows the other example of the content processing apparatus of this invention. コンテンツを記録する場合のコンテンツ処理システムの一例を示す図である。It is a figure which shows an example of the content processing system in the case of recording a content. 図5のコンテンツ処理システムが用いられる施設の一例を示す図である。It is a figure which shows an example of the facility where the content processing system of FIG. 5 is used. メインコンテンツ画像とサブコンテンツ画像を合成する場合を示す図である。It is a figure which shows the case where a main content image and a sub content image are synthesize | combined. メインコンテンツ画像ファイルとサブコンテンツ音声ファイルをリンクさせる場合を示す図である。It is a figure which shows the case where a main content image file and a sub content audio | voice file are linked.

符号の説明Explanation of symbols

主要部については図中に全て記述したので、ここでは省略する。   Since all the main parts are described in the figure, they are omitted here.

Claims (18)

メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータと、ユーザプロ
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成ステップと、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコン
テンツの特徴を示す特徴情報を生成する特徴情報生成ステップと、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテン
ツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブ
コンテンツ選択ステップと、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータであるコンテンツ処理方法。
And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation step of generating recommendation information for recommending sub content to be reproduced along with the main content ,
A feature information generating step for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
A sub-content selection step of selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
And the user situation metadata is data indicating physical or mental state of the user at the time when the recommendation information is generated .
請求項1のコンテンツ処理方法において、
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択ステップで選択されたサブコンテンツとを、一緒に再生
するコンテンツ処理方法。
The content processing method according to claim 1,
A content processing method for reproducing together the main content and the sub-content selected in the sub-content selection step as sub-content to be reproduced together with the main content.
請求項1のコンテンツ処理方法において、
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択ステップで選択されたサブコンテンツとを、合成して記
録し、または関連づけて記録するコンテンツ処理方法。
The content processing method according to claim 1,
A content processing method in which the main content and the sub-content selected in the sub-content selection step as sub-content to be reproduced together with the main content are combined and recorded, or recorded in association with each other.
請求項1のコンテンツ処理方法において、
ユーザ側のコンテンツ処理装置において、前記メインコンテンツを分析して前記メイン
コンテンツ内容メタデータを生成するコンテンツ処理方法。
The content processing method according to claim 1,
A content processing method for analyzing the main content and generating the main content content metadata in a content processing apparatus on a user side.
請求項1のコンテンツ処理方法において、
前記メインコンテンツ内容メタデータは、ユーザ側のコンテンツ処理装置の外部からユ
ーザ側のコンテンツ処理装置に取り込むコンテンツ処理方法。
The content processing method according to claim 1,
The content processing method for fetching the main content content metadata into the user-side content processing apparatus from outside the user-side content processing apparatus.
請求項1のコンテンツ処理方法において、
ユーザ側のコンテンツ処理装置において、前記サブコンテンツを分析して前記サブコンテンツ内容メタデータを生成するコンテンツ処理方法。
The content processing method according to claim 1,
A content processing method for analyzing the sub-content and generating the sub-content content metadata in a user-side content processing apparatus.
請求項1のコンテンツ処理方法において、
前記サブコンテンツ内容メタデータは、ユーザ側のコンテンツ処理装置の外部からユー
ザ側のコンテンツ処理装置に取り込むコンテンツ処理方法。
The content processing method according to claim 1,
The content processing method according to claim 1, wherein the sub-content content metadata is taken into the user-side content processing apparatus from outside the user-side content processing apparatus.
請求項1のコンテンツ処理方法において、
ユーザ側のコンテンツ処理装置において、前記推薦情報生成ステップ、前記特徴情報生
成ステップおよび前記サブコンテンツ選択ステップを実行するコンテンツ処理方法。
The content processing method according to claim 1,
A content processing method for executing the recommendation information generation step, the feature information generation step, and the sub-content selection step in a user-side content processing apparatus.
請求項1のコンテンツ処理方法において、
ユーザ側のコンテンツ処理装置において、前記推薦情報生成ステップを実行して、その
推薦情報生成ステップで生成された推薦情報を、前記ユーザ側のコンテンツ処理装置の外
部のサービス提供側の機器に送信し、そのサービス提供側の機器において、前記特徴情報
生成ステップおよび前記サブコンテンツ選択ステップを実行して、そのサブコンテンツ選
択ステップで選択されたサブコンテンツを、前記ユーザ側のコンテンツ処理装置に送信す
るコンテンツ処理方法。
The content processing method according to claim 1,
In the content processing device on the user side, the recommendation information generation step is executed, and the recommendation information generated in the recommendation information generation step is transmitted to a service providing side device outside the content processing device on the user side, A content processing method for executing the feature information generation step and the sub-content selection step in the service-providing device and transmitting the sub-content selected in the sub-content selection step to the content processing device on the user side .
請求項1のコンテンツ処理方法において、
ユーザ側のコンテンツ処理装置の外部のサービス提供側の機器において、前記ユーザ側
のコンテンツ処理装置から、前記メインコンテンツ内容メタデータおよび前記ユーザ状況
メタデータ、または前記ユーザ状況メタデータを取得し、前記推薦情報生成ステップ、前
記特徴情報生成ステップおよび前記サブコンテンツ選択ステップを実行して、そのサブコ
ンテンツ選択ステップで選択されたサブコンテンツを、前記ユーザ側のコンテンツ処理装
置に送信するコンテンツ処理方法。
The content processing method according to claim 1,
In the service providing device external to the user-side content processing apparatus, the main content content metadata and the user situation metadata or the user situation metadata are acquired from the user-side content processing apparatus, and the recommendation information A content processing method that executes a generation step, the feature information generation step, and the sub-content selection step, and transmits the sub-content selected in the sub-content selection step to the content processing apparatus on the user side.
メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータと、ユーザプロ
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成手段と、
サブコンテンツの内容を特徴づけるサブコンテンツ内容メタデータから、当該サブコン
テンツの特徴を示す特徴情報を生成する特徴情報生成手段と、
複数のサブコンテンツの中から、前記特徴情報が前記推薦情報に最も近いサブコンテン
ツを、当該メインコンテンツと一緒に再生されるべきサブコンテンツとして選択するサブ
コンテンツ選択手段と、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータである、コンテンツ処理装置。
And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation means for generating recommendation information for recommending sub content to be reproduced along with the main content ,
Feature information generating means for generating feature information indicating the feature of the sub-content from the sub-content content metadata characterizing the content of the sub-content;
Sub-content selection means for selecting, from among a plurality of sub-contents, a sub-content whose feature information is closest to the recommendation information as a sub-content to be reproduced together with the main content;
And the user situation metadata is data indicating a physical or mental state of the user at the time when the recommendation information is generated .
請求項11のコンテンツ処理装置において、
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択手段により選択されたサブコンテンツとを、一緒に再生
するコンテンツ処理装置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus that reproduces together the main content and the sub-content selected by the sub-content selection unit as the sub-content to be reproduced together with the main content.
請求項11のコンテンツ処理装置において、
前記メインコンテンツと、当該メインコンテンツと一緒に再生されるべきサブコンテン
ツとして前記サブコンテンツ選択手段により選択されたサブコンテンツとを、合成して記
録し、または関連づけて記録するコンテンツ処理装置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus that synthesizes and records the main content and the sub-content selected by the sub-content selection unit as sub-content to be reproduced together with the main content, or records the sub-content in association with each other.
請求項11のコンテンツ処理装置において、
前記メインコンテンツを分析して前記メインコンテンツ内容メタデータを生成するメイ
ンコンテンツ内容メタデータ生成手段を備えるコンテンツ処理装置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising main content content metadata generating means for analyzing the main content and generating the main content content metadata.
請求項11のコンテンツ処理装置において、
当該コンテンツ処理装置の外部から当該コンテンツ処理装置に前記メインコンテンツ内
容メタデータを取り込むメインコンテンツ内容メタデータ取得手段を備えるコンテンツ処
理装置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising main content content metadata acquisition means for fetching the main content content metadata from outside the content processing apparatus into the content processing apparatus.
請求項11のコンテンツ処理装置において、
前記サブコンテンツを分析して前記サブコンテンツ内容メタデータを生成するサブコン
テンツ内容メタデータ生成手段を備えるコンテンツ処理装置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising sub-content content metadata generating means for analyzing the sub-content and generating the sub-content content metadata.
請求項11のコンテンツ処理装置において、
当該コンテンツ処理装置の外部から当該コンテンツ処理装置に前記サブコンテンツ内容
メタデータを取り込むサブコンテンツ内容メタデータ取得手段を備えるコンテンツ処理装
置。
The content processing apparatus according to claim 11, wherein
A content processing apparatus comprising sub-content content metadata acquisition means for fetching the sub-content content metadata from outside the content processing apparatus into the content processing apparatus.
メインコンテンツの内容を特徴づけるメインコンテンツ内容メタデータと、ユーザプロ
ファイルおよびユーザ状況メタデータとから、当該メインコンテンツと一緒に再生されるべきサブコンテンツを推薦する推薦情報を生成する推薦情報生成手段と、
この推薦情報生成手段によって生成された推薦情報を、サービス提供側の機器に送信す
る送信手段と、
前記サービス提供側の機器において、コンテンツの特徴を示す特徴情報が前記送信手段
によって送信された推薦情報に最も近いコンテンツとして選択され、送信されたサブコン
テンツを、受信する受信手段と、
を備え、前記ユーザ状況メタデータは、前記推薦情報が生成される時点におけるユーザの身体的または精神的な状態を示すデータである、コンテンツ処理装置。
And the main content content metadata characterizing the content of the main content, and a user profile Oyo Biyu chromatography The status metadata, and recommendation information generation means for generating recommendation information for recommending sub content to be reproduced along with the main content ,
Transmitting means for transmitting the recommendation information generated by the recommendation information generating means to the device on the service providing side;
In the service providing device, the feature information indicating the feature of the content is selected as the content closest to the recommendation information transmitted by the transmitting unit, and the receiving unit receives the transmitted sub-content.
And the user situation metadata is data indicating a physical or mental state of the user at the time when the recommendation information is generated .
JP2004303934A 2004-10-19 2004-10-19 Content processing method and content processing apparatus Expired - Fee Related JP4529632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004303934A JP4529632B2 (en) 2004-10-19 2004-10-19 Content processing method and content processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004303934A JP4529632B2 (en) 2004-10-19 2004-10-19 Content processing method and content processing apparatus

Publications (2)

Publication Number Publication Date
JP2006119178A JP2006119178A (en) 2006-05-11
JP4529632B2 true JP4529632B2 (en) 2010-08-25

Family

ID=36537167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004303934A Expired - Fee Related JP4529632B2 (en) 2004-10-19 2004-10-19 Content processing method and content processing apparatus

Country Status (1)

Country Link
JP (1) JP4529632B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008126775A1 (en) * 2007-04-05 2008-10-23 Nec Corporation Information recommendation apparatus, information recommendation system, information recommendation method, and information recommendation program
JP5649273B2 (en) * 2008-08-25 2015-01-07 株式会社東芝 Information processing apparatus, information processing method, and information processing program
JP4780185B2 (en) 2008-12-04 2011-09-28 ソニー株式会社 Music reproduction system and information processing method
JP2018159970A (en) * 2017-03-22 2018-10-11 シャープ株式会社 Image processing apparatus, control program and control method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (en) * 2000-04-03 2001-10-12 Nec Corp Sensibility adaptive type information-providing device and machine-readable recording medium recording program
JP2002091454A (en) * 2000-09-12 2002-03-27 Sony Corp Server device and distribution system and distribution method and terminal equipment
JP2002287772A (en) * 2001-03-23 2002-10-04 Ricoh Co Ltd System for delivering musical piece with still picture
JP2002330419A (en) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd Multi-story viewing device and multi-story viewing method
JP2003209523A (en) * 2002-01-17 2003-07-25 Sharp Corp System for displaying content list corresponding to dynamic state change of user
JP2003235003A (en) * 2002-02-12 2003-08-22 Matsushita Electric Ind Co Ltd Digital broadcast system
JP2004070646A (en) * 2002-08-06 2004-03-04 Yamaha Corp Information terminal device, server system, contents distribution system, method for restricting simultaneous reproduction of contents, and program
JP2004206679A (en) * 2002-12-12 2004-07-22 Sony Corp Information processing device and method, recording medium and program
JP2004246535A (en) * 2003-02-13 2004-09-02 Sony Corp Reproduction method, reproduction device, and content delivery system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161654A (en) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd Musical classification determining device
JP3768347B2 (en) * 1998-02-06 2006-04-19 パイオニア株式会社 Sound equipment
JPH11244383A (en) * 1998-03-02 1999-09-14 Pioneer Electron Corp Audio system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (en) * 2000-04-03 2001-10-12 Nec Corp Sensibility adaptive type information-providing device and machine-readable recording medium recording program
JP2002091454A (en) * 2000-09-12 2002-03-27 Sony Corp Server device and distribution system and distribution method and terminal equipment
JP2002287772A (en) * 2001-03-23 2002-10-04 Ricoh Co Ltd System for delivering musical piece with still picture
JP2002330419A (en) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd Multi-story viewing device and multi-story viewing method
JP2003209523A (en) * 2002-01-17 2003-07-25 Sharp Corp System for displaying content list corresponding to dynamic state change of user
JP2003235003A (en) * 2002-02-12 2003-08-22 Matsushita Electric Ind Co Ltd Digital broadcast system
JP2004070646A (en) * 2002-08-06 2004-03-04 Yamaha Corp Information terminal device, server system, contents distribution system, method for restricting simultaneous reproduction of contents, and program
JP2004206679A (en) * 2002-12-12 2004-07-22 Sony Corp Information processing device and method, recording medium and program
JP2004246535A (en) * 2003-02-13 2004-09-02 Sony Corp Reproduction method, reproduction device, and content delivery system

Also Published As

Publication number Publication date
JP2006119178A (en) 2006-05-11

Similar Documents

Publication Publication Date Title
US10194115B2 (en) Audio routing for audio-video recording
US8914820B2 (en) Systems and methods for memorializing a viewers viewing experience with captured viewer images
US8078034B2 (en) Method and apparatus for navigating through subtitles of an audio video data stream
US20030229679A1 (en) System and method for reproducing information stored on a data recording medium in an interactive networked environment
US20070239847A1 (en) Recording apparatus, reproducing apparatus, recording and reproducing apparatus, recording method, reproducing method, recording and reproducing method and recording medium
JP2006500860A (en) Device for receiving digital information signals
JP2008312183A (en) Information processing apparatus, method, and program
US8264609B2 (en) Caption presentation method and apparatus using same
JP2008178090A (en) Video processing apparatus
JP4529632B2 (en) Content processing method and content processing apparatus
JP2004259375A (en) Device and method for recording/reproducing message
JPH10322613A (en) Information reception and reproduction device, and recording medium
JP5084022B2 (en) Content playback apparatus, content playback system, content playback method, and program
JP2005303605A (en) Display system and television receiving unit
KR20050076017A (en) Apparatus and method for recording video data, and apparatus and method for reproducing video data
JP2002218331A (en) Tv receiver set and receiving method
JP4284594B2 (en) Recording / reproducing apparatus and method
JP2006148839A (en) Broadcasting apparatus, receiving apparatus, and digital broadcasting system comprising the same
JP2008011397A (en) Data broadcast playback apparatus and method
JP2005204233A (en) Digital broadcast receiver and transmitter, receiving method, program, recording medium, and video recording and reproducing apparatus
JP2007048379A (en) Program reproduction method
JP4105975B2 (en) Video / audio playback device
JP2009105646A (en) Television broadcast recording and reproducing device, and reproducing method for recorded digital broadcast
JP4730253B2 (en) Movie playback apparatus and movie playback method
JP2007234089A (en) Recording and reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090728

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

R151 Written notification of patent or utility model registration

Ref document number: 4529632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees