JP5724283B2 - 情報処理装置、同期方法およびプログラム - Google Patents

情報処理装置、同期方法およびプログラム Download PDF

Info

Publication number
JP5724283B2
JP5724283B2 JP2010232171A JP2010232171A JP5724283B2 JP 5724283 B2 JP5724283 B2 JP 5724283B2 JP 2010232171 A JP2010232171 A JP 2010232171A JP 2010232171 A JP2010232171 A JP 2010232171A JP 5724283 B2 JP5724283 B2 JP 5724283B2
Authority
JP
Japan
Prior art keywords
data
content
user
behavior
synchronization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010232171A
Other languages
English (en)
Other versions
JP2012089909A (ja
Inventor
辰吾 鶴見
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010232171A priority Critical patent/JP5724283B2/ja
Priority to US13/248,584 priority patent/US8958686B2/en
Priority to CN201110315509.1A priority patent/CN102547197B/zh
Publication of JP2012089909A publication Critical patent/JP2012089909A/ja
Application granted granted Critical
Publication of JP5724283B2 publication Critical patent/JP5724283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Description

本発明は、情報処理装置、同期方法およびプログラムに関する。
近年、撮像装置で撮像した動画等のコンテンツを鑑賞して楽しむだけでなく、ユーザが編集を行なったり、音楽を付加したりするなどして、コンテンツに付加価値を与えることが行なわれている。
例えば、コンテンツのシーンやクリップの数を絞り込んだダイジェストを簡単に生成できるコンテンツ撮影装置が提案されている(特許文献1参照)。
特開2008−227860号公報
上述したコンテンツに付加価値を与える各手法は、いずれもコンテンツを元に編集する手法であり、編集したコンテンツを鑑賞することで楽しんでいた。
しかし、コンテンツを鑑賞した時の会話や視聴者の反応、その場の盛り上がりや雰囲気といったものを更なる付加価値としてコンテンツに与える手法がなかった。
また、コンテンツを作成した者は視聴者の感想が気になるが、視聴者がコンテンツを鑑賞した時の臨場感を知る有用な手法がなかった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、コンテンツに更なる付加価値を与えることが可能な、新規かつ改良された情報処理装置、同期方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、コンテンツデータを再生する再生部と、前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、前記ユーザの前記挙動と、前記コンテンツデータ中で前記ユーザが前記挙動を示したデータ位置とを同期させるための同期用データを生成する同期用データ生成部と、を備える情報処理装置が提供される。
また、前記同期用データ生成部は、前記挙動を示したデータ位置を時系列に前記挙動と対応付けて前記同期用データを生成してもよい。
また、前記同期用データ生成部は、さらに前記挙動を示したデータ位置を前記コンテンツデータを構成する各区分の識別情報と対応付けて前記同期用データを生成してもよい。
また、前記取得部は、前記挙動データとして、撮像データを取得してもよい。
また、前記取得部は、前記挙動データとして、収音データを取得してもよい。
また、前記取得部は、前記挙動データとして、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データを取得してもよい。
また、前記情報処理装置は、前記コンテンツデータを解析し、前記コンテンツデータを構成するフレーム中の主要領域を検出するコンテンツデータ解析部をさらに備えてもよい。
また、前記情報処理装置は、前記挙動データを解析し、前記ユーザの特徴データを検出する挙動データ解析部をさらに備えてもよい。
また、再生されたコンテンツデータに対するユーザの挙動を示す挙動データと、前記コンテンツデータ中で前記ユーザが前記挙動を示したデータ位置を同期させるための同期用データに基づき、前記挙動と前記コンテンツデータとを同期させてもよい。
また、前記情報処理装置は、前記取得された挙動データが撮像データである場合に、前記同期用データに基づき、前記コンテンツデータに前記撮像データを合成する合成部をさらに備えてもよい。
また、前記情報処理装置は、前記取得された挙動データが収音データである場合に、前記同期用データに基づき、前記コンテンツデータに前記収音データを合成する合成部をさらに備えてもよい。
また、前記情報処理装置は、前記取得された挙動データが、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データである場合に、前記同期用データに基づき、前記コンテンツデータを前記コンテンツ操作データに従って再生する再生部をさらに備えてもよい。
また、前記情報処理装置は、取得されたコンテンツデータの解析結果に示される前記コンテンツデータを構成するフレームの主要領域に基づき、前記撮像データを合成する位置を決定する合成位置決定部をさらに備えてもよい。
また、前記情報処理装置は、取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、キャラクタ画像を生成するキャラクタ生成部をさらに備え、前記合成部は、前記キャラクタ生成部により生成されたキャラクタ画像を前記コンテンツデータに合成してもよい。
また、前記合成部は、取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、所定の撮像データを前記コンテンツデータに合成してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、コンテンツデータを再生する再生部と、前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、前記ユーザの前記挙動と、前記コンテンツデータ中で前記ユーザが前記挙動を示したデータ位置とを同期させるための同期用データを生成する同期用データ生成部と、を備え、前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させる情報処理装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンテンツデータを再生するステップと、前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得するステップと、前記ユーザの前記挙動と、前記コンテンツデータ中で前記ユーザが前記挙動を示したデータ位置とを同期させるための同期用データを生成するステップと、前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させるステップと、を含む同期方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンテンツデータを再生する処理と、前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得する処理と、前記ユーザの前記挙動と、前記コンテンツデータ中で前記ユーザが前記挙動を示したデータ位置とを同期させるための同期用データを生成する処理と、前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させる処理と、をコンピュータに実行させる、プログラムが提供される。
以上説明したように本発明によれば、コンテンツに更なる付加価値を与えることが可能となる。
本発明の第1の実施形態に係るデータ生成装置の概要を説明するための図である。 同実施形態に係る同期再生制御を行なうデータ合成装置の概要を説明するための図である。 同実施形態に係る同期再生制御を行なうデータ合成装置の概要を説明するための図である。 同実施形態に係るコンテンツ同期再生システムの動作処理を示すタイムチャートである。 同実施形態に係るデータ生成装置の構成を示す図である。 同実施形態に係るカメラ映像データDBに格納されるカメラログの一例を示す図である。 同実施形態に係る同期の基準として撮像時間を用いた場合について説明するための図である。 同実施形態に係るコンテンツ操作ログの一例を示す図である。 同実施形態に係るデータ合成装置の構成を示す図である。 同実施形態に係るデータ合成装置で生成される合成データの時刻同期を説明するための図である。 同実施形態に係る合成位置決定部により、コンテンツ解析結果を考慮して合成位置を決定する処理を説明するための図である。 同実施形態に係るカメラ映像データ合成の他の一例を示す図である。 本発明の第2の実施形態に係るデータ生成装置の構成を示す図である。 同実施形態に係る同期の基準として撮像時間を用いた場合について説明するための図である。 同実施形態に係るユーザ特徴ログの一例を示す図である。 同実施形態に係るユーザ特徴解析部の構成を示す図である。 同実施形態に係るデータ合成装置の構成を示す図である。 同実施形態に係るキャラクタ生成部の構成を示す図である。 同実施形態に係るキャラクタ生成の具体例を示す図である。 本発明の第3の実施形態に係るデータ生成装置の概要を説明するための図である。 同実施形態に係るデータ生成/合成装置の概要を説明するための図である。 同実施形態に係る同期の基準として撮像時間を用いた場合について説明するための図である。 同実施形態に係るコンテンツ操作ログの一例を示す図である。 同実施形態に係る直列合成の流れを示す図である。 本発明の第4の実施形態に係る並列合成の流れを示す図である。 本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
(1−1)コンテンツ同期再生システムの概要説明
(1−2)データ生成装置
(1−3)データ合成装置
2.第2の実施の形態(ユーザ特徴解析)
(2−1)データ生成装置
(2−2)データ合成装置
3.第3の実施の形態(直列に合成)
4.第4の実施の形態(並列に合成)
5.情報処理装置のハードウェア構成
6.まとめ
<1.第1の実施形態>
[1−1.コンテンツ同期再生システムの概要説明]
まず、図1から図4を参照して、本発明の第1の実施形態に係るデータ生成装置20およびデータ合成装置50を用いたコンテンツ同期再生システムの概要について説明する。なお、本明細書において挙動データとは、ユーザの様子(反応)やコンテンツに対する操作などの視聴状態を示すデータを広く含む。本実施形態では、挙動データの一例として、ユーザを被写体としたカメラ映像データおよびユーザのコンテンツ操作を示すコンテンツ操作データを用いる。
(データ生成装置20)
コンテンツデータを再生し、視聴中のユーザを被写体としたカメラ映像データやユーザによるコンテンツ操作を示すコンテンツ操作データといった挙動データを取得し、かかる挙動データをコンテンツデータと同期させるための同期用データを生成するデータ生成装置20について図1を参照して説明する。
図1に示すデータ生成装置20は、ハンディカム等の記録装置10からコンテンツデータを受け取り、表示装置40に表示する。表示装置40に設置されたカメラ41は、表示装置40に表示されたコンテンツを視聴するユーザを撮像し、カメラ映像データとしてデータ生成装置20に送る。
また、データ生成装置20は、ユーザがリモートコントローラ42を用いて行なう、コンテンツの再生、一時停止、早送り等の操作入力をコンテンツ操作データとして受付ける。
このように、データ生成装置20は、コンテンツを視聴するユーザの挙動を示す挙動データとして、例えばカメラ映像データ(画像(撮像)データおよび収音データを含む)やコンテンツ操作データを取得する。
(データ合成装置50)
次に、他のユーザが上記コンテンツデータを視聴する場合に、上記データ生成装置20が取得した最初のユーザのカメラ映像データやコンテンツ操作データ等の挙動データを、コンテンツデータと同期させるデータ合成装置50について図2を参照して説明する。最初のユーザ(第1のユーザ)の挙動データをコンテンツデータと同期させることで、他のユーザ(第2のユーザ)は、コンテンツデータに加えて、第1のユーザの視聴状態も視聴し楽しむことが出来る。
図2に示す記録媒体12(例えばDVD(Digital Versatile Disc))は、コンテンツデータ、第1のユーザのカメラ映像データおよび第1のユーザのコンテンツ操作データを含む。かかる記録媒体12から各データを取得するデータ合成装置50は、コンテンツデータとカメラ映像データやコンテンツ操作データを同期させる。
例えば、データ合成装置50がコンテンツデータと第1のユーザのカメラ映像データを同期させて再生する場合、図2に示すように、コンテンツデータにカメラ映像x401を合成して表示装置40に表示させてもよい。このとき、時系列を基準として両者を同期させることで、コンテンツデータ中のどのタイミングで第1のユーザがどのような反応を示したかが分かり、コンテンツに新たな付加価値が生じる。
(適用例)
上記データ生成装置20およびデータ合成装置50を用いたコンテンツ同期再生システムの適用例について説明する。例えば、図1に示すように第1のユーザが父、母、子の家族の場合に、ハンディカムに録画した幼稚園の運動会の映像(コンテンツデータ)をデータ生成装置20により再生し、この際、データ生成装置20は、視聴する第1のユーザを被写体としたカメラ映像データをカメラ41から取得する。次に、運動会の映像とカメラ41で撮像したカメラ映像データを、第2のユーザである祖父母に送る。祖父母側では、図2に示すように、データ合成装置50により運動会の映像と息子家族が視聴している様子が映ったカメラ映像データが同期して再生される。これにより、祖父母は孫の運動会の映像を楽しみつつ、息子家族がこの運動会の映像を見てどのような様子であったかも楽しむことが出来る。
なお、図2に示す例では、データ合成装置50が記録媒体12から各データを取得しているが、本実施形態のデータ取得方法はこれに限られない。例えば、データ合成装置50とデータ生成装置20がネットワークを介して接続し、データ合成装置50は、ネットワークを介して各データを取得してもよい。
次に、コンテンツ同期再生システムの他の適用例について説明する。本適用例では、コンテンツデータを視聴する他のユーザを被写体としたカメラ映像データや、他のユーザのコンテンツ操作を同期させて、コンテンツに新たな付加価値を生じさせる。
具体的には、まず、子供の幼稚園の運動会の映像(コンテンツデータ)が他のユーザ(祖父および祖母)に送られ、祖父および祖母側にあるデータ生成装置20で、視聴時の祖父母を被写体としたカメラ映像データや祖父母によるコンテンツ操作データ等の挙動データが取得される。次いで、運動会の映像とカメラ映像データ等の挙動データが記録媒体12に記録され、祖父および祖母側から息子家族側に送り返される。息子家族側にあるデータ合成装置は、記録媒体12から取得したカメラ映像データ等に基づいて、上記と同様にコンテンツデータとカメラ映像データやコンテンツ操作データ等の同期再生を行なう。
例えば、コンテンツデータとコンテンツ操作データを同期させて再生する場合、データ合成装置50は、コンテンツ操作データに従ってコンテンツを再生制御する。したがって、他のユーザが行なった巻き戻しや早送り等のコンテンツ操作が再現される(図3参照)。このとき、時系列を基準として両者を同期させることで、コンテンツデータ中のどのタイミングで他のユーザがどのような操作を行なったかが分かり、コンテンツに新たな付加価値を生じさせることができる。
(動作処理)
次に、上記説明したコンテンツ同期再生システムの動作処理について図4を参照して説明する。図4に示すように、データ生成装置20は、カメラ41による撮像を開始し、コンテンツを視聴するユーザを撮像する(S102)。次いで表示装置40にコンテンツを再生する(S104)。次いで同期用のデータであるメタデータを生成する(S106)。メタデータについては、図5、図7および図8を用いて後述する。
一方、データ合成装置50は、データ生成装置20から取得したコンテンツデータ、カメラ映像データ、メタデータに基づき、同期再生を行なう(S108)。
以上、図4のフローチャートを用いて本実施形態に係るコンテンツ同期再生システムの動作処理について説明した。ここで、本明細書に記載のコンテンツデータとは、上述したハンディカムで撮影した映像や、TV放送される映像、インターネット上で公開されている動画等の動画データのほか、静止画データ、音楽データ、ゲーム等でもよい。また、本実施形態に係るデータ合成装置50は、一例としてコンテンツデータとカメラ映像データを同期させているが、この他、音データのみ、画像データのみを同期させてもよい。
[1−2.データ生成装置]
(構成)
次に、図5を参照して本実施形態に係るデータ生成装置20−1の構成について説明する。図5に示すように、データ生成装置20−1は、カメラ映像データ取得部21、カメラ映像データDB(Data Base)22、コンテンツ再生部23、操作信号I/F(Interface)24、メタデータ生成部25、コンテンツ操作ログDB26、コンテンツ解析部27、およびコンテンツ解析結果DB28、を備える。以下、各構成について説明する。
カメラ映像データ取得部21は、表示装置40に表示されるコンテンツを視聴するユーザを被写体としたカメラ映像データをカメラ41から取得する。また、カメラ映像データ取得部21は、撮像開始時刻と終了時刻を示すカメラログと共に、カメラ映像データをカメラ映像データDB22に格納する。カメラログの一例を図6に示す。
コンテンツ再生部23は、記録装置10から取得したコンテンツデータの再生制御を行なう。再生制御は、ユーザによりリモートコントローラ42から送信され、操作信号入力I/F24から入力された、再生、停止、早送り等の操作信号に従う。かかる操作信号は、コンテンツ操作データとしてメタデータ生成部25に送られる。コンテンツ再生部23で再生されたコンテンツデータは、表示装置40に表示される。
メタデータ生成部25は、後にデータ合成装置50でコンテンツデータとコンテンツ操作データを同期させるための同期用データであるコンテンツ操作ログをメタデータとして生成する。同期の基準とするデータは、撮像時間や再生時間等の時刻データでもよいし、コンテンツデータを構成する各区分の識別情報、例えばフレーム番号でもよい。
本実施形態では、同期の基準とするデータの一例として、撮像開始時刻を基準とする時系列を用い、さらにコンテンツデータのフレーム番号と対応付ける。したがって、本実施形態によるメタデータ生成部25は、カメラ映像データ取得部21から送られた撮像時間(撮像開始時刻からの経過時間)と、コンテンツ再生部23により再生されるコンテンツデータのフレーム番号と、コンテンツ操作とを対応付けたコンテンツ操作ログをメタデータとして生成する。なお、コンテンツ操作ログ生成の具体例については、図7及び図8を参照して後述する。
このように生成されたコンテンツ操作ログは、コンテンツIDと共にコンテンツ操作ログDB26に格納される。
コンテンツ解析部27は、コンテンツ再生部23で再生されるコンテンツデータを解析し、主要領域の検出を行なう。例えば、コンテンツデータが画像データの場合は、被写体領域を主要領域として検出する。具体的には、画像データから輝度情報や、色情報、エッジ情報、顔情報、動き情報等を抽出し、被写体マップを生成し、被写体領域を特定する。ここで、被写体とはユーザが画像を一瞥した場合にユーザが注目すると推定される画像上の物体、すなわちユーザが目を向けると推定される物体をいう。したがって、被写体は必ずしも人に限られるわけではない。
コンテンツ解析部27の解析結果(主要領域の検出結果)は、コンテンツ解析結果DB28に格納される。かかるコンテンツ解析結果は、後にデータ合成装置50において合成位置を決定する際に用いられる。
(コンテンツ操作ログ)
次に、コンテンツ操作データと、コンテンツデータ中でユーザがコンテンツ操作を行なったデータ位置とを同期させる同期用データであるコンテンツ操作ログについて図7および図8を用いて説明する。本実施形態では、一例として、ユーザがコンテンツ操作を行なったデータ位置を、撮像開始時刻を基準とした時系列にコンテンツ操作データと対応付けて生成するが、同期の基準はこれに限られない。例えば、再生開始時刻を基準として時系列に対応付けてもよいし、コンテンツデータを構成する各区分の識別情報と対応付けてもよい。各区分の識別情報とは、例えばコンテンツデータが動画である場合は、各フレーム番号に相当する。
図7に示すように、本実施形態では、カメラ41による撮像開始時刻(図7中、rec start参照)を基準とした時系列(図7中、time line参照)に、コンテンツデータ、コンテンツ操作データを対応付ける。
次に、図7に示す対応付けを元に生成したコンテンツ操作ログについて図8を参照して説明する。まず、図7に示すように、撮像を開始してから1分経過後にユーザが再生(Play)操作を行った場合は、図8に示すように、timeが00:01:00:00であり、コンテンツ操作がplayであり、コンテンツフレーム(フレーム番号)が0であるコンテンツ操作ログが生成される。
次いで、図7に示すように、再生開始から1分経過後にユーザが一時停止(pause)操作を行なった場合は、図8に示すように、timeが00:02:00:00であり、コンテンツ操作がplay endであり、コンテンツフレームが1800であるコンテンツ操作ログと、timeが00:02:00:00であり、コンテンツ操作がpauseであり、コンテンツフレームが1800であるコンテンツ操作ログが生成される。
次いで、図7に示すように、一時停止操作から30秒経過後にユーザが再生(play)操作を行なった場合は、図8に示すように、timeが00:02:30:00であり、コンテンツ操作がpause endであり、コンテンツフレームが1800であるコンテンツ操作ログと、timeが00:02:30:00であり、コンテンツ操作がplayであり、コンテンツフレームが1800であるコンテンツ操作ログが生成される。
次いで、図7に示すように、再生操作から1分経過後にユーザが巻き戻し(prev.speed1)操作を行なった場合は、図8に示すように、timeが00:03:30:00であり、コンテンツ操作がplay endであり、コンテンツフレームが3600であるコンテンツ操作ログと、timeが00:03:30:00であり、コンテンツ操作がprev.speed1であり、コンテンツフレームが3600であるコンテンツ操作ログが生成される。
このようにして、メタデータ生成部25は、同期用データであるコンテンツ操作ログを、撮像開始時刻を基準として生成していく。本実施形態では、図7および図8に示すように、timeが00:05:41:00でstop操作がなされ、コンテンツデータの再生が終了し、その後、カメラ41による撮像が終了(rec stop)する。
[1−3.データ合成装置]
(構成)
次に、図9を参照して、本実施形態に係るデータ合成装置50−1の構成について説明する。図9に示すように、データ合成装置50−1は、コンテンツデータDB51、操作信号入力I/F52、コンテンツ再生部53、コンテンツ操作ログDB54、合成位置決定部55、コンテンツ解析結果DB56、合成部57、カメラ映像データDB58、およびカメラ映像データ取得部59を備える。
ここで、図9に示すコンテンツデータDB51、コンテンツ操作ログDB54、コンテンツ解析結果DB56およびカメラ映像データDB58に格納されるデータは、いずれも記録媒体12から取得したデータである。ここで、記録媒体12には、上述したデータ生成装置20で再生したコンテンツデータ、第1のユーザによるコンテンツ操作データを時系列に対応付けて生成したコンテンツ操作ログ、コンテンツデータ中の注目領域を解析したコンテンツ解析結果、およびコンテンツデータ再生時にユーザを撮像したカメラ映像データが記録されている。
以下、データ合成装置50−1の各構成について説明する。まず、操作信号入力I/F52は、第2のユーザが操作するリモートコントローラ42から、再生、停止、一時停止、早送り等の操作信号の入力を受け付ける。
コンテンツ再生部53は、コンテンツデータを再生制御する。特に、コンテンツ操作ログDB54に格納される第1のユーザのコンテンツ操作ログと同期させてコンテンツデータを再生制御することで、データ合成装置50−1において第1のユーザのコンテンツ操作を再現することができる。
合成位置決定部55は、コンテンツ解析結果DB56に格納されるコンテンツ解析結果に基づいて、次の合成部57でコンテンツデータとカメラ映像データを合成する位置を決定する。合成位置の決定については図11を参照して後述する。
合成部57は、コンテンツデータと、カメラ映像データDB58からカメラ映像データ取得部59が取得したカメラ映像データを合成する。このとき、合成部57は、合成位置決定部55により決定された位置で合成する。また、合成部57は、第1のユーザの操作を再現して再生制御されるコンテンツデータと、カメラ映像データを、時刻同期して合成する。かかる時刻同期により、第1のユーザがコンテンツデータ中のどのデータ位置でどのような様子であったかがカメラ映像データにより示されることとなる。
(合成コンテンツ)
次に、図10を用いて、データ合成装置50−1で合成されるコンテンツ(以下、合成コンテンツとも称す)について説明する。
まず、本実施形態では、図10に示すように、コンテンツ再生開始時刻(time 01:00)前のカメラ映像データは合成せず、再生開始時刻に対応するカメラ映像データを取得し、合成を開始する。また、本実施形態では、図10に示すように、コンテンツ再生終了時刻(time 05:41)で再生を終了し、再生終了後のカメラ映像データは表示しない。なお、合成部57が行なう、カメラ映像データとコンテンツ操作ログに基づいて再生制御されるコンテンツデータとの同期は、コンテンツデータの再生開始時刻などの時点を揃えて同期される。
次に、コンテンツ再生部53が第1のユーザのコンテンツ操作ログに従ってコンテンツデータを再生制御し、第1のユーザの操作を再現する処理について説明する。例えば、第1のユーザのコンテンツ操作ログが図8に示すログである場合に、time00:03:30:00に着目すると、コンテンツフレーム3600の時点でprev.speed1の操作が10秒間なされる。したがって、データ合成装置50−1は、コンテンツフレーム3600から3000まで巻き戻し再生を行うため、表示装置40には図3に示すように巻き戻し映像が表示される。なお、図10に示す合成コンテンツにおいては、play操作により再生されるコンテンツフレームの順番の流れとして、f3600の次にf3000を示すが、f3600とf3000の間には、上述したようにprev.操作による巻き戻し映像が表示される。例えば、f3600からf3000まで複数フレームおきにフレームが表示される。
次に、合成位置決定部55がコンテンツ解析結果に基づいて行なうカメラ映像データの合成位置決定処理について図11を参照して説明する。コンテンツ解析結果は、上述したように、データ生成装置20においてコンテンツ解析部27が行なうコンテンツ解析の結果である。具体的には、コンテンツデータが動画の場合、画像中の顔領域402や、動きのある被写体領域403等の主要領域を示す。合成位置決定部55は、画像中の顔領域402や、被写体領域403と重ならない領域内で、カメラ映像データ(図11に示すカメラ映像x401)の合成位置を決定する。
なお、データ合成装置50が合成して再生するコンテンツデータとカメラ映像データの画面構成比は、図11に示すような、表示装置40の全画面にコンテンツデータが表示され、画面の端にカメラ映像データが重ねて表示される例に限られない。例えば、表示装置40の全画面にカメラ映像データを表示し、画面の端にコンテンツデータを重ねて表示してもよいし、表示装置40の画面を二等分して、コンテンツデータとカメラ映像データをそれぞれ表示してもよい。また、図12に示すように、表示装置40の全画面にコンテンツデータを表示し、カメラ映像データから各ユーザの顔領域401a、401b、401cを抽出して表示してもよい。
<2.第2の実施の形態(ユーザ特徴解析)>
次に、本発明の第2の実施形態に係るコンテンツ同期再生システムについて説明する。上述した第1の実施の形態では、データ合成装置50−1において、コンテンツ再生開始時刻に対応するカメラ映像データからコンテンツ再生終了時刻に対応するカメラ映像データまで全て常に合成する。しかし、本発明の実施形態に係る合成方法はこれに限られず、カメラ映像データのうち特徴的なフレームを合成してもよい。例えば、本実施形態では、ユーザの挙動を示すカメラ映像データを解析して生成したユーザ特徴ログに基づいて、カメラ映像データのうち第1のユーザが特徴的な反応を示した場面のみをコンテンツデータに合成する。また、データ生成装置20−2でカメラ映像データを解析して生成されたユーザ特徴ログを用いてデータ合成装置50−2でキャラクタを生成し、カメラ映像データの代わりにコンテンツデータに合成してもよい。
[2−1.データ生成装置]
(構成)
まず、図13を参照して、本実施形態に係るデータ生成装置20−2の構成について説明する。図13に示すように、データ生成装置20−2は、カメラ映像データ取得部21、カメラ映像データDB22、コンテンツ再生部23、操作信号I/F24、メタデータ生成部25、コンテンツ操作ログDB26、コンテンツ解析部27、コンテンツ解析結果DB28、ユーザ特徴解析部30、およびユーザ特徴ログDB31を備える。以下、データ生成装置20−2の各構成について説明するが、上記第1の実施形態に係るデータ生成装置20−1の構成と重複するものについては説明を省略する。
ユーザ特徴解析部30は、カメラ映像データ取得部21から送られたカメラ映像データに写るユーザの特徴を解析し、ユーザの特定の反応(笑顔など)が示された箇所を検出する。さらに、ユーザ特徴解析部30は、後にアバタやCG(Computer Graphics)キャラクタ等のキャラクタ生成を行なう際に利用できる表情パラメータを生成してもよい。
ユーザ特徴解析部30の解析結果は、メタデータ生成部25が生成したコンテンツ操作ログと同様の時間軸に対応付けられたユーザ特徴ログとしてユーザIDと共にユーザ特徴ログDB31に格納される。
(ユーザ特徴ログ)
次に、ユーザ特徴ログと時間軸との対応付けについて図14を参照して説明する。図14に示すように、本実施形態では、カメラ41による撮像開始時刻を基準とした時系列に対応付けて、ユーザ特徴ログを生成する。
図14中のユーザ特徴解析に示すように、ユーザ特徴解析部30によるカメラ映像データの解析の結果、ユーザが笑顔を示したり(smile face)、指で画面を指す仕草(point by finger)等の身振り手振りの動作を行なったりした時刻を、撮像開始時刻を基準とした時系列に対応付ける。これにより、例えば図15に示すように、timeが00:02:35:00の時点で、ユーザの反応(behavior)が笑顔であることや、timeが00:02:40:00の時点で、ユーザが指で画面を指す仕草を示すユーザ特徴ログが生成される。なお、図15に示すように、ユーザ特徴ログは、さらに、コンテンツデータのフレーム番号と対応付けてもよい。
また、図14に示すように、カメラ映像データに含まれる音声データを解析して、笑い声(laughter)、話し声(speak)等もユーザの反応として検出してもよい。
(表情パラメータの生成)
次に、キャラクタ生成に用いる表情パラメータを生成する場合のユーザ特徴解析部30の構成の一例について図16を参照して説明する。図16に示すように、ユーザ特徴解析部30は、顔認識部310および表情パラメータ生成部320を備える。顔認識部310は、顔検出部311、パーツ検出部312、属性判別部313および詳細パーツ検出部314を備え、カメラ映像データに対して顔認識処理を行なう。表情パラメータ生成部320は、顔向きパラメータ算出部321、顔位置パラメータ算出部322、笑顔パラメータ算出部323、目閉率パラメータ算出部324および口開率パラメータ算出部325を備え、後述するデータ合成装置50−2でキャラクタが生成される際の制御データとなる各種のパラメータを生成する。
具体的には、まず顔検出部311でカメラ映像データの画像(各フレーム)から顔領域検出処理を行う。画像にユーザの顔が写っていた場合は、その顔の領域を特定する情報である顔探索結果情報を出力する。顔探索結果情報には、顔領域の基準点、横幅、縦幅、および回転角度が含まれる。
パーツ検出部312は、顔検出部311で検出された顔領域内にある顔のパーツ(右目、左目、鼻および口)をそれぞれ検出し、各パーツの中心点の座標を示す情報であるパーツ情報を出力する。
属性判別部313は、パーツ検出部312から出力されるパーツ情報に基づいて、画像に表示されている顔の属性を判別し、その顔の属性を示す情報である属性情報を出力する。属性情報には、笑顔スコア(smile)、右目の開度スコア(R eye Open)、左目の開度スコア(L eye Open)、男性スコア(Male)、大人スコア(Adult)、赤ちゃんスコア(Baby)、老人スコア(Elder)等が含まれる。例えば、笑顔スコアは、ユーザの顔の笑顔の度合いを数値化したものである。
詳細パーツ検出部313は、画像に表示される顔のパーツ(輪郭、眉、目、鼻、口など)の位置や形状など、各パーツを詳細に特定するためのポイントを検出し、それらのポイントを示す情報であるパーツ結果情報を出力する。パーツ結果情報は、例えば、顔の輪郭、眉の形状、目の輪郭、鼻の形状、口の輪郭を特定する複数箇所のポイントをXY座標で示す。
次に、表情パラメータ生成部320では、顔認識部310から出力された情報に基づき、ユーザの顔をキャラクタで生成するために必要な表情パラメータを生成する。例えば、顔向きパラメータ算出部321は、顔検出部311から出力される顔探索結果情報に含まれる顔領域の回転角度から、キャラクタの顔角度を制御するパラメータを算出する。
また、顔位置パラメータ算出部322は、顔検出部311から出力される顔探索結果情報に含まれる顔領域の基準点、横幅および縦幅から、キャラクタの顔位置を制御するパラメータ(顔位置パラメータ)を算出する。
また、笑顔パラメータ算出部323は、属性判別部313から出力される属性情報に含まれる笑顔スコアから、キャラクタの笑顔率を制御するパラメータを算出する。
また、目閉率パラメータ算出部324は、属性判別部313から出力された属性情報に含まれるユーザの右目および左目の開度スコアから、キャラクタの右目および左目の閉鎖率を制御するパラメータを算出する。
また、口開率パラメータ算出部325は、詳細パーツ検出部313から出力されたパーツ結果情報に含まれるユーザの口の輪郭を特定する複数個所のポイントから、キャラクタの口の開率を制御するパラメータを算出する。
上述した表情パラメータは、カメラ映像データのフレーム単位でユーザ特徴ログDB31に保存される。なお、データ量を少なくするため、例えば算出された笑顔パラメータの数値が7割以上の値であった場合に、「笑顔」としてもよい。また、属性判別部313から出力される属性情報のうち、ユーザの顔が、男性、女性、および子供のいずれであるかを判定するモデル選択に用いられるスコア(男性スコアおよび大人スコア)も保存される。
[2−2.データ合成装置]
(構成)
次に、図17を参照して、本実施形態に係るデータ合成装置50−2の構成について説明する。図17に示すように、データ合成装置50−2は、コンテンツデータDB51、操作信号入力I/F52、コンテンツ再生部53、コンテンツ操作ログDB54、合成位置決定部55、コンテンツ解析結果DB56、合成部57、カメラ映像データDB58、カメラ映像データ取得部59、ユーザ特徴ログDB60およびキャラクタ生成部61を備える。以下、データ合成装置50−2の各構成について説明するが、上記第1の実施形態に係るデータ合成装置50−1の構成と重複するものについては省略する。
ユーザ特徴ログDB60は、記録媒体12から取得した第1のユーザのユーザ特徴ログを格納する。
キャラクタ生成部61は、ユーザ特徴ログDB60に格納されたユーザ特徴ログに含まれる表情パラメータに基づいてキャラクタを生成し、合成部57に送る。キャラクタ生成
部61の詳細については図18を参照して後述する。
キャラクタ生成部61から、生成されたキャラクタを受取った合成部57は、ユーザ特徴ログに基づいてコンテンツデータと時刻同期させ、キャラクタを合成する。
(キャラクタ生成)
次に、キャラクタ生成部61の構成の一例を、図18を参照して説明する。図18に示すように、キャラクタ生成部61は、モデル選択部610、三次元データ管理部620、シェーダ管理部630およびレンダリング部640を備える。なお、本実施形態に係るキャラクタ生成部61は、キャラクタの一例としてアバタを生成する。
モデル選択部610は、ユーザ特徴ログに含まれる、属性判別部313から出力された属性情報のうちの男性スコアおよび大人スコアに基づいて、カメラ映像データに写るユーザの顔が、男性、女性、および子供のいずれであるかを判定する。次いで、モデル選択部610は、判定結果にしたがって、男性のモデル、女性のモデル、および子供のモデルのいずれかを選択し、選択結果を示す情報であるモデル情報を出力する。
三次元データ管理部620は、アバタの三次元データの管理、例えば、男性、女性および子供のアバタの三次元データを記憶しているデータベース(図示せず)の管理を行なう。また、三次元データ管理部620には、モデル選択部610からモデル情報が供給される。そして、三次元データ管理部620は、モデル情報に応じたアバタの三次元データをデータベースから読み出してレンダリング部640に供給する。
また、三次元データ管理部620は、三次元モデルの座標を出力画像(二次元)に変換するためのジオメトリ処理や、三次元モデルの表面に質感を与えるためのテクスチャを貼り付けるテクスチャ処理などを行なうための各種のデータを管理し、それらのデータをレンダリング部640に供給する。
シェーダ管理部630は、レンダリング部において三次元データをレンダリングする際に、所定の光源(照明)により三次元モデルに陰影をつけるための演算を行なうシェーディング処理を管理し、シェーディング処理による演算結果をレンダリング部640に供給する。
レンダリング部630は、ユーザ特徴ログに含まれる表情パラメータ(例えば、アバタの右目および左目の目閉率を示すパラメータ、アバタの笑顔率を示すパラメータ、アバタの口開率を示すパラメータ)に従って、三次元データ管理部620から供給された三次元データを変形(モーフィング)させて、レンダリングを行なう。
合成部57には、レンダリング部630によりレンダリングされたアバタの顔の画像が供給され、コンテンツデータに合成される。なお、コンテンツデータに、アバタの顔のみを合成してもよいし、コンテンツデータに合成するカメラ映像データのうち、顔位置パラメータに従って、ユーザの顔のみにアバタの顔を重ね合わせてもよい。
以上説明したキャラクタ生成の具体例について図19を参照して説明する。まず、図19の画像701に対して、上述したデータ生成装置20−2の顔認識部310により、顔認識処理が行なわれる。かかる顔認識処理により、顔領域検出処理、顔領域内にある顔の各パーツの中心点の座標を示す情報であるパーツ情報の検出処理、笑顔スコア(smile)等の属性情報の判別処理、顔の各パーツを詳細に特定するためのパーツ結果情報(口の輪郭を特定する複数個所のポイント等)の検出処理が行なわれる。
次に、顔認識処理において出力された情報から、上述したデータ生成装置20−2の表情パラメータ生成部320により、表情パラメータが生成される。
次に、上述したデータ合成装置50−2のキャラクタ生成部61により、属性情報、表情パラメータに従って画像702に示すようなアバタの顔が生成される。
(特徴的な反応を示すカメラ映像データの合成)
一方、カメラ映像データ取得部59により、カメラ映像データDBから、第1のユーザのユーザ特徴ログに基づいて、第1のユーザが笑顔の場合等、特徴的な反応を示した箇所のカメラ映像データのみを取得し、合成部57に送ってもよい。特徴的な反応とは、笑顔やユーザの手振り身振りがあった場合の他、これらと音声データから算出される盛り上がり度が一定値以上の場合を特徴的な反応と判断してもよい。
カメラ映像データ取得部59からカメラ映像データを受取った合成部57は、ユーザ特徴ログに基づいてコンテンツデータと時刻同期させ、カメラ映像データを合成する。
<3.第3の実施の形態(直列に合成)>
次に、本発明の第3の実施の形態に係るコンテンツ同期再生システムについて説明する。本実施形態では、最初に視聴したユーザのカメラ映像データ等が合成されたコンテンツを視聴した次のユーザのカメラ映像データもさらに合成する。
(第1のユーザによる視聴)
まず、図20に示すように、データ生成装置20が、記録媒体11に格納されたコンテンツデータを再生し、表示装置40に表示する。そして、データ生成装置20は、カメラ41から第1のユーザX(祖父と祖母)を被写体とするカメラ映像データを取得する。また、データ生成装置20は、ユーザがリモートコントローラ42を用いて行なったコンテンツ操作のデータを取得する。このように、本実施形態に係るデータ生成装置20が行なう処理は、上記第1および第2の実施形態に係るデータ生成装置の処理と同様である。
そして、データ生成装置20は、コンテンツデータ、ユーザXのカメラ映像データおよび操作ログ等を記録媒体12に格納する。なお、本実施形態では記録媒体を介して各データのやり取りを行なっているが、ネットワークを介して各データを渡してもよい。
(第2のユーザによる視聴)
次に、図21に示すように、第1のユーザのカメラ映像データ等が格納された記録媒体12から各データを取得したデータ生成/合成装置80は、上記第1および第2実施形態に係るデータ合成装置50と同様に、コンテンツデータをユーザXのコンテンツ操作ログに従って再生し、ユーザXのカメラ映像x401をコンテンツデータと時刻同期させて合成する。
ここで、本実施形態に係るデータ生成/合成装置80は、上記第1および第2の実施形態で説明したデータ生成装置20の構成と、データ合成装置50の構成を含み、各データを同期して合成コンテンツを再生する機能と、かかる合成コンテンツを視聴するユーザのコンテンツ操作ログや、カメラ映像データを取得する。
したがって、データ生成/合成装置80は、図21に示すように、合成コンテンツを表示装置40で再生し、カメラ41で撮像した第2のユーザY(父、母および子)のカメラ映像データ等を取得する。
このとき、データ生成/合成装置80のメタデータ生成部(図示せず)は、例えば図22に示すように撮像開始時刻を基準とした時系列に対応付けて、合成コンテンツxに対するコンテンツ操作ログを生成する。ここで、合成コンテンツxは、第1のユーザXのカメラ映像xが合成されたコンテンツである。なお、コンテンツ操作ログは、図23に示すように、さらにコンテンツフレームの番号と対応付けてもよい。
(直列に合成)
以上説明したデータ生成/合成装置80から、ユーザYのコンテンツ操作ログ、カメラ映像yおよび合成コンテンツxが記録媒体13に格納され、これらのデータに基づき、さらにユーザYのコンテンツ操作ログやカメラ映像yが合成されたコンテンツが生成される。例えば、図24に示すように、コンテンツデータにユーザXのカメラ映像x401とユーザYのカメラ映像y402が合成された合成コンテンツデータ410が生成される。
また、ユーザYのコンテンツ操作は、図22に示すように、第2のユーザYの視聴時のタイムラインと合成コンテンツx内のタイムラインと対応付けられる(図22、一点鎖点矢印A参照)。したがって、図24に示す合成コンテンツデータ410は、ユーザYのコンテンツ操作ログに基づいて合成コンテンツx(コンテンツデータにカメラ映像x401が合成されたコンテンツ)が再生制御され、合成コンテンツxに対するユーザYのコンテンツ操作が再現される。
なお、記録媒体13に、コンテンツデータ、ユーザXのカメラ映像データ、ユーザXのコンテンツ操作ログ、ユーザYのカメラ映像データおよびユーザYのコンテンツ操作ログが格納され、これらから図24に示すような合成コンテンツ410を生成してもよい。この場合、例えば図22に示す第2のユーザYの視聴時のタイムラインと、これに対応するユーザXの視聴時のタイムライン(合成コンテンツx内のタイムライン)を基準として、コンテンツデータやカメラ映像xのフレーム、ユーザXのコンテンツ操作、カメラ映像yのフレーム、ユーザYのコンテンツ操作等が同期され再生される。
<4.第4の実施の形態(並列に合成)>
次に、本発明の第4の実施の形態に係るコンテンツ同期再生システムについて説明する。本実施形態は、同じコンテンツを複数の視聴ユーザが別々に視聴し、コンテンツの早送り、巻き戻し、スキップ等の操作が行なわれなかったもの同士であれば、コンテンツデータと、各ユーザを写したカメラ映像データを同期させて合成することが出来る。
例えば、図25に示すように、コンテンツ(記録媒体11)をユーザX、ユーザYが別々に視聴し、それぞれのカメラ映像データ等(記録媒体12、13)に基づき、合成コンテンツデータ420が生成される。
<5.情報処理装置のハードウェア構成>
次に、上述した一連の処理をプログラムにより実行するデータ生成装置20、データ合成装置50等の情報処理装置90のハードウェアの構成例について図26を参照して説明する。
図26に示したように、情報処理装置90は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、インターフェース905と、入力部906と、出力部907と、記憶部(HDD)908と、ドライブ909と、通信部911とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置90内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。
入力部906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置90のユーザは、該入力部906を操作することにより、情報処理装置90に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力部907は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic
Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力部907は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
記憶部908は、本実施形態にかかる情報処理装置90の記憶部の一例として構成されたデータ格納用の装置である。記憶部908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。記憶部908は、例えば、HDD(Hard
Disk Drive)で構成される。この記憶部908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。また、この記憶部908には、コンテンツデータ、カメラ映像データ、メタデータ、およびコンテンツ解析結果などが記録される。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置90に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体910に記録されている情報を読み出して、RAM903に出力する。
通信部911は、例えば、通信網912に接続するための通信デバイス等で構成された通信インターフェースである。また、通信部911は、無線LAN(Local
Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。この通信装置112は、外部機器との間で、通信網912を介して、コンテンツデータ等の各種データを送受信する。
<6.まとめ>
以上説明したように、本発明の実施形態にかかるデータ生成装置20およびデータ合成装置50によれば、コンテンツを視聴したユーザの様子や反応をコンテンツに加えることができるため、コンテンツを何度も楽しむことができ、コンテンツに新たな付加価値が生じる。
また、ユーザの様子や反応は、コンテンツを視聴するユーザを撮像対象としたカメラ映像データや、コンテンツの再生、早送り、巻き戻し等の操作データを利用することで加えることができる。
また、上記カメラ映像データやコンテンツ操作データは、撮像開始時刻からの経過時刻と対応付けられたカメラログやコンテンツ操作ログを用いて、コンテンツ再生時に同期させることができる。
また、視聴したユーザの映像からキャラクタを生成し、キャラクタを表示させる方法を利用すると、データ生成装置20からデータ合成装置50にカメラ映像データを送る場合に比べてデータ容量を軽減できる。また、データ生成装置20からコンテンツ操作ログ等の情報をネットワーク上のサーバ装置に一旦保存するシステムの場合でも、カメラ映像データを保存する場合に比べてプライバシーを保つことができる。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書のデータ生成装置20、データ合成装置50の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、図4に示すデータ生成装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、データ生成装置20、データ合成装置50に内蔵されるハードウェアを、上述したデータ生成装置20、データ合成装置50の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
20、20−1、20−2 データ生成装置
21 カメラ映像データ取得部
22 カメラ映像データDB
23 コンテンツ再生部
24 操作信号I/F
25 メタデータ生成部
26 コンテンツ操作ログDB
27 コンテンツ解析部
28 コンテンツ解析結果DB
30 ユーザ特徴解析部
31 ユーザ特徴ログDB
40 表示装置
41 カメラ
42 リモートコントローラ
50、50−1、50−2 データ合成装置
51 コンテンツデータDB
52 操作信号入力I/F
53 コンテンツ再生部
54 コンテンツ操作ログDB
55 合成位置決定部
56 コンテンツ解析結果DB
57 合成部
58 カメラ映像データDB
59 カメラ映像データ取得部
60 ユーザ特徴ログDB
61 キャラクタ生成部

Claims (12)

  1. コンテンツデータを再生する再生部と、
    前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、
    前記ユーザの前記挙動と、前記コンテンツデータ同期させるための同期用データを生成する同期用データ生成部と、
    を備え
    前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
    前記同期用データ生成部は、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けて、前記同期用データを生成する、情報処理装置。
  2. 前記取得部は、前記挙動データとして、さらに収音データを取得する、請求項1記載の情報処理装置。
  3. 前記情報処理装置は、
    前記コンテンツデータを解析し、前記コンテンツデータを構成するフレーム中の主要領域を検出するコンテンツデータ解析部をさらに備える、請求項1記載の情報処理装置。
  4. 前記情報処理装置は、
    前記挙動データを解析し、前記ユーザの特徴データを検出する挙動データ解析部をさらに備える、請求項1記載の情報処理装置。
  5. 再生されたコンテンツデータに対するユーザの挙動を示す挙動データ、前記コンテンツデータと前記挙動データを同期させるための同期用データに基づき前記コンテンツデータ同期させる情報処理装置であって、
    前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
    前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
    前記情報処理装置は、
    前記同期用データに基づいて、前記撮像データを前記コンテンツデータに合成する合成部と、
    前記同期用データに基づいて、前記コンテンツデータを前記コンテンツ操作データに従って再生する再生部と、を備える、情報処理装置。
  6. 前記合成部は、前記挙動データが収音データである場合に、前記同期用データに基づき、前記コンテンツデータに前記収音データを合成する、請求項記載の情報処理装置。
  7. 前記情報処理装置は、
    取得されたコンテンツデータの解析結果に示される前記コンテンツデータを構成するフレームの主要領域に基づき、前記撮像データを合成する位置を決定する合成位置決定部をさらに備える、請求項記載の情報処理装置。
  8. 前記情報処理装置は、
    取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、キャラクタ画像を生成するキャラクタ生成部をさらに備え、
    前記合成部は、前記キャラクタ生成部により生成されたキャラクタ画像を前記コンテンツデータに合成する、請求項記載の情報処理装置。
  9. 前記合成部は、取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、所定の撮像データを前記コンテンツデータに合成する、請求項記載の情報処理装置。
  10. コンテンツデータを再生する再生部と、
    前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、
    前記ユーザの前記挙動と、前記コンテンツデータ同期させるための同期用データを生成する同期用データ生成部と、
    を備え、
    前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
    前記同期用データ生成部は、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けて、前記同期用データを生成し、
    さらに、
    前記同期用データに基づいて、前記撮像データを前記コンテンツデータに合成する合成部と、
    前記同期用データに基づいて、前記コンテンツデータを前記コンテンツ操作データに従って再生する再生部と、を備える、情報処理装置。
  11. コンテンツデータを再生するステップと、
    前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得するステップと、
    前記ユーザの前記挙動と、前記コンテンツデータ同期させるための同期用データを生成するステップと、
    前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させるステップと、
    を含み、
    前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
    前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
    前記同期させるステップは、前記同期用データに基づいて前記撮像データを前記コンテンツデータに合成するステップと、前記同期用データに基づいて前記コンテンツデータを前記コンテンツ操作データに従って再生するステップと、を含む、同期方法。
  12. コンテンツデータを再生する処理と、
    前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得する処理と、
    前記ユーザの前記挙動と、前記コンテンツデータ同期させるための同期用データを生成する処理と、
    前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させる処理と、
    をコンピュータに実行させ、
    前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
    前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
    さらに、
    前記同期させる処理として、前記同期用データに基づいて前記撮像データを前記コンテンツデータに合成する処理と、前記同期用データに基づいて前記コンテンツデータを前記コンテンツ操作データに従って再生する処理と、を前記コンピュータに実行させる、プログラム。

JP2010232171A 2010-10-15 2010-10-15 情報処理装置、同期方法およびプログラム Active JP5724283B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010232171A JP5724283B2 (ja) 2010-10-15 2010-10-15 情報処理装置、同期方法およびプログラム
US13/248,584 US8958686B2 (en) 2010-10-15 2011-09-29 Information processing device, synchronization method, and program
CN201110315509.1A CN102547197B (zh) 2010-10-15 2011-10-08 信息处理设备、同步方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232171A JP5724283B2 (ja) 2010-10-15 2010-10-15 情報処理装置、同期方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012089909A JP2012089909A (ja) 2012-05-10
JP5724283B2 true JP5724283B2 (ja) 2015-05-27

Family

ID=45934239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232171A Active JP5724283B2 (ja) 2010-10-15 2010-10-15 情報処理装置、同期方法およびプログラム

Country Status (3)

Country Link
US (1) US8958686B2 (ja)
JP (1) JP5724283B2 (ja)
CN (1) CN102547197B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110248822A1 (en) * 2010-04-09 2011-10-13 Jc Ip Llc Systems and apparatuses and methods to adaptively control controllable systems
US9571879B2 (en) * 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
JP6299604B2 (ja) * 2012-11-09 2018-03-28 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2015012544A (ja) * 2013-07-01 2015-01-19 キヤノン株式会社 画像処理装置及び画像処理方法
JP6357922B2 (ja) * 2014-06-30 2018-07-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN105227891A (zh) * 2015-10-23 2016-01-06 小米科技有限责任公司 一种视频通话方法及装置
JP6163680B1 (ja) * 2016-10-27 2017-07-19 エヴィクサー株式会社 コンテンツ再生プログラム及びコンテンツ再生装置
JP6751357B2 (ja) * 2017-01-13 2020-09-02 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP6963198B2 (ja) * 2017-01-13 2021-11-05 株式会社ミクシィ 情報処理装置、情報処理方法及びプログラム
JP6718387B2 (ja) * 2017-01-13 2020-07-08 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP7306162B2 (ja) * 2019-08-28 2023-07-11 大日本印刷株式会社 サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム
JP7064159B1 (ja) * 2021-03-31 2022-05-10 株式会社エクサウィザーズ 情報処理方法、プログラム、及び情報処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354406A (ja) * 2001-05-23 2002-12-06 Fujitsu Ltd 動画像再生装置
JP3654349B2 (ja) * 2001-07-09 2005-06-02 ソニー株式会社 コンテンツ嗜好度算出方法およびコンテンツ受信装置
JP2004046641A (ja) * 2002-07-12 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 顔3次元コンピュータグラフィックスデフォルメアバタ分散型生成方法及びユーザ端末及び顔3次元コンピュータグラフィックスデフォルメアバタ分散型生成プログラム
JP4716083B2 (ja) * 2004-07-27 2011-07-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP2006074622A (ja) * 2004-09-03 2006-03-16 Fuji Photo Film Co Ltd 映像コンテンツ再生装置
JP2007036874A (ja) * 2005-07-28 2007-02-08 Univ Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2007097047A (ja) * 2005-09-30 2007-04-12 Seiko Epson Corp コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム
JP4548297B2 (ja) * 2005-10-05 2010-09-22 株式会社日立製作所 情報処理装置及び情報処理方法
JP2008027860A (ja) 2006-07-25 2008-02-07 Matsushita Electric Works Ltd 光電変換素子
CN101523911B (zh) * 2006-10-31 2013-08-28 Tivo有限公司 用于将辅助节目数据下载到dvr的方法和装置
WO2008111308A1 (ja) * 2007-03-12 2008-09-18 Panasonic Corporation コンテンツ撮影装置
JP2008234431A (ja) * 2007-03-22 2008-10-02 Toshiba Corp コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム
JP4538756B2 (ja) * 2007-12-03 2010-09-08 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP2009134670A (ja) * 2007-12-03 2009-06-18 Sony Corp 情報処理端末、情報処理方法、およびプログラム
JP5043711B2 (ja) * 2008-02-15 2012-10-10 キヤノン株式会社 ビデオ評価装置及び方法
CN103379300B (zh) * 2008-08-22 2017-03-01 索尼公司 图像显示设备、控制方法
US9612995B2 (en) * 2008-09-17 2017-04-04 Adobe Systems Incorporated Video viewer targeting based on preference similarity

Also Published As

Publication number Publication date
JP2012089909A (ja) 2012-05-10
US20120093486A1 (en) 2012-04-19
US8958686B2 (en) 2015-02-17
CN102547197A (zh) 2012-07-04
CN102547197B (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
JP5724283B2 (ja) 情報処理装置、同期方法およびプログラム
US11962741B2 (en) Methods and system for generating and displaying 3D videos in a virtual, augmented, or mixed reality environment
US6556775B1 (en) Image and sound reproduction system
US9529566B2 (en) Interactive content creation
US9143721B2 (en) Content preparation systems and methods for interactive video systems
JP5370170B2 (ja) 要約映像生成装置および要約映像生成方法
CN103686450A (zh) 视频处理方法及系统
JPWO2017094527A1 (ja) 動画生成システムおよび動画表示システム
JP2006041886A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
WO2012166072A1 (en) Apparatus, systems and methods for enhanced viewing experience using an avatar
WO2009157152A1 (ja) 合成装置および合成方法
CN114025103A (zh) 视频制作方法及装置
CN114419285A (zh) 应用于复合型剧场的虚拟人物表演控制方法和系统
JP5551403B2 (ja) 動画作成装置、コンピュータプログラム及び記憶媒体
JP2010034918A (ja) 動画像再生装置
WO2021059770A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
Hu Impact of VR virtual reality technology on traditional video advertising production
JP4539884B2 (ja) 再生装置、プログラム及び電子画面を構築する方法
KR20070098364A (ko) 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법
JP2003348388A (ja) 3dコマーシャルビデオ制作システム
JP5607332B2 (ja) 動画再生装置、及びコンピュータプログラム
KR101530281B1 (ko) 사용자 감정 기반의 극적 영상 기록 장치 및 방법
WO2018168508A1 (ja) 記録装置、記録方法、再生装置、再生方法および記録再生装置
JP2005086344A (ja) 動画像管理方法および装置
JP2011082714A (ja) 動画作成装置、コンピュータプログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R151 Written notification of patent or utility model registration

Ref document number: 5724283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250