JP5724283B2 - 情報処理装置、同期方法およびプログラム - Google Patents
情報処理装置、同期方法およびプログラム Download PDFInfo
- Publication number
- JP5724283B2 JP5724283B2 JP2010232171A JP2010232171A JP5724283B2 JP 5724283 B2 JP5724283 B2 JP 5724283B2 JP 2010232171 A JP2010232171 A JP 2010232171A JP 2010232171 A JP2010232171 A JP 2010232171A JP 5724283 B2 JP5724283 B2 JP 5724283B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- user
- behavior
- synchronization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
- H04N21/4325—Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Description
1.第1の実施の形態
(1−1)コンテンツ同期再生システムの概要説明
(1−2)データ生成装置
(1−3)データ合成装置
2.第2の実施の形態(ユーザ特徴解析)
(2−1)データ生成装置
(2−2)データ合成装置
3.第3の実施の形態(直列に合成)
4.第4の実施の形態(並列に合成)
5.情報処理装置のハードウェア構成
6.まとめ
[1−1.コンテンツ同期再生システムの概要説明]
まず、図1から図4を参照して、本発明の第1の実施形態に係るデータ生成装置20およびデータ合成装置50を用いたコンテンツ同期再生システムの概要について説明する。なお、本明細書において挙動データとは、ユーザの様子(反応)やコンテンツに対する操作などの視聴状態を示すデータを広く含む。本実施形態では、挙動データの一例として、ユーザを被写体としたカメラ映像データおよびユーザのコンテンツ操作を示すコンテンツ操作データを用いる。
コンテンツデータを再生し、視聴中のユーザを被写体としたカメラ映像データやユーザによるコンテンツ操作を示すコンテンツ操作データといった挙動データを取得し、かかる挙動データをコンテンツデータと同期させるための同期用データを生成するデータ生成装置20について図1を参照して説明する。
次に、他のユーザが上記コンテンツデータを視聴する場合に、上記データ生成装置20が取得した最初のユーザのカメラ映像データやコンテンツ操作データ等の挙動データを、コンテンツデータと同期させるデータ合成装置50について図2を参照して説明する。最初のユーザ(第1のユーザ)の挙動データをコンテンツデータと同期させることで、他のユーザ(第2のユーザ)は、コンテンツデータに加えて、第1のユーザの視聴状態も視聴し楽しむことが出来る。
上記データ生成装置20およびデータ合成装置50を用いたコンテンツ同期再生システムの適用例について説明する。例えば、図1に示すように第1のユーザが父、母、子の家族の場合に、ハンディカムに録画した幼稚園の運動会の映像(コンテンツデータ)をデータ生成装置20により再生し、この際、データ生成装置20は、視聴する第1のユーザを被写体としたカメラ映像データをカメラ41から取得する。次に、運動会の映像とカメラ41で撮像したカメラ映像データを、第2のユーザである祖父母に送る。祖父母側では、図2に示すように、データ合成装置50により運動会の映像と息子家族が視聴している様子が映ったカメラ映像データが同期して再生される。これにより、祖父母は孫の運動会の映像を楽しみつつ、息子家族がこの運動会の映像を見てどのような様子であったかも楽しむことが出来る。
次に、上記説明したコンテンツ同期再生システムの動作処理について図4を参照して説明する。図4に示すように、データ生成装置20は、カメラ41による撮像を開始し、コンテンツを視聴するユーザを撮像する(S102)。次いで表示装置40にコンテンツを再生する(S104)。次いで同期用のデータであるメタデータを生成する(S106)。メタデータについては、図5、図7および図8を用いて後述する。
(構成)
次に、図5を参照して本実施形態に係るデータ生成装置20−1の構成について説明する。図5に示すように、データ生成装置20−1は、カメラ映像データ取得部21、カメラ映像データDB(Data Base)22、コンテンツ再生部23、操作信号I/F(Interface)24、メタデータ生成部25、コンテンツ操作ログDB26、コンテンツ解析部27、およびコンテンツ解析結果DB28、を備える。以下、各構成について説明する。
次に、コンテンツ操作データと、コンテンツデータ中でユーザがコンテンツ操作を行なったデータ位置とを同期させる同期用データであるコンテンツ操作ログについて図7および図8を用いて説明する。本実施形態では、一例として、ユーザがコンテンツ操作を行なったデータ位置を、撮像開始時刻を基準とした時系列にコンテンツ操作データと対応付けて生成するが、同期の基準はこれに限られない。例えば、再生開始時刻を基準として時系列に対応付けてもよいし、コンテンツデータを構成する各区分の識別情報と対応付けてもよい。各区分の識別情報とは、例えばコンテンツデータが動画である場合は、各フレーム番号に相当する。
(構成)
次に、図9を参照して、本実施形態に係るデータ合成装置50−1の構成について説明する。図9に示すように、データ合成装置50−1は、コンテンツデータDB51、操作信号入力I/F52、コンテンツ再生部53、コンテンツ操作ログDB54、合成位置決定部55、コンテンツ解析結果DB56、合成部57、カメラ映像データDB58、およびカメラ映像データ取得部59を備える。
次に、図10を用いて、データ合成装置50−1で合成されるコンテンツ(以下、合成コンテンツとも称す)について説明する。
次に、本発明の第2の実施形態に係るコンテンツ同期再生システムについて説明する。上述した第1の実施の形態では、データ合成装置50−1において、コンテンツ再生開始時刻に対応するカメラ映像データからコンテンツ再生終了時刻に対応するカメラ映像データまで全て常に合成する。しかし、本発明の実施形態に係る合成方法はこれに限られず、カメラ映像データのうち特徴的なフレームを合成してもよい。例えば、本実施形態では、ユーザの挙動を示すカメラ映像データを解析して生成したユーザ特徴ログに基づいて、カメラ映像データのうち第1のユーザが特徴的な反応を示した場面のみをコンテンツデータに合成する。また、データ生成装置20−2でカメラ映像データを解析して生成されたユーザ特徴ログを用いてデータ合成装置50−2でキャラクタを生成し、カメラ映像データの代わりにコンテンツデータに合成してもよい。
(構成)
まず、図13を参照して、本実施形態に係るデータ生成装置20−2の構成について説明する。図13に示すように、データ生成装置20−2は、カメラ映像データ取得部21、カメラ映像データDB22、コンテンツ再生部23、操作信号I/F24、メタデータ生成部25、コンテンツ操作ログDB26、コンテンツ解析部27、コンテンツ解析結果DB28、ユーザ特徴解析部30、およびユーザ特徴ログDB31を備える。以下、データ生成装置20−2の各構成について説明するが、上記第1の実施形態に係るデータ生成装置20−1の構成と重複するものについては説明を省略する。
次に、ユーザ特徴ログと時間軸との対応付けについて図14を参照して説明する。図14に示すように、本実施形態では、カメラ41による撮像開始時刻を基準とした時系列に対応付けて、ユーザ特徴ログを生成する。
次に、キャラクタ生成に用いる表情パラメータを生成する場合のユーザ特徴解析部30の構成の一例について図16を参照して説明する。図16に示すように、ユーザ特徴解析部30は、顔認識部310および表情パラメータ生成部320を備える。顔認識部310は、顔検出部311、パーツ検出部312、属性判別部313および詳細パーツ検出部314を備え、カメラ映像データに対して顔認識処理を行なう。表情パラメータ生成部320は、顔向きパラメータ算出部321、顔位置パラメータ算出部322、笑顔パラメータ算出部323、目閉率パラメータ算出部324および口開率パラメータ算出部325を備え、後述するデータ合成装置50−2でキャラクタが生成される際の制御データとなる各種のパラメータを生成する。
(構成)
次に、図17を参照して、本実施形態に係るデータ合成装置50−2の構成について説明する。図17に示すように、データ合成装置50−2は、コンテンツデータDB51、操作信号入力I/F52、コンテンツ再生部53、コンテンツ操作ログDB54、合成位置決定部55、コンテンツ解析結果DB56、合成部57、カメラ映像データDB58、カメラ映像データ取得部59、ユーザ特徴ログDB60およびキャラクタ生成部61を備える。以下、データ合成装置50−2の各構成について説明するが、上記第1の実施形態に係るデータ合成装置50−1の構成と重複するものについては省略する。
部61の詳細については図18を参照して後述する。
次に、キャラクタ生成部61の構成の一例を、図18を参照して説明する。図18に示すように、キャラクタ生成部61は、モデル選択部610、三次元データ管理部620、シェーダ管理部630およびレンダリング部640を備える。なお、本実施形態に係るキャラクタ生成部61は、キャラクタの一例としてアバタを生成する。
一方、カメラ映像データ取得部59により、カメラ映像データDBから、第1のユーザのユーザ特徴ログに基づいて、第1のユーザが笑顔の場合等、特徴的な反応を示した箇所のカメラ映像データのみを取得し、合成部57に送ってもよい。特徴的な反応とは、笑顔やユーザの手振り身振りがあった場合の他、これらと音声データから算出される盛り上がり度が一定値以上の場合を特徴的な反応と判断してもよい。
次に、本発明の第3の実施の形態に係るコンテンツ同期再生システムについて説明する。本実施形態では、最初に視聴したユーザのカメラ映像データ等が合成されたコンテンツを視聴した次のユーザのカメラ映像データもさらに合成する。
まず、図20に示すように、データ生成装置20が、記録媒体11に格納されたコンテンツデータを再生し、表示装置40に表示する。そして、データ生成装置20は、カメラ41から第1のユーザX(祖父と祖母)を被写体とするカメラ映像データを取得する。また、データ生成装置20は、ユーザがリモートコントローラ42を用いて行なったコンテンツ操作のデータを取得する。このように、本実施形態に係るデータ生成装置20が行なう処理は、上記第1および第2の実施形態に係るデータ生成装置の処理と同様である。
次に、図21に示すように、第1のユーザのカメラ映像データ等が格納された記録媒体12から各データを取得したデータ生成/合成装置80は、上記第1および第2実施形態に係るデータ合成装置50と同様に、コンテンツデータをユーザXのコンテンツ操作ログに従って再生し、ユーザXのカメラ映像x401をコンテンツデータと時刻同期させて合成する。
以上説明したデータ生成/合成装置80から、ユーザYのコンテンツ操作ログ、カメラ映像yおよび合成コンテンツxが記録媒体13に格納され、これらのデータに基づき、さらにユーザYのコンテンツ操作ログやカメラ映像yが合成されたコンテンツが生成される。例えば、図24に示すように、コンテンツデータにユーザXのカメラ映像x401とユーザYのカメラ映像y402が合成された合成コンテンツデータ410が生成される。
次に、本発明の第4の実施の形態に係るコンテンツ同期再生システムについて説明する。本実施形態は、同じコンテンツを複数の視聴ユーザが別々に視聴し、コンテンツの早送り、巻き戻し、スキップ等の操作が行なわれなかったもの同士であれば、コンテンツデータと、各ユーザを写したカメラ映像データを同期させて合成することが出来る。
次に、上述した一連の処理をプログラムにより実行するデータ生成装置20、データ合成装置50等の情報処理装置90のハードウェアの構成例について図26を参照して説明する。
Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力部907は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
Disk Drive)で構成される。この記憶部908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。また、この記憶部908には、コンテンツデータ、カメラ映像データ、メタデータ、およびコンテンツ解析結果などが記録される。
Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。この通信装置112は、外部機器との間で、通信網912を介して、コンテンツデータ等の各種データを送受信する。
以上説明したように、本発明の実施形態にかかるデータ生成装置20およびデータ合成装置50によれば、コンテンツを視聴したユーザの様子や反応をコンテンツに加えることができるため、コンテンツを何度も楽しむことができ、コンテンツに新たな付加価値が生じる。
21 カメラ映像データ取得部
22 カメラ映像データDB
23 コンテンツ再生部
24 操作信号I/F
25 メタデータ生成部
26 コンテンツ操作ログDB
27 コンテンツ解析部
28 コンテンツ解析結果DB
30 ユーザ特徴解析部
31 ユーザ特徴ログDB
40 表示装置
41 カメラ
42 リモートコントローラ
50、50−1、50−2 データ合成装置
51 コンテンツデータDB
52 操作信号入力I/F
53 コンテンツ再生部
54 コンテンツ操作ログDB
55 合成位置決定部
56 コンテンツ解析結果DB
57 合成部
58 カメラ映像データDB
59 カメラ映像データ取得部
60 ユーザ特徴ログDB
61 キャラクタ生成部
Claims (12)
- コンテンツデータを再生する再生部と、
前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、
前記ユーザの前記挙動と、前記コンテンツデータを同期させるための同期用データを生成する同期用データ生成部と、
を備え、
前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
前記同期用データ生成部は、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けて、前記同期用データを生成する、情報処理装置。 - 前記取得部は、前記挙動データとして、さらに収音データを取得する、請求項1記載の情報処理装置。
- 前記情報処理装置は、
前記コンテンツデータを解析し、前記コンテンツデータを構成するフレーム中の主要領域を検出するコンテンツデータ解析部をさらに備える、請求項1記載の情報処理装置。 - 前記情報処理装置は、
前記挙動データを解析し、前記ユーザの特徴データを検出する挙動データ解析部をさらに備える、請求項1記載の情報処理装置。 - 再生されたコンテンツデータに対するユーザの挙動を示す挙動データを、前記コンテンツデータと前記挙動データを同期させるための同期用データに基づき、前記コンテンツデータに同期させる情報処理装置であって、
前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
前記情報処理装置は、
前記同期用データに基づいて、前記撮像データを前記コンテンツデータに合成する合成部と、
前記同期用データに基づいて、前記コンテンツデータを前記コンテンツ操作データに従って再生する再生部と、を備える、情報処理装置。 - 前記合成部は、前記挙動データが収音データである場合に、前記同期用データに基づき、前記コンテンツデータに前記収音データを合成する、請求項5記載の情報処理装置。
- 前記情報処理装置は、
取得されたコンテンツデータの解析結果に示される前記コンテンツデータを構成するフレームの主要領域に基づき、前記撮像データを合成する位置を決定する合成位置決定部をさらに備える、請求項5記載の情報処理装置。 - 前記情報処理装置は、
取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、キャラクタ画像を生成するキャラクタ生成部をさらに備え、
前記合成部は、前記キャラクタ生成部により生成されたキャラクタ画像を前記コンテンツデータに合成する、請求項5記載の情報処理装置。 - 前記合成部は、取得された撮像データの解析結果に示される前記ユーザの特徴データに基づき、所定の撮像データを前記コンテンツデータに合成する、請求項5記載の情報処理装置。
- コンテンツデータを再生する再生部と、
前記再生部により再生するコンテンツデータに対するユーザの挙動を示す挙動データを取得する取得部と、
前記ユーザの前記挙動と、前記コンテンツデータを同期させるための同期用データを生成する同期用データ生成部と、
を備え、
前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
前記同期用データ生成部は、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けて、前記同期用データを生成し、
さらに、
前記同期用データに基づいて、前記撮像データを前記コンテンツデータに合成する合成部と、
前記同期用データに基づいて、前記コンテンツデータを前記コンテンツ操作データに従って再生する再生部と、を備える、情報処理装置。 - コンテンツデータを再生するステップと、
前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得するステップと、
前記ユーザの前記挙動と、前記コンテンツデータを同期させるための同期用データを生成するステップと、
前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させるステップと、
を含み、
前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
前記同期させるステップは、前記同期用データに基づいて前記撮像データを前記コンテンツデータに合成するステップと、前記同期用データに基づいて前記コンテンツデータを前記コンテンツ操作データに従って再生するステップと、を含む、同期方法。 - コンテンツデータを再生する処理と、
前記再生されるコンテンツデータに対するユーザの挙動を示す挙動データを取得する処理と、
前記ユーザの前記挙動と、前記コンテンツデータを同期させるための同期用データを生成する処理と、
前記挙動データと前記同期用データに基づき、前記挙動と前記コンテンツデータとを同期させる処理と、
をコンピュータに実行させ、
前記挙動データは、前記ユーザを撮像した撮像データと、前記コンテンツデータに対するユーザによる操作を示すコンテンツ操作データであって、
前記同期用データは、前記撮像データの撮像時間の時系列に、前記コンテンツ操作データおよび前記コンテンツデータを構成する各区分の識別情報を対応付けたものであって、
さらに、
前記同期させる処理として、前記同期用データに基づいて前記撮像データを前記コンテンツデータに合成する処理と、前記同期用データに基づいて前記コンテンツデータを前記コンテンツ操作データに従って再生する処理と、を前記コンピュータに実行させる、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010232171A JP5724283B2 (ja) | 2010-10-15 | 2010-10-15 | 情報処理装置、同期方法およびプログラム |
US13/248,584 US8958686B2 (en) | 2010-10-15 | 2011-09-29 | Information processing device, synchronization method, and program |
CN201110315509.1A CN102547197B (zh) | 2010-10-15 | 2011-10-08 | 信息处理设备、同步方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010232171A JP5724283B2 (ja) | 2010-10-15 | 2010-10-15 | 情報処理装置、同期方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012089909A JP2012089909A (ja) | 2012-05-10 |
JP5724283B2 true JP5724283B2 (ja) | 2015-05-27 |
Family
ID=45934239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010232171A Active JP5724283B2 (ja) | 2010-10-15 | 2010-10-15 | 情報処理装置、同期方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8958686B2 (ja) |
JP (1) | JP5724283B2 (ja) |
CN (1) | CN102547197B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110248822A1 (en) * | 2010-04-09 | 2011-10-13 | Jc Ip Llc | Systems and apparatuses and methods to adaptively control controllable systems |
US9571879B2 (en) * | 2012-01-10 | 2017-02-14 | Microsoft Technology Licensing, Llc | Consumption of content with reactions of an individual |
JP6299604B2 (ja) * | 2012-11-09 | 2018-03-28 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP2015012544A (ja) * | 2013-07-01 | 2015-01-19 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP6357922B2 (ja) * | 2014-06-30 | 2018-07-18 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN105227891A (zh) * | 2015-10-23 | 2016-01-06 | 小米科技有限责任公司 | 一种视频通话方法及装置 |
JP6163680B1 (ja) * | 2016-10-27 | 2017-07-19 | エヴィクサー株式会社 | コンテンツ再生プログラム及びコンテンツ再生装置 |
JP6751357B2 (ja) * | 2017-01-13 | 2020-09-02 | 株式会社ミクシィ | 情報処理装置、情報処理方法、及びプログラム |
JP6963198B2 (ja) * | 2017-01-13 | 2021-11-05 | 株式会社ミクシィ | 情報処理装置、情報処理方法及びプログラム |
JP6718387B2 (ja) * | 2017-01-13 | 2020-07-08 | 株式会社ミクシィ | 情報処理装置、情報処理方法、及びプログラム |
JP7306162B2 (ja) * | 2019-08-28 | 2023-07-11 | 大日本印刷株式会社 | サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム |
JP7064159B1 (ja) * | 2021-03-31 | 2022-05-10 | 株式会社エクサウィザーズ | 情報処理方法、プログラム、及び情報処理装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002354406A (ja) * | 2001-05-23 | 2002-12-06 | Fujitsu Ltd | 動画像再生装置 |
JP3654349B2 (ja) * | 2001-07-09 | 2005-06-02 | ソニー株式会社 | コンテンツ嗜好度算出方法およびコンテンツ受信装置 |
JP2004046641A (ja) * | 2002-07-12 | 2004-02-12 | Nippon Telegr & Teleph Corp <Ntt> | 顔3次元コンピュータグラフィックスデフォルメアバタ分散型生成方法及びユーザ端末及び顔3次元コンピュータグラフィックスデフォルメアバタ分散型生成プログラム |
JP4716083B2 (ja) * | 2004-07-27 | 2011-07-06 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2006074622A (ja) * | 2004-09-03 | 2006-03-16 | Fuji Photo Film Co Ltd | 映像コンテンツ再生装置 |
JP2007036874A (ja) * | 2005-07-28 | 2007-02-08 | Univ Of Tokyo | 視聴者情報測定システム及びこれを用いたマッチングシステム |
JP2007097047A (ja) * | 2005-09-30 | 2007-04-12 | Seiko Epson Corp | コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム |
JP4548297B2 (ja) * | 2005-10-05 | 2010-09-22 | 株式会社日立製作所 | 情報処理装置及び情報処理方法 |
JP2008027860A (ja) | 2006-07-25 | 2008-02-07 | Matsushita Electric Works Ltd | 光電変換素子 |
CN101523911B (zh) * | 2006-10-31 | 2013-08-28 | Tivo有限公司 | 用于将辅助节目数据下载到dvr的方法和装置 |
WO2008111308A1 (ja) * | 2007-03-12 | 2008-09-18 | Panasonic Corporation | コンテンツ撮影装置 |
JP2008234431A (ja) * | 2007-03-22 | 2008-10-02 | Toshiba Corp | コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム |
JP4538756B2 (ja) * | 2007-12-03 | 2010-09-08 | ソニー株式会社 | 情報処理装置、情報処理端末、情報処理方法、およびプログラム |
JP2009134670A (ja) * | 2007-12-03 | 2009-06-18 | Sony Corp | 情報処理端末、情報処理方法、およびプログラム |
JP5043711B2 (ja) * | 2008-02-15 | 2012-10-10 | キヤノン株式会社 | ビデオ評価装置及び方法 |
CN103379300B (zh) * | 2008-08-22 | 2017-03-01 | 索尼公司 | 图像显示设备、控制方法 |
US9612995B2 (en) * | 2008-09-17 | 2017-04-04 | Adobe Systems Incorporated | Video viewer targeting based on preference similarity |
-
2010
- 2010-10-15 JP JP2010232171A patent/JP5724283B2/ja active Active
-
2011
- 2011-09-29 US US13/248,584 patent/US8958686B2/en active Active
- 2011-10-08 CN CN201110315509.1A patent/CN102547197B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012089909A (ja) | 2012-05-10 |
US20120093486A1 (en) | 2012-04-19 |
US8958686B2 (en) | 2015-02-17 |
CN102547197A (zh) | 2012-07-04 |
CN102547197B (zh) | 2016-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5724283B2 (ja) | 情報処理装置、同期方法およびプログラム | |
US11962741B2 (en) | Methods and system for generating and displaying 3D videos in a virtual, augmented, or mixed reality environment | |
US6556775B1 (en) | Image and sound reproduction system | |
US9529566B2 (en) | Interactive content creation | |
US9143721B2 (en) | Content preparation systems and methods for interactive video systems | |
JP5370170B2 (ja) | 要約映像生成装置および要約映像生成方法 | |
CN103686450A (zh) | 视频处理方法及系统 | |
JPWO2017094527A1 (ja) | 動画生成システムおよび動画表示システム | |
JP2006041886A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
WO2012166072A1 (en) | Apparatus, systems and methods for enhanced viewing experience using an avatar | |
WO2009157152A1 (ja) | 合成装置および合成方法 | |
CN114025103A (zh) | 视频制作方法及装置 | |
CN114419285A (zh) | 应用于复合型剧场的虚拟人物表演控制方法和系统 | |
JP5551403B2 (ja) | 動画作成装置、コンピュータプログラム及び記憶媒体 | |
JP2010034918A (ja) | 動画像再生装置 | |
WO2021059770A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
Hu | Impact of VR virtual reality technology on traditional video advertising production | |
JP4539884B2 (ja) | 再生装置、プログラム及び電子画面を構築する方法 | |
KR20070098364A (ko) | 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법 | |
JP2003348388A (ja) | 3dコマーシャルビデオ制作システム | |
JP5607332B2 (ja) | 動画再生装置、及びコンピュータプログラム | |
KR101530281B1 (ko) | 사용자 감정 기반의 극적 영상 기록 장치 및 방법 | |
WO2018168508A1 (ja) | 記録装置、記録方法、再生装置、再生方法および記録再生装置 | |
JP2005086344A (ja) | 動画像管理方法および装置 | |
JP2011082714A (ja) | 動画作成装置、コンピュータプログラム及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140722 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5724283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |