JP5333229B2 - 再生装置及び再生方法、並びにコンピュータ・プログラム - Google Patents

再生装置及び再生方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP5333229B2
JP5333229B2 JP2009538186A JP2009538186A JP5333229B2 JP 5333229 B2 JP5333229 B2 JP 5333229B2 JP 2009538186 A JP2009538186 A JP 2009538186A JP 2009538186 A JP2009538186 A JP 2009538186A JP 5333229 B2 JP5333229 B2 JP 5333229B2
Authority
JP
Japan
Prior art keywords
face
center position
video
screen
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009538186A
Other languages
English (en)
Other versions
JPWO2009054333A1 (ja
Inventor
俊二 岡田
憲一郎 有留
幸雄 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009538186A priority Critical patent/JP5333229B2/ja
Publication of JPWO2009054333A1 publication Critical patent/JPWO2009054333A1/ja
Application granted granted Critical
Publication of JP5333229B2 publication Critical patent/JP5333229B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Description

本発明は、デジタルビデオカメラなどの映像を記録媒体に記録する映像再生装置及び映像再生方法に係り、特に、例えば個人レベルで撮影した映像を映像揺れなどの悪影響を防ぎながら再生する映像再生装置及び映像再生方法に関する。
さらに詳しくは、本発明は、撮影した映像に含まれる横揺れを抑制しながら再生して、視聴者が船酔いに似た症状を起こすのを防ぐ映像再生装置及び映像再生方法に係り、特に、撮影記録時の顔検出位置情報を使って、映像再生時に顔の横揺れを抑制する映像再生装置及び映像再生方法に関する。
最近、フィルムや感光板を使って撮影する銀塩カメラに代わって、画像をデジタル符号化処理して保存するデジタルカメラが後半に普及している。この種のデジタルカメラは、光電変換及び蓄積を行なう画素配列の受光部をフォトダイオードにより構成した固体撮像素子で画像をキャプチャする。固体撮像素子として、例えばCCD(Charge Coupled Device:電荷結合素子)やCMOS(Comprementary Metal Oxide Semiconductor:相補型金属酸化物半導体)などを挙げることができる。
デジタルカメラで撮影された画像は、例えばMPEG(Moving Picture Experts Group)などの所定の符号化フォーマットで符号化された後、記録媒体に記録される。また、このような記録画像は、復号して再生出力することができる。例えば、デジタルカメラに備え付けられたLCD(Liquid Crystal Display)などの表示装置を通じて再生したり、さらには記録媒体を撮影装置から取り出し、他の再生装置に装填して表示再生したりすることができる。あるいは、昨今のネットワーク技術の発達に伴い、デジタルカメラをパーソナル・コンピュータやその他の情報機器に接続して、記録媒体の入れ替え操作を行なうこともなく、記録媒体から読み出した画像をデータ転送して表示再生することができる。
ところで、撮影技術の未熟な個人が、操作不慣れで(例えば、大きな手ぶれ)によってカメラを激しく動かせしてしまうことがよくあり、動画像の撮影時には映像揺れとなって記録されてしまう。勿論、多くのデジタルカメラには、光学レンズで補正する機械式手振れ補正手段や、イメージ・センサ上での画像処理で補正する電子式手振れ補正手段といった、手振れ補正機能が搭載されている。しかしながら、大きな揺れの補正は除去が不可能であり、撮影映像全体が大きく揺れてしまう。
揺れを含んだ映像を視聴すると、映像酔いをもたらす危険をはらんでいる。映像揺れを横揺れと縦揺れに分類するならば、横揺れは船酔いに似た現象である。最近では一般家庭にも大画面テレビが普及しているが、とりわけ大画面で揺れる映像を見たときには、視聴者は映像揺れにより映像酔いが起こり易い。揺れが特に酷い場合には、吐き気や頭痛といった人体への影響が生じるため、映像の安全性にも係わる問題である。
放送制作現場では、このような映像酔いなどに対応するための映像作成マニュアルが準備されている。すなわち、放送局などでの事前にコントロールされた映像コンテンツの場合、放送システムとして送信側と受信側で、悪影響映像を示すメタ情報を介して映像信号を制御することによって、悪影響を防ぐ仕組みが提案されている。これに対して、個人レベルで撮影した映像の規制は難しく、個人で撮影した映像を再生出力した際に映像酔いをもたらす危険をはらんでいる。
例えば、撮像された動画像を符号化して記録する際には、撮像された動画像の大きな揺れを検出して大きな揺れに対応した動画像の再生時における揺れを低減するように制御するための再生制御情報を付加しておき、動画像を再生する際には再生制御情報に基づいて再生を制御する撮像記録再生装置について提案がなされている(例えば、特許文献1を参照のこと)。ところが、当該撮像記録再生装置は、大きな揺れは停止し静止へと変更されるため映像酔いは事前に防止するものであるが、動画像再生時に再生画面から映像揺れ自体を補正するものではない。
また、動画データの記録時には、現在のフレームと1つ前のフレームとの画像のずれ量(ずれ方向を含む)を公知の画像処理によって検出し、このずれ量を手振れ情報として動画データのチャンクのサブヘッダに記録しておき、動画データの再生時には、あらかじめオリジナルの動画データの全エリアAよりも小さい手振れ補正用エリアBを設定しておき、オリジナルの動画データから手振れ補正用エリアB内の動画データを切り出して所定の画像サイズにリサイズする、動画記録装置並びに動画再生装置について提案がなされている(例えば、特許文献2を参照のこと)。このような動画記録装置並びに動画再生装置によれば、現在のフレームと1つ前のフレームとの画像のずれ量を手振れとして検出する場合、動画データから手振れを除去することはできても、顔の横揺れを十分に除去することはできないものと思料される。
特開2007−134822号公報 特開2004−248171号公報
本発明の目的は、例えば個人レベルで撮影した映像を映像揺れなどの悪影響を防ぎながら再生することができる、優れた映像再生装置及び映像再生方法を提供することにある。
本発明のさらなる目的は、撮影した映像に含まれる横揺れを抑制しながら再生して、視聴者が船酔いに似た症状を起こすのを防ぐことができる、優れた映像再生装置及び映像再生方法を提供することにある。
本発明は、上記課題を参酌してなされたものであり、所定の動画フォーマットにより付随する属性情報とともに記録媒体に記録された映像ストリームを再生する映像再生装置であって、前記記録媒体には、属性情報として映像ストリームから検出された顔の中心位置座標からなる顔検出位置情報が記録されており、
前記の記録された映像ストリームを前記属性情報とともに前記記録媒体から読み取る読み取り手段と、
前記の読み取られた映像ストリームを復号する復号手段と、
前記属性情報に含まれる顔検出位置情報に基づいて画面移動量を予測して、映像ストリームに含まれる顔揺れを補正する顔揺れ補正手段と、
前記の顔揺れを補正した後の映像ストリームを出力する出力手段と、
を具備することを特徴とする映像再生装置である。
例えば個人レベルで撮影した映像には操作の不慣れなどに起因して映像揺れが含まれることが多い。デジタルビデオカメラで撮影した映像を大画面テレビなどで再生する際、酷く揺れる映像を見たときには、映像揺れにより映像酔いが起こり易く、吐き気や頭痛といった人体への影響が生じるため、映像の安全性にも関わる問題である。手ぶれ補正機能では十分に除去できない大きな映像揺れがある場合に映像酔いを事前に防止する撮影記録再生装置について幾つか提案されているが、顔の横揺れに起因する映像酔いを防ぐ再生装置若しくは再生方法は存在しない。
これに対し、本発明によれば、顔検出技術を用いて映像に含まれる顔を検出し、顔の中心位置座標からなる顔検出位置情報を属性情報として、撮影した動画像とともに記録しておき、映像再生時には記録しておいた顔検出位置情報を使って顔の横揺れを補正するようにしている。この結果、ユーザが大画面テレビなどで再生映像を視聴する場合であっても、映像酔いを起こすのを防ぐことができる。
本発明に係る映像再生装置は、例えばMPEG形式に符号化して記録媒体上に記録されている映像データを再生する。MPEGフォーマットでは、複数フレーム分の画像を基に1つの画面を生成するので、GOPと呼ばれる複数のフレームからなるグループを単位として扱う(周知)。そして、撮影映像に含まれる被写体の検出顔の中心位置座標からなる顔検出位置情報が、GOPの属性情報として記録しておく。例えば、GOP毎に、0.5秒単位で、検出顔の中心位置座標からなる顔検出位置情報を属性情報としてストリームの属性情報部に記録しておく。
また、本発明に係る映像再生装置は、映像再生時に、属性情報として記録されている顔検出位置情報を先読みして、時間連続的に補間平均して、映像の再生顔揺れ補正の制御を行なうようにしている。このとき、再生画像を顔中心座標で拡大再生する。記録した映像が高画質(HD)画像であれば、少々拡大しても画質の劣化は目立たない。属性情報として記録した顔検出位置情報を再生時に読み取ることによって、時間的に長い先読みが実現される。したがって、時刻経過に伴う横座標位置変化データが長い期間分、読み取って処理することができるので、精度よい画面の顔の横揺れ補正が実現される。
再生開始時に、画像精細品位モードと画像アスペクト・モードを取得する。記録された顔検出位置情報が含まれる映像の再生時には、GOPストリームの顔中心位置座標データを含むGOP属性情報を一括読みにより多数のGOP分だけ読み取ると、フレーム再生表示時刻と顔中心位置座標の早見表(以下、「顔位置情報テーブル」とも呼ぶ)を、フィールド単位で作成する。そして、顔中心位置座標に対してGOP単位での欠落時間を補間して、フレーム単位での時間移動平均演算により、各フレームで画面内の顔検出中央位置の移動量を時間軸平均化演算する。
映像拡大処理を行なう際には、画面中心からオフセットした検出顔の中心位置座標を中心とした所定の拡大率により、再生画像の中心オフセット拡大処理をフレーム単位で施すことによって、再生映像の横揺れ補正を実現することができる。
なお、再生中の顔中心位置データの読み取り更新は、再生映像ストリームの再生ストリーム・バッファへの読み取り更新要求が発生するタイミングで、映像ストリームの一括読み取りの際に実施する。
また、顔検出位置情報の読み取り更新を行ない、フィールド単位で顔位置情報テーブルを生成することにより、GOP属性情報上の当該テーブルを使って顔検出の有無及び検出顔の中心位置座標の予測時間変化補正制御を精度よく滑らかに行なうことができる。
本発明によれば、例えば個人レベルで撮影した映像を映像揺れなどの悪影響を防ぎながら再生することができる、優れた映像再生装置及び映像再生方法を提供することができる。
また、本発明によれば、撮影した映像に含まれる横揺れを抑制しながら再生して、視聴者が船酔いに似た症状を起こすのを防ぐことができる、優れた映像再生装置及び映像再生方法を提供することができる。
また、本発明によれば、撮影記録時の顔検出位置情報を使って、映像再生時に顔の横揺れを好適に抑制することができる、優れた映像再生装置及び映像再生方法を提供することができる。
本発明によれば、符号化された映像音声ストリームのカメラ撮影記録再生時の属性情報と、ストリーム・データの先読み処理を活用することによって、顔揺れの正確な予測と顔の横揺れ補正により、再生映像の人物横揺れを効果的に防止することができる。例えば、デジタルカメラで撮影したような個人的な映像を再生する際の横揺れ防止を実現し、大画面テレビ上での視聴を快適にすることができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本発明の実施に供される撮影記録再生装置100の構成を模式的に示した図である。 図2Aは、UDFファイルシステムの一例(SDフォーマットの場合)を示した図である。 図2Bは、UDFファイルシステムの他の例(HDフォーマットの場合)を示した図である。 図3は、DVD Videoのデータ構造を示した図である。 図4Aは、人物の右シフト位置の画像拡大補正を行なう様子を示した図である。 図4Bは、人物の左シフト位置の画像拡大補正を行なう様子を示した図である。 図5Aは、目や口などの顔パーツのパターンと人の顔形分布の一致により顔中心位置座標を出力する様子を示した図である。 図5Bは、顔検出位置情報をストリームの属性情報として記録する様子を示した図である。 図6Aは、ディスクから再生し、VOBU(GOP)毎の属性情報を読み出す再生ストリーム制御を説明するための図である。 図6Bは、読み込んでリング・バッファに積まれた顔検出中心座標情報データ集合と、それに対応する各GOPの先頭位置に対応するPTSのリスト情報データを示した図である。 図7は、再生時の位置情報の読み取りシーケンスを説明するための図である。 図8Aは、再生顔座標から顔の横揺れ補正パラメータを変換する処理を説明するための図である。 図8Bは、再生顔座標から顔の横揺れ補正パラメータを変換する処理を説明するための図である。 図9Aは、ストリームのサーチのために、VOBU属性情報として保持しているサーチ情報がメディア上の位置アドレスを指す制御を説明するための図である。 図9Bは、データ・バッファに蓄積されたVOBUデータが再生で消費され、残り少なくなったときに次のRUVデータが読み取り蓄積される様子を示した図である。 図10は、顔中心位置座標からフレーム時刻経過での低周波横位置座標変化を取り出して補正する制御を説明するための図である。 図11Aは、顔中心位置座標のフィールド毎の補間計算方法を説明するための図である。 図11Bは、フィールド毎の移動量δλを格納するテーブルを示した図である。 図12は、映像ストリームの記録を行なう動作上で、ARIデータに顔検出中心情報を書き込む手順を示したシーケンス図である。 図13は、映像ストリームの再生を行なう動作上で、ARIデータから顔検出中心情報を読み出すための手順を示したシーケンス図である。 図14は、顔の横揺れ情報と縦揺れ情報の組み合わせにより再生画面の揺れ補正を行なう様子を示した図である。 図15は、顔検出位置情報を用いて画面揺れ補正してベースバンドの再生映像拡大処理を行なための処理手順を示したフローチャートである。 図16は、画面横方向を顔検出位置情報で横揺れ補正を施すとともに、縦方向を背景の風景水平検出位置座標で縦揺れ補正を施し、これらを組み合わせてベースバンドの再生映像拡大処理を行なための処理手順を示したフローチャートである。
符号の説明
100…撮影記録再生装置
101…システム制御部
101A…静止画アプリケーション・フォーマット制御部
101B…動画アプリケーション・フォーマット制御部
101C…動画HDアプリケーション・フォーマット制御部
101D…UDF論理ファイルシステム部
101E…フラッシュ・ファイルシステム部
101F…DVD/HDDドライブ制御部
102…映像音声入出力インターフェース
102A…顔検出制御部
103…コーデック部
103A…静止画コーデック部
103B…動画像コーデック部
103C…動画HDコーデック部
104…フラッシュ・メモリ・ドライブ
104A…インターフェース
104B…CIS情報記録部
104C…マルチウェイ・キャッシュ
104D…メモリ制御部
104E…NVRAMバンク
105…外付けドライブ
105A…ホスト・インターフェース
105B…デバイス情報記録部
105C…ドライブ・キャッシュ
105D…メモリ制御部
105E…ディスク
106…ドライブ制御部
107…データ制御部
108…プログラム・メモリ
109…ユーザ・インターフェース
110…PC入出力インターフェース
111…時刻データ部
以下、図面を参照しながら本発明の実施形態について詳解する。
図1には、本発明の実施に供される撮影記録再生装置100の構成を模式的に示している。図示の撮影記録再生装置100は、例えば、映像音声入出力インターフェース102を介して取り込まれる映像音声ストリーム・データの符号化、符号化データのフラッシュ・メモリ・ドライブ104への記録、フラッシュ・メモリ・ドライブ104に記録したデータの外付けドライブ(DVDドライブ若しくはHDDドライブ)105へのコピーといったデータ記録動作、フラッシュ・メモリ・ドライブ104や外付けドライブ105からのデータの読み出し、読み出しデータの復号処理、並びにPC入出力インターフェース110を介した画面出力などのデータ再生動作を行なう。また、これらの動作は、基本的には、ユーザ・インターフェース109を介したユーザ操作に応じて起動する。以下、撮影記録再生装置100内の各部について説明する。
システム制御部101は、プログラム・メモリ108上に展開されたプログラムを実行することにより、当該装置100全体の動作を統括的にコントロールする。システム制御部101が行なう主な処理は、映像音声ストリーム・データのファイル・フォーマット管理と、フラッシュ・メモリ・ドライブ104並びに外付けドライブ105のファイルシステム管理である。
静止画アプリケーション・フォーマット制御部101Aは、符号化された静止画データを静止画のアプリケーション(AP)・フォーマット、例えば、JPEG(Joint Photographic Experts Group)や、JFIF(Jpeg File Interchange Format)、Exif(Exchangeable Image file Format)、TIFF(Tag Image File Format)などに変換するためのファイル・ヘッダなどの管理情報を生成する。
動画アプリケーション・フォーマット制御部101Bは、符号化された動画像をMPEGなどの動画像のアプリケーション・ファイルに変換するための管理情報を生成する。具体的には、MPEG形式で符号化された動画像データを入力すると、これをDVD Videoのアプリケーション・フォーマットに準拠したファイル群に変換して、UDFファイルシステムに従って格納する。
動画HDアプリケーション・フォーマット制御部101Cは、符号化されたHD動画像をH.246などのHD動画像のアプリケーション・フォーマット変換する管理情報を生成する。
UDF(Universal Disk Format)論理ファイルシステム部101Dは、OSTA(Optical Storage Technology Association)が策定する光ディスク・フォーマットUDFに従って、パケット書き込み方式による外付けドライブ105(但し、DVDドライブなどの光ディスク・ドライブの場合)に対するファイルの追加や削除といった処理を通常のファイルシステムを通じて行なう。フラッシュ・ファイルシステム部101Eは、フラッシュ・メモリ・ドライブ104内のNVRAM(Non Volatile RAM)バンク104Eの物理的な特性を考慮したファイルシステムであり、フラッシュ・メモリ・ドライブ104のアドレス管理、ガーベジ・コレクション、イレーズ回数の平均化などの処理を行なう。DVD/HDDドライブ制御部101Fは、外付けドライブ105用のデバイス・ドライバに相当し、外付けドライブ105に対する記録や再生などの動作の制御を行なう。
撮影記録再生装置100には、映像音声入出力インターフェース102を介して、情報機器やAV機器(デジタルスチルカメラやデジタルビデオカメラ、その他静止画や動画像のソース機器)が有線若しくは無線で接続されており、静止画データや映像音声ストリーム・データのやり取りなどを行なう。
本実施形態では、映像音声入出力インターフェース102は顔検出制御部102Aを備えており、例えば同インターフェース102を介して接続されるデジタルビデオカメラから入力する映像ストリーム・データから、映像に含まれる被写体の顔の中心位置座標を例えばGOP毎に検出し、後段の動画像コーデック部103Bに供給するようになっている。顔検出制御部102Aは、周知の顔認識技術に基づいて、目や口などの顔パーツのパターンと人の顔形分布の一致により顔中心位置座標を検出することができる。顔検出制御部102Aによって検出された顔中心位置座標から映像ストリームにおける映像揺れを算出することができるが、その詳細については後述に譲る。
時刻データ部111は、現在時刻を経時するデバイスである。本実施形態では、時刻データ部111は、静止画アプリケーション時刻を静止画コーデック部103Aに供給し、動画アプリケーション時刻を動画像コーデック部103Bに供給する。
コーデック部103は、データの符号化並びに符号化データの復号処理を行なう。静止画コーデック部103Aは、AV機器から入力した静止画データの符号化、並びに、符号化された静止画データの復号処理を行なう。動画像コーデック部103Bは、AV機器から入力した動画像ストリーム・データの符号化、並びに、符号化された動画像データの復号処理を行なう。動画HDコーデック部103Cは、AV機器から入力した動画HDの符号化、並びに、符号化された動画HDデータの復号処理を行なう。
本実施形態では、動画像コーデック部103Bは、映像音声入出力インターフェースを介して送られてくる映像ストリーム・データの記録を行なう際に、顔検出部102AがGOP毎に検出する顔中心位置座標を、動画アプリケーション時刻と対応付けて、GOPの属性情報として記録するようになっている。
データ制御部107は、符号化された映像音声データとこの映像音声データの管理情報を蓄積し、記録開始に備える。ドライブ制御部106は、例えばATAPI(AT Attachment Packet Interface)プロトコルに従い、フラッシュ・メモリ・ドライブ104又は外付けドライブ105のドライブ内部ファーム情報を取得してドライブ・メディア状態を監視し、ドライブ・メディア状態に応じてメディア記録再生開始を指示する。ドライブ制御部106は、映像音声データがシステム・ストリームとしてGOP単位で格納されたビデオ・オブジェクト単位が複数集合されパケット化されたRUV(Recording Unit Video Object)をまとめてメディアに記録する制御を行なう。例えば、数10MB蓄積されると、まとめてディスク105Eに記録する繰り返し制御を行なっている。なお、光ディスクでは、RUVはセル(CELL)に相当する。RUV若しくはCELLは、1回の書き込み動作でバッファから記録メディアにまとめて書き込みされ、あるいは、1回の読み出し動作で再生メディアからバッファにまとめて読み出される、VOBU(Video OBject Unit)単位である。
フラッシュ・メモリ・ドライブ104は、インターフェース104Aを介してメモリ制御部104Dと接続されている。CIS(Card Information Structure)情報記録部104Bには、フラッシュ・メモリ・ドライブ104のデータ形式、パーティション編成、ベンダ情報、デバイス情報などが記録されている。メモリ制御部104Dは、マルチウェイ・キャッシュ104Cに一時的に蓄積されたデータを、NVRAMバンク104E内の該当するメモリ・チップにデータを書き込む(各メモリ・チップは、データを記録するIC(Integrated Circuit)チップである)。
外付けドライブ105は、例えば、ホスト・インターフェース105AはATA規格に準拠したコマンドをドライブ制御部106から受信する。デバイス情報記録部105Bは、型番などデバイス・ドライバの識別情報を記録している。メモリ制御部105Dは、光ピックアップ(若しくは磁気ヘッド)を位置制御して、一時記録領域であるドライブ・キャッシュ105Cに蓄積されたデータをディスク105E上に記録する。例えばDVDの最小記録単位は、ECC(Error Correcting Code)ブロックと呼ばれ、1ECCブロックは32Kバイトである。
ユーザ・インターフェース109から映像音声データの再生が指示されると、UDF論理ファイルシステム部101D又はフラッシュ・ファイルシステム部101Eは、該当するストリーム・ファイルの開始セクタと終了セクタとを検索する。ドライブ制御部106は、フラッシュ・メモリ・ドライブ104又は外付けドライブ105に開始セクタと終了セクタに記録されたデータの読み出しを指示する。続いて、データ制御部107は、外付けドライブ105から読み出されたデータを静止画コーデック部103A、動画像コーデック部103B、動画HDコーデック部103Cのいずれかに出力する。静止画コーデック部103Aは読み出された符号化静止画データを復号し、動画コーデック部103Bは読み出された符号化動画データを復号し、動画HDコーデック部103Cは読み出された動画HDデータを復号する。そして、復号したデータを、映像音声インターフェース102を介して外部機器に転送して、LCD(Liquid Crystal Display)やスピーカなど(いずれも図示しない)に出力する。
PCインターフェース110には、USB(Universal Serial Bus)などの有線若しくは無線、あるいは光通信のインターフェースを利用して、PCやその他の大画面を持つ映像再生装置などが接続されている。
ユーザ・インターフェース109から映像音声データの転送が指示されると、UDF論理ファイルシステム部101D又はフラッシュ・ファイルシステム部101Eは該当するストリーム・ファイルの開始セクタと終了セクタとを検索し、ドライブ制御部106はフラッシュ・メモリ・ドライブ104又は外付けドライブ105に開始セクタと終了セクタに記録されたデータの読み出しを指示する。そして、読み出されたデータを、PCインターフェース110を介して転送先の機器に転送する。
既に述べたように、UDF論理ファイルシステム部101Dは、UDFフォーマットに従って、外付けドライブ105に対するファイルの追加や削除といった処理を通常のファイルシステムを通じて行なう。UDF論理ファイルシステム部101Dは、フラッシュ・メモリ・ドライブ104上に、UDFファイルシステムを構築する。
図2Aには、UDFファイルシステムの一例(SDフォーマットの場合)を示している。図示のUDFファイルシステムは、ディレクトツリー構造のファイルシステムであり、ルート・ディレクトリの直下の階層に3つのディレクトリが生成されている。動画アプリケーション・フォーマット制御部101Bは、MPEG形式で符号化された動画像データをDVD Videoのアプリケーション・フォーマットに準拠したファイル群に変換して、ルート・ディレクトリ直下のディレクトリ「VIDEO_TS」に格納する。DVD Videoのアプリケーション・フォーマットに準拠したファイル群は、“IF”という拡張子が付いた管理ファイルと、“VOB”という拡張子が付いたデータ格納ファイルからなり、これらのファイルはUDFファイルシステム上で管理される。
図2Bには、UDFファイルシステムの他の例(HDフォーマットの場合)を示している。ルート・ディレクトリ直下のMODELCFG.INDファイルは、ベンダ固有定義のファイル、製造業者の決めた情報ファイルである。また、ルート・ディレクトリの直下の階層には、AVCHD、AVF_INF、DCIMという3つのフォルダが生成されている。AVCHDディレクトリ内には、さらにBDMVフォルダが設けられ、BDMVフォルダ内には、動画映像記録アプリケーション・フォーマットで規定されたフォルダ、ファイル群が記録される。INDEX.BDMは、インデックス・ファイルで、動画チャプタを登録し管理するファイルである。MOVIEOBJ.BDMは、アプリケーションで決められたファイルで、動画チャプタを登録し管理するファイルである。CLIPINFフォルダ内には、クリップ情報ファイル(動画チャプタ内部ストリームへのアクセスを管理するファイル)が格納される。PLAYLISTフォルダ内には、プレイリスト・ファイル(動画チャプタへのコンテンツ毎のアクセスを管理するファイル)が格納される。STREAMフォルダ内には、動画ストリーム・ファイルが格納される。本実施形態では、顔検出制御部102Aで検出される顔検出位置情報は、GOPの属性情報として、動画ストリームの描くピクチャに分散して記録される。AVF_INFフォルダ内には、ユーザ操作を支援する分類グループ登録情報、好み情報を管理するファイル群が格納される。DCIMフォルダ内には、静止画記録アプリケーション・フォーマットで規定されたフォルダ、静止画撮影ファイル群が格納される。
図3には、DVD Videoのデータ構造を示している。光ディスクは、半径の中心から端へ向かう論理アドレス配置を有している。この論理アドレス配置の先頭には、UDFの管理情報が記録されている。VMGは、ディスク全体の管理情報が書かれている。VTS1乃至VTSnには、1つのタイトルが格納されている。個々のVTSは、VTSIとVTSTT_VOBSで構成される。VTSIには、各VTSの管理情報が書かれており、VSTT_VOBSには、映像本体が格納される。
VSTT_VOBSは、VOBの集合(VOB1…VOBn)である。1つのVOBは、255個以下のCELL(RUV)から構成される。CELLは、複数のVOBUから構成されている。VOBUのサイズは再生時間に依存する。各VOBUの再生時間は04〜1.0 秒である。本実施形態では、1VOBUを1GOP(0.5 秒)とする。最後のVOBUの再生時間は、例外的に1.2秒である。
VOBUは、NV_PCK、V_PCK、A_PCK、S_PCK、ARI_PCKから構成される。NV_PCKには、再生表示に関する管理情報を格納するPCIと、アクセスに関する管理情報を格納するDSIから構成される。V_PCKはMPEGビデオ・データを格納し、A_PCKはMPEGオーディオ・データを格納し、S_PCKはMPEGサブピクチャ・データを格納する。NV_PCK、V_PCK、A_PCK、S_PCKには動画再生時刻管理情報が付加されており、映像、音声、並びにサブピクチャが同期を取って再生される。また、ARI_PCKには、画面上の被写体の検出顔の中心位置座標すなわち顔検出位置情報が格納され、再生時に顔の横揺れ補正の処理に利用されるが、この点の詳細については後述に譲る。VOBUを構成するNV−PCK、V_PCK、A、S_PCK、ARI_PCKは、すべて2Kバイトである。これらのファイルは、動画像アプリケーション・フォーマット制御部101Bで作成される。
続いて、動画アプリケーション・フォーマット制御部101Bにおける、ファイル群の生成処理について説明する。
動画アプリケーション・フォーマット制御部101Bは、まず、V_PCK、A_PCK、S_PCKを作成する。動画アプリケーション・フォーマット制御部101Bは、入力したMPEG動画像データを、MPEG映像データ、MPEG音声データ、MPEGサブピクチャ・データに多重化分離し、各データをそれぞれ2KバイトのV_PCK、A_PCK、S_PCKに格納する。また、動画アプリケーション・フォーマット制御部101Bは、顔検出制御部102Aで検出され顔検出位置情報をARI_PCKに格納する。動画アプリケーション・フォーマット制御部101Bは、これらのパケットを生成する度に該当するVOBU_TBLを更新する。VOBU_TBLは、パケットの管理情報を蓄積している。
そして、動画アプリケーション・フォーマット制御部101Bは、VOBU_TBLからNV_PCK又はRDI_PCKを生成し、生成したNV_PCKをV_PCK、A_PCK、S_PCKの先頭に付加して、VOBUを生成する。
さらに、動画アプリケーション・フォーマット制御部101Bは、VOBUをまとめて、1つのCELLを生成する。動画アプリケーション・フォーマット制御部101Bは、CELLを生成する度に、VTS_TBLを更新する。VTS_TBLは、PGC(Program Chain)を構成している。
それぞれのCELLには固有のID番号が付与されている。PGCは、そのCELLの再生順を指定するものである。PCG内で1つ以上の連続する番号のCELLをまとめたものを1つのプログラムとして定義することができる。また、PCG内で1つ以上の連続する番号のプログラムをまとめたもの1つのVOBとして定義することができる。VOBは、ユーザが映像ストリームにアクセスする単位となる「チャプタ」に相当するものである(ユーザは、チャプタ毎に再生のスタート並びにストップを指示することができる)。
動画アプリケーション・フォーマット制御部101Bは、複数のVOBをまとめてVOBU格納用のファイルを生成する。図2Aに示すフォーマット例では、“VTS_01_*.VOB”(*は、数字)と名付けられたファイルがVOBU格納用のファイルである。
動画アプリケーション・フォーマット制御部101Bは、VTS_TBLを含むVTSIを作成し、VTSI格納用のファイルを生成する。図2Aに示すフォーマット例では、“VTS_01_*.IFO”がVTSI格納用のファイルである。動画アプリケーション・フォーマット制御部101Bは、最後に、全体の管理情報をまとめたVMG格納用のファイルを生成する。図2Aに示すフォーマット例では、VIDEO_TS.IFOがVMG格納用のファイルである。
本実施形態に係る撮影記録再生装置100では、映像音声入出力インターフェース102を介してデジタルビデオカメラから撮影映像ストリームを入力したときに、顔検出制御部102Aは、映像ストリームから検出された顔の中心位置座標を、顔検出位置情報として0.5秒GOP単位で出力する。そして、動画像コーデック部103Bが映像データの符号化処理を行なう際に、動画アプリケーション・フォーマット制御部101Bが作成を指示するストリーム属性情報(ARI_PCK)に顔検出位置情報を設定して、フラッシュ・メモリ・ドライブ104若しくは外付けドライブ105に記録するようになっている。
また、フラッシュ・メモリ・ドライブ104若しくは外付けドライブ105に記録されている映像ストリームの読み取りを行なう場合には、動画像コーデック部103Bで映像ストリームの復号処理を行なう際に、動画アプリケーション・フォーマット制御部101Bは該当するストリーム属性情報(ARI_PCK)から顔検出位置情報の取得を併せて指示する。そして、画像拡大再生時には、顔検出位置情報を基に、被写体の顔が読み取り再生映像の中心とするよう、顔の横位置の補正を行なうことができる。この結果、大画面テレビなどで再生映像を視聴する場合であっても、ユーザが映像酔いを起こすのを防ぐことができる。
なお、本出願以前においても、撮影映像から顔検出する技術は存在し、例えばカメラ制御部において顔検出を行なうのが一般的である。しかしながら、顔の存在の有無を動画再生見出し画面のチャプタ属性情報として付随させて利用する程度であり、ベースバンド映像処理で再生映像中の顔の位置補正(顔揺れの補正)に利用するものは存在しない。
図4には、顔検出位置情報を利用して再生映像拡大、再生顔横ユレ補正制御を行なう様子を示している。同図では特に被写体の顔位置の左右補正を行なう例を示している。顔位置の左右補正を行なうのは、人間の視覚追随は左右に追随するために、顔の横揺れは視聴者に錯覚を強く与え左右の揺れを感じさせ気分を悪くさせるからであり、左右補正により横揺れを好適に除去して視聴者の不快感を解消することができる。
再生開始時には、画像精細品位モードと画像アスペクト・モードを取得する。画面中心位置に対する顔検出位置情報のオフセットは、モードがHDの1920/1080のモード、SDのワイド/ノーマル(記録では一律、720ピクセル)のいずれであるかに応じて可変である。
図4Aには、人物の右シフト位置の画像拡大補正を行なう様子を示している。再生時の元画像の顔が右位置にオフセットしている場合、画面中心位置に対し検出顔の中心位置が右にオフセットしており、このオフセットを取り除くとともに、その顔検出中心位置を中心にベースバンド映像処理で再生画像を所定の倍率で拡大処理することによって、人物の横揺れが補正される。
また、図4Bには、人物の左シフト位置の画像拡大補正を行なう様子を示している。再生時の元画像の顔が左位置にオフセットしている場合、画面中心位置に対し顔検出中心位置が左にオフセットしており、同様に、このオフセットを取り除くとともに、その顔検出中心位置を中心にベースバンド映像処理で再生画像を所定の倍率で拡大処理することによって、人物の横揺れが補正される。
なお、人物の体は縦長であり、バストショットの場合など、被写体の体全体が常に画面に入っているとは限らないから、縦揺れの補正は難しいことがある。横揺れは上述したように顔検出中心位置で補正し、縦揺れは背景中心位置で補正する方法が考えられる。(被写体の顔を撮影するとき、顔が画面から外れて輪郭が切れないようにする。これに対し、人体を撮影するときは、人体は顔を含むバストショットや顔アップで撮影することが多いので、人体の縦方向の揺れを人体全体の輪郭と縦サイズ、人体像中心の移動で見ることはできない。)
図5には、顔中心座標情報のメディアへの記録書き込み制御を行なう様子を示している。
図5Aに示すように、映像音声入出力インターフェース102を介してデジタルビデオカメラなどから映像ストリームを入力すると、顔検出制御部102Aは、肌色検出並びに目や口などの顔パーツのパターンと人の顔形分布の一致により検出顔の中心位置座標を検出すると、これを顔検出位置情報として後段の動画像コーデック部103Bに出力する。
動画像コーデック部103Bでは、記録時の動画像ストリーム・データの符号化並びに再生時のデータ復号を行なうが、本実施形態では、顔検出位置情報をGOPの属性情報として使用しながら記録再生制御する。
図5Bには、記録再生制御の様子を示している。カメラ撮影時のカメラ撮影情報データなどのユーザ・データは、ARI情報として動画ストリームに記録される(ARIは、AdditionalRecordingInformation(付加的記録情報)の略称)。顔検出制御部102Aから取得される検出顔の中心位置座標は、ARI情報内のカメラ撮影情報の拡張データの1つとなる。そして、0.5秒分の1GOPを記録1VOBUとして作成するときに、顔検出フラグと検出顔の中心位置座標データを含む顔検出位置情報を、VOBU属性データに付加して(図3を参照のこと)、ディスクなどの記録媒体に記録する。
図6には、動画データの再生時に顔検出位置情報データを取得して顔揺れ補正の制御を図解している。
図6Aには、ディスクから再生し、VOBU(GOP)毎の属性情報を読み出す再生ストリーム制御を図解している。図6Aに示すように、VOBU情報の中にARIデータが記録されて存在しており、動画再生時には読み取りを行なう。例えば、その名称を「MNFIデータ」とする。VOBUに付属するARIデータを読み出す度に、MNFIデータの中の顔検出位置情報を、再生顔位置補正用のリング・バッファに蓄積していく。リング・バッファの大きさは、128VOBU分とする。
ここで、RUVというバッファ・サイズに収まるデータ量をまとめて読み出す処理によって、連続するストリームで複数のVOBUがまとめて読み出されている。そのサイズは撮影時の被写体が動いている場合はバッファ・サイズとなり、そうでない場合でも、再生サーチ制御の都合で、最大数を128VOBU分までの読み込みに制限する。
図6Bには、読み込んでリング・バッファに積まれた顔検出位置情報の集合と、それに対応する各GOPの先頭位置に対応するPTS(Presentation Time Stamp)のリスト情報データを示している。GOPの先頭位置に対応するPTSのリスト情報データの時刻情報とともに、対応する顔検出位置情報をベースバンド映像処理にかける。ベースバンド映像処理では、その顔検出位置情報を中心に所定の指定倍率で画像を拡大ズームして再生することによって、フレーム毎に再生画像の横揺れを補正する処理を行なうことができる。
図7には、再生時の位置情報の読み取りシーケンスを図解している。但し、同図中の「上位」とは、ユーザ操作とのインターフェースを担当するソフトウェア層に相当し、主にユーザ操作や記録、再生、編集の開始及び終了、編集点時刻の指定、チャプタ・コンテンツの番号や時刻を扱う。また、「下位」とは、実際に記録メディアへのアクセスを制御するソフトウェア層に相当し、映像コーデックの符号化・復号処理、記録フォーマットに従ったデータのバッファリング及び記録メディアへの書き込み、並びに、記録フォーマットに従った記録メディアからのデータ読み取り及びバッファリングと映像コーデックへの送り出しを制御する。
ファイルシステムから読み取りされたRUVからストリーム再生データベースを介して、PTSが読み取られる。上位層の処理では仮想的に、記録時に時間離散的にデータベースを保有する場合もある。しかし、そこには映像音声の可変長ストリームに対応できるサーチ情報はなく、上位は推定する演算で推定してほぼそれくらいの時刻位置を指定できるだけである。
上位が適当に指定するPTSのデータベースの作り方は、顔インデックス機能(Face)の場合は、記録中にAVCon(動画コーデック部103B/103C内の、符号化復号ハードウェアを時刻情報とともに制御する制御ブロックに相当)から渡されたPTSを登録する(動画の符号化復号制御では、デコード・タイムスタンプと再生表示タイムスタンプ(PTS)という時刻情報が必ず一緒に必要となるので、そこから時刻情報を取得することができる)。ここで言う顔インデックスは、動画撮影において新たに顔検出した時点で顔インデックスとなるサムネイルをインデックス登録する機能があり、再生時には顔インデックスとなる複数のサムネイルを並べて表示される。
再生制御側では、そのPTS推定値を受け取り、それを含む近辺のRUVをアクセスして再生読み取りバッファに蓄積すると同時に、該当するVOBU番号の実PTSを取得し位置情報として取得する。前回の再生がストップしたままであればレジューム情報を一時的に揮発タイプのメモリ上に保持しているので、その位置から正確な再生を可能に実現する。レジューム情報がない場合は、上位指定された仮想PTS時刻位置を受けて、その辺のデータをまとめて読み取ってスタートしてみる制御を行なう。そして、その辺りで指定されたPTSに近いもの(VOBU)をみつけてそこから再生を開始する。
ここで言う、「指定されたPTSに近いもの」とは、ユーザ操作とのインターフェースを担当する上位層ソフトウェアが時刻で再生位置を指定するのに対して、下位の動画コーデック部103B/103C及び動画アプリケーション・フォーマット制御部101B/101Cでは、メディアからバッファに読み出した符号化ストリームの中に含まれるPTS情報を取り出し、上位層で指定された再生指定時刻に最も近いPTS情報を選択することを意味する(上位層は、メディアに記録された符号化ストリームを直接制御するものではなく、ストリーム中のPTSを直接指定することはできないからである)。上位層で再生時刻が指定されると、まず、上位の持っているDurationから抽象的に演算して、想定PTSを指定する。下位層は、想定PTSを上位から渡されると、MAVI(M2PS)、NV_PCK(DVD)、MD_PCK(AVCHD)を読み出して、上位から渡され指定されたPTSに近いVOBUをピックアップして当てはめる。
本実施形態でも、その再生で指定されたフレームのPTS時刻情報と、それに対応する顔検出位置情報をセットにして取り扱う制御をしている。
再生画面上の顔検出枠は、図8Aに示すように、xy画面座標系を用いて、顔中心位置座標(xs,ys)と顔サイズ(xc,yc)で表すことができる(但し、座標値はピクセル単位で表されるものとする)。顔中心位置(xs,ys)は、ARI_DATAに記録される顔検出位置情報から計算し、顔サイズ(xc,yc)は顔検出画面枠サイズから計算することができる。顔中心位置(xs,ys)と、顔サイズ(xc,yc)は、再生顔揺れ補正に必要なパラメータである。
動画を拡大再生処理する際、顔中心位置座標を中心にして単純に拡大することができない場合があり、補正処理が必要となる。例えば、図8B左に示すように、顔中心位置座標を中心にして拡大すると顔検出枠の一部が画面拡大した後の再生画面の表示範囲から外れてしまう場合である。このような場合、顔検出枠が画面内部の片に納まる位置にシフト補正する左右補正幅制限を設けることによって、異常な再生顔揺れ補正がなされることを防止する制御を行なう。図8B右に示すように、拡大再生画面の表示範囲に顔検出枠の各々の辺が拡大再生画面の表示範囲の各辺に接する位置に修正し、顔検出枠が拡大再生画面の表示範囲内部に収まるように顔中心位置座標を補正する処理を行なう。顔検出枠は、顔全体をふくむ枠であることを前提にしている。したがって、顔枠表示座標が拡大再生画面の範囲内に収まれば、顔枠内部の顔全体も拡大再生画面の中に納まり、顔が欠けることなく好ましい表示となる。
本実施形態では、映像再生時には、顔検出位置情報を先読みして、時間連続的に補間平均して、映像の再生顔揺れ補正の制御を行なう。記録した顔検出位置情報を再生時に読み取れば、時間的に長い先読みが実現される。したがって、時刻経過に伴う横座標位置変化データが長い期間分、読み取って処理することができるので、精度よい画面の顔の横揺れ補正が実現される。
図9Aには、ストリームのサーチのために、VOBU属性情報として保持しているサーチ情報がメディア上の位置アドレスを指す制御を図解している。サーチ情報は、VOBUとそのメディア上のアドレス位置を示すもので、RUV読み取りで取得される。VOBUに含まれるGOP(1GOP、2GOPなども可能)を位置サーチして指定されるVOBU先頭を頭出しするために、サーチ情報が用いられる。但し、動画ストリームの符号化後のビットレートが低くデータ・サイズがバッファ・メモリ容量サイズよりも小さく済んでしまう場合でも、無限にサーチ情報を持つ訳ではなく、VOBUとして最大で128VOBUまでをサーチすることができるように、VOBUのサーチ情報テーブルの最大数を持っている。1RUV Maxは、128〜120VOBU、又は、20MB(但し、RUVバッファ・サイズに20MBを使うとき)である。通常の動画撮影では、被写体映像に細部情報を含み、且つ動きがあるので、符号化してもサイズはあまり圧縮されず、バッファ・サイズの上限に達しないうちに128VOBUになることはない。
VOBUの映像音声属性情報テーブルは、そのサーチ情報を基に、VOBU映像音声ストリームのストリーム属性、時刻カウンタ情報などを再生制御部が読み取ることによって構成される。ここで、ARIデータに含まれる顔検出位置情報もVOBU毎にまとまって取得されている。
再生開始からVOBUデータがメディアから読み取られ、データ・バッファに蓄積されるが、やがて再生でそのVOBUデータが消費される。データ・バッファ内のVOBUデータが残り少なくなったとき(例えば、残り10VOBU程度を切ったとき)、図9Bに示すように、読み取り更新要求が発生され、次のRUVデータが読み取り蓄積される。同図では、データ・バッファの上限は例として128VOBUあるいは18MBまでとして説明している。
図10には、顔中心位置座標からフレーム時刻経過での低周波横位置座標変化を取り出して補正する制御を図解している。再生開始時にはサーチに備えて128VOBUまで先に読み取り、データ・バッファに蓄積する。すなわち、データをバッファに先読みしてから再生するので、時間的に先読みしたデータに含まれる顔中心位置座標の時間的変化も事前に予測することが可能になる。
顔検出位置情報は、VOBUとともに属性情報としてARIデータ内から取得される。ARIデータ内の顔検出位置情報は、実際にはディスクメディアから0.5秒毎のフレームに対しては不連続な位置データが取得される。また、被写体が移動して画面エリアを外れて顔を見失い顔検出されていない期間も存在し得る。RUV単位で大量のVOBUをバッファに先読み取得して、フレーム補間、顔検出位置情報のない区間の補間、0.5秒単位の顔検出位置情報(すなわち、被写体検出顔の中心位置座標)の不連続な画面上の座標変化として確実な未来予測位置を得ながら平滑化するので、視覚的に違和感のない、時刻的に未来予測位置を見込んだ効率的な横揺れ補正が実現される。
GOP毎に被写体の検出顔の中心位置が移動すると、再生画面上ではカクカクした顔の横揺れ補正になってしまう。そこで、フィールド毎の座標を補間計算して、座標情報量を増加しスムーズに追従させるようにしている。図11には、顔中心位置座標のフィールド毎の補間計算方法を図解している。図11Aでは、縦軸に再生映像表示時間の時間軸を映像フレーム単位で示し、横軸にはそれに対応する画面上における検出顔の中心の横位置座標をとっている。拡大再生の顔中心位置はVOBU毎に得られる。ベースバンド映像処理では、各VOBUから読み取った顔検出位置情報の水平移動位置を時間平滑化し、拡大再生した顔の横中心位置として設定する。
1GOP(0.5秒)毎の顔中心座標2点から、1フィールド(NT=15、 PAL=12)毎の移動量を計算する。そして、さらに最大移動制限量の範囲を設けて、顔中心座標の移動可能範囲の制限内で、1フィールドごとに割り切れる移動平均演算での顔中心位置座標の移動量を算出するようにしている。
図11Aに示す例では、最初のGOPの顔中心位置を点A 、次のGOPの顔中心位置を点B、3番目のGOPの顔中心位置を点Cとし、それぞれ0.5秒毎に読み取られるVOBUに属するARIデータ内の顔検出位置である。そして、それぞれの点の間は映像フレームであって、NTSCでは15フレーム、PALでは12フレームの表示時刻軸で構成される。
ここで、A点、B点、C点そのままにリニア直線的に各フレーム時刻に座標を割り当てる計算方法は簡易であるが、補正動作が視覚的に画面横方向に0.5秒毎の不連続に補正量が決定され補正されるので滑らかな横揺れ補正が実現されず、面白くない。
これに対し、NTSC又はPALのフィールド数で割り切れる、例えば0.5秒を3等分し時刻中間に2点を設け、それに対して重み係数付き時間前後双方向の移動平均をとって平滑化することによって、GOP単位、VOBU時間単位毎ではなく、フレーム単位で滑らかに横位置補正が実現される。1フィールド毎の移動量δλは、下式により計算される。
上式において、NGOPはGOP中のフレーム数(NTSCでは15、PALでは12)、KAVEは重み加算平均の正規化係数である。
フィールド毎の顔中心座標位置をAからδ●毎にBまで求め、図11Bに示すようなテーブルを作成する。
ベースバンドの再生映像拡大処理の際にこの情報を与えてその座標中心で拡大処理表示することによって、顔の横揺れ、縦揺れが効果的に補正される。
図12は、映像ストリームの記録を行なう動作上で、ARIデータに顔検出中心情報を書き込む手順を示したシーケンス図である。
映像ストリームの記録時には、上位の記録制御によって記録を開始している状態である。このときデータ・バッファを制御して、符号化しているコーデック部103は、0.5秒のVOBUを作成する毎にカメラ情報更新要求を上位に発する。
この要求に応じた記録属性制御によって、別途カメラブロックからカメラ撮影情報を取得して時刻や映像信号など撮影に伴う映像ストリームのVOBU属性情報がコーデック部103に与えられ、コーデック部103では映像ストリームの符号化が行なわれる。
続いて、ARI情報書き込みのためにカメラ・データを与えて、ARIのカメラ・データを作成更新させる。
図12に示したシーケンス図上では、カメラから撮影データとして与えられたものが記録再生に望ましい形式で与えられなかった場合に、記録制御によって顔位置座標を設定する処理を代行し、カメラ撮影属性情報としてのARIデータを撮影映像ストリームに属性情報として付加する情報更新動作を記録中のVOBU毎に行なう動作を図解している。
図13は、映像ストリームの再生を行なう動作上で、ARIデータから顔検出中心情報を読み出すための手順を示したシーケンス図である。
映像ストリーム再生開始時には、再生速度の設定(通常再生は1倍速)、映像方式のHD(1920/1080)、SD(720/712/352など)とその横ピクセル・サイズの相違による種別、動画再生属性情報としてのRUVを蓄積するストリーム・バッファの蓄積上限値並びに下限値、ストリーム・サーチ・アドレスのリスト・テーブル段数設定、デコード情報リストと段数と上限並びに下限設定、映像音声の再生情報テーブルの段数と上限並びに下限設定を行なってから、映像ストリーム・データの再生デコード再生表示を開始する。
RUV単位で一連の多数VOBUをまとめて記録媒体から読み取り、そのカウンタ・データから時、分、秒からなる時刻情報を作成して時刻表示データとして出力し、上位部の再生制御では、OSD(On Screen Display)やグラフィック表示などの映像出力制御の文字表示が行なわれる。ここで言う上位部とは、ユーザ操作やインターフェースを担当するソフトウェア層に相当する(前述)。
続いて、ARIデータのリストから、ARI情報を解析して初回のVOBUのデータを得る。
以上が映像ストリームの再生開始時におけるARIデータに含まれる顔検出中心座標位置を取得するまでの手順である。
映像ストリームの再生中、コーデック部103が自身のバッファに蓄えているVOBUをデコード再生で消費して、VOBUデータ蓄積量が設定下限値を下回ると、コーデック部103は、次のRUVをまとめて記録媒体から読み取るとともに、再生属性制御のために、データ制御部107に対して、映像再生情報消費の通知と再生情報更新要求を与える。
この要求に応答して、再生属性制御として、コーデック部103から現在再生しているVOBUのカウンタ・データを取得して、HMS表示時間制御としてHMS(時間、分、秒)時間値を更新し、そのデータ値を出力する。上位の再生制御では、HMSの更新値を画面の再生時刻進行表示値として使用する。
その後、システム制御部101は、再生属性制御のために、ARI情報を解析してARIデータを設定更新する。動画アプリケーション・フォーマット制御部101Bは、の動画像コーデック部103Bを使い、映像音声入出力インターフェースを介して送られてくる映像ストリーム・データの記録を行なう際に、顔検出部102AがGOP毎に検出する顔中心座標位置情報を、動画アプリケーション時刻と対応付けて、GOPの属性情報として、ARIに記録するようにしている。ここで、ARIが値変化していて更新が必要であれば、更新処理に入る。また、ARI情報の更新処理が全く不要で、前のVOBUと一致していれば、更新しないまま値をそのまま保持して次の更新機会まで待つ。
カメラ撮影情報データに一部でも情報更新あれば、ARIデータの更新を実行する。例えば、検出顔の中心位置座標が横に移動変化していた場合には、その情報でARIデータを更新して、上位における再生制御のために出力する。
ここで、システム制御部101内で行なわれる映像音声アプリケーション・フォーマット制御では、映像編集によって所定のVOBUデータ区間を非表示として映像の中間部分削除を行なうことができる場合があり、それに対応する処理が必要になる。すなわち、これに対応するARI情報解析の制御としては、アプリケーション・フォーマット制御によって再生ストリーム・データが再生表示属性から再生非表示属性に移ってしまった状態では、元の映像ストリームのVOBUからの読み取ったARIデータに違いがあってもARIの更新制御はしないで保持し続けることで対応する。また、映像ストリームの表示属性が非表示属性中は、ARIデータは更新制御しない。さらにまた、映像ストリームの非表示区間から表示区間に移行したタイミングの後では、ARIデータの内容に不一致があれば、更新して上位の再生制御のためにARIデータを出力し、情報を更新する。
再生制御では、ベースバンドの再生映像拡大処理のためにこの情報を与えて、その座標中心で拡大処理表示することによって(図4を参照のこと)、画面の横揺れ並びに縦揺れを効果的に補正する。
図14には、顔の横揺れ情報と縦揺れ情報の組み合わせにより再生画面の揺れ補正を行なう様子を示している。
既に述べたように、顔検出位置情報を基に画面の横揺れ情報を取得する。また、顔検出位置情報以外の情報(他の種類の被写体)から得られる画像位置座標を基に縦揺れ情報を取得する。縦揺れ情報を顔以外の被写体から取得するのは、顔は身体の一部であって、上下動とその位置を判別することは難しい場合があるからである(前述)。また、人間の視覚特性として、横揺れの補正は顔でしてほしいが、縦ユレはより緩やかな、画面全体を支配する風景背景の縦ユレの検出に基づいて補正を行なって欲しい場合がある。
図14には、スキップして移動してゆく人物を撮影した場合の映像ストリームから画面揺れを補正する様子を例示している。
撮影時には、カメラ制御部の被写体位置検出制御によって、顔検出中心座標を横座標で取得する。その際、背景水平線縦位置揺れ、傾き情報データを縦座標で取得し、映像ストリームとともに記録媒体に記録する。
また、再生時には、画面横方向を顔検出位置情報で横揺れ補正を施すとともに、縦方向を背景の風景水平検出位置座標で縦揺れ補正を施し、これらを組み合わせてベースバンドの再生映像拡大処理を行なって、その座標中心で拡大処理表示することによって、横揺れ並びに縦揺れの双方が効果的に補正される。
図15には、顔検出位置情報を用いて画面揺れ補正してベースバンドの再生映像拡大処理を行なための処理手順をフローチャートの形式で示している。記録時には、映像ストリームとともに、顔検出位置情報を含む属性情報が併せて記録媒体に記録されているものとする。
映像ストリーム・データとその属性情報の読み取り処理として、まず、1RUV分の映像ストリーム・データと対応する属性情報が記録媒体から読み出す。その際、1RUV期間の属性情報から顔検出位置情報のデータ列を取得して、読み出した映像ストリームの各フレーム再生時刻に対応する顔検出位置情報を記述した顔位置情報テーブルを作成する(ステップS1)。
そして、1RUV分のデータをバッファ・メモリに一括して書き込む(ステップS2)。
以上の処理を1RUV毎に繰り返し実行する。
また、ベースバンドにおける属性情報の処理のうち、顔位置演算処理として、時間軸にわたる映像のGOPに付随する顔位置情報テーブルの属性情報を、複数GOPからなるRUVとして一括してメモリ上に先読みし、時刻の重み移動平均演算で平滑計算した、修正後の顔位置情報テーブルを作成する(ステップS11)。
そして、再生画面上での顔揺れ補正のために、現在の1RUVデータの処理が完了するまでの間(ステップS13のNo)、再生表示時刻に対応する修正後の顔位置情報を逐次出力する(ステップS12)。
また、ベースバンドにおける再生画像の出力制御処理は、まずミュート状態に制御されているが(ステップS21)、バッファ・メモリに蓄えられている1RUV分の映像ストリーム・データが復号処理されると、これをメモリの所定のアドレス位置にロードする(ステップS22)。
そして、ベースバンドにおける再生画像の出力制御処理は、PTSにより再生画表示時刻が与えられ、対応する顔検出位置情報を取得すると、再生表示時刻情報に対応するメモリ上の再生画映像を、顔位置中心に抜き出して(ステップS23)、再生画を拡大ズーム出力して、顔揺れ補正が施された再生画を出力する(ステップS24)。
以上の処理を、現在の1RUVデータの処理が完了するまでの間(ステップS25のNo)、繰り返し実行する。
また、図16には、画面横方向を顔検出位置情報で横揺れ補正を施すとともに、縦方向を背景の風景水平検出位置座標で縦揺れ補正を施し、これらを組み合わせてベースバンドの再生映像拡大処理を行なための処理手順をフローチャートの形式で示している。記録時には、映像ストリームとともに、顔検出位置情報を含む属性情報が併せて記録媒体に記録されているものとする。
映像ストリーム・データとその属性情報の読み取り処理として、まず、1RUV分の映像ストリーム・データと対応する属性情報が記録媒体から読み出す。その際、1RUV期間の属性情報から顔検出位置情報のデータ列を取得して、読み出した映像ストリームの各再生時刻に対応する顔検出位置情報を記述した顔位置情報テーブルを作成するとともに、水平線情報のデータ列から、各再生時刻に対応する背景水平線の画面縦位置情報テーブルを作成する(ステップS101)。
そして、1RUV分のデータをバッファ・メモリに一括して書き込む(ステップS2)。
以上の処理を1RUV毎に繰り返し実行する。
また、ベースバンドにおける属性情報の処理のうち、顔位置演算処理として、上記の顔位置情報テーブルをメモリ上に一括取得して、第1の時刻の重み移動平均演算で平滑計算した、修正後の顔位置情報テーブルを作成する。さらに、背景水平線の画面縦位置情報テーブルをメモリ上に一括取得して、第2の時刻の重み移動平均演算で平滑計算した、修正後の画面縦位置情報テーブルを作成する(ステップS111)。
そして、再生画面上での顔揺れ補正のために、現在の1RUVデータの処理が完了するまでの間(ステップS113のNo)、再生表示時刻毎に、対応する修正後の顔位置情報及び画面縦位置情報を合成した中心位置情報を逐次出力する(ステップS112)。
また、ベースバンドにおける再生画像の出力制御処理は、まずミュート状態に制御されているが(ステップS121)、バッファ・メモリに蓄えられている1RUV分の映像ストリーム・データが復号処理されると、これをメモリにマッピングする(ステップS122)。
そして、PTSにより再生画表示時刻を与え、対応する合成後の中心位置座標を取得すると、再生表示時刻情報に対応するメモリ上の再生画映像を、当該中心位置に抜き出して(ステップS123)、再生画を拡大ズーム出力して、顔揺れ補正が施された再生画を出力する(ステップS124)。
以上の処理を、現在の1RUVデータの処理が完了するまでの間(ステップS125のNo)、繰り返し実行する。
なお、本発明における、デジタルカメラで撮影した映像を再生する際の横揺れ防止処理は、専用ハードウェア上で実施される以外に、コンピュータ上で所定のプログラム・コードを実行させるという形態でも実現することが可能である、かかるプログラム・コードは、コンピュータを、映像ストリームを属性情報とともに記録媒体から読み取る読み取り手段、読み取られた映像ストリームを復号する復号手段、属性情報に含まれる顔検出位置情報に基づいて画面移動量を予測して、映像ストリームに含まれる顔揺れを補正する顔揺れ補正手段、顔揺れを補正した後の映像ストリームを出力する出力手段として機能させるものである。
かかるコンピュータ・プログラムは、コンピュータ上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、このようなコンピュータ・プログラムをコンピュータにインストールすることによって、コンピュータ上では協働的作用が発揮され、本願の請求項1に係る映像再生装置と同様の作用効果を得ることができる。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、カメラで撮影するなどして得られた映像ストリームをMPEG形式の動画フォーマットで付随する属性情報とともに記録媒体に記録し、且つ記録媒体から再生出力するシステムに適用した実施形態を中心に説明してきたが、本発明の要旨はこれに限定されるものではない。MPEG以外の動画フォーマットで映像ストリームを記録再生する場合であっても、本発明が同様に実現可能であることは言うまでもない。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。

Claims (7)

  1. 複数のフレーム分の画面グループを単位として構成される映像ストリームの各画面グループの1番目のフレームにおける顔の中心位置座標を含む顔位置情報に基づき、画面移動量を予測し、映像ストリームに含まれる顔の揺れを補正し、再生するように制御する制御部具備し、
    前記制御部は、複数の画面グループ分だけ先読みし、フレーム再生表示時刻と顔の中心位置座標の対応テーブルをフィールド単位で作成し、画面グループ単位毎の顔の中心位置座標からフィールド毎の顔の中心位置の移動量を計算し、さらに最大移動制限量の範囲内で割り切れる数のフィールド集合の移動平均により顔の中心位置座標を補正する、
    再生装置。
  2. 前記制御部は、画面中心位置に対する顔の中心位置座標のオフセットを取り除くとともに、再生用の画像を顔の中心位置座標で所定の拡大率により拡大することにより、映像ストリームに含まれる顔の揺れを補正し、再生するように制御する、
    請求項1に記載の再生装置。
  3. 前記制御部は、映像ストリームの再生ストリーム・バッファへの読み取り更新要求が発生するタイミングで、映像ストリームとともに顔の中心位置座標を一括して先読みする、
    請求項1に記載の再生装置。
  4. 前記制御部は、所定の拡大率により再生用の画像を拡大すると、顔検出エリアが画面範囲を一部外れてしまう場合には、顔検出エリアが画面内部の辺に収まる位置にシフト補正する左右補正幅制限を設ける、
    請求項に記載の再生装置。
  5. 前記制御部は、画面中心位置に対する顔の中心位置座標の水平方向のオフセットを取り除くことによって横揺れを補正するとともに、画面中心位置に対する背景の風景水平検出位置座標のオフセットを取り除くことによって縦揺れを補正する、
    請求項に記載の再生装置。
  6. コンピュータが備える制御手段が、複数のフレーム分の画面グループを単位として構成される映像ストリームの各画面グループの1番目のフレームにおける顔の中心位置座標を含む顔位置情報に基づき、画面移動量を予測し、映像ストリームに含まれる顔の揺れを補正し、再生するように制御する制御ステップを有し、
    前記制御ステップでは、複数の画面グループ分だけ先読みし、フレーム再生表示時刻と顔の中心位置座標の対応テーブルをフィールド単位で作成し、画面グループ単位毎の顔の中心位置座標からフィールド毎の顔の中心位置の移動量を計算し、さらに最大移動制限量の範囲内で割り切れる数のフィールド集合の移動平均により顔の中心位置座標を補正する、
    再生方法。
  7. 複数のフレーム分の画面グループを単位として構成される映像ストリームの各画面グループの1番目のフレームにおける顔の中心位置座標を含む顔位置情報に基づき、画面移動量を予測し、映像ストリームに含まれる顔の揺れを補正し、再生するように制御する制御部としてコンピュータを機能させ、
    前記制御部は、複数の画面グループ分だけ先読みし、フレーム再生表示時刻と顔の中心位置座標の対応テーブルをフィールド単位で作成し、画面グループ単位毎の顔の中心位置座標からフィールド毎の顔の中心位置の移動量を計算し、さらに最大移動制限量の範囲内で割り切れる数のフィールド集合の移動平均により顔の中心位置座標を補正する、
    コンピュータ可読形式で記述されたコンピュータ・プログラム。
JP2009538186A 2007-10-23 2008-10-20 再生装置及び再生方法、並びにコンピュータ・プログラム Expired - Fee Related JP5333229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009538186A JP5333229B2 (ja) 2007-10-23 2008-10-20 再生装置及び再生方法、並びにコンピュータ・プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007274702 2007-10-23
JP2007274702 2007-10-23
PCT/JP2008/068933 WO2009054333A1 (ja) 2007-10-23 2008-10-20 映像再生装置及び映像再生方法
JP2009538186A JP5333229B2 (ja) 2007-10-23 2008-10-20 再生装置及び再生方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JPWO2009054333A1 JPWO2009054333A1 (ja) 2011-03-03
JP5333229B2 true JP5333229B2 (ja) 2013-11-06

Family

ID=40579438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009538186A Expired - Fee Related JP5333229B2 (ja) 2007-10-23 2008-10-20 再生装置及び再生方法、並びにコンピュータ・プログラム

Country Status (6)

Country Link
US (1) US8260118B2 (ja)
EP (1) EP2202968B1 (ja)
JP (1) JP5333229B2 (ja)
KR (1) KR20100067115A (ja)
CN (2) CN101828391B (ja)
WO (1) WO2009054333A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8239395B2 (en) * 2008-12-26 2012-08-07 Sandisk Il Ltd. Storage device presenting to hosts only files compatible with a defined host capability
US20100169395A1 (en) * 2008-12-26 2010-07-01 Sandisk Il Ltd. Device and method for filtering a file system
US8943409B2 (en) * 2008-12-26 2015-01-27 Sandisk Il Ltd. Storage device managing playable content
US8166067B2 (en) * 2008-12-26 2012-04-24 Sandisk Il Ltd. Method and apparatus for providing access to files based on user identity
KR20120006410A (ko) 2010-07-12 2012-01-18 엘지이노텍 주식회사 발광 소자 및 그 제조방법
US8848054B2 (en) * 2010-07-29 2014-09-30 Crestron Electronics Inc. Presentation capture with automatically configurable output
JP5597061B2 (ja) * 2010-08-18 2014-10-01 キヤノン株式会社 映像再生装置、及びその制御方法
US9762848B2 (en) * 2013-03-15 2017-09-12 Google Inc. Automatic adjustment of video orientation
JP2014209707A (ja) * 2013-03-25 2014-11-06 パナソニック株式会社 映像再生装置および映像再生方法
JP6371656B2 (ja) * 2014-09-26 2018-08-08 キヤノン株式会社 画像再生装置、画像再生方法およびプログラム、並びに撮像装置
CN104915663B (zh) * 2015-07-03 2018-07-06 广东欧珀移动通信有限公司 一种提升人脸识别显示的方法、系统及移动终端
US11727545B2 (en) * 2019-12-12 2023-08-15 Canon Kabushiki Kaisha Image processing apparatus and image capturing apparatus
US11736671B2 (en) * 2020-06-02 2023-08-22 Mikhail Dichenko Determining a toning coefficient for video, image and audio files
CN113409290B (zh) * 2021-06-29 2023-12-15 北京兆维电子(集团)有限责任公司 一种液晶屏外观缺陷检测方法、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187303A (ja) * 1997-12-22 1999-07-09 Canon Inc 画像処理装置および方法並びに記憶媒体
JP2006060636A (ja) * 2004-08-23 2006-03-02 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びにプログラム
JP2006109119A (ja) * 2004-10-06 2006-04-20 Omron Corp 動画記録装置および動画再生装置
JP2006295707A (ja) * 2005-04-13 2006-10-26 Fuji Photo Film Co Ltd 画像再生装置及び像ブレ補正プログラム
JP2006295350A (ja) * 2005-04-07 2006-10-26 Sony Corp 撮像装置及び撮像結果の処理方法
JP2007195099A (ja) * 2006-01-23 2007-08-02 Fujifilm Corp 撮影装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100683849B1 (ko) * 2000-06-28 2007-02-15 삼성전자주식회사 디지털 영상 안정화기능을 갖는 디코더 및 디지털영상안정화방법
JP2004248171A (ja) 2003-02-17 2004-09-02 Fuji Photo Film Co Ltd 動画記録装置、動画再生装置、及び動画記録再生装置
JP2007041987A (ja) * 2005-08-05 2007-02-15 Sony Corp 画像処理装置および方法、並びにプログラム
JP4714003B2 (ja) 2005-11-08 2011-06-29 パナソニック株式会社 撮影装置および記録方法
JP4457358B2 (ja) * 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
JP4201809B2 (ja) * 2006-11-13 2008-12-24 三洋電機株式会社 手ぶれ補正装置及び方法並びに撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187303A (ja) * 1997-12-22 1999-07-09 Canon Inc 画像処理装置および方法並びに記憶媒体
JP2006060636A (ja) * 2004-08-23 2006-03-02 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びにプログラム
JP2006109119A (ja) * 2004-10-06 2006-04-20 Omron Corp 動画記録装置および動画再生装置
JP2006295350A (ja) * 2005-04-07 2006-10-26 Sony Corp 撮像装置及び撮像結果の処理方法
JP2006295707A (ja) * 2005-04-13 2006-10-26 Fuji Photo Film Co Ltd 画像再生装置及び像ブレ補正プログラム
JP2007195099A (ja) * 2006-01-23 2007-08-02 Fujifilm Corp 撮影装置

Also Published As

Publication number Publication date
CN101828391A (zh) 2010-09-08
WO2009054333A1 (ja) 2009-04-30
US8260118B2 (en) 2012-09-04
CN102724515A (zh) 2012-10-10
JPWO2009054333A1 (ja) 2011-03-03
EP2202968B1 (en) 2012-12-05
EP2202968A4 (en) 2011-07-06
CN101828391B (zh) 2012-07-04
EP2202968A1 (en) 2010-06-30
KR20100067115A (ko) 2010-06-18
CN102724515B (zh) 2014-10-22
US20100183277A1 (en) 2010-07-22

Similar Documents

Publication Publication Date Title
JP5333229B2 (ja) 再生装置及び再生方法、並びにコンピュータ・プログラム
US8350892B2 (en) Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program
JP5685732B2 (ja) 映像抽出装置、プログラム及び記録媒体
JP4556195B2 (ja) 撮像装置、動画再生装置及びそのプログラム
JP4992639B2 (ja) コンテンツ撮影装置
US7609301B2 (en) Motion image recording device with compression ratio control
US8818165B2 (en) Data processing apparatus, data processing method, and computer program
JP5082973B2 (ja) 映像記録システム、及び撮像装置
US7382401B2 (en) Data processing apparatus
US20110019024A1 (en) Apparatus for recording and reproducing video images
JP5683301B2 (ja) 画像記録装置
JP2012151708A (ja) 撮像装置
JP5332668B2 (ja) 撮像装置および被写体検出プログラム
JP2016058830A (ja) 撮像装置、その制御方法、及びプログラム
JP4293082B2 (ja) サーバ機能を備えた再生装置
JP4300959B2 (ja) 電子カメラ並びに画像編集装置及び方法
JP2012204933A (ja) 画像再生装置、撮像装置、および、画像再生プログラム
JP2009100199A (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2006165797A (ja) 記録装置及び記録方法
JP2005136794A (ja) カメラのデータ記録方法
JP2000217075A (ja) 動画像再生装置と動画像再生方法
JP2016063256A (ja) 撮像装置およびその制御方法、並びにプログラム
JP2010199781A (ja) 動画編集装置および動画編集方法
JP2005136924A (ja) カメラの画像データ処理方法
JP2012142892A (ja) 動画記録装置、その制御方法、動画再生装置、及び動画記録再生システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130715

LAPS Cancellation because of no payment of annual fees