JP2012034128A - 画像処理装置およびそれを用いた撮像装置 - Google Patents

画像処理装置およびそれを用いた撮像装置 Download PDF

Info

Publication number
JP2012034128A
JP2012034128A JP2010171032A JP2010171032A JP2012034128A JP 2012034128 A JP2012034128 A JP 2012034128A JP 2010171032 A JP2010171032 A JP 2010171032A JP 2010171032 A JP2010171032 A JP 2010171032A JP 2012034128 A JP2012034128 A JP 2012034128A
Authority
JP
Japan
Prior art keywords
photographer
unit
image
moving image
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010171032A
Other languages
English (en)
Inventor
Shigeyuki Okada
茂之 岡田
Hideo Hirono
英雄 廣野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010171032A priority Critical patent/JP2012034128A/ja
Priority to CN2011101951640A priority patent/CN102340672A/zh
Priority to US13/185,891 priority patent/US20120020639A1/en
Publication of JP2012034128A publication Critical patent/JP2012034128A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像装置で撮影された動画像の再生や編集を容易にする。
【解決手段】第1取得部11は、記録用の動画像を撮像するための第1撮像部210から画像を取得する。画像符号化部40は、第1取得部11により取得された画像を符号化して動画像符号化データを生成する。第2取得部12は、撮影者を撮像するための第2撮像部220から画像を取得する。判定部14は、第2取得部12により取得された画像をもとに、記録用の動画像を表示しているモニタ230を撮影者が見ているか否かを判定する。制御部20は、動画像符号化データに、撮影者がモニタ230を見ているか否かを特定するための撮影者視線情報を関連づける。
【選択図】図2

Description

本発明は、撮像される動画像を符号化、再生、編集または保持する画像処理装置およびそれを搭載した撮像装置に関する。
近年、一般ユーザが手軽に動画像を撮影することができるデジタルムービーカメラが普及してきており、それらのなかには、フルHD(high definition)(1920×1080ピクセル)画質の動画像を撮影することができるものもある。このようなデジタルムービーカメラで撮影された動画像は、様々な用途に使用される。たとえば、テレビやPCで鑑賞されたり、電子メールに添付して送信されたり、インターネット上の動画共有サイト、ブログサイトまたはSNS(Social Networking Service)サイトにアップロードされたりする。
特開2009−153085号公報
本発明はこうした状況に鑑みなされたものであり、その目的は、撮像装置で撮影された動画像の再生や編集を容易にする技術を提供することにある。
本発明のある態様の画像処理装置は、記録用の動画像を撮像するための第1撮像部から画像を取得する第1取得部と、第1取得部により取得された画像を符号化して動画像符号化データを生成する画像符号化部と、撮影者を撮像するための第2撮像部から画像を取得する第2取得部と、第2取得部により取得された画像をもとに、記録用の動画像を表示しているモニタを撮影者が見ているか否かを判定する判定部と、動画像符号化データに、撮影者がモニタを見ているか否かを特定するための撮影者視線情報を関連づける付加部と、を備える。
本発明の別の態様は、撮像装置である。この装置は、上述した記録用の動画像を撮像するための第1撮像部と、撮影者を撮像するための第2撮像部と、画像処理装置と、を備える。
本発明のさらに別の態様は、画像処理装置である。この装置は、画像処理装置により生成された、撮影者視線情報が関連付けられた動画像符号化データを再生する画像処理装置であって、動画像符号化データを復号する復号部と、復号部により復号された動画像を、撮影者視線情報により特定される撮影者がモニタを見始めた位置まで頭出しして、または撮影者がモニタを見ている期間をつなぎあわせて再生するよう制御する制御部と、を備える。
本発明のさらに別の態様もまた、画像処理装置である。この装置は、画像処理装置により生成された、撮影者視線情報が関連付けられた動画像符号化データを編集する画像処理装置であって、動画像符号化データを復号する復号部と、復号部により復号された動画像のうち撮影者視線情報により特定される撮影者がモニタを見ていない期間の部分を削除、または復号部により復号された動画像に撮影者視線情報により特定される撮影者がモニタを見ていない期間を含む場合、動画像全体を削除するよう制御する制御部と、を備える。
本発明のさらに別の態様もまた、画像処理装置である。この装置は、画像処理装置により生成された、撮影者視線情報が関連付けられた動画像符号化データを保持する画像処理装置であって、複数の動画像符号化データごとに、撮影者視線情報により特定される撮影者がモニタを見ている期間と見ていない期間との比率を算出する比率算出部と、比率算出部により算出された比率が高いまたは低い順に、複数の動画像符号化データをソートするソート部と、を備える。
本発明の別の態様は、撮像装置である。この装置は、上述した画像処理装置の少なくとも一つを備える。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、撮像装置で撮影された動画像の再生や編集を容易にすることができる。
本発明の実施の形態1に係る撮像装置の外観概略図である。 本発明の実施の形態1に係る画像処理装置を搭載した撮像装置の構成図である。 分岐部に入力されるフレーム画像、第1画像符号化部により符号化されるフレーム画像および第2画像符号化部により符号化されるフレーム画像の関係を示す図である。 本発明の実施の形態2に係る画像処理装置を備える画像表示システムの構成図である。 実施の形態2に係る制御部による頭出し再生制御を説明するための図である。 実施の形態2に係る制御部によるダイジェスト再生制御を説明するための図である。 実施の形態2に係る制御部による自動編集制御を説明するための図である。 動作例3に係る制御部の構成を示す構成図である。 図9(a)、(b)は、実施の形態2に係る制御部によるファイルソートを説明するための図である。 図10(a)〜(c)は、実施の形態2に係る制御部によるオートフレーミング再生処理の一例を示す図である。
図1は、本発明の実施の形態1に係る撮像装置200の外観概略図である。当該撮像装置200には、第1撮像部210、第2撮像部220およびモニタ230が設置される。第1撮像部210は、人物、風景、構造物(鉄道車両など)など被写体の動画像を撮影するためのメインカメラである。第2撮像部220は、撮影者、より具体的には撮影者の目を撮像するためのサブカメラである。モニタ(ビューワー、ファインダーともいう)230は、主に、第1撮像部210により撮像されている動画像を表示する。
第2撮像部220は、所謂、自分撮りをして記録するためのカメラではなく、撮影者がモニタ230を見ているまたは覗いているか否かを判定するためのカメラである。したがって、第2撮像部220により撮像された画像は基本的に記録されず、破棄される。これに対し、第1撮像部210は記録用の動画像を撮像するためのカメラである。
第2撮像部220は、撮影者がモニタ230を見ているか否かを判定するための画像を撮影できる位置に設置される。具体的には、撮像装置200の撮影者による通常の平均的な持ち位置で、撮影者の顔が撮影できる位置に設置されることが好ましい。たとえば、第2撮像部220がモニタ230の周囲の辺のいずれかの位置に設置されてもよい。
撮影者がモニタ230を見ているか否かを判定することにより、撮影者の行動や心理状態を以下のように推測することができる。
まず、撮影者がモニタ230を見ている場合、以下のような推測が成り立つ。
1.現在撮影しているシーンを絶対に逃したくない(撮影ミスをしたくない)と撮影者が考えている。
2.ターゲットとすべき被写体または構図を変更している最中である。
3.ズーム倍率を変更している最中である。
4.カメラを少し動かすとターゲットがフレーム内から外れてしまうため、通常より撮影に集中している。
つぎに、撮影者がモニタ230を見ていない場合、以下のような推測が成り立つ。
1.撮影するつもりがない。
2.構図を変更するなどの理由から、カメラを通さずに撮影空間全体の把握に努めている。
3.ターゲットを見失い、カメラを通さずにターゲットを探している。
以下、これらの知見を前提に本発明の実施の形態1について具体的に説明する。
図2は、本発明の実施の形態1に係る画像処理装置100を搭載した撮像装置200の構成図である。撮像装置200は、第1撮像部210、第2撮像部220、モニタ230、音声取得部240、操作部250および画像処理装置100を備える。
第1撮像部210についてより具体的に説明する。第1撮像部210は、フレーム画像を連続的に取得し、動画像として画像処理装置100に供給する。第1撮像部210は、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの図示しない固体撮像素子、およびその固体撮像素子から出力される信号を処理する図示しない信号処理回路を備える。当該信号処理回路は、上記固体撮像素子から出力されるアナログの三原色信号R、G、Bを、デジタルの輝度信号Yおよび色差信号Cr、Cbに変換することができる。
第2撮像部220は、第1撮像部210と基本的に同じであるが、第1撮像部210より低スペックなものを用いることができる。なお、上述した撮影者がモニタ230を見ているか否かの判定を一定時間ごと(たとえば、5秒間隔)に実行する場合、第2撮像部220は必ずしも動画像を撮像する機能を搭載している必要はなく、その一定時間ごとに静止画を撮像できる能力があれば足りる。なお、解像度や画角についても、第2撮像部220は第1撮像部210より低スペックなものを用いてもよい。
音声取得部240は、外部から取得される音を電気信号に変換して、音声信号として画像処理装置100に出力する。操作部250は、ユーザの指示を受け付け、その指示にもとづく制御信号を生成し、画像処理装置100に出力する。
画像処理装置100は、第1取得部11、第2取得部12、顔検出部13、判定部14、制御部20、分岐部31、解像度/画角変換部32、画像符号化部40、音声符号化部45、多重化部50、記録部51および入出力部52を備える。画像符号化部40は、第1画像符号化部41および第2画像符号化部42を含む。
画像処理装置100の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
第1取得部11は、第1撮像部210から画像を取得し、分岐部31に供給する。第2取得部12は、第2撮像部220から画像を取得し、顔検出部13に供給する。
顔検出部13は、第2撮像部220により撮像されたフレーム画像内から人物の顔を検出する。顔検出部13は既存の一般的な顔検出技術を用いることができる。たとえば、顔画像を識別するための識別器を用いて、フレーム画像内から顔画像を検出することができる。本実施の形態では、撮影者がモニタ230を見ているか否かを判定する必要があるため、顔検出部13はモニタ230に正対している顔画像が存在するか否かを走査し、その走査結果を判定部14に供給する。
判定部14は、第2取得部12により取得された画像をもとに、第1取得部により取得された記録用の動画像を表示しているモニタ230を撮影者が見ているか否かを判定する。具体的には、顔検出部13から顔画像の走査結果を取得し、モニタ230に正対している顔画像が検出された場合、撮影者がモニタ230を見ていると判定し、モニタ230に正対している顔画像が検出されなかった場合、撮影者がモニタ230を見ていないと判定する。
なお、顔検出部13ではフレーム画像を拡大および縮小しながら、走査が繰り返し実行されるため、フレーム画像内の顔画像の大きさも検出される。したがって、この顔画像の大きさをもとに、撮影者とモニタ230との距離を推定することができる。また、表情の真剣度を識別可能な識別器を用いれば、モニタ230を見ている撮影者が真剣であるかリラックスしているかを判別することもできる。また、特定の人物を撮影して生成した識別器を用いれば、その人物がモニタ230を見ているか否かを判定することができる。この場合、別の人物がモニタ230を見ていても、見ていないと判定される。
制御部20は、判定部14による判定結果に応じて、撮影者がモニタ230を見ているか否かを特定するための撮影者視線情報を生成し、画像符号化部40により生成される動画像符号化データに付加する。
当該撮影者視線情報は、各ピクチャごとに撮影者がモニタ230を見ているか否かを示すフラグ情報であってもよく、各ピクチャのヘッダにそのフラグ情報が付加されてもよい。また、当該撮影者視線情報は、撮影者がモニタ230を見ている期間または見ていない期間を特定するための情報であってもよい。その場合、見ている状態から見ていない状態へ、見ていない状態から見ている状態に変化したピクチャのヘッダにのみ、それらの変化を示すフラグ情報が付加されてもよい。また、それぞれの見ている期間、およびそれぞれの見ていない期間を、時間情報(たとえば、n秒)で表現してもよい。
なお、上述したフラグ情報および時間情報は、ピクチャのヘッダではなくシーケンスのヘッダにまとめて付加されてもよい。また、当該撮影者視線情報は、動画像符号化データと別のファイルとして生成されてもよい。
分岐部31は、制御部20からの制御信号による指示にしたがい、第1取得部11から供給される動画像を第1画像符号化部41に出力するか、解像度/画角変換部32に出力するか、またはその両方に出力する。
解像度/画角変換部32は、分岐部31から入力される動画像を構成するフレーム画像の解像度および/または画角を変換することができる。たとえば、当該フレーム画像の解像度を低下させることもできるし、当該フレーム画像の中央領域を切り出し、その周辺領域を削除して画角を狭くすることもできる。また、当該フレーム画像内の画素を間引いて、解像度を低下させ、かつ画角を狭くしてもよい。解像度/画角変換部32は、解像度および/または画角を変換させた後のフレーム画像で構成される動画像を第2画像符号化部42に出力する。
なお、解像度/画角変換部32と第2画像符号化部42との間に、図示しない超解像処理部を設けてもよい。当該超解像処理部は、解像度/画角変換部32により画角が狭く調整されたフレーム画像の解像度を超解像処理により向上させ、元のフレーム画像のサイズに復元してもよい。これにより、注目領域を抽出するために画角が狭く調整されたフレーム画像のサイズを元の解像度で元のサイズに復元することができる。
画像符号化部40は、第1撮像部210により撮像される動画像を、第1画質および当該第1画質と異なる第2画質の両方で、並列的または同時に符号化することができる。すなわち、一種類の動画像をデュアルエンコードすることができる。図2では、第1画像符号化部41が分岐部31から入力される動画像を、第2画像符号化部42が解像度/画角変換部32から入力される動画像を、並列的または同時に符号化することができる。
上記第1画質の動画像と上記第2画質の動画像とは、異なる解像度および/または画角で符号化される。たとえば、上記第1画質の動画像の解像度と上記第2画質の動画像の解像度との組み合わせは、様々な組み合わせが可能である。たとえば、1920×1080ピクセルサイズ、1280×720ピクセルサイズ、640×480ピクセルサイズ、448×336ピクセルサイズおよび192×108ピクセルサイズの、任意の二つの組み合わせであってもよい。
また、上記第1画質の動画像と上記第2画質の動画像とは、異なる解像度および/または画角で符号化されるとともに、異なるフレームレートで符号化されてもよい。たとえば、60fps、30fpsおよび15fpsの、任意の二つの組み合わせであってもよい。また、448×336ピクセルサイズまたは192×108ピクセルサイズなど、低解像度の場合、240fpsや600fpsなど、高フレームレートを割り当てることも可能である。
画像符号化部40は、当該第1画質の動画像および当該第2画質の動画像を所定の規格にしたがい圧縮符号化する。たとえば、H.264/AVC、H.264/SVC、MPEG−2、またはMPEG−4などの規格にしたがい圧縮符号化することができる。
画像符号化部40は、一つのハードウェアエンコーダまたは汎用プロセッサによるソフトウェア処理により、上記第1画質の動画像と上記第2画質の動画像を時分割に符号化してもよいし、二つのハードウェアエンコーダにより、当該第1画質の動画像と当該第2画質の動画像とを平行に符号化してもよい。画像符号化部40は、符号化した、第1画質の動画像の符号化データ(符号化ストリームともいう)および第2画質の動画像の符号化データを多重化部50に出力する。
音声符号化部45は、音声取得部240から供給される音声信号を符号化する。たとえば、AAC、MP3などの規格にしたがい圧縮符号化する。音声符号化部45は、符号化した、音声の符号化データを多重化部50に出力する。
多重化部50は、第1画像符号化部41から入力される上記第1画質の動画像の符号化データ、第2画像符号化部42から入力される上記第2画質の動画像の符号化データ、および音声符号化部45から入力される音声の符号化データを多重化して、一つの動画像ファイルを生成する。たとえば、MP4ファイルフォーマットにしたがった、コンテナファイルを生成することができる。当該コンテナファイルには、各符号化データのヘッダ情報、メタデータ、時刻情報などを記述したコンテナを含めることができる。復号側で当該コンテナファイルが参照されることにより、上記第1画質の動画像、上記第2画質の動画像および上記音声間の同期をとることや、ランダムアクセスすることが容易に可能となる。
記録部51は、多重化部50により多重化された動画像ファイルを所定の記録媒体に記録する。当該記録媒体として、内蔵メモリおよび着脱可能なリムーバブルメモリの少なくとも一方を採用することができる。たとえば、内蔵メモリとして、半導体メモリまたはハードディスクを採用することができる。また、リムーバブルメモリとして、メモリーカード、リムーバブルハードディスク、または光ディスクを採用することができる。
入出力部52は、所定のインターフェイスを介して外部機器と通信する。たとえば、USBケーブルでPCや外付けハードディスクと接続して、上記記録媒体に記録された動画像ファイルをPCや外付けハードディスクに転送することができる。また、D端子、S端子またはHDMI端子でテレビと接続して、上記第1画質の動画像および上記第2画質の動画像をテレビ画面に表示させることもできる。
図3は、分岐部31に入力されるフレーム画像F1、第1画像符号化部41により符号化されるフレーム画像F2および第2画像符号化部42により符号化されるフレーム画像F3の関係を示す図である。図3では、上記第1画質の動画像がHD(1280×720ピクセル)サイズのフレーム画像で構成される動画像、および上記第2画質の動画像がSD(640×480ピクセル)サイズのフレーム画像で構成される動画像である場合を例に説明する。この例では、分岐部31にHDサイズのフレーム画像F1が入力される。
分岐部31は、HDサイズのフレーム画像F1を第1画像符号化部41および解像度/画角変換部32に出力する。解像度/画角変換部32は、HDサイズのフレーム画像F1をSDサイズのフレーム画像F3に変換する。第1画像符号化部41は、分岐部31から入力されたHDサイズのフレーム画像F1をそのまま符号化する。第2画像符号化部42は、解像度/画角変換部32から入力されたSDサイズのフレーム画像F3を符号化する。
第1画像符号化部41により符号化される、HDサイズのフレーム画像F2のアスペクト比は16:9であり、第2画像符号化部42により符号化される、SDサイズのフレーム画像F3のアスペクト比は4:3である。SDサイズのフレーム画像F3は、HDサイズのフレーム画像F2の中央領域が残され、その周辺領域が削除されて生成される。
以上説明したように実施の形態1によれば、撮影者がモニタ230を見ているか否かを示す情報を動画像符号化データに付加することにより、復号して再生する側に有益な情報を与えることができる。なお、図2に示す画像処理装置100では、画像符号化部40が二つの符号化部を備える例を説明したが、画像符号化部40が一つの符号化部を備える構成であってもよい。すなわち、画像処理装置100で一種類の動画像符号化データのみが生成される構成であってもよい。
図4は、本発明の実施の形態2に係る画像処理装置500を備える画像表示システム700の構成図である。画像表示システム700は、画像処理装置500および表示装置610および操作部620を備える。
画像表示システム700は、様々なハードウェア構成が可能である。たとえば、画像表示システム700を、上述した撮像装置200と、ケーブル接続されたテレビにより構築することができる。この場合、画像処理装置500が撮像装置200の制御機能、操作部620が撮像装置200の操作部250、および表示装置610が当該テレビの表示機能により構築可能である。
また、画像表示システム700を、実施の形態1に係る画像処理装置100により生成された動画像ファイルを受信したPCにより構築可能である。この場合、画像処理装置500、操作部620および表示装置610のそれぞれをPCの制御機能、操作機能および表示機能によりそれぞれ構築可能である。PCの代わりに、携帯電話機、スマートフォン、携帯型音楽プレイヤ、ゲーム機などを用いる場合も同様である。
また、画像表示システム700を、上述した撮像装置200単体で構築可能である。この場合、画像処理装置500、操作部620および表示装置610のそれぞれを撮像装置200の制御機能、操作機能および表示機能によりそれぞれ構築可能である。当該撮像装置200には、実施の形態1に係る画像処理装置100も含まれる。
表示装置610は、画像処理装置500から供給される動画像を表示する。操作部620は、ユーザの指示を受け付け、その指示にもとづく制御信号を生成し、画像処理装置500に出力する。
実施の形態2に係る画像処理装置500は、実施の形態1に係る画像処理装置100により生成された、上記撮影者視線情報が関連付けられた動画像符号化データを再生、編集または保持する装置である。実施の形態2に係る画像処理装置500は、バッファ510、復号部520、制御部530および記録部540を含む。
画像処理装置500の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
バッファ510は、実施の形態1に係る画像処理装置100により生成された動画像符号化データを一時記憶する。当該動画像符号化データは、画像処理装置100内の記録部51から入力されてもよいし、撮像装置200および画像処理装置500の外部に存在する外部記憶装置(たとえば、メモリーカード、外付けのハードディスクなど)から入力されてもよいし、画像処理装置500内の記録部540から入力されてもよい。バッファ510は、上記動画像符号化データを所定のタイミングで復号部520に供給する。
復号部520は、バッファ510から供給される動画像符号化データを復号し、制御部530に供給する。記録部540は、主に、動画像符号化データを記録する。実施の形態1に係る画像処理装置100により生成された、上記撮影者視線情報が関連付けられた動画像符号化データも記録することもできる。また、制御部530により編集された後の動画像符号化データも記録することができる。
制御部530は、上記撮影者視線情報が関連付けられた動画像符号化データの再生制御の編集、削除、ファイル管理など様々な処理を行うことができる。
まず、制御部530による動作例1について説明する。動作例1では、制御部530は、復号部520により復号された動画像を、上記撮影者視線情報により特定される撮影者がモニタ230を見始めた位置まで頭出しする。または、撮影者がモニタ230を見ている期間をつなぎあわせてダイジェスト再生するよう制御する。
図5は、実施の形態2に係る制御部530による頭出し再生制御を説明するための図である。図5に示す動画像は第1シーンS1から第12シーンS12により構成される。図5内の各コマは、各シーンの先頭のコマを示している。各コマ内に表記される「e0」および「e1」は、それぞれ撮影者がそのシーンを撮影する際にモニタ230を見ていたか否かを示す情報である。「e0」が見ていなかったことを示し、「e1」が見ていたことを示す。なお、こここは各シーン内では撮影者がモニタ230を見ていた状態および見ていなかった状態は変化しないことを前提とする。もちろん、実施の形態2に係る制御部530による各種処理は、フレーム単位で撮影者がモニタ230を見ていたか否かが切り換わる構成にも対応可能である。
図5に示す例では、第4シーンS4まで撮影者がそのシーンを撮影する際にモニタ230を見ていなかったことを示す。そこで、制御部530は第4シーンS4までを重要でないシーンと判定し、第5シーンS5から再生するよう制御する。
図6は、実施の形態2に係る制御部530によるダイジェスト再生制御を説明するための図である。図6に示す例では、第1シーンS1から第3シーンS3まで、および第7シーンS7から第9シーンS9まで撮影者がそれらのシーンを撮影する際にモニタ230を見ていなかったことを示している。第4シーンS4から第6シーンS6まで、および第10シーンS10から第12シーンS12まで撮影者がそれらのシーンを撮影する際にモニタ230を見ていたことを示している。
そこで、制御部530は第1シーンS1から第3シーンS3まで、および第7シーンS7から第9シーンS9までを重要でないシーンと判定し、それらのシーンをスキップし、第4シーンS4から第6シーンS6まで、および第10シーンS10から第12シーンS12までをつなぎ合わせてダイジェスト再生するよう制御する。
つぎに、制御部530による動作例2について説明する。動作例2では、制御部530は、復号部520により復号された動画像のうち上記撮影者視線情報により特定される撮影者がモニタ230を見ていない期間の部分を削除する。または復号部520により復号された動画像に上記撮影者視線情報により特定される撮影者がモニタ230を見ていない期間を含む場合、動画像全体を削除する。
図7は、実施の形態2に係る制御部530による自動編集制御を説明するための図である。図7に示す例では、図6に示す例と同様に、第1シーンS1から第3シーンS3まで、および第7シーンS7から第9シーンS9まで撮影者がモニタ230を見ていなかったことを示し、第4シーンS4から第6シーンS6まで、および第10シーンS10から第12シーンS12まで撮影者がモニタ230を見ていたことを示している。
そこで、制御部530は第1シーンS1から第3シーンS3まで、および第7シーンS7から第9シーンS9までを重要でないシーンと判定し、それらのシーンを削除する。残った第4シーンS4から第6シーンS6まで、および第10シーンS10から第12シーンS12までをつなぎ合わせることにより、新たな動画像ファイルを生成する。この動画像ファイルは、編集前に比べてデータ容量が削減される。その際、動作例2によれば、できるだけ重要なシーンが残るように編集することができる。
なお、図7に示す例では撮影者がモニタ230を見ていなかったシーンのみを削除したが、動画像内に撮影者がモニタ230を見ていなかったシーンが一つでも含まれる場合、その動画像全体を削除してもよい。複数の動画像ファイルからいずれかを削除する必要がある場合、この手法を採用することにより、比較的重要でない動画像ファイルを削除することができる。
つぎに、制御部530による動作例3について説明する。図8は、動作例3に係る制御部530の構成を示す構成図である。当該制御部530は、比率算出部532およびソート部534を含む。比率算出部532は、記録部540に保持される複数の動画像符号化データごとに、上記撮影者視線情報により特定される撮影者がモニタ230を見ている期間と見ていない期間との比率を算出する。この比率は全撮影期間に対する、撮影者がモニタ230を見ている期間または見ていない期間と考えてもよい。ソート部534は、比率算出部532により算出された比率が高いまたは低い順に、上記複数の動画像符号化データをソートする。
図9(a)、(b)は、実施の形態2に係る制御部530によるファイルソートを説明するための図である。図9(a)、(b)では、記録部540に四つの動画像ファイルが格納されていることを前提とする。図9(a)は、記録された時刻が古いまたは新しい順に、四つの動画像ファイルが格納されている状態を示す。この場合において、それら四つの動画像ファイルが表示装置610の画面に表示される際、動画像ファイル1→動画像ファイル2→動画像ファイル3→動画像ファイル4の順に表示される。
比率算出部532は、上記四つの動画像ファイルのそれぞれの、全撮影期間に対する撮影者がモニタ230を見ている期間の割合を算出する。図9(a)では、動画像ファイル1が70%、動画像ファイル2が90%、動画像ファイル3が40%および動画像ファイル4が80%である。
図9(b)は、ソート部534が上記四つの動画像ファイルをソート後の状態を示す。図9(b)では、上記割合が高い順に、上記四つの動画像ファイルが動画像ファイル2→動画像ファイル4→動画像ファイル1→動画像ファイル3の順にソートされる。この場合において、それら四つの動画像ファイルが表示装置610の画面に表示される際、動画像ファイル2→動画像ファイル4→動画像ファイル1→動画像ファイル3の順に表示される。すなわち、重要度または注目度が高いと推定される順に、動画像ファイルを表示することができる。
つぎに、制御部530による動作例4について説明する。動作例4では、制御部530は、復号部520により復号された動画像のうち上記撮影者視線情報により特定される撮影者がモニタ230を見ている期間、音量を大きくして再生し、撮影者がモニタ230を見ていない期間、音量を小さくして再生する。たとえば、設定されている二種類の音量のうち、前者の期間、大きなほうを選択し、後者の期間、小さいほうを選択する。
また、制御部530は、復号部520により復号された動画像のうち上記撮影者視線情報により特定される撮影者がモニタ230を見ている期間、第1撮像部210に正対する正面の音声を増幅し、正面以外の音声を低減したズームモードで再生し、撮影者がモニタ230を見ていない期間、方向により増幅および低減しないワイドモードで再生する。これにより、正面に写っている人物の発言をより強調した再生などが可能となる。
つぎに、制御部530による動作例5について説明する。動作例5では、制御部530は、復号部520により復号された動画像のうち上記撮影者視線情報により特定される撮影者がモニタ230を見ている期間、画面内のターゲットすべきオブジェクトが強調されるよう再生し、撮影者がモニタ230を見ていない期間、できるだけ撮影画像全体が表示されるよう再生する。
たとえば、制御部530はズーム再生することができる。撮影者がモニタ230を見ている期間、より望遠な画像を再生し、撮影者がモニタ230を見ていない期間、より広角な画像を再生する。たとえば、設定されている二種類の画角のうち、前者の期間、望遠なほうを選択し、後者の期間、広角のほうを選択する。なお、上述した実施の形態1に係る画像処理装置100の顔検出部13により、顔画像が検出された領域が注目領域として設定される場合であって、各フレーム画像ごとにその注目領域の位置およびサイズが特定され、その情報が動画像符号化データに付加されている場合、つぎのような処理が可能である。すなわち、制御部530は撮影者がモニタ230を見ている期間、その注目領域を再生し、撮影者がモニタ230を見ていない期間、全体領域を再生する。なお、注目領域は顔以外のオブジェクトを含む位置に設定されてもよい。
また、制御部530はオートフレーミング再生することもできる。撮影者がモニタ230を見ている期間、オートフレーミング再生機能をオンし、撮影者がモニタ230を見ていない期間、オートフレーミング再生機能をオフする。
図10(a)〜(c)は、実施の形態2に係る制御部530によるオートフレーミング再生処理の一例を示す図である。図10(a)は、現在のフレーム画像F13より二フレーム前のフレーム画像F11を示す。図10(b)は、現在のフレーム画像F13より一フレーム前のフレーム画像F12を示す。図10(c)は、現在のフレーム画像F13を示す。
図10(a)〜(c)では、被写体とすべき人物が右方向に動いている例を示している。トリミング領域T1〜T3は、その領域内で被写体とすべき人物が中央に位置するように、当該人物の動きに合わせて、右方向に移動していく。これらトリミング領域T1〜T3が再生領域に設定される。これにより、当該人物が中央に写った動画像を再生することができる。
以上説明したように実施の形態2によれば、撮影者がモニタ230を見ているか否かを示す情報を利用することにより、撮像装置200で撮影された動画像の再生や編集を支援し、それらの手間を軽減することができる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上述した実施の形態2では、主に、画像処理装置100により一種類の動画像符号化データが生成された場合を想定した。この点、画像処理装置100により複数種類の動画像符号化データが生成された場合、以下のような処理が可能である。すなわち、制御部530は、復号部520により復号された動画像のうち上記撮影者視線情報により特定される撮影者がモニタ230を見ている期間、複数種類の動画像符号化データのうち、最も画質が高い(たとえば、HD画質)データを再生し、撮影者がモニタ230を見ていない期間、その画質より低い(たとえば、SD画質)データを再生する。
これにより、重要度または注目度の高いシーンを高画質で再生しながら、全体として復号部の負荷を低減することができる。
11 第1取得部、 12 第2取得部、 13 顔検出部、 14 判定部、 20 制御部、 31 分岐部、 32 解像度/画角変換部、 40 画像符号化部、 41 第1画像符号化部、 42 第2画像符号化部、 45 音声符号化部、 50 多重化部、 51 記録部、 52 入出力部、 100 画像処理装置、 200 撮像装置、 210 第1撮像部、 220 第2撮像部、 230 モニタ、 240 音声取得部、 250 操作部、 500 画像処理装置、 510 バッファ、 520 復号部、 530 制御部、 532 比率算出部、 534 ソート部、 540 記録部、 610 表示装置、 620 操作部、 700 画像表示システム。

Claims (5)

  1. 記録用の動画像を撮像するための第1撮像部から画像を取得する第1取得部と、
    前記第1取得部により取得された画像を符号化して動画像符号化データを生成する画像符号化部と、
    撮影者を撮像するための第2撮像部から画像を取得する第2取得部と、
    前記第2取得部により取得された画像をもとに、前記記録用の動画像を表示しているモニタを前記撮影者が見ているか否かを判定する判定部と、
    前記動画像符号化データに、前記撮影者が前記モニタを見ているか否かを特定するための撮影者視線情報を関連づける付加部と、
    を備えることを特徴とする画像処理装置。
  2. 記録用の動画像を撮像するための第1撮像部と、
    撮影者を撮像するための第2撮像部と、
    請求項1に記載の画像処理装置と、
    を備えることを特徴とする撮像装置。
  3. 請求項1に記載の画像処理装置により生成された、前記撮影者視線情報が関連付けられた動画像符号化データを再生する画像処理装置であって、
    前記動画像符号化データを復号する復号部と、
    前記復号部により復号された動画像を、前記撮影者視線情報により特定される前記撮影者が前記モニタを見始めた位置まで頭出しして、または前記撮影者が前記モニタを見ている期間をつなぎあわせて再生するよう制御する制御部と、
    を備えることを特徴とする画像処理装置。
  4. 請求項1に記載の画像処理装置により生成された、前記撮影者視線情報が関連付けられた動画像符号化データを編集する画像処理装置であって、
    前記動画像符号化データを復号する復号部と、
    前記復号部により復号された動画像のうち前記撮影者視線情報により特定される前記撮影者が前記モニタを見ていない期間の部分を削除、または前記復号部により復号された動画像に前記撮影者視線情報により特定される前記撮影者が前記モニタを見ていない期間を含む場合、前記動画像全体を削除するよう制御する制御部と、
    を備えることを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置により生成された、前記撮影者視線情報が関連付けられた動画像符号化データを保持する画像処理装置であって、
    複数の動画像符号化データごとに、前記撮影者視線情報により特定される前記撮影者が前記モニタを見ている期間と見ていない期間との比率を算出する比率算出部と、
    前記比率算出部により算出された比率が高いまたは低い順に、前記複数の動画像符号化データをソートするソート部と、
    を備えることを特徴とする画像処理装置。
JP2010171032A 2010-07-20 2010-07-29 画像処理装置およびそれを用いた撮像装置 Pending JP2012034128A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010171032A JP2012034128A (ja) 2010-07-29 2010-07-29 画像処理装置およびそれを用いた撮像装置
CN2011101951640A CN102340672A (zh) 2010-07-20 2011-07-13 图像处理装置以及使用它的摄像装置
US13/185,891 US20120020639A1 (en) 2010-07-20 2011-07-19 Image processing apparatus and image pickup apparatus using the image processing appratus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010171032A JP2012034128A (ja) 2010-07-29 2010-07-29 画像処理装置およびそれを用いた撮像装置

Publications (1)

Publication Number Publication Date
JP2012034128A true JP2012034128A (ja) 2012-02-16

Family

ID=45847024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010171032A Pending JP2012034128A (ja) 2010-07-20 2010-07-29 画像処理装置およびそれを用いた撮像装置

Country Status (1)

Country Link
JP (1) JP2012034128A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036237A (ja) * 2012-08-07 2014-02-24 Casio Comput Co Ltd 撮像装置、プログラム及び撮像方法
JP2014123908A (ja) * 2012-12-21 2014-07-03 Jvc Kenwood Corp 画像処理装置、画像切り出し方法、及びプログラム
JP2015070455A (ja) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド 撮像表示装置、及び制御方法
JP2018501586A (ja) * 2015-01-12 2018-01-18 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 影像識別システムと方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036237A (ja) * 2012-08-07 2014-02-24 Casio Comput Co Ltd 撮像装置、プログラム及び撮像方法
JP2014123908A (ja) * 2012-12-21 2014-07-03 Jvc Kenwood Corp 画像処理装置、画像切り出し方法、及びプログラム
JP2015070455A (ja) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド 撮像表示装置、及び制御方法
JP2018501586A (ja) * 2015-01-12 2018-01-18 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 影像識別システムと方法

Similar Documents

Publication Publication Date Title
US8264573B2 (en) Imaging apparatus and reproducing apparatus which changes frame rate based on zoom operation
JP5685732B2 (ja) 映像抽出装置、プログラム及び記録媒体
US20090091635A1 (en) Display control device, display control method, and display control program
US9918062B2 (en) Image capturing apparatus, control method of image capturing apparatus, and image processing method
JPWO2009141951A1 (ja) 映像撮影装置および映像符号化装置
JP2009038649A (ja) 信号処理回路、及び撮影装置
KR20100067115A (ko) 영상 재생 장치 및 영상 재생 방법
JP2013258510A (ja) 撮像装置並びにその制御方法及びプログラム
JP2011053655A (ja) 画像表示制御装置およびそれを搭載した撮像装置、ならびに画像処理装置およびそれを用いた撮像装置
JP2009246935A (ja) 画像処理装置およびそれを搭載した撮像装置
EP2974265B1 (en) Imaging apparatus and imaging apparatus control method
JP2011527841A (ja) 画像処理装置およびそれを用いた撮像装置
US20110052140A1 (en) Image editing device and imaging device provided with the image editing device, image reproduction device and imaging device provided with the image reproduction device
JP2007266659A (ja) 撮像再生装置
JP2015179910A (ja) 画像処理装置及びその制御方法
JP2012161048A (ja) 撮像装置
JP2012034128A (ja) 画像処理装置およびそれを用いた撮像装置
JP5082973B2 (ja) 映像記録システム、及び撮像装置
JP6319491B2 (ja) 撮像装置及び制御方法
US20120020639A1 (en) Image processing apparatus and image pickup apparatus using the image processing appratus
JP6119447B2 (ja) 撮像システム、及び制御方法
JP2011101161A (ja) 撮像装置、その制御方法、再生装置およびプログラム
JP2006005610A (ja) パノラマ映像記録再生装置
JP2015029211A (ja) 撮像装置
JP2015159406A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130515