JP2015133625A - 画像再生装置、その制御方法、および制御プログラム - Google Patents

画像再生装置、その制御方法、および制御プログラム Download PDF

Info

Publication number
JP2015133625A
JP2015133625A JP2014004242A JP2014004242A JP2015133625A JP 2015133625 A JP2015133625 A JP 2015133625A JP 2014004242 A JP2014004242 A JP 2014004242A JP 2014004242 A JP2014004242 A JP 2014004242A JP 2015133625 A JP2015133625 A JP 2015133625A
Authority
JP
Japan
Prior art keywords
moving image
image
viewer
predetermined condition
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014004242A
Other languages
English (en)
Other versions
JP6289107B2 (ja
Inventor
将弘 山下
Masahiro Yamashita
将弘 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014004242A priority Critical patent/JP6289107B2/ja
Publication of JP2015133625A publication Critical patent/JP2015133625A/ja
Application granted granted Critical
Publication of JP6289107B2 publication Critical patent/JP6289107B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】視聴者データを用いて動画のポイントとなる撮影シーンを特定して、ユーザに当該撮影シーンに係るフレームを表示する。【解決手段】サブカメラ部191は再生された動画の視聴者を撮影して、視聴者データである視聴者画像を得る。システム制御部150は動画を再生している際の視聴者画像が所定の条件を満たしていると、所定の条件を満たした時点の動画に係るフレームを特定フレームとして取得して、動画に特定フレームを示す動画関連情報を関連付けてメモリ132に記録する。【選択図】図1

Description

本発明は、画像再生装置、その制御方法、および制御プログラムに関し、特に、動画のポイントとなる撮影シーンをユーザに適切に表示する画像再生装置に関する。
一般に、動画の内容を把握する際には、ユーザは動画ファイルを再生する必要がある。一方、動画の任意の撮影シーンに着目して、当該撮影シーンに係るフレームの代表画像を指定間隔毎に表示する所謂タイムライン表示手法が知られている。このタイムライン表示手法を用いれば、ユーザは動画に含まれる撮影シーンの把握および動画の所望の位置(つまり、フレーム)を検索することができる。
ところで、動画から特定の撮影シーンを検出して表示する場合に、撮影の際に、動画において被写体が出現するフレームと当該フレームに出現する被写体が主被写体であるか否かを示す主被写体情報をメモリに記録する。そして、画像再生の際に、主被写体情報に応じて主被写体が出現するフレームをタイムライン表示するようにした画像再生装置がある(特許文献1参照)。
また、1つ以上の動画コンテンツの各々について、そのインデックスを含む第1のGUI(グラフィックユーザインタフェース)画像を表示制御するようにした情報処理装置が知られている。この情報処理装置では、第1のGUI画像から1つのインデックスがユーザにより選択されると、当該選択されたインデックスに対応する動画コンテンツで検出された人物の顔を示す顔サムネイル画像を含む第2のGUI画像を表示している(特許文献2参照)。
特開2012−85000号公報 特開2008−17041号公報
ところが、上述の特許文献1および2に記載の手法では、動画において主被写体又は顔が検出されたフレーム(つまり、撮影シーン)が存在しないと、当該動画におけるポイントとなるフレームを把握することができなくなってしまう。
さらに、動画において、常に主被写体が出現すると、いずれのフレームがユーザの所望のポイントとなるフレームであるか分からなくなるという問題点がある。
そこで、本発明の目的は、視聴者データを用いて動画のポイントとなる撮影シーンを特定して、ユーザに当該撮影シーンに係るフレームを表示することのできる画像再生装置、その制御方法、および制御プログラムを提供することにある。
上記の目的を達成するため、本発明による画像再生装置は、動画を再生する動画再生手段と、再生された動画の視聴者を撮影して視聴者画像を得る撮影手段と、前記動画を再生している際に前記撮影手段で撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録手段と、を有することを特徴とする。
本発明による制御方法は、動画を再生するための画像再生装置の制御方法であって、動画を再生する動画再生ステップと、再生された動画の視聴者を撮影して視聴者画像を得る撮影ステップと、前記動画を再生している際に前記撮影ステップで撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録ステップと、を有することを特徴とする。
本発明による制御プログラムは、動画を再生するための画像再生装置で用いられる制御プログラムであって、前記画像再生装置が備えるコンピュータに、動画を再生する動画再生ステップと、再生された動画の視聴者を撮影して視聴者画像を得る撮影ステップと、前記動画を再生している際に前記撮影ステップで撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録ステップと、を実行させることを特徴とする。
本発明によれば、動画を再生している際の視聴者画像(つまり、視聴者データ)が所定の条件を満たしていると、所定の条件を満たした時点の前記動画に係るフレームを示す動画関連情報を、動画に関連付けて記録するようにしたので、動画のポイントとなる撮影シーンを特定して、ユーザに当該撮影シーンに係るフレームを表示することができる。
本発明の実施の形態による画像再生装置を備える撮像装置の一例についてその構成を示すブロック図である。 図1に示すカメラにおいて動画再生の際のフレーム情報取得処理を説明するためのフローチャートである。 図2に示す視聴者の表情が特定されたフレームの一例を説明するための図である。 図1に示すカメラで行われる動画関連情報を用いた画像表示をフローチャートである。 図4に示すタイムライン表示の一例を説明するための図である。 図4に示すインデックス表示の一例を説明するための図であり、(a)は第1の表情特定フレームにおける画像を示す図、(b)は第2の表情特定フレームにおける画像を示す図、(c)は第3の表情特定フレームにおける画像を示す図である。
以下、本発明の実施の形態による画像再生装置の一例について図面を参照して説明する。
図1は、本発明の実施の形態による画像再生装置を備える撮像装置の一例についてその構成を示すブロック図である。
図示の撮像装置は、デジタルカメラ(以下単にカメラと呼ぶ)100であり、カメラ100はメインカメラ部190およびサブカメラ部191を有している。そして、メインカメラ部190は、シャッター101、バリア102、撮影レンズユニット(以下単に撮影レンズと呼ぶ)103、撮像部122、A/D変換器123、および画像処理部124を備えている。サブカメラ部191の構成はメインカメラ部190と同様であり、サブカメラ部191はシャッター105、バリア106、撮影レンズ107、撮像部125、A/D変換器126、および画像処理部127を備えている。なお、サブカメラ部191は、視聴者(つまり、ユーザ)を撮影するために用いられる。
メインカメラ部190およびサブカメラ部191の構成は同一であるので、以下の説明では、メインカメラ部190に注目して説明する。
撮影レンズ103はフォーカスレンズを有しており、撮影レンズ103の後段に配置されたシャッター101は絞り機能を備えている。撮影レンズ103を介して入射した光学像(被写体像)は撮像部122に備えられた撮像素子(例えば、CMOSセンサ)に結像する。撮像部122は光学像を電気信号(アナログ信号)に変換して、A/D変換器123に与える。そして、A/D変換器123はアナログ信号をデジタル信号(画像データ)に変換する。
なお、バリア102は撮影レンズ103、シャッター101、および撮像部122を覆って、撮影レンズ103、シャッター101、および撮像部122の汚れおよび破損を防止するためのものである。 画像処理部124はA/D変換器123の出力である画像データ、又はメモリ制御部115から画像データを受けて、所定の画素補間および縮小などのリサイズ処理と色変換処理とを行う。また、画像処理部124は撮像の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部150は当該演算結果に基づいて露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理が行われる。
さらに、画像処理部124は撮像の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器123からの出力である画像データは、画像処理部124およびメモリ制御回路115を介して、或いは直接メモリ制御回路115を介して、メモリ132に書き込まれる。メモリ132は、所定枚数の静止画像又は所定時間の動画像および音声を格納するための十分な記憶容量を備えている。
メモリ132は画像表示用のメモリ(つまり、ビデオメモリ)を兼ねている。メモリ132に格納された画像表示用データは、D/A変換器113によってアナログ画像信号に変換されて表示部128に送られる。これによって、表示部128には画像表示用データに応じた画像が表示される。なお、表示部128は、例えば、LCDである。
不揮発性メモリ156は、電気的に消去・記録可能なメモリであって、例えば、EEPROMである。不揮発性メモリ156には、システム制御部150の動作用の定数およびプログラムなどが記憶される。
システム制御部150はカメラ100全体の制御を司る。そして、システム制御部150は不揮発性メモリ156に記録されたプログラムを実行して、カメラ100に関する各種処理を行う。システムメモリ152は、例えば、RAMであり、システムメモリ152には、システム制御部150の動作用の定数、変数、および不揮発性メモリ156から読み出したプログラムなどが展開される。
なお、システム制御部150はメモリ132、D/A変換器113、および表示部128などを制御して表示制御を行う。
図示のように、システム制御部150には、モード切替スイッチ160、シャッターボタン161、操作部170、電源スイッチ172、および電源制御部180が接続されている。
図示のモード切替スイッチ160は、例えば、システム制御回路150の動作モードを静止画撮記録モード、動画記録モード、および再生モードなどのいずれかに切り替えるためのスイッチである。
図示のシャッターボタン161が操作途中(半押し:撮影準備指示)であると、第1のシャッタースイッチがオンとなって、第1のシャッタースイッチ信号SW1がシステム制御部150に与えられる。これによって、システム制御部150はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などの動作を開始する。
シャッターボタン61が操作完了(全押し)すると、第2のシャッタースイッチがオンとなって、第2のシャッタースイッチ信号SW2がシステム制御部150に与えられる。これによって、システム制御部150は撮像部122(又は撮像部125)の信号読み出しから記録媒体104に画像データを書き込むまでの一連の撮像処理の動作を開始する。
操作部170は、表示部128に表示される種々の機能アイコンを選択操作することによって、場面毎に適宜機能が割り当てられて、各種機能ボタンとして動作する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。
操作部170に備えられたメニューボタンが操作されると、システム制御部150は各種設定を行うためのメニュー画面を表示部128に表示する。ユーザは表示部128に表示されたメニュー画面を見て、4方向キーおよびセットボタンなどを用いて直感的に各種設定を行うことができる。
電源制御部180は、電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを備えている。そして、電源制御部180は電池の装着の有無、電池の種類、および電池残量の検出を行う。
また、電源制御部180は上記の検出結果およびシステム制御部150の指示に基づいてDC−DCコンバータを制御して、所定の電圧を必要な期間の間記録媒体104を含む各部に供給する。
電源部130はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池などの二次電池を備えるとともに、ACアダプターなどを有している。なお、カメラ100の電源は電源スイッチ172によってオン又はオフされる。
インタフェース(I/F)118は記録媒体104とのインタフェースである。記録媒体104は、例えば、メモリカードであり、半導体メモリ又は磁気ディスクなどを有している。
上述のカメラ100は、所謂中央1点AF又は顔AFを用いて撮影を行うことができる。ここで、中央1点AFとは撮影画面において中央位置1点に対してAFを行うAF制御である。また、顔AFとは所謂顔検出機能によって検出された撮影画面における顔領域に対してAFを行うAF制御である。
ここで、顔検出機能について説明する。なお、ここでは、システム制御部150はメインカメラ部190およびサブカメラ部190の少なくとも一方を用いて顔検出を行うが、その動作は同様であるので、ここではメインカメラ部190に注目して顔検出機能について説明する。つまり、顔検出の際、システム制御部150はメインカメラ部190で得られた画像データであれば、メインカメラ部190を用いて顔検出を行い、サブカメラ部191で得られた画像データであれば、サブカメラ部191を用いて顔検出を行う。
システム制御部150は顔検出対象の画像データを画像処理部124に送る。システム制御部150の制御下で、画像処理部124は当該画像データに水平方向バンドパスフィルタ処理を行う。さらに、画像処理部124は、水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理を行うと、画像データからエッジ成分を検出することができる。
その後、システム制御部150はエッジ成分についてパターンマッチング処理を行って、目、鼻、口、および耳の候補群を抽出する。そして、システム制御部150は、抽出された目の候補群の中から、予め設定された条件(例えば、2つの目の距離、傾き)を満たすものを、目の対と判定して、目の対があるもののみ目の候補として絞り込む。
続いて、システム制御部150は、絞り込まれた目の候補とそれに対応する顔を形成する他のパーツ(鼻、口、および耳)を対応付けるとともに、予め設定された非顔条件フィルタ処理を行って顔領域を検出する。システム制御部150は顔領域の検出結果に応じた顔情報を出力して、顔検出処理を終了する。この際、システム制御部150は顔領域の数などの特徴量をシステムメモリ152に記憶する。
上述のようにして、ライブビュー表示又は再生表示された画像データについて画像解析を行って、画像データの特徴量を抽出して被写体情報(つまり、顔情報)を得ることができる。ここでは、被写体情報として顔情報を例に挙げて説明したが、所謂赤目判定、目の検出、目つむり検出、および笑顔検出などを行って、当該判定又は検出結果を被写体情報として用いるようにしてもよい。
なお、顔AFととともに、所謂顔AE,顔FE、および顔WBを行うようにしてもよい。顔AEとは検出された顔領域の明るさに合わせて、画面全体の露出を制御することである。顔FEとは検出された顔領域を中心にフラッシュ調光を行うことである。そして、顔WBとは、検出された顔領域の色に合わせて画面全体のWBを制御することである。
ところで、操作部70には、表示部28に対する接触を検知可能なタッチパネルが備えられている。そして、タッチパネルは表示部28と一体的に構成されている。例えば、タッチパネルをその光の透過率が表示部28の表示を妨げないようにして、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これによって、恰もユーザが表示部28に表示された画面を直接的に操作可能なGUIを構成することができる。
システム制御部50はタッチパネルに対する次の操作を検出することができる。
タッチパネルを指又はペンで触れること(以下タッチダウンという)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。タッチパネルを指又はペンで触れた状態で移動すること(以下ムーブという)。タッチパネルに触れていた指又はペンを離すこと(以下タッチアップという)。タッチパネルに何も触れていない状態(以下タッチオフという)。
上記の操作およびタッチパネルに指又はペンが触れている位置座標は内部バス(図示せず)を介してタッチ情報としてシステム制御部50に送られる。システム制御部50はタッチ情報に基づいてタッチパネルに対してどのような操作が行なわれたかを判定する。
システム制御部150は、ムーブについてはタッチパネル上で移動する指又はペンの移動方向を、その位置座標の変化に基づいてタッチパネル上の垂直成分・水平成分毎に判定することができる。また、タッチダウンから一定のムーブを経てタッチアップをした際にストロークを描いたとする。素早くストロークを描く操作をフリックと呼ぶ。
フリックは、タッチパネルに指を触れたままある程度の距離だけ素早く動かして、そのまま離すという操作であり、言い換えると、タッチパネルを指ではじくように素早くなぞる操作である。システム制御部150は所定距離以上を、所定速度以上でムーブしたことを検出し、そのままタッチアップを検出するとフリックが行なわれたと判定する。
また、システム制御部150は所定距離以上を、所定速度未満でムーブしたことを検出するとドラッグが行なわれたと判定する。タッチパネルとして、所謂抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、又は光センサ方式などのいずれの方式のものを用いてもよい。
なお、システム制御部150は、第2シャッタースイッチ信号SW2によって、サブカメラ部191の撮像部125からの信号読み出しから記録媒体104に画像データを書き込むまでの一連の撮影処理の動作を開始する。
図2は、図1に示すカメラにおいて動画再生の際のフレーム情報取得処理を説明するためのフローチャートである。なお、図2に示すフローチャートに係る処理は、システム制御部150が不揮発性メモリ156に記録されたプログラムをシステムメモリ152に展開して実行することによって行われる。
時刻情報取得処理を開始すると、システム制御部150は、メモリ132、D/A変換器113、および表示部128を制御して、メインカメラ部190で撮像した動画(以下メイン動画と呼ぶ)の再生を開始する(ステップS201)。つまり、システム制御部150は、メモリ132に記録されたメイン動画データを読み出してD/A変換器113に送る。D/A変換器113は、メイン動画データをアナログ動画信号に変換して表示部128に与えて、表示部128にメイン動画を表示する。
続いて、システム制御部150は、メイン動画の再生を行うと、サブカメラ部191において撮像部125の信号読み出しからメモリ132に画像データ(以下視聴者画像又は視聴者画像データと呼ぶ)を書き込むまでの一連の撮影処理の動作を開始する(視聴者撮影:ステップS202)。次に、システム制御部150は、ステップS202で得られた視聴者画像において、視聴者の表情を検出する検出処理を行う。表情を検出する際の手法は、前述の顔検出機能で説明した手法と同様の手法で行われる。
ここでは、システム制御部150は、視聴者画像データを画像処理部127に送り、画像処理部127は視聴者画像データにおいてエッジ成分を検出する。システム制御部150は当該エッジ成分についてパターンマッチング処理を行って顔領域を検出する。
顔領域検出の際には、特徴点として、眉、目、鼻、および唇の各端点と顔の輪郭点などが得られる。システム制御部150は、これら特徴点同士の間隔を算出表情評価値として求める。そして、システム制御部150は、当該算出表情評価値と予め表情毎に設定された基準表情評価値とを比較して、視聴者の表情を特定する。
なお、予め設定された表情評価値(基準評価値)は表情レベル毎に設定されており、ここで、表情レベルとはその表情の度合いを示す。例えば、笑顔の場合、数値が増加するにつれて、表情レベルの1つである笑顔レベルは微笑程度から大笑いへとそのレベルが高くなる。
システム制御部150は、視聴者の表情が特定の表示になったか否かを判定する(ステップS203)。つまり、システム制御部150は視聴者が特定の表示になったか否かを判定することになる。視聴者の表情が特定の表情になった場合(ステップS203において、YES)、システム制御部150は、ステップS203において視聴者が特定の表情になった時点におけるメイン動画のフレーム(以下、表情特定フレームと記す)を動画関連情報としてメモリ132に記録する(ステップS204)。
図3は、図2に示す視聴者の表情が特定された(視聴者の表情が特定の表情になった)フレームの一例を説明するための図である。
図3において、フレーム401、402、および403の各々は視聴者が笑顔となったフレームである。システム制御部150は、フレーム401、402、および403において表情が特定されたときのメイン動画の表情特定フレームT1、T2、およびT3をメモリ132に動画関連情報として記録する。また、システム制御部150は、表情を特定した際の視聴者の画像(サブ動画から取得した画像)およびそのレベル(表情レベル)を表情特定フレームとともに動画関連情報としてメモリ132に記録するようにしてもよい。
ここでは、動画関連情報として表情特定フレームを記録しているが、表情特定フレーム自体を記録せずに、表情特定フレームを特定するための情報として、視聴者の表情が特定の表情になった時点の、メイン動画の時刻情報(撮影開始からの時刻等)、または、フレーム番号等を記録してもよい。また、表情特定フレームと、時刻情報の両方を記録してもよい。
再び図2を参照して、システム制御部150は、メイン動画の再生が終了したか否かを判定する(ステップS205)。メイン動画の再生が終了していないと、つまり、メイン動画の再生が途中であれば(ステップS205において、NO)、システム制御部150は、ステップS203の処理に戻って再度視聴者の表情特定を行う。なお、視聴者の表情が特定できないと(ステップS203において、NO)、システム制御部150は、ステップS205の処理に進む。
このようにして、メイン動画の再生が終了するまで、ステップS203〜S205の処理が行われて、システム制御部150は、メイン動画の全フレームを再生している間において、視聴者の表情特定処理を行う。そして、システム制御部150は視聴者の表情を特定する都度、その表情特定フレーム(フレーム時刻)および視聴者画像を動画関連情報としてメモリ132に記録することになる。
一方、メイン動画の再生が終了すると(ステップS205において、YES)、システム制御部150は、撮像部125の信号読み出しからメモリ132に画像データを書き込むまでのサブカメラ部191における撮影処理を停止する(ステップS206)。そして、システム制御部150は、メモリ132に記録した動画関連情報(表情特定フレームおよび視聴者画像)と再生したメイン動画とを関連付けてメモリ132に記録して(ステップS207)、フレーム情報取得処理を終了する。
なお、図3に示す例では、サブカメラ部191で撮影された視聴者は1名のみであるが、複数の視聴者が撮影された場合には、システム制御部150は各視聴者に対して表情特定処理を行うようにしてもよい。このようにすれば、複数の視聴者が1つの動画を観賞する場合にも本実施形態を適用することができる。
図4は、図1に示すカメラで行われる動画関連情報(視聴者撮影情報ともいう)を用いた画像表示をフローチャートである。なお、図3に示すフローチャートに係る処理は、システム制御部150が不揮発性メモリ156に記録されたプログラムをシステムメモリ152に展開して実行することによって行われる。
画像表示処理が開始されると、システム制御部150は、ユーザによって選択された動画ファイルと当該動画ファイルに関連付けられた動画関連情報とをメモリ132から読み出す(ステップS301)。続いて、システム制御部150は、システムメモリ152に記録された表示モード(つまり、再生モード)がタイムライン表示であるか又はインデックス表示であるかを判定する(ステップS302)。
再生モードがタイムライン表示であると(ステップS302において、YES)、システム制御部150は表示部128にタイムライン表示に応じた画像を表示する(ステップS303)。
図5は、図4に示すタイムライン表示の一例を説明するための図である。
図示のように、表示部128にはタイムライン表示画面500が表示されている。タイムライン表示では、前述の動画関連情報において視聴者の表情を特定したフレーム間隔において表情特定フレームにおける画像が表示される。ここで、画像501、502、および503は、それぞれ動画関連情報の表情特定フレームT1、T2、およびT3における画像(動画の1フレーム)である。なお、画面の下部には動画全体506が順次表示される。
ステップS303においては、システム制御部150は、動画関連情報の表情特定フレームT1、T2、およびT3に対応する画像501、502、および503をメモリ132から読み出す。そして、システム制御部150は、読み出した画像501、502、および503を画像処理部124に送る。画像処理部124は、システム制御部150の制御下で画像501、502、および503を、それぞれ読み込んだ動画ファイルに対応する表示特定フレームT1、T2、およびT3に配列した画像列を生成する。そして、システム制御部150は当該画像列を表示部128に表示する。
図5において、タイムライン表示画面500には動画関連情報における視聴者画像504および505が表示される。ここで、視聴者画像504は現在ユーザによって選択された視聴者画像である。
図5に示すタイムライン表示画面500において、画像501、502、および503のうちいずれかの画像がユーザの操作によって選択されたとする。そして、ユーザからの再生指示を受け付けると、システム制御部150は選択された画像に対応するフレームから動画の再生を開始する。
一方、再生モードがインデックス表示であると(ステップS302において、NO)、システム制御部150は表示部128にインデックス表示に応じた画像を表示する(ステップS304)。
図6は、図4に示すインデックス表示の一例を説明するための図である。そして、図6(a)は第1の表情特定フレームT1における画像を示す図であり、図6(b)は第2の表情特定フレームT2における画像を示す図である。また、図6(c)は第3の表情特定フレームT3における画像を示す図である。
図6(a)〜図6(c)において、インデックス表示の際には、表示部128にインデックス表示画面600が表示される。インデックス表示画面600には、ユーザが選択した動画ファイルに係る画像601が表示される。インデックス表示においては、前述の動画関連情報の表情特定フレームにおける画像が所定の間隔で順次表示部128に表示される。
図6(a)、図6(b)、および図6(c)に示す画像601はそれぞれ表情特定フレームT1、T2、およびT3に対応するものであり、インデックス表示の際には、図6(a)、図6(b)、および図6(c)の順でインデックス表示画面600が表示部128に表示される。
図6(a)〜図6(c)において、インデックス表示画面600には動画関連情報の視聴者画像602および603が表示される。ここで、視聴者画像602は現在ユーザによって選択された視聴者画像である。
システム制御部150は、タイムライン表示画面(図5)又はインデックス表示画面600で選択された視聴者画像に係る動画関連情報をメモリ132から読み出して、表情特定フレームに応じたタイムライン表示又はインデックス表示を行う。ユーザは視聴者画像を選択すれば、どの視聴者が動画のいずれのフレームで盛り上がったかを確認することができる。
なお、図6において、動画関連情報に視聴者画像が記録されている場合には、フレームが切り替わる都度、システム制御部150は当該フレームに対応した視聴者画像を表示するようにしてもよい。インデックス表示と視聴者画像とを同時に表示すれば、視聴者が動画のその場面(撮影シーン)を見た際にどのようなリアクションをしたのかが確認することができ、ユーザに臨場感を与えることができる。
図6に示す例では、ユーザが図6(a)、図6(b)、又は図6(c)に示すインデックス表示画面600が表示部128に表示されたタイミングで再生指示を受けると、システム制御部150は当該表示タイミングに対応したフレームから動画の再生を開始する。
再び図4を参照して、ステップS303又はS304に続いて、システム制御部150は、操作部170によって動画関連情報の切り替え指示の操作が行われたか否かを判定する(ステップS305)。動画関連情報の切り替え指示があると(ステップS305において、YES)、システム制御部150は、切り替え指示に応じて表示に用いる動画関連情報をメモリ132から読み込んで、動画関連情報の切り替えを行う(ステップS306)。そして、システム制御部150は、操作部170によって表示モード終了の操作が行われたか否かを判定する(ステップS307)。
なお、動画関連情報の切り替え指示がないと(ステップS305において、NO)、システム制御部150は、ステップS307の処理に進む。
表示モード終了の操作が行われないと、つまり、表示モード継続であれば(ステップS307において、NO)、システム制御部150は、ステップS302の処理に戻ってタイムライン表示モードであるか否かを判定する。一方、表示モード終了の操作が行われると(ステップS307において、YES)、システム制御部150は表示処理を終了する。
上述のようにして、タイムライン表示を行えば、ユーザは動画全体のいずれのポイント視聴者がどのような表情であったかを一目で把握することができる。そして、表示画面全体を用いたタイムライン表示を行うことができない場合には、図6に示すインデックス表示をおこなうようにすればよい。前述のように、図6に示すインデックス表示では、視聴者に関してリアクションのあった画像が順次表示されるので、ユーザは動画の内容を容易に把握することができる。
このように、本発明の実施の形態では、動画を再生する際に撮影された視聴者の画像から表情を特定するようにしたので、動画のポイントを押さえた表示を行うことができ、ユーザは動画内容を容易に把握することができる。特に、再生動画において顔領域の検出ができない場合においても、ユーザに対して適切なタイムライン表示又はインデックス表示を行うことができる。
なお、上述の実施の形態においては、画像再生装置を備えるカメラについて説明したが、画像再生装置を備える各種の電子機器に本実施の形態を適用することができる。また、上述の実施の形態では、表示部128、メインカメラ部190、およびサブカメラ部191を有するカメラについて説明したが、画像表示装置と視聴者を撮影する撮影装置とが別々になっていてもよい。
つまり、上述の実施の形態は、PDA、携帯電話端末、携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、又は電子ブックリーダーなどの画像を表示する装置と、デジタルカメラ、携帯電話端末のカメラ、タブレット機器のカメラ、又は監視カメラなどの撮影装置とがあれば適用可能である。
なお、図1に示す例では、少なくとも操作部170、システム制御部150、メモリ132、メモリ制御部115、D/A変換器113、表示部128、およびサブカメラ部191が画像再生装置を構成する。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像再生装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像再生装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
上記の制御方法および制御プログラムの各々は、少なくとも撮影ステップ、取得ステップ、および記録ステップを有している。
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。
103,107 撮像レンズ
115 メモリ制御部
122,125 撮像部
124,127 画像処理部
128 表示部
132 メモリ
150 システム制御部
170 操作部
190 メインカメラ部
191 サブカメラ部

Claims (8)

  1. 動画を再生する動画再生手段と、
    再生された動画の視聴者を撮影して視聴者画像を得る撮影手段と、
    前記動画を再生している際に前記撮影手段で撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録手段と、
    を有することを特徴とする画像再生装置。
  2. 前記所定の条件は、前記視聴者画像における前記視聴者の表情が特定の表情を満たす条件であることを特徴とする請求項1に記載の画像再生装置。
  3. 前記記録手段は、前記所定の条件を満たした視聴者画像を前記動画関連情報と共に記録することを特徴とする請求項1又は2に記載の画像再生装置。
  4. 前記記録手段によって記録された動画関連情報に応じて、前記所定の条件を満たした時点の動画のフレームを同時に又は順次に表示部に表示する再生手段を有することを特徴とする請求項1〜3のいずれか1項に記載の動画再生装置。
  5. 前記再生手段は、前記所定の条件を満たした時点の動画のフレームに対応する前記視聴者画像を前記表示部に表示することを特徴とする請求項4に記載の画像再生装置。
  6. 前記表示部に表示された前記所定の条件を満たした時点の動画のフレームに係る画像のいずれかを選択する選択手段を有し、
    前記再生手段は、前記選択手段によって前記所定の条件を満たした時点の動画のフレームに係る画像のいずれかが選択されると、当該選択された画像に係るフレームから前記動画を再生することを特徴とする請求項4又は5に記載の画像再生装置。
  7. 動画を再生するための画像再生装置の制御方法であって、
    動画を再生する動画再生ステップと、
    再生された動画の視聴者を撮影して視聴者画像を得る撮影ステップと、
    前記動画を再生している際に前記撮影ステップで撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録ステップと、
    を有することを特徴とする制御方法。
  8. 動画を再生するための画像再生装置で用いられる制御プログラムであって、
    前記画像再生装置が備えるコンピュータに、
    動画を再生する動画再生ステップと、
    再生された動画の視聴者を撮影して視聴者画像を得る撮影ステップと、
    前記動画を再生している際に前記撮影ステップで撮影した前記視聴者画像が所定の条件を満たす場合に、前記所定の条件を満たした時点の前記動画の時刻、前記所定の条件を満たした時点の前記動画のフレームを特定するための情報、または、前記所定の条件を満たした時点の前記動画のフレームを、動画関連情報として前記動画に関連付けて記録する記録ステップと、
    を実行させることを特徴とする制御プログラム。
JP2014004242A 2014-01-14 2014-01-14 画像再生装置、その制御方法、および制御プログラム Expired - Fee Related JP6289107B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004242A JP6289107B2 (ja) 2014-01-14 2014-01-14 画像再生装置、その制御方法、および制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004242A JP6289107B2 (ja) 2014-01-14 2014-01-14 画像再生装置、その制御方法、および制御プログラム

Publications (2)

Publication Number Publication Date
JP2015133625A true JP2015133625A (ja) 2015-07-23
JP6289107B2 JP6289107B2 (ja) 2018-03-07

Family

ID=53900531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004242A Expired - Fee Related JP6289107B2 (ja) 2014-01-14 2014-01-14 画像再生装置、その制御方法、および制御プログラム

Country Status (1)

Country Link
JP (1) JP6289107B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042240A (ja) * 2016-09-09 2018-03-15 ソニー株式会社 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284948A (ja) * 1998-03-30 1999-10-15 Matsushita Electric Ind Co Ltd サムネイル作成方法及びサムネイル表示方法
JP2007104348A (ja) * 2005-10-05 2007-04-19 Hitachi Ltd 情報処理装置
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
JP2011015279A (ja) * 2009-07-03 2011-01-20 Olympus Imaging Corp デジタルカメラ及び動画像再生方法
JP2011223326A (ja) * 2010-04-09 2011-11-04 Sony Corp コンテンツ処理装置および方法、並びにプログラム
JP2012089186A (ja) * 2010-10-18 2012-05-10 Sharp Corp コンテンツ管理装置及びコンテンツ再生装置
JP2013016903A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 情報処理装置及び情報処理方法
JP2013077866A (ja) * 2011-09-29 2013-04-25 Toshiba Corp 画像情報処理装置及び画像情報処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284948A (ja) * 1998-03-30 1999-10-15 Matsushita Electric Ind Co Ltd サムネイル作成方法及びサムネイル表示方法
JP2007104348A (ja) * 2005-10-05 2007-04-19 Hitachi Ltd 情報処理装置
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
JP2011015279A (ja) * 2009-07-03 2011-01-20 Olympus Imaging Corp デジタルカメラ及び動画像再生方法
JP2011223326A (ja) * 2010-04-09 2011-11-04 Sony Corp コンテンツ処理装置および方法、並びにプログラム
JP2012089186A (ja) * 2010-10-18 2012-05-10 Sharp Corp コンテンツ管理装置及びコンテンツ再生装置
JP2013016903A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 情報処理装置及び情報処理方法
JP2013077866A (ja) * 2011-09-29 2013-04-25 Toshiba Corp 画像情報処理装置及び画像情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042240A (ja) * 2016-09-09 2018-03-15 ソニー株式会社 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法
US10529379B2 (en) 2016-09-09 2020-01-07 Sony Corporation System and method for processing video content based on emotional state detection

Also Published As

Publication number Publication date
JP6289107B2 (ja) 2018-03-07

Similar Documents

Publication Publication Date Title
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US9992405B2 (en) Image capture control apparatus and control method of the same
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP5733956B2 (ja) 撮像装置及びその制御方法、動画記録装置並びにその制御方法、プログラム、並びに記憶媒体
US9560333B2 (en) Movie processing apparatus and control method thereof
US11457137B2 (en) Electronic apparatus and control method for electronic apparatus
JP2013017088A (ja) 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
JP6289107B2 (ja) 画像再生装置、その制御方法、および制御プログラム
US10958831B2 (en) Image processing apparatus and control method of the same
JP5777446B2 (ja) 表示制御装置及びその制御方法
JP6393296B2 (ja) 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体
JP6664226B2 (ja) 撮像制御装置、撮像制御装置の制御方法、プログラム及び記憶媒体
US11165986B2 (en) Data transfer apparatus and control method thereof
JP5930693B2 (ja) 動画記録装置及びその制御方法
US12126933B2 (en) Imaging apparatus, control method thereof, and storage medium
US12047672B2 (en) Display control apparatus, control method therefor, and storage medium
US20230049382A1 (en) Imaging apparatus, control method thereof, and storage medium
JP2017192020A (ja) 撮像装置、その制御方法、および制御プログラム
JP6759085B2 (ja) 電子機器およびその制御方法
JP2016010079A (ja) 表示制御装置
JP2013045349A (ja) コンテンツ管理装置、方法及びプログラム
JP2017103686A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2016201708A (ja) 撮像装置
JP2016201711A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R151 Written notification of patent or utility model registration

Ref document number: 6289107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees