JP6081788B2 - 動画像処理装置及び動画像処理方法 - Google Patents

動画像処理装置及び動画像処理方法 Download PDF

Info

Publication number
JP6081788B2
JP6081788B2 JP2012266397A JP2012266397A JP6081788B2 JP 6081788 B2 JP6081788 B2 JP 6081788B2 JP 2012266397 A JP2012266397 A JP 2012266397A JP 2012266397 A JP2012266397 A JP 2012266397A JP 6081788 B2 JP6081788 B2 JP 6081788B2
Authority
JP
Japan
Prior art keywords
moving image
evaluation value
image processing
value
digest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012266397A
Other languages
English (en)
Other versions
JP2014112787A (ja
Inventor
田中 俊幸
俊幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2012266397A priority Critical patent/JP6081788B2/ja
Priority to KR1020130087605A priority patent/KR20140072785A/ko
Priority to US14/078,782 priority patent/US20140153900A1/en
Priority to EP13193135.4A priority patent/EP2741293A1/en
Priority to CN201310653013.4A priority patent/CN103856833A/zh
Publication of JP2014112787A publication Critical patent/JP2014112787A/ja
Application granted granted Critical
Publication of JP6081788B2 publication Critical patent/JP6081788B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像処理装置及び動画像処理方法に関する。
従来から、動画像のダイジェスト版を作成する技術が知られている。例えば下記の特許文献1には、人間関係情報を記憶させておくことにより、ユーザが指定した人物に加えて、当該人物と関係性が深い人物が映っている画像を抽出してダイジェスト画像を作成する情報処理装置が記載されている。
また、下記の特許文献2には、特定の画像、音声の変化をイベントとして検出し、再生速度を可変にしてダイジェスト版映像を生成する技術が記載されている。また、下記の特許文献3には、デジタルカメラ等で静止画像を再生する際に、閲覧者が笑顔であるかどうかに基づいて、閲覧中の画像のお気に入り度を設定するシステムが記載されている。
特開2011−82915号公報 特開2010−39877号公報 特開2012−156750号公報
近時においては、デジタルスチルカメラ(Digital Still Camera)、スマートフォン(SmartPhone)等の電子機器においても、動画記録機能が装備されるようになっている。動画再生は臨場感を表現するのに適しているが、静止画と比較すると、再生による内容確認に時間を要してしまう欠点がある。また、動画再生においては、主となるシーン以外は冗長的な部分が多くなる。このため、動画を記録したとしても、動画の再生頻度は低くなる傾向がある。
このため、ダイジェスト(要約)動画を効率的に自動作成(自動編集)する機能が求められる。しかしながら、特許文献1、特許文献2に記載された技術では、人物の特徴、発する音を検出してダイジェストを作成しているため、ダイジェスト作成の適用状況が人物の特徴や音声によって粗く限定されてしまい、所望のダイジェストを作成することは困難であった。また、特許文献1,2等に記載された技術では、ダイジェストに残したいシーンに指定した人物が出現する保証はなく、また残したいシーンに音声が挿入されている保証もないため、所望のダイジェストを作成することは困難である。更に、動画中に指定した人物が常時出現するケースでは、重要なシーンを判定することができず、ダイジェストを生成するのが困難になるという問題がある。
また、特許文献3に記載された方法は、閲覧者が笑顔であるかどうかを認識するものであるが、静止画のお気に入り度を設定するための技術であり、動画のダイジェストの作成を想定したものではなかった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、操作者の意図を正確に反映させた動画のダイジェストを作成することが可能な、新規かつ改良された動画像処理装置及び動画像処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、操作者を撮像する第1の動画像撮像部と、第1の動画像撮像部で撮像した第1の動画から操作者の顔の特徴を分析する分析部と、前記第1の動画とは別の第2の動画の撮像時又は再生時に撮像した前記第1の動画から、前記分析部による分析結果に基づいて操作者の顔の表情を数値化して評価値を算出する評価値算出部と、数値化した前記評価値を前記第2の動画と同じタイムラインで記録する記録部と、前記評価値に基づいて前記第2の動画の部分動画を順次抽出してダイジェストを生成する動画編集部と、を備える、動画像処理装置が提供される。
上記構成によれば、第1の動画から操作者の顔の特徴が分析され、第1の動画とは別の第2の動画の撮像時又は再生時に撮像した第1の動画から、顔の特徴の分析結果に基づいて操作者の顔の表情が数値化されて評価値が算出される。数値化した評価値は第2の動画と同じタイムラインで記録され、評価値に基づいて第2の動画の部分動画が順次抽出されてダイジェストが作成される。従って、第2の動画の撮影時又は再生時に、ダイジェストを作成するための表情の評価値が算出されるため、操作者の感情を評価値に正確に反映させることができ、所望のダイジェストを作成することが可能となる。
また、前記第2の動画を撮像する第2の動画像撮像部を備え、前記評価値算出部は、前記第2の動画像撮像部による前記第2の動画の撮像時に前記数値化を行う。この構成によれば、第2の動画像撮像部で撮像した第2の動画に基づいて表情の評価値の数値化を行うことができる。
また、前記動画編集部は、前記評価値の値が所定のしきい値よりも大きい区間の前記部分動画を順次抽出する。この構成によれば、評価値の値が所定のしきい値よりも大きい区間で部分動画が順次に抽出されるため、操作者の顔の表情の変化が大きい場合に部分動画が順次に抽出されることとなり、所望のダイジェストを作成することが可能となる。
また、前記動画編集部は、前記部分動画の延べ時間が予め定められた時間に収まるように前記しきい値を変化させて、前記部分動画を抽出する。この構成によれば、部分動画の延べ時間が予め定められた時間に収まるようにしきい値が変化されるため、所望の長さで部分動画を抽出することができる。
また、前記動画編集部は、前記評価値の値が所定のしきい値よりも大きい前記区間の前又は後ろに所定の余裕時間を加算して得られる区間の前記部分動画を順次抽出する。この構成によれば、評価値のサンプリング間隔が比較的大きい場合であっても、所望のダイジェストを作成することができる。
また、前記評価値算出部は、前記数値化を予め定められた規則に基づいて行う。この構成によれば、予め定められた規則に基づいて数値化が行われるため、評価値を予め定められ規則に基づいて算出することができる。
また、前記規則は、顔の表情の変化が激しい場合に評価値の重み付けが高くなるように規定される。この構成によれば、顔の表情の変化が激しい場合に評価値の重み付けが高く規定されるため、表情の変化を正確に評価値に反映させることがきる。
また、前記記録部は、前記評価値を前記第2の動画のデータ内にメタデータとして記録する。この構成によれば、評価値が第2の動画のデータ内にメタデータとして記録されるため、評価値と第2の動画のデータを対応付けて記録することができる。
また、前記記録部は、前記評価値を前記第2の動画のデータと1対1で対応する別データとして記録する。この構成によれば、評価値が第2の動画のデータと1対1で対応する別データとして記録されるため、評価値と第2の動画のデータを対応付けて記録することができる。
また、上記課題を解決するために、本発明の別の観点によれば、操作者を撮像するステップと、第1の動画像撮像部で撮像した第1の動画から操作者の顔の特徴を分析するステップと、前記第1の動画とは別の第2の動画の撮像時又は再生時に撮像した前記第1の動画から、前記顔の特徴の分析結果に基づいて、操作者の顔の表情を数値化して評価値を算出するステップと、数値化した前記評価値を前記第2の動画と同じタイムラインで記録するステップと、前記評価値に基づいて前記第2の動画の部分動画を順次抽出してダイジェストを生成するステップと、を備える動画像処理方法が提供される。
上記構成によれば、第1の動画から操作者の顔の特徴が分析され、第1の動画とは別の第2の動画の撮像時又は再生時に撮像した第1の動画から、顔の特徴の分析結果に基づいて操作者の顔の表情が数値化されて評価値が算出される。数値化した評価値は第2の動画と同じタイムラインで記録され、評価値に基づいて第2の動画の部分動画が順次抽出されてダイジェストが作成される。従って、第2の動画の撮影時又は再生時に、ダイジェストを作成するための表情の評価値が算出されるため、操作者の感情を評価値に正確に反映させることができ、所望のダイジェストを作成することが可能となる。
また、前記第2の動画を撮像するステップを備え、前記評価値を算出するステップにおいて、前記第2の動画の撮像時に前記数値化を行う。この構成によれば、第2の動画を撮像するステップで撮像した第2の動画に基づいて表情の評価値の数値化を行うことができる。
また、前記ダイジェストを生成するステップにおいて、前記評価値の値が所定のしきい値よりも大きい区間の前記部分動画を順次抽出する。この構成によれば、評価値の値が所定のしきい値よりも大きい区間で部分動画が順次に抽出されるため、操作者の顔の表情の変化が大きい場合に部分動画が順次に抽出されることとなり、所望のダイジェストを作成することが可能となる。
また、前記ダイジェストを生成するステップにおいて、前記部分動画の延べ時間が予め定められた時間に収まるように前記しきい値を変化させて、前記部分動画を抽出する。この構成によれば、部分動画の延べ時間が予め定められた時間に収まるようにしきい値が変化されるため、所望の長さで部分動画を抽出することができる。
前記ダイジェストを生成するステップにおいて、前記評価値の値が所定のしきい値よりも大きい前記区間の前又は後ろに所定の余裕時間を加算して得られる区間の前記部分動画を順次抽出する。この構成によれば、評価値のサンプリング間隔が比較的大きい場合であっても、所望のダイジェストを作成することができる。
また、前記評価値を算出するステップにおいて、前記数値化を予め定められた規則に基づいて行う。この構成によれば、予め定められた規則に基づいて数値化が行われるため、評価値を予め定められ規則に基づいて算出することができる。
また、前記規則は、顔の表情の変化が激しい場合に評価値の重み付けが高くなるように規定される。この構成によれば、顔の表情の変化が激しい場合に評価値の重み付けが高く規定されるため、表情の変化を正確に評価値に反映させることがきる。
また、前記記録するステップにおいて、前記評価値を前記第2の動画のデータ内にメタデータとして記録する。この構成によれば、評価値が第2の動画のデータ内にメタデータとして記録されるため、評価値と第2の動画のデータを対応付けて記録することができる。
また、前記記録するステップにおいて、前記評価値を前記第2の動画のデータと1対1で対応する別データとして記録する。この構成によれば、評価値が第2の動画のデータと1対1で対応する別データとして記録されるため、評価値と第2の動画のデータを対応付けて記録することができる。
本発明によれば、操作者の意図を正確に反映させた動画のダイジェストを作成することが可能となる。
スマートフォン、デジタルカメラ等の電子機器で被写体を撮影している様子を示す模式図である。 電子機器が撮影した画像を示す模式図である。 本発明の一実施形態にかかる撮像装置100の構成を示す模式図である。 評価値を規定する規則を説明するための模式図である。 評価値を規定する規則を説明するための模式図である。 動画編集部による自動編集機能を示す模式図である。 図5に示す各要素(a)〜(e)の各評価値と、各評価値の合計値(sum)が時間(time)の経過に伴って変化する場合に、ダイジェスト動画を抽出する区間を示す模式図である。 評価値のサンプリング時間(Sampling Time)と評価値の関係をプロットし、サンプリング時間の間を直線補間した例を示す模式図である。 評価値の保存方法を示す模式図である。 撮像装置における動画像処理方法の処理を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
近時のスマートフォン(SmartPhone)のような携帯型の電子機器においては、被写体記録用のカメラとは別に、自分撮り用のカメラ(インカメラ(In−camera))を操作者側に搭載したものが出現している。自分撮り用のカメラを備えた構成は、デジタルスチルカメラ(DSC)等の携帯機器を含む様々な機器に拡がることが想定される。
デジタルスチルカメラ等の撮像装置は、小型化が進んだ影響で、スマートフォン等と同様にファインダーを有さずに、撮影者が液晶表示画面(LCD)で被写体を視認するものが主流となっている。この場合、撮影者は撮像装置から顔を一定距離だけ離して撮影するため、インカメラを備えていれば撮影者(操作者)の顔全体を撮影することができる。
図1は、スマートフォン、デジタルカメラ等の電子機器300で被写体を撮影している様子を示す模式図である。電子機器300は、撮影者の操作に基づいて、正面のカメラ102で被写体を撮影する。また、電子機器300は、カメラ302と反対側(撮影者側)にインカメラ304を備えており、インカメラ304によりユーザの顔を撮影することができる。
図2は、電子機器300が撮影した画像を示す模式図である。ここで、図2(B)は、電子機器300の正面のカメラ302が撮影した画像が、電子機器300のLCD306に標示されている様子を示している。また、図2(A)は、電子機器300のインカメラ304が撮影した画像を示している。図2(A)に示すように、インカメラ304によって撮影者が撮影される。このように、通常のカメラ302に加えてインカメラ304を備える電子機器100では、被写体を撮影しながら撮影者の顔を撮影することができる。
カメラ302で撮像される画像は、人物、風景、乗り物、建物等の様々な被写体であり、カメラ302は常時に人物の顔を検出するものではない。一方、インカメラ304で撮像した画像は、ほとんどの場合において、インカメラ304の近傍に配置されたLCD306を正視している撮影者の顔の画像である。従って、インカメラ304によれば、LCD306を正視している撮影者のほぼ正面の顔を捉えることが可能である。また、低照度時においても、LCD306の光が照明代わりになるので、暗い場合もインカメラ304によって撮影者の顔を撮像することができる。従って、インカメラ304を備えた電子機器300によれば、常時、撮影者の顔を撮像することができ、顔検出、表情の検出を行うことができる。
本実施形態では、常時に撮影者(操作者)の顔を撮像することが可能なインカメラ304を利用して、動画の自動編集を撮影者の顔情報(特に表情の情報)に基づいて行う。以下、詳細に説明する。
図3は、本発明に係る動画像処理装置としての一実施形態として、撮像装置100の構成を示す模式図である。図3は、本実施形態に係るデジタルスチルカメラ(Digital Still Camera)において、主に画像処理パイプライン(Pipe Line)に関係するブロック図を表している。図3に示すように、本発明の一実施形態に係る撮像装置100は、ズームレンズ(群)102と、絞り104と、フォーカスレンズ(群)108と、レンズCPU110と、ドライバ112,114と、モータ116,118と、A/D変換回路120と、ROM122と、RAMと124を備えている。
また、撮像装置100は、シャッター126と、ドライバ128と、モータ130と、撮像素子としてのCMOS(Complementary Metal Oxide Semiconductor)素子132と、アンプ一体型のCDS(Correlated Double Sampling)回路134と、A/D変換器136と、画像入力コントローラ138と、CPU200と、を備える。
また、撮像装置100は、不揮発性メモリ140と、圧縮処理回路142と、LCDドライバ144と、LCD(Liquid Crystal Display)146と、メディアコントローラ150と、記録メディア152と、VRAM(Video Random Access Memory)154と、メモリ(SDRAM)156と、操作部材158と、バッテリー148と、を備える。
絞り104、およびフォーカスレンズ108は、各ドライバ112,114によって制御されるモータ116,118を介して駆動される。ズームレンズ102は、光軸方向に前後して移動され、焦点距離を連続的に変化させるレンズである。絞り104は、画像を撮像する際に、CMOS素子132へ入射する光量の調節を行う。シャッター126は、画像を撮像する際に、CMOS素子132への露光時間を制御する。フォーカスレンズ108は、光軸方向に前後して移動され、CMOS素子132へ結像された被写体の画像のピントを調節するものである。
CMOS素子132は、ズームレンズ102、絞り104、およびフォーカスレンズ108を通って入射した光を電気信号に変換するための素子である。
CDS回路134は、CMOS素子132から出力された電気信号の雑音を除去する、サンプリング回路の一種であるCDS回路と、雑音を除去した後に電気信号を増幅するアンプとが一体となった回路である。本実施形態ではCDS回路とアンプとが一体となった回路を用いているが、CDS回路とアンプとを別々の回路で構成してもよい。
A/D変換器136は、CMOS素子132で生成された電気信号をデジタル信号に変換して、画像の生データ(ローデータ、画像データ)を生成するものである。画像入力コントローラ138は、A/D変換器136で生成された画像の生データ(画像データ)の記録メディア152への入力を制御するものである。
また、本実施形態に係る撮像装置100は、インカメラとして機能する第2のCMOS素子160と、アンプ一体型のCDS回路162と、A/D変換器164と、画像入力コントローラ166と、を備える。CDS回路162、A/D変換器164、および画像入力コントローラ166は、CMOS素子160用に設けられている。また、撮像装置100は、CMOS素子160用に設けられた光学レンズ168を備える。光学レンズ162の光軸は撮像装置100を操作する操作者に向けられており、光学レンズ162は、操作者の顔を被写体として、被写体像(操作者の顔の像)を第2のCMOS素子160の撮像面に結像させる。CMOS素子160は、被写体像を光電変換し、画像入力コントローラ166へ入力する。これらの構成要素によって、インカメラが構成されている。
CDS回路162は、CMOS素子160から出力された電気信号の雑音を除去する、サンプリング回路の一種であるCDS回路と、雑音を除去した後に電気信号を増幅するアンプとが一体となった回路である。
A/D変換器164は、CMOS素子160で生成された電気信号をデジタル信号に変換して、画像の生データ(ローデータ、画像データ)を生成するものである。画像入力コントローラ166は、A/D変換器164で生成された画像の生データ(画像データ)の記録メディア152への入力を制御するものである。
不揮発性メモリ140は、撮像装置100が常時保持するデータを格納するメモリである。不揮発性メモリ140は、CPU200を機能させるためのプログラムを格納することができる。
圧縮処理回路142は、CMOS素子132,136から出力された画像のデータを適切な形式の画像データに圧縮する圧縮処理を行う。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として、JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。
LCD146は、撮像操作を行う前のライブビュー表示や、撮像装置100の各種設定画面や、撮像した画像の表示、動画再生等を行う。画像データや撮像装置100の各種情報のLCD146への表示は、LCDドライバ148を介して行われる。
メモリ(SDRAM)156は、CMOS素子132,CMOS素子160が撮像した画像を一時的に記憶するものである。記録メディア152は、複数の画像を記憶できるだけの記憶容量を有している。メモリ(SDRAM)156への画像の読み書きは画像入力コントローラ138及び画像入力コントローラ166によって制御される。
VRAM154は、LCD146に表示する内容を保持するものであり、LCD146の解像度や最大発色数はVRAM154の容量に依存する。
記録メディア152は、CMOS素子132,CMOS素子160が撮像した画像を記録するものである。記録メディア152への入出力は、メディアコントローラ150によって制御される。記録メディア152としては、フラッシュメモリにデータを記録するカード型の記憶装置であるメモリカードを用いることができる。
CPU200は、CMOS素子132,160やCDS回路134,162などに対して信号系の指令を行ったり、操作部材158の操作に応じた操作系の指令を行ったりする。本実施形態においては、CPUを1つだけ含んでいるが、信号系の命令と操作系の命令とを別々のCPUで行うようにしてもよい。
CPU200は、AE/AWB/AF評価値算出部202と、適正AWB算出部204と、画像処理部206と、AF演算・制御部208と、AE演算・制御部210と、GUI管理部212と、タイミングジェネレータ(TG1)214と、I/O216と、SIO218と、タイミングジェネレータ(TG2)219と、を備える。また、CPU200は、顔認識部220と、表情評価値算出部222と、再生処理部224と、動画編集部226と、記録ファイル生成部228と、を備える。
AE/AWB/AF評価値算出部202は、CMOS素子132,160から出力された画像のデータから、露光量情報としてのAE評価値、ホワイトバランス情報としてのAWB評価値、AF情報としてのAF評価値、を算出する。適正AWB算出部204は、適正なホワイトバランス値を算出する処理を行う。画像処理部206は、CMOS素子132から出力された画像のデータに対して、光量のゲイン補正、画像のエッジ処理(輪郭強調処理)、ホワイトバランスの調整などの処理を行う。
AF演算・制御部208は、AF評価値に基づいて、被写体を撮影する際のフォーカスレンズ108の駆動量を決定する。レンズCPU110は、決定された駆動量に基づいてドライバ114を制御し、モータ118を駆動する。これにより、フォーカスレンズ108が合焦位置に駆動される。
また、AE演算・制御部210は、AE評価値に基づいて、被写体を撮影する際の絞り値、シャッター速度を決定する。CPU200は、決定されたシャッター速度に基づいてドライバ128を制御し、モータ130を駆動する。これにより、シャッター126が駆動される。また、レンズCPU110は、決定された絞り値に基づいてドライバ112を制御し、モータ116を駆動する。これにより、レンズが備える絞り104が駆動される。
GUI管理部212は、ユーザにより操作部材158が操作されると、操作部材158から操作入力情報を受け取る。CPU140は、GUI管理部212が受け取った操作部材158からの操作入力情報に基づいて、各種の処理を行う。例えば、GUI管理部158がダイジェスト動画を生成するための操作入力情報を操作部材158から受け取ると、動画編集部226によりダイジェスト動画を生成するための処理が行われる。
タイミングジェネレータ(TG1)214は、CMOS素子132にタイミング信号を入力する。つまり、タイミングジェネレータ(TG1)214からのタイミング信号によりCMOS素子132の駆動が制御される。タイミングジェネレータ(TG1)214は、CMOS素子132が駆動する時間内に被写体からの映像光を入射させることで、CMOS素子132に電子シャッターの機能を持たせることも可能である。
同様に、タイミングジェネレータ(TG2)219は、CMOS素子160にタイミング信号を入力する。つまり、タイミングジェネレータ(TG2)219からのタイミング信号によりCMOS素子160の駆動が制御される。タイミングジェネレータ(TG2)219は、CMOS素子160が駆動する時間内に被写体からの映像光を入射させることで、CMOS素子160に電子シャッターの機能を持たせることも可能である。
図3に示す、CMOS素子132から得られたRGB画像信号は、主として画像処理部206にて、欠陥画素補正、黒Level補正などのイメージフロントプロセス(Image front process)処理が施され、更にホワイトバランス(White Balance)補正処理、ベイヤー(Bayer)色補間(Demosaic)処理、色補正処理、ガンマ(Gamma)補正処理などの電子的処理を行い画像記録が行われる。なお、図3に示す各機能ブロックは、回路(ハードウェア)、または中央演算処理装置(CPU)とこれを機能させるためのプログラム(ソフトウェア)によって構成することができ、そのプログラムは、撮像装置100が備える不揮発性メモリ140、または外部から接続されるメモリなどの記録媒体に格納されることができる。
以上のように、撮影者が被写体として動画撮影した対象(人物、風景など)は、CMOS素子132によって画像データに変換される。一方、撮影者の顔は、CMOS素子160によって画像データに変換される。
なお、本実施形態では、撮像素子としてCMOS素子132,160を用いているが、本発明は係る例に限定されず、CMOS素子132,160の代わりにCCD素子などの他のイメージセンサを用いてもよい。なお、CMOS素子132,160は、CCD素子よりも高速に被写体の映像光を電気信号に変換できるので、被写体を撮像してから画像の合成処理を行うまでの時間を短縮することができる。
図1に示すように、撮像装置100は、ボディ本体250と交換レンズ260とから構成されており、ボディ本体250から交換レンズ260を取り外すことが可能とされている。一方、撮像装置100は、ボディ本体250と交換レンズ260が一体に構成されていても良い。
以上のように構成された撮像装置100において、撮影者の顔の表情をインカメラでモニタすることで、撮影している画像、または再生している画像に対する撮影者の思い入れを類推することが可能である。例えば、子供の発表会や運動会を両親が撮影する状況では、撮り損ねないよう子供が登場する前から十分な時間の余裕を確保して記録を始めることが多い。そして、撮りたい子供が現れたり演技が始まると、自然に表情が変わったり、場合によっては声をかけることも少なくない。そして、顔の表情の変化や状態を認識することで、撮影者の「主観的な思い入れ」を「客観的」にインカメラの画像から動画の部分毎に判断することができる。
本実施形態では、インカメラで撮像した表情から判断する撮影者(操作者)の喜怒哀楽のレベルやフレーム間の変化度に応じて客観的に数値化した評価値を算出し、評価値が高い数値ほど動画の重要シーンが含まれていると判断する。そして、所望の時間に収まるように評価値が高い動画区間を順次抽出することで、重要な部分で構成されたダイジェスト動画を自動的に生成する。
評価値の算出は、CMOS素子132による動画撮像時に行うことができる。また、評価値の算出は、再生処理部224によって記録メディア152に記録された動画ファイルの動画を再生する際に行うこともできる。評価値を算出した後は、評価値に基づいて任意のタイミングでダイジェスト動画を作成することができる。
このため、CPU200の顔認識部(分析部)220は、CMOS素子160が撮像した画像データから撮影者(または再生動画を視聴する操作者)の顔の表情を認識し、その特徴を分析する。つまり、顔認識部220は、操作者の顔の特徴を分析する分析部として機能する。
表情評価値算出部222は、顔認識部220が認識した顔の表情に基づいて、表情を数値化して評価値を算出する。数値化した評価値のデータは、CMOS素子132による撮像動画の記録開始とともに生成され、撮像動画と同じタイムラインで記録される。また、動画再生時に評価値を算出する場合、数値化した評価値のデータは、再生処理部224による動画の再生開始とともに生成され、再生動画と同じタイムラインで記録される。
表情の評価値は、予め設定した規則に基づいて作成することができる。表情の評価値には個人差があるが、一つの動画に対する表情の画像データの全体の中から、喜怒哀楽の表現が現れる上位の箇所から順に抽出することで、相対的な判断ができる。これにより、評価値の個人差だけでなく、状況の違いによる評価値の絶対量の違いも低減される。
以下、評価値の算出方法を具体的に説明する。図4及び図5は、評価値を規定する上記規則を説明するための模式図である。ここで、図4は、人物の表情のうち、評価値を決定する要素を示す模式図である。図4に示すように、評価値は、(a)目が細くなる、(b)目を見開く、(c)目じりが下がる、(d)口が開く、(e)口角が上がる、などの要素から決定される。例えば、(e)の口角を観察することで、撮影者の心の動きを推察することができる。従って、評価値に基づいて、騒々しい環境下であっても撮影者が声を発したタイミングを検出することも可能である。
図5は、図4に示す各要素(a)〜(e)に基づいて評価値を決定するための規則を示す模式図である。図4に示すように、各要素(a)〜(e)が通常レベルの場合は、評価値が0となる。一方、各要素が変化した場合の最大の評価値を設定し、変化のレベルに応じて評価値を大きくする。例えば、「(a)目が細くなる」、については、最も目が細くなった場合の評価値を8とし、目が細くなるレベルに応じて評価値を大きくする。同様に、「(b)目を見開く」、については、最も目を見開いた場合の評価値を12とし、目を見開くレベルに応じて評価値を大きくする。
ここで、図5に示す規則は、被写体の表情変化が激しく表れる要素に対する重み付けを高くしている。例えば、口が大きく開いているとき(例えば、思わず声を出して子供を応援しているときなど)、口角が大きく上がったとき(例えば、笑っているときなど)は、被写体の感情変化が「(d)口が開く」、「(e)口角が上がる」の要素に大きく反映される。このため、表情変化に応じて図5の各要素に重み付けをすることが望ましい。図5において、「(c)目じりが下がる」、と「(d)口が開く」を比較すると、最も大きく変化した場合の評価値は、「(c)目じりが下がる」は“4”であり、「(d)口が開く」は“20”である。これは、両者のそれぞれが最大に変化した場合、「(d)口が開く」の方がより感情の変化を大きく表しているためである。このように、各要素(a)〜(e)に応じて評価値の重み付けを変化させることで、評価値に基づいてユーザの感情をより適正に評価することができる。
各要素(a)〜(e)について、図5の通常〜最大のどのレベルまで変化したかの判定は、予めユーザの表情に基づいて通常のレベルと最大のレベルを設定することによって行うことができる。例えば、「(a)目を見開く」について例を挙げると、最初にユーザの顔を撮影した時に(撮影開始のスタンバイ時など)、両目の間隔、目の大きさ(横幅)、顔の輪郭等の基本的なデータを取得し、これに基づいて、通常の目の大きさ(図4中に示す実線N)と、最大に目を見開いた場合の目の大きさ(図4中に示す一点鎖線M)を予め設定しておく。そして、通常の目の大きさ(実線N)に対して、一点鎖線Mの範囲にどれだけ目の大きさが近づいたかを検出することで、図5に示す通常〜最大のどのレベルまで目が見開いたかを判定することができる。
顔認識部220は、認識した顔の画像から目、口、鼻などの特徴を認識し、分析する。表情評価値算出部222は、顔検出部220が検出した特徴に基づいて、各要素(a)〜(e)の評価値を算出し、各要素の評価値を合計してΣ{(a)+(b)+(c)+(d)+(e)}を算出することにより、最終的な評価値を算出する。図5に示す規則は、撮像装置100の不揮発性メモリ140に格納されている。また、ユーザは、操作部材158から操作を行うことで、図5に示す規則を最適に変更することができる。
ダイジェスト動画を生成する際には、評価値が所定のしきい値を超えている動画の区間を抽出することで、ダイジェスト動画を生成することができる。
以上のような構成によれば、ユーザが撮影動画または再生動画を視認する際に、動画の中で興味を示したり、感動したり、また心を動かされたりした場合は、表情の評価値が高くなる。従って、評価値に基づいて動画のダイジェストを生成することで、動画のダイジェストを最適に生成することが可能となる。
また、図5に示したような規則を撮影者(または再生動画を視聴する操作者)が予め知っておくことで、撮影者等においては、表情を意図的に変えることで、動画の編集ポイントを指示・指定する使い方が可能になり、意図的に抽出したい部分動画を選択することが可能となる。例えば、現在撮影(または再生)している動画がダイジェスト動画に含まれるようにしたい場合は、意図的に表情を笑顔にすることで、評価値が高く算出され、現在撮影(または再生)している動画をダイジェスト動画に含めることができる。従って、静粛が求められる場合や、被写体の声や音の邪魔にならないように黙って撮影する状況下であっても、特別な道具・装置を用いることなく、また特別な操作をすることなく、表情を変えるだけで、ダイジェスト動画を自動編集するための指示情報を動画再生時又は記録時に動画のタイムラインに埋め込むことが可能となる。このように、撮影者が動画抽出の規則を予め知っておくことで、自動編集で残したい箇所を意図的に撮影しながら動画に埋め込むことが可能となる。これにより、所望の部分動画を抽出することが可能となり、効率良くダイジェスト動画を作成することができる。
また、動画の撮影と同時に評価値を算出することができるため、動画撮影した後に特徴検出を行う必要がなく、評価値を算出するために動画データを再スキャンする必要がない。従って、評価値の算出を効率よく、且つ迅速に行うことが可能である。
次に、本実施形態に係る撮像装置100で行われる具体的な処理について説明する。撮影者が被写体を撮影することにより、CMOS素子132によって被写体の動画が撮像される。また、同時に、CMOS素子160によって撮影者(または再生動画を視聴する操作者)の顔が撮像される。
CPU200の顔認識部220は、CMOS素子132によって撮像された被写体の動画から、撮影者の顔を検出し、その特徴を分析する。そして、CPU200の表情評価値算出部222は、顔認識部220によって認識された撮影者の顔から図5に示す各要素(a)〜(e)を抽出し、図5の規則に基づいて表情の評価値を算出する。上述したように、表情評価値算出部222は、各要素(a)〜(e)の評価値を合計して最終的に評価値を算出する。記録ファイル生成部228は、算出した評価値を撮像動画と同じタイムラインで記録する。
また、動画再生時に評価値を算出する場合、CPU200の再生処理部224は、記録メディア152に記録された動画ファイルを読み出して再生する。再生した動画は、LCD146に表示される。動画再生中、操作者はLCD146の再生動画を視認する。このとき、CMOS素子160によって操作者の顔が撮像される。そして、顔認識部220は、CMOS素子160によって撮像された動画から撮影者の顔を検出し、その特徴を分析する。また、表情評価値算出部222は、顔認識部220によって認識された撮影者の顔から図5に示す各要素(a)〜(e)を抽出し、図5の規則に基づいて表情の評価値を算出する。記録ファイル生成部228は、算出した評価値を再生動画と同じタイムラインで記録する。これにより、動画再生時においても、撮影時と同様に、動画のタイムラインに評価値のデータを記録することができる。
CPU200の動画編集部226は、表情の評価値に基づいて動画を編集する。例えば、撮像装置100は、ユーザが動画の内容を手早く確認したいとき、またはユーザが動画の主たる部分のみを抽出したいときに、動画編集部226による自動編集機能を動作させる。この場合、動画編集部226は、操作者による動画編集の指示が操作部材158に入力された際に動画編集を行う。
また、動画編集部226による動画の編集は、撮影終了直後、または動画再生の終了直後に自動的に行うこともできる。また、動画編集部226による動画の編集は、画像ファイルの一覧をLCD146にサムネイルとして表示した際に、自動的に行うこともできる。動画編集により生成されたダイジェスト動画は、記録メディア152に記録される。
図6は、動画編集部226による自動編集機能を説明するための模式図である。動画編集部226による自動編集では、表情の評価値を参照して、評価値が大きい区間の動画を順次に抽出する。この際、評価値が大きい区間は、所定のしきい値に基づいて判定する。図6では、動画を抽出する際のしきい値として、編集時間が短い場合のしきい値T1、編集時間が中程度の場合のしきい値T2、編集時間が長い場合のしきい値T3の3通りを設定している。
編集時間が短い場合は、評価値がしきい値T1を超える区間R11,R12の動画を抽出してダイジェスト動画を生成する。また、編集時間が中程度の場合は、評価値がしきい値T2を超える区間R21,R22,R23,R24,R25を抽出してダイジェスト動画を生成する。また、編集時間が長い場合は、評価値がしきい値T3を超える区間R31,R32,R33,R34を抽出してダイジェスト動画(部分動画)を生成する。
このように、自動編集機能の作動時において、動画編集部226は、撮影者(操作者)が所望する編集時間となるように評価値のしきい値を変化させる。すなわち、動画編集部226は、抽出したダイジェスト動画の延べ時間が、予め定められた時間に収まるようにしきい値を変化させ、最適なしきい値を探索する。そして、しきい値を上回る評価値の区間を抽出し、区間合計時間が所望編集時間に最も近くなるしきい値を探索し、抽出区間を繋げてダイジェスト動画を作成する。これにより、ダイジェスト動画の長さをユーザが望む長さに設定することができる。なお、図6では、しきい値T1,T2,T3の3通りを示しているが、しきい値はT1,T2,T3以外の任意の値に設定することもできる。ユーザは、操作部材158を操作することで、ダイジェスト動画の長さを自由に設定することができる。動画編集部226は、操作部材158から入力されたダイジェスト動画の長さの情報に基づいて、しきい値を最適に調整する。これにより、ダイジェスト動画の長さをユーザの所望の時間とすることができる。
図7は、図5に示す各要素(a)〜(e)の各評価値と、各評価値の合計値(sum)が時間(time)の経過に伴って変化する場合に、ダイジェスト動画を抽出する区間を示す模式図である。評価値のしきい値を“15”とした場合、12秒から16秒の区間では、評価値の合計(sum)が15以上であるため、図7の太枠内で示す12秒から16秒の区間の動画がダイジェスト動画として抽出される。
図8は、評価値のサンプリング時間(Sampling Time)と評価値の関係をプロットし、サンプリング時間の間を直線補間した例を示している。ここでは、サンプリング時間が4秒間隔の場合を示している。また、評価値のしきい値は“15”であるものとする。図8において、しきい値が15を超える区間は、8.5秒〜18.0秒の区間R4であり、この時間帯の動画を抽出してダイジェスト動画を生成する。
なお、サンプリング時間の関係で、しきい値が“15”を超える区間の動画を抽出すると、動画の冒頭部分、または最後の部分で所望の動画がダイジェスト動画から外れてしまうことが考えられる。このため、動画の抽出開始は、しきい値が“15”を超える時刻の数秒程前から開始しても良い。図8に示す区間R5は、動画抽出の開始位置をしきい値が15を超える時間よりも2秒程度早いタイミングにした例を示している。同様に、動画抽出の終了も、しきい値が“15”以下となる時間よりも遅いタイミングにすることが望ましい。これにより、ダイジェスト動画からユーザの所望の部分が漏れてしまうことがなく、鑑賞し易いダイジェスト動画を作成することができる。ダイジェスト動画の始まりと終わりの画像は、フェードイン、フェードアウトで表示しても良い。
図9は、評価値の保存方法を示す模式図である。図9(A)は、評価値を動画ファイル400内のメタデータとして保存した場合を示している。この場合、動画ファイル400は、ヘッダー402、表情の評価値404、動画データ406を含むものとなる。
図9(B)は、評価値を動画ファイル400と対応付けされた別のファイル500として保存した場合を示している。この場合、拡張子を変えるなどの手法により、動画ファイル400と評価値のファイル500とが1対1で対応するようにしておく。
図9(A)及び図9(B)のいずれの場合においても、動画ファイル400、評価値のファイル500は、記録メディア152に記録される。動画ファイル400と評価値を対応付けて保存することにより、動画編集部226は、任意のタイミングでダイジェスト動画を生成することが可能となる。また、図7に示したように、評価値はテキストデータで表すことができるため、テキストデータを保存するのみで、評価値を確実に保存することができる。
評価値を保存する際には、サンプリングを適度に間引く、評価値をテキストデータにする、等の手法でデータ量を削減することで、評価値を短時間で保存することが可能となる。また、動画編集時においても、短時間の読み取り動作で評価値を読み出すことが可能である。
また、動画編集部226が生成したダイジェスト動画についても、記録メディア152に記録される。ダイジェスト動画を生成した後は、所望のダイジェスト動画を選択することにより、ダイジェスト動画を再生することが可能である。
例えば、LCD146に静止画のサムネイルとともにダイジェスト動画のサムネイルを表示しておき、ダイジェスト動画のサムネイルをクリックすることで、LCD146の表示画面サイズにダイジェスト動画を拡大して再生するようにしても良い。なお、LCD146上にダイジェスト動画をサムネイルで表示する場合は、所定の時間のダイジェスト動画を無限ループにして繰り返し表示する、動画の冒頭部分を静止画として表示する、等の方法が考えられる。このように、ダイジェスト動画をLCD146上にサムネイル表示することで、静止画のサムネイルと同様に、動画についてもサムネイルで内容を容易に確認することが可能となる。
図10は、撮像装置100における動画像処理方法の処理を示すフローチャートである。先ず、ステップS10では、インカメラによる操作者の撮像を開始する。次のステップS12では、インカメラで撮像した動画に対して顔認識を行い、顔の特徴を分析する。次のステップS14では、動画の撮像時又は動画の再生時に、顔の表情を数値化して評価値を算出する。次のステップS16では、数値化した評価値を動画の撮像又は再生と同じタイムラインで記録する。次のステップS18では、評価値に基づいて部分動画を順次抽出してダイジェストを生成する。
以上説明したように本実施形態によれば、インカメラで撮影した操作者の表情に基づいて、所望のダイジェスト動画を作成することができる。従って、操作者が動画を視聴した際に興味を感じた部分、心を動かされた部分の動画を正確に抽出することが可能となり、操作者の望み通りのダイジェスト動画を作成することが可能となる。これにより、操作者の主観を反映した効率的な動画の自動編集が可能となる。また、動画中の被写体の状況(人物の有無、向き、人数など)や動画中に含まれる音声に依存することなく、動画の自動編集が可能となる。
更に、表情の評価値を算出する規則を操作者が予め認識しておくことで、操作者の意図に従ってダイジェスト動画を生成することができる。また、評価値の算出は、動画撮影と同時に行うことができるため、特徴量を算出するために動画データを再デコーディングする必要がなく、評価値算出の処理を効率よく行うことが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 撮像装置
132,160 CMOS素子
220 顔認識部
222 表情評価値算出部
226 動画編集部
228 記録File生成部

Claims (16)

  1. 操作者を撮像する第1の動画像撮像部と、
    第1の動画像撮像部で撮像した第1の動画から操作者の顔の特徴を分析する分析部と、
    前記第1の動画とは別の第2の動画の撮像時に撮像した前記第1の動画から、前記分析部による分析結果に基づいて操作者の顔の表情を数値化して評価値を算出する評価値算出部と、
    数値化した前記評価値を前記第2の動画と同じタイムラインで記録する記録部と、
    前記評価値に基づいて前記第2の動画の部分動画を順次抽出してダイジェストを生成する動画編集部と、
    を備え
    前記動画編集部は、前記部分動画の延べ時間が予め定められた時間に収まるように前記しきい値を変化させて、前記部分動画を抽出することを特徴とする、動画像処理装置。
  2. 前記第2の動画を撮像する第2の動画像撮像部を備え、
    前記評価値算出部は、前記第2の動画像撮像部による前記第2の動画の撮像時に前記数値化を行うことを特徴とする、請求項1に記載の動画像処理装置。
  3. 前記動画編集部は、前記評価値の値が所定のしきい値よりも大きい区間の前記部分動画を順次抽出することを特徴とする、請求項1又は2に記載の動画像処理装置。
  4. 前記動画編集部は、前記評価値の値が所定のしきい値よりも大きい前記区間の前又は後ろに所定の余裕時間を加算して得られる区間の前記部分動画を順次抽出することを特徴とする、請求項3に記載の動画像処理装置。
  5. 前記評価値算出部は、前記数値化を予め定められた規則に基づいて行うことを特徴とする、請求項1〜4のいずれかに記載の動画像処理装置。
  6. 前記規則は、顔の表情の変化が激しい場合に評価値の重み付けが高くなるように規定されたことを特徴とする、請求項5に記載の動画像処理装置。
  7. 前記記録部は、前記評価値を前記第2の動画のデータ内にメタデータとして記録することを特徴とする、請求項1〜6のいずれかに記載の動画像処理装置。
  8. 前記記録部は、前記評価値を前記第2の動画のデータと1対1で対応する別データとして記録することを特徴とする、請求項1〜6のいずれかに記載の動画像処理装置。
  9. 操作者を撮像するステップと、
    第1の動画像撮像部で撮像した第1の動画から操作者の顔の特徴を分析するステップと、
    前記第1の動画とは別の第2の動画の撮像時に撮像した前記第1の動画から、前記顔の特徴の分析結果に基づいて、操作者の顔の表情を数値化して評価値を算出するステップと、
    数値化した前記評価値を前記第2の動画と同じタイムラインで記録するステップと、
    前記評価値に基づいて前記第2の動画の部分動画を順次抽出してダイジェストを生成するステップと、
    を備え、
    前記ダイジェストを生成するステップにおいて、前記部分動画の延べ時間が予め定められた時間に収まるように前記しきい値を変化させて、前記部分動画を抽出することを特徴とする、動画像処理方法。
  10. 前記第2の動画を撮像するステップを備え、
    前記評価値を算出するステップにおいて、前記第2の動画の撮像時に前記数値化を行うことを特徴とする、請求項9に記載の動画像処理方法。
  11. 前記ダイジェストを生成するステップにおいて、前記評価値の値が所定のしきい値よりも大きい区間の前記部分動画を順次抽出することを特徴とする、請求項9又は10に記載の動画像処理方法。
  12. 前記ダイジェストを生成するステップにおいて、前記評価値の値が所定のしきい値よりも大きい前記区間の前又は後ろに所定の余裕時間を加算して得られる区間の前記部分動画を順次抽出することを特徴とする、請求項11に記載の動画像処理方法。
  13. 前記評価値を算出するステップにおいて、前記数値化を予め定められた規則に基づいて行うことを特徴とする、請求項9〜12のいずれかに記載の動画像処理方法。
  14. 前記規則は、顔の表情の変化が激しい場合に評価値の重み付けが高くなるように規定されたことを特徴とする、請求項13に記載の動画像処理方法。
  15. 前記記録するステップにおいて、前記評価値を前記第2の動画のデータ内にメタデータとして記録することを特徴とする、請求項9〜14のいずれかに記載の動画像処理方法。
  16. 前記記録するステップにおいて、前記評価値を前記第2の動画のデータと1対1で対応する別データとして記録することを特徴とする、請求項9〜14のいずれかに記載の動画像処理方法。
JP2012266397A 2012-12-05 2012-12-05 動画像処理装置及び動画像処理方法 Expired - Fee Related JP6081788B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012266397A JP6081788B2 (ja) 2012-12-05 2012-12-05 動画像処理装置及び動画像処理方法
KR1020130087605A KR20140072785A (ko) 2012-12-05 2013-07-24 동영상 처리 장치 및 그 방법.
US14/078,782 US20140153900A1 (en) 2012-12-05 2013-11-13 Video processing apparatus and method
EP13193135.4A EP2741293A1 (en) 2012-12-05 2013-11-15 Video processing apparatus and method
CN201310653013.4A CN103856833A (zh) 2012-12-05 2013-12-05 视频处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012266397A JP6081788B2 (ja) 2012-12-05 2012-12-05 動画像処理装置及び動画像処理方法

Publications (2)

Publication Number Publication Date
JP2014112787A JP2014112787A (ja) 2014-06-19
JP6081788B2 true JP6081788B2 (ja) 2017-02-15

Family

ID=51126557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012266397A Expired - Fee Related JP6081788B2 (ja) 2012-12-05 2012-12-05 動画像処理装置及び動画像処理方法

Country Status (2)

Country Link
JP (1) JP6081788B2 (ja)
KR (1) KR20140072785A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137050A (ja) * 2019-02-25 2020-08-31 オリンパス株式会社 撮像装置、撮像方法、撮像プログラム及び学習装置
CN110245266B (zh) * 2019-06-17 2022-11-01 百度在线网络技术(北京)有限公司 视频评价记录方法和装置以及视频查询方法和装置
JP6830634B1 (ja) * 2020-02-20 2021-02-17 株式会社エクサウィザーズ 情報処理方法、情報処理装置及びコンピュータプログラム
WO2021240654A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 情報処理装置、制御方法及び記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP2005267455A (ja) * 2004-03-19 2005-09-29 Seiko Epson Corp 画像処理システム、表示装置、及び画像処理方法
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
JP2012169743A (ja) * 2011-02-10 2012-09-06 Jvc Kenwood Corp 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JP2014112787A (ja) 2014-06-19
KR20140072785A (ko) 2014-06-13

Similar Documents

Publication Publication Date Title
US20140153900A1 (en) Video processing apparatus and method
TWI330747B (en) Image capture apparatus and auto focus control method
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4799511B2 (ja) 撮像装置および方法並びにプログラム
EP2573758B1 (en) Method and apparatus for displaying summary video
JP4605039B2 (ja) 自動撮影方法及び自動撮影装置並びに自動撮影プログラム
JP2011010275A (ja) 画像再生装置及び撮像装置
US20100266160A1 (en) Image Sensing Apparatus And Data Structure Of Image File
JP2011166442A (ja) 撮像装置
JP6081788B2 (ja) 動画像処理装置及び動画像処理方法
KR101909126B1 (ko) 요약 동영상 디스플레이 방법 및 장치
JP5213503B2 (ja) 記憶再生装置
JP2010148132A (ja) 撮像装置、画像検出装置及びプログラム
JP2010087722A (ja) 撮影装置及び動画像編集方法
JP5157704B2 (ja) 電子スチルカメラ
JP2009182880A (ja) 撮像装置及びそのプログラム
JP2008058553A (ja) 撮像装置、撮像方法及び撮像制御プログラム
JP2014233011A (ja) 撮影装置
JP2010283637A (ja) 撮影画像処理装置、撮影画像処理プログラム及び撮影画像処理方法
JP2010087723A (ja) 撮影装置及び動画像編集方法
JP4804417B2 (ja) 動画撮像装置及び動画撮像方法
JP2010171849A (ja) 画像再生装置および電子カメラ
US8798439B2 (en) Method and apparatus for continuously reproducing moving picture files
JP5560744B2 (ja) 撮像装置、動画撮像方法、及び、プログラム
JP2008091978A (ja) 撮像装置及び画像記憶方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170119

R150 Certificate of patent or registration of utility model

Ref document number: 6081788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees