JP2011028689A - 動画抽出装置、プログラム、および動画抽出方法 - Google Patents

動画抽出装置、プログラム、および動画抽出方法 Download PDF

Info

Publication number
JP2011028689A
JP2011028689A JP2009176575A JP2009176575A JP2011028689A JP 2011028689 A JP2011028689 A JP 2011028689A JP 2009176575 A JP2009176575 A JP 2009176575A JP 2009176575 A JP2009176575 A JP 2009176575A JP 2011028689 A JP2011028689 A JP 2011028689A
Authority
JP
Japan
Prior art keywords
subject
moving image
unit
detection unit
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009176575A
Other languages
English (en)
Inventor
Masayuki Ejima
公志 江島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009176575A priority Critical patent/JP2011028689A/ja
Priority to US12/796,126 priority patent/US8731302B2/en
Publication of JP2011028689A publication Critical patent/JP2011028689A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】動画抽出装置、プログラム、および動画抽出方法を提供すること。
【解決手段】撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出する動き検出部と、前記動画から被写体を検出する被写体検出部と、前記動き検出部により前記撮像装置の動きが検出された区間において、前記被写体検出部により所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する被写体選択部と、前記動画から、前記被写体選択部により選択された前記注目被写体を含む区間を抽出する抽出部と、を動画抽出装置に設ける。
【選択図】図5

Description

本発明は、動画抽出装置、プログラム、および動画抽出方法に関する。
近日、入射光を電気信号に変換することにより動画を得ることが可能な撮像装置が広く普及している。ユーザは、この撮像装置を用い、子供の運動会の様子、旅行での風景、およびペットの仕草などを動画として保存することができる。
また、撮像装置により得られた動画の一区間を抽出してショートムービーを作成する自動編集用ソフトウェアも提案されている。この自動編集用ソフトウェアによれば、動画の抽出区間は例えばランダムに決定される。なお、動画の自動編集用ソフトウェアの一例が特許文献1に記載されている。
特開2004−159331号公報
しかし、上記の自動編集用ソフトウェアでは、動画の抽出区間が例えばランダムに決定されるため、ユーザにとって魅力的な区間を抽出することが困難であった。例えば、運動会の動画においては、子供の走っている区間がユーザにとって魅力的であると考えられるが、上記の自動編集用ソフトウェアでは、子供が競技前に列に並んで待っている区間が抽出されてしまう場合が想定された。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、動画からの区間抽出を動画の内容に基づいて行うことが可能な、新規かつ改良された動画抽出装置、プログラム、および動画抽出方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出する動き検出部と、前記動画から被写体を検出する被写体検出部と、前記動き検出部により前記撮像装置の動きが検出された区間において、前記被写体検出部により所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する注目被写体選択部と、前記動画から、前記注目被写体選択部により選択された前記注目被写体を含む区間を抽出する抽出部と、備える動画抽出装置が提供される。
前記動き検出部は、前記動画を構成するフレーム中の、連続する2のフレームの差分に基づいて前記撮像装置の動きを検出してもよい。
前記被写体検出部は、前記連続する2のフレームうちの一方の第1のフレームを前記動き検出部により検出された前記撮像装置の動きを利用して変換し、前記連続する2のフレームうちの他方の第2のフレームと、変換後の前記第1のフレームとの相違部分から前記被写体を検出してもよい。
前記動画抽出装置は、前記被写体検出部により新たに検出された被写体と、過去フレームにおいて消失した被写体とを比較し、双方の被写体が同一の被写体であるか否かを判断する同一被写体判断部をさらに備え、前記同一被写体判断部により同一であると判断された被写体は、消失していた間も検出されていたものとして扱われてもよい。
前記同一被写体判断部は、前記過去フレームにおいて消失した被写体に対応する特徴成分を選択する特徴成分選択部と、前記新たに検出された被写体と、前記過去フレームにおいて消失した被写体とを、前記特徴成分選択部により選択された特徴成分において比較する比較部と、を含んでもよい。
前記特徴成分選択部は、前記被写体の消失前の複数フレームにおいて前記被写体と他の被写体とを区別可能な特徴成分を、複数種類の特徴成分のうちから選択してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出する動き検出部と、前記動画から被写体を検出する被写体検出部と、前記動き検出部により前記撮像装置の動きが検出された区間において、前記被写体検出部により所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する注目被写体選択部と、前記動画から、前記注目被写体選択部により選択された前記注目被写体を含む区間を抽出する抽出部と、として機能させるためのプログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出するステップと、前記動画から被写体を検出するステップと、前記撮像装置の動きが検出された区間において、所定長さ以上の区間にわたって検出された被写体を注目被写体として選択するステップと、前記動画から、前記注目被写体を含む区間を抽出するステップと、を含む動画抽出方法が提供される。
以上説明したように本発明にかかる動画抽出装置、プログラム、および動画抽出方法によれば、動画からの区間抽出を動画の内容に基づいて行うことができる
本発明の一実施形態による画像抽出システムの構成例を示した説明図である。 本発明の一実施形態による画像抽出装置による動画の抽出区間を示した説明図である。 本発明の一実施形態による画像抽出装置の動作の概略を示したフローチャートである。 画像抽出装置のハードウェア構成を示したブロック図である。 本発明の一実施形態による画像抽出装置の構成を示した機能ブロック図である。 注視度マップ生成部が注視度マップを生成する過程を示した説明図である。 連続する2のフレームを示した説明図である。 撮像装置が動きていたと判断される区間の具体例を示した説明図である。 フレームからの被写体の検出例を示した説明図である。 動領域検出部がフレームから動領域を検出する様子を示した説明図である。 情報管理部により管理される被写体情報の内容を模式的に示した説明図である。 オクルージョン発生の様子を示した説明図である。 特徴成分選択部による特徴成分の選択基準を示した説明図である。 注目被写体選択部により選択される注目被写体の具体例を示した説明図である。 動き検出部による撮像装置の動き検出の流れを示したフローチャートである。 動領域検出部によるフレーム中の動領域検出の流れを示したフローチャートである。 被写体追跡部による被写体追跡の流れを示したフローチャートである。 管理部によるオクルージョンに対応するための処理の流れを示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.画像抽出装置の概要
2.画像抽出装置の構成
3.画像抽出装置の動作
3−1.撮像装置の動き検出
3−2.動領域検出
3−3.被写体の追跡
3−4.オクルージョン対応処理
4.まとめ
<1.画像抽出装置の概要>
まず、図1〜図3を参照し、本発明の一実施形態による画像抽出装置20について概略的に説明する。
図1は、本発明の一実施形態による画像抽出システム1の構成例を示した説明図である。図1に示したように、画像抽出システム1は、撮像装置10、通信網12、動画共有サーバ14、および画像抽出装置20を含む。
撮像装置10は、入射光を電気信号に変換することにより、複数フレームからなる動画を取得する。また、撮像装置10は、取得した動画を、撮像装置10に一体的に搭載されている記憶媒体、または撮像装置10と着脱可能に装着されている記憶媒体に記録する。なお、撮像装置10は、ユーザによる録画開始操作に基づいて動画の取得を開始し、ユーザによる録画停止操作に基づいて動画の取得を終了してもよい。
画像抽出装置20は、撮像装置10における撮像により得られた動画を取得する。例えば、画像抽出装置20は、動画が記録された記憶媒体が装着され、記憶媒体から動画を取得してもよい。または、撮像装置10が有線または無線で動画を送信し、画像抽出装置20は、撮像装置10から送信された動画を受信してもよい。
なお、図1においては画像抽出装置20がPC(Personal Computer)である例を示したが、画像抽出装置20はPCに限定されない。例えば、画像抽出装置20は、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また画像抽出装置20は、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。また、撮像装置10に画像抽出装置20の機能を実装することも可能である。
また、画像抽出装置20は、取得した動画中の一区間を抽出する。例えば、画像抽出装置20は、動画中で、撮像装置10により追跡して撮像された注目被写体を含む区間を抽出する。以下、図2および図3を参照し、画像抽出装置20による動画の抽出区間、および画像抽出装置20の動作の概略を説明する。
図2は、本発明の一実施形態による画像抽出装置20による動画の抽出区間を示した説明図である。図2に示したように、フレームvはサーキットコースの画像を含み、フレームw〜zは、背景画像としてのサーキットコース、およびサーキットコースを走行するカートの画像を含む。ここで、フレームw〜zに含まれるカートの画像は、撮像装置10により所定時間以上にわたって追跡して撮像された(追っかけ撮りされた)被写体である。本実施形態にかかる画像抽出装置20は、図3に示すように、このように所定長さ以上に渡って追跡して撮像された被写体を注目被写体として選択し、注目被写体が含まれる区間を動画から抽出する。
図3は、本発明の一実施形態による画像抽出装置20の動作の概略を示したフローチャートである。図3に示したように、画像抽出装置20は、動画を構成する各フレームから、撮像装置10が動いていた区間を検出する(S30)。ここで、撮像装置10が動いていた区間としては、撮像装置10の位置が移動した区間や、撮像装置10の撮像方向が変化した区間などがあげられる。この検出により、撮像装置10が動いていたことが検出された区間のフレーム番号が得られる。
また、画像抽出装置20は、撮像された動画を構成する各フレームから、被写体の検出および追跡を行う(S40)。この検出および追跡により、被写体ID、出現フレーム番号、および消失フレーム番号からなる被写体情報が、被写体の数だけ得られる。
そして、画像抽出装置20は、S30で検出された撮像装置10が動いていた区間、およびS40で得られた被写体情報に基づき、被写体から注目被写体を選択する(S50)。具体的には、画像抽出装置20は、撮像装置10の動きが検出された区間において、所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する。さらに、画像抽出装置20は、動画から、注目被写体を含む動画区間を抽出する(S60)。
画像抽出装置20は、このようにして抽出した動画を、内蔵する記憶媒体に記録してもよいし、リムーバブル記憶媒体24に記録してもよいし、通信網12を介して動画共有サーバ14に送信してもよい。なお、動画共有サーバ14に送信された動画は、通信網12に接続される複数の情報処理装置において視聴可能となる。
また、通信網12は、通信網12に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網12は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<2.画像抽出装置の構成>
以上、図1〜図3を参照し、本実施形態による画像抽出装置20について概略的に説明した。続いて、図4〜図14を参照し、本実施形態による画像抽出装置20の構成を詳細に説明する。
(画像抽出装置20のハードウェア構成)
図4は、画像抽出装置20のハードウェア構成を示したブロック図である。画像抽出装置20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、画像抽出装置20は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、通信装置215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って画像抽出装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。画像抽出装置20のユーザは、該入力装置208を操作することにより、画像抽出装置20に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置210は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置210は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
ストレージ装置211は、本実施形態にかかる画像抽出装置20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置211は、ハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、画像抽出装置20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
通信装置215は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
(画像抽出装置20の機能構成)
図5は、本発明の一実施形態による画像抽出装置20の構成を示した機能ブロック図である。図5に示したように、画像抽出装置20は、動画記憶部216と、注視度マップ生成部220と、動き検出部224と、動領域検出部228と、被写体検出部232と、管理部236と、情報記憶部240と、被写体追跡部244と、注目被写体選択部248と、抽出部252と、を備える。
(動画記憶部216)
動画記憶部216は、撮像装置10において撮像された動画を記憶する記憶媒体である。この動画記憶部216は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。不揮発性メモリとしては、例えば、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable ROM)があげられる。また、磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc、DVD−R(Digital Versatile Disc Recordable)およびBD(Blu−Ray Disc(登録商標))などがあげられる。
(注視度マップ生成部220)
注視度マップ生成部220は、動画記憶部216から供給される動画を構成する各フレームの注視度マップ(Saliency Map)を生成する。より詳細には、注視度マップ生成部220は、各フレームから複数種類の特徴量マップを生成し、複数種類の特徴量マップを統合することにより注視度マップを生成する。なお、各特徴量マップは、各フレームにおける各特徴量の分布を示す。以下、図6を参照し、特徴量マップおよび注視度マップについて具体的に説明する。
図6は、注視度マップ生成部220が注視度マップを生成する過程を示した説明図である。注視度マップ生成部220は、図6に示したように、入力フレームから複数種類の特徴量マップを生成する。
例えば、注視度マップ生成部220は、入力フレームから、入力フレームの輝度成分を表現する輝度特徴量マップを生成する。より具体的には、入力フレームのブロックごとに、R成分値、G成分値およびB成分値の平均値を各ブロックの輝度成分として算出してもよい。
同様に、注視度マップ生成部220は、入力フレームから、入力フレームの色成分を表現する色特徴量マップを生成する。また、注視度マップ生成部220は、入力フレームから、入力フレームの方向成分を表現する方向特徴量マップを生成する。
なお、図6においては、特徴量マップの一例として、輝度特徴量マップ、色特徴量マップ、および方向特徴量マップを示したが、特徴量マップは輝度特徴量マップ、色特徴量マップ、および方向特徴量マップに限定されない。例えば、注視度マップ生成部220は、入力フレームの点滅成分を表現する点滅特徴量マップ、および入力フレームの運動成分を表現する運動特徴量マップなどの多様な特徴量マップを生成してもよい。
注視度マップ生成部220は、このようにして生成した複数種類の特徴量マップを統合することにより注視度マップを生成する。例えば、注視度マップ生成部220は、複数種類の特徴量マップの各々に重み付けを行い、重み付けされた特徴量マップの各々を加算することにより注視度マップを生成してもよい。
(動き検出部224)
動き検出部224は、動画記憶部216から供給される動画を構成する各フレームに基づき、各フレーム撮像時の撮像装置10の動きを検出する。より詳細には、動き検出部224は、連続する2のフレームの差分に基づいて撮像装置10の動きを検出する。以下、図7および図8を参照し、動き検出について具体的に説明する。
図7は、連続する2のフレームを示した説明図である。図7において、フレームLが新しい方のフレーム(時間的に後に得られたフレーム)であり、フレームL−1が古い方のフレーム(時間的に前に得られたフレーム)である。
動き検出部224は、フレームL−1を構成するブロックごとに、フレームLに対する動き予測を行い、ブロックごとの動きベクトルを得る。そして、動き検出部224は、全ブロックの動きベクトルから、支配的な方向に対して大きく異なる動きベクトルを除き、他の動きベクトルから撮像装置10の動きベクトルを特定する。
図7に示した例では、フレームL−1とフレームLでカート画像の位置は変わっていないが、フレームL−1の背景画像であるサーキットコースは、フレームLにおいて全体的に右下方向へ移動している。この場合、動き検出部224は、カート画像を除くサーキットコースを構成するブロックの動きベクトルを例えば平均することにより、撮像装置10の動きベクトルを特定する。
さらに、動き検出部224は、撮像装置10の動きベクトルのスカラー量(以下、動き量と称する。)に基づき、撮像装置10が動いていた区間を判断する。
図8は、撮像装置10が動きていたと判断される区間の具体例を示した説明図である。図8に示したように、動き検出部224は、撮像装置10の動き量が閾値th1を上回っている区間を撮像装置10が動いていた区間として判断する。具体的には、図8に示した例では時間t3〜t4および時間t5〜t6において撮像装置10動き量が閾値th1を上回っているため、動き検出部224は、時間t3〜t4および時間t5〜t6を撮像装置10が動いていた区間として判断する。
(動領域検出部228)
動領域検出部228は、動画記憶部216から供給される動画を構成する各フレームから、動きを有する被写体が写っている動領域を検出する。そして、被写体検出部232は、動領域検出部228により検出された動領域の範囲内で、注視度マップ生成部220により生成された注視度マップから被写体を検出する。以下、詳細な説明に先立ち、動領域検出部228を設けた意図を説明する。
図9は、フレームからの被写体の検出例を示した説明図である。より詳細には、図9は、被写体検出部232が仮に注視度マップの全体から被写体を検出する場合に検出される被写体を示している。具体的には、図9に示したように、カートを含む被写体矩形Aに加え、サーキットコース上の物体が被写体矩形B〜Eとして検出されている。
このように、被写体検出部232が仮に注視度マップの全体から被写体を検出する場合、動きを有するカートを含む被写体矩形Aに加え、静止している物体を含む被写体矩形B〜Eも検出される。しかし、本実施形態では、撮像装置10により追跡して撮像された注目被写体を含む区間の抽出が望まれる。すなわち、注目被写体としては動きを有する被写体を想定しているため、静止している物体を含む被写体矩形B〜Eは注目被写体として適切でない。
そこで、静止している物体を含む被写体矩形が注目被写体の候補として検出されてしまう場合を抑制するために、動領域検出部228を画像抽出装置20に設けた。以下、図10を参照し、動領域検出部228の機能について説明する。
図10は、動領域検出部228がフレームから動領域を検出する様子を示した説明図である。図10に示したように、動領域検出部228は、フレームL−1を、動き検出部224により検出された撮像装置10の動きベクトルをキャンセルするようにフレームL−1を変換する。例えば、動き検出部224により検出された撮像装置10の動きベクトルの方向がQ、大きさがRであった場合、フレームL−1内の画像を、−Q方向に大きさRだけ移動させる。そして、動領域検出部228は、フレームLと、変換後のフレームL−1との差分画像を生成する。
ここで、静止している物体であっても、撮像装置10の動きにより、フレームLとフレームL−1における存在位置は異なる。しかし、上記のように、変換後のフレームL−1においては撮像装置10の動きがキャンセルされているため、静止している物体のフレームLおよび変換後のフレームL−1における存在位置はほぼ一致すると考えられる。このため、図10に示したように、フレームLと変換後のフレームL−1との差分画像においては、主に動きを有する被写体であるカートがフレーム間の差分として現れる。
さらに、動領域検出部228は、図10に示したように、差分画像の輝度値をブロック単位で閾値処理することにより、動きを有する被写体が存在する動領域を示す動領域画像を得る。なお、図10に示した動領域画像においては、輝度を有する領域が動領域に該当する。
(被写体検出部232)
被写体検出部232は、動領域検出部228により検出された動領域から、注視度マップ生成部220により生成された注視度マップに基づいて被写体矩形を検出する。仮に、被写体検出部232が注視度マップのみに基づいて被写体検出を行うと、図9を参照して説明したように、静止している物体も被写体矩形として検出されてしまう。
これに対し、本実施形態による被写体検出部232は、動領域検出部228により検出された動領域から被写体検出を行うため、主に動きを有する物体を被写体矩形として検出することが可能である。
例えば、本実施形態による被写体検出部232によれば、図9に示した被写体矩形A〜Eのうちで、動きを有するカートの被写体矩形Aのみが検出されることが期待される。このように、注視度マップ生成部220、動領域検出部228、および被写体検出部232は、新規の被写体を検出するための新規被写体検出部として機能する。
(管理部236、情報記憶部240)
管理部236は、情報管理部254、特徴成分選択部256、および比較部258を有する。この管理部236は、被写体検出部232により検出された被写体矩形の被写体情報を情報記憶部240において管理する。ここで、被写体情報としては、被写体ID、出現フレーム番号、および消失フレーム番号などがあげられる。
例えば、情報管理部254は、被写体検出部232により検出された被写体矩形のうちで、被写体追跡部244が追跡中でない新規の被写体矩形に被写体IDを割当て、この被写体矩形が検出されたフレームの番号を出現フレーム番号として情報記憶部240に記録する。さらに、この被写体矩形があるフレームにおいて被写体追跡部244により追跡されなくなると、このフレームの番号を消失フレーム番号として情報記憶部240に記録する。
このようにして情報管理部254により管理される被写体情報の内容を、図11に模式的に示した。図11に示したように、出現フレーム番号および消失フレーム番号により、各被写体が追跡された区間を特定することが可能である。
なお、情報記憶部240は、動画記憶部216と同様に、不揮発性メモリ、磁気ディスク、光ディスク、およびMOディスクなどの記憶媒体であってもよい。また、図5においては、動画記憶部216および情報記憶部240を異なるブロックとして記載したが、本実施形態はかかる例に限定されない。例えば、動画記憶部216および情報記憶部240は物理的に同一の記憶媒体であってもよい。
また、特徴成分選択部256および比較部258は、ある被写体に関してオクルージョンが発生した場合、オクルージョン発生前の被写体と、オクルージョン発生後の被写体の同一性を判断するための同一被写体判断部として機能する。ここで、図12を参照し、オクルージョン、およびオクルージョンによる弊害を説明する。
図12は、オクルージョン発生の様子を示した説明図である。オクルージョンとは、手前の被写体に遮られた奥の被写体が見えなくなる状態である。図12に示した例では、フレームyにおいて、被写体であるカートが手前のポールに遮られて見えなくなっており、オクルージョンが発生している。
このようなオクルージョンが発生すると、一時的に被写体を追跡できなくなるため、同一の被写体が異なる被写体として扱われてしまう場合があった。例えば、図12に示したフレームxに含まれるカートの被写体矩形に被写体ID:2が割り振られており、フレームyにおいてオクルージョンが発生すると、カートを追跡できなくなるため、被写体ID:2であるカートの被写体矩形は消失したものとして管理される場合があった。
さらに、オクルージョン後のフレームzにおいてカートの被写体が再び現れると、カートの被写体が新規被写体として扱われるため、オクルージョン発生前と異なる被写体ID(図12に示した例では、被写体ID:24)が割り振られてしまう場合があった。
これに対し、特徴成分選択部256および比較部258によれば、オクルージョンが発生しても、オクルージョン発生前の被写体矩形とオクルージョン発生後の被写体矩形を同一の被写体として扱うことが可能である。以下、このような特徴成分選択部256および比較部258について説明する。
特徴成分選択部256は、オクルージョン発生前の被写体矩形とオクルージョン発生後の被写体矩形を比較するための特徴成分を選択する。より詳細には、被写体矩形によって他の被写体矩形と区別しやすい特徴成分が異なるので、特徴成分選択部256は、オクルージョンの発生した被写体矩形と他の被写体矩形を区別しやすい特徴成分を選択する。
例えば、図6に示した特徴量マップにおいて、カートは色特徴量マップでの特徴が強いので他の被写体と区別しやすいが、輝度特徴量マップや方向特徴量マップでの特徴は弱いので他の被写体と区別しにくい。この場合、特徴成分選択部256は、比較のための特徴成分として、オクルージョンの発生した被写体矩形と他の被写体矩形を区別しやすい色特徴量を選択する。以下、図13を参照し、特徴成分選択部256が選択する特徴成分についてより具体的に説明する。
図13は、特徴成分選択部256による特徴成分の選択基準を示した説明図である。図13においては、複数フレームに含まれるある被写体矩形(以下、被写体矩形X)の、ある特徴成分についての複数フレーム間での誤差を本人内誤差と称する。また、被写体矩形Xと他の被写体矩形との各フレームにおける特徴量間距離を本人―他人間距離と称する。
図13に示したように、被写体矩形Xに関し、特徴量Aにおいては本人内誤差と、本人―他人間距離とが重なっていない。したがって、被写体矩形Xとの特徴量Aにおける特徴量間距離が上記本人内誤差の範囲内である新たな被写体矩形が検出された場合、この新たな被写体矩形が被写体矩形Xと同一であると判断することが可能である。すなわち、特徴量Aに基づき、フレームから被写体矩形Xを他の被写体矩形と区別して検出することが可能である。このため、特徴成分選択部256は、特徴量Aを比較のための特徴成分として選択する。
一方、図13に示したように、被写体矩形Xに関しては、特徴量Bにおいては本人内誤差と、本人―他人間距離とが重なっている。したがって、新たな被写体矩形と被写体矩形Xとの特徴量Bにおける特徴量間距離が上記本人内誤差の範囲内であったとしても、新たな被写体矩形は被写体矩形Xと異なる可能性がある。すなわち、特徴量Bに基づき、フレームから被写体矩形Xを他の被写体矩形と区別して検出することは困難である。このため、特徴成分選択部256は、比較のための特徴成分として特徴量Bを選択しない。
比較部258は、新たに検出された被写体矩形と過去フレームにおいて消失した被写体矩形Xとの、特徴成分選択部256により選択された特徴成分における特徴量間距離を測定する。
そして、情報管理部254は、比較部258による測定結果に応じて、被写体情報を管理する。例えば、情報管理部254は、新たな被写体矩形と被写体矩形Xとの特徴量間距離が十分な数(例えば、2つ)の特徴成分において閾値より小さい場合、新たな被写体矩形を被写体矩形Xとして処理してもよい。具体的には、情報管理部254は、情報記憶部240における被写体矩形Xの消失フレーム番号を削除し、被写体矩形Xと同じ被写体IDを新たな被写体矩形に割り振ってもよい。
一方、情報管理部254は、新たな被写体矩形と被写体矩形Xとの特徴量間距離が小さい特徴成分の数が十分でない場合、新たな被写体矩形を通常通り処理してもよい。具体的には、情報管理部254は、この新たな被写体矩形に新たな被写体IDを割り振ってもよい。
(被写体追跡部244)
被写体追跡部244は、あるフレームにおいて検出された被写体矩形を、次のフレームにおいて検出および追跡する。すなわち、被写体追跡部244は、被写体矩形を継続的に検出する被写体検出部としての機能を有する。なお、検出および追跡法として、例えば特徴点を使用するKLT(Kanade−Lucas−Tomasi)法を適用することができる。この被写体追跡部244の詳細な処理については、図17を参照して後述する。
(注目被写体選択部248)
注目被写体選択部248は、撮像装置10により追跡して撮像された被写体(追っかけ撮りされた被写体)を注目被写体として選択する。具体的には、撮像装置10が動いていたと動き検出部により判断された区間において、被写体追跡部244により所定長さ(閾値th2)以上の区間にわたって検出(追跡)された被写体矩形を注目被写体として選択する。以下、図14を参照し、注目被写体選択部248により選択される注目被写体の具体例を説明する。
図14は、注目被写体選択部248により選択される注目被写体の具体例を示した説明図である。図14に示したように、注目被写体選択部248は、各被写体矩形が、撮像装置10が動いていたと判断された時間t3〜t4および時間t5〜t6において追跡された区間長さを得る。
そして、注目被写体選択部248は、撮像装置10が動いていたと判断された時間において追跡された区間長さが閾値th2以上である被写体矩形を注目被写体として選択する。したがって、図14に示した例においては、被写体ID:2である被写体矩形が注目被写体として選択される。
(抽出部252)
抽出部252は、動画から、注目被写体選択部248により選択された注目被写体を含む区間を抽出する。具体的には、抽出部252は、注目被写体の被写体情報から注目被写体が追跡されていた区間を得て、この区間の少なくとも一部を含む区間を動画から抽出する。
例えば、抽出部252は、図14に示した例において、注目被写体(被写体ID:2)が追跡された時間t4−1〜t6までの区間を抽出してもよい。また、抽出部252は、注目被写体が現れる前を含む区間(例えば、時間t4〜t6)を抽出してもよいし、注目被写体が追跡された時間の一部区間(例えば、時間t5〜t6)を抽出してもよい。
ここで、注目被写体は、撮像装置10により追跡して撮像された被写体である。したがって、上記の抽出部252の処理により、動画から、撮像装置10により追跡して撮像された被写体が写っている区間を抽出することが可能である。
<3.画像抽出装置の動作>
以上、図4〜図14を参照して画像抽出装置20の構成を説明した。続いて、図15〜図18を参照し、画像抽出装置20の詳細な動作を説明する。具体的には、図15を参照して動き検出部224の動作を説明し、図16を参照して動領域検出部228の動作を説明し、図17を参照して被写体追跡部244の動作を説明し、図18を参照して管理部236の動作を説明する。
(3−1.撮像装置の動き検出)
図15は、動き検出部224による撮像装置10の動き検出の流れを示したフローチャートである。動き検出部224は、動画記憶部216から供給される動画を構成する各フレームに基づき、各フレーム撮像時に撮像装置10が動いていたか否かを判断する。
具体的には、動き検出部224は、フレームL、およびフレームLの直前フレームであるフレームL−1が供給され、フレームL−1を構成するブロックごとに、フレームLに対する動き予測を行い、ブロックごとの動きベクトルを得る(S304)。なお、フレームLを構成するブロックごとに、フレームL−1に対する動き予測を行い、ブロックごとの動きベクトルを得てもよい。
そして、動き検出部224は、ブロックごとの動きベクトルから、動きベクトルの支配的な方向と、支配的な方向に対する各ブロックの動きベクトルの分散を計算する(S308)。その後、動き検出部224は、支配的な方向に対して最も異なる動きベクトルを有するブロックを処理対象から除外する(S312)。
動き検出部224は、上記のS308およびS312の処理を、支配的な方向に対する各ブロックの動きベクトルの分散が閾値以下になるまで繰り返して行う。これにより、撮像装置10のフレームLにおける動きベクトルを得ることができる。
さらに、動き検出部224は、撮像装置10の動きベクトルのスカラー量が閾値th1を上回っているか否かを判断する。そして、動き検出部224は、撮像装置10の動きベクトルのスカラー量が閾値th1を上回っている場合には、撮像装置10が動いていたと判断する(S320)。一方、動き検出部224は、撮像装置10の動きベクトルのスカラー量が閾値th1を上回っていない場合には、撮像装置10が動いていなかったと判断する(S324)。
動き検出部224は、上記のS304〜S320またはS304〜S324の処理を次フレーム以降のフレームに対しても行うことにより(S328)、各フレームの撮像時に撮像装置10が動いていたか否かを判断することができる。
(3−2.動領域検出)
次に、図16を参照し、フレーム中の動領域を検出する動領域検出部228の動作を説明する。
図16は、動領域検出部228によるフレーム中の動領域検出の流れを示したフローチャートである。動領域検出部228は、動画記憶部216から供給される動画を構成する各フレームから、動きを有する被写体が写っている動領域を検出する。
具体的には、動領域検出部228は、動き検出部224からフレームLの撮像時の撮像装置10の動きベクトルが供給され、動画記憶部216からフレームL−1が供給される。動領域検出部228は、動画記憶部216から供給されたフレームL−1を、撮像装置10の動きベクトルをキャンセルするように並進・回転させて変換する(S404)。
続いて、動領域検出部228は、動画記憶部216から供給されたフレームLと、変換後のフレームL−1との差分を演算して差分画像を得る(S408)。この差分画像は、主に動きを有する被写体の存在部分に輝度を有する。
そして、動領域検出部228は、差分画像の輝度値をブロック単位で閾値処理することにより、動きを有する被写体が存在する動領域を示す動領域画像を得る(S412)。なお、被写体検出部232は、動領域検出部228により検出された動領域から被写体検出を行うため、動領域検出部228における動領域の検出により、主に動きを有する物体を被写体矩形として検出することが可能である。
さらに、動領域検出部228は、S404〜S412の処理を次フレーム以降のフレームに対しても行うことにより(S416)、動きを有する被写体が存在する動領域を示す動領域画像を各フレームにおいて得ることができる。
(3−3.被写体の追跡)
続いて、図17を参照し、前フレームで検出された被写体を追跡する被写体追跡部244の動作を説明する。
図17は、被写体追跡部244による被写体追跡の流れを示したフローチャートである。図17に示したように、被写体追跡部244は、フレームL−1が動画記憶部216から供給される。また、フレームL−1における新規被写体の被写体矩形は被写体検出部232から供給され、追跡中の被写体矩形は被写体追跡部244による以前の処理により得られる。
被写体追跡部244は、フレームL−1およびフレームL−1の被写体矩形から、被写体矩形内の特徴点を検出することにより、被写体矩形内の特徴点の座標を得る(S420)。そして、被写体追跡部244は、動画記憶部216から供給されたフレームLにおいて、S420で検出した特徴点を追跡し、フレームLにおける特徴点の座標を得る(S424)。
その後、被写体追跡部244は、フレームLの注視度マップに基づき、S424で得た特徴点近傍で被写体矩形の検出を試みる(S432)。そして、被写体矩形が検出された場合、この被写体矩形がフレームLの被写体矩形として扱われる(S432)。
一方、被写体矩形が検出されなかった場合、被写体追跡部244は、被写体矩形が消失したと判断する(S436)。なお、情報管理部254は、被写体追跡部244により被写体矩形が消失したと判断されると、この被写体矩形の消失フレーム番号としてフレームLを記録する。
さらに、被写体追跡部244は、S420〜S432、またはS420〜S436の処理を次フレーム以降のフレームに対しても行うことにより(S440)、複数フレームにわたって被写体矩形を追跡することが可能である。
(3−4.オクルージョン対応処理)
続いて、図18を参照し、オクルージョンによる弊害を是正するための管理部236による処理の流れを説明する。
図18は、管理部236によるオクルージョンに対応するための処理の流れを示したフローチャートである。図18に示したように、被写体追跡部244により被写体矩形の追跡処理が行われ(S444)、フレームLにおいて被写体矩形が検出されなかった場合(S448)、被写体矩形がオクルージョンにより一時的に消失した可能性がある。このため、特徴成分選択部256および比較部258は、オクルージョン後に現れた被写体矩形と消失した被写体矩形との同一性を判断するために、判断に用いる特徴成分の選択、および比較判断を行う。
具体的には、特徴成分選択部256は、フレームL−1以前のnフレーム分の過去フレームの各特徴量マップから、消失した被写体矩形の各特徴成分における本人内誤差、および本人―他人間距離を計算する(S452)。これにより、特徴成分ごとの本人内誤差、および本人―他人間距離が得られる。
なお、上述したように、消失した被写体矩形のある特徴成分についての複数フレーム間での誤差が本人内誤差であり、消失した被写体矩形と他の被写体矩形との各フレームにおける特徴量間距離が本人―他人間距離である。
その後、特徴成分選択部256は、複数種類の特徴成分から、本人内誤差と本人―他人間距離が重ならない特徴成分を選択する(S456)。そして、十分な数(例えば、3)以上の特徴成分が選択された場合(S460)、比較部258によりフローチャート右段に示した処理が行われる。
比較部258は、フレームL+1およびフレームL+1の注視度マップに基づいてフレームL+1の被写体矩形が検出された後、フレームLから追跡された被写体矩形を除外する(S464)。これにより、フレームL+1で新規(オクルージョン後を含む)に検出された被写体矩形が得られる。
その後、比較部258は、フレームL+1で新規に検出された被写体矩形について、特徴成分選択部256により選択された特徴成分ごとに、消失した被写体矩形との特徴量間距離を測定する(S468)。そして、フレームL+1で新規に検出された被写体矩形と消失した被写体矩形との特徴量間距離が閾値以下である特徴成分が所定数以上であった場合、情報管理部254は、フレームL+1で新規に検出された被写体矩形に、消失した被写体矩形と同じ被写体IDを割り振る(S476)。
一方、フレームL+1で新規に検出された被写体矩形と消失した被写体矩形との特徴量間距離が閾値以下である特徴成分が所定数を下回る場合、情報管理部254は、フレームL+1で新規に検出された被写体矩形に新たな被写体IDを割り振り、新規被写体として処理する。
そして、次フレーム以降でもS464〜S480の処理を繰り返すことにより(S484)、複数フレームにわたってオクルージョンが発生していた被写体矩形も適切に処理することが可能となる。なお、オクルージョンは一時的に発生する状態であるため、消失した被写体矩形と新規に検出された被写体との比較を行うフレーム数には上限を設けてもよい。
<4.まとめ>
以上説明したように、本発明の一実施形態による画像抽出装置20は、撮像装置10の動きが検出された区間において、所定長さ以上の区間にわたって検出された被写体矩形を注目被写体として選択する。さらに、画像抽出装置20は、動画から、注目被写体を含む動画区間を抽出する。したがって、ユーザは、画像抽出装置20を利用することにより、撮像装置10により追っかけ撮りされた注目被写体を含む、ユーザにとって魅力的な動画区間を得ることが可能である。
また、本発明の一実施形態による画像抽出装置20は、フレームで動きを有する被写体が存在する動領域を検出する動領域検出部228、および動領域検出部228により検出された動領域から注目被写体の候補として被写体矩形を検出する被写体検出部232を備える。かかる構成によれば、静止している物体を含む被写体矩形が注目被写体の候補として検出されてしまう場合を抑制することが可能である。
また、本発明の一実施形態による画像抽出装置20は、オクルージョンの発生にも適切に対処することが可能である。具体的には、画像抽出装置20の特徴成分選択部256が、追跡中の被写体矩形が消失した場合に消失した被写体矩形と他の被写体矩形を区別しやすい特徴成分を選択する。そして、比較部258が、特徴成分選択部256により選択された特徴成分で新規に検出された被写体矩形と消失した被写体矩形とを比較する。さらに、情報管理部254が、特徴量間距離が閾値以下であれば、新規に検出された被写体矩形に消失した被写体矩形と同一の被写体IDを割り振る。これにより、オクルージョンの発生した被写体矩形を、フレームから消失していた間も検出・追跡されたいたものとして扱うことが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、特徴成分選択部256が本人内誤差と本人―他人間距離とが重ならない特徴成分を選択する例を説明したが、本発明はかかる例に限定されない。例えば、全ての特徴成分で本人内誤差と本人―他人間距離が重なっている場合、特徴成分選択部256は、本人内誤差と本人―他人間距離との重なりが少ない特徴成分を優先的に選択してもよい。
また、上記実施形態では、動き検出部224が撮像装置10の動き量が閾値th1を上回っている場合に撮像装置10が動いていたと判断する例を説明したが、本発明はかかる例に限定されない。例えば、動き検出部224は、撮像装置10の動き量が閾値th1以下である時間が所定長さ以下であった場合、この時間を含めて撮像装置10が動いていたと判断してもよい。具体的には、動き検出部224は、図8に示した例において、時間t4および時間t5間が所定長さ以下である場合、時間t3〜t6まで撮像装置10が動いていたと判断してもよい。
また、上記実施形態では、動画を構成する各フレームを処理する例を説明した。しかし、注目被写体選択部248は、撮像装置10が動いていたと動き検出部により判断された区間において、被写体追跡部244により所定長さ以上の区間にわたって追跡された被写体矩形を注目被写体として選択する。このため、被写体追跡部244は、撮像装置10が動いていたと動き検出部により判断された区間において追跡を行い、他の区間では追跡を行わなくてもよい。同様に、注視度マップ生成部220、動領域検出部228、および被写体検出部232なども、撮像装置10が動いていたと動き検出部により判断された区間において処理を行い、他の区間では処理を行わなくてもよい。かかる構成によれば、動画抽出装置20の本来の目的を達成しつつ、動画抽出装置20における動画抽出のための処理負荷を軽減することができる。
また、上記実施形態では、情報管理部254が、新たな被写体矩形と被写体矩形Xとの特徴量間距離が十分な数の特徴成分において閾値より小さい場合、新たな被写体矩形をオクルージョンにより消失した被写体矩形Xとして処理する例を説明したが、本発明はかかる例に限定されない。例えば、情報管理部254は、新たな被写体矩形と被写体矩形Xとの特徴量間距離が少なくとも1の特徴成分において閾値より小さい場合に、新たな被写体矩形をオクルージョンにより消失した被写体矩形Xとして処理してもよい。
例えば、本明細書の画像抽出装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、画像抽出装置20の処理における各ステップは、並列的に実行される処理を含んでもよいし、個別に実行される処理を含んでもよい。
また、画像抽出装置20に内蔵されるCPU201、ROM202およびRAM203などのハードウェアを、上述した画像抽出装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。また、図5の機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
10 撮像装置
12 通信網
14 動画共有サーバ
20 画像抽出装置
24 リムーバブル記憶媒体
216 動画記憶部
220 注視度マップ生成部
224 動き検出部
228 動領域検出部
232 被写体検出部
236 管理部
240 情報記憶部
244 被写体追跡部
248 注目被写体選択部
252 抽出部
254 情報管理部
256 特徴成分選択部
258 比較部

Claims (8)

  1. 撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出する動き検出部と;
    前記動画から被写体を検出する被写体検出部と;
    前記動き検出部により前記撮像装置の動きが検出された区間において、前記被写体検出部により所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する注目被写体選択部と;
    前記動画から、前記注目被写体選択部により選択された前記注目被写体を含む区間を抽出する抽出部と;
    を備える、動画抽出装置。
  2. 前記動き検出部は、前記動画を構成するフレーム中の、連続する2のフレームの差分に基づいて前記撮像装置の動きを検出する、請求項1に記載の動画抽出装置。
  3. 前記被写体検出部は、
    前記連続する2のフレームうちの一方の第1のフレームを前記動き検出部により検出された前記撮像装置の動きを利用して変換し、
    前記連続する2のフレームうちの他方の第2のフレームと、変換後の前記第1のフレームとの相違部分から前記被写体を検出する、請求項2に記載の動画抽出装置。
  4. 前記動画抽出装置は、前記被写体検出部により新たに検出された被写体と、過去フレームにおいて消失した被写体とを比較し、双方の被写体が同一の被写体であるか否かを判断する同一被写体判断部をさらに備え、
    前記同一被写体判断部により同一であると判断された被写体は、消失していた間も検出されていたものとして扱われる、請求項3に記載の動画抽出装置。
  5. 前記同一被写体判断部は、
    前記過去フレームにおいて消失した被写体に対応する特徴成分を選択する特徴成分選択部と;
    前記新たに検出された被写体と、前記過去フレームにおいて消失した被写体とを、前記特徴成分選択部により選択された特徴成分において比較する比較部と;
    を含む、請求項4に記載の動画抽出装置。
  6. 前記特徴成分選択部は、前記被写体の消失前の複数フレームにおいて前記被写体と他の被写体とを区別可能な特徴成分を、複数種類の特徴成分のうちから選択する、請求項5に記載の動画抽出装置。
  7. コンピュータを、
    撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出する動き検出部と;
    前記動画から被写体を検出する被写体検出部と;
    前記動き検出部により前記撮像装置の動きが検出された区間において、前記被写体検出部により所定長さ以上の区間にわたって検出された被写体を注目被写体として選択する注目被写体選択部と;
    前記動画から、前記注目被写体選択部により選択された前記注目被写体を含む区間を抽出する抽出部と;
    として機能させるための、プログラム。
  8. 撮像装置により撮像された動画に基づき、動画撮像時の前記撮像装置の動きを検出するステップと;
    前記動画から被写体を検出するステップと;
    前記撮像装置の動きが検出された区間において、所定長さ以上の区間にわたって検出された被写体を注目被写体として選択するステップと;
    前記動画から、前記注目被写体を含む区間を抽出するステップと;
    を含む、動画抽出方法。




JP2009176575A 2009-07-29 2009-07-29 動画抽出装置、プログラム、および動画抽出方法 Withdrawn JP2011028689A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009176575A JP2011028689A (ja) 2009-07-29 2009-07-29 動画抽出装置、プログラム、および動画抽出方法
US12/796,126 US8731302B2 (en) 2009-07-29 2010-06-08 Moving image extracting apparatus, program and moving image extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009176575A JP2011028689A (ja) 2009-07-29 2009-07-29 動画抽出装置、プログラム、および動画抽出方法

Publications (1)

Publication Number Publication Date
JP2011028689A true JP2011028689A (ja) 2011-02-10

Family

ID=43527042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009176575A Withdrawn JP2011028689A (ja) 2009-07-29 2009-07-29 動画抽出装置、プログラム、および動画抽出方法

Country Status (2)

Country Link
US (1) US8731302B2 (ja)
JP (1) JP2011028689A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153868A1 (ja) * 2011-05-12 2012-11-15 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6230751B1 (ja) * 2016-09-15 2017-11-15 三菱電機株式会社 物体検出装置および物体検出方法
JP2019192227A (ja) * 2013-06-28 2019-10-31 日本電気株式会社 映像監視システム、映像処理方法および映像処理プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101670958B1 (ko) * 2010-11-30 2016-11-01 삼성전자주식회사 이기종 멀티코어 환경에서의 데이터 처리 방법 및 장치
WO2013085278A1 (ko) * 2011-12-06 2013-06-13 경북대학교 산학협력단 선택적 주의 집중 모델을 이용한 모니터링 장치 및 그 모니터링 방법
WO2014122879A1 (ja) * 2013-02-05 2014-08-14 日本電気株式会社 解析処理システム
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
CN110032914A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 一种标注图片的方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127120B2 (en) 2002-11-01 2006-10-24 Microsoft Corporation Systems and methods for automatically editing a video
CN1922863A (zh) * 2004-02-24 2007-02-28 皇家飞利浦电子股份有限公司 视频预告片
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
US8488839B2 (en) * 2006-11-20 2013-07-16 Videosurf, Inc. Computer program and apparatus for motion-based object extraction and tracking in video

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153868A1 (ja) * 2011-05-12 2012-11-15 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2019192227A (ja) * 2013-06-28 2019-10-31 日本電気株式会社 映像監視システム、映像処理方法および映像処理プログラム
US11210526B2 (en) 2013-06-28 2021-12-28 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
JP7014440B2 (ja) 2013-06-28 2022-02-01 日本電気株式会社 映像監視システム、映像処理方法および映像処理プログラム
US11729347B2 (en) 2013-06-28 2023-08-15 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
JP6230751B1 (ja) * 2016-09-15 2017-11-15 三菱電機株式会社 物体検出装置および物体検出方法
WO2018051459A1 (ja) * 2016-09-15 2018-03-22 三菱電機株式会社 物体検出装置および物体検出方法
US10943141B2 (en) 2016-09-15 2021-03-09 Mitsubishi Electric Corporation Object detection device and object detection method

Also Published As

Publication number Publication date
US8731302B2 (en) 2014-05-20
US20110026766A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP2011028689A (ja) 動画抽出装置、プログラム、および動画抽出方法
US10540805B2 (en) Control of display of composite image based on depth information
JP4219893B2 (ja) 画像のホワイトバランスを顔の色を基準信号として用いて行う方法及びシステム
US8984406B2 (en) Method and system for annotating video content
JP5488076B2 (ja) 対象物追跡装置、対象物追跡方法、および制御プログラム
KR101181588B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 시스템 및 기록 매체
JP5857567B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9214044B2 (en) Apparatus and method for augmenting a video image
US20110242357A1 (en) Information processing device, moving image cutting method, and moving image cutting program
JP2010244437A (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
WO2009125166A1 (en) Television receiver and method
JP2013162333A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN104049861B (zh) 电子装置及操作所述电子装置的方法
WO2017104372A1 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
US20120121235A1 (en) Moving image processing apparatus, computer-readable medium storing thumbnail image generation program, and thumbnail image generation method
AU2014200042B2 (en) Method and apparatus for controlling contents in electronic device
JP2009042917A (ja) 電子機器、動きベクトル検出方法及びプログラム
US8437611B2 (en) Reproduction control apparatus, reproduction control method, and program
CN107370977B (zh) 一种在检测视频中添加解说的方法、设备以及存储介质
CN112163554B (zh) 获取视频中的标记掩模的方法和装置
JP2018180714A (ja) 動体検知システム、動体検知装置、動体検知方法、およびプログラム
WO2021087773A1 (zh) 识别方法、装置、电子设备及存储介质
JP2007110566A (ja) 動画編集装置、および動画編集方法
JP4835540B2 (ja) 電子機器、映像特徴検出方法及びプログラム
JP2012109823A (ja) 被写体領域特定方法、被写体領域特定装置及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002