JP2007072520A - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP2007072520A
JP2007072520A JP2005255487A JP2005255487A JP2007072520A JP 2007072520 A JP2007072520 A JP 2007072520A JP 2005255487 A JP2005255487 A JP 2005255487A JP 2005255487 A JP2005255487 A JP 2005255487A JP 2007072520 A JP2007072520 A JP 2007072520A
Authority
JP
Japan
Prior art keywords
face area
trace
video data
frame
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005255487A
Other languages
English (en)
Inventor
Mototsugu Abe
素嗣 安部
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005255487A priority Critical patent/JP2007072520A/ja
Priority to US11/466,519 priority patent/US8103062B2/en
Priority to EP06018105A priority patent/EP1760633A3/en
Priority to CNB2006101277229A priority patent/CN100534175C/zh
Priority to KR1020060084027A priority patent/KR20070026228A/ko
Publication of JP2007072520A publication Critical patent/JP2007072520A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

【課題】 顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成する。
【解決手段】 顔領域検出部410において検出されたフレームにおける顔領域の位置および属性と、顔領域予測部423において予測された所定のトレースにおけるフレーム中の顔領域の位置および属性とがトレース判断部424で比較される。比較の結果、顔領域検出部410において検出されたフレームが所定のトレースに含まれると判断された場合、そのフレームはその所定のトレースに加えられる。トレースの終了フレームは終了フレーム判断部425で判断される。代表顔領域情報生成部430においてトレースを構成するフレーム中に含まれる顔領域より代表顔領域が選択され代表顔領域情報が生成される。トレースおよび代表顔領域に基づいて映像データ付随情報が映像データ付随情報生成部450で生成される。
【選択図】 図2

Description

本発明は、映像データより顔領域を検出する映像処理装置に関し、特に、顔領域の出現から消滅までを追跡する映像処理装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
映像データは、静止画データとは異なり、短時間でその内容を把握することは難しい。映像データの内容を短時間で把握するために、例えば3倍速再生等の高速再生や、映像データ中における所定の場面をサムネイル表示にして複数表示させる等の手法が用いられている。
しかしながら、高速再生といっても3倍速再生程度では映像データの内容を短時間で把握できるとは言い難い。一方、再生速度を上げても人の目がついていける再生速度には限度がある。また、映像データ中における所定の場面をサムネイル表示にする手法においては、必ずしも映像データの特徴を表す場面がサムネイル表示されるわけではないため、映像データの内容を把握させるには不十分である。
このような映像データの内容を把握するために、映像データの登場人物に着目することは有効である。一般に、映像データには人物が登場することが多いからである。近年においては顔検出技術に関する研究が盛んであり、この顔検出技術を用いて映像データの登場人物を把握しようとする技術開発が行われている。
例えば、映像データより移動物体を検出してその移動物体に対して顔検出技術により人物か否かの判断を行い、その人物を含む映像データのうちから所定数のフレームを選択して表示させる技術がある(例えば、特許文献1参照。)。また、映像データを構成するフレームより顔領域を抽出して抽出した全ての顔領域を人物毎にグループ化してそのグループ化した顔領域の中からその人物の代表顔領域を表示させる技術もある(例えば、特許文献2参照。)。
特開2000−232638号公報(図1) 特開2001−167110号公報(図1)
しかしながら、上記の移動物体に関する技術は、移動しない物体は検出しないため、一般的な映像データ全てに関してそのまま利用できる技術ではない。また、一般的には、フレームから顔領域を検出するのに、図15(a)に示すようにフレームに顔領域が含まれている場合には顔検出技術によって漏れなく検出できることが理想であるが、現段階における顔検出技術では、図15(b)に示すようにフレームに顔領域が含まれていても検出漏れが発生し得る。上記グループ化した顔領域の中からその人物の代表顔領域を表示させる技術では、フレームから顔領域を抽出する前提としてフレームより顔領域を検出するが、顔領域の検出漏れについての対策については施されていない。したがって、このままでは顔領域の時間方向のつながりを十分に把握することができず、映像データの内容を把握することが困難になるという問題がある。
そこで、本発明は、顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成する映像処理装置を提供することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、映像データを構成するフレームに含まれる顔領域を検出する顔領域検出手段と、上記検出に基づいて上記顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子を生成するトレース生成手段と、上記トレースを構成するフレームに含まれる上記顔領域より代表顔領域を選択して上記代表顔領域の内容を表す代表顔領域情報を生成する代表顔領域情報生成手段と、上記映像データに付随する映像データ付随情報として上記映像データに対して上記トレースの開始および終了に対応するフレーム識別子と上記代表顔領域情報とを対応付けた情報を生成する映像データ付随情報生成手段とを具備することを特徴とする映像処理装置である。これにより、顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成させるという作用をもたらす。したがって、膨大なフレーム中に登場する多数の人物を効率良く管理することができる。
また、この第1の側面において、上記トレース生成手段は、上記顔領域が出現してから消滅するまでのフレームに対して同一のトレース識別子を付与するトレース識別子付与手段と、上記同一のトレース識別子を付与された以前のフレームにおける上記顔領域に基づいて現フレームにおける上記顔領域を予測する顔領域予測手段と、上記予測された現フレームにおける上記顔領域に基づいて上記顔領域検出手段において検出された上記現フレームにおける上記顔領域が上記トレースに含まれるか否かを判断して上記トレースに含まれると判断した場合に上記トレースに上記現フレームを加えるトレース判断手段と、上記顔領域検出手段において検出された上記現フレームにおける上記顔領域が上記トレースに含まれないと判断された場合に何れのフレームを上記トレースの終了フレームとするかを判断する終了フレーム判断手段とを具備することを特徴とするものである。これにより、映像データを供給することによって自動的に顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成させるという作用をもたらす。
また、上記顔領域予測手段は、上記同一のトレース識別子を付与された以前のフレームにおける上記顔領域に基づいて上記現フレームにおける上記顔領域を線形予測により予測することを特徴とするものである。これにより、精度の良い顔領域の位置等の予測値が得られるという作用をもたらす。
また、上記トレース判断手段は、上記予測された現フレームにおける上記顔領域と上記顔領域検出手段において検出された上記現フレームにおける上記顔領域とを比較して位置の差および属性の差が所定の閾値内にあるか否かを判断し、上記閾値内にある場合には上記現フレームにおける上記顔領域が上記トレースに含まれると判断して上記トレースに上記現フレームを加えることを特徴とするものである。これにより、実際の検出値と予測値に誤差がある場合にも顔領域の出現から消滅までの情報を生成させるという作用をもたらす。
また、上記トレース判断手段は、上記属性として上記顔領域の大きさ、上記顔領域の輝度分布、上記顔領域の色分布、上記顔領域の形状、上記顔領域の模様のうち少なくとも一つの要素に基づいて上記属性の差が所定の閾値内にあるか否かを判断することを特徴とするものである。これにより、顔領域における大きさ、輝度分布、色分布、形状、模様等の要素によって実際の検出値と予測値を比較させるという作用をもたらす。
また、上記終了フレーム判断手段は、上記顔領域検出手段において検出された上記現フレームにおける上記顔領域が上記トレースに含まれないと判断された場合に後に続くフレームに対する上記トレース判断手段の判断結果に基づいて何れのフレームを上記終了フレームとするかを判断することを特徴とするものである。これにより、顔領域の検出漏れがある場合にも顔領域の出現から消滅までの情報を生成させるという作用をもたらす。
また、この第1の側面において、上記代表顔領域情報生成手段は、上記トレースを構成するフレームにおける上記顔領域の大きさ、上記顔領域における周波数分布、上記顔領域における色の濃淡分布および上記顔領域の色分布のうちの少なくとも一つの要素に基づいて上記代表顔領域を選択することを特徴とするものである。これにより、ユーザーによって見やすい顔領域を代表顔領域として選択させるという作用をもたらす。
また、この第1の側面において、上記代表顔領域情報生成手段は、上記代表顔領域を含むフレームのフレーム番号と上記代表顔領域を含むフレームにおける上記代表顔領域の位置および大きさとを上記代表顔領域情報として生成することを特徴とするものである。これにより、映像データ付随情報における代表顔領域情報の情報量を低減させるという作用をもたらす。
また、この第1の側面において、上記代表顔領域情報生成手段は、上記代表顔領域を含むフレームから切り出した上記代表顔領域を上記代表顔領域情報として生成することを特徴とするものである。これにより、顔領域を映像データ付随情報に含めて生成させるという作用をもたらす。
また、所定の顔領域の特徴を記述した顔領域特徴データと上記顔領域特徴データを識別する顔特徴識別子とを対応付けて保持する顔領域特徴データ保持手段と、上記顔領域情報生成手段において切り出された上記代表顔領域より顔領域特徴データを抽出する顔領域特徴データ抽出手段と、上記抽出された顔領域特徴データに類似する上記顔領域特徴データを上記顔領域特徴データ保持手段より検索して上記抽出された顔領域データに上記顔特徴識別子を付与する顔領域特徴データ検索手段とを具備し、上記映像データ付随情報生成手段は、上記映像データ付随情報に上記顔特徴識別子を含めて生成することを特徴とするものである。これにより、類似する顔領域を関連付けた顔特徴識別子を映像データ付随情報に含めて生成させるという作用をもたらす。
また、上記顔領域特徴データ検索手段において上記抽出された顔領域特徴データに類似する上記顔領域特徴データを上記顔領域特徴データ保持手段より検索されなかった場合に上記抽出された顔領域データに新たな顔特徴識別子を付与することを特徴とするものである。これにより、類似する顔領域がなくても新たに顔特徴識別子を付与させるという作用をもたらす。すなわち、全ての顔領域に顔特徴識別子が付与されることになる。
また、本発明の第2の側面は、映像データに対して顔領域が連続して出現するフレームの集合であるトレースの開始および終了に対応するフレーム識別子と上記トレースを構成するフレームに含まれる上記顔領域より選択された代表顔領域の内容を表す代表顔領域情報とを対応付けた情報である映像データ付随情報を保持する映像データ付随情報保持手段と、上記映像データ付随情報に基づいて操作メニューの一覧を生成する操作メニュー一覧生成手段と、上記操作メニューを表示する表示手段と、上記操作メニューに対する選択を受け付ける操作入力手段とを具備することを特徴とする映像処理装置である。これにより、顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報に基づいて映像データを管理させるという作用をもたらす。
また、この第2の側面において、上記映像データの一覧のうち所定の映像データが上記操作手段より選択されるとその選択された映像データに関する上記映像データ付随情報を取得して上記映像データ付随情報に含まれる上記代表顔領域情報に基づいて上記顔領域を表示させる顔領域取得手段をさらに具備することを特徴とするものである。これにより、映像データにおいて顔領域が連続して出現する場面毎にその場面を代表する顔領域を表示させるという作用をもたらす。
また、上記映像データ付随情報保持手段は、上記映像データに対して所定の顔領域の特徴を記述した顔領域特徴データに付与された顔特徴識別子を上記代表顔領域情報と対応付けて保持し、上記顔領域取得手段によって表示された上記顔領域の何れかが上記操作手段により選択されるとその選択された上記顔領域と同じ上記顔特徴識別子を有する映像データ付随情報を検索してその結果を表示させる類似顔領域検索手段をさらに具備することを特徴とするものである。これにより、類似する顔領域に基づいて映像データを検索させるという作用をもたらす。
また、この第2の側面において、上記映像データの一覧のうち所定の映像データが上記操作手段より選択されるとその選択された映像データに関する上記映像データ付随情報を取得して上記トレースに対応する時間表示および上記代表顔領域情報に対応する上記顔領域を含む顔タイムライン表示を生成する顔タイムライン生成手段をさらに具備することを特徴とするものである。これにより、映像データにおいて顔領域が連続して出現する場面毎にその場面を代表する顔領域およびその場面の時間を表示させるという作用をもたらす。
また、この第3の側面は、映像データを構成するフレームに含まれる顔領域を検出する顔領域検出手順と、上記検出に基づいて上記顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子を生成するトレース生成手順と、上記トレースを構成するフレームに含まれる上記顔領域より代表顔領域を選択して上記代表顔領域の内容を表す代表顔領域情報を生成する代表顔領域情報生成手順と、上記映像データに付随する映像データ付随情報として上記映像データに対して上記トレースの開始および終了に対応するフレーム識別子と上記代表顔領域情報とを対応付けた情報を生成する映像データ付随情報生成手順とを具備することを特徴とする処理方法またはこれらの手順をコンピュータに実行させるプログラムである。これにより、顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成させるという作用をもたらす。
本発明によれば、顔領域と顔領域の出現から消滅までの情報とを対応付けた映像データ付随情報を生成することができるという優れた効果を奏し得る。
次に本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の実施の形態における映像処理装置100の構成の一例を示す図である。映像処理装置100は、アンテナ10と、受信部20と、記録再生処理部30と、システム制御部40と、ハードディスク(Hard disk)50と、入出力制御部60と、表示部70と、音声出力部80と、操作入力部90とを備える。
アンテナ10は、空間を伝わって来た電波をとらえる役割を果たす。受信部20は、アンテナ10から供給されてきた受信データに対して復調処理およびD/A変換などの処理を行うものである。
記録再生処理部30は、受信部20から供給されたデータを、例えば、MPEG−2(Moving Picture Expert Group-2)規格に従って符号化などを行うものである。符号化されたデータは、ハードディスク50またはディスクインターフェース64に供給される。また、記録再生処理部30は、ハードディスク50またはディスクインターフェース64から供給されたデータに対して復号処理などを行う。この復号されたデータは、表示制御部61や、音声制御部62に供給される。
システム制御部40は、データ処理部41と、RAM(Random Access Memory)42とを備える。データ処理部41は、本発明の実施の形態における映像処理装置100全体の処理を司るものであり、作業領域としてRAM42を使用する。ハードディスク50は、記録再生処理部30において所定の処理を施されたデータを記憶しておくものである。
入出力制御部60は、表示制御部61と、音声制御部62と、操作制御部63と、ディスクインターフェース64とを備える。表示制御部61は、記録再生処理部30等から供給された映像データを、例えばLCD(Liquid Crystal Display)などにより構成された表示部70に供給する。表示部70において映像データは出力される。
音声制御部62は、記録再生処理部30等から供給された音声データを音声出力部80に供給する。この音声出力部80から音声データは出力される。操作制御部63は、操作入力部90からの操作信号をデータ処理部41に伝える。データ処理部41は、操作入力部90においていずれの操作が行われたかを判別し、その判別結果に応じた制御処理を行う。
ディスクインターフェース64は、記録再生処理部30において所定の処理を施されたデータをディスク65に書き込む。また、ディスクインターフェース64は、ディスク65からデータを読み出して記録再生処理部30に供給する。なお、ディスク65は、CD、DVDなどの光ディスク(optical disk)が想定される。また、ディスク以外の記憶媒体を利用することもできる。
本発明の実施の形態においては、(図示しない)放送局から供給された映像データはアンテナ10により受信され、ハードディスク50において保持される。このハードディスク50に保持された映像データを構成するフレームに含まれる顔領域はデータ処理部41において検出される。この顔領域の検出に基づいて、同一人物の顔領域がフレームに出現してから消滅するまでを一つの単位(以下、トレースと呼ぶ。)として同一人物の顔領域が連続して出現する場面に関する情報(以下、トレース情報と呼ぶ。)を映像データについての映像データ付随情報に含める。なお、トレース情報には、後述するトレースの開始および終了に対応するフレーム番号と、代表顔領域情報と、顔特徴識別子とが含まれる。
なお、上記において映像データとして放送局より供給された映像データを例に挙げて説明したがこれに限るものではなく、映像データとして、例えば家庭用のビデオカメラにより撮像された映像データであってもよい。この場合は、例えば家庭用のビデオカメラにより撮像された映像データが記録されたディスクをディスクインターフェース64より読み出して上記処理が行われることが想定される。
図2は、本発明の実施の形態における映像データについての映像データ付随情報を生成する機能構成の一例を示す図である。この機能は、顔領域検出部410と、トレース生成部420と、代表顔領域情報生成部430と、顔特徴識別子付与部440と、映像データ付随情報生成部450と、映像データ付随情報保持部460とを備える。
顔領域検出部410は、供給されたフレームより顔領域を検出するものである。具体的には、顔領域検出部410は、フレーム中の顔領域の有無と、顔領域の位置と、顔領域の大きさ、輝度分布、色分布、模様および形状等の顔領域の属性とを検出する。また、顔領域検出部410は、顔領域の属性として顔領域周辺の輝度分布、色分布、模様および形状等を検出してもよい。なお、以下の説明において、上記のフレーム中の顔領域の有無と、顔領域の位置と、顔領域の属性とを総称して「顔領域情報」と適宜呼ぶ。顔領域検出部410は、顔領域情報およびフレームをトレース生成部420に供給する。
トレース生成部420は、顔領域情報に基づいてトレースの開始および終了に対応するフレーム番号の組みを生成するものであり、トレース識別子付与部421と、顔領域情報保持部422と、顔領域予測部423と、トレース判断部424と、終了フレーム判断部425とを備える。
トレース識別子付与部421は、トレース判断部424より供給された顔領域の位置および属性に対してトレース識別子を付与するものである。トレース識別子とは、それぞれのトレースに付与される各トレースを区別するためのユニークな識別子である。トレース識別子付与部421においてトレース識別子を付与された顔領域の位置および属性は、顔領域情報保持部422に供給される。顔領域情報保持部422は、トレース識別子付与部421より供給された顔領域の位置および属性をトレース識別子毎に保持するものである。
顔領域予測部423は、顔領域情報保持部422においてトレース識別子毎に保持された顔領域の位置および属性に基づいて、トレース識別子毎に次フレームにおける顔領域の位置および属性を予測するものである。なお、顔領域予測部423において、線形予測により顔領域の位置および属性を予測することが想定される。ここで、線形予測とは、n番目の値を(n−1)番目以前の値から推定するものである。
トレース判断部424は、顔領域予測部423より供給されたトレース識別子毎の次フレームにおける顔領域の位置および属性の予測値に基づいて、顔領域検出部410において検出された現フレームにおける顔領域が何れのトレースに含まれるかを判断するものである。
具体的には、顔領域予測部423より供給されたトレース識別子毎の次フレームにおける顔領域の位置および属性の予測値と、顔領域検出部410において検出された現フレームにおける顔領域の位置および属性との差が所定の閾値内にあれば、現フレームはそのトレースを構成する次フレームであると判断され、現フレームはそのトレースに加えられる。
そして、トレース判断部424は、その現フレームにおける顔領域の位置および属性をトレース識別子付与部421に供給する。現フレームが予測内にある場合、トレース識別子付与部421は、予測されたトレースに付与されているトレース識別子を現フレームに付与して、顔領域情報保持部422に保持させる。
一方、顔領域予測部423より供給されたトレース識別子毎の次フレームにおける顔領域の位置および属性の予測値と、顔領域検出部410において検出された現フレームにおける顔領域の位置および属性との差が所定の閾値内になければ、現フレームは何れのトレースをも構成するものでないと判断され、現フレームはそのトレースに加えられない。この場合、その現フレームは新たに出現した顔領域として扱われ、トレース判断部424は、その現フレームにおける顔領域の位置および属性をトレース識別子付与部421に供給する。そして、トレース識別子付与部421は、新たなトレース識別子を現フレームに付与して、顔領域情報保持部422に保持させる。
また、トレース判断部424は、顔領域予測部423より供給されたトレース識別子毎の次フレームにおける顔領域の位置および属性の予測値に対応する現フレームにおける顔領域の位置および属性がない場合には、その予測値に対応するトレースが終了する可能性があると判断して、その旨の通知および現フレームを終了フレーム判断部425に供給する。
終了フレーム判断部425は、トレース判断部424から上記その旨の通知を受けるとトレースにおける終了フレームを判断する。終了フレーム判断部425は、例えば現フレームから所定時間(例えば、0.5秒程度)経過する間のフレームにおいてそのトレースに対応する顔領域が存在しなかった場合に、上記その旨の通知を受けた際のフレームを終了フレームと判断する。
顔領域予測部423より供給されたトレース識別子毎の次フレームにおける顔領域の位置および属性の予測値に対応する現フレームにおける顔領域の位置および属性がない場合には、その時点におけるフレームを終了フレームとすることも考えられるが、顔領域検出部410において顔領域の検出漏れが生じることもあり得るため、現フレームから所定時間経過する間のフレームにおける顔領域も対象としている。
また、終了フレーム判断部425は、トレース判断部424から供給された現フレームより顔領域の位置の予測値付近の輝度分布、色分布、模様および形状等を算出して、その算出値とトレースを構成する他のフレームに含まれる顔領域の輝度分布、色分布、模様および形状等における値とを比較して、両者が類似しない場合にその現フレームを終了フレームと判断するようにしてもよい。両者を比較した結果が類似すると判断された場合は、何らかの理由で顔領域が検出されなかったと見なして、トレース判断部424から供給された現フレームは終了フレームと判断されない。
代表顔領域情報生成部430は、トレース判断部424から供給されたトレースを構成するフレームに含まれる顔領域より代表顔領域を選択して代表顔領域の内容を表す代表顔領域情報を生成するものである。なお、代表顔領域は、二以上あってもよい。この代表顔領域情報は、映像データ付随情報生成部450および顔特徴識別子付与部440に供給される。
代表顔領域の選択は、顔領域の大きさ、顔領域における周波数分布、顔領域における濃淡分布および顔領域における色分布等の要素に基づいて行われる。なお、顔領域における周波数分布は顔領域のボケ具合を表す指標として用いられ、顔領域における濃淡分布は顔領域のコントラストを表す指標として用いられ、顔領域における色分布は色調を表す指標として用いられる。
代表顔領域情報としては、具体的には上記要素に基づいて選択された代表顔領域をフレームから切り出したもの、すなわち代表顔領域部分の映像データそのものが想定される。また、代表顔領域情報としては、代表顔領域を含むフレームのフレーム番号および代表顔領域のフレームにおける位置および大きさ等の情報も想定される。この代表顔領域を含むフレームのフレーム番号および代表顔領域のフレームにおける位置および大きさ等の情報に基づいて、代表顔領域部分の映像データを取得することができる。
代表顔領域情報のうち前者は、代表顔領域情報に基づいて顔領域の映像データを表示させる場合には、毎回映像データより代表顔領域部分の映像データを切り出す必要がないという利点がある。一方、代表顔領域情報のうち後者は、映像データではないため記憶領域の効率的な利用が可能であるという利点がある。
顔特徴識別子付与部440は、顔領域特徴データ抽出部441と、顔領域特徴データ保持部442と、顔領域特徴データ検索部443とを備える。顔領域特徴データ抽出部441は、代表顔領域情報生成部430より供給された代表顔領域情報に基づいて代表顔領域より顔領域についての特徴データ(以下、顔領域特徴データと呼ぶ。)を抽出するものである。抽出された顔領域特徴データは、顔領域特徴データ検索部443に供給される。
なお、顔領域特徴データとしては、例えば目、鼻、口といった造作を表す特徴点を抽出することによって各造作の形状や位置関係等を数値的に記述した特徴ベクトルが想定されるが、これに限るものではない。
顔領域特徴データ保持部442は、顔特徴識別子と顔領域特徴データとを対応付けて保持するものである。顔特徴識別子とは、顔領域特徴データの識別子であり、同じ顔特徴識別子を付与された顔領域特徴データは互いに類似する顔領域の特徴を有する。
顔領域特徴データ検索部443は、顔領域特徴データ保持部442に保持された顔領域特徴データにおいて、顔領域特徴データ抽出部441から供給された顔領域特徴データと類似する顔領域特徴データを検索するものである。
顔領域特徴データ保持部442に保持された顔領域特徴データにおいて、顔領域特徴データ抽出部441から供給された顔領域特徴データと類似する顔領域特徴データが検索された場合、顔領域特徴データ抽出部441から供給された顔領域特徴データには、上記検索された顔領域特徴データと同じ顔特徴識別子が付与され、映像データ付随情報生成部450に供給される。一方、顔領域特徴データ保持部442に保持された顔領域特徴データにおいて、顔領域特徴データ抽出部441から供給された顔領域特徴データと類似する顔領域特徴データが検索されなかった場合、新たな顔特徴識別子が付与されて映像データ付随情報生成部450に供給される。
なお、顔領域特徴データ検索部443に供給されて顔特徴識別子を付与された顔領域特徴データは、顔領域特徴データ保持部442にも供給され、顔特徴識別子と対応付けられて保持される。これにより、顔領域特徴データ保持部442には、顔特徴識別子と対応付けられた顔領域特徴データが蓄積される。
映像データ付随情報生成部450は、映像データに対してトレースの開始および終了に対応するフレーム番号と、代表顔領域情報と、顔特徴識別子とを対応付けた映像データ付随情報を生成するものである。すなわち、映像データ付随情報とは、映像データに図1で説明したトレース情報を対応付けた情報である。この生成された映像データ付随情報は、映像データ付随情報保持部460において保持される。
なお、これら図2における機能は、例えば図1におけるシステム制御部40において実現されるものである。
図3は、図2において生成された映像データ付随情報を用いた操作機能の構成の一例を示す図である。この操作機能は、操作メニュー一覧生成部470と、映像データ付随情報保持部460と、映像データ保持部500と、顔タイムライン生成部481と、類似顔領域検索部482と、顔領域取得部483と、再生映像データ取得部484とを備える。
操作メニュー一覧生成部470は、映像データ付随情報保持部460に保持された映像データ付随情報に基づいて映像データに関する操作メニューの一覧を生成するものである。また、操作メニュー一覧生成部470は、映像データに関する操作メニューに対する操作入力部90からの選択に応じて操作メニューの何れかに対応する機能を備えた顔タイムライン生成部481、類似顔領域検索部482、顔領域取得部483および再生映像データ取得部484に対して指示を行う。
顔タイムライン生成部481は、操作メニュー一覧生成部470からの指示を受けて、指示に対応する映像データ付随情報を映像データ付随情報保持部460より取得してその映像データ付随情報に基づいて表示部70に表示させる顔タイムライン表示を生成するものである。
ここで、顔タイムライン表示とは、所定の映像データにおけるトレースに対応する時間表示および代表顔領域情報に対応する顔領域を対応付けた表示を言う。映像データ付随情報に含まれるトレースの開始および終了に対応するフレーム番号によってトレースに対応する時間表示を生成し、代表顔領域情報に基づいて代表顔領域が生成される。
顔領域取得部483は、操作メニュー一覧生成部470または類似顔領域検索部482からの指示を受けて、指示に対応する映像データ付随情報を映像データ付随情報保持部460より取得してその映像データ付随情報に基づいて表示部70に表示させる代表顔領域を取得するものである。具体的には、顔領域取得部483は、映像データ付随情報に含まれる代表顔領域情報に基づいて代表顔領域を取得する。
代表顔領域情報の内容が顔領域の映像データそのものである場合は、顔領域取得部483は、顔領域を映像データ付随情報保持部460より取得する。一方、代表顔領域情報の内容が代表顔領域を含むフレームのフレーム番号および代表顔領域のフレームにおける位置および大きさ等の情報である場合には、顔領域取得部483は、映像データ保持部500より対応するフレームを取得してそのフレームより顔領域を取得する。
類似顔領域検索部482は、操作メニュー一覧生成部470からの指示を受けて、映像データ付随情報保持部460に保持された映像データ付随情報における顔特徴識別子に基づいて、指示に対応する顔領域と類似する顔領域を映像データ付随情報保持部460において検索するものである。具体的には、類似顔領域検索部482は、操作メニュー一覧生成部470から指示された顔領域の顔特徴識別子と同じ顔特徴識別子を有する映像データ付随情報を映像データ付随情報保持部460において検索する。そして、検索された映像データ付随情報中の代表顔領域情報に基づいて対応する顔領域を表示部70に表示させる。
なお、本発明の実施の形態において代表顔領域情報の内容が顔領域の映像データそのものである場合、類似顔領域検索部482は検索された顔特徴識別子に対応する顔領域を映像データ付随情報保持部460より取得して表示部70に表示させる。一方、代表顔領域情報の内容が代表顔領域を含むフレームのフレーム番号および代表顔領域のフレームにおける位置および大きさ等の情報である場合、類似顔領域検索部482は顔領域取得部483に指示を行い、映像データ保持部500より対応するフレームを顔領域取得部483に取得させてそのフレームより顔領域を切り出して表示部70に表示させる。
再生映像データ取得部484は、操作メニュー一覧生成部470からの指示を受けて指示に対応する映像データを映像データ保持部500より取得して表示制御部61に供給するものである。
図4は、本発明の実施の形態におけるトレースの生成の様子を示す図である。なお、図4において顔領域213乃至215は顔領域が点線で表されている。これは実際には顔領域が存在するが、顔領域検出部410で検出されなかったことを表しているものとする。また、実線で表された顔領域は、顔領域検出部410で検出されたことを表しているものとする。
まず、フレーム201において顔領域211が顔領域検出部410で検出され、トレースAの生成が開始される。次に、フレーム201における顔領域211の位置および属性に基づいて、次フレーム202での顔領域の位置および属性が顔領域予測部423において予測される。
フレーム202において顔領域212および221が顔領域検出部410で検出され、顔領域予測部423において予測された顔領域の位置および属性とフレーム202において検出された顔領域212および221の位置および属性とが比較される。両者の位置および属性の差が閾値内であれば、フレーム202はトレースAに加えられる。
図4においては、顔領域予測部423において予測された顔領域の位置および属性と、フレーム202において検出された顔領域212の位置および属性との差は閾値内にあると考えられるため、フレーム202はトレースAに加えられる。
一方、顔領域予測部423において予測された顔領域の位置および属性と、フレーム202において検出された顔領域221の位置および属性との差は閾値内にないと考えられるため、新たに出現した顔領域として扱われ、トレースBの生成が開始される。
次に、顔領域予測部423において、トレースAにおける次フレーム203での顔領域の位置および属性の予測およびトレースBにおける次フレーム203での顔領域の位置および属性の予測が行われる。
フレーム203において顔領域222が顔領域検出部410で検出され、トレースBにおける次フレーム203での顔領域の位置および属性の予測とフレーム203における顔領域222の位置および属性とが比較される。図4においては、トレースBにおける次フレーム203での顔領域の位置および属性の予測と、フレーム203における顔領域222の位置および属性との差は、閾値内にあると考えられるため、フレーム203はトレースBに加えられる。
トレースBについては、フレーム204および205についても同様の取り扱いがされ、顔領域が存在しなくなるフレーム206の前のフレーム205がトレースBの終了フレームとなる。したがって、トレースBの開始フレームはフレーム202で、トレースBの終了フレームは、フレーム205となる。
一方、トレースAに対応する顔領域213がフレーム203においては検出されていない。このため、トレースAにおける次フレーム203での顔領域の位置および属性の予測と比較すべき対象が存在しない。この場合、トレースAにおける終了フレームは、202とすべきと考えられる。しかしながら、顔領域検出部410における顔検出の確率は100パーセントではないため、実際にはフレーム203に顔領域213が存在する可能性もある。したがって、本発明の実施の形態においては、フレーム203においてトレースAに対応するはずの顔領域213が検出されなくても、この時点で直ぐにトレースAの終了フレームを判断しない。さらに先のフレームにおける顔領域も加味してトレースAの終了フレームを判断する。
トレースAについては、フレーム203乃至205まで顔領域検出部410において顔領域213乃至215が検出されていない。フレーム206においては、顔領域216が検出されている。顔領域予測部423でのフレーム206における顔領域の位置および属性の予測と、フレーム206において検出された顔領域216の位置および属性とを比較すると、両者の差は閾値内にあると考えられ、顔領域216を含むフレーム206はトレースAに加えられる。この場合、本発明の実施の形態においてはフレーム203乃至205において顔領域213乃至215は検出されたものとして扱われ、フレーム203乃至205もトレースAに加えられる。なお、何フレーム先の顔領域の状況まで上記のように扱うかの限定はないが、例えば0.5秒程度先のフレームまで上記のように扱うことが想定される。
トレースAについては、フレーム207および208についても同様のことが行われ、顔領域が存在しなくなるフレーム208の前のフレーム207がトレースAの終了フレームとなる。したがって、トレースAの開始フレームはフレーム201で、トレースAの終了フレームは、フレーム207となる。
図5は、図4とは別のトレースにおける終了フレームの判断方法を示すものである。図4においては、顔領域が検出されなかった場合は、数フレーム先までの顔領域の検出結果を加味するが、図5においては、顔領域が検出されなかったフレームを解析することによってトレースにおける終了フレームを判断する。
図5に示したのは、図4におけるフレーム202および203である。フレーム203においては顔領域検出部410において顔領域が検出されていないが、フレーム203より前のフレーム201またはフレーム202に基づいて、フレーム203における顔領域の位置および属性が顔領域予測部423によって予測されている。この予測された位置がフレーム203の領域231である。
このフレーム203がトレースAにおける終了フレームであるか否かを判断するため、領域231における輝度分布、色分布、模様および形状等を終了フレーム判断部425において算出する。そして、上記算出された輝度分布、色分布、模様および形状等と、フレーム201またはフレーム202に基づいて予測されたフレーム203における顔領域における輝度分布、色分布、模様および形状等からなる属性とを終了フレーム判断部425において比較する。
両者を比較した結果、両者の輝度分布、色分布、模様および形状等が類似すると判断された場合は、何らかの理由で顔領域が検出されなかったと見なして、フレーム203は終了フレームと判断されない。一方、両者の輝度分布、色分布、模様および形状等が類似しないと判断された場合は、フレーム203は終了フレームと判断される。
なお、終了フレームの判断の精度を上げるために、上記領域231における周辺領域である周辺領域232も比較対象として上記のように周辺領域232における輝度分布、色分布、模様および形状等を算出するようにしてもよい。
図6は、本発明の実施の形態における顔領域情報保持部422の保持内容を示す図である。顔領域情報保持部422は、顔領域情報テーブル4220を保持しており、顔領域情報テーブル4220は、トレース識別子4221と、顔領域情報4222とを備える。
トレース識別子4221は、それぞれのトレースに付与される各トレースを区別するためのユニークな識別子であり、図2において説明したものと同様のトレース識別子である。また、顔領域情報4222は、所定のフレームにおける顔領域の位置および属性を表す情報である。図6においては、フレーム202(位置202、属性202)というように示されているが、これはフレーム202における顔領域の位置と属性を意味するものである。トレースは複数のフレームで構成されることもあるため、一つのトレース識別子に対して複数のフレームにおける顔領域の位置と属性が顔領域情報4222において保持されている。
図7は、本発明の実施の形態における顔領域特徴データ保持部442の保持内容を示す図である。顔領域特徴データ保持部442は、顔領域特徴データテーブル4420を保持しており、顔領域特徴データテーブル4420は、顔特徴識別子4421と、顔領域特徴データ4422とを備える。
顔特徴識別子4421は、顔領域特徴データの識別子であり、図2において説明したように同じ顔特徴識別子を付与された顔領域特徴データは互いに類似する顔領域の特徴を有する。図7において顔特徴識別子は、「特徴A」、「特徴B」とされている。顔領域特徴データ4422は、図2において説明した顔領域特徴データと同様のものである。
図8は、本発明の実施の形態における映像データ付随情報保持部460において保持された映像データ付随情報を示す図である。映像データ付随情報4600は、映像データのタイトル4601と、トレース情報4602とを備える。映像データにおいては、一般的に顔領域の出現から消滅までの状況が多数存在する。このため、映像データのタイトル一つにつき多数のトレース情報が保持されている。トレース情報の具体的な内容については図9で説明する。
図9は、本発明の実施の形態におけるトレース情報の内容を示す図である。図8(a)は、本発明の実施の形態におけるトレース情報の一例を示す図である。図9(a)に示すトレース情報4610は、トレース識別子4611と、開始フレーム番号4612と、終了フレーム番号4613と、顔特徴識別子4614と、代表顔領域情報4615とを備える。
トレース識別子4611は、それぞれのトレースに付与される各トレースを区別するためのユニークな識別子であり、図2において説明したものと同様のトレース識別子である。開始フレーム番号4612は、トレースを開始したフレーム番号である。また、終了フレーム番号4613は、トレースを終了したフレーム番号である。
顔特徴識別子4614は、顔領域特徴データの識別子であり、図2において説明したように同じ顔特徴識別子を付与された顔領域特徴データは互いに類似する顔領域の特徴を有する。すなわち、同じ顔特徴識別子4614を有するトレース情報は、類似する特徴を有する顔領域を有しているとされ、この顔特徴識別子4614は、類似する特徴を有する顔領域を検索する際に参照される。代表顔領域情報4615は、代表顔領域の内容を表す情報であり、図9(a)においてはフレーム中から切り出された顔領域そのものが代表顔領域情報とされている。なお、代表顔領域情報4615における代表顔領域の内容を表す情報は、2以上あってもよい。図9(a)においては、代表顔領域の内容を表す情報として「代表顔領域情報#1」の他に「代表顔領域情報#2」が示されている。
図9(b)に示すトレース情報4620は、トレース識別子4621と、開始フレーム番号4622と、終了フレーム番号4623と、顔特徴識別子4624と、代表顔領域情報4625とを備える。図9(b)と図9(a)におけるトレース情報の相違点は、代表顔領域情報である。その他の点については同じ内容であるため、説明を省略する。図9(b)における代表顔領域情報4625は、図9(c)に示すように代表顔領域を含むフレーム番号4626と、顔領域における所定の座標4627と、顔領域の高さおよび幅4628とから成る。これらにより、フレーム中の顔領域が特定されて、代表顔領域として取得されることになる。
図10は、本発明の実施の形態における操作メニューの表示を示すものである。図10(a)に示すように表示部70の表示画面700には、映像データのタイトルの集合である映像データタイトル表示群710と、顔列挙ボタン721と、顔タイムラインボタン722とから成る操作メニューが表示される。顔列挙ボタン721は、カーソルが位置する映像データにおける代表顔領域を列挙して表示させるためのボタンである。また、顔タイムラインボタン722は、カーソルが位置する映像データにおける図3で説明した顔タイムライン表示を表示させるためのボタンである。
例えば、所定の映像データタイトルにカーソルを合わせた後に顔列挙ボタン721を選択すると、表示画面700には図10(b)に示すように表示される。図10(b)に示す表示画面700には、選択映像データ表示730と、代表顔領域の集合である代表顔列挙群740と、類似タイトルボタン751と、再生ボタン752とが表示される。
選択映像データ表示730は、図10(a)においてカーソルによって選択された映像データのタイトル表示である。代表顔列挙群740は、カーソルによって選択された映像データにおける代表顔領域が表示される。類似タイトルボタン751は、図10(b)において選択された代表顔領域と類似する代表顔領域を含む映像タイトルを検索するためのボタンである。また、再生ボタン752は、図10(b)において選択された代表顔領域に対応するトレースを構成する映像データを再生させるためのボタンである。
図10(b)に示す表示画面700において代表顔領域「顔C」にカーソルを移動させて、類似タイトルボタン751を選択すると、図10(c)に示すような表示になる。一方、図10(b)に示す表示画面700において代表顔領域「顔C」にカーソルを移動させて、再生ボタン752を選択すると、代表顔領域「顔C」に対応するトレースを構成する映像データが再生され図10(d)に示すような表示になる。
図10(c)における表示画面700には、図10(b)においてカーソルによって選択された代表顔領域「顔C」と類似する代表顔領域を含む映像データタイトル表示である類似代表顔領域映像データタイトル表示群760と、図10(a)で示した顔列挙ボタン721と、顔タイムラインボタン722が表示される。類似代表顔領域映像データタイトル表示群760のうちの何れかを選択して顔列挙ボタン721を選択すると、表示画面700には図10(b)に示すような表示がされる。
図11は、図10において顔タイムラインボタン722を選択した場合の表示画面700を示す図である。図11における表示画面700には、選択映像データ表示730と、映像データ時間表示770と、顔タイムライン表示群780と、類似タイトルボタン751と、再生ボタン752とが表示される。
選択映像データ表示730は、図10で説明したものと同様である。映像データ時間表示770は、映像データの再生時間を表示するものである。図11においては、タイトルBの映像データの再生時間は30分である。顔タイムライン表示群780は、顔タイムライン表示の集合である。
顔タイムライン表示は、トレース時間表示781と、代表顔領域782とから成る。トレース時間表示781は、トレースを構成する映像データの再生時間である。代表顔領域782は、トレースを構成するフレームに含まれる顔領域より選択された顔領域である。顔タイムライン表示を見れば、映像データ中におけるトレースの位置がわかるため、映像データの内容を把握するのに便利である。なお、類似タイトルボタン751と、再生ボタン752については、図10で説明したものと同様である。
次に、本発明の実施の形態における映像処理装置100の動作について図面を参照して説明する。
図12は、本発明の実施の形態における映像データ付随情報を生成するまでの流れを示す図である。
映像データを構成するフレームが顔領域検出部410に入力されると(ステップS911)、顔領域検出部410においてフレームに含まれる顔領域の検出が行われる(ステップS912)。次に、ステップS912において未処理のトレースが存在するか否かが判断される(ステップ913)。
未処理のトレースが存在しないと判断されると、ステップS912において新たな顔領域が存在するか否かが判断される(ステップS914)。新たな顔領域が存在すると判断されると、新規のトレースの生成を開始する(ステップS915)。
ステップS913において、未処理のトレースが存在すると判断されると、顔の位置および属性が予測される(ステップS916)。次に、ステップS913において予測された顔の位置および属性と、ステップS912において検出された顔領域の位置および属性とを比較して、ステップS912において検出された顔領域の位置および属性がトレースに含まれるか否かが判断される(ステップS917)。ステップS912において検出された顔領域の位置および属性がトレースに含まれると判断されると、その検出された顔領域はトレースに加えられる(ステップS918)。
一方、ステップS912において検出された顔領域の位置および属性がトレースに含まれないと判断されると、次に、そのトレースを終了するか否かが判断される(ステップS919)。トレースを終了するか否かは、図2において説明したように、例えば現フレームから所定時間経過する間のフレームにおいてそのトレースに対応する顔領域が検出されなかった場合に、上記その旨の通知を受けた際のフレームを終了フレームと判断する。
そのトレースを終了しないと判断されると、そのフレームにおいては、顔領域が存在するものとされ、さらにトレースが継続される(ステップS920)。一方、そのトレースを終了すると判断されると、次に、そのトレース内における顔領域より代表顔領域を選択して代表顔領域情報を生成する(ステップS921)。トレースに対応するフレームの開始および終了に対応するフレーム番号および代表顔領域情報に基づいて映像データ付随情報が生成される(ステップS922)。
図13は、本発明の実施の形態における代表顔領域に対して顔特徴識別子を付与するまでの流れを示す図である。まず、顔領域特徴データ抽出部441に代表顔領域情報が供給される(ステップS931)。顔領域特徴データ抽出部441は、代表顔領域情報が供給されると、代表顔領域情報に基づいて代表顔領域における顔領域特徴データを抽出する(ステップS932)。そして、顔領域特徴データ抽出部441において抽出された顔領域特徴データは、顔領域特徴データ検索部443に供給される。
顔領域特徴データ検索部443は、供給された顔領域特徴データと類似する顔領域特徴データを顔領域特徴データ保持部442より検索する(ステップS933)。そして、顔領域特徴データ検索部443は、供給された顔領域特徴データと類似する顔領域特徴データが顔領域特徴データ保持部442に保持されているか否かを判断する(ステップS934)。
ステップS934において、供給された顔領域特徴データと類似する顔領域特徴データが顔領域特徴データ保持部442に保持されていると判断されると、顔領域特徴データ検索部443は、顔領域特徴データ保持部442に保持されているその顔領域特徴データに対応する顔特徴識別子を、供給された顔領域特徴データに対して付与する(ステップS935)。
一方、ステップS934において、供給された顔領域特徴データと類似する顔領域特徴データが顔領域特徴データ保持部442に保持されていないと判断されると、顔領域特徴データ検索部443は、供給された顔領域特徴データに対して新たな顔特徴識別子を付与する(ステップS936)。
ステップS935およびステップS936において、供給された顔領域特徴データに顔特徴識別子が付与されると、顔領域特徴データ保持部442において供給された顔領域特徴データと顔特徴識別子が対応付けられて保持される(ステップS937)。また、供給された顔領域特徴データに付与された顔特徴識別子は、映像データ付随情報生成部450に供給され、映像データ付随情報に顔特徴識別子が含められる(ステップS938)。
図14は、本発明の実施の形態における操作メニューにおける操作の流れを示す図である。まず、表示部70に操作メニューを表示させる(ステップS941)。なお、操作メニューとしては、図10に示した操作メニューが想定される。以下において、図10における操作メニューを想定して説明する。
操作メニューより所定の映像データのタイトルを選択する(ステップS942)。次に、顔列挙ボタン721および顔タイムラインボタン722の何れかのボタンを選択する(ステップS943)。顔列挙ボタン721を選択すると、代表顔列挙群740が表示される(ステップS944)。一方、顔タイムラインボタン722を選択すると、顔タイムライン表示群780が表示される(ステップS945)。
次に、代表顔列挙群740または顔タイムライン表示群780の何れかより代表顔領域を選択する(ステップS946)。代表顔領域を選択した後に、類似タイトルボタン751および再生ボタン752の何れかを選択する(ステップS947)。
類似タイトルボタン751を選択すると、ステップS946において選択した代表顔領域と類似する代表顔領域を含む映像データのタイトルの集合である類似代表顔領域映像データタイトル表示群760が表示され、ステップ942に戻る(ステップS948)。一方、再生ボタン752を選択すると、ステップS946において選択した代表顔領域に対応するトレースを構成する映像データが再生される(ステップS949)。
このように、本発明の実施の形態によれば、映像データに対して顔領域と顔領域が連続して出現する情報とを対応付けた映像データ付随情報を生成するため、膨大なフレーム中に多数登場する人物を効率良く管理することができる。また、本発明の実施の形態においては、顔領域の検出において検出漏れがあっても顔領域が連続して出現する情報を生成することができる。これにより、映像データの内容を短時間でユーザーに把握させることができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
すなわち、請求項1において、顔領域検出手段は、例えば顔領域検出部410に対応する。また、トレース生成手段は、例えばトレース生成部420に対応する。また、代表顔領域情報生成手段は、例えば代表顔領域情報生成部430に対応する。また、映像データ付随情報生成手段は、例えば映像データ付随情報生成部450に対応する。
また、請求項2において、トレース識別子付与手段は、例えばトレース識別子付与部421に対応する。また、顔領域予測手段は、例えば顔領域予測部423に対応する。また、トレース判断手段は、例えばトレース判断部424に対応する。また、終了フレーム判断手段は、例えば終了フレーム判断部425に対応する。
また、請求項10において、顔領域特徴データ保持手段は、例えば顔領域特徴データ保持部442に対応する。また、顔領域特徴データ抽出手段は、例えば顔領域特徴データ抽出部441に対応する。また、顔領域特徴データ検索手段は、例えば顔領域特徴データ検索部443に対応する。
また、請求項12において、映像データ付随情報保持手段は、たとえば映像データ付随情報保持部460に対応する。また、操作メニュー一覧生成手段は、例えば操作メニュー一覧生成部470に対応する。また、表示手段は、例えば表示部70に対応する。また、操作入力手段は、例えば操作入力部90に対応する。
また、請求項13において、顔領域取得手段は、例えば顔領域取得部483に対応する。
また、請求項14において、類似顔領域検索手段は、例えば類似顔領域検索部482に対応する。
また、請求項15において、顔タイムライン生成手段は、例えば顔タイムライン生成部481に対応する。
また、請求項16および請求項17において、顔領域検出手順は、例えばステップS912に対応する。また、トレース生成手順は、例えばステップS913乃至ステップS920に対応する。また、代表顔領域情報生成手順は、例えばステップS921に対応する。また、映像データ付随情報生成手順は、例えばステップS922に対応する。
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。
本発明の実施の形態における映像処理装置100の構成の一例を示す図である。 本発明の実施の形態における映像データについての映像データ付随情報を生成する機能構成の一例を示す図である。 図2において生成された映像データ付随情報を用いた操作機能の構成の一例を示す図である。 本発明の実施の形態におけるトレースの生成の様子を示す図である。 図4とは別のトレースにおける終了フレームの判断方法を示すものである。 本発明の実施の形態における顔領域情報保持部422の保持内容を示す図である。 本発明の実施の形態における顔領域特徴データ保持部442の保持内容を示す図である。 本発明の実施の形態における映像データ付随情報保持部460において保持された映像データ付随情報を示す図である。 本発明の実施の形態におけるトレース情報の内容を示す図である。 本発明の実施の形態における操作メニューの表示を示すものである。 図10において顔タイムラインボタン722を選択した場合の表示画面700を示す図である。 本発明の実施の形態における映像処理装置100において映像データ付随情報を生成するまでの流れを示す図である。 本発明の実施の形態における代表顔領域に対して顔特徴識別子を付与するまでの流れを示す図である。 本発明の実施の形態における操作メニューにおける操作の流れを示す図である。 映像データにおける顔領域の検出の様子を表す図である。
符号の説明
10 アンテナ
20 受信部
30 記録再生処理部
40 システム制御部
41 データ処理部
42 RAM
50 ハードディスク
60 入出力制御部
61 表示制御部
62 音声制御部
63 操作制御部
64 ディスクインターフェース
65 ディスク
70 表示部
80 音声出力部
90 操作入力部
100 映像処理装置
410 顔領域検出部
420 トレース生成部
421 トレース識別子付与部
422 顔領域情報保持部
423 顔領域予測部
424 トレース判断部
425 終了フレーム判断部
430 代表顔領域情報生成部
440 顔特徴識別子付与部
441 顔領域特徴データ抽出部
442 顔領域特徴データ保持部
443 顔領域特徴データ検索部
450 映像データ付随情報生成部
460 映像データ付随情報保持部
470 操作メニュー一覧生成部
481 顔タイムライン生成部
482 類似顔領域検索部
483 顔領域取得部
484 再生映像データ取得部
500 映像データ保持部

Claims (17)

  1. 映像データを構成するフレームに含まれる顔領域を検出する顔領域検出手段と、
    前記検出に基づいて前記顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子を生成するトレース生成手段と、
    前記トレースを構成するフレームに含まれる前記顔領域より代表顔領域を選択して前記代表顔領域の内容を表す代表顔領域情報を生成する代表顔領域情報生成手段と、
    前記映像データに対して前記トレースの開始および終了に対応するフレーム識別子と前記代表顔領域情報とを対応付けた映像データ付随情報を生成する映像データ付随情報生成手段と
    を具備することを特徴とする映像処理装置。
  2. 前記トレース生成手段は、
    前記顔領域が出現してから消滅するまでのフレームに対して同一のトレース識別子を付与するトレース識別子付与手段と、
    前記同一のトレース識別子を付与された以前のフレームにおける前記顔領域に基づいて現フレームにおける前記顔領域を予測する顔領域予測手段と、
    前記予測された現フレームにおける前記顔領域に基づいて前記顔領域検出手段において検出された前記現フレームにおける前記顔領域が前記トレースに含まれるか否かを判断して前記トレースに含まれると判断した場合に前記トレースに前記現フレームを加えるトレース判断手段と、
    前記顔領域検出手段において検出された前記現フレームにおける前記顔領域が前記トレースに含まれないと判断された場合に何れのフレームを前記トレースの終了フレームとするかを判断する終了フレーム判断手段と
    を具備することを特徴とする請求項1記載の映像処理装置。
  3. 前記顔領域予測手段は、前記同一のトレース識別子を付与された以前のフレームにおける前記顔領域に基づいて前記現フレームにおける前記顔領域を線形予測により予測することを特徴とする請求項2記載の映像処理装置。
  4. 前記トレース判断手段は、前記予測された現フレームにおける前記顔領域と前記顔領域検出手段において検出された前記現フレームにおける前記顔領域とを比較して位置の差および属性の差が所定の閾値内にあるか否かを判断し、前記閾値内にある場合には前記現フレームにおける前記顔領域が前記トレースに含まれると判断して前記トレースに前記現フレームを加えることを特徴とする請求項2記載の映像処理装置。
  5. 前記トレース判断手段は、前記属性として前記顔領域の大きさ、前記顔領域の輝度分布、前記顔領域の色分布、前記顔領域の形状、前記顔領域の模様のうち少なくとも一つの要素に基づいて前記属性の差が所定の閾値内にあるか否かを判断することを特徴とする請求項4記載の映像処理装置。
  6. 前記終了フレーム判断手段は、前記顔領域検出手段において検出された前記現フレームにおける前記顔領域が前記トレースに含まれないと判断された場合に後に続くフレームに対する前記トレース判断手段の判断結果に基づいて何れのフレームを前記終了フレームとするかを判断することを特徴とする請求項2記載の映像処理装置。
  7. 前記代表顔領域情報生成手段は、前記トレースを構成するフレームにおける前記顔領域の大きさ、前記顔領域における周波数分布、前記顔領域における色の濃淡分布および前記顔領域の色分布のうちの少なくとも一つの要素に基づいて前記代表顔領域を選択することを特徴とする請求項1記載の映像処理装置。
  8. 前記代表顔領域情報生成手段は、前記代表顔領域を含むフレームのフレーム番号と前記代表顔領域を含むフレームにおける前記代表顔領域の位置および大きさとを前記代表顔領域情報として生成することを特徴とする請求項1記載の映像処理装置。
  9. 前記代表顔領域情報生成手段は、前記代表顔領域を含むフレームから切り出した前記代表顔領域を前記代表顔領域情報として生成することを特徴とする請求項1記載の映像処理装置。
  10. 所定の顔領域の特徴を記述した顔領域特徴データと前記顔領域特徴データを識別する顔特徴識別子とを対応付けて保持する顔領域特徴データ保持手段と、
    前記顔領域情報生成手段において切り出された前記代表顔領域より顔領域特徴データを抽出する顔領域特徴データ抽出手段と、
    前記抽出された顔領域特徴データに類似する前記顔領域特徴データを前記顔領域特徴データ保持手段より検索して前記抽出された顔領域データに前記顔特徴識別子を付与する顔領域特徴データ検索手段と
    を具備し、
    前記映像データ付随情報生成手段は、前記映像データ付随情報に前記顔特徴識別子を含めて生成することを特徴とする請求項9記載の映像処理装置。
  11. 前記顔領域特徴データ検索手段において前記抽出された顔領域特徴データに類似する前記顔領域特徴データを前記顔領域特徴データ保持手段より検索されなかった場合に前記抽出された顔領域データに新たな顔特徴識別子を付与することを特徴とする請求項10記載の映像処理装置。
  12. 映像データに対して顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子と前記トレースを構成するフレームに含まれる前記顔領域より選択された代表顔領域の内容を表す代表顔領域情報とを対応付けた情報である映像データ付随情報を保持する映像データ付随情報保持手段と、
    前記映像データ付随情報に基づいて前記映像データに関する操作メニューの一覧を生成する操作メニュー一覧生成手段と、
    前記映像データに関する操作メニューを表示する表示手段と、
    前記映像データに関する操作メニューに対する選択を受け付ける操作入力手段と
    を具備することを特徴とする映像処理装置。
  13. 前記映像データの一覧のうち所定の映像データが前記操作手段より選択されるとその選択された映像データに関する前記映像データ付随情報を取得して前記映像データ付随情報に含まれる前記代表顔領域情報に基づいて前記顔領域を表示させる顔領域取得手段をさらに具備することを特徴とする請求項12記載の映像処理装置。
  14. 前記映像データ付随情報保持手段は、前記映像データに対して所定の顔領域の特徴を記述した顔領域特徴データに付与された顔特徴識別子を前記代表顔領域情報と対応付けて保持し、
    前記顔領域取得手段によって表示された前記顔領域の何れかが前記操作手段により選択されるとその選択された前記顔領域と同じ前記顔特徴識別子を有する映像データ付随情報を検索してその結果を表示させる類似顔領域検索手段をさらに具備することを特徴とする請求項13記載の映像処理装置。
  15. 前記映像データの一覧のうち所定の映像データが前記操作手段より選択されるとその選択された映像データに関する前記映像データ付随情報を取得して前記トレースに対応する時間表示および前記代表顔領域情報に対応する前記顔領域を含む顔タイムライン表示を生成する顔タイムライン生成手段をさらに具備することを特徴とする請求項12記載の映像処理装置。
  16. 映像データを構成するフレームに含まれる顔領域を検出する顔領域検出手順と、
    前記検出に基づいて前記顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子を生成するトレース生成手順と、
    前記トレースを構成するフレームに含まれる前記顔領域より代表顔領域を選択して前記代表顔領域の内容を表す代表顔領域情報を生成する代表顔領域情報生成手順と、
    前記映像データに付随する映像データ付随情報として前記映像データに対して前記トレースの開始および終了に対応するフレーム識別子と前記代表顔領域情報とを対応付けた情報を生成する映像データ付随情報生成手順と
    を具備することを特徴とする処理方法。
  17. 映像データを構成するフレームに含まれる顔領域を検出する顔領域検出手順と、
    前記検出に基づいて前記顔領域が出現してから消滅するまでのフレームの集合を一つの単位とするトレースの開始および終了に対応するフレーム識別子を生成するトレース生成手順と、
    前記トレースを構成するフレームに含まれる前記顔領域より代表顔領域を選択して前記代表顔領域の内容を表す代表顔領域情報を生成する代表顔領域情報生成手順と、
    前記映像データに付随する映像データ付随情報として前記映像データに対して前記トレースの開始および終了に対応するフレーム識別子と前記代表顔領域情報とを対応付けた情報を生成する映像データ付随情報生成手順と
    を実行することを特徴とするプログラム。
JP2005255487A 2005-09-02 2005-09-02 映像処理装置 Pending JP2007072520A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005255487A JP2007072520A (ja) 2005-09-02 2005-09-02 映像処理装置
US11/466,519 US8103062B2 (en) 2005-09-02 2006-08-23 Video processing apparatus
EP06018105A EP1760633A3 (en) 2005-09-02 2006-08-30 Video processing apparatus
CNB2006101277229A CN100534175C (zh) 2005-09-02 2006-09-01 影像处理装置
KR1020060084027A KR20070026228A (ko) 2005-09-02 2006-09-01 영상 처리 장치, 영상 처리 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005255487A JP2007072520A (ja) 2005-09-02 2005-09-02 映像処理装置

Publications (1)

Publication Number Publication Date
JP2007072520A true JP2007072520A (ja) 2007-03-22

Family

ID=37492298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005255487A Pending JP2007072520A (ja) 2005-09-02 2005-09-02 映像処理装置

Country Status (5)

Country Link
US (1) US8103062B2 (ja)
EP (1) EP1760633A3 (ja)
JP (1) JP2007072520A (ja)
KR (1) KR20070026228A (ja)
CN (1) CN100534175C (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252296A (ja) * 2007-03-29 2008-10-16 Kddi Corp 動画像の顔インデックス作成装置およびその顔画像追跡方法
JP2009005238A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JP2009212935A (ja) * 2008-03-05 2009-09-17 Omron Corp 画像処理装置および方法、並びにプログラム
WO2009113280A1 (ja) * 2008-03-14 2009-09-17 三洋電機株式会社 画像処理装置およびそれを搭載した撮像装置
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
JPWO2009093287A1 (ja) * 2008-01-25 2011-05-26 株式会社金猪電脳研究所 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
JP2014030260A (ja) * 2010-02-10 2014-02-13 Panasonic Corp 映像抽出装置、プログラム及び記録媒体
JP2018061213A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法
CN111104915A (zh) * 2019-12-23 2020-05-05 云粒智慧科技有限公司 一种同行分析方法、装置、设备和介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
US8077930B2 (en) * 2007-04-13 2011-12-13 Atg Advanced Swiss Technology Group Ag Method for recognizing content in an image sequence
JP2009076982A (ja) * 2007-09-18 2009-04-09 Toshiba Corp 電子機器および顔画像表示方法
JP2009089065A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 電子機器および顔画像表示装置
US8253819B2 (en) * 2008-02-06 2012-08-28 Panasonic Corporation Electronic camera and image processing method
JP5116513B2 (ja) * 2008-03-10 2013-01-09 キヤノン株式会社 画像表示装置及びその制御方法
CN103475837B (zh) 2008-05-19 2017-06-23 日立麦克赛尔株式会社 记录再现装置及方法
CN101631237B (zh) * 2009-08-05 2011-02-02 青岛海信网络科技股份有限公司 一种视频监控数据存储管理系统
CN102479319A (zh) * 2010-11-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 影像识别方法及其控制电脑
US8392450B2 (en) * 2011-02-08 2013-03-05 Autonomy Corporation Ltd. System to augment a visual data stream with user-specific content
US9384302B2 (en) 2013-06-17 2016-07-05 International Business Machines Corporation Generating differences for tuple attributes
EP3183689A4 (en) * 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Face alignment with shape regression
CN108446385A (zh) * 2018-03-21 2018-08-24 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335473A (ja) * 2001-05-10 2002-11-22 Webstream:Kk 動画コンテンツの検索情報抽出システム、検索情報抽出方法、検索情報保存システム、動画コンテンツのストリーミング配信方法
JP2005025413A (ja) * 2003-06-30 2005-01-27 Nec Corp コンテンツ処理装置、コンテンツ処理方法及びプログラム
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
KR19980703120A (ko) * 1995-03-20 1998-10-15 조안나 티. 라우 이미지 식별 시스템 및 방법
US6639998B1 (en) * 1999-01-11 2003-10-28 Lg Electronics Inc. Method of detecting a specific object in an image signal
JP3727798B2 (ja) 1999-02-09 2005-12-14 株式会社東芝 画像監視システム
US6754389B1 (en) 1999-12-01 2004-06-22 Koninklijke Philips Electronics N.V. Program classification using object tracking
JP2001167110A (ja) 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
US7188319B2 (en) 2000-04-21 2007-03-06 Microsoft Corporation Displaying graphical information and user selected properties on a computer interface
JP3784289B2 (ja) * 2000-09-12 2006-06-07 松下電器産業株式会社 メディア編集方法及びその装置
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
GB2395778A (en) 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
GB2395264A (en) 2002-11-29 2004-05-19 Sony Uk Ltd Face detection in images
KR100455294B1 (ko) * 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
US7587411B2 (en) 2003-03-27 2009-09-08 Microsoft Corporation System and method for filtering and organizing items based on common elements

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335473A (ja) * 2001-05-10 2002-11-22 Webstream:Kk 動画コンテンツの検索情報抽出システム、検索情報抽出方法、検索情報保存システム、動画コンテンツのストリーミング配信方法
JP2005025413A (ja) * 2003-06-30 2005-01-27 Nec Corp コンテンツ処理装置、コンテンツ処理方法及びプログラム
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252296A (ja) * 2007-03-29 2008-10-16 Kddi Corp 動画像の顔インデックス作成装置およびその顔画像追跡方法
JP2009005238A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JPWO2009093287A1 (ja) * 2008-01-25 2011-05-26 株式会社金猪電脳研究所 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
JP5207489B2 (ja) * 2008-01-25 2013-06-12 株式会社金猪電脳研究所 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
JP2009212935A (ja) * 2008-03-05 2009-09-17 Omron Corp 画像処理装置および方法、並びにプログラム
WO2009113280A1 (ja) * 2008-03-14 2009-09-17 三洋電機株式会社 画像処理装置およびそれを搭載した撮像装置
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
JP2014030260A (ja) * 2010-02-10 2014-02-13 Panasonic Corp 映像抽出装置、プログラム及び記録媒体
US8964065B2 (en) 2010-02-10 2015-02-24 Panasonic Intellectual Property Management Co., Ltd. Video picture extracting apparatus, imaging apparatus and recording medium
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
JP2018061213A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法
US10838460B2 (en) 2016-10-07 2020-11-17 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring video analysis system and monitoring video analysis method
CN111104915A (zh) * 2019-12-23 2020-05-05 云粒智慧科技有限公司 一种同行分析方法、装置、设备和介质
CN111104915B (zh) * 2019-12-23 2023-05-16 云粒智慧科技有限公司 一种同行分析方法、装置、设备和介质

Also Published As

Publication number Publication date
CN1925609A (zh) 2007-03-07
US20070053660A1 (en) 2007-03-08
EP1760633A3 (en) 2011-02-09
US8103062B2 (en) 2012-01-24
KR20070026228A (ko) 2007-03-08
EP1760633A2 (en) 2007-03-07
CN100534175C (zh) 2009-08-26

Similar Documents

Publication Publication Date Title
JP2007072520A (ja) 映像処理装置
CN101051515B (zh) 图像处理设备及图像显示方法
US7853897B2 (en) Information processing apparatus and method, and program
JP4496264B2 (ja) 電子機器及び映像表示方法
US7949207B2 (en) Video structuring device and method
US9881215B2 (en) Apparatus and method for identifying a still image contained in moving image contents
US8170269B2 (en) Image processing apparatus, image processing method, and program
JP4683031B2 (ja) 電子機器、コンテンツ分類方法及びそのプログラム
KR101440168B1 (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
JP2009239729A (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US8363726B2 (en) Electronic apparatus, motion vector detecting method, and program therefor
JP4504452B1 (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
JP2014209707A (ja) 映像再生装置および映像再生方法
WO2007114241A1 (ja) 映像処理装置
JP3468404B2 (ja) 映像字幕挿入方法および装置並びに該映像字幕挿入方法を記録した記録媒体
JP2001119661A (ja) 動画編集システムおよび記録媒体
KR20060102639A (ko) 동영상 재생 시스템 및 방법
KR20140033667A (ko) 객체 기반 동영상 편집 장치 및 방법
JP2007110566A (ja) 動画編集装置、および動画編集方法
JP4835540B2 (ja) 電子機器、映像特徴検出方法及びプログラム
JP5129198B2 (ja) 映像予告生成装置、映像予告生成方法および映像予告生成プログラム
US20220345760A1 (en) Information processing device, information processing system, and information processing method, and program
JP4930364B2 (ja) 映像文字検出方法、装置、およびプログラム
JP4893524B2 (ja) 電子機器、映像データ判定方法及びプログラム
JP2009042915A (ja) 電子機器、動きベクトル検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110614