JPWO2015025705A1 - 映像処理装置、映像処理方法および映像処理プログラム - Google Patents

映像処理装置、映像処理方法および映像処理プログラム Download PDF

Info

Publication number
JPWO2015025705A1
JPWO2015025705A1 JP2015532796A JP2015532796A JPWO2015025705A1 JP WO2015025705 A1 JPWO2015025705 A1 JP WO2015025705A1 JP 2015532796 A JP2015532796 A JP 2015532796A JP 2015532796 A JP2015532796 A JP 2015532796A JP WO2015025705 A1 JPWO2015025705 A1 JP WO2015025705A1
Authority
JP
Japan
Prior art keywords
frame
person
video
playback
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015532796A
Other languages
English (en)
Other versions
JP6432513B2 (ja
Inventor
亮磨 大網
亮磨 大網
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015025705A1 publication Critical patent/JPWO2015025705A1/ja
Application granted granted Critical
Publication of JP6432513B2 publication Critical patent/JP6432513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing

Abstract

本発明は、あらかじめ検索対象のオブジェクトを含むか否かの情報がなくても、検索対象のオブジェクトを含まないフレームの再生をスキップする映像処理装置である。映像処理装置は、蓄積された映像中の、選定されたフレームを再生する映像再生部と、再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出部と、オブジェクト検出部が検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定部と、オブジェクト検出部が検出した検索対象のオブジェクトを解析するオブジェクト解析部と、を備える。

Description

本発明は、映像中から対象とするオブジェクトを検索する技術に関する。
上記技術分野において、特許文献1には、撮像動画から符号化ストリームCSを生成する場合に各フレームに特定のオブジェクトを含むか否かを示す追尾情報を付加し、符号化ストリームCSを再生する場合に特定のオブジェクトを含まないフレームをスキップする技術が開示されている。
特開2009−246935号公報
しかしながら、上記文献に記載の技術では、あらかじめ追尾情報を付加しておくことで再生時に特定のオブジェクトを含まないフレームをスキップする。したがって、あらかじめ追尾情報が付加されていない映像については、再生しないかぎり特定のオブジェクトを含まないと判定できないので、再生をスキップすることができなかった。
本発明の目的は、上述の課題を解決し、あらかじめ検索対象のオブジェクトを含むか否かの情報がなくても、検索対象のオブジェクトを含まないフレームの再生をスキップする技術を提供することにある。
上記目的を達成するため、本発明に係る映像処理装置は、
蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
を備える。
上記目的を達成するため、本発明に係る映像処理方法は、
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
を含む。
上記目的を達成するため、本発明に係る映像処理プログラムは、
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
をコンピュータに実行させる。
本発明によれば、あらかじめ検索対象のオブジェクトを含むか否かの情報がなくても、検索対象のオブジェクトを含まないフレームの再生をスキップすることができる。
本発明の第1実施形態に係る映像処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第2実施形態に係る映像処理装置を含む映像処理システムの構成を示すブロック図である。 本発明の第2実施形態に係る映像処理装置の機能構成を示すブロック図である。 本発明の第2実施形態に係る映像処理装置の映像蓄積DBの構成を示す図である。 本発明の第2実施形態に係る映像処理装置の人物特徴量DBの構成を示す図である。 本発明の第2実施形態に係る人物検出部の機能構成を示すブロック図である。 本発明の第2実施形態に係る人物解析部の機能構成を示すブロック図である。 本発明の第2実施形態に係る再生フレーム選定部の機能構成を示すブロック図である。 本発明の第2実施形態に係る再生位置選定部が使用する再生位置選定テーブルの構成を示す図である。 本発明の第2実施形態に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。 本発明の第2実施形態に係る映像処理装置のハードウェア構成を示すブロック図である。 本発明の第2実施形態に係る映像処理装置の処理手順を示すフローチャートである。 本発明の第2実施形態に係る映像再生・解析処理の手順を示すフローチャートである。 本発明の第3実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第4実施形態に係る再生位置選定部が使用する再生位置予測テーブルの構成を示す図である。 本発明の第5実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第5実施形態に係る映像処理装置の機能構成を示すブロック図である。 本発明の第5実施形態に係る映像処理装置の車両特徴量DBの構成を示す図である。 本発明の第5実施形態に係る再生フレーム選定部の機能構成を示すブロック図である。 本発明の第5実施形態に係る再生位置選定部が使用する再生位置選定テーブルの構成を示す図である。 本発明の第5実施形態に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。 本発明の第6実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第6実施形態に係る映像処理装置の機能構成を示すブロック図である。 本発明の第6実施形態に係る人物検出部の機能構成を示すブロック図である。 本発明の第6実施形態に係る再生フレーム選定部の機能構成を示すブロック図である。 本発明の第6実施形態に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。 本発明の第6実施形態の変形例に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。 本発明の第7実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第7実施形態に係る映像処理装置の機能構成を示すブロック図である。 本発明の第7実施形態に係る再生フレーム選定部の機能構成を示すブロック図である。 本発明の第7実施形態に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。 本発明の第8実施形態に係る映像処理装置の処理概要を示す図である。 本発明の第8実施形態に係る映像処理装置の機能構成を示すブロック図である。 本発明の第8実施形態に係る再生フレーム選定部の機能構成を示すブロック図である。 本発明の第8実施形態に係る再生フレーム選定部が使用する再生フレーム選定テーブルの構成を示す図である。 本発明の第9実施形態に係る再生間隔設定部が使用する再生間隔設定テーブルの構成を示す図である。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
以下、本実施形態で使用する「検索対象のオブジェクト」は、映像中に映っている人物や車両を含む。また、「検索対象のオブジェクト」は、人物が持っている物や着ている服や付けている装飾品も含むし、車両に搭載されている物や装着されている部品も含む。また、「検索対象のオブジェクト」は、人物以外の動物や車両以外の移動物を含む。さらに、「検索対象のオブジェクト」は、移動物に限定されず静止物も含む。すなわち、映像中からオペレータが検索を望む、あるいは監視対象となる全ての対象物が含まれてよい。
[第1実施形態]
本発明の第1実施形態としての映像処理装置100について、図1を用いて説明する。映像処理装置100は、映像中から対象とするオブジェクトを検索する装置である。
図1に示すように、映像処理装置100は、映像再生部101と、オブジェクト検出部102と、再生フレーム選定部103と、オブジェクト解析部104と、を含む。映像再生部101は、蓄積された映像中の、選定されたフレームを再生する。ここで再生とは、圧縮された映像データを復号してフレームに戻すまでの処理のことを指し、復号したフレームを表示する処理までは含まない。オブジェクト検出部102は、再生されたフレームから検索対象のオブジェクトを検出する。例えば、検索対象が人物である場合には、オブジェクトとして人物を検出し、検索対象が車である場合には、オブジェクトとして車を検出する。それ以外にも、オブジェクトは、移動することが可能で検索対象となりえるものであれば、どのようなものでもよい。そして、検出結果に基づいて、次に再生するフレームを決定し、映像再生部101に選定されたフレームの情報を入力する。再生フレーム選定部103は、オブジェクト検出部102が検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する。オブジェクト解析部104は、オブジェクト検出部102が検出した検索対象のオブジェクトを解析する。
本実施形態によれば、あらかじめ検索対象のオブジェクトを含むか否かの情報がなくても、検索対象のオブジェクトを含まないフレームの再生をスキップすることができる。
[第2実施形態]
次に、本発明の第2実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、再生された映像中に、検索対象のオブジェクトを検出しない間、オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定して再生する。一方、検索対象のオブジェクトを検出すると、第1時間間隔より短い、オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定して再生し、検索対象のオブジェクトを解析する。その場合に、検索対象のオブジェクトを検出した時点では、第1時間間隔の時間間隔だけ戻ったフレームを次の再生フレームとして選定する。
《映像処理装置の処理概要》
図2は、本実施形態に係る映像処理装置200の処理概要を示す図である。
図2には、蓄積された映像から、人物を検出して解析するための再生画像201〜205が順に示されている。以下では、検索対象のオブジェクトが人物の場合について述べるが、人物以外のオブジェクトに対しても同様に適用可能である。なお、再生画像201〜205は、表示画面ではなく、説明のため映像処理装置200内に展開された状態を示すものである。
映像処理装置200は、映像を再生して人物を検出する場合、人物231が検出されるまでは、再生画像201と、再生画像202と、再生画像203とを、比較的長いT1秒の再生間隔でスキップしながら生成する(参照番号210で示す)。これは、T1秒の間に、人物がフレーム内に現われ、フレーム外に消え、見落とす確率が低いと予測できるためである。ここで、T1秒は、人物の速度やフレーム内を通過する時間などから設定される時間間隔である。例えば、人物がフレーム内に映っている領域を通過するのにかかる最低時間をT1秒に設定すればよい。あるいは、人物がフレーム内に移っている領域を通過するのにかかる時間の分布から定まる統計量をT1秒に設定してもよい。例えば、統計量として、αパーセンタイル値をT1に設定してもよい。ここで、αの値を0に近い値に設定すれば、効率は下がるが見落としを非常に少なく設定できる。逆にαの値を大きな値とすると、ある程度の見落としは許容したうえで、効率を重視する設定とすることができる。
映像処理装置200は、再生画像203において人物231を検出すると、本実施形態においては、T1秒前のフレームに戻って再生画像204を生成する。その後、フレームから人物が消えるまでの間、再生間隔をT1秒よりかなり短いT2秒で再生して人物の解析を実行する(参照番号220で示す)。これは、再生画像203中に人物231を検出したので、T1秒前のフレーム以降の途中で人物231がフレーム内に現われたと予測できるためである。また、T2秒は、人物の速度や人物を解析するための時間などから、確実に人物解析が可能なように設定される時間間隔である。
このように、人物が再生画像内に居るか居ないか不明である、あるいは、居ない確率の高い部分は、再生画像201〜203のように、比較的長いT1秒の再生間隔でスキップしながら再生処理をする。そのため、T1秒間のフレームは再生処理および人物検出処理をしないため、全てのフレームを再生して人物検出と人物解析とを行なう従来の処理と比較して、再生処理および検出処理に費やされる処理負荷が軽減され、映像処理装置200の映像処理速度を飛躍的に高めることができる。
《映像処理システムの構成》
図3は、本実施形態に係る映像処理装置200を含む映像処理システム300の構成を示すブロック図である。
映像処理システム300は、監視用のカメラ310と、映像送信部320と、ネットワーク330と、本実施形態の映像処理装置200と、を有する。映像送信部320は、カメラ310が撮像した映像を、ネットワーク330を介して映像処理装置200に送信する。なお、映像送信部320は、カメラ310と一体でもよい。本実施形態の映像処理装置200は、図2で示したように、カメラ310からの映像から検索対象であるオブジェクト(本例では、人物)を検出して、さらに検出したオブジェクトを解析して追跡する。
《映像処理装置の機能構成》
図4Aは、本実施形態に係る映像処理装置200の機能構成を示すブロック図である。
映像処理装置200は、映像再生部401と、人物検出部402と、再生フレーム選定部403と、映像蓄積データベース(以下、DB)404と、人物解析部405と、人物特徴量DB406と、を備える。映像再生部401は、映像蓄積DB404に蓄積された映像から、再生フレーム選定部403が選定したフレームを再生して、人物検出部402および人物解析部405に送る。人物検出部402は、映像再生部401が再生したフレームから、人物特徴量DB406に格納された人物検出用の特徴量を用いて、再生画像から抽出された特徴量が人物のものに該当するかを判定し、人物を検出する。
再生フレーム選定部403は、人物検出部402が再生フレームから人物を検出しない間はT1秒間隔でスキップしながら再生フレームを選定する。そして、再生フレーム選定部403は、人物検出部402が再生フレームから人物を検出した場合は、それ以降、人物がフレームから消えるまでの間、T2秒(<<T1秒)間隔で再生フレームを選定する。
映像蓄積DB404は、図3のカメラ310で撮像され、人物を検出して解析するため収集された映像を、検索可能に蓄積する。人物解析部405は、人物検出部402が人物を検出したフレームについて、人物の同定に必要な特徴量を抽出する。そして、抽出した特徴量を解析結果として出力する。出力された特徴量は、その後の検索に利用できるように、人物特徴量DBに格納する。なお、人物特徴量DB406に格納された人物同定用の特徴量と、再生画像から抽出された対応する特徴量をマッチングして、その場で人物を同定するようにしてもよい。この場合、同定した結果を解析結果として出力する。
人物特徴量DB406は、人物検出部402が人物の検出に使用する人物検出用DB410を格納する。さらに、人物特徴量DB406は、人物解析部405が特徴量マッチングに使用する人物解析用DB420を有し、人物画像から抽出した特徴量を格納してもよい。なお、人物検出用DB410は、人物を特定する特徴量ではなく、他のオブジェクトから人物であることを識別するのに用いる特徴量を格納する。一方、人物解析用DB420は、人物を特定するための特徴量を格納する。
なお、図4Aでは、人物検出部402が人物であるか否かの検出を行なったが、人物解析用DB420を使用して、人物の服装や携帯物なども考慮した人物検出を行なうと、服装の違うあるいは携帯物を持たない人物は解析から削除できるので、解析処理時間を短縮できる。
(映像蓄積DB)
図4Bは、本実施形態に係る映像処理装置200の映像蓄積DB404の構成を示す図である。映像蓄積DB404は、人物を検出して解析するため収集された映像を、検索可能に蓄積する。なお、映像蓄積DB404の構成は、図4Bに限定されない。
映像蓄積DB404は、映像ID441に対応付けて、カメラIDや設置位置を含む撮像場所442と、撮像日時443と、圧縮および暗号化された映像をポイントする映像蓄積ポインタ444と、を格納する。
(人物特徴量DB)
図4Cは、本実施形態に係る映像処理装置200の人物特徴量DB406の構成を示す図である。人物特徴量DB406は、人物検出および人物解析においてマッチングに使用される特徴量を格納する。そして、人物特徴量DB406は、人物検出部402が人物の検出に使用する人物検出用DB410と、人物解析部405が特徴量マッチングに使用する人物解析用DB420と、を有する。なお、人物特徴量DB406の構成は、図4Cに限定されない。
人物検出用DB410は、再生フレームから人物を検出するために、例えば、異なる特徴を持つ人物種類411に対応付けて、人物検出に重要な頭部特徴量412、輪郭特徴量413、手/足特徴量414、などを格納する。これらの特徴量は、人物を検出するために画像から抽出する特徴量そのものでなくてもよく、検出に用いる検出器を学習させて得られた人物モデルを記述するパラメータ類であってもよい。例えば、頭部の検出にニューラルネットワークを用いる場合には、学習用の画像をニューラルネットワークに入力して学習させ、その結果得られるニューラルネットワークの各ノードの重み情報を頭部特徴量412として格納するようにしてもよい。あるいは、画像から特徴量(例えばHOG特徴量)を抽出してSVM(サポートベクトルマシン)識別器により頭部を検出する場合には、学習用の画像から抽出したHOG特徴量を用いてSVM識別器を学習させ、得られたサポートベクトル、および付随するパラメータ情報を頭部特徴量412として格納してもよい。なお、このように、男性、女性、子供といった人物種類ごとに分けて特徴量を記録していなくてもよい。
人物解析用DB420は、再生フレームから検索対象の人物を特定するために、例えば、検索対象の人物ID421と、かかる人物の顔や服装や携帯物などの詳細なマッチング対象422に関して、それぞれの特徴量423を格納する。
(人物検出部)
図5は、本実施形態に係る人物検出部402の機能構成を示すブロック図である。
人物検出部402は、人物検出用特徴量抽出部511と人物検出用特徴量判別部512とを備える。人物検出用特徴量抽出部511は、映像再生部401が再生した映像から人物検出用の特徴量を抽出する。人物検出用特徴量判別部512は、人物検出用特徴量抽出部511が抽出した特徴量が入力され、人物検出処理を行う。人物検出用特徴量判別部512は、あらかじめ学習データによって学習して得られた人物検出用DB410の人物検出用特徴量を用いて、映像中から抽出された特徴量が人物の特徴量か否かを判別する。上述のように、人物検出用特徴量判別部512が人物の部位を検出するように学習されている場合には、個別の人物部位に対応する検出器で、まず個別の部位の検出を行い、次に、部位ごとの検出結果を統合して、人物が検出されたかどうかを判定する。例えば、人物の部位のどれか1つでも検出されたら人物が検出されたと判定してもよいし、検出されやすい部位、あるいは信頼度が高い部位に重みを付けるようにし、各部位の検出結果を重みづけして統合し、人物が検出されたかどうかを判定してもよい。もし、人物が映像中に検出されれば、人物検出用特徴量判別部512は、人物検出信号を出力する。
(人物解析部)
図6は、本実施形態に係る人物解析部405の機能構成を示すブロック図である。
人物解析部405は、人物同定用特徴量抽出部611を備え、さらに人物解析マッチング部612を備えてもよい。人物同定用特徴量抽出部611は、映像再生部401が再生した映像から人物同定用の特徴量を抽出する。人物同定用特徴量抽出部611のみを有する場合には、人物同定用の特徴量を人物解析結果として出力する。一方、人物解析マッチング部612も存在する場合には、人物解析マッチング部612は、人物解析用DB420からの人物同定用特徴量と、人物同定用特徴量抽出部611が抽出した顔や服装などの特徴量とをマッチングして、マッチする特徴量を持つ人物を映像中に見付ければ、検索する特定人物が居るという情報を人物解析結果として出力する。なお、人物解析部405は、さらに見付けた特定人物を多数の映像から追跡する処理を行なってもよい。本実施形態においては、かかる追跡処理の説明は省略する。
(再生フレーム選定部)
図7Aは、本実施形態に係る再生フレーム選定部403の機能構成を示すブロック図である。
再生フレーム選定部403は、フレーム選定部701と、再生位置選定部702と、再生間隔設定部703と、を備える。フレーム選定部701は、映像蓄積DB404から読み出された映像から、再生位置選定部702が選定したフレーム位置から、再生間隔設定部703が設定した再生間隔でフレームを選定して、映像再生部401に送る。
再生位置選定部702は、人物検出部402からの人物検出信号を受信すると、再生位置を戻すための位置を選定する。本実施形態においては、人物を検出しない今までの再生間隔であったT1秒戻った位置を選定する。
再生間隔設定部703は、人物検出部402からの人物検出信号を受信する前は、フレームを所定間隔でスキップさせるように、フレーム選定部701に第1の再生間隔を設定する。そして、再生間隔設定部703は、人物検出部402からの人物検出信号を受信した後は、人物検出信号がなくなるまでの間、フレームを人物解析可能な間隔で再生できるように、フレーム選定部701に第2の再生間隔を設定する。本例では、第1の再生間隔をT1秒とし、第2の再生間隔をT2秒とする。
(再生位置選定テーブル)
図7Bは、本実施形態に係る再生位置選定部702が使用する再生位置選定テーブル702aの構成を示す図である。
再生位置選定テーブル702aは、人物検出部402からの人物検出信号721に対応付けて、再生位置722を記憶する。本例では、人物検出部402が人物を検出して、人物検出信号721がOFF(無)からON(有)に変化すると、T1秒前の位置から再生を行なうことが記憶される。
(再生間隔設定テーブル)
図7Cは、本実施形態に係る再生間隔設定部703が使用する再生間隔設定テーブル703aの構成を示す図である。
再生間隔設定テーブル703aは、人物検出部402からの人物検出信号731に対応付けて、再生間隔732を記憶する。本例では、人物検出部402が人物を検出して、人物検出信号731がOFF(無)の間はT1秒間隔で再生し、ON(有)の間は、T1秒より短いT2秒の間隔で再生を行なうことが記憶される。
《映像処理装置のハードウェア構成》
図8は、本実施形態に係る映像処理装置200のハードウェア構成を示すブロック図である。
図8で、CPU810は演算制御用のプロセッサであり、CPU810がRAM840を使用しながらストレージ850に格納されたプログラムおよびモジュールを実行することで、図4Aに示された映像処理装置200の各機能構成部の機能が実現される。ROM820は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部830は、ネットワークを介して外部装置と通信する。なお、CPU810は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。
RAM840は、CPU810が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM840には、本実施形態の実現に必要なデータを記憶する領域が確保されている。入力映像841は、映像蓄積DB404に蓄積する映像あるいは映像蓄積DB404からオブジェクト(本例では人物)を検索するための読み出された映像である。再生画像842は、選定されたフレームの画像データである。人物検出結果843は、再生画像842から人物が検出されたか否かを示すデータである。再生間隔844は、次の再生フレームまでの時間間隔を示すデータである。人物解析結果845は、人物が検出された再生画像842から人物を解析した結果を示すデータである。入出力データ846は、入出力インタフェース860を介して入出力される入出力データを示す。送受信データ847は、通信制御部830を介して送受信される送受信データを示す。
ストレージ850には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。映像蓄積DB404は、各カメラ310から収集された映像を蓄積するデータベースである。人物特徴量DB406は、検出して同定する人物の特徴量を格納するデータベースである。再生位置選定テーブル702aは、フレーム内に人物を検出した時に再生を開始するフレーム位置を選定するためのテーブルである。再生間隔設定テーブル703aは、フレーム内に人物を検出しない場合と、フレーム内に人物を検出した場合とにおいて、再生するフレームの間隔を選定するためのテーブルである。なお、各テーブルはRAM840に確保されてもよい。
ストレージ850には、以下のプログラムが格納される。映像処理装置制御プログラム851は、本映像処理装置200の全体を制御する制御プログラムである。映像再生モジュール852は、映像蓄積DB404に蓄積された映像の再生フレームを制御しながら再生するモジュールである。人物検出モジュール853は、再生フレームから人物を検出するモジュールである。人物解析モジュール854は、人物を検出した再生グレームに基づいて人物を解析するモジュールである。
入出力インタフェース860は、入出力機器との入出力データをインタフェースする。入出力インタフェース860には、表示部861、キーボード、タッチパネル、ポインティンデバイスなどの操作部862が接続される。
なお、図8のRAM840やストレージ850には、映像処理装置200が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
《映像処理装置の処理手順》
図9は、本実施形態に係る映像処理装置200の処理手順を示すフローチャートである。このフローチャートは、図8のCPU810がRAM840やストレージ850を使用して実行し、図4Aの機能構成部を実行する。
映像処理装置200は、ステップS911において、カメラ310などからの映像受信か否かを判定する。また、映像処理装置200は、ステップS921において、映像再生・解析の指示か否かを判定する。映像受信でも映像再生・解析の指示でも無ければ、映像処理装置200は、ステップS933において、他の処理を実行する。
ステップS911において映像受信であれば、映像処理装置200は、ステップS913において、受信した映像を検索可能に映像蓄積DB404に蓄積する。
ステップS921において映像再生・解析の指示であれば、映像処理装置200は、ステップS923において、映像再生・解析処理を実行する。
(映像再生・解析処理)
図10は、本実施形態に係る映像再生・解析処理(S923)の手順を示すフローチャートである。
映像処理装置200は、ステップS1001において、再生間隔を比較的長いT1秒に設定する。映像処理装置200は、ステップS1003において、対象の映像を映像蓄積DB404から読み出して、T1秒間隔でスキップしながら再生する。そして、映像処理装置200は、ステップS1005において、再生フレームから人物を検出し、検出したか否かを判定する。人物を検出しない場合は、映像処理装置200は、ステップS1007において、再生の終了か否かを判定する。再生終了でなければステップS1003に戻って、T1秒間隔でスキップしながら再生を継続する。
ステップS1005において人物を検出したと判定した場合、映像処理装置200は、ステップS1009において、映像の再生間隔を人物解析に必要な比較的短いT2秒(<<T1)に設定する。映像処理装置200は、ステップS1011において、対象の映像を映像蓄積DB404から読み出して、T2秒間隔で再生する。そして、映像処理装置200は、ステップS1013において、再生フレームから人物を検出し、検出したか否かを判定する。人物を検出しない場合は人物がフレームを通過してフレームから外れたと判断して、ステップS1001に戻って、再生間隔をT1秒に戻して再生をする。
ステップS1013において人物を検出すると、映像処理装置200は、ステップS1015において、再生映像の人物を解析する。映像処理装置200は、ステップS1017において、再生の終了か否かを判定する。再生終了でなければステップS1011に戻って、T2秒間隔での再生と解析とを継続する。
本実施形態によれば、検索対象のオブジェクトである人物を検出しない間、オブジェクトがフレーム中を通過する比較的長い第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定して再生する。したがって、検索対象のオブジェクトの無いフレームを再生せず、かつ検出処理も実行しないので、処理の負荷が低減されて処理速度が速くなる。
[第3実施形態]
次に、本発明の第3実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態と比べると、検索対象のオブジェクトを検出した時点で、第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、第1時間間隔の半分の時間間隔だけ戻るように次の再生フレームを選定するが、これに限定されず、次の再生フレームが検索対象のオブジェクトを含む可能性を高くする時間間隔が選定されればよい。
《映像処理装置の処理概要》
図11Aは、本実施形態に係る映像処理装置1100の処理概要を示す図である。なお、図11Aにおいて、図2と同様の要素には同じ参照番号を付して、説明を省略する。
本実施形態において、映像処理装置1100は、再生画像203において人物231を検出すると、T1/2秒前のフレームに戻って再生画像を生成する。その後、フレームから人物が消えるまでの間、再生間隔をT1秒よりかなり短いT2秒で再生して人物の解析を実行する(参照番号1120で示す)。これは、T1秒前のフレーム以降の途中で人物231がフレーム内に現われたと予測できるが、T1秒を、フレームを人物が通過する時間などから算出した場合に、T1秒前からの幾つかのフレームには人物が含まれない可能性が高い。本実施形態においては、処理負荷および処理速度からT1/2秒前へ戻ることで、十分に人物解析が可能であると判断する。
なお、本実施形態では、T1/2秒前へ戻るとしたが、T1/3秒あるいは(T1×2)
/3秒前であってもよい。戻る時間に限定はなく、処理速度と解析精度とを考慮して決定すればよい。また、T1/2秒前へ戻って再生したフレームに人物が検出された場合は、さらにT1/4秒前へ戻るなどの制御をしてもよい。
本実施形態によれば、第1時間間隔だけ戻る場合に発生する検索対象のオブジェクトを含まないフレームの無駄な再生を減少させることにより、さらに処理の負荷が低減されて処理速度が速くなる。
[第4実施形態]
次に、本発明の第4実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態および第3実施形態と比べると、戻るべき時間間隔を予測して次の再生フレームを選定する点で異なる。その他の構成および動作は、第2実施形態および第3実施形態と同様であるため、同じ構成および動作についてはその詳しい説明を省略する。なお、本実施形態においては、戻るべき時間間隔を、オブジェクトを検出した位置情報やオブジェクトの向き情報とから予測するが、これに限定されず、次の再生フレームが検索対象のオブジェクトを含む可能性を高くする時間間隔が予測されればよい。
(再生位置予測テーブル)
図11Bは、本実施形態に係る再生位置選定部が使用する再生位置予測テーブル1102aの構成を示す図である。再生位置予測テーブル1102aは、第2実施形態の再生位置選定部702が使用する再生位置選定テーブル702aに置き換えられて、再生位置選定部702が再生位置を予測するために使用される。
再生位置予測テーブル1102aは、人物検出部402からの人物検出信号1121に対応付けて、映像フレーム内の人物検出位置1122と、検出人物の向き1123とを記憶する。そして、再生位置予測テーブル1102aは、人物検出位置1122と人物の向き1123とから予測される、映像フレーム内に人物が入ってからの経過時間1124と、予測した経過時間1124に基づく再生位置1125を記憶する。本例では、人物検出部402が人物を検出して、人物検出信号1121がOFF(無)からON(有)に変化すると、検出位置P1(x,y)と向きαとから経過時間Tf=f(P1,α)を予測し、Tf秒前の位置から再生を行なうことが記憶される。
すなわち、本実施形態においては、映像処理装置200の人物検出部402では、オブジェクトを検出するとともに、検出した位置情報やオブジェクトの向き情報も取得する。ここで、位置情報は、通常、検出の際、一緒に取得することができる。一方、オブジェクトの向き情報は、例えば、オブジェクトの向き別に学習した検出器を用いることで取得できる。すなわち、検出スコアが最も高くなる検出器に対応する向きから、オブジェクトの向きを知ることができる。そして、検出位置情報や人物の向き情報を、人物検出信号に含めて再生フレーム選定部403へ出力する。
再生フレーム選定部403の再生位置選定部702では、再生位置予測テーブル1102aを使用して、人物検出信号に含まれる人物の位置や向きの情報から、フレームに映っている領域内にその人物が入ってからどの程度時間が経過したかを推定する。人物の位置情報のみを用いる場合であれば、例えば、フレームに映っている領域の中央付近で人物が検出されれば、フレーム内の領域の移動にかかる時間の半分程度が経過していると推測できる。このように、人物の検出位置に応じて戻る時間を定めてテーブルとして持っておけば、このテーブルを参照することで、戻る時間を求めることができる。さらに、人物の向き情報も利用できる場合には、より詳細な予測が可能になる。人物の向き情報から、その人物がどちらに移動しているかを知ることができるため、移動方向と位置情報を組みあわせることで、その人物がフレームに映っている領域内に入ってからどの程度の時間が経過したかを予測することができる。例えば、フレームの端の領域で人物が検出された場合でも、それがフレーム内に入ってすぐなのか、あるいは、フレーム外に出ていく直前なのかを、移動方向から知ることができる。これに応じて、その人物がフレーム内に入ってから経過した時間を予測し、戻る時間を決定する。この場合も人物の戻る時間を向きと位置ごとに定めてテーブルとして持っておけば、このテーブルを参照することで、戻る時間を求めることができる。
本実施形態によれば、第1時間間隔だけ戻る場合に発生する、検索対象のオブジェクトを含まないフレームの無駄な再生を減少させることにより、さらに処理の負荷が低減されて処理速度が速くなる。
[第5実施形態]
次に、本発明の第5実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第4実施形態と比べると、検索対象のオブジェクトが車両である点で異なる。その他の構成および動作は、第2実施形態乃至第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《映像処理装置の処理概要》
図12は、本実施形態に係る映像処理装置1200の処理概要を示す図である。
図12には、蓄積された映像から、車両を検出して解析するための再生画像1201〜1205が順に示されている。なお、再生画像1201〜1205は、表示画面ではなく、説明のため映像処理装置1200内に展開された状態を示すものである。
映像処理装置1200は、映像を再生して車両を検出する場合、車両1231が検出されるまでは、再生画像1201と、再生画像1202と、再生画像1203とを、比較的長いT3秒の再生間隔でスキップしながら生成する(参照番号1210で示す)。これは、T3秒の間に突然、車両がフレーム内に現われる確率が低いと予測できるためである。ここで、T3秒は、車両の速度やフレーム内を通過する時間などから設定される時間間隔である。例えば、車両がフレーム内に映っている領域を通過するのにかかる最低時間をT3秒に設定すればよい。あるいは、車両がフレーム内に移っている領域を通過するのにかかる時間の分布から定まる統計量をT3秒に設定してもよい。統計量としては、例えば、αパーセンタイル値を用いることができる。
映像処理装置1200は、再生画像1203において車両1231を検出すると、本実施形態においては、T3秒前のフレームに戻って再生画像1204を生成する。その後、フレームから車両が消えるまでの間、再生間隔をT3秒よりかなり短いT4秒で再生して車両の解析を実行する(参照番号1220で示す)。これは、再生画像1203中に車両1231を検出したので、T3秒前のフレーム以降の途中で車両1231がフレーム内に現われたと予測できるためである。また、T4秒は、車両の速度や車両を解析するための時間などから、確実に車両解析が可能なように設定される時間間隔である。
このように、車両が再生画像内に居るか居ないか不明である、あるいは、居ない確率の高い部分は、再生画像1201〜1203のように、比較的長いT3秒の再生間隔でスキップしながら再生処理をする。そのため、T3秒間のフレームは再生処理をしないため、全てのフレームを再生して車両検出と車両解析とを行なう従来の処理と比較して、再生処理および検出処理に費やされる処理負荷が軽減し、映像処理装置1200の映像処理速度を飛躍的に高めることができる。
《映像処理装置の機能構成》
図13Aは、本実施形態に係る映像処理装置1200の機能構成を示すブロック図である。なお、図13Aにおいて、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
映像処理装置1200は、映像再生部401と、車両検出部1302と、再生フレーム選定部1303と、映像蓄積DB404と、車両解析部1305と、車両特徴量DB1306と、を備える。映像再生部401は、映像蓄積DB404に蓄積された映像から、再生フレーム選定部1303が選定したフレームを再生して、車両検出部1302および車両解析部1305に送る。車両検出部1302は、映像再生部401が再生したフレームから、車両特徴量DB1306に格納された車両検出用の特徴量を用いて、再生画像から抽出された特徴量が車両のものに該当するかを判定し、車両を検出する。
再生フレーム選定部1303は、車両検出部1302が再生フレームから車両を検出しない間はT3秒間隔でスキップしながら再生フレームを選定する。そして、再生フレーム選定部1303は、車両検出部1302が再生フレームから車両を検出した場合は、それ以降、車両がフレームから消えるまでの間、T4秒(<<T3秒)間隔で再生フレームを選定する。
車両解析部1305は、車両検出部1302が車両を検出したフレームについて、車両の同定に必要な特徴量を抽出する。そして、抽出した特徴量を車両解析結果として出力する。なお、車両特徴量DB1306に格納された車両解析用の特徴量と、再生画像から抽出された対応する特徴量をマッチングして、車両を同定するようにしてもよい。この場合、同定した結果を車両解析結果として出力する。
車両特徴量DB1306は、車両検出部1302が車両の検出に使用する車両検出用DB1310を格納する。さらに、車両解析部1305が特徴量マッチングに使用する車両解析用DB1320を有し、車両画像から抽出した特徴量を格納してもよい。なお、車両検出用DB1310は、車両を特定する特徴量ではなく、他のオブジェクトから車両であることを識別するのに用いる特徴量を格納する。一方、車両解析用DB1320は、車両を特定するための特徴量を格納する。
(車両特徴量DB)
図13Bは、本実施形態に係る映像処理装置1200の車両特徴量DB1306の構成を示す図である。車両特徴量DB1306は、車両検出および車両解析においてマッチングに使用される特徴量を格納する。そして、車両特徴量DB1306は、車両検出部1302が車両の検出に使用する車両検出用DB1310と、車両解析部1305が特徴量マッチングに使用する車両解析用DB1320と、を有する。なお、車両特徴量DB1306の構成は、図13Bに限定されない。
車両検出用DB1310は、再生フレームから車両を検出するために、例えば、異なる特徴を持つ車両種類1311に対応付けて、車両検出に重要な輪郭特徴量1312、色特徴量1313、形状特徴量1314、などを格納する。これらの特徴量は、車両を検出するために画像から抽出する特徴量そのものでなくてもよい点は、人物検出の場合と同様である。
車両検出用DB1310は、再生フレームから検索対象の車両を特定するために、例えば、検索対象の車両ID1321と、かかる車両のナンバープレートやデザインや取付物(積載物)などの詳細なマッチング対象1322に関して、それぞれの特徴量1323を格納する。
(再生フレーム選定部)
図14Aは、本実施形態に係る再生フレーム選定部1303の機能構成を示すブロック図である。
再生フレーム選定部1303は、フレーム選定部1401と、再生位置選定部1402と、再生間隔設定部1403と、を備える。フレーム選定部1401は、映像蓄積DB404から読み出された映像から、再生位置選定部1402が選定したフレーム位置から、再生間隔設定部1403が設定した再生間隔でフレームを選定して、映像再生部401に送る。
再生位置選定部1402は、車両検出部1302からの車両検出信号を受信すると、再生位置を戻すための位置を選定する。本実施形態においては、車両を検出しない今までの再生間隔であったT3秒戻った位置を選定する。
再生間隔設定部1403は、車両検出部1302からの車両検出信号を受信する前は、フレームを所定間隔でスキップさせるように、フレーム選定部1401に第1の再生間隔を設定する。そして、再生間隔設定部1403は、車両検出部1302からの車両検出信号を受信した後は、車両検出信号がなくなるまでの間、フレームを車両解析可能な間隔で再生できるように、フレーム選定部1401に第2の再生間隔を設定する。本例では、第1の再生間隔をT3秒とし、第2の再生間隔をT4秒とする。
(再生位置選定テーブル)
図14Bは、本実施形態に係る再生位置選定部1402が使用する再生位置選定テーブル1402aの構成を示す図である。
再生位置選定テーブル1402aは、車両検出部1302からの車両検出信号1421に対応付けて、再生位置1422を記憶する。本例では、車両検出部1302が車両を検出して、車両検出信号1421がOFF(無)からON(有)に変化すると、T3秒前の位置から再生を行なうことが記憶される。
(再生間隔設定テーブル)
図14Cは、本実施形態に係る再生間隔設定部1403が使用する再生間隔設定テーブル1403aの構成を示す図である。
再生間隔設定テーブル1403aは、車両検出部1302からの車両検出信号1431に対応付けて、再生間隔1432を記憶する。本例では、車両検出部1302が車両を検出して、車両検出信号1431がOFF(無)の間はT3秒間隔で再生し、ON(有)の間は、T3秒より短いT4秒の間隔で再生を行なうことが記憶される。
本実施形態によれば、検索対象のオブジェクトである車両を検出しない間、オブジェクトがフレーム中を通過する比較的長い第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定して再生する。したがって、検索対象のオブジェクトの無いフレームを再生せず、かつ検出処理を実行しないので、処理の負荷が低減されて処理速度が速くなる。
[第6実施形態]
次に、本発明の第6実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第5実施形態と比べると、検索対象のオブジェクトを含み再生した映像を解析する第2時間間隔を、オブジェクトの大きさや撮像部からオブジェクトまでの距離に対応して変更する点で異なる。その他の構成および動作は、第2実施形態〜第5実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
《映像処理装置の処理概要》
図15は、本実施形態に係る映像処理装置1500の処理概要を示す図である。なお、図15において、図2と同様の要素には同じ参照番号を付して、説明を省略する。
本実施形態において、映像処理装置1500は、再生画像203において人物231を検出すると、T1秒前のフレームに戻って再生画像を生成した後の再生間隔を変更させる。
T1秒前のフレームに戻った最初の内は、幾分長いT21秒の間隔で再生する。それ以降、T21→T22→T23→T24→と再生間隔は次第に短くなり、かかる再生間隔で再生して人物の解析を実行する(参照番号1520で示す)。これは、T1秒前のフレーム付近では、人物を検出する可能性は比較的低い上に、人物の画像が小さいので人物解析で得られる情報も少ない。したがって、T1秒前のフレーム付近では、再生間隔は幾分長いT21秒とする。人物がフレームに登場してから大きくなるに従って、再生間隔を次第に短くして人物解析の正確性を高める。
なお、本実施形態では、再生間隔を次第に短くしたが、段階的に短くしてもよい。また、T1秒前へ戻るとしたが、第3実施形態のように、T1/2秒、T1/3秒あるいは(T1×2)/3秒前であってもよく、戻る時間に限定はない。
《映像処理装置の機能構成》
図16は、本実施形態に係る映像処理装置1500の機能構成を示すブロック図である。なお、図16において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
映像処理装置1500は、映像再生部401と、人物検出部1502と、再生フレーム選定部1503と、映像蓄積DB404と、人物解析部405と、人物特徴量DB406と、を備える。映像再生部401は、映像蓄積DB404に蓄積された映像から、再生フレーム選定部1503が選定したフレームを再生して、人物検出部1502および人物解析部405に送る。人物検出部1502は、映像再生部401が再生したフレームから、人物特徴量DB406に格納された人物検出用の特徴量を用いて、再生画像から抽出された特徴量が車両のものに該当するかどうかを判定して、人物を検出する。人物検出部1502は、検出した人物のサイズや撮像部からの距離を算出して、再生フレーム選定部1503に送る。撮像部からの距離は、カメラパラメータを用いて画面上での検出位置から算出することができる。あるいは、撮像部からの距離を画面の各位置に対してあらかじめ算出しておいて、テーブルとして保持しておき、このテーブルを参照することによって求めることもできる。
再生フレーム選定部1503は、人物検出部1502が再生フレームから人物を検出しない間はT1秒間隔でスキップしながら再生フレームを選定する。そして、再生フレーム選定部1503は、人物検出部1502が再生フレームから人物を検出すると、検出した人物のサイズや撮像部からの距離を取得する。そして、それ以降、再生フレーム選定部1503は、人物がフレームから消えるまでの間、検出した人物のサイズや撮像部からの距離の情報を参照して、T21〜T24秒(<<T1秒)と間隔を短くしながら再生フレームを選定する。
なお、人物検出部1502による人物のサイズや撮像部からの距離は、人物検出部1502で算出しても、人物特徴量DB406に人物のサイズや撮像部からの距離に対応する特徴量を格納しておいてもよい。
(人物検出部)
図17は、本実施形態に係る人物検出部1502の機能構成を示すブロック図である。なお、図17において、図5と同様の機能構成部には同じ参照番号を付して、説明を省略する。
人物検出部1502は、人物検出用特徴量抽出部511と人物検出用特徴量判別部1712とを備える。人物検出用特徴量判別部1712は、人物検出用DB410からの人物検出用特徴量を用いて、人物検出用特徴量抽出部511が抽出した特徴量を判別して、もし、人物が映像中に検出されれば、人物検出信号と、人物サイズまたは撮像部からの距離とを出力する。
(再生フレーム選定部)
図18Aは、本実施形態に係る再生フレーム選定部1503の機能構成を示すブロック図である。図18Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
再生フレーム選定部1503は、フレーム選定部701と、再生位置選定部702と、再生間隔設定部1803と、を備える。
再生間隔設定部1803は、人物検出部1502からの人物検出信号を受信する前は、フレームを所定間隔でスキップさせるように、フレーム選定部701に第1の再生間隔を設定する。そして、再生間隔設定部1803は、人物検出部1502からの人物検出信号を受信した後は、人物検出信号がなくなるまでの間、検出した人物サイズや撮像部からの距離に対応して、フレーム選定部701に第2の順次に短くなる再生間隔を設定する。本例では、第1の再生間隔をT1秒とし、第2の再生間隔をT21〜T24秒とする。
(再生間隔設定テーブル)
図18Bは、本実施形態に係る再生間隔設定部1803が使用する再生間隔設定テーブル1803aの構成を示す図である。
再生間隔設定テーブル1803aは、人物検出部1502からの人物検出信号1831と、人物検出部1502からの人物サイズまたは撮像部からの距離1832に対応付けて、再生間隔1833を記憶する。本例では、人物検出部1502が人物を検出して、人物検出信号1831がOFF(無)の間はT1秒間隔で再生する。そして、人物検出信号1831がON(有)の間は、検出された人物サイズS1〜S3に対応して、T1秒より短いT21〜T23秒の間隔に変更して再生を行なうことが記憶される。
本実施形態によれば、検索対象のオブジェクトを解析する情報が多いほど、すなわち、オブジェクトが大きいあるいは近いほど、フレームの再生間隔を狭くする。したがって、検索対象のオブジェクトについての情報量を増やしながら、情報量の少ないフレームの再生および検出処理をスキップすることで、さらに処理の負荷が低減されて処理速度が速くなる。
《本実施形態の変形例》
本実施形態ではオブジェクトの大きさや撮像部からオブジェクトまでの距離に対応して再生間隔を変更したが、さらにオブジェクトの移動速度も用いて再生間隔を調節してもよい。オブジェクトが検出された後、検出されたフレーム間でオブジェクトの追跡処理を行ってオブジェクト間の対応付けを行うと、検出フレーム間でオブジェクトがどれだけ移動したかを求めることができる。これにより得られるオブジェクトの移動量をフレーム再生間隔で割ることによって、オブジェクトの移動速度を算出する。そして、算出された移動速度に応じて、再生間隔を調整する。例えば、オブジェクトの移動速度が遅い場合には、その移動速度に応じて、再生間隔を通常の場合よりも長く設定する。
(再生間隔設定テーブル)
図18Cは、本実施形態の変形例に係る再生間隔設定部1803が使用する再生間隔設定テーブル1803bの構成を示す図である。再生間隔設定テーブル1803bは、再生間隔設定部1803において、オブジェクトの移動量と再生間隔とからオブジェクトの移動速度を算出して、移動速度に対応して再生間隔を調整するために使用される。
再生間隔設定テーブル1803bは、人物検出部1502からの人物検出信号1841と、人物検出部1502からの人物の移動量および再生間隔から算出された人物の移動速度1842に対応付けて、再生間隔1843を記憶する。本例では、人物検出部1502が人物を検出して、人物検出信号1841がOFF(無)の間はT1秒間隔で再生する。そして、人物検出信号1841がON(有)の間は、検出された人物の移動速度V1〜V3に対応して、T1秒より短いT31〜T33秒の間隔を変更して再生を行なうことが記憶される。
本実施形態によれば、検索対象のオブジェクトの移動速度が速いほど、フレームの再生間隔を狭くする。したがって、検索対象のオブジェクトについて、移動速度が速い場合は十分な情報量を得ながら、一方で移動速度が遅い場合は重複する情報を減らすことによって、情報量の少ないフレームの再生および検出処理をスキップすると共に、オブジェクトについての必要な情報を得ることができる。
[第7実施形態]
次に、本発明の第7実施形態に係る映像処理装置について説明する。本実施形態に係る情報処理装置は、上記第2実施形態乃至第6実施形態と比べると、撮像状況や映像内容を考慮して、具体的には映像の場所または撮像する時間帯に対応して、フレーム再生をスキップする時間間隔を調整する点で異なる。その他の構成および動作は、第2実施形態〜第6実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
《映像処理装置の処理概要》
図19は、本実施形態に係る映像処理装置1900の処理概要を示す図である。なお、図19において、図2と同様の要素には同じ参照番号を付して、説明を省略する。
図19において、上段は、夜間における映像の再生間隔を示す図である。下段は、昼間における映像の再生間隔を示す図である。ここで、昼間は図2と同様な映像再生解析をするものとする。
図19のように、夜間には人物がフレーム内に登場する回数あるいは確率は低下すると予測できるので、夜間のスキップ間隔T12秒は、昼間のスキップ間隔T1秒よりも長くする。なお、図19には、昼間と夜間とのスキップ間隔の変更を図示したが、撮像する場所や環境により、それぞれの特色もあり、それに合わせたスキップ間隔の変更が可能である。
《映像処理装置の機能構成》
図20は、本実施形態に係る映像処理装置1900の機能構成を示すブロック図である。なお、図20において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
映像処理装置1900は、映像再生部401と、人物検出部402と、再生フレーム選定部2003と、映像蓄積DB404と、人物解析部405と、人物特徴量DB406と、人物通行量記憶部2007と、を備える。映像再生部401は、映像蓄積DB404に蓄積された映像から、再生フレーム選定部2003が選定したフレームを再生して、人物検出部402および人物解析部405に送る。
人物通行量記憶部2007は、映像の場所や環境に対応して人物通行量を記憶する。なお、人物通行量記憶部2007は、映像に基づいて人物通行量を算出して随時調整してもよい。
再生フレーム選定部2003は、人物検出部402が再生フレームから人物を検出しない間は、昼間のように人通りが多ければT1秒間隔でスキップしながら再生フレームを選定する。一方、再生フレーム選定部2003は、夜間などの人通りの少ない場合は、T1秒より長いT12秒間隔でスキップしながら再生フレームを選定する。そして、再生フレーム選定部2003は、人物検出部402が再生フレームから人物を検出した場合は、それ以降、昼間であっても夜間であっても、人物がフレームから消えるまでの間、T2秒(<<T1秒)と間隔を短くしながら再生フレームを選定する。
(再生フレーム選定部)
図21Aは、本実施形態に係る再生フレーム選定部2003の機能構成を示すブロック図である。図21Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
再生フレーム選定部1503は、フレーム選定部701と、再生位置選定部702と、再生間隔設定部2103と、を備える。
再生間隔設定部2103は、人物検出部402からの人物検出信号を受信する前は、場所や時間帯や環境などの人物通行量に対応して、フレームを所定間隔でスキップさせるように、フレーム選定部701に第1の再生間隔を設定する。そして、再生間隔設定部2103は、人物検出部402からの人物検出信号を受信した後は、人物検出信号がなくなるまでの間、フレーム選定部701に第2の再生間隔を設定する。本例では、第1の再生間隔を人物通行量(例えば時間帯による)T11秒〜T13秒とし、第2の再生間隔をT2秒とする。
(再生間隔設定テーブル)
図21Bは、本実施形態に係る再生間隔設定部2103が使用する再生間隔設定テーブル2103aの構成を示す図である。
再生間隔設定テーブル2103aは、人物検出部402からの人物検出信号2131と、人物通行量記憶部2007からの人物通行量2132に対応付けて、再生間隔2133を記憶する。本例では、人物検出部402が人物を検出して、人物検出信号2131がOFF(無)の間は、人物通行量2132に対応してT11秒〜T31秒間隔で再生する。そして、ON(有)の間は、T11秒〜T31秒より短いT2秒の間隔で再生を行なうことが記憶される。
本実施形態によれば、検索対象のオブジェクトが少ない状況を判断して、フレーム再生をスキップする第1時間間隔をより長く調整することにより、さらに無駄な映像再生および検出処理を無くし、処理の負荷が低減されて処理速度が速くなる。
[第8実施形態]
次に、本発明の第8実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第7実施形態と比べると、他の撮像部の映像中に検索対象のオブジェクトが現われた情報を共有する。そして、オブジェクトが映像中に現われる時刻を推定して、その時刻までスキップした後のフレームを次の再生フレームとして選定する点で異なる。その他の構成および動作は、第2実施形態〜第7実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
《映像処理装置の処理概要》
図22は、本実施形態に係る映像処理装置2200の処理概要を示す図である。
図22には、複数の撮像部2201および2202から収集して蓄積された映像から、人物を検出して解析するための再生画像2211〜2214と再生画像2221〜2224とが順に示されている。なお、再生画像2211〜2224は、表示画面ではなく、説明のため映像処理装置2200内に展開された状態を示すものである。また、複数の撮像部2201および2202とは、互いに連続して人物を検出する位置に配置されているものとする。しかしながら、複数の撮像部2201および2202との関係はこのような近隣位置に限定されない。例えば、ビル内の別階の監視カメラの映像などの関係にも対応する。さらに、飛行機の搭乗ターミナルと、行き先の到着ターミナルとの監視カメラなどにも適応できる。
映像処理装置2200は、再生画像2211と2212において、撮像部2201からの映像中に人物を検出しているため、T2秒間隔で再生して人物解析を行なっている。そして、人物2203が撮像部2201のフレームから消えた後に、撮像部2202のフレームに登場することが予測されている。それで、撮像部2202が撮像した映像において、再生画像2222以前には当該人物は居ないと判断する。
したがって、映像処理装置2200は、撮像部2202の撮像した映像からの人物の検出および解析を、再生画像2222までスキップする。そして、映像処理装置2200は、再生画像2222以降は、短い再生間隔で再生および解析を行なうことになる。なお、図22は人物2203に注目する制御であり、他の人物についてはそれぞれに同様な処理がされることになる。
このように、人物が再生画像内に居ない確率の高い部分は、他の映像の人物検出結果あるいは解析結果を受けてから、再生画像2222まで再生をスキップする。そのため、人物が登場すると予測される再生画面まで再生をスキップできるので、全てのフレームを再生して人物検出と人物解析とを行なう従来の処理と比較して、再生処理および検出処理に費やされる処理負荷が軽減し、映像処理装置2200の映像処理速度を飛躍的に高めることができる。
《映像処理装置の機能構成》
図23は、本実施形態に係る映像処理装置2200の機能構成を示すブロック図である。なお、図23において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
映像処理装置2200は、映像再生部401と、人物検出部402と、再生フレーム選定部2303と、映像蓄積DB404と、人物解析部405と、を備える。映像再生部401は、映像蓄積DB404に蓄積された映像から、再生フレーム選定部2303が選定したフレームを再生して、人物検出部402および人物解析部405に送る。
再生フレーム選定部2303は、人物検出部402が再生フレームから人物を検出しない間は、T1秒間隔でスキップしながら再生フレームを選定する。一方、再生フレーム選定部2303は、人物検出部402が再生フレームから人物を検出すると、T1秒より短いT21秒間隔でスキップしながら再生フレームを選定する。
さらに、再生フレーム選定部2303は、他の映像中の人物検出結果を保持して、関連する映像の再生フレームの選定に利用する。すなわち、映像間の関係は映像蓄積DB404に蓄積された映像の撮像場所や撮像時間などから明瞭であり、1つの映像のフレーム内をどの方向に通過した人物がどの映像にいつ頃現われるかも予測可能である。したがって、人物検出結果の履歴を蓄積しておくことで、予測した人物登場時点まで再生をスキップすることができる。
なお、本実施形態においては、再生フレーム選定部2303内に人物検出結果を保持する例を示すが、映像処理装置2200に再生フレーム選定部2303とは別個に人物検出結果DBを設けてもよい。
(再生フレーム選定部)
図24Aは、本実施形態に係る再生フレーム選定部2303の機能構成を示すブロック図である。なお、図24Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
再生フレーム選定部2303は、フレーム選定部701と、再生位置選定部702と、再生間隔設定部2403と、人物検出時刻記憶部2405と、を備える。フレーム選定部701は、映像蓄積DB404から読み出された映像から、再生位置選定部702が選定したフレーム位置から、再生間隔設定部2403が設定した再生間隔でフレームを選定して、映像再生部401に送る。
再生間隔設定部2403は、人物検出部402からの人物検出信号を受信する前は、フレームを所定間隔でスキップさせるように、フレーム選定部701に第1の再生間隔を設定する。そして、再生間隔設定部703は、人物検出部402からの人物検出信号を受信した後は、人物検出信号がなくなるまでの間、フレームを人物解析可能な間隔で再生できるように、フレーム選定部701に第2の再生間隔を設定する。本例では、第1の再生間隔をT1秒とし、第2の再生間隔をT2秒とする。
しかしながら、本実施形態において、再生間隔設定部2403は、人物検出時刻記憶部2405からの他の映像における人物検出を参照にして、第1の再生間隔の設定を停止して、人物登場予測時刻まで映像の再生をスキップさせる。
人物検出時刻記憶部2405は、人物検出部402からの人物検出信号を映像IDや場所および時刻と共に記憶する。そして、同じ人物が登場する映像を見付けてその登場時刻を予測して、その間、再生間隔設定部2403の再生間隔設定を停止させる。
なお、図24Aにおいては、人物検出時刻記憶部2405が再生間隔設定部2403を制御して、人物登場予測時刻まで映像の再生をスキップさせたが、フレーム選定部701や再生位置選定部702などを制御するように構成してもよい。
(再生フレーム選定テーブル)
図24Bは、本実施形態に係る再生フレーム選定部2303が使用する再生フレーム選定テーブル2303aの構成を示す図である。
再生フレーム選定テーブル2303aは、映像ID2441に対応付けて、撮像場所2442と撮像日時2443とを記憶する。そして、それぞれの映像は、人物検出部402が人物を検出した毎の人物検出時刻2444と人物移動方向2445とを記憶する。そして、それぞれの映像は、他の映像の人物検出情報に基づいて予測される、人物検出推定時刻2446を記憶する。人物検出推定時刻2446は複数であってもよい。
なお、隣接する撮像部の映像関係であれば、人物特定の必要性は低い。しかし、撮像部が離れている場合は、さらに人物特定情報(特徴量)を記憶する必要がある、また、図24Bには、再生フレーム選定部2303全体が使用するテーブルとして示したが、これらを分離して、再生フレーム選定部2303を構成する機能構成部が個別に有してもよい。
本実施形態によれば、他の撮像部が撮像した映像を参照することにより、検索対象のオブジェクトが当該フレームに入る時刻を予測できるので、不必要なフレーム再生および検出処理を減少させ、かつ、オブジェクトを補足する確率を高めることができる。
[第9実施形態]
次に、本発明の第8実施形態に係る映像処理装置につい説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第8実施形態と比べると、さらに、不必要なフレーム再生および検出処理を減少させ、かつ、オブジェクトを補足する確率を高めるために、過去の調整による検索結果をフィードバックする点で異なる。特に、本実施形態においては、第1時間間隔を適切に調整する例を示す。しかしながら、これに限定されずに、再生位置選定を学習してもよい。その他の構成および動作は、第2実施形態〜第8実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
(再生間隔設定テーブル)
図25は、本実施形態に係る再生間隔設定部が使用する再生間隔設定テーブル2500の構成を示す図である。
本実施形態の再生間隔設定テーブル2500は、映像ID2501に対応付けて、撮像場所2502を記憶する。そして、それぞれの映像は、設定した再生間隔2503に対応付けて、その再生間隔2503による人物検出率2504と、人物検出失敗数2505とを記憶する。ここで、人物検出率2504は、人物を検出したフレーム数を再生した全フレームで除算した数値である。また、人物検出失敗数2505は、人物がフレーム中に登場したにもかかわらず人物検出できなかった回数である。本実施形態の再生間隔設定部は、人物検出率2504と人物検出失敗数2505とを参照して、適切な再生間隔を選定して設定する。
なお、上記人物検出率2504や人物検出失敗数2505は、再生間隔を選定するための一例であり、これに限定されない。
本実施形態によれば、再生間隔や再生位置を、状況変化にも応じてより適切に調整することができる。
[他の実施形態]
なお、上記実施形態においては、オブジェクト検出とオブジェクト解析とを分離して、オブジェクト検出は他のオブジェクトとの識別に限定して説明したが、検索対象のオブジェクトに関する概要情報が既にある場合には、オブジェクト検出時にオブジェクトの属性も検出すると、オブジェクト解析処理の負荷低減および処理時間短縮となる。例えば、人物の服装の色や模様、あるいは携帯物なども考慮した人物検出を行なうと、服装の違うあるいは携帯物を持たない人物は解析から削除できるので、解析処理時間を短縮できる。
例えば、検索対象となる人物が白い服を着ているという情報がある場合には、服の色に関する特徴量を抽出して検出された人物が白い服を着ているかどうかを判定する。そして、白い服を着ている可能性がある場合に、人物検出信号を出力する。なお、人物が検索対象かどうかを調べるための特徴量は、人物同定に使う特徴量と必ずしも同じでなくてもよい。検索対象であるかどうかを判定するのに十分な特徴量のみでよく、簡易な特徴量でもよい。例えば、上述の例の場合には、大雑把に着衣が白かどうかを判定できる程度の特徴量でよい。また、車両のデザインの色や模様、あるいは取付物なども考慮した車両検出を行なうと、デザインの違うあるいは取付物を持たない車両は解析から削除できるので、解析処理時間を短縮できる。
また、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する映像処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。
[実施形態の他の表現]
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
を備える映像処理装置。
(付記2)
前記再生フレーム選定手段は、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記1に記載の映像処理装置。
(付記3)
前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記2に記載の映像処理装置。
(付記4)
前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記2に記載の映像処理装置。
(付記5)
前記再生フレーム選定手段は、
前記オブジェクトのサイズを取得する取得手段を有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記2乃至4のいずれか1項に記載の映像処理装置。
(付記6)
前記再生フレーム選定手段は、
前記オブジェクトの移動速度を算出する算出手段を有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記2乃至5のいずれか1項に記載の映像処理装置。
(付記7)
前記再生フレーム選定手段は、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記2乃至6のいずれか1項に記載の映像処理装置。
(付記8)
前記再生フレーム選定手段は、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記7に記載の映像処理装置。
(付記9)
前記再生フレーム選定手段は、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記7または8に記載の映像処理装置。
(付記10)
前記再生フレーム選定手段は、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記7乃至9のいずれか1項に記載の映像処理装置。
(付記11)
前記オブジェクトは人物または車両を含む付記1乃至10のいずれか1項に記載の映像処理装置。
(付記12)
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
を含む映像処理方法。
(付記13)
前記再生フレーム選定ステップにおいては、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記12に記載の映像処理方法。
(付記14)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記13に記載の映像処理方法。
(付記15)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記13に記載の映像処理方法。
(付記16)
前記再生フレーム選定ステップは、
前記オブジェクトのサイズを取得する取得ステップを有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記13乃至15のいずれか1項に記載の映像処理方法。
(付記17)
前記再生フレーム選定ステップは、
前記オブジェクトの移動速度を算出する算出ステップを有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記13乃至16のいずれか1項に記載の映像処理方法。
(付記18)
前記再生フレーム選定ステップにおいては、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記13乃至17のいずれか1項に記載の映像処理方法。
(付記19)
前記再生フレーム選定ステップにおいては、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記18に記載の映像処理方法。
(付記20)
前記再生フレーム選定ステップにおいては、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記18または19に記載の映像処理方法。
(付記21)
前記再生フレーム選定ステップにおいては、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記18乃至20のいずれか1項に記載の映像処理方法。
(付記22)
前記オブジェクトは人物または車両を含む付記12乃至21のいずれか1項に記載の映像処理方法。
(付記23)
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
をコンピュータに実行させる映像処理プログラム。
(付記24)
前記再生フレーム選定ステップにおいては、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記23に記載の映像処理プログラム。
(付記25)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記24に記載の映像処理プログラム。
(付記26)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記24に記載の映像処理プログラム。
(付記27)
前記再生フレーム選定ステップは、
前記オブジェクトのサイズを取得する取得ステップを有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記24乃至26のいずれか1項に記載の映像処理プログラム。
(付記28)
前記再生フレーム選定ステップは、
前記オブジェクトの移動速度を算出する算出ステップを有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記24乃至27のいずれか1項に記載の映像処理プログラム。
(付記29)
前記再生フレーム選定ステップにおいては、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記24乃至28のいずれか1項に記載の映像処理プログラム。
(付記30)
前記再生フレーム選定ステップにおいては、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記29に記載の映像処理プログラム。
(付記31)
前記再生フレーム選定ステップにおいては、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記29または30に記載の映像処理プログラム。
(付記32)
前記再生フレーム選定ステップにおいては、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記29乃至31のいずれか1項に記載の映像処理プログラム。
(付記33)
前記オブジェクトは人物または車両を含む付記23乃至32のいずれか1項に記載の映像処理プログラム。
この出願は、2013年8月23日に出願された日本国特許出願 特願2013−173166号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (13)

  1. 蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
    前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
    前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
    前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
    を備える映像処理装置。
  2. 前記再生フレーム選定手段は、
    前記オブジェクト検出手段が前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
    前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、請求項1に記載の映像処理装置。
  3. 前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、請求項2に記載の映像処理装置。
  4. 前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、請求項2に記載の映像処理装置。
  5. 前記再生フレーム選定手段は、
    前記オブジェクトのサイズを取得する取得手段を有し、
    前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する請求項2乃至4のいずれか1項に記載の映像処理装置。
  6. 前記再生フレーム選定手段は、
    前記オブジェクトの移動速度を算出する算出手段を有し、
    前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する請求項2乃至5のいずれか1項に記載の映像処理装置。
  7. 前記再生フレーム選定手段は、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する請求項2乃至6のいずれか1項に記載の映像処理装置。
  8. 前記再生フレーム選定手段は、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する請求項7に記載の映像処理装置。
  9. 前記再生フレーム選定手段は、検出された前記オブジェクトに対応して前記第1時間間隔を調整する請求項7または8に記載の映像処理装置。
  10. 前記再生フレーム選定手段は、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する請求項7乃至9のいずれか1項に記載の映像処理装置。
  11. 前記オブジェクトは人物または車両を含む請求項1乃至10のいずれか1項に記載の映像処理装置。
  12. 蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
    前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
    前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
    前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
    を含む映像処理方法。
  13. 蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
    前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
    前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
    前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
    をコンピュータに実行させる映像処理プログラム。
JP2015532796A 2013-08-23 2014-08-05 映像処理装置、映像処理方法および映像処理プログラム Active JP6432513B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013173166 2013-08-23
JP2013173166 2013-08-23
PCT/JP2014/070548 WO2015025705A1 (ja) 2013-08-23 2014-08-05 映像処理装置、映像処理方法および映像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2015025705A1 true JPWO2015025705A1 (ja) 2017-03-02
JP6432513B2 JP6432513B2 (ja) 2018-12-05

Family

ID=52483485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015532796A Active JP6432513B2 (ja) 2013-08-23 2014-08-05 映像処理装置、映像処理方法および映像処理プログラム

Country Status (2)

Country Link
JP (1) JP6432513B2 (ja)
WO (1) WO2015025705A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729793B2 (ja) * 2017-03-30 2020-07-22 日本電気株式会社 情報処理装置、制御方法、及びプログラム
CN111416916B (zh) * 2019-01-04 2022-07-26 瑞昱半导体股份有限公司 物件位置判断电路
JP2020135034A (ja) * 2019-02-13 2020-08-31 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体
CN110381322B (zh) * 2019-07-15 2023-03-14 腾讯科技(深圳)有限公司 视频流解码方法、装置、终端设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295426A (ja) * 2004-04-05 2005-10-20 Mitsubishi Electric Corp 映像情報記録装置および映像情報記録方法ならびに映像情報再生装置および映像情報再生方法
JP2009200827A (ja) * 2008-02-21 2009-09-03 Toshiba Corp 電子機器および画像表示方法
JP2010045765A (ja) * 2008-07-17 2010-02-25 Canon Inc 再生装置
JP2011078029A (ja) * 2009-10-01 2011-04-14 Sony Corp 電子機器、コンテンツ再生方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3424204B2 (ja) * 1999-07-23 2003-07-07 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクトの軌跡を利用したビデオ・コンテンツへのアクセス方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295426A (ja) * 2004-04-05 2005-10-20 Mitsubishi Electric Corp 映像情報記録装置および映像情報記録方法ならびに映像情報再生装置および映像情報再生方法
JP2009200827A (ja) * 2008-02-21 2009-09-03 Toshiba Corp 電子機器および画像表示方法
JP2010045765A (ja) * 2008-07-17 2010-02-25 Canon Inc 再生装置
JP2011078029A (ja) * 2009-10-01 2011-04-14 Sony Corp 電子機器、コンテンツ再生方法及びプログラム

Also Published As

Publication number Publication date
JP6432513B2 (ja) 2018-12-05
WO2015025705A1 (ja) 2015-02-26

Similar Documents

Publication Publication Date Title
US20240112051A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
JP5976237B2 (ja) 映像検索システム及び映像検索方法
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2020191646A (ja) 情報処理システム、情報処理方法及びプログラム
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20180091741A1 (en) Video surveillance system and video surveillance method
TW201724866A (zh) 用於視訊處理之系統及方法
JP6432513B2 (ja) 映像処理装置、映像処理方法および映像処理プログラム
US8644553B2 (en) Image display device, image display method, and image display program
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
JP6615800B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11120838B2 (en) Information processing apparatus, control method, and program
JP7459916B2 (ja) 物体追跡方法、物体追跡装置、及びプログラム
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
KR102072022B1 (ko) 관심영역 기반의 영상요약 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
KR101979375B1 (ko) 감시 영상의 객체 행동 예측 방법
KR101256873B1 (ko) 객체 추적 방법, 객체 추적 장치 및 이를 이용한 교통 감시 시스템
WO2020213099A1 (ja) オブジェクト検出・追跡装置、方法、およびプログラム記録媒体
WO2015093687A1 (ko) 데이터 처리 시스템
EP4071728A1 (en) Artificial intelligence model integration and deployment for providing a service
US20050128298A1 (en) Method for following at least one object in a scene
CN112488069B (zh) 一种目标搜索方法和装置及设备
JP2012128693A (ja) 映像処理装置、映像処理方法およびプログラム
JP7347481B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102448710B1 (ko) 딥러닝 기반 출차관리 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150