JPWO2015025705A1 - 映像処理装置、映像処理方法および映像処理プログラム - Google Patents
映像処理装置、映像処理方法および映像処理プログラム Download PDFInfo
- Publication number
- JPWO2015025705A1 JPWO2015025705A1 JP2015532796A JP2015532796A JPWO2015025705A1 JP WO2015025705 A1 JPWO2015025705 A1 JP WO2015025705A1 JP 2015532796 A JP2015532796 A JP 2015532796A JP 2015532796 A JP2015532796 A JP 2015532796A JP WO2015025705 A1 JPWO2015025705 A1 JP WO2015025705A1
- Authority
- JP
- Japan
- Prior art keywords
- frame
- person
- video
- playback
- video processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 204
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000001514 detection method Methods 0.000 claims abstract description 259
- 238000004458 analytical method Methods 0.000 claims abstract description 94
- 230000004044 response Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 52
- 238000000034 method Methods 0.000 description 31
- 238000003384 imaging method Methods 0.000 description 28
- 230000008929 regeneration Effects 0.000 description 26
- 238000011069 regeneration method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 19
- 238000000605 extraction Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000004904 shortening Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/915—Television signal processing therefor for field- or frame-skip recording or reproducing
Abstract
Description
蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
を備える。
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
を含む。
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
をコンピュータに実行させる。
本発明の第1実施形態としての映像処理装置100について、図1を用いて説明する。映像処理装置100は、映像中から対象とするオブジェクトを検索する装置である。
次に、本発明の第2実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、再生された映像中に、検索対象のオブジェクトを検出しない間、オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定して再生する。一方、検索対象のオブジェクトを検出すると、第1時間間隔より短い、オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定して再生し、検索対象のオブジェクトを解析する。その場合に、検索対象のオブジェクトを検出した時点では、第1時間間隔の時間間隔だけ戻ったフレームを次の再生フレームとして選定する。
図2は、本実施形態に係る映像処理装置200の処理概要を示す図である。
図3は、本実施形態に係る映像処理装置200を含む映像処理システム300の構成を示すブロック図である。
図4Aは、本実施形態に係る映像処理装置200の機能構成を示すブロック図である。
図4Bは、本実施形態に係る映像処理装置200の映像蓄積DB404の構成を示す図である。映像蓄積DB404は、人物を検出して解析するため収集された映像を、検索可能に蓄積する。なお、映像蓄積DB404の構成は、図4Bに限定されない。
図4Cは、本実施形態に係る映像処理装置200の人物特徴量DB406の構成を示す図である。人物特徴量DB406は、人物検出および人物解析においてマッチングに使用される特徴量を格納する。そして、人物特徴量DB406は、人物検出部402が人物の検出に使用する人物検出用DB410と、人物解析部405が特徴量マッチングに使用する人物解析用DB420と、を有する。なお、人物特徴量DB406の構成は、図4Cに限定されない。
図5は、本実施形態に係る人物検出部402の機能構成を示すブロック図である。
図6は、本実施形態に係る人物解析部405の機能構成を示すブロック図である。
図7Aは、本実施形態に係る再生フレーム選定部403の機能構成を示すブロック図である。
図7Bは、本実施形態に係る再生位置選定部702が使用する再生位置選定テーブル702aの構成を示す図である。
図7Cは、本実施形態に係る再生間隔設定部703が使用する再生間隔設定テーブル703aの構成を示す図である。
図8は、本実施形態に係る映像処理装置200のハードウェア構成を示すブロック図である。
図9は、本実施形態に係る映像処理装置200の処理手順を示すフローチャートである。このフローチャートは、図8のCPU810がRAM840やストレージ850を使用して実行し、図4Aの機能構成部を実行する。
図10は、本実施形態に係る映像再生・解析処理(S923)の手順を示すフローチャートである。
次に、本発明の第3実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態と比べると、検索対象のオブジェクトを検出した時点で、第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、第1時間間隔の半分の時間間隔だけ戻るように次の再生フレームを選定するが、これに限定されず、次の再生フレームが検索対象のオブジェクトを含む可能性を高くする時間間隔が選定されればよい。
図11Aは、本実施形態に係る映像処理装置1100の処理概要を示す図である。なお、図11Aにおいて、図2と同様の要素には同じ参照番号を付して、説明を省略する。
/3秒前であってもよい。戻る時間に限定はなく、処理速度と解析精度とを考慮して決定すればよい。また、T1/2秒前へ戻って再生したフレームに人物が検出された場合は、さらにT1/4秒前へ戻るなどの制御をしてもよい。
次に、本発明の第4実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態および第3実施形態と比べると、戻るべき時間間隔を予測して次の再生フレームを選定する点で異なる。その他の構成および動作は、第2実施形態および第3実施形態と同様であるため、同じ構成および動作についてはその詳しい説明を省略する。なお、本実施形態においては、戻るべき時間間隔を、オブジェクトを検出した位置情報やオブジェクトの向き情報とから予測するが、これに限定されず、次の再生フレームが検索対象のオブジェクトを含む可能性を高くする時間間隔が予測されればよい。
図11Bは、本実施形態に係る再生位置選定部が使用する再生位置予測テーブル1102aの構成を示す図である。再生位置予測テーブル1102aは、第2実施形態の再生位置選定部702が使用する再生位置選定テーブル702aに置き換えられて、再生位置選定部702が再生位置を予測するために使用される。
次に、本発明の第5実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第4実施形態と比べると、検索対象のオブジェクトが車両である点で異なる。その他の構成および動作は、第2実施形態乃至第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図12は、本実施形態に係る映像処理装置1200の処理概要を示す図である。
図13Aは、本実施形態に係る映像処理装置1200の機能構成を示すブロック図である。なお、図13Aにおいて、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図13Bは、本実施形態に係る映像処理装置1200の車両特徴量DB1306の構成を示す図である。車両特徴量DB1306は、車両検出および車両解析においてマッチングに使用される特徴量を格納する。そして、車両特徴量DB1306は、車両検出部1302が車両の検出に使用する車両検出用DB1310と、車両解析部1305が特徴量マッチングに使用する車両解析用DB1320と、を有する。なお、車両特徴量DB1306の構成は、図13Bに限定されない。
図14Aは、本実施形態に係る再生フレーム選定部1303の機能構成を示すブロック図である。
図14Bは、本実施形態に係る再生位置選定部1402が使用する再生位置選定テーブル1402aの構成を示す図である。
図14Cは、本実施形態に係る再生間隔設定部1403が使用する再生間隔設定テーブル1403aの構成を示す図である。
次に、本発明の第6実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第5実施形態と比べると、検索対象のオブジェクトを含み再生した映像を解析する第2時間間隔を、オブジェクトの大きさや撮像部からオブジェクトまでの距離に対応して変更する点で異なる。その他の構成および動作は、第2実施形態〜第5実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
図15は、本実施形態に係る映像処理装置1500の処理概要を示す図である。なお、図15において、図2と同様の要素には同じ参照番号を付して、説明を省略する。
図16は、本実施形態に係る映像処理装置1500の機能構成を示すブロック図である。なお、図16において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図17は、本実施形態に係る人物検出部1502の機能構成を示すブロック図である。なお、図17において、図5と同様の機能構成部には同じ参照番号を付して、説明を省略する。
図18Aは、本実施形態に係る再生フレーム選定部1503の機能構成を示すブロック図である。図18Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図18Bは、本実施形態に係る再生間隔設定部1803が使用する再生間隔設定テーブル1803aの構成を示す図である。
本実施形態ではオブジェクトの大きさや撮像部からオブジェクトまでの距離に対応して再生間隔を変更したが、さらにオブジェクトの移動速度も用いて再生間隔を調節してもよい。オブジェクトが検出された後、検出されたフレーム間でオブジェクトの追跡処理を行ってオブジェクト間の対応付けを行うと、検出フレーム間でオブジェクトがどれだけ移動したかを求めることができる。これにより得られるオブジェクトの移動量をフレーム再生間隔で割ることによって、オブジェクトの移動速度を算出する。そして、算出された移動速度に応じて、再生間隔を調整する。例えば、オブジェクトの移動速度が遅い場合には、その移動速度に応じて、再生間隔を通常の場合よりも長く設定する。
図18Cは、本実施形態の変形例に係る再生間隔設定部1803が使用する再生間隔設定テーブル1803bの構成を示す図である。再生間隔設定テーブル1803bは、再生間隔設定部1803において、オブジェクトの移動量と再生間隔とからオブジェクトの移動速度を算出して、移動速度に対応して再生間隔を調整するために使用される。
次に、本発明の第7実施形態に係る映像処理装置について説明する。本実施形態に係る情報処理装置は、上記第2実施形態乃至第6実施形態と比べると、撮像状況や映像内容を考慮して、具体的には映像の場所または撮像する時間帯に対応して、フレーム再生をスキップする時間間隔を調整する点で異なる。その他の構成および動作は、第2実施形態〜第6実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
図19は、本実施形態に係る映像処理装置1900の処理概要を示す図である。なお、図19において、図2と同様の要素には同じ参照番号を付して、説明を省略する。
図20は、本実施形態に係る映像処理装置1900の機能構成を示すブロック図である。なお、図20において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図21Aは、本実施形態に係る再生フレーム選定部2003の機能構成を示すブロック図である。図21Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図21Bは、本実施形態に係る再生間隔設定部2103が使用する再生間隔設定テーブル2103aの構成を示す図である。
次に、本発明の第8実施形態に係る映像処理装置について説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第7実施形態と比べると、他の撮像部の映像中に検索対象のオブジェクトが現われた情報を共有する。そして、オブジェクトが映像中に現われる時刻を推定して、その時刻までスキップした後のフレームを次の再生フレームとして選定する点で異なる。その他の構成および動作は、第2実施形態〜第7実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
図22は、本実施形態に係る映像処理装置2200の処理概要を示す図である。
図23は、本実施形態に係る映像処理装置2200の機能構成を示すブロック図である。なお、図23において、図4Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図24Aは、本実施形態に係る再生フレーム選定部2303の機能構成を示すブロック図である。なお、図24Aにおいて、図7Aと同様の機能構成部には同じ参照番号を付して、説明を省略する。
図24Bは、本実施形態に係る再生フレーム選定部2303が使用する再生フレーム選定テーブル2303aの構成を示す図である。
次に、本発明の第8実施形態に係る映像処理装置につい説明する。本実施形態に係る映像処理装置は、上記第2実施形態乃至第8実施形態と比べると、さらに、不必要なフレーム再生および検出処理を減少させ、かつ、オブジェクトを補足する確率を高めるために、過去の調整による検索結果をフィードバックする点で異なる。特に、本実施形態においては、第1時間間隔を適切に調整する例を示す。しかしながら、これに限定されずに、再生位置選定を学習してもよい。その他の構成および動作は、第2実施形態〜第8実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。なお、本実施形態においては、検索対象のオブジェクトが人物を例に説明するが、車両など他のオブジェクト検索にも適用され、同様の効果を奏する。
図25は、本実施形態に係る再生間隔設定部が使用する再生間隔設定テーブル2500の構成を示す図である。
なお、上記実施形態においては、オブジェクト検出とオブジェクト解析とを分離して、オブジェクト検出は他のオブジェクトとの識別に限定して説明したが、検索対象のオブジェクトに関する概要情報が既にある場合には、オブジェクト検出時にオブジェクトの属性も検出すると、オブジェクト解析処理の負荷低減および処理時間短縮となる。例えば、人物の服装の色や模様、あるいは携帯物なども考慮した人物検出を行なうと、服装の違うあるいは携帯物を持たない人物は解析から削除できるので、解析処理時間を短縮できる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
を備える映像処理装置。
(付記2)
前記再生フレーム選定手段は、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記1に記載の映像処理装置。
(付記3)
前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記2に記載の映像処理装置。
(付記4)
前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記2に記載の映像処理装置。
(付記5)
前記再生フレーム選定手段は、
前記オブジェクトのサイズを取得する取得手段を有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記2乃至4のいずれか1項に記載の映像処理装置。
(付記6)
前記再生フレーム選定手段は、
前記オブジェクトの移動速度を算出する算出手段を有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記2乃至5のいずれか1項に記載の映像処理装置。
(付記7)
前記再生フレーム選定手段は、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記2乃至6のいずれか1項に記載の映像処理装置。
(付記8)
前記再生フレーム選定手段は、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記7に記載の映像処理装置。
(付記9)
前記再生フレーム選定手段は、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記7または8に記載の映像処理装置。
(付記10)
前記再生フレーム選定手段は、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記7乃至9のいずれか1項に記載の映像処理装置。
(付記11)
前記オブジェクトは人物または車両を含む付記1乃至10のいずれか1項に記載の映像処理装置。
(付記12)
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
を含む映像処理方法。
(付記13)
前記再生フレーム選定ステップにおいては、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記12に記載の映像処理方法。
(付記14)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記13に記載の映像処理方法。
(付記15)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記13に記載の映像処理方法。
(付記16)
前記再生フレーム選定ステップは、
前記オブジェクトのサイズを取得する取得ステップを有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記13乃至15のいずれか1項に記載の映像処理方法。
(付記17)
前記再生フレーム選定ステップは、
前記オブジェクトの移動速度を算出する算出ステップを有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記13乃至16のいずれか1項に記載の映像処理方法。
(付記18)
前記再生フレーム選定ステップにおいては、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記13乃至17のいずれか1項に記載の映像処理方法。
(付記19)
前記再生フレーム選定ステップにおいては、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記18に記載の映像処理方法。
(付記20)
前記再生フレーム選定ステップにおいては、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記18または19に記載の映像処理方法。
(付記21)
前記再生フレーム選定ステップにおいては、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記18乃至20のいずれか1項に記載の映像処理方法。
(付記22)
前記オブジェクトは人物または車両を含む付記12乃至21のいずれか1項に記載の映像処理方法。
(付記23)
蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
をコンピュータに実行させる映像処理プログラム。
(付記24)
前記再生フレーム選定ステップにおいては、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、付記23に記載の映像処理プログラム。
(付記25)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、付記24に記載の映像処理プログラム。
(付記26)
前記再生フレーム選定ステップにおいては、前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、付記24に記載の映像処理プログラム。
(付記27)
前記再生フレーム選定ステップは、
前記オブジェクトのサイズを取得する取得ステップを有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記24乃至26のいずれか1項に記載の映像処理プログラム。
(付記28)
前記再生フレーム選定ステップは、
前記オブジェクトの移動速度を算出する算出ステップを有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する付記24乃至27のいずれか1項に記載の映像処理プログラム。
(付記29)
前記再生フレーム選定ステップにおいては、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する付記24乃至28のいずれか1項に記載の映像処理プログラム。
(付記30)
前記再生フレーム選定ステップにおいては、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する付記29に記載の映像処理プログラム。
(付記31)
前記再生フレーム選定ステップにおいては、検出された前記オブジェクトに対応して前記第1時間間隔を調整する付記29または30に記載の映像処理プログラム。
(付記32)
前記再生フレーム選定ステップにおいては、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する付記29乃至31のいずれか1項に記載の映像処理プログラム。
(付記33)
前記オブジェクトは人物または車両を含む付記23乃至32のいずれか1項に記載の映像処理プログラム。
Claims (13)
- 蓄積された映像中の、選定されたフレームを再生する映像再生手段と、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定手段と、
前記オブジェクト検出手段が検出した前記検索対象のオブジェクトを解析するオブジェクト解析手段と、
を備える映像処理装置。 - 前記再生フレーム選定手段は、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出してない場合、前記オブジェクトがフレーム中を通過する第1時間間隔だけスキップした後のフレームを次の再生フレームとして選定し、
前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した場合、前記第1時間間隔より短い、前記オブジェクトの解析に必要とする第2時間間隔で次の再生フレームを選定する、請求項1に記載の映像処理装置。 - 前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記第1時間間隔もしくは前記第1時間間隔の半分の時間間隔だけ戻ったフレームを次の再生フレームとして選定する、請求項2に記載の映像処理装置。
- 前記再生フレーム選定手段は、前記オブジェクト検出手段が前記検索対象のオブジェクトを検出した時点では、前記検出したオブジェクトのフレーム内の位置と前記検出したオブジェクトの向きとから前記フレームにオブジェクトが現われてからの経過時間を予測して、前記経過時間だけ戻ったフレームを次の再生フレームとして選定する、請求項2に記載の映像処理装置。
- 前記再生フレーム選定手段は、
前記オブジェクトのサイズを取得する取得手段を有し、
前記オブジェクトのサイズに対応して前記第2時間間隔を変更して、次の再生フレームを選定する請求項2乃至4のいずれか1項に記載の映像処理装置。 - 前記再生フレーム選定手段は、
前記オブジェクトの移動速度を算出する算出手段を有し、
前記オブジェクトの移動速度に対応して前記第2時間間隔を変更して、次の再生フレームを選定する請求項2乃至5のいずれか1項に記載の映像処理装置。 - 前記再生フレーム選定手段は、前記第1時間間隔を前記オブジェクトがフレーム内に映っている領域を通過するのにかかる時間の分布の統計量に基づいて算出する請求項2乃至6のいずれか1項に記載の映像処理装置。
- 前記再生フレーム選定手段は、前記映像の場所または前記映像を撮像する時間帯に対応して前記第1時間間隔を調整する請求項7に記載の映像処理装置。
- 前記再生フレーム選定手段は、検出された前記オブジェクトに対応して前記第1時間間隔を調整する請求項7または8に記載の映像処理装置。
- 前記再生フレーム選定手段は、他の位置で撮像された第1映像中に前記オブジェクトが検出された場合に、該オブジェクトが第2映像中に現われる時刻を推定して、前記時刻までスキップした後のフレームを次の再生フレームとして選定する請求項7乃至9のいずれか1項に記載の映像処理装置。
- 前記オブジェクトは人物または車両を含む請求項1乃至10のいずれか1項に記載の映像処理装置。
- 蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
を含む映像処理方法。 - 蓄積された映像中の、選定されたフレームを再生する映像再生ステップと、
前記再生されたフレームから検索対象のオブジェクトを検出するオブジェクト検出ステップと、
前記オブジェクト検出ステップにおいて前記検索対象のオブジェクトを検出したか否かに対応して、次に再生するフレームを選定する再生フレーム選定ステップと、
前記オブジェクト検出ステップにおいて検出した前記検索対象のオブジェクトを解析するオブジェクト解析ステップと、
をコンピュータに実行させる映像処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013173166 | 2013-08-23 | ||
JP2013173166 | 2013-08-23 | ||
PCT/JP2014/070548 WO2015025705A1 (ja) | 2013-08-23 | 2014-08-05 | 映像処理装置、映像処理方法および映像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015025705A1 true JPWO2015025705A1 (ja) | 2017-03-02 |
JP6432513B2 JP6432513B2 (ja) | 2018-12-05 |
Family
ID=52483485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015532796A Active JP6432513B2 (ja) | 2013-08-23 | 2014-08-05 | 映像処理装置、映像処理方法および映像処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6432513B2 (ja) |
WO (1) | WO2015025705A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6729793B2 (ja) * | 2017-03-30 | 2020-07-22 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
CN111416916B (zh) * | 2019-01-04 | 2022-07-26 | 瑞昱半导体股份有限公司 | 物件位置判断电路 |
JP2020135034A (ja) * | 2019-02-13 | 2020-08-31 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
CN110381322B (zh) * | 2019-07-15 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 视频流解码方法、装置、终端设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005295426A (ja) * | 2004-04-05 | 2005-10-20 | Mitsubishi Electric Corp | 映像情報記録装置および映像情報記録方法ならびに映像情報再生装置および映像情報再生方法 |
JP2009200827A (ja) * | 2008-02-21 | 2009-09-03 | Toshiba Corp | 電子機器および画像表示方法 |
JP2010045765A (ja) * | 2008-07-17 | 2010-02-25 | Canon Inc | 再生装置 |
JP2011078029A (ja) * | 2009-10-01 | 2011-04-14 | Sony Corp | 電子機器、コンテンツ再生方法及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3424204B2 (ja) * | 1999-07-23 | 2003-07-07 | インターナショナル・ビジネス・マシーンズ・コーポレーション | オブジェクトの軌跡を利用したビデオ・コンテンツへのアクセス方法及び装置 |
-
2014
- 2014-08-05 WO PCT/JP2014/070548 patent/WO2015025705A1/ja active Application Filing
- 2014-08-05 JP JP2015532796A patent/JP6432513B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005295426A (ja) * | 2004-04-05 | 2005-10-20 | Mitsubishi Electric Corp | 映像情報記録装置および映像情報記録方法ならびに映像情報再生装置および映像情報再生方法 |
JP2009200827A (ja) * | 2008-02-21 | 2009-09-03 | Toshiba Corp | 電子機器および画像表示方法 |
JP2010045765A (ja) * | 2008-07-17 | 2010-02-25 | Canon Inc | 再生装置 |
JP2011078029A (ja) * | 2009-10-01 | 2011-04-14 | Sony Corp | 電子機器、コンテンツ再生方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6432513B2 (ja) | 2018-12-05 |
WO2015025705A1 (ja) | 2015-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240112051A1 (en) | Machine learning models operating at different frequencies for autonomous vehicles | |
JP5976237B2 (ja) | 映像検索システム及び映像検索方法 | |
JP6213843B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP2020191646A (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6347211B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20180091741A1 (en) | Video surveillance system and video surveillance method | |
TW201724866A (zh) | 用於視訊處理之系統及方法 | |
JP6432513B2 (ja) | 映像処理装置、映像処理方法および映像処理プログラム | |
US8644553B2 (en) | Image display device, image display method, and image display program | |
JP6729793B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP6615800B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11120838B2 (en) | Information processing apparatus, control method, and program | |
JP7459916B2 (ja) | 物体追跡方法、物体追跡装置、及びプログラム | |
JPWO2014050432A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
KR102072022B1 (ko) | 관심영역 기반의 영상요약 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체 | |
KR101979375B1 (ko) | 감시 영상의 객체 행동 예측 방법 | |
KR101256873B1 (ko) | 객체 추적 방법, 객체 추적 장치 및 이를 이용한 교통 감시 시스템 | |
WO2020213099A1 (ja) | オブジェクト検出・追跡装置、方法、およびプログラム記録媒体 | |
WO2015093687A1 (ko) | 데이터 처리 시스템 | |
EP4071728A1 (en) | Artificial intelligence model integration and deployment for providing a service | |
US20050128298A1 (en) | Method for following at least one object in a scene | |
CN112488069B (zh) | 一种目标搜索方法和装置及设备 | |
JP2012128693A (ja) | 映像処理装置、映像処理方法およびプログラム | |
JP7347481B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR102448710B1 (ko) | 딥러닝 기반 출차관리 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6432513 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |