JP2014206934A - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP2014206934A
JP2014206934A JP2013085283A JP2013085283A JP2014206934A JP 2014206934 A JP2014206934 A JP 2014206934A JP 2013085283 A JP2013085283 A JP 2013085283A JP 2013085283 A JP2013085283 A JP 2013085283A JP 2014206934 A JP2014206934 A JP 2014206934A
Authority
JP
Japan
Prior art keywords
processing
image
frame
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013085283A
Other languages
English (en)
Other versions
JP6098320B2 (ja
Inventor
広太郎 吉野
Kotaro Yoshino
広太郎 吉野
世紅 労
Shihong Lao
世紅 労
海虹 張
Haihong Zhang
海虹 張
剛 倉田
Tsuyoshi Kurata
剛 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2013085283A priority Critical patent/JP6098320B2/ja
Publication of JP2014206934A publication Critical patent/JP2014206934A/ja
Application granted granted Critical
Publication of JP6098320B2 publication Critical patent/JP6098320B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】マルチスレッド方式による動画像に撮像されているオブジェクトの追跡にかかる処理において、マージ処理が効率的に行え、処理時間を十分に短縮する技術を提供する。
【解決手段】フレーム画像抽出部41は、入力された動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出する。分割処理部43は、フレーム画像抽出部41が抽出した複数のフレーム画像について、オブジェクト数検出部42が検出したオブジェクトの個数に基づき、入力された動画像を複数の処理ブロックに分割する。オブジェクト追跡部44は、分割処理部43が分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡する。マージ処理部45は、分割処理部43が分割した複数の処理ブロックについて、オブジェクト追跡部44がマルチスレッドで処理したオブジェクトの追跡結果を統合する。
【選択図】図2

Description

この発明は、ビデオカメラ等で撮像した動画像を処理し、撮像されているオブジェクトの検出や追跡を行う画像処理にかかる技術に関する。
従来、ビデオカメラ等で撮像した動画像を処理し、撮像されているオブジェクト(人や車両等の移動体)を追跡することが行われている(例えば、特許文献1等参照)。動画像によるオブジェクトの追跡は、動画像を構成するフレーム画像毎に、そのフレーム画像に撮像されているオブジェクトを検出し、時間的に連続するフレーム画像間で撮像されているオブジェクト(検出したオブジェクト)を同定することにより行っている。
また、オブジェクトの追跡を、動画像を構成するフレーム画像毎に、オブジェクトの検出、および検出したオブジェクトの同定を繰り返す逐次処理で行うと、その処理時間が長くなる。そこで、この処理時間を短縮するために、動画像を予め定めたフレーム数で処理ブロックに分割し、複数のコアを有するCPUや複数のPCを結合したPCクラスタ等で、分割した処理ブロックをマルチスレッド方式で並行処理することが考えられている。
特開2002−133421号公報
しかしながら、上述のマルチスレッド方式では、時間的に連続する処理ブロック間で、追跡しているオブジェクトを同定する(処理結果を統合する)マージ処理が必要になる。このマージ処理は、同定するオブジェクトの個数が多くなるにつれて、その処理時間が長くなる。
このため、マルチスレッド方式による動画像に撮像されているオブジェクトを追跡する処理において、マージ処理を効率的に行い、処理時間を短縮する技術が要望されている。
この発明の目的は、マルチスレッド方式による動画像に撮像されているオブジェクトの追跡にかかる処理において、マージ処理が効率的に行え、処理時間を十分に短縮することができる技術を提供することにある。
この発明の画像処理装置は、上述の目的を達するために、以下のように構成している。
フレーム画像抽出部は、入力された動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出する。この動画像は、例えばビデオカメラで撮像した動画像である。フレーム画像抽出部におけるフレーム抽出間隔は、例えば数フレーム〜数十フレーム程度である。ただし、フレーム抽出間隔は、上記の範囲外に設定してもよいことはいうまでもない。また、フレーム抽出間隔は、動画像からサンプル的に抽出したフレーム画像に撮像されているオブジェクトの個数に応じて定める構成としてもよい。また、この場合、フレーム抽出間隔は、撮像されているオブジェクトの個数に応じて、動的に変化させてもよい。
分割処理部は、入力された動画像を複数の処理ブロックに分割する。オブジェクト追跡部は、分割処理部が分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡する。マージ処理部は、分割処理部が分割した複数の処理ブロックについて、オブジェクト追跡部がマルチスレッドで処理したオブジェクトの追跡結果を統合する。
また、この画像処理装置は、フレーム画像抽出部が抽出した複数のフレーム画像について、そのフレーム画像に撮像されているオブジェクトの個数を検出するオブジェクト数検出部を備えている。そして、分割処理部は、フレーム画像抽出部が抽出した複数のフレーム画像について、オブジェクト数検出部が検出したオブジェクトの個数に基づき、入力された動画像を複数の処理ブロックに分割する。
例えば、分割処理部は、入力された動画像において、撮像されているオブジェクトの個数が予め定めた値以上である箇所を、それ以外の箇所よりもフレーム数を多くした処理ブロックに分割する。これにより、時間的に連続する処理ブロック間で処理結果を統合するマージ処理において、同定するオブジェクトの個数が比較的多いマージ処理の回数が抑えられる。これにより、マルチスレッド方式による動画像に撮像されているオブジェクトを追跡する処理において、マージ処理にかかる処理時間を短縮することができる。
また、オブジェクト数検出部は、フレーム画像抽出部が抽出した複数のフレーム画像について検出した撮像されているオブジェクトの個数に基づき、入力された動画像における撮像されているオブジェクトの個数の変動を推定する構成としてもよい。このようにすれば、オブジェクト数検出部が撮像されているオブジェクトの個数を検出するフレーム画像を抑えることができ、動画像に撮像されているオブジェクトの追跡にかかる処理が一層効率的に行える。この場合、分割処理部は、オブジェクト数検出部が推定した、入力された動画像における撮像されているオブジェクトの個数の変動に基づき、この動画像を複数の処理ブロックに分割すればよい。
また、分割処理部は、動画像入力部に入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させる構成としてもよい。
このように構成すれば、時間的に連続する処理ブロック間でのマージ処理において、同じフレーム画像を用いてオブジェクトを同定することができる。したがって、オブジェクトの同定にかかる処理を簡単にすることができるとともに、オブジェクトの同定精度の低下を抑えることができるので、オブジェクトの追跡が適正に行える。
また、この発明にかかる画像処理装置は、入力された動画像を、複数の処理ブロックに分割する分割処理部と、この分割処理部が分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡部と、このオブジェクト追跡部がマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理部と、を備え、分割処理部が、入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させる、構成としてもよい。この構成でも、上述したように、時間的に連続する処理ブロック間でのマージ処理において、同じフレーム画像を用いてオブジェクトを同定することができる。したがって、オブジェクトの同定にかかる処理を簡単にすることができるので、マージ処理にかかる処理時間を短縮することができる。また、上述したように、オブジェクトの同定精度の低下を抑えることができるので、オブジェクトの追跡が適正に行える。
また、この発明にかかる画像処理方法は、上述した画像処理装置が備える各部の機能をコンピュータで実行する発明である。
また、この発明にかかる画像処理プログラムは、上述した画像処理装置が備える各部の機能をコンピュータに実行させる発明である。
この発明によれば、マルチスレッド方式による動画像に撮像されているオブジェクトの追跡にかかる処理において、マージ処理が効率的に行え、処理時間を十分に短縮することができる。
画像処理装置の主要部の構成を示すブロック図である。 画像処理プロセッサの機能構成を示すブロック図である。 画像処理プロセッサの動作を示すフローチャートである。 フレーム画像抽出処理を説明する図である。 処理負荷量判断処理を説明する図である。 処理負荷量変動推定処理を説明する図である。 分割処理を説明する図である。 オブジェクトマップを示す図である。 別の例にかかる画像処理プロセッサの機能構成を示すブロック図である。 別の例にかかる画像処理プロセッサの動作を示すフローチャートである。
以下、この発明の実施形態である画像処理装置について説明する。
図1は、この例にかかる画像処理装置の主要部の構成を示すブロック図である。この画像処理装置1は、画像入力部2と、動画像記憶部3と、画像処理プロセッサ4と、出力部5と、を備えている。この画像処理装置1は、この発明にかかる画像処理プログラムをインストールしたパーソナルコンピュータ(PC)で実現できる。この画像処理プログラムを実行するコンピュータは、この例では画像処理プロセッサ4である。また、この発明にかかる画像処理方法を実行するコンピュータも、同様に、この例では画像処理プロセッサ4である。
この例では、画像入力部2には、ビデオカメラ10が接続されている。ビデオカメラ10の撮像エリアは、オブジェクトの検出、および検出したオブジェクトの移動を追跡する監視エリアである。画像入力部2には、ビデオカメラ10が撮像した撮像エリアの動画像が入力される。ビデオカメラ10が画像入力部2に入力する動画像は、1秒間に10〜30フレームである。追跡対象のオブジェクトは、人や車両等の移動体だけでなく、放置された物体(非移動体)も含む。ただし、撮像エリア内(監視エリア内)に位置する、ベンチ、柵、ごみ箱等の設置物は背景であり、追跡対象のオブジェクトではない。
なお、画像入力部2に接続される機器は、上述のビデオカメラ10に限らず、動画像を記録した記録メディア等であってもよい。
動画像記憶部3は、画像入力部2に入力された動画像を記録するハードディスク等の記録媒体である。画像入力部2に入力された動画像は、公知のMPEG2等で圧縮して動画像記憶部3に記録される。
画像処理プロセッサ4は、動画像記憶部3に記憶している動画像、すなわち画像入力部2に入力された動画像、を処理し、撮像されているオブジェクトの検出や、追跡にかかる処理(以下、追跡処理と言う。)を行う。この画像処理プロセッサ4が、この発明で言う、フレーム画像抽出部、オブジェクト数検出部、分割処理部、オブジェクト追跡部、およびマージ処理部に相当する構成を有する。
出力部5は、画像処理プロセッサ4におけるオブジェクトの検出や、追跡にかかる処理結果を上位装置に出力する。
なお、この画像処理装置1は、画像入力部2、動画像記憶部3、画像処理プロセッサ4、出力部5等の各部を制御する主制御部(不図示)を備えている。
図2は、画像処理プロセッサの機能構成を示すブロック図である。画像処理プロセッサ4は、フレーム画像抽出部41と、オブジェクト数検出部42と、分割処理部43と、オブジェクト追跡部44と、マージ処理部45と、を備えている。
フレーム画像抽出部41は、画像入力部2に入力され、動画像記憶部3に記憶している処理対象の動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出する。このフレーム抽出間隔は、数フレーム〜数十フレームである。ここで抽出されるフレーム画像の時間間隔は、数百ms〜1s程度である。ただし、フレーム抽出間隔は、上記の範囲外に設定してもよいことはいうまでもない。また、フレーム抽出間隔は固定値であってもよいし、変動値であってもよい。また、フレーム抽出間隔は、動画像からサンプル的に抽出したフレーム画像に撮像されているオブジェクトの個数に応じて定める構成としてもよい。この場合、フレーム抽出間隔は、撮像されているオブジェクトの個数に応じて、動的に変化させてもよい。
オブジェクト数検出部42は、フレーム画像抽出部41が抽出したフレーム画像に対して、そのフレーム画像に撮像されているオブジェクトの個数を検出する。また、オブジェクト数検出部42は、抽出した複数のフレーム画像について検出したオブジェクトの個数に基づき、処理対象である動画像に撮像されているオブジェクトの個数の変動(時間経過にともなう変動)を推定する。この推定精度は、上述のフレーム抽出間隔を小さくすれば向上できるが、処理時間が長くなる。したがって、上述のフレーム抽出間隔は、この推定精度と、処理時間を考慮して決定している。ここでは、フレーム抽出間隔を4フレームとして場合を例にして説明する。
分割処理部43は、オブジェクト数検出部42が推定した処理対象である動画像における処理負荷の大きさの変動に基づいて、処理対象である動画像を複数のフレーム画像からなる処理ブロックに分割する。処理ブロックのフレーム数は、一定ではない。また、処理ブロックは、時間的に連続するフレーム画像で構成される。さらに、時間的に連続する処理ブロックには、同じフレーム画像が含まれている。
オブジェクト追跡部44は、複数のコアを備え、分割処理部43が分割した処理ブロックをマルチスレッド方式で並行処理する。図2では、4つのコア(コアA、コアB、コアC、およびコアD)を図示したが、オブジェクト追跡部44が備えるコアの数は2つ以上であればいくつであってもよい。オブジェクト追跡部44は、分割された処理ブロック単位で、各コア(コアA〜コアD)が撮像されているオブジェクトの追跡処理を行う。
マージ処理部45は、オブジェクト追跡部44の各コア(コアA〜コアD)が分割された処理ブロック単位で行ったオブジェクトの追跡結果を統合するマージ処理を行う。
以下、この例にかかる画像処理装置1の動作について詳細に説明する。画像処理装置1は、処理対象の動画像を動画像記憶部3に記憶している。
図3は、画像処理プロセッサの動作を示すフローチャートである。画像処理プロセッサ4は、フレーム画像抽出部41において動画像記憶部3に記憶している処理対象の動画像にかかるフレーム画像を予め定めたフレーム抽出間隔で抽出するフレーム画像抽出処理を行う(s1)。図4は、mフレーム(F1〜Fm)で構成されている処理対象の動画像から、予め定めたフレーム抽出間隔でフレーム画像を抽出する例を示している。図4に示す例では、フレーム抽出間隔は4フレームである。
フレーム抽出間隔が固定値である場合、予め設定しているフレーム抽出間隔をxフレームとすると、処理対象の動画像における(a×x)番目のフレーム画像を抽出する。ただし、aは自然数である。このs1で抽出されるフレーム画像(以下、抽出フレームと言う。)のフレーム数は、この例では、m/4(小数点以下切り捨て。)である。
なお、この例ではフレーム抽出間隔を固定値(4フレーム)にしているが、変動値にしてもよい。
画像処理プロセッサ4は、オブジェクト数検出部42において、s1で抽出した抽出フレーム毎に、そのフレーム画像に撮像されているオブジェクトの個数を検出するオブジェクト数検出処理を行う(s2)。s2は、公知のパターンマッチングや背景差分等で撮像されているオブジェクトを検出し、撮像されているオブジェクトの個数を得る処理である。このs2にかかる処理は、撮像されているオブジェクトの個数を得ることができればよいので、撮像されているオブジェクトの属性(形状等の特徴量)まで検出する必要はない。
図5では、撮像されているオブジェクトが2であるフレーム画像(フレームFn)、撮像されているオブジェクトが5であるフレーム画像(フレームFn+4)、および、撮像されているオブジェクトが3であるフレーム画像(フレームFn+8)を図示している。
画像処理プロセッサ4は、オブジェクト数検出部42において、s2で検出した各抽出フレームに撮像されているオブジェクトの個数に基づき、処理対象の動画像に撮像されているオブジェクトの個数の変動を推定するオブジェクト数変動推定処理を行う(s3)。s3では、図6に示すように、処理対象の動画像全体に渡って、フレーム画像に撮像されているオブジェクトの数の変動を推定する処理である。すなわち、抽出フレームに対する撮像されているオブジェクトの個数の検出結果に基づき、抽出フレーム以外のフレーム画像について、撮像されているオブジェクトの個数を推定する処理である。
s3にかかるオブジェクト数変動推定処理の推定精度は、上述のフレーム抽出間隔を小さくすることで向上できるが、その処理時間(s1〜s3(特に、s2)の処理にかかる時間)が長くなる。したがって、上述のフレーム抽出間隔は、s1〜s3にかかる処理時間と、s3にかかるオブジェクト数変動推定処理の推定精度と、を考慮して定めればよい。
画像処理プロセッサ4は、分割処理部43において、s3で推定した処理対象の動画像における処理負荷量の大きさの変動に基づいて、この動画像を処理ブロックに分割する分割処理を行う(s4)。このs4にかかる分割処理では、まず、処理対象の動画像に対して分割点を決定する。
この分割点を決定する手法の例を以下に示す。
(1)分割処理部43は、この処理対象の動画像の先頭フレームから、予め定めたAフレーム毎に分割点を仮決定する。例えば、2フレーム毎に、分割点を仮決定する。分割処理部43は、仮決定した分割点毎に、その直後のフレーム画像に撮像されているオブジェクトの個数(s2での検出数、またはs3での推定値)が予め定めた個数(例えば5個)未満であれば、この分割点を本決定し、反対に、予め定めた個数(例えば5個)以上であれば、この分割点の仮決定を取り消す。これにより、撮像されているオブジェクトの個数が比較的多い(この例では、5個以上である)フレーム画像の直前に分割点が設定されることがない。
(2)また、上記(1)の例では、隣接する分割点間に位置するフレーム画像のフレーム数の差が大きくなることがある。後述するように、ここで決定した分割点に基づいて、動画像を処理ブロックに分割するので、分割した処理ブロック間で、処理負荷の差が大きくなる。このため、仮決定した分割点について、その仮決定を取り消すことができない制限を加えるのが好ましい。例えば、仮決定した分割点について、時間的に直前の分割点が取り消されている場合、この分割点を本決定する制限を設けるのが好ましい。これにより、隣接する分割点間に位置するフレーム画像のフレーム数の差が大きくなるのを防止できる。
なお、上述の仮決定を取り消すことができない分割点の制限は、隣接する分割点間に位置するフレーム画像のフレーム数を最大で2倍に抑える例であるが、3倍や4倍に抑える制限であってもよい。
(3)また、s3の処理結果に基づき、撮像されているオブジェクトの個数が予め定めた個数未満であるフレーム画像の直前に分割点を決定する。この場合、隣接する分割点の間に位置するフレーム画像のフレーム数の最小値(例えば、2フレーム(ただし、最小値は2フレーム以上))や、最大値(例えば、4フレーム)を設定しておき、この制限に基づいて分割点を決定するのが好ましい。
この分割点の決定は、分割点の直後のフレーム画像に撮像されているオブジェクトの個数が予め定めた個数以上である分割点の総数が、予め定めたAフレーム毎に分割点を決定した場合よりも少なくなる手法であれば、上記(1)〜(3)に示した方法以外であってもよい。
図7は、上記(2)の手法で決定した分割点を例示している。この図では、Fn+3と、Fn+4との間に仮決定された分割点が取り消されている。
分割処理部43は、処理対象の動画像に対して、図7に示す分割点を決定すると、分割点毎に、その直後のフレーム(分割開始フレーム)から、次の分割点の直後のフレーム(次の分割開始フレーム)までを、1つの処理ブロックとする分割を行う。したがって、この例では処理ブロックは、3フレーム、または5フレームで構成される。また、図7に示すように、時間的に連続する2つの処理ブロックは、一方の最終フレームと、他方の先頭フレームとが同じフレーム画像である。
図7では、時間的に連続する2つの処理ブロックに共通して含まれるフレームを、分割点直後のフレーム(分割開始フレーム)とした例を示したが、分割点直前のフレームにしてもよい。この場合、分割点毎に、その直前のフレームから、次の分割点の直前のフレームまでを、1つの処理ブロックとする分割を行えばよい。
画像処理プロセッサ4は、オブジェクト追跡部44において、オブジェクトの追跡処理を行う(s5)。オブジェクト追跡部44は、分割処理部43が分割した処理ブロックをマルチスレッド方式で並行処理する。具体的には、4つのコア(コアA、コアB、コアC、およびコアD)が、分割された処理ブロック単位で、撮像されているオブジェクトの追跡処理を行う。
この追跡処理では、各コアは、処理ブロックに含まれているフレーム画像毎に撮像されているオブジェクトを検出するとともに、検出したオブジェクト毎にフレーム画像上の位置を取得する。また、検出したオブジェクトをフレーム画像間で対応付け、オブジェクトマップを作成する。ここで作成するオブジェクトマップでは、検出したオブジェクト毎に、仮IDを付与している。例えば、コアAは、検出したオブジェクトに対して、A1、A2・・・等の仮IDを付与する。コアBは、検出したオブジェクトに対して、B1、B2・・・等の仮IDを付与する。コアCは、検出したオブジェクトに対して、C1、C2・・・等の仮IDを付与する。コアDは、検出したオブジェクトに対して、D1、D2・・・等の仮IDを付与する。
図8(A)は、コアAが図7に示すFn〜Fn+2までの処理ブロックに対する追跡処理で作成したオブジェクトマップを示す図である。また、図8(B)は、コアBが図7に示すFn+2〜Fn+6までの処理ブロックに対する追跡処理で作成したオブジェクトマップを示す図である。オブジェクトマップは、図8に示すように、検出したオブジェクトに付与した仮ID毎に、フレーム画像と、そのフレーム画像上の位置(座標)とを対応付けて登録したものである。図8に示すオブジェクトマップにおいて、その位置が示されていないオブジェクトは、当該フレーム画像に撮像されていなかったオブジェクトである。すなわち、図8において、仮IDがA4であるオブジェクトは、フレーム番号Fnのフレーム画像に撮像されていない。また、仮IDがA5であるオブジェクトは、フレーム番号Fn、およびフレーム番号Fn+1のフレーム画像に撮像されていない。また、仮IDがB3であるオブジェクトは、フレーム番号Fn+5、およびフレーム番号Fn+6のフレーム画像に撮像されていない。また、仮IDがB5であるオブジェクトは、フレーム番号Fn+6のフレーム画像に撮像されていない。
このように、オブジェクト追跡部44は、複数のコアによるマルチスレッドで分割した処理ブロックに撮像されているオブジェクトの追跡処理を行い、図8に示したオブジェクトマップを作成する。
画像処理プロセッサ4は、マージ処理部45において、各コアが作成したオブジェクトマップを統合するマージ処理を行う(s6)。s6では、時間的に連続する処理ブロックにかかるオブジェクトマップ間において、仮IDが付与されているオブジェクトを同定する処理である。具体的には、時間的に連続する処理ブロックにかかるオブジェクトマップには、共通するフレーム画像が含まれている。図8に示す例では、フレーム番号Fn+4が共通するフレーム画像である。このフレーム画像において、検出されているオブジェクトの位置がほぼ同じであるオブジェクトを、同一のオブジェクトとして同定する。例えば図8に示す例では、仮IDがA1であるオブジェクトと、仮IDがB5であるオブジェクトとを、同一のオブジェクトとして同定する。仮IDがA2であるオブジェクトと、仮IDがB3であるオブジェクトとを、同一のオブジェクトとして同定する。仮IDがA3であるオブジェクトと、仮IDがB2であるオブジェクトとを、同一のオブジェクトとして同定する。仮IDがA4であるオブジェクトと、仮IDがB4であるオブジェクトとを、同一のオブジェクトとして同定する。仮IDがA5であるオブジェクトと、仮IDがB1であるオブジェクトとを、同一のオブジェクトとして同定する。
このように、処理対象の動画像を処理ブロックに分割するときに、時間的に連続する処理ブロックに同じフレーム画像を含ませているので、s6にかかるマージ処理の精度を十分に確保できる。また、このマージ処理が比較的簡単な処理(検出位置の突き合わせる処理)で行えるので、マージ処理にかかる処理時間を一層短縮できる。
また、画像処理プロセッサ4は、このマージ処理で同定したオブジェクトに対して、本IDを付与することで、処理対象の動画像全体にわたって、撮像された各オブジェクトを区別したオブジェクトマップを構築できる。すなわち、処理対象の動画像全体にわたって、撮像されているオブジェクトの追跡結果を示すオブジェクトマップを得ることができる。
このように、この例にかかる画像処理装置1は、同定するオブジェクトの個数が比較的多いマージ処理の回数を抑えることができる。したがって、マルチスレッド方式による動画像に撮像されているオブジェクトの追跡にかかる処理において、マージ処理が効率的に行え、処理時間を十分に短縮することができる。
また、時間的に連続する処理ブロックに同じフレーム画像を含ませているので、マージ処理におけるオブジェクトの同定精度の低下を抑えることができる。また、このマージ処理が比較的簡単な処理で行えるので、マージ処理にかかる処理時間を一層短縮できる。
なお、上述した例における、s1〜s4、およびs6にかかる処理は、図2に示したいずれかのコアA〜Dが実行してもよいし、図示していない別のコアで実行してもよい。
また、画像処理プロセッサ4は、図9に示すように、上述のフレーム画像抽出部41、およびオブジェクト数検出部42を備えていない構成であってもよい。
この場合、画像処理プロセッサ4は、図10に示す処理を行えばよい。画像処理プロセッサ4は、分割処理部43において、処理対象の動画像の先頭フレームから、予め定めたAフレーム毎に分割点を決定する(s11)。画像処理プロセッサ4は、オブジェクト追跡部44において、オブジェクトの追跡処理を行う(s12)。画像処理プロセッサ4は、マージ処理部45において、各コアが作成したオブジェクトマップを統合するマージ処理を行う(s13)。
s12は、上述のs5と同じ処理であり、s13は上述のs6と同じ処理である。
この例では、処理対象の動画像に対して分割点が均等に決定されるので、上述の例のように、同定するオブジェクトの個数が比較的多いマージ処理の回数を抑えることはできない。しかしながら、処理対象の動画像を処理ブロックに分割するときに、時間的に連続する処理ブロックに同じフレーム画像を含ませているので、上述したように、s13にかかるマージ処理の精度を十分に確保できる。また、このマージ処理が比較的簡単な処理で行えるので、マージ処理にかかる処理時間を一層短縮できる。
なお、上記の例では、複数のコアを備える画像処理プロセッサ4で、分割処理部43が分割した処理ブロックをマルチスレッド方式で並行処理する構成としたが、複数のPCを結合したPCクラスタで、分割処理部43が分割した処理ブロックをマルチスレッド方式で並行処理する構成としてもよい。
1…画像処理装置
2…画像入力部
3…動画像記憶部
4…画像処理プロセッサ
5…出力部
41…フレーム画像抽出部
42…オブジェクト数検出部
43…分割処理部
44…オブジェクト追跡部
45…マージ処理部

Claims (9)

  1. 入力された動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出するフレーム画像抽出部と、
    前記フレーム画像抽出部が抽出した複数のフレーム画像について、撮像されているオブジェクトの個数を検出するオブジェクト数検出部と、
    前記フレーム画像抽出部が抽出した複数のフレーム画像について、前記オブジェクト数検出部が検出したオブジェクトの個数に基づき、入力された動画像を複数の処理ブロックに分割する分割処理部と、
    前記分割処理部が分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡部と、
    前記分割処理部が分割した複数の処理ブロックについて、前記オブジェクト追跡部がマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理部と、を備えた画像処理装置。
  2. 前記分割処理部は、入力された動画像において、撮像されているオブジェクトの個数が予め定めた値以上である箇所を、それ以外の箇所よりもフレーム数を多くした処理ブロックに分割する、請求項1に記載の画像処理装置。
  3. 前記オブジェクト数検出部は、前記フレーム画像抽出部が抽出した複数のフレーム画像について検出した撮像されているオブジェクトの個数に基づき、入力された動画像における撮像されているオブジェクトの個数の変動を推定し、
    前記分割処理部は、前記オブジェクト数検出部が推定した、入力された動画像における撮像されているオブジェクトの個数の変動に基づき、この動画像を複数の処理ブロックに分割する、請求項1、または2に記載の画像処理装置。
  4. 前記分割処理部は、前記動画像入力部に入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させる、請求項1〜3のいずれかに記載の画像処理装置。
  5. 入力された動画像を、複数の処理ブロックに分割する分割処理部と、
    前記分割処理部が分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡部と、
    前記分割処理部が分割した複数の処理ブロックについて、前記オブジェクト追跡部がマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理部と、を備え、
    前記分割処理部は、入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させる、画像処理装置。
  6. コンピュータが、
    入力された動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出するフレーム画像抽出ステップと、
    前記フレーム画像抽出ステップで抽出した複数のフレーム画像について、撮像されているオブジェクトの個数を検出するオブジェクト数検出ステップと、
    前記フレーム画像抽出ステップで抽出した複数のフレーム画像について、前記オブジェクト数検出ステップで検出したオブジェクトの個数に基づき、入力された動画像を複数の処理ブロックに分割する分割処理ステップと、
    前記分割処理ステップで分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡ステップと、
    前記分割処理ステップで分割した複数の処理ブロックについて、前記オブジェクト追跡ステップにおいてマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理ステップと、を実行する画像処理方法。
  7. コンピュータが、
    入力された動画像を、複数の処理ブロックに分割する分割処理ステップと、
    前記分割処理ステップで分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡ステップと、
    前記分割処理ステップで分割した複数の処理ブロックについて、前記オブジェクト追跡ステップにおいてマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理ステップと、を実行し、
    前記分割処理ステップが、入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させるステップである、画像処理方法。
  8. コンピュータに、
    入力された動画像にかかるフレーム画像を、予め定めたフレーム抽出間隔で抽出するフレーム画像抽出ステップと、
    前記フレーム画像抽出ステップで抽出した複数のフレーム画像について、撮像されているオブジェクトの個数を検出するオブジェクト数検出ステップと、
    前記フレーム画像抽出ステップで抽出した複数のフレーム画像について、前記オブジェクト数検出ステップで検出したオブジェクトの個数に基づき、入力された動画像を複数の処理ブロックに分割する分割処理ステップと、
    前記分割処理ステップで分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡ステップと、
    前記分割処理ステップで分割した複数の処理ブロックについて、前記オブジェクト追跡ステップにおいてマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理ステップと、を実行させる画像処理プログラム。
  9. コンピュータに、
    入力された動画像を、複数の処理ブロックに分割する分割処理ステップと、
    前記分割処理ステップで分割した複数の処理ブロックをマルチスレッドで処理し、この動画像に撮像されているオブジェクトを追跡するオブジェクト追跡ステップと、
    前記分割処理ステップで分割した複数の処理ブロックについて、前記オブジェクト追跡ステップにおいてマルチスレッドで処理したオブジェクトの追跡結果を統合するマージ処理ステップと、を実行させ、
    前記分割処理ステップが、入力された動画像を処理ブロックに分割するとき、時間的に連続する処理ブロックに共通するフレーム画像を存在させるステップである、画像処理プログラム。
JP2013085283A 2013-04-15 2013-04-15 画像処理装置、画像処理方法、および画像処理プログラム Expired - Fee Related JP6098320B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085283A JP6098320B2 (ja) 2013-04-15 2013-04-15 画像処理装置、画像処理方法、および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085283A JP6098320B2 (ja) 2013-04-15 2013-04-15 画像処理装置、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014206934A true JP2014206934A (ja) 2014-10-30
JP6098320B2 JP6098320B2 (ja) 2017-03-22

Family

ID=52120416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085283A Expired - Fee Related JP6098320B2 (ja) 2013-04-15 2013-04-15 画像処理装置、画像処理方法、および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6098320B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110637323A (zh) * 2017-07-18 2019-12-31 索尼公司 通过使用基于部分的关键帧和先验模型进行鲁棒网格跟踪和融合
KR102470916B1 (ko) * 2021-10-25 2022-11-25 (주)블라우비트 객체 추적이 가능한 인공지능 기반의 촬영 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221920A (ja) * 2010-04-13 2011-11-04 Mitsubishi Electric Corp 画像解析装置
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221920A (ja) * 2010-04-13 2011-11-04 Mitsubishi Electric Corp 画像解析装置
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110637323A (zh) * 2017-07-18 2019-12-31 索尼公司 通过使用基于部分的关键帧和先验模型进行鲁棒网格跟踪和融合
CN110637323B (zh) * 2017-07-18 2023-04-11 索尼公司 基于部分的跟踪的方法、设备和系统
KR102470916B1 (ko) * 2021-10-25 2022-11-25 (주)블라우비트 객체 추적이 가능한 인공지능 기반의 촬영 장치 및 그 제어 방법

Also Published As

Publication number Publication date
JP6098320B2 (ja) 2017-03-22

Similar Documents

Publication Publication Date Title
KR101457313B1 (ko) 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
US20150146006A1 (en) Display control apparatus and display control method
JP6616521B2 (ja) 画像処理装置
KR101969623B1 (ko) 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식
US20190333204A1 (en) Image processing apparatus, image processing method, and storage medium
JP6944405B2 (ja) 建築物判定システム
US20200242780A1 (en) Image processing apparatus, image processing method, and storage medium
JP2011258180A5 (ja)
JP2019133306A (ja) 画像処理装置及び画像処理方法
JP6777150B2 (ja) 劣化検出装置、劣化検出方法、及びプログラム
JP2018045302A (ja) 情報処理装置、情報処理方法及びプログラム
JP6098320B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP7176590B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015226326A (ja) 映像解析方法及び映像解析装置
JP5441151B2 (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2015026117A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体
JP5412984B2 (ja) フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム
WO2014122879A1 (ja) 解析処理システム
CN106375654B (zh) 用于控制网络相机的设备和方法
US20190098330A1 (en) Coding apparatus, coding method, and recording medium
JP5699856B2 (ja) 動画像処理装置、動画像処理方法及び動画像処理用コンピュータプログラム
JP2017138659A (ja) 物体追跡方法、物体追跡装置、およびプログラム
US20150066840A1 (en) Analysis system
WO2016139804A1 (ja) 画像登録装置、画像検索システム、画像を登録する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6098320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees