JP2020021243A - 画像処理装置、画像処理方法、および、画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および、画像処理プログラム Download PDF

Info

Publication number
JP2020021243A
JP2020021243A JP2018143925A JP2018143925A JP2020021243A JP 2020021243 A JP2020021243 A JP 2020021243A JP 2018143925 A JP2018143925 A JP 2018143925A JP 2018143925 A JP2018143925 A JP 2018143925A JP 2020021243 A JP2020021243 A JP 2020021243A
Authority
JP
Japan
Prior art keywords
attribute
image
mesh
divided
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018143925A
Other languages
English (en)
Other versions
JP7130488B2 (ja
Inventor
陽二郎 神瀬
Yojiro Kamise
陽二郎 神瀬
大西 弘之
Hiroyuki Onishi
弘之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2018143925A priority Critical patent/JP7130488B2/ja
Publication of JP2020021243A publication Critical patent/JP2020021243A/ja
Application granted granted Critical
Publication of JP7130488B2 publication Critical patent/JP7130488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】処理負荷を抑えつつ、画像の分割領域の属性を認識することのできる画像処理装置、画像処理方法、および、画像処理プログラムを提供する。【解決手段】画像処理装置100は、画像を複数のメッシュに分割する分割部112と、メッシュの特徴量の時系列情報122に基づき、メッシュの属性を認識する認識部115とを備える。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、および、画像処理プログラムに関する。
近年、画像を複数の領域に分割し、各領域で発生している事象をクラスとして分類する技術が提案されている。例えば特許文献1に記載の装置では、学習画像の各画素に対して意味的な領域のクラスラベルを割り振る。また、この装置では、学習画像を小領域に分割し、小領域に占める画素数が最も多いクラスラベルを、小領域のクラスラベルとして付与する。また、小領域に占める画素に二つのクラスラベルが混在しているときには、小領域を混在領域として判定する。また、小領域に付与されたクラスラベルに基づき、小領域のクラスを識別する小領域識別器を学習する。また、混在領域として判定された小領域に含まれる画素の情報に基づき、小領域を混在領域として判別する混在領域識別器を学習する。そして、未知の入力画像を小領域に分割した上で、小領域識別器及び混在領域識別器を適用することにより、小領域のクラスを分類したり、小領域を混在領域として判定したりする。
特開2017−117019号公報
しかしながら、上記文献に記載の装置では、いわゆるパターン認識の手法を用いて各領域のクラス分類を行っているため、処理負荷が大きくなってしまうという問題があった。
本発明は、このような実情に鑑みてなされたものであり、その目的は、処理負荷を抑えつつ、画像の分割領域の属性を認識することのできる画像処理装置、画像処理方法、および、画像処理プログラムを提供することにある。
上記課題を解決する画像処理装置は、画像を複数の分割領域に分割する分割部と、前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識部とを備える。
上記課題を解決する画像処理方法は、画像を複数の分割領域に分割する分割処理と、前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識処理とを含む。
上記課題を解決する画像処理プログラムは、コンピュータに、画像を複数の分割領域に分割する分割処理と、前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識処理とを実行させる。
上記構成によれば、分割領域の特徴量の時系列情報を用いているため、1つの画像フレームから画像の解析処理により分割領域に含まれる被写体の輪郭を抽出する等の処理が不要となる。そのため、処理負荷を抑えつつ、分割領域の属性を認識することができる。
上記画像処理装置において、前記認識部は、前記複数の分割領域の時系列情報の組み合わせに基づき、当該複数の分割領域の各々の属性を認識することが好ましい。
上記構成によれば、複数の分割領域の時系列情報を組み合わせることにより、分割領域の属性を高い精度をもって認識することができる。
上記画像処理装置において、前記複数の分割領域は、互いに隣接する分割領域を含むことが好ましい。
上記構成によれば、分割領域の属性の認識精度を更に高めることができる。
上記画像処理装置において、前記特徴量は、輝度、色、移動速度、移動方向、および、基準フレームとの類似度の少なくとも1つを含むことが好ましい。
上記構成によれば、分割領域の特徴量の時系列情報に基づき、分割領域の属性を認識することができる。
上記画像処理装置において、前記認識部は、前記複数の分割領域のうち、前記時系列情報が変化したと判定した分割領域の比率が所定値以上であるときには、画像の撮影環境が変動したと認識することが好ましい。
上記構成によれば、例えば、屋外を撮影しているときに、天気が晴れから曇りに変化した場合には、画像全体に影響が生じる。これにより、画像の撮影環境が変動したものと認識できる。
上記画像処理装置において、前記認識部は、画像の撮影環境が変動したと認識した場合には、基準フレームを更新することが好ましい。
上記構成によれば、画像の撮影環境が変動したときには、基準フレームを更新することにより、画像と基準フレームとの比較を通じて分割領域の属性を認識することができる。
上記画像処理装置において、前記分割領域の属性は、前記分割領域に含まれる被写体の属性を含み、前記認識部は、前記分割領域における所定の時間内の時系列情報に変化がないと判定した場合には、前記分割領域に含まれる被写体の属性が固定物であると認識することが好ましい。
上記構成によれば、分割領域の時系列情報の変化パターンに基づき、分割領域に含まれる被写体の属性を認識することができる。
上記画像処理装置において、前記分割領域の属性は、前記分割領域に含まれる被写体の属性を含み、前記認識部は、前記分割領域における所定の時間内の時系列情報が変化したと判定した場合には、前記分割領域に含まれる被写体の属性が動体であると認識することが好ましい。
上記構成によれば、分割領域の時系列情報の変化パターンに基づき、分割領域に含まれる被写体の属性を認識することができる。
上記画像処理装置において、前記分割領域の属性は、前記分割領域に含まれる背景の属性、および、前記分割領域に含まれる被写体の属性を含み、前記認識部は、前記分割領域の属性として前記分割領域の背景を認識した場合、当該分割領域の時系列情報に加えて、前記分割領域の背景に基づき、前記分割領域に含まれる被写体の属性を認識することが好ましい。
上記構成によれば、分割領域に含まれる背景の属性を考慮して、分割領域に含まれる被写体の属性を認識するため、被写体の認識精度を高めることができる。
上記画像処理装置において、前記分割部は、前記認識部が認識した前記分割領域の属性に基づき、前記分割領域を変更することが好ましい。
上記構成によれば、認識の対象となる被写体に応じて分割領域の大きさを変更することにより、より一層処理負荷を抑えつつ、分割領域に含まれる被写体の属性を認識することができる。
画像処理装置の第1の実施の形態の概略構成を示すブロック図。 撮影画像の画像内容の一例を示す模式図。 撮影画像の画像内容の一例を示す模式図。 (a)〜(c)は、分割領域の属性に対応する相関係数の時間推移の一例を示すグラフ。 同実施の形態の画像処理装置が実行する分割領域の属性の認識処理を示すフローチャート。 撮影画像の画像内容の一例を示す模式図。 (a)〜(c)は、分割領域の属性に対応する相関係数の時間推移の一例を示すグラフ。 画像処理装置の第2の実施の形態が実行する分割領域の属性の認識処理を示すフローチャート。 撮影環境の検出時における基準フレームの設定変更の一例を示す模式図。 分割領域の輝度の時間推移の一例を示すグラフ。 画像処理装置の第3の実施の形態が実行する分割領域の属性の認識処理を示すフローチャート。 撮影画像の画像内容の一例を示す模式図。 画像処理装置の第4の実施の形態が実行する分割領域の属性の認識処理を示すフローチャート。 (a)は、変更前のメッシュの分割態様の一例を示す模式図、(b)は、変更後のメッシュの分割態様の一例を示す模式図。 画像処理装置の第5の実施の形態が実行する分割領域の属性の認識処理を示すフローチャート。 分割領域の撮影範囲の大きさを推定するときの処理の流れを説明するための模式図。 分割領域の撮影範囲の大きさを推定するときの処理の流れを説明するための模式図。
(第1の実施の形態)
以下、画像処理装置の第1の実施の形態について図面を参照して説明する。
本実施の形態の画像処理装置は、屋外または屋内に設置されたカメラの動画像を画像フレーム毎に複数のメッシュ(分割領域)に分割し、各メッシュで発生している事象をメッシュの属性として認識する。メッシュの属性は、例えば、建物、道路、木などを含む。この装置では、各メッシュの特徴量を、画像フレームを取得する毎に抽出する。本実施の形態では、時系列情報の一例として相関係数を用いる。所定のタイミングで撮影された画像フレームを基準フレームとしたとき、新たに取得された画像フレームと基準フレームとの特徴量の相関係数を、画像フレームを取得する毎に算出する。そして、相関係数の時系列情報に基づき、メッシュの属性を認識し、その認識結果を外部に出力する。
図1に示すように、画像処理装置100は、メッシュの属性の認識処理を制御する制御部110と、制御部110がメッシュの属性の認識処理を実行する画像処理プログラムを含めた各種のプログラムや当該プログラムの実行の際に制御部110が読み書きする各種のデータを保存する記憶部120とを有するコンピュータである。記憶部120は、不揮発性のメモリであってもよいし、揮発性のメモリであってもよい。そして、制御部110は、記憶部120に保存された画像処理プログラムを実行することにより、画像取得部111、分割部112、特徴量抽出部113、時系列情報算出部114、認識部115、及び、出力部116として機能する。
画像取得部111は、カメラ10により撮影された動画像から画像フレームを取得する。
分割部112は、画像取得部111により取得された画像フレームを複数のメッシュに分割する。また、分割部112は、記憶部120から読み出した基準フレーム121を複数のメッシュに分割する。基準フレーム121は、動画像を構成する画像フレームのうち、所定のタイミングで記憶部120に保存された画像フレームである。所定のタイミングとは、例えば、動体を検知しなかったフレームが連続で複数存在する場合の、いずれかのフレームである。本実施の形態では、分割部112は、画像フレームまたは基準フレーム121を同一のサイズの格子状のメッシュに分割する。
特徴量抽出部113は、画像フレームまたは基準フレーム121の各メッシュから特徴量を抽出する。本実施の形態では、特徴量抽出部113は、各メッシュに含まれる各画素の画素値を特徴量の一例として抽出する。
時系列情報算出部114は、画像フレームの各メッシュの特徴量と基準フレーム121の各メッシュの特徴量とを対応するメッシュ毎に比較し、メッシュ同士の特徴量の相関係数を時系列情報として算出する。この場合、メッシュ同士の特徴量の相関係数が高いほど、基準フレーム121のメッシュと画像フレームのメッシュとの類似度が高いことを示す。時系列情報算出部114は、新たな画像フレームの特徴量が入力される毎に、メッシュ同士の特徴量の相関係数を算出し、相関係数の算出結果を時系列的に連続させた時系列情報122を記憶部120に保存する。
認識部115は、記憶部120に保存された各メッシュの時系列情報122に基づき、各メッシュの属性を認識する。そして、認識部115は、各メッシュの属性の認識結果を出力部116を通じて外部に出力する。
次に、画像フレームの各メッシュの属性を認識するときの処理の流れを、具体例を交えつつ説明する。
図2は、処理の対象となる画像フレームの画像内容の一例を示している。同図に示す例では、画像フレーム130は、屋外に設置されたカメラ10が撮影した動画像の画像フレームであって、建物A1、木A2、道路A3、空A4などの被写体を含む。
次いで、図3に示すように、画像フレームを時系列的に連続して撮影したとき、所定のタイミングで撮影された画像フレームを基準フレーム121として設定し、その後のタイミングで撮影された画像フレーム130を基準フレーム121と比較する。そして、画像フレーム130と基準フレーム121とのメッシュ毎の類似度を相関係数として算出する。
この場合、図4(a)に示すように、画像フレーム130のうち、建物A1の位置に対応するメッシュの相関係数は、高い値が維持される。これは、画像フレーム130のうち、建物A1の位置に対応する画素値は、時間の経過に伴う変化が小さく、画像フレーム130と基準フレーム121との類似度が高くなる傾向にあるためである。そのため、認識部115は、メッシュにおける所定の時間内の時系列情報122に変化がないと判定した場合には、メッシュに含まれる被写体の属性が固定物の一例である建物であると認識する。
また、図4(b)に示すように、画像フレーム130のうち、道路A3の位置に対応するメッシュの相関係数は、通常は高い値が維持されるものの、一時的に低い値を示すことがある。これは、画像フレーム130のうち、道路A3の位置に対応する画素値は、車両の通行が無いときには時間の経過に伴う変化が小さいものの、車両が通過するときには時間の経過に伴う変化が一時的に大きくなるためである。
また、図4(c)に示すように、画像フレーム130のうち、木A2の位置に対応するメッシュの相関係数は、周期的に増加および減少を繰り返す。これは、画像フレーム130のうち、木A2の位置に対応する画素値は、木の葉や枝が風により揺れたときには、時間の経過に伴って周期的な変化を示すためである。
次に、本実施の形態の画像処理装置100が実行する画像フレームのメッシュの属性の認識処理について、その具体的な処理内容を説明する。
図5に示すように、この画像フレームのメッシュの属性の認識処理ではまず、分割部112は、記憶部120に保存された基準フレーム121を複数のメッシュに分割する(ステップS10)。そして、特徴量抽出部113は、先のステップS10において分割した基準フレーム121の各メッシュから特徴量を抽出する(ステップS11)。続いて、画像取得部111は、カメラ10により撮影された撮影画像を取得する(ステップS12)。そして、分割部112は、先のステップS12において取得された撮影画像を複数のメッシュに分割する(ステップS13)。また、特徴量抽出部113は、先のステップS13において分割した撮影画像の各メッシュから特徴量を抽出する(ステップS14)。そして次に、時系列情報算出部114は、基準フレーム121の各メッシュの特徴量と撮影画像の各メッシュの特徴量とを対応するメッシュ毎に比較し、メッシュ同士の相関係数を算出する(ステップS15)。また、時系列情報算出部114は、先のステップS15において算出した相関係数を時系列的に連続した時系列情報122として取得し、当該取得した時系列情報122を記憶部120に保存する(ステップS16)。また、認識部115は、記憶部120に保存された相関係数の時系列情報122に基づき、各メッシュの属性を認識する(ステップS17)。そして、認識部115は、先のステップS17において認識した各メッシュの属性を出力部116を通じて外部に出力する(ステップS18)。
次に、本実施の形態の画像処理装置100の作用について説明する。
従来、画像フレームを複数のメッシュに分割して各メッシュの属性を認識する際には、一つの画像フレームから分割した各メッシュと予め用意したテンプレートとの比較によりパターンマッチングを行い、各メッシュで発生している事象をメッシュの属性として認識していた。ただし、この方法では、1つの画像フレームからメッシュに含まれる被写体の輪郭を抽出する等の処理が必要となり、処理負荷が増大してしまうという問題があった。
この点、本実施の形態では、時系列的に連続した複数の画像フレームからメッシュを分割し、各メッシュの特徴量の時系列情報に基づき、各メッシュで発生している事象をメッシュの属性として認識する。これにより、上述した従来の方法と比較して、処理負荷を抑えつつ、メッシュの属性を認識することができる。
以上説明したように、上記第1の実施の形態によれば、以下に列挙する効果を得ることができる。
(1)メッシュの特徴量の時系列情報122を用いているため、1つの画像フレームから画像の解析処理によりメッシュに含まれる被写体の輪郭を抽出する等の処理が不要となる。そのため、処理負荷を抑えつつ、メッシュの属性を認識することができる。
(2)特徴量は、画像フレームと基準フレーム121との類似度を含む。これにより、メッシュの特徴量の時系列情報122に基づき、メッシュの属性を認識することができる。
(3)メッシュの属性は、メッシュに含まれる被写体の属性を含み、認識部115は、メッシュにおける所定の時間内の時系列情報122に変化がないと判定した場合には、メッシュに含まれる被写体の属性が人工構造物であると認識する。これにより、メッシュの時系列情報122の変化パターンに基づき、メッシュに含まれる被写体の属性を認識することができる。
(4)メッシュの属性は、メッシュに含まれる被写体の属性を含み、認識部115は、メッシュにおける所定の時間内の時系列情報122が変化したと判定した場合には、メッシュに含まれる被写体の属性が動体の一例である車両を含む道路である認識する。これにより、メッシュの時系列情報122の変化パターンに基づき、メッシュに含まれる被写体の属性を認識することができる。
(第2の実施の形態)
次に、画像処理装置の第2の実施の形態について図面を参照して説明する。なお、第2の実施の形態は、複数のメッシュの時系列情報122の組み合わせに基づき、当該複数のメッシュの各々の属性を認識する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
本実施の形態の画像処理装置では、画像フレームから分割したメッシュの属性を認識する際には、認識の対象となるメッシュに加え、当該メッシュに隣り合うメッシュも含めた複数のメッシュの時系列情報に基づき、複数のメッシュの各々の属性を認識する。
以下、本実施の形態の画像処理装置において、画像フレームの各メッシュの属性を認識するときの処理の流れを、具体例を交えつつ説明する。
図6は、処理の対象となる画像フレームの画像内容の一例を示している。同図に示す例では、画像フレーム130は、屋外に設置されたカメラ10が撮影した動画像の画像フレームであって、建物A1、木A2、道路A3、空A4などの被写体を含む。また、同図に示す例では、画像フレームのうち、被写体として木を含む複数のメッシュM1,M2,M3(縦に並んだ3つのメッシュ)が処理の対象となっている。
この場合、図7(a)に示すように、第1のメッシュM1の相関係数は、周期的に増加および減少を繰り返す。また、図7(b)に示すように、第2のメッシュM2の相関係数は、第1のメッシュM1の相関係数と比較して、変化のパターンに若干の相違があるものの、周期的に増加および減少を繰り返す。また、図7(c)に示すように、第3のメッシュM3の相関係数は、第1のメッシュM1の相関係数及び第2のメッシュM2の相関係数と比較して、変化のパターンに若干の相違があるものの、周期的に増加および減少を繰り返す。これは、第1〜第3のメッシュM1〜M3の何れにおいても、各メッシュM1〜M3に対応する木A2の位置に対応する画素値は、木の葉や枝が風により揺れたときには、時間の経過に伴って周期的な変化を示すためである。
次に、本実施の形態の画像処理装置100が実行する画像フレームのメッシュの属性の認識処理について、その具体的な処理内容を説明する。
図8に示すように、この画像フレームのメッシュの属性の認識処理ではまず、分割部112は、記憶部120に保存された基準フレーム121を複数のメッシュに分割する(ステップS20)。そして、特徴量抽出部113は、先のステップS20において分割した基準フレーム121の各メッシュから特徴量を抽出する(ステップS21)。続いて、画像取得部111は、カメラ10により撮影された撮影画像を取得する(ステップS22)。そして、分割部112は、先のステップS22において取得された撮影画像を複数のメッシュに分割する(ステップS23)。また、特徴量抽出部113は、先のステップS23において分割した撮影画像の各メッシュから特徴量を抽出する(ステップS24)。そして次に、時系列情報算出部114は、複数の隣接するメッシュの組み合わせについて、基準フレーム121の各メッシュの特徴量と撮影画像の各メッシュの特徴量との相関係数を算出する(ステップS25)。そして、時系列情報算出部114は、隣接するメッシュの組み合わせごとに、先のステップS25において算出した相関係数を時系列的に連続した時系列情報122として取得し、当該取得した時系列情報122を記憶部120に保存する(ステップS26)。また、認識部115は、隣接するメッシュの組み合わせごとに記憶部120に保存された相関係数の時系列情報122に基づき、各メッシュの属性を認識する(ステップS27)。そして、認識部115は、複数のメッシュの組み合わせについて、メッシュの属性の認識結果が一致するときには(ステップS28=YES)、先のステップS28において一致した認識結果である、隣接するメッシュの組み合わせの属性の認識結果を出力部116を通じて出力する(ステップS29)。一方、認識部115は、複数のメッシュの組み合わせについて、メッシュの属性の認識結果が一致しないときには(ステップS28=NO)、先のステップS25において算出した各メッシュの特徴量と基準フレーム121の各メッシュの特徴量との相関係数に基づき、各メッシュの属性の認識結果を出力部116を通じて出力する(ステップS30)。
以上説明したように、上記第2の実施の形態によれば、上記第1の実施の形態の効果(1)〜(4)に加え、以下に列挙する効果を得ることができる。
(5)認識部115は、複数のメッシュの時系列情報122を組み合わせることにより、メッシュの属性を高い精度をもって認識することができる。
(第3の実施の形態)
次に、画像処理装置の第3の実施の形態について図面を参照して説明する。なお、第3の実施の形態は、複数のメッシュの時系列情報に基づき、画像の撮影環境が変動したか否かを検出する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
本実施の形態の画像処理装置では、メッシュの時系列情報122の変化量が所定の閾値以上であるときには、メッシュの時系列情報122が変化したと判定する。また、複数のメッシュのうち、時系列情報122が変化したと判定したメッシュの比率が所定値以上であるときには、画像の撮影環境が変動したと判定する。そして、画像の撮影環境が変動したと判定したときには、変動後の撮影環境で撮影した画像フレームを基準フレームとして更新する。
以下、本実施の形態の画像処理装置において、画像フレームの各メッシュの属性を認識するときの処理の流れを、具体例を交えつつ説明する。
図9は、処理の対象となる画像フレームの画像内容の一例を示している。同図に示す例では、画像フレーム130は、屋外に設置されたカメラ10が撮影した動画像の画像フレームであって、建物A1、木A2、道路A3、空A4などの被写体を含む。また、同図に示す例では、動画像の撮影途中で、画像フレームの撮影環境として、天気が「晴れ」から「曇り」に切り替わっている。この場合、画像フレームの撮影環境が切り替わった後には、天気が「曇り」に切り替わった後に撮影した画像フレームを基準フレームとして更新する。
図10に示すように、本実施の形態では、特徴量抽出部113は、画像フレームのメッシュの特徴量の一例として輝度を抽出し、当該抽出した輝度を時系列的に連続した時系列情報122として取得する。そして、認識部115は、時系列情報122に基づき、輝度の変化量ΔXが所定の閾値を上回るときには、画像フレームの撮影環境の一例として天気が変動したと判定する。
次に、本実施の形態の画像処理装置100が実行する画像フレームのメッシュの属性の認識処理について、その具体的な処理内容を説明する。
図11に示すように、この画像フレームのメッシュの属性の認識処理ではまず、分割部112は、記憶部120に保存された基準フレーム121を複数のメッシュに分割する(ステップS31)。そして、特徴量抽出部113は、先のステップS31において分割した基準フレーム121の各メッシュから特徴量を抽出する(ステップS32)。続いて、画像取得部111は、カメラ10により撮影された撮影画像を取得する(ステップS33)。そして、分割部112は、先のステップS33において取得された撮影画像を複数のメッシュに分割する(ステップS34)。また、特徴量抽出部113は、先のステップS34において分割した撮影画像の各メッシュから特徴量を抽出する(ステップS35)。そして次に、時系列情報算出部114は、基準フレーム121の各メッシュの特徴量と撮影画像の各メッシュの特徴量とを対応するメッシュ毎に比較し、メッシュ同士の相関係数を算出する(ステップS36)。また、時系列情報算出部114は、先のステップS36において算出した相関係数を時系列的に連続した時系列情報122として取得し、当該取得した時系列情報122を記憶部120に保存する(ステップS37)。この場合、認識部115は、先のステップS37において取得した時系列情報122に基づき、相関係数の変化量が所定の閾値以上であると判定したときには(ステップS38=YES)、撮影画像の撮影環境が変動したと検出する(ステップS39)。そして、認識部115は、基準フレーム121を更新した上で(ステップS40)、その処理をステップS36に戻す。一方、認識部115は、先のステップS37において取得した時系列情報122に基づき、相関係数の変化量が所定の閾値未満であると判定したときには(ステップS38=NO)、相関係数の時系列情報122に基づき、各メッシュの属性を認識する(ステップS41)。そして、認識部115は、先のステップS41における各メッシュの属性の認識結果を出力部116を通じて外部に出力する(ステップS42)。
以上説明したように、上記第3の実施の形態によれば、上記第1の実施の形態の効果(1)〜(4)に加え、以下に列挙する効果を得ることができる。
(6)例えば、屋外を撮影しているときに、天気が晴れから曇りに変化した場合には、画像全体に影響が生じる。そのため、認識部115は、複数のメッシュのうち、時系列情報122が変化したと判定したメッシュの比率が所定値以上であるときには、画像の撮影環境が変動したものと認識できる。
(7)画像の撮影環境が変動したときには、基準フレーム121を更新することにより、画像と基準フレーム121との比較を通じてメッシュの属性を認識することができる。
(第4の実施の形態)
次に、画像処理装置の第4の実施の形態について図面を参照して説明する。なお、第4の実施の形態は、メッシュの属性としてメッシュの背景を認識した場合、当該メッシュの時系列情報に加えて、メッシュの背景に基づき、メッシュに含まれる被写体の属性を認識する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
本実施の形態の画像処理装置では、メッシュの属性は、メッシュに含まれる背景の属性、および、メッシュに含まれる被写体の属性を含む。そして、認識部115は、メッシュの属性としてメッシュの背景を認識した場合、当該メッシュの時系列情報122に加えて、メッシュの背景に基づき、メッシュに含まれる被写体の属性を認識する。
以下、本実施の形態の画像処理装置において、画像フレームの各メッシュの属性を認識するときの処理の流れを、具体例を交えつつ説明する。
図12は、処理の対象となる画像フレームの画像内容の一例を示している。同図に示す例では、画像フレーム130は、屋外に設置されたカメラ10が撮影した動画像の画像フレームであって、建物A1、木A2、道路A3、空A4、飛行機A5などの被写体を含む。また、同図に示す例では、空A4がメッシュの背景に相当し、飛行機A5が空A4のエリアに含まれている。
次に、本実施の形態の画像処理装置100が実行する画像フレームのメッシュの属性の認識処理について、その具体的な処理内容を説明する。
図13に示すように、この画像フレームのメッシュの属性の認識処理ではまず、分割部112は、記憶部120に保存された基準フレーム121を複数のメッシュに分割する(ステップS50)。そして、特徴量抽出部113は、先のステップS50において分割した基準フレーム121の各メッシュから特徴量を抽出する(ステップS51)。続いて、画像取得部111は、カメラ10により撮影された撮影画像を取得する(ステップS52)。そして、分割部112は、先のステップS52において取得された撮影画像を複数のメッシュに分割する(ステップS53)。また、特徴量抽出部113は、先のステップS53において分割した撮影画像の各メッシュから特徴量を抽出する(ステップS54)。そして次に、時系列情報算出部114は、基準フレーム121の各メッシュの特徴量と撮影画像の各メッシュの特徴量とを対応するメッシュ毎に比較し、メッシュ同士の相関係数を算出する(ステップS55)。また、時系列情報算出部114は、先のステップS55において算出した相関係数を時系列的に連続した時系列情報122として取得し、当該取得した時系列情報122を記憶部120に保存する(ステップS56)。また、認識部115は、記憶部120に保存された相関係数の時系列情報122に基づき、各メッシュの属性を認識する(ステップS57)。また、認識部115は、先のステップS57において認識した各メッシュの属性の中に背景の属性を有するメッシュを含むか否かを判定する(ステップS58)。認識部115は、背景の属性を有するメッシュを含むと判定したときには(ステップS58=YES)、背景の属性を有するメッシュのエリアの中に動体を含むか否かを判定する(ステップS59)。図12に示す例では、認識部115は、背景の属性として、空A4の属性を認識する。この場合、認識部115は、例えば、背景の属性を有するメッシュの特徴量の一例として画素値を抽出し、当該抽出した画素値に基づき、動体の有無を判定する。そして、認識部115は、動体を含むと判定したときには(ステップS59=YES)、メッシュの時系列情報122及びメッシュの背景の属性に基づき、動体の属性を認識する(ステップS60)。この場合、特徴量抽出部113は、例えばメッシュの時系列情報122に基づき、メッシュの特徴量として動体の移動方向、移動速度、サイズ、形状等を抽出する。また、認識部115は、特徴量抽出部113により抽出した特徴量に基づき、動体の属性を認識する(ステップS60)。図12に示す例では、認識部115は、動体の属性として、飛行機A5の属性を認識する。そして、認識部115は、先のステップS57又はステップS60における各メッシュの属性の認識結果を出力部116を通じて外部に出力する(ステップS61)。また、認識部115は、背景の属性を有するメッシュを含まないとき(ステップS58=NO)、又は、背景の属性を有するメッシュのエリアの中に動体を含まないときには(ステップS59=NO)、ステップS60の処理を経ることなく、先のステップS57における各メッシュの属性の認識結果を出力部116を通じて外部に出力する(ステップS61)。
以上説明したように、上記第4の実施の形態によれば、上記第1の実施の形態の効果(1)〜(4)に加え、以下に列挙する効果を得ることができる。
(8)認識部115は、メッシュに含まれる背景の属性を考慮して、メッシュに含まれる被写体の属性を認識するため、被写体の認識精度を高めることができる。
(第5の実施の形態)
次に、画像処理装置の第5の実施の形態について図面を参照して説明する。なお、第5の実施の形態は、メッシュの属性の認識結果に基づき、メッシュを変更する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
本実施の形態の画像処理装置では、画像フレームの各メッシュの属性を認識し、同一の属性として認識された複数のメッシュを含むときには、それら複数のメッシュを新たなメッシュとして統合する。そして以降、統合したメッシュ毎に、メッシュの特徴量を抽出し、当該抽出した特徴量の時系列情報に基づき、統合したメッシュの属性を認識する。
以下、本実施の形態の画像処理装置において、画像フレームの各メッシュの属性を認識するときの処理の流れを、具体例を交えつつ説明する。
図14(a)は、処理の対象となる画像フレームの画像内容の一例を示している。同図に示す例では、画像フレーム130は、屋外に設置されたカメラ10が撮影した動画像の画像フレームであって、建物A1、木A2、道路A3、空A4などの被写体を含む。また、同図に示す例では、画像フレーム130が格子状のメッシュに分割されている。そして、本実施の形態では、図14(b)に示すように、建物A1、木A2、道路A3、空A4などの同一の属性を有する複数のメッシュが新たなメッシュとして統合される。
次に、本実施の形態の画像処理装置100が実行する画像フレームのメッシュの属性の認識処理について、その具体的な処理内容を説明する。
図15に示すように、この画像フレームのメッシュの属性の認識処理ではまず、分割部112は、記憶部120に保存された基準フレーム121を複数のメッシュに分割する(ステップS70)。そして、特徴量抽出部113は、先のステップS70において分割した基準フレーム121の各メッシュから特徴量を抽出する(ステップS71)。続いて、画像取得部111は、カメラ10により撮影された撮影画像を取得する(ステップS72)。そして、分割部112は、先のステップS72において取得された撮影画像を複数のメッシュに分割する(ステップS73)。また、特徴量抽出部113は、先のステップS73において分割した撮影画像の各メッシュから特徴量を抽出する(ステップS74)。そして次に、時系列情報算出部114は、基準フレーム121の各メッシュの特徴量と撮影画像の各メッシュの特徴量とを対応するメッシュ毎に比較し、メッシュ同士の相関係数を算出する(ステップS75)。また、時系列情報算出部114は、先のステップS75において算出した相関係数を時系列的に連続した時系列情報122として取得し、当該取得した時系列情報122を記憶部120に保存する(ステップS76)。また、認識部115は、記憶部120に保存された相関係数の時系列情報122に基づき、各メッシュの属性を認識する(ステップS77)。また、認識部115は、先のステップS77において同一の属性として認識された複数のメッシュを新たなメッシュとして統合する(ステップS78)。そして、認識部115は、先のステップS78における各メッシュの属性の認識結果を出力部116を通じて出力する(ステップS79)。
以上説明したように、上記第5の実施の形態によれば、上記第1の実施の形態の効果(1)〜(4)に加え、以下に列挙する効果を得ることができる。
(9)認識の対象となる被写体に応じてメッシュの大きさを変更することにより、より一層処理負荷を抑えつつ、メッシュに含まれる被写体の属性を認識することができる。
(その他の実施の形態)
なお、上記各実施の形態は、以下のような形態にて実施することもできる。
・上記各実施の形態において、特徴量は、色であってもよい。また、特徴量は、輝度、色、移動速度、移動方向、および、基準フレームとの類似度のうち、複数の要素を含んでもよい。
・上記第2の実施の形態において、複数のメッシュの組み合わせは、必ずしも隣接するメッシュである必要はなく、組み合わせの少なくとも一部が他のメッシュから離間していてもよい。
・上記各実施の形態において、動画像を構成する画像フレームのうち、メッシュの属性が人であると判定されたメッシュの画像内での移動量に基づいて、メッシュの撮影範囲の大きさを推定するようにしてもよい。より詳細には、図16に示すように、人が画像内を左右方向に移動するときには、まず、動画像の撮影時におけるフレームレートに基づいて、単位時間当たり(同図に示す例では「1秒」)のメッシュの画像内での移動量(同図に示す例では「3メッシュ分」)を算出する。この場合、メッシュの撮影範囲の大きさは、該当する地点までのカメラからの距離を反映していることから、左右方向に並ぶ複数のメッシュの撮影範囲の大きさは同一となる。そのため、メッシュの画像内での移動量を用いて人の平均歩行速度を除算することにより、メッシュの撮影範囲の大きさ(同図に示す例では「0.5m」)が算出される。また、図17に示すように、人が画像内を上下方向に移動するときには、まず、動画像の撮影時におけるフレームレートに基づいて、単位時間当たり(同図に示す例では「1秒」)のメッシュの画像内での移動量(同図に示す例では「3メッシュ分」)を算出する。この場合、メッシュの撮影範囲の大きさは、該当する地点までのカメラからの距離を反映していることから、上下方向に並ぶ複数のメッシュの撮影範囲の大きさは、メッシュが上方に位置するに従って大きくなる傾向にある。そのため、上下に隣り合うメッシュの画像内での移動時間を人の平均歩行速度に積算することにより、メッシュの撮影範囲の大きさ(同図に示す例では、最下方のメッシュから順に、「1.5m」、「2.25m」、「3m」)が算出される。
10…カメラ、100…画像処理装置、110…制御部、111…画像取得部、112…分割部、113…特徴量抽出部、114…時系列情報算出部、115…認識部、116…出力部、120…記憶部、121…基準フレーム、122…時系列情報。

Claims (12)

  1. 画像を複数の分割領域に分割する分割部と、
    前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識部と
    を備える
    画像処理装置。
  2. 前記認識部は、前記複数の分割領域の時系列情報の組み合わせに基づき、当該複数の分割領域の各々の属性を認識する
    請求項1に記載の画像処理装置。
  3. 前記複数の分割領域は、互いに隣接する分割領域を含む
    請求項2に記載の画像処理装置。
  4. 前記特徴量は、輝度、色、移動速度、移動方向、および、基準フレームとの類似度の少なくとも1つを含む
    請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記認識部は、前記複数の分割領域のうち、前記時系列情報が変化したと判定した分割領域の比率が所定値以上であるときには、画像の撮影環境が変動したと認識する
    請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記認識部は、画像の撮影環境が変動したと認識した場合には、基準フレームを更新する
    請求項5に記載の画像処理装置。
  7. 前記分割領域の属性は、前記分割領域に含まれる被写体の属性を含み、
    前記認識部は、前記分割領域における所定の時間内の時系列情報に変化がないと判定した場合には、前記分割領域に含まれる被写体の属性が固定物であると認識する
    請求項1〜6のいずれか一項に記載の画像処理装置。
  8. 前記分割領域の属性は、前記分割領域に含まれる被写体の属性を含み、
    前記認識部は、前記分割領域における所定の時間内の時系列情報が変化したと判定した場合には、前記分割領域に含まれる被写体の属性が動体であると認識する
    請求項1〜7のいずれか一項に記載の画像処理装置。
  9. 前記分割領域の属性は、前記分割領域に含まれる背景の属性、および、前記分割領域に含まれる被写体の属性を含み、
    前記認識部は、前記分割領域の属性として前記分割領域の背景を認識した場合、当該分割領域の時系列情報に加えて、前記分割領域の背景に基づき、前記分割領域に含まれる被写体の属性を認識する
    請求項1〜8のいずれか一項に記載の画像処理装置。
  10. 前記分割部は、前記認識部が認識した前記分割領域の属性に基づき、前記分割領域を変更する
    請求項1〜9のいずれか一項に記載の画像処理装置。
  11. 画像を複数の分割領域に分割する分割処理と、
    前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識処理と
    を含む
    画像処理方法。
  12. コンピュータに、
    画像を複数の分割領域に分割する分割処理と、
    前記分割領域の特徴量の時系列情報に基づき、前記分割領域の属性を認識する認識処理と
    を実行させる
    画像処理プログラム。
JP2018143925A 2018-07-31 2018-07-31 画像処理装置、画像処理方法、および、画像処理プログラム Active JP7130488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018143925A JP7130488B2 (ja) 2018-07-31 2018-07-31 画像処理装置、画像処理方法、および、画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143925A JP7130488B2 (ja) 2018-07-31 2018-07-31 画像処理装置、画像処理方法、および、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020021243A true JP2020021243A (ja) 2020-02-06
JP7130488B2 JP7130488B2 (ja) 2022-09-05

Family

ID=69589136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143925A Active JP7130488B2 (ja) 2018-07-31 2018-07-31 画像処理装置、画像処理方法、および、画像処理プログラム

Country Status (1)

Country Link
JP (1) JP7130488B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144724A (ja) * 2020-06-29 2021-09-24 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像審査方法、装置、電子機器及び記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269569A (ja) * 2001-03-14 2002-09-20 Ricoh Co Ltd 動画像データベース
JP2004206665A (ja) * 2002-10-30 2004-07-22 Japan Science & Technology Agency 顔検出方法及び顔検出装置
JP2005321902A (ja) * 2004-05-07 2005-11-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
WO2010079556A1 (ja) * 2009-01-09 2010-07-15 パナソニック株式会社 移動体検出方法および移動体検出装置
JP2015197816A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2018093266A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269569A (ja) * 2001-03-14 2002-09-20 Ricoh Co Ltd 動画像データベース
JP2004206665A (ja) * 2002-10-30 2004-07-22 Japan Science & Technology Agency 顔検出方法及び顔検出装置
JP2005321902A (ja) * 2004-05-07 2005-11-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
WO2010079556A1 (ja) * 2009-01-09 2010-07-15 パナソニック株式会社 移動体検出方法および移動体検出装置
JP2015197816A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2018093266A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144724A (ja) * 2020-06-29 2021-09-24 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像審査方法、装置、電子機器及び記憶媒体
JP7223056B2 (ja) 2020-06-29 2023-02-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像審査方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
JP7130488B2 (ja) 2022-09-05

Similar Documents

Publication Publication Date Title
US11847826B2 (en) System and method for providing dominant scene classification by semantic segmentation
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN107943837B (zh) 一种前景目标关键帧化的视频摘要生成方法
US10896323B2 (en) Method and device for image processing, computer readable storage medium, and electronic device
JP6320112B2 (ja) 情報処理装置、情報処理方法
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6448325B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018010621A (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
US10929978B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
US11055584B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium that perform class identification of an input image using a discriminator that has undergone learning to perform class identification at different granularities
US10726561B2 (en) Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
KR102070956B1 (ko) 영상 처리 장치 및 방법
US11386536B2 (en) Image analysis device, image analysis method and image analysis program
JP2007148988A (ja) 顔認証装置、顔認証方法および入退場管理装置
JP2007065844A (ja) 顔検出方法および装置並びにプログラム
KR102391853B1 (ko) 영상 정보 처리 시스템 및 방법
US20220366676A1 (en) Labeling device and learning device
CN114708615A (zh) 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质
JP7130488B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US20220366570A1 (en) Object tracking device and object tracking method
JP7407738B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
JP6784254B2 (ja) 滞留物体検出システム、滞留物体検出方法およびプログラム
US20220414935A1 (en) Reinforcement-learning based system for camera parameter tuning to improve analytics
JP7488673B2 (ja) 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7130488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150