JP2020086844A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2020086844A
JP2020086844A JP2018219420A JP2018219420A JP2020086844A JP 2020086844 A JP2020086844 A JP 2020086844A JP 2018219420 A JP2018219420 A JP 2018219420A JP 2018219420 A JP2018219420 A JP 2018219420A JP 2020086844 A JP2020086844 A JP 2020086844A
Authority
JP
Japan
Prior art keywords
image
captured image
image processing
detection
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219420A
Other languages
English (en)
Inventor
孝文 柳澤
Takafumi Yanagisawa
孝文 柳澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018219420A priority Critical patent/JP2020086844A/ja
Publication of JP2020086844A publication Critical patent/JP2020086844A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 本発明によれば、魚眼画像から所定の物体を検出する処理において、検出する精度の低下を抑制することができる。【解決手段】 検知手段は、魚眼レンズを介して撮像された撮像画像に含まれる動体を検知する。画像処理手段は、検知手段により検知された動体の位置に基づいて、検知されたときの状態よりも相対的に動体が正立する状態に近づくように、撮像画像における中心位置を軸として、撮像画像を回転させる。検出手段は、画像処理手段により回転された撮像画像における動体に対応する検出領域を対象として特定の物体を検出する。【選択図】 図3

Description

本発明は、画像処理技術に関する。
近年、ネットワークカメラの種類が多様化する中で、魚眼レンズを用いたネットワークカメラ(以下、魚眼カメラ)が普及し始めている。
一般に、天井に設置される魚眼カメラが撮像した魚眼画像において、魚眼画像中に映る人物の足は魚眼画像の中心方向、人物の頭は魚眼画像の円周方向に向くように映る。そのため、魚眼画像中において、人物が正立した状態を想定した照合パターン(辞書)を用いて、魚眼画像から人物を検出する検出処理を実行する場合、魚眼画像のうち一部の領域に映る人物しか検出することができない。
この課題を解決するために、特許文献1では、魚眼画像を回転させて、物体の認識を行うという方法が開示されている。
特開2012−230546号公報
しかしながら、特許文献1では、魚眼画像を所定の角度毎に一律に回転させており、魚眼画像における物体が適切な場所に位置しないことがあるため、魚眼画像から人物を検出する精度が低下することがあった。
そこで本発明は、魚眼画像から所定の物体を検出する処理において、検出する精度の低下を抑制することを目的としている。
上記課題を解決するために、例えば、本発明に係る画像処理装置は以下の構成を有する。すなわち、魚眼レンズを介して撮像された撮像画像に含まれる動体を検知する検知手段と、前記検知手段により検知された動体の位置に基づいて、検知されたときの状態よりも相対的に前記動体が正立する状態に近づくように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させる画像処理手段と、前記画像処理手段により回転された前記撮像画像における前記動体に対応する検出領域を対象として特定の物体を検出する検出手段と、を有する。
本発明によれば、魚眼画像から所定の物体を検出する処理において、検出する精度の低下を抑制することができる。
システム構成を示す図である。 画像処理装置の機能ブロックを示す図である。 魚眼画像から特定の物体を検出する処理のフローチャートである。 魚眼画像から特定の物体を検出する処理を説明するための図である。 魚眼画像から特定の物体を検出する処理の結果を示すテーブルである。 検出領域を決定する処理のフローチャートである。 検出領域を決定する処理を説明するための図である。 魚眼画像から特定の物体を検出する処理のフローチャートである。 魚眼画像から特定の物体を検出する処理を説明するための図である。 検出領域を決定する処理のフローチャートである。 検出領域を決定する処理を説明するための図である。 背景画像を生成する処理のフローチャートである。 背景画像を生成する処理を説明するための図である。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
画像処理装置100は、魚眼レンズを介して撮像された画像である魚眼画像から人物を検出する処理を行う。なお、画像処理装置100が行う魚眼画像から人物を検出する処理についての詳しい説明は後述する。なお、画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。
撮像装置110は、魚眼レンズを介して画像(撮像画像)を撮像する装置である。なお、以降の説明において、撮像装置110が魚眼レンズを介して撮像した画像は魚眼画像とする。撮像装置110は、撮像した魚眼画像に基づく画像データと、撮像装置110を識別する情報である識別情報と、魚眼画像を撮像した時刻に関する情報と、を関連付けて、ネットワーク140を介して、画像処理装置100や記録装置120へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
記録装置120は、撮像装置110が撮像した魚眼画像の画像データと、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(魚眼画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されている。また、ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した魚眼画像や、後述する画像処理に係る設定画面等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。
なお、図2に示す各機能は、本実施形態の場合、ROM(Read Only Memory)1420とCPU(Central Processing Unit)1400とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行することにより実現される。
通信部200は、図12を参照して後述するI/F(Interface)1440によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した魚眼画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して魚眼画像を撮像するよう指示を行うコマンドなどを含む。
記憶部201は、図14を参照して後述するRAM(Random Access Memory)1410やHDD(Hard Disk Drive)1430等によって実現でき、画像処理装置100による画像処理に関わる情報やデータを記憶する。例えば、記憶部201は、魚眼画像から検知された動体や魚眼画像から検出された特定の物体の位置やサイズに関する情報を記憶する。
表示制御部202は、撮像装置110が撮像した魚眼画像や、本実施形態に係る画像処理に関する設定を行う設定画面、画像処理の結果を示す情報などをディスプレイ130に表示させる。
操作受付部203は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。設定部204は、画像処理装置100による画像処理に関する設定を行う。
検知部205は、魚眼画像に含まれる動体を検知する。なお、検知部205は、公知の技術を用いて、魚眼画像に含まれる動体を検知する。本実施形態における検知部205は、背景画像を生成し、背景差分処理を行うことで、動体(前景)を検知するものとするが、前フレームと現在のフレームとのフレーム間差分処理を行って、動体を検知してもよい。
決定部206は、検知部205により検知された動体の位置に基づいて、当該動体に対応する領域である検出領域を決定する。また、決定部206は、後述する検出部208により検出された特定の物体の位置に基づいて、当該特定の物体に対応する領域である検出領域を決定する。決定部206により検出領域を決定する処理についての詳しい説明は後述する。
処理部207は、検知部205により検知された動体の位置に基づいて、魚眼画像における中心位置を軸として、検知された時の状態よりも相対的に当該動体が正立する状態に近づくように魚眼画像を回転させる。なお、動体が正立する状態に近づくように魚眼画像を回転させることは、魚眼画像の中心位置を軸とし、当該動体が完全に正立する状態になるように魚眼画像を回転させることも含む。
また処理部207は、現在のフレームより前に撮像された魚眼画像から検出部208により検出された特定の物体の位置に基づき、魚眼画像の中心位置を軸とし、検出された時の状態より相対的に当該特定の物体が正立する状態に近づくよう魚眼画像を回転させる。なお、特定の物体が正立する状態に近づくよう魚眼画像を回転させることは、魚眼画像の中心位置を軸とし、当該特定の物体が完全に正立する状態になるように魚眼画像を回転させることも含む。
検出部208は、画像における人物を検出する検出処理を実行する。本実施形態における検出部208は、照合パターン(辞書)を使用して、パターンマッチング等を行うことにより画像に含まれる人物を検出する検出処理を行う。なお、本実施形態における検出部208は、魚眼画像において人物がおおよそ正立した状態に位置する照合パターン(辞書)を用いるものとする。
次に図3に示すフローを参照して、画像処理装置100が実行する画像処理について更に詳細に説明する。なお、図3に示す画像処理を実行することで、魚眼画像に含まれる特定の物体を検出することができる。なお、以降の説明において、特定の物体は人物とするが、車両や動物などでもよい。
なお、図3に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。なお、図3に示すフローチャートの処理は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
まず、ステップS300にて、通信部200は、撮像装置110が撮像した魚眼画像を取得する。図4(a)は、ステップS300にて、通信部200が取得する魚眼画像の一例を示す図である。図4(a)において、画像401は、撮像装置101が撮像する範囲(以下、撮像範囲)である魚眼画像402を含む。魚眼画像402には、人物403aおよび人物404aが存在している。なお、図4(a)に示す例において、人物403aは前のフレームの魚眼画像と比較して移動しており、人物404aは前のフレームの魚眼画像と比較して静止しているものとする。なお、本実施形態において、画像401における魚眼画像402以外の範囲は撮像範囲ではないため、動体の検知、人物の検出、および画像の回転の対象外とする。
次に、ステップS301にて、処理部207は、背景画像を生成する生成処理を実行する。ここで図12および図13を参照して、本実施計形態における処理部207の背景画像を生成する処理について説明する。図12は、処理部207による背景画像を生成する処理の流れを示すフローチャートである。また、図13は、背景画像を生成する処理を説明するための図である。なお、図12に示すフローチャートの処理は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
図12に示すS1201にて、処理部207は、現在注目している最新の魚眼画像より前に撮像された直近のNフレーム分の魚眼画像を取得する。本実施形態の場合、処理部207は、直近の5フレーム分の魚眼画像を取得するものとする。次に、S1202にて、処理部207は、S1201にて取得したNフレーム分の魚眼画像の各画素値の平均値を求めることで背景画像を生成する。本実施形態の場合、処理部207は、直近の5フレーム分の魚眼画像から背景画像を生成する。例えば、図13に示すように、処理部207は、直近の5フレーム分のフレームであるフレーム1〜フレーム5の魚眼画像から背景画像を生成する。
以上説明したように、本実施形態における処理部207は、直近のNフレーム分の魚眼画像を用いて背景画像を生成するものとする。なお、処理部207が行う背景画像を生成する処理は、その他の公知の技術を用いてもよい。なお、S301にて、処理部207は、背景画像を生成するものとしたが、例えば、S301にて、処理部207は、予め設定された背景画像を取得するようにしてもよい。この場合、例えば、動体が全くいない状態の魚眼画像をユーザは背景画像として予め設定するものとする。
次に、S302にて、検知部205は、背景差分処理により魚眼画像に含まれる動体を検知する。図4(a)に示す場合、人物403aを動体として検知する。一方、静止している人物404aに対して動体として検知されないものとする。
次に、S303にて、処理部207は、記憶部201に記憶された人物の検出処理の結果の情報が格納されたテーブルを参照し、現在注目しているフレームよりひとつ前のフレームの魚眼画像において検出された人物(以下、検出人物)の情報を取得する。ここで図5に示すテーブルを参照して、S303における処理部207の処理について説明する。図5は、図3に示す処理によって、検出された人物に関する情報が格納されたデータ構造の一例を示す図である。テーブル500は、検出部208により魚眼画像から検出された人物に関する情報を格納したデータ構造である。フレーム番号501は、通信部200が取得する魚眼画像の各々を識別する識別情報である。人数502は、魚眼画像から検出された人物の数を示す情報である。位置情報503は、魚眼画像から検出された人物の位置を示す情報である。S303にて、処理部207は、テーブル500を参照して、検出人物の情報を取得する。例えば、現在注目している魚眼画像のフレーム番号501が“5”である場合、ひとつ前のフレームの魚眼画像であるフレーム番号501が“4”において検出された人物の情報を取得する。
なお、本実施形態において、人物の位置は、画像401の左上の端点を原点としたときの、検出された人物の領域における中心点のx座標とy座標とである。なお、他の実施形態として、画像401の中心を原点としてもよく、位置を示す座標情報の形態は問わない。
次に、S302にて検知部205により動体が検知されている場合、または、S303にて、検出人物の情報が取得されている場合(S304にてYes)、S305へ遷移する。一方、S302にて検知部205により動体が検知されていない場合、かつ、S303にて、検出人物の情報が取得されていない(S304にてNo)、S300へ戻る。そして、S300にて、通信部200は、次のフレームである魚眼画像を取得する。なお、図4(a)に示す例において、人物403aは動体として検知され、人物404aは一つ前のフレームの魚眼画像にて検出部208により検出された人物であるとする。そのため。図4(a)に示す例において、S304では、S305へ遷移する。
次に、S305にて、決定部206は、検知部205により検知された動体、または、一つ前のフレームで検出部208により検出された特定の物体の位置に基づいて、当該動体または当該特定の物体に対応する領域である検出領域を決定する決定処理を行う。ここで、図6および図7を参照して、S305における決定部206による決定処理について更に詳細に説明する。
図6は、決定部206の検出領域を決定する決定処理の流れを示すフローチャートである。なお、図6に示すフローチャートの処理は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行して実現される図2に示す各機能ブロックにより実行されるものとする。また、図7は、決定部206の検出領域を決定する決定処理を説明するための図である。
図6に示すフローにおいて、まずS601にて、魚眼画像に含まれる動体および前フレームで検出された人物のうち、検出領域の決定処理における処理対象を決定する。図4(a)に示す例において、動体として検出された人物403a、および、一つ前のフレームで検出された人物(検出人物)である人物404aのうち、いずれかを処理対象として決定する。本実施形態において、魚眼画像の中心点により近い対象領域(動体、または、検出人物の領域)を処理対象として決定する。なお、図4(e)に示すように、魚眼画像の中心点(O)を通る水平方向に伸びたx軸を定義したとき、決定部206は、x軸から、対象領域の中心の位置と中心点とを結んだ線分までの角度が小さい順から処理対象を決定してもよい。以下の説明において人物403aが処理対象として決定されているものとする。
次に、S602にて、決定部206は、魚眼画像の中心と円周上の一点を結ぶ線分であって、処理対象とする動体または検出人物の領域(以下、対象領域)に接する線分の一部の線分を第1基準線として決定する。このとき、人物403aに対して決定部206により決定された第1基準線が図7に示す線分701である。なお、線分701の長さは、魚眼画像の中心と、対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次にS603にて、決定部206は、魚眼画像の中心と円周上の一点を結ぶ線分であって、第1基準線を延長した直線となす角度が閾値以内、かつ、処理対象とする対象領域に接する線分の一部の線分を第2基準線として決定する。このとき、動体403aに対して決定部206により決定された第2基準線が図7に示す線分702である。なお、ここでの閾値は、検出部208が検出可能な角度の範囲である。
ここで、検出部208による検出処理において検出可能な角度の範囲について説明する。本実施形態における検出部208は、照合パターン(辞書)を用いて、魚眼画像から人物を検出する。このとき、検出部208は、魚眼画像において、おおよそ正立した状態の人物の照合パターンを用いて、人物の検出を行う。図4(e)に示す検出可能角度440は、角度432と角度431との差分の角度であり、本実施形態における検出部208が検出可能な角度の範囲を示している。
なお、図4(e)に示す角度431の半径441と角度432の半径442とで挟まれる領域である検出可能領域450における人物はおおよそ正立した状態で魚眼画像に映る。検出部208は、検出可能領域450に位置する場合の人物の照合パターンを保持しているものとする。つまり、検出部208の検出処理にて用いる照合パターンとして、魚眼画像における360度の全方位に人物が位置する場合のパターンではなく、領域450に人物が位置する場合のパターンとする。このように、照合パターンの数を制限することで、検出処理における処理負荷を低減させたり、360度全方向に人物が位置する場合のパターンを用意する必要をなくしたりすることができる。
そして、S603にて、決定部206は、第1基準線を延長した直線と、第2基準線を延長した直線とでなす角度が、検出可能角度440に収まるよう第2基準線を決定する。なお、線分702の長さは、魚眼画像の中心と、処理対象とする対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次に、S604にて、決定部206は、第1基準線および第2基準線に基づき、検出領域を決定する。具体的には、決定部206は、線分701の円周側の端点と、線分702の円周側の端点と、を結ぶ線分を決定する。このとき、人物403aに対して決定部206により決定された線分が図7に示す線分703である。さらに、決定部206は、線分701において魚眼画像の中心側の端点と、線分702において魚眼画像の中心側の端点と、を結ぶ線分を決定する。このとき、人物403aに対して決定部206により決定された線分が図7に示す線分704である。以上のように、決定部206は、処理対象とする対象領域に対し決定された第1基準線および第2基準線により囲われる領域を検出領域として決定する。
次に、魚眼画像において全ての対象領域(動体または検出人物)を処理対象として決定していれば(ステップS605にてYes)、検出領域の決定処理を終了する。一方、魚眼画像において全ての対象領域を処理対象として決定していなければ(ステップS605にてNo)、S601に戻る。そして、決定部206は、処理対象として決定していない対象領域(動体または検出人物)のうち、検出領域の決定処理の処理対象を決定する。なお、図4(b)に示すように、図6に示す処理を経て人物403aに対し決定された検出領域は検出領域403bであり、人物404bに対し決定された検出領域は検出領域404bである。
なお、本実施形態において、対象領域の各々に対して決定部206は検出領域を決定したが、例えば、決定部206は、複数の対象領域を含むように検出領域を決定してもよい。なおこのとき、決定部206は、複数の対象領域を挟むように第1基準線と第2基準線とを決定した場合、第1基準線を延長した直線と第2基準線を延長した直線とでなす角度が検出可能角度440以内であれば、複数の対象領域を含むように検出領域を決定する。
なお、本実施形態においては4点の座標情報を使用した四角形を検出領域としたが、他の実施形態として、起点となる座標と幅・高さとを用いた矩形でもよいし、多角形や扇形であってもよい。
ここで、図3に示す処理の説明に戻る。図3に示すS306にて、決定部206は、現在の魚眼画像において、処理対象としていない検出領域のうち、1つの検出領域を処理対象として決定する。
次に、S307にて、処理部207は、検知部205により検知された動体または検出人物の位置に基づいて、魚眼画像における中心位置を軸として、当該動体または当該検出人物が正立する状態に近づくように魚眼画像を回転させる。本実施形態におけるS307では、処理部207は、魚眼画像における中心位置を軸として、処理対象としている検出領域に含まれる動体または検出人物が正立する状態に近づくように魚眼画像を回転させる。言い換えれば、処理部207は、魚眼画像における中心位置を軸として、処理対象としている検出領域に含まれる動体または検出人物が検出可能領域450に含まれるよう魚眼画像を回転させる。なお、処理部207は、検知部205により検知された動体または検出人物の位置に基づいて、魚眼画像における中心位置を軸として、当該動体または当該検出人物が完全に正立するように魚眼画像を回転させてもよい。言い換えれば、処理部207は、図4(e)に示すように、魚眼画像402に対して水平方向にx軸、垂直方向にy軸を定義したとき、次のような処理を行う。処理部207は、動体または検出人物の位置に基づき、魚眼画像における中心位置を軸とし、当該動体または当該検出人物の中心位置がy軸上に位置するよう魚眼画像を回転させる。
例えば、処理対象としている検出領域が検出領域403bである場合を想定する。このとき、処理部207により、検出領域403bに対応する動体(人物403a)が正立する状態に近づくように回転された魚眼画像が図4(c)に示す魚眼画像402cである。また、処理対象としている検出領域が検出領域404bである場合、S307にて、処理部207により、検出領域404bに対応する検出人物(人物404a)が正立する状態に近づくように回転された魚眼画像が図4(d)に示す魚眼画像402dである。
次に、S308にて、検出部208は、処理部207により回転された魚眼画像において、処理対象としている検出領域を対象として特定の物体である人物を検出する。例えば、処理対象としている検出領域が領域403bである場合、領域403bに含まれる動体(人物403a)に基づき、処理部207により回転された魚眼画像である魚眼画像402cにおける検出領域403bを対象に、検出部208は、人物を検出する。なお、S308にて検出された人物の位置およびサイズの情報はテーブル500に格納されるものとする。
次に、S309にて、現在の魚眼画像において全ての検出領域を処理対象としていれば(S309にてYes)、ステップS310へ遷移する。一方、現在の魚眼画像において全ての検出領域を処理対象としていなければ(S309にてNo)、ステップS306へ戻り、決定部206は、処理対象としていない検出領域のうち一つの検出領域を処理対象として決定する。そして、処理対象とする検出領域に対し、307およびS308の処理を繰り返す。
次に、S310にて、処理部207は、魚眼画像から検出された人物の数を計数する。このとき処理部207により計数された人物の数を示す情報は、テーブル500に格納される。
次に、魚眼画像から人物を検出する処理を継続する場合(S311にてNo)、ステップS300に戻り、通信部200は次のフレームである魚眼画像を取得する。魚眼画像から人物を検出する処理を継続しない場合(S311にてYes)、処理を終了する。
以上説明したように、本実施形態における画像処理装置100は、魚眼画像から検知された動体または検出人物の位置に基づき、魚眼画像を回転させて、当該動体または検出人物に対応する領域に対し人物の検出を行う。このようにすることで、魚眼画像から所定の物体を検出する処理において、魚眼画像における物体を適切な場所に位置させることができるため、検出する精度の低下を抑制することができる。
(実施形態2)
実施形態1では、魚眼画像が示す領域の全体を対象に検知部205により動体検知が実行された。実施形態2では、現在注目しているフレームの魚眼画像より前に撮像された魚眼画像から検出された人物がいなかった場合に、動体検知を実行する領域を制限する。具体的には、魚眼レンズを用いた撮像装置110を天井に設置する場合、人物は魚眼画像の円周側から侵入する特徴を利用して、人物が最初に現れると予想される魚眼画像の円周付近に動体検知を実行する領域を制限する。このようにすることで、画像処理を行う処理負荷の増大を抑制することができる。
以下、図8および図9を参照して、本実施形態における画像処理装置100の画像処理について説明する。なお、図8に示す画像処理を実行することで、魚眼画像における動体を検知する領域を制限し、検知された動体の位置に基づいて、魚眼画像に含まれる特定の物体を検出することができる。
なお、図8に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。なお、図8に示すフローチャートの処理は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
図8に示すS300〜311の処理は、実施形態1において図3を参照して説明した内容と同様であるため、説明を省略する。
S801にて、現在処理の対象としている最新の魚眼画像の前のフレームにおいて人物が検出されていると決定部206により判定された場合(S801にてYes)、S303へ遷移する。一方、S801にて、現在処理の対象としている最新の魚眼画像の前のフレームにおいて人物が検出されていないと決定部206により判定された場合(S801にてNo)、S802へ遷移する。例えば、S801にて、図5に示すように現在の魚眼画像のフレーム番号501が“3“である場合、決定部206は、ひとつ前のフレームであるフレーム番号501が”2“の魚眼画像において人物が検出されたかを判定する。図5に示す例の場合、フレーム番号501が”2“の魚眼画像において人物は検出されていないため(S801にてNo)、S802へ遷移する。
S802にて、検知部205は、魚眼画像の円周付近に設定された動体検知を行う対象である検知領域に対し動体を検知する。図9に示す領域901は、魚眼画像402に対し予め設定された検知領域である。なお、領域901は、魚眼画像402が示す円の領域から、魚眼画像402と同じ中心点の円であって、魚眼画像402の半径より所定の割合小さい半径の円が示す領域を差し引いた領域である。領域901は、操作受付部203が受け付けたユーザによる操作に基づき、設定部204によって設定されてもよい。また、設定部204は、撮像装置110の設置状態に基づき、検知領域を自動で設定するようにしてもよい。具体的には、決定部206は、天井に設置された撮像装置110から地面までの距離を特定し、設定部204は、特定された撮像装置110から地面までの距離に基づき、検知領域を自動で設定するようにしてもよい。
以上説明したように、実施形態2によれば、現在のフレームである魚眼画像より前に撮像された魚眼画像における人物の検出結果に基づき、動体検知を行う対象の領域を制限することで、処理負荷の抑制をすることができる。
(実施形態3)
実施形態1では対象領域(動体または検出人物の領域)を挟むように第1基準線と第2基準線とが決定された。このとき、実施形態1では、第1基準線を延長した直線と、第2基準線を延長した直線とでなす角が閾値(検出可能角度440)以下となるよう第2基準線が決定された。本実施形態では、第1基準線を延長した直線と、第2基準線を延長した直線とでなす角が閾値(検出可能角度440)を超えてしまう場合の検出領域の決定処理について説明する。具体的には、対象領域を挟むように第1基準線と第2基準線とを決定したとき、第1基準線を延長した直線と、第2基準線を延長した直線とでなす角が閾値を超える場合、決定部206は、複数の検出領域を重複させつつ、検出領域を決定する。このようにすることで、特定の物体を検出する精度の低下を抑制することができる。
以下、図10および図11を参照して、本実施形態の画像処理装置100に係る画像処理について説明する。なお、図10に示す画像処理を実行することで、複数の検出領域が重複することを許容しつつ、検出領域を決定することができる。
なお、図10に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。なお、図10に示すフローチャートの処理は、本実施形態における検出領域の決定処理であり、図3および図8に示すS305に対応する。なお、図10に示すフローチャートの処理は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
まず、図10に示すS1001にて、決定部206は、検出領域の決定処理における処理対象を決定する。ここで、図11を参照して、S1001における決定部206の処理について説明する。本実施形態における検出領域の決定処理を説明するための模式図である。図11(a)に示す魚眼画像402には、人物1101〜1103が集団として存在している。図11(b)に示す対象領域1110は、人物1101〜1103に対し検知部205により検知された動体の領域を示している。図11(b)に示すように、人物1101〜1103は一つの動体として検知されている。図11(b)に示す例において、S1001にて、決定部206は、検出領域の決定処理における処理対象として対象領域1110を決定する。
次に、S1002にて、決定部206は、魚眼画像の中心と円周上の一点を結ぶ線分であって、処理対象とする領域1110に接する線分の一部の線分を第1基準線として決定する。このとき、領域1110に対して決定部206により決定された第1基準線が図11(c)に示す線分1120である。なお、線分1120の長さは、魚眼画像の中心と、処理対象とする対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次に、S1003にて、決定部206は、処理対象とする対象領域を挟む2つの半径がなす角度が閾値以上かを判定する。具体的には、決定部206は、魚眼画像の中心と円周上の一点を結ぶ線分であって、第1基準線を延長した直線とで処理対象の対象領域を挟み、かつ、当該対象領域に接する線分の一部の線分を第2基準線として決定する。このとき、決定部206は、第1基準線を延長した直線と第2基準線を延長した直線とでなす角度が閾値(検出可能角度440)以上かを判定する。第1基準線を延長した直線と第2基準線を延長した直線とでなす角度が閾値より小さいと判定された場合(S1003にてNo)、S1004へ遷移する。一方、第1基準線を延長した直線と第2基準線を延長した直線とでなす角度が閾値以上であると判定された場合(S1003にてYes)、S1005へ遷移する。
S1004の処理は、実施形態1における図6で説明したS603の処理と同様であるため説明を省略する。S1005にて、決定部206は、魚眼画像の中心と円周上の一点を結ぶ線分であって、第1基準線を延長した直線となす角度が所定値となる線分の一部の線分を第2基準線として決定する。なお、本実施形態における所定値は、検出可能角度440とする。このとき、図11(b)に示す検出領域1110に対して決定部206により決定された第2基準線が線分1130である。なお、線分1130の長さは、魚眼画像の中心と、処理対象とする対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次に、S1006にて、決定部206は、第1基準線および第2基準線に基づき、検出領域を決定する。具体的には、決定部206は、第1基準線の線分の円周側の端点と、第2基準線の線分の円周側の端点と、を結ぶ線分を決定する。さらに、決定部206は、第1基準線の線分において魚眼画像の中心側の端点と、第2基準線の線分において魚眼画像の中心側の端点と、を結ぶ線分を決定する。以上のように、決定部206は、処理対象である対象領域に対し決定された第1基準線および第2基準線により囲われる領域を検出領域として決定する。このとき、図11(c)に示す例において、決定された検出領域は領域1140であるとする。
次に、S1007にて、決定部206は、決定済みの検出領域が処理対象の対象領域を包含しているかを判定し、包含している場合はS1011へ遷移し、包含していなければS1008へ遷移する。図11(c)に示す例において、決定済みの検出領域である領域1140は対象領域1110を包含していないため、S1008へ遷移する。
次に、S1008にて、決定部206は、新たな第1基準線の決定を行う。具体的には、決定部206は、処理対象である対象領域に対して一つ前に決定された検出領域を特定する。例えば、図11(c)に示す例において、処理対象である対象領域1110に対し一つ前に決定された検出領域が検出領域1140である場合を想定する。このとき、決定部206は、処理対象である対象領域1110に対して、一つ前に決定した検出領域である検出領域1140を特定する。
そして、決定部206は、特定した検出領域の第1基準線を延長した直線となす角度が検出可能角度440の半分の角度となる線分の一部の線分を新たな第1基準線として決定する。図11(c)に示す例において、このとき決定された新たな第1基準線は、線分1150である。なお、線分1150の長さは、魚眼画像の中心と、処理対象とする対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次に、S1009にて、決定部206は、S1008で決定した第1基準線を延長した直線となす角度が最大角度となる線分の一部の線分を新たな第2基準線として決定する。図11(c)に示す例において、決定された新たな第2基準線は、線分1160である。なお、線分1160の長さは、魚眼画像の中心と、処理対象とする対象領域の中心とを結ぶ方向において、当該対象領域の下端から上端までの長さであるものとする。
次に、S1010にて、決定部206は、新たな第1基準線および新たな第2基準線に基づき、検出領域を決定する。具体的には、決定部206は、第1基準線の線分の円周側の端点と、第2基準線の線分の円周側の端点と、を結ぶ線分を決定する。さらに、決定部206は、第1基準線の線分において魚眼画像の中心側の端点と、第2基準線の線分において魚眼画像の中心側の端点と、を結ぶ線分を決定する。以上のように、決定部206は、処理対象とする対象領域に対し決定された第1基準線および第2基準線により囲われる領域を検出領域として決定する。このとき、図11(c)に示す例において、決定された検出領域は領域1170であるとする。そして、S1010の処理の後、S1007へ戻る。
S1011にて、魚眼画像に対し全ての対象領域を処理対象として決定していれば(S1011にてYes)、検出領域の決定処理を終了する。一方、魚眼画像に対し全ての対象領域を処理対象として決定していなければ(S1011にてNo)、S1001に戻り、決定部206は、処理対象として決定していない対象領域のいずれかを決定する。
以上説明したように、本実施形態における決定部206によれば、複数の検出領域が重複することを許容しつつ、検出領域を決定することができる。このように検出領域に対し漏れなく検出領域を決定することで、検出精度の低下を抑制することができる。
なお、図11(c)に示すように検出領域である領域1140と領域1170とで重複する領域に人物1102が位置している。この場合、検出部208により、人物1102は重複して検出されることとなる。このとき、検出部208が検出した人物の数を計数する処理を実行する際、重複した領域において検出された人物の位置に基づき、計数した合計数から重複したカウントの分だけ値を差し引くようにしてもよい。例えば、検出領域1140と検出領域1170とで重複された領域において人物Aが位置している場合を想定する。このとき、検出部208によって、検出領域1140および検出領域1170それぞれに対し人物Aが検出されてしまうことがある。そこで、検出領域1140および検出領域1170の各々にて魚眼画像上で同じ位置に人物が検出された際、処理部208は、魚眼画像から計数した人物の合計数から重複したカウントの値だけ差し引く。こうすることにより2重で人物を計数してしまうことを防ぐことができる。
(その他の実施形態)
次に図14を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現される。
本実施形態における画像処理装置100は、CPU1400と、RAM1410と、ROM1420、HDD1430と、I/F1440と、を有している。
CPU1400は画像処理装置100を統括制御する中央処理装置である。RAM41410は、CPU1400が実行するコンピュータプログラムを一時的に記憶する。また、RAM1410は、CPU1400が処理を実行する際に用いるワークエリアを提供する。また、RAM1410は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM1420は、CPU1400が画像処理装置100を制御するためのプログラムなどを記憶する。HDD1430は、画像データ等を記録する記憶装置である。
I/F1440は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU1400が処理を実行する例について説明するが、CPU1400の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(Graphical User Interface)や画像データを表示する処理は、GPU(Graphics Processing Unit)で実行してもよい。また、ROM1420からプログラムコードを読み出してRAM1410に展開する処理は、転送装置として機能するDMA(Direct Memory Access)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図14に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 画像処理装置
200 通信部
201 記憶部
202 表示制御部
203 操作受付部
204 設定部
205 検知部
206 決定部
207 処理部
208 検出部

Claims (17)

  1. 魚眼レンズを介して撮像された撮像画像に含まれる動体を検知する検知手段と、
    前記検知手段により検知された動体の位置に基づいて、検知されたときの状態よりも相対的に前記動体が正立する状態に近づくように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させる画像処理手段と、
    前記画像処理手段により回転された前記撮像画像における前記動体に対応する検出領域を対象として特定の物体を検出する検出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記画像処理手段は、前記撮像画像より前に撮像された撮像画像から前記検出手段により検出された特定の物体の位置に基づいて、検出されたときの状態よりも相対的に前記特定の物体が正立する状態に近づくように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理手段は、前記検知手段により検知された動体の位置に基づいて、前記動体が正立する状態になるように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記画像処理手段は、前記撮像画像より前に撮像された撮像画像から前記検出手段により検出された特定の物体の位置に基づいて、前記特定の物体が正立する状態になるように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記検出領域を決定する決定手段を更に有し、
    前記決定手段は、前記動体または前記特定の物体の領域に対し、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記領域に接する線分の一部の線分である第1基準線と第2基準線とを決定し、当該第1基準線と、当該第2基準線とで囲まれる領域を前記検出領域として決定することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記検出領域を決定する決定手段を更に有し、
    前記決定手段は、前記動体または前記特定の物体の領域に対し、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記領域に接する線分の一部の線分である第1基準線と、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記第1基準線を延長した直線となす角度が所定値となる線分の一部の線分である第2基準線とを決定し、当該第1基準線と、当該第2基準線とで囲まれる領域を前記検出領域として決定することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
  7. 前記検出手段により検出された前記撮像画像における特定の物体の数を計数する計数手段を更に有することを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記特定の物体は、人物であることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 魚眼レンズを介して撮像された撮像画像に含まれる動体を検知する検知工程と、
    前記検知工程により検知された動体の位置に基づいて、検知されたときの状態よりも相対的に前記動体が正立する状態に近づくように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させる画像処理工程と、
    前記画像処理工程により回転された前記撮像画像における前記動体に対応する検出領域を対象として特定の物体を検出する検出工程と、
    を有することを特徴とする画像処理方法。
  10. 前記画像処理工程は、前記撮像画像より前に撮像された撮像画像から前記検出工程により検出された特定の物体の位置に基づいて、検出されたときの状態よりも相対的に前記特定の物体が正立する状態に近づくように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項9に記載の画像処理方法。
  11. 前記画像処理工程は、前記検知工程により検知された動体の位置に基づいて、前記動体が正立する状態になるように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項9または10に記載の画像処理方法。
  12. 前記画像処理工程は、前記撮像画像より前に撮像された撮像画像から前記検出工程により検出された特定の物体の位置に基づいて、前記特定の物体が正立する状態になるように、前記撮像画像における中心位置を軸として、前記撮像画像を回転させることを特徴とする請求項9乃至11のいずれか一項に記載の画像処理方法。
  13. 前記検出領域を決定する決定工程を更に有し、
    前記決定工程は、前記動体または前記特定の物体の領域に対し、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記領域に接する線分の一部の線分である第1基準線と第2基準線とを決定し、当該第1基準線と、当該第2基準線とで囲まれる領域を前記検出領域として決定することを特徴とする請求項9乃至12のいずれか一項に記載の画像処理方法。
  14. 前記検出領域を決定する決定工程を更に有し、
    前記決定工程は、前記動体または前記特定の物体の領域に対し、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記領域に接する線分の一部の線分である第1基準線と、前記撮像画像の中心と前記撮像画像の円周上の一点とを結ぶ線分であって、前記第1基準線を延長した直線となす角度が所定値となる線分の一部の線分である第2基準線とを決定し、当該第1基準線と、当該第2基準線とで囲まれる領域を前記検出領域として決定することを特徴とする請求項9乃至12のいずれか一項に記載の画像処理方法。
  15. 前記検出工程により検出された前記撮像画像における特定の物体の数を計数する計数工程を更に有することを特徴とする請求項9乃至14のいずれか一項に記載の画像処理方法。
  16. 前記特定の物体は、人物であることを特徴とする請求項9乃至15のいずれか一項に記載の画像処理方法。
  17. コンピュータを請求項1乃至8のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018219420A 2018-11-22 2018-11-22 画像処理装置、画像処理方法、およびプログラム Pending JP2020086844A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219420A JP2020086844A (ja) 2018-11-22 2018-11-22 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219420A JP2020086844A (ja) 2018-11-22 2018-11-22 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2020086844A true JP2020086844A (ja) 2020-06-04

Family

ID=70908194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219420A Pending JP2020086844A (ja) 2018-11-22 2018-11-22 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2020086844A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014252A1 (ja) * 2020-07-15 2022-01-20 オムロン株式会社 情報処理装置および情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014252A1 (ja) * 2020-07-15 2022-01-20 オムロン株式会社 情報処理装置および情報処理方法
JP7419999B2 (ja) 2020-07-15 2024-01-23 オムロン株式会社 情報処理装置および情報処理方法

Similar Documents

Publication Publication Date Title
US10949946B2 (en) Image processing apparatus, image processing method, and storage medium
CA2918273C (en) Systems and methods for capturing high resolution images of rectangular objects using a mobile device
JP5613041B2 (ja) カメラ装置、画像処理システムおよび画像処理方法
CN110738078A (zh) 一种人脸识别方法及终端设备
CN106815809B (zh) 一种图片处理方法和装置
KR20180086048A (ko) 카메라 및 카메라의 영상 처리 방법
US10362231B2 (en) Head down warning system
JP2013218432A (ja) 画像処理装置、画像処理方法、画像処理用プログラム、および、記録媒体
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2020086844A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
US20220309682A1 (en) Object tracking apparatus, object tracking method, and program
US10521653B2 (en) Image processing device, image processing method, and storage medium
US20200272811A1 (en) Image processing apparatus, image processing method, and storage medium
JP6817527B1 (ja) 情報処理装置、プログラムおよび情報処理システム
JP7272118B2 (ja) 侵入検知装置、プログラムおよび侵入検知システム
JP2022152362A (ja) 作業機械の周辺監視装置
JP2021056899A (ja) 画像処理装置、画像処理方法およびプログラム
WO2020095400A1 (ja) 特徴点抽出装置、特徴点抽出方法およびプログラム記憶媒体
JP2020166653A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019153886A (ja) 監視カメラ制御システム及び監視カメラ制御方法
US20240161547A1 (en) Information processing system, information processing apparatus, information processing method and recording medium
JP2023115703A (ja) 映像監視装置、映像監視方法、及びプログラム
JP7327936B2 (ja) 画像処理装置、画像処理方法、及びプログラム