JP2024024863A - 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。 - Google Patents

画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。 Download PDF

Info

Publication number
JP2024024863A
JP2024024863A JP2022127802A JP2022127802A JP2024024863A JP 2024024863 A JP2024024863 A JP 2024024863A JP 2022127802 A JP2022127802 A JP 2022127802A JP 2022127802 A JP2022127802 A JP 2022127802A JP 2024024863 A JP2024024863 A JP 2024024863A
Authority
JP
Japan
Prior art keywords
analysis
image
area
size
analyzed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022127802A
Other languages
English (en)
Inventor
英俊 井澤
Hidetoshi Izawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022127802A priority Critical patent/JP2024024863A/ja
Publication of JP2024024863A publication Critical patent/JP2024024863A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】解析領域に対して効率的に解析を行う画像解析装置を提供する。【解決手段】画像を解析することで対象物を検出する画像解析装置であって、第1の画像を取得する第1の取得手段と、第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、画像の解析を実施する解析手段と、第2の取得手段によって取得した各解析領域の位置情報に基づき、解析手段により解析が可能な画像サイズを持つ第2の画像上に配置する解析領域毎の配置領域を決定する決定手段と、各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、解析手段は、解析画像から対象物を検出し、検出結果を出力することを特徴とする。【選択図】図2

Description

本発明は、画像を解析する技術に関するものである。
近年、監視カメラによる撮像画像を用いて対象物の検出や追尾、属性の推定等を行う画像解析、そのような画像解析の結果を用いた対象物数の推定が様々なシーンで行われている。
従来、監視カメラの映像をPCやサーバ等の高性能な演算装置に転送して画像解析が行われてきた。これに対し、モバイル用演算装置の処理能力の向上に伴い、画像解析をカメラ側で直接行う事が可能となってきている。カメラ側で画像解析を行う場合には、処理負荷を軽減するために撮像画像の特定領域(解析領域)を切り出し固定サイズの小画像とし、小画像を単位として画像解析を行う方法が提案されている。
特開2006-350967号公報
J.Redmon、A.Farhadi、「YOLO9000:Better Faster Stronger」、Computer Vision and Pattern Recognition(CVPR) 2016
ここで、特許文献1の方法では、入力された解析領域に対して少なくとも一度の解析を行うため、解析したい領域が入力画像サイズよりも小さい場合、本来一度に解析できる領域よりも狭い領域しか解析しないことになり、効率が悪い。加えて、そのような解析領域が複数あった場合、さらに効率が悪くなるという課題があった。
そこで、本発明では、解析領域に対して効率的に解析を行う画像解析装置を提供することを目的としている。
上記目的を達成するために、本発明の一側面としての画像解析装置は、画像を解析することで対象物を検出する画像解析装置であって、第1の画像を取得する第1の取得手段と、第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、画像の解析を実施する解析手段と、第2の取得手段によって取得した各解析領域の位置情報に基づき、解析手段により解析が可能な画像サイズを持つ第2の画像上に配置する解析領域毎の配置領域を決定する決定手段と、各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、解析手段は、解析画像から対象物を検出し、検出結果を出力することを特徴とする。
本発明によれば、解析領域に対して効率的に解析を行うことができる。
実施形態1に係る画像解析装置の構成例を示すブロック図である。 実施形態1に係る画像解析装置の機能構成例を示すブロック図である。 実施形態1に係る画像解析装置が画像を解析する処理の例を示すフローチャートである。 実施形態1に係る画像解析装置が画像を解析する処理の例を示す図である。 実施形態1に係る画像解析装置が画像を解析する処理の例を示す図である。 実施形態1に係る画像解析装置が配置領域を決定する処理の例を示すフローチャートである。 実施形態1に係る画像解析装置が配置領域を決定する処理の例を示す図である。 実施形態1に係る画像解析装置が配置領域を決定する処理の例を示す図である。 実施形態2に係る画像解析装置が配置領域を決定する処理のフローチャートである。 実施形態2に係る画像解析装置が配置領域を決定する処理例を示す図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。ただし、本発明の実施の形態は以下の実施の形態に限定されるものではない。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
<実施形態1>
図1は、本実施形態の画像解析装置100の構成例を示す図である。以下では、一例として、画像解析装置100は、画像を解析することで対象物(人物の顔)の検出する装置である場合について説明する。ただし、これに限られず、画像を解析して所定の情報出力を行う任意の画像解析装置に、以下の構成を適用することができる。
本実施形態に係る画像解析装置100は、CPU101と、メモリ102と、通信I/F103と、入力装置104と、表示装置105とを含むように構成される。
CPU101は、メモリ102に格納されたプログラムに従って、画像解析装置100全体の制御を司るプロセッサである。メモリ102は、CPU101が処理に利用するデータ、プログラム等を格納すると共に一時的なデータのワークエリアとして機能する。通信I/F103は、画像解析装置100をネットワークに接続するインタフェースである。
入力装置104は、マウス、又はボタン等であり、ユーザの操作を画像解析装置100に入力する。表示装置105は、例えば、液晶ディスプレイやLED等で構成される表示装置である。表示装置105は、CPU101による処理の結果等やユーザが画像解析装置100を操作するためのGUI(グラフィカル・ユーザ・インタフェース)などを画面上に表示する。GUIは、Graphical User Interfaceの、頭字語であり、コンピュータグラフィクスとポインティングデバイスを用いて直感的な操作を提供するユーザーインターフェースである。ここで、CPU101がメモリ102に記憶されたプログラムに基づき各処理を実行することにより、後述する図2の画像解析装置100の機能構成及び後述する図3、図6、図9のフローチャート等に示す処理が実現される。
図2は、画像解析装置100の機能構成例を示す図である。画像解析装置100は、その機能として、例えば、画像取得部201、解析設定取得部202、配置領域決定部203、記憶部204、解析画像生成部205、解析部206、解析結果変換部207、解析結果出力部208を含むように構成される。
画像取得部201は、解析を行う対象となる画像(画像データ)を取得する。以下では、画像取得部201が取得した画像を「入力画像(第1の画像)」と呼ぶ。
解析設定取得部202は、解析部206で画像の解析を行う際に必要となる設定(解析設定)の情報を取得する。本実施形態では、解析設定取得部202が取得する解析設定の情報は、入力画像内の解析を実施したい領域の位置と画像取得部201で取得できる画像上の顔のサイズとする。
配置領域決定部203は、解析設定取得部202が解析設定を取得した際に、入力画像から切り出し、解析処理を行う領域と、切り出した領域を解析部206により解析可能な画像サイズを持つ画像上に配置する領域を決定する。また、配置領域決定部203は、この2つの領域の情報(位置情報)を記憶部204に保存する。以下では、配置領域決定部203が入力画像から切り出し、解析処理を行う領域を「解析領域」と呼び、解析画像を配置する領域を「配置領域」と呼ぶ。
記憶部204は、配置領域決定部203が決定した2つの領域である解析領域と配置領域の情報(位置情報)を保存(記憶)する。
解析画像生成部205は、解析部206が解析可能な画像サイズを持つ画像(第2の画像)を生成する。解析画像生成部205は、当該画像生成に際し例えば、黒色の画像を生成する。また、解析画像生成部205は、記憶部204から解析領域と配置領域の位置情報を取得し、入力画像の解析領域内の各画素を対応する黒色画像上の配置領域内に移すことで解析領域同士を結合した画像(結合画像)を作成する。作成した画像は、解析部206へと入力される。以下では、解析画像生成部205が解析部206へと入力される解析領域同士を結合した画像を「解析入力画像」と呼ぶ。
解析部206は、解析画像生成部205が生成した解析入力画像に対して解析処理を行い、解析処理結果を出力する。解析処理は、例えば、画像に含まれる対象物を検出できるように学習が行われた機械学習モデルを用いて、解析入力画像中のオブジェクトの位置を出力するように構成された処理でありうる。また、解析処理はパターンマッチングを行って画像中のオブジェクトを検出し、その位置を出力する処理であってもよい。本実施形態では、解析部206が解析入力画像から検出する対象物は、人物の顔を対象としている。しかしこれに限らず、例えば、車両や船舶、人物の全身を検出する対象としてもよい。
解析結果変換部207は、記憶部204から解析領域と配置領域の情報を取得し、解析入力画像に対する解析処理結果を入力画像に対する解析処理結果に変換する。解析結果変換部207は、当該変換処理を行うことにより、解析処理結果を入力画像上に表示させる。解析結果出力部208は、解析処理の結果を外部の装置等へ出力する。
次に、画像解析装置100が画像を取得し、解析領域上から人物の顔を検出し検出結果を出力するために行う処理について、図3のフローチャートと図4及び図5を用いて説明する。図3は、本実施形態に係る画像解析装置100が画像を解析する処理の例を示すフローチャートである。図4及び図5は、本実施形態に係る画像解析装置100が画像を解析する処理の例を示す図である。
図4(A)は、ステップS301で取得した入力画像401の一例を示す図である。図4(A)の入力画像のサイズは、横1280px、縦960pxとする。図4(B)は、以下に説明する解析処理における解析部206が解析可能な画像サイズを示す図である。また、図4(B)には、解析部206の解析処理で推奨する対象物の推奨サイズを示しており、本実施形態では、人物の顔サイズを解析部206の解析処理における推奨サイズとしている。ここで、以下に説明する解析部206の解析処理で解析可能な画像サイズは、図4(B)に示すように、横200px、縦200pxであり、解析部206の解析処理で推奨する顔のサイズは50pxとする。尚、本実施形態における解析部206の解析可能な画像サイズと推奨する顔のサイズは上記に示したものとするが、これに限らず、これらのサイズは解析部206の性能等に応じて変更や更新が可能であり、上記数値に限定はされない。以下では、解析部206が行う解析処理における解析可能な画像サイズを「解析画像サイズ」、解析部206の解析処理で推奨する顔のサイズを「推奨顔サイズ」と呼ぶ。
まず、ステップS301において、画像取得部201は、画像を取得する。尚、本処理では、画像取得部は、図4(A)に示す入力画像401を取得する(第1の取得工程)。画像取得部201は、CMOSセンサやCCDセンサなどの固体撮像素子から画像を取得してもよいし、記憶部204またはハードディスクなどの記憶装置(記憶媒体)に保存されている画像を取得してもよい。また、撮像部(撮像手段)を有する撮像装置から取得するようしてもよい。尚、本処理において画像取得部201は、画像を取得する第1の取得手段としても機能する。
次に、ステップS302において、解析画像生成部205は、記憶部204に保存されている解析領域と配置領域を示す情報を取得する(第2の取得工程)。本実施形態では、解析領域と配置領域は共に矩形とし、領域の位置を左上隅の位置及び右下隅の位置で示す。さらに、解析画像生成部205で一度に処理を行う入力画像が複数枚ある場合には、解析領域の情報に入力画像を識別する数値や文字等の識別子を加える。配置先となる解析入力画像が複数ある場合には、解析入力画像を識別する識別子を加える。尚、本処理の際、解析画像生成部205は、解析領域毎の情報と配置領域を示す情報を取得する第2の取得手段としても機能する。
図4(C)は、入力画像401上の解析領域の一例を示す図である。図4(C)に示すように、解析領域402は、位置(40px,150px)及び(500px,380px)に規定される領域と、位置(780px,150px)及び(1240px,380px)に規定される領域の2か所である。図4(D)は、図4(C)の解析領域の情報(位置情報)とその配置領域の情報(位置情報)の一例を示す図である。図4(D)に示すように、一度に処理する入力画像と配置先となる解析入力画像は1枚となるため、識別子は持たない。
図4(D)表中の(ア)は、入力画像401上の位置(40px,150px)及び(500px,380px)により既定される解析領域402が、位置(0px,0px)及び(200px,100px)に既定される配置領域に移されることを示している。図4(D)表中の(イ)は、入力画像401上の位置(780px,150px)及び(1240px,380px)により既定される解析領域が、位置(0px,100px)及び(200px,200px)に既定される配置領域に移されることを示している。
次に、ステップS303において、解析画像生成部205は、入力画像の解析領域と解析入力画像上の配置領域の間の射影変換行列を求める。入力画像の解析領域上の点に求めた射影変換行列をかけ合わせることで解析入力画像の配置領域上に移し、解析入力画像を生成する(解析画像生成工程)。尚、本処理の際、解析画像生成部205は、上記のように各解析領域を解析部206が解析可能な画像サイズを持つ画像における配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成手段としても機能する。
図5(A)は、図4(D)に示す2つの解析領域と配置領域を用いて作成した解析入力画像を示す図である。図4(C)の解析領域402内の各点は、図5(A)の位置(0px,0px)及び(200px,100px)に既定される配置領域501に移されている。
ここで、上記式(1)における3行3列の行列が射影変換行列であり、入力画像の解析領域上の点(u,v)は、解析入力画像上の点(x,y)に変換される。また、上記式(1)は、同次座標を用いることにより、非線形な射影変換を線形演算で表現できるようにしたものである。上記式(1)に例えば領域を構成する矩形の4頂点等の4組の対応点を代入すると8つの方程式、すなわち、8元連立方程式を立てることができ、この連立方程式を解くことにより射影変換行列を求めることができる。
次に、ステップS304において、解析部206は、解析入力画像を解析することで解析入力画像から対象物を検出し、検出結果を出力する(解析工程)。図5(B)は、図5(A)に示す解析入力画像から人物の顔を検出した結果(対象物検出結果)を示す図である。本実施形態では、人物毎の顔の検出結果(解析結果)は、矩形の枠(外接矩形の領域)で出力され、例えば図5(B)に示す検出結果は3つある。1つは、位置(15px,62px)及び(71px,115px)、2つは、位置(12px,162px)及び(38px,188px)、3つは、位置(50px,174px)及び(91px,194px)によりそれぞれ規定されている。尚、本処理の際、解析部206は、解析入力画像を解析することで解析入力画像から対象物として人物の顔を検出し、検出結果を出力する解析手段としても機能する。
次に、ステップS305において、解析結果変換部207は、ステップS303において用いた射影変換行列の逆行列を使い、解析入力画像における検出結果を入力画像における物体検出結果に変換する。即ち、解析結果変換部207は、上記の検出結果を入力画像上に表示可能(配置可能)な状態となるようにそれぞれ変換を実施する。検出結果が複数の配置領域にまたがるような場合には、検出結果の中心の位置が含まれる領域の射影変換行列を用いる。尚、本処理の際、解析結果変換部207は、解析入力画像における検出結果(物体検出結果)を入力画像に表示可能となるように変換処理をする変換出段としても機能する。
図5(C)は、図5(B)に示す顔検出結果を入力画像上に変換した結果の画像(変換画像)を示す図である。図5(B)の3つの検出結果は、それぞれ位置(75px,293px)及び(203px,415px)、位置(808px,293px)及び(867px,352px)、位置(895px,320px)及び(989px,366px)に変換される。図5(B)の検出結果502は2つの配置領域にまたがっているが、検出結果502の中心位置(43px,89px)は、配置領域403に位置するため、検出結果502は解析領域402に移される。
次に、ステップS306において、解析結果出力部208は、ステップS305にて得られた物体検出結果を外部の装置等へ出力する。尚、解析結果出力部208は、図5(C)に示すような顔検出結果を入力画像上に変換した結果の画像を外部の装置等へ出力してもよいし、表示装置105の画面上に表示させるようにしてもよい。検出結果を入力画像上に変換した結果の画像を表示装置105の画面上に表示させる際、解析結果出力部208は表示制御手段としても機能する。
以上の処理により、本実施形態における画像解析装置100によれば、複数箇所の解析領域を1回の解析処理で実施できているため、解析領域の数だけ解析を行う必要がない。従って、解析回数つまり解析処理に要する時間を減らすことができるので、解析処理における効率を良くすることができる。
次に、画像解析装置100が解析設定を取得し、解析領域と配置領域を決定して解析領域と配置領域を保存するために行う処理について、図6のフローチャートと図7及び図8を用いて説明する。図6は、本実施形態に係る画像解析装置100が配置領域を決定する処理の例を示すフローチャートである。図7及び図8は、本実施形態に係る画像解析装置100が配置領域を決定する処理の例を示す図である。
まず、ステップS601において、解析設定取得部202は、ユーザが設定した解析設定を取得する。本実施形態では、解析設定取得部202は、解析設定として解析を実施したい領域の位置と、画像取得部201で取得できる画像上の顔のサイズを取得する。解析を実施したい領域は、入力画像に対しユーザがマウスなどの入力装置104を用いて任意のサイズを指定可能とすることができる。その際、例えば、表示装置105の画面上に表示されている入力画像に対し、解析を実施したい領域を指定するポインタ(点)等のGUIを表示させ、当該ポインタ等を操作することで、解析を実施したい領域のサイズを指定するようにしてもよい。また、例えば、解析を実施したい領域の位置をそれぞれ入力することで解析を実施したい領域を指定するようにしてもよい。この場合、マウスなどの入力装置104やポインタ等のGUIは操作手段として機能する。
画像上の顔のサイズは、例えば、ユーザがマウスなどの入力装置104を用いて明示的に与える。例えば、ユーザが、画像上の複数の地点における顔の平均的なサイズを入力することで、画面上の任意の地点における顔の平均的なサイズを補間により推定することが可能となる。そして、ユーザは補間により推定した顔のサイズを解析設定として設定してもよい。
図7(A)は、図4(A)に示す入力画像401上で設定された解析を実施したい領域の一例を示す図である。図7(A)に示す例では、3か所の解析を実施したい領域として領域701、領域702、領域703が指定されている。図7(B)は、取得した解析設定の一例を示す図である。図7(B)に示す表には、解析を実施したい領域、画像上の顔のサイズ、リサイズ後の解析を実施したい領域のサイズの情報が示されている。
次に、ステップS602において、配置領域決定部203は、解析を実施したい各領域の比率を変更するようにリサイズする。リサイズする比率は画像上の顔のサイズが解析部206の推奨顔サイズとなるように決定する。例えば、図7(B)に示す表中の(ア)では、画像上の顔のサイズは120px、推奨顔サイズは図4(A)に示す通り50pxであるため、リサイズする比率は50/120となる。そして、リサイズ後の解析を実施したい領域のサイズは横75px、縦188pxとなる。
次に、ステップS603において、配置領域決定部203は、リサイズ後の解析を実施したい領域のサイズが解析部206の解析画像サイズを超えるか否かを判定する。判定の結果、解析部206の解析画像サイズを超える場合には、ステップS604に進む。一方、解析部206の解析画像サイズを超えない場合には、ステップS605に進む。例えば、図7(B)に示す表を例とすると、図7(B)に示す表中の(ウ)が示すリサイズ後の解析を実施したい領域703の横250pxが、図4(A)に示す解析可能な画像の横200pxを超える。このような場合は、ステップS604に進む。
次に、ステップS604において、配置領域決定部203は、ステップS603で解析部206が解析可能な画像サイズを超えると判定された解析を実施したい領域について、解析部206が解析可能な解析画像サイズに収まるサイズとなるように分割する。ステップS604では、ステップS603において、横の長さが超えていた図7(B)に示す表中の(ウ)を例とする。ここで、解析を実施したい領域の横の長さをL1、解析画像サイズの横の長さに画像上の顔のサイズをかけ、推奨顔サイズで割った値をL2、分割する境界上でオーバーラップさせる横の長さをL3とする。そして、横の分割数Nとした場合、N=[(L2-L3)/(L1-2×L3)+1]により計算する。
ここで[X]は、Xを超えない最大の整数を示す。この時、分割対象の領域をN等分し、そこからオーバーラップの領域を持たせるためにL3/2の長さだけ広げた領域が分割後の領域となる。分割する境界上でオーバーラップさせる横の長さは、画像上の顔のサイズとする。図7(C)は、解析を実施したい領域703を分割した結果を示す一例の図である。図7(C)では、分割数Nは[(200×80/50-80)/(400-2×80)+1]=2となり、2分割される。そのため、解析を実施したい領域703は、領域704と領域705へと分割される。図7(D)は、ステップS604の処理を行った後の分割された解析を実施したい領域の情報を示す図である。図7(D)に示す表中の(ウ)と(エ)はそれぞれ、解析を実施したい領域703を分割した、領域704と領域705の情報を示している。このように、ステップS604では、解析部206が解析可能なサイズを超えた領域に対して、解析部206が解析可能なサイズの領域となるように分割処理を行う。
次に、ステップS605において、配置領域決定部203は、解析部206が解析可能な画像サイズの画像上にリサイズした領域を配置する。配置領域決定部203は、解析領域を順に解析入力画像のサイズを持つ箱の中に詰め込み、リサイズした領域を解析部206が解析可能な画像サイズの画像上に配置する領域を決定する。ここで、詰め込む方法としては、例えばFirst―fit Decreasing(FFD)アルゴリズムを適用する。FFDアルゴリズムは、詰め込むアイテムをサイズの大きな順に取り出し、箱の位置ができるだけ小さい値となるように箱に詰めていき、どの箱にも詰められないときにはすぐに新しい箱を追加して詰めるという方法である。
図8(A)は、図7(D)に示す解析を実施したい各領域に対してFFDアルゴリズムを適用して配置した結果を示す図である。図7(D)に示す表を例として、サイズの大きい順に並べると、(ウ)、(エ)、(ア)、(イ)となる。ここで、サイズが一番大きい(ウ)は、1つ目の箱の(0,0)の位置の領域801に配置される。(ウ)の次にサイズの大きい(エ)は、1つ目の箱(0px,100px)の位置の領域802に配置される。(エ)の次にサイズの大きい(ア)は、1つ目の箱に入らないため2つ目の箱を用意し、2つ目の箱(0px,0px)の位置の領域803に配置される。最後に、サイズが一番小さい(イ)は1つ目の箱に入らず、2つ目の箱(75px,0px)の位置の領域804に配置される。
次に、ステップS606において、配置領域決定部203は、リサイズした解析を実施したい各領域について配置していない領域の隙間を当該領域の周囲の画像情報を用いて埋める。その後、配置結果を出力する。図8(B)は、図8(A)の配置した結果の隙間部分を解析領域の周囲の画像情報で埋める場合の配置の一例を示す図である。ステップS606における処理は、例えば、図8(B)に示すように縦方向と横方向に順に領域を広げるようにして隙間を埋める。
次に、ステップS607において、配置領域決定部203は、ステップS606で決定した配置結果から解析領域と配置領域を算出し、解析領域及び配置領域を決定する(決定工程)。図8(C)は、算出した解析領域の情報と配置領域の情報を示す図である。図8(C)に示す配置領域は、図8(B)に示す各領域の配置結果から位置情報を読み込むことで決定される。図8(C)に示す例では、解析入力画像2枚を区別するために識別子として数字の「1」、「2」を付属する。尚、解析領域の中心位置は、図7(D)に示す解析を実施したい領域の中心位置と変わらない。解析領域のサイズは、配置領域のサイズに画像上の顔のサイズをかけ、推奨顔サイズで割ることで計算でき、解析領域の中心位置とサイズが解る場合を利用して解析領域の左上隅の位置及び右下隅の位置を計算し、解析領域のサイズを算出することで決定される。図8(D)は、図4(A)に示す入力画像401上に決定した解析領域を表示した結果を示す図である。本処理の際、配置領域決定部203は解析領域と配置領域を決定する決定手段としても機能する。
次に、ステップS608において、配置領域決定部203は、ステップS607で決定した解析領域と配置領域を記憶部204に保存する。
以上の処理により、本実施形態の画像解析装置100によれば、ユーザは解析を実施したい領域を指定すると、解析部206の精度を損なうことなく解析処理を行える解析領域と配置領域をそれぞれ決定することができる。
<変形例>
ここで、解析領域と配置領域は、五角形や星形または円形など、領域を示すことができる任意の形状であってもよく、領域の位置を示す表現として領域の各頂点の位置など領域を一意に表現することができる任意の表現であってもよい。
また、ステップS303及びステップS305において、射影変換行列の計算は、解析領域または、配置領域が変更された際に一度実施し、射影変換行列の計算結果を記憶部204に保存しておきそれ以降は記憶部204から読み出して変換に使用してもよい。
また、ステップS303及びステップS305における入力画像と解析入力画像間の変換は、入力画像の解析領域内の全ての位置について対応する解析入力画像の位置を記録した変換テーブルを用いてもよい。また、ステップS305において、配置領域の面積比率を計算し面積比率が最も高い領域と対応づいた解析領域へ解析結果を移してもよい。
また、画像上の顔のサイズは、統計処理により自動で推定してもよい。例えば、画面上の座標(x,y)における顔のサイズをsとしたとき、sは、x,y,および未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータはa,b,およびcである。顔検出結果の集合を用いて、未知のパラメータを、例えば最小二乗法などの統計処理により求めることができる。
<実施形態2>
実施形態1では、解析領域と配置領域を決定するために解析設定として解析を実施したい領域の位置と、画像取得部201で取得できる画像上の顔のサイズを取得することを前提としていた。本実施形態では、解析領域の位置を入力として解析設定として解析を実施したい領域の位置と解析を実施する回数を受け取り、解析領域と配置領域を決定する場合について説明する。
本実施形態の画像解析装置100のハードウェア構成及び機能構成については、図1と図2に示した実施形態1の画像解析装置100のハードウェア構成及び機能構成と同様であるため、本実施形態では説明を省略する。
次に、画像解析装置100が解析設定を受けとり、解析領域と配置領域を決定し解析領域と配置領域を保存するために行う処理について、図9のフローチャートと図10を用いて説明する。図9は、実施形態2に係る画像解析装置が配置領域を決定する処理のフローチャートである。図10は、実施形態2に係る画像解析装置が配置領域を決定する処理例を示す図である。
まず、ステップS901において、解析設定取得部202は、ユーザが設定した解析設定を取得する。本実施形態では、解析設定取得部202は、解析設定として解析を実施したい領域の位置と、解析を実施する回数を取得する。解析を実施する回数は、ユーザが直接指定してもよいし、ユーザが解析結果を取得したい頻度を指定しその頻度と解析部206の解析にかかる時間から算出してもよい。以降では、解析を実施したい領域として図7(A)と同様に、3か所の解析を実施したい領域である領域701、領域702、領域703を、解析回数として1回を取得した場合について説明する。
次に、ステップS902において、配置領域決定部203は、各解析を実施したい領域を辺の長さが長い順に並べる。例えば、図7(B)に示す表を例とし、解析を実施したい領域を取得した場合、(ア)、(ウ)、(イ)の順番となる。
次に、ステップS903において、配置領域決定部203は、解析を実施したい各領域を解析部206が解析可能な画像サイズを持つ画像における配置領域に配置する。この時、頂点の位置の中で配置後の領域の長い辺の長さが最小となる位置に配置する。例えば、図7(B)表中の(ア)の解析を実施したい領域は(0px,0px)の位置に配置される。図7(B)表中の(ウ)の解析を実施したい領域は、頂点の位置(180px,0px)、(180px,450px)、(0px,450px)の中から配置を決める。位置(180px,0px)に配置した場合の長い辺の長さは610px、位置(180px,450px)に配置した場合の長い辺の長さは610pxである。位置(0px,450px)に配置した場合の長い辺の長さは580pxであるため、位置(0px,450px)に配置する。図7(B)表中(イ)の解析を実施したい領域は、頂点の位置(580px,0px)、(580px,160px)、(180px,160px)、(180px,450px)、(0px,450px)の中から配置を決める。この際、配置した場合の長い辺の長さが最小となる位置(180px,160px)に配置する。図10(A)は、これらを配置した結果を示す図である。
次に、ステップS904において、配置領域決定部203は、配置後の各辺の中で最長の長さが解析可能な画像の長さとなるようにリサイズする。例えば、図10(A)に配置した結果では、配置後の各辺の中で最長の長さは580px、解析可能な画像の長さは200pxであるため、各領域に200/580を掛け合わせることで、解析可能な画像の長さとする。
次に、ステップS905において、配置領域決定部203は、ステップS904でリサイズした領域を配置後の画像における隙間を黒色で埋める。その後、配置結果を出力する。図10(B)は、図10(A)に示す各領域をリサイズした領域を配置した結果の隙間部分を黒色で埋める場合の配置の一例を示す図である。
次に、ステップS906において、配置領域決定部203は、ステップS905で決定した配置結果から解析領域と配置領域を算出し、解析領域及び配置領域を決定する。本処理における算出方法はステップS607と同様であるため詳細な説明は省略する。図10(C)は、決定した解析領域と配置領域を示す図である。図10(D)は、図4(A)に示す入力画像401の上に決定した各解析領域を表示した結果を示す図である。
次に、ステップS907において、配置領域決定部203は、ステップS906で決定した解析領域と配置領域を記憶部204に保存する。
以上により、本実施形態の画像解析装置100によれば、ユーザが指定した回数で解析を実施可能な解析領域と配置領域を決定することができる。
<変形例>
尚、ステップS904において、配置後の画像すべてに共通するリサイズ比率を設定してもよいし、配置後の画像ごとにリサイズ比率を変えてもよい。また、ステップS906において、塗りつぶす色は例えば白色や青色等の任意の色でよい。またこの色の指定は、ユーザの入力により決定してもよいし、システムで任意の色に固定してしまってもよい。この際、例えば、解析画像生成部205は、指定された色を持つ画像を作成し、その画像上に解析領域内の各画像を移す。
<その他の実施形態>
上記した各実施形態における画像解析装置100は、クラウド上やオンプレミス上のハードウェアやエッジデバイスを任意に組み合わせて構成し、上述の実施形態の1以上の機能を振り分けてもよい。例えば、上記した各実施形態における画像解析装置100の全ての機能をカメラ等の撮像装置上で実現、即ち、カメラ等の撮像装置自身が画像解析装置100の機能を一体的に内蔵していてもよい。また、カメラ等の撮像装置で撮影した画像をパーソナルコンピュータ(PC)に送り、それ以降の機能をPCで実現してもよい。また、カメラ等の撮像装置で撮影した画像をクラウドサーバに送り、それ以降の機能をクラウドサーバで実現してもよい。さらに、カメラ等の撮像装置が画像解機能有していない場合には、カメラ等の撮像装置にUSBインタフェースやSDカードインタフェイスを介して画像解析装置100の処理機能を有する着脱可能デバイスを装着することによりシステムを構成してもよい。このように各実施形態における画像解析装置100をカメラ等の撮像装置と通信可能に接続することで画像解析システム(情報処理システム)を構成してもよい。この際、例えば、上記デバイスを装着することでカメラ等の撮像装置と画像解析装置100を相互に通信可能としてもよいし、ネットワーク等を介してカメラ等の撮像装置と画像解析装置100を相互に通信可能とするようにしてもよい。
本実施形態の開示は、以下の構成、方法、及びプログラムを含む。
(構成1)
画像を解析することで対象物を検出する画像解析装置であって、
第1の画像を取得する第1の取得手段と、
第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、
画像の解析を実施する解析手段と、
第2の取得手段によって取得した各解析領域の位置情報に基づき、解析手段により解析が可能な画像サイズを持つ第2の画像上に配置する解析領域毎の配置領域を決定する決定手段と、
各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、
解析手段は、解析画像から対象物を検出し、検出結果を出力することを特徴とする画像解析装置。
(構成2)
解析画像に対して解析手段が出力した検出結果を、第1の画像上に表示可能となるように変換する変換手段を有することを特徴とする構成1に記載の画像解析装置。
(構成3)
対象物は、人物の顔であることを特徴とする構成2に記載の画像解析装置。
(構成4)
解析手段は、解析画像から人物の顔を検出し、検出された人物毎の顔の外接矩形の領域を検出結果として出力することを特徴とする構成3に記載の画像解析装置。
(構成5)
変換手段は、外接矩形の領域における中心位置に基づき、第1の画像上への検出結果の表示する位置を決定することを特徴とする構成4に記載の画像解析装置。
(構成6)
決定手段は、第1の画像における対象物のサイズに基づき、解析領域の比率を変更することを特徴とする構成1乃至5のいずれか1項に記載の画像解析装置。
(構成7)
決定手段は、第1の画像における対象物のサイズが解析手段における推奨サイズとなるように、解析画像の比率を変更することを特徴とする構成6に記載の画像解析装置。
(構成8)
決定手段は、解析手段が解析可能なサイズより解析領域のサイズの方が大きかった場合、解析手段が解析可能なサイズに収まるように解析領域を分割することを特徴とする構成1乃至5のいずれか1項に記載の画像解析装置。
(構成9)
決定手段は、比率を変更した各解析領域を第2の画像における配置領域に配置する位置を決定することを特徴とする構成7に記載の画像解析装置。
(構成10)
変換手段により変換された検出結果が第1の画像上に表示されている変換画像を表示装置の画面上に表示させる表示制御手段を有することを特徴とする構成2または3に記載の画像解析装置。
(構成11)
決定手段は、設定された解析回数に基づき、第2の画像における配置領域に解析領域を配置する位置を決定することを特徴とする構成1乃至10のいずれか1項に記載の画像解析装置。
(構成12)
解析領域を任意のサイズで指定可能とする操作手段を有することを特徴とする構成1乃至11のいずれか1項に記載の画像解析装置。
(構成13)
画像解析装置の制御方法であって、
第1の画像を取得する第1の取得工程と、
第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得工程と、
画像の解析を実施する解析工程と、
第2の取得工程で取得した各解析領域の位置情報に基づき、解析工程で解析が可能な画像サイズを有する第2の画像上に配置する解析領域毎の配置領域を決定する決定工程と、
各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成工程と、を有し、
解析工程おいて、解析画像から対象物を検出し、検出結果を出力することを特徴とする画像解析装置の制御方法。
(構成14)
画像解析装置の制御方法をコンピュータに実行させるためのプログラムであって、
第1の画像を取得する第1の取得工程と、
第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得工程と、
画像の解析を実施する解析工程と、
第2の取得工程で取得した各解析領域の位置情報に基づき、解析工程で解析が可能な画像サイズを有する第2の画像上に配置する解析領域毎の配置領域を決定する決定工程と、
各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成工程と、を有し、
解析工程において、解析画像から対象物を検出し、検出結果を出力することを特徴とするプログラム。
(構成15)
撮像装置と、撮像装置と通信可能に接続され、画像を解析することで対象物を検出する画像解析装置から構成される画像解析システムであって、
撮像装置は、
第1の画像を撮像する撮像手段を有し、
画像解析装置は、
撮像装置から第1の画像を取得する第1の取得手段と、
第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、
画像の解析を実施する解析手段と、
第2の取得手段によって取得した各解析領域の位置情報に基づき、解析手段により解析が可能な画像サイズを有する第2の画像上に配置する解析領域毎の配置領域を決定する決定手段と、
各解析領域を第2の画像上の配置領域に配置することで、各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、
解析手段は、解析画像から対象物を検出し、検出結果を出力することを特徴とする画像解析システム。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。その場合、そのプログラム、該プログラムを記憶した記憶媒体は本発明を構成することとなる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像解析装置
201 画像取得部
202 解析設定取得部
203 配置位置決定部
204 記憶部
205 解析画像生成部
206 解析部
207 解析結果変換部
208 解析結果出力部

Claims (15)

  1. 画像を解析することで対象物を検出する画像解析装置であって、
    第1の画像を取得する第1の取得手段と、
    前記第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、
    画像の解析を実施する解析手段と、
    前記第2の取得手段によって取得した各解析領域の位置情報に基づき、前記解析手段により解析が可能な画像サイズを持つ第2の画像上に配置する前記解析領域毎の配置領域を決定する決定手段と、
    前記各解析領域を前記第2の画像上の前記配置領域に配置することで、前記各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、
    前記解析手段は、前記解析画像から前記対象物を検出し、検出結果を出力することを特徴とする画像解析装置。
  2. 前記解析画像に対して前記解析手段が出力した前記検出結果を、前記第1の画像上に表示可能となるように変換する変換手段を有することを特徴とする請求項1に記載の画像解析装置。
  3. 前記対象物は、人物の顔であることを特徴とする請求項2に記載の画像解析装置。
  4. 前記解析手段は、前記解析画像から前記人物の顔を検出し、検出された人物毎の顔の外接矩形の領域を検出結果として出力することを特徴とする請求項3に記載の画像解析装置。
  5. 前記変換手段は、前記外接矩形の領域における中心位置に基づき、前記第1の画像上への前記検出結果の表示する位置を決定することを特徴とする請求項4に記載の画像解析装置。
  6. 前記決定手段は、前記第1の画像における前記対象物のサイズに基づき、前記解析領域の比率を変更することを特徴とする請求項1に記載の画像解析装置。
  7. 前記決定手段は、前記第1の画像における前記対象物のサイズが前記解析手段における推奨サイズとなるように、前記解析画像の比率を変更することを特徴とする請求項6に記載の画像解析装置。
  8. 前記決定手段は、前記解析手段が解析可能なサイズより前記解析領域のサイズの方が大きかった場合、前記解析手段が解析可能なサイズに収まるように前記解析領域を分割することを特徴とする請求項1に記載の画像解析装置。
  9. 前記決定手段は、前記比率を変更した各解析領域を前記第2の画像における前記配置領域に配置する位置を決定することを特徴とする請求項7に記載の画像解析装置。
  10. 前記変換手段により変換された前記検出結果が前記第1の画像上に表示されている変換画像を表示装置の画面上に表示させる表示制御手段を有することを特徴とする請求項2に記載の画像解析装置。
  11. 前記決定手段は、設定された解析回数に基づき、前記第2の画像における前記配置領域に前記解析領域を配置する位置を決定することを特徴とする請求項1に記載の画像解析装置。
  12. 前記解析領域を任意のサイズで指定可能とする操作手段を有することを特徴とする請求項1に記載の画像解析装置。
  13. 画像解析装置の制御方法であって、
    第1の画像を取得する第1の取得工程と、
    前記第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得工程と、
    画像の解析を実施する解析工程と、
    前記第2の取得工程で取得した各解析領域の位置情報に基づき、前記解析工程で解析が可能な画像サイズを有する第2の画像上に配置する前記解析領域毎の配置領域を決定する決定工程と、
    前記各解析領域を前記第2の画像上の前記配置領域に配置することで、前記各解析領域を結合した画像である解析画像を生成する解析画像生成工程と、を有し、
    前記解析工程おいて、前記解析画像から対象物を検出し、検出結果を出力することを特徴とする画像解析装置の制御方法。
  14. 画像解析装置の制御方法をコンピュータに実行させるためのプログラムであって、
    第1の画像を取得する第1の取得工程と、
    前記第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得工程と、
    画像の解析を実施する解析工程と、
    前記第2の取得工程で取得した各解析領域の位置情報に基づき、前記解析工程で解析が可能な画像サイズを有する第2の画像上に配置する前記解析領域毎の配置領域を決定する決定工程と、
    前記各解析領域を前記第2の画像上の前記配置領域に配置することで、前記各解析領域を結合した画像である解析画像を生成する解析画像生成工程と、を有し、
    前記解析工程において、前記解析画像から対象物を検出し、検出結果を出力することを特徴とするプログラム。
  15. 撮像装置と、前記撮像装置と通信可能に接続され、画像を解析することで対象物を検出する画像解析装置から構成される画像解析システムであって、
    前記撮像装置は、
    第1の画像を撮像する撮像手段を有し、
    前記画像解析装置は、
    前記撮像装置から前記第1の画像を取得する第1の取得手段と、
    前記第1の画像上における解析を実施する領域である解析領域毎の位置情報を取得する第2の取得手段と、
    画像の解析を実施する解析手段と、
    前記第2の取得手段によって取得した各解析領域の位置情報に基づき、前記解析手段により解析が可能な画像サイズを有する第2の画像上に配置する前記解析領域毎の配置領域を決定する決定手段と、
    前記各解析領域を前記第2の画像上の前記配置領域に配置することで、前記各解析領域を結合した画像である解析画像を生成する解析画像生成手段と、を有し、
    前記解析手段は、前記解析画像から前記対象物を検出し、検出結果を出力することを特徴とする画像解析システム。

JP2022127802A 2022-08-10 2022-08-10 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。 Pending JP2024024863A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022127802A JP2024024863A (ja) 2022-08-10 2022-08-10 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022127802A JP2024024863A (ja) 2022-08-10 2022-08-10 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。

Publications (1)

Publication Number Publication Date
JP2024024863A true JP2024024863A (ja) 2024-02-26

Family

ID=90011047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022127802A Pending JP2024024863A (ja) 2022-08-10 2022-08-10 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。

Country Status (1)

Country Link
JP (1) JP2024024863A (ja)

Similar Documents

Publication Publication Date Title
US10230907B2 (en) Thermal imaging device and normative photographing method for thermal image
KR101932537B1 (ko) 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치
CN112288665B (zh) 图像融合的方法、装置、存储介质及电子设备
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
CN110009712B (zh) 一种图文排版方法及其相关装置
JP6293386B2 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
US9292947B2 (en) Image processing apparatus and an image processing method for generating mosaic image(s)
WO2013161111A1 (ja) 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
US11798227B2 (en) Image processing apparatus and image processing method
US11264416B2 (en) Image processing apparatus and image processing method
JP2024024863A (ja) 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。
US20210350615A1 (en) Methods and apparatus for extracting profiles from three-dimensional images
JP5400087B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20220383487A1 (en) Image processing apparatus, image processing method, and image processing program
CN113473038A (zh) 图像处理装置、图像处理方法及相关产品
JP2020166653A (ja) 情報処理装置、情報処理方法、およびプログラム
CN114407364B (zh) 三维模型的切片方法、打印方法、打印系统及电子设备
JP5248719B1 (ja) 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
WO2019012647A1 (ja) 画像処理装置、画像処理方法およびプログラム記憶媒体
JPH06203119A (ja) カラー画像処理装置
JP7012457B2 (ja) 画像処理装置、画像処理方法
JP2007028477A (ja) 画像表示装置
JP2012146141A (ja) 画像検査装置及びプログラム
JP2023082472A (ja) 情報処理装置、画像ファイルのデータ構造、情報処理システム、およびプログラム