JP2023062786A - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP2023062786A
JP2023062786A JP2021172888A JP2021172888A JP2023062786A JP 2023062786 A JP2023062786 A JP 2023062786A JP 2021172888 A JP2021172888 A JP 2021172888A JP 2021172888 A JP2021172888 A JP 2021172888A JP 2023062786 A JP2023062786 A JP 2023062786A
Authority
JP
Japan
Prior art keywords
detection
area
candidate
reliability
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021172888A
Other languages
English (en)
Inventor
律子 大竹
Ritsuko Otake
英俊 井澤
Hidetoshi Izawa
智也 本條
Tomoya Honjo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021172888A priority Critical patent/JP2023062786A/ja
Priority to EP22197853.9A priority patent/EP4170600A1/en
Priority to US18/048,391 priority patent/US20230126046A1/en
Publication of JP2023062786A publication Critical patent/JP2023062786A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】複数の検出領域にまたがるある1つの物体に対して複数の検出結果が得られた場合であっても、検出枠を1つに統合し、その統合結果に対して適切な属性を選択できるようにする。【解決手段】入力画像の中で検出領域を複数設定し、各検出領域において、物体が存在する検出枠を取得するとともに、物体が存在する可能性を示す信頼度およびクラス確率を取得する。そして、任意の2つの検出結果を組みとして、検出枠の重複率を算出し、その重複率が閾値以上の重複検出群を出力する。続いて、検出領域に接する検出枠の信頼度を低く調整し、調整後に重複検出群に含まれる各検出結果の中から信頼度の最も高い検出枠を代表枠に決定し、代表枠との重複率に基づき、各クラス指数を算出して最も高いクラス指数のクラスを代表枠のクラスに決定する。【選択図】図2

Description

本発明は、特に、画像から物体を検出する技術に関する。
近年、監視カメラ等の撮像装置により撮影された画像を用いて物体を検出して追尾したり、その物体の属性を推定したりする画像解析や、そのような画像解析の結果を用いた物体数の推定が様々なシーンで行われている。
特開2018-180945号公報
J.Redmon, A.Farhadi,"YOLO9000:Better Faster Stronger", Computer Vision and Pattern Recognition (CVPR) 2016.
特許文献1に開示された技術では、検出枠のサイズに応じて統合の判断に用いられるパラメータを調整することで検出物体のサイズによらず適切に検出枠を統合しようとする技術である。その一方で、画像内において固定の検出領域が複数設定されているような場合には、物体が2つ以上の検出領域にまたがる場合がある。このような場合においては、1つの物体に対して複数の検出結果が出力され、物体検出枠を1つに統合することができない。
本発明は前述の問題点に鑑み、複数の検出領域にまたがるある1つの物体に対して複数の検出結果が得られた場合であっても、検出枠を1つに統合し、その統合結果に対して適切な属性を選択できるようにすることを目的としている。
本発明に係る情報処理装置は、画像上に複数の検出領域を設定する設定手段と、前記設定手段によって設定された検出領域ごとに、物体が存在する候補領域を検出するとともに、前記物体の属性の候補を取得する検出手段と、前記候補領域に物体が含まれる可能性を示す信頼度を前記取得した候補領域ごとに取得する信頼度取得手段と、前記候補領域が複数の場合に、前記複数の候補領域の間の重複率を取得する重複率取得手段と、前記設定手段によって設定された検出領域における幾何特性に基づいて、前記信頼度を調整する調整手段と、前記候補領域の組み合わせごとに、前記信頼度を調整した場合を含めた信頼度に基づいて代表領域を設定し、前記代表領域との重複率が閾値以上である候補領域を削除する統合手段と、前記候補領域に含まれる物体の属性の確率と、前記代表領域との重複率とに基づいて、前記代表領域における物体の属性を決定する決定手段と、を有することを特徴とする。
本発明によれば、複数の検出領域にまたがるある1つの物体に対して複数の検出結果が得られた場合であっても、検出枠を1つに統合し、その統合結果に対して適切な属性を選択することができる。
情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 第1の実施形態による物体検出処理の手順の一例を示すフローチャートである。 第1の実施形態による物体検出処理を説明するための図である。 第2の実施形態による物体検出処理の手順の一例を示すフローチャートである。 第2の実施形態による物体検出処理を説明するための図である。 検出領域と検出枠とが接するパターンを説明するための図である。 第3の実施形態による物体検出処理の手順の一例を示すフローチャートである。 第3の実施形態による枠統合処理の詳細な手順の一例を示すフローチャートである。 第3の実施形態による物体検出処理を説明するための図である。
(第1の実施形態)
物体の検出では、例えば、検出対象の物体の位置及び大きさ、物体の属性、物体が存在する信頼度等を出力する。物体の検出においては、1つの物体に対して複数の検出結果が生じる場合がある。それにより、検出結果の信頼性が低下したり統計データの信頼性が低下したりするなどの問題につながる課題がある。本実施形態は、1つの物体に対して複数の検出結果が生じる場合に、最適な検出結果を決定する方法を説明する。以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図である。本実施形態における情報処理装置100は、監視カメラ等の撮像装置によって撮影された画像から、検出対象の物体を検出する物体検出機能を有する。以下では、一例として人物の顔を検出する場合について説明するが、これに限定されるものではなく、画像を解析して所定の物体を検出する任意のシステムに適用することができる。
本実施形態による情報処理装置100は、CPU(Central Processing Unit)101、メモリ102、通信インターフェース(I/F)部103、表示部104、入力部105、及び記憶部106を有する。また、これらの構成はシステムバス107を介して通信可能に接続されている。なお、本実施形態による情報処理装置100は、これ以外の構成をさらに有していてもよい。
CPU101は、情報処理装置100の全体の制御を司る。CPU101は、例えばシステムバス107を介して接続される各機能部の動作を制御する。メモリ102は、CPU101が処理に利用するデータ、プログラム等を記憶する。また、メモリ102は、CPU101の主メモリ、ワークエリア等としての機能を有する。CPU101がメモリ102に記憶されたプログラムに基づき処理を実行することにより、後述する図2に示す情報処理装置100の機能構成及び後述する図3に示すフローチャートの処理が実現される。
通信I/F部103は、情報処理装置100をネットワークに接続するインターフェースである。表示部104は、液晶ディスプレイ等の表示部材を有し、CPU101による処理の結果等を表示する。入力部105は、マウス又はボタン等の操作部材を有し、ユーザーの操作を情報処理装置100に入力する。記憶部106は、例えば、CPU101がプログラムに係る処理を行う際に必要な各種データ等を記憶する。また、記憶部106は、例えば、CPU101がプログラムに係る処理を行うことにより得られた各種データ等を記憶する。なお、CPU101が処理に利用するデータ、プログラム等を記憶部106に記憶するようにしてもよい。
図2は、本実施形態に係る情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、画像取得部201、物体検出部202、重なり判定部203、代表枠決定部204、クラス決定部205、結果修正部206、結果出力部207、及び記憶部208を有する。
画像取得部201は、物体検出を行う対象となる画像を取得する。本実施形態では、物体検出を行う対象となる画像は、通信I/F部103を通じて外部から取得する。これ以降は、画像取得部201が取得した、物体検出を行う対象となる画像のデータを単に「入力画像」とも呼ぶ。また、以下の説明では、入力画像は、一例として水平方向(横方向)の幅が1080ピクセルであり、垂直方向(縦方向)の高さが720ピクセルである、1080×720ピクセルのRGB画像とする。なお、入力画像は、1080×720ピクセルのRGB画像に限定されるものではなく、任意の画像を入力画像とすることができ、例えば水平方向の幅や垂直方向の高さが異なっていてもよい。
物体検出部202は、画像から複数の属性(クラス)に係る物体検出を行う。本実施形態では、物体検出部202は、画像取得部201によって取得された入力画像から人物の顔を検出する。また、物体検出部202は、画像に含まれる「メガネ着用の顔」と「メガネ非着用の顔」とを検出できるように学習が行われた機械学習モデル(学習済みモデル)を用いて、検出結果を出力する。「メガネ着用の顔」及び「メガネ非着用の顔」の検出は、例えば非特許文献1に記載の技術を適用することで実現できる。
ここで、物体検出部202が出力する検出結果は、検出した顔(候補領域)の位置及び大きさ、検出の信頼度(confidence score)、及び顔のどの属性(クラス)に属するかを示す確率であるクラス確率(class probabilities)および検出の信頼度を含む。顔の位置及び大きさは、例えば顔を囲む矩形枠(候補領域)を規定する座標(例えば、矩形の左上座標(x1,y1)及び右下座標(x2,y2))により出力される。検出の信頼度は、例えば、上述の矩形枠(候補領域)において顔が含まれる可能性である信頼度を表し、信頼度取得の際に信頼度が最も低い場合を0とし、信頼度が最も高い場合を1として、0~1の実数で出力される。顔のクラス確率は、メガネ着用の顔である確率及びメガネ非着用の顔である確率を示し、これら確率の和は1(100%)である。これ以降、顔を囲む矩形枠、検出の信頼度、及び顔のクラス確率のそれぞれを、単に、「検出枠」、「信頼度」、「クラス確率」とも呼ぶこととする。なお、検出結果の出力方法は、前述した例に限定されるものではなく、検出した顔の位置及び範囲、検出の信頼度、及び顔のクラス確率がそれぞれ認識できればよい。
重なり判定部203は、物体検出部202によって得られた検出結果(特に候補領域の位置と大きさ)に基づいて、検出結果の重なりを判定する。重なり判定部203は、物体検出部202によって得られた全検出結果のうち、任意の2つの検出枠を組として、組毎に検出枠の重複率を算出する。重なり判定部203は、算出した重複率が閾値以上である、すなわち検出枠の領域が所定の割合以上重なった検出枠の組があれば重なりありと判定し、その検出結果の組を「重複検出群」として出力する。本実施形態では、重複率取得の際に、IoU(Intersection over Union)で重複率を算出するものとし、閾値は一例として0.5とする。つまり、2つの検出枠の領域の共通部分の面積を2つの領域の面積の和集合で割った値が0.5以上であれば重なり判定部203は重なりありと判定する。閾値以上重なった検出枠の組が無い場合には、重なり判定部203は、重なりなしと判定する。
代表枠決定部204は、物体検出部202によって得られた検出結果(特に候補領域の信頼度)に基づいて、重なり判定部203で出力した重複検出群それぞれの代表領域となる1つの検出枠を決定する。代表枠決定部204は、重複検出群ごとにそこに含まれる検出結果のうち信頼度が最大となる検出結果に対応する検出枠を、その重複検出群の代表枠(代表領域)と決定する。なお、信頼度が最大の検出結果が複数ある場合は、例えば、それらに対応する検出枠内の面積が最大の検出枠を代表枠と決定する。なお、1つの重複検出群において信頼度が最大の検出結果が複数ある場合の代表枠の決定指標は、検出枠内の面積以外を適用しても構わない。なお、すべての物体検出結果(候補領域)における信頼度を大きい順にソートし、上位N個または信頼度が閾値以上である候補領域を代表領域として決定してもよい。この場合の処理の具体例は実施形態3で説明する。
クラス決定部205は、重複検出群に含まれる各検出結果のクラス確率を利用して代表枠決定部204によって決定された代表枠のクラスを決定する。クラス決定部205によるクラス決定処理の詳細は後述する。本実施形態は、代表領域における物体のクラス確率だけではなく、代表領域と重複する候補領域における物体のクラス確率を用いることによって、物体の検出精度を向上できる。
結果修正部206は、物体検出部202によって得られた検出結果を、重なり判定部203、代表枠決定部204、クラス決定部205の出力によって修正を行う。結果修正部206は、重なり判定部203が出力した重複検出群それぞれについて代表枠決定部204で決定した代表枠に対応する検出結果以外の検出結果を削除する。また、結果修正部206は、他のどの枠とも重複率が閾値未満であった検出結果について、クラス確率が最大のクラスをその検出結果のクラスと決定する。以上の結果修正処理により、重複検出群ごとに代表枠に対応する検出結果1つのみを残し、そのクラスはクラス決定部205で決定したクラスとし、その他の重複が無かった各検出結果のクラスも決定する。
結果出力部207は、結果修正部206による処理の結果を出力する。その形式は、検出枠の座標とクラスのデータでもよいし、入力画像に検出結果を重畳した画像を出力してもよい。
記憶部208は、情報処理装置100の画像取得部201~結果出力部207での処理に用いるデータや処理結果として得られるデータ等を記憶する。
次に、図3及び図4を参照して、情報処理装置100が行う処理について説明する。図3は、本実施形態による物体検出処理の手順の一例を示すフローチャートである。図4は、本実施形態による物体検出処理を説明するための図である。
ステップS301において、画像取得部201は、入力画像(物体検出を行う対象となる画像)を取得する。図4(a)に、本実施形態における入力画像410の一例を示す。本実施形態では、入力画像410は、前述したように1080×720ピクセルの画像であるものとする。
ステップS302において、物体検出部202は、入力画像に対して検出対象である人物の顔を検出する顔検出処理を行う。そして、検出された顔それぞれについて信頼度及びクラス確率(「メガネ着用」クラスである確率と「メガネ非着用」クラスである確率)を出力する。入力画像に対する顔検出処理の検出結果の例を図4(b)に示し、検出結果を入力画像に重畳した画像の例を図4(c)に示す。図4(b)に示した例では、3つの検出結果A~Cが得られ、それぞれ矩形の検出枠の左上座標(x1,y1)及び右下座標(x2,y2)と、信頼度と、クラス確率(候補として「メガネ着用」と「メガネ非着用」)とが出力される。図4(c)に示した例では、検出結果A~Cに対応する矩形の検出枠411~413が入力画像410に重畳して表示部104に表示される。
ステップS303において、重なり判定部203は、入力画像に対する検出結果の内の任意の2つの検出結果を組として、検出枠の重複率を計算する。図4(b)の例では、検出結果Aの検出枠411の左上座標が(143,165)、右下座標が(417,418)である。また、検出結果Bの検出枠412の左上座標が(166,190)、右下座標が(450,446)である。したがって、検出結果Aと検出結果Bの検出枠の重複率は、
IoU(A,B)=((417-166)×(418-190))÷((417-143)×(418-165)+(450-166)×(446-190)-(417-166)×(418-190))≒0.67
となる。その他の組み合わせでは検出枠の重複率は0となる。
ステップS304において、重なり判定部203は、ステップS303で算出した重複率が閾値以上となった検出結果の組み合わせがあるか否かを判定する。重なり判定部203は、検出枠の重複率が閾値以上となった検出結果の組み合わせがあると判定した場合(ステップS304でYES)、重複率が閾値以上となった検出結果の組み合わせ(重複検出群)を出力し、ステップS305に移行する。一方、重なり判定部203は、検出枠の重複率が閾値以上となった検出結果の組み合わせが無いと判定した場合(ステップS304でNO)、ステップS309に移行する。本実施形態では、前述したように重複率の閾値を0.5とする。ここでは検出結果Aと検出結果Bの検出枠の重複率が0.67と算出されていて閾値0.5以上であるので、重なり判定部203は、重複率が0.5以上となった組み合わせを重複検出群(A,B)として出力し、ステップS305に移行する。
ステップS305において、代表枠決定部204は、ステップS304で出力した重複検出群に含まれる各検出結果の信頼度を比較し、信頼度が最大となる検出結果に対応する検出枠をその重複検出群の代表枠として決定する。本例での重複検出群(A,B)について、図4(b)によれば検出結果Aの信頼度が0.80、検出結果Bの信頼度が0.75であるため、代表枠は、信頼度が最大である検出結果Aに対応する検出枠に決定する。
ステップS306において、クラス決定部205は、ステップS305で決定した代表枠のクラスを、ステップS303で出力した重複検出群に含まれる各検出結果のクラス確率及び重複率を利用して決定する。本例での重複検出群(A,B)の場合、この重複検出群のクラス指数を、図4(b)に示されている各検出枠のクラス確率を前述の重複率(代表枠との重複率に限る)で重み付けした加重和として以下のように算出する。
メガネ着用クラス指数=1×0.55+0.67×0.15≒0.65
メガネ非着用クラス指数=1×0.45+0.67×0.85≒1.02
なお、自分自身との重複率は1であるために上式右第1項には1が乗算されている。
ここで算出したクラス指数のうち最大となるクラスを対象の代表枠クラスと決定する。本例では、メガネ非着用クラス指数が最大であるため、この代表枠のクラスはメガネ非着用クラスとなる。なお、算出したクラス指数が同値で最大となる複数のクラスが存在する場合には、代表枠の元のクラス確率の高いクラスを採用することとする。例えば本例での代表枠となった検出枠の元の情報は検出結果Aであるため、もしも上記の両クラス指数が同値であった場合には、検出結果Aのクラス確率が大きいほうのクラス、すなわちメガネ着用クラスを代表枠クラスと決定する。
クラス決定部205は、以上のように決定されたクラスのクラス確率を1、それ以外のクラスを0として、ステップS305で決定した代表枠に対応する検出結果の各クラス確率に上書きして更新する。
ステップS307において、結果修正部206は、重複検出群のうち代表枠に対応する検出結果以外の検出結果を削除する。
ステップS308において、結果修正部206は、検出枠の重複率が閾値以上となった検出結果のすべての組み合わせについて処理を完了したか否かを判定する。結果修正部206は、重複率が閾値以上となった検出結果のすべての組み合わせについて処理が完了したと判定した場合(ステップS308でYES)、ステップS309に移行する。一方、結果修正部206は、重複率が閾値以上となった検出結果の組み合わせにおいて未処理の組み合わせがあると判定した場合(ステップS308でNO)、ステップS305に移行し、未処理の組み合わせについてステップS305以降の処理を実行する。
ステップS309において、結果修正部206は、各検出結果のクラスを決定する。ステップS305~S308の処理を経て重複検出群の代表となった検出結果については、ステップS306で決定したクラスに決定する。ステップS305~S308の処理を経ずにステップS302の出力がそのまま残っている検出結果についてはクラス確率のうち最大のクラスをその検出結果のクラスに決定する。この処理により図4(d)に示すように、各検出結果(検出枠)に対してクラスが1つ決定される。
ステップS310において、結果出力部207は、図4(d)に示したような修正された検出結果データを出力して処理を終了し、次の入力画像の処理に移行する。この出力データは例えば図4(e)に示すように入力画像410に対して矩形で表される検出枠を重畳した形式で利用することができる。図4(e)では、左側の人物の顔には検出結果Aの検出枠としてメガネ非着用クラスを表す破線の矩形枠414が、右側の人物の顔には検出結果Cの検出枠としてメガネ着用クラスを表す点線の矩形枠415が重畳表示されている。
以上のように本実施形態によれば、入力画像に対する物体検出において、検出結果が複数重なった場合、最も適した検出枠1つに統合することができる。さらに、統合した検出枠の属性(クラス)を、統合前の複数の検出結果のクラス確率および検出枠の重複率に基づいて算出することで、最も適した属性(クラス)を選択することができる。これにより、入力画像に対する物体検出の検出結果として、最終的により適切な検出結果を出力することができる。
なお、物体検出部202における物体検出処理は、検出したい物体を検出することができる技術であれば、非特許文献1に開示されている技術に限らず、様々な技術を適用可能である。また、代表枠決定部204において決定する代表枠は、検出物体が含まれる領域であれば任意でよい。例えば、重複検出群に含まれる検出枠の和集合に対する外接矩形を代表枠として定義してもよい。また、重複検出群に含まれる検出枠のうち信頼度または重複率が上位にある検出枠の和集合に対する外接矩形を代表枠として定義してもよい。
また、本実施形態においては、2つの検出枠が重なった例について説明したが、3つ以上の検出する場合もありうる。例えば3つの検出結果M,N,Oが重なり、検出結果M,Nと、検出結果N,Oと、検出結果M,Oとでそれぞれ重複率がいずれも0.5以上であった場合は、重なり判定部203は、重複検出群(M,N,O)として出力する。そして、例えば検出結果Mの信頼度が最も大きい場合は、クラス決定部205は、重複検出群(M,N)、(M,O)での重複率を用いて各クラス指数を算出し、重複検出群(N,Oでの重複率は用いないようにする。
(第2の実施形態)
第1の実施形態では検出結果が複数重なった場合に、検出結果を適切に1つに統合する処理を説明した。第2の実施形態では、検出対象の画像上に複数の検出領域が設定された場合の検出結果の統合について説明する。以下の説明において、第1の実施形態と共通の構成については同一の符号を用い、説明を省略する。
図5は、本実施形態で情報処理装置100が行う物体検出処理の手順の一例を示すフローチャートであり、図3に示したフローチャートとの共通部分については図3と同一の符号を付している。図6は、本実施形態による物体検出処理を説明するための図である。
ステップS301において、画像取得部201は、入力画像(物体検出を行う対象となる画像)を取得する。図6(a)に、本実施形態における入力画像610の一例を示す。本実施形態においても第1の実施形態と同様に入力画像610は1080×720ピクセルの画像であるものとする。
ステップS501において、物体検出部202は入力画像の中で検出処理対象とする領域(検出領域)を設定する。図6(b)には、検出領域a(611)、b(612)が設定された様子を示す。検出領域aの左上座標は(99,127)、右下座標は(719,747)、検出領域bの左上座標は(546,10)、右下座標は(1076,540)である。なお、設定可能な検出領域数は限定しないが、ここでは説明のために前述の2領域が設定されているものとする。また、本実施形態では、入力画像に映る場面等の特徴により、図6(b)のように複数の検出領域が重なり合うように検出領域を設定する。
ステップS502において、物体検出部202はステップS501で設定された検出領域別に顔検出処理を行う。それぞれの検出領域で行う顔検出処理は第1の実施形態のステップS302で行う処理と同様である。入力画像の中で設定された検出領域別に顔検出処理をした検出結果の例を図6(c)に示し、検出結果を入力画像に重畳した画像の例を図6(d)に示す。検出領域b(612)には左端に人物が一部含まれているため、検出結果B、Cのように顔の一部が不完全な形で検出される。一方で、同じ人物の顔が検出領域a(611)では完全な形で検出されているため、これらの検出結果を正しく統合する処理を行う。これ以降の処理は、全検出領域での検出結果を同時に扱うこととする。本例では、3つの検出結果A~Cが得られ、図6(d)に示した例では、検出結果A~Cに対応する矩形の検出枠613~615が入力画像610に重畳して表示部104に表示される。
ステップS503において、重なり判定部203は、複数の検出結果の内の任意の2つの検出結果を組として、検出枠の重複率を計算する。第1の実施形態ではここでの重複率をIoUで定義し、次のステップS304でのIoUの閾値を0.5としていた。しかし、前述のように検出領域の端部に人物の顔の一部があることなどが原因で不完全な検出結果が出力される場合、重複率をIoUで定義すると同一の顔の検出結果であっても重複率が低く算出される。例えば図6(c)の検出結果Aと検出結果Bの検出枠のIoUは、
IoU(A,B)=((685-546)×(414-145))÷((685-410)×(414-145)+(705-546)×(440-113)-(685-546)×(414-145))≒0.42
検出結果Aと検出結果Cの検出枠のIoUは、
IoU(A,C)=((660-567)×(384-186))÷((685-410)×(414-145))≒0.25
検出結果Bと検出結果Cの検出枠のIoUは、
IoU(B,C)=((660-567)×(384-186))÷((705-546)×(440-113))≒0.20
となる。したがって、閾値を第1の実施形態と同様の0.5とした場合、閾値未満であるため、検出結果A~Cにおいて、いずれの組み合わせでも統合されないことになってしまう。
そこで本実施形態では、重複率を算出する際、一方がもう一方の一部により多く含まれる場合にも重複率が充分高く表現されるSimpson係数を導入する。Simpson係数による重複率は、2つの検出枠の領域の共通部分の面積を2つの検出枠のうち面積の小さいほうの検出枠領域の面積で割った値で定義される。
検出結果Aと検出結果Bの検出枠のSimpson係数は、
Simpson(A,B)=((685-546)×(414-145))÷((705-546)×(440-113))≒0.72
検出結果Aと検出結果Cの検出枠のSimpson係数は、
Simpson(A,C)=1
検出結果Bと検出結果Cの検出枠のSimpson係数は、
Simpson(B,C)=1
であり、いずれも閾値0.5以上であるためこの後の統合処理に移行できる。
以上のことから、ステップS503において重なり判定部203は、検出枠の重複率として、IoUとSimpson係数との双方を算出する。ここで算出したSimpson係数は、ステップS304~S308にて実行される検出枠の統合処理対象とするか否かを決定するための重複率として、ステップS304で使用される。一方、ここで算出したIoUは、複数の枠が統合された代表枠のクラスを決定する際の重複率として、ステップS306で使用される。
ステップS304において、重なり判定部203は、ステップS503で算出したSimpson係数による重複率が閾値以上となった検出結果の組み合わせがあるか否かを判定する。重なり判定部203は、検出枠の重複率が閾値以上となった検出結果の組み合わせがあると判定した場合(ステップS304でYES)、重複率が閾値以上となった検出結果の組み合わせ(重複検出群)を出力し、ステップS504に移行する。一方、重なり判定部203は、検出枠の重複率が閾値以上となった検出結果の組み合わせが無いと判定した場合(ステップS304でNO)、ステップS309に移行する。本実施形態では、前述したように重複率の閾値を0.5とする。本例では検出結果Aと検出結果Bの検出枠の重複率(Simpson係数)が0.72で、検出結果Aと検出結果C及び検出結果Bと検出結果Cの検出枠の重複率(Simpson係数)が1であり、いずれも閾値0.5以上である。この場合、重複率が0.5以上となった組み合わせが重複検出群(A,B)、(A,C)、(B,C)となり、互いに重なる組み合わせとなる。そこで、重なり判定部203は、重複率が0.5以上となった組み合わせを重複検出群(A,B,C)として出力し、ステップS504に移行する。
ステップS504において、物体検出部202は、ステップS304で出力した重複検出群に含まれる各検出結果の検出枠のうち、検出領域の境界に接する検出枠があるか否かを判定する。ここで検出枠が検出領域の境界に接するか否かの判定は、各検出結果の検出枠4辺のうちいずれかと、その結果が得られた検出領域4辺のうちいずれかに接しているか否かで判定する。図6(c)及び図6(d)の例では、検出結果Bの検出枠614の左端x座標とその結果を得た検出領域である検出領域bの左端x座標が546と一致しているため、検出結果Bの検出枠614が検出領域bの境界に接していると判定される。なお、検出結果Aの検出枠613はその検出領域aの境界とは接しておらず、同様に検出結果Cの検出枠615もその検出領域bの境界とは接していない。検出領域の境界に接する検出枠があると判定した場合(ステップS504でYES)、検出領域の境界に接する検出枠に関する情報を出力し、ステップS505に移行する。一方、検出領域の境界に接する検出枠は無いと判定した場合(ステップS504でNO)はステップS305へ移行する。
ステップS505において、物体検出部202は、ステップS504で出力した検出領域の境界に接する検出枠に対応する検出結果の信頼度を調整する処理を行う。検出領域の境界に接する検出枠は、すなわち顔の一部分に対する検出結果である可能性があると解釈できるため、顔の検出情報としては不完全である可能性がある。そこで、複数の検出結果を統合する際の代表枠や代表クラス確率への寄与率を抑制するために信頼度の調整を行う。ここでの信頼度の調整は、例えば既定係数を信頼度に乗算することで行う。本実施形態では既定係数を0.8とする。前述のように検出結果Bの検出枠614が検出領域bの境界に接しているため、図6(c)に示されている検出結果Bの信頼度0.85に既定係数0.8を乗算して調整後の信頼度0.68が得られる。図6(e)は、この結果を反映した後の検出結果を示しており、検出結果Bの信頼度は0.68に低減されている。
ここまでの処理に続いて情報処理装置100は、ステップS305以降を第1の実施形態と同様の処理を実行する。図6(e)に示した例では、ステップS305において、代表枠決定部204は、信頼度が0.80である検出結果Aの検出枠613を代表枠に決定する。
次のステップS306においては、クラス決定部205は、代表枠に関連する2つの重複検出群(A,B)、(A,C)の重複率を用いて各クラス指数を算出し、代表枠クラスを決定する。なお、ステップS306におけるクラス指数の算出に用いる重複率は前述したように、第1の実施形態と同様にIoUを適用する。本実施形態のように検出結果Aの検出枠613に完全に包含される検出枠615の検出結果Cの寄与率がSimpson係数に比べて適切な値となるためである。図6(e)に示した例では、各クラス指数は以下のように重複率で重み付けした総和で算出される。
メガネ着用クラス指数=1×0.15+0.42×0.30+0.25×0.60≒0.426
メガネ非着用クラス指数=1×0.85+0.42×0.70+0.25×0.40≒1.244
この結果、クラス決定部205は、メガネ非着用クラスを代表枠クラスと決定する。なお、代表枠に関連しない重複検出群(B,C)の重複率は、代表枠との重複率ではないため、クラス指数の算出には用いられない。
ステップS310において結果出力部207が出力する検出結果データは、例えば図6(f)に示すような結果となる。この検出結果を入力画像610に対して矩形で表される検出枠を重畳した形式で利用することができる。図6(g)では、メガネ非着用クラスを表す破線の矩形616が人物の顔に重畳表示されている。
以上のように本実施形態によれば、入力画像に対して複数の検出領域が設定された場合、検出領域の境界付近の検出対象に対する複数の検出結果を適切に統合することが可能となる。
なお、ステップS505において、物体検出部202によって検出結果の信頼度に乗算する既定係数は、前述のような一定値とは限らず、例えば、検出領域と検出枠との位置関係に応じて既定係数を決定してもよい。例えば、図7(a)~図7(c)に示す概念図のように、点線で示す検出領域と実線で示す検出枠とが接する辺の数によって既定係数を変更するようにしてもよい。例えば、図7(a)の場合は検出領域と検出枠とが接する辺の数が0であるため既定係数=1とし、図7(b)の場合は接する辺の数が1であるため既定係数=0.8とし、図7(c)の場合は接する辺の数が2であるため既定係数=0.6とする。
また、図7(d)~図7(g)に示す例のように区分けし、検出枠内の外周長に対して検出領域境界と接する検出枠の辺の長さに応じて既定係数を以下のように算出してもよい。例えば、既定係数=1-(接する辺の長さ÷外周の長さ)で算出するようにしてもよい。この場合、図7(d)の場合の既定係数=1、図7(e)の場合の既定係数=0.88、図7(f)の場合の既定係数=0.63、図7(g)の場合の既定係数=0.5と算出される。また、その他の幾何特性に応じて既定係数を決定してもよい。
(第3の実施形態)
本実施形態では、複数の検出結果を統合する順序を変更し、検出結果の信頼度を基に統合処理を行う方法を説明する。以下の説明において、第1及び第2の実施形態と共通の構成については同一の符号を用い、説明を省略する。
図8(a)は、本実施形態で情報処理装置100が行う物体検出処理の一例を示すフローチャートであり、図3及び図5に示したフローチャートとの共通部分については図3及び図5と同一の符号を付している。また、図10は、本実施形態による物体検出処理を説明するための図である。
ステップS301において、画像取得部201は、入力画像を取得する。図10(a)に、本実施形態における入力画像1010の一例を示す。本実施形態においても第1の実施形態と同様に入力画像1010は1080×720ピクセルの画像であるものとする。
そして、ステップS302において、物体検出部202は、入力画像に対して検出対象である人物の顔を検出する顔検出処理を行い、検出された顔それぞれについて信頼度及びクラス確率を出力する。なお、ここで第2の実施形態のように検出領域を複数設定する場合にはステップS302の代わりに図5のステップS501、S502の処理を行う。なお、図10では、図5のステップS501、S502の処理を行ったものとして説明する。入力画像の中で設定された検出領域別に顔検出処理をした検出結果の例を図10(b)に示し、検出結果を入力画像に重畳した画像の例を図10(c)に示す。図10(c)に示すように、2つの検出領域a(1011)、b(1012)が設定され、4つの検出結果A~Dが得られている。このように図10(c)に示した例では、検出結果A~Dに対応する矩形の検出枠1013、1014、1016、1017が入力画像1010に重畳して表示部104に表示される。
ステップS810において、物体検出部202は、信頼度調整処理を行う。詳細は図8(b)を用いて後述する。なお、第1の実施形態のように検出領域が複数設定されていない場合は、この処理を省略してもよい。
ステップS820において、代表枠決定部204が処理順リスト作成処理を行う。詳細は図8(c)を用いて後述する。
ステップS900において、重なり判定部203、代表枠決定部204、クラス決定部205が枠統合処理を行う。詳細は図9を用いて後述する。
ステップS310において、結果出力部207が検出結果データを出力する。
図8(b)は、ステップS810の信頼度調整処理の詳細な手順の一例を示すフローチャートである。
ステップS811において、物体検出部202は、信頼度調整処理が全検出結果に対して実施されたか否かを判定する。物体検出部202は、全検出結果に対して信頼度調整処理を実施済みであると判定した場合(ステップS811でYES)は、図8(b)の信頼度調整処理を終了する。一方、物体検出部202は、信頼度調整処理を実施していない検出結果が残っていると判定した場合(ステップS811でNO)は、処理対象を次の検出結果に移してステップS812へ移行する。
ステップS812において、物体検出部202は、処理対象の検出結果に含まれる検出枠と、その検出を行った検出領域との位置関係を定義する。この位置関係とは第2の実施形態で図7を用いて説明したように、検出枠の外周と検出領域の外周とが接する辺の数や長さの割合等で定義するものである。
ステップS813において、物体検出部202は、ステップS812において定義された位置関係に応じて、処理対象の検出結果の信頼度を調整する。この調整についても、第2の実施形態で図7を用いて説明した通りである。その後、ステップS811へ戻り、次の処理対象の検出結果が残っていればステップS812、ステップS813を繰り返して全検出結果についての信頼度調整処理が行われる。
図10(d)は、図10(b)の検出結果の例に対して信頼度調整処理を実施後の検出結果の例であり、検出領域bに検出枠の一辺が重なる検出結果Bの信頼度が0.85から0.68に低減されている。
図8(c)は、ステップS820の処理順リスト作成処理の詳細な手順の一例を示すフローチャートである。
ステップS821において、代表枠決定部204は、全検出結果の信頼度を大きい順にソートする。図10(d)に示す検出結果A~Dがあった場合、それぞれの信頼度は、0.80,0.68,0.85,0.75であることから、ソート結果は信頼度の大きいほうからC,A,D,Bである。
ステップS822において、代表枠決定部204は、ステップS821でソートした結果をリスト化し、処理順リストとして記憶部208に記憶する。図10(e)は記憶される処理順リストの例を示している。なお、ここには順位と検出結果の対応のみをリスト情報としているが、検出結果に含まれる検出枠の座標情報、信頼度、クラス確率をリスト情報に含めることもできる。
図9は、ステップS900の枠統合処理の詳細な手順の一例を示すフローチャートである。
ステップS901において、代表枠決定部204は、ステップS822で作成された処理順リストに処理すべき検出結果が入っているか否かを判定する。代表枠決定部204は、処理順リストに処理すべき検出結果が入っておらず空と判定した場合(ステップS901でYES)は、枠統合処理は終了する。一方、代表枠決定部204は、処理順リストに処理すべき検出結果が入っていると判定した場合(ステップS901でNO)は、ステップS902へ移行する。
ステップS902において、代表枠決定部204は処理順リストの最上位にある処理結果に対応する検出枠を代表枠として設定する。例えば、この時点で処理順リストが図10(e)で示す情報である場合、処理順で1位が検出結果Cであるため、代表枠として検出結果Cの検出枠1016が設定される。これ以降のステップS903からS909は、ここで設定した代表枠に統合すべき検出枠を決定して統合する処理である。
ステップS903において、代表枠決定部204はステップS902で設定した代表枠に対する各クラス指数の初期値に、代表枠の各クラス確率を設定する。例えば、代表枠となった検出結果Cの検出枠1016に対応するクラス確率は図10(d)を参照すると、メガネ着用クラスが0.55、メガネ非着用クラスが0.45である。このため、代表枠の各クラス指数の初期値はメガネ着用クラスが0.55、メガネ非着用クラスが0.45である。
ステップS904において、重なり判定部203は、処理順リスト内に代表枠との重複率が未算出の検出結果があるか否かを判定する。重なり判定部203は、処理順リスト内の検出結果すべてで代表枠との重複率を算出済みであると判定した場合(ステップS904でYES)は、ステップS908へ移行する。一方、重なり判定部203は、処理順リスト内に代表枠との重複率が未算出の検出結果があると判定した場合(ステップS904でNO)は、ステップS905へ移行する。
ステップS905において、重なり判定部203は、処理順リスト内の代表枠より下位の検出結果のうちの1つに相当する検出枠と代表枠との重複率を算出する。処理順リスト内の代表枠より下位の検出結果のうちの1つは、重複率未算出のもののうち上位から順に選択すればよい。図10(e)に示す処理順リストによれば、代表枠(検出結果Cの検出枠1016)に対してまず検出結果Aの検出枠1013との重複率を算出することになる。図10(c)からわかるように、この2枠の重複率は0である。なお、図10の例のように、検出領域が複数設定されている場合には、第2の実施形態と同様に、IoUとSimpson係数との双方で重複率を算出し、第1の実施形態のように検出領域が複数設定されていない場合には、IoUで重複率を算出する。
ステップS906において、重なり判定部203は、ステップS905で算出した重複率が既定の閾値以上であるか否かを判定する。図10の例のように、検出領域が複数設定されている場合には、第2の実施形態と同様に、Simpson係数による重複率で閾値と比較し、第1の実施形態のように検出領域が複数設定されていない場合には、IoUによる重複率で閾値と比較する。重なり判定部203は、重複率が閾値未満であると判定した場合(ステップS906でNO)は、この組み合わせでは枠統合対象外であることから次の処理順リスト内の検出結果に処理対象を移すためにステップS904へ戻る。一方、重なり判定部203は、重複率が閾値以上であると判定した場合(ステップS906でYES)は、この組み合わせは枠統合対象となるためステップS907へ移行する。図10の代表枠(検出枠1016)と検出結果Aの検出枠1013との重複率は0であるため、ステップS906の判定結果はNOである。なお、次の処理順となる検出結果Dの検出枠1017と代表枠とのは重複率が閾値以上となることから、ステップS906の判定結果はYESである。
ステップS907において、代表枠決定部204およびクラス決定部205は、枠統合対象である検出枠の代表枠への統合処理を行う。代表枠への統合処理では、クラス決定部205が、代表枠の各クラス指数に、統合される検出枠の各クラス確率に重複率(IoU)を乗算した数値を加算する。また、代表枠決定部204が、処理順リストから統合される処理枠に相当する検出結果を削除するとともに、検出結果自体を削除する。図10の例では、代表枠に検出結果Dの検出枠1017を統合することになる。そのため、検出結果Dの各クラス確率に代表枠との重複率を乗算した数値を代表枠の各クラス指数に加算し、処理順リストから検出結果Dを削除する。そのときの処理順リストは図10(f)となる。また、図10(d)から検出結果Dの情報が削除される。代表枠への統合処理が終わると、次の処理順リスト内の検出結果に処理対象を移すためにステップS904へ戻る。
その後、図10の例では検出結果Cの代表枠に対して処理順リスト下位の検出結果Bに相当する検出枠1014についても重複率が算出されるが、重複率は0となるため、検出結果Bの検出枠1014は代表枠に統合されない。
以上のように1つの代表枠に対して他の検出枠の重複率を算出し、必要に応じて枠統合処理がすべて終了すると、ステップS904からステップS908へ移行する。ステップS908において、クラス決定部205は、ステップS903またはS907で算出した各クラス指数のうち最大値となるクラスをその代表枠のクラスと決定する。図10の例では、検出結果Cの代表枠のクラスは「メガネ着用」と決定される。
次にステップS909において、代表枠決定部204は、ここまでの処理が終わった代表枠に相当する検出結果を処理順リストから削除する。図10の例ではここまでの処理では、代表枠は検出結果Cの検出枠1016であったため、検出結果Cが処理順リストから削除される。その結果、処理順リストは図10(g)に示すようなリストになる。そして、次の代表枠に対する処理に移行するため、ステップS901へ戻る。その後の処理では、処理順リストの最上位である検出結果Aの検出枠1013が代表枠に設定され、検出結果Bに対して枠統合処理が行われ、処理順リストが図10(h)に示すようなリストになる。そして、ステップS908では、検出結果Aの代表枠のクラスは「メガネ非着用」と決定され、ステップS908で検出結果Aが処理順リストから削除される。その結果、ステップS901では処理順リストが空と判断され、図9に示す処理が終了する。
そして、図8のステップS310では、結果出力部207が検出結果データを出力する。図10(i)は検出結果データの例である。図10(a)が入力画像で、図10(i)の検出結果が出力された際、それら検出結果を入力画像に重畳した画像の例が図10(j)である。なお、図10(j)では、メガネ非着用クラスを破線の矩形1018、メガネ着用クラスを長破線の矩形1019で表現されている。
以上のように本実施形態によれば、複数の検出結果を統合する順序を、信頼度を基に決定し、重複率の算出を常に1対1で実施しその都度枠統合処理を実行するため、統合対象となる枠が多数である場合でも処理が単純になり計算効率がより向上する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
202 物体検出部、203 重なり判定部、204 代表枠決定部、205 クラス決定部、206 結果修正部

Claims (10)

  1. 画像上に複数の検出領域を設定する設定手段と、
    前記設定手段によって設定された検出領域ごとに、物体が存在する候補領域を検出するとともに、前記物体の属性の候補を取得する検出手段と、
    前記候補領域に物体が含まれる可能性を示す信頼度を前記取得した候補領域ごとに取得する信頼度取得手段と、
    前記候補領域が複数の場合に、前記複数の候補領域の間の重複率を取得する重複率取得手段と、
    前記設定手段によって設定された検出領域における幾何特性に基づいて、前記信頼度を調整する調整手段と、
    前記候補領域の組み合わせごとに、前記信頼度を調整した場合を含めた信頼度に基づいて代表領域を設定し、前記代表領域との重複率が閾値以上である候補領域を削除する統合手段と、
    前記候補領域に含まれる物体の属性の確率と、前記代表領域との重複率とに基づいて、前記代表領域における物体の属性を決定する決定手段と、
    を有することを特徴とする情報処理装置。
  2. 前記決定手段は、前記候補領域の各組み合わせにおいて、候補領域における物体の属性の確率を、前記代表領域との重複率で重み付けした総和が最大となる属性を、前記代表領域における物体の属性とすることを特徴とする請求項1に記載の情報処理装置。
  3. 前記調整手段は、前記検出領域と前記候補領域との位置関係に応じた係数により信頼度を調整することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記調整手段は、前記検出領域の外周に前記候補領域が接する長さの割合に応じた係数により信頼度を調整することを特徴とする請求項1又は2に記載の情報処理装置。
  5. 前記重複率取得手段によって取得された重複率が閾値以上である候補領域の組み合わせを取得する組み合わせ取得手段をさらに有し、
    前記統合手段は、前記組み合わせ取得手段によって取得された、重複率が閾値以上である候補領域の組み合わせごとに、前記代表領域を設定することを特徴とする請求項1~4の何れか1項に記載の情報処理装置。
  6. 前記重複率取得手段は、前記複数の候補領域のうち、前記統合手段によって設定された代表領域との間の重複率を取得することを特徴とする請求項1~4の何れか1項に記載の情報処理装置。
  7. 前記重複率取得手段は、2つの候補領域の共通部分の面積を2つの候補領域のうち面積の小さい候補領域の面積で割った数値である第1の重複率と、2つの候補領域の共通部分の面積を2つの候補領域の面積の和集合で割った数値である第2の重複率とを取得し、
    前記統合手段は、前記代表領域との第1の重複率が閾値以上である候補領域を削除し、
    前記決定手段は、前記候補領域に含まれる物体の属性の確率と、前記代表領域との第2の重複率とに基づいて、前記代表領域の属性を決定することを特徴とする請求項1~6の何れか1項に記載の情報処理装置。
  8. 画像上に複数の検出領域を設定する設定手段と、
    前記設定手段によって設定された検出領域ごとに、物体が存在する候補領域を検出するとともに、前記物体の属性の候補を取得する検出手段と、
    前記候補領域に物体が含まれる可能性を示す信頼度を前記取得した候補領域ごとに取得する信頼度取得手段と、
    前記設定手段によって設定された検出領域における幾何特性に基づいて、前記信頼度を調整する調整手段と、
    前記候補領域の組み合わせごとに、前記信頼度を調整した場合を含めた信頼度に基づいて代表領域を設定し、前記候補領域に含まれる物体の属性の確率と、前記代表領域との重複率とに基づいて、前記代表領域における物体の属性を決定する決定手段と、
    を有することを特徴とする情報処理装置。
  9. 画像上に複数の検出領域を設定する設定工程と、
    前記設定工程において設定された検出領域ごとに、物体が存在する候補領域を検出するとともに、前記物体の属性の候補を取得する検出工程と、
    前記候補領域に物体が含まれる可能性を示す信頼度を前記取得した候補領域ごとに取得する信頼度取得工程と、
    前記候補領域が複数の場合に、前記複数の候補領域の間の重複率を取得する重複率取得工程と、
    前記設定工程において設定された検出領域における幾何特性に基づいて、前記信頼度を調整する調整工程と、
    前記候補領域の組み合わせごとに、前記信頼度を調整した場合を含めた信頼度に基づいて代表領域を設定し、前記代表領域との重複率が閾値以上である候補領域を削除する統合工程と、
    前記候補領域に含まれる物体の属性の確率と、前記代表領域との重複率とに基づいて、前記代表領域における物体の属性を決定する決定工程と、
    を有することを特徴とする情報処理装置の制御方法。
  10. コンピュータを、請求項1~8の何れか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。
JP2021172888A 2021-10-22 2021-10-22 情報処理装置、情報処理装置の制御方法およびプログラム Pending JP2023062786A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021172888A JP2023062786A (ja) 2021-10-22 2021-10-22 情報処理装置、情報処理装置の制御方法およびプログラム
EP22197853.9A EP4170600A1 (en) 2021-10-22 2022-09-26 Information processing apparatus, method of controlling information processing apparatus, and program
US18/048,391 US20230126046A1 (en) 2021-10-22 2022-10-20 Information processing apparatus, method of controlling information processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021172888A JP2023062786A (ja) 2021-10-22 2021-10-22 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023062786A true JP2023062786A (ja) 2023-05-09

Family

ID=86270186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021172888A Pending JP2023062786A (ja) 2021-10-22 2021-10-22 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2023062786A (ja)

Similar Documents

Publication Publication Date Title
KR102169431B1 (ko) 이미지들의 시퀀스 중의 이미지에서의 객체 경계 안정화를 위한 이미지 처리 장치 및 방법
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
US10380756B2 (en) Video processing system and method for object detection in a sequence of image frames
JP6044134B2 (ja) 最適画像サイズによる画像領域分割装置、方法、およびプログラム
KR20160048140A (ko) 올-인-포커스 이미지를 생성하기 위한 방법 및 장치
KR20200079170A (ko) 시선 추정 방법 및 시선 추정 장치
EP2309454B1 (en) Apparatus and method for detecting motion
JP5728080B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP2000339476A (ja) 目位置及び顔位置検出装置
CN109543534B (zh) 一种目标跟踪中目标丢失重检的方法及装置
US20220351413A1 (en) Target detection method, computer device and non-transitory readable storage medium
CN106251348A (zh) 一种面向深度相机的自适应多线索融合背景减除方法
CN112750139A (zh) 图像处理方法及装置、计算设备、存储介质
CN114140320B (zh) 图像迁移方法和图像迁移模型的训练方法、装置
JP2015207090A (ja) 画像処理装置、及びその制御方法
JP2023062786A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2023062785A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US10430963B2 (en) Image processing apparatus, image reading apparatus, and non-transitory computer readable medium storing program
JP6044138B2 (ja) 画像領域分割装置、方法、およびプログラム
EP4170600A1 (en) Information processing apparatus, method of controlling information processing apparatus, and program
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
WO2023017723A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP5371604B2 (ja) 撮像装置、その制御方法、及びプログラム
US20190230296A1 (en) Picture processing device, method of producing picture data, and picture processing program
JP6044130B2 (ja) 画像領域分割装置、方法、およびプログラム