JP2023082590A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2023082590A
JP2023082590A JP2021196465A JP2021196465A JP2023082590A JP 2023082590 A JP2023082590 A JP 2023082590A JP 2021196465 A JP2021196465 A JP 2021196465A JP 2021196465 A JP2021196465 A JP 2021196465A JP 2023082590 A JP2023082590 A JP 2023082590A
Authority
JP
Japan
Prior art keywords
tracking
model
shielding
tracking target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021196465A
Other languages
English (en)
Inventor
源基 北澤
Motoki Kitazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021196465A priority Critical patent/JP2023082590A/ja
Priority to US17/985,975 priority patent/US20230177705A1/en
Publication of JP2023082590A publication Critical patent/JP2023082590A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 追尾目標の追尾精度を従来よりも向上させるための技術を提供すること。【解決手段】 撮像画像中の追尾対象を追尾する追尾処理を追尾モデルを用いて行う。第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、追尾モデルを、該第2オブジェクトを追尾対象として追尾する第1モデルに切り替える。一方、該遮蔽が解除されたことが検知された場合には、追尾モデルを、該第1オブジェクトを追尾対象として追尾する第2モデルに切り替える。【選択図】 図2

Description

本発明は、追尾技術に関するものである。
画像内の物体を追尾するための技術としては、輝度や色情報を利用するもの、テンプレートマッチングやDeepNeuralNetwork(DNN)を利用するもの等が存在する。しかし、どの方法においても、追尾目標が他の物体に遮蔽された際の対応が重要となる。このような対応としては、追尾目標について複数の特徴点を設定することで、追尾目標が部分的に遮蔽されても追尾を可能としたり、追尾目標の動きベクトルを利用して移動位置を予測することで追尾を継続することが従来から行なわれている。
また、特許文献1では、追尾目標が遮蔽物によって遮蔽された場合に、遮蔽物を仮の追尾対象と認識して追尾を続行し、追尾目標が再出現した際には、追尾対象を追尾目標に戻すことによって、追尾目標の追尾を継続することを可能とする技術が開示されている。
特許4769943号
特許文献1に開示されている方法では、遮蔽物を仮の追尾対象として追尾するために、追尾モデルが追尾目標を検出するための閾値を下げている。しかし特許文献1の方法では、遮蔽物を仮の追尾対象として追尾している際に該遮蔽物と見た目が類似している別の物体が画像中に登場した場合、仮の追尾対象が該別の物体に移ってしまう可能性があり、その後の追尾目標の追尾が正常に動作しない可能性がある。本発明では、追尾目標の追尾精度を従来よりも向上させるための技術を提供する。
本発明の一様態は、撮像画像中の追尾対象を追尾する追尾処理を追尾モデルを用いて行う追尾手段と、前記追尾手段が第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、前記追尾モデルを、該第2オブジェクトを追尾対象として追尾する第1モデルに切り替え、該遮蔽が解除されたことが検知された場合には、前記追尾モデルを、該第1オブジェクトを追尾対象として追尾する第2モデルに切り替える切替手段とを備えることを特徴とする。
本発明の構成によれば、追尾目標の追尾精度を従来よりも向上させることができる。
画像処理装置のハードウエア構成例を示すブロック図。 システムの機能構成例を示すブロック図。 追尾目標の設定処理のフローチャート。 追尾処理のフローチャート。 システムの機能構成例を示すブロック図。 追尾処理のフローチャート。 (a)は遮蔽物領域マップの一例を示す図、(b)は被遮蔽物領域マップの一例を示す図。 遮蔽の発生の検出例を示す図。 遮蔽の解除の検出例を示す図。 ステップS303の処理を説明する図。 システムの機能構成例を示すブロック図。 追尾処理のフローチャート。 追尾対象の切り替えを判定する方法の例を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
本実施形態では、撮像画像中の追尾対象を追尾する追尾処理を追尾モデルを用いて行う画像処理装置について説明する。本実施形態に係る画像処理装置は、第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、該追尾モデルを、該第2オブジェクトを追尾対象として追尾する第1モデルに切り替える。また本実施形態に係る画像処理装置は、該遮蔽が解除されたことが検知された場合には、該追尾モデルを、該第1オブジェクトを追尾対象として追尾する第2モデルに切り替える。
ここで、「追尾対象」とは、追尾する目標のオブジェクトとして予め指定されたオブジェクト(追尾目標)、該追尾目標を遮蔽したと判定されたオブジェクト(遮蔽物)、のうち、追尾する対象として後述する処理により決定されたオブジェクトである。
まず、このような本実施形態に係る画像処理装置のハードウエア構成例について、図1のブロック図を用いて説明する。なお、図1に示した構成は一例であり、適宜変形/変更が可能である。
CPU101は、メモリ102に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU101は、画像処理装置全体の動作制御を行うと共に、画像処理装置が行うものとして説明する各種の処理を実行もしくは制御する。
メモリ102は、記憶部104からロードされたコンピュータプログラムやデータを格納するためのエリア、通信部108を介して外部から受信したデータを格納するためのエリア、を有する。さらにメモリ102は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにメモリ102は、各種のエリアを適宜提供することができる。
入力部103は、キーボード、マウス、タッチパネルなどのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。
記憶部104は、ハードディスクドライブ装置などの不揮発性メモリ装置である。記憶部104には、OS(オペレーティングシステム)、画像処理装置が行うものとして説明する各種の処理をCPU101に実行もしくは制御させるためのコンピュータプログラムやデータ、等が保存されている。記憶部104に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜メモリ102にロードされ、CPU101による処理対象となる。
表示部105は、液晶画面やタッチパネル画面を有する表示装置であり、CPU101による処理結果を画像や文字などでもって表示することができる。なお、表示部105は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。
通信部106は、LANやインターネットなどの有線および/または無線のネットワークを介して外部装置との間のデータ通信を行うための通信インターフェースである。CPU101、メモリ102、入力部103、記憶部104、表示部105、通信部106は何れもシステムバス107に接続されている。
次に、このような画像処理装置を含む本実施形態に係るシステムの機能構成例について、図2のブロック図を用いて説明する。図2に示す如く、本実施形態に係るシステムでは、画像処理装置100には撮像装置200および情報保存部170が接続されており、画像処理装置100は通信部106を介して撮像装置200および情報保存部170とのデータ通信を行う。
まず、撮像装置200について説明する。撮像装置200は、ディジタルカメラや監視カメラなどの撮像装置である。撮像装置200は、動画像を撮像し、該動画像における各フレームの画像を撮像画像として取得する装置であっても良いし、定期的若しくは不定期的に静止画像を撮像し、該静止画像を撮像画像として取得する装置であっても良い。撮像装置200は、取得した撮像画像を画像処理装置100に対して出力する。
次に、情報保存部170について説明する。情報保存部170は、ハードディスクドライブ装置などの不揮発性メモリ装置やサーバ装置など、「LANやインターネットなどの有線および/または無線のネットワークを介して画像処理装置100と通信可能な記憶装置」である。また情報保存部170は、USBメモリ装置などの外付けのメモリ装置であっても良い。画像処理装置100は、撮像画像における追尾対象を追尾するために必要な情報を適宜情報保存部170に保存する。なお、情報保存部170は必須では無く、情報保存部170の代わりに記憶部104を使用しても構わない。
次に、画像処理装置100について説明する。画像処理装置100は、撮像装置200から出力された撮像画像を取得し、該取得した撮像画像中の追尾対象を追尾する。以下では画像処理装置100における各機能部を処理の主体として説明する場合がある。しかし実際には、該機能部の機能をCPU101に実行させるためのコンピュータプログラムを該CPU101が実行することで、該機能部の機能が実現される。
画像処理装置100においてこのような追尾処理を行うためには、追尾する目標となるオブジェクト(追尾目標)を予め設定しておく必要がある。このような追尾目標の設定処理について、図3のフローチャートに従って説明する。
ステップS101では、取得部110は、撮像装置200によって撮像された1枚の撮像画像を取得する。この1枚の撮像画像は、例えば、追尾処理の対象となる撮像画像群(静止画像群もしくは動画像における画像群)における先頭フレームの撮像画像である。なお、取得部110は、該撮像画像におけるオブジェクトの物体領域、該オブジェクトにおける一部の物体領域(顔などの部位の物体領域)、などの該撮像画像における部分領域内の画像を改めて撮像画像として取得しても良い。
ステップS102では、設定部120は、ステップS101において取得部110が取得した撮像画像に含まれているオブジェクトのうち1つを追尾目標として設定する設定処理を行う。追尾目標の設定処理には様々な設定処理があり、特定の設定処理に限らない。
例えば、設定部120は、ステップS101において取得部110が取得した撮像画像を表示部105に表示させて、ユーザからの追尾目標の物体領域の指定操作を受け付ける。ユーザは表示部105に表示された撮像画像を確認し、該撮像画像に含まれているオブジェクトのうち1つを追尾目標として設定するべく、該追尾目標の物体領域を指定する指定操作を行う。ユーザによる物体領域の指定方法については様々な指定方法があり、本実施形態では特定の指定方法に限定しない。例えば、表示部105がタッチパネル画面を有している場合には、ユーザは該タッチパネル画面上で追尾目標の物体領域を指定しても良い。また、ユーザは入力部103を操作して追尾目標の物体領域を指定しても良い。そして設定部120は、ユーザ操作に応じて指定された物体領域を追尾目標の物体領域として設定する。
なお、設定部120は、撮像画像から追尾目標となる被写体の物体領域を検出し、該検出した被写体の物体領域を追尾目標の物体領域として設定するようにしても良い。撮像画像中の主被写体を自動的に検出する方法としては、例えば、特許第6557033号に記載の方法が適用可能である。
また、設定部120は、撮像画像からオブジェクトの物体領域を検出する技術と、ユーザ操作と、を併用して、撮像画像における追尾目標の物体領域を設定するようにしても構わない。撮像画像からオブジェクトの物体領域を検出する技術としては、例えば、“Liu,SSD:SingleShotMultiboxDetector.In:ECCV2016”等が挙げられる。
ステップS103では、設定部130は、ステップS102で追尾目標の物体領域として設定された物体領域内の画像(追尾目標画像)を用いて、「追尾処理部140が追尾目標を追尾するために用いる追尾モデル(追尾目標モデル)」を構築する。追尾目標モデルには様々なモデルが適用可能であり、よって、追尾目標モデルの構築方法には様々な構築方法がある。
例えば、追尾目標モデルがDNNなどのニューラルネットワークである場合、設定部130は、追尾目標画像を用いてニューラルネットワークの学習処理を行い、該学習処理により得られる学習済みのニューラルネットワークを追尾目標モデルとして取得する。
また例えば、追尾目標モデルがテンプレートマッチングを行う追尾モデルである場合には、設定部130は、追尾目標画像とのテンプレートマッチングを行う追尾モデルを追尾目標モデルとして取得する。
このようにして設定部130は、追尾処理部140の設定処理として、該追尾処理部140が追尾目標を追尾するために用いる追尾目標モデルを構築する処理を行う。設定部130は、このようにして構築した追尾目標モデル(該追尾目標モデルのパラメータなど)と、追尾目標画像と、を情報保存部170に格納する。
次に、上記の設定処理後に撮像装置200から出力されるそれぞれの撮像画像において追尾対象を追尾するために画像処理装置100が行う処理について、図4のフローチャートに従って説明する。
ステップS200では、設定部130は、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして追尾目標モデルを設定する。より詳しくは、設定部130は、上記の設定処理で情報保存部170に格納された追尾目標モデルを読み出し、該読み出した追尾目標モデルを、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして設定する。そして、ステップS201~S205の処理が、撮像装置200から出力されるそれぞれの撮像画像について行われる。
ステップS201では、取得部110は、撮像装置200から出力された撮像画像を取得する。なお、上記のステップS101と同様に、撮像画像における部分領域内の画像を改めて撮像画像として取得しても良い。
ステップS202では、追尾処理部140は、ステップS201で取得部110が取得した撮像画像における追尾対象を追尾する追尾処理を、設定部130により設定されている追尾モデルを用いて実行する。
ステップS200→ステップS201→ステップS202と処理が進んだ際におけるステップS202では、追尾処理部140は、撮像画像における追尾対象の追尾処理を、ステップS200で設定部130により設定された追尾目標モデルを用いて実行する。これにより、撮像画像における追尾目標の追尾処理が行われる。
ステップS205→ステップS202と処理が進んだ際におけるステップS202では、追尾処理部140は、撮像画像における追尾対象の追尾処理を、ステップS205で設定部130により設定された追尾モデルを用いて実行する。これにより、撮像画像において、ステップS204で切り替えた追尾対象の追尾処理が行われる。
ステップS203→ステップS202と処理が進んだ際におけるステップS202では、追尾処理部140は、撮像画像における追尾対象の追尾処理を、現在設定されている追尾モデルを用いて実行する。
追尾処理部140は、前フレームの撮像画像中の追尾対象の物体領域を元に、追尾モデルを用いて、現フレームの撮像画像における追尾対象の物体領域の候補である複数の物体候補領域と、該物体候補領域の尤度(追尾対象らしさを示す尤度)と、を出力する。そして追尾処理部140は、該複数の物体候補領域から尤度が最も高い物体候補領域を追尾対象の物体領域として決定する。用いる追尾モデルとして追尾目標モデルが設定されている場合には、追尾処理部140は、現フレームの撮像画像における追尾目標の物体領域の候補である複数の物体候補領域と、該物体候補領域の尤度と、を出力する。そして追尾処理部140は、該複数の物体候補領域から尤度が最も高い物体候補領域を追尾目標の物体領域として決定する。この処理を行う技術の例としては、“Real-TimeMDNet,ECCV2018”等が挙げられる。しかし、現フレームの撮像画像における追尾対象の物体領域の候補となる複数の物体候補領域と、該物体候補領域の尤度(追尾対象らしさを示す尤度)と、を算出することができるのであれば、他の技術を採用しても良い。
なお、上記の例では、追尾処理部140は、複数の物体候補領域から尤度が最も高い物体候補領域を追尾対象の物体領域として決定しているが、他の基準で追尾対象の物体領域を決定するようにしても良い。例えば、前フレームの撮像画像における追尾対象の物体領域の位置と、現フレームの撮像画像におけるそれぞれの物体候補領域の位置と、の間の距離を求める。そして、現フレームの撮像画像におけるそれぞれの物体候補領域のうち最も短い距離を求めた物体候補領域を追尾対象の物体領域として決定する。
追尾モデルがオンライン学習を行うニューラルネットワークである場合、追尾処理部140は現フレームの撮像画像における追尾対象の物体領域内の画像を用いて追尾モデルの再学習を行い、再学習した追尾モデルと該画像を情報保存部170に格納しても良い。また追尾処理部140は、追尾モデルがテンプレートマッチングを行う追尾モデルである場合、現フレームの撮像画像における追尾対象の物体領域内の画像を、追尾モデルがテンプレートマッチングで使用する画像として情報保存部170に格納しても良い。
追尾処理部140は、追尾モデルとして追尾目標モデルが設定されている場合には、現フレームの撮像画像において追尾目標の物体領域として決定された物体候補領域内の画像を情報保存部170に格納する格納処理を、定期的若しくは不定期的に実行する。
ステップS203では、遮蔽検知部150は、ステップS201で取得部110が取得した撮像画像において追尾目標が他のオブジェクト(遮蔽物)に遮蔽されたか否か、該遮蔽が解除されたか否か、を判定する。撮像画像において追尾目標が遮蔽物に遮蔽されたか否か、該遮蔽が解除されたか否か、を判定するための方法には様々な方法があり、本実施形態では特定の方法に限らない。
撮像画像において追尾目標が遮蔽物に遮蔽されたか否かの判定は、例えば、次のような判定処理で実施可能である。つまり、遮蔽検知部150は、「追尾処理部140が追尾目標の追尾処理において該追尾目標の物体領域であると判定した物体候補領域の尤度が閾値未満であり、且つ該物体候補領域と重複する他の物体候補領域が存在する」という条件が満たされた場合には、撮像画像において追尾目標が遮蔽物に遮蔽されたと判定する。一方、遮蔽検知部150は、この条件が満たされていない場合には、撮像画像において追尾目標は遮蔽物に遮蔽されていない、と判定する。
また、該遮蔽が解除されたか否かの判定は、例えば、次のような判定処理で実施可能である。遮蔽検知部150は、追尾処理部140が遮蔽物の追尾処理において該遮蔽物の物体領域と判定した物体候補領域と重複する他の物体候補領域が存在する場合、該他の物体候補領域内の画像と、情報保存部170に格納されている「追尾目標の物体領域として決定された物体候補領域内の画像」と、の類似度を求める。そして遮蔽検知部150は、該類似度が閾値以上であれば、該遮蔽は解除された(撮像画像中に追尾目標が再登場した)と判定する。
このような判定の結果、ステップS201で取得部110が取得した撮像画像において追尾目標が遮蔽物に遮蔽された若しくは該遮蔽が解除されたと判定した(遮蔽の発生を検知した若しくは遮蔽の解除を検知した)場合には、処理はステップS204に進む。一方、このような判定の結果、このような遮蔽の発生も解除も検知していない場合には、処理はステップS201に進み、次のフレームについて以降の各ステップにおける処理が行われる。
ステップS204では、切替部160は、追尾処理部140が追尾する追尾対象を切り替える(選択する)。ここで、ステップS204における切替部160の動作は、遮蔽検知部150が遮蔽の発生を検知した場合と、該遮蔽の解除を検知した場合と、で異なる。
遮蔽検知部150が遮蔽の発生を検知した場合、切替部160は、「追尾目標の物体領域であると決定された物体候補領域と最も重複する他の物体候補領域」を遮蔽物の物体領域と決定し、該遮蔽物を追尾対象として選択する。
一方、遮蔽検知部150が遮蔽の解除を検知した場合、切替部160は、「遮蔽物の物体領域であると決定された物体候補領域と最も重複する他の物体候補領域」を追尾目標の物体領域と決定し、該追尾目標を追尾対象として選択する。
ステップS205では、切替部160は、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして「ステップS204で選択した追尾対象を追尾するための追尾モデル」を設定するよう、設定部130に対して指示する。ここで、ステップS205における切替部160の動作は、遮蔽検知部150が遮蔽の発生を検知した場合と、該遮蔽の解除を検知した場合と、で異なる。
遮蔽検知部150が遮蔽の発生を検知した場合、切替部160は、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして「遮蔽物を追尾する追尾モデル(遮蔽物モデル)」を設定するよう、設定部130に指示する。設定部130は、該指示に応じて、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして遮蔽物モデルを設定し、該遮蔽物モデルを情報保存部170に格納する。設定部130は、遮蔽物モデルとしてテンプレートマッチングを行う追尾モデルを用いる場合には、遮蔽物の物体領域であるとして決定された物体候補領域内の画像を用いてテンプレートマッチングを行う追尾モデル(遮蔽物モデル)を構築する。一方、設定部130は、遮蔽物モデルとしてDNNなどのニューラルネットワークを用いる場合には、遮蔽物の物体領域であるとして決定された物体候補領域内の画像(正事例)、遮蔽物の物体領域であるとして決定されなかった物体候補領域内の画像(負事例)、を用いて該ニューラルネットワークの学習処理(オンライン学習)を行うことで、学習済みのニューラルネットワークを遮蔽物モデルとして構築する。
つまり、遮蔽検知部150が遮蔽の発生を検知した場合、遮蔽物の物体領域として決定された物体候補領域内の画像を少なくとも用いて遮蔽物モデルを構築し、追尾処理部140が追尾対象の追尾に用いる追尾モデルを、該構築した遮蔽物モデルに切り替える。
一方、遮蔽検知部150が遮蔽の解除を検知した場合、切替部160は、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして追尾目標モデルを設定するよう、設定部130に指示する。設定部130は、該指示に応じて、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして、情報保存部170に格納しておいた追尾目標モデルを設定する。
つまり、本実施形態では、遮蔽検知部150が遮蔽の解除を検知した場合には、追尾処理部140が追尾対象を追尾するために用いる追尾モデルを、情報保存部170に格納しておいた追尾目標モデルに切り替える。
追尾処理部140は、新たな切替が発生しない限りは、初期に設定された追尾モデル(追尾目標モデル)もしくは最近の切替によって切り替えられた追尾モデルを用いて追尾対象の追尾処理を行う。
遮蔽物を仮の追尾対象として追尾する場合、該遮蔽物を正確に追尾していないと、該遮蔽物と見た目が類似している別のオブジェクトが画像中に登場した場合には、仮の追尾対象が該別のオブジェクトに移ってしまう可能性がある。その結果、その後の追尾目標の追尾が正常に動作しない可能性がある。
これに対し、本実施形態では、追尾目標が遮蔽物に遮蔽されていない場合は追尾目標モデルを用いることでより正確な追尾目標の追尾処理を実施し、追尾目標が遮蔽物に遮蔽されている場合は遮蔽物モデルを用いることでより正確な遮蔽物の追尾処理を実施する。これにより、追尾目標が遮蔽物に遮蔽されている最中に該遮蔽物と見た目が類似している別のオブジェクトが画像中に登場した場合でも、遮蔽物を正確に追尾し続けることができ、追尾目標が画像中に再登場しても、該追尾目標をより正確に追尾することができる。
[第2の実施形態]
本実施形態を含む以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、撮像画像における遮蔽物の領域(遮蔽物領域)と、該遮蔽物によって遮蔽されるオブジェクト(被遮蔽物)の領域(被遮蔽物領域)と、に基づいて、追尾対象を決定する。
本実施形態に係るシステムの機能構成例について、図5のブロック図を用いて説明する。図5に示す如く本実施形態に係るシステムは、遮蔽検知部150が、遮蔽物領域および被遮蔽物領域を検出する検出部151と、遮蔽物領域および被遮蔽物領域に基づいて遮蔽の発生や解除を検知する遮蔽判定部152と、を有する点で第1の実施形態と異なる。
次に、上記の設定処理後に撮像装置200から出力されるそれぞれの撮像画像において追尾対象を追尾するために画像処理装置100が行う処理について、図6のフローチャートに従って説明する。なお、図6において図4に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS301では検出部151は、撮像画像の画素ごとに遮蔽物らしさを表す値(尤度)を保持しているマップ(遮蔽物領域マップ)と、撮像画像の画素ごとに被遮蔽物らしさを表す値(尤度)を保持しているマップ(被遮蔽物領域マップ)と、を出力する。
遮蔽物領域マップの一例を図7(a)に示す。また、被遮蔽物領域マップの一例を図7(b)に示す。図7(a)には、2人の人物が含まれており、一方の人物の一部が他方の人物に遮蔽されている状態を示している。領域701は、遮蔽物としての人物の領域であり、例えば、遮蔽物らしさを表す値(尤度)が閾値以上の画素に対応する領域である。図7(b)には、2人の人物が含まれており、一方の人物の一部が他方の人物に遮蔽されている状態を示している。領域702は、被遮蔽物としての人物の領域であり、例えば、被遮蔽物らしさを表す値(尤度)が閾値以上の画素に対応する領域である。
このような、撮像画像から遮蔽物領域マップや被遮蔽物領域マップを取得するための技術としては、“Olaf Ronneberger, Philipp Fischer, Thomas Brox, U-Net:Convolutional Networks for Biomedical Image Segmentation:MICCAI2015”を応用することが考えられる。この技術では、事前に特定のオブジェクトが写った画像を学習することによって、別の画像内に写った該オブジェクトの領域を出力することができる。したがって、この技術を用いて遮蔽物や被遮蔽物を学習することによって、図7に示したような遮蔽物領域マップや被遮蔽物領域マップを出力することができる。しかし、出力される領域は当図に示した例以外であっても良く、遮蔽物領域や被遮蔽物の位置を特定できるものであればどのようなものでもよい。
ステップS302で遮蔽判定部152は、検出部151が出力した遮蔽物領域マップや被遮蔽物領域マップに基づき、ステップS201で取得部110が取得した撮像画像において追尾目標が遮蔽物に遮蔽されたか否か、該遮蔽が解除されたか否か、を判定する。この判定の方法について、追尾対象が追尾目標である場合と、追尾対象が遮蔽物である場合と、に分け、それぞれの場合について、図8、図9を用いて説明する。
まず、追尾対象が追尾目標である場合におけるステップS302の処理について説明する。まず、遮蔽判定部152は、撮像画像において追尾対象の物体候補領域中の任意の部分領域(例えば、物体候補領域の中心位置付近の領域)を遮蔽判定領域として設定する。そして遮蔽判定部152は、被遮蔽物領域マップにおいて該遮蔽判定領域に対応する対応領域に、被遮蔽物領域が含まれているかを判定する。そして遮蔽判定部152は、このような判定の結果、対応領域に被遮蔽物領域が含まれている場合には、遮蔽は発生していると判定し、対応領域に被遮蔽物領域が含まれていない場合には、遮蔽は発生していないと判定する。なお、遮蔽判定部152は、対応領域内における被遮蔽物領域の割合が閾値以上であれば、遮蔽が発生していると判定し、該割合が閾値未満であれば、遮蔽は発生していないと判定するようにしても良い。
図8(a)の例では、被遮蔽物領域マップにおいて追尾対象の物体候補領域に対応する対応領域801に、遮蔽判定領域に対応する対応領域802が位置しており、対応領域802には被遮蔽物領域803が含まれている。そのため、このような場合は、遮蔽判定部152は、遮蔽が発生していると判定する。
図8(b)の例では、被遮蔽物領域マップにおいて追尾対象の物体候補領域に対応する対応領域804に、遮蔽判定領域に対応する対応領域805が位置しており、対応領域805には被遮蔽物領域806は含まれていない。そのため、このような場合は、遮蔽判定部152は、遮蔽は発生していないと判定する。
次に、追尾対象が遮蔽物である場合におけるステップS302の処理について説明する。まず、遮蔽判定部152は、上記と同様にして、撮像画像において追尾対象の物体候補領域中の任意の部分領域(例えば、物体候補領域の中心位置付近の領域)を遮蔽判定領域として設定する。そして遮蔽判定部152は、「遮蔽物領域マップにおいて該遮蔽判定領域に対応する対応領域に遮蔽物領域が含まれており、且つ被遮蔽物領域マップにおいて、追尾対象の物体候補領域と重複する他の物体候補領域に被遮蔽判定領域が含まれている」という条件が満たされているか否かを判定する。そして遮蔽判定部152は、このような判定の結果、このような条件が満たされている場合には、遮蔽は解除していると判定し、このような条件が満たされていない場合には、遮蔽は解除されていないと判定する。
図9(a)の例では、遮蔽物領域マップにおいて追尾対象の物体候補領域に対応する対応領域901に、遮蔽判定領域に対応する対応領域902が位置している。そして、対応領域902には遮蔽物領域903が含まれており、且つ図9(b)に示す如く遮蔽物領域マップにおいて対応領域901と重複する他の物体候補領域904に被遮蔽判定領域905が含まれている、という条件が満たされている。そのため、このような場合は、遮蔽判定部152は、遮蔽は解除していると判定する。
なお、遮蔽物領域マップにおいて追尾対象の物体候補領域に対応する対応領域と重複する他の物体候補領域が複数存在する場合は、そのうち1つの追尾候補領域を選択し、該選択した物体候補領域に被遮蔽判定領域が含まれているか、を判定すれば良い。対応領域と重複する複数の物体候補領域から1つの物体候補領域を選択する方法としては、例えば、該対応領域との距離が最も小さい物体候補領域を選択する方法が適用可能であるが、特定の選択方法に限らない。
このような判定の結果、ステップS201で取得部110が取得した撮像画像において追尾目標が遮蔽物に遮蔽された、もしくは該遮蔽が解除された、と判定した場合には、処理はステップS303に進む。一方、このような判定の結果、このような遮蔽の発生も該遮蔽の解除もない場合には、処理はステップS201に進み、次のフレームについて以降の各ステップにおける処理が行われる。
ステップS303では、切替部160は、追尾処理部140が追尾する追尾対象を切り替える(選択する)。ここで、ステップS303における切替部160の動作は、遮蔽検知部150が遮蔽の発生を検知した場合と、該遮蔽の解除を検知した場合と、で異なる。
切替部160はまず、追尾処理部140が出力したそれぞれの物体候補領域について、該物体候補領域中の任意の部分領域(例えば、物体候補領域の中心位置付近の領域)を切替判定領域として設定する。
そして、遮蔽検知部150が遮蔽の発生を検知した場合、切替部160は、遮蔽物領域マップにおいて切替判定領域に対応する対応領域のうち、遮蔽物領域が占める割合が最も高い対応領域を特定する。そして切替部160は、該特定した対応領域に対応する物体候補領域のオブジェクトを、追尾対象として決定(選択)する。図10(a)の例では、遮蔽物領域マップにおいて切替判定領域に対応する対応領域1002,1003のうち、遮蔽物領域1004が占める割合が最も高い対応領域は対応領域1002である。然るに、該対応領域1002に対応する物体候補領域1001のオブジェクト(遮蔽物領域1004に対応するオブジェクト)が、追尾対象として決定(選択)される。
また、遮蔽検知部150が遮蔽の解除を検知した場合、切替部160は、被遮蔽物領域マップにおいて切替判定領域に対応する対応領域のうち、被遮蔽物領域が占める割合が最も高い対応領域を特定する。そして切替部160は、該特定した対応領域に対応する物体候補領域のオブジェクトを、追尾対象として決定(選択)する。図10(b)の例では、被遮蔽物領域マップにおいて切替判定領域に対応する対応領域1006,1007のうち、被遮蔽物領域1008が占める割合が最も高い対応領域は対応領域1007である。然るに、該対応領域1007に対応する物体候補領域1005のオブジェクト(被遮蔽物領域1008に対応するオブジェクト)が、追尾対象として決定(選択)される。
このように、本実施形態によれば、遮蔽物領域や被遮蔽物領域を利用した方法で追尾対象の切り替えを行うので、第1の実施形態と同様、追尾目標をより正確に追尾することができる。
[第3の実施形態]
本実施形態では、遮蔽検知部150が遮蔽の発生を検知しても、即座に追尾対象の切り替えを行うのではなく、追尾対象の遮蔽の度合いに応じて切り替えを行うか否かを判定する。
本実施形態に係るシステムの機能構成例について、図11のブロック図を用いて説明する。図11に示す如く、本実施形態に係るシステムは、図5の画像処理装置100に切替判定部180を加えた構成を有する。
次に、上記の設定処理後に撮像装置200から出力されるそれぞれの撮像画像において追尾対象を追尾するために画像処理装置100が行う処理について、図12のフローチャートに従って説明する。なお、図12において図6に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS302における判定の結果、ステップS201で取得部110が取得した撮像画像において追尾目標が遮蔽物に遮蔽された、もしくは該遮蔽が解除された、と判定した場合には、処理はステップS401に進む。一方、このような判定の結果、このような遮蔽の発生も該遮蔽の解除もない場合には、処理はステップS201に進み、次のフレームについて以降の各ステップにおける処理が行われる。
ステップS401では、切替判定部180は、追尾対象の切替を行うか否かを判定する。この判定の結果、追尾対象の切り替えを行う場合には、処理はステップS303に進み、追尾対象の切り替えを行わない場合には、処理はステップS201に進み、次のフレームについて以降の各ステップにおける処理が行われる。
追尾対象の切り替えを判定する方法の例としては、追尾目標の物体領域が消失した場合に追尾対象の切り替えを行うと判定する方法が考えられる。以下では、遮蔽の発生を検知した場合における処理について説明し、遮蔽の解除を検知した場合における処理は上記の実施形態と同様であるものとする。
例えば「遮蔽検知部150によって遮蔽が検知されており、且つ検出部151が出力した被遮蔽物領域の面積(画素数など)のθ%以上を含む物体候補領域が存在しない」という条件が満たされた場合に、追尾目標の物体領域が撮像画像から消失したと判定する。
図13の被遮蔽物領域マップは、遮蔽検知部150によって遮蔽が検知されている状態における被遮蔽物領域マップである。ここで、θ=30%とする。このとき、図13(a)の被遮蔽物領域マップにおいて、被遮蔽物の物体候補領域に対応する対応領域1302は、該被遮蔽物の被遮蔽物領域1301の30%以上を含むので、追尾目標の物体領域は消失していないと判定される。一方、図13(b)の被遮蔽物領域マップでは、被遮蔽物の被遮蔽物領域1303の30%以上を含む「被遮蔽物の物体候補領域に対応する対応領域」は存在しないため、追尾目標の物体領域は消失したと判定される。
また、追尾対象の切り替えを判定する方法としては、例えば、遮蔽が発生したことを検知してから予め定められた期間中一度も「遮蔽の解除」を検知していない場合に、追尾対象を遮蔽物に切り替えると判定しても良い。また、例えば、遮蔽が解除したことを検知してから予め定められた期間中一度も「遮蔽」を検知していない場合に、追尾対象を追尾目標に切り替えると判定しても良い。
本実施形態では、遮蔽検知部150が遮蔽の発生を検知してから切替判定部180が追尾目標を切り替えると判定するまでの期間内では、追尾処理部140は、該期間内のそれぞれの撮像画像について追尾候補情報を生成して情報保存部170に格納する。追尾候補情報は、該撮像画像から追尾処理部140が検出した物体候補領域の位置やサイズを規定する情報、該物体候補領域内の画像、該物体候補領域が遮蔽物の物体候補領域であるか否かを示すフラグ、を含む。フラグはTRUE、FALSEの2値をとり、TRUEは「物体候補領域が遮蔽物の物体候補領域である」ことを示し、FALSEは「物体候補領域は遮蔽物の物体候補領域ではない」ことを示している。
ステップS303では、切替部160は、情報保存部170に格納されている追尾候補情報のうち、フラグがTRUEの追尾候補情報を1つ選択し、該選択した追尾候補情報に対応する物体候補領域のオブジェクトを追尾対象として選択する。この時、1つの追尾候補情報を選択するのではなく、複数の追尾候補情報を組み合わせて用いてもよい。
そしてステップS205では、切替部160は、追尾処理部140が追尾対象を追尾するために用いる追尾モデルとして「ステップS303で選択した追尾対象を追尾するための追尾モデル」を設定するよう、設定部130に対して指示する。その際、追尾モデルがオンライン学習を行うオンライン学習モデルの場合には、保存された追尾候補情報を用いてオンライン学習モデルの学習を行ってもよい。
このように、本実施形態では、遮蔽検知部150と切替判定部180による2段階の遮蔽判定を行う。これによって、追尾目標が完全に隠れない軽微な遮蔽の場合には追尾対象の切り替えを省略することで、不必要な計算処理を省くことができる。
また、追尾モデルがオンライン学習を行うオンライン学習モデルの場合には、追尾処理部140の設定時に、情報保存部170に格納されている追尾候補情報を用いて学習を行うことによって、追尾対象切り替え後の追尾精度を向上させることができる。
なお、上記の実施形態では、図2,5,11に示した画像処理装置100の各機能部をソフトウェア(コンピュータプログラム)で実装したケースについて説明したが、これらの機能部のうち1以上をハードウェアで実装しても良い。
また、上記の実施形態では、撮像装置200と画像処理装置100とは別個の装置であるものとして説明した。しかし、撮像装置200と画像処理装置100とを一体化させて、撮像装置200の機能と画像処理装置100の機能とを有する1台の装置を構成しても良い。また、情報保存部170についても、画像処理装置100の外部装置とするのではなく、画像処理装置100と一体化させても良い。
また、上記の実施形態では、撮像画像から取得した撮像画像に対する追尾処理について説明したが、該撮像画像に係る処理として該追尾処理に加えて他の処理を実行しても良い。例えば、CPU101は、撮像装置200から取得した撮像画像に加えて、該撮像画像における追尾対象の物体領域をユーザに通知するための情報を、表示部105に表示させても良い。「追尾対象の物体領域をユーザに通知するための情報」は、該物体領域の枠、該物体領域内の追尾対象に対する認識結果(種別(人物、犬、車、頭部、腕、足など)、年齢、性別など)、などの情報のうち1以上を含む。
このように、上記の実施形態にて説明したシステムは1台の装置で実装しても良いし、2台以上任意の数の装置で構成しても良い。その場合に、上記の実施形態にて説明したシステムの各機能をどの装置に実行させるのかについては適宜変形が考えられ、どのような形態であっても構わない。
また、上記の各実施形態で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。
また、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や変形例の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:画像処理装置 110:取得部 120:設定部 130:設定部 140:処理部 150:遮蔽検知部 160:切替部 170:情報保存部 200:撮像装置

Claims (11)

  1. 撮像画像中の追尾対象を追尾する追尾処理を追尾モデルを用いて行う追尾手段と、
    前記追尾手段が第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、前記追尾モデルを、該第2オブジェクトを追尾対象として追尾する第1モデルに切り替え、該遮蔽が解除されたことが検知された場合には、前記追尾モデルを、該第1オブジェクトを追尾対象として追尾する第2モデルに切り替える切替手段と
    を備えることを特徴とする画像処理装置。
  2. 前記切替手段は、
    前記追尾手段が第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、前記追尾モデルを、該第2オブジェクトの画像を用いて構築した第1モデルに切り替え、該遮蔽が解除されたことが検知された場合には、前記追尾モデルを、該第1オブジェクトの画像を用いて構築した第2モデルに切り替える
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記切替手段は、
    前記撮像画像における第1オブジェクトの領域を表す第1マップに基づいて、前記第2オブジェクトによる前記第1オブジェクトの遮蔽を検知することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記切替手段は、
    前記遮蔽が検知されると、前記撮像画像における前記第1オブジェクトの領域の候補と、前記撮像画像における第2オブジェクトの領域を表す第2マップと、に基づいて、前記第2オブジェクトを追尾対象として決定し、前記追尾モデルを、該決定した第2オブジェクトを追尾対象として追尾する第1モデルに切り替えることを特徴とする請求項3に記載の画像処理装置。
  5. 前記切替手段は、
    前記撮像画像における第2オブジェクトの領域を表す第2マップに基づいて、前記遮蔽の解除を検知することを特徴とする請求項1ないし4の何れか1項に記載の画像処理装置。
  6. 前記切替手段は、
    前記遮蔽の解除が検知されると、前記撮像画像における前記第1オブジェクトの領域の候補と、前記撮像画像における第1オブジェクトの領域を表す第1マップと、に基づいて、前記第1オブジェクトを追尾対象として決定し、前記追尾モデルを、該決定した第1オブジェクトを追尾対象として追尾する第2モデルに切り替えることを特徴とする請求項5に記載の画像処理装置。
  7. 前記切替手段は、前記遮蔽が検知されると、前記撮像画像における前記第1オブジェクトの領域の候補と、前記撮像画像における第1オブジェクトの領域を表す第1マップと、に基づいて、前記切り替えを行うか否かを判定することを特徴とする請求項1ないし6の何れか1項に記載の画像処理装置。
  8. 前記第1モデルおよび前記第2モデルは、ニューラルネットワーク、テンプレートマッチング、を含むことを特徴とする請求項1ないし7の何れか1項に記載の画像処理装置。
  9. さらに、前記撮像画像を撮像する撮像手段を備えることを特徴とする請求項1ないし8の何れか1項に記載の画像処理装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の追尾手段が、撮像画像中の追尾対象を追尾する追尾処理を追尾モデルを用いて行う追尾工程と、
    前記画像処理装置の切替手段が、前記追尾工程で第1オブジェクトを追尾対象として追尾中に該第1オブジェクトが第2オブジェクトに遮蔽されたことが検知された場合には、前記追尾モデルを、該第2オブジェクトを追尾対象として追尾する第1モデルに切り替え、該遮蔽が解除されたことが検知された場合には、前記追尾モデルを、該第1オブジェクトを追尾対象として追尾する第2モデルに切り替える切替工程と
    を備えることを特徴とする画像処理方法。
  11. コンピュータを、請求項1ないし8の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2021196465A 2021-12-02 2021-12-02 画像処理装置、画像処理方法 Pending JP2023082590A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021196465A JP2023082590A (ja) 2021-12-02 2021-12-02 画像処理装置、画像処理方法
US17/985,975 US20230177705A1 (en) 2021-12-02 2022-11-14 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021196465A JP2023082590A (ja) 2021-12-02 2021-12-02 画像処理装置、画像処理方法

Publications (1)

Publication Number Publication Date
JP2023082590A true JP2023082590A (ja) 2023-06-14

Family

ID=86607794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021196465A Pending JP2023082590A (ja) 2021-12-02 2021-12-02 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US20230177705A1 (ja)
JP (1) JP2023082590A (ja)

Also Published As

Publication number Publication date
US20230177705A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
KR101457313B1 (ko) 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US20160300100A1 (en) Image capturing apparatus and method
CN109977906B (zh) 手势识别方法及系统、计算机设备及存储介质
CN112506340B (zh) 设备控制方法、装置、电子设备及存储介质
JP2011232894A (ja) インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2016085487A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US10235607B2 (en) Control device, control method, and computer program product
JP2009199363A (ja) パーティクルフィルタを使用する追跡システム
JP2019003299A (ja) 画像認識装置および画像認識方法
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
CN111640134B (zh) 人脸跟踪方法、装置、计算机设备及其存储装置
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
JP2021103598A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022070648A (ja) 情報処理装置および情報処理方法
JP7214437B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
JP2023082590A (ja) 画像処理装置、画像処理方法
JP2010271876A (ja) 移動体追跡装置、移動体追跡方法及びプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体