JP2017068815A - アテンション検出装置及びアテンション検出方法 - Google Patents

アテンション検出装置及びアテンション検出方法 Download PDF

Info

Publication number
JP2017068815A
JP2017068815A JP2015212207A JP2015212207A JP2017068815A JP 2017068815 A JP2017068815 A JP 2017068815A JP 2015212207 A JP2015212207 A JP 2015212207A JP 2015212207 A JP2015212207 A JP 2015212207A JP 2017068815 A JP2017068815 A JP 2017068815A
Authority
JP
Japan
Prior art keywords
attention
value
hash
learning
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015212207A
Other languages
English (en)
Other versions
JP6565600B2 (ja
Inventor
翔 阮
Sho Gen
翔 阮
湖川 盧
Huchuan Lu
湖川 盧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of JP2017068815A publication Critical patent/JP2017068815A/ja
Application granted granted Critical
Publication of JP6565600B2 publication Critical patent/JP6565600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動画像のアテンション検出において、実装が容易で且つ信頼性に優れた新規なアルゴリズムを提供する。【解決手段】アテンション検出装置が、動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出する特徴抽出部と、ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換し、且つ、学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するエントリとして登録されているハッシュテーブルを用いて、前記局所領域のハッシュ値に対応する学習値を選択するハッシング部と、前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するアテンション度合決定部と、を有する。【選択図】図1

Description

本発明は、動画像において視覚的注意(visual attention)を惹くと予測される領域を検出する技術に関する。
画像解析によって、画像のなかで人の視覚的注意を惹くと予測される領域、あるいは非正常な領域(このような領域をアテンション領域と呼ぶ。)を自動で検出する技術が知られている(例えば特許文献1参照)。この種の技術は、アテンション検出(visual attention detection)、顕著性検出(saliency detection)などと呼ばれ、コンピュータビジョンなどの分野における重要な要素技術として大きな注目を集めている。特に、動画像を対象としたアテンション検出は、例えば、監視カメラによる異常や不正の検出、車両やロボットの自動運転など、様々な分野への応用が期待されている。
アテンション検出のアルゴリズムは、一般に、モデルベースの手法と学習ベースの手法に大別される。モデルベースの手法とは、非正常と判断すべき画像特徴をモデルとして与え、そのような画像特徴をもつ領域を画像の中から検出する手法である。しかしながら、未知の非正常状態を仮定することは簡単ではなく、現実世界で発生する様々な事象に対応可能なモデルを実装することは極めて難しい。一方、学習ベースの手法は、大量の学習データを用いて、正常又は非正常と判断すべき画像特徴を学習する手法である。学習ベースの手法は、モデルや仮説が必要なく、より簡単に高精度な検出器を構築できるという利点がある。しかしながら、この手法は学習データの依存度が高いため、学習データが適切でないと検出精度が低下するという問題がある。また、適切な学習データを用いて事前学習を行った場合であっても、時間の経過とともに観察対象、状況、環境などが変化し、学習した知識が適切でなくなるケースもある。そのような場合は、現在の状況に則した新たな学習データを用意し再学習を行う必要があり、メンテナンスが面倒である。
特開2010−258914号公報
本発明は上記実情に鑑みなされたものであって、動画像のアテンション検出において、実装が容易で且つ信頼性に優れた新規なアルゴリズムを提供することを目的とする。
また本発明の別の目的は、動画像のアテンション検出において、対象や環境などの変化に柔軟に適応可能なアルゴリズムを提供することである。
上記目的を達成するために、本発明は以下の構成を採用する。
具体的には、本発明に係るアテンション検出装置は、動画像において視覚的注意を惹くと予測される領域を検出するためのアテンション検出装置であって、動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出する特徴抽出部と、ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換し、且つ、学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、前記局所領域の
ハッシュ値に対応する学習値を選択するハッシング部と、前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するアテンション度合決定部と、を有することを特徴とする。
「時空間特徴量」は、動画像内の被写体の動き・変化を数値化した指標といえる。それゆえ、「時空間特徴量の学習値」は、被写体の動き・変化の通常の状態(正常値)を表しており、一方、「局所領域の時空間特徴量の値」は、処理対象の動画像から検出された被写体の動き・変化、つまり現在の状態を表している。したがって、「局所領域の時空間特徴量の値」と「選択された学習値」との間の距離の大きさを評価することは、被写体の動き・変化の現在の状態が通常の状態からどの程度異なるかを評価することと等価である。一般に、通常の状態と異なる動き・変化をするものは人の視覚的注意を惹きやすい傾向にある。よって、本発明のように、「局所領域の時空間特徴量の値」と「選択された学習値」との間の距離の大きさに基づきアテンション度合を決定することで、アテンション領域を精度良く検出(推定)することが可能である。
また、本発明では、時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、局所領域のハッシュ値に対応する学習値を選択する。これにより、全ての学習値の中から、局所領域の時空間特徴量の値と比較すべき学習値分布を、簡単かつ高速に選択することができる。
さらに、本発明によれば、従来のモデルベースの手法のように複雑なモデルを設計する必要がなく、学習によってハッシュテーブルに学習値を登録するだけでよい。したがって、アテンション検出装置の実装の容易化を図ることができる。また、ハッシュテーブルを更新するだけで、対象や環境などの変化に柔軟に適応可能である、という利点もある。
前記学習値は、前記動画像と同じ撮影対象及び同じ撮影条件で撮影された所定期間分の動画像から抽出された時空間特徴量の値であるとよい。このように学習用動画像を選ぶことにより、動画像内の被写体の動き・変化の通常の状態(正常値)を適切に学習することができる。
前記ハッシング部は、複数のハッシュテーブルを有しており、前記アテンション度合決定部は、前記複数のハッシュテーブルをそれぞれ用いて複数のアテンション度合を計算し、前記複数のアテンション度合を統合することによって最終的なアテンション度合を決定するとよい。学習値の分布の偏りやハッシュ関数の偏りなどが原因で、アテンション度合の計算結果の信頼性が低下する可能性がある。そこで、上記のように複数のハッシュテーブルを用い、複数の計算結果を統合することで、アテンション検出の信頼性を向上することができる。
前記局所領域の時空間特徴量の値を新たな学習値として前記ハッシュテーブルに登録することによって、前記ハッシュテーブルを更新するハッシュテーブル更新部をさらに有するとよい。これにより、ハッシュテーブルが現在の状態(局所領域の時空間特徴量の値)を追加学習するので、アテンション検出の信頼性をさらに向上することができる。
前記ハッシュテーブル更新部は、登録されている学習値の数が閾値より小さいバケットを削除することによって、前記ハッシュテーブルを更新することもできる。学習値の少ないバケットを用いると、アテンション度合の推定誤差が大きくなる可能性がある。それゆえ、学習値の少ないバケットを削除し、アテンション度合の計算に用いられないようにすることで、アテンション検出の信頼性及び安定性を向上することができる。
前記動画像のフレーム内の動く領域を前景領域として抽出する前景抽出部と、前記アテンション度合決定部により決定されたアテンション度合の情報と、前記前景抽出部により抽出された前景領域の情報とから、前記前景領域内のアテンション度合が均一になるよう修整したアテンションマップを生成するアテンションマップ修整部と、をさらに有するとよい。このように、前景領域(動く領域)の単位でアテンション度合を出力することで、アテンション検出の信頼性をより向上することができる。
なお、本発明は、上記構成ないし機能の少なくとも一部を有するアテンション検出装置として捉えることができる。また本発明は、上記処理の少なくとも一部を含むアテンション検出方法として捉えることができる。さらに、本発明は、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、動画像のアテンション検出において、実装が容易で且つ信頼性に優れた新規なアルゴリズムを提供することができる。また、動画像のアテンション検出において、対象や環境などの変化に柔軟に適応可能なアルゴリズムを提供することができる。
図1は第1実施形態のアテンション検出装置の機能構成を示すブロック図。 図2は入力動画像と局所画像と画像ブロックの関係を模式的に示す図。 図3はHOFの概念を示す図。 図4はLSHのハッシュ関数の概念を示す図。 図5Aはハッシュテーブルの概念を示す図、図5Bはハッシュテーブルとハッシュ関数とエントリの関係を模式的に示す図。 図6はハッシュテーブルの学習処理のフローチャート。 図7はアテンション検出処理のフローチャート。 図8はアテンション度合の計算式を説明するための図。 図9は動画像とアテンションマップの例を示す図。 図10は第2実施形態のアテンション検出装置の機能構成を示すブロック図。 図11は前景領域情報によるアテンションマップの修整を説明するための図。 図12は第3実施形態のアテンション検出装置の機能構成を示すブロック図。
本発明は、コンピュータによる画像解析によって、動画像において視覚的注意を惹くと予測される領域(アテンション領域)を自動で検出するアテンション検出アルゴリズムに関する。アテンション検出の結果であるアテンション情報は、例えば、ピクセルごと又は小領域ごとのアテンション度合の分布を表すアテンションマップ、又は、アテンションマップを所定の閾値で二値化した二値画像の形式で出力される。このようなアテンション情報は、コンピュータビジョンアプリケーション(例えば、画像の領域分割(セグメンテーション)、画像分類、シーン解釈、画像圧縮、顔認識、物体認識)の前処理など、様々な用途に好ましく利用される。
本発明に係るアテンション検出アルゴリズムの特徴の一つは、画像特徴の評価及びアテンション度合の評価に、ハッシング技術を応用した点である。ハッシングは、データの検索、暗号化、電子認証などの分野で従来から用いられている技術ではあるが、これをアテ
ンション検出に適用した例はない。
以下に、本発明に係るアテンション検出アルゴリズムの具体的な実施形態の一例を、図面を用いて説明する。ただし、以下に述べる実施形態は本発明の好適な構成例を示すものであり、本発明の範囲をその構成例に限定する趣旨のものではない。
<第1実施形態>
(装置構成)
図1は、本発明の第1実施形態に係るアテンション検出装置の機能構成を示すブロック図である。図1のアテンション検出装置1は、主な構成として、動画像取得部10、画像分割部11、特徴抽出部12、ハッシング部13、アテンション度合決定部14、記憶部15を有する。
動画像取得部10は、検査対象となる動画像を取得する機能を有する。動画像取得部10は、撮像装置(ビデオカメラ)から動画像データを取り込んでもよいし、記憶装置やネットワーク上のサーバなどから動画像データを読み込んでもよい。本実施形態では、監視カメラから取り込まれる30fpsのグレースケール動画像を用いる。ただし、動画像の形式はこれに限られず、カラーの動画像を用いてもよい。取得された入力動画像は、記憶部15に記憶される。
画像分割部11は、入力動画像を時間方向(t)と空間方向(x、y)に分割して、複数の画像ブロックを生成する機能を有する。ここで、画像ブロックとは、複数フレーム分の同じ空間位置の局所画像から構成される画像セットであり、キューボイド(cuboid)又は時空間画像(spatio-temporal image)とも呼ばれる。画像ブロックは、入力動画像中
のある局所領域内のある局所時間分の動画像を切り出したものといえる。本実施形態では、画像の空間的かつ時間的な変化をとらえるために、画像ブロック単位で画像特徴の抽出及び評価を行う。図2に、入力動画像20、局所画像21、画像ブロック22の関係を模式的に示す。例えば、入力動画像20が30fps・VGA(640ピクセル×480ピクセル)・1分間の動画像であり、画像ブロック22のサイズが5ピクセル×5ピクセル×5フレームであった場合、入力動画像20は73728個の画像ブロック22に分割されることとなる。
特徴抽出部12は、各画像ブロック22から時空間特徴量を抽出する機能を有する。時空間特徴量とは、画像の空間的な変化と時間的な変化の両方を表す画像特徴をいい、動画像内の被写体(人、物体など)の動きや変化を数値化した指標である。本実施形態では時空間特徴量としてHOF(Histogram of Optical Flow)を利用するが、本アルゴリズム
には、モーションベクトルなど他の時空間特徴量を用いてもよい。
図3に、HOFの概念を示す。特徴抽出部12は、画像ブロック22の各フレームから特徴点30を検出し、フレーム間での特徴点30の対応をとることで、各特徴点30の動きを検出する。この特徴点30の動きはオプティカルフロー(Optical Flow)31と呼ばれる。そして、特徴抽出部12は、各特徴点30のオプティカルフロー31の方向(角度)θと速さ(強度)vを求め、方向θ及び速さvを横軸とするヒストグラム32に度数をプロットする。このような操作により、画像ブロック22から抽出された複数のオプティカルフロー31が1つのヒストグラム32に変換される。このヒストグラム32がHOFである。例えば、方向θを8ビン、速さvを10ビンに分けた場合、HOFは18次元の特徴量ベクトルとなる。
ハッシング部13は、ハッシュ関数を用いて時空間特徴量の値をハッシュ値に変換する機能と、ハッシュテーブルを参照してハッシュ値に対応するエントリを取得する機能とを
有する。
ハッシュ関数は、入力されたデータ(本実施形態ではHOF)を単純なビット列からなるハッシュ値へと変換する関数である。ハッシュ関数には従来より様々なものが提案されており、本アルゴリズムにはどのようなハッシュ関数を用いてもよい。以下では、ハッシュ関数としてLSH(Locality-sensitive hashing)を利用する例を説明する。LSHは、ハッシュ関数の生成に教師信号が不要である、処理が高速である、類似のデータが同じハッシュ値に変換される確率が高い、などの利点を有しており、本実施形態で扱うような動画像のリアルタイム解析には特に有効である。
図4に、LSHのハッシュ関数の概念を示す。LSHのハッシュ関数g(x)は、n次元の特徴量空間上にランダムに配置されたk個の超平面h(x)〜h(x)で構成される。説明の便宜から、図4にはn=2、k=5の例を示す(この場合、超平面は直線となる)が、実装するプログラムでは、特徴量空間の次元数nは数次元から数百次元となり、超平面の数kは数十個から数百個となる。
特徴量の値x(xはn次元ベクトル)が入力されると、ハッシング部13は、値xが超平面h(x)に対し正側にあるか負側にあるかを判定し、値xの超平面h(x)に対する位置を1(正側)か0(負側)で符号化する。ハッシング部13は、残りの超平面h(x)〜h(x)に関しても同様の判定を行い、得られたk個の符号を組み合わせることで、kビットのハッシュ値を生成する。図4の例では、値x1は、h(x)、h(x)、h(x)に対して負側にあり、h(x)、h(x)に対して正側にあるため、値x1のハッシュ値は「01001」となる。また、値x2は、h(x)、h(x)に対して負側にあり、h(x)、h(x)、h(x)に対して正側にあるため、値x2のハッシュ値は「10011」となる。
図5Aに、ハッシュテーブルの概念を示す。ハッシュテーブルは、複数のバケットから構成される配列データであり、各バケットには、インデックスとしてのハッシュ値とそのハッシュ値に対応するエントリとが登録されている。本実施形態では、ハッシュ値に対応するエントリとして、そのハッシュ値を与える時空間特徴量のサンプルデータが各バケットに登録される。サンプルデータは、例えば、動画像を用いた学習によって取得・蓄積されたデータである。
図5Bは、ハッシュテーブルとハッシュ関数とエントリの関係を模式的に示している。ハッシュ関数(超平面h(x)〜h(x))によって区分けされたサブ空間がハッシュテーブルのバケットに対応し、サブ空間内にプロットされたサンプルデータがバケットに登録されるエントリに対応する。図5Bから分かるように、1つのバケットには2個以上のエントリを登録することも可能であるし、逆に、エントリを1つも含まないバケットも存在し得る。
アテンション度合決定部14は、ハッシングの結果を用いて各画像ブロック22のアテンション度合を決定し、アテンションマップを生成する機能を有する。アテンション度合決定部14の機能の詳細については後述する。
アテンション検出装置1は、例えば、CPU(プロセッサ)、メモリ、補助記憶装置、入力装置、表示装置、通信装置などを具備するコンピュータにより構成することができる。図1に示したアテンション検出装置1の各機能は、補助記憶装置に格納されたプログラムをメモリにロードし、CPUが実行することにより実現される。ただし、アテンション検出装置1の一部又は全部の機能をASICやFPGAなどの回路で実現することもできる。あるいは、アテンション検出装置1の一部の機能をクラウドコンピューティングや分
散コンピューティングにより実現してもよい。
(ハッシュテーブルの学習)
図6を参照して、アテンション検出装置1が実行するハッシュテーブルの学習処理の詳細を説明する。図6は、ハッシュテーブルの学習処理のフローチャートである。この処理は、例えば、アテンション検出装置1の設置時や運用開始時などのタイミングで、新規のハッシュ関数及びハッシュテーブルを生成するために実行される。
ステップS600では、動画像取得部10が学習用動画像を取得する。学習用動画像としては、後述するアテンション検出において処理対象とする動画像と、同じ撮影対象(場所、被写体など)及び同じ撮影条件(アングル、倍率、露出、フレームレートなど)で撮影された所定期間分の動画像を用いるとよい。このように学習用動画像を選ぶことにより、動画像内の被写体の動き・変化の通常の状態(正常値)を学習できるからである。例えば、アテンション検出装置1を監視カメラによる異常検出に適用するのであれば、監視カメラで撮影された数時間から数日分の動画像を用いればよい。
ステップS601では、画像分割部11が、学習用動画像を画像ブロックに分割する(図2参照)。ステップS602では、特徴抽出部12が、各画像ブロックの特徴量を計算する。ここで計算された特徴量データは記憶部15に蓄積される。なお、ステップS601及びS602の処理は、必要なフレーム数(図2の例では5フレーム)の動画像データが読み込まれるたびに、逐次実行してもよい。
以上のようにして学習用特徴量データが得られたら、ハッシュ関数及びハッシュテーブルの生成処理に移行する。本実施形態では、ハッシング処理の信頼性向上のため、同じ学習用特徴量データから複数セットのハッシュ関数及びハッシュテーブルを生成する。
まず、ハッシング部13は、ハッシュ関数(つまり、k個の超平面)をランダムに生成する(ステップS603)とともに、ハッシュテーブル用にバケット数2個の配列を新規生成し、各バケットを初期化する(ステップS604)。続いて、ハッシング部13は、学習用特徴量データから1つの値(学習値と呼ぶ)を取り出し、その学習値をステップS603で生成したハッシュ関数でハッシュ値に変換する(ステップS605)。そして、ハッシング部13は、ステップS605で得られたハッシュ値に該当するバケットに、その学習値を登録する(ステップS606)。ステップS605、S606の処理を学習用特徴量データに含まれる全ての学習値について実行したら(ステップS607)、ハッシュテーブルの完成である。
そして、ステップS603〜S607の処理をL回繰り返すことで、Lセットのハッシュ関数及びハッシュテーブルが得られる。Lの値は、実験ないし経験によって任意に定めることができる(本実施形態ではL=10とする)。以上でハッシュテーブルの学習処理は完了である。
(アテンション検出)
図7を参照して、アテンション検出装置1が実行するアテンション検出処理の詳細を説明する。図7は、アテンション検出処理のフローチャートである。この処理は、アテンション検出装置1の運用中に連続的又は定期的に実行される。
ステップS700では、動画像取得部10が処理対象の動画像データを取得する。例えば、監視カメラから5フレーム分の動画像データが取り込まれる。ステップS701では、画像分割部11が、動画像データを画像ブロックに分割する(図2参照)。ステップS702では、特徴抽出部12が、各画像ブロックの特徴量を計算する。ここで計算された
特徴量のデータは記憶部15に蓄積される。
続くステップS703〜S708の処理は、動画像内の各々の画像ブロックに対し順番に実行される。以後、処理対象の画像ブロックを「対象ブロック」と呼ぶ。
まず、ハッシング部13は、i番目(i=1〜L)のハッシュ関数を用いて、対象ブロックの特徴量の値をハッシュ値に変換する(ステップS703、S704)。続いて、ハッシング部13は、i番目のハッシュテーブルから、対象ブロックのハッシュ値に対応するバケットのエントリ(学習値)を取得する(ステップS705)。もし、ハッシュ値に対応するバケットに学習値が1つも含まれていない(空バケットと呼ぶ)場合には、空バケットの代わりに、対象ブロックの特徴量の値に最も近い学習値を含むバケット(隣接バケットと呼ぶ)のエントリを取得するとよい。ステップS705で取得された学習値を、以後、「対応学習値」と呼ぶ。対応学習値は、複数の学習値を含むことがほとんどであるが、1つの学習値のみの場合もあり得る。
次に、アテンション度合決定部14が、対象ブロックの特徴量の値と対応学習値との間の特徴量空間上での距離に基づいて、対象ブロックのアテンション度合を求める(ステップS706)。本実施形態では、下記式により、対象ブロックのアテンション度合A(z)が計算される。
Figure 2017068815
ここで、iはハッシュテーブルの番号であり、i=1〜Lである。zは対象ブロックの特徴量の値(特徴量ベクトル)である。cは対応学習値分布の中心(重心)であり、rは対応学習値分布の中心(重心)と最外学習値との間の距離である(図8参照)。
適用するハッシュ関数及びハッシュテーブルを変えながら、ステップS703〜S706の処理を繰り返すことで、L個のアテンション度合A(z)〜A(z)が計算される(ステップS707)。最後に、アテンション度合決定部14は、各ハッシュテーブルで得られたアテンション度合A(z)〜A(z)を統合することによって、最終的なアテンション度合A(z)を計算する(ステップS708)。統合方法は任意であるが、本実施形態では、下記式のような重み付け加算を用いる。
Figure 2017068815
αは重みであり、実験ないし経験に基づいて適宜設定することができる。例えば、ハッシュテーブルの信頼性を評価し、信頼性の低いハッシュテーブルの重みは小さく、信頼性の高いハッシュテーブルの重みは大きく設定してもよい。ハッシュテーブルの信頼性は、例えば、各バケット内の学習値分布、バケット間の学習値分布の分離度、バケット間の学習値の数の偏りなどで評価することができる。もちろん、α,…,α=1/Lのように全ての重みを等しくしてもよい。
動画像の全ての画像ブロックについてアテンション度合A(z)を求めたら、アテンション度合決定部14は、アテンションマップを生成する。図9に、動画像90とアテンシ
ョンマップ91の一例を示す。アテンションマップ91では、画像ブロック毎のアテンション度合がグレースケールで表されており、明るい(白色に近い)画像ブロックほどアテンション度合が高いことを示している。動画像90には動く物体として人92と物体(自動車)93が写っているが、アテンションマップ91をみると、人92の領域のみアテンション度合が大きくなっている。例えば、高速道路の監視カメラの動画像の場合、走行する自動車が画像に写るのは通常(正常)であるが、歩いている人が写るのはおかしい(非正常)。そのような場合には、非正常な動きが検出された人92の領域のみ、アテンション度合が大きくなる。このようなアテンションマップは、記憶部15に保存され、又は、外部装置に出力され、物体認識や画像認識などの各種コンピュータビジョンアプリケーションに利用される。
(本実施形態の利点)
ハッシュテーブルに登録されている学習値は、被写体の動き・変化の通常の状態(正常値)を表しており、一方、対象ブロックの特徴量の値は、処理対象の動画像から検出された被写体の動き・変化、つまり現在の状態を表している。したがって、対象ブロックの特徴量の値と対応学習値との間の特徴量空間上での距離の大きさを評価することは、被写体の動き・変化の現在の状態が通常の状態からどの程度異なるかを評価することと等価である。一般に、通常の状態と異なる動き・変化をするものは人の視覚的注意を惹きやすい傾向にある。よって、本実施形態のアテンション検出アルゴリズムによれば、アテンション領域を精度良く検出(推定)することが可能である。
また、本実施形態では、時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、対象ブロックのハッシュ値に対応する学習値を選択する。これにより、全ての学習値の中から、対象ブロックの時空間特徴量の値と比較すべき学習値分布を、簡単かつ高速に選択することができる。
また、本実施形態によれば、従来のモデルベースの手法のように複雑なモデルを設計する必要がなく、学習によってハッシュテーブルに学習値を登録するだけでよい。したがって、アテンション検出装置の実装の容易化を図ることができる。また、ハッシュテーブルを更新するだけで、対象や環境などの変化に柔軟に適応可能である、という利点もある。さらに、本実施形態では、複数のハッシュテーブルを用い、複数の計算結果を統合して最終的なアテンション度合を求めるため、学習値の分布の偏りやハッシュ関数の偏りなどに起因する信頼性の低下を抑え、高信頼のアテンション検出を実現することができる。
<第2実施形態>
第1実施形態で得られるアテンションマップは画像ブロック単位のアテンション度合で構成されるため、図9に示すように、アテンション度合の分布と、動画像中の人92や物体93の領域とが一致しない場合がある。しかし、通常、視覚的注意は、人や物体に向けられることが多いため、画像ブロック単位でなく、人や物体の領域単位でアテンション度合を出力することが好ましい。そこで、第2実施形態では、動画像の前景領域を抽出し、その前景領域に従ってアテンションマップを修整する構成を採用する。
図10は、本実施形態のアテンション検出装置1の機能構成を示すブロック図である。第1実施形態(図1)との違いは、前景抽出部16及びアテンションマップ修整部17を有する点である。その他の構成については第1実施形態のものと同じである。
前景抽出部16は、動画像のフレーム内の「動く領域」を前景領域として抽出する機能を有する。具体的には、前景抽出部16は、特徴抽出部12が時空間特徴量を計算する際に求めたオプティカルフローを用い、オプティカルフローの強度(速さ)が閾値以上の領域を前景領域と判定する。オプティカルフローを流用することで、前景抽出に必要な計算
量を小さくでき、処理の高速化を図ることができる。なお、本実施形態のアルゴリズムに比べて計算量は大きくなるが、ビデオセグメンテーションやモーションクラスタリングなどの前景抽出アルゴリズムを用いてもよい。
アテンションマップ修整部17は、前景抽出部16で得られた前景領域情報に基づき、各々の前景領域内のアテンション度合が均一となるよう、アテンションマップを修整する機能を有する。具体的には、アテンションマップ修整部17は、1つの前景領域に複数の画像ブロックがオーバーラップする場合、それらの画像ブロックのアテンション度合のうちの最大値を当該前景領域のアテンション度合に設定する。
図11は、動画像90、アテンションマップ91、前景領域情報94、修整後のアテンションマップ95の例を示している。アテンション度合がスムージングされ、領域単位でアテンション度合の均一化が図られていることがわかる。このように、本実施形態によれば、前景領域(動く領域)の単位でアテンション度合を出力することができるため、アテンション検出の信頼性をより向上することができる。
<第3実施形態>
図12は、本発明の第3実施形態に係るアテンション検出装置1の機能構成を示すブロック図である。第1実施形態(図1)との違いは、ハッシュテーブル更新部18を有する点である。その他の構成については第1実施形態のものと同じである。
ハッシュテーブル更新部18は、ハッシュテーブルのオンライン更新を行う機能を有する。ここで、「オンライン」とは「アテンション検出装置の運用中(稼働中)に」という意味である。具体的には、ハッシュテーブル更新部18は、定期的(例えば、30分に1回、1日に1回、1週間に1回など)に、以下に述べる「追加」と「削除」の2種類の更新操作を行う。
(追加)
追加とは、処理対象の動画像から得られた時空間特徴量の値を新たな学習値としてハッシュテーブルに登録する更新操作である。このような更新操作により、ハッシュテーブルが現在の状態を追加学習するので、アテンション検出の信頼性を向上することができる。
処理対象の動画像から得られる全ての値をハッシュテーブルに追加してもよいが、ハッシュテーブルの登録エントリ数が膨大になると、記憶容量の圧迫や処理速度の低下などの問題が生じる。したがって、全ての値を追加するのではなく、所定の条件を満たしたものだけを追加することが好ましい。
例えば、図7のステップS705では、対象ブロックのハッシュ値に対応するバケットが空バケットであった場合、空バケットの代わりに隣接バケットに含まれる学習値を用いてアテンション度合A(z)が計算される。このとき、アテンション度合A(z)が閾値THaより小さかったら(つまり、対象ブロックが正常な動きと判定されたら)、記憶部15がこの対象ブロックの特徴量の値を一時的に保持する。このように、空バケットに属するが「正常」と判定される特徴量の値が一定数以上溜まったら、ハッシュテーブル更新部18は、それらの特徴量の値をハッシュテーブルの空バケットに登録する。これにより、アテンション度合の計算に用いられるバケットが増えるため、ハッシングの信頼性、ひいてはアテンション検出の信頼性を向上できる。
(削除)
削除とは、登録されている学習値の数が閾値Tbより小さいバケットを削除する更新操作である。「バケットを削除する」とは、バケットに登録されている学習値をすべて削除
する(空バケットにする)、という意味である。学習値の少ないバケットを用いると、アテンション度合の推定誤差が大きくなる可能性がある。それゆえ、学習値の少ないバケットを削除し、アテンション度合の計算に用いられないようにすることで、アテンション検出の信頼性及び安定性を向上することができる。
以上述べたように、本実施形態によれば、ハッシュテーブルの自動オンライン更新が実現できるため、対象や環境などの変化に柔軟に適応することができる。
<その他>
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。例えば、第3実施形態で述べたオンライン更新の機能を第2実施形態の装置に組み合わせてもよい。また、第3実施形態では、既存のハッシュテーブルに対し学習値の追加/削除を行うだけであったが、記憶部15に蓄積した特徴量の値を使って新たにハッシュテーブルを生成してもよい。
1:アテンション検出装置、10:動画像取得部、11:画像分割部、12:特徴抽出部、13:ハッシング部、14:アテンション度合決定部、15:記憶部、16:前景抽出部、17:アテンションマップ修整部、18:ハッシュテーブル更新部
20:入力動画像、21:局所画像、22:画像ブロック
30:特徴点、31:オプティカルフロー、32:ヒストグラム
90:動画像、91:アテンションマップ、92:人、93:物体、94:前景領域情報、95:アテンションマップ

Claims (7)

  1. 動画像において視覚的注意を惹くと予測される領域を検出するためのアテンション検出装置であって、
    動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出する特徴抽出部と、
    ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換し、且つ、学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、前記局所領域のハッシュ値に対応する学習値を選択するハッシング部と、
    前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するアテンション度合決定部と、
    を有することを特徴とするアテンション検出装置。
  2. 前記学習値は、前記動画像と同じ撮影対象及び同じ撮影条件で撮影された所定期間分の動画像から抽出された時空間特徴量の値である
    ことを特徴とする請求項1に記載のアテンション検出装置。
  3. 前記ハッシング部は、複数のハッシュテーブルを有しており、
    前記アテンション度合決定部は、前記複数のハッシュテーブルをそれぞれ用いて複数のアテンション度合を計算し、前記複数のアテンション度合を統合することによって最終的なアテンション度合を決定する
    ことを特徴とする請求項1又は2に記載のアテンション検出装置。
  4. 前記局所領域の時空間特徴量の値を新たな学習値として前記ハッシュテーブルに登録することによって、前記ハッシュテーブルを更新するハッシュテーブル更新部をさらに有する
    ことを特徴とする請求項1〜3のうちいずれか1項に記載のアテンション検出装置。
  5. 前記ハッシュテーブル更新部は、登録されている学習値の数が閾値より小さいバケットを削除することによって、前記ハッシュテーブルを更新する
    ことを特徴とする請求項4に記載のアテンション検出装置。
  6. 前記動画像のフレーム内の動く領域を前景領域として抽出する前景抽出部と、
    前記アテンション度合決定部により決定されたアテンション度合の情報と、前記前景抽出部により抽出された前景領域の情報とから、前記前景領域内のアテンション度合が均一になるよう修整したアテンションマップを生成するアテンションマップ修整部と、
    をさらに有する
    ことを特徴とする請求項1〜5のうちいずれか1項に記載のアテンション検出装置。
  7. 動画像において視覚的注意を惹くと予測される領域を検出するためのアテンション検出方法であって、
    動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出するステップと、
    ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換するステップと、
    学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、前記局所領域のハッシュ値に対応する学習値を選択するステップと、
    前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するステップと、
    を有することを特徴とするアテンション検出方法。
JP2015212207A 2015-09-29 2015-10-28 アテンション検出装置及びアテンション検出方法 Active JP6565600B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510633327.7A CN106557765A (zh) 2015-09-29 2015-09-29 注意检测装置以及注意检测方法
CN201510633327.7 2015-09-29

Publications (2)

Publication Number Publication Date
JP2017068815A true JP2017068815A (ja) 2017-04-06
JP6565600B2 JP6565600B2 (ja) 2019-08-28

Family

ID=56979325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212207A Active JP6565600B2 (ja) 2015-09-29 2015-10-28 アテンション検出装置及びアテンション検出方法

Country Status (5)

Country Link
US (1) US9904868B2 (ja)
EP (1) EP3151160B1 (ja)
JP (1) JP6565600B2 (ja)
KR (1) KR20170038144A (ja)
CN (1) CN106557765A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004329A (ja) * 2017-06-15 2019-01-10 ルネサスエレクトロニクス株式会社 異常検出装置及び車両システム
KR102058393B1 (ko) * 2017-11-30 2019-12-23 국민대학교산학협력단 스케치 기반의 영상표절 검사 방법 및 장치
JP2021077295A (ja) * 2019-11-13 2021-05-20 尚範 伊達 監視装置、監視方法、及びプログラム
KR20210088439A (ko) * 2019-12-30 2021-07-14 센스타임 인터내셔널 피티이. 리미티드. 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6435049B2 (ja) * 2015-07-15 2018-12-05 日本電信電話株式会社 画像検索装置及び方法、撮影時刻推定装置及び方法、反復構造抽出装置及び方法、並びにプログラム
CN112559781B (zh) * 2020-12-10 2023-04-07 西北大学 一种图像检索系统和方法
CN116414867B (zh) * 2023-06-12 2023-08-22 中南大学 一种基于量化哈希编码的时空数据检索方法
CN116719418B (zh) * 2023-08-09 2023-10-27 湖南马栏山视频先进技术研究院有限公司 一种注视点预测模型的检验方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203289A (ja) * 2013-04-05 2014-10-27 キヤノン株式会社 ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体
JP2015528614A (ja) * 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation ビデオ内の対象物を検出するための方法、装置及びシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101404032B (zh) * 2008-11-11 2011-09-28 清华大学 一种基于内容的视频检索方法及系统
JP5235770B2 (ja) 2009-04-27 2013-07-10 日本電信電話株式会社 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
US8909025B2 (en) * 2011-03-22 2014-12-09 Georgia Tech Research Corporation Systems and methods for retrieving causal sets of events from unstructured signals
US9092520B2 (en) * 2011-06-20 2015-07-28 Microsoft Technology Licensing, Llc Near-duplicate video retrieval
CN103096122B (zh) * 2013-01-24 2015-04-22 上海交通大学 基于感兴趣区域内运动特征的立体视觉舒适度评价方法
CN103336957B (zh) * 2013-07-18 2016-12-28 中国科学院自动化研究所 一种基于时空特征的网络同源视频检测方法
CN105917359B (zh) * 2013-10-21 2021-01-26 微软技术许可有限责任公司 移动视频搜索
CN104036287B (zh) * 2014-05-16 2017-05-24 同济大学 一种基于人类运动显著轨迹的视频分类方法
CN104504365A (zh) * 2014-11-24 2015-04-08 闻泰通讯股份有限公司 视频序列中的笑脸识别系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528614A (ja) * 2012-09-12 2015-09-28 アビギロン フォートレス コーポレイションAvigilon Fortress Corporation ビデオ内の対象物を検出するための方法、装置及びシステム
JP2014203289A (ja) * 2013-04-05 2014-10-27 キヤノン株式会社 ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YE WANG ET AL.: "Locality Sensitive Outlier Detection: A Ranking Drivern Approach", [ONLINE], JPN6019025015, 2011, ISSN: 0004066965 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004329A (ja) * 2017-06-15 2019-01-10 ルネサスエレクトロニクス株式会社 異常検出装置及び車両システム
KR102058393B1 (ko) * 2017-11-30 2019-12-23 국민대학교산학협력단 스케치 기반의 영상표절 검사 방법 및 장치
JP2021077295A (ja) * 2019-11-13 2021-05-20 尚範 伊達 監視装置、監視方法、及びプログラム
WO2021095351A1 (ja) * 2019-11-13 2021-05-20 アイシースクウェアパートナーズ株式会社 監視装置、監視方法、及びプログラム
KR20210088439A (ko) * 2019-12-30 2021-07-14 센스타임 인터내셔널 피티이. 리미티드. 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체
JP2022509893A (ja) * 2019-12-30 2022-01-25 センスタイム インターナショナル プライベート リミテッド 画像処理方法及び装置、電子機器、並びに記憶媒体
KR102445187B1 (ko) 2019-12-30 2022-09-19 센스타임 인터내셔널 피티이. 리미티드. 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체

Also Published As

Publication number Publication date
JP6565600B2 (ja) 2019-08-28
EP3151160A1 (en) 2017-04-05
KR20170038144A (ko) 2017-04-06
US20170091573A1 (en) 2017-03-30
US9904868B2 (en) 2018-02-27
CN106557765A (zh) 2017-04-05
EP3151160B1 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
JP6565600B2 (ja) アテンション検出装置及びアテンション検出方法
US9767570B2 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
EP2959454B1 (en) Method, system and software module for foreground extraction
US20170358093A1 (en) Method and apparatus for updating a background model
JPWO2009005141A1 (ja) 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
JP2016015045A (ja) 画像認識装置、画像認識方法及びプログラム
KR102391853B1 (ko) 영상 정보 처리 시스템 및 방법
CN112418200B (zh) 基于热成像的对象检测方法、装置及服务器
CN116402852A (zh) 基于事件相机的动态高速目标追踪方法及装置
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
KR20200124887A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
CN114399532A (zh) 一种相机位姿确定方法和装置
JP2014203133A (ja) 画像処理装置、画像処理方法
CN113628251A (zh) 一种智慧酒店终端监测方法
KR20210031444A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
CN111695404A (zh) 行人跌倒检测方法、装置、电子设备及存储介质
JP5743147B2 (ja) 画像処理ユニット、および画像処理プログラム
CN111860070A (zh) 识别发生改变的对象的方法和装置
KR102589150B1 (ko) 누적 차영상을 이용한 원거리 객체 검지 시스템
KR101588648B1 (ko) 지능형 영상 감시를 위한 보행자 검출 및 추적 방법
EP4198817B1 (en) System, method, and computer program for retraining a pre-trained object classifier
JP2019121031A (ja) 画像処理装置
Wang et al. A double-threshold target detection method based on adaptive background matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150