JP2017068815A - アテンション検出装置及びアテンション検出方法 - Google Patents
アテンション検出装置及びアテンション検出方法 Download PDFInfo
- Publication number
- JP2017068815A JP2017068815A JP2015212207A JP2015212207A JP2017068815A JP 2017068815 A JP2017068815 A JP 2017068815A JP 2015212207 A JP2015212207 A JP 2015212207A JP 2015212207 A JP2015212207 A JP 2015212207A JP 2017068815 A JP2017068815 A JP 2017068815A
- Authority
- JP
- Japan
- Prior art keywords
- attention
- value
- hash
- learning
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
ハッシュ値に対応する学習値を選択するハッシング部と、前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するアテンション度合決定部と、を有することを特徴とする。
ンション検出に適用した例はない。
(装置構成)
図1は、本発明の第1実施形態に係るアテンション検出装置の機能構成を示すブロック図である。図1のアテンション検出装置1は、主な構成として、動画像取得部10、画像分割部11、特徴抽出部12、ハッシング部13、アテンション度合決定部14、記憶部15を有する。
のある局所領域内のある局所時間分の動画像を切り出したものといえる。本実施形態では、画像の空間的かつ時間的な変化をとらえるために、画像ブロック単位で画像特徴の抽出及び評価を行う。図2に、入力動画像20、局所画像21、画像ブロック22の関係を模式的に示す。例えば、入力動画像20が30fps・VGA(640ピクセル×480ピクセル)・1分間の動画像であり、画像ブロック22のサイズが5ピクセル×5ピクセル×5フレームであった場合、入力動画像20は73728個の画像ブロック22に分割されることとなる。
には、モーションベクトルなど他の時空間特徴量を用いてもよい。
有する。
散コンピューティングにより実現してもよい。
図6を参照して、アテンション検出装置1が実行するハッシュテーブルの学習処理の詳細を説明する。図6は、ハッシュテーブルの学習処理のフローチャートである。この処理は、例えば、アテンション検出装置1の設置時や運用開始時などのタイミングで、新規のハッシュ関数及びハッシュテーブルを生成するために実行される。
図7を参照して、アテンション検出装置1が実行するアテンション検出処理の詳細を説明する。図7は、アテンション検出処理のフローチャートである。この処理は、アテンション検出装置1の運用中に連続的又は定期的に実行される。
特徴量のデータは記憶部15に蓄積される。
ョンマップ91の一例を示す。アテンションマップ91では、画像ブロック毎のアテンション度合がグレースケールで表されており、明るい(白色に近い)画像ブロックほどアテンション度合が高いことを示している。動画像90には動く物体として人92と物体(自動車)93が写っているが、アテンションマップ91をみると、人92の領域のみアテンション度合が大きくなっている。例えば、高速道路の監視カメラの動画像の場合、走行する自動車が画像に写るのは通常(正常)であるが、歩いている人が写るのはおかしい(非正常)。そのような場合には、非正常な動きが検出された人92の領域のみ、アテンション度合が大きくなる。このようなアテンションマップは、記憶部15に保存され、又は、外部装置に出力され、物体認識や画像認識などの各種コンピュータビジョンアプリケーションに利用される。
ハッシュテーブルに登録されている学習値は、被写体の動き・変化の通常の状態(正常値)を表しており、一方、対象ブロックの特徴量の値は、処理対象の動画像から検出された被写体の動き・変化、つまり現在の状態を表している。したがって、対象ブロックの特徴量の値と対応学習値との間の特徴量空間上での距離の大きさを評価することは、被写体の動き・変化の現在の状態が通常の状態からどの程度異なるかを評価することと等価である。一般に、通常の状態と異なる動き・変化をするものは人の視覚的注意を惹きやすい傾向にある。よって、本実施形態のアテンション検出アルゴリズムによれば、アテンション領域を精度良く検出(推定)することが可能である。
第1実施形態で得られるアテンションマップは画像ブロック単位のアテンション度合で構成されるため、図9に示すように、アテンション度合の分布と、動画像中の人92や物体93の領域とが一致しない場合がある。しかし、通常、視覚的注意は、人や物体に向けられることが多いため、画像ブロック単位でなく、人や物体の領域単位でアテンション度合を出力することが好ましい。そこで、第2実施形態では、動画像の前景領域を抽出し、その前景領域に従ってアテンションマップを修整する構成を採用する。
量を小さくでき、処理の高速化を図ることができる。なお、本実施形態のアルゴリズムに比べて計算量は大きくなるが、ビデオセグメンテーションやモーションクラスタリングなどの前景抽出アルゴリズムを用いてもよい。
図12は、本発明の第3実施形態に係るアテンション検出装置1の機能構成を示すブロック図である。第1実施形態(図1)との違いは、ハッシュテーブル更新部18を有する点である。その他の構成については第1実施形態のものと同じである。
追加とは、処理対象の動画像から得られた時空間特徴量の値を新たな学習値としてハッシュテーブルに登録する更新操作である。このような更新操作により、ハッシュテーブルが現在の状態を追加学習するので、アテンション検出の信頼性を向上することができる。
削除とは、登録されている学習値の数が閾値Tbより小さいバケットを削除する更新操作である。「バケットを削除する」とは、バケットに登録されている学習値をすべて削除
する(空バケットにする)、という意味である。学習値の少ないバケットを用いると、アテンション度合の推定誤差が大きくなる可能性がある。それゆえ、学習値の少ないバケットを削除し、アテンション度合の計算に用いられないようにすることで、アテンション検出の信頼性及び安定性を向上することができる。
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。例えば、第3実施形態で述べたオンライン更新の機能を第2実施形態の装置に組み合わせてもよい。また、第3実施形態では、既存のハッシュテーブルに対し学習値の追加/削除を行うだけであったが、記憶部15に蓄積した特徴量の値を使って新たにハッシュテーブルを生成してもよい。
20:入力動画像、21:局所画像、22:画像ブロック
30:特徴点、31:オプティカルフロー、32:ヒストグラム
90:動画像、91:アテンションマップ、92:人、93:物体、94:前景領域情報、95:アテンションマップ
Claims (7)
- 動画像において視覚的注意を惹くと予測される領域を検出するためのアテンション検出装置であって、
動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出する特徴抽出部と、
ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換し、且つ、学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、前記局所領域のハッシュ値に対応する学習値を選択するハッシング部と、
前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するアテンション度合決定部と、
を有することを特徴とするアテンション検出装置。 - 前記学習値は、前記動画像と同じ撮影対象及び同じ撮影条件で撮影された所定期間分の動画像から抽出された時空間特徴量の値である
ことを特徴とする請求項1に記載のアテンション検出装置。 - 前記ハッシング部は、複数のハッシュテーブルを有しており、
前記アテンション度合決定部は、前記複数のハッシュテーブルをそれぞれ用いて複数のアテンション度合を計算し、前記複数のアテンション度合を統合することによって最終的なアテンション度合を決定する
ことを特徴とする請求項1又は2に記載のアテンション検出装置。 - 前記局所領域の時空間特徴量の値を新たな学習値として前記ハッシュテーブルに登録することによって、前記ハッシュテーブルを更新するハッシュテーブル更新部をさらに有する
ことを特徴とする請求項1〜3のうちいずれか1項に記載のアテンション検出装置。 - 前記ハッシュテーブル更新部は、登録されている学習値の数が閾値より小さいバケットを削除することによって、前記ハッシュテーブルを更新する
ことを特徴とする請求項4に記載のアテンション検出装置。 - 前記動画像のフレーム内の動く領域を前景領域として抽出する前景抽出部と、
前記アテンション度合決定部により決定されたアテンション度合の情報と、前記前景抽出部により抽出された前景領域の情報とから、前記前景領域内のアテンション度合が均一になるよう修整したアテンションマップを生成するアテンションマップ修整部と、
をさらに有する
ことを特徴とする請求項1〜5のうちいずれか1項に記載のアテンション検出装置。 - 動画像において視覚的注意を惹くと予測される領域を検出するためのアテンション検出方法であって、
動画像内の局所領域について、前記局所領域内の画像の空間的かつ時間的な変化を表す特徴量である、時空間特徴量を抽出するステップと、
ハッシュ関数を用いて、前記局所領域の時空間特徴量の値をハッシュ値に変換するステップと、
学習により予め得られた時空間特徴量の学習値が各ハッシュ値に対応するバケットに登録されているハッシュテーブルを用いて、前記局所領域のハッシュ値に対応する学習値を選択するステップと、
前記局所領域の時空間特徴量の値と前記選択された学習値との間の距離に基づいて、前記距離が大きいほどアテンション度合が大きくなるように、前記局所領域のアテンション度合を決定するステップと、
を有することを特徴とするアテンション検出方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510633327.7A CN106557765A (zh) | 2015-09-29 | 2015-09-29 | 注意检测装置以及注意检测方法 |
CN201510633327.7 | 2015-09-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068815A true JP2017068815A (ja) | 2017-04-06 |
JP6565600B2 JP6565600B2 (ja) | 2019-08-28 |
Family
ID=56979325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015212207A Active JP6565600B2 (ja) | 2015-09-29 | 2015-10-28 | アテンション検出装置及びアテンション検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9904868B2 (ja) |
EP (1) | EP3151160B1 (ja) |
JP (1) | JP6565600B2 (ja) |
KR (1) | KR20170038144A (ja) |
CN (1) | CN106557765A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019004329A (ja) * | 2017-06-15 | 2019-01-10 | ルネサスエレクトロニクス株式会社 | 異常検出装置及び車両システム |
KR102058393B1 (ko) * | 2017-11-30 | 2019-12-23 | 국민대학교산학협력단 | 스케치 기반의 영상표절 검사 방법 및 장치 |
JP2021077295A (ja) * | 2019-11-13 | 2021-05-20 | 尚範 伊達 | 監視装置、監視方法、及びプログラム |
KR20210088439A (ko) * | 2019-12-30 | 2021-07-14 | 센스타임 인터내셔널 피티이. 리미티드. | 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6435049B2 (ja) * | 2015-07-15 | 2018-12-05 | 日本電信電話株式会社 | 画像検索装置及び方法、撮影時刻推定装置及び方法、反復構造抽出装置及び方法、並びにプログラム |
CN112559781B (zh) * | 2020-12-10 | 2023-04-07 | 西北大学 | 一种图像检索系统和方法 |
CN116414867B (zh) * | 2023-06-12 | 2023-08-22 | 中南大学 | 一种基于量化哈希编码的时空数据检索方法 |
CN116719418B (zh) * | 2023-08-09 | 2023-10-27 | 湖南马栏山视频先进技术研究院有限公司 | 一种注视点预测模型的检验方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014203289A (ja) * | 2013-04-05 | 2014-10-27 | キヤノン株式会社 | ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体 |
JP2015528614A (ja) * | 2012-09-12 | 2015-09-28 | アビギロン フォートレス コーポレイションAvigilon Fortress Corporation | ビデオ内の対象物を検出するための方法、装置及びシステム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404032B (zh) * | 2008-11-11 | 2011-09-28 | 清华大学 | 一种基于内容的视频检索方法及系统 |
JP5235770B2 (ja) | 2009-04-27 | 2013-07-10 | 日本電信電話株式会社 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
US8909025B2 (en) * | 2011-03-22 | 2014-12-09 | Georgia Tech Research Corporation | Systems and methods for retrieving causal sets of events from unstructured signals |
US9092520B2 (en) * | 2011-06-20 | 2015-07-28 | Microsoft Technology Licensing, Llc | Near-duplicate video retrieval |
CN103096122B (zh) * | 2013-01-24 | 2015-04-22 | 上海交通大学 | 基于感兴趣区域内运动特征的立体视觉舒适度评价方法 |
CN103336957B (zh) * | 2013-07-18 | 2016-12-28 | 中国科学院自动化研究所 | 一种基于时空特征的网络同源视频检测方法 |
CN105917359B (zh) * | 2013-10-21 | 2021-01-26 | 微软技术许可有限责任公司 | 移动视频搜索 |
CN104036287B (zh) * | 2014-05-16 | 2017-05-24 | 同济大学 | 一种基于人类运动显著轨迹的视频分类方法 |
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别系统及方法 |
-
2015
- 2015-09-29 CN CN201510633327.7A patent/CN106557765A/zh active Pending
- 2015-10-28 JP JP2015212207A patent/JP6565600B2/ja active Active
-
2016
- 2016-08-08 EP EP16183153.2A patent/EP3151160B1/en active Active
- 2016-08-16 US US15/237,817 patent/US9904868B2/en active Active
- 2016-08-23 KR KR1020160106819A patent/KR20170038144A/ko not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015528614A (ja) * | 2012-09-12 | 2015-09-28 | アビギロン フォートレス コーポレイションAvigilon Fortress Corporation | ビデオ内の対象物を検出するための方法、装置及びシステム |
JP2014203289A (ja) * | 2013-04-05 | 2014-10-27 | キヤノン株式会社 | ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体 |
Non-Patent Citations (1)
Title |
---|
YE WANG ET AL.: "Locality Sensitive Outlier Detection: A Ranking Drivern Approach", [ONLINE], JPN6019025015, 2011, ISSN: 0004066965 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019004329A (ja) * | 2017-06-15 | 2019-01-10 | ルネサスエレクトロニクス株式会社 | 異常検出装置及び車両システム |
KR102058393B1 (ko) * | 2017-11-30 | 2019-12-23 | 국민대학교산학협력단 | 스케치 기반의 영상표절 검사 방법 및 장치 |
JP2021077295A (ja) * | 2019-11-13 | 2021-05-20 | 尚範 伊達 | 監視装置、監視方法、及びプログラム |
WO2021095351A1 (ja) * | 2019-11-13 | 2021-05-20 | アイシースクウェアパートナーズ株式会社 | 監視装置、監視方法、及びプログラム |
KR20210088439A (ko) * | 2019-12-30 | 2021-07-14 | 센스타임 인터내셔널 피티이. 리미티드. | 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체 |
JP2022509893A (ja) * | 2019-12-30 | 2022-01-25 | センスタイム インターナショナル プライベート リミテッド | 画像処理方法及び装置、電子機器、並びに記憶媒体 |
KR102445187B1 (ko) | 2019-12-30 | 2022-09-19 | 센스타임 인터내셔널 피티이. 리미티드. | 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체 |
Also Published As
Publication number | Publication date |
---|---|
JP6565600B2 (ja) | 2019-08-28 |
EP3151160A1 (en) | 2017-04-05 |
KR20170038144A (ko) | 2017-04-06 |
US20170091573A1 (en) | 2017-03-30 |
US9904868B2 (en) | 2018-02-27 |
CN106557765A (zh) | 2017-04-05 |
EP3151160B1 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6565600B2 (ja) | アテンション検出装置及びアテンション検出方法 | |
US9767570B2 (en) | Systems and methods for computer vision background estimation using foreground-aware statistical models | |
US11450114B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
EP2959454B1 (en) | Method, system and software module for foreground extraction | |
US20170358093A1 (en) | Method and apparatus for updating a background model | |
JPWO2009005141A1 (ja) | 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム | |
US11132538B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2016015045A (ja) | 画像認識装置、画像認識方法及びプログラム | |
KR102391853B1 (ko) | 영상 정보 처리 시스템 및 방법 | |
CN112418200B (zh) | 基于热成像的对象检测方法、装置及服务器 | |
CN116402852A (zh) | 基于事件相机的动态高速目标追踪方法及装置 | |
JP7078295B2 (ja) | 変状検出装置、変状検出方法、及びプログラム | |
KR20200124887A (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN114399532A (zh) | 一种相机位姿确定方法和装置 | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
CN113628251A (zh) | 一种智慧酒店终端监测方法 | |
KR20210031444A (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN111695404A (zh) | 行人跌倒检测方法、装置、电子设备及存储介质 | |
JP5743147B2 (ja) | 画像処理ユニット、および画像処理プログラム | |
CN111860070A (zh) | 识别发生改变的对象的方法和装置 | |
KR102589150B1 (ko) | 누적 차영상을 이용한 원거리 객체 검지 시스템 | |
KR101588648B1 (ko) | 지능형 영상 감시를 위한 보행자 검출 및 추적 방법 | |
EP4198817B1 (en) | System, method, and computer program for retraining a pre-trained object classifier | |
JP2019121031A (ja) | 画像処理装置 | |
Wang et al. | A double-threshold target detection method based on adaptive background matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6565600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |