JP2015170358A - シーンから取得されるビデオの低階数記述子を抽出する方法 - Google Patents
シーンから取得されるビデオの低階数記述子を抽出する方法 Download PDFInfo
- Publication number
- JP2015170358A JP2015170358A JP2015025130A JP2015025130A JP2015170358A JP 2015170358 A JP2015170358 A JP 2015170358A JP 2015025130 A JP2015025130 A JP 2015025130A JP 2015025130 A JP2015025130 A JP 2015025130A JP 2015170358 A JP2015170358 A JP 2015170358A
- Authority
- JP
- Japan
- Prior art keywords
- video
- descriptor
- low rank
- matrix
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims abstract description 47
- 230000004931 aggregating effect Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 9
- 238000009472 formulation Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003064 k means clustering Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
行列因子分解は、高次元データの低次元表現を求めるのに用いられる技法である。m×N行列Xは、2つの成分L及びRの積が元の行列を厳密に近似するように、これらの成分L及びRに因子分解される。
視覚シーンの低階数記述子によって、ビデオビットストリームとともに圧縮及び記憶されるメタデータの量を低減する一方で、シーンコンテンツの弁別的表現を維持することが可能になる。本発明の枠組みは、SIFT特徴又はHoG特徴等のローカルシーン記述子がピクチャー群(GoP)内の全てのビデオ画像から抽出されると想定する。記述子は、サイズm×Nの記述子行列Xを形成するようにスタックされる。ここで、mは特徴ベクトルの長さであり、NはGoPから抽出される記述子の総数である。
シーン内の視覚的に顕著なオブジェクトは、GoPを通じてほぼ固定の記述子表現を維持することがわかっている。したがって、ビデオシーンの低階数記述子を求める問題を、行列Xの低次元表現を求める問題として定式化する。理想的には、GoPにおける顕著なオブジェクトを表す特徴ベクトルの集合は、行列L∈Rm×rを用いて符号化することができ、ここで、r<<Nは顕著なオブジェクトを明瞭に表す記述子数を表す。
図4に示すように、低階数記述子を用いてクエリビデオを分類することができる。ビデオGoPから低階数記述子
上記で説明した分類方法は、ビデオ検索にも用いることができる。この場合、検索方法は、所定の閾値よりも大きい相関係数を有するデータベースからビデオを得る。
低階数記述子を用いてビデオ内のオブジェクトを検出することもできる。このプロセスは図4に示すものに類似している。この場合、クエリビデオの代わりに前景ビデオが用いられる。前景ビデオは、ビデオ内の各画像から背景ピクセルを減算することによって得られる。このプロセスは、データベース内のビデオにも適用される。
本発明の実験データは、本発明の実施形態による視覚的特徴の低次元クラスタリングによって、ビデオシーン内の視覚的に顕著なオブジェクトを表すためのメモリ要件を大幅に削減することができることを実証している。
Claims (12)
- シーンから取得されるビデオの低階数記述子を抽出する方法であって、前記ビデオは画像のシーケンスを含み、該方法は、
前記ビデオ内の画像ごとに記述子の集合を抽出することと、
前記ビデオのための前記記述子の集合を集約することであって、記述子行列を形成することと、
収束するまで反復的に、前記記述子行列から低階数記述子行列を求めるとともに、前記記述子行列内の各列と、前記低階数記述子行列内の対応する列とを関連付ける選択行列を求めることと、
収束時に前記低階数記述子行列を出力することと、
を含み、前記ステップはプロセッサにおいて実行される、シーンから取得されるビデオの低階数記述子を抽出する方法。 - 前記低階数記述子行列は、非負値行列因子分解を用いて求められ、前記方法は、
前記非負最小二乗最小化によって低階数因子を求めることと、
近接点最小二乗問題を最小化し、前記選択行列の全ての列における最大のエントリを保持し、全ての他のエントリをゼロに設定することによって、選択行列因子を求めることと、
を更に含む、請求項1に記載の方法。 - 前記低階数記述子行列及び前記選択行列が変化しないときに収束が生じる、請求項1に記載の方法。
- 前記ビデオ内の各画像から特徴を抽出することと、
前記記述子内の前記特徴を集約することと、
を更に含む、請求項1に記載の方法。 - 前記特徴はスケール不変特徴変換を用いて抽出される、請求項4に記載の方法。
- 前記記述子は、サイズm×Nの行列Xを形成するようにスタックされ、ここで、mは特徴ベクトルの長さであり、Nは前記ビデオから抽出される記述子の総数である、請求項1に記載の方法。
- 前記階数は、前記特徴ベクトルの長さ未満である、請求項1に記載の方法。
- クエリビデオの低階数クエリ記述子を求めることと、
データベース内の各ビデオの低階数クラス記述子を求めることであって、前記データベース内の各ビデオはクラスと関連付けられていることと、
前記低階数クエリ記述子と、前記低階数クラス記述子のそれぞれとの間の相関係数を求めることと、
最大の相関係数を有する前記データベース内の前記ビデオの前記クラスを前記クエリビデオに割り当てることと、
を更に含む、請求項1に記載の方法。 - 前記ビデオはピクチャー群に分割され、前記求めるステップ及び前記割り当てるステップが前記ピクチャー群に適用される、請求項8に記載の方法。
- クエリビデオの低階数クエリ記述子を求めることと、
データベース内の各ビデオの低階数クラス記述子を求めることと、
前記低階数クエリ記述子と、各低階数クラス記述子との間の相関係数を求めることと、
所定の閾値よりも大きい相関係数を有する前記データベース内の前記ビデオを検索することと、
を更に含む、請求項1に記載の方法。 - 前記シーンはオブジェクトを含み、前記方法は、
前記ビデオ内の各画像から背景ピクセルを減算することであって、前景ビデオを得ることと、
前記前景ビデオの低階数オブジェクト記述子を求めることと、
データベース内の各ビデオの低階数オブジェクトクラス記述子を求めることであって、前記データベース内の各ビデオはオブジェクトクラスと関連付けられていることと、
最大の相関係数を有する前記データベース内の前記ビデオの前記オブジェクトクラスを前記前景ビデオに割り当てることと、
を更に含む、請求項1に記載の方法。 - 前記シーンはオブジェクトを含み、前記方法は、
前記ビデオ内の各画像から背景ピクセルを減算することであって、前景ビデオを得ることと、
前記前景ビデオの低階数オブジェクト記述子を求めることと、
データベース内の各ビデオの各画像から背景ピクセルを減算することであって、データベース内の前景ビデオを得ることと、
データベース内の各前景ビデオの低階数オブジェクトクラス記述子を求めることであって、前記データベース内の各ビデオはオブジェクトクラスと関連付けられていることと、
最大の相関係数を有する前記データベース内の前記ビデオの前記オブジェクトクラスを前記前景ビデオに割り当てることと、
を更に含む、請求項1に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/202,327 | 2014-03-10 | ||
US14/202,327 US9639761B2 (en) | 2014-03-10 | 2014-03-10 | Method for extracting low-rank descriptors from images and videos for querying, classification, and object detection |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015170358A true JP2015170358A (ja) | 2015-09-28 |
JP2015170358A5 JP2015170358A5 (ja) | 2017-11-30 |
JP6333190B2 JP6333190B2 (ja) | 2018-05-30 |
Family
ID=54017663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015025130A Active JP6333190B2 (ja) | 2014-03-10 | 2015-02-12 | ビデオのデータベースをクエリ実行する方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9639761B2 (ja) |
JP (1) | JP6333190B2 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013476B2 (en) * | 2014-04-28 | 2018-07-03 | Moogsoft, Inc. | System for decomposing clustering events from managed infrastructures |
US10700920B2 (en) | 2013-04-29 | 2020-06-30 | Moogsoft, Inc. | System and methods for decomposing events from managed infrastructures that includes a floating point unit |
US10007716B2 (en) * | 2014-04-28 | 2018-06-26 | Moogsoft, Inc. | System for decomposing clustering events from managed infrastructures coupled to a data extraction device |
US11010220B2 (en) | 2013-04-29 | 2021-05-18 | Moogsoft, Inc. | System and methods for decomposing events from managed infrastructures that includes a feedback signalizer functor |
US10803133B2 (en) | 2013-04-29 | 2020-10-13 | Moogsoft Inc. | System for decomposing events from managed infrastructures that includes a reference tool signalizer |
US11303502B2 (en) | 2015-01-27 | 2022-04-12 | Moogsoft Inc. | System with a plurality of lower tiers of information coupled to a top tier of information |
US10979304B2 (en) | 2015-01-27 | 2021-04-13 | Moogsoft Inc. | Agent technology system with monitoring policy |
US10873508B2 (en) | 2015-01-27 | 2020-12-22 | Moogsoft Inc. | Modularity and similarity graphics system with monitoring policy |
US11924018B2 (en) | 2015-01-27 | 2024-03-05 | Dell Products L.P. | System for decomposing events and unstructured data |
US10686648B2 (en) * | 2015-01-27 | 2020-06-16 | Moogsoft Inc. | System for decomposing clustering events from managed infrastructures |
US10425291B2 (en) | 2015-01-27 | 2019-09-24 | Moogsoft Inc. | System for decomposing events from managed infrastructures with prediction of a networks topology |
US11817993B2 (en) | 2015-01-27 | 2023-11-14 | Dell Products L.P. | System for decomposing events and unstructured data |
US10515127B2 (en) * | 2015-04-09 | 2019-12-24 | Oath Inc. | Inductive matrix completion and graph proximity for content item recommendation |
US10929707B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
US10720182B2 (en) | 2017-03-02 | 2020-07-21 | Ricoh Company, Ltd. | Decomposition of a video stream into salient fragments |
US10949463B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10956495B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10708635B2 (en) | 2017-03-02 | 2020-07-07 | Ricoh Company, Ltd. | Subsumption architecture for processing fragments of a video stream |
US10719552B2 (en) | 2017-03-02 | 2020-07-21 | Ricoh Co., Ltd. | Focalized summarizations of a video stream |
US10929685B2 (en) | 2017-03-02 | 2021-02-23 | Ricoh Company, Ltd. | Analysis of operator behavior focalized on machine events |
US10949705B2 (en) | 2017-03-02 | 2021-03-16 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
US10956773B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Computation of audience metrics focalized on displayed content |
US10943122B2 (en) | 2017-03-02 | 2021-03-09 | Ricoh Company, Ltd. | Focalized behavioral measurements in a video stream |
US10956494B2 (en) | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
US10713391B2 (en) | 2017-03-02 | 2020-07-14 | Ricoh Co., Ltd. | Tamper protection and video source identification for video processing pipeline |
US11302361B2 (en) * | 2019-12-23 | 2022-04-12 | Samsung Electronics Co., Ltd. | Apparatus for video searching using multi-modal criteria and method thereof |
US11784888B2 (en) | 2019-12-25 | 2023-10-10 | Moogsoft Inc. | Frequency-based sorting algorithm for feature sparse NLP datasets |
US11082731B1 (en) * | 2020-01-22 | 2021-08-03 | Microsoft Technology Licensing, Llc | Privacy-preserving video analytics |
CN111667399B (zh) * | 2020-05-14 | 2023-08-25 | 华为技术有限公司 | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008536345A (ja) * | 2005-01-27 | 2008-09-04 | インダストリー−ユニバーシティー コオペレーション ファウンデーション ハンヤン ユニバーシティー | イメージシーケンスデータ検索のための情報要素抽出方法及びその方法を記録した記録媒体 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3123587B2 (ja) * | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
US6751354B2 (en) * | 1999-03-11 | 2004-06-15 | Fuji Xerox Co., Ltd | Methods and apparatuses for video segmentation, classification, and retrieval using image class statistical models |
US6411724B1 (en) | 1999-07-02 | 2002-06-25 | Koninklijke Philips Electronics N.V. | Using meta-descriptors to represent multimedia information |
US20050021499A1 (en) | 2000-03-31 | 2005-01-27 | Microsoft Corporation | Cluster-and descriptor-based recommendations |
US7143352B2 (en) | 2002-11-01 | 2006-11-28 | Mitsubishi Electric Research Laboratories, Inc | Blind summarization of video content |
US7375731B2 (en) | 2002-11-01 | 2008-05-20 | Mitsubishi Electric Research Laboratories, Inc. | Video mining using unsupervised clustering of video content |
US7424150B2 (en) * | 2003-12-08 | 2008-09-09 | Fuji Xerox Co., Ltd. | Systems and methods for media summarization |
US20080159622A1 (en) * | 2006-12-08 | 2008-07-03 | The Nexus Holdings Group, Llc | Target object recognition in images and video |
US7925112B2 (en) | 2007-02-28 | 2011-04-12 | Honeywell International Inc. | Video data matching using clustering on covariance appearance |
US7844116B2 (en) * | 2007-04-30 | 2010-11-30 | Xerox Corporation | Method for identifying images after cropping |
US8170280B2 (en) * | 2007-12-03 | 2012-05-01 | Digital Smiths, Inc. | Integrated systems and methods for video-based object modeling, recognition, and tracking |
CN101727568B (zh) * | 2008-10-10 | 2013-04-17 | 索尼(中国)有限公司 | 前景动作估计装置和前景动作估计方法 |
US8891813B2 (en) * | 2008-11-17 | 2014-11-18 | Dolby Laboratories Licensing Corporation | Media fingerprints that reliably correspond to media content with projection of moment invariants |
WO2010080857A2 (en) * | 2009-01-07 | 2010-07-15 | Dolby Laboratories Licensing Corporation | Scalable media fingerprint extraction |
US8396286B1 (en) * | 2009-06-25 | 2013-03-12 | Google Inc. | Learning concepts for video annotation |
US8442977B2 (en) | 2010-02-16 | 2013-05-14 | Honeywell International Inc. | Distance-space embedding for multi-descriptor matching and retrieval |
US8542869B2 (en) * | 2010-06-02 | 2013-09-24 | Dolby Laboratories Licensing Corporation | Projection based hashing that balances robustness and sensitivity of media fingerprints |
US20120011119A1 (en) | 2010-07-08 | 2012-01-12 | Qualcomm Incorporated | Object recognition system with database pruning and querying |
US8805653B2 (en) * | 2010-08-11 | 2014-08-12 | Seiko Epson Corporation | Supervised nonnegative matrix factorization |
US8755605B2 (en) | 2011-07-11 | 2014-06-17 | Futurewei Technologies, Inc. | System and method for compact descriptor for visual search |
US9177208B2 (en) | 2011-11-04 | 2015-11-03 | Google Inc. | Determining feature vectors for video volumes |
US8913835B2 (en) * | 2012-08-03 | 2014-12-16 | Kodak Alaris Inc. | Identifying key frames using group sparsity analysis |
-
2014
- 2014-03-10 US US14/202,327 patent/US9639761B2/en active Active
-
2015
- 2015-02-12 JP JP2015025130A patent/JP6333190B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008536345A (ja) * | 2005-01-27 | 2008-09-04 | インダストリー−ユニバーシティー コオペレーション ファウンデーション ハンヤン ユニバーシティー | イメージシーケンスデータ検索のための情報要素抽出方法及びその方法を記録した記録媒体 |
Non-Patent Citations (2)
Title |
---|
亀岡 弘和: ""計測・センシングのアルゴリズム"", 計測と制御, vol. 51, no. 9, JPN6018010493, 10 September 2012 (2012-09-10), JP, pages 835 - 844 * |
安倍 満、吉田 悠一: ""事前知識を用いたNon−negative Matrix Factorization"", 電子情報通信学会技術研究報告, vol. 109, no. 306, JPN6018010490, 19 November 2009 (2009-11-19), JP, pages 265 - 270 * |
Also Published As
Publication number | Publication date |
---|---|
US9639761B2 (en) | 2017-05-02 |
US20150254513A1 (en) | 2015-09-10 |
JP6333190B2 (ja) | 2018-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6333190B2 (ja) | ビデオのデータベースをクエリ実行する方法 | |
Liu et al. | Dense 3D-convolutional neural network for person re-identification in videos | |
Delhumeau et al. | Revisiting the VLAD image representation | |
Naikal et al. | Informative feature selection for object recognition via sparse PCA | |
JP5950864B2 (ja) | スケール不変の画像特徴の量子化された埋込みを用いて画像を表現する方法 | |
Zhao et al. | Oriented pooling for dense and non-dense rotation-invariant features | |
Haldar et al. | Content based image retrieval using histogram, color and edge | |
WO2023108995A1 (zh) | 向量相似度计算方法、装置、设备及存储介质 | |
CN111325245A (zh) | 重复图像识别方法、装置、电子设备及计算机可读存储介质 | |
Ballas et al. | Irim at TRECVID 2014: Semantic indexing and instance search | |
WO2016142285A1 (en) | Method and apparatus for image search using sparsifying analysis operators | |
CN105760875B (zh) | 基于随机森林算法的判别二进制图像特征相似实现方法 | |
WO2021007999A1 (zh) | 视频帧处理方法及装置 | |
JP6373292B2 (ja) | 特徴量生成装置、方法、及びプログラム | |
Mansour et al. | Video querying via compact descriptors of visually salient objects | |
Wu et al. | Codebook-free compact descriptor for scalable visual search | |
Tavakolian et al. | Avd: Adversarial video distillation | |
Garcia et al. | Asymmetric spatio-temporal embeddings for large-scale image-to-video retrieval | |
Liu et al. | Selection of canonical images of travel attractions using image clustering and aesthetics analysis | |
JP2014146207A (ja) | コンテンツをバイナリ特徴ベクトルの集合で表現することによって高速に検索する検索装置、プログラム及び方法 | |
Jena et al. | Content based image retrieval using adaptive semantic signature | |
JP5713398B2 (ja) | 画像照合装置、画像照合方法及びコンピュータプログラム | |
Lyu et al. | Hierarchically structured multi-view features for mobile visual search | |
Mennesson et al. | Elementary block extraction for mobile image search | |
Shi et al. | Efficient Image Retrieval via Feature Fusion and Adaptive Weighting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171016 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171016 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171016 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6333190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |