JP6423872B2 - ビデオ分類方法および装置 - Google Patents
ビデオ分類方法および装置 Download PDFInfo
- Publication number
- JP6423872B2 JP6423872B2 JP2016523976A JP2016523976A JP6423872B2 JP 6423872 B2 JP6423872 B2 JP 6423872B2 JP 2016523976 A JP2016523976 A JP 2016523976A JP 2016523976 A JP2016523976 A JP 2016523976A JP 6423872 B2 JP6423872 B2 JP 6423872B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- image type
- frame
- face
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000001815 facial effect Effects 0.000 claims description 113
- 230000008569 process Effects 0.000 claims description 9
- 241000257465 Echinoidea Species 0.000 claims 1
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Description
ビデオにおける、顔を含むキーフレームを取得するステップと、
前記キーフレームにおける顔特徴を取得するステップと、
画像タイプに対応する顔特徴を取得するステップと、
前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴に基づいて、前記ビデオが属する画像タイプを特定するステップと、
前記ビデオを前記ビデオが属する画像タイプに割り当てるステップと、を含む。
前記ビデオから顔を含む少なくとも1つのビデオフレームを取得するステップと、
前記少なくとも1つのビデオフレームにおいて、各ビデオフレームにおける顔の数および顔の位置のいずれか一項又は二項を含む顔パラメータを特定するステップと、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定するステップと、を含む。
前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが他のビデオフレームに重複して出現していない非重複ビデオフレームを特定するステップと、
少なくとも1つの前記非重複ビデオフレームを前記キーフレームとして特定するステップと、を含む。
前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが同じである少なくとも1組の重複ビデオフレームを特定するステップと、
各組の前記重複ビデオフレームのうちのいずれかのビデオフレームを前記キーフレームとして特定するステップと、を含み、
各組の前記重複ビデオフレームが少なくとも2つのビデオフレームを含み、各組の前記重複ビデオフレームにおける撮影時間が最も遅いビデオフレームと撮影時間が最も早いビデオフレームとの間の撮影時間の差がより所定の時間小さい又は等しく、各組の前記重複ビデオフレームにおける全てのビデオフレームの顔パラメータが同じである。
前記ビデオを前記ビデオが属する画像タイプに割り当てるステップは、前記各ビデオタイプのビデオを同じ顔特徴に対応する画像タイプに割り当てるステップを含む。
前記画像タイプに対応する顔特徴において、前記キーフレームにおける顔特徴にマッチングする画像タイプを特定するステップと、
前記マッチングする画像タイプを前記ビデオが属する画像タイプとして特定するステップと、を含む。
前記ビデオの撮影時刻および撮影場所を取得するステップと、
前記ビデオの撮影時刻および撮影場所と同じである目的画像を特定するステップと、
前記ビデオを前記目的画像が属する画像タイプに割り当てるステップと、をさらに含む。
ビデオにおける、顔を含むキーフレームを取得する、第1取得モジュールと、
前記第1取得モジュールが取得した前記キーフレームにおける顔特徴を取得する、第2取得モジュールと、
画像タイプに対応する顔特徴を取得する、第3取得モジュールと、
前記第2取得モジュールが取得した前記キーフレームにおける顔特徴と前記第3取得モジュールが取得した前記画像タイプに対応する顔特徴に基づいて、前記ビデオが属する画像タイプを特定する、第1特定モジュールと、
前記ビデオを前記第1特定モジュールが特定した前記ビデオが属する画像タイプに割り当てる、第1割当モジュールと、を備える。
前記ビデオから顔を含む少なくとも1つのビデオフレームを取得する、取得サブモジュールと、
前記取得サブモジュールが取得した前記少なくとも1つのビデオフレームにおいて、各ビデオフレームにおける顔の数および顔の位置のいずれか一項又は二項を含む顔パラメータを特定する、第1特定サブモジュールと、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定する、第2特定サブモジュールと、を備える。
前記ビデオの数が少なくとも2つであるとき、各ビデオの前記キーフレームにおける顔特徴を特定し、各ビデオの前記キーフレームにおける顔特徴に基づいて、前記少なくとも2つのビデオに対して顔クラスタリング処理を行い、少なくとも1つのビデオタイプを取得し、前記少なくとも1つのビデオタイプに対応するそれぞれの顔特徴と前記画像タイプに対応する顔特徴に基づいて、同じ顔特徴に対応するビデオタイプと画像タイプを特定する、第3特定サブモジュールを備え、
前記第1割当モジュールは、
前記第3特定サブモジュールが特定した各ビデオタイプのビデオに同じ顔特徴に対応する画像タイプに割り当てる、第1割当サブモジュールを備える。
前記画像タイプに対応する顔特徴において、前記キーフレームにおける顔特徴にマッチングする画像タイプを特定する、第4特定サブモジュールと、
前記第4特定サブモジュールが特定した前記にマッチングする画像タイプは前記ビデオが属する画像タイプであると特定する、第2割当サブモジュールと、を備える。
前記ビデオの撮影時刻および撮影場所を取得する、第4取得モジュールと、
前記第4取得モジュールが取得した前記ビデオの撮影時刻および撮影場所と同じである目的画像を特定する、第2特定モジュールと、
前記ビデオを前記第2特定モジュールが特定した前記目的画像が属する画像タイプに割り当てる、第2割当モジュールと、をさらに備える。
プロセッサと、
プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
前記プロセッサは、
ビデオにおける、顔を含むキーフレームを取得し、
前記キーフレームにおける顔特徴を取得し、
画像タイプに対応する顔特徴を取得し、
前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定し、
前記ビデオを前記ビデオが属する画像タイプに割り当てるように構成される。
第4取得モジュール81は、ビデオの撮影時刻と撮影場所を取得するように構成される。
ビデオにおける、顔を含むキーフレームを取得し、
キーフレームにおける顔特徴を取得し、
画像タイプに対応する顔特徴を取得し、
キーフレームにおける顔特徴と画像タイプに対応する顔特徴とに基づいて、ビデオが属する画像タイプを特定し、
ビデオをビデオが属する画像タイプに割り当てるように構成される。
ビデオにおける、顔を含むキーフレームを取得するステップと、
前記キーフレームにおける顔特徴を取得するステップと、
画像タイプに対応する顔特徴を取得するステップと、
前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴に基づいて、前記ビデオが属する画像タイプを特定するステップと、
前記ビデオを前記ビデオが属する画像タイプに割り当てるステップと、を含む。
本発明は、出願番号が2015108674365、出願日が2015年12月01日である中国特許出願を基に提出するものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、参照のため本願に援用される。
Claims (11)
- ビデオにおける、顔を含むキーフレームを取得するステップと、
前記キーフレームにおける顔特徴を取得するステップと、
画像タイプに対応する顔特徴を取得するステップと、
前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定するステップと、
前記ビデオを前記ビデオが属する画像タイプに割り当てるステップと、を含み、
前記ビデオにおける、顔を含むキーフレームを取得するステップは、
前記ビデオから顔を含む少なくとも1つのビデオフレームを取得するステップと、
前記少なくとも1つのビデオフレームにおいて、各ビデオフレームにおける、顔の数および顔の位置のいずれか一項又は二項を含む顔パラメータを特定するステップと、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定するステップと、を含み、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定するステップは、
前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが他のビデオフレームに重複して出現していない非重複ビデオフレームを特定するステップと、
少なくとも1つの前記非重複ビデオフレームを前記キーフレームとして特定するステップと、を含む
ことを特徴とするビデオ分類方法。 - 前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定するステップは、
前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが同じである少なくとも1組の重複ビデオフレームを特定するステップと、
各組の前記重複ビデオフレームのうちのいずれかのビデオフレームを前記キーフレームとして特定するステップと、を含み、
各組の前記重複ビデオフレームが少なくとも2つのビデオフレームを含み、各組の前記重複ビデオフレームにおける撮影時間が最も遅いビデオフレームと撮影時間が最も早いビデオフレームとの間の撮影時間の差がより所定の時間小さい又は等しく、各組の前記重複ビデオフレームにおける全てのビデオフレームの顔パラメータが同じであることを特徴とする請求項1に記載のビデオ分類方法。 - 前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定するステップは、
前記ビデオの数が少なくとも2つであるとき、各ビデオの前記キーフレームにおける顔特徴を特定するステップと、
各ビデオの前記キーフレームにおける顔特徴に基づいて、前記少なくとも2つのビデオに対して顔クラスタリング処理を行い、少なくとも1つのビデオタイプを取得するステップと、
前記少なくとも1つのビデオタイプに対応するそれぞれの顔特徴と前記画像タイプに対応する顔特徴とに基づいて、同じ顔特徴に対応するビデオタイプと画像タイプを特定するステップと、を含み、
前記ビデオを前記ビデオが属する画像タイプに割り当てるステップは、
前記各ビデオタイプのビデオを同じ顔特徴に対応する画像タイプに割り当てるステップを含むことを特徴とする請求項1に記載のビデオ分類方法。 - 前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定するステップは、
前記画像タイプに対応する顔特徴において、前記キーフレームにおける顔特徴にマッチングする画像タイプを特定するステップと、
前記マッチングする画像タイプを前記ビデオが属する画像タイプとして特定するステップと、を含むことを特徴とする請求項1に記載のビデオ分類方法。 - 前記ビデオの撮影時刻および撮影場所を取得するステップと、
前記ビデオの撮影時刻および撮影場所と同じである目的画像を特定するステップと、
前記ビデオを前記目的画像が属する画像タイプに割り当てるステップと、をさらに含むことを特徴とする請求項1に記載のビデオ分類方法。 - ビデオにおける、顔を含むキーフレームを取得する、第1取得モジュールと、
前記第1取得モジュールが取得した前記キーフレームにおける顔特徴を取得する、第2取得モジュールと、
画像タイプに対応する顔特徴を取得する、第3取得モジュールと、
前記第2取得モジュールが取得した前記キーフレームにおける顔特徴と前記第3取得モジュールが取得した前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定する、第1特定モジュールと、
前記ビデオを前記第1特定モジュールが特定した前記ビデオが属する画像タイプに割り当てる、第1割当モジュールと、を備え、
前記第1取得モジュールは、
前記ビデオから顔を含む少なくとも1つのビデオフレームを取得する、取得サブモジュールと、
前記取得サブモジュールが取得した前記少なくとも1つのビデオフレームにおいて、各ビデオフレームにおける顔の数および顔の位置のいずれか一項又は二項を含む顔パラメータを特定する、第1特定サブモジュールと、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定する、第2特定サブモジュールと、を備え、
前記第2特定サブモジュールは、前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが他のビデオフレームに重複して出現していない非重複ビデオフレームを特定し、少なくとも1つの前記非重複ビデオフレームを前記キーフレームとして特定する
ことを特徴とするビデオ分類装置。 - 前記第2特定サブモジュールは、前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが同じである少なくとも1組の重複ビデオフレームを特定し、各組の前記重複ビデオフレームのうちのいずれかのビデオフレームを前記キーフレームとして特定し、各組の前記重複ビデオフレームが少なくとも2つのビデオフレームを含み、各組の前記重複ビデオフレームにおける撮影時間が最も遅いビデオフレームと撮影時間が最も早いビデオフレームとの間の撮影時間の差がより所定の時間小さい又は等しく、各組の前記重複ビデオフレームにおける全てのビデオフレームの顔パラメータが同じであることを特徴とする請求項6に記載のビデオ分類装置。
- 前記第1特定モジュールは、
前記ビデオの数が少なくとも2つであるとき、各ビデオの前記キーフレームにおける顔特徴を特定し、各ビデオの前記キーフレームにおける顔特徴に基づいて、前記少なくとも2つのビデオに対して顔クラスタリング処理を行い、少なくとも1つのビデオタイプを取得し、前記少なくとも1つのビデオタイプに対応するそれぞれの顔特徴と前記画像タイプに対応する顔特徴とに基づいて、同じ顔特徴に対応するビデオタイプと画像タイプを特定する、第3特定サブモジュールを備え、
前記第1割当モジュールは、
前記第3特定サブモジュールが特定した各ビデオタイプのビデオを同じ顔特徴に対応する画像タイプに割り当てる、第1割当サブモジュールを備えることを特徴とする請求項6に記載のビデオ分類装置。 - 前記第1特定モジュールは、
前記画像タイプに対応する顔特徴において、前記キーフレームにおける顔特徴にマッチングする画像タイプを特定する、第4特定サブモジュールと、
前記第4特定サブモジュールが特定した前記マッチングする画像タイプを前記ビデオが属する画像タイプとして特定する、第2割当サブモジュールと、を備えることを特徴とする請求項6に記載のビデオ分類装置。 - 前記ビデオの撮影時刻および撮影場所を取得する、第4取得モジュールと、
前記第4取得モジュールが取得した前記ビデオの撮影時刻および撮影場所と同じである目的画像を特定する、第2特定モジュールと、
前記ビデオを前記第2特定モジュールが特定した前記目的画像が属する画像タイプに割り当てる、第2割当モジュールと、をさらに備えることを特徴とする請求項6に記載のビデオ分類装置。 - プロセッサと、
プロセッサの実行可能な指令を記憶するためのメモリと、を備え、
前記プロセッサは、
ビデオにおける、顔を含むキーフレームを取得し、
前記キーフレームにおける顔特徴を取得し、
画像タイプに対応する顔特徴を取得し、
前記キーフレームにおける顔特徴と前記画像タイプに対応する顔特徴とに基づいて、前記ビデオが属する画像タイプを特定し、
前記ビデオを前記ビデオが属する画像タイプに割り当て、
前記ビデオにおける、顔を含むキーフレームを取得する際には、
前記ビデオから顔を含む少なくとも1つのビデオフレームを取得し、
前記少なくとも1つのビデオフレームにおいて、各ビデオフレームにおける、顔の数および顔の位置のいずれか一項又は二項を含む顔パラメータを特定し、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定し、
前記各ビデオフレームにおける顔パラメータに基づいて、前記ビデオにおけるキーフレームを特定する際には、
前記各ビデオフレームにおける前記顔パラメータに基づいて、前記顔パラメータが他のビデオフレームに重複して出現していない非重複ビデオフレームを特定し、
少なくとも1つの前記非重複ビデオフレームを前記キーフレームとして特定する、
ように構成されることを特徴とするビデオ分類装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510867436.5A CN105426515B (zh) | 2015-12-01 | 2015-12-01 | 视频归类方法及装置 |
CN201510867436.5 | 2015-12-01 | ||
PCT/CN2015/099610 WO2017092127A1 (zh) | 2015-12-01 | 2015-12-29 | 视频归类方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018502340A JP2018502340A (ja) | 2018-01-25 |
JP6423872B2 true JP6423872B2 (ja) | 2018-11-14 |
Family
ID=55504727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016523976A Active JP6423872B2 (ja) | 2015-12-01 | 2015-12-29 | ビデオ分類方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10115019B2 (ja) |
EP (1) | EP3176709A1 (ja) |
JP (1) | JP6423872B2 (ja) |
KR (1) | KR101952486B1 (ja) |
CN (1) | CN105426515B (ja) |
MX (1) | MX2016005882A (ja) |
RU (1) | RU2667027C2 (ja) |
WO (1) | WO2017092127A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227868A (zh) * | 2016-07-29 | 2016-12-14 | 努比亚技术有限公司 | 视频文件的归类方法和装置 |
CN106453916B (zh) * | 2016-10-31 | 2019-05-31 | 努比亚技术有限公司 | 对象分类装置及方法 |
KR20190007816A (ko) | 2017-07-13 | 2019-01-23 | 삼성전자주식회사 | 동영상 분류를 위한 전자 장치 및 그의 동작 방법 |
CN108830151A (zh) * | 2018-05-07 | 2018-11-16 | 国网浙江省电力有限公司 | 基于高斯混合模型的面具检测方法 |
CN108986184B (zh) * | 2018-07-23 | 2023-04-18 | Oppo广东移动通信有限公司 | 视频创建方法及相关设备 |
CN110334753B (zh) * | 2019-06-26 | 2023-04-07 | Oppo广东移动通信有限公司 | 视频分类方法、装置、电子设备及存储介质 |
CN110516624A (zh) * | 2019-08-29 | 2019-11-29 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN110580508A (zh) * | 2019-09-06 | 2019-12-17 | 捷开通讯(深圳)有限公司 | 视频分类方法、装置、存储介质和移动终端 |
CN111177086A (zh) * | 2019-12-27 | 2020-05-19 | Oppo广东移动通信有限公司 | 文件聚类方法及装置、存储介质和电子设备 |
CN111553191A (zh) * | 2020-03-30 | 2020-08-18 | 深圳壹账通智能科技有限公司 | 基于人脸识别的视频分类方法、装置及存储介质 |
CN112069875B (zh) * | 2020-07-17 | 2024-05-28 | 北京百度网讯科技有限公司 | 人脸图像的分类方法、装置、电子设备和存储介质 |
CN112035685B (zh) * | 2020-08-17 | 2024-06-18 | 中移(杭州)信息技术有限公司 | 相册视频生成方法、电子设备和存储介质 |
CN112835807B (zh) * | 2021-03-02 | 2022-05-31 | 网易(杭州)网络有限公司 | 界面识别方法、装置、电子设备和存储介质 |
CN115115822B (zh) * | 2022-06-30 | 2023-10-31 | 小米汽车科技有限公司 | 车端图像处理方法、装置、车辆、存储介质及芯片 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040228504A1 (en) * | 2003-05-13 | 2004-11-18 | Viswis, Inc. | Method and apparatus for processing image |
JP2005227957A (ja) * | 2004-02-12 | 2005-08-25 | Mitsubishi Electric Corp | 最適顔画像記録装置及び最適顔画像記録方法 |
WO2006099082A2 (en) * | 2005-03-10 | 2006-09-21 | Qualcomm Incorporated | Content adaptive multimedia processing |
JP4616091B2 (ja) * | 2005-06-30 | 2011-01-19 | 株式会社西部技研 | 回転式ガス吸着濃縮装置 |
US8150155B2 (en) * | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
KR100771244B1 (ko) * | 2006-06-12 | 2007-10-29 | 삼성전자주식회사 | 동영상 데이터 처리 방법 및 장치 |
JP4697106B2 (ja) * | 2006-09-25 | 2011-06-08 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2008117271A (ja) * | 2006-11-07 | 2008-05-22 | Olympus Corp | デジタル画像の被写体認識装置、プログラム、および記録媒体 |
US8488901B2 (en) * | 2007-09-28 | 2013-07-16 | Sony Corporation | Content based adjustment of an image |
JP5278425B2 (ja) * | 2008-03-14 | 2013-09-04 | 日本電気株式会社 | 映像分割装置、方法及びプログラム |
JP5134591B2 (ja) * | 2009-06-26 | 2013-01-30 | 京セラドキュメントソリューションズ株式会社 | ワイヤー係止構造 |
JP2011100240A (ja) * | 2009-11-05 | 2011-05-19 | Nippon Telegr & Teleph Corp <Ntt> | 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム |
US8452778B1 (en) * | 2009-11-19 | 2013-05-28 | Google Inc. | Training of adapted classifiers for video categorization |
JP2011234180A (ja) * | 2010-04-28 | 2011-11-17 | Panasonic Corp | 撮像装置、再生装置、および再生プログラム |
CN103827856A (zh) * | 2011-09-27 | 2014-05-28 | 惠普发展公司,有限责任合伙企业 | 检索视觉媒体 |
CN108073948A (zh) * | 2012-01-17 | 2018-05-25 | 华为技术有限公司 | 一种照片分类管理方法、服务器、装置及系统 |
US9405771B2 (en) * | 2013-03-14 | 2016-08-02 | Microsoft Technology Licensing, Llc | Associating metadata with images in a personal image collection |
EP3011504A4 (en) * | 2013-06-19 | 2017-02-22 | Conversant LLC | Automatic face discovery and recognition for video content analysis |
CN103530652B (zh) * | 2013-10-23 | 2016-09-14 | 北京中视广信科技有限公司 | 一种基于人脸聚类的视频编目方法、检索方法及其系统 |
EP3089101A1 (en) * | 2013-12-03 | 2016-11-02 | Dacuda AG | User feedback for real-time checking and improving quality of scanned image |
CN104133875B (zh) * | 2014-07-24 | 2017-03-22 | 北京中视广信科技有限公司 | 一种基于人脸的视频标注方法和视频检索方法 |
CN104284240B (zh) | 2014-09-17 | 2018-02-02 | 小米科技有限责任公司 | 视频浏览方法及装置 |
CN104317932B (zh) * | 2014-10-31 | 2018-04-27 | 小米科技有限责任公司 | 照片分享方法及装置 |
CN104361128A (zh) * | 2014-12-05 | 2015-02-18 | 河海大学 | 一种基于水工巡检业务的pc端与移动端数据同步方法 |
-
2015
- 2015-12-01 CN CN201510867436.5A patent/CN105426515B/zh active Active
- 2015-12-29 KR KR1020167010359A patent/KR101952486B1/ko active IP Right Grant
- 2015-12-29 MX MX2016005882A patent/MX2016005882A/es unknown
- 2015-12-29 RU RU2016136707A patent/RU2667027C2/ru active
- 2015-12-29 JP JP2016523976A patent/JP6423872B2/ja active Active
- 2015-12-29 WO PCT/CN2015/099610 patent/WO2017092127A1/zh active Application Filing
-
2016
- 2016-06-24 EP EP16176268.7A patent/EP3176709A1/en not_active Ceased
- 2016-08-19 US US15/241,804 patent/US10115019B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10115019B2 (en) | 2018-10-30 |
CN105426515A (zh) | 2016-03-23 |
US20170154221A1 (en) | 2017-06-01 |
EP3176709A1 (en) | 2017-06-07 |
RU2016136707A3 (ja) | 2018-03-16 |
JP2018502340A (ja) | 2018-01-25 |
KR101952486B1 (ko) | 2019-02-26 |
KR20180081637A (ko) | 2018-07-17 |
MX2016005882A (es) | 2017-08-02 |
RU2016136707A (ru) | 2018-03-16 |
CN105426515B (zh) | 2018-12-18 |
RU2667027C2 (ru) | 2018-09-13 |
WO2017092127A1 (zh) | 2017-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6423872B2 (ja) | ビデオ分類方法および装置 | |
RU2637474C2 (ru) | Способ и устройство для управления фоновым приложением и терминальным устройством | |
WO2016090822A1 (zh) | 对固件进行升级的方法及装置 | |
EP3163884A1 (en) | Image acquiring method and apparatus, computer program and recording medium | |
US20160162284A1 (en) | Method and device for upgrading firmware | |
JP2018500611A (ja) | 画像の処理方法及び装置 | |
WO2017084183A1 (zh) | 信息显示方法与装置 | |
US11281363B2 (en) | Method and device for setting identity image | |
CN105635254B (zh) | 多媒体资源下载方法和装置 | |
CN106919629B (zh) | 在群聊中实现信息筛选的方法及装置 | |
EP3133806A1 (en) | Method and device for generating panorama | |
CN104065883B (zh) | 拍摄方法及装置 | |
WO2016065814A1 (zh) | 信息选取方法及装置 | |
CN105205093B (zh) | 图库中图片处理的方法及装置 | |
KR20150126192A (ko) | 전자 장치 및 전자 장치에서 촬영 방법 | |
CN105957011B (zh) | 图片处理方法及装置 | |
CN108984628B (zh) | 内容描述生成模型的损失值获取方法及装置 | |
CN105094500B (zh) | 一种图标摆放方法及装置 | |
CN107222576A (zh) | 相册同步方法及装置 | |
CN107729439A (zh) | 获取多媒体数据的方法、装置和系统 | |
CN109145151B (zh) | 一种视频的情感分类获取方法及装置 | |
CN105577917B (zh) | 照片显示方法和装置、智能终端 | |
CN104793847B (zh) | 图片展示方法及装置 | |
CN104184943B (zh) | 图像拍摄方法与装置 | |
CN112825544A (zh) | 图片处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6423872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |