JP6090927B2 - 映像区間設定装置及びプログラム - Google Patents
映像区間設定装置及びプログラム Download PDFInfo
- Publication number
- JP6090927B2 JP6090927B2 JP2013136460A JP2013136460A JP6090927B2 JP 6090927 B2 JP6090927 B2 JP 6090927B2 JP 2013136460 A JP2013136460 A JP 2013136460A JP 2013136460 A JP2013136460 A JP 2013136460A JP 6090927 B2 JP6090927 B2 JP 6090927B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- section
- input
- unit
- video section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 107
- 238000009826 distribution Methods 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 11
- 238000010845 search algorithm Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 5
- 235000012054 meals Nutrition 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241001024304 Mino Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Image Processing (AREA)
Description
特徴量変換部1は、映像をフレーム単位で読み込み、信号処理により抽出された特徴量へと変換する。ここでは、特徴量変換部1が、フレーム画像内に含まれるオブジェクトを認識するオブジェクト認識部11を具備し、当該認識されたオブジェクトに対する観測量の共起関係を特徴量とした、共起特徴量を得るものとする。当該オブジェクト認識部11は、Bag Of Visual Wordsのフレームワークに基づいた一般物体認識の手順で実施してもよい。
2.局所特徴量をクラスタリングし、セントロイドをvisual word(代表的なパターン)と規定する。
3.新規に画像から抽出された各局所特徴量に一番近いvisual wordを求め、visual wordのヒストグラムで画像全体の特徴量を表現する。
4.あらかじめ多数の学習サンプルから抽出された特徴量を機械学習(SVM等)し、生成された識別器を用いて、認識を実現する。
クラスタリング部2は、複数のデータを類似性に基づいて分類するものであって、前記特徴量変換部1にて得られる各フレームの特徴量を性質の類似するクラスタへと分類する。このクラスタリング処理により、映像の各フレームにはクラスタ番号(当該フレームが分類され所属するクラスタの番号)が1つだけ付与されることになる。
区間決定部3は、前記クラスタリング部2による分類結果に基づいて、同じ映像内容が連続するとみなせる区間の各々を、映像区間として決定し、当該映像区間を表示部4及び生成部7へと出力する。
表示部4は、区間決定部3で得られた各映像区間を、映像としてまたは代表画像としてユーザに対して表示し、後述の入力部6におけるアノテーションの入力を促す。当該表示する際に、各映像区間からランダムでフレーム画像を抽出して代表画像としてもよいし、映像区間の先頭や中央等の決められた位置のフレーム画像を代表画像として抽出しても良い。あるいは、映像区間の全体又は一部を映像として表示しても良い。その区間の映像内容をユーザに表示し、入力部6に入力するキーワードを連想できるようにするのが表示部4の目的である。
入力部6は、ユーザにより入力された、表示部4で表示された映像区間に対するキーワードを受け取り、生成部7へ渡す。生成部7では、当該入力されたキーワードを、対応する映像区間に付与して、学習用サンプル又はキーワード付与映像区間を生成する。
履歴部5は、入力部6を介して過去に入力されたキーワードを蓄積する。当該蓄積されているキーワードの履歴を表示部4が一覧表示することにより、入力部6にて付与するキーワードを一覧の中から選択することで入力可能にすることができる。
第二手法では、特徴量変換部1にて得られた各々のフレームの共起特徴量に対するクラスタの割り当ては、変分ベイズ推定により、全共起特徴量の集合Xに対して周辺ゆう度を最大化する適切なクラスタを割り当てることにより実現する。フレーム番号dで得られた共起特徴量をxdとする。xd∈Xである。
第三手法では、クラスタリングをオンラインで行うため、無次元分布を持つノンパラメトリックトピックモデルディリクレ過程にSequential Update Greedy Searchアルゴリズムを適用する。計算コストがクラスタ数に応じて線形であり、高速な処理を実現可能とある。同時に、本第三手法においても第二手法同様にクラスタ数もディリクレ過程の枠組みで自動的に発見するため、Chinese Restaurant Processアルゴリズムを適用する。Chinese Restaurant Processアルゴリズムはディリクレ過程から生成される無限次元離散分布の一生成方法であり、それまでに観測されていないクラスタの確率までも仮想的に保持し、クラスタ数を適応的に増やすことが可能となる。新規にd番目のフレームで得られた共起特徴量xdに対して、次式のゆう度関数pを最大にするクラスタ<k>を選択し、共起特徴量xdはクラスタkに分類されるものとして、その所属zdをzd=kと決定する。
共起特徴量x1がクラスタk=1に分類されるものとし、その所属z1をz1=1と初期化する。
クラスタk=1の度数n(k=1, μj)を共起特徴量x1を用いて更新し、k=1のディリクレ分布のパラメータμ(k=1)の確率の期待値を次式の通り再計算する。ここで、ディリクレ分布のパラメータμの次元数はJであり、μ={μ1, …, μj, …, μJ}である。
新規にd番目のフレームで得られた共起特徴量xdに対して最適な所属zdを以下のゆう度関数pから推定する。ただし、集合X[-d]はそれまでそこまでの全ての観測を意味し、集合Z[-d]は過去の全ての所属(いずれも表記[-d]はxdやzdを含まないことを意味する)を示す。
クラスタ<k>の度数n(k=1, μj)を共起特徴量xdを用いて更新し、<k>のディリクレ分布のパラメータμ(<k>)の確率の期待値を再計算する。
ここでは、ディリクレ過程のハイパーパラメータα0を、次式に示す通り複数のαtを使用して、推定の枠組み内で周辺化する。
Claims (10)
- 映像区間を設定する映像区間設定装置であって、
映像をフレーム単位で読み込み、所定の信号処理の適用により特徴量へと変換する特徴量変換部と、
前記映像の各フレームを、前記変換された特徴量の類似に基づいてクラスタへと分類するクラスタリング部と、
前記クラスタリング部による分類結果に基づいて同じ映像内容が連続する区間を映像区間として決定する区間決定部と、を備え、
前記特徴量変換部が、
フレーム画像内に含まれるオブジェクトを認識するオブジェクト認識部を具備し、
当該認識されたオブジェクトより抽出した観測量の共起関係を当該フレーム画像に対する共起特徴量として、前記特徴量を得るものであり、
前記決定された映像区間を映像として、または、当該映像より得た代表画像として、ユーザに対して表示する表示部と、
当該表示された映像区間に対応するキーワードの入力をユーザより受け付ける入力部と、
前記入力されたキーワードを履歴として蓄積する履歴部と、をさらに備え、
前記表示部は、前記決定された映像区間を映像として、または、当該映像より得た代表画像として、ユーザに対して前記表示する際に、併せて、前記蓄積されたキーワードの履歴をユーザに対して表示し、
前記入力部では、当該蓄積され表示されたキーワードの中からのユーザによる選択を含めて、前記キーワードの入力をユーザより受け付け、
前記表示部は、前記履歴をユーザに対して表示するに際して、当該表示している映像区間と同一のクラスタに前記クラスタリング部で分類され、且つ、前記入力部で既にキーワードの入力を受け付けた映像区間が存在する場合には、当該既に入力を受け付けた映像区間に対応するキーワードを、優先的に表示することを特徴とする映像区間設定装置。 - 前記特徴量変換部が、前記観測量を、前記認識されたオブジェクトの各々につき、当該オブジェクトの数、ゆう度及び面積並びに当該数、ゆう度及び面積の割合、の少なくとも1つの組み合わせとして抽出することを特徴とする請求項1に記載の映像区間設定装置。
- 前記特徴量変換部は、オブジェクトの面積を前記組み合わせに含めて前記観測量を抽出し、この際、予め当該面積をフレーム画像全体の大きさで正規化することを特徴とする請求項2に記載の映像区間設定装置。
- 前記オブジェクト認識部が、Bag Of Visual Wordsに基づく一般物体認識の手法を用いてオブジェクトを認識することを特徴とする請求項1ないし3のいずれかに記載の映像区間設定装置。
- 前記クラスタリング部が、最短距離法等の階層的クラスタリング手法により、または、k-means法等の分割最適化クラスタリング手法により、前記クラスタへの分類を行うことを特徴とする請求項1ないし4のいずれかに記載の映像区間設定装置。
- 前記クラスタリング部が、X-meansにより、または、無次元分布を持つノンパラメトリックトピックモデルディリクレ過程を利用した変分ベイズ推定により、オフラインで前記クラスタへの分類を行うことを特徴とする請求項1ないし4のいずれかに記載の映像区間設定装置。
- 前記クラスタリング部が、無次元分布を持つノンパラメトリックトピックモデルディリクレ過程にSequential Update Greedy SearchアルゴリズムおよびChinese Restaurant Processアルゴリズムを適用することで、オンラインで前記クラスタへの分類を行うことを特徴とする請求項1ないし4のいずれかに記載の映像区間設定装置。
- 前記映像区間及び/又は前記映像区間に対して前記抽出された特徴量と、前記入力されたキーワードを対応づけて、学習用サンプル又はキーワード付与映像区間を生成する生成部をさらに備えることを特徴とする請求項1ないし7のいずれかに記載の映像区間設定装置。
- 前記映像が一人称映像であり、前記映像区間が当該一人称映像における行動に対応することを特徴とする請求項1ないし8のいずれかに記載の映像区間設定装置。
- 映像区間を設定する映像区間設定プログラムであって、コンピュータに、
映像をフレーム単位で読み込み、所定の信号処理の適用により特徴量へと変換する特徴量変換手順と、
前記映像の各フレームを、前記変換された特徴量の類似に基づいてクラスタへと分類するクラスタリング手順と、
前記クラスタリング手順による分類結果に基づいて同じ映像内容が連続する区間を映像区間として決定する区間決定手順と、を実行させ、
前記特徴量変換手順は、
フレーム画像内に含まれるオブジェクトを認識するオブジェクト認識手順を具備し、
当該認識されたオブジェクトより抽出した観測量の共起関係を当該フレーム画像に対する共起特徴量として、前記特徴量を得るものであり、
前記決定された映像区間を映像として、または、当該映像より得た代表画像として、ユーザに対して表示する表示手順と、
当該表示された映像区間に対応するキーワードの入力をユーザより受け付ける入力手順と、
前記入力されたキーワードを履歴として蓄積する履歴手順と、をさらに実行させ、
前記表示手順は、前記決定された映像区間を映像として、または、当該映像より得た代表画像として、ユーザに対して前記表示する際に、併せて、前記蓄積されたキーワードの履歴をユーザに対して表示し、
前記入力手順では、当該蓄積され表示されたキーワードの中からのユーザによる選択を含めて、前記キーワードの入力をユーザより受け付け、
前記表示手順は、前記履歴をユーザに対して表示するに際して、当該表示している映像区間と同一のクラスタに前記クラスタリング手順で分類され、且つ、前記入力手順で既にキーワードの入力を受け付けた映像区間が存在する場合には、当該既に入力を受け付けた映像区間に対応するキーワードを、優先的に表示することを特徴とする映像区間設定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013136460A JP6090927B2 (ja) | 2013-06-28 | 2013-06-28 | 映像区間設定装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013136460A JP6090927B2 (ja) | 2013-06-28 | 2013-06-28 | 映像区間設定装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015011525A JP2015011525A (ja) | 2015-01-19 |
JP6090927B2 true JP6090927B2 (ja) | 2017-03-08 |
Family
ID=52304637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013136460A Expired - Fee Related JP6090927B2 (ja) | 2013-06-28 | 2013-06-28 | 映像区間設定装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6090927B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6778314B1 (ja) * | 2019-12-26 | 2020-10-28 | 株式会社マネーフォワード | 画像処理システム、画像処理方法、及び画像処理プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6389168B2 (en) * | 1998-10-13 | 2002-05-14 | Hewlett Packard Co | Object-based parsing and indexing of compressed video streams |
JP5845801B2 (ja) * | 2011-10-18 | 2016-01-20 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
-
2013
- 2013-06-28 JP JP2013136460A patent/JP6090927B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015011525A (ja) | 2015-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11222196B2 (en) | Simultaneous recognition of facial attributes and identity in organizing photo albums | |
US10025950B1 (en) | Systems and methods for image recognition | |
US10013637B2 (en) | Optimizing multi-class image classification using patch features | |
US11087167B2 (en) | First-person camera based visual context aware system | |
Mita et al. | Discriminative feature co-occurrence selection for object detection | |
KR20190094314A (ko) | 콘텐츠 기반의 스타일을 갖는 텍스트 또는 음성을 생성하는 인공 지능 장치 및 그 방법 | |
Malgireddy et al. | Language-motivated approaches to action recognition | |
Vrysis et al. | Crowdsourcing audio semantics by means of hybrid bimodal segmentation with hierarchical classification | |
CN113190709B (zh) | 一种基于短视频关键帧的背景音乐推荐方法和装置 | |
Raut | Facial emotion recognition using machine learning | |
CN110008365B (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
Xu et al. | Enhancing semantic image retrieval with limited labeled examples via deep learning | |
Tian et al. | Sequential deep learning for disaster-related video classification | |
CN111434118A (zh) | 用户感兴趣信息生成的装置和方法 | |
Trigeorgis et al. | The ICL-TUM-PASSAU approach for the MediaEval 2015" Affective Impact of Movies" task | |
Kächele et al. | Revisiting the EmotiW challenge: how wild is it really? Classification of human emotions in movie snippets based on multiple features | |
Agha et al. | A comprehensive study on sign languages recognition systems using (SVM, KNN, CNN and ANN) | |
Mukherjee et al. | Recognizing interactions between human performers by ‘Dominating Pose Doublet’ | |
Kuriakose et al. | SceneRecog: a deep learning scene recognition model for assisting blind and visually impaired navigate using smartphones | |
US11394929B2 (en) | System and method for language-guided video analytics at the edge | |
Shoba et al. | Aging facial recognition for feature extraction using adaptive fully recurrent deep neural learning | |
Bin et al. | Combining multi-representation for multimedia event detection using co-training | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
Ghaleb et al. | Multimodal fusion based on information gain for emotion recognition in the wild | |
JP6090927B2 (ja) | 映像区間設定装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6090927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |