JP2010186343A - コンテンツ識別方法及び装置 - Google Patents

コンテンツ識別方法及び装置 Download PDF

Info

Publication number
JP2010186343A
JP2010186343A JP2009030364A JP2009030364A JP2010186343A JP 2010186343 A JP2010186343 A JP 2010186343A JP 2009030364 A JP2009030364 A JP 2009030364A JP 2009030364 A JP2009030364 A JP 2009030364A JP 2010186343 A JP2010186343 A JP 2010186343A
Authority
JP
Japan
Prior art keywords
image
feature amount
content
identification
shot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009030364A
Other languages
English (en)
Other versions
JP5283267B2 (ja
Inventor
Haruhisa Kato
晴久 加藤
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009030364A priority Critical patent/JP5283267B2/ja
Publication of JP2010186343A publication Critical patent/JP2010186343A/ja
Application granted granted Critical
Publication of JP5283267B2 publication Critical patent/JP5283267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】任意の未知コンテンツが識別対象(正例)であるか識別対象外(負例)であるかを高精度に判定できるコンテンツ識別方法および装置を提供する。
【解決手段】映像ショットの切り替わりで映像を構造化するショット検出手段1と、前記ショット検出手段によって検出されたショット情報を用いて識別対象となる画像候補を選択する画像選択手段2と、前記画像選択手段で選択された画像候補から特徴量を算出する特徴量算出手段3と、前記特徴量算出手段で算出された特徴量を用いて正例7と負例6に識別する識別手段4とを備える。また、前記特徴量算出部3は、ピラミッド画像生成部、色特徴量算出部、形状特徴量算出部および特徴量判定部から構成することができる。この構成により、例えば、映像コンテンツが青少年に有害な画像であるか否かを、精度良く識別できるようになる。
【選択図】図2

Description

本発明はコンテンツ識別方法及び装置に関し、特に猥褻なコンテンツへのアクセス制限を判断するのに好適なコンテンツ識別方法及び装置に関する。
パソコンや携帯電話の普及に伴い、子どもがネットを利用する機会が増加する一方で、有害な情報にアクセスすることで青少年の健全な育成が阻害されるということが社会的な問題となっており、従来から、この問題に対処する方法が研究、開発されている。
有害なコンテンツへのアクセスを制限(フィルタリング)する方法としては、下記の特許文献1〜5に示されているような、データベースに登録された内容から判断する方法がある。特許文献1,2に記されている方法では人手で判断され、特許文献3〜5に記されている方法では自動的に判断される。
特許文献1には、特定のURLをブラックリストとして人手で格納し、該当するURLの閲覧を制限することが記されている。
特許文献2には、電子メールに記されたURLをレイティング機関に送り、人手で有害なコンテンツかどうかを審査することが記されている。
特許文献3では、受信したコンテンツを、データベースに蓄積された基準画像データ、基準動画データおよび基準音声データと比較して、猥褻なコンテンツを識別する。例えば、基準動画データからは、フレーム毎に、色、形、テクスチャ、位置、線分などの特徴量を抽出し、類似性算出に利用する。
特許文献4では、画像データから肌色領域を検出し、各肌色領域の面積と重心位置を算出する。領域の密集度合いや離散度合いから構成される組み合わせパターンを予めデータベースとして作成しておき、前記算出結果と照合する。
特許文献5では、画像データの肌色割合を検出し、割合が閾値以上の場合は公序良俗に反する可能性があると判断する。
特許文献6では、検索対象コンテンツとそれ以外のコンテンツを教師コンテンツとして、教師コンテンツおよびメタデータに応じた最適な学習モデルを構築する学習処理と、該学習処理で得られた学習モデルを用いて未知のコンテンツを段階的に識別する。
特開2007−128119号公報 特開2006−146743号公報 特開2005−293123号公報 特開2002−175527号公報 特開2006−254222号公報 特開2006−99565号公報
しかしながら、前記した先行技術には、次のような問題がある。
特許文献1に開示された技術では、短期間にデータベースの情報が古くなり、現状を反映しなくなるという問題が発生する恐れがある。また、ネット上の情報は日々更新されるため、データベースの保守管理には膨大な手間と時間がかかるという問題がある。
特許文献2に開示された技術では、有害なコンテンツかどうかがレイティング機関の人手で審査されるため、時間がかかるだけでなく審査する人によって基準が曖昧になるという問題がある。
特許文献3に開示された技術では、特徴量の抽出や選定の具体的な手法が述べられていないだけでなく、比較方法も明記されていない。
特許文献4に開示された技術では、検出対象は3〜5種類の類型に分類できることが前提とされているため、素人が撮影したコンテンツなどの該前提から外れるコンテンツに対しては対応できない。
また、特許文献5に開示された技術では、肌色の割合を判断基準としているため、段ボールのように肌色を含む画像を過剰検出してしまうという問題がある。また、実際の肌領域を検出できたとしても顔写真と猥褻画像とを区別できないという問題がある。
また、特許文献6には、主に静止画像についてのコンテンツ識別装置が説明されているだけである。
さらに、上記の特許文献に記されているいずれの方法も静止画像を対象としているため、動画像に対しては対処できないという問題がある。
本発明の目的は、上記した従来技術の課題を解決し、任意の未知コンテンツが識別対象 (正例)であるか識別対象外(負例)であるかを動画像に対して高精度に判定できるコンテンツ識別方法および装置を提供することにある。
上記の目的を達成するため、本発明は、未知コンテンツが識別対象のコンテンツ(以下、正例コンテンツと記す)であるか識別対象外のコンテンツ(以下、負例コンテンツと記す)であるかを識別するコンテンツ識別装置において、映像ショットの切り替わりで映像を構造化するショット検出手段と、前記ショット検出手段によって検出されたショット情報を用いて識別対象となる画像候補を選択する画像選択手段と、前記画像選択手段で選択された画像候補から特徴量を算出する特徴量算出手段と、前記特徴量算出手段で算出された特徴量を用いて正例と負例に識別する識別手段とを備えた点に第1の特徴がある。
また、本発明は、前記画像選択手段が、フィードバックされた、前記識別手段で識別された結果を利用して選択する画像候補数を決定するようにした点に第2の特徴がある。
また、本発明は、前記画像選択手段が、前記ショット検出手段で抽出されたショット長あるいはショットの時間的位置に応じて、識別対象となる候補画像を前記ショットから選択するか否かを判断するようにした点に第3の特徴がある。
また、本発明は、前記画像選択手段が、画像の符号量あるいは画像の符号化方式に応じて、識別対象となる候補画像を前記ショットから選択するか否かを判断するようにした点に第4の特徴がある。
また、本発明は、前記画像選択手段が、前記ショットから選択する候補画像枚数を、前記ショット検出手段で抽出されたショット長に比例させて選択するようにした点に第5の特徴がある。
また、本発明は、前記画像選択手段が、前記識別手段の判断結果に応じて当該ショットから選択する候補画像枚数を変化させるようにした点に第6の特徴がある。
また、本発明は、前記特徴量算出手段が、予め設定した枚数だけ異なる解像度の画像を生成するピラミッド画像生成手段と、色ヒストグラムを色特徴量として算出する色特徴量算出手段と、エッジとテクスチャのそれぞれのヒストグラムを形状情報として算出する形状特徴量算出手段と、前記色特徴量算出手段および形状特徴量算出手段が算出した特徴量の妥当性を判定する特徴量判定手段とを備えた点に第7の特徴がある。
また、本発明は、前記色特徴量算出手段が、前記形状特徴量算出手段における処理領域を正例に含まれる特定色の近傍および囲まれた領域だけに限定するようにした点に第8の特徴がある。
また、本発明は、前記画像特徴量算出手段が、前記ピラミッド画像生成手段が生成した画像群に対して、各ブロックに複数のエッジ方向算出処理を行い、各ブロック内でエッジ強度が最大となる方向をエッジ方向として算出し、エッジ方向のヒストグラムをエッジ特徴量とするようにした点に第9の特徴がある。
また、本発明は、前記テクスチャ特徴量算出手段が、前記ピラミッド画像生成手段が生成した画像群に対して、各ブロックを平面で近似したときの法線ベクトルの向きを算出し、法線方向のヒストグラムをテクスチャ特徴量とするようにした点に第10の特徴がある。
また、本発明は、前記特徴量判定手段が、前記特徴量算出手段で算出した色特徴量、エッジ特徴量、およびテクスチャ特徴量の分布をそれぞれに予め設定された閾値と比較して識別に用いる画像か否かを判断するようにした点に第11の特徴がある。
また、本発明は、前記識別手段が、手動で分類した複数の正例コンテンツと負例コンテンツから抽出した特徴量を使って予め学習した結果と当該コンテンツの特徴量とを比較し、正例または負例と判断する手段を備えた点に第12の特徴がある。
さらに、本発明は、映像ショットの切り替わりで映像を分割するステップと、前記分割されたショットから識別対象となる画像候補を選択するステップと、前記選択された画像候補から画像の特徴量を算出するステップと、前記算出された特徴量を用いて正例と負例に識別するステップとからなるコンテンツ識別方法を提供する点に第13の特徴がある。
本発明によれば、映像ショットの切り替わりで映像を構造化するショット検出手段と、前記ショット検出手段によって検出されたショット情報を用いて識別対象となる画像候補を選択する画像選択手段と、前記画像選択手段で選択された画像候補から特徴量を算出する特徴量算出手段と、前記特徴量算出手段で算出された特徴量を用いて正例と負例に識別する識別手段とを備えたコンテンツ識別装置により、映像コンテンツが正例であるか負例であるかを識別するようにしたので、該映像コンテンツを高精度に正例または負例と判断できるようになる。本発明のコンテンツ識別方法によっても、前記と同様に、映像コンテンツを高精度に正例または負例と判断できるようになる。
さらに、映像コンテンツ毎の特性に考慮して、つまり映像コンテンツ毎の特徴量を利用して適応的に識別するため、撮影環境や露光条件の変化に頑健な判断が可能になる。
以下に、本発明を図面を参照して詳細に説明する。図1は、本発明の一実施形態のコンテンツ識別装置の基本構成を示すブロック図である。
図示されているように、本実施形態のコンテンツ識別装置は、ショット検出部1、画像選択部2、特徴量算出部3、識別部4および学習部(辞書)5を備える。以下に、これらの構成要素の構成および作用について具体的に説明する。
(1)ショット検出部1
コンテンツ10、例えば映像コンテンツは、膨大な画像の集合から構成されるため、すべての画像に対して判断を下すのは処理時間の短縮という観点からは望ましくない。
一般に映像コンテンツは編集によって複数のショットから構成される。それぞれのショットは撮影場所や撮影対象、カメラアングル、画角などが異なるため、各ショットの画像の特徴量も大きく変化している。一方、ショット内は比較的類似した画像が続くため、連続した画像を抽出することは効率的ではない。
よって、ショット検出部1は、後段の画像選択部2での判断材料となるべく、映像コンテンツの区切りとなるショットを検出することで映像を構造化する。例えば、ショット毎の開始時間、終了時間をショット分布情報として、画像選択部2へ送る。ショット検出自体は、特開2007−134986号公報などに記されている既存の方法が利用できる。
(2)画像選択部2
画像選択部2は、映像コンテンツの特徴を捉えることができる画像、例えば画質劣化の小さい画像を必要最小限の枚数だけサンプリングして候補画像として、特徴量算出部3へ送る。
画像選択部2では、前述のショット検出部1から入力されたショット分布情報をもとに、ショット長Lが予め設定した長さ以上の各ショットから、識別に利用する複数の画像を抽出する。映像コンテンツは情報量を削減するために、符号化されていることが多く、符号化方式によっては一枚一枚の画像に割り当てられる符号量に大きな差がある。相対的に符号量が少ない画像では、符号化に伴う画質劣化が比較的大きいため、画質劣化が識別に悪影響を与えかねない。
そこで、画像選択部2は、識別対象として画質劣化が少ない画像を選択するために、ショット内で符号量が相対的に大きい画像から順に候補画像としての優先順位を付与する。同時に、優先順位の高い方から予め設定した枚数あるいはショット長に比例した枚数を候補画像として選択する。また、最初と最後のショットは映像本編の内容を反映していないことを考慮して、予め候補画像の選択をしないことも可能である。この場合、選択開始時刻と選択終了時刻(ショットの時間的位置)を予め設定しておき、設定時刻内に該当するショットだけから候補画像を選択する。
他の実施形態としては、画像の符号化方式の種類を利用することも考えられる。時間的な冗長性を利用した映像符号化方式が他の画像に依存しない符号化(例えば、イントラ符号化)と、他の画像に依存する符号化(例えば、インター符号化)とを併用している場合、前者に多くの符号量を割り当てることが多いため、符号化方式を確認するだけで高速に候補を選択することもできる。この場合、該符号化方式の画像を符号量の多い順に候補画像としての優先順位を付与する。同時に、優先順位の高い方から予め設定した枚数あるいはショット長に比例した枚数を候補画像として選択する。
さらに他の実施形態としては、例えば図2に示すように、初回に前述した方法で選択した画像の識別した結果(負例6又は正例7)を画像選択部2にフィードバックして利用することも考えられる。ショット内の最初の候補画像が負例(識別対象外)と判断されたショットに対して、同一ショットから多くの次候補画像を選択することでコンテンツ全体の識別結果に対する検出漏れを改善することができる。逆に、ショット内の最初の候補画像が正例(識別対象)と判断されたショットに対して、同一ショットから少ない次候補画像を選択することでコンテンツ全体の識別結果に対する過剰検出を改善することができる。
映像コンテンツのショット分布情報およびサンプリングされた候補画像は特徴量算出部3に送られる。
(3)特徴量算出部3
特徴量算出部3は、図3に示されているように、ピラミッド画像生成部31、色特徴量算出部32、形状特徴量算出部33、および特徴量判定部34から構成される。また、前記形状特徴量算出部33は、例えば、エッジ特徴量算出部33aとテクスチャ特徴量算出部33bとから形成することができる。
特徴量算出部3は、画像選択部2で抽出された画像から解像度の異なる複数の画像を生成し、それぞれの画像から回転や移動などの幾何変化にロバストな複数の特徴量を抽出し、抽出された特徴量を特徴量判定部34で判断し、識別に用いる複数の特徴量を識別部4に出力する。
ピラミッド画像生成部31は、入力された画像を再帰的に解像度変換し、複数の画像を生成する。例えば、入力された画像を縦横それぞれ1/2に縮小し、生成された画像を再び1/2に縮小する。すなわち、1/2、1/4、1/8等に解像度変換された画像群をピラミッド画像とする。ピラミッド画像には2倍に拡大した画像を追加しても良い。生成する枚数は実行環境の処理性能や判断基準に応じて予め設定しておく。ピラミッド画像生成手段31で生成されたピラミッド画像は、色特徴量算出部32に送出される。
色特徴量算出部32としては、前記ピラミッド画像を一定数のブロックに分割し、画像全体及びブロックごとに色情報のヒストグラムを算出する。そして、特定の色情報、例えば肌色の色分布、肌色領域の大きさ等の色情報を特徴量とする。
他の実施形態としては、後述するエッジ検出およびテクスチャ特徴量抽出を、特定の色情報、例えば肌色が支配的な領域だけに適用する、換言すれば正例に含まれる特定色の近傍および囲まれた領域だけに限定することで背景領域の影響を抑制し、判定精度を向上させることも可能である。具体的には、RGBでR(赤色)が最大値を取る画素だけを対象にすることができる。HSV色空間を用いる場合は、予め定められた範囲内にHが収まる画素だけを対象にすることができる。
前記ピラミッド画像生成部31で生成されたピラミッド画像および色特徴量算出部32で検出された色特徴量は形状特徴量算出部33に送られる。形状特徴量算出部33のエッジ特徴量算出部33aは、ピラミッド画像を一定サイズのブロックに分割し、ブロックごとにエッジ領域か非エッジ領域かを判断する。
エッジ領域からはエッジ方向を算出し、各エッジ方向および非エッジ領域の存在確率(例えば、ヒストグラム)をエッジ特徴量として計算する。エッジ検出には一般的に用いられている方向選択型エッジ検出器を用いることができる。
入力画像をF、エッジ画像をG、積和演算を*とすると、縦方向のエッジ検出は下記の式(1)で算出できる。Hは式(2)で与えられる。
Figure 2010186343
上記と同様に、横方向、斜め方向(右下がり、左下がり)のエッジ検出をすることができる。横方向、右下がりおよび左下がりのエッジ画像Gを求める場合のHは、それぞれ次の式(3)、(4)および(5)を用いることができる。
Figure 2010186343
これらの方向のエッジが求められると、方向毎のエッジ強度の合計を算出し、予め設定した閾値と比較してエッジの有無を判断する。エッジが存在すると判断された場合は、方向毎のエッジ強度の中で最大値を得た方向を該ブロックのエッジ方向とする。そして、該エッジ方向のヒストグラムをエッジ特徴量とする。
テクスチャ特徴量算出部33bでは、ピラミッド画像を一定サイズのブロックに分割し、ブロックごとにテクスチャ形状の種類を判断する。各テクスチャ形状の存在確率(例えば、ヒストグラム)をテクスチャ特徴量として計算する。テクスチャ形状は、ブロックを平面で近似できるかどうか判断し、近似できる場合は該近似平面の法線ベクトルを用いる。近似できない場合は複雑な形状としてカウントする。テクスチャ特徴量算出部33bは、各ブロックを平面で近似したときの前記法線ベクトルの向きを算出し、法線方向のヒストグラムをテクスチャ特徴量とする。なお、人の肌は曲面を有しているため、該法線ベクトが同じ方向を向かないのに対して、段ボールなどの表面は平面であるため、法線ベクトルは同じ方向を向く。このため、人の肌と段ボールなどの紙の表面とは精度良く区別することができる。
特徴量判定部34は、候補画像から識別に相応しくない画像を排除し、識別に利用する画像のみを選択し識別部4に送る。まず、識別に相応しくない画像として、被写体が正しく写っていない画像を排除する。例えば、パンやチルトなどカメラワークが存在して動きぼけが存在する画像や焦点がずれている画像を排除するため、前述したエッジ特徴量あるいはテクスチャ特徴量が偏った画像を候補から除外する。動きぼけの判断は、エッジ特徴量のヒストグラムの分散が予め設定した範囲内かどうかを利用する。焦点のズレの判断は、エッジ特徴量の非エッジ領域の存在確率あるいはテクスチャ特徴量のヒストグラムの分散が予め設定した範囲内かどうかを利用する。
次に、ホワイトバランスや輝度レベルが崩れている画像を排除するため、前記色特徴量が偏った画像は候補から除外する。ホワイトバランスの偏りの判断は画像内におけるRGBの各最大値の差分がそれぞれ予め設定した範囲内かどうかを利用する。輝度レベルの偏りの判断は色特徴量のヒストグラムの最大値および最小値がそれぞれ予め設定した範囲内かどうかを利用する。
前記動きぼけ、焦点ズレ、ホワイトバランスや輝度レベルが崩れている、あるいは近似平面の法線ベクトルが同じ方向を向いている等のうちの少なくとも一つでも当てはまる場合は識別に相応しくない画像として候補画像から排除する。残った候補画像の中で、画像選択部2で設定された優先順位の高い方から予め設定した枚数あるいはショット長に比例した枚数を識別に用いる画像として、その特徴量を識別部4へ出力する。
(4)学習部(辞書)5
学習部5は、識別対象であることが判明している画像(正例教師コンテンツ)と、非識別対象であることが判明している画像(負例教師コンテンツ)とをそれぞれ複数入力する。例えば、公序良俗に反するコンテンツとして裸画像を対象とする場合は、裸画像が正例教師コンテンツであり、裸以外の画像はすべて負例教師コンテンツである。学習にはSVM(サポートベクトルマシーン)あるいは判別分析などの識別器を用いることができる。
SVMを用いる場合は、予め用意しておいた学習用データセットから前記特徴量抽出部3によって抽出された正例の特徴量と負例の特徴量とを分離するマージンを最大化するような平面を構築しておく。SVMに関しては、例えばV.N.Vapnik,「Statistical Learning Theory」, John Wiley & Sons (1998)などに詳しく説明されているように周知の技術である。
図4はSVMの概念を示す説明図であり、同図に示すように、異なる特徴量をそれぞれ縦軸、横軸に取り、各画像から抽出した特徴量をプロットする。例えば、裸画像の領域の大きさおよび色分布をそれぞれ軸に取ると、裸画像の特徴量は「○」にプロットされ、非裸画像の特徴量は「×」にプロットされる。図4に示すように、SVMは分離の閾値となる平面を構成する。超平面p1,p2は正例教師コンテンツと負例教師コンテンツの特徴量を分離させたとき、各特徴量の中で最近傍要素との距離(マージン)を最大化するように設定される。識別平面pは、本実施形態では辞書を表す。なお、図4は特徴量が2種類であるが、3種類以上の場合は特徴量の数に対応した次元でのプロットとなる。本実施形態の場合、該特徴量として、前記肌領域の大きさおよび色分布以外に、前記エッジ特徴量、テクスチャ形状特徴量、近似平面の法線ベクトルなどを適応的に用いることができる。
さらに、図5の左図のように平面で分離できない場合でも、同図の右図のように写像関数φを用いて、特徴量を特徴量の数より高い次元に写像した上で、分離できる平面を構成する。学習処理は学習モデルとして高次元への写像関数φおよび分離平面を出力する。これらのことは既知であり、本実施形態では、該既知の技術を用いることができる。
(5)識別部4
識別部4には、前記したように、前記特徴量判定部34で排除されなかった候補画像の中で、画像選択部2で設定された優先順位の高い方から予め設定した枚数あるいはショット長に比例した枚数の画像の特徴量が入力してくる。識別部4は、前記特徴量算出部3によって領域毎に抽出された特徴量を用いて、前記学習部5で作成された学習モデルを元に、未知コンテンツが正例か負例かを識別する。
識別部4に入力された画像のうち、例えば1枚でも正例と識別されれば未知コンテンツが正例であるとしてもよいし、予め定めた割合の枚数の画像が正例と識別されれば未知コンテンツが正例であるとしてもよい。逆に、全部の画像が負例と識別された場合のみ未知コンテンツが負例であるとしてもよいし、予め定めた割合の枚数の画像が負例と識別されれば、未知コンテンツが負例であるとしてもよい。
識別にSVMを用いる場合は、前記画像の特徴量を学習モデルと同じ空間に写像し、前記平面に対してどこに位置するかによって画像が正例か負例かを識別する。すなわち、該画像の特徴量が、正例教師コンテンツの特徴量が多く属する領域にあれば未知コンテンツは正例であると判断し、負例教師コンテンツの特徴量が多く属する領域にあれば未知コンテンツは負例であると判断する。
上記ではコンテンツ識別装置について説明した、コンテンツ識別方法も同様に実施できることは当業者には明らかである。
以上のように、本発明を好ましい実施形態を用いて説明したが、本願発明は前記した実施形態に限定されず、本発明の精神から逸脱しない範囲で、種々の変更が可能である。例えば、前記識別部4にSVMを用いずに、画像の前記各特徴量を予め定めた閾値と比べて、正例か負例かを識別するようにしてもよい。
本発明の一実施形態の概略の構成を示すブロック図である。 本発明の他の実施形態の概略の構成を示すブロック図である。 図1、図2の特徴量算出部の一具体例を示すブロック図である。 正例および負例の特徴量と、該正例および負例を分離する平面を示す図である。 高次元への写像と、該写像により生成される分離平面を示す図である。
1・・・ショット検出部、2・・・画像選択部、3・・・特徴量算出部、4・・・識別部、5・・・学習部(辞書)、6・・・負例、7・・・正例、10・・・映像コンテンツ、31・・・ピラミッド画像生成部、32・・・色特徴量算出部、33・・・形状特徴量算出部、33a・・・エッジ特徴量算出部、33b・・・テクスチャ特徴量算出部、34・・・特徴量判定部。

Claims (13)

  1. 未知コンテンツが識別対象のコンテンツ(以下、正例コンテンツと記す)であるか識別対象外のコンテンツ(以下、負例コンテンツと記す)であるかを識別するコンテンツ識別装置において、
    映像ショットの切り替わりで映像を構造化するショット検出手段と、
    前記ショット検出手段によって検出されたショット情報を用いて識別対象となる画像候補を選択する画像選択手段と、
    前記画像選択手段で選択された画像候補から特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段で算出された特徴量を用いて正例と負例に識別する識別手段とを備えたことを特徴とするコンテンツ識別装置。
  2. 前記画像選択手段は、フィードバックされた、前記識別手段で識別された結果を利用して選択する画像候補数を決定することを特徴とする請求項1に記載のコンテンツ識別装置。
  3. 前記画像選択手段は、前記ショット検出手段で抽出されたショット長あるいはショットの時間的位置に応じて、識別対象となる候補画像を前記ショットから選択するか否かを判断することを特徴とする請求項1に記載のコンテンツ識別装置。
  4. 前記画像選択手段は、画像の符号量あるいは画像の符号化方式に応じて、識別対象となる候補画像を前記ショットから選択するか否かを判断することを特徴とする請求項1に記載のコンテンツ識別装置。
  5. 前記画像選択手段は、前記ショットから選択する候補画像枚数を、前記ショット検出手段で抽出されたショット長に比例させて選択することを特徴とする請求項1に記載のコンテンツ識別装置。
  6. 前記画像選択手段は、前記識別手段の判断結果に応じて当該ショットから選択する候補画像枚数を変化させることを特徴とする請求項1に記載のコンテンツ識別装置。
  7. 前記特徴量算出手段は、
    予め設定した枚数だけ異なる解像度の画像を生成するピラミッド画像生成手段と、
    色ヒストグラムを色特徴量として算出する色特徴量算出手段と、
    エッジとテクスチャのそれぞれのヒストグラムを形状情報として算出する形状特徴量算出手段と、
    前記色特徴量算出手段および形状特徴量算出手段が算出した特徴量の妥当性を判定する特徴量判定手段とを備えたことを特徴とする請求項1に記載のコンテンツ識別装置。
  8. 前記色特徴量算出手段は、前記形状特徴量算出手段における処理領域を正例に含まれる特定色の近傍および囲まれた領域だけに限定することを特徴とする請求項7に記載のコンテンツ識別装置。
  9. 前記画像特徴量算出手段は、前記ピラミッド画像生成手段が生成した画像群に対して、各ブロックに複数のエッジ方向算出処理を行い、各ブロック内でエッジ強度が最大となる方向をエッジ方向として算出し、エッジ方向のヒストグラムをエッジ特徴量とすることを特徴とする請求項7に記載のコンテンツ識別装置。
  10. 前記テクスチャ特徴量算出手段は、前記ピラミッド画像生成手段が生成した画像群に対して、各ブロックを平面で近似したときの法線ベクトルの向きを算出し、法線方向のヒストグラムをテクスチャ特徴量とすることを特徴とする請求項7に記載のコンテンツ識別装置。
  11. 前記特徴量判定手段は、前記特徴量算出手段で算出した色特徴量、エッジ特徴量、およびテクスチャ特徴量の分布をそれぞれに予め設定された閾値と比較して識別に用いる画像か否かを判断することを特徴とする請求項7に記載のコンテンツ識別装置。
  12. 前記識別手段は、手動で分類した複数の正例コンテンツと負例コンテンツから抽出した特徴量を使って予め学習した結果と当該コンテンツの特徴量とを比較し、正例または負例と判断する手段を備えたことを特徴とする請求項1に記載のコンテンツ識別装置。
  13. 未知コンテンツが識別対象のコンテンツであるか識別対象外のコンテンツであるかを識別するコンテンツ識別方法において、
    映像ショットの切り替わりで映像を分割するステップと、
    前記分割されたショットから識別対象となる画像候補を選択するステップと、
    前記選択された画像候補から画像の特徴量を算出するステップと、
    前記算出された特徴量を用いて正例と負例に識別するステップとからなるコンテンツ識別方法。
JP2009030364A 2009-02-12 2009-02-12 コンテンツ識別方法及び装置 Active JP5283267B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009030364A JP5283267B2 (ja) 2009-02-12 2009-02-12 コンテンツ識別方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009030364A JP5283267B2 (ja) 2009-02-12 2009-02-12 コンテンツ識別方法及び装置

Publications (2)

Publication Number Publication Date
JP2010186343A true JP2010186343A (ja) 2010-08-26
JP5283267B2 JP5283267B2 (ja) 2013-09-04

Family

ID=42766960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009030364A Active JP5283267B2 (ja) 2009-02-12 2009-02-12 コンテンツ識別方法及び装置

Country Status (1)

Country Link
JP (1) JP5283267B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101468863B1 (ko) * 2010-11-30 2014-12-04 한국전자통신연구원 전역적 유해 동영상 검출 시스템 및 그 방법
KR101468865B1 (ko) * 2010-12-22 2014-12-04 한국전자통신연구원 멀티미디어 콘텐츠 재생 특성을 이용한 멀티미디어 콘텐츠 유해성 판단 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261757A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体
JP2002175527A (ja) * 2000-12-06 2002-06-21 Gala Inc コンピュータ画像処理により猥褻ヌード画像を弁別する方法
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
JP2006209379A (ja) * 2005-01-27 2006-08-10 Matsushita Electric Ind Co Ltd 情報フィルタリング装置
JP2006277232A (ja) * 2005-03-29 2006-10-12 Kddi Corp 動画像データの分類装置
JP2008516332A (ja) * 2004-11-05 2008-05-15 ジラン ソフト ポルノ写真遮断方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261757A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体
JP2002175527A (ja) * 2000-12-06 2002-06-21 Gala Inc コンピュータ画像処理により猥褻ヌード画像を弁別する方法
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
JP2008516332A (ja) * 2004-11-05 2008-05-15 ジラン ソフト ポルノ写真遮断方法
JP2006209379A (ja) * 2005-01-27 2006-08-10 Matsushita Electric Ind Co Ltd 情報フィルタリング装置
JP2006277232A (ja) * 2005-03-29 2006-10-12 Kddi Corp 動画像データの分類装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200701042001; 伊藤文啓、外2名: '肌領域の動的拡張処理を用いた有害画像検出' 電子情報通信学会技術研究報告(HIP2006-99〜113) 第106巻,第540号, 20070215, p.5-10, 社団法人電子情報通信学会 *
CSNG200801086009; 長谷山美紀、外1名: '情報大航海プロジェクトにおける共通技術 〜画像・映像処理技術の紹介〜' 映像情報メディア学会誌 第63巻,第1号, 20090101, p.42-47, (社)映像情報メディア学会 *
JPN6013007041; 長谷山美紀、外1名: '情報大航海プロジェクトにおける共通技術 〜画像・映像処理技術の紹介〜' 映像情報メディア学会誌 第63巻,第1号, 20090101, p.42-47, (社)映像情報メディア学会 *
JPN6013007042; 伊藤文啓、外2名: '肌領域の動的拡張処理を用いた有害画像検出' 電子情報通信学会技術研究報告(HIP2006-99〜113) 第106巻,第540号, 20070215, p.5-10, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101468863B1 (ko) * 2010-11-30 2014-12-04 한국전자통신연구원 전역적 유해 동영상 검출 시스템 및 그 방법
KR101468865B1 (ko) * 2010-12-22 2014-12-04 한국전자통신연구원 멀티미디어 콘텐츠 재생 특성을 이용한 멀티미디어 콘텐츠 유해성 판단 방법

Also Published As

Publication number Publication date
JP5283267B2 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
US8358837B2 (en) Apparatus and methods for detecting adult videos
JP5588987B2 (ja) 画像及び映像ocrのためのテキストの位置決め
US8867828B2 (en) Text region detection system and method
JP4657934B2 (ja) 顔検出方法および装置並びにプログラム
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
US20110085728A1 (en) Detecting near duplicate images
CN102007499A (zh) 检测数字图像中的脸部表情
JP2010092199A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP6075190B2 (ja) 画像処理方法及び装置
JP2010205277A (ja) 画像内容を比較する方法及びコンピュータシステム
JP2010026603A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5290227B2 (ja) 対象物検知装置及びその学習装置
TW200529093A (en) Face image detection method, face image detection system, and face image detection program
WO2014074959A1 (en) Real-time face detection using pixel pairs
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
US9117132B2 (en) System and method facilitating designing of classifier while recognizing characters in a video
JP5004181B2 (ja) 領域識別装置およびコンテンツ識別装置
JP5027201B2 (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
JP5283267B2 (ja) コンテンツ識別方法及び装置
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
JP2006293720A (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
JP2016071800A (ja) 情報処理装置、情報処理方法及びプログラム
CN115131590B (zh) 目标检测模型的训练方法、目标检测方法及相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R150 Certificate of patent or registration of utility model

Ref document number: 5283267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150