JP2006244424A - 映像シーン分類方法及び装置及びプログラム - Google Patents

映像シーン分類方法及び装置及びプログラム Download PDF

Info

Publication number
JP2006244424A
JP2006244424A JP2005063102A JP2005063102A JP2006244424A JP 2006244424 A JP2006244424 A JP 2006244424A JP 2005063102 A JP2005063102 A JP 2005063102A JP 2005063102 A JP2005063102 A JP 2005063102A JP 2006244424 A JP2006244424 A JP 2006244424A
Authority
JP
Japan
Prior art keywords
scene
video
classification
depth distribution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005063102A
Other languages
English (en)
Inventor
Satoshi Shimada
聡 嶌田
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005063102A priority Critical patent/JP2006244424A/ja
Publication of JP2006244424A publication Critical patent/JP2006244424A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 被写体などの映像内容に関する事前知識がない場合でも映像シーンを分類できるようにする。
【解決手段】 本発明は、映像をカメラワークが発生した単位で分割し、シーン区間に対応する代表画像を映像を取得して、該シーン区間の代表画像について、被写体各部のカメラとの距離に対応する画像奥行分布を抽出し、画像奥行分布を予め設定された判断閾値を用いて判定することにより映像シーンを分類し、シーンラベル(ロングショット・ミディアムショット・ターゲットショット)を付与して出力する。
【選択図】 図1

Description

本発明は、映像シーン分類方法及び装置及びプログラムに係り、特に、大量の映像コンテンツを効率よく扱えるようにすることを目的に、映像に含まれる特徴量を抽出し、特徴量に応じて映像を分類する映像シーン分類方法及び装置及びプログラムに関する。
映像に含まれる特徴量を抽出し、特徴量に応じて映像を分類する第1の従来技術として、映画を対象に、1カットの時間長の頻度分布及び、画像の濃度や音響の時間変化を特徴量として、映像をコメディ、ホラー、アクションムービー等のジャンルに分類する方法がある(例えば、非特許文献1参照)。
また、第2の従来技術として、スポーツ映像を対象にカメラワークの種別毎の頻度を特徴量として映像を競技種目別に分類する方法がある(例えば、非特許文献2参照)。
また、第3の従来技術として、映像から代表画像を選択し、代表画像のテキスチャー特徴、Gabor係数、オプティカルフローなどの特徴量を統合し、事前に用意した学習データとの類似度に基づいて、海、山、ビル、人を撮影したシーンに映像を分類する方法がある(例えば、非特許文献3参照)。
さらに、第4の従来技術として、画像から抽出した色ヒストグラムやエッジ特徴を抽出し、事前に用意した学習データとの類似度に基づいて、街の画像と風景の画像に分類する方法がある(例えば、非特許文献4参照)。
Zeeshan Rasheed, Mubarak Shah, "Movie genre classification by exploiting audio-visual features of previewers", 16th International Conference on Pattern Recognition (ICPR 2002), pp. 1086-1089,2002 服部、高木、小館、富永、"映像特徴に基づく自動映像分類システムの提案"、情報処理学会オーディオビジュアル複合情報処理研究会資料、Vol. 36-4, 2002 Jingchum Liu, Bir Bhanu, "Learning semantic visual concepts from video", 16th International Conference on Pattern Recognition (ICPR 2002), pp. 1061-1064, 2002 Aditya Vailaya, Anil Jain, Hong Zhang, "On image classification City image VS. Landscapes", Pattern Recognition, Vol. 31, No. 12, pp.1921-1935, 1998
上記第1の従来技術では、スポーツ映像、第2の従来技術では映画映像を分類対象としており、分類対象の映像内容が特定できることが前提となっている。このような場合は対象とする映像の特徴を分析し、それに応じて分類に有効な特徴量と分類するためのルールを作成することができる。
また、第3の従来技術や第4の従来技術では、分類カテゴリに属する画像が入手できることを前提に、事前に用意した学習データに対して適切に分類できる特徴量を抽出しているので、学習データを収集したときと同様の映像が入力されることを前提としている。
このように、従来技術では、分類対象の映像内容が既知であることが前提となっている。
しかし、個人が撮影したホームビデオのような映像を分類対象とする場合には、被写体が特定できないため、事前に有効な特徴量や分類ルールを求めたり、学習データを収集することが困難であるという問題がある。
本発明は、上記の点に鑑みなされたもので、被写体などの映像内容に関する事前知識がない場合でも映像シーンを分類できる映像シーン分類方法及び装置及びプログラムを提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、入力された映像を分類する映像シーン分類方法において、
映像をカメラワークが発生した単位で分割するシーン区間検出ステップ(ステップ1)と、
シーン区間に対応する代表画像を映像を格納した記憶手段から取得して、該シーン区間の代表画像について、被写体各部のカメラとの距離に対応する画像奥行分布を抽出する奥行分布検出ステップ(ステップ2)と、
奥行分布検出ステップで検出された画像奥行分布を判定することにより映像シーンを分類し、シーンラベルを付与して記憶手段に格納するシーン分類ステップ(ステップ3)と、を行う。
また、本発明(請求項2)は、シーン分類ステップ(ステップ3)において、
画像奥行分布のパターンに応じた分類カテゴリを予め記憶手段に設定しておき、分類対象の映像シーンの奥行分布がどのカテゴリに類似しているかを判定することで分類する。
また、本発明(請求項3)は、シーン分類ステップ(ステップ3)において、
予め設定しておく分類カテゴリとして、「奥行分布のばらつきが小さい映像シーン」をカテゴリとして設定しておく。
また、本発明(請求項4)は、シーン分類ステップ(ステップ3)において、
予め設定しておく分類カテゴリとして、分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が所定の閾値以上である」をカテゴリとして設定しておく。
図2は、本発明の原理構成図である。
本発明(請求項5)は、入力された映像を分類する映像シーン分類装置であって、
映像をカメラワークが発生した単位で分割するシーン区間検出手段2と、
シーン区間に対応する代表画像を、映像を格納した記憶手段5から取得して、該シーン区間の代表画像について、被写体各部のカメラとの距離に対応する画像奥行分布を抽出する奥行分布検出手段3と、
奥行分布検出手段3で検出された画像奥行分布を判定することにより映像シーンを分類し、シーンラベルを付与して記憶手段に格納するシーン分類手段4と、を有する。
また、本発明(請求項6)は、シーン分類手段4において、
画像奥行分布のパターンに応じた分類カテゴリが予め設定されたメモリと、
メモリの分類カテゴリを参照して、分類対象の映像シーンの奥行分布がどのカテゴリに類似しているかを判定することで分類する手段を含む。
また、本発明(請求項7)は、メモリにおいて、予め設定しておく分類カテゴリとして、「奥行分布のばらつきが小さい映像シーン」が設定される。
また、本発明(請求項8)は、メモリにおいて、予め設定しておく分類カテゴリとして、「分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が所定の閾値以上である」が設定される。
本発明(請求項9)は、入力された映像を分類する映像シーン分類プログラムであって、
入力された映像、各手段における動作の出力データを格納する記憶手段と、
予め設定された分類カテゴリを記憶するメモリと、を有するコンピュータに、
請求項1乃至4記載の映像シーン分類方法を実現するための処理を実行させるプログラムである。
上記のように、本発明では、分類のための特徴量として画像の色や濃度情報を直接反映した特徴量ではなく、画像の奥行分布に着目する。奥行分布を特徴量とすることで、被写体によらずに、映像シーンを遠景画像、街や屋内などの遠近のある画像、特定の対象物を撮影した画像などに分類することができる。このような分類を行うことで、例えば、旅行で撮影した大量の映像を、風景などを撮影した遠景シーン、遠近のある街や屋内などのシーン、人物や建物を中心に撮影したシーンなどに分類して表示でき、所望のシーンを容易に検索することができるようになる。
本発明における奥行分布による分類を行うことにより、被写体などの映像内容に関する事前知識がない場合でも、被写体によらずに映像シーンを遠景画像、街や屋内などの遠近のある画像、特定の対象物を撮影した画像などに分類できるようになり、大量の映像から所望のシーンを容易に検索することができ、その実用的な効果は多大である。例えば、分類対象の映像コンテンツの各シーン毎に種類情報(風景、人物のアップ等)を事前にシステムに入力しなくても分類が可能となる。
以下、図面と共に本発明の実施の形態を説明する。
図3は、本発明の一実施の形態における装置構成図である。
同図に示す装置は、映像読込み部1、シーン区間検出部2、奥行分布検出部3、奥行分布判定部4、データ管理部5、映像情報提示部6から構成される。
映像読込み部1は、入力された映像を読み取り、シーン区間検出部2とデータ管理部5に出力する。
シーン区間検出部2は、映像読込み部1から受け取った映像からシーン区間を検出し、シーン区間情報として区間の最初と最後を示す情報(例えば、映像のフレーム番号)を奥行分布検出部3とデータ管理部5に出力する。また、映像を奥行分布検出部3に出力する。
奥行分布検出部3は、シーンの代表画像として、例えば、シーン区間の中央の時刻における画像を選択し、代表画像における奥行分布を求め、奥行分布判定部4に出力する。
奥行分布判定部4は、奥行分布検出部3で求めた奥行分布からシーンの分類を行う。分類結果をシーンラベルとして、データ管理部5に出力する。なお、当該奥行分布判定部4は、分類カテゴリをメモリ(図示せず)に格納しておき、当該分類カテゴリを参照して、シーンラベルを付与するものとする。
データ管理部5は、映像読込み部1から取得した映像、シーン区間検出部2から取得したシーン区間情報、奥行分布判定部4から取得したシーンラベル、映像情報提示部6から取得した付加情報を格納し、映像情報提示部6からの要求に応じて必要な情報を出力する。
映像情報提示部6は、データ管理部5に格納されている映像をモニタなどに表示する。利用者の要求に応じて、シーンラベル毎に分類して映像を提示する等の処理を行う。また、映像に関するタイトルやコメントなどの付加情報を受け付け、それをデータ管理部5に転送する。
映像情報提示部6での表示の例を図4に示す。同図では、奥行分布判定部4で付与するシーンラベルとして、カテゴリに分類されたものをロングショット、ターゲットショット、ミディアムショット、カメラワークのない映像シーンにはカメラ静止ショットというシーンラベルを付与し、4種類のシーンラベル毎に、分類された映像シーンの代表画像を一覧表示したものである。なお、付加情報としてタイトルや日付は利用者により付与されているものとする。ここで、ロングショットとは、予め設定しておくカテゴリに、奥行分布のばらつきが小さい映像シーンを指す。また、ターゲットショットとは、予め設定しておくカテゴリに、分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が閾値以上であるものを指す。ミディアムショットとは、ログショット、ターゲットショットのいずれでもないショットを指す。
次に、上記の構成における処理手順と各処理の具体的な方法を説明する。
図5は、本発明の一実施の形態における全体の処理のフローチャートである。
ステップ201) 映像読込み部1において、映像を読み込む。
ステップ202) シーン区間検出部2において、映像読込み部1から入力された映像について、パンやズームなどのカメラ操作を行った区間を検出し、カメラワークの開始点と終了点を区切りとしてシーン区間を定義する。
ここで、図6に示す映像を例としてシーン定義の方法を説明する。
図6に示す映像では、カメラワーク区間として、C1sからC1eまで、C2sからC2eまで、C3sからC3eまで、の3つの区間が検出される。区切りの時刻C1s,C1e,C2s,C2e,C3eの中で同じ時刻を削除したものをシーン区間の区切りとして、時間的に連続するようにシーンの開始点と終了点を決めると、シーン1〜シーン4までが定義できる。シーン区間がN個の場合に、n番目のシーンをSn,n=1,2、…Nとする。これらのシーン区間をデータ管理部5に登録する。
ステップ203) n=1に設定する。
ステップ204) 奥行分布検出部5は、各シーン区間に基づいて、データ管理部5から当該シーン区間に対応する代表画像を選定し、代表画像における奥行分布を算出する。代表画像は例えば、シーン区間の中央の時刻における画像を選定すればよい。
代表画像における奥行分布の算出方法として、カメラを並進移動させた場合には、各フレーム画像から、EPI(Epipolar Plane Image)を作成し、EPI上に確認される明度勾配の軌跡を抽出して、軌跡の傾きから奥行情報を算出する方法がよく知られている。カメラ移動として並進のみの等速運動であることが前提となっているが、ハンディカメラで普通に撮影された映像に適用できるように補正する方法が開発されており(参考文献:中川、斉藤、小沢、“ハンディカメラを用いて撮影された画像列からのEPIの補正に基づく室内環境3次元再構築”、電子情報通信学会論文誌、Vol. J84-D-II, No.2, pp.266-275, 2001)、この方法で代表画像のエッジ上の各点の奥行分布が算出できる。
ここで、カメラの焦点距離が未知の場合は、代表画像における被写体上の点とカメラまでの絶対的な距離を算出することはできないが、エッジ上の各点の相対的な奥行分布は算出できる。
また、別の方法として、カメラを移動させてm枚の画像を取り込んだときに、被写体上のn個の各画像に射影される位置と、実際に得られる画像での位置とのユークリッド距離の自乗和を評価関数Cとし、この評価関数Cが最小となるときのカメラ回転運動量や並進移動量、及び、カメラを中心とした座標系における被写体上の点の位置を,適当な初期値を設定し、最急降下法やニュートン法の反復法で求める方法がある(参考文献:辻三郎、徐剛、“3次元ビジョン”、共立出版、pp.128-130,2001)。
Figure 2006244424
ここで、fはj(j=1,2,…,m)番目の画像の焦点距離、(u ,v )はj番目の画像におけるi(i=1,2,…,n)番目の点の座標、(X ,Y ,Z )はj番目の画像のカメラ座標系におけるi番目の点の3次元位置である。
この方法を用いることでも前者の方法と同様の奥行分布が得られる。
なお、本実施の形態では、カメラワークがないシーン区間に対しては奥行分布を算出しないものとする。
ステップ205) 奥行分布判定部4は、奥行分布検出部3から奥行情報を取得すると、代表画像の奥行分布に対して分類処理を行い、予めメモリ(図示せず)に設定された分類カテゴリを参照して、分類結果に応じたシーンラベルを付与する。
奥行分布が算出されていない場合については、本実施の形態では、図4のように、「静止カメラショット」のラベルを付与する。奥行分布を分類するための判定方法については後述する。
ステップ206) 全てのシーン区間に対してステップ204とステップ205の処理を行ったかを判定し、行っている場合には処理を終了し、行っていない場合にはステップ207に移行する。
ステップ207) シーン番号を更新し、次のシーン区間についてステップ204を実行する。
最後に、上記のステップ205での奥行分布を分類するための判定方法について説明する。
図7は、本発明の一実施の形態における奥行分布による画像分類の処理手順のフローチャートである。
なお、ステップ302は、予めメモリ(図示せず)に設定しておくカテゴリとして、「奥行分布のばらつきが小さい映像シーン」というカテゴリを設定するものであり、請求項3,7に対応する。ステップ305は、予めメモリ(図示せず)に設定しておくカテゴリとして、「分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が閾値以上である」というカテゴリを設定するものであり、請求項4,8に対応する。
ステップ301) 奥行分布判定部4は、シーンの代表画像に対して求められた奥行分布を奥行き読み込む分布検出部3から取得する。代表画像上のM個の特徴点について求めた奥行をdm,m=1,2,…,Mとする。
ステップ302) 奥行分布のばらつきが小さいかを判定する。M個の奥行dmの変動係数を求め、変動係数が、予めメモリに設定されている閾値より小さいときは、ばらつきが小さいとしてステップ303の処理を実行する。閾値以上のときにはステップ304の処理を実行する。
ステップ303) シーン区間に対して「ロングショット」のシーンラベルを付与する。本処理を実行するときは、ステップ302において、奥行分布が均一な映像シーンと判定された場合であり、図8に示す代表画像Aのような遠景シーンが該当すると考えられる。
ステップ304) M個の奥行dm,m=1,2,…,Mに対して、距離が近いもの(設定しておいた閾値以下のもの)をグルーピングするクラスタリング処理を行う。
ステップ305) ステップ304で得られた各クラスタの中でクラスタ中心の奥行最小のクラスタを検出し、このクラスタに属するデータ数と奥行を算出した数Mとの比を求め、これがメモリに予め設定されている閾値以上の場合は、ステップ306の処理を行い、ない場合は、ステップ307の処理を実行する。
ステップ306) 「ターゲットショット」のシーンラベルを付与する。本処理を実行するときは、ステップ305において、カメラに最も近いところに大きな被写体がある映像シーンと判定された場合であり、図8に示す代表画像Bのようなシーンが該当すると考えられる。
ステップ307) 「ミディアムショット」のシーンラベルを付与する。本処理を実行するときには、奥行分布が大きいものから小さいものまで含む映像シーンの場合であり、図8に示す代表画像Cのようなシーンが該当すると考えられる。
以上述べた処理により、被写体などの映像内容に関する事前知識がない場合でも、大量の映像を効率的に扱うための映像シーン分類を行うことができる。
なお、上記の図5、図7に示す動作をプログラムとして構築し、コンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。
また、構築されたプログラムをコンピュータに接続されるハードディスク装置や、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、コンピュータにインストールする、または、配布することが可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、映像シーンの分類技術に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の一実施の形態における装置構成図である。 本発明の一実施の形態における映像情報提示部での表示例である。 本発明の一実施の形態における全体の処理のフローチャートである。 本発明の一実施の形態における映像情報提示部での表示例である。 本発明の一実施の形態における奥行分布による画像分類の処理手順のフローチャートである。 本発明の一実施の形態における代表画像の奥行分布の例である。
符号の説明
1 映像読込み部
2 シーン区間検出手段、シーン区間検出部
3 奥行分布検出手段、奥行分布検出部
4 シーン分類手段、奥行分布判定部
5 記憶手段、データ管理部
6 映像情報提示部

Claims (9)

  1. 入力された映像を分類する映像シーン分類方法において、
    前記映像をカメラワークが発生した単位で分割するシーン区間検出ステップと、
    前記シーン区間に対応する代表画像を映像を格納した記憶手段から取得して、該シーン区間の代表画像について、被写体各部のカメラとの距離に対応する画像奥行分布を抽出する奥行分布検出ステップと、
    前記奥行分布検出ステップで検出された前記画像奥行分布を判定することにより映像シーンを分類し、シーンラベルを付与して記憶手段に格納するシーン分類ステップと、
    を行うことを特徴とする映像シーン分類方法。
  2. 前記シーン分類ステップにおいて、
    前記画像奥行分布のパターンに応じた分類カテゴリを予め記憶手段に設定しておき、分類対象の映像シーンの奥行分布がどのカテゴリに類似しているかを判定することで分類する、
    請求項1記載の映像シーン分類方法。
  3. 前記シーン分類ステップにおいて、
    予め設定しておく前記分類カテゴリとして、「奥行分布のばらつきが小さい映像シーン」をカテゴリとして設定しておく、
    請求項2記載の映像シーン分類方法。
  4. 前記シーン分類ステップにおいて、
    予め設定しておく前記分類カテゴリとして、分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が所定の閾値以上である」をカテゴリとして設定しておく
    請求項2記載の映像シーン分類方法。
  5. 入力された映像を分類する映像シーン分類装置であって、
    前記映像をカメラワークが発生した単位で分割するシーン区間検出手段と、
    前記シーン区間に対応する代表画像を、映像を格納した記憶手段から取得して、該シーン区間の代表画像について、被写体各部のカメラとの距離に対応する画像奥行分布を抽出する奥行分布検出手段と、
    前記奥行分布検出手段で検出された前記画像奥行分布を判定することにより映像シーンを分類し、シーンラベルを付与して記憶手段に格納するシーン分類手段と、
    を有することを特徴とする映像シーン分類装置。
  6. 前記シーン分類手段は、
    前記画像奥行分布のパターンに応じた分類カテゴリが予め設定されたメモリと、
    前記メモリの前記分類カテゴリを参照して、分類対象の映像シーンの奥行分布がどのカテゴリに類似しているかを判定することで分類する手段を含む、
    請求項5記載の映像シーン分類装置。
  7. 前記メモリは、
    予め設定しておく前記分類カテゴリとして、「奥行分布のばらつきが小さい映像シーン」が設定される
    請求項6記載の映像シーン分類装置。
  8. 前記メモリは、
    予め設定しておく前記分類カテゴリとして、「分類対象の映像シーンの奥行分布に対するクラスタリング処理を行った結果、奥行が最も小さいクラスタのデータ数が所定の閾値以上である」が設定される
    請求項6記載の映像シーン分類装置。
  9. 入力された映像を分類する映像シーン分類プログラムであって、
    入力された映像、各手段における動作の出力データを格納する記憶手段と、
    予め設定された分類カテゴリを記憶するメモリと、を有するコンピュータに、
    前記請求項1乃至4記載の映像シーン分類方法を実現するための処理を実行させることを特徴とする映像シーン分類プログラム。
JP2005063102A 2005-03-07 2005-03-07 映像シーン分類方法及び装置及びプログラム Pending JP2006244424A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005063102A JP2006244424A (ja) 2005-03-07 2005-03-07 映像シーン分類方法及び装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005063102A JP2006244424A (ja) 2005-03-07 2005-03-07 映像シーン分類方法及び装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2006244424A true JP2006244424A (ja) 2006-09-14

Family

ID=37050753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005063102A Pending JP2006244424A (ja) 2005-03-07 2005-03-07 映像シーン分類方法及び装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2006244424A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512246A (ja) * 2005-09-29 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像のショットタイプを決定する方法及び装置
WO2013069624A1 (ja) * 2011-11-07 2013-05-16 シャープ株式会社 立体画像処理装置および立体画像処理方法
US9131148B2 (en) 2011-09-20 2015-09-08 Sony Corporation Image processing device, method of controlling image processing device and program causing computer to execute the method
CN110348367A (zh) * 2019-07-08 2019-10-18 北京字节跳动网络技术有限公司 视频分类方法、视频处理方法、装置、移动终端及介质
CN116109893A (zh) * 2023-04-11 2023-05-12 宁波长壁流体动力科技有限公司 一种矿井场景图像分类方法、系统及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236115A (ja) * 1994-02-24 1995-09-05 Matsushita Electric Ind Co Ltd ショット検出方法および代表画像記録・表示装置
JP2004005534A (ja) * 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd 画像の保存方法、登録画像の検索方法およびシステム、登録画像の画像処理方法ならびにこれらの方法を実施するプログラム
JP2005044211A (ja) * 2003-07-24 2005-02-17 Nippon Telegr & Teleph Corp <Ntt> 奥行情報を含んだ画像の分類・検索方法および装置ならびにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07236115A (ja) * 1994-02-24 1995-09-05 Matsushita Electric Ind Co Ltd ショット検出方法および代表画像記録・表示装置
JP2004005534A (ja) * 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd 画像の保存方法、登録画像の検索方法およびシステム、登録画像の画像処理方法ならびにこれらの方法を実施するプログラム
JP2005044211A (ja) * 2003-07-24 2005-02-17 Nippon Telegr & Teleph Corp <Ntt> 奥行情報を含んだ画像の分類・検索方法および装置ならびにプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512246A (ja) * 2005-09-29 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像のショットタイプを決定する方法及び装置
US9131148B2 (en) 2011-09-20 2015-09-08 Sony Corporation Image processing device, method of controlling image processing device and program causing computer to execute the method
WO2013069624A1 (ja) * 2011-11-07 2013-05-16 シャープ株式会社 立体画像処理装置および立体画像処理方法
JP2013098944A (ja) * 2011-11-07 2013-05-20 Sharp Corp 立体画像処理装置および立体画像処理方法
CN110348367A (zh) * 2019-07-08 2019-10-18 北京字节跳动网络技术有限公司 视频分类方法、视频处理方法、装置、移动终端及介质
CN110348367B (zh) * 2019-07-08 2021-06-08 北京字节跳动网络技术有限公司 视频分类方法、视频处理方法、装置、移动终端及介质
CN116109893A (zh) * 2023-04-11 2023-05-12 宁波长壁流体动力科技有限公司 一种矿井场景图像分类方法、系统及存储介质
CN116109893B (zh) * 2023-04-11 2023-09-15 宁波长壁流体动力科技有限公司 一种矿井场景图像分类方法、系统及存储介质

Similar Documents

Publication Publication Date Title
JP4973188B2 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP6419830B2 (ja) 画像検索のためのシステム、方法、および装置
CN109891189B (zh) 策划的摄影测量
JP5634111B2 (ja) 映像編集装置、映像編集方法及びプログラム
JP5358083B2 (ja) 人物画像検索装置及び画像検索装置
EP2426917A1 (en) Display control device, display control method, and program
US9626585B2 (en) Composition modeling for photo retrieval through geometric image segmentation
JP2009003415A (ja) 地図データ更新方法および装置
US20200202158A1 (en) Methods and systems for detecting and analyzing a region of interest from multiple points of view
US20160048978A1 (en) Method and apparatus for automatic keyframe extraction
JP2010518673A (ja) ビデオの索引付けとビデオシノプシスのための、方法およびシステム
TW200536389A (en) Intelligent key-frame extraction from a video
KR20120003447A (ko) 위치에 의한 비디오들의 클러스터링
JP2009065324A (ja) 画像提供装置、画像提供方法及び画像提供プログラム
JP5432677B2 (ja) クラスタリングを使用したビデオ概要の生成方法とシステム
KR102102164B1 (ko) 영상 전처리 방법, 장치 및 컴퓨터 프로그램
JP2006244424A (ja) 映像シーン分類方法及び装置及びプログラム
JP2006244074A (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
JP2007200249A (ja) 映像検索方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP5116017B2 (ja) 動画検索方法およびシステム
US8270731B2 (en) Image classification using range information
Zhou et al. Modeling perspective effects in photographic composition
Choudhary et al. Real time video summarization on mobile platform
JP2006157688A (ja) 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
WO2015185479A1 (en) Method of and system for determining and selecting media representing event diversity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413