JP5598159B2 - Image processing apparatus, imaging system, image processing method, and program - Google Patents
Image processing apparatus, imaging system, image processing method, and program Download PDFInfo
- Publication number
- JP5598159B2 JP5598159B2 JP2010186026A JP2010186026A JP5598159B2 JP 5598159 B2 JP5598159 B2 JP 5598159B2 JP 2010186026 A JP2010186026 A JP 2010186026A JP 2010186026 A JP2010186026 A JP 2010186026A JP 5598159 B2 JP5598159 B2 JP 5598159B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- moving image
- feature
- category
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、画像処理装置、撮像システム、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing apparatus, an imaging system, an image processing method, and a program.
従来、デジタルカメラ等で撮像した写真等の画像の特徴を、予めカテゴリ別に分類した学習画像の特徴と比較することにより、画像を分類する方法が知られている。例えば、画像の特徴量により画像を分類する方法は、特許文献1に記載されている。
特許文献1 特開2009−009402号公報
2. Description of the Related Art Conventionally, a method for classifying an image by comparing the characteristics of an image such as a photograph taken with a digital camera or the like with the characteristics of a learning image classified in advance by category is known. For example, Patent Document 1 discloses a method for classifying images based on image feature amounts.
Patent Document 1 JP 2009-009402 A
デジタルビデオカメラまたはデジタルカメラで撮像した動画像データには、様々な被写体が撮像されており、進行に伴って撮像されている被写体の特徴が移り変わっていく。したがって、動画像データから特徴的なシーンを自動的に選択することは困難であった。 Various subjects are captured in the moving image data captured by the digital video camera or the digital camera, and the characteristics of the captured subject change with progress. Therefore, it has been difficult to automatically select a characteristic scene from moving image data.
上記課題を解決するために、本発明の第1の態様においては、入力された動画像データから特徴シーンを選択する画像処理装置であって、動画像データを解析して、動画像データが、画像内容を識別するための予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定部と、動画像データから抽出される複数の特徴量の時系列データのうち動画像データが属するカテゴリに対応付けられた特徴量の時系列データに基づき、動画像データに含まれる特徴シーンを選択する選択部と、を備える画像処理装置を提供する。 In order to solve the above-described problem, in the first aspect of the present invention, an image processing apparatus that selects a feature scene from input moving image data, the moving image data is analyzed, and the moving image data is A category specifying unit for specifying which category of a plurality of predetermined categories for identifying image contents, and moving image data among time-series data of a plurality of feature amounts extracted from moving image data There is provided an image processing apparatus comprising: a selection unit that selects a feature scene included in moving image data based on time-series data of feature amounts associated with a category to which.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る画像処理装置100の構成例を示す。画像処理装置100は、入力された動画像データから特徴シーンを選択する。画像処理装置100は、デジタルビデオカメラまたはデジタルカメラ等で撮像された動画像データから特徴シーンを選択して、動画像データに対応づけて記録してよく、動画像データの特徴シーンをサムネイル表示してもよい。ここで本実施形態における特徴シーンとは、動画像データに撮像されたシーンのうち、動画像データの内容を把握できる印象的なシーンのことをいう。特徴シーンは、静止画像であっても、短い動画像データであってもよい。
FIG. 1 shows a configuration example of an
例えば、特徴シーンは、運動会を撮像した動画像データにおいては子供が走っているシーン、サッカーの試合を撮像した動画像データにおいてはゴールを決めたシーン、家族旅行を撮像した動画像データにおいては観光スポットでの家族の集合シーン等の、利用者が印象的と感じると判断されたシーンであってもよい。画像処理装置100は、カテゴリ特定部110と、選択部120と、抽出部130と、加工部140とを備える。
For example, a feature scene is a scene in which a child is running in moving image data capturing an athletic meet, a scene in which a goal is scored in moving image data capturing a soccer game, or sightseeing in moving image data capturing a family trip. It may be a scene determined to be impressive by the user, such as a family gathering scene at a spot. The
カテゴリ特定部110は、動画像データを解析して、動画像データが、画像内容を識別するための予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定する。カテゴリ特定部110は、動画像データが、どのようなイベントにおいて撮像された動画像であるかを識別するための複数のカテゴリのうちの何れのカテゴリに属するかを特定してよい。
The
また、カテゴリ特定部110は、解析すべき動画像データが、予め定められたいずれのカテゴリに属する画像であるかを識別する。例えば、カテゴリ特定部110は、動画像データを「花見」、「海辺」、「祭り」、「結婚式」等の利用者が撮像している出来事(イベント)が、予め定められたカテゴリに属するかを特定する。カテゴリ特定部110は、複数(n個)の識別器115と、特定器117とを有する。
Moreover, the
複数の識別器115のそれぞれは、動画像データから抽出される1以上のカテゴリ特徴量に基づき、動画像データが各識別器115に対応づけられたカテゴリに属するかを判別する。識別器115は、予め定められた複数のカテゴリのうち、対応するカテゴリに応じた特徴量を抽出してよい。例えば、カテゴリ特定部110は、予め定められた複数のカテゴリの数と同数の識別器115を有し、各識別器115は、各カテゴリに1対1に対応してそれぞれのカテゴリに応じた特徴量をそれぞれ抽出する。識別器115は、1つのカテゴリに対応して、1つ以上の特徴量を抽出してよい。ここで、カテゴリに対応した特徴量をカテゴリ特徴量とする。
Each of the plurality of
識別器115は、入力された動画像データから動画を形成するフレームの複数の静止画像データに分解して、複数の静止画像データのカテゴリ特徴量をそれぞれ抽出してよい。ここで識別器115は、複数の静止画像データのうち、1以上の静止画像データのカテゴリ特徴量を抽出して、入力された動画像データのカテゴリ特徴量としてよい。
The
識別器115は、1以上の静止画像データに含まれるエッジの数に対応する情報をカテゴリ特徴量としてよい。具体的には、識別器115は、1つの静止画像データの領域を所定の画素数から成る複数の領域に分割した上で、分割した複数の領域の一部または全ての領域に含まれるエッジの数を積算してよい。なお、エッジとは、隣接する画素間で輝度または色度が所定量以上変化する箇所である。
The
識別器115は、1以上の静止画像データの色情報を数値化することにより、カテゴリ特徴量を算出してもよい。例えば、識別器115は、1つの静止画像データの色空間をHSV色空間に変換した上で、色空間を構成する各色の発生頻度に基づいてヒストグラムを生成する。識別器115は、各色の発生頻度の数値情報をカテゴリ特徴量としてよい。
The
また、識別器115は、1以上の静止画像データの輝度情報を数値化することにより、カテゴリ特徴量を算出してもよい。例えば、識別器115は、1つの静止画像データの輝度の平均および分散を、カテゴリ特徴量とする。識別器115は、一例として、1つの静止画像データの色空間をHSV色空間に変換した上で、変換後の色空間におけるエネルギーおよび分散をカテゴリ特徴量としてもよい。
The
また、識別器115は、1以上の静止画像データに含まれるメタ情報に基づいて、カテゴリ特徴量を算出してもよい。具体的には、入力された動画像データがMPEG−7に準拠して生成された動画像データである場合には、当該動画像データの映像信号特徴記述子に示されるエッジに関する情報、色の発生頻度に関する情報、および輝度に関する情報等をカテゴリ特徴量としてよい。
The
識別器115は、入力された動画像データを形成する複数の静止画像データについてカテゴリ特徴量をそれぞれ抽出して、カテゴリ特徴量の時系列データを抽出してよい。これに代えて、識別器115は、動画像データの一部分の静止画像データのカテゴリ特徴量を抽出してもよい。
The
識別器115は、静止画像データ毎に抽出したカテゴリ特徴量に基づき、各静止画像データのカテゴリを特定する。識別器115は、複数のカテゴリ特徴量を各成分とするカテゴリ特徴量ベクトルを用いてカテゴリを特定してもよい。例えば、識別器115は、画像の色度に基づく値、画像の輝度に基づく値等のカテゴリ特徴量をベクトルの成分とする。
The
各識別器115は、カテゴリ特徴量と予め定められた基準量とを比較して、カテゴリ特徴量と基準量との差分に基づき動画像データが当該識別器115に対応するカテゴリに属するかを判別してよい。ここで、予め定められた基準量は、各識別器115に対応づけられたカテゴリ毎に設定されてよい。また、識別器115がカテゴリ特徴量ベクトルを用いてカテゴリを分類する場合、識別器115は、そのカテゴリについて予め定められた基準ベクトルと比較して、動画像データが対応するカテゴリに属するかを判別してよい。この場合、基準ベクトルは、カテゴリ特徴量毎の基準量を成分とするベクトルであってよい。
Each
各識別器115は、カテゴリ特徴量ベクトルと基準ベクトル間の距離を算出し、算出した距離に基づいて当該識別器115に対応するカテゴリに属するか否かをそれぞれ判別してよい。例えば、識別器115は、カテゴリ特徴量ベクトルが基準ベクトルから予め定められた距離の範囲内にある場合に、入力された静止画像データが当該識別器115に対応づけられたカテゴリに属すると判別する。
Each
また、識別器115は、入力された動画像データを形成する複数の静止画像データのうち、一部の静止画像データのカテゴリ特徴量ベクトルが基準ベクトルから予め定められた距離の範囲内にある場合は、当該一部の静止画像データが当該識別器115に対応づけられたカテゴリに属すると判別してよい。各識別器115は、対応するカテゴリに属すると判別した場合に、カテゴリに属する旨の判別結果の情報を特定器117に送ってよい。ここで各識別器115は、カテゴリに属するとした判別結果に加えて、基準ベクトルからの距離の情報も特定器117に送ってよい。
Further, the
特定器117は、複数の識別器115から受け取った判別結果の情報に基づき、入力された動画像データが属するカテゴリを特定する。例えば、特定器117は、入力された動画像データを形成する複数の静止画像データについて、1つの識別器115から対応するカテゴリに属する旨の判別結果を受け取った場合、入力された動画像データが当該識別器115に対応づけられたカテゴリに属すると特定する。
The identifying
また、特定器117は、複数の静止画像データの一部について1つの識別器115から対応するカテゴリに属する旨の判別結果を受け取った場合、入力された動画像データの一部を当該識別器115に対応づけられたカテゴリに特定してよい。この場合において、特定器117は、他の静止画像データについて他の識別器115からさらに対応するカテゴリに属する旨の判別結果を受け取った場合、特定器117は、入力された動画像データの領域を2つ以上に分けて、2つ以上の領域について判別結果を送信したそれぞれの識別器115に対応づけられたカテゴリに属すると特定してもよい。
Further, when the
また、特定器117は、同一の静止画像データについて2つ以上の識別器115から対応するカテゴリに属する旨の判別結果を受け取った場合、各識別器115から受け取る基準ベクトルからの距離の情報に応じて、静止画像データのカテゴリを特定してよい。例えば、特定器117は、複数の判別結果のうち、最も基準ベクトルからの距離が小さい結果を送った識別器115に対応づけられたカテゴリを、当該静止画像データのカテゴリと特定してよい。特定器117は、入力された動画像データを形成する静止画像データ毎にカテゴリを特定していき、動画像データのカテゴリを特定してよい。特定器117は、特定したカテゴリの情報を選択部120に送る。
Further, when the
選択部120は、入力された動画像データから抽出される複数の特徴量の時系列データのうち動画像データが属するカテゴリに対応付けられた特徴量の時系列データに基づき、動画像データに含まれる特徴シーンを選択する。選択部120は、特徴量の時系列データが予め定められた条件を満たす動画像データの部分を、特徴シーンとして選択してよい。
The
選択部120は、一のカテゴリに属する動画像データに含まれる特徴シーンを選択する場合において、動画像データのカテゴリを特定するために用いた複数のカテゴリ特徴量とは異なる特徴量の時系列データに基づき特徴シーンを選択してよい。これによって、選択部120は、動画像データが属するカテゴリに応じた特徴に基づいて、動画像データの特徴シーンを選択できる。ここで、特徴シーンに対応した特徴量をシーン特徴量とする。選択部120は、特徴検出器125と、特徴選択器127とを有する。
When selecting a feature scene included in moving image data belonging to one category, the
特徴検出器125は、カテゴリの種類毎に設けられ、各カテゴリに応じた1以上のシーン特徴量を抽出する。特徴検出器125は、予め定められた特徴シーンに応じたシーン特徴量を抽出してよい。
The
例えば、カテゴリ特定部110が動画像データを「花見」のカテゴリに特定する場合、「花見」カテゴリに対応する1つの特徴検出器125は、「多くの花が撮像されたシーン」等の特徴シーンに応じた特徴量を抽出する。この場合、特徴検出器125は、「花の色」、「花の形状」等を特徴量としてよい。図中の例において、特徴検出器125は、n個の識別器115の数に応じて、選択部120にn個備わり、n通りのカテゴリに対応したシーン特徴量をそれぞれ出力する。
For example, when the
特徴検出器125は、識別器115と同様に、入力された動画像データから動画を形成する複数の静止画像データのシーン特徴量をそれぞれ抽出してよい。ここで特徴検出器125は、複数の静止画像データのうち、動画中の一部の期間における静止画像データのシーン特徴量を抽出して、シーン特徴量を時系列に出力してもよい。
Similar to the
特徴検出器125は、1以上の静止画像データに含まれるエッジの数に対応する情報をシーン特徴量としてよい。また、特徴検出器125は、1以上の静止画像データの色情報を数値化することにより、シーン特徴量を算出してもよい。特徴検出器125は、各色の発生頻度をシーン特徴量としてよい。
The
また、特徴検出器125は、1以上の静止画像データの輝度情報を数値化することにより、シーン特徴量を算出してもよい。特徴検出器125は、一例として、1つの静止画像データの色空間をHSV色空間に変換した上で、変換後の色空間におけるエネルギーおよび分散をシーン特徴量としてよい。また、特徴検出器125は、1以上の静止画像データに含まれるメタ情報に基づいて、シーン特徴量を算出してもよい。
Further, the
また、特徴検出器125は、1以上の静止画像データがそれぞれ表示されるのと同時に出力される音声データを抽出して、シーン特徴量を算出してもよい。例えば、特徴検出器125は、1つの静止画像データの表示と共に出力される音声データのボリュームをシーン特徴量としてよい。これに代えて、特徴検出器125は、音声データをフィルタリングして、高音部または低音部のボリュームをシーン特徴量としてもよい。
Further, the
また、特徴検出器125は、動画像データに含まれている音声データを抽出して、抽出した音声データをテキストデータに変換してシーン特徴量を算出してもよい。例えば、特徴検出器125は、動画像データの中で話されている内容をテキスト変換して、予め定められたキーワードとのマッチング量に基づき、特徴量を算出する。
Further, the
特徴検出器125は、静止画像データ毎に抽出したシーン特徴量に基づき、特徴シーンを検出する。特徴検出器125は、複数のシーン特徴量を各成分とするシーン特徴量ベクトルを用いて特徴シーンを検出してもよい。例えば、特徴検出器125は、画像の特定領域に含まれる特定の色の変化に基づく値、画像の輝度の変化に基づく値等をベクトルの成分とする。
The
特徴検出器125は、動画像データが属するカテゴリに対応付けられた特徴量の時系列データが予め定められた条件を満たす動画像データの部分を、特徴シーンとして検出する。例えば、特徴検出器125は、抽出したシーン特徴量の時系列データのうち、最も大きな特徴量となるデータに対応する静止画像を、特徴シーンとして検出してよい。これに代えて、特徴検出器125は、時系列データのうち最も大きな特徴量から予め定められたフレーム数内の複数の静止画像を、特徴シーンとして検出してよい。
The
これに代えて、特徴検出器125は、時系列データのうち予め定められた基準値よりも大きな値となる1以上の静止画像を、特徴シーンとして検出してよい。ここで、基準値よりも大きな値となる静止画像がない場合、特徴検出器125は、基準値を下げて特徴シーンを検出してよい。また、特徴検出器125は、特徴シーンが検出されるまで、基準値を下げてもよい。
Instead, the
これに代えて、特徴検出器125は、選択したシーン特徴量の時系列データのうち最も小さな特徴量となるデータに対応する静止画像を、特徴シーンとして検出してもよい。これに代えて、特徴検出器125は、時系列データのうち最も小さな特徴量から予め定められたフレーム数内の複数の静止画像を、特徴シーンとして検出してよい。これに代えて、特徴検出器125は、時系列データのうち予め定められた基準値よりも小さな値となる1以上の静止画像を、特徴シーンとして検出してよい。特徴検出器125は、検出した特徴シーンの情報を特徴選択器127に送る。
Instead, the
特徴選択器127は、複数の特徴検出器125から受け取る複数の特徴シーンの情報のうち、特定器117が特定したカテゴリに対応する特徴シーンを検出する特徴検出器125が検出した特徴シーンの情報を選択する。ここで特徴選択器127は、特定器117が複数のカテゴリを特定した場合は、特定されたカテゴリ毎に対応する特徴検出器125が検出した特徴シーンの情報を選択してよい。特徴選択器127は、選択した特徴シーンの情報を抽出部130に送る。
The
抽出部130は、特徴シーンの情報を受け取り、動画像データに含まれる特徴シーンを抽出する。これによって、抽出部130は、入力された動画像データから、特定されたカテゴリに応じた特徴シーンを抽出することができる。抽出部130は、動画像データに含まれる特徴シーンの位置を、タイムスタンプまたは静止画像の配列順序で指定して、特徴シーンを抽出してよい。抽出部130は、動画像データに含まれる特徴シーンの位置の情報を加工部140に送ってよい。
The
加工部140は、抽出部130から受け取った特徴シーンの位置の情報に基づき、入力された動画像データに含まれる特徴シーンの位置に相当する静止画像データに対して、特徴シーンであることの情報を埋め込むように動画像データを加工する。加工部140は、特徴シーンの情報を持つ動画像データを出力する。
Based on the information on the position of the feature scene received from the
図2は、本実施形態に係る画像処理装置100の動作フローを示す。画像処理装置100は、入力された動画像データをカテゴリ特定部110および選択部120に入力させて、カテゴリ特徴量およびシーン特徴量を算出する。画像処理装置100は、カテゴリ特徴量およびシーン特徴量を算出する処理を並行して実行してよい。
FIG. 2 shows an operation flow of the
カテゴリ特定部110の複数の識別器115は、動画像データをそれぞれ入力し、動画を形成する複数の静止画像データから、複数の識別器115に対応する複数のカテゴリ特徴量をそれぞれ抽出する(S500)。複数の識別器115のそれぞれは、複数の静止画像データから「花見」、「海辺」、「祭り」、「結婚式」等の予め定められた1つのカテゴリに応じた1以上のカテゴリ特徴量を抽出する。
The plurality of
次に、カテゴリ特定部110は、入力された動画像データのカテゴリを特定する(S510)。複数の識別器115は、それぞれ抽出した複数のカテゴリ特徴量に基づき、複数の静止画像データが各識別器115に対応するカテゴリに属するか否かを判別する。ここでそれぞれの識別器115は、静止画像データの複数のカテゴリ特徴量と、カテゴリの基準量とを比較して判別してよい。
Next, the
例えば、識別器115は、予め対応するカテゴリに特定されるべき複数の動画像データからカテゴリ特徴量を抽出して、基準量および/またはカテゴリ特徴量の統計的な分布の範囲を集計しておいてよい。このように集計したカテゴリ特徴量の分布の範囲内に含まれることに基づき、入力された動画像データのカテゴリを判別してよい。複数の識別器115のうち、入力された静止画像データが対応するカテゴリに属すると判別した識別器115は、判別結果を特定器117に送る。
For example, the
特定器117は、識別器115から受け取った判別結果に基づき、入力された動画像データのカテゴリを特定する。特定器117は、特定したカテゴリの情報を、特徴選択器に送る。
The identifying
一方、選択部120は、動画像データに含まれる特徴シーンを選択する。選択部120の複数の特徴検出器125は、動画像データをそれぞれ入力して、動画を形成する複数の静止画像データから、複数の特徴検出器125に対応する複数のシーン特徴量をそれぞれ抽出する(S520)。複数の特徴検出器125のそれぞれは、複数の静止画像データから「花見」、「海辺」、「祭り」、「結婚式」等のカテゴリ特定部110が特定する予め定められた1つのカテゴリに応じた1以上のシーン特徴量を抽出する。
On the other hand, the
次に、複数の特徴検出器125それぞれは、入力された動画像データの特徴シーンを選択すべく、複数のシーン特徴量の時系列データから特徴シーンをそれぞれ検出する。複数の特徴検出器125は、それぞれ検出した特徴シーンを特徴選択器127にそれぞれ送る。
Next, each of the plurality of
特徴選択器127は、複数の特徴検出器125から受け取る複数の特徴シーンの情報のうち、特定器117が特定したカテゴリに対応する特徴シーンを検出する特徴検出器125が検出した特徴シーンの情報を選択する(S530)。例えば、入力した動画を特定器117が「海辺」のカテゴリに特定した場合、特徴選択器127は、入力した動画から「海辺」のシーン特徴量を抽出して「海辺」の特徴シーンを検出する特徴検出器125から受け取る特徴シーンの情報を選択する。特徴選択器127は、選択した特徴シーンの情報を抽出部130に送る。
The
抽出部130は、特徴シーンの情報を受け取り、入力された動画像データに含まれる特徴シーンを抽出する(S540)。抽出部130は、動画像データに含まれる特徴シーンの位置の情報を加工部140に送り、加工部140は、入力された動画像データに特徴シーンの情報を埋め込む。以上の本実施形態に係る画像処理装置100の動作フローによって、画像処理装置100は、動画像データの特徴シーンを抽出することができる。
The
即ち、画像処理装置100は、例えば、スポーツを撮影した動画像データの場合、観客の盛り上がりおよび選手の動き等を特徴量として特徴シーンを抽出すること、ペットを撮影した動画像データの場合は、飼い主の笑顔およびペットの仕草等を特徴量として特徴シーンを抽出すること等、カテゴリに応じた特徴量を使ってシーン群の中から特徴シーンを抽出することができる。したがって、画像処理装置100は、動画像データから特徴的なシーンを自動的に選択することができる。
That is, for example, in the case of moving image data capturing sports, the
ここで、抽出部130は、選択された特徴シーンを代表する静止画像を生成する静止画生成部であってもよい。例えば、抽出部130は、選択された特徴シーンが複数の静止画像の場合に、複数の静止画像のうちの1つの静止画像を抽出する。この場合、抽出部130は、複数の静止画像のうち、最も大きな特徴量または小さな特徴量に対応する静止画像を抽出してよい。抽出部130は、入力する動画像データが複数の場合、複数の動画像データに対応する特徴シーンを代表する静止画像を生成してよい。これによって、抽出部130は、複数の動画像データを代表する静止画像で、サムネイル表示することができる。
Here, the
以上の実施例において、選択部120は、入力された動画像データに対して1つの特徴シーンを選択する例を説明したが、これに代えて選択部120は、複数の特徴シーンを選択してもよい。例えば、特徴選択器127は、シーン特徴量の時系列データの最大値に加えて、さらに極値を示す静止画像データを特徴シーンとして選択する。
In the above-described embodiments, the example in which the
選択部120は、複数の特徴シーンを選択した場合、複数の特徴シーンのそれぞれに対してシーン特徴量に基づきランクをつけてよい。これによって、画像処理装置100は、入力された動画像データから複数の特徴シーンをランク付けしつつ抽出することができる。抽出部130は、ランキングに応じたサムネイル表示をしてもよい。これによって、動画像データの複数の特徴的なシーンを自動的に選択してランキング表示することができる。
When selecting a plurality of feature scenes, the
図3は、本実施形態に係る動画像データ210の一例を示す。動画像データ210は、時系列に並んだ複数の静止画像データ215から形成されてよい。図中の例において、動画像データ210は、24の静止画像データ215から形成されている。
FIG. 3 shows an example of the moving
図4は、本実施形態に係る動画像データ210に対応する、カテゴリ特徴量の時系列データの一例を示す。図中の例は、3つの動画像データ210に対応する、カテゴリ特徴量の時系列データ302、時系列データ304、および時系列データ306を示す。動画像データの途中から異なるカテゴリの動画に場面展開されること等がなく、同一のカテゴリの映像が撮像されている場合、当該動画像データ210を形成する静止画像データ215であれば、カテゴリ特徴量は図中の例のように略一定の範囲内の値となる。
FIG. 4 shows an example of time series data of category feature values corresponding to the moving
「海辺」のカテゴリを特定する識別器115は、予め定められた「海辺」の基準ベクトルとの距離によって、時系列データが「海辺」のカテゴリに属するか否かを特定してよい。例えば、「海辺」の動画像データであれば、海の色、砂浜の色、海岸を形成する岩の色等でカテゴリ特徴量を抽出する。ここで、予め、「海辺」にカテゴリ分けされるべき複数の映像からカテゴリ特徴量を抽出して、基準量およびカテゴリ特徴量の統計的な分布の範囲を集計しておいてよい。このように抽出したカテゴリ特徴量の分布から、予め定められた基準値の範囲内に含まれる時系列データを、「海辺」のカテゴリに特定してよい。
The
ここで、予め、画像処理装置100の製造元において、多くの「海辺」の動画像データから、機械学習または人手による最適化等によりカテゴリ特徴量とする特徴量を選択し、カテゴリ基準ベクトルを設定してもよい。また、画像処理装置100が選択した特徴シーンおよびそのカテゴリを利用者が変更したこと応じて、学習によりユーザー最適化してもよい。
Here, in advance, the manufacturer of the
図中の例が、このようなカテゴリ特徴量で抽出する識別器115の抽出結果の場合、基準ベクトルに近い距離の範囲内に含まれる時系列データ302および304を、識別器115は、「海辺」のカテゴリに特定してよい。ここで、それぞれの時系列データの距離は静止画像データの数だけあるので、識別器115は、距離の平均値を用いて特定してよい。図中の例において、カテゴリ特徴量の時系列データは、動画像データ210を形成する静止画像データ215と同数のデータを抽出する例を説明したが、これに代えて、一定間隔で間引いてカテゴリ特徴量を抽出してもよい。これによって、カテゴリ特定部110は、カテゴリを特定する処理を高速に実行することができる。
In the case where the example in the figure is the extraction result of the
また、例えば、「花見」等のカテゴリであれば、「海辺」のカテゴリと同様に、動画像データに発生する色に着目して「花見」のカテゴリ特徴量を抽出することもある。しかしながら、「海辺」のカテゴリを特定する識別器115は、「海辺」の動画に発生する色等を特徴量として抽出するので、「花見」等の動画像データは、例えば、時系列データ306のように、「海辺」とは特定されない距離に分布する。これによって、識別器115は、カテゴリ特徴量の時系列データから予め定められたカテゴリを特定することができる。
For example, in the case of a category such as “cherry-blossom viewing”, the category feature amount of “cherry-blossom viewing” may be extracted by paying attention to the color generated in the moving image data, similarly to the “seaside” category. However, the
図5は、本実施形態に係る動画像データ210に対応する、シーン特徴量の時系列データの一例を示す。時系列データ402、および時系列データ404は、図4の時系列データ302および時系列データ304に対応するシーン特徴量の時系列データを示す。シーン特徴量は、動画像データの中から特徴的なシーンを抽出するものなので、カテゴリ特徴量とは異なり時系列で略一定の値にはならない。
FIG. 5 shows an example of time-series data of scene feature amounts corresponding to the moving
ここで、シーン特徴量の時系列データは、カテゴリ特定部110が特定したカテゴリに対応づけられたシーン特徴量を抽出する特徴検出器125の抽出結果である。このような特徴検出器125は、例えば、「海辺」の特徴シーンを検出すべく、海の色が発生する面積、砂浜の色が発生する面積、岩の色が発生する面積、波の音の音量、子供の顔認識、子供の声の音量等のシーン特徴量を抽出する。ここで、予め、画像処理装置100の製造元において、多くの「海辺」の動画像データから、機械学習または人手による最適化等によりシーン特徴量を選択してよい。
Here, the scene feature amount time-series data is an extraction result of the
例えば、海辺の風景を撮像した場合、海の色が発生する面積、砂浜の色が発生する面積、および岩の色が発生する面積が変わらない場合があり、特徴検出器125は、抽出する特徴量としての数値は大きくても変化があまり見られない時系列データを検出する。そこで、例えば、特徴検出器125は、シーン特徴量として波の音の音量の特徴量を加えることで、図中の時系列データ402のように、時系列データが変化して特徴シーンを検出することができる。
For example, when an image of a seaside landscape is captured, the area where the color of the sea is generated, the area where the color of the sandy beach is generated, and the area where the color of the rock is generated may not change, and the
ここで、波の音が大きくても、海が撮像されていなければ海の色が発生する面積による特徴量が減少するので、このようなシーンは抽出されない。したがって、特徴検出器125は、海が撮像され、かつ、大きな波が海辺に打ちつけられるダイナミックなシーンの静止画像データAを、特徴シーンとして抽出することができる。また、静止画像データAと、当該データの前後の予め定められた数のフレームとを特徴シーンとしてもよい。これによって、大きな波が海岸に打ち付けられるシーンを特徴シーンとして抽出することができる。
Here, even if the sound of the waves is loud, if the sea is not imaged, the feature amount due to the area where the color of the sea is generated decreases, so such a scene is not extracted. Therefore, the
また、同じ「海辺」のカテゴリに特定された動画像データであっても、子供の顔を主に撮像した場合、海の色に着目したシーン特徴量は低く算出される。この場合であっても、特徴検出器125は、子供の顔認識、子供の声の音量等を含めてシーン特徴量を抽出することで、図中の時系列データ404にように、撮像された子供の特徴で特徴量が変化して特徴シーンを検出することができる。これによって、例えば海辺で遊ぶ子供が声を出して笑っているシーンである静止画像データBを特徴シーンとして抽出することができる。
Further, even when moving image data specified in the same “seaside” category is used, when a child's face is mainly imaged, the scene feature amount focusing on the color of the sea is calculated to be low. Even in this case, the
図6は、本実施形態に係る画像処理装置100の変形例を示す。本変形例の画像処理装置100において、図1に示された本実施形態に係る画像処理装置100の動作と略同一のものには同一の符号を付け、説明を省略する。画像処理装置100は、入力された動画像データのカテゴリを特定した後に、特定したカテゴリに応じたシーン特徴量を抽出して特徴シーンを選択する。
FIG. 6 shows a modification of the
カテゴリ特定部110の特定器117は、入力された動画像データのカテゴリを特定する。特定器117は、特定したカテゴリの情報と入力された動画像データとを選択部120の特徴選択器127に送る。特徴選択器127は、受け取ったカテゴリに応じたシーン特徴量を抽出する特徴検出器125を選択して、受け取った動画像データを入力させる。選択された特徴検出器125は、入力された動画像データからシーン特徴量の時系列データを抽出し、特徴シーンを検出する。特徴検出器125は、検出した特徴シーンの情報と入力された動画像データとを抽出部130に送る。
The specifying
抽出部130は、受け取った動画像データと特徴シーンの情報から、特徴シーンを抽出する。また、抽出部130は、受け取った動画像データから特徴シーンを抽出してサムネイル表示してよい。抽出部130は、入力された動画像データと特徴シーンの情報とを加工部140に送る。加工部140は、受け取った特徴シーンの情報を、受け取った動画像データに加工して埋め込む。加工部140は、加工した動画像データを出力する。
The
以上の本実施形態に係る画像処理装置100の変形例によって、入力された動画像データの特徴シーンを選択することができる。また、本変形例は、入力された動画像データのカテゴリを特定してからシーン特徴量を抽出するので、特定したカテゴリに応じた特徴検出器125を適切に選択できるので、特定したカテゴリとは無関係の特徴検出器125を動作させることなく、特徴シーンを選択することができる。
The feature scene of the input moving image data can be selected by the modification of the
以上の本実施形態にかかる画像処理装置100は、動画像データが入力されて、特徴シーンを選択することを例に説明した。さらに、この画像処理装置100は、撮像システムに搭載されてよい。撮像システムは、被写体を撮像した動画像データを生成する撮像部と、撮像部により撮像された動画像データから特徴シーンを選択する画像処理装置100と、撮像部により撮像された動画像データに対応付けて、画像処理装置により選択された特徴シーンを表す情報を記録媒体に記録する記録部と、を備えてよい。これによって、撮像システムは、被写体を撮像しつつ、撮像した動画像データの特徴シーンを選択することができる。
The
図7は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部と、を備える。
FIG. 7 shows an example of the hardware configuration of a
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
The input /
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
The input /
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
A program provided to the
コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置100として機能させるプログラムは、カテゴリ特定モジュールと、選択モジュールと、抽出モジュールと、加工モジュールと、を備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、カテゴリ特定部110、選択部120、抽出部130、加工部140としてそれぞれ機能させる。
A program installed on the
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段であるカテゴリ特定部110、選択部120、抽出部130、加工部140として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置100が構築される。
The information processing described in these programs is read by the
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はDVD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
As an example, when communication is performed between the
また、CPU2000は、ハードディスクドライブ2040、DVDドライブ2060(DVD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
In addition, the
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
In addition, the
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
Further, the
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。本願によれば、以下の構成もまた開示される。
(項目1)
入力された動画像データから特徴シーンを選択する画像処理装置であって、
前記動画像データを解析して、前記動画像データが、画像内容を識別するための予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定部と、
前記動画像データから抽出される複数の特徴量の時系列データのうち前記動画像データが属するカテゴリに対応付けられた特徴量の時系列データに基づき、前記動画像データに含まれる特徴シーンを選択する選択部と、
を備える画像処理装置。
(項目2)
当該画像処理装置は、撮像された動画像データから特徴シーンを選択し、
前記カテゴリ特定部は、前記動画像データが、どのようなイベントにおいて撮像された動画像であるかを識別するための複数のカテゴリのうちの何れのカテゴリに属するかを特定する項目1に記載の画像処理装置。
(項目3)
前記カテゴリ特定部は、前記動画像データから抽出される1以上の特徴量に基づき、前記動画像データが何れのカテゴリに属するかを特定する項目1または2に記載の画像処理装置。
(項目4)
前記選択部は、一のカテゴリに属する動画像データに含まれる特徴シーンを選択する場合において、前記動画像データのカテゴリを特定するために用いた前記複数の特徴量とは異なる特徴量の時系列データに基づき特徴シーンを選択する項目3に記載の画像処理装置。
(項目5)
前記選択部は、前記動画像データが属するカテゴリに対応付けられた特徴量の時系列データが予め定められた条件を満たす動画像データの部分を、特徴シーンとして選択する項目1から4の何れか一項に記載の画像処理装置。
(項目6)
前記選択部は、複数の特徴シーンを選択した場合、前記複数の特徴シーンのそれぞれに対して特徴量に基づきランクをつける項目5に記載の画像処理装置。
(項目7)
選択された前記特徴シーンを代表する静止画像を生成する静止画生成部を更に備える項目1から6の何れか一項に記載の画像処理装置。
(項目8)
動画像データを撮像する撮像システムであって、
被写体を撮像した動画像データを生成する撮像部と、
前記撮像部により撮像された動画像データから特徴シーンを選択する請求項1から7の何れかに記載の画像処理装置と、
前記撮像部により撮像された動画像データに対応付けて、前記画像処理装置により選択された前記特徴シーンを表す情報を記録媒体に記録する記録部と、
を備える撮像システム。
(項目9)
入力された動画像データから特徴シーンを選択する画像処理方法であって、
前記動画像データを解析して、前記動画像データが、画像内容を識別するための予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定段階と、
前記動画像データから抽出される複数の特徴量の時系列データのうち前記動画像データが属するカテゴリに対応付けられた特徴量の時系列データに基づき、前記動画像データに含まれる特徴シーンを選択する選択段階と、
を備える画像処理方法。
(項目10)
コンピュータを、入力された動画像データから特徴シーンを選択する画像処理装置として機能させるためのプログラムであって、
当該プログラムは、前記コンピュータを、
前記動画像データを解析して、前記動画像データが、画像内容を識別するための予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定部と、
前記動画像データから抽出される複数の特徴量の時系列データのうち前記動画像データが属するカテゴリに対応付けられた特徴量の時系列データに基づき、前記動画像データに含まれる特徴シーンを選択する選択部と、
して機能させるプログラム。
The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing. According to the present application, the following configurations are also disclosed.
(Item 1)
An image processing apparatus for selecting a feature scene from input moving image data,
A category specifying unit that analyzes the moving image data and specifies which category of a plurality of predetermined categories for identifying the image content of the moving image data;
A feature scene included in the moving image data is selected based on time-series data of feature amounts associated with a category to which the moving image data belongs among time-series data of feature amounts extracted from the moving image data. A selection section to
An image processing apparatus comprising:
(Item 2)
The image processing apparatus selects a feature scene from the captured moving image data,
The category specifying unit according to Item 1, wherein the category specifying unit specifies which category of a plurality of categories for identifying in which event the moving image data is a moving image captured. Image processing device.
(Item 3)
The image processing apparatus according to item 1 or 2, wherein the category specifying unit specifies to which category the moving image data belongs based on one or more feature amounts extracted from the moving image data.
(Item 4)
When the selection unit selects a feature scene included in moving image data belonging to one category, a time series of feature amounts different from the plurality of feature amounts used for specifying the category of the moving image data 4. The image processing device according to item 3, wherein a feature scene is selected based on data.
(Item 5)
The selection unit is any one of items 1 to 4 for selecting, as a feature scene, a portion of moving image data in which time-series data of feature amounts associated with a category to which the moving image data belongs satisfy a predetermined condition. The image processing apparatus according to one item.
(Item 6)
6. The image processing device according to item 5, wherein when the plurality of feature scenes are selected, the selection unit ranks each of the plurality of feature scenes based on a feature amount.
(Item 7)
The image processing device according to any one of items 1 to 6, further comprising a still image generation unit that generates a still image representing the selected feature scene.
(Item 8)
An imaging system for capturing moving image data,
An imaging unit that generates moving image data obtained by imaging a subject;
The image processing apparatus according to claim 1, wherein a feature scene is selected from moving image data captured by the imaging unit.
A recording unit that records information representing the feature scene selected by the image processing apparatus on a recording medium in association with moving image data captured by the imaging unit;
An imaging system comprising:
(Item 9)
An image processing method for selecting a feature scene from input moving image data,
A category specifying step of analyzing the moving image data and specifying which of the plurality of predetermined categories for identifying the image content the moving image data belongs to;
A feature scene included in the moving image data is selected based on time-series data of feature amounts associated with a category to which the moving image data belongs among time-series data of feature amounts extracted from the moving image data. And a selection stage to
An image processing method comprising:
(Item 10)
A program for causing a computer to function as an image processing device that selects a feature scene from input moving image data,
The program causes the computer to
A category specifying unit that analyzes the moving image data and specifies which category of a plurality of predetermined categories for identifying the image content of the moving image data;
A feature scene included in the moving image data is selected based on time-series data of feature amounts associated with a category to which the moving image data belongs among time-series data of feature amounts extracted from the moving image data. A selection section to
Program to make it work.
100 画像処理装置、110 カテゴリ特定部、115 識別器、117 特定器、120 選択部、125 特徴検出器、127 特徴選択器、130 抽出部、140 加工部、210 動画像データ、215 静止画像データ、302、304、306、402、404 時系列データ、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD−ROM 100 image processing apparatus, 110 category specifying unit, 115 classifier, 117 specifying unit, 120 selecting unit, 125 feature detector, 127 feature selecting unit, 130 extracting unit, 140 processing unit, 210 moving image data, 215 still image data, 302, 304, 306, 402, 404 Time series data, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 DVD drive, 2070 I / O chip, 2075 graphics Controller, 2080 display device, 2082 Host controller, 2084 I / O controller, 2090 flexible disk, 2095 DVD-ROM
Claims (9)
前記動画像データを解析して、前記動画像データが、予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定部と、
前記動画像データから抽出される複数の特徴量のうち前記動画像データが属するカテゴリに対応付けられた特徴量に基づき、前記動画像データに含まれる特徴シーンを選択する選択部と、
を備え、
前記動画像データが属するカテゴリに対応付けられた特徴量は、色である画像処理装置。 An image processing apparatus for selecting a feature scene from input moving image data,
By analyzing the moving picture data, the moving image data, and a category specifying unit for specifying whether belongs to the category of the multiple categories defined Me pre,
Based on the feature quantity the moving image data associated with the category to which belongs among the plurality of feature amounts extracted from the moving image data, a selection unit for selecting a feature scenes included in the moving image data,
Equipped with a,
An image processing apparatus in which a feature amount associated with a category to which the moving image data belongs is a color .
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
前記カテゴリ特定部は、前記動画像データが、どのようなイベントにおいて撮像された動画像であるかを識別するための複数のカテゴリのうちの何れのカテゴリに属するかを特定する
請求項1から3の何れか一項に記載の画像処理装置。 The image processing apparatus selects a feature scene from the captured moving image data,
The category specifying unit, the moving image data, from the claims 1 to identify whether they fall in a category of a plurality of categories to identify whether the moving image captured in any event 3 The image processing apparatus according to any one of the above.
請求項1から4の何れか一項に記載の画像処理装置。 The image according to any one of claims 1 to 4, wherein the category specifying unit specifies a category to which the moving image data belongs based on one or more feature amounts extracted from the moving image data. Processing equipment.
請求項1から5の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1, further comprising a still image generation unit for generating a still image representative of said selected feature scenes further 5.
被写体を撮像した動画像データを生成する撮像部と、
前記撮像部により撮像された動画像データから特徴シーンを選択する請求項1から6の何れか一項に記載の画像処理装置と、
前記撮像部により撮像された動画像データに対応付けて、前記画像処理装置により選択された前記特徴シーンを表す情報を記録媒体に記録する記録部と、
を備える撮像システム。 An imaging system for capturing moving image data,
An imaging unit that generates moving image data obtained by imaging a subject;
The image processing apparatus according to any one of claims 1 to 6 , wherein a feature scene is selected from moving image data captured by the imaging unit.
A recording unit that records information representing the feature scene selected by the image processing apparatus on a recording medium in association with moving image data captured by the imaging unit;
An imaging system comprising:
前記動画像データを解析して、前記動画像データが、予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定段階と、
前記動画像データから抽出される複数の特徴量のうち前記動画像データが属するカテゴリに対応付けられた特徴量に基づき、前記動画像データに含まれる特徴シーンを選択する選択段階と、
を備え、
前記動画像データが属するカテゴリに対応付けられた特徴量は、色である画像処理方法。 An image processing method for selecting a feature scene from input moving image data,
By analyzing the moving picture data, the moving image data, and category specific step of identifying whether belongs to the category of the multiple categories defined Me pre,
Based on the feature quantity the moving image data associated with the category to which belongs among the plurality of feature amounts extracted from the moving image data, a selecting step of selecting the feature scenes included in the moving image data,
Equipped with a,
An image processing method in which a feature amount associated with a category to which the moving image data belongs is a color .
当該プログラムは、前記コンピュータを、
前記動画像データを解析して、前記動画像データが、予め定められた複数のカテゴリのうち何れのカテゴリに属するかを特定するカテゴリ特定部と、
前記動画像データから抽出される複数の特徴量のうち前記動画像データが属するカテゴリに対応付けられた特徴量に基づき、前記動画像データに含まれる特徴シーンを選択する選択部と、
を備え、
前記動画像データが属するカテゴリに対応付けられた特徴量は、色である画像処理装置として機能させるプログラム。 A program for causing a computer to function as an image processing device that selects a feature scene from input moving image data,
The program causes the computer to
By analyzing the moving picture data, the moving image data, and a category specifying unit for specifying whether belongs to the category of the multiple categories defined Me pre,
Based on the feature quantity the moving image data associated with the category to which belongs among the plurality of feature amounts extracted from the moving image data, a selection unit for selecting a feature scenes included in the moving image data,
With
Feature quantity the moving image data associated with the category belongs, the program to function in an image processing apparatus to be color.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186026A JP5598159B2 (en) | 2010-08-23 | 2010-08-23 | Image processing apparatus, imaging system, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186026A JP5598159B2 (en) | 2010-08-23 | 2010-08-23 | Image processing apparatus, imaging system, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012043337A JP2012043337A (en) | 2012-03-01 |
JP5598159B2 true JP5598159B2 (en) | 2014-10-01 |
Family
ID=45899531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010186026A Active JP5598159B2 (en) | 2010-08-23 | 2010-08-23 | Image processing apparatus, imaging system, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5598159B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4546762B2 (en) * | 2004-05-20 | 2010-09-15 | 日本放送協会 | Video event discriminating learning data generating device and program thereof, and video event discriminating device and program thereof |
JP4893641B2 (en) * | 2007-02-19 | 2012-03-07 | 株式会社Jvcケンウッド | Digest generation apparatus and digest generation method |
JP2008252667A (en) * | 2007-03-30 | 2008-10-16 | Matsushita Electric Ind Co Ltd | System for detecting event in moving image |
US8358856B2 (en) * | 2008-06-02 | 2013-01-22 | Eastman Kodak Company | Semantic event detection for digital content records |
-
2010
- 2010-08-23 JP JP2010186026A patent/JP5598159B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012043337A (en) | 2012-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281712B2 (en) | System, apparatus, method, program and recording medium for processing image | |
US8583647B2 (en) | Data processing device for automatically classifying a plurality of images into predetermined categories | |
US8750681B2 (en) | Electronic apparatus, content recommendation method, and program therefor | |
US8135239B2 (en) | Display control apparatus, display control method, computer program, and recording medium | |
US20070195344A1 (en) | System, apparatus, method, program and recording medium for processing image | |
US20110243452A1 (en) | Electronic apparatus, image processing method, and program | |
WO2013031096A1 (en) | Image processing device, image processing method, program, integrated circuit | |
WO2011089884A1 (en) | Image sorting device, method, program, and integrated circuit and storage medium storing said program | |
WO2012017620A1 (en) | Image classification device, method, program, recording media with program thereon, and integrated circuit | |
JP4490214B2 (en) | Electronic album display system, electronic album display method, and electronic album display program | |
JP2006236218A (en) | Electronic album display system, electronic album display method, and electronic album display program | |
KR102102164B1 (en) | Method, apparatus and computer program for pre-processing video | |
JP2006079460A (en) | System, method and program for displaying electronic album and device, method, and program for classifying image | |
JP2006081021A (en) | Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program | |
JP2006081020A (en) | Electronic album display system, method, and program | |
US9854220B2 (en) | Information processing apparatus, program, and information processing method | |
US9224069B2 (en) | Program, method and apparatus for accumulating images that have associated text information | |
JP6793169B2 (en) | Thumbnail output device, thumbnail output method and thumbnail output program | |
JP5598159B2 (en) | Image processing apparatus, imaging system, image processing method, and program | |
JP5180052B2 (en) | Image evaluation apparatus and image evaluation program | |
JP4995770B2 (en) | Image dictionary generation device, image dictionary generation method, and image dictionary generation program | |
JP2005513675A (en) | Moving picture shape descriptor extracting apparatus and method showing statistical characteristics of still picture shape descriptor and moving picture index system using the same | |
US20160162752A1 (en) | Retrieval apparatus, retrieval method, and computer program product | |
Kennedy et al. | Learning crop regions for content-aware generation of thumbnail images | |
JP2014072620A (en) | Image processing program, image processing method, image processing apparatus, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130717 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140715 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5598159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |