JP2005277981A - 画像処理のための対象画像の選択 - Google Patents
画像処理のための対象画像の選択 Download PDFInfo
- Publication number
- JP2005277981A JP2005277981A JP2004090752A JP2004090752A JP2005277981A JP 2005277981 A JP2005277981 A JP 2005277981A JP 2004090752 A JP2004090752 A JP 2004090752A JP 2004090752 A JP2004090752 A JP 2004090752A JP 2005277981 A JP2005277981 A JP 2005277981A
- Authority
- JP
- Japan
- Prior art keywords
- image
- evaluation
- images
- evaluation value
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像の選択操作におけるユーザの好みを次回の画像の選択に適切に反映することのできる技術を提供する。
【解決手段】 各画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する。そして、この総合評価値に基づいて、画像群の中から複数の候補画像を選択して表示する。この候補画像の中からユーザによって処理対象画像が選択されると、選択された処理対象画像における複数の評価項目の評価値に基づいて、ユーザによる選択と各評価項目との相関度を求める。そして、相関度が高い評価項目に対する重みを増大させる。
【選択図】 図7
Description
この発明は、動画や静止画の処理のために対象画像を選択する技術に関する。
動画を処理するための技術として、下記の特許文献1に記載されたものが知られている。この従来技術では、対象となる映像から数値データを抽出し、この数値データに基づいて各シーンの重要度を決定する。そして、需要度が閾値以上の部分から要約を作成する。
しかし、従来の方法では、必ずしも画像の選択操作におけるユーザの好みを、次回の画像の選択に適切に反映することができない場合があった。このような問題は、動画の処理する場合に限らず、一般に複数の画像群から、処理対象とすべき適切な画像を選択するための場合に共通する問題であった。
本発明は、画像の選択操作におけるユーザの好みを次回の画像の選択に適切に反映することのできる技術を提供することを目的とする。
上記目的を達成するために、本発明による画像処理装置は、
所定の処理の対象となるべき処理対象画像の候補として、与えられた画像群の中から複数の候補画像を選択する候補画像選択部と、
前記複数の候補画像を表示部に表示させるとともに、前記複数の候補画像の中からユーザによって選択された処理対象画像を認識するユーザインタフェース部と、
を備え、
前記候補画像選択部は、
前記画像群の画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、前記複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する評価値算出部と、
前記総合評価値に基づいて、前記画像群の中から前記複数の候補画像を選択する選択実行部と、
前記処理対象画像として選択された候補画像における前記複数の評価項目の評価値に基づいて前記ユーザによる選択と各評価項目との相関度を求め、前記相関度が高い評価項目に対する前記重みを増大させる重み調整部と、を備える。
所定の処理の対象となるべき処理対象画像の候補として、与えられた画像群の中から複数の候補画像を選択する候補画像選択部と、
前記複数の候補画像を表示部に表示させるとともに、前記複数の候補画像の中からユーザによって選択された処理対象画像を認識するユーザインタフェース部と、
を備え、
前記候補画像選択部は、
前記画像群の画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、前記複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する評価値算出部と、
前記総合評価値に基づいて、前記画像群の中から前記複数の候補画像を選択する選択実行部と、
前記処理対象画像として選択された候補画像における前記複数の評価項目の評価値に基づいて前記ユーザによる選択と各評価項目との相関度を求め、前記相関度が高い評価項目に対する前記重みを増大させる重み調整部と、を備える。
この画像処理装置によれば、ユーザによる選択との相関度が高い評価項目に対する重みを増大させるので、次の選択を行う際に、ユーザの好みを適切に反映することができる。
なお、前記重み調整部は、前記相関度が最も高い評価項目に対する前記重みを増大させるとともに、前記相関度が最も低い評価項目に対する前記重みを減少させるようにしてもよい。
また、前記重み調整部は、
ユーザによって複数の処理対象画像が選択されたときに、前記複数の処理対象画像における前記複数の評価項目の評価値に関する主成分分析を行って第1主成分を求め、前記第1主成分に対する固有ベクトルの成分を前記相関度として用いて前記重みの調整を行うようにしてもよい。
ユーザによって複数の処理対象画像が選択されたときに、前記複数の処理対象画像における前記複数の評価項目の評価値に関する主成分分析を行って第1主成分を求め、前記第1主成分に対する固有ベクトルの成分を前記相関度として用いて前記重みの調整を行うようにしてもよい。
この構成によれば、各評価項目の相関度を定量的に容易に決定できるので、重みを適切に調整することが可能である。
前記ユーザインタフェース部は、
前記複数の候補画像を、前記総合評価値に応じた位置関係で表示するようにしてもよい。
前記複数の候補画像を、前記総合評価値に応じた位置関係で表示するようにしてもよい。
この構成によれば、ユーザが複数の候補画像の中から好ましい処理対象画像を容易に選択することが可能である。
前記画像群は動画を構成するフレーム画像群であり、
前記複数の候補画像は、前記動画を複数のシーン区画に区分したときの各シーン区画を代表する代表画像であり、
各代表画像に対する各評価項目の評価値は、各代表画像に対応するシーン区画を代表する評価値であるものとしてもよい。
前記複数の候補画像は、前記動画を複数のシーン区画に区分したときの各シーン区画を代表する代表画像であり、
各代表画像に対する各評価項目の評価値は、各代表画像に対応するシーン区画を代表する評価値であるものとしてもよい。
この構成によれば、動画の中から好ましいシーン区画を選択する操作をサポートすることができる。
前記画像処理装置は、さらに、
前記処理対象画像として選択された代表画像に対応するシーン区画を主とするダイジェスト動画を作成する処理を前記所定の処理として実行するダイジェスト動画作成部を備えるようにしてもよい。
前記処理対象画像として選択された代表画像に対応するシーン区画を主とするダイジェスト動画を作成する処理を前記所定の処理として実行するダイジェスト動画作成部を備えるようにしてもよい。
この構成によれば、ダイジェストの作成時にユーザの好みを適切に反映することができる。
なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および装置、動画編集方法および装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。
次に、本発明の実施の形態を以下の順序で説明する。
A.実施例:
B.変形例:
A.実施例:
B.変形例:
A.実施例:
図1は、本発明の一実施例としての画像処理システムを示す説明図である。この画像処理システムは、デジタルビデオカメラ100とコンピュータ200とを備えている。コンピュータ200は、動画の編集処理を実行する画像編集部300を備えている。画像編集部300は、ビデオカメラ100で撮影された動画を対象として、種々の編集処理を行うことができる。後述するように、本実施例では、動画のダイジェストを作成する処理が実行される。
図1は、本発明の一実施例としての画像処理システムを示す説明図である。この画像処理システムは、デジタルビデオカメラ100とコンピュータ200とを備えている。コンピュータ200は、動画の編集処理を実行する画像編集部300を備えている。画像編集部300は、ビデオカメラ100で撮影された動画を対象として、種々の編集処理を行うことができる。後述するように、本実施例では、動画のダイジェストを作成する処理が実行される。
図2は、画像編集部300の内部構成を示すブロック図である。画像編集部300は、シーン分割部310と、評価値計算部320と、候補選択部330と、UI処理部340と、統計処理部(重み調整部)350と、動画編集部360と、データ格納部370と、を有している。これらの各部の機能については後述する。シーン分割部310から動画編集部360までの各部の機能は、コンピュータ200が図示しないCPU(プロセッサ)とメモリとを用いてコンピュータプログラムを実行することによって実現される。
図3は、実施例における処理手順を示すフローチャートである。ステップS100では、ユーザによって処理対象の動画(入力動画)が選択され、そのダイジェストの作成が指示される。ステップS110では、シーン分割部310がその動画を複数の分割シーンに区分する。ここで、「分割シーン」とは、動画の中の連続した1期間を意味しており、以下では「シーン区画」または単に「シーン」とも呼ぶ。なお、動画は複数のフレーム画像で構成されており、1つの分割シーンにも複数のフレーム画像が含まれている。以下ではフレーム画像を単に「フレーム」とも呼ぶ。
シーンの分割は、種々の方法で行うことが可能である。例えば、時間的な長さによってシーンを分割するようにしてもよい。あるいは、所定の項目(輝度または色のヒストグラム、フレーム間の輝度または色の差、音声など)に関する指標値が大きく変化するところを分割シーンの境界とすることも可能である。
ステップS120では、評価値計算部320が、動画中の各フレームに関する評価値を算出する。図4は、評価値算出の対象となる評価項目と、重み付け係数の例を示している。この例のように、評価項目としては多数のものを利用可能であるが、本実施例では、図5に示す「色の分散」と「エッジ強度」と「明度の分散」の3つの評価項目のみを使用する例について説明する。これらの3つの評価項目に関する評価値は、例えば以下のように算出される。
(1)色の分散に関するフレーム評価値EF1の算出:
色の分散に関するフレーム評価値EF1は、フレーム画像内の色の分散が大きいほど高くなるように設定される。この評価値EF1の計算の際には、まず、各フレーム画像内の全画素について、色相に関連する色成分毎にヒストグラムが作成される。例えば、フレーム画像がRGB表色系で表されているときには、R,G,Bの3つの成分についてヒストグラムが作成される。また、フレーム画像がYCrCb表色系で表されているときには、色差成分Cr,Cbについてヒストグラムが算出される。そして、これらのヒストグラムから、各色成分についての統計的な分散を算出する。色の分散に関するフレーム評価値EF1は、この分散が大きいほど高くなるように設定される。図6(A)は、色の分散と評価値EF1との関係の一例を示している。この例では、色成分の分散が所定の値V1に達するまでは評価値EF1が0から直線的に増加しており、色成分の分散がこの値V1以上のときには所定の最大値EF1max に維持される。最大値EF1max が設定されている理由は、他の評価値に比べて色の分散のフレーム評価値EF1が過大になることを防止するためである。但し、最大値EF1max を設けないようにしてもよい。図6(B)は、色の分散と評価値EF1との関係の他の例を示している。この例では、色成分の分散が所定の値V0に達するまでは評価値EF1が0に保たれており、色成分の分散が値V0からV1の間では評価値EF1が0から最大値EF1max まで直線的に増加する。図6(A),6(B)の例のように、色の分散に関する評価値EF1を、フレーム画像内の色の分散の増大に伴って増加するように設定すれば、フレーム画像内の色の分布状態を客観的に示す評価値を得ることができる。
色の分散に関するフレーム評価値EF1は、フレーム画像内の色の分散が大きいほど高くなるように設定される。この評価値EF1の計算の際には、まず、各フレーム画像内の全画素について、色相に関連する色成分毎にヒストグラムが作成される。例えば、フレーム画像がRGB表色系で表されているときには、R,G,Bの3つの成分についてヒストグラムが作成される。また、フレーム画像がYCrCb表色系で表されているときには、色差成分Cr,Cbについてヒストグラムが算出される。そして、これらのヒストグラムから、各色成分についての統計的な分散を算出する。色の分散に関するフレーム評価値EF1は、この分散が大きいほど高くなるように設定される。図6(A)は、色の分散と評価値EF1との関係の一例を示している。この例では、色成分の分散が所定の値V1に達するまでは評価値EF1が0から直線的に増加しており、色成分の分散がこの値V1以上のときには所定の最大値EF1max に維持される。最大値EF1max が設定されている理由は、他の評価値に比べて色の分散のフレーム評価値EF1が過大になることを防止するためである。但し、最大値EF1max を設けないようにしてもよい。図6(B)は、色の分散と評価値EF1との関係の他の例を示している。この例では、色成分の分散が所定の値V0に達するまでは評価値EF1が0に保たれており、色成分の分散が値V0からV1の間では評価値EF1が0から最大値EF1max まで直線的に増加する。図6(A),6(B)の例のように、色の分散に関する評価値EF1を、フレーム画像内の色の分散の増大に伴って増加するように設定すれば、フレーム画像内の色の分布状態を客観的に示す評価値を得ることができる。
(2)エッジ強度に関するフレーム評価値EF2の算出:
エッジ強度に関するフレーム評価値EF2は、フレーム画像内に、より強いエッジが多いほど高くなるように設定される。この評価値EF2の計算の際には、まず、各フレーム画像内の全画素についてエッジ強度が算出される。エッジ強度としては、例えば各画素の輝度値にラプラシアンフィルタを適用して得られた結果の絶対値を採用することができる。フレーム画像がRGB表色系で表されているときには、G成分を用いてエッジ強度が算出される。また、フレーム画像がYCrCb表色系で表されているときには、輝度成分Yを用いてエッジ強度が算出される。次に、各画素のエッジ強度が大きいほど高くなるようなエッジ強度ポイントを各画素ごとに計算する。例えば、エッジ強度そのものをエッジ強度ポイントとして使用してもよく、あるいは、エッジ強度の関数としてエッジ強度ポイントを算出してもよい。そして、フレーム画像内のエッジ強度ポイントの合計値を次の(1)式に従って算出する。
エッジ強度に関するフレーム評価値EF2は、フレーム画像内に、より強いエッジが多いほど高くなるように設定される。この評価値EF2の計算の際には、まず、各フレーム画像内の全画素についてエッジ強度が算出される。エッジ強度としては、例えば各画素の輝度値にラプラシアンフィルタを適用して得られた結果の絶対値を採用することができる。フレーム画像がRGB表色系で表されているときには、G成分を用いてエッジ強度が算出される。また、フレーム画像がYCrCb表色系で表されているときには、輝度成分Yを用いてエッジ強度が算出される。次に、各画素のエッジ強度が大きいほど高くなるようなエッジ強度ポイントを各画素ごとに計算する。例えば、エッジ強度そのものをエッジ強度ポイントとして使用してもよく、あるいは、エッジ強度の関数としてエッジ強度ポイントを算出してもよい。そして、フレーム画像内のエッジ強度ポイントの合計値を次の(1)式に従って算出する。
この式において、エッジ強度ポイントE(x,y)は、フレーム画像内の画素位置(x,y)の画素値にラプラシアンフィルタを適用した結果の絶対値である。また、係数Cは、位置(x,y)におけるエッジ強度E(x,y)に応じて決定される重み付け係数である。この係数Cは、エッジ強度が強いほど大きくなるように設定することが好ましい。たとえば、線形増加関数や、対数関数を用いて係数Cを算出することができる。あるいは、C=1一定としても良い。そして、このエッジ強度ポイント合計値に応じてエッジ強度に関するフレーム評価値EF2が算出される。図6(C)は、エッジ強度ポイント合計値と評価値EF2との関係の一例を示している。この例では、エッジ強度ポイント合計値が所定の値G0に達するまでは評価値EF2が0に保たれており、エッジ強度ポイント合計値が値G0からG1の間で評価値EF2が0から最大値EF2max まで直線的に増加する。但し、図6(A)と同様のグラフを利用することも可能である。このように、エッジ強度に関するフレーム評価値EF2を、フレーム画像内のエッジ強度の合計値の増加に伴って増加するように設定すれば、フレーム画像内のエッジ強度を客観的に示す評価値を得ることができる。
(3)明度の分散に関するフレーム評価値EF3の算出:
明度の分散に関するフレーム評価値EF3は、フレーム画像内に、明るい画素から暗い画素までさまざまな明るさが存在しているほど、より高くなるように設定される。本実施例では、この評価値EF3の計算にYCbCr表色系の輝度値Yを使用する。まず、各フレーム画像内の全画素について、輝度値のヒストグラムが作成される。そして、このヒストグラムから、輝度値Yについての統計的な分散が算出される。この分散を「輝度の分散」または「明度の分散」と呼ぶ。明るさに関するフレーム評価値EF3は、この明度の分散が大きいほど高くなるように設定される。明度の分散と評価値EF3の関係は、色の分散と評価値EF1の関係と同様に設定することができる(例えば図6(A),(B))。
明度の分散に関するフレーム評価値EF3は、フレーム画像内に、明るい画素から暗い画素までさまざまな明るさが存在しているほど、より高くなるように設定される。本実施例では、この評価値EF3の計算にYCbCr表色系の輝度値Yを使用する。まず、各フレーム画像内の全画素について、輝度値のヒストグラムが作成される。そして、このヒストグラムから、輝度値Yについての統計的な分散が算出される。この分散を「輝度の分散」または「明度の分散」と呼ぶ。明るさに関するフレーム評価値EF3は、この明度の分散が大きいほど高くなるように設定される。明度の分散と評価値EF3の関係は、色の分散と評価値EF1の関係と同様に設定することができる(例えば図6(A),(B))。
なお、上述したヒストグラムやエッジ強度の計算時において、各フレーム画像内の全画素を用いる代わりに、ある程度のサンプリング間隔で選択された複数の画素のみを用いても良い。また、ヒストグラムを作成するときには、値を複数の範囲に区分してその範囲て画素をグルーピングし、各グループ毎に頻度を求めてもよい。例えば赤色成分Rが0〜255の値を取り得るときに、この範囲を0〜5,6〜9,10〜15,…,240〜255の16個のグループに区分し、各グループにそれぞれに属する画素数の合計値を求めてもよい。このとき、閾値よりも画素数が少ないグループは、分散計算時の母集団から除外することも可能である。
ステップS120では、さらに、以下の(2)式に従って各フレーム画像のフレーム総合評価値EFsum(i)が算出される。
図5に示したように、各評価項目の重み付け係数kn の初期値(調整前の値)は1.0に設定されている。後述するように、ユーザによる選択操作が行われると、その選択操作に応じて各重み付け係数kn の値が調整される。ステップS120では、調整前の重み付け係数k1〜k3の値が使用されると仮定する。
こうして、各フレーム画像の総合評価値EFsum が算出されると、図3のステップS130において、評価値計算部320が、次の(3)式に従って各分割シーンの総合評価値ES(m)を算出する。
図7(A),(B)は、分割シーンの区分と分割シーン総合評価値ESの例を示している。この例では、動画が5つの分割シーンに区分されている。図7(A)は、3つの評価項目のフレーム評価値の変化を示している。但し、ここでは各フレーム評価値EF1〜EF3に重み付け係数k1〜k3を乗じた値が使用されている。従って、分割シーン総合評価値ESは、図7(A)に示す値EF1・k1,EF2・k2,EF3・k3を各分割シーン内で累算し、その累算値をフレーム画像枚数Nで除した値に相当する。図7(B)に示すように、分割シーン総合評価値ESは、分割シーン1で最も高く、分割シーン3で最も低い。
図3のステップS140では、候補選択部330が、分割シーン総合評価値ESに基づいて、処理対象の候補(「出力候補」とも呼ぶ)となる分割シーンを決定し、UI処理部340がその結果を表示部に表示する。
図8は、シーン選択用ウィンドウの一例を示している。このウィンドウは、複数の分割シーンの代表画像RG1〜RG5を表示するための代表画像表示領域RDAを有している。代表画像RG1〜RG5としては、例えば、各分割シーン中で最もフレーム評価値が高いフレーム画像のサムネール画像を利用することができる。あるいは、各分割シーンの所定の位置(最初または中央)のフレーム画像のサムネール画像を代表画像として利用することも可能である。代表画像表示領域RDAの横軸は、時間を示している。この例では、各代表画像RG1〜RG5のフレーム画像のタイムスタンプに応じて、各代表画像の横方向位置が決定されている。但し、各分割シーンの代表画像を均等の間隔で配置し、時間表示をそれに合致させるように表示しても良い。代表画像表示領域RDAの縦軸は、分割シーン総合評価値ESを示している。すなわち、図7(B)に示した分割シーン総合評価値ESに応じて各代表画像RG1〜RG5の上下方向位置が決定されている。
なお、ユーザが1つの代表画像をマウスMSでクリックして選択すると、選択された代表画像が破線で囲まれて他の代表画像と区別される。また、ユーザが1つの代表画像をダブルクリックすると、その分割シーンの内容が別ウィンドウで再生表示される。この再生表示機能を利用すると、ダイジェスト作成処理を開始する前に、分割シーンの内容を確認することができる。
代表画像表示領域RDAの中央付近には、しきい値表示線THLが視認可能に表示されている。このしきい値表示線THLは、分割シーン総合評価値ESの所定のしきい値に対応する位置に表示される。このしきい値表示線THLよりも代表画像の下端が上にあるときには、その代表画像が太線で囲まれて出力候補(ダイジェクトの候補)であることが示される。また、その代表画像で代表される分割シーンがこの動画のダイジェストとして使用される。例えば、図8の例では、第1と第5の分割シーンがダイジェストとして使用される。換言すれば、この代表画像表示領域RDAには、2つの代表画像RG1,RG5が、ダイジェストを構成する分割シーンの候補として表示されていることになる。あるいは、全ての代表画像RG1〜RG5が候補として表示されており、各候補がその評価値に応じた位置関係で表示されていると考えることも可能である。ユーザは、各代表画像の上下位置を変更して、ダイジェストを構成する分割シーンを変更することができる。
なお、しきい値表示線THLに対応するしきい値としては、すべての分割シーン1〜5に関する分割シーン総合評価値ESの平均値を利用することも可能である。あるいは、動画の短縮時間(ダイジェストの時間)をユーザが指定できる場合には、ダイジェストの時間がその指定時間に近くなるように、しきい値を設定するようにしてもよい。具体的には、例えば、1つの分割シーンが30秒であり、ダイジェストの時間が1分間である場合を考える。この場合には、分割シーン総合評価値ESが最も大きな2つの分割シーンに対応する代表画像のみがしきい値表示線THLの上に配置されるように、しきい値を設定することができる。
図3のステップS150,S160では、ユーザが代表画像の上下方向位置を変更することによって、ダイジェストを構成する分割シーン(すなわち出力候補)を変更する。図9は、この操作の一例を示している。ここでは、第1の分割シーンの代表画像RG1がしきい値表示線THLよりも下の位置に移動し、第2と第4の分割シーンの代表画像RG2,RG4がしきい値表示線THLよりも上の位置に移動している。この結果、第2と第4と第5の分割シーンがダイジェストの構成要素として選択されていることになる。
ユーザによる選択操作が終了すると、ステップS170において、動画編集部360がダイジェストを作成する。図10(A)は動画全体を示し、図10(B)はダイジェストを示している。ここでは、図9において選択されていた3つの分割シーン2,4,5によってダイジェストが構成されている。なお、ダイジェスト作成の際には、各分割シーンに含まれるフレーム画像のうちの一部を削除して、ダイジェスト全体を短縮するようにしてもよい。
図3のステップ180では、統計処理部350が、ステップS150,S160におけるユーザの選択操作の結果を利用して、各評価項目の重み付け係数を調整する。このステップでは、複数の評価項目の重み付け係数の中で、処理対象として選択された分割シーンとの相関度が高い評価項目の重み付け係数が相対的に大きくなるように、各重み付け係数が調整される。
図11は、ステップS180の詳細工程を示すフローチャートである。ここでは、統計処理の一種である主成分分析を行って、どの評価項目が、ユーザによって選択された分割シーン2,4,5により密接に関係しているかを分析する。まず、ステップS200では、分割シーン2,4,5内に含まれる多数のフレーム画像に関するフレーム評価値EF1,EF2,EF3から、次の(4)式に示す分散共分散行列を作成する。
S11:フレーム評価値EF1の分散、
S22:フレーム評価値EF2の分散、
S33:フレーム評価値EF3の分散、
S12, S21:フレーム評価値EF1,EF2の共分散、
S13, S31:フレーム評価値EF1,EF3の共分散、
S23, S32:フレーム評価値EF2,EF3の共分散、
a1,a2,a3:固有ベクトルの成分、
λ:固有値。
ステップS210では、上記(4)式を解いて固有値λを求める。(4)式は3変量の式なので、3つの固有値λが得られる。次の(5)式は、図7(A)の例を適用して得られた分散共分散式と、これを解いて得られた固有値λを示している。
固有値の最大値λ1は、いわゆる第1主成分に対する固有値である。
ステップS220では、第1主成分の固有ベクトル(a1,a2,a3)が算出される。固有ベクトル(a1,a2,a3)は、次の(6)式を解くことによって得ることができる。
この(6)式に上記(5)式の値を代入して解くと、固有ベクトル(a1,a2,a3)の成分として以下の値が得られる。
a1=−0.466,
a2=+0.748,
a3=−0.472
a1=−0.466,
a2=+0.748,
a3=−0.472
この固有ベクトルの3つの成分a1,a2,a3は、3つの評価項目にそれぞれ対応している。また、これらの成分は、a1,a2,a3は、各評価項目が、ユーザによる選択操作にどの程度の影響を与えているかを表している。上記の例では、第2の評価項目(エッジ強度)に対する固有ベクトル成分a2の値が最も大きいので、この評価項目に関するフレーム評価値EF2が、ユーザによる選択操作に最も大きな影響を与えていたことが分かる。また、第1と第3の評価項目(色の分散および明度の分散)の影響は少ない。すなわち、固有ベクトルの成分a1,a2,a3は、ユーザによる選択操作に対する各評価項目の相対的な影響度を示す指標値としての意味を有している。また、これらの成分a1,a2,a3は、ユーザによる選択操作との相関度を示す指標値であると考えることも可能である。
ステップS230では、こうして得られた固有ベクトル(a1,a2,a3)に基づいて、各評価項目の重み付け係数kn を調整する。すなわち、固有ベクトルの成分a1,a2,a3の中で、より大きな値を有する成分に対応する評価項目の重みを相対的に増大させ、一方、より小さな値を有する成分に対応する評価項目の重みを相対的に減少させる。このような重みの調整は、例えば次の(7)式に従って行われる。
この(7)式は、n番目の評価項目の重み付け係数kn に対する固有ベクトルの成分anと最小値Min(a)との差を、最大値Max(a)と最小値Min(a)との差で正規化したものである。定数bは、調整後の重み付け係数kn が0にならないようにするためのものである。なお、定数bは、例えば1以下の値に設定される。定数bを0.1に設定したとき、3つの評価項目に対する重み付け係数k1〜k3は、以下の(8a)〜(8c)式のように得られる。
この結果から理解できるように、上記(7)式による調整では、固有ベクトル成分の最大値Max(a)に対応する評価項目の重み付け係数は同じ値に維持され、それ以外の固有ベクトル成分に対応する評価項目の重み付け係数はより小さい値に設定される。この結果、ユーザによる選択操作に相関度の高い評価項目の重みが相対的に大きくなっていることが理解できる。この例からも理解できるように、本明細書において「重みを増大する」という用語は、その重み付け係数を大きくすることを直接的には意味しておらず、他の重み付け係数と比較して相対的に大きくすることを意味している。
なお、重みの調整は、(7)式以外の種々の式を用いて行うことが可能である。例えば、固有ベクトル成分の最大値Max(a)に対応する評価項目の重み付け係数を増大させ、それ以外の固有ベクトル成分に対応する評価項目の重み付け係数を減少させるような式を用いてもよい。具体的には、例えば上記(8a)〜(8c)式で得られた重み付け係数k1〜k3の平均値が1.0になるように規格化すると、修正後の係数はk1=0.26,k2=2.49,k3=0.25となる。これらの修正後の係数を用いるようにしてもよい。但し、本実施例では、上記(8a)〜(8c)式で得られた重み付け係数k1〜k3をそのまま使用している。
こうして重み付け係数が調整されると、図3のステップS190において、統計処理部350が、調整後の重み付け係数をデータ格納部370に保存する。これらの重み付け係数は、ユーザが次に動画のダイジェスト作成を行う際に利用される。
図12は、調整後の重み付け係数を用いて図7に示した各種の評価値を再計算した例を示している。図12(A)に示すように、ユーザによって選択された分割シーン2,4,5において、エッジ強度に関する値EF2・k2が相対的に大きくなっていることが理解できる。また、図12(B)に示すように、調整後の重み付け係数を使用すると、分割シーン2,4,5の分割シーン総合評価値ESが比較的大きくなるので、図3のステップS130において、これらの3つの分割シーン2,4,5が最初からダイジェストの候補として表示されることが理解できる。但し、調整後の重み付け係数が使用されるのは、ユーザが次にダイジェスト作成処理を行うときであり、図12は、図7と同じ動画に対して再度ダイジェスト作成処理を行うと仮定したときの仮想的な図である。このように、調整後の重み付け係数は、次のダイジェスト作成処理の際に利用されるので、ステップS120,S130において、ユーザの好みを反映した適切な候補を表示することができる。この結果、処理対象の選択時におけるユーザーの操作を軽減することが可能である。
B.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
B1.変形例1:
上記実施例では、デジタルビデオカメラ100から供給されてコンピュータ200に格納された動画を対象として処理を行っていたが、処理対象の動画としては種々のものを利用することができる。例えば、放送によって配信された動画からダイジェストを作成する場合にも適用することができる。
上記実施例では、デジタルビデオカメラ100から供給されてコンピュータ200に格納された動画を対象として処理を行っていたが、処理対象の動画としては種々のものを利用することができる。例えば、放送によって配信された動画からダイジェストを作成する場合にも適用することができる。
また、ビデオ配信用のサーバに対してユーザがダイジェスト作成処理を要求する際に本発明を適用することも可能である。この時には、動画自体は、ネットワークを介してコンピュータ200に接続されているサーバに格納されている。そして、コンピュータ200上でユーザが図9に示すようなウィンドウ上で選択操作を行うと、サーバ側で動画のダイジェストを作成してコンピュータ200に配信する。この場合に、図2に示す各部の一部(例えば評価値計算部320と統計処理部350と動画編集部360)はサーバ側に設けるようにしてもよい。
B2.変形例2:
上記実施例では、画像処理の対象として動画を使用していたが、静止画を処理対象とすることも可能である。この場合には、複数の静止画の中から次の所定の画像処理(例えばアルバムへの貼り込みや印刷)などに使用する一部の複数の静止画を選択する際に本発明を適用することができる。
上記実施例では、画像処理の対象として動画を使用していたが、静止画を処理対象とすることも可能である。この場合には、複数の静止画の中から次の所定の画像処理(例えばアルバムへの貼り込みや印刷)などに使用する一部の複数の静止画を選択する際に本発明を適用することができる。
なお、処理対象として1つのフレーム画像または1つの静止画のみがユーザによって選択される場合もある。この場合には、例えば、選択された1つの画像において評価値の高い評価項目の重みを相対的に大きくするように重みを調整することができる。また、1回に1つの画像を選択する操作が複数回繰り返されたときには、複数回の選択において選択された複数の画像における各評価項目の評価値を用いて上記実施例と同様な主成分分析を行い、複数の評価項目の重みを調整することも可能である。
なお、1回に1つの画像を選択する場合にも、また、1回に複数の画像を選択する場合にも、最近に選択されたM個(Mは2以上の所定の整数)の画像における各評価項目の評価値を用いて、複数の評価項目の重みを調整するようにしてもよい。この構成によれば、常に最新のユーザ選択操作に適合して、次の機会における画像の選択をサポートすることが可能である。
B3.変形例3:
上記実施例では、主成分分析を用いてユーザの選択操作と評価項目との相関度を求めていたが、他の方法を用いて相関度を求めることも可能である。例えば、ユーザによって選択された画像において最も高い評価値を有する評価項目の相関度を所定の高い値(例えば1)とし、他の評価項目の相関度を所定の低い値(例えば0.5)と設定することも可能である。
上記実施例では、主成分分析を用いてユーザの選択操作と評価項目との相関度を求めていたが、他の方法を用いて相関度を求めることも可能である。例えば、ユーザによって選択された画像において最も高い評価値を有する評価項目の相関度を所定の高い値(例えば1)とし、他の評価項目の相関度を所定の低い値(例えば0.5)と設定することも可能である。
また、上記実施例では、すべての評価項目の重みを調整していたが、ユーザによる選択操作と最も相関度の高い評価項目の重みを少なくとも高くするようにすれば良く、他の評価項目については重みを再調整する必要は無い。但し、少なくとも最も相関度の高い評価項目の重みを高くするとともに、最も相関度の低い評価項目の重みを低くするように調整することが好ましい。
あるいは、相関度が所定の中間的な範囲内にある評価項目については重みの調整を行わず、相関度がこの範囲よりも高い評価項目の重みを高くするとともに、相関度がこの範囲よりも低い評価項目の重みは低くするようにしてもよい。
B4.変形例4:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、画像編集部300(図2)の機能の一部をハードウェア回路で実行することも可能である。
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、画像編集部300(図2)の機能の一部をハードウェア回路で実行することも可能である。
100…デジタルビデオカメラ
200…コンピュータ
300…画像編集部
310…シーン分割部
320…評価値計算部
330…候補選択部
340…UI処理部
350…統計処理部(重み調整部)
360…動画編集部
370…データ格納部
200…コンピュータ
300…画像編集部
310…シーン分割部
320…評価値計算部
330…候補選択部
340…UI処理部
350…統計処理部(重み調整部)
360…動画編集部
370…データ格納部
Claims (8)
- 画像処理装置であって、
所定の処理の対象となるべき処理対象画像の候補として、与えられた画像群の中から複数の候補画像を選択する候補画像選択部と、
前記複数の候補画像を表示部に表示させるとともに、前記複数の候補画像の中からユーザによって選択された処理対象画像を認識するユーザインタフェース部と、
を備え、
前記候補画像選択部は、
前記画像群の画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、前記複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する評価値算出部と、
前記総合評価値に基づいて、前記画像群の中から前記複数の候補画像を選択する選択実行部と、
前記処理対象画像として選択された候補画像における前記複数の評価項目の評価値に基づいて前記ユーザによる選択と各評価項目との相関度を求め、前記相関度が高い評価項目に対する前記重みを増大させる重み調整部と、
を備えることを特徴とする画像処理装置。 - 請求項1記載の画像処理装置であって、
前記重み調整部は、前記相関度が最も高い評価項目に対する前記重みを増大させるとともに、前記相関度が最も低い評価項目に対する前記重みを減少させる、画像処理装置。 - 請求項1又は2記載の画像処理装置であって、
前記重み調整部は、
ユーザによって複数の処理対象画像が選択されたときに、前記複数の処理対象画像における前記複数の評価項目の評価値に関する主成分分析を行って第1主成分を求め、前記第1主成分に対する固有ベクトルの成分を前記相関度として用いて前記重みの調整を行う、画像処理装置。 - 請求項1ないし3のいずれかに記載の画像処理装置であって、
前記ユーザインタフェース部は、
前記複数の候補画像を、前記総合評価値に応じた位置関係で表示する、画像処理装置。 - 請求項1ないし4のいずれかに記載の画像処理装置であって、
前記画像群は動画を構成するフレーム画像群であり、
前記複数の候補画像は、前記動画を複数のシーン区画に区分したときの各シーン区画を代表する代表画像であり、
各代表画像に対する各評価項目の評価値は、各代表画像に対応するシーン区画を代表する評価値である、画像処理装置。 - 請求項5記載の画像処理装置であって、さらに、
前記処理対象画像として選択された代表画像に対応するシーン区画を主とするダイジェスト動画を作成する処理を前記所定の処理として実行するダイジェスト動画作成部を備える、画像処理装置。 - 画像処理方法であって、
(a)所定の処理の対象となるべき処理対象画像の候補として、与えられた画像群の中から複数の候補画像を選択する工程と、
(b)前記複数の候補画像を表示部に表示させるとともに、前記複数の候補画像の中からユーザによって選択された処理対象画像を認識する工程と、
を備え、
前記工程(a)は、
(i)前記画像群の画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、前記複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する工程と、
(ii)前記総合評価値に基づいて、前記画像群の中から前記複数の候補画像を選択する工程と、を含み、
前記方法は、さらに、
(c)前記処理対象画像として選択された候補画像における前記複数の評価項目の評価値に基づいて前記ユーザによる選択と各評価項目との相関度を求め、前記相関度が高い評価項目に対する前記重みを増大させる工程、を備えることを特徴とする画像処理方法。 - 画像処理のためのプログラムであって、
所定の処理の対象となるべき処理対象画像の候補として、与えられた画像群の中から複数の候補画像を選択する候補画像選択機能と、
前記複数の候補画像を表示部に表示させるとともに、前記複数の候補画像の中からユーザによって選択された処理対象画像を認識するユーザインタフェース機能と、
をコンピュータに実現させるプログラムを備え、
前記候補画像選択機能は、
前記画像群の画像に関して、所定の複数の評価項目の評価値をそれぞれ計算するとともに、前記複数の評価値のそれぞれに重みを乗じて総合した総合評価値を算出する評価値算出機能と、
前記総合評価値に基づいて、前記画像群の中から前記複数の候補画像を選択する選択実行機能と、
前記処理対象画像として選択された候補画像における前記複数の評価項目の評価値に基づいて前記ユーザによる選択と各評価項目との相関度を求め、前記相関度が高い評価項目に対する前記重みを増大させる重み調整機能と、
を備えることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004090752A JP2005277981A (ja) | 2004-03-26 | 2004-03-26 | 画像処理のための対象画像の選択 |
US11/084,390 US7711210B2 (en) | 2004-03-26 | 2005-03-17 | Selection of images for image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004090752A JP2005277981A (ja) | 2004-03-26 | 2004-03-26 | 画像処理のための対象画像の選択 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005277981A true JP2005277981A (ja) | 2005-10-06 |
Family
ID=35097397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004090752A Pending JP2005277981A (ja) | 2004-03-26 | 2004-03-26 | 画像処理のための対象画像の選択 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7711210B2 (ja) |
JP (1) | JP2005277981A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046738A (ja) * | 2006-08-11 | 2008-02-28 | Softbank Mobile Corp | 生活記録作成システムおよびその制御方法 |
JP2009536490A (ja) * | 2006-05-05 | 2009-10-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ユーザの関連フィードバックによりビデオのサマリを更新する方法 |
JP2010087971A (ja) * | 2008-10-01 | 2010-04-15 | Olympus Corp | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
JP2010119097A (ja) * | 2008-10-16 | 2010-05-27 | Nikon Corp | 画像評価装置及びカメラ |
JPWO2009037856A1 (ja) * | 2007-09-19 | 2011-01-06 | パナソニック株式会社 | 記録装置 |
JP2011030159A (ja) * | 2009-07-29 | 2011-02-10 | Sony Corp | 画像編集装置、画像編集方法及びプログラム |
JP2012195811A (ja) * | 2011-03-17 | 2012-10-11 | Fujitsu Ltd | ダイジェスト映像生成装置およびプログラム |
JP2012222672A (ja) * | 2011-04-12 | 2012-11-12 | Nikon Corp | 撮像装置及びプログラム |
JP2014016819A (ja) * | 2012-07-09 | 2014-01-30 | Canon Inc | 情報処理装置及びその制御方法及びプログラム並びに記憶媒体 |
JP2015126510A (ja) * | 2013-12-27 | 2015-07-06 | 富士ゼロックス株式会社 | 代表フレーム選定システム、代表フレーム選定プログラム |
JP2019170180A (ja) * | 2018-03-27 | 2019-10-10 | 東京電力ホールディングス株式会社 | ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101116682B1 (ko) * | 2007-03-29 | 2012-03-07 | 삼성전자주식회사 | 화상형성장치 및 그 제어방법 |
US7843454B1 (en) * | 2007-04-25 | 2010-11-30 | Adobe Systems Incorporated | Animated preview of images |
WO2009096793A1 (en) * | 2008-02-01 | 2009-08-06 | Telenor Asa | Analysis and visualization of a network |
JP5077003B2 (ja) * | 2008-03-25 | 2012-11-21 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
JP4492724B2 (ja) * | 2008-03-25 | 2010-06-30 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US20090310187A1 (en) * | 2008-06-12 | 2009-12-17 | Harris Scott C | Face Simulation in Networking |
US8856636B1 (en) * | 2009-09-22 | 2014-10-07 | Adobe Systems Incorporated | Methods and systems for trimming video footage |
ES2388413B1 (es) | 2010-07-01 | 2013-08-22 | Telefónica, S.A. | Método para la clasificación de videos. |
EP2416320B1 (en) * | 2010-08-03 | 2014-03-12 | BlackBerry Limited | Representing video content |
US9589184B1 (en) | 2012-08-16 | 2017-03-07 | Groupon, Inc. | Method, apparatus, and computer program product for classification of documents |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5872865A (en) * | 1995-02-08 | 1999-02-16 | Apple Computer, Inc. | Method and system for automatic classification of video images |
JP3367268B2 (ja) * | 1995-04-21 | 2003-01-14 | 株式会社日立製作所 | 映像のダイジェスト作成装置及び方法 |
US5913205A (en) * | 1996-03-29 | 1999-06-15 | Virage, Inc. | Query optimization for visual information retrieval system |
US6014664A (en) * | 1997-08-29 | 2000-01-11 | International Business Machines Corporation | Method and apparatus for incorporating weights into data combinational rules |
US6269368B1 (en) * | 1997-10-17 | 2001-07-31 | Textwise Llc | Information retrieval using dynamic evidence combination |
JP4074366B2 (ja) * | 1998-02-24 | 2008-04-09 | コニカミノルタビジネステクノロジーズ株式会社 | 画像検索装置及び方法並びに画像検索プログラムを記録した記録媒体 |
US6240423B1 (en) * | 1998-04-22 | 2001-05-29 | Nec Usa Inc. | Method and system for image querying using region based and boundary based image matching |
US6445834B1 (en) * | 1998-10-19 | 2002-09-03 | Sony Corporation | Modular image query system |
KR100671098B1 (ko) * | 1999-02-01 | 2007-01-17 | 주식회사 팬택앤큐리텔 | 모양정보를 이용한 멀티미디어 데이터의 검색 방법 및 장치 |
US6535639B1 (en) * | 1999-03-12 | 2003-03-18 | Fuji Xerox Co., Ltd. | Automatic video summarization using a measure of shot importance and a frame-packing method |
JP3323842B2 (ja) | 1999-10-22 | 2002-09-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 映像の要約方法及び装置 |
US6549643B1 (en) * | 1999-11-30 | 2003-04-15 | Siemens Corporate Research, Inc. | System and method for selecting key-frames of video data |
US6970860B1 (en) * | 2000-10-30 | 2005-11-29 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
JP2002142189A (ja) | 2000-11-06 | 2002-05-17 | Canon Inc | 画像処理装置、画像処理方法及び記憶媒体 |
JP2002373177A (ja) * | 2001-06-15 | 2002-12-26 | Olympus Optical Co Ltd | 類似オブジェクト検索方法及び装置 |
US7035435B2 (en) * | 2002-05-07 | 2006-04-25 | Hewlett-Packard Development Company, L.P. | Scalable video summarization and navigation system and method |
JP2004152110A (ja) * | 2002-10-31 | 2004-05-27 | Olympus Corp | 検索条件設定方法及び検索条件設定装置 |
US6963378B2 (en) * | 2002-11-01 | 2005-11-08 | Motorola, Inc. | Method and apparatus for reduction of visual content |
-
2004
- 2004-03-26 JP JP2004090752A patent/JP2005277981A/ja active Pending
-
2005
- 2005-03-17 US US11/084,390 patent/US7711210B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009536490A (ja) * | 2006-05-05 | 2009-10-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ユーザの関連フィードバックによりビデオのサマリを更新する方法 |
JP2008046738A (ja) * | 2006-08-11 | 2008-02-28 | Softbank Mobile Corp | 生活記録作成システムおよびその制御方法 |
JPWO2009037856A1 (ja) * | 2007-09-19 | 2011-01-06 | パナソニック株式会社 | 記録装置 |
JP2010087971A (ja) * | 2008-10-01 | 2010-04-15 | Olympus Corp | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
JP2010119097A (ja) * | 2008-10-16 | 2010-05-27 | Nikon Corp | 画像評価装置及びカメラ |
US9565332B2 (en) | 2008-10-16 | 2017-02-07 | Nikon Corporation | Image evaluation apparatus and camera |
US8929655B2 (en) | 2008-10-16 | 2015-01-06 | Nikon Corporation | Image evaluation apparatus and camera |
US9031389B2 (en) | 2009-07-09 | 2015-05-12 | Sony Corporation | Image editing apparatus, image editing method and program |
JP2011030159A (ja) * | 2009-07-29 | 2011-02-10 | Sony Corp | 画像編集装置、画像編集方法及びプログラム |
JP2012195811A (ja) * | 2011-03-17 | 2012-10-11 | Fujitsu Ltd | ダイジェスト映像生成装置およびプログラム |
US9529184B2 (en) | 2011-04-12 | 2016-12-27 | Nikon Corporation | Imaging apparatus and program |
JP2012222672A (ja) * | 2011-04-12 | 2012-11-12 | Nikon Corp | 撮像装置及びプログラム |
JP2014016819A (ja) * | 2012-07-09 | 2014-01-30 | Canon Inc | 情報処理装置及びその制御方法及びプログラム並びに記憶媒体 |
JP2015126510A (ja) * | 2013-12-27 | 2015-07-06 | 富士ゼロックス株式会社 | 代表フレーム選定システム、代表フレーム選定プログラム |
JP2019170180A (ja) * | 2018-03-27 | 2019-10-10 | 東京電力ホールディングス株式会社 | ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム |
JP7154024B2 (ja) | 2018-03-27 | 2022-10-17 | 東京電力ホールディングス株式会社 | ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7711210B2 (en) | 2010-05-04 |
US20050234719A1 (en) | 2005-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7711210B2 (en) | Selection of images for image processing | |
JP5615973B2 (ja) | 高ダイナミックレンジ画像を捕捉するデバイスの作動法 | |
EP3155587B1 (en) | Automatic video quality enhancement with temporal smoothing and user override | |
US20050207669A1 (en) | Method, system, and program for correcting the image quality of a moving image | |
US20060268150A1 (en) | Photography apparatus, photography method, and photography program | |
US8422818B2 (en) | Method and apparatus for image processing | |
JP4624248B2 (ja) | 画像処理装置、肌色調整方法及びプログラム | |
US20070115369A1 (en) | Tone-conversion device for image, program, electronic camera, and tone-conversion method | |
CN109478316B (zh) | 实时自适应阴影和高光增强 | |
JP2002232728A (ja) | 画像処理プログラム、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置および画像処理方法 | |
JP5104282B2 (ja) | 画像補正方法および画像補正装置 | |
JP5914046B2 (ja) | 画像処理装置および画像処理方法 | |
JP4428159B2 (ja) | 画像データ生成装置、画質補正装置、画像データ生成方法および画質補正方法 | |
JP4795314B2 (ja) | フリッカ補正装置及びフリッカ補正方法 | |
JP2005286437A (ja) | 画像群のダイジェストの作成 | |
KR101895390B1 (ko) | 영상 대비 평가 장치 및 방법 | |
JP2008294969A (ja) | 映像変換装置、映像変換方法、映像変換プログラム | |
JP4966167B2 (ja) | 画像評価装置及びこの画像評価装置を有するカメラ | |
JP2019197579A (ja) | 検出装置、検出方法及びプログラム | |
KR101492060B1 (ko) | 동영상의 일괄 컬러 변환 방법 및 그 기록매체 | |
JP2010154484A (ja) | 映像変換装置、映像変換方法および映像変換プログラム | |
JP5227651B2 (ja) | 映像変換装置、映像変換方法および映像変換プログラム | |
US9025873B2 (en) | Image processing apparatus and control method therefor | |
JP5069599B2 (ja) | 映像変換装置、映像変換方法および映像変換プログラム | |
JP2010015607A (ja) | 画像処理装置、画像処理方法 |