JP6511950B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6511950B2
JP6511950B2 JP2015099189A JP2015099189A JP6511950B2 JP 6511950 B2 JP6511950 B2 JP 6511950B2 JP 2015099189 A JP2015099189 A JP 2015099189A JP 2015099189 A JP2015099189 A JP 2015099189A JP 6511950 B2 JP6511950 B2 JP 6511950B2
Authority
JP
Japan
Prior art keywords
area
importance
cluster
frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015099189A
Other languages
English (en)
Other versions
JP2016219879A (ja
Inventor
崇之 原
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015099189A priority Critical patent/JP6511950B2/ja
Publication of JP2016219879A publication Critical patent/JP2016219879A/ja
Application granted granted Critical
Publication of JP6511950B2 publication Critical patent/JP6511950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は画像処理装置、画像処理方法及びプログラムに関する。
動画像から重要なシーンを判定して、ユーザが重要なシーンを視聴できるようにする技術が従来から知られている。
特許文献1には、テレビ番組動画像からハイライトシーンを抽出する技術が開示されている。具体的には、機械学習に基づいたシーン識別方法を用いるアルゴリズムにおいて、ユーザが所望するハイライト抽出結果を得られなかった場合に、対話的に学習データを追加する手段を提供することにより、ハイライト抽出精度を向上させる技術が開示されている。
また特許文献2には、動画の要約を自動作成する動画要約自動作成技術が開示されている。具体的には、音声認識を用いて音声データから得られたテキストデータから重要語を抽出し、抽出された重要語と、テキストデータから重要語を抽出する方法と同様の考えに基づき抽出された代表画像と、を統合して動画の要約を作成する技術が開示されている。
また特許文献3には、監視カメラ撮影動画像を対象として、監視にあたり注視すべき重要シーンを好適に判別し、また判別された重要シーンに基づいて、元の監視映像よりも短い要約映像を作成可能とする技術が開示されている。
しかしながら従来の技術では、動画像に含まれる重要度が大きい領域を効率的に視聴することができなかった。
本発明は、上記に鑑みてなされたものであって、動画像に含まれる重要度が大きい領域を効率的に視聴することができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、動画像を構成する各フレームを、所定のサイズの領域毎に走査して、前記領域毎の重要度を算出する算出部と、前記領域を前記重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成するクラスタリング部と、前記少なくとも1つの領域クラスタから、前記重要度に基づいて重要領域クラスタを選択する選択部と、各フレームの前記重要領域クラスタを含む部分フレームを抽出し、前記部分フレームにより構成される部分動画像を生成する生成部と、を備える。
本発明によれば、動画像に含まれる重要度が大きい領域を効率的に視聴することができるという効果を奏する。
図1は第1実施形態の画像処理装置の構成の例を示す図である。 図2は第1実施形態の領域クラスタの例を示す図である。 図3は第1実施形態の重要領域クラスタの追跡パスの生成方法の例を説明するための図である。 図4は第1実施形態の部分フレームの抽出例を示す図である。 図5は第1実施形態の画像処理方法の例を示すフローチャートである。 図6は第2実施形態の画像処理方法の例を示すフローチャートである。 図7は第4実施形態の正距円筒画像(動画像)を説明するための図である。 図8は第4実施形態の正距円筒画像(動画像)上の点の距離について説明するための図である。 図9は第1乃至第4実施形態の画像処理装置のハードウェア構成の例を示す図である。
以下に添付図面を参照して、画像処理装置、画像処理方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
図1は第1実施形態の画像処理装置100の構成の例を示す図である。第1実施形態の画像処理装置100は、記憶部11、入力部12、算出部13、クラスタリング部14、選択部15、生成部16及び表示部17を備える。
記憶部11は画像処理対象の動画像、及び、画像処理後の部分動画像等を記憶する。入力部12は、記憶部11から画像処理対象の動画像を読み出し、算出部13に入力する。
算出部13は、入力部12から動画像が入力されると、動画像を構成する各フレームを所定のサイズの領域毎に走査して、領域毎の重要度を算出する。所定のサイズの領域は、1以上の画素により構成される。算出部13は、例えば顕著性抽出法、及び、物体認識法等を用いて重要度を算出する。
顕著性抽出法が用いられる場合、例えば以下の方法により重要度が算出される。算出部13は、ラプラシアンフィルタ及びガボールフィルタ等を用いて、各フレームの画素毎にエッジ量を算出する。ここでエッジ量は、大きいほど強いエッジを示す。算出部13は、各フレームについて、エッジ量の分布を示すエッジ量分布マップを生成する。算出部13は、このエッジ量分布マップを所定のサイズの領域を有するウィンドウを用いて走査する。算出部13は、ウィンドウ内のエッジ量の分布と、当該ウィンドウの周辺領域のエッジ量の分布と、の統計的な差異が閾値以上の場合、当該ウィンドウの位置の領域の重要度を大きくする。ここで統計的な差異は、エッジ量の分布間の距離を、カルバックライブラー情報量及びバタチャタリヤ距離等で測ることができる。
算出部13は、各フレームについて、所定のサイズの領域毎の重要度の分布を示す重要度マップを生成し、各フレームの重要度マップをクラスタリング部14に入力する。
なお上述の例では、画素の特徴を示す特徴量が、エッジ量である場合について説明したが、当該特徴量は任意でよい。特徴量は、例えば色分布でもよいし、訓練用画像データからニューラルネットワーク等の機械学習により得た特徴量等でもよい。顕著性抽出法に用いられる特徴量の例は、例えば非特許文献1及び2に記載されている。
また重要度の算出に物体認識法が用いられる場合、算出部13は、例えば人物認識及び顔認識等により特定の物体を認識し、当該物体を示す領域の重要度が大きくなるように重要度を算出する。物体認識法の例は、例えば非特許文献5に記載されている。
また算出部13は、重要度の算出を全ての画素で行う必要はない。算出部13は、所定の間隔の画素毎に重要度の算出を行うことにより、計算量を削減してもよい。
クラスタリング部14は、算出部13から各フレームの重要度マップを受け付けると、当該重要度マップに基づいて、領域をクラスタリングすることにより、少なくとも1つの領域クラスタを生成する。
具体的には、クラスタリング部14は以下の方法により領域をクラスタリングする。まず、クラスタリング部14は、フレームを1つ読み込み、当該フレーム内で重要度が閾値以上の領域を抽出する。クラスタリング部14は、抽出された領域をクラスタリングすることにより、少なくとも1つの領域クラスタを生成する。
クラスタリングの方法は任意でよい。クラスタリング部14は、例えばk−meanクラスタリング法(非特許文献3参照)等を使用することができる。また領域間の距離基準には、ユークリッド距離、及び、画素のRGB成分差のL2ノルム等を使用できる。また、クラスタリング部14は、画素周辺領域の特徴量(色ヒストグラム、及び、Haar Like特徴等)の差を用いてクラスタリングしてもよい。また、クラスタリング部14は、顕著性抽出法で用いられた特徴量(算出部13の処理で得られた特徴量)の差を用いてクラスタリングしてもよい。さらには、クラスタリング部14は、これらの特徴量の差を組み合わせてクラスタリングしてもよい。
なお算出部13が、領域単位ではなく、物体単位で顕著性抽出を行い、当該物体単位で重要度が算出されている場合は、クラスタリング部14の処理を省くことができる。
図2は第1実施形態の領域クラスタの例を示す図である。図2の例は、クラスタリング部14が、重要度マップから3つの領域クラスタA、B及びCを生成した場合を示す。
図1に戻り、クラスタリング部14は、少なくとも1つの領域クラスタの位置及び大きさを示す領域クラスタ情報をフレーム毎に生成し、当該領域クラスタ情報を選択部15に入力する。
選択部15は、クラスタリング部14から領域クラスタ情報を受け付けると、領域クラスタに含まれる領域の重要度の和、平均及び最大値等により、領域クラスタの重要度を決定する。選択部15は、重要度が最も大きい領域クラスタの領域クラスタ情報を、重要領域クラスタ情報として1つ選択する。選択部15は、重要領域クラスタ情報をフレーム毎に生成部16に入力する。
生成部16は、選択部15から重要領域クラスタ情報を受け付けると、各フレームの重要領域クラスタを含む部分フレームを抽出し、当該部分フレームにより構成される部分動画像を生成する。
具体的には、生成部16は、まず各フレームに含まれる重量領域クラスタの位置を特定する追跡パスを生成する。追跡パスは、フレームを特定する時間情報と、当該フレーム内の重要領域クラスタの位置情報と、を含む。重要領域クラスタの位置情報は、例えば重要領域クラスタの中心を示すフレーム内の座標である。追跡パスは、基準フレームtの前後のフレームに含まれる重要領域クラスタの位置を示す。
図3は第1実施形態の重要領域クラスタの追跡パスの生成方法の例を説明するための図である。図3の例は、選択部15が、複数の領域クラスタA、B及びC(図2参照)から、領域クラスタAを重要領域クラスタとして選択した場合を示す。以下、第1実施形態の説明では、領域クラスタAを重要領域クラスタAともいう。生成部16は、基準フレームtに含まれる重要領域クラスタAの前後のフレームに対して当該重要領域クラスタAを追跡する。重要領域クラスタAを追跡する方法は任意でよい(例えば非特許文献4参照)。生成部16は、重要領域クラスタAを見失うか、又は、動画像の最初又は最後のフレームに到達した時点で追跡パスの生成を終了する。次に生成部16は、追跡パスに基づいて各フレームから部分フレームを抽出する。
図4は第1実施形態の部分フレーム101a〜101eの抽出例を示す図である。図4の例は、図3の追跡パスに基づいて抽出された部分フレーム101a〜101eの例を示す。具体的には、生成部16は、各フレームについて、例えば追跡パスの位置が部分フレームの中心となるように、フレームをトリミングする。このとき生成部16は、各フレームをトリミングすることにより得られる部分フレームの画角を、重要領域クラスタAの大きさの特定の倍率にする。
なお生成部16によるトリミングの方法は任意でよい。例えば生成部16は、部分フレームtの中心を、追跡パスの1フレーム先のフレームt+1内の重要領域クラスタAの中心を示す座標にしてもよい。また、1フレーム毎にトリミング位置が変動すると視認性が低下するため、生成部16は、トリミング位置を時間方向に平滑化して調整してもよい。
生成部16は、部分フレームにより構成される部分動画像を記憶部11に記憶する。表示部17は、記憶部11に記憶された部分動画像を表示する。
次に第1実施形態の画像処理方法について説明する。
図5は第1実施形態の画像処理方法の例を示すフローチャートである。はじめに、動画像が入力部12に入力される(ステップS1)。次に、算出部13が、動画像を構成する各フレームを所定のサイズの領域毎に走査して、領域毎の重要度を算出する(ステップS2)。次に、クラスタリング部14が、領域毎の重要度の分布を示す重要度マップに基づいて、領域をクラスタリングすることにより、少なくとも1つの領域クラスタを生成する(ステップS3)。次に、選択部15が、重要度が最も大きい領域クラスタを、重要領域クラスタとして1つ選択する(ステップS4)。次に、生成部16が、各フレームに含まれる重要領域クラスタを追跡することにより、追跡パスを生成する(ステップS5)。次に、生成部16が、各フレームについて、追跡パスの位置が、部分フレームの中心となるようにフレームをトリミングすることにより、当該部分フレームにより構成される部分動画像を生成する(ステップS6)。
以上説明したように、第1実施形態の画像処理装置100では、算出部13が、動画像を構成する各フレームを、所定のサイズの領域毎に走査して、当該領域毎の重要度を算出する。次にクラスタリング部14が、領域を重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成する。次に選択部15が、少なくとも1つの領域クラスタから、重要度に基づいて重要領域クラスタを選択する。次に生成部16が、各フレームの重要領域クラスタを含む部分フレームを抽出し、当該部分フレームにより構成される部分動画像を生成する。これにより第1実施形態の画像処理装置100によれば、動画像に含まれる重要度が大きい領域を効率的に視聴することができる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態では、画像処理装置100が複数の部分動画像を生成する場合について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略する。第2実施形態の画像処理装置100の構成は、第1実施形態の画像処理装置100と同じである。
図6は第2実施形態の画像処理方法の例を示すフローチャートである。クラスタリング部14が図2の領域クラスタA、B及びCを生成した場合を例にして説明する。ステップS11〜ステップS13、ステップS15及びステップS16の説明は、第1実施形態の画像処理方法のステップS1〜ステップS3、ステップS5及びステップS6(図5参照)と同じなので省略する。
選択部15は、領域クラスタA、B及びCのうち、まだ選択されていない領域クラスタを、重量領域クラスタとして選択する(ステップS14)。選択部15は、例えば領域クラスタの重要度が大きい順に、まだ選択されていない領域クラスタを選択する。
次に、生成部16が、ステップS14で選択された領域クラスタを含む部分動画像を、ステップS15及びステップS16の処理により生成する。次に、選択部15が、全ての領域クラスタを、重要領域クラスタとして選択したか否かを判定する(ステップS17)。全ての領域クラスタを、重要領域クラスタとして選択していない場合(ステップS17、No)、画像処理はステップS14に戻る。全ての領域クラスタを、重要領域クラスタとして選択した場合(ステップS17、Yes)、画像処理は終了する。
以上説明したように、第2実施形態の画像処理装置100では、クラスタリング部14が、複数の領域クラスタを生成する。また選択部15が、全ての領域クラスタを重要領域クラスタの対象にして、領域クラスタを順番に1つ選択する。そして生成部16が、重量領域クラスタとして選択された各フレームの領域クラスタを含む部分フレームを抽出し、当該部分フレームにより構成される部分動画像を生成する。第2実施形態の画像処理装置100によれば、複数の部分動画像を時間的な重複を許して個別に抽出できるので、動画像に含まれる重要なシーンが同時刻で重なる場合でも、当該重量なシーンを効果的に視聴することができる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態では、画像処理装置100が、領域クラスタの重要度、及び、領域クラスタ間の距離に基づいて部分動画像を生成する場合について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略する。第3実施形態の画像処理装置100の構成は、第2実施形態の画像処理装置100と同じである。また第3実施形態の画像処理方法は、第2実施形態の画像処理方法(図6参照)と同様であるが、図6のステップS14における重要領域クラスタの具体的な選択方法が第2実施形態の画像処理方法とは異なる。
以下、第3実施形態の選択部15による重要領域クラスタの選択方法について説明する。選択部15は、領域クラスタの重要度、及び、領域クラスタ間の距離に基づいて、重量領域クラスタを選択する。
まず領域クラスタ間の距離について説明する。領域クラスタ間の距離は、領域クラスタの中心を示すフレーム内の座標間の距離である。選択部15は、下記式(1)の評価関数Jを最大化するように領域クラスタをN個選択する。
ここでPは領域クラスタの重要度を示す。Dijは領域クラスタiと領域クラスタjとの間の距離を示す。Sは選択された領域クラスタのインデックスの集合(N個の要素)である。λは2つの評価基準(重要度及び距離)のバランスを決める係数である。なお評価関数Jの構成法は上述の式(1)に限られない。評価関数Jは、P及びDijに対して単調増加するような関数として構成することができる。
なお評価関数Jの最大化は組み合わせ最適化問題となる。そのため選択部15は、領域クラスタ数が十分少なく計算負荷が許す場合は全探索を用い、領域クラスタ数が多い場合には遺伝的アルゴリズム、模擬焼きなまし法及びタブーサーチ等のメタヒューリスティクス最適化手法を用いることが好ましい。
選択部15は、評価関数Jを最大化するN個の領域クラスタを選択し、当該N個の領域クラスタから順次1つずつ重要領域クラスタを選択する。このとき選択部15は、重要領域クラスタを選択するときに、下記式(2)の修正重要度P’が最大となる領域クラスタを選択する。
しかしながら上述の方法では、どの領域クラスタが同一の追跡パスに含まれるのかは分からないため、同じ追跡パスを重複選択する可能性が残る。したがって、毎ループ毎に追跡パスに含まれた領域クラスタを削除して再計算する。すなわち、今までに選択された、追跡を行う基準となった領域クラスタは、集合Sの中に保持する。つまりM回目の再計算においてはN−M個の領域クラスタを選択し直すことになる。
以上説明したように、第3実施形態の画像処理装置100では、選択部15が、更に領域クラスタ間の距離に基づいて、複数の重要領域クラスタを選択する。そして生成部16が、それぞれの重要領域クラスタについて、各フレームの重要領域クラスタを含む部分フレームを個別に抽出することにより、複数の部分動画像を生成する。これにより第3実施形態の画像処理装置100によれば、時間的・空間的に距離が離れた複数の重要領域クラスタを選択できるため、より多様な部分動画像を生成することができる。
(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、動画像が全方位カメラにより撮影されている場合について説明する。第4実施形態の説明では、第3実施形態と同様の説明については省略する。第4実施形態の画像処理装置100の構成は、第3実施形態の画像処理装置100と同じである。また第4実施形態の画像処理方法は、第3実施形態の画像処理方法と同様である。
全方位カメラにより撮影された動画像は、例えば正距円筒画像(動画像)により表すことができる。
図7は第4実施形態の正距円筒画像(動画像)を説明するための図である。図7の例は、撮影方向の経度を示す角度がθであり、撮影方向の緯度を示す角度がΦである場合を示す。このとき動画像は、0<θ<2π、−π/2<Φ<π/2の範囲の正距円筒画像(動画像)として得られる。
図7の正距円筒画像(動画像)の場合、第3実施形態で説明した領域クラスタ間の距離を計算する処理に修正が必要となる。
図8は第4実施形態の正距円筒画像(動画像)上の点の距離について説明するための図である。正距円筒画像(動画像)の場合、選択部15は、まず領域クラスタの位置を撮影方向の単位球上に再投影する。そして選択部15は、領域クラスタ間の単位球上での最短パスを、領域クラスタ間の距離として用いる。
第4実施形態の画像処理装置100によれば、動画像が全方位カメラに撮影されている場合でも、当該動画像中の重要な部分を、部分動画像により効率的に視聴することが可能となる。
最後に、第1乃至第4実施形態の画像処理装置100のハードウェア構成の例について説明する。
図9は第1乃至第4実施形態の画像処理装置100のハードウェア構成の例を示す図である。
第1乃至第4実施形態の画像処理装置100は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302はROM及びRAM等のメモリである。補助記憶装置303はメモリカード及びSSD(Solid State Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばキーボード等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを有する液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
画像処理装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また画像処理装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また画像処理装置100が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また画像処理装置100のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
画像処理装置100で実行されるプログラムは、上述の実施形態の画像処理装置100の構成(機能ブロック)のうち、プログラムにより実現可能な機能ブロックを含むモジュール構成となっている。プログラムにより実現可能な機能ブロックは、例えば入力部12、算出部13、クラスタリング部14、選択部15、生成部16及び表示部17である。
プログラムにより実現される機能ブロックは、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能ブロックが主記憶装置302にロードされる。すなわちプログラムにより実現される機能ブロックは、主記憶装置302上に生成される。
なお実施形態の画像処理装置100の機能ブロックを、プログラムと、IC(Integrated Circuit)等のハードウェアと、を組み合わせることにより実現してもよい。
11 記憶部
12 入力部
13 算出部
14 クラスタリング部
15 選択部
16 生成部
17 表示部
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
特開2008−022103号公報 特許第4920395号公報 特開2012−205097号公報
L.Itti,C.Koch,and E.Niebur,"A Model of Saliency−Based Visual Attention for Rapid Scene Analysis",IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.20,No.11,pp.1254−1259,1998. T.Liu,J.Sun,N.N.Zheng,X.Tang,and H.−Y.Shum,"Learning to Detect A Salient Object,"Conference on Computer Vision and Pattern Recognition (CVPR),2007. R.O.Duda,P.E.Hart,D.G.Stork,"Pattern Classification,"Wiley−Interscience,2000. Y.Wu,et.al.,"Online object tracking:A benchmark,"Conference on Computer Vision and Pattern Recognition (CVPR),2013. C.Farabet,et.al.,"Learning hierarchical features for scene labeling",IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.35,no.8,pp.1915−1929,(2013).

Claims (9)

  1. 動画像を構成する各フレームを、所定のサイズの領域毎に走査して、前記領域毎の重要度を算出する算出部と、
    前記領域を前記重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成するクラスタリング部と、
    前記少なくとも1つの領域クラスタから、前記重要度に基づいて重要領域クラスタを選択する選択部と、
    各フレームの前記重要領域クラスタを含む部分フレームを抽出し、前記部分フレームにより構成される部分動画像を生成する生成部と、
    を備える画像処理装置。
  2. 前記算出部は、前記領域の特徴を示す特徴量を算出し、前記特徴量が大きいほど前記重要度を大きく算出する、
    請求項1に記載の画像処理装置。
  3. 前記算出部は、前記フレームに含まれる物体を特定し、前記物体を示す領域の重要度を、前記物体を示さない領域の重要度よりも大きく算出する、
    請求項1に記載の画像処理装置。
  4. 前記選択部は、前記少なくとも1つの領域クラスタのうち、前記重要度が最も大きい前記領域クラスタを、前記重要領域クラスタとして1つ選択する、
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記クラスタリング部は、前記領域を前記重要度に基づいてクラスタリングすることにより、複数の領域クラスタを生成し、
    前記生成部は、各フレームの前記領域クラスタを含む部分フレームを、前記領域クラスタ毎に抽出し、前記部分フレームにより構成される部分動画像を、前記領域クラスタ毎に生成する、
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記クラスタリング部は、前記領域を前記重要度に基づいてクラスタリングすることにより、n個(nは2以上の整数)の領域クラスタを生成し、
    前記選択部は、更に、前記重要領域クラスタ間の距離が最大になるように、N個(Nはn以下の整数)の前記重要領域クラスタを選択し、
    前記生成部は、それぞれの前記重要領域クラスタについて、各フレームの前記重要領域クラスタを含む部分フレームを個別に抽出することにより、N個の前記部分動画像を生成する、
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  7. 前記動画像は、全方位カメラにより撮影された動画像である、
    請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 算出部が、動画像を構成する各フレームを、所定のサイズの領域毎に走査して、前記領域毎の重要度を算出するステップと、
    クラスタリング部が、前記領域を前記重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成するステップと、
    選択部が、前記少なくとも1つの領域クラスタから、前記重要度に基づいて重要領域クラスタを選択するステップと、
    生成部が、各フレームの前記重要領域クラスタを含む部分フレームを抽出し、前記部分フレームにより構成される部分動画像を生成するステップと、
    を含む画像処理方法。
  9. 画像処理装置を、
    動画像を構成する各フレームを、所定のサイズの領域毎に走査して、前記領域毎の重要度を算出する算出部と、
    前記領域を前記重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成するクラスタリング部と、
    前記少なくとも1つの領域クラスタから、前記重要度に基づいて重要領域クラスタを選択する選択部と、
    各フレームの前記重要領域クラスタを含む部分フレームを抽出し、前記部分フレームにより構成される部分動画像を生成する生成部、
    として機能させるためのプログラム。
JP2015099189A 2015-05-14 2015-05-14 画像処理装置、画像処理方法及びプログラム Active JP6511950B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015099189A JP6511950B2 (ja) 2015-05-14 2015-05-14 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015099189A JP6511950B2 (ja) 2015-05-14 2015-05-14 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016219879A JP2016219879A (ja) 2016-12-22
JP6511950B2 true JP6511950B2 (ja) 2019-05-15

Family

ID=57581733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015099189A Active JP6511950B2 (ja) 2015-05-14 2015-05-14 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6511950B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859765B2 (ja) * 2017-03-13 2021-04-14 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP6828807B2 (ja) 2017-03-28 2021-02-10 日本電気株式会社 データ解析装置、データ解析方法およびデータ解析プログラム
JP7368699B2 (ja) 2019-08-26 2023-10-25 株式会社リコー 画像処理装置、画像通信システム、画像処理方法、及びプログラム
WO2021240651A1 (ja) 2020-05-26 2021-12-02 日本電気株式会社 情報処理装置、制御方法及び記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4516665B2 (ja) * 2000-05-19 2010-08-04 パナソニック株式会社 監視装置
JP2013037549A (ja) * 2011-08-08 2013-02-21 Sumitomo Electric Ind Ltd 移動体検出装置、コンピュータプログラム及び移動体検出方法

Also Published As

Publication number Publication date
JP2016219879A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
US20220138490A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9619708B2 (en) Method of detecting a main subject in an image
US10134165B2 (en) Image distractor detection and processing
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
US9710698B2 (en) Method, apparatus and computer program product for human-face features extraction
US8798373B2 (en) Image restoration system, image restoration method, and image restoration program
US9934423B2 (en) Computerized prominent character recognition in videos
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
EP3093822B1 (en) Displaying a target object imaged in a moving picture
Führ et al. Combining patch matching and detection for robust pedestrian tracking in monocular calibrated cameras
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20200036895A1 (en) Image processing apparatus, control method thereof, and image capture apparatus
WO2014074959A1 (en) Real-time face detection using pixel pairs
Bianco et al. Robust smile detection using convolutional neural networks
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
US9767533B2 (en) Image resolution enhancement based on data from related images
JP2011146827A (ja) 画像処理装置および方法、並びにプログラム
US11647152B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP6770363B2 (ja) 顔方向推定装置及びそのプログラム
JP2014229092A (ja) 画像処理装置、画像処理方法、および、そのプログラム
JP2009266169A (ja) 情報処理装置及び方法、並びにプログラム
JP2013120504A (ja) オブジェクト抽出装置、オブジェクト抽出方法、及びプログラム
KR101585059B1 (ko) 영상 데이터 처리 방법 및 디바이스

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R151 Written notification of patent or utility model registration

Ref document number: 6511950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151