JP2012044358A - Image processing device and image processing program - Google Patents
Image processing device and image processing program Download PDFInfo
- Publication number
- JP2012044358A JP2012044358A JP2010182301A JP2010182301A JP2012044358A JP 2012044358 A JP2012044358 A JP 2012044358A JP 2010182301 A JP2010182301 A JP 2010182301A JP 2010182301 A JP2010182301 A JP 2010182301A JP 2012044358 A JP2012044358 A JP 2012044358A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- frames
- processing apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
記録媒体に記録されている複数の静止画像をいわゆるサムネイル表示し、記録媒体の内容の把握を容易にすることが一般的に行われている。同様のことを動画像に対して行う場合、動画像には通常多数のフレームが含まれるので、サムネイル画像として適切なフレームを選択しなければならない。例えば特許文献1には、1つの記録コンテンツから複数のサムネイルデータを作成するコンテンツ記録再生装置が記載されている。このコンテンツ記録再生装置は、作成した複数のサムネイルデータをサムネイル候補として画面に表示し、それらのうちユーザが選択した1つを代表サムネイルとする。 In general, a plurality of still images recorded on a recording medium are displayed as so-called thumbnails so that the contents of the recording medium can be easily grasped. When the same thing is performed on a moving image, since a moving image usually includes a large number of frames, an appropriate frame must be selected as a thumbnail image. For example, Patent Document 1 describes a content recording / playback apparatus that creates a plurality of thumbnail data from one recorded content. This content recording / playback apparatus displays a plurality of created thumbnail data on the screen as thumbnail candidates, and selects one of them as a representative thumbnail.
特許文献1に記載されている技術を用いても、個々のサムネイル画像は1フレームに対応しているので、動画像の内容全体をサムネイル画像から把握することは困難である。 Even using the technique described in Patent Document 1, since each thumbnail image corresponds to one frame, it is difficult to grasp the entire content of the moving image from the thumbnail image.
請求項1に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択手段と、選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、抽出手段により認識された複数の物体像に優先順位を設定する優先順位設定手段と、抽出手段により抽出された複数の物体像を優先順位に基づいて配置することにより、抽出された複数の物体像を含む静止画像を作成する画像作成手段と、を備えることを特徴とする画像処理装置である。
請求項12に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択工程と、選択された複数のフレームから所定の物体像を認識し抽出する抽出工程と、抽出工程により抽出された複数の物体像に優先順位を設定する優先順位設定工程と、抽出工程により抽出された複数の物体像を優先順位に基づいて配置することにより、抽出された複数の物体像を含む静止画像を作成する画像作成工程と、をコンピュータに実行させることを特徴とする画像処理プログラムである。
The invention according to claim 1 is a selection means for selecting a plurality of frames from a moving image composed of a plurality of frames, an extraction means for recognizing and extracting a predetermined object image from the selected plurality of frames, and an extraction means. Including a plurality of object images extracted by arranging a plurality of object images extracted by the extraction means based on the priority order; An image processing apparatus comprising: an image creating unit that creates a still image.
The invention according to
本発明によれば、動画像の内容全体をより的確に把握可能な静止画像を作成することができる。 According to the present invention, it is possible to create a still image capable of more accurately grasping the entire content of a moving image.
(第1の実施の形態)
図1は、本実施の形態における画像処理装置の回路構成を示すブロック図である。画像処理装置1は、制御回路11,フラッシュメモリ12,DRAM13,ハードディスクドライブ(HDD)14,外部機器インタフェース(I/F)15,入力装置16,および表示装置17を備える。フラッシュメモリ12には、制御回路11が実行する所定の制御プログラムが記憶される。DRAM13には、制御プログラムが使用するデータが一時的に格納される。HDD14には、複数の動画像ファイルが格納される。
(First embodiment)
FIG. 1 is a block diagram illustrating a circuit configuration of the image processing apparatus according to the present embodiment. The image processing apparatus 1 includes a
外部機器I/F15は、デジタルカメラなどの外部機器を接続するためのインタフェースである。画像処理装置1のユーザは、例えば外部機器I/F15へデジタルカメラを接続し、デジタルカメラにより撮影された動画像ファイルをHDD14へ取り込むことができる。入力装置16はキーボードやマウスなどの各種の入力装置である。入力装置16は、ユーザの操作に応じて制御回路11へ操作信号を出力する。表示装置17は液晶モニタなどの各種の表示装置である。
The external device I / F 15 is an interface for connecting an external device such as a digital camera. The user of the image processing apparatus 1 can connect a digital camera to the external device I /
制御回路11はフレーム選択部11a,オブジェクト抽出部11b,および画像作成部11cを有する。これらの機能部は、制御回路11がフラッシュメモリ12に記憶されている所定の制御プログラムを実行することにより、ソフトウェア的に実現される。なお、これらの各機能部を制御回路11の中に電子回路として実装してもよい。
The
次に、画像処理装置1による動画像ファイルの一覧表示機能について説明する。制御回路11は、HDD14に格納されている複数の動画像ファイルの一覧表示機能と、動画像ファイルの再生機能と、を有する。動画像ファイルの一覧表示機能とは、各々の動画像ファイルに対応する静止画像(以下、代表画像と呼ぶ)をサムネイル表示する機能である。サムネイル表示された代表画像のうち、いずれか1つがユーザにより選択されると、制御回路11は選択された代表画像に対応する動画像ファイルの再生を開始する。
Next, the moving image file list display function by the image processing apparatus 1 will be described. The
本実施形態の画像処理装置1は、代表画像を作成する2種類の処理を実行することが可能である。以下の説明では、この2種類の処理をオブジェクト合成処理およびベストショット合成処理と称する。動画像ファイルの一覧表示を行う際、制御回路11は、HDD14に格納されている各々の動画像ファイルに対して、これら2種類の処理のうちいずれかの処理を実行する。
The image processing apparatus 1 according to the present embodiment can execute two types of processing for creating a representative image. In the following description, these two types of processing are referred to as object composition processing and best shot composition processing. When displaying a list of moving image files, the
(オブジェクト合成処理の説明)
図2は、オブジェクト合成処理による代表画像の作成手順を示す図である。図2(a)に、以下で説明するオブジェクト合成処理の対象となる動画像ファイル21を示す。この動画像ファイル21は、複数のフレームF11〜F19から構成されている。
(Description of object composition processing)
FIG. 2 is a diagram illustrating a procedure for creating a representative image by object composition processing. FIG. 2A shows a moving
オブジェクト合成処理では、まずフレーム選択部11aがオブジェクト合成処理の対象となるフレームをフレームF11〜F19から選択する。フレーム選択部11aは、例えば動画像ファイル21に含まれる全てのフレームを選択するようにしてもよいし、あるいは数フレーム毎に1フレームを選択するようにしてもよい。また、シーンチェンジの検出等を考慮してフレームを選択するようにしてもよい。図2(b)には、フレーム選択部11aが4つのフレームF12,F14,F16,F19をオブジェクト合成処理の対象として選択した様子を示す。
In the object composition processing, first, the
次にオブジェクト抽出部11bが、フレーム選択部11aにより選択されたこれら4つのフレームからオブジェクトを認識する。本発明においてオブジェクトとは、例えば人物、車、建物など、各フレームに含まれる所定の物体像である。オブジェクトの認識には、例えばパターンマッチングなどの周知の技術を用いることができる。図2(b)に示した例では、フレームF12からは車のオブジェクトOA1が、フレームF14からは人のオブジェクトOB1および犬のオブジェクトOC1が、フレームF16からは人のオブジェクトOB2および犬のオブジェクトOC2が、フレームF19からは犬のオブジェクトOC3および家屋のオブジェクトOD1が、それぞれ認識される。
Next, the
オブジェクト抽出部11bはこれらのオブジェクトを認識した後、これらのオブジェクトの同一性を判定する。例えばデジタルカメラにより毎秒30フレームの撮影を行って動画像ファイルを作成した場合、連続する複数のフレームに同一の物体が繰り返し写り込む。オブジェクト抽出部11bは、認識した複数のオブジェクトが、上記の例のように1つの物体に基づくオブジェクトか否かを判定する。オブジェクトの同一性の判定には周知の画像認識技術を用いることができる。例えば人のオブジェクトであれば周知の顔認識技術等を用いることが可能である。
After recognizing these objects, the
図2(b)の例では、オブジェクト抽出部11bはフレームF14において認識された人のオブジェクトOB1とフレームF16において認識された人のオブジェクトOB2とが同一人物のオブジェクトであると判定する。同様に、オブジェクト抽出部11bは図2(b)に示した4つのフレームから、オブジェクトOC1,OC2,OC3が同一の物体のオブジェクトであると判定する。
In the example of FIG. 2B, the
続いてオブジェクト抽出部11bは、各フレームから認識した各オブジェクトの抽出を行う。ただし、同一性の判定の結果に基づき、同一の物体のオブジェクトは複数のフレームからいずれか1つしか抽出しない。例えば、オブジェクト抽出部11bは図2(b)に示した複数のフレームからオブジェクトOC1,OC2,OC3のうちいずれか1つだけを抽出する。
Subsequently, the
本実施形態において、オブジェクト抽出部11bが同一の物体のオブジェクトからいずれか1つのオブジェクトを選択する基準は、動画像ファイル21におけるオブジェクトの出現順である。例えば図2(b)において、選択されたフレームの動画像ファイル21における時系列順は、フレームF12,フレームF14,フレームF16,フレームF19という順序になっている。従って、同一の物体のオブジェクトOC1,OC2,OC3のうち、出現順が最も早いオブジェクトは、動画像ファイル21内の時系列順で最も早いフレームF14から認識されたオブジェクトOC1である。オブジェクト抽出部11bはこのように、同一の物体のオブジェクトのうち、動画像ファイルにおいて最初に出現するオブジェクトを抽出する。
In the present embodiment, the criterion for selecting any one object from the objects of the same object by the
最後に画像作成部11cが、オブジェクト抽出部11bにより抽出された複数のオブジェクトを並べて1つの静止画像を作成する。作成された静止画像の例を図2(c)に示す。図2(c)に示した静止画像P1には、オブジェクト抽出部11bにより抽出された4つのオブジェクトOA1,OB1,OC1,OD1が含まれている。これらのオブジェクトは、動画像ファイル21における出現順に左から右の順で並べられている。また、静止画像P1の背景は、背景色として選択された単色の塗り潰しとなっている。この静止画像P1が、オブジェクト合成処理により作成された動画像ファイル21の代表画像である。
Finally, the
(ベストショット合成処理の説明)
図3は、ベストショット合成処理による代表画像の作成手順を示す図である。図3(a)に、以下で説明するベストショット合成処理の対象となる動画像ファイル22を示す。この動画像ファイル22は複数のフレームF21〜F29から構成されている。
(Explanation of best shot composition process)
FIG. 3 is a diagram showing a procedure for creating a representative image by the best shot composition process. FIG. 3A shows a moving
ベストショット合成処理の前半は、オブジェクト合成処理と同様にフレームの選択、オブジェクトの認識、同一性の判定に関する処理である。すなわち、まずフレーム選択部11aにより処理対象とするフレームが選択される。次にオブジェクト抽出部11bによりオブジェクトが認識されると共に、各オブジェクトが同一の物体のオブジェクトか否かが判定される。なおベストショット合成処理では、フレーム選択部11aは、各フレームから視点の水平移動を検知し、パノラマ画像が作成可能となるようにフレームの選択を行う。
The first half of the best shot composition processing is processing related to frame selection, object recognition, and identity determination as in the object composition processing. That is, first, a frame to be processed is selected by the
その後オブジェクト抽出部11bは、認識したオブジェクトに対応する物体のうち出現頻度が最も高い1つを動画像ファイル22の主要被写体として選択する。そして、この主要被写体に対応するオブジェクトのうち、サイズが最も大きいオブジェクトを主要オブジェクトとして選択する。以下、主要オブジェクトが含まれるフレームを、主要被写体のベストショットと呼ぶ。
Thereafter, the
画像作成部11cは、フレーム選択部11aが処理対象として選択した複数のフレームに基づくパノラマ画像を作成する。そして、このパノラマ画像を背景とし、且つ主要オブジェクト以外のオブジェクトを含まない静止画像を作成する。この静止画像が、動画像ファイル22の代表画像である。
The
画像作成部11cが作成するパノラマ画像は、可能な限り主要オブジェクト以外のオブジェクトを含まないように作成される。例えば移動する物体を追跡して撮影された動画像の場合、あるフレームにおいてその物体の蔭となった背景であっても、その前後のフレームでは蔭となっていないことが考えられる。従って、そのようなフレームを利用すれば、背景のパノラマ画像を主要オブジェクト以外のオブジェクトを含まないように作成することができる。
The panorama image created by the
図4は、動画像ファイルから代表画像を作成する制御回路11の処理を示すフローチャートである。本フローチャートの処理を実行するためのプログラムはフラッシュメモリ12に格納されている。まずステップS10では、フレーム選択部11aが以降の処理の対象とするフレームを選択する。ステップS20では、オブジェクト抽出部11bが後述するオブジェクト認識処理を実行する。ステップS30では、制御回路11が代表画像の作成方法を判定する。例えば動画像ファイルの視点が水平方向にパンニングしていることを検出した場合には、代表画像をベストショット合成処理により作成すべきであると判定され、それ以外の場合には代表画像をオブジェクト合成処理により作成すべきであると判定される。
FIG. 4 is a flowchart showing processing of the
ステップS30において、制御回路11が代表画像をオブジェクト合成処理により作成すべきであると判定した場合にはステップS40へ進む。ステップS40では、オブジェクト抽出部11bおよび画像作成部11cにより、後述するオブジェクト合成処理が実行される。他方、ステップS30で、制御回路11が代表画像をベストショット合成処理により作成すべきであると判定した場合にはステップS50へ進む。ステップS50では、オブジェクト抽出部11bおよび画像作成部11cにより、後述するベストショット合成処理が実行される。
If the
図5は、オブジェクト認識処理のフローチャートである。この処理は、図4に示したフローチャートのステップS20において呼び出される。オブジェクト認識処理では、図4のステップS10において選択された各フレームからの、オブジェクトの認識が行われる。ステップS21では、オブジェクト抽出部11bが、フレーム選択部11aにより選択されたフレームのうち未処理のフレームを1つ読み込む。ステップS22では、オブジェクト抽出部11bが、ステップS21で読み込んだフレームからオブジェクトの認識に必要な特徴量を算出する。ステップS23では、オブジェクト抽出部11bが、ステップS21で読み込んだフレームからオブジェクトの認識を行う。オブジェクトの認識には、ステップS22で算出した特徴量を使用する。
FIG. 5 is a flowchart of the object recognition process. This process is called in step S20 of the flowchart shown in FIG. In the object recognition process, an object is recognized from each frame selected in step S10 in FIG. In step S21, the
なお、ステップS22における特徴量の算出と、ステップS23におけるオブジェクトの認識と、では共に周知の画像認識技術が利用される。周知の画像認識技術として例えばパターンマッチングを採用するのであれば、まずステップS22においてオブジェクト抽出部11bが、あらかじめ用意された複数のパターンの各々について、処理対象のフレームとの相関を表す特徴量を算出する。そして、ステップS23においてオブジェクト抽出部11bが、上記の特徴量に基づき所定の基準を満たすパターンを選択する。
Note that a well-known image recognition technique is used for both the calculation of the feature amount in step S22 and the object recognition in step S23. If, for example, pattern matching is employed as a well-known image recognition technique, first, in step S22, the
ステップS24では、オブジェクト抽出部11bが、これまでに認識されたオブジェクトとステップS23において直近に認識されたオブジェクトとの同一性を判定する。ステップS25では、オブジェクト抽出部11bがステップS23で認識したオブジェクトからオブジェクト情報を作成する。オブジェクト情報はオブジェクトの抽出を行うための情報である。オブジェクト情報には、例えばオブジェクトへ割り当てられる一意な識別子、これまでに認識したオブジェクトと同一か否かを表す情報、オブジェクトに外接する矩形、オブジェクトが認識されたフレームを特定する為の情報、等が含まれる。ステップS26では、オブジェクト抽出部11bが、ステップS25で作成したオブジェクト情報をDRAM13へ記録する。ステップS27では、オブジェクト抽出部11bがフレーム選択部11aにより選択された全フレームに対して処理を完了したか否かを判定する。未処理のフレームが残っている場合にはステップS21へ戻る。他方、全てのフレームに対して処理を完了した場合にはオブジェクト認識処理は終了する。
In step S24, the
図6は、オブジェクト合成処理のフローチャートである。この処理は、図4に示したフローチャートのステップS40において呼び出される。ステップS41では、オブジェクト抽出部11bがステップS25でDRAM13に記録された全てのオブジェクト情報を読み込む。ステップS42では、オブジェクト抽出部11bが、オブジェクト情報に含まれる全オブジェクトのうち未処理のオブジェクトを出現順に1つ選択する。
FIG. 6 is a flowchart of the object composition process. This process is called in step S40 of the flowchart shown in FIG. In step S41, the
ステップS43では、オブジェクト抽出部11bが、オブジェクト情報に含まれるオブジェクトの同一性に関する情報を確認し、ステップS42で選択したオブジェクトと同一のオブジェクトが既に抽出されているか否かを判定する。抽出済みであった場合にはステップS43により肯定判定がなされ、ステップS45へ進む。他方、否定判定がなされた場合にはステップS44へ進む。ステップS44では、オブジェクト抽出部11bが、オブジェクト情報に基づいて対応するフレームからオブジェクトを抽出する。ステップS45では、オブジェクト抽出部11bが、全てのオブジェクトについて処理が完了したか否かを判定する。未処理のオブジェクトが存在する場合には否定判定がなされ、ステップS42へ戻る。他方、ステップS45において肯定判定がなされた場合にはステップS46へ進む。ステップS46では、画像作成部11cが、ステップS44において抽出された全てのオブジェクトを含む静止画像を作成する。
In step S43, the
図7は、ベストショット合成処理のフローチャートである。この処理は、図4に示したフローチャートのステップS50において呼び出される。ステップS51では、オブジェクト抽出部11bがステップS25でDRAM13に記録された全てのオブジェクト情報を読み込む。ステップS52では、オブジェクト抽出部11bが、オブジェクトごとの出現頻度を集計する。ステップS53では、オブジェクト抽出部11bが、ステップS52で集計した出現頻度が最も多いオブジェクト、すなわち主要被写体を選択する。ステップS54では、オブジェクト抽出部11bが、主要被写体に対応するオブジェクトのうちサイズが最も大きいオブジェクト、すなわち主要オブジェクトを、オブジェクト情報に基づいて対応するフレームから抽出する。ステップS55では、画像作成部11cが、最終的に作成される静止画像の背景画像となるパノラマ画像を作成する。ステップS56では、画像作成部11cが、ステップS55で作成したパノラマ画像を背景とし、且つ、ステップS54で抽出された主要オブジェクト以外のオブジェクトを含まない静止画像を作成する。
FIG. 7 is a flowchart of the best shot composition process. This process is called in step S50 of the flowchart shown in FIG. In step S51, the
上述した第1の実施の形態による画像処理装置によれば、次の作用効果が得られる。
(1)画像作成部11cは、オブジェクト抽出部11bにより抽出された複数のオブジェクトを含む静止画像を作成する。これにより、1つの静止画像から動画像ファイルの内容全体をより的確に把握することができる。
According to the image processing apparatus according to the first embodiment described above, the following operational effects can be obtained.
(1) The
(2)オブジェクト抽出部11bは、複数のフレームの各々から認識された複数のオブジェクトが同一の物体のオブジェクトであった場合、複数のオブジェクトのうちいずれか1つのオブジェクトのみを抽出する。これにより、繰り返し登場する物体が存在した場合であっても、動画像ファイルの内容全体を把握しやすい静止画像が作成される。
(2) The
(3)制御回路11は、オブジェクト合成処理とベストショット合成処理とを切り替えて静止画像を作成する。これにより、動画像の特性に合った適切な静止画像が作成される。
(3) The
(4)画像作成部11cは、パノラマ画像を静止画像の背景とする場合に、主要オブジェクト以外のオブジェクトが含まれないようなパノラマ画像を作成する。これにより、主要オブジェクトが何であるかを判断しやすい静止画像が作成される。
(4) The
(第2の実施の形態)
図8は第2の実施の形態における画像処理装置の回路構成を示すブロック図である。第1の実施の形態における画像処理装置(図1)との違いは、制御回路111が更に抽出判定部111dおよびシーン判別部111eを有している点である。
(Second Embodiment)
FIG. 8 is a block diagram showing a circuit configuration of the image processing apparatus according to the second embodiment. The difference from the image processing apparatus (FIG. 1) in the first embodiment is that the control circuit 111 further includes an
抽出判定部111dは、オブジェクト抽出部111bにより認識された複数のオブジェクトの各々について、当該オブジェクトを代表画像に含めるか否かを判定する。オブジェクト抽出部111bは、抽出判定部111dにより否定判定されたオブジェクトを抽出しない。すなわち、画像作成部111cにより作成される静止画像には、抽出判定部111dにより否定判定されたオブジェクトが含まれない。
The
なお、抽出判定部111dにより否定判定されたオブジェクトが、画像作成部111cにより作成される静止画像に含まれないようにする方法は複数存在する。例えば、オブジェクト抽出部111bを、そのようなオブジェクトを認識しないように構成してもよい。また、オブジェクト抽出部111bが各オブジェクトを抽出した後で、画像作成部111cがそのようなオブジェクトを静止画像に含めないようにしてもよい。
There are a plurality of methods for preventing the object that is negatively determined by the
シーン判別部111eは、フレーム選択部111aが選択した各フレームについて、当該フレームのシーンを判別する。シーン判別の結果は、例えば「風景」、「ポートレート」、「運動会」、「結婚式」、「マクロ」等のようになる。シーン判別部111eによるシーン判別には、種々の周知技術を用いる事が可能である。シーン判別の結果は、後述する優先順位設定に用いられる。
For each frame selected by the
(抽出判定部111dの説明)
抽出判定部111dによる判定の詳細について説明する。抽出判定部111dは、オブジェクトを静止画像に含めるか否かを、当該オブジェクトの撮影時間と、当該オブジェクトの大きさと、当該オブジェクトの合焦の度合いと、に基づいて判定する。
(Description of
Details of the determination by the
当該オブジェクトの撮影時間とはすなわち、動画像ファイル全体において当該オブジェクトが含まれるフレームの総数である。以下、当該オブジェクトが含まれるフレームの総数と、動画像ファイル全体の総フレーム数との比率をTdと表す。当該オブジェクトの大きさとはすなわち、フレーム全体の大きさに対する当該オブジェクトの大きさの比率である。以下、オブジェクトの大きさのフレーム全体の大きさに対する比率をSと表す。当該オブジェクトの合焦の度合いとはすなわち、動画像ファイル全体において当該オブジェクトのコントラストが基準値よりも高いフレームの総数である。以下、当該オブジェクトのコントラストが基準値よりも高いフレームの総数と、動画像ファイル全体の総フレーム数との比率をTfと表す。 The shooting time of the object is the total number of frames in which the object is included in the entire moving image file. Hereinafter, the ratio between the total number of frames in which the object is included and the total number of frames in the entire moving image file is represented as Td. That is, the size of the object is a ratio of the size of the object to the size of the entire frame. Hereinafter, the ratio of the size of the object to the size of the entire frame is represented as S. The degree of focus of the object is the total number of frames in which the contrast of the object is higher than the reference value in the entire moving image file. Hereinafter, the ratio between the total number of frames in which the contrast of the object is higher than the reference value and the total number of frames in the entire moving image file is represented as Tf.
抽出判定部111dは、Td、S、およびTfがそれぞれ所定の閾値より小さいオブジェクトについて否定判定を行う。なお、オブジェクトの大きさに関する判定を行う際に、オブジェクトの撮影時間を加味した判定を行ってもよい。例えば抽出判定部111dが、サイズが小さいオブジェクトであっても撮影時間が長いオブジェクトであれば、静止画像に含めるように判定を行ってもよい。
The
(優先順位設定の説明)
本実施形態のオブジェクト抽出部111bは、各フレームから認識した複数のオブジェクトに対し、優先順位を設定する。画像作成部111cは、オブジェクト抽出部111bにより設定された優先順位に基づいて各オブジェクトを配置し、静止画像を作成する。以下、優先順位の設定方法について説明する。
(Explanation of priority setting)
The
オブジェクト抽出部111bは、オブジェクトの優先順位を、当該オブジェクトの撮影時間と、当該オブジェクトの大きさと、当該オブジェクトの合焦の度合いと、に基づいて設定する。すなわちオブジェクト抽出部111bは、上述のTd、S、およびTfに基づいてオブジェクトの優先順位を設定する。オブジェクト抽出部111bはまず、認識された1番目からn番目までの各オブジェクトについて、次式(1)により定義される優先度Pr(n)を算出する。
Pr(n) = (Td(n)・α+S(n)(1−α))・W(n) …(1)
The
Pr (n) = (Td (n) .alpha. + S (n) (1-.alpha.)). W (n) (1)
なお式(1)において、αは撮影時間と面積の優先度を表す係数であり、0以上1以下の値を採る。また、W(n)はシーン判別に基づく各オブジェクトの重みであり、0以上1以下の値を採る。重みW(n)は、優先度の算出に先立ってオブジェクト抽出部111bにより設定される。例えばシーン判別の結果が「風景」であれば、空、海、山、木、花、建物などのオブジェクトについてより大きな重みW(n)が設定される。また、シーン判別の結果が「ポートレート」、「運動会」、「結婚式」などであれば、人のオブジェクトについて他のオブジェクトより大きな重みW(n)が設定される。すなわち、オブジェクト抽出部111bは、シーン判別の結果に応じてオブジェクトの種類に応じた重みW(n)を設定する。全てのオブジェクトについて優先度Pr(n)を算出したオブジェクト抽出部111bは、最後に、優先度Pr(n)が大きなオブジェクトから順に優先順位を設定する。
In equation (1), α is a coefficient representing the priority of the photographing time and the area, and takes a value of 0 or more and 1 or less. W (n) is a weight of each object based on scene discrimination, and takes a value of 0 or more and 1 or less. The weight W (n) is set by the
(オブジェクトの抽出の説明)
第1の実施の形態では、オブジェクト抽出部11bが同一の物体のオブジェクトからいずれか1つのオブジェクトを選択する基準は、動画像ファイル21におけるオブジェクトの出現順であった。本実施形態に係るオブジェクト抽出部111bは、これとは異なる基準に基づいて、同一の物体のオブジェクトからいずれか1つのオブジェクトを選択する。
(Description of object extraction)
In the first embodiment, the reference for selecting any one object from the same object by the
オブジェクト抽出部111bは、ピントが合っている箇所が多いオブジェクトを優先的に抽出する。オブジェクト抽出部111bはまた、フレーム全体の大きさに対するオブジェクトの大きさがより大きなオブジェクトを優先的に抽出する。更に、オブジェクト抽出部111bは、個々のオブジェクトの種類に応じて抽出基準を変更する。
The
例えば、空は人や車に比べて、面積や色が重視されると考えられる。また、人物は顔が正面を向いていることや身体全体が写っていること、笑顔であることなどが重要である。このように、オブジェクト抽出部111bは、オブジェクトの種類に応じて異なる抽出基準を用いて、オブジェクトの抽出を行う。
For example, the area and color of the sky are considered to be more important than people and cars. In addition, it is important that a person has a face facing forward, the whole body is reflected, a smile, and the like. Thus, the
(画像作成部111cの説明)
画像作成部111cは、以上のようにして各オブジェクトに設定された優先順位に基づいて、静止画像を作成する。
(Description of the
The
図9は、画像作成部111cによるオブジェクトの配置の例を示す図である。図9(a)では、優先順位が最も高いオブジェクトOF1を静止画像300aの中央に配置し、その他のオブジェクトOF2をオブジェクトOF1の周囲に配置している。また、静止画像300aにおいて、オブジェクトOF1が他のオブジェクトOF2よりも相対的に大きくなっている。
FIG. 9 is a diagram illustrating an example of the arrangement of objects by the
図9(b)では、オブジェクトを優先順位の順に左から右に並べて配置している。具体的には、最も優先順位の高いオブジェクトOG1を静止画像300bの左側に配置し、その右隣に次に優先順位が高いオブジェクトOG2を、更に右隣にはその次に優先順位が高いオブジェクトOG3を配置している。また、静止画像300bにおいて、各オブジェクトの大きさは優先順位が高いほど相対的に大きくなっている。
In FIG. 9B, the objects are arranged from left to right in order of priority. Specifically, the object OG1 with the highest priority is arranged on the left side of the
画像作成部111cは、図9(a)に示した配置方法と図9(b)に示した配置方法とを、所定の基準により切り替えて静止画像を作成する。例えば、優先度が他のオブジェクトより突出して高いオブジェクトが存在する場合には図9(a)の方法を、それ以外の場合には図9(b)の方法を利用して静止画像を作成する。また、図9(a)の方法と図9(b)の方法とをユーザが任意に指定できるようにしてもよい。
The
また、各オブジェクトの優先度がほとんど同じ場合には、画像作成部111cが図9(c)に示した配置方法を利用するようにしてもよい。図9(c)では、静止画像300cにおいて各オブジェクトOH1が均等に並べて配置されており、また各オブジェクトOHの大きさは均等になっている。
If the priorities of the objects are almost the same, the
図10は、動画像ファイルから代表画像を作成する制御回路111の処理を示すフローチャートである。本フローチャートの処理を実行するためのプログラムはフラッシュメモリ112に格納されている。まずステップS110では、フレーム選択部111aが以降の処理の対象とするフレームを選択する。ステップS120では、シーン判別部111eがシーン判別処理を実行する。シーン判別処理では、フレーム選択部111aにより選択されたフレームについて、周知のシーン判別技術によるシーン判別が行われる。ステップS130では、オブジェクト抽出部111bがオブジェクト認識処理を実行する。ステップS140では、オブジェクト抽出部111bがオブジェクトの優先順位設定処理を実行する。オブジェクトの優先順位設定処理では、前述した基準により、各オブジェクトについて優先順位が設定される。
FIG. 10 is a flowchart showing processing of the control circuit 111 that creates a representative image from a moving image file. A program for executing the processing of this flowchart is stored in the
ステップS150では、制御回路111が代表画像の作成方法を判定する。ステップS150において、制御回路111が代表画像をオブジェクト合成処理により作成すべきであると判定した場合にはステップS160へ進む。ステップS160では、オブジェクト抽出部111bおよび画像作成部111cにより、オブジェクト合成処理が実行される。他方、ステップS150で、制御回路11が代表画像をベストショット合成処理により作成すべきであると判定した場合にはステップS170へ進む。ステップS170では、オブジェクト抽出部111bおよび画像作成部111cにより、ベストショット合成処理が実行される。
In step S150, the control circuit 111 determines a representative image creation method. If the control circuit 111 determines in step S150 that the representative image should be created by the object composition process, the process proceeds to step S160. In step S160, object composition processing is executed by the
上述した第2の実施の形態による画像処理装置によれば、次の作用効果が得られる。
(1)オブジェクト抽出部111bは、認識した複数のオブジェクトに優先順位を設定する。画像作成部111cは、これら複数のオブジェクトを優先順位に基づいて配置することにより、複数のオブジェクトを含む静止画像を作成する。このようにしたので、動画像の内容全体をより的確に把握可能な静止画像を作成することができる。
According to the image processing apparatus of the second embodiment described above, the following operational effects can be obtained.
(1) The
(2)画像作成部111cは、優先順位に基づいて、静止画像におけるオブジェクトの相対的な大きさと、静止画像におけるオブジェクトが配置される位置とを決定する。このようにしたので、オブジェクトの大きさおよび位置が優先順位に応じて的確に決定され、静止画像の視認性が向上する。
(2) The
(3)抽出判定部111dは、オブジェクト抽出部111bにより認識された複数のオブジェクトの各々について、当該オブジェクトを静止画像に含めるか否かを判定する。画像作成部111cは、抽出判定部111dにより否定判定されたオブジェクトを含まない静止画像を作成する。このようにしたので、静止画像に重要でないオブジェクトが含まれず、静止画像の視認性が向上する。
(3) The
(4)シーン判別部111eは、フレーム選択部111aにより選択された複数のフレームの各々について、当該フレームのシーンを判別する。オブジェクト抽出部111bは、認識した複数のオブジェクトの各々について、当該オブジェクトが認識されたフレームにおいてシーン判別部111eにより判別されたシーンに基づき優先順位を設定する。このようにしたので、シーンに応じた適切な優先順位を設定することが可能となる。
(4) The
(第3の実施の形態)
図11は第3の実施の形態における画像処理装置の回路構成を示すブロック図である。第2の実施の形態における画像処理装置(図8)との違いは、制御回路211が更にオブジェクト分類部211fおよび領域分割部211gを有している点である。
(Third embodiment)
FIG. 11 is a block diagram showing a circuit configuration of an image processing apparatus according to the third embodiment. The difference from the image processing apparatus (FIG. 8) in the second embodiment is that the
オブジェクト分類部211fは、オブジェクト抽出部211bにより認識された複数のオブジェクトを、複数のグループに分類する。画像作成部211cは、この複数のグループに基づいて静止画像を作成する。領域分割部211gは、静止画像の全体領域を、複数のグループ毎の領域に分割する。画像作成部211cは、複数のグループの各々について、当該グループに含まれるオブジェクトを当該グループに対応する領域に配置することにより静止画像を作成する。
The
(オブジェクト分類部211fの説明)
オブジェクト分類部211fは、オブジェクトの種類と、動画像の時間軸上におけるオブジェクトが認識されたフレームの位置と、シーン判別部211eにより判別されたシーンと、のいずれかに基づいて各オブジェクトを複数のグループに分類する。オブジェクト分類部211fがどの基準を選択するかはユーザが任意に選択できるようにしてもよいし、動画像の特徴等によりオブジェクト分類部211fが自動的にいずれかの基準を選択するようにしてもよい。
(Description of the
The
例えばオブジェクトの種類に基づいてオブジェクトを分類する場合、オブジェクト分類部211fは、人物のオブジェクトと、車のオブジェクトと、建物のオブジェクトと、をそれぞれ別々のグループに分類する。この場合、人物のオブジェクトが属するグループと、車のオブジェクトが属するグループと、建物のオブジェクトが属するグループと、の3つのグループがオブジェクト分類部211fにより作成される。
For example, when classifying an object based on the type of object, the
例えば動画像の時間軸上におけるオブジェクトが認識されたフレームの位置に基づいてオブジェクトを分類する場合、オブジェクト分類部211fは、動画像全体を所定間隔ごとに区切り、その区切り毎にグループを作成する。そして、その区切りに含まれる全てのオブジェクトを、同一のグループに分類する。例えば全体で3分の動画像を1分毎に区切り、先頭から1分時点までのグループ、1分時点から2分時点までのグループ、2分時点から終端までのグループ、という3つのグループがオブジェクト分類部211fにより作成される。
For example, when classifying an object based on the position of the frame in which the object is recognized on the time axis of the moving image, the
例えばシーン判別部211eにより判別されたシーンに基づいてオブジェクトを分類する場合、オブジェクト分類部211fは、動画像全体におけるシーンの切り替わりを検出する。そして、同一シーンの区間毎にグループを作成する。そして、その区間に含まれる全てのオブジェクトを、同一のグループに分類する。
For example, when classifying an object based on the scene determined by the
(領域分割部211gの説明)
図12は、領域分割部211gによる領域の分割例を示す図である。領域分割部211gは、静止画像の全体領域を、複数のグループ毎の領域に分割する。例えば図12では、静止画像400を、タイル状に区切った4つの領域400a、400b、400c、400dに分割している。画像作成部211cは、このようにして区切られた各領域に、各グループに分類されたオブジェクトを配置する。例えば1つ目のグループに分類された各オブジェクトを領域400aに、2つ目のグループに分類された各オブジェクトを領域400bにそれぞれ配置する。各領域における画像作成部211cによるオブジェクトの配置基準は、第2の実施の形態と同様である。
(Description of the
FIG. 12 is a diagram illustrating an example of area division by the
上述した第3の実施の形態による画像処理装置によれば、次の作用効果が得られる。
(1)オブジェクト分類部211fは、オブジェクト抽出部211bにより認識された複数のオブジェクトを複数のグループに分類する。画像作成部211cは、複数のグループに基づいて静止画像を作成する。このようにしたので、よりわかりやすい静止画像を作成することが可能となる。
According to the image processing apparatus according to the third embodiment described above, the following operational effects can be obtained.
(1) The
(2)領域分割部211gは、静止画像の全体領域を、複数のグループ毎の領域に分割する。画像作成部211cは、複数のグループの各々について、当該グループに含まれるオブジェクトを当該グループに対応する領域に配置する。このようにしたので、1つの静止画像に各オブジェクトがより的確に配置される。
(2) The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(変形例1)
代表画像の作成は、サムネイル表示を行う際に実行してもよいし、動画像ファイルを作成する際に実行してもよい。例えばビデオカメラに上述した代表画像の作成処理を実行させてもよい。また、作成された代表画像を、動画像ファイルに関連付けられた画像ファイルとして記録媒体に記録してもよい。
(Modification 1)
The creation of the representative image may be executed when the thumbnail display is performed, or may be executed when the moving image file is generated. For example, the above-described representative image creation process may be executed by a video camera. Further, the created representative image may be recorded on a recording medium as an image file associated with the moving image file.
(変形例2)
上述した実施の形態の説明では、オブジェクト合成処理とベストショット合成処理という2つの処理を切り替えて代表画像を作成していたが、これらのうち一方の処理のみを用いて代表画像を作成するように画像処理装置を構成してもよい。
(Modification 2)
In the description of the embodiment described above, the representative image is created by switching between the two processes of the object synthesis process and the best shot synthesis process. However, the representative image is created using only one of these processes. An image processing apparatus may be configured.
(変形例3)
オブジェクト抽出部11bが所定の数よりも多くのオブジェクトを認識した場合、それらのオブジェクトのうち一部のもののみを抽出するようにしてもよい。例えば、所定のサイズ以下のオブジェクトは抽出しないようにしてもよいし、オブジェクトの種類や形状に基づき抽出するオブジェクトを限定するようにしてもよい。また、例えば顔認識などの技術を用いて、特定の人物のみが抽出されるようにしてもよい。あるいは、オブジェクトの一覧を表示し、抽出するオブジェクトをユーザに選択させるようにしてもよい。
(Modification 3)
When the
(変形例4)
同一の物体のオブジェクトからいずれか1つを選択する基準として、オブジェクトの出現順以外の基準を用いてもよい。例えばサイズが最も大きいオブジェクトを選択してもよいし、コントラストが最も高いオブジェクトを選択するようにしてもよい。あるいは、所定の画像処理により算出された特徴量を用いてオブジェクトの選択を行うようにしてもよい。
(Modification 4)
As a criterion for selecting any one of the objects of the same object, a criterion other than the order of appearance of the objects may be used. For example, an object having the largest size may be selected, or an object having the highest contrast may be selected. Alternatively, an object may be selected using a feature amount calculated by predetermined image processing.
(変形例5)
静止画像に複数のオブジェクトを配置する手法は、出現順に左から右の順で並べる以外の手法であってもよい。例えばランダムに静止画像全体に配置するようにしてもよい。また、オブジェクトの数が多い場合には、一部または全部のオブジェクトを縮小して静止画像に納めるようにしてもよい。あるいは、静止画像のサイズを大きくしてもよい。
(Modification 5)
A technique for arranging a plurality of objects in a still image may be a technique other than arranging them in order of appearance from left to right. For example, it may be arranged randomly throughout the still image. Further, when the number of objects is large, some or all of the objects may be reduced and stored in a still image. Alternatively, the size of the still image may be increased.
(変形例6)
オブジェクト合成処理とベストショット合成処理との切り替えは、上述した実施の形態に限定されない。例えばユーザが手動でどちらの処理を用いるか選択できるようにしてもよいし、動画像ファイルに出現するオブジェクトの数が所定数より多い場合にはオブジェクト合成処理を用いるようにしてもよい。
(Modification 6)
Switching between the object composition process and the best shot composition process is not limited to the embodiment described above. For example, the user may be able to manually select which process to use, or the object composition process may be used when the number of objects appearing in the moving image file is greater than a predetermined number.
(変形例7)
画像作成部11cがオブジェクト合成処理において作成する静止画像は、何らかの背景を有するようにしてもよい。例えばフレーム選択部11aにより選択されたフレームのうちいずれかのフレームの背景を用いるようにしてもよいし、所定の背景画像を用いるようにしてもよい。
(Modification 7)
The still image created by the
(変形例8)
主要被写体および主要オブジェクトの選択方法は、上述した実施の形態に限定されない。例えば最も強いエッジが検出されたフレームをベストショットとし、このフレームに含まれるオブジェクトを主要オブジェクトとする、等の方法であってもよい。
(Modification 8)
The selection method of the main subject and the main object is not limited to the above-described embodiment. For example, a method in which the frame in which the strongest edge is detected is the best shot and the object included in the frame is the main object may be used.
(変形例9)
1つの動画像から複数の静止画像を作成するようにしてもよい。また、これらの静止画像を縦横に連結した静止画像を代表画像としてもよい。例えば第3の実施の形態において、画像作成部211cが領域分割部211gにより分割された複数の領域に各グループのオブジェクトを配置するのではなく、グループ毎に複数の静止画像を作成するようにしてもよい。
(Modification 9)
A plurality of still images may be created from one moving image. Still images obtained by connecting these still images vertically and horizontally may be used as representative images. For example, in the third embodiment, the
(変形例10)
抽出判定部111dがオブジェクトを静止画像に含めるか否かを判定する基準は、上述の実施形態のものに限定されない。例えば、ユーザが入力装置116を用いた操作によって静止画像に含めるオブジェクトを選択するようにしてもよい。この場合、抽出判定部111dはユーザが選択したオブジェクトについて肯定判定を行い、それ以外のオブジェクトについて否定判定を行う。また、予めユーザが特定の人物を登録しておくと、抽出判定部111dが周知の人物認識技術により当該人物のみを静止画像に含めるよう判定するようにしてもよい。更に、予めユーザがオブジェクトの種類(人、車、空など)を指定しておくと、抽出判定部111dが当該種類のオブジェクトのみを静止画像に含めるよう判定するようにしてもよい。
(Modification 10)
The criterion for determining whether or not the
本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .
1、100、200 画像処理装置
11、111、211 制御回路
11a、111a、211a フレーム選択部
11b、111b、211b オブジェクト抽出部
11c、111c、211c 画像作成部
111d、211d 抽出判定部
111e、211e シーン判別部
211f オブジェクト分類部
211g 領域分割部
1, 100, 200
請求項1に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択手段と、前記選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、前記抽出手段により認識された複数の物体像が認識されたフレームのシーンを判別するシーン判別手段と、前記シーン判別手段で判別されたシーンに対応して物体像の種類に応じた優先順位を、前記抽出手段により認識された複数の物体像の各々に設定する優先順位設定手段と、前記抽出手段により抽出された複数の物体像を前記優先順位に基づいて配置することにより、前記抽出された複数の物体像を含む静止画像を作成する画像作成手段とを備えることを特徴とする画像処理装置である。
請求項7に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択手段と、選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、選択された複数のフレームの各々について、該フレームのシーンを判別するシーン判別手段と、物体像の種類と、動画像の時間軸上における物体像が認識されたフレームの位置と、判別されたシーンとのいずれか少なくとも1つに基づき、抽出手段により認識された複数の物体像を複数のグループに分類する分類手段と、抽出手段により抽出された複数の物体像を分類手段で分類されたグループ毎に配置して、抽出された複数の物体像を含む静止画像を作成する画像作成手段とを備えることを特徴とする画像処理装置である。
The invention according to claim 1, selection means for selecting a plurality of frames from the composed video image of a plurality of frames, extracting means for extracting recognizing a predetermined object image from a plurality of frames said selected said A scene discriminating unit for discriminating a scene of a frame in which a plurality of object images recognized by the extracting unit are recognized, and a priority order corresponding to the type of object image corresponding to the scene discriminated by the scene discriminating unit, Priority order setting means for setting each of the plurality of object images recognized by the extraction means; and by arranging the plurality of object images extracted by the extraction means based on the priority order, An image processing apparatus comprising: an image creating unit that creates a still image including an object image.
The invention according to claim 7, a selecting means for selecting a plurality of frames from the composed video image of a plurality of frames, extracting means for extracting recognizing a predetermined object image from a plurality of frames selected is selected For each of the plurality of frames, a scene discriminating unit that discriminates the scene of the frame, the type of object image, the position of the frame where the object image is recognized on the time axis of the moving image, and the discriminated scene Based on at least one of them, a classification unit that classifies a plurality of object images recognized by the extraction unit into a plurality of groups, and a plurality of object images extracted by the extraction unit are arranged for each group classified by the classification unit The image processing apparatus includes an image creating unit that creates a still image including a plurality of extracted object images.
Claims (12)
前記選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、
前記抽出手段により認識された複数の物体像に優先順位を設定する優先順位設定手段と、
前記抽出手段により抽出された複数の物体像を前記優先順位に基づいて配置することにより、前記抽出された複数の物体像を含む静止画像を作成する画像作成手段と、
を備えることを特徴とする画像処理装置。 Selecting means for selecting a plurality of frames from a moving image composed of a plurality of frames;
Extracting means for recognizing and extracting a predetermined object image from the selected plurality of frames;
Priority order setting means for setting priorities to a plurality of object images recognized by the extraction means;
An image creating means for creating a still image including the plurality of extracted object images by arranging the plurality of object images extracted by the extracting means based on the priority order;
An image processing apparatus comprising:
前記画像作成手段は、前記優先順位に基づいて、前記静止画像における物体像の相対的な大きさと、前記静止画像における物体像が配置される位置と、のいずれか少なくとも1つを決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image creation means determines at least one of a relative size of the object image in the still image and a position where the object image in the still image is arranged based on the priority. A featured image processing apparatus.
前記抽出手段により認識された複数の物体像の各々について、該物体像を前記静止画像に含めるか否かを判定する判定手段を更に備え、
前記画像作成手段は、前記判定手段により否定判定された物体像を含まない前記静止画像を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
For each of the plurality of object images recognized by the extraction means, further comprising a determination means for determining whether to include the object image in the still image,
The image processing device is characterized in that the image creation device creates the still image that does not include the object image that is negatively determined by the determination device.
前記画像作成手段は、前記抽出手段により複数のフレームの各々から認識された複数の物体像が同一の物体の像であった場合、該複数の物体像のうちいずれか1つの物体像のみを前記静止画像に含めることを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
When the plurality of object images recognized from each of the plurality of frames by the extracting unit are images of the same object, the image creating unit only selects one of the plurality of object images. An image processing apparatus characterized by being included in a still image.
前記判定手段は、前記抽出手段により認識された複数の物体像の各々について、該物体像と同一の物体の像が含まれるフレームの数と、該物体像の大きさと、該物体像の合焦の度合いと、のいずれか少なくとも1つに基づいて、該物体像を前記静止画像に含めるか否かを判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 4.
For each of the plurality of object images recognized by the extraction unit, the determination unit includes the number of frames including the same object image as the object image, the size of the object image, and the focus of the object image. And determining whether to include the object image in the still image based on at least one of the degree of the image quality.
前記優先順位設定手段は、前記抽出手段により認識された複数の物体像の各々について、該物体像と同一の物体の像が含まれるフレームの数と、該物体像の大きさと、該物体像の合焦の度合いと、のいずれか少なくとも1つに基づいて、前記優先順位を設定することを特徴とする画像処理装置。 The image processing apparatus according to claim 4 or 5,
The priority order setting means includes, for each of the plurality of object images recognized by the extraction means, the number of frames including the same object image as the object image, the size of the object image, and the object image An image processing apparatus, wherein the priority order is set based on at least one of a degree of focusing.
前記選択された複数のフレームの各々について、該フレームのシーンを判別するシーン判別手段を更に備え、
前記優先順位設定手段は、前記抽出手段により認識された複数の物体像の各々について、該物体像が認識されたフレームにおいて前記シーン判別手段により判別されたシーンに基づき前記優先順位を設定することを特徴とする画像処理装置。 In the image processing apparatus according to any one of claims 1 to 6,
For each of the selected plurality of frames, further comprising scene discrimination means for discriminating a scene of the frame,
The priority order setting means sets the priority order for each of a plurality of object images recognized by the extraction means based on the scene determined by the scene determination means in a frame where the object image is recognized. A featured image processing apparatus.
前記抽出手段により認識された複数の物体像を複数のグループに分類する分類手段を更に備え、
前記画像作成手段は、前記複数のグループに基づいて前記静止画像を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
Further comprising classification means for classifying the plurality of object images recognized by the extraction means into a plurality of groups;
The image processing device, wherein the image creating means creates the still image based on the plurality of groups.
前記静止画像の全体領域を、前記複数のグループ毎の領域に分割する領域分割手段を更に備え、
前記画像作成手段は、前記複数のグループの各々について、該グループに含まれる物体像を該グループに対応する前記領域に配置することにより前記静止画像を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
An area dividing means for dividing the entire area of the still image into areas for each of the plurality of groups;
The image processing device creates the still image for each of the plurality of groups by arranging an object image included in the group in the region corresponding to the group.
前記画像作成手段は、前記複数のグループの各々に対応する複数の前記静止画像を作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
The image processing device is characterized in that the image creating means creates a plurality of the still images corresponding to each of the plurality of groups.
前記分類手段は、前記物体像の種類と、前記動画像の時間軸上における前記物体像が認識されたフレームの位置と、前記シーン判別手段により判別されたシーンと、のいずれか少なくとも1つに基づき、前記抽出手段により認識された複数の物体像を前記複数のグループに分類することを特徴とする画像処理装置。 In the image processing device according to any one of claims 8 to 10,
The classification means includes at least one of the type of the object image, the position of the frame where the object image is recognized on the time axis of the moving image, and the scene determined by the scene determination means. An image processing apparatus characterized in that a plurality of object images recognized by the extraction unit are classified into the plurality of groups.
前記選択された複数のフレームから所定の物体像を認識し抽出する抽出工程と、
前記抽出工程により抽出された複数の物体像に優先順位を設定する優先順位設定工程と、
前記抽出工程により抽出された複数の物体像を前記優先順位に基づいて配置することにより、前記抽出された複数の物体像を含む静止画像を作成する画像作成工程と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 A selection step of selecting a plurality of frames from a moving image composed of a plurality of frames;
An extraction step of recognizing and extracting a predetermined object image from the selected plurality of frames;
A priority setting step for setting a priority for a plurality of object images extracted by the extraction step;
An image creation step of creating a still image including the plurality of extracted object images by arranging the plurality of object images extracted in the extraction step based on the priority order;
An image processing program for causing a computer to execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182301A JP4853582B1 (en) | 2010-08-17 | 2010-08-17 | Image processing apparatus and image processing program |
US12/860,324 US8897603B2 (en) | 2009-08-20 | 2010-08-20 | Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182301A JP4853582B1 (en) | 2010-08-17 | 2010-08-17 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4853582B1 JP4853582B1 (en) | 2012-01-11 |
JP2012044358A true JP2012044358A (en) | 2012-03-01 |
Family
ID=45540514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010182301A Active JP4853582B1 (en) | 2009-08-20 | 2010-08-17 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4853582B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133634A (en) * | 2014-01-14 | 2015-07-23 | 日本放送協会 | image selection device |
JPWO2014171046A1 (en) * | 2013-04-17 | 2017-02-16 | パナソニックIpマネジメント株式会社 | Video receiving apparatus and information display control method in video receiving apparatus |
JP2018528492A (en) * | 2015-06-26 | 2018-09-27 | ロヴィ ガイズ, インコーポレイテッド | System and method for automatic formatting of images for media assets based on user profiles |
US11481095B2 (en) | 2015-06-26 | 2022-10-25 | ROVl GUIDES, INC. | Systems and methods for automatic formatting of images for media assets based on user profile |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124605A (en) * | 2017-01-30 | 2018-08-09 | オムロン株式会社 | Image processing system, information processing apparatus, information processing method, and information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088836A (en) * | 2007-09-28 | 2009-04-23 | Panasonic Corp | Content photographing device |
WO2009060507A1 (en) * | 2007-11-05 | 2009-05-14 | Pioneer Corporation | Dynamic image editing device, dynamic image editing method, dynamic image editing program and recording medium |
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
-
2010
- 2010-08-17 JP JP2010182301A patent/JP4853582B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088836A (en) * | 2007-09-28 | 2009-04-23 | Panasonic Corp | Content photographing device |
WO2009060507A1 (en) * | 2007-11-05 | 2009-05-14 | Pioneer Corporation | Dynamic image editing device, dynamic image editing method, dynamic image editing program and recording medium |
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014171046A1 (en) * | 2013-04-17 | 2017-02-16 | パナソニックIpマネジメント株式会社 | Video receiving apparatus and information display control method in video receiving apparatus |
JP2015133634A (en) * | 2014-01-14 | 2015-07-23 | 日本放送協会 | image selection device |
JP2018528492A (en) * | 2015-06-26 | 2018-09-27 | ロヴィ ガイズ, インコーポレイテッド | System and method for automatic formatting of images for media assets based on user profiles |
US11481095B2 (en) | 2015-06-26 | 2022-10-25 | ROVl GUIDES, INC. | Systems and methods for automatic formatting of images for media assets based on user profile |
US11842040B2 (en) | 2015-06-26 | 2023-12-12 | Rovi Guides, Inc. | Systems and methods for automatic formatting of images for media assets based on user profile |
Also Published As
Publication number | Publication date |
---|---|
JP4853582B1 (en) | 2012-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1986128B1 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
CN101606384B (en) | Image processing device, dynamic image reproduction device, and processing method | |
JP4581924B2 (en) | Image reproducing apparatus and image reproducing program | |
US7856145B2 (en) | Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program | |
EP2151801A1 (en) | Image processing apparatus, method, and storage medium | |
US8897603B2 (en) | Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames | |
JP2007028555A (en) | Camera system, information processing device, information processing method, and computer program | |
JP4853582B1 (en) | Image processing apparatus and image processing program | |
TW200945895A (en) | Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus | |
JP2011109428A (en) | Information processing apparatus, information processing method, and program | |
JP2012009915A (en) | Imaging device, reproduction device, and reproduction program | |
US8368764B2 (en) | Digital photographing apparatus and method for controlling the same | |
JP2009044463A (en) | Electronic camera and field image reproduction device | |
JP2003303333A (en) | Image display control device | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP2018029270A (en) | Image processing apparatus, control method thereof, imaging apparatus, and program | |
JP4935872B2 (en) | Image processing apparatus and image processing program | |
TW201222422A (en) | Method and arrangement for identifying virtual visual information in images | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program | |
JP6625598B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system | |
JP2011172103A (en) | Image generating apparatus | |
JP2005175839A (en) | Image display device,image display method, program, and recording medium | |
JP2009245406A (en) | Image processing apparatus and program for the same | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
JP6372176B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111010 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141104 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4853582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141104 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |