JP2011044882A - Image processing apparatus, and image processing program - Google Patents

Image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2011044882A
JP2011044882A JP2009191310A JP2009191310A JP2011044882A JP 2011044882 A JP2011044882 A JP 2011044882A JP 2009191310 A JP2009191310 A JP 2009191310A JP 2009191310 A JP2009191310 A JP 2009191310A JP 2011044882 A JP2011044882 A JP 2011044882A
Authority
JP
Japan
Prior art keywords
image
image processing
frames
frame
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009191310A
Other languages
Japanese (ja)
Other versions
JP4935872B2 (en
Inventor
Takashi Nishi
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009191310A priority Critical patent/JP4935872B2/en
Priority to US12/860,324 priority patent/US8897603B2/en
Publication of JP2011044882A publication Critical patent/JP2011044882A/en
Application granted granted Critical
Publication of JP4935872B2 publication Critical patent/JP4935872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing program that produce a still image which can recognize the whole contents of a moving image more exactly. <P>SOLUTION: An image processing apparatus includes: a frame selecting portion 11a that selects a plurality of frames from a moving image that consists of a plurality of frames; an object extracting portion 11b that recognizes and extracts a predetermined object from the selected frames; and an image producing portion 11c that produces a still image including a plurality of objects extracted by the object extracting portion 11b. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

記録媒体に記録されている複数の静止画像をいわゆるサムネイル表示し、記録媒体の内容の把握を容易にすることが一般的に行われている。同様のことを動画像に対して行う場合、動画像には通常多数のフレームが含まれるので、サムネイル画像として適切なフレームを選択しなければならない。例えば特許文献1には、1つの記録コンテンツから複数のサムネイルデータを作成するコンテンツ記録再生装置が記載されている。このコンテンツ記録再生装置は、作成した複数のサムネイルデータをサムネイル候補として画面に表示し、それらのうちユーザが選択した1つを代表サムネイルとする。   In general, a plurality of still images recorded on a recording medium are displayed as so-called thumbnails so that the contents of the recording medium can be easily grasped. When the same thing is performed on a moving image, since a moving image usually includes a large number of frames, an appropriate frame must be selected as a thumbnail image. For example, Patent Document 1 describes a content recording / playback apparatus that creates a plurality of thumbnail data from one recorded content. This content recording / playback apparatus displays a plurality of created thumbnail data on the screen as thumbnail candidates, and selects one of them as a representative thumbnail.

特開2008−294938号公報JP 2008-294938 A

特許文献1に記載されている技術を用いても、個々のサムネイル画像は1フレームに対応しているので、動画像の内容全体をサムネイル画像から把握することは困難である。   Even using the technique described in Patent Document 1, since each thumbnail image corresponds to one frame, it is difficult to grasp the entire content of the moving image from the thumbnail image.

請求項1に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択手段と、選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、抽出手段により抽出された複数の物体像を含む静止画像を作成する画像作成手段と、を備えることを特徴とする画像処理装置である。
請求項5に係る発明は、複数のフレームにより構成される動画像から複数のフレームを選択する選択工程と、選択された複数のフレームから所定の物体像を認識し抽出する抽出工程と、抽出手段により抽出された複数の物体像を含む静止画像を作成する画像作成工程と、をコンピュータに実行させることを特徴とする画像処理プログラムである。
The invention according to claim 1 is a selection means for selecting a plurality of frames from a moving image composed of a plurality of frames, an extraction means for recognizing and extracting a predetermined object image from the selected plurality of frames, and an extraction means. And an image creating unit that creates a still image including a plurality of object images extracted by the above.
The invention according to claim 5 is a selection step of selecting a plurality of frames from a moving image composed of a plurality of frames, an extraction step of recognizing and extracting a predetermined object image from the selected plurality of frames, and an extraction means An image processing program for causing a computer to execute an image creation step of creating a still image including a plurality of object images extracted by the method.

本発明によれば、動画像の内容全体をより的確に把握可能な静止画像を作成することができる。   According to the present invention, it is possible to create a still image capable of more accurately grasping the entire content of a moving image.

第1の実施の形態における画像処理装置の回路構成を示すブロック図である。1 is a block diagram illustrating a circuit configuration of an image processing apparatus according to a first embodiment. オブジェクト合成処理によるサムネイル画像の作成手順を示す図である。It is a figure which shows the preparation procedure of the thumbnail image by an object synthetic | combination process. ベストショット合成処理によるサムネイル画像の作成手順を示す図である。It is a figure which shows the preparation procedure of the thumbnail image by the best shot composition process. 動画像ファイルから代表画像を作成する処理のフローチャートである。It is a flowchart of the process which produces a representative image from a moving image file. オブジェクト認識処理のフローチャートである。It is a flowchart of an object recognition process. オブジェクト合成処理のフローチャートである。It is a flowchart of an object synthetic | combination process. ベストショット合成処理のフローチャートである。It is a flowchart of a best shot composition process.

(第1の実施の形態)
図1は、本実施の形態における画像処理装置の回路構成を示すブロック図である。画像処理装置1は、制御回路11,フラッシュメモリ12,DRAM13,ハードディスクドライブ14(以下、HDD14と称する),外部機器インタフェース(I/F)15,入力装置16,および表示装置17を備える。フラッシュメモリ12は、制御回路11が実行する所定の制御プログラムが記憶されている、不揮発性の記憶装置である。DRAM13は、制御プログラムが使用するデータを一時的に格納するために使用される。HDD14は不揮発性の記憶装置であり、複数の動画像ファイルが格納されている。
(First embodiment)
FIG. 1 is a block diagram illustrating a circuit configuration of the image processing apparatus according to the present embodiment. The image processing apparatus 1 includes a control circuit 11, a flash memory 12, a DRAM 13, a hard disk drive 14 (hereinafter referred to as HDD 14), an external device interface (I / F) 15, an input device 16, and a display device 17. The flash memory 12 is a nonvolatile storage device in which a predetermined control program executed by the control circuit 11 is stored. The DRAM 13 is used for temporarily storing data used by the control program. The HDD 14 is a nonvolatile storage device and stores a plurality of moving image files.

外部機器I/F15は、デジタルカメラなどの外部機器を接続するためのインタフェースである。画像処理装置1の利用者は、外部機器I/F15へデジタルカメラを接続し、デジタルカメラから動画像ファイルをHDD14へ取り込むことができる。入力装置16はキーボードやマウスなどの各種の入力装置であり、ユーザの操作に応じて制御回路11へ操作信号を出力する。表示装置17は液晶モニタなどの各種の表示装置である。   The external device I / F 15 is an interface for connecting an external device such as a digital camera. A user of the image processing apparatus 1 can connect a digital camera to the external device I / F 15 and capture a moving image file from the digital camera to the HDD 14. The input device 16 is various input devices such as a keyboard and a mouse, and outputs an operation signal to the control circuit 11 in accordance with a user operation. The display device 17 is a variety of display devices such as a liquid crystal monitor.

制御回路11はフレーム選択部11a,オブジェクト抽出部11b,および画像作成部11cを有する。これらの機能部は、制御回路11がフラッシュメモリ12に記憶されている所定の制御プログラムを実行することにより実現される。   The control circuit 11 includes a frame selection unit 11a, an object extraction unit 11b, and an image creation unit 11c. These functional units are realized by the control circuit 11 executing a predetermined control program stored in the flash memory 12.

次に、画像処理装置1による動画像ファイルの一覧表示機能について説明する。制御回路11は、HDD14に格納されている複数の動画像ファイルの一覧表示機能と、動画像ファイルの再生機能と、を有する。動画像ファイルの一覧表示機能は、各々の動画像ファイルに対応する静止画像(以下、代表画像と呼ぶ)をサムネイル表示する機能である。サムネイル表示された代表画像のうち、いずれか1つがユーザにより選択されると、制御回路11は選択された代表画像に対応する動画像ファイルの再生を開始する。   Next, the moving image file list display function by the image processing apparatus 1 will be described. The control circuit 11 has a list display function of a plurality of moving image files stored in the HDD 14 and a moving image file reproduction function. The moving image file list display function is a function for displaying still images (hereinafter referred to as representative images) corresponding to the respective moving image files as thumbnails. When any one of the thumbnail-displayed representative images is selected by the user, the control circuit 11 starts reproduction of the moving image file corresponding to the selected representative image.

本実施形態の画像処理装置は、オブジェクト合成処理と呼ぶ処理による代表画像の作成と、ベストショット合成処理と呼ぶ処理による代表画像の作成と、を行うことが可能である。動画像ファイルの一覧表示を行う際、制御回路11は、HDD14に格納されている各々の動画像ファイルに対して、これら2つの処理のうちいずれかの処理を実行する。   The image processing apparatus according to the present embodiment can create a representative image by a process called an object composition process and a representative image by a process called a best shot composition process. When displaying a list of moving image files, the control circuit 11 executes one of these two processes for each moving image file stored in the HDD 14.

図2は、オブジェクト合成処理によるサムネイル画像の作成手順を示す図である。図2(a)に、以下で説明するオブジェクト合成処理の対象となる動画像ファイル21を示す。この動画像ファイル21は、フレームF11〜F19から構成されている。   FIG. 2 is a diagram showing a procedure for creating a thumbnail image by object composition processing. FIG. 2A shows a moving image file 21 that is a target of an object composition process described below. The moving image file 21 is composed of frames F11 to F19.

オブジェクト合成処理では、まずフレーム選択部11aがオブジェクト合成処理の対象となるフレームをフレームF11〜F19から選択する。フレーム選択部11aは、例えば動画像ファイル21に含まれる全てのフレームを選択するようにしてもよいし、あるいは数フレーム毎に1フレームを選択するようにしてもよい。また、シーンチェンジの検出等を考慮してフレームを選択するようにしてもよい。ここでは、図2(b)に示す4つのフレームF12,F14,F16,F19がオブジェクト合成処理の対象として選択されたこととする。   In the object composition processing, first, the frame selection unit 11a selects a frame to be subjected to object composition processing from the frames F11 to F19. For example, the frame selection unit 11a may select all the frames included in the moving image file 21, or may select one frame every several frames. Further, the frame may be selected in consideration of detection of a scene change or the like. Here, it is assumed that the four frames F12, F14, F16, and F19 shown in FIG. 2B have been selected as objects for object composition processing.

次にオブジェクト抽出部11bが、選択されたこれら4つのフレームからオブジェクトを認識する。オブジェクトとは、各フレームに含まれる所定の物体像である。オブジェクトの認識には、例えばパターンマッチングなど公知の技術を用いることができる。図2(b)に示した例では、フレームF12からは車のオブジェクトOA1が、フレームF14からは人のオブジェクトOB2および犬のオブジェクトOC1が、フレームF16からは人のオブジェクトOB2および犬のオブジェクトOC2が、フレームF19からは犬のオブジェクトOC3および家屋のオブジェクトOD1が、それぞれ認識される。   Next, the object extraction unit 11b recognizes an object from these four selected frames. An object is a predetermined object image included in each frame. A known technique such as pattern matching can be used for object recognition. In the example shown in FIG. 2B, the car object OA1 is displayed from the frame F12, the human object OB2 and the dog object OC1 are displayed from the frame F14, and the human object OB2 and the dog object OC2 are displayed from the frame F16. The dog object OC3 and the house object OD1 are recognized from the frame F19.

オブジェクト抽出部11bはこれらのオブジェクトを認識した後、これらのオブジェクトの同一性を判定する。例えば毎秒30フレームを撮影して動画像ファイルを作成した場合、連続する複数のフレームにおいて同一の物体が繰り返し撮影されることになる。オブジェクト抽出部11bは、認識した複数のオブジェクトが、上記の例のように1つの物体に基づくオブジェクトか否かを判定する。オブジェクトの同一性の判定には公知の画像認識技術を用いる。例えば人のオブジェクトであれば公知の顔認識技術等を用いることが可能である。   After recognizing these objects, the object extraction unit 11b determines the identity of these objects. For example, when a moving image file is created by shooting 30 frames per second, the same object is repeatedly shot in a plurality of consecutive frames. The object extraction unit 11b determines whether or not the plurality of recognized objects are objects based on one object as in the above example. A known image recognition technique is used to determine the identity of the object. For example, for a human object, a known face recognition technique or the like can be used.

例えば図2(b)では、オブジェクト抽出部11bはフレームF14において認識された人のオブジェクトOB1とフレームF16において認識された人のオブジェクトOB2とが同一人物のオブジェクトであると判定する。図2(b)に示した4つのフレームからは、同様にオブジェクトOC1,OC2,OC3が同一の物体のオブジェクトであると判定される。   For example, in FIG. 2B, the object extraction unit 11b determines that the person object OB1 recognized in the frame F14 and the person object OB2 recognized in the frame F16 are objects of the same person. From the four frames shown in FIG. 2 (b), it is similarly determined that the objects OC1, OC2, and OC3 are objects of the same object.

続いてオブジェクト抽出部11bは、各フレームから認識した各オブジェクトの抽出を行う。ただし、同一性の判定の結果に基づき、同一の物体のオブジェクトは1つしか抽出しない。例えば、図2(b)に示した複数のフレームからオブジェクトOC1,OC2,OC3が同時に抽出されることはない。オブジェクト抽出部11bは、これらのオブジェクトの中からいずれか1つのオブジェクトのみを抽出することになる。   Subsequently, the object extraction unit 11b extracts each object recognized from each frame. However, only one object of the same object is extracted based on the result of the identity determination. For example, the objects OC1, OC2, and OC3 are not extracted simultaneously from the plurality of frames shown in FIG. The object extraction unit 11b extracts only one of these objects.

オブジェクト抽出部11bが同一の物体のオブジェクトからいずれか1つを選択する基準は、動画像ファイル21におけるオブジェクトの出現順である。例えば図2(b)において、選択されたフレームの動画像ファイル21における時系列順は、フレームF12,フレームF14,フレームF16,フレームF19という順序になっている。従って、同一の物体のオブジェクトOC1,OC2,OC3のうち、出現順が最も早いオブジェクトは、動画像ファイル21内の時系列順で最も早いフレームF14から認識されたオブジェクトOC1である。オブジェクト抽出部11bはこのように、同一の物体のオブジェクトのうち最初に出現するオブジェクトを抽出する。   The reference for the object extraction unit 11b to select any one of the objects of the same object is the appearance order of the objects in the moving image file 21. For example, in FIG. 2B, the time-series order of the selected frame in the moving image file 21 is the order of frame F12, frame F14, frame F16, and frame F19. Therefore, among the objects OC1, OC2, and OC3 of the same object, the object having the earliest appearance order is the object OC1 recognized from the earliest frame F14 in the time series order in the moving image file 21. In this way, the object extraction unit 11b extracts the first appearing object from the same object.

最後に画像作成部11cが、オブジェクト抽出部11bにより抽出された複数のオブジェクトを並べて1つの静止画像を作成する。作成された静止画像の例を図2(c)に示す。図2(c)に示した静止画像P1には、オブジェクト抽出部11bにより抽出された4つのオブジェクトOA1,OB1,OC1,OD1が含まれている。これらのオブジェクトは、動画像ファイル21における出現順に左から右の順で並べられている。また、静止画像P1の背景は、背景色として選択された単色の塗り潰しとなっている。この静止画像P1が、オブジェクト合成処理により作成された動画像ファイル21の代表画像である。   Finally, the image creation unit 11c creates a single still image by arranging a plurality of objects extracted by the object extraction unit 11b. An example of the created still image is shown in FIG. The still image P1 shown in FIG. 2C includes four objects OA1, OB1, OC1, and OD1 extracted by the object extraction unit 11b. These objects are arranged in order of appearance in the moving image file 21 from left to right. In addition, the background of the still image P1 is filled with a single color selected as the background color. This still image P1 is a representative image of the moving image file 21 created by the object composition process.

図3は、ベストショット合成処理によるサムネイル画像の作成手順を示す図である。図3(a)に、以下で説明するベストショット合成処理の対象となる動画像ファイル22を示す。この動画像ファイル22はフレームF21〜F29から構成されている。   FIG. 3 is a diagram showing a procedure for creating a thumbnail image by the best shot composition process. FIG. 3A shows a moving image file 22 that is a target of the best shot composition process described below. The moving image file 22 is composed of frames F21 to F29.

ベストショット合成処理においても、オブジェクト合成処理と同様にまずフレームの選択、オブジェクトの認識、同一性の判定が実行される。すなわち、まずフレーム選択部11aにより処理対象とするフレームが選択される。次にオブジェクト抽出部11bによりオブジェクトが認識されると共に、各オブジェクトが同一の物体のオブジェクトか否かが判定される。なお、フレーム選択部11aは、各フレームから視点の水平移動を検知し、パノラマ画像が作成可能となるようにフレームの選択を行う。   In the best shot composition process, as in the object composition process, frame selection, object recognition, and identity determination are first executed. That is, first, a frame to be processed is selected by the frame selection unit 11a. Next, the object extraction unit 11b recognizes the object and determines whether each object is an object of the same object. The frame selection unit 11a detects the horizontal movement of the viewpoint from each frame, and selects a frame so that a panoramic image can be created.

その後オブジェクト抽出部11bは、認識したオブジェクトに対応する物体のうち出現頻度が最も高い1つを動画像ファイル22の主要被写体として選択する。そして、この主要被写体に対応するオブジェクトのうち、サイズが最も大きいオブジェクトを主要オブジェクトとして選択する。以下、主要オブジェクトが含まれるフレームを、主要被写体のベストショットと呼ぶ。   Thereafter, the object extraction unit 11b selects one of the objects corresponding to the recognized object with the highest appearance frequency as the main subject of the moving image file 22. Then, the object having the largest size among the objects corresponding to the main subject is selected as the main object. Hereinafter, a frame including the main object is referred to as a best shot of the main subject.

画像作成部11cは、フレーム選択部11aが選択したフレームに基づくパノラマ画像を作成する。そして、このパノラマ画像を背景とし、且つ主要オブジェクト以外のオブジェクトを含まない静止画像を作成する。この静止画像が、動画像ファイル22の代表画像である。   The image creation unit 11c creates a panoramic image based on the frame selected by the frame selection unit 11a. Then, a still image is created using the panoramic image as a background and including no objects other than the main object. This still image is a representative image of the moving image file 22.

画像作成部11cが作成するパノラマ画像は、可能な限り主要オブジェクト以外のオブジェクトを含まないように作成される。例えば移動する物体を追跡して撮影された動画像の場合、あるフレームにおいてその物体の蔭となった背景であっても、その前後のフレームでは蔭となっていないことが考えられる。従って、そのようなフレームを利用すれば、背景のパノラマ画像を主要オブジェクト以外のオブジェクトを含まないように作成することができる。   The panorama image created by the image creation unit 11c is created so as not to include objects other than the main object as much as possible. For example, in the case of a moving image captured by tracking a moving object, it is conceivable that even if the background is a background of the object in a certain frame, the background is not a background. Therefore, by using such a frame, a panoramic image of the background can be created so as not to include objects other than the main object.

図4は、動画像ファイルから代表画像を作成する制御回路11の処理を示すフローチャートである。本フローチャートの処理を実行するためのプログラムはフラッシュメモリ12に格納されている。まずステップS10では、フレーム選択部11aが以降の処理の対象とするフレームを選択する。ステップS20では、オブジェクト抽出部11bが後述するオブジェクト認識処理を実行する。ステップS30では、制御回路11が代表画像の作成方法を判定する。例えば動画像ファイルの視点が水平方向にパンニングしていることを検出した場合には、代表画像をベストショット合成処理により作成すべきであると判定され、それ以外の場合には代表画像をオブジェクト合成処理により作成すべきであると判定される。   FIG. 4 is a flowchart showing processing of the control circuit 11 that creates a representative image from a moving image file. A program for executing the processing of this flowchart is stored in the flash memory 12. First, in step S10, the frame selection unit 11a selects a frame to be processed later. In step S20, the object extraction unit 11b executes an object recognition process described later. In step S30, the control circuit 11 determines a representative image creation method. For example, when it is detected that the viewpoint of the moving image file is panned in the horizontal direction, it is determined that the representative image should be created by the best shot composition process, and in other cases, the representative image is synthesized with the object. It is determined that it should be created by processing.

ステップS30において、制御回路11が代表画像をオブジェクト合成処理により作成すべきであると判定した場合にはステップS40へ進む。ステップS40では、オブジェクト抽出部11bおよび画像作成部11cにより、後述するオブジェクト合成処理が実行される。他方、ステップS30で、制御回路11が代表画像をベストショット合成処理により作成すべきであると判定した場合にはステップS50へ進む。ステップS50では、オブジェクト抽出部11bおよび画像作成部11cにより、後述するベストショット合成処理が実行される。   If the control circuit 11 determines in step S30 that the representative image should be created by the object composition process, the process proceeds to step S40. In step S40, the object extraction unit 11b and the image creation unit 11c execute an object composition process to be described later. On the other hand, when the control circuit 11 determines in step S30 that the representative image should be created by the best shot composition process, the process proceeds to step S50. In step S50, the object extraction unit 11b and the image creation unit 11c execute a best shot composition process to be described later.

図5は、オブジェクト認識処理のフローチャートである。この処理は、図4に示したフローチャートのステップS20において呼び出される。オブジェクト認識処理では、図4のステップS10において選択された各フレームからの、オブジェクトの認識が行われる。ステップS21では、オブジェクト抽出部11bが、フレーム選択部11aにより選択されたフレームのうち未処理のフレームを1つ読み込む。ステップS22では、オブジェクト抽出部11bが、ステップS21で読み込んだフレームからオブジェクトの認識に必要な特徴量を算出する。ステップS23では、オブジェクト抽出部11bが、ステップS21で読み込んだフレームからオブジェクトの認識を行う。オブジェクトの認識には、ステップS22で算出した特徴量を使用する。   FIG. 5 is a flowchart of the object recognition process. This process is called in step S20 of the flowchart shown in FIG. In the object recognition process, an object is recognized from each frame selected in step S10 in FIG. In step S21, the object extraction unit 11b reads one unprocessed frame among the frames selected by the frame selection unit 11a. In step S22, the object extraction unit 11b calculates a feature amount necessary for object recognition from the frame read in step S21. In step S23, the object extraction unit 11b recognizes an object from the frame read in step S21. The feature amount calculated in step S22 is used for object recognition.

なお、ステップS22における特徴量の算出と、ステップS23におけるオブジェクトの認識とは、共に公知の画像認識技術を利用する。例えばパターンマッチングを用いてオブジェクトの認識を行うのであれば、まずステップS22において、あらかじめ用意された複数のパターンの各々について、処理対象のフレームとの相関を表す特徴量を算出する。そして、ステップS23において、特徴量に基づき所定の基準を満たすパターンを選択する。   Note that the feature amount calculation in step S22 and the object recognition in step S23 both use a known image recognition technique. For example, if object recognition is performed using pattern matching, first, in step S22, a feature amount representing a correlation with a processing target frame is calculated for each of a plurality of patterns prepared in advance. In step S23, a pattern that satisfies a predetermined criterion is selected based on the feature amount.

ステップS24では、オブジェクト抽出部11bが、これまでに認識されたオブジェクトとステップS23において直近に認識されたオブジェクトとの同一性を判定する。ステップS25では、オブジェクト抽出部11bがステップS23で認識したオブジェクトからオブジェクト情報を作成する。オブジェクト情報はオブジェクトの抽出を行うための情報である。オブジェクト情報には、例えばオブジェクトへ割り当てられる一意な識別子、これまでに認識したオブジェクトと同一か否かを表す情報、オブジェクトに外接する矩形、オブジェクトが認識されたフレームを特定する為の情報、等が含まれる。ステップS26では、オブジェクト抽出部11bが、ステップS24で作成したオブジェクト情報をDRAM13へ記録する。ステップS27では、オブジェクト抽出部11bがフレーム選択部11aにより選択された全フレームに対して処理を完了したか否かを判定する。未処理のフレームが残っている場合にはステップS21へ戻る。他方、全てのフレームに対して処理を完了した場合にはオブジェクト認識処理を終了する。   In step S24, the object extraction unit 11b determines the identity between the object recognized so far and the object most recently recognized in step S23. In step S25, the object extraction unit 11b creates object information from the object recognized in step S23. Object information is information for extracting an object. The object information includes, for example, a unique identifier assigned to the object, information indicating whether the object is the same as the object recognized so far, a rectangle circumscribing the object, information for specifying the frame in which the object is recognized, etc. included. In step S26, the object extraction unit 11b records the object information created in step S24 in the DRAM 13. In step S27, the object extraction unit 11b determines whether or not the processing has been completed for all the frames selected by the frame selection unit 11a. If unprocessed frames remain, the process returns to step S21. On the other hand, when the process is completed for all frames, the object recognition process is terminated.

図6は、オブジェクト合成処理のフローチャートである。この処理は、図4に示したフローチャートのステップS40において呼び出される。ステップS41では、ステップS25でDRAM13に記録された全てのオブジェクト情報をオブジェクト抽出部11bが読み込む。ステップS42では、オブジェクト抽出部11bが、オブジェクト情報に含まれる全オブジェクトのうち未処理のオブジェクトを出現順に1つ選択する。   FIG. 6 is a flowchart of the object composition process. This process is called in step S40 of the flowchart shown in FIG. In step S41, the object extraction unit 11b reads all the object information recorded in the DRAM 13 in step S25. In step S42, the object extraction unit 11b selects one unprocessed object in the order of appearance among all the objects included in the object information.

ステップS43では、オブジェクト抽出部11bが、オブジェクト情報に含まれるオブジェクトの同一性に関する情報を確認し、ステップS42で選択したオブジェクトと同一のオブジェクトが既に抽出されているか否かを判定する。抽出済みであった場合にはステップS43により肯定判定がなされ、ステップS45へ進む。他方、否定判定がなされた場合にはステップS44へ進む。ステップS44では、オブジェクト抽出部11bが、オブジェクト情報に基づいて対応するフレームからオブジェクトを抽出する。ステップS45では、オブジェクト抽出部11bが、全てのオブジェクトについて処理が完了したか否かを判定する。未処理のオブジェクトが存在する場合には否定判定がなされ、ステップS42へ戻る。他方、ステップS45において肯定判定がなされた場合にはステップS46へ進む。ステップS46では、画像作成部11cが、ステップS44において抽出された全てのオブジェクトを含む静止画像を作成する。   In step S43, the object extraction unit 11b confirms information regarding the identity of the object included in the object information, and determines whether the same object as the object selected in step S42 has already been extracted. If it has been extracted, an affirmative determination is made in step S43, and the process proceeds to step S45. On the other hand, if a negative determination is made, the process proceeds to step S44. In step S44, the object extraction unit 11b extracts an object from the corresponding frame based on the object information. In step S45, the object extraction unit 11b determines whether the processing has been completed for all objects. If there is an unprocessed object, a negative determination is made, and the process returns to step S42. On the other hand, if a positive determination is made in step S45, the process proceeds to step S46. In step S46, the image creation unit 11c creates a still image including all the objects extracted in step S44.

図7は、ベストショット合成処理のフローチャートである。この処理は、図4に示したフローチャートのステップS50において呼び出される。ステップS51では、ステップS25でDRAM13に記録された全てのオブジェクト情報をオブジェクト抽出部11bが読み込む。ステップS52では、オブジェクト抽出部11bが、各被写体ごとの出現頻度を集計する。ステップS53では、オブジェクト抽出部11bが、ステップS52で集計した出現頻度が最も多い被写体、すなわち主要被写体を選択する。ステップS54では、オブジェクト抽出部11bが、主要被写体に対応するオブジェクトのうちサイズが最も大きいオブジェクト、すなわち主要オブジェクトを、オブジェクト情報に基づいて対応するフレームから抽出する。ステップS55では、画像作成部11cが、最終的に作成される静止画像の背景画像となるパノラマ画像を作成する。ステップS56では、画像作成部11cが、ステップS55で作成したパノラマ画像を背景とし、且つ、ステップS54で抽出された主要オブジェクト以外のオブジェクトを含まない静止画像を作成する。   FIG. 7 is a flowchart of the best shot composition process. This process is called in step S50 of the flowchart shown in FIG. In step S51, the object extraction unit 11b reads all the object information recorded in the DRAM 13 in step S25. In step S52, the object extraction unit 11b totals the appearance frequency for each subject. In step S53, the object extraction unit 11b selects the subject having the highest appearance frequency, that is, the main subject that has been tabulated in step S52. In step S54, the object extraction unit 11b extracts the largest object among the objects corresponding to the main subject, that is, the main object from the corresponding frame based on the object information. In step S55, the image creation unit 11c creates a panoramic image that is the background image of the still image that is finally created. In step S56, the image creating unit 11c creates a still image that uses the panoramic image created in step S55 as a background and does not include objects other than the main object extracted in step S54.

上述した第1の実施の形態による画像処理装置によれば、次の作用効果が得られる。
(1)画像作成部11cは、オブジェクト抽出部11bにより抽出された複数のオブジェクトを含む静止画像を作成する。これにより、1つの静止画像から動画像ファイルの内容全体をより的確に把握することができる。
According to the image processing apparatus according to the first embodiment described above, the following operational effects can be obtained.
(1) The image creation unit 11c creates a still image including a plurality of objects extracted by the object extraction unit 11b. Thereby, the entire content of the moving image file can be grasped more accurately from one still image.

(2)オブジェクト抽出部11bは、複数のフレームの各々から認識された複数のオブジェクトが同一の物体のオブジェクトであった場合、複数のオブジェクトのうちいずれか1つのオブジェクトのみを抽出する。これにより、繰り返し登場する物体が存在した場合であっても、動画像ファイルの内容全体を把握しやすい静止画像が作成される。 (2) The object extraction unit 11b extracts only one of the plurality of objects when the plurality of objects recognized from each of the plurality of frames are the same object. As a result, even if there is an object that repeatedly appears, a still image that makes it easy to grasp the entire contents of the moving image file is created.

(3)制御回路11は、オブジェクト合成処理とベストショット合成処理とを切り替えて静止画像を作成する。これにより、動画像の特性に合った適切な静止画像が作成される。 (3) The control circuit 11 creates a still image by switching between the object composition process and the best shot composition process. Thereby, an appropriate still image suitable for the characteristics of the moving image is created.

(4)画像作成部11cは、パノラマ画像を静止画像の背景とする場合に、主要オブジェクト以外のオブジェクトが含まれないようなパノラマ画像を作成する。これにより、主要オブジェクトが何であるかを判断しやすい静止画像が作成される。 (4) The image creating unit 11c creates a panoramic image that does not include an object other than the main object when the panoramic image is used as the background of the still image. This creates a still image that makes it easy to determine what the main object is.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
代表画像の作成は、サムネイル表示を行う際に実行してもよいし、動画像ファイルを作成する際に実行してもよい。例えばビデオカメラに上述した代表画像の作成処理を実行させてもよい。また、作成された代表画像を、動画像ファイルに関連付けられた画像ファイルとして記録媒体に記録してもよい。
(Modification 1)
The creation of the representative image may be executed when the thumbnail display is performed, or may be executed when the moving image file is generated. For example, the above-described representative image creation process may be executed by a video camera. Further, the created representative image may be recorded on a recording medium as an image file associated with the moving image file.

(変形例2)
上述した実施の形態の説明では、オブジェクト合成処理とベストショット合成処理という2つの処理を切り替えて代表画像を作成していたが、これらのうち一方の処理のみを用いて代表画像を作成するように画像処理装置を構成してもよい。
(Modification 2)
In the description of the embodiment described above, the representative image is created by switching between the two processes of the object synthesis process and the best shot synthesis process. However, the representative image is created using only one of these processes. An image processing apparatus may be configured.

(変形例3)
オブジェクト抽出部11bが所定の数よりも多くのオブジェクトを認識した場合、それらのオブジェクトのうち一部のもののみを抽出するようにしてもよい。例えば、所定のサイズ以下のオブジェクトは抽出しないようにしてもよいし、オブジェクトの種類や形状に基づき抽出するオブジェクトを限定するようにしてもよい。また、例えば顔認識などの技術を用いて、特定の人物のみが抽出されるようにしてもよい。あるいは、オブジェクトの一覧を表示し、抽出するオブジェクトをユーザに選択させるようにしてもよい。
(Modification 3)
When the object extracting unit 11b recognizes more objects than a predetermined number, only some of the objects may be extracted. For example, an object having a predetermined size or less may not be extracted, or objects to be extracted may be limited based on the type and shape of the object. Further, for example, only a specific person may be extracted using a technique such as face recognition. Alternatively, a list of objects may be displayed and the user may select an object to be extracted.

(変形例4)
同一の物体のオブジェクトからいずれか1つを選択する基準として、オブジェクトの出現順以外の基準を用いてもよい。例えばサイズが最も大きいオブジェクトを選択してもよいし、コントラストが最も高いオブジェクトを選択するようにしてもよい。あるいは、所定の画像処理により算出された特徴量を用いてオブジェクトの選択を行うようにしてもよい。
(Modification 4)
As a criterion for selecting any one of the objects of the same object, a criterion other than the order of appearance of the objects may be used. For example, an object having the largest size may be selected, or an object having the highest contrast may be selected. Alternatively, an object may be selected using a feature amount calculated by predetermined image processing.

(変形例5)
静止画像に複数のオブジェクトを配置する手法は、出現順に左から右の順で並べる以外の手法であってもよい。例えばランダムに静止画像全体に配置するようにしてもよい。また、オブジェクトの数が多い場合には、一部または全部のオブジェクトを縮小して静止画像に納めるようにしてもよい。あるいは、静止画像のサイズを大きくしてもよい。
(Modification 5)
A technique for arranging a plurality of objects in a still image may be a technique other than arranging them in order of appearance from left to right. For example, it may be arranged randomly throughout the still image. Further, when the number of objects is large, some or all of the objects may be reduced and stored in a still image. Alternatively, the size of the still image may be increased.

(変形例6)
オブジェクト合成処理とベストショット合成処理との切り替えは、上述した実施の形態に限定されない。例えばユーザが手動でどちらの処理を用いるか選択できるようにしてもよいし、動画像ファイルに出現するオブジェクトの数が所定数より多い場合にはオブジェクト合成処理を用いるようにしてもよい。
(Modification 6)
Switching between the object composition process and the best shot composition process is not limited to the embodiment described above. For example, the user may be able to manually select which process to use, or the object composition process may be used when the number of objects appearing in the moving image file is greater than a predetermined number.

(変形例7)
画像作成部11cがオブジェクト合成処理において作成する静止画像は、何らかの背景を有するようにしてもよい。例えばフレーム選択部11aにより選択されたフレームのうちいずれかのフレームの背景を用いるようにしてもよいし、所定の背景画像を用いるようにしてもよい。
(Modification 7)
The still image created by the image creation unit 11c in the object composition process may have some background. For example, the background of any one of the frames selected by the frame selection unit 11a may be used, or a predetermined background image may be used.

(変形例8)
主要被写体および主要オブジェクトの選択方法は、上述した実施の形態に限定されない。例えば最も強いエッジが検出されたフレームをベストショットとし、このフレームに含まれるオブジェクトを主要オブジェクトとする、等の方法であってもよい。
(Modification 8)
The selection method of the main subject and the main object is not limited to the above-described embodiment. For example, a method may be used in which a frame in which the strongest edge is detected is set as the best shot, and an object included in the frame is set as a main object.

(変形例9)
1つの動画像から複数の静止画像を作成するようにしてもよい。また、これらの静止画像を縦横に連結した静止画像を代表画像としてもよい。
(Modification 9)
A plurality of still images may be created from one moving image. Still images obtained by connecting these still images vertically and horizontally may be used as representative images.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   The present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1 画像処理装置
11 制御回路
11a フレーム選択部
11b オブジェクト抽出部
11c 画像作成部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Control circuit 11a Frame selection part 11b Object extraction part 11c Image creation part

Claims (8)

複数のフレームにより構成される動画像から複数のフレームを選択する選択手段と、
前記選択された複数のフレームから所定の物体像を認識し抽出する抽出手段と、
前記抽出手段により抽出された複数の物体像を含む静止画像を作成する画像作成手段と、
を備えることを特徴とする画像処理装置。
Selecting means for selecting a plurality of frames from a moving image composed of a plurality of frames;
Extracting means for recognizing and extracting a predetermined object image from the selected plurality of frames;
Image creating means for creating a still image including a plurality of object images extracted by the extracting means;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記抽出手段は、複数のフレームの各々から認識された複数の物体像が同一の物体の像であった場合、該複数の物体像のうちいずれか1つの物体像のみを抽出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
When the plurality of object images recognized from each of the plurality of frames are the same object image, the extraction unit extracts only one of the plurality of object images. An image processing apparatus.
請求項1または2に記載の画像処理装置において、
前記画像作成手段は、前記動画像の少なくとも一部のフレームに基づいて作成された背景画像を背景とする前記静止画像を作成するすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing device is characterized in that the image creating unit creates the still image with a background image created based on at least a part of the frame of the moving image as a background.
請求項3に記載の画像処理装置において、
前記背景画像は、前記動画像に含まれる複数のフレームに基づいて作成されたパノラマ画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus according to claim 1, wherein the background image is a panoramic image created based on a plurality of frames included in the moving image.
複数のフレームにより構成される動画像から複数のフレームを選択する選択工程と、
前記選択された複数のフレームから所定の物体像を認識し抽出する抽出工程と、
前記抽出手段により抽出された複数の物体像を含む静止画像を作成する画像作成工程と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
A selection step of selecting a plurality of frames from a moving image composed of a plurality of frames;
An extraction step of recognizing and extracting a predetermined object image from the selected plurality of frames;
An image creating step of creating a still image including a plurality of object images extracted by the extracting means;
An image processing program for causing a computer to execute.
請求項5に記載の画像処理プログラムにおいて、
前記抽出工程は、複数のフレームの各々から認識された複数の物体像が同一の物体の像であった場合、該複数の物体像のうちいずれか1つの物体像のみを抽出することを特徴とする画像処理プログラム。
The image processing program according to claim 5,
In the extracting step, when a plurality of object images recognized from each of a plurality of frames are images of the same object, only one object image is extracted from the plurality of object images. Image processing program.
請求項5または6に記載の画像処理プログラムにおいて、
前記画像作成工程は、前記動画像の少なくとも一部のフレームに基づいて作成された背景画像を背景とする前記単一の静止画像を作成するすることを特徴とする画像処理プログラム。
In the image processing program according to claim 5 or 6,
The image processing program is characterized in that the image creating step creates the single still image with a background image created based on at least a part of the frame of the moving image as a background.
請求項7に記載の画像処理プログラムにおいて、
前記背景画像は、前記動画像に含まれる複数のフレームに基づいて作成されたパノラマ画像であることを特徴とする画像処理プログラム。
The image processing program according to claim 7,
The image processing program according to claim 1, wherein the background image is a panoramic image created based on a plurality of frames included in the moving image.
JP2009191310A 2009-08-20 2009-08-20 Image processing apparatus and image processing program Active JP4935872B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009191310A JP4935872B2 (en) 2009-08-20 2009-08-20 Image processing apparatus and image processing program
US12/860,324 US8897603B2 (en) 2009-08-20 2010-08-20 Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009191310A JP4935872B2 (en) 2009-08-20 2009-08-20 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2011044882A true JP2011044882A (en) 2011-03-03
JP4935872B2 JP4935872B2 (en) 2012-05-23

Family

ID=43831985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009191310A Active JP4935872B2 (en) 2009-08-20 2009-08-20 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4935872B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076238A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image layout determining method as well as program and information processing apparatus for the method
JP2015133634A (en) * 2014-01-14 2015-07-23 日本放送協会 image selection device
KR101653802B1 (en) * 2015-03-23 2016-09-05 주식회사 엔씨소프트 3 dimenstional graphic data capturing system and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142453A (en) * 1999-11-11 2001-05-25 Sony Corp Display control method and display control device which display image related to the contents of all or portion of moving image, information providing server and image related to the contents of all or portion of the moving image
JP2003198902A (en) * 2001-12-25 2003-07-11 Sony Corp Panoramic picture generator
JP2008187267A (en) * 2007-01-26 2008-08-14 Canon Inc Moving picture printer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142453A (en) * 1999-11-11 2001-05-25 Sony Corp Display control method and display control device which display image related to the contents of all or portion of moving image, information providing server and image related to the contents of all or portion of the moving image
JP2003198902A (en) * 2001-12-25 2003-07-11 Sony Corp Panoramic picture generator
JP2008187267A (en) * 2007-01-26 2008-08-14 Canon Inc Moving picture printer

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076238A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image layout determining method as well as program and information processing apparatus for the method
JP2015133634A (en) * 2014-01-14 2015-07-23 日本放送協会 image selection device
KR101653802B1 (en) * 2015-03-23 2016-09-05 주식회사 엔씨소프트 3 dimenstional graphic data capturing system and method thereof

Also Published As

Publication number Publication date
JP4935872B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
CN102469242B (en) Imaging device and imaging method
US10277812B2 (en) Image processing to obtain high-quality loop moving image
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
JP5158138B2 (en) Imaging device, playback device, and playback program
JP2007241496A (en) Image processor, image processing method, and program
JP2010239605A (en) Video editing device
JP4853582B1 (en) Image processing apparatus and image processing program
JP4935872B2 (en) Image processing apparatus and image processing program
JP2014209707A (en) Device and method for video reproduction
JP2014107641A (en) Information processing apparatus, method and program
JP2010130093A (en) Imaging apparatus, and program for the same
JP2003333537A (en) Image reproducing apparatus and image reproducing method
JP6332864B2 (en) Image processing apparatus, image processing method, and program
KR102066857B1 (en) object image tracking streaming system and method using the same
JP2006041586A (en) Video reproducing and displaying apparatus
JP5464965B2 (en) Image processing apparatus, control method therefor, program, and storage medium
JP4546810B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP2005217721A (en) Apparatus and method for generating still picture
JP6259006B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5677598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5932963B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5312002B2 (en) Recording / reproducing apparatus, reproducing apparatus and control method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4935872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250