JP2012205114A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2012205114A JP2012205114A JP2011068392A JP2011068392A JP2012205114A JP 2012205114 A JP2012205114 A JP 2012205114A JP 2011068392 A JP2011068392 A JP 2011068392A JP 2011068392 A JP2011068392 A JP 2011068392A JP 2012205114 A JP2012205114 A JP 2012205114A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- images
- data
- sequentially
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、動画像の編集を簡単に行うことができる画像処理装置及び画像処理方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program that can easily edit a moving image.
従来より、複数枚の一連の撮像画像(動画像)と、他の画像との各データを合成して、撮像画像では表現できない画像のデータを作成する画像処理の技術がある(特許文献1参照)。 2. Description of the Related Art Conventionally, there has been an image processing technique for creating data of an image that cannot be represented by a captured image by combining a plurality of series of captured images (moving images) and other images (see Patent Document 1). ).
しかしながら、上述の特許文献1に記載の従来技術では、画像処理の単位は、動画像を構成するフレームやフィールド(以下、「単位画像」と呼ぶ)であり、その結果、単位画像毎に編集を行う必要があるために、動画像の編集に手間がかかるという問題があった。
However, in the prior art described in
本発明は、このような状況に鑑みてなされたものであり、動画像の編集を簡単に行うことができることを目的とする。 The present invention has been made in view of such a situation, and an object thereof is to easily edit a moving image.
上記目的を達成するため、本発明の一態様の画像処理装置は、複数の画像を順次取得する取得手段と、前記取得手段により取得された画像上のオブジェクトを指示するための指示手段と、前記指示手段により指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出手段と、前記抽出手段によって抽出された前記オブジェクト画像を、前記取得手段によって順次取得される画像に合成することで、合成画像を順次生成する生成手段と、を備えることを特徴とする。 To achieve the above object, an image processing apparatus according to an aspect of the present invention includes an acquisition unit that sequentially acquires a plurality of images, an instruction unit that indicates an object on an image acquired by the acquisition unit, An extraction unit that extracts an object image of an area including an object instructed by the instruction unit, and the object image extracted by the extraction unit is combined with an image that is sequentially acquired by the acquisition unit. And generating means for generating sequentially.
本発明によれば、動画像の編集を簡単に行うことができる。 According to the present invention, it is possible to easily edit a moving image.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an
撮像装置1は、カメラLSI(Large Scale Integration)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インタフェース15(以下、「入出力I/F15」と略記する)と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21とを備える。
The
カメラLSI11は、特定の複雑な機能を果たすために、多数の素子を1つにまとめたIC(Integrated Circuit、集積回路)であり、カメラ処理部31と、CPU(Central Processing Unit)32と、データ圧縮/伸長部33と、を備えている。
カメラ処理部31は、後述する撮像部16からRAWデータの形態で出力された撮像画像のデータを、各種画像処理を施した上で記憶部19に記憶させる。
CPU32は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
データ圧縮/伸長部33は、撮像部16から出力された撮像画像のデータ等各種画像のデータに対して、MPEG(Moving Picture Expert Group)やJPEG(Joint Photographic Experts Group)等の所定の方式に従った圧縮符号化処理を施し、その結果得られるデータ(以下、「圧縮データ」と呼ぶ)を記憶部19等に供給する。また、データ圧縮/伸長部33は、圧縮データに対して、当該所定の方式に従った伸長復号化処理を施し、元の画像のデータを復元し、記憶部19等に供給する。
なお、圧縮符号化又は伸長復号化の処理単位は、特に限定されず、単位画像の単位でもよいし、動画像の単位でもよい。
The
The camera processing unit 31 stores the captured image data output in the form of RAW data from the imaging unit 16 (to be described later) in the
The
The data compression /
The processing unit for compression encoding or decompression decoding is not particularly limited, and may be a unit image unit or a moving image unit.
RAM13には、カメラLSI11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
入出力I/F15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。
カメラLSI11、ROM12及びRAM13は、バス14を介して相互に接続されている。
An
The
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号発揮によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号が、ここでいう、「RAWデータの形態の撮像画像のデータ」と呼ばれている。RAWデータの形態の撮像画像のデータは、カメラLSI11等に適宜供給される。ここで、記憶部19の記憶の単位はフレームであるが、撮像部16の出力単位は画素であり、いわゆるラスター順で出力される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by outputting various signals and output as an output signal of the
Such an output signal of the
入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
なお、本実施形態において、入力部17及び出力部18は、ディスプレイ上にタッチセンサが重畳的に配置されるタッチパネル式の液晶ディスプレイにより構成される。
The
The
In the present embodiment, the
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア22が適宜装着される。ドライブ21によってリムーバブルメディア22から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア22は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
A removable medium 22 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the
図2は、このような撮像装置1の機能的構成のうち、コラージュ画像合成処理を実行するための機能的構成を示す機能ブロック図である。
なお、図2においては、説明の管理上、入出力I/F15の図示は省略されている。
FIG. 2 is a functional block diagram illustrating a functional configuration for executing the collage image synthesis process among the functional configurations of the
In FIG. 2, the illustration of the input / output I /
ここで、コラージュ画像合成処理とは、動画像を構成する各単位画像のうち、1以上の単位画像の各々のデータから、所定の操作により所定のオブジェクト領域のデータをそれぞれ抽出し、1以上の所定のオブジェクト領域の各データを別の単位画像内に合成することで、撮像時とは違った状態の動画像のデータを生成するまでの一連の処理をいう。 Here, the collage image composition processing is to extract data of a predetermined object region by a predetermined operation from each data of one or more unit images of each unit image constituting a moving image, and This is a series of processing until data of a moving image in a state different from that at the time of imaging is generated by synthesizing each data of a predetermined object area in another unit image.
記憶部19は、記憶されるデータ毎に、異なるバッファを備える。記憶部19は、本実施形態においては、撮像画像データバッファと、生成表示データバッファと、オブジェクト画像データバッファと、表示データバッファと、合成画像データバッファと、圧縮用データバッファと、圧縮データバッファと、を備える。
The
撮像画像データバッファには、撮像部16からカメラ処理部31を介して供給される撮像画像のデータ(YUVデータ)が記憶される。
生成表示データバッファには、撮像画像データバッファに記憶されていた撮像画像のデータが、出力部18で表示可能な形態、例えば、輝度信号(Y)と、青色成分の差分信号(U)と、赤色成分の差分信号(V)との3要素からなるデータ(以下、「YUVデータ」と呼ぶ)で記憶される。
即ち、撮像画像データバッファと生成表示データバッファとの組はいわゆる2面構成となっているバッファである。具体的には、撮像部16からカメラ処理部31を介して出力されてくる撮像画像のデータ(RAWデータ)は、画素単位でラスター順に順次出力されてくる。このため、先ず、撮像画像データバッファにおいて、ラスター順で順次出力されてくる各画素のRAWデータが順次記憶されていく。これとは独立して並行に、撮像画像データバッファに記憶された各画素のRAWデータは、ラスター順で順次読み出された後、YUVデータに変換されて、生成表示データバッファに順次記憶されていく。
このように、撮像画像データバッファと生成表示データバッファという2面構成を取ることで、書き込み=カメラ処理部31の出力データ(撮像画像を構成する各画素のRAWデータ)の記録と、読み出し=撮像画像のYUVデータ(表示データ)の作成とが、互いに干渉しないように制御される。
The captured image data buffer stores captured image data (YUV data) supplied from the
In the generated display data buffer, the captured image data stored in the captured image data buffer can be displayed on the
That is, the combination of the captured image data buffer and the generated display data buffer is a buffer having a so-called two-surface configuration. Specifically, captured image data (RAW data) output from the
Thus, by taking the two-surface configuration of the captured image data buffer and the generated display data buffer, writing = recording of output data of the camera processing unit 31 (RAW data of each pixel constituting the captured image) and reading = imaging Creation of image YUV data (display data) is controlled so as not to interfere with each other.
オブジェクト画像データバッファには、生成表示データバッファにYUVデータとして記憶された単位画像のデータから、所定のオブジェクトを示す領域(以下、「オブジェクト画像」と呼ぶ)のデータが抽出された場合、当該オブジェクト画像のデータが記憶される。 In the object image data buffer, when data of an area indicating a predetermined object (hereinafter referred to as “object image”) is extracted from unit image data stored as YUV data in the generated display data buffer, the object image Image data is stored.
表示データバッファは、出力部18においてライブビュー画像として表示出力させる段階のYUVデータ、即ち表示制御部63による出力部18への出力用のYUVデータが記憶される。
合成画像データバッファには、撮像画像と1以上のオブジェクト画像の各データが合成された結果得られる画像のYUVデータ(以下、「合成画像のデータ」と呼ぶ)が記憶される。換言すると、CPU32の画像合成部54等の演算処理用のYUVデータが格納される。
圧縮用データバッファは、合成画像のデータ、又は撮像画像のデータが、データ圧縮/伸長部33による圧縮符号化の対象になるYUVデータが記憶される。
このように、表示データバッファ、合成画像データバッファ、及び圧縮用データバッファは、いわゆる3面構造を取っている。これにより、出力部18への出力処理(表示データバッファ担当)、CPU32の演算処理(合成画像データバッファ担当)、及びデータ圧縮/伸長部33の処理(圧縮用データバッファ担当)が、互いに干渉しないように制御される。
The display data buffer stores YUV data at the stage of display output as a live view image in the
The composite image data buffer stores YUV data (hereinafter referred to as “composite image data”) of an image obtained as a result of combining each data of the captured image and one or more object images. In other words, YUV data for arithmetic processing such as the
The compression data buffer stores YUV data, which is the target of compression encoding by the data compression /
As described above, the display data buffer, the composite image data buffer, and the compression data buffer have a so-called three-surface structure. Thereby, the output process to the output unit 18 (in charge of display data buffer), the arithmetic processing of the CPU 32 (in charge of the composite image data buffer), and the process of the data compression / decompression unit 33 (in charge of the compression data buffer) do not interfere with each other. To be controlled.
圧縮データバッファは、データ圧縮/伸長部33により圧縮符号化された後の圧縮データが記憶される。
The compressed data buffer stores the compressed data that has been compressed and encoded by the data compression /
CPU32においては、コラージュ画像合成処理が実行される場合、画像処理部41と、各部制御部42と、が機能する。
In the
画像処理部41は、画像取得部51と、オブジェクト特定部52と、オブジェクト抽出部53と、画像合成部54と、を備える。
なお、画像処理部41の処理単位は、フレーム等の単位画像のYUVデータである。即ち、以下、画像処理部41に関しては、特に断りのない場合、データとは、YUVデータを意味するものとする。
The
The processing unit of the
画像取得部51は、コラージュ画像合成処理を実行する上で注目すべき単位画像(以下、単位画像はフレームであるものとし、このような注目すべき単位画像を「注目フレーム」と呼ぶ)のデータを、生成表示データバッファから取得する。
The
オブジェクト特定部52は、画像取得部51によりデータとして取得された注目フレームについて、ユーザの入力部17に対する指示操作により一部の領域が指定された場合、当該領域に対応する被写体像をオブジェクトとして特定する。
The
オブジェクト抽出部53は、注目フレームのデータから、オブジェクト特定部52により特定されたオブジェクトを含む領域のデータを、オブジェクト画像のデータとして抽出する。
The
以上の画像取得部51乃至オブジェクト抽出部53の一連の処理は、動画像を構成する各フレームのうち、複数のフレームのデータに対してそれぞれ実行される場合がある。この場合、複数のオブジェクト画像のデータが抽出されることになる。
The series of processes of the
画像合成部54は、撮像画像としての動画像を構成する各フレームの各々のデータに対して、オブジェクト抽出部53により抽出された1以上のオブジェクト画像の各データを合成することによって、合成画像(動画像)のデータを生成する。
The
CPU32のうち各部制御部42は、撮像制御部61と、記憶制御部62と、表示制御部63と、入力操作検出部64と、を備える。
Each
撮像制御部61は、撮像部16の撮像動作を制御する。
記憶制御部62は、各種データを記憶部19に記憶させる制御を実行する。
表示制御部63は、各種画像、例えば撮像部16により撮像された撮像画像(動画像)や、画像合成部54により生成された合成画像(動画像)を、フレーム(単位画像)単位で出力部18のモニタに表示させる。
入力操作検出部64は、ユーザによる入力部17に対する操作の内容を検出する。具体的には、入力部17はシャッタ釦(図示せず)やタッチパネルとして構成されており、シャッタ釦に対する指等の押下操作や、タッチパネルへの指等の接触操作が、入力操作検出部64によって検出される。
The
The
The
The input
このような機能的構成を有するCPU32は、コラージュ画像合成処理の実行中やその前後に、ライブビュー撮像処理及びライブビュー表示処理を実行することで、ライブビュー画像を出力部18のディスプレイに表示させる。
具体的には、CPU32は、撮像部16による撮像動作を継続させる。そして、CPU32は、撮像部16による撮像動作が継続されている間、当該撮像部16から順次出力されるフレームのデータを、YUVデータの形態でメモリ(本実施形態では記憶部19の生成表示データバッファ)に一時的に記憶させる。このような一連の制御処理が、ここでいう「ライブビュー撮像処理」である。即ち、ライブビュー撮像処理は、CPU32のうち撮像制御部61により主に実行される。
また、CPU32は、ライブビュー撮像処理の最中にメモリ(本実施形態では記憶部19の生成表示データバッファ)に一時的に記録された各フレームのデータを順次読み出して、当該フレームを出力部18に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」であり、ライブビュー表示処理により出力部18にフレーム単位で表示されている撮像画像(動画像)が、ここでいう「ライブビュー画像」である。
即ち、表示制御部63は、ライブビュー表示処理を実行する。
なお、本実施形態では、記憶部19の表示データバッファに、撮像画像のままのフレームのデータが記憶されている場合には、撮像画像のままのフレームが、ライブビュー画像(動画像)の一部として出力部18に表示される。一方、記憶部19の合成画像データバッファに、元の撮像画像に1以上のオブジェクト画像が合成された合成画像のデータがフレームのデータとして記憶されている場合には、当該合成画像のデータが表示データバッファに上書きされて、その結果、合成画像である当該フレームが、ライブビュー画像(動画像)の一部として出力部18に表示される。
The
Specifically, the
Further, the
In other words, the
In the present embodiment, when data of a frame that is a captured image is stored in the display data buffer of the
次に、本実施形態の撮像装置1におけるコラージュ画像合成処理の動作の流れについて図3を用いて説明する。図3は、撮像装置1におけるコラージュ画像合成処理の動作を示すフローチャートである。
本実施形態においては、車が行き交う道路を撮像対象にして動画像を撮像した場合を例に説明する。具体的には、撮像装置1を保持して撮像操作を行うユーザ(指のみが図示されているユーザ)からみて、自動車carAが道路を右側から左側に向かって走行し、次に自動車carBが道路を左側から右側に向かって走行する場面を撮像装置1が撮像している場合について説明する。
なお、この場合、当該場面がライブビュー画像(動画像)として表示されている最中に、フレーム単位で、自動車carA及び自動車carBの像がオブジェクト画像obj1,obj2として順次抽出される。そして、抽出されたオブジェクト画像obj1,obj2がともに撮像画像(動画像)に合成されて、その結果得られる合成画像(動画像)がライブビュー画像として表示される。
Next, the operation flow of the collage image composition processing in the
In the present embodiment, a case will be described as an example in which a moving image is picked up with a road on which a car passes as an imaging target. Specifically, when viewed from a user who holds the
In this case, while the scene is displayed as a live view image (moving image), images of the car carA and the car carB are sequentially extracted as object images obj1 and obj2 in units of frames. The extracted object images obj1 and obj2 are both combined with the captured image (moving image), and the resultant combined image (moving image) is displayed as a live view image.
なお、コラージュ画像合成処理の理解を容易なものとすべく、具体的なユーザ操作例やライブビュー画像の表示例について、図4及び図5を適宜参照して説明する。
図4は、本実施形態におけるコラージュ画像合成処理に係るユーザ操作の一例を説明するための模式図である。
図5は、図4に示すユーザ操作によってコラージュ画像合成処理が実行された場合における、各種画像のデータの変遷の一例を示す模式図である。なお、図5においては、撮像部16によって撮像された撮像画像(動画像)、当該撮像画像(動画像)のうち1のフレームから抽出されたオブジェクト画像、及び実際に出力部18に表示されるライブビュー画像(モニタ表示画面)がフレーム単位で描かれている。即ち、各行(横方向の並び)に示された1つの長方形状の画像が、1つのフレームを示している。
In order to facilitate the understanding of the collage image composition processing, specific user operation examples and live view image display examples will be described with reference to FIGS. 4 and 5 as appropriate.
FIG. 4 is a schematic diagram for explaining an example of a user operation related to the collage image composition processing in the present embodiment.
FIG. 5 is a schematic diagram illustrating an example of transition of data of various images when the collage image synthesis process is executed by the user operation illustrated in FIG. 4. In FIG. 5, the captured image (moving image) captured by the
先ず、ユーザが、入力部17を操作して、コラージュ画像合成処理の開始の指示を行うと、当該指示を契機にコラージュ画像合成処理が開始される。
First, when the user operates the
ステップS1において、記憶制御部62は、メモリ(記憶部19)内の各領域を初期化する。具体的には、記憶制御部62は、撮像画像データバッファと、生成表示データバッファと、オブジェクト画像データバッファと、表示データバッファと、合成画像データバッファと、圧縮用データバッファ、圧縮データバッファの各バッファとをそれぞれ初期化する。
In step S1, the
ステップS2において、記憶制御部62は、撮像部16からフレームのデータの取り込みを開始する。詳細には、撮像制御部61によるライブビュー撮像処理、及び表示制御部63によるライブビュー表示処理が開始される。そこで、記憶制御部62は、撮像部16により撮像されたフレームのデータ(ライブビュー画像として表示対象になる画像を構成する各フレームのデータ)の取得を開始する。具体的には、各フレームのデータが撮像画像データバッファを介して生成表示データバッファに記憶され(RAWデータからYUVデータに変換されて取り込まれ)、画像取得部51によって注目フレームのデータとして1つずつ取得されていくことが開始される。
In step S <b> 2, the
ステップS3において、記憶制御部62は、1フレーム(注目フレーム)のデータの取り込みを待つ。具体的には、撮像部16からは、1フレームのデータが、画素単位でラスター順にRAWデータの形態で順次出力されてきて、撮像画像データバッファに順次記憶され、さらに、画素単位でラスター順にRAWデータからYUVデータの形態に変換されて、生成表示データバッファに順次蓄積されていく。このような生成表示データバッファに1フレーム分のデータが蓄積されるまで待機することが、ステップS3における「1フレームのデータの取り込みを待つ」ということである。
従って、生成表示データバッファに1フレーム分のデータが蓄積されると、当該1フレームのデータが注目フレームのデータとして、画像取得部51により取得される。
In step S <b> 3, the
Accordingly, when data for one frame is accumulated in the generated display data buffer, the data for the one frame is acquired by the
ステップS4において、記憶制御部62は、1フレーム(注目フレーム)のYUVデータが生成表示データバッファに蓄積されたため、次の1フレームのRAWデータの取り込みを開始すべく、取り込み面である撮像画像データバッファを更新する。これにより、撮像画像データバッファにおいては、注目フレームに対するステップS5以降の処理とは独立して、注目フレームの次のフレーム(次回の注目フレームの候補)のRAWデータの取り込みが行われていくことになる。
In step S4, since the YUV data of one frame (frame of interest) has been accumulated in the generated display data buffer, the
ステップS5において、入力操作検出部64は、注目フレームのデータの取り込み中に有効な操作があったか否かを判断する。
操作がなかった場合、又は、無効な操作であった場合には、ステップS5においてNOであると判定され、処理はステップS9に進む。なお、ステップS9以降の処理については後述する。
有効な操作があった場合には、ステップS5においてYESであると判定されて、処理はステップS6に進む。
In step S <b> 5, the input
If there is no operation or if the operation is invalid, it is determined as NO in step S5, and the process proceeds to step S9. The processing after step S9 will be described later.
If there is a valid operation, it is determined as YES in step S5, and the process proceeds to step S6.
ステップS6において、入力操作検出部64は、タッチコラージュ操作があったか否かを判断する。
タッチコラージュ操作とは、ライブビュー画像等が表示されている出力部18の画面のうち、所定の領域(モニタ画像表示領域)に対して、ユーザの指やタッチペン等を接触又は近接(これらをまとめて、以下、「タッチ」と呼ぶ)する操作をいう。例えば図4(a)の例では、自動車carAの像に対して指によるタッチコラージュ操作(Touch!)が行われている。
タッチコラージュ操作がなかった場合(終了操作があった場合)には、ステップS6においてNOであると判定され、処理はステップS10に進む。なお、ステップS10以降の処理については後述する。
タッチコラージュ操作があった場合には、ステップS6においてYESであると判定され、処理はステップS7に進む。
In step S6, the input
The touch collage operation refers to touching or approaching a user's finger or touch pen to a predetermined area (monitor image display area) on the screen of the
When there is no touch collage operation (when there is an end operation), it is determined as NO in Step S6, and the process proceeds to Step S10. The processing after step S10 will be described later.
If there is a touch collage operation, it is determined as YES in step S6, and the process proceeds to step S7.
ステップS7において、オブジェクト抽出部53は、オブジェクト抽出処理を行う。オブジェクト抽出処理とは、出力部18の表示画面に表示されたフレームのうち、タッチコラージュ操作がなされた領域を検出し、当該領域のデータをオブジェクト画像のデータとして抽出する処理をいう。
詳細には、オブジェクト抽出処理では、タッチコラージュ操作がなされた領域を対象に、エッジ等が判断されて1つの閉曲線内の領域(1つの塊)がオブジェクト画像として特定され、当該オブジェクト画像のデータが抽出される。
In step S7, the
Specifically, in the object extraction process, an edge or the like is determined for an area where a touch collage operation has been performed, and an area (one block) within one closed curve is specified as an object image, and the data of the object image is stored. Extracted.
ステップS8において、画像合成部54は、合成処理を行う。
即ち、画像合成部54は、ステップS7で注目フレームから抽出されたオブジェクト画像のデータと、表示対象のフレームのデータとを合成することによって、合成画像のデータを生成する。
合成画像のデータは、記憶制御部62により、合成画像データバッファに記憶される。その後、合成画像のデータは、記憶制御部62により、表示データバッファに記憶される。
In step S8, the
That is, the
The composite image data is stored in the composite image data buffer by the
ステップS9において、表示制御部63は、表示更新処理を行う。詳細には、表示制御部63は、表示データバッファに記憶されているデータに対応するフレームを表示出力するように出力部18を制御する。
In step S9, the
以上説明したステップS6乃至S9の一連の処理について、図4及び図5の具体例を用いてさらに詳しく説明する。
例えば図4の例では、ユーザにより、モニタ画面の所定の領域(自動車carAがある領域)に対してタッチコラージュ操作がなされたことにより(図4(a)を参照)、ステップS6でYESであると判定されると、ステップS7のオブジェクト抽出処理として、次のような処理が実行される。
即ち、自動車carAを示すオブジェクト画像(obj1)が特定され、当該自動車carAのオブジェクト画像(obj1)のデータが抽出される(図4(b)を参照)。
より詳細には、オブジェクト特定部52は、図5(a)に示すオリジナルフレームを注目フレームとして、当該注目フレームのうち、タッチコラージュ操作がなされた自動車carAの像を含む領域をオブジェクト画像obj1として特定する。オブジェクト抽出部53は、図5(a)に示す注目フレームから、オブジェクト画像obj1のデータを抽出する。なお、このオブジェクト画像obj1のデータには、当該オブジェクトobj1の注目フレーム内の位置関係を示す情報も対応付けられている。この点が、図5(b)の抽出オブジェクトにおいて、オブジェクトobj1が、図5(a)に示す注目フレーム内の配置位置と同一位置に配置されることによって、視覚的に示されている。
The series of processes in steps S6 to S9 described above will be described in more detail using the specific examples of FIGS.
For example, in the example of FIG. 4, when the user has performed a touch collage operation on a predetermined area on the monitor screen (an area where the car carA is present) (see FIG. 4A), YES is determined in step S6. Is determined, the following processing is executed as the object extraction processing in step S7.
That is, the object image (obj1) indicating the car carA is specified, and the data of the object image (obj1) of the car carA is extracted (see FIG. 4B).
More specifically, the
このようにして、ステップS7でオブジェクト抽出処理が実行されると、ステップS8で合成処理が実行され、ステップS9の表示更新処理により、図4(c)に示すようなオブジェクトobj1がライブビュー画像(フレーム)に合成された合成画像が出力部18のディスプレイに表示される。
より詳細には、図5(c)に示すように、左方のオリジナルフレームが表示対象のフレームとなり、当該表示対象のフレームのデータに対して、中央のオブジェクト画像obj1のデータが合成されることによって、右方の合成画像のデータが得られ、当該合成画像が出力部18のディスプレイに表示される。
ここで、オブジェクト画像obj1は、図5(a)に示すオリジナルフレーム(注目フレーム)に含まれていた位置と略同一位置に、合成画像内で含まれていることがわかる。また、表示対象のフレーム(ライブビュー画像)とは、図5(c)に示すオリジナルフレームであり、オブジェクト画像obj1が抽出された図5(a)に示すオリジナルフレーム(注目フレーム)よりも時間的に後であることがわかる。
なお、本実施形態においては、オブジェクト画像obj1は、出力部18での見た目上の差異をユーザにあえて視認させるために、また、データ量を低くして処理負担を軽減するために、画素を間引きする等して解像度を低くしたものが用いられる。
Thus, when the object extraction process is executed in step S7, the composition process is executed in step S8, and the object obj1 as shown in FIG. The composite image combined with the frame is displayed on the display of the
More specifically, as shown in FIG. 5C, the original frame on the left becomes the display target frame, and the data of the center object image obj1 is synthesized with the data of the display target frame. Thus, data of the right composite image is obtained, and the composite image is displayed on the display of the
Here, it can be seen that the object image obj1 is included in the composite image at a position substantially the same as the position included in the original frame (the target frame) shown in FIG. Further, the display target frame (live view image) is the original frame shown in FIG. 5C, which is more temporal than the original frame (focused frame) shown in FIG. 5A from which the object image obj1 is extracted. It turns out later.
In the present embodiment, the object image obj1 is thinned out in order to make the user visually recognize the difference in appearance in the
このようにして、ステップS9の表示更新処理が終了すると、処理はステップS3に戻され、それ以降の処理が繰り返される。
例えば図4の例では、モニタ画面の所定の領域(自動車carBがある領域)に対してタッチコラージュ操作がなされた場合(図4(c)を参照)、自動車carBを示すオブジェクト画像(obj2)が特定され、当該自動車carBのオブジェクト画像(obj2)のデータが抽出される(図4(d)を参照)。
より詳細には、オブジェクト特定部52は、図5(d)に示す注目フレームのうち、タッチコラージュ操作がなされた自動車carBの像を含む領域をオブジェクト画像obj2として特定する。オブジェクト抽出部53は、図5(d)に示す注目フレームから、オブジェクト画像obj2のデータを抽出しデータを上書きする(図5(e)を参照)。その結果、表示更新処理により、図4(d)及び(e)に示すようなオブジェクトobj1及びオブジェクトobj2がライブビュー画像(フレーム)に合成された合成画像が出力部18のディスプレイに表示される(図5(f)及び(g)を参照)。
例えば、ステップS3,S4の後、取り込み中に有効な操作があったとしてステップS5でYESであると判定されたものとする。ただし、この有効な操作がタッチコラージュ操作ではなく終了操作であった場合には、ステップS6においてNOであると判定されて、処理はステップS10に進む。
Thus, when the display update process in step S9 is completed, the process returns to step S3, and the subsequent processes are repeated.
For example, in the example of FIG. 4, when a touch collage operation is performed on a predetermined area on the monitor screen (an area where the car carB is located) (see FIG. 4C), an object image (obj2) indicating the car carB is displayed. The data of the object image (obj2) of the car carB is extracted (see FIG. 4D).
More specifically, the
For example, it is assumed that after steps S3 and S4, it is determined as YES in step S5 because there is an effective operation during capture. However, if this valid operation is not a touch collage operation but an end operation, it is determined as NO in step S6, and the process proceeds to step S10.
ステップS10において、記憶制御部62は、撮像部16からフレームの取り込みを停止する。
In step S <b> 10, the
ステップS11において、データ圧縮/伸長部33は、表示データバッファ(表示面)に記憶されているフレームのデータに対して、JPEG方式に従って圧縮符号化処理を施す。
ここで、合成画像が出力部18のディスプレイにライブビュー画像として表示されている場合、即ち、合成画像のデータが表示データバッファ(表示面)に記憶されている場合、当該合成画像のデータが、JPEG方式の圧縮符号化の対象になる。
これに対して、オリジナルフレーム(撮像画像そのもの)が出力部18のディスプレイにライブビュー画像として表示されている場合、即ち、オリジナルフレームのデータが表示データバッファ(表示面)に記憶されている場合、当該オリジナルフレームのデータが、JPEG方式の圧縮符号化の対象になる。
In step S <b> 11, the data compression /
Here, when the composite image is displayed as a live view image on the display of the
On the other hand, when the original frame (captured image itself) is displayed as a live view image on the display of the
ステップS12において、記憶制御部62は、JPEG結果、即ち、ステップS11でJPEG方式に従って圧縮符号化された結果得られた圧縮データを、メモリカードに書き込む。ここで、メモリカードとは、リムーバブルメディア22の一形態をいう。即ち、記憶制御部62は、圧縮データをリムーバブルメディア22に記憶させる。
これにより、コラージュ画像合成処理は、終了する。
In step S12, the
Thereby, the collage image composition processing is completed.
一方で、ステップS9の表示更新処理が終了すると、処理はステップS3に戻され、それ以降の処理が繰り返される。
例えば、ステップS3,S4の後、取り込み中に有効な操作があったとしてステップS5でYESであると判定されたものとする。ただし、この有効な操作がタッチコラージュ操作ではなく終了操作であった場合には、ステップS6においてNOであると判定されて、処理はステップS10に進む。
On the other hand, when the display update process in step S9 ends, the process returns to step S3, and the subsequent processes are repeated.
For example, it is assumed that after steps S3 and S4, it is determined as YES in step S5 because there is an effective operation during capture. However, if this valid operation is not a touch collage operation but an end operation, it is determined as NO in step S6, and the process proceeds to step S10.
従って、撮像装置1においては、動画像の撮影時にユーザの操作により、撮像された動画像からオブジェクト画像が抽出されて、動画像と合成される。これにより、動画像撮影中に、動画像の編集を行うことができる。
Therefore, in the
以上のように構成される撮像装置1は、画像取得部51と、入力部17及び入力操作検出部64からなる指示部と、オブジェクト抽出部53と、画像合成部54と、を備える。
画像取得部51は、複数の画像を順次取得する。
指示部のうち入力部17は、ユーザの入力操作に基づいて、取得された画像上のオブジェクトを指示する。
オブジェクト抽出部53は、指示されたオブジェクトを含む領域のオブジェクト画像を抽出する。
画像合成部54は、抽出されたオブジェクト画像を、順次取得される画像に合成することで、合成画像を順次生成する。
The
The
Of the instruction units, the
The
The
従って、撮像装置1では、取得した動画像の編集を簡単に行うことができる。
Therefore, the
また、撮像装置1は、出力部18と、表示制御部63とを備える。
出力部18は、画像取得部51に順次取得される画像を表示する。
表示制御部63は、入力部17によりオブジェクトを指示された後は、画像合成部54により順次生成される合成画像を出力部18に表示させるよう制御する。
In addition, the
The
The
従って、撮像装置1では、タッチコラージュ操作がなされた後は、画像合成部54により順次データとして生成される合成画像を出力部18に表示させるために、ユーザは、合成後の状態を合成操作のそばから確認することができる。
Therefore, in the
また、撮像装置1は、指示部のうち入力操作検出部64は、出力部18の表示画面の所定領域に対して物体が接触又は近接することを検出することにより、所定領域に対するタッチコラージュ操作がなされたことを検出する。
In the
従って、撮像装置1では、指やタッチペン等により入力部17に対してタッチコラージュ操作を行うことで、画像の編集が行えるために、直感的に画像の編集を行うことができる。
Therefore, in the
また、撮像装置1では、オブジェクト抽出部53は、入力操作検出部64によりオブジェクトが指示される度に、指示された際の画像からオブジェクトを含む領域のオブジェクト画像を抽出する。
画像合成部54は、オブジェクト抽出部53によって抽出された複数のオブジェクト画像のそれぞれを、画像取得部51によって順次取得される画像に合成することで、合成画像を順次生成する。
Further, in the
The
従って、撮像装置1では、画像合成部54において、第1のオブジェクト画像及び第2のオブジェクト画像の各データを、画像取得部51によって第1の画像及び第3の画像の各データの後に取得された第4の画像のデータに合成する。このため、ユーザは、動画像の変化を考慮した編集を行うことができる。
Therefore, in the
また、撮像装置1は、連続的に撮像画像を出力する撮像部16を備える。
画像取得部51は、前記撮像手段から出力される撮像画像のそれぞれを、前記複数の画像として取得する。
Moreover, the
The
従って、撮像装置1では、撮像した動画像をリアルタイムに編集することができる。ユーザは、画像の変化を確認しながらユーザは編集作業を行うことができるために、編集作業が簡単になると共に、静止画を編集する場合に比べて、画像の変化がより反映された画像が作成されやすくなる。
Therefore, the
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
上述の実施形態では、撮像部16により撮像された動画像を用いたがこれに限られず、例えば、記憶部19に記憶された動画像を用いるように構成してもよい。
In the above-described embodiment, the moving image captured by the
また、上述の実施形態では、タッチされた位置に基づいて、オブジェクト画像を抽出元となる動画像に配置させるように構成したがこれに限られず、オブジェクト画像は何れの場所にも変更可能であり、任意に場所に変更したり、設定により所定の場所に配置したりするように構成することもできる。 In the above-described embodiment, the object image is arranged on the moving image that is the extraction source based on the touched position. However, the present invention is not limited to this, and the object image can be changed to any location. Further, it can be configured to arbitrarily change to a place or to arrange at a predetermined place by setting.
また、上述した実施形態では、合成画像生成部は、抽出して合成した後のフレームから抽出画像を表示するように合成画像を生成したがこれに限られない。例えば、抽出画像を最初のフレームから最後のフレームに至るまで表示されるように合成画像を生成してもよいし、所定のタイミング(例えば、所定のフレームや所定の再生時間)で表示するように合成画像を生成してもよい。 In the above-described embodiment, the composite image generation unit generates the composite image so as to display the extracted image from the frame after extraction and synthesis. However, the present invention is not limited to this. For example, the composite image may be generated so that the extracted image is displayed from the first frame to the last frame, or displayed at a predetermined timing (for example, a predetermined frame or a predetermined reproduction time). A composite image may be generated.
また、上述した実施形態では、オブジェクト画像の抽出指示は、実施形態ではタッチコラージュ操作で行ったが、任意の抽出指示操作でよい。 In the above-described embodiment, the object image extraction instruction is performed by the touch collage operation in the embodiment, but may be any extraction instruction operation.
また、上述した実施形態では、表示制御部63は、オブジェクト画像は、画素を間引きする等して解像度を低くしたものが用いられように構成したがこれに限られない。例えば、オブジェクト画像は、撮像画像よりも高い解像度で表示したり、撮像画像と同様の見栄えになるように同様の解像度で表示したりしてもよい。
In the above-described embodiment, the
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、コラージュ画像合成処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the
For example, the present invention can be applied to general electronic devices having a collage image composition processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア22により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア22は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the removable medium 22 shown in FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but is also stored in the apparatus main body in advance. The recording medium etc. provided in The removable medium 22 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
複数の画像を順次取得する取得手段と、
前記取得手段により取得された画像上のオブジェクトを指示するための指示手段と、
前記指示手段により指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出手段と、
前記抽出手段によって抽出された前記オブジェクト画像を、前記取得手段によって順次取得される画像に合成することで、合成画像を順次生成する生成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記取得手段に順次取得される画像を表示する表示手段と、
前記指示手段によりオブジェクトを指示された後は、前記生成手段により順次生成される前記合成画像を前記表示手段に表示させるよう制御する制御手段と、
を更に備えることを特徴とする付記1に記載の画像処理装置。
[付記3]
前記指示手段は、
前記表示手段の表示画面の所定領域に対して物体が接触又は近接することを検出することにより、前記所定領域に含まれるオブジェクトが指示されたことを検出する検出手段
を更に備えることを特徴とする付記2に記載の画像処理装置。
[付記4]
前記抽出手段は、
前記指示手段によりオブジェクトが指示される度に、前記指示された際の画像からオブジェクトを含む領域のオブジェクト画像を抽出し、
前記生成手段は、
前記抽出手段によって抽出された複数のオブジェクト画像のそれぞれを、前記取得手段によって順次取得される画像に合成することで、合成画像を順次生成する
ことを特徴とする付記1乃至3の何れか1項に記載の画像処理装置。
[付記5]
連続的に撮像画像を出力する撮像手段を更に備え、
前記取得手段は、前記撮像手段から出力される撮像画像のそれぞれを、前記複数の画像として取得する、
ことを特徴とする付記1乃至4の何れか1項に記載の画像処理装置。
[付記6]
画像処理装置が実行する画像処理方法において、
複数の画像を順次取得する取得ステップと、
前記取得ステップにおいて取得された画像上のオブジェクトを指示するための指示ステップと、
前記指示ステップにおいて指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出ステップと、
前記抽出ステップにおいて抽出された前記オブジェクト画像を、前記取得ステップにおいて順次取得される画像に合成することで、合成画像を順次生成する生成ステップと、
を含むことを特徴とする画像処理方法。
[付記7]
画像処理装置を制御するコンピュータに、
複数の画像を順次取得する取得機能、
前記取得機能により取得された画像上のオブジェクトを指示するための指示機能、
前記指示機能により指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出機能、
前記抽出機能によって抽出された前記オブジェクト画像を、前記取得機能によって順次取得される画像に合成することで、合成画像を順次生成する生成機能、
を実現させるためのプログラム。
Hereinafter, note the invention described in the scope of the initial claims application of the present application.
[Appendix 1]
Acquisition means for sequentially acquiring a plurality of images;
Instruction means for indicating an object on the image acquired by the acquisition means;
Extraction means for extracting an object image of a region including the object instructed by the instruction means;
Generating means for sequentially generating synthesized images by synthesizing the object images extracted by the extracting means with images sequentially obtained by the obtaining means;
An image processing apparatus comprising:
[Appendix 2]
Display means for displaying images sequentially obtained by the obtaining means;
Control means for controlling the display means to display the composite image sequentially generated by the generating means after the object is indicated by the indicating means;
The image processing apparatus according to
[Appendix 3]
The instruction means includes
It further comprises detection means for detecting that an object included in the predetermined area is instructed by detecting that an object contacts or approaches a predetermined area of the display screen of the display means. The image processing apparatus according to
[Appendix 4]
The extraction means includes
Each time an object is indicated by the instruction means, an object image of an area including the object is extracted from the image at the time of the instruction,
The generating means includes
Any one of the
[Appendix 5]
It further comprises an imaging means for continuously outputting captured images,
The acquisition unit acquires each of the captured images output from the imaging unit as the plurality of images.
The image processing apparatus according to any one of
[Appendix 6]
In the image processing method executed by the image processing apparatus,
An acquisition step of sequentially acquiring a plurality of images;
An instruction step for indicating an object on the image acquired in the acquisition step;
An extraction step of extracting an object image of a region including the object instructed in the instruction step;
A generation step of sequentially generating a composite image by combining the object image extracted in the extraction step with an image sequentially acquired in the acquisition step;
An image processing method comprising:
[Appendix 7]
In the computer that controls the image processing apparatus,
Acquisition function to acquire multiple images sequentially,
An instruction function for indicating an object on the image acquired by the acquisition function;
An extraction function for extracting an object image of a region including the object instructed by the instruction function;
A generation function for sequentially generating composite images by combining the object images extracted by the extraction function with images sequentially acquired by the acquisition function;
A program to realize
1・・・撮像装置,11・・・カメラLSI,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インタフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,22・・・リムーバブルメディア,31・・・カメラ処理部,32・・・CPU,33・・・データ圧縮/伸長部,41・・・画像処理部,42・・・各部制御部,51・・・画像取得部,52・・・オブジェクト特定部,53・・・オブジェクト抽出部,54・・・画像合成部,61・・・撮像制御部,62・・・記憶制御部,63・・・表示制御部,64・・・入力操作検出部
DESCRIPTION OF
Claims (7)
前記取得手段により取得された画像上のオブジェクトを指示するための指示手段と、
前記指示手段により指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出手段と、
前記抽出手段によって抽出された前記オブジェクト画像を、前記取得手段によって順次取得される画像に合成することで、合成画像を順次生成する生成手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for sequentially acquiring a plurality of images;
Instruction means for indicating an object on the image acquired by the acquisition means;
Extraction means for extracting an object image of a region including the object instructed by the instruction means;
Generating means for sequentially generating synthesized images by synthesizing the object images extracted by the extracting means with images sequentially obtained by the obtaining means;
An image processing apparatus comprising:
前記指示手段によりオブジェクトを指示された後は、前記生成手段により順次生成される前記合成画像を前記表示手段に表示させるよう制御する制御手段と、
を更に備えることを特徴とする請求項1に記載の画像処理装置。 Display means for displaying images sequentially obtained by the obtaining means;
Control means for controlling the display means to display the composite image sequentially generated by the generating means after the object is indicated by the indicating means;
The image processing apparatus according to claim 1, further comprising:
前記表示手段の表示画面の所定領域に対して物体が接触又は近接することを検出することにより、前記所定領域に含まれるオブジェクトが指示されたことを検出する検出手段
を更に備えることを特徴とする請求項2に記載の画像処理装置。 The instruction means includes
It further comprises detection means for detecting that an object included in the predetermined area is instructed by detecting that an object contacts or approaches a predetermined area of the display screen of the display means. The image processing apparatus according to claim 2.
前記指示手段によりオブジェクトが指示される度に、前記指示された際の画像からオブジェクトを含む領域のオブジェクト画像を抽出し、
前記生成手段は、
前記抽出手段によって抽出された複数のオブジェクト画像のそれぞれを、前記取得手段によって順次取得される画像に合成することで、合成画像を順次生成する
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The extraction means includes
Each time an object is indicated by the instruction means, an object image of an area including the object is extracted from the image at the time of the instruction,
The generating means includes
4. The composite image is sequentially generated by combining each of the plurality of object images extracted by the extraction unit with images sequentially acquired by the acquisition unit. 5. The image processing apparatus according to item.
前記取得手段は、前記撮像手段から出力される撮像画像のそれぞれを、前記複数の画像として取得する、
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 It further comprises an imaging means for continuously outputting captured images,
The acquisition unit acquires each of the captured images output from the imaging unit as the plurality of images.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
複数の画像を順次取得する取得ステップと、
前記取得ステップにおいて取得された画像上のオブジェクトを指示するための指示ステップと、
前記指示ステップにおいて指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出ステップと、
前記抽出ステップにおいて抽出された前記オブジェクト画像を、前記取得ステップにおいて順次取得される画像に合成することで、合成画像を順次生成する生成ステップと、
を含むことを特徴とする画像処理方法。 In the image processing method executed by the image processing apparatus,
An acquisition step of sequentially acquiring a plurality of images;
An instruction step for indicating an object on the image acquired in the acquisition step;
An extraction step of extracting an object image of a region including the object instructed in the instruction step;
A generation step of sequentially generating a composite image by combining the object image extracted in the extraction step with an image sequentially acquired in the acquisition step;
An image processing method comprising:
複数の画像を順次取得する取得機能、
前記取得機能により取得された画像上のオブジェクトを指示するための指示機能、
前記指示機能により指示されたオブジェクトを含む領域のオブジェクト画像を抽出する抽出機能、
前記抽出機能によって抽出された前記オブジェクト画像を、前記取得機能によって順次取得される画像に合成することで、合成画像を順次生成する生成機能、
を実現させるためのプログラム。 In the computer that controls the image processing apparatus,
Acquisition function to acquire multiple images sequentially,
An instruction function for indicating an object on the image acquired by the acquisition function;
An extraction function for extracting an object image of a region including the object instructed by the instruction function;
A generation function for sequentially generating composite images by combining the object images extracted by the extraction function with images sequentially acquired by the acquisition function;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068392A JP2012205114A (en) | 2011-03-25 | 2011-03-25 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068392A JP2012205114A (en) | 2011-03-25 | 2011-03-25 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012205114A true JP2012205114A (en) | 2012-10-22 |
Family
ID=47185604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011068392A Pending JP2012205114A (en) | 2011-03-25 | 2011-03-25 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012205114A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10939015B2 (en) | 2018-05-25 | 2021-03-02 | Kyocera Document Solutions Inc. | Image processing apparatus inserting image into insertion area, and image forming apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000287127A (en) * | 1999-03-31 | 2000-10-13 | Hitachi Software Eng Co Ltd | Image synthesizing device |
JP2001203912A (en) * | 2000-01-18 | 2001-07-27 | Fuji Photo Film Co Ltd | Image pickup device and its operation control method |
JP2001333327A (en) * | 2000-03-14 | 2001-11-30 | Fuji Photo Film Co Ltd | Digital camera and method for processing image |
JP2002101378A (en) * | 2000-09-20 | 2002-04-05 | Fuji Photo Film Co Ltd | Image pickup device |
JP2003125340A (en) * | 2002-10-10 | 2003-04-25 | Fuji Xerox Co Ltd | Video data editing device |
JP2005217947A (en) * | 2004-01-30 | 2005-08-11 | Kyocera Corp | Status display method for mobile terminal apparatus and information processing apparatus |
JP2005217978A (en) * | 2004-01-30 | 2005-08-11 | Omron Entertainment Kk | Photograph printing device, image output method of photograph printing device, control program of photograph printing device, and recording medium recording control program of photograph printing device |
JP2006094030A (en) * | 2004-09-22 | 2006-04-06 | Casio Comput Co Ltd | Image pickup device, and composite image creating method, and program |
-
2011
- 2011-03-25 JP JP2011068392A patent/JP2012205114A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000287127A (en) * | 1999-03-31 | 2000-10-13 | Hitachi Software Eng Co Ltd | Image synthesizing device |
JP2001203912A (en) * | 2000-01-18 | 2001-07-27 | Fuji Photo Film Co Ltd | Image pickup device and its operation control method |
JP2001333327A (en) * | 2000-03-14 | 2001-11-30 | Fuji Photo Film Co Ltd | Digital camera and method for processing image |
JP2002101378A (en) * | 2000-09-20 | 2002-04-05 | Fuji Photo Film Co Ltd | Image pickup device |
JP2003125340A (en) * | 2002-10-10 | 2003-04-25 | Fuji Xerox Co Ltd | Video data editing device |
JP2005217947A (en) * | 2004-01-30 | 2005-08-11 | Kyocera Corp | Status display method for mobile terminal apparatus and information processing apparatus |
JP2005217978A (en) * | 2004-01-30 | 2005-08-11 | Omron Entertainment Kk | Photograph printing device, image output method of photograph printing device, control program of photograph printing device, and recording medium recording control program of photograph printing device |
JP2006094030A (en) * | 2004-09-22 | 2006-04-06 | Casio Comput Co Ltd | Image pickup device, and composite image creating method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10939015B2 (en) | 2018-05-25 | 2021-03-02 | Kyocera Document Solutions Inc. | Image processing apparatus inserting image into insertion area, and image forming apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8810664B2 (en) | Imaging apparatus, imaging method and computer program | |
JP5183297B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US20110007187A1 (en) | Imaging Device And Image Playback Device | |
US20110234838A1 (en) | Image processor, electronic camera, and image processing program | |
US8125544B2 (en) | Image processing apparatus for extracting quadrangle area in image | |
US20100238325A1 (en) | Image processor and recording medium | |
US20070223909A1 (en) | Camera phone, method of controlling the camera phone, and photography support method used for the camera phone | |
JP2009290818A (en) | Camera, camera control program, and photographing method | |
JP2012099876A (en) | Image processing device, imaging device, image processing method, and program | |
JP2010169954A (en) | Display device and imaging apparatus | |
US20100188520A1 (en) | Imaging device and storage medium storing program | |
JP4807432B2 (en) | Imaging apparatus, image processing method, and program | |
JP2011114823A (en) | Image processing apparatus, and imaging apparatus | |
JP2007336411A (en) | Imaging apparatus, auto-bracketing photographing method, and program | |
JP2010093539A (en) | Imaging apparatus | |
JP5261765B2 (en) | Imaging apparatus and imaging method | |
JP2007259156A (en) | Camera, image processing method thereof, program, and recording medium | |
JP2007228453A (en) | Imaging apparatus, reproduction device, program, and storage medium | |
JP4595832B2 (en) | Imaging apparatus, program, and storage medium | |
JP2012205114A (en) | Image processing device, image processing method, and program | |
US9661217B2 (en) | Image capturing apparatus and control method therefor | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP2006238041A (en) | Video camera | |
JP2008042326A (en) | Imaging apparatus and simultaneous display control method | |
KR20140108034A (en) | Photographing apparatus, method for controlling the same, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141017 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150310 |