JP2006129401A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2006129401A
JP2006129401A JP2004318601A JP2004318601A JP2006129401A JP 2006129401 A JP2006129401 A JP 2006129401A JP 2004318601 A JP2004318601 A JP 2004318601A JP 2004318601 A JP2004318601 A JP 2004318601A JP 2006129401 A JP2006129401 A JP 2006129401A
Authority
JP
Japan
Prior art keywords
image
input
memory
synthesis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004318601A
Other languages
Japanese (ja)
Inventor
Masaki Ikeda
正樹 池田
Hiroyuki Ito
博之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004318601A priority Critical patent/JP2006129401A/en
Publication of JP2006129401A publication Critical patent/JP2006129401A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce image output delay and to enhance amusement effects, in photographing or editing moving images. <P>SOLUTION: The image processing apparatus comprises one memory B, to which an input image is to be inputted by an image input means 100; a memory A, on the prestage of the one memory B, for storing the information of processing to be performed by a region detecting means 101, a graphics computing means 102 and an image compositing means 103; and the memory A on the prestage that completes processing or a memory, further on the prestage of the memory A of the prestage, for storing an image composited by the image compositing means 103. There is provided a motion detection means 106 for detecting the motion of a target that corrects the position determined by the graphics computing means 102, using motion information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルビデオカメラや動画撮影可能なカメラつき携帯電話等の動画記録装置、及びVTRやDVDレコーダ等の記録動画編集装置における画像処理装置に関する。   The present invention relates to a moving image recording device such as a digital video camera or a mobile phone with a camera capable of shooting moving images, and an image processing device in a recorded moving image editing device such as a VTR or a DVD recorder.

デジタルビデオカメラや携帯電話等において動画撮影を行い、TV電話にて撮影を行い、また、VTRやDVDレコーダ等で編集を行う場合に際し、撮影や編集を行うのみならず、撮影画像もしくは再生画像の人間や物体の動きに追従して、例えば帽子や髭等のグラフィックス(図形や画像)を合成しつつ撮影や編集を行うことで、アミューズメント効果を高めたシステムが考えられている。   When shooting video with a digital video camera or mobile phone, shooting with a videophone, and editing with a VTR, DVD recorder, etc., not only shooting and editing, but also shooting or playback images A system that enhances the amusement effect has been considered by performing shooting and editing while synthesizing graphics (figures and images) such as a hat and a bag following the movement of a person or an object.

特許文献1はこのシステムの一例を示しており、このシステムでは、図10に示すように、画像入力部200と、画像中から顔領域を検出する顔領域検出部201と、顔の部品位置を検出する顔部品検出部202と、グラフィックスを入力画像に重ね合せるための位置を決定する図形計算部203と、入力画像とグラフィックスを重ね合せるための図形合成部204と、合成された画像を出力する画像出力部205から構成されている。この構成により、撮影された画像から顔領域を検出し、顔領域に追従してグラフィックスを合成することで、アミューズメントやプレゼンテーション等の画像効果を向上させている。   Patent Document 1 shows an example of this system. In this system, as shown in FIG. 10, an image input unit 200, a face region detection unit 201 that detects a face region from an image, and a face component position are displayed. A face part detection unit 202 to detect, a graphic calculation unit 203 for determining a position for superimposing graphics on the input image, a graphic synthesis unit 204 for superimposing the input image and graphics, and the synthesized image The image output unit 205 is configured to output. With this configuration, a face area is detected from a captured image, and graphics are synthesized following the face area, thereby improving image effects such as amusement and presentation.

このような場合、一般に画像から顔、口、鼻等のある特定の領域、部品を検出するための顔領域検出部201や顔部品検出部202での処理は非常に高速な演算処理を必要とする。これは、顔領域、部品を検出する演算処理速度が遅い場合には、この検出の途中に、画像入力部200から次フレームの画像取込みが完了してしまうことがあるためである。したがって、一般には、上述の高速な演算処理を行う代わりに入力画像を格納しておくためのバッファメモリを増やして入力画像を一旦記憶させておき、顔領域検出部201等の演算処理速度の遅さをカバーする方法が採られる。   In such a case, in general, the processing in the face area detection unit 201 and the face part detection unit 202 for detecting a specific area and part such as a face, mouth, and nose from an image requires extremely high-speed arithmetic processing. To do. This is because when the calculation processing speed for detecting the face area and the parts is slow, the image capture of the next frame from the image input unit 200 may be completed during the detection. Therefore, in general, instead of performing the high-speed arithmetic processing described above, the buffer memory for storing the input image is increased to temporarily store the input image, and the arithmetic processing speed of the face area detection unit 201 or the like is reduced. A method of covering the thickness is taken.

こうして、バッファメモリを増設して画像入力部200、顔領域検出部201、図形計算部203、図形合成部204及び画像出力部205での処理を円滑に行うことが可能である。このような図10の構成を前提にして、図11は顔領域検出部201に当たる領域検出手段および図形計算部203に当たる図形計算手段および図形合成部204に当たる画像合成手段による処理が、円滑に早く完了する場合を例示する。図11では、時間軸として3周期を示し、各周期では画像入力手段、領域検出手段と図形計算手段と画像合成手段、及び画像出力手段による三つのバッファメモリA、B、Cに対するデータのやり取りの様子を示している。この図11では、各手段の処理時間(図11での各周期)が、画像入力手段に要する処理時間:領域検出手段と図形計算手段と画像合成手段に要する合計処理時間:画像出力処理手段に要する処理時間の比を1:1:1としている。   In this way, it is possible to increase the buffer memory so that the processing in the image input unit 200, the face area detection unit 201, the figure calculation unit 203, the figure synthesis unit 204, and the image output unit 205 can be performed smoothly. Assuming the configuration of FIG. 10 as described above, FIG. 11 shows that the processing by the area detecting means corresponding to the face area detecting section 201, the figure calculating means corresponding to the figure calculating section 203, and the image combining means corresponding to the figure combining section 204 is completed smoothly and quickly. The case where it does is illustrated. In FIG. 11, three periods are shown as a time axis, and in each period, data is exchanged with respect to the three buffer memories A, B, and C by the image input means, the area detection means, the figure calculation means, the image composition means, and the image output means. It shows a state. In FIG. 11, the processing time of each means (each cycle in FIG. 11) is the processing time required for the image input means: the total processing time required for the area detection means, the figure calculation means, and the image composition means: the image output processing means. The required processing time ratio is 1: 1: 1.

すなわち、まず1周期目において、画像入力手段はメモリAに画像を入力する。2周期目において、画像入力手段はメモリBに画像を入力する。同時に領域検出手段はメモリAに入力された画像を用いて領域検出を行い、図形計算手段が合成位置を計算し、画像合成手段がメモリAにて画像を合成する。3周期目において、画像入力手段はメモリCに画像を入力する。同時に領域検出手段はメモリBに入力された画像を用いて領域検出を行い、図形計算手段が合成位置を計算し、画像合成手段がメモリBにて画像を合成する。更に画像出力手段はメモリAの合成画像を出力する。このような3周期の動作により、3面の画像バッファメモリにて円滑な処理が実現でき、例えばメモリAに入力された画像入力が、画像合成された後、3周期目にて画像出力されることになる。   That is, first, in the first period, the image input means inputs an image into the memory A. In the second period, the image input means inputs an image to the memory B. At the same time, the area detecting means performs area detection using the image input to the memory A, the figure calculating means calculates the combining position, and the image combining means combines the images in the memory A. In the third period, the image input means inputs an image to the memory C. At the same time, the area detecting means performs area detection using the image input to the memory B, the figure calculating means calculates the combining position, and the image combining means combines the images in the memory B. Further, the image output means outputs a composite image in the memory A. By such an operation of three cycles, smooth processing can be realized by the image buffer memory of the three surfaces. For example, the image input input to the memory A is image-synthesized and output in the third cycle. It will be.

次に、図12にて、領域検出手段の処理が重く、領域検出手段と図形計算手段と画像合成手段に要する合計処理時間が、画像入力手段または画像出力手段に要する処理時間を超えてしまう場合を例示する。このため、この例では領域検出手段及び図形計算手段と画像合成手段とを別のメモリに分担させている。すなわちこの例では、各手段の処理時間が、画像入力手段に要する処理時間:領域検出手段と図形計算手段に要する合計処理時間:画像合成手段に要する処理時間:画像出力処理手段に要する処理時間の比を1:1:1:1とする。   Next, in FIG. 12, the processing of the area detection means is heavy, and the total processing time required for the area detection means, the graphic calculation means, and the image synthesis means exceeds the processing time required for the image input means or image output means. Is illustrated. For this reason, in this example, the area detection means, the figure calculation means, and the image composition means are assigned to different memories. That is, in this example, the processing time of each means is the processing time required for the image input means: the total processing time required for the area detection means and the graphic calculation means: the processing time required for the image composition means: the processing time required for the image output processing means. The ratio is 1: 1: 1: 1.

まず、1周期目において、画像入力手段はメモリAに画像を入力する。2周期目において、画像入力手段はメモリBに画像を入力する。同時に領域検出手段はメモリAに入力された画像を用いて領域検出を行い、図形計算手段が合成位置を計算する。3周期目において、画像入力手段はメモリCに画像を入力する。同時に領域検出手段はメモリBに入力された画像を用いて領域検出を行い、図形計算手段が合成位置を計算する。更に画像合成手段がメモリAの画像を合成する。4周期目において、画像入力手段はメモリDに画像を入力する。同時に領域検出手段はメモリCに入力された画像を用いて領域検出を行い、図形計算手段が合成位置を計算する。更に画像合成手段がメモリBの画像を合成する。そして、画像出力手段はメモリAの合成画像を出力する。このように4周期の動作により、4面の画像バッファメモリを使用することで領域検出手段が重くなっても画像処理を円滑に実現することができる。
特開2000−322588号公報
First, in the first cycle, the image input means inputs an image to the memory A. In the second period, the image input means inputs an image to the memory B. At the same time, the area detection means performs area detection using the image input to the memory A, and the figure calculation means calculates the composite position. In the third period, the image input means inputs an image to the memory C. At the same time, the area detecting means performs area detection using the image input to the memory B, and the figure calculating means calculates the composite position. Further, the image synthesis means synthesizes the image in the memory A. In the fourth period, the image input means inputs an image to the memory D. At the same time, the area detection means performs area detection using the image input to the memory C, and the figure calculation means calculates the composite position. Further, the image synthesizing unit synthesizes the image in the memory B. Then, the image output means outputs the composite image in the memory A. As described above, by using the four-cycle image buffer memory, it is possible to smoothly realize the image processing even if the area detecting unit becomes heavy by using the four-screen image buffer memory.
JP 2000-322588 A

しかしながら、従来の画像処理装置では、次のような問題を有している。つまり、図11においては、画像入力手段からの入力画像にグラフィックスを合成し、画像出力手段によって出力されるまでが3周期必要であるのに対し、領域検出手段の処理が重くなってしまう図12では4周期必要になってしまうことである。そしてこのことは、画像入力がされてから画像出力がされるまでの周期が3周期を要するということである。この画像出力までの遅延が3周期にもなることは、例えばデジタルビデオの撮影中であれば、撮影している人間が直接見ている画像と、ファインダーもしくは液晶画面から見ている画像との間の遅延が無視できなくなって、違和感を生じさせる。また、TV電話等では、画像の遅延に伴い、画像と音声との同期が取れず、例えば音声と画像の口の動作が一致しないという、いわゆるリップシンクのずれが発生してしまう。   However, the conventional image processing apparatus has the following problems. That is, in FIG. 11, three cycles are required until the graphics are combined with the input image from the image input means and output by the image output means, whereas the processing of the area detection means becomes heavy. 12 requires four cycles. This means that the period from image input to image output requires three cycles. This delay in image output can be as long as 3 cycles. For example, if digital video is being shot, it is between the image that is directly viewed by the person being photographed and the image that is being viewed from the viewfinder or LCD screen. This delay can no longer be ignored, creating a sense of incongruity. In addition, in a video phone or the like, a so-called lip sync shift occurs in which the image and the sound cannot be synchronized with the image delay, and for example, the operation of the mouth of the sound and the image does not match.

本発明はこのような問題を解決するためになされたもので、撮影もしくは再生画像の人間や物体(対象物)に追従して、グラフィックス(合成対象)を合成して撮影や編集を行う際に、入力画像に対して画像合成をするとき、画像出力の遅延が少ない画像処理装置を提供することを目的とする。   The present invention has been made to solve such a problem. When a photograph or reproduction image is followed by a person or an object (target object) and a graphic (compositing target) is combined to perform shooting or editing. Another object of the present invention is to provide an image processing apparatus with little delay in image output when image synthesis is performed on an input image.

本発明の画像処理装置は、画像入力手段と、この画像入力手段による入力画像中から対象物を検出する領域検出手段と、この領域検出手段によって検出した対象物に応じて合成対象および位置を決定する図形計算手段と、前記画像入力手段による入力画像に対し、前記図形計算手段によって決定した合成対象を合成する際に、前記図形計算手段によって決定した位置に基き画像を合成する画像合成手段と、この画像合成手段による合成画像を出力する画像出力手段とを有する一方、前記各手段に対しバッファとして複数個順に併置したメモリを有する画像処理装置において、前記画像入力手段にて入力画像が入力される一のメモリと、前記領域検出手段と前記図形計算手段と前記画像合成手段とで行う処理情報を記憶する、前記一のメモリより前段のメモリと、前記画像合成手段による合成画像を記憶する、処理が完了した前記前段のメモリあるいは前記前段のメモリより更に前段のメモリと、を具備した構成を採る。   The image processing apparatus of the present invention determines an object to be synthesized and a position in accordance with an image input means, an area detection means for detecting an object from an input image by the image input means, and an object detected by the area detection means. And an image compositing means for compositing an image based on the position determined by the graphic calculating means when compositing the composition target determined by the graphic calculating means for the input image by the image input means, In the image processing apparatus having an image output means for outputting a composite image by the image composition means, and having a memory arranged in order as a buffer for each means, an input image is inputted by the image input means. A memory for storing processing information performed by the memory, the area detecting means, the graphic calculating means, and the image synthesizing means; Taking a pre-stage of the memory, and stores the composite image by the image synthesizing means, the processing and further preceding memory than the previous stage of the memory or the front of the memory that has been completed, the configuration provided with the.

本発明によれば、従来の技術と比較して、画像入力されてから画像出力されるまでの周期が短縮されるため画像出力の遅延が少なく、かつ、アミューズメント効果を高めた画像処理装置を提供することができるという点において優れた効果を有する。   According to the present invention, there is provided an image processing apparatus that has a delay in image output and an enhanced amusement effect because the period from image input to image output is shortened compared to the prior art. It has an excellent effect in that it can be performed.

また、動き検出情報により合成座標を補正することで、従来の技術と比較して画像出力遅延が少なく、かつ、合成画像が時間と共に追従でき、かつ、アミューズメント効果を高めた画像処理装置を提供することができるという点において優れた効果を有する。   In addition, by correcting the composite coordinates based on the motion detection information, an image processing apparatus is provided that has less image output delay than the conventional technology, can follow the composite image with time, and has improved the amusement effect. It has an excellent effect in that it can be used.

さらに、合成座標を補正するかどうかを制御することで、画像出力遅延が少なく、かつ、合成画像の追従補正を制御可能とし、かつ、アミューズメント効果をさらに高めた画像処理装置を提供することができるという点において優れた効果を有する。   Furthermore, by controlling whether or not to correct the composite coordinates, it is possible to provide an image processing apparatus that has less image output delay, can control the follow-up correction of the composite image, and further enhances the amusement effect. In this respect, it has an excellent effect.

以下、本発明の実施の形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は本発明の実施の形態1の画像処理装置を示す。図1において、画像入力手段100は、画像データをメモリ105(メモリA、B、C、Dのいずれか)に格納する。画像データとしては、カメラ等の入力デバイスからの画像データであってもよいし、また、TVチューナー、DVDプレーヤ、VTR等の復号化装置等で復号化された画像データや、ネットワークからダウンロードされた画像データであってもよい。また、色変換(YUV−RGB変換等)や増色・減色処理、D/A変換処理等を行った画像データであってもよい。
(Embodiment 1)
FIG. 1 shows an image processing apparatus according to Embodiment 1 of the present invention. In FIG. 1, an image input unit 100 stores image data in a memory 105 (any one of memories A, B, C, and D). The image data may be image data from an input device such as a camera, image data decoded by a decoding device such as a TV tuner, a DVD player, or a VTR, or downloaded from a network. It may be image data. Further, it may be image data that has undergone color conversion (YUV-RGB conversion, etc.), color increase / decrease processing, D / A conversion processing, or the like.

領域検出手段101は、画像入力手段100によって格納された入力画像から、検出したい物体の領域を検出する。検出対象物体(対象物)としては、人間全体であったり、人間の顔であったり、手、足、目、鼻、耳、口等の部分領域であってもよい。また、人間だけではなく、動物でも、車、電車等の人工物でもよい。これらの対象物の検出方法としては、予め収集した対象物から生成されたテンプレートを用いて、画像の各部分に当てはめ、テンプレートと高い相関を持つ部分を対象物領域として検出する方法がある。また、別の入力デバイスである、距離計測可能なレンジファインダー(距離合わせ用ファインダー)からの距離画像を用いて対象物を検出してもよく、また温度センサーからの情報を用いて対象物を検出してもよい。   The area detection unit 101 detects an area of an object to be detected from the input image stored by the image input unit 100. The detection target object (target object) may be the whole human being, a human face, or a partial region such as a hand, foot, eye, nose, ear, or mouth. Further, not only humans but also animals, and artificial objects such as cars and trains may be used. As a method for detecting these objects, there is a method in which a template generated from an object collected in advance is applied to each part of an image and a part having a high correlation with the template is detected as an object region. In addition, the object may be detected using a distance image from another input device, a range finder (distance alignment finder) capable of measuring distance, and the object is detected using information from the temperature sensor. May be.

図形計算手段102は、領域検出手段101が検出した領域に対して、合成するグラフィックス(対象物体)の決定や合成座標(位置)の決定を行う。例えば、鼻であれば髭のグラフィックスを合成し、目であれば眼鏡、頭であれば帽子等のグラフィックスを選択し、そのグラフィックスデータとその合成座標を、後述する画像合成手段103に伝える。   The graphic calculation unit 102 determines graphics (target object) to be combined and composite coordinates (position) for the region detected by the region detection unit 101. For example, if it is a nose, it will synthesize a frog graphic, if it is an eye, select a graphic such as glasses, and if it is a head, select graphics such as a hat. Tell.

画像合成手段103は、画像入力手段100が入力した画像と、図形計算手段102が選択したグラフィックスを、図形計算手段102が決定した合成座標に基づいて、画像を合成し、メモリ105へ格納する。なお、メモリ105へ格納する際に色変換(YUV−RGB変換あるいはRGB−YUV変換等)や増色・減色処理等を行ってもよい。   The image composition unit 103 synthesizes the image input by the image input unit 100 and the graphics selected by the graphic calculation unit 102 based on the composite coordinates determined by the graphic calculation unit 102 and stores the image in the memory 105. . Note that color conversion (YUV-RGB conversion, RGB-YUV conversion, etc.), color increase / reduction processing, or the like may be performed when storing in the memory 105.

画像出力手段104は、画像合成手段103が格納した合成画像を入力とし、例えばLCD等の表示デバイスに対して出力を行う。なお、画像出力方式については、NTSCもしくはPALフォーマットへの変換を行い、TV画面への出力を可能にしてもよい。   The image output means 104 receives the composite image stored by the image composition means 103 and outputs it to a display device such as an LCD. Note that the image output method may be converted to the NTSC or PAL format to enable output to the TV screen.

次に、図1の構成図にしたがって具体的な動作の説明を図2を用いて行う。この図2は上述の図12と同様な構成であり、この例では、時間軸を1周期から5周期まで示し、各手段の処理時間は、図12の場合と同様、(画像入力手段100に要する処理時間):(領域検出手段101と図形計算手段102に要する合計処理時間):(画像合成手段103に要する処理時間):(画像出力手段104に要する処理時間)の比を1:1:1:1とする。   Next, a specific operation will be described with reference to FIG. 2 according to the configuration diagram of FIG. FIG. 2 has the same configuration as FIG. 12 described above. In this example, the time axis is shown from 1 to 5 cycles, and the processing time of each means is the same as in FIG. The ratio of (processing time required) :( total processing time required for the area detection means 101 and graphic calculation means 102) :( processing time required for the image composition means 103) :( processing time required for the image output means 104) is 1: 1: 1: 1.

まず、1周期目において、画像入力手段100はメモリAに画像を入力する。2周期目に、画像入力手段100はメモリBに画像を入力する。同時に領域検出手段101はメモリAに入力された画像を用いて領域検出を行い、図形計算手段102が合成座標(位置)を計算する。3周期目において、画像入力手段100はメモリCに画像を入力する。同時に領域検出手段101はメモリBに入力された画像を用いて領域検出を行い、図形計算手段102が位置を計算する。更に、画像合成手段103は、メモリAの画像とグラフィックを合成するのではなく、メモリBの画像に対してグラフィックスを合成する。そして、合成画像は、メモリAに格納される。ここでメモリAには、1周期目で入力された画像ではなく、2周期目で入力された画像に対して合成処理を行った結果が格納されることになる。これは、領域検出手段101がメモリBの画像に対して領域検出処理が終っていないため、処理完了まではメモリBの画像を上書きすることができないためである。仮に処理が完了していればメモリBに上書きするように制御してもよい。   First, in the first period, the image input means 100 inputs an image to the memory A. In the second period, the image input means 100 inputs an image to the memory B. At the same time, the area detection unit 101 performs area detection using the image input to the memory A, and the figure calculation unit 102 calculates the composite coordinates (position). In the third period, the image input unit 100 inputs an image to the memory C. At the same time, the area detection means 101 performs area detection using the image input to the memory B, and the figure calculation means 102 calculates the position. Furthermore, the image composition means 103 does not synthesize the image of the memory A and the graphic, but synthesizes the graphic with the image of the memory B. The composite image is stored in the memory A. Here, the memory A stores not the image input in the first cycle but the result of the synthesis process performed on the image input in the second cycle. This is because the area detection unit 101 has not completed the area detection process on the image in the memory B, and thus the image in the memory B cannot be overwritten until the process is completed. If processing is completed, control may be performed to overwrite the memory B.

4周期目において、画像入力手段100はメモリDに画像を入力する。同時に領域検出手段101はメモリCに入力された画像を用いて領域検出を行い、図形計算手段102が位置を計算する。更に、画像合成手段103は、メモリCの画像に対してグラフィックスを合成し、メモリBに合成画像を格納する。そして、画像出力手段104はメモリAの合成画像を出力する。同様にして5周期目においても、画像入力手段100はメモリAに画像を入力し、同時に領域検出手段101はメモリDに入力された画像を用いて領域検出を行い、図形計算手段102が位置を計算し、更に、画像合成手段103は、メモリDの画像に対してグラフィックスを合成し、メモリCに合成画像を格納する。そして、画像出力手段104はメモリBの合成画像を出力する。   In the fourth period, the image input unit 100 inputs an image to the memory D. At the same time, the area detecting means 101 performs area detection using the image input to the memory C, and the figure calculating means 102 calculates the position. Further, the image synthesis unit 103 synthesizes graphics with the image in the memory C and stores the synthesized image in the memory B. Then, the image output means 104 outputs the composite image in the memory A. Similarly, also in the fifth cycle, the image input means 100 inputs an image to the memory A, and at the same time, the area detection means 101 performs area detection using the image input to the memory D, and the figure calculation means 102 determines the position. Further, the image composition means 103 synthesizes graphics with the image in the memory D and stores the composite image in the memory C. Then, the image output means 104 outputs the composite image in the memory B.

このように、本発明の実施の形態1における画像処理装置は、2周期目で入力された画像に対して合成処理を行った合成画像を4周期目で出力することが可能となり、図12に示す従来例では画像入力されてから画像出力されるまでに3周期要していたものが、本実施の形態では2周期に短縮することができた。従って、従来の技術と比較して画像出力の遅延が少なく、アミューズメント効果を高めた画像処理装置を提供することができるという点において優れた効果を有する。   As described above, the image processing apparatus according to Embodiment 1 of the present invention can output a synthesized image obtained by synthesizing an image input in the second period in the fourth period, as shown in FIG. In the conventional example shown, it takes three cycles from image input to image output, but in this embodiment, it can be shortened to two cycles. Therefore, it has an excellent effect in that it can provide an image processing device that has less delay in image output than the conventional technology and has enhanced amusement effect.

なお、本発明の実施の形態1では、画像入力手段100からの最新の入力画像について合成を行う例を念頭におき説明してきたが、入力画像の新旧についてはそれを選択して取り出し合成を行うようにすることも可能である。   In the first embodiment of the present invention, the example in which the latest input image from the image input unit 100 is synthesized is described in mind. However, the old and new input images are selected and extracted and synthesized. It is also possible to do so.

また、本実施の形態1の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した移動体通信システムとして実現することも可能である。また、本実施の形態1の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した画像編集システムとして実現することも可能である。   The image processing apparatus according to the first embodiment can be incorporated into, for example, a portable terminal, and can be realized as a mobile communication system including the image processing apparatus. The image processing apparatus according to the first embodiment can be incorporated into, for example, a portable terminal, and can be realized as an image editing system including the image processing apparatus.

(実施の形態2)
図3は本発明の実施の形態2の画像処理装置を示す。この図3において図1に示す実施の形態1と同じ構成要素には同一の符号を付与し、その説明は省略する。
(Embodiment 2)
FIG. 3 shows an image processing apparatus according to the second embodiment of the present invention. In FIG. 3, the same components as those in the first embodiment shown in FIG.

図形計算手段102に接続された動き検出手段106は、領域検出手段101にて検出した対象物に基づき、この検出した対象物の動きを検出する。対象物の動きは、周期毎に図形計算手段102で計算される合成座標を用いることで動きを検出することが可能である。例えば、図4(a)のように、2周期目において図形計算手段102により決定された合成座標が(3,3)であり、3周期目において図形計算手段102により決定された合成座標が図4(b)のように(5,2)である場合、その動きは、成分表示のベクトルではベクトル(2,−1)ということになる。このようにして検出した動き検出情報を、動き検出手段106に接続された画像合成手段103に伝える。   The motion detection means 106 connected to the figure calculation means 102 detects the motion of the detected object based on the object detected by the area detection means 101. The movement of the object can be detected by using synthetic coordinates calculated by the graphic calculation means 102 for each period. For example, as shown in FIG. 4A, the composite coordinates determined by the graphic calculation means 102 in the second period are (3, 3), and the composite coordinates determined by the graphic calculation means 102 in the third period are shown in FIG. In the case of (5, 2) as in 4 (b), the movement is a vector (2, -1) in the component display vector. The motion detection information detected in this way is transmitted to the image composition means 103 connected to the motion detection means 106.

画像合成手段103は、画像入力手段100によって入力した最新の入力画像に対し、図形計算手段102によって決定した合成対象である図形や画像を合成する際に図形計算手段102によって決定した合成座標(位置)と、動き検出手段106によって検出された動き情報に基き、合成位置を補正して合成する。図2の4周期目において、画像合成手段103は、動き検出手段106が動きを検出したベクトル(2,−1)を用いて、図形計算手段102が決定した合成座標(5,2)に基づき補正を行い、図4(c)のように合成座標を(7,1)とする。このように合成するのは、各入力画像は時間的に相関がある場合が多く、メモリCに格納されている3周期目で入力された入力画像は、1周期目と2周期目に入力された入力画像間で検出された動き情報が、2周期目と3周期目に入力された入力画像間で検出された動き情報と同様、もしくは、それに限りなく近くなる傾向がみられることによる。   The image synthesizing unit 103 synthesizes the coordinates (position) determined by the graphic calculation unit 102 when combining the graphic or image to be combined determined by the graphic calculation unit 102 with the latest input image input by the image input unit 100. ) And the motion information detected by the motion detection means 106, the composite position is corrected and combined. In the fourth period of FIG. 2, the image composition unit 103 uses the vector (2, -1) detected by the motion detection unit 106 based on the composite coordinates (5, 2) determined by the figure calculation unit 102. Correction is performed, and the composite coordinates are set to (7, 1) as shown in FIG. In this way, the input images are often temporally correlated, and the input images input in the third period stored in the memory C are input in the first and second periods. This is because the motion information detected between the input images tends to be similar to or infinitely close to the motion information detected between the input images input in the second and third periods.

このように補正された合成座標(7,1)で画像合成することによって、図5(a)に示すように、補正なしの場合では、例えば蝶ネクタイが首に正しく追従していないが、図5(b)では正しく追従することになる。   By synthesizing the image with the composite coordinates (7, 1) corrected in this way, as shown in FIG. 5A, for example, the bow tie does not correctly follow the neck in the case of no correction. In 5 (b), it follows correctly.

このように、本発明の実施の形態2における画像処理装置は、従来の技術と比較して画像出力遅延が少なく、かつ、合成画像が時間と共に追従でき、かつ、アミューズメント効果を高めた画像処理装置を提供することができるという点において優れた効果を有する。   As described above, the image processing apparatus according to the second embodiment of the present invention has an image output delay that is smaller in image output delay than the conventional technique, can follow a composite image with time, and has an enhanced amusement effect. It has an excellent effect in that it can be provided.

なお、本実施の形態2では、画像入力手段100からの最新の入力画像について合成を行う例を念頭におき説明してきたが、入力画像の新旧についてはそれを選択して取り出し合成を行うようにすることも可能である。   In the second embodiment, the example in which the latest input image from the image input means 100 is synthesized is described in mind. However, the new and old input images are selected and extracted and synthesized. It is also possible to do.

なお、本実施の形態2では、動き検出の方法として、図4に示すように前入力画像と前々入力画像のみを用いて動き情報を検出したが、さらに以前の入力情報をも用いて動き検出を行うこともできる。   In the second embodiment, as the motion detection method, the motion information is detected using only the previous input image and the previous input image as shown in FIG. 4, but the motion information is also detected using the previous input information. Detection can also be performed.

また、本実施の形態2での動き情報は、図形計算手段102からの情報を基に算出したが、動き情報が得られればこの限りではない。例えば、本発明の画像処理装置にMPEG−4等の符号化装置または復号化装置またはその両方を付加した装置において、符号化装置または復号化装置から得られる動き情報を利用してもよい。   In addition, the motion information in the second embodiment is calculated based on the information from the graphic calculation means 102, but is not limited to this if the motion information is obtained. For example, motion information obtained from an encoding device or a decoding device may be used in a device obtained by adding an encoding device such as MPEG-4 and / or a decoding device to the image processing device of the present invention.

また、本実施の形態2の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した移動体通信システムとして実現することも可能である。また、本実施の形態2の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した画像編集システムとして実現することも可能である。   The image processing apparatus according to the second embodiment can be incorporated into, for example, a portable terminal, and can be realized as a mobile communication system including the image processing apparatus. Further, the image processing apparatus according to the second embodiment can be incorporated into, for example, a portable terminal, and can be realized as an image editing system including the image processing apparatus.

(実施の形態3)
図6は本発明の実施の形態3の画像処理装置を示す。この図6において図1に示す実施の形態1または図3に示す実施の形態2と同様の構成要素には同一の番号を付与し、その説明は省略する。
(Embodiment 3)
FIG. 6 shows an image processing apparatus according to the third embodiment of the present invention. In FIG. 6, the same reference numerals are given to the same components as those in the first embodiment shown in FIG. 1 or the second embodiment shown in FIG. 3, and the description thereof is omitted.

画像合成手段103に接続される合成補正制御手段107は、画像合成手段103に対して、合成位置を補正するかどうかを制御するようにしたものである。画像入力手段100からの入力画像とグラフィックスとの合成は、図5でも例示するように、完全に対象物に追従すべきであるが、ある程度、意識的に追従を遅らせたりすることで、逆にアミューズメント効果を高められる場合があり、このため、グラフィックスとの合成にあたってその補正制御が可能なように合成補正制御手段107を設けたものである。具体例として例えば、漫画やアニメーション等において、ちょび髭をずらし、かつらをずらすことは、おもしろく、利用者を愉快にさせる。なお、ここで合成位置の補正については、例えば動き検出手段106による動き情報を全く加味しない制御とし、動き情報の加味の程度を加減する制御とすることができる。   The composition correction control means 107 connected to the image composition means 103 controls the image composition means 103 to correct the composition position. The synthesis of the input image from the image input means 100 and the graphics should completely follow the object as illustrated in FIG. 5, but it is reversed by consciously delaying the tracking to some extent. In some cases, the amusement effect can be enhanced. For this reason, the synthesis correction control means 107 is provided so that the correction control can be performed in the synthesis with the graphics. As a specific example, for example, in cartoons and animations, it is interesting to shift the wig and shift the wig. Here, the correction of the composite position may be, for example, control that does not take into account motion information by the motion detection unit 106 and control that adds or subtracts the degree of addition of motion information.

このように、本発明の実施の形態3における画像処理装置は、画像出力遅延が少なく、かつ、合成画像の追従補正を制御可能とし、かつ、アミューズメント効果をさらに高めた画像処理装置を提供することができるという点において優れた効果を有する。   As described above, the image processing apparatus according to the third embodiment of the present invention provides an image processing apparatus that has a small image output delay, can control the follow-up correction of the composite image, and further enhances the amusement effect. It has an excellent effect in that it can.

なお、本実施の形態3では、画像入力手段100からの最新の入力画像について合成を行う例を念頭におき説明してきたが、入力画像の新旧についてはそれを選択して取り出し合成を行うようにすることも可能である。   In the third embodiment, the example in which the latest input image from the image input unit 100 is synthesized has been described in mind. However, the new and old input images are selected and extracted and synthesized. It is also possible to do.

また、本実施の形態3の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した移動体通信システムとして実現することも可能である。また、本実施の形態3の画像処理装置は、例えば携帯端末に組み込むことが可能であり、前記画像処理装置を具備した画像編集システムとして実現することも可能である。   In addition, the image processing apparatus according to the third embodiment can be incorporated in, for example, a portable terminal, and can be realized as a mobile communication system including the image processing apparatus. The image processing apparatus according to the third embodiment can be incorporated into, for example, a portable terminal, and can be realized as an image editing system including the image processing apparatus.

(実施の形態4)
図7は、本発明の画像処理方法である実施の形態4のフローチャートを示す。図7において、まず画像入力処理(ST701)によって画像を入力する。次に領域検出処理(ST702)を行い、検出結果に基いて、図形計算処理(ST703)を行い、グラフィックスおよびグラフィックの合成座標を算出する。画像合成処理(ST704)では、最新の入力画像に対してグラフィックスを、算出された座標に基づいて合成し、画像出力処理(ST705)によって画像を出力する。各処理が完了した時点で、処理を繰り返す。各処理は同期していてもよいし、非同期であってもよい。各処理において、用いるメモリは、図2に示すように複数の順に併置したバッファメモリである。ここにおいて、ある周期にてあるメモリにST701の画像入力処理が行われると、次の周期にてそのメモリについてST702の領域検出処理、ST703の図形計算処理、ST704の画像合成処理を実行し、合成画像を処理が完了した前記あるメモリあるいはあるメモリの前段のメモリに記録し、次いで次の周期にてそのあるメモリあるいは前段のメモリの記憶画像をST705の画像出力処理によって出力している。
(Embodiment 4)
FIG. 7 shows a flowchart of Embodiment 4 which is an image processing method of the present invention. In FIG. 7, first, an image is input by image input processing (ST701). Next, an area detection process (ST702) is performed, and based on the detection result, a graphic calculation process (ST703) is performed to calculate graphics and a synthesized coordinate of the graphic. In the image composition process (ST704), graphics are synthesized with the latest input image based on the calculated coordinates, and the image is output by the image output process (ST705). When each process is completed, the process is repeated. Each process may be synchronized or may be asynchronous. In each process, a memory to be used is a buffer memory juxtaposed in a plurality of orders as shown in FIG. Here, when the image input process of ST701 is performed on a memory in a certain cycle, the area detection process of ST702, the graphic calculation process of ST703, and the image composition process of ST704 are executed for the memory in the next period, The image is recorded in the certain memory that has been processed or the preceding memory of the certain memory, and then the stored image in the certain memory or the preceding memory is output in the image output process of ST705 in the next cycle.

このように、本発明の実施の形態4における画像処理方法は、図2の例でいえば、4周期目で、2周期目で入力された画像に対して合成処理を行った合成画像を出力することが可能となり、図12に示す従来では画像入力されてから画像出力されるまでの周期が3周期要していたものが、2周期に短縮されることになる。従って、従来の技術と比較して画像出力遅延が少なく、かつ、アミューズメント効果を高めた画像処理方法を提供することができるという点において優れた効果を有する。   As described above, in the image processing method according to the fourth embodiment of the present invention, in the example of FIG. 2, in the fourth period, a composite image obtained by performing the composite process on the image input in the second period is output. In the prior art shown in FIG. 12, the period from the input of an image to the output of the image required three cycles is shortened to two. Therefore, it has an excellent effect in that it can provide an image processing method in which an image output delay is small as compared with the conventional technique and an amusement effect is enhanced.

なお、本実施の形態4では、画像入力処理での最新の入力画像について合成を行う例を念頭におき説明してきたが、入力画像の新旧についてはそれを選択して取り出し合成を行うようにすることも可能である。   In the fourth embodiment, the example of combining the latest input image in the image input process has been described in mind. However, the new and old input images are selected and extracted and combined. It is also possible.

また、本実施の形態4では、画像処理方法をコンピュータにて実行可能なソフトウェアにより実現することも可能であり、このソフトウェアをコンピュータにて読み取り可能な記録媒体収め、この記録媒体から読み出して本発明を実現することも可能である。   In the fourth embodiment, the image processing method can also be realized by software that can be executed by a computer. The software is stored in a computer-readable recording medium and read from the recording medium. Can also be realized.

(実施の形態5)
図8は、本発明の実施の形態5の画像処理方法のフローチャートを示す。この図8において、図7に示す符号と同一符号の処理は同じ処理であり説明を省く。図8にて、図形計算処理(ST703)の後は、動き検出処理(ST801)を行う。この動き検出処理(ST801)では、合成座標により対象物の動きを検出する。画像合成処理(ST704)では、動き検出情報に基づいて合成座標を補正し、画像を合成し、画像出力処理によって画像を出力する。各処理が完了した時点で、処理を繰り返す。各処理は同期していてもよいし、非同期であってもよい。各処理において、用いるメモリは、図2に示すように複数の順に併置したバッファメモリである。ここにおいても、ある周期にてあるメモリにST701の画像入力処理が行われると、次の周期にてそのメモリについてST702の領域検出処理、ST703の図形計算処理、ST801の動き検出処理、ST704の画像合成処理を実行し、合成画像を処理が完了した前記あるメモリあるいはあるメモリの前段のメモリに記録し、次いで次の周期にてそのあるメモリあるいは前段のメモリの記憶画像をST705の画像出力処理によって出力している。
(Embodiment 5)
FIG. 8 is a flowchart of the image processing method according to the fifth embodiment of the present invention. In FIG. 8, the processes with the same reference numerals as those shown in FIG. 7 are the same processes and will not be described. In FIG. 8, after the figure calculation process (ST703), a motion detection process (ST801) is performed. In this motion detection process (ST801), the motion of the object is detected based on the composite coordinates. In the image composition process (ST704), the composition coordinates are corrected based on the motion detection information, the image is composed, and the image is output by the image output process. When each process is completed, the process is repeated. Each process may be synchronized or may be asynchronous. In each process, a memory to be used is a buffer memory juxtaposed in a plurality of orders as shown in FIG. Also in this case, when the image input process of ST701 is performed on a memory in a certain cycle, the area detection process of ST702, the graphic calculation process of ST703, the motion detection process of ST801, and the image of ST704 are performed for the memory in the next cycle. The composite processing is executed, and the composite image is recorded in the certain memory that has been processed or the previous memory of the certain memory, and then the stored image in the certain memory or the previous memory in the next cycle is subjected to the image output processing of ST705. Output.

このように、本発明の実施の形態5における画像処理方法は、従来の技術と比較して画像出力遅延が少なく、かつ、合成画像が時間と共に追従でき、かつ、アミューズメント効果を高めた画像処理装置を提供することができるという点において優れた効果を有する。   As described above, the image processing method according to the fifth embodiment of the present invention is an image processing apparatus that has a smaller image output delay than the prior art, can follow a composite image with time, and has improved an amusement effect. It has an excellent effect in that it can be provided.

また、本実施の形態5では、画像処理方法をコンピュータにて実行可能なソフトウェアにより実現することも可能であり、このソフトウェアをコンピュータにて読み取り可能な記録媒体収め、この記録媒体から読み出して本発明を実現することも可能である。   In the fifth embodiment, the image processing method can also be realized by software that can be executed by a computer. The software is stored in a computer-readable recording medium and read from the recording medium. Can also be realized.

(実施の形態6)
図9は、本発明の実施の形態6の画像処理方法のフローチャートを示す。この図9において、図7、図8に示す符号と同一符号の処理は同じ処理であり説明を省く。図9にて、動き検出処理(ST801)の後は、画像合成処理(ST704)に際して、合成補正制御処理(ST901)にて合成座標の補正を行うかどうかの制御を行う。その制御情報に基づいて、合成座標を補正し、画像を合成する。その後、画像出力処理(ST705)によって画像を出力する。各処理が完了した時点で、処理を繰り返す。各処理は同期していてもよいし、非同期であってもよい。各処理において、用いるメモリは、図2に示すように複数の順に併置したバッファメモリである。ここにおいても、ある周期にてあるメモリにST701の画像入力処理が行われると、次の周期にてそのメモリについてST702の領域検出処理、ST703の図形計算処理、ST801の動き検出処理、ST901の合成補正制御処理を伴うST704の画像合成処理を実行し、合成画像を処理が完了した前記あるメモリあるいはあるメモリの前段のメモリに記録し、次いで次の周期にてそのあるメモリあるいは前段のメモリの記憶画像をST705の画像出力処理によって出力している。なお、ここで合成位置の補正については、例えば動き検出処理(ST801)による動き情報を全く加味しない制御とし、動き情報の加味の程度を加減する制御とすることができる。
(Embodiment 6)
FIG. 9 shows a flowchart of an image processing method according to the sixth embodiment of the present invention. In FIG. 9, the processes with the same reference numerals as those shown in FIGS. 7 and 8 are the same processes and will not be described. In FIG. 9, after the motion detection process (ST801), in the image composition process (ST704), whether or not to correct the composite coordinates is controlled in the composite correction control process (ST901). Based on the control information, the composite coordinates are corrected and the image is composited. Thereafter, an image is output by image output processing (ST705). When each process is completed, the process is repeated. Each process may be synchronized or may be asynchronous. In each process, a memory to be used is a buffer memory juxtaposed in a plurality of orders as shown in FIG. Also in this case, when the image input process of ST701 is performed on a memory in a certain cycle, the area detection process of ST702, the graphic calculation process of ST703, the motion detection process of ST801, and the synthesis of ST901 are performed for the memory in the next cycle. The image synthesis process of ST704 accompanied by the correction control process is executed, and the synthesized image is recorded in the memory that has completed the process or the previous memory of the memory, and then stored in the certain memory or the previous memory in the next cycle. The image is output by the image output process of ST705. Here, the correction of the composite position can be, for example, control that does not take motion information by motion detection processing (ST801) at all, and control that adds or subtracts the degree of addition of motion information.

このように、本発明の実施の形態6における画像処理方法は、従来の技術と比較して画像出力遅延が少なく、かつ、合成画像の追従補正を制御可能とし、かつ、アミューズメント効果をさらに高めた画像処理装置を提供することができるという点において優れた効果を有する。   As described above, the image processing method according to the sixth embodiment of the present invention has less image output delay than the conventional technique, enables control of the follow-up correction of the composite image, and further enhances the amusement effect. This has an excellent effect in that an image processing apparatus can be provided.

また、本実施の形態6では、画像処理方法をコンピュータにて実行可能なソフトウェアにより実現することも可能であり、このソフトウェアをコンピュータにて読み取り可能な記録媒体収め、この記録媒体から読み出して本発明を実現することも可能である。   In the sixth embodiment, the image processing method can also be realized by software that can be executed by a computer. The software is stored in a computer-readable recording medium and read from the recording medium. Can also be realized.

本発明は、アミューズメント効果を増大させる動画撮影あるいは編集装置に用いて好適である。   The present invention is suitable for use in moving image shooting or editing devices that increase the amusement effect.

本発明の実施の形態1における画像処理装置の構成を示すブロック図1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention. 実施の形態1における動作タイミングを示す説明図Explanatory drawing showing the operation timing in the first embodiment 本発明の実施の形態2における画像処理装置の構成を示すブロック図Block diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention. 実施の形態2における合成座標の動きの説明図Explanatory drawing of the movement of the composite coordinates in the second embodiment 実施の形態2における合成結果の説明図Explanatory drawing of the synthesis result in Embodiment 2 本発明の実施の形態3における画像処理装置の構成を示すブロック図Block diagram showing a configuration of an image processing apparatus according to Embodiment 3 of the present invention. 本発明の実施の形態4における画像処理方法の処理を示すフロー図FIG. 9 is a flowchart showing processing of an image processing method according to Embodiment 4 of the present invention. 本発明の実施の形態5における画像処理方法の処理を示すフロー図FIG. 7 is a flowchart showing processing of an image processing method according to Embodiment 5 of the present invention 本発明の実施の形態6における画像処理方法の処理を示すフロー図Flow chart showing processing of an image processing method in Embodiment 6 of the present invention 従来の技術の画像処理装置を示すブロック図Block diagram showing a conventional image processing apparatus 従来の技術の動作タイミングを示す説明図Explanatory drawing showing operation timing of conventional technology 従来の技術の動作タイミングを示す説明図Explanatory drawing showing operation timing of conventional technology

符号の説明Explanation of symbols

100 画像入力手段
101 領域検出手段
102 図形計算手段
103 画像合成手段
104 画像出力手段
105 メモリ
106 動き検出手段
107 合成補正制御手段
DESCRIPTION OF SYMBOLS 100 Image input means 101 Area | region detection means 102 Graphic calculation means 103 Image composition means 104 Image output means 105 Memory 106 Motion detection means 107 Composition correction control means

Claims (9)

画像入力手段と、この画像入力手段による入力画像中から対象物を検出する領域検出手段と、この領域検出手段によって検出した対象物に応じて合成対象および位置を決定する図形計算手段と、前記画像入力手段による入力画像に対し、前記図形計算手段によって決定した合成対象を合成する際に、前記図形計算手段によって決定した位置に基き画像を合成する画像合成手段と、この画像合成手段による合成画像を出力する画像出力手段とを有する一方、前記各手段に対しバッファとして複数個順に併置したメモリを有する画像処理装置において、
前記画像入力手段にて入力画像が入力される一のメモリと、前記領域検出手段と前記図形計算手段と前記画像合成手段とで行う処理情報を記憶する、前記一のメモリより前段のメモリと、前記画像合成手段による合成画像を記憶する、処理が完了した前記前段のメモリあるいは前記前段のメモリより更に前段のメモリと、を有することを特徴とする画像処理装置。
Image input means, area detection means for detecting an object from an input image by the image input means, figure calculation means for determining a composition target and position according to the object detected by the area detection means, and the image When synthesizing the synthesis target determined by the graphic calculation means with respect to the input image by the input means, the image synthesis means for synthesizing the image based on the position determined by the graphic calculation means, and the composite image by the image synthesis means In an image processing apparatus having an image output means for outputting, and having a memory juxtaposed in order as a buffer for each means,
A memory in which an input image is input by the image input unit; a memory preceding the one memory for storing processing information performed by the region detection unit, the graphic calculation unit, and the image synthesis unit; An image processing apparatus comprising: the previous-stage memory that has completed the processing, or a previous-stage memory that stores the composite image by the image synthesis means;
前記画像入力手段による入力画像に対し、前記図形計算手段によって決定した合成対象を前記画像合成手段にて合成する際に、前記図形計算手段によって決定した位置を補正する対象物の動きを動き情報によって検出する動き検出手段を有することを特徴とする請求項1に記載の画像処理装置。   When the synthesis target determined by the graphic calculation unit is combined with the input image by the image input unit by the image synthesis unit, the movement of the object for correcting the position determined by the graphic calculation unit is determined by motion information. The image processing apparatus according to claim 1, further comprising a motion detection unit for detecting. 前記画像合成手段に対して、前記入力画像に前記合成対象を合成する位置を補正するかどうかを制御する合成補正制御手段を有することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising: a composition correction control unit that controls whether the image composition unit corrects a position where the composition target is synthesized with the input image. 画像入力ステップと、この画像入力ステップによる入力画像中から対象物を検出する領域検出ステップと、この領域検出ステップによって検出した対象物に応じて合成対象および位置を決定する図形計算ステップと、前記画像入力ステップによる入力画像に対し、前記図形計算ステップによって決定した合成対象を合成する際に、前記図形計算ステップによって決定した位置に基き画像を合成する画像合成ステップと、この画像合成ステップによる合成画像を出力する画像出力ステップを有する一方、前記各ステップに対しバッファとして複数個のメモリを順に用いる画像処理方法において、
第1周期では前記画像入力ステップにて一のメモリに入力画像を入力し、第2周期では前記一のメモリに記憶された入力情報にて前記領域検出ステップと前記図形計算ステップと前記画像合成ステップにて処理を実行すると共に、前記画像合成ステップによる合成画像を処理が完了した前記一のメモリあるいは前記一のメモリの前段のメモリに記憶することを特徴とする画像処理方法。
An image input step, an area detection step for detecting an object from an input image obtained by the image input step, a figure calculation step for determining a composition target and a position according to the object detected by the area detection step, and the image When synthesizing the synthesis target determined in the graphic calculation step with the input image in the input step, an image synthesis step for synthesizing the image based on the position determined in the graphic calculation step, and a composite image in the image synthesis step In the image processing method using a plurality of memories in order as a buffer for each step, while having an image output step for outputting,
In the first period, an input image is input to one memory in the image input step, and in the second period, the region detection step, the figure calculation step, and the image composition step are performed based on input information stored in the one memory. The image processing method is characterized in that the processing is executed in step (b) and the synthesized image obtained in the image synthesizing step is stored in the one memory that has been processed or a memory preceding the one memory.
前記画像入力ステップでの入力画像に対し、前記図形計算ステップによって決定した合成対象を前記画像合成ステップにて合成する際に、前記図形計算ステップによって決定した位置を補正する対象物の動きを動き情報にて検出する動き検出ステップを有することを特徴とする請求項4に記載の画像処理方法。   When the synthesis target determined in the graphic calculation step is combined with the input image in the image input step in the image synthesis step, the movement of the object for correcting the position determined in the graphic calculation step is motion information. The image processing method according to claim 4, further comprising a motion detection step of detecting in step (a). 前記画像合成ステップに対して、前記入力画像に前記合成対象を合成する位置を補正するかどうかを制御する合成補正制御ステップを有することを特徴とする請求項5に記載の画像処理方法。   6. The image processing method according to claim 5, further comprising a composition correction control step for controlling whether or not to correct a position where the composition target is synthesized with the input image. 請求項1から請求項3のいずれかに記載の画像処理装置が具備されることを特徴とする移動体通信システム。   A mobile communication system comprising the image processing apparatus according to any one of claims 1 to 3. 請求項1から請求項3のいずれかに記載の画像処理装置が具備されることを特徴とする画像編集システム。   An image editing system comprising the image processing apparatus according to any one of claims 1 to 3. 請求項4から請求項6のいずれかに記載の画像処理方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 4 to 6.
JP2004318601A 2004-11-01 2004-11-01 Image processing apparatus Pending JP2006129401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004318601A JP2006129401A (en) 2004-11-01 2004-11-01 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004318601A JP2006129401A (en) 2004-11-01 2004-11-01 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006129401A true JP2006129401A (en) 2006-05-18

Family

ID=36723553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004318601A Pending JP2006129401A (en) 2004-11-01 2004-11-01 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2006129401A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103313069A (en) * 2012-03-08 2013-09-18 三菱电机株式会社 Image compositing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103313069A (en) * 2012-03-08 2013-09-18 三菱电机株式会社 Image compositing apparatus
CN103313069B (en) * 2012-03-08 2015-10-07 三菱电机株式会社 Image synthesizer
US9613597B2 (en) 2012-03-08 2017-04-04 Mitsubishi Electric Corporation Apparatus and method for image compositing based on detected presence or absence of base image

Similar Documents

Publication Publication Date Title
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP2012099876A (en) Image processing device, imaging device, image processing method, and program
JP2010268441A (en) Image processor, imaging device, and image reproducing device
WO2007063819A1 (en) Recording device, reproduction device, recording method, recording program, and computer-readable recording medium
JP2007060437A (en) Recording and reproducing apparatus, recording and reproducing method, and computer program
JP2010153947A (en) Image generating apparatus, image generating program and image display method
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP2009182817A (en) Video processing device and its control method
JP2009200985A (en) Video processing apparatus
JP2009044329A (en) Program, image processing method, and image processor
JP5604916B2 (en) Image processing apparatus and program
US20230217084A1 (en) Image capture apparatus, control method therefor, image processing apparatus, and image processing system
JP5402166B2 (en) Image composition apparatus and program
JP5267279B2 (en) Image composition apparatus and program
JP2006129401A (en) Image processing apparatus
WO2019073925A1 (en) Image generation device and image generation method
JPH1042307A (en) Key system and synthetic image forming method
JP2008021110A (en) Image processor, image processing procedure, and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JP2012109899A (en) Image processing device
JP5411806B2 (en) Image composition apparatus and program thereof
JP2016092795A (en) Moving image reproduction device and moving image reproduction method
JP2002232782A (en) Image processor, method therefor and record medium for program