JP2007019956A - Image synthesizing apparatus and image synthesizing method thereof - Google Patents

Image synthesizing apparatus and image synthesizing method thereof Download PDF

Info

Publication number
JP2007019956A
JP2007019956A JP2005200287A JP2005200287A JP2007019956A JP 2007019956 A JP2007019956 A JP 2007019956A JP 2005200287 A JP2005200287 A JP 2005200287A JP 2005200287 A JP2005200287 A JP 2005200287A JP 2007019956 A JP2007019956 A JP 2007019956A
Authority
JP
Japan
Prior art keywords
image
input
important
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005200287A
Other languages
Japanese (ja)
Inventor
Masaki Ikeda
正樹 池田
Hiroyuki Ito
博之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005200287A priority Critical patent/JP2007019956A/en
Publication of JP2007019956A publication Critical patent/JP2007019956A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve a matter that a child screen does not cover an important image region of a parent screen completely, and a user can determine what kind of image about an important region of the parent screen. <P>SOLUTION: An image synthesizing apparatus 100 is provided with an image input 101 from which an image is input, a region detector 102 which detects the important region from the input image, an image synthesizer 103 which synthesizes a plurality of input images, and an image output 104 which outputs a synthesized image. In the image synthesizer 103, transparent synthesizing of the input image is performed when overlapping is generated with the important region detected by the region detector 102. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の動画像や静止画を1つの画面上に合成する画像合成装置及び画像合成方法に関する。   The present invention relates to an image composition apparatus and an image composition method for composing a plurality of moving images and still images on one screen.

従来の画像表示装置においては、表示全画面中に小領域の画面を形成し、この小領域の画面に表示全画面に表示された画像と異なる別の画像を表示するものがある。   In some conventional image display devices, a small area screen is formed in the entire display screen, and an image different from the image displayed on the entire display screen is displayed on the small area screen.

例えば、特許文献1には、親画面の中にサムネイル状の子画面を表示するピクチャ・イン・ピクチャ(PinP)と呼ばれる技術が記載されている。この技術は、動画の親画面の画面中に動画あるいは静止画で、親画面と同一映像若しくは別の映像を、親画面と同じ縦横比で圧縮した子画面をスーパーインポーズする。また、子画面をスーパーインポーズする場所は親画面の任意の場所に設定することができる。   For example, Patent Document 1 describes a technique called picture-in-picture (PinP) that displays a thumbnail-like child screen in a parent screen. This technology superimposes a child screen in which a moving image or a still image is compressed in the moving image or a still image in the moving image or the same image as the parent screen with the same aspect ratio as the parent screen. Further, the place where the child screen is superimposed can be set to an arbitrary place on the parent screen.

図8は、従来の画像合成装置であるピクチャ・イン・ピクチャ生成装置の構成を示すブロック図である。   FIG. 8 is a block diagram showing a configuration of a picture-in-picture generation apparatus that is a conventional image synthesis apparatus.

図8において、ピクチャ・イン・ピクチャ生成装置10は、画像拡大部11、画像縮小部12、及び画像合成部13を備えて構成される。   In FIG. 8, the picture-in-picture generation apparatus 10 includes an image enlargement unit 11, an image reduction unit 12, and an image composition unit 13.

画像拡大部11は、例えば図3のような176×144画素で構成される画像を352×288画素へと拡大し、画像縮小部12は、例えば図2のような352×288画素で構成される画像を176×144へと縮小する。画像合成部13は、図4のように画像拡大部から出力される画像(親画面)の特定位置に、画像縮小部から出力される画像(子画面)を合成するものである。
特開平6−30335号公報
The image enlargement unit 11 enlarges an image composed of 176 × 144 pixels as shown in FIG. 3 to 352 × 288 pixels, for example, and the image reduction unit 12 is composed of 352 × 288 pixels as shown in FIG. Image to 176 × 144. The image composition unit 13 synthesizes the image (child screen) output from the image reduction unit at a specific position of the image (parent screen) output from the image enlargement unit as shown in FIG.
JP-A-6-30335

しかしながら、このような従来の画像合成装置にあっては、子画面が親画面の重要な画像領域を覆い隠してしまう場合があり、この場合には親画面の重要な領域を見ることができないという問題がある。   However, in such a conventional image synthesizing apparatus, there is a case where the child screen covers and hides the important image area of the parent screen, and in this case, the important area of the parent screen cannot be seen. There's a problem.

本発明はかかる点に鑑みてなされたものであり、子画面が親画面の重要な画像領域を完全に覆い隠すことがなく、親画面の重要な領域がどのような画像であるかをユーザが判断できる画像合成装置及び画像合成方法を提供することを目的とする。   The present invention has been made in view of such a point, and the user does not completely cover the important image area of the parent screen, and the user can determine what kind of image the important area of the parent screen is. An object is to provide an image composition apparatus and an image composition method that can be determined.

本発明の画像合成装置は、画像を入力する画像入力手段と、前記画像入力手段により入力された画像から所定の条件を満たす領域を重要領域として検出する領域検出手段と、前記画像入力手段により入力された複数の画像を合成する際、入力された画像が前記重要領域と重なる場合には、前記入力された画像を透過合成する画像合成手段とを備える構成を採る。   The image composition apparatus of the present invention includes an image input means for inputting an image, an area detection means for detecting an area satisfying a predetermined condition from the image input by the image input means as an important area, and an input by the image input means. When synthesizing the plurality of images, if the input image overlaps the important area, an image synthesizing unit that transparently synthesizes the input image is employed.

本発明の画像合成方法は、画像を入力するステップと、入力された画像から所定の条件を満たす領域を重要領域として検出するステップと、入力された複数の画像を合成する際、入力された画像が前記重要領域と重なる場合には、前記入力された画像を透過合成する画像合成ステップとを有する。   The image composition method of the present invention includes an image input step, a step of detecting a region satisfying a predetermined condition from the input image as an important region, and an input image when combining a plurality of input images. Includes an image synthesis step of transparently synthesizing the inputted image.

他の観点から、本発明は、上記画像合成方法のステップをコンピュータに実行させるためのプログラムである。   From another viewpoint, the present invention is a program for causing a computer to execute the steps of the image composition method.

本発明によれば、合成する画像によって、合成元の画像の重要な領域を完全に覆い隠すことがないように、合成する画像を透過合成することができ、合成元の重要領域の画像内容についてユーザが判別可能になる。これにより、合成画像の画像内容(例えば子画面)と合成元の重要領域の画像内容(例えば親画面)の両方の画像内容を理解することができ、ユーザに優しい使い勝手のよい装置を提供することができる。   According to the present invention, the image to be synthesized can be transparently synthesized so that the important area of the image to be synthesized is not completely obscured by the image to be synthesized. The user can discriminate. Thus, it is possible to understand both the image content of the composite image (for example, the child screen) and the image content of the important region of the composition source (for example, the main screen), and to provide a user-friendly device that is user-friendly. Can do.

以下、本発明の実施の形態について図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る画像合成装置の構成を示すブロック図である。本実施の形態に係る画像合成装置は、デジタルカメラに適用した例である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image composition device according to Embodiment 1 of the present invention. The image composition device according to the present embodiment is an example applied to a digital camera.

図1において、画像合成装置100は、画像を入力する画像入力部101と、入力された画像から重要領域を検出する領域検出部102と、入力された複数の画像を合成する画像合成部103と、合成された画像を出力する画像出力部104とから主に構成される。   In FIG. 1, an image composition apparatus 100 includes an image input unit 101 that inputs an image, an area detection unit 102 that detects an important region from the input image, and an image composition unit 103 that combines a plurality of input images. The image output unit 104 mainly outputs a synthesized image.

画像入力部101は、複数の画像入力部(1),(2),…,(N)を有し、複数の画像を入力することができる。例えば、カメラ等の入力デバイスからの画像や、TVチューナ、DVDプレーヤ、VTR等の復号化装置等で復号化された画像、ネットワークからダウンロードされた画像データや、TV電話等で用いられるITU−T勧告H.261やH.263、MPEG−4等の規格で符号化されたビットストリームを復号した画像を入力として用いることができる。画像入力時には、拡大・縮小処理、輪郭強調処理、色変換(YUV→RGB変換等)や増色・減色処理、D/A変換処理等を行ってもよい。   The image input unit 101 includes a plurality of image input units (1), (2),..., (N), and can input a plurality of images. For example, an image from an input device such as a camera, an image decoded by a decoding device such as a TV tuner, a DVD player, or a VTR, an image data downloaded from a network, an ITU-T used for a TV phone, etc. An image obtained by decoding a bitstream encoded according to a standard such as recommendation H.261, H.263, or MPEG-4 can be used as an input. When inputting an image, enlargement / reduction processing, contour enhancement processing, color conversion (YUV → RGB conversion, etc.), color increase / reduction processing, D / A conversion processing, and the like may be performed.

領域検出部102は、画像入力部101によって格納された入力画像から、所定の条件を満たす領域を重要領域として検出する。検出した重要領域情報は、画像合成部103へ渡される。重要領域の対象物体としては、人間全体であったり、人間の顔であったり、手、足、目、鼻、耳、口等の部分領域であってもよい。また、人間だけではなく、動物であったり、車、電車等の人工物であってもよい。これらの重要領域の検出方法として、例えば予め収集した対象物から生成されたテンプレートを用意する。そして、入力された画像にこのテンプレートを拡大又は縮小して重ね合わせることで画像の各部分の相関を求める。画像の各部分にテンプレートを当てはめた結果、テンプレートと所定の閾値以上の相関を持つ高い相関部分を重要領域として検出する方法がある。また、別途入力デバイスとして、距離計測可能なレンジファインダーからの距離画像を用いて重要領域を検出してもよいし、温度センサからの情報を用いて対象物を検出してもよい。   The area detection unit 102 detects an area that satisfies a predetermined condition as an important area from the input image stored by the image input unit 101. The detected important area information is transferred to the image composition unit 103. The target object of the important area may be the whole person, a human face, or a partial area such as a hand, foot, eye, nose, ear, or mouth. Moreover, it may be not only a human but also an animal or an artificial object such as a car or a train. As a method for detecting these important areas, for example, a template generated from an object collected in advance is prepared. Then, the correlation of each part of the image is obtained by superimposing the template on the input image by enlarging or reducing the template. As a result of applying a template to each part of an image, there is a method of detecting a highly correlated part having a correlation with a template or a predetermined threshold or more as an important region. In addition, as a separate input device, an important region may be detected using a distance image from a range finder capable of measuring distance, or an object may be detected using information from a temperature sensor.

画像合成部103は、画像入力部101が入力した複数の画像と、領域検出部102が検出した重要領域情報を用いて合成する。ここで、画像合成部103は、透過合成することが可能であり、領域検出部102が検出した重要領域と重なる場合には透過合成を行う。透過合成とは、例えば2つの画像を合成する場合に、重み付け合成をすることである。この重みは、透過値と一般に呼ばれる。例えば、画素値Aと画素値Bとの透過合成は次式(1)によって表される。   The image synthesis unit 103 synthesizes the plurality of images input by the image input unit 101 and the important area information detected by the area detection unit 102. Here, the image composition unit 103 can perform the transmission composition, and performs the transmission composition when it overlaps with the important region detected by the region detection unit 102. The transmission composition is, for example, weighted composition when two images are combined. This weight is commonly referred to as the transmission value. For example, the transmission composition of the pixel value A and the pixel value B is expressed by the following equation (1).

合成画素値=画素値A×透過値+画素値B×(1−透過値) …(1)
また、合成時には、画像入力部101が入力した複数の画像に対して、拡大・縮小処理、輪郭強調処理、色変換(YUV→RGB変換等)や増色・減色処理、D/A変換処理等を施してもよい。
Composite pixel value = pixel value A × transmission value + pixel value B × (1−transmission value) (1)
Further, at the time of composition, enlargement / reduction processing, contour enhancement processing, color conversion (YUV → RGB conversion, etc.), color increase / reduction processing, D / A conversion processing, etc., for a plurality of images input by the image input unit 101 May be applied.

画像出力部104は、画像合成部103が合成した合成画像を入力とし、例えばLCD等の表示デバイスに対して出力を行う。なお、NTSC若しくはPAL(phase alternation line)フォーマットへの変換を行い、TV画面への出力を可能にしてもよい。   The image output unit 104 receives the composite image synthesized by the image synthesis unit 103 and outputs it to a display device such as an LCD. Note that conversion to the NTSC or PAL (phase alternation line) format may be performed to enable output to the TV screen.

以下、上述のように構成された画像合成装置100の動作について説明する。   Hereinafter, the operation of the image synthesizing apparatus 100 configured as described above will be described.

ここでは、TV電話会議システムのように、自局のカメラで撮影された画像と、対局からMPEG−4規格で符号化されたビットストリームを受信し、復号された画像をピクチャ・イン・ピクチャ合成して表示する場合を想定する。   Here, as in a video teleconference system, an image captured by the camera of the local station and a bitstream encoded by the MPEG-4 standard are received from the other party, and the decoded image is combined into a picture-in-picture composition. It is assumed that the information is displayed.

図2及び図3は、画像合成装置100の入力画像の一例を示す図、図4及び図5は、画像合成装置100の画像合成例を示す図である。   2 and 3 are diagrams illustrating an example of an input image of the image composition device 100, and FIGS. 4 and 5 are diagrams illustrating an image composition example of the image composition device 100. FIG.

自局のカメラで撮影された画像は、画像入力部101により入力される。入力画像の例は図2に示される。また、対局からMPEG−4規格で符号化されたビットストリームは、図示しない復号化装置によって復号され、画像入力部101により入力される。入力画像の例は図3に示される。自局カメラ画像は、ピクチャ・イン・ピクチャ合成時には、352×288画素のサイズの画像を176×144画素へ縮小し、子画面として座標(154,110)に合成する。対局復号画像は、176×144画素のサイズから352×288画素へ拡大し、いま親画面として図4に示すように合成する場合を想定する。   An image captured by the local camera is input by the image input unit 101. An example of the input image is shown in FIG. Also, a bit stream encoded by the MPEG-4 standard from the game is decoded by a decoding device (not shown) and input by the image input unit 101. An example of the input image is shown in FIG. At the time of picture-in-picture synthesis, the local camera image is reduced to an image having a size of 352 × 288 pixels to 176 × 144 pixels, and is synthesized as coordinates (154, 110) as a child screen. It is assumed that the game decoded image is enlarged from a size of 176 × 144 pixels to 352 × 288 pixels and is synthesized as a parent screen as shown in FIG.

領域検出部102では、画像入力部101によって入力された対局復号画像の重要領域を検出する。図3において、重要領域は人物の周囲を囲む実線の枠内に示される領域として検出されたものとする。   The area detection unit 102 detects an important area of the game decoded image input by the image input unit 101. In FIG. 3, it is assumed that the important area is detected as an area shown in a solid line frame surrounding the person.

画像合成部103では、領域検出部102からの重要領域を示す情報から、子画面合成位置が、重要領域と重なっていることを判断し、図5に示すように子画面合成する場合には透過合成を行う。この例での透過値は、0.5としたが、適応的に値を変更するようにしてもよい。   The image composition unit 103 determines from the information indicating the important region from the region detection unit 102 that the sub-screen composition position overlaps with the important region. Perform synthesis. The transmission value in this example is 0.5, but the value may be changed adaptively.

画像出力部104では、画像合成部103により合成された合成画像をLCD等の表示デバイスに出力する。   The image output unit 104 outputs the combined image combined by the image combining unit 103 to a display device such as an LCD.

図6は、画像合成装置100の画像処理方法を示すフローチャートである。図中、Sはフローの各処理ステップを示す。   FIG. 6 is a flowchart illustrating an image processing method of the image composition device 100. In the figure, S indicates each processing step of the flow.

図6において、画像入力処理(ステップS1)、領域検出処理(ステップS2)、画像合成処理(ステップS3)、及び画像出力処理(ステップS4)はそれぞれ、図1の画像入力部101、領域検出部102、画像合成部103、及び画像出力部104と同様の機能を有する。   6, the image input process (step S1), the area detection process (step S2), the image composition process (step S3), and the image output process (step S4) are respectively the image input unit 101 and the area detection unit shown in FIG. 102, the image synthesizing unit 103, and the image output unit 104.

上述した想定に基づいてより具体的に動作を説明する。   The operation will be described more specifically based on the above assumption.

自局のカメラで撮影された画像は、ステップS1の画像入力処理により入力される。入力画像の例は図2に示される。また、対局からMPEG−4規格で符号化されたビットストリームは、復号化装置によって復号され、画像入力処理(ステップS1)によって入力される。入力画像の例は図3に示される。   An image photographed by the camera of its own station is input by the image input process in step S1. An example of the input image is shown in FIG. Also, the bit stream encoded by the MPEG-4 standard from the game is decoded by the decoding device and input by the image input process (step S1). An example of the input image is shown in FIG.

次いで、ステップS2の領域検出処理では、画像入力処理(ステップS1)によって入力された対局復号画像の重要領域を検出する。図3において、重要領域は実線の枠内に示される領域として検出されたものとする。   Next, in the area detection process in step S2, an important area of the game decoded image input by the image input process (step S1) is detected. In FIG. 3, it is assumed that the important area is detected as an area indicated within a solid frame.

次いで、ステップS3の画像合成処理では、領域検出処理(ステップS2)により検出された重要領域情報から、子画面合成位置が、重要領域と重なっていることを判断し、図5に示すように子画面合成する場合には透過合成を行う。この例での透過値は、0.5としたが、適応的に値を変更するようにしてもよい。   Next, in the image composition process in step S3, it is determined from the important area information detected by the area detection process (step S2) that the child screen composition position overlaps with the important area, and the child composition as shown in FIG. In the case of screen composition, transparent composition is performed. The transmission value in this example is 0.5, but the value may be changed adaptively.

最後に、ステップS4の画像出力処理(ステップS4)では、画像合成処理(ステップS3)により画像合成された合成画像をLCD等の表示デバイスに対して出力して本フローを終了する。   Finally, in the image output process (step S4) in step S4, the synthesized image synthesized by the image synthesis process (step S3) is output to a display device such as an LCD, and this flow is finished.

以上のように、実施の形態1によれば、合成する画像によって、合成元の画像の重要な領域を完全に覆い隠すことがないように、合成する画像を透過合成することができ、合成元の重要領域の画像内容も理解することができる。すなわち、親画面の重要領域は透過合成されるため、重要な画像領域を完全に覆い隠すことがなく、重要な画像領域がどのような画像であるかをユーザが判断できるという点において優れた効果を有する。かかる優れた特長を有する本発明を、TV会議システムにおける画像装置、据置き型の有線テレビ電話装置、移動体通信システムにおける携帯テレビ電話装置等に適用して好適である。
(実施の形態2)
図7は、本発明の実施の形態2に係る画像合成装置の画像合成例を示す図である。構成要素は、実施の形態1(図1)と同様であるため、その説明は省略する。
As described above, according to the first embodiment, an image to be combined can be transparently combined so that an important region of the image to be combined is not completely obscured by the image to be combined. It is possible to understand the image contents of the important area. In other words, since the important area of the main screen is transparently synthesized, it is excellent in that the user can determine what kind of image the important image area is without completely obscuring the important image area. Have The present invention having such excellent features is preferably applied to an image device in a TV conference system, a stationary cable videophone device, a portable videophone device in a mobile communication system, and the like.
(Embodiment 2)
FIG. 7 is a diagram showing an image composition example of the image composition apparatus according to Embodiment 2 of the present invention. Since the components are the same as those in the first embodiment (FIG. 1), the description thereof is omitted.

実施の形態1との違いは、画像合成部103が、図5に示すように、子画面全体透過合成するのではなく、図7に示すように、領域検出部102が検出した重要領域と重なる領域のみを透過合成することにある。   The difference from the first embodiment is that the image composition unit 103 does not transparently compose the entire child screen as shown in FIG. 5, but overlaps the important region detected by the region detection unit 102 as shown in FIG. The purpose is to synthesize only the area.

また、図6のフローチャートにおける違いは、画像合成処理(ステップS3)では、図5に示すように、子画面全体透過合成するのではなく、図7に示すように、領域検出処理(ステップS2)が検出した重要領域と重なる領域のみを透過合成する。   6 is different from the flowchart of FIG. 6 in the image composition process (step S3), as shown in FIG. 5, the entire child screen is not transparently synthesized, but the area detection process (step S2) as shown in FIG. Only the region that overlaps the important region detected by is transparently synthesized.

このように、実施の形態2によれば、親画面の重要領域のみが透過合成されるため、透過合成となる画像部分が実施の形態1に比べてより少なくなり、合成画像の画像内容と合成元の重要領域の画像内容の両方の画像内容をより一層ユーザが理解できるという点において優れた効果を有する。   As described above, according to the second embodiment, since only the important region of the parent screen is transparently combined, the image portion to be transparent combined is smaller than that of the first embodiment, and combined with the image content of the combined image. This has an excellent effect in that the user can further understand the image contents of both of the original important area image contents.

以上の説明は本発明の好適な実施の形態の例証であり、本発明の範囲はこれに限定されることはない。   The above description is an illustration of a preferred embodiment of the present invention, and the scope of the present invention is not limited to this.

また、画像合成装置及び方法を有する電子機器であればどのような装置にも適用できる。例えば、デジタルカメラ、デジタルビデオカメラは勿論のこと、テレビ電話装置、さらにはカメラ付き携帯電話機、PDA(Personal Digital Assistants)等の携帯情報端末、パソコン等の情報処理装置など、カメラ(内蔵/外付け)を備えた装置にも適用可能である。また、合成対象となる画像は、どのような画像データであってもよい。   Further, the present invention can be applied to any apparatus as long as it is an electronic apparatus having an image composition apparatus and method. For example, in addition to digital cameras and digital video cameras, videophone devices, mobile phones with cameras, personal digital assistants such as PDA (Personal Digital Assistants), information processing devices such as personal computers, cameras (built-in / external) It is applicable also to the apparatus provided with. Further, the image to be combined may be any image data.

さらに、本発明は例えば携帯端末として組み込むことが可能であり、画像合成装置及び方法を具備した移動体通信システムとして実現することも可能である。   Furthermore, the present invention can be incorporated as a mobile terminal, for example, and can also be realized as a mobile communication system including an image composition device and method.

また、上記各実施の形態では、画像合成装置及び方法という名称を用いたが、これは説明の便宜上であり、画像表示装置、画像合成方法、画像処理方法等でもよいことは勿論である。   In each of the above embodiments, the names “image composition apparatus and method” are used. However, this is for convenience of explanation, and it is needless to say that an image display apparatus, an image composition method, an image processing method, and the like may be used.

また、図2乃至図6に示す画像表示は一例であって他の例でもよいことは言うまでもない。   Further, it goes without saying that the image display shown in FIGS. 2 to 6 is an example, and other examples may be used.

また、上記画像合成装置を構成する各回路部の種類、数及び接続方法などは前述した実施の形態に限られない。   Further, the type, number, connection method, and the like of each circuit unit constituting the image composition device are not limited to the above-described embodiments.

また、以上説明した画像合成装置及び方法は、これら画像合成装置及び方法を機能させるためのプログラムでも実現される。このプログラムはコンピュータで読み取り可能な記録媒体に格納されている。   The image composition apparatus and method described above can also be realized by a program for causing these image composition apparatuses and methods to function. This program is stored in a computer-readable recording medium.

本発明に係る画像合成装置及び方法は、TV会議システムにおける画像装置、据置き型の有線テレビ電話装置、移動体通信システムにおける携帯テレビ電話装置等において、複数の動画像や静止画を1つの画面上に合成する画像合成装置及び画像合成方法として有用である。   An image composition apparatus and method according to the present invention provides a plurality of moving images and still images on one screen in an image device in a TV conference system, a stationary cable videophone device, a portable videophone device in a mobile communication system, and the like. It is useful as an image composition apparatus and an image composition method to be combined on top.

本発明の実施の形態1に係る画像合成装置の構成を示すブロック図1 is a block diagram showing a configuration of an image composition device according to Embodiment 1 of the present invention. 上記実施の形態1に係る画像合成装置の入力画像を示す図The figure which shows the input image of the image synthesizing | combining apparatus which concerns on the said Embodiment 1. FIG. 上記実施の形態1に係る画像合成装置の入力画像を示す図The figure which shows the input image of the image synthesizing | combining apparatus which concerns on the said Embodiment 1. FIG. 上記実施の形態1に係る画像合成装置の画像合成例を示す図The figure which shows the image composition example of the image composition apparatus which concerns on the said Embodiment 1. FIG. 上記実施の形態1に係る画像合成装置の画像合成例を示す図The figure which shows the image composition example of the image composition apparatus which concerns on the said Embodiment 1. FIG. 上記実施の形態1に係る画像合成装置の画像処理方法の処理を示すフロー図Flow chart showing processing of the image processing method of the image composition device according to the first embodiment. 本発明の実施の形態2に係る画像合成装置の画像合成例を示す図The figure which shows the image composition example of the image composition apparatus which concerns on Embodiment 2 of this invention. 従来の画像合成装置の構成を示すブロック図Block diagram showing the configuration of a conventional image composition device

符号の説明Explanation of symbols

100 画像合成装置
101 画像入力部
102 領域検出部
103 画像合成部
104 画像出力部
DESCRIPTION OF SYMBOLS 100 Image composition apparatus 101 Image input part 102 Area | region detection part 103 Image composition part 104 Image output part

Claims (6)

画像を入力する画像入力手段と、
前記画像入力手段により入力された画像から所定の条件を満たす領域を重要領域として検出する領域検出手段と、
前記画像入力手段により入力された複数の画像を合成する際、入力された画像が前記重要領域と重なる場合には、前記入力された画像を透過合成する画像合成手段と
を備えることを特徴とする画像合成装置。
An image input means for inputting an image;
An area detecting means for detecting an area satisfying a predetermined condition from the image input by the image input means as an important area;
When combining a plurality of images input by the image input means, the image combining means for transparently combining the input images when the input image overlaps the important region is provided. Image composition device.
前記画像合成手段は、前記重要領域と重なる領域にある前記入力された画像部分のみを透過合成することを特徴とする請求項1記載の画像合成装置。   2. The image synthesizing apparatus according to claim 1, wherein the image synthesizing unit transparently synthesizes only the input image portion in an area overlapping the important area. 前記領域検出手段は、予め収集した対象物から生成されたテンプレートを用いて、入力された画像の各部分に当てはめ、前記テンプレートと所定の閾値以上の相関を持つ画像部分を重要領域として検出することを特徴とする請求項1又は請求項2に記載の画像合成装置。   The region detecting means applies a template generated from an object collected in advance to each portion of an input image and detects an image portion having a correlation equal to or higher than a predetermined threshold as the important region with the template. The image composition device according to claim 1 or 2, wherein 画像を入力するステップと、
入力された画像から所定の条件を満たす領域を重要領域として検出するステップと、
入力された複数の画像を合成する際、入力された画像が前記重要領域と重なる場合には、前記入力された画像を透過合成する画像合成ステップと
を有することを特徴とする画像合成方法。
Inputting an image;
Detecting a region satisfying a predetermined condition from the input image as an important region;
An image synthesizing method comprising: an image synthesizing step for transparently synthesizing the input image when the input image overlaps the important region when synthesizing the plurality of input images.
前記画像合成ステップでは、前記重要領域と重なる領域にある前記入力された画像部分のみを透過合成することを特徴とする請求項4記載の画像合成方法。   5. The image synthesizing method according to claim 4, wherein in the image synthesizing step, only the input image portion in an area overlapping the important area is transparently synthesized. 請求項4又は請求項5に記載のステップをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute the steps according to claim 4 or 5.
JP2005200287A 2005-07-08 2005-07-08 Image synthesizing apparatus and image synthesizing method thereof Pending JP2007019956A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005200287A JP2007019956A (en) 2005-07-08 2005-07-08 Image synthesizing apparatus and image synthesizing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005200287A JP2007019956A (en) 2005-07-08 2005-07-08 Image synthesizing apparatus and image synthesizing method thereof

Publications (1)

Publication Number Publication Date
JP2007019956A true JP2007019956A (en) 2007-01-25

Family

ID=37756698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005200287A Pending JP2007019956A (en) 2005-07-08 2005-07-08 Image synthesizing apparatus and image synthesizing method thereof

Country Status (1)

Country Link
JP (1) JP2007019956A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511554A (en) * 2008-01-30 2011-04-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Method for streaming video data
JP2011217121A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Portable terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511554A (en) * 2008-01-30 2011-04-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Method for streaming video data
JP2011217121A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Portable terminal

Similar Documents

Publication Publication Date Title
US7652679B2 (en) Image display method, program, image display apparatus and image display system
KR101450580B1 (en) Method and Apparatus for composing images
KR100836616B1 (en) Portable Terminal Having Image Overlay Function And Method For Image Overlaying in Portable Terminal
US20070268394A1 (en) Camera, image output apparatus, image output method, image recording method, program, and recording medium
JP5348687B2 (en) Terminal device and program
WO2008040566A1 (en) An electronic equipment and method in an electronic equipment
JPWO2004039068A1 (en) Image composition portable terminal and image composition method used therefor
JP2012129689A (en) Video processing apparatus, camera device, and video processing method
JP2001128062A (en) Device and method for forming image
KR100719841B1 (en) Method for creation and indication of thumbnail view
JP5483012B2 (en) TV with videophone function
JP2009005254A (en) Video transmission apparatus and video receiving apparatus
JP2004056488A (en) Image processing method, image processor and image communication equipment
US9338429B2 (en) Video processing apparatus capable of reproducing video content including a plurality of videos and control method therefor
KR100703290B1 (en) Method for taking a picture of specific part
US20110018961A1 (en) Video call device and method
JP2007019956A (en) Image synthesizing apparatus and image synthesizing method thereof
JP2008098828A (en) Portable terminal equipment
JP2006352749A (en) Video image communication system
JP7026839B1 (en) Real-time data processing device
TW201026052A (en) Method for transmitting a man-machine operation picture, a mobile video device thereof, and a video system using the same
KR102658480B1 (en) Real-time data processing device
JP2009206940A (en) Interpolation frame generation circuit and frame interpolation apparatus
JP2007201816A (en) Video image display system and video image receiver
WO2021082742A1 (en) Data display method and media processing apparatus