WO2006033178A1 - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
WO2006033178A1
WO2006033178A1 PCT/JP2005/004469 JP2005004469W WO2006033178A1 WO 2006033178 A1 WO2006033178 A1 WO 2006033178A1 JP 2005004469 W JP2005004469 W JP 2005004469W WO 2006033178 A1 WO2006033178 A1 WO 2006033178A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
background
area
silhouette
noise
Prior art date
Application number
PCT/JP2005/004469
Other languages
French (fr)
Japanese (ja)
Inventor
Fumikazu Matsubara
Ken-Ichi Hoshino
Original Assignee
Polygon Magic, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Polygon Magic, Inc. filed Critical Polygon Magic, Inc.
Priority to JP2006536313A priority Critical patent/JP4399462B2/en
Publication of WO2006033178A1 publication Critical patent/WO2006033178A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

[PROBLEMS] To automatically detect image noise when the background area of an image is erased and the resultant image is combined with another image and to remove or mitigate the image noise. [MEANS FOR SOLVING PROBLEMS] A silhouette image having non-background pixels and background pixels is created according to the differences between the pixel values of the background image and the pixel values of an image to be extracted. The area surrounded by the non-background pixels is marked for each line of the silhouetted image. If the areas are in contact with a background pixel of the adjacent line or column, the areas are changed to the background areas sequentially, and the remaining mark areas are changed to non-background areas. Thereafter, from the end of the image area of the silhouette image, the degrees of non-background near the pixel are averaged, and the range of the image area is corrected. An image for α-combining is created according to the averaged degree of non-background and the image to be extracted. The created image for α-combining is outputted together with a separately inputted background image.

Description

画像処理装置、方法、およびプログラム  Image processing apparatus, method, and program
技術分野  Technical field
[0001] 本発明は、撮影した画像カゝら特定の画像を抽出して、別の画像と合成する技術に 係り、特に、合成画像のノイズを軽減して、ゲームなどのリアルタイム性が要求される 条件でも使用することのできる画像処理装置、方法、およびプログラムに関する。 背景技術  [0001] The present invention relates to a technique for extracting a specific image from a photographed image and combining it with another image. In particular, the present invention requires real-time performance such as a game by reducing noise in the composite image. The present invention relates to an image processing device, a method, and a program that can be used even under conditions. Background art
[0002] 従来、撮影した画像から人物などの特定の画像を抽出して、任意の背景画像と合 成する手法をして、いわゆるブルーバックと呼ばれる技術がある。これは、撮影する画 像の背景を青色にしておき、この青色に相当する部分を色彩認識手段によって背景 とみなして、この部分を別の背景画像に置き換えるというものである。この特定色を認 識して背景に置き換えれば良いので、青色以外の色彩でも可能である力 人物画像 を抽出するときは、背景に置き換える色を青色にしておけば、人物の肌の色と補色関 係に近くなり、顔などの一部が背景になる、すなわち、ノイズが乗る可能性を低減する ことができる。  Conventionally, there is a so-called blue background technique for extracting a specific image such as a person from a photographed image and combining it with an arbitrary background image. This means that the background of the image to be photographed is blue, the portion corresponding to this blue is regarded as the background by the color recognition means, and this portion is replaced with another background image. Since it is only necessary to recognize this specific color and replace it with the background, when extracting power images that are possible even with colors other than blue, if the color to be replaced with the background is blue, the color of the person's skin and the complementary color It is possible to reduce the possibility that noise will get on, that is, close to the relationship and a part of the face becomes the background.
[0003] このブルーバック技術は、たとえば抽出する人物がその背景に置き換わる色と同じ 色の模様を有する衣服を着用していると、その模様は背景に置き換わってしまうとい う問題がある。  [0003] This blue-back technique has a problem that, for example, if the person to be extracted wears clothes having the same color pattern as that of the background, the pattern is replaced by the background.
[0004] これに対して、背景のみの画像と、人物などの抽出対象をその背景と共に写した画 像を撮影し、両画像の差分から抽出対象のみを抽出して、ノイズ処理を行う技術が提 案されている。(特許文献 1参照)。この技術は、両画像のピクセル情報 (たとえば RG Bデータ)の差分からマスク画像 (シルエット画像)を作成して、ノイズを編集によって 削除するというものである。  [0004] On the other hand, there is a technique for performing noise processing by taking an image of a background only and an image of an extraction target such as a person together with the background, extracting only the extraction target from the difference between the two images. Proposed. (See Patent Document 1). This technology creates a mask image (silhouette image) from the difference between pixel information (eg, RGB data) of both images, and deletes noise by editing.
特許文献 1:特開 2000-36032号公報  Patent Document 1: JP 2000-36032 A
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0005] ところで、上述の従来の技術は、コンピュータによって自動的にノイズを検出して除 去することを目的としたものではないため、たとえば、動画のゲームとして、予めゲー ムのシナリオに応じて記録した背景画像に、常時カメラで撮影して 、るゲームプレー ャである人物の画像のみを抽出してそのゲームの背景画像と合成して表示させようと すると、 CPUに負荷力かかりすぎて、リアルタイム性が損なわれるという問題がある。 また、ゲーム装置などコンピュータによって画像処理を実行する装置にはメモリ容量 の制約もある。 By the way, the above-described conventional technique automatically detects and removes noise by a computer. For example, as a video game, only the image of a person who is a game player who always shoots with a camera on a background image recorded in advance according to the game scenario. If you try to extract and combine it with the background image of the game to display it, the CPU will be overloaded and the real-time performance will be impaired. Also, a device that performs image processing by a computer such as a game device has a memory capacity limitation.
[0006] 本発明は、上記のカゝかる事情に鑑みてなされたものであり、撮影した画像から背景 部分を消去して別の画像と合成する際に、コンピュータに負荷をかけずに、自動的に 画像ノイズを検出して、除去または緩和することのできる画像処理装置、方法、およ びプログラムを提供することを目的とする。 課題を解決するための手段  [0006] The present invention has been made in view of the above-mentioned troublesome circumstances. When a background portion is erased from a photographed image and synthesized with another image, the computer is automatically loaded without imposing a load on the computer. An object of the present invention is to provide an image processing apparatus, method, and program capable of detecting and removing or mitigating image noise. Means for solving the problem
[0007] 上記の目的を達成するため、本発明に係わる画像処理装置は、背景画像と、この 背景画像と同じ背景で抽出対象を含む抽出対象画像とを入力する画像入力手段と 、背景画像と抽出対象画像のピクセル値の差分に基づ ヽて非背景ピクセルと背景ピ クセルを有するシルエット画像を作成する画像分離手段と、このシルエット画像を入 力し、この入力画像のラインごとに非背景ピクセルに囲まれた領域をマークし、このマ ーク領域が隣接する行または列の背景ピクセルに接する場合は、当該マーク領域を 背景領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルエツ ト画像を編集する背景ノイズ除去手段と、数値化された非背景度に基づいて、背景ノ ィズ除去手段によって編集されたシルエット画像の画像領域の端力 ピクセルごと〖こ 当該ピクセルの近傍領域の非背景度の平均化処理を順次行!ヽ、その後画像領域範 囲を補正するノイズ緩和手段と、平均化処理された非背景度と抽出対象画像をもと に α合成用画像を作成し、別に入力された背景画像と共に出力する画像出力手段 とを備えたことを特徴とする。  In order to achieve the above object, an image processing apparatus according to the present invention includes an image input means for inputting a background image and an extraction target image including the extraction target in the same background as the background image, and a background image. Based on the difference between the pixel values of the image to be extracted, an image separation means for creating a silhouette image having a non-background pixel and a background pixel and the silhouette image are input, and a non-background pixel is input for each line of the input image. If an area surrounded by is marked and this mark area touches a background pixel in an adjacent row or column, the mark area is sequentially changed to a background area, and the remaining mark area is changed to a non-background area. The background noise removing means for editing the silhouette image by converting the image to the edge of the image area of the silhouette image edited by the background noise removing means based on the digitized non-background degree. For each pixel, the non-background level averaging process of the neighboring area of the pixel is sequentially performed. After that, the noise mitigation means for correcting the image area range, the non-background level that has been averaged, and the image to be extracted are also included. And an image output means for generating an α composition image and outputting it together with a separately input background image.
[0008] 本発明の基本的な考え方は、次の如くである。  [0008] The basic idea of the present invention is as follows.
背景画像と抽出対象画像の差分をとつたときに発生するノイズとしては、抽出対象の 一部を背景とみなしてしまう背景ノイズ、背景の一部を抽出対象とみなしてしまう非背 景ノイズ、抽出対象と背景の境界部分が他の領域に食!、込んでしまうエッジノイズが ある。 Noise that occurs when the difference between the background image and the extraction target image is taken as background noise that considers a part of the extraction target as the background, non-background noise that considers a part of the background as the extraction target, and extraction The boundary between the target and the background is eaten by other areas! is there.
[0009] このうち、背景ノイズについては、非背景領域中の閉じた背景領域をノイズと捉え、 閉じた背景領域を走査し、非背景に変換することによって、ノイズを除去する。一方、 非背景ノイズとエッジノイズについては、これらが小さい領域、細い領域である傾向を 考慮して、エッジ部分で半透明のグラデーションをかけることで、目立たなくするという ものである。  Among these, for background noise, the closed background area in the non-background area is regarded as noise, and the closed background area is scanned and converted to non-background to remove the noise. On the other hand, non-background noise and edge noise are made inconspicuous by applying a semi-transparent gradation at the edge considering the tendency of these to be small and thin areas.
[0010] 本発明によれば、背景ノイズにっ 、ては除去でき、また、非背景ノイズとエッジノィ ズについては緩和することができ、 CPUに負荷をかけずに画像処理の品質を向上さ せることができる。また、背景画像と非背景画像との境界にグラデーションが力かるこ とになるので、非背景画像が背景画像になじんで自然な合成画像が作成できる。  [0010] According to the present invention, background noise can be removed, non-background noise and edge noise can be reduced, and image processing quality can be improved without imposing a load on the CPU. be able to. In addition, since gradation is applied to the boundary between the background image and the non-background image, a natural composite image can be created by adapting the non-background image to the background image.
[0011] また、本発明では、シルエット画像の複製を保存する必要が無ぐその画像を直接 編集しながらノイズの除去な 、し緩和処理を行うことができるため、メモリ容量が少な くてすみ、ハードウェア資源の節約を図ることができる。  [0011] In addition, according to the present invention, it is not necessary to save a copy of the silhouette image, and it is possible to perform noise reduction and noise reduction processing while directly editing the image. Hardware resources can be saved.
[0012] 本発明に係わる画像処理装置は、さらに、画像分離手段によって作成されたシル エツト画像のエッジを抽出した画像 (エッジ抽出画像)を作成し、当該エッジ抽出画像 とシルエット画像とを合成することによって非背景領域が拡大したシルエット画像を作 成する前処理手段を備え、背景ノイズ除去手段は、この前処理手段によって作成さ れたシルエット画像を入力画像として、背景ノイズの除去処理を行うことを特徴とする  [0012] The image processing apparatus according to the present invention further creates an image (edge extracted image) obtained by extracting the edges of the shot image created by the image separating means, and synthesizes the edge extracted image and the silhouette image. Pre-processing means for creating a silhouette image in which the non-background region is enlarged, and the background noise removing means performs background noise removal processing using the silhouette image created by the pre-processing means as an input image. Characterized by
非背景領域が拡大したシルエット画像を作成することによって、エッジノイズの非背 景領域と背景領域の境界の 、わゆる口の部分を閉じて背景ノイズに変換して、背景 ノイズ除去手段によってこの背景ノイズを除去する。これによつて、エッジノイズを除 去することができるので画質が向上する。 By creating a silhouette image in which the non-background area is enlarged, the border between the non-background area of the edge noise and the background area is closed and converted into background noise, and this background noise is removed by the background noise removal means. Remove noise. As a result, the edge noise can be removed, thereby improving the image quality.
[0013] なお、非背景領域を拡大させて、エッジノイズを背景ノイズに変換させ、背景ノイズ 除去処理を実行した後に、この非背景領域を元のサイズに向けて縮小処理するのが 好ましい。  [0013] It is preferable to enlarge the non-background area, convert edge noise into background noise, perform the background noise removal process, and then reduce the non-background area toward the original size.
[0014] また、本発明に係わる画像処理装置では、さらに、画像分離手段によって作成され たシルエット画像の縦方向または横方向のヒストグラムを取り、当該ヒストグラムの幅に 基づいて背景ノイズ除去手段またはノイズ緩和手段によって編集または補正する範 囲を決定するシルエット領域抽出手段を備えたことを特徴とする。 [0014] Further, in the image processing apparatus according to the present invention, a histogram in the vertical direction or the horizontal direction of the silhouette image created by the image separation means is taken, and the width of the histogram is taken. On the basis of this, there is provided a silhouette region extracting means for determining a range to be edited or corrected by the background noise removing means or the noise mitigating means.
[0015] シルエット領域を限定することによってノイズの除去や緩和などのフィルタリング処 理に要する計算機の負荷を減少させることができる。  By limiting the silhouette region, it is possible to reduce the load on the computer required for filtering processing such as noise removal and mitigation.
[0016] 本発明に係わる画像処理装置において、好ましくは、画像分離手段は、背景画像 と抽出対象画像のピクセル値の差分を閾値と比較することによって非背景ピクセルで あるか、または、背景ピクセルであるかを判定し、かつ、閾値に基づいて作成されノィ ズ度合いの判定可能な画像を表示し、入力部から入力される閾値の変更要求に基 づ 、て閾値を変更するする閾値調整手段を備えるのがよ!/、。  In the image processing apparatus according to the present invention, preferably, the image separation means is a non-background pixel by comparing a difference between pixel values of the background image and the extraction target image with a threshold value, or is a background pixel. Threshold adjustment means for determining whether or not the image is present, displaying an image that can be determined based on the threshold and capable of determining the degree of noise, and changing the threshold based on a threshold change request input from the input unit. Prepare! /.
[0017] これによつて、ノイズをある程度抑えた状態でノイズ処理を行うことができ、合成後の 品質を予測することができる。  Accordingly, noise processing can be performed in a state where noise is suppressed to some extent, and quality after synthesis can be predicted.
[0018] より好ましくは、ノイズ度合 、を表示させた状態で抽出対象の範囲指定を行うように する。このようにすれば、範囲外は、無条件に背景とし、範囲内のノイズ処理のみを 行えば良いので、コンピュータの負担が減ると共に、画像処理の速度を上げることが できる。さらに、操作者 (ユーザ)が背景ノイズ、非背景ノイズ、エッジノイズのいずれ かのノイズ処理を実行するかを設定可能にすることにより、コンピュータの負荷を軽減 して操作者の要求に合った品質の画像処理が可能となる。  More preferably, the extraction target range is specified in a state where the noise level is displayed. In this way, the outside of the range is unconditionally set as the background and only noise processing within the range needs to be performed, so that the burden on the computer is reduced and the speed of image processing can be increased. In addition, by enabling the operator (user) to perform noise processing of background noise, non-background noise, or edge noise, the load on the computer is reduced and the quality meets the operator's requirements. Image processing becomes possible.
[0019] なお、操作者が抽出対象の範囲を入力するのに替えて、予め表示部に抽出対象 領域を指示する範囲指定情報 (たとえば枠線)を表示しておき、画像入力手段は、こ の範囲指定情報に基づいて当該範囲の抽出対象画像を入力して処理するようにし てもよい。  [0019] It should be noted that instead of the operator inputting the extraction target range, range designation information (for example, a frame line) indicating the extraction target region is displayed in advance on the display unit, and the image input means Based on the range designation information, an extraction target image in the range may be input and processed.
[0020] ここで、「画像処理装置」は、画像処理機能を有する装置の意味であり、汎用的なコ ンピュータ装置の他、当該機能を有するゲーム装置、テレビ電話、カメラ等の撮像装 置なども含む趣旨である。  [0020] Here, "image processing device" means a device having an image processing function. In addition to a general-purpose computer device, a game device having the function, a video phone, an imaging device such as a camera, and the like It is also intended to include.
[0021] また、「非背景度」とは、抽出対象画像のピクセルごとまたはピクセル群ごと設定され 、当該ピクセルまたはピクセル群が非背景 (抽出対象)である度合 、を示すものであ る。非背景度を 8ビットで表した場合には、 0から 255の間の値をとる。なお、実質的に 非背景度の意義を有すれば足りる。したがって、背景度なども含まれる趣旨である。 [0022] 本発明に係わる画像処理方法は、入力した画像カゝら特定の画像を抽出して、別の 画像と合成する画像処理方法であって、背景画像と、この背景画像と同じ背景で抽 出対象を含む抽出対象画像とを入力するステップと、背景画像と抽出対象画像のピ クセル値の差分に基づいて非背景ピクセルと背景ピクセルを有するシルエット画像を 作成するステップと、このシルエット画像のラインごとに非背景ピクセルに囲まれた領 域をマークし、その領域が隣接する行または列の背景ピクセルに接する場合は、背 景領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルエット 画像を編集した後、数値化された非背景度に基づいて、当該シルエット画像の画像 領域の端力 ピクセルごとに当該ピクセルの近傍領域の非背景度の平均化処理を順 次行い、その後画像領域範囲を補正するステップと、平均化処理された非背景度と 抽出対象画像をもとに α合成用画像を生成し、別に入力された背景画像と共に出力 するステップと、を含むことを特徴とする。 The “non-background degree” is set for each pixel or pixel group of the extraction target image and indicates the degree to which the pixel or pixel group is non-background (extraction target). When the non-background level is expressed in 8 bits, it takes a value between 0 and 255. In addition, it is sufficient if it has a significance of non-background level. Therefore, the background level is also included. [0022] An image processing method according to the present invention is an image processing method for extracting a specific image from an input image image and synthesizing it with another image. The image processing method has the same background as this background image. A step of inputting an extraction target image including an extraction target, a step of creating a silhouette image having non-background pixels and a background pixel based on a difference between pixel values of the background image and the extraction target image, and If you mark an area surrounded by non-background pixels for each line, and that area touches a background pixel in an adjacent row or column, change to the background area sequentially, and then leave the remaining mark area as non-background After editing the silhouette image after converting it to an area, based on the digitized non-background degree, the edge power of the image area of the silhouette image Non-background degree of the neighboring area for each pixel Performs averaging processing in sequence, then corrects the image area range, generates an image for alpha synthesis based on the averaged non-background level and the extraction target image, and outputs it together with the separately input background image And a step of performing.
[0023] 本発明によれば、ノイズの除去、および、緩和についての一連の処理力 シルエット 画像を直接編集しながら行うことができるので、メモリの節約になる。  [0023] According to the present invention, a series of processing powers for noise removal and relaxation can be performed while directly editing silhouette images, thus saving memory.
[0024] また、本発明に係わるプログラムは、カメラで撮影されたゲームプレーヤの画像をゲ ームの背景中に表示してゲームを進行するコンピュータゲーム用プログラムであって [0024] A program according to the present invention is a computer game program for displaying a game player image taken by a camera in the background of a game and playing a game.
、背景画像を入力して保存する処理と、背景画像と同じ背景でプレーヤを含む抽出 対象画像を入力する処理と、保存されて ヽる背景画像と抽出対象画像のピクセル値 の差分に基づいて非背景ピクセルと背景ピクセルを有するシルエット画像を作成する 画像分離処理と、このシルエット画像のラインごとに非背景ピクセルに囲まれた領域 をマークし、その領域が隣接する行または列の背景ピクセルに接する場合は、背景 領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルエット画 像を編集する背景ノイズ除去処理と、数値化された非背景度に基づいて、背景ノイズ 除去手段によって編集されたシルエット画像の画像領域の端カゝらピクセルごとに当該 ピクセルの近傍領域の非背景度を平均化する処理を順次行 1ヽ、その後画像領域範 囲を補正するノイズ緩和処理と、平均化処理された非背景度と抽出対象画像をもと に α合成用画像を作成し、ゲームの進行を実行する処理によって作成され、または、 外部記憶装置力 入力された背景画像と共に出力する画像出力処理と、をコンビュ ータに実行させることを特徴とする。 , Processing to input and save the background image, processing to input the extraction target image including the player with the same background as the background image, and non-existence based on the difference between the pixel value of the background image to be extracted and the extraction target image Create a silhouette image that has a background pixel and a background pixel Image separation processing, and when you mark an area surrounded by non-background pixels for each line of this silhouette image, and that area touches a background pixel in an adjacent row or column The background noise removal process based on the non-background degree that is converted into a background area, converts the remaining mark area into a non-background area, and edits the silhouette image. For each pixel from the edge of the image area of the silhouette image edited by means, the process of averaging the non-background degree of the neighboring area of the pixel is sequentially performed in line 1 行, It is created by the noise reduction processing that corrects the subsequent image area range and the α composition image based on the non-background level and the extraction target image that have been averaged, and the game progresses, or External storage device power Image output processing that is output together with the input background image Data.
[0025] 一連のノイズ処理がシルエット画像を直接編集しながら行うことができゲーム装置の メモリの節約を図ることができる。また、ノイズの緩和処理については、ピクセルの近 傍領域の非背景度を平均化するため、ヒット率が上がり、処理速度が向上する。  [0025] A series of noise processing can be performed while directly editing the silhouette image, and the memory of the game apparatus can be saved. In addition, the noise reduction processing averages the non-background level of the neighboring area of the pixel, increasing the hit rate and improving the processing speed.
[0026] なお、好ましくは、 α合成用画像の作成処理と、ゲームの進行を実行する処理とを 独立に動作可能にする。ゲームプレーヤの表示が必要になった時点で保存されてい る α合成用画像を用いるため、ゲーム中の応答性の向上を図ることができる。  [0026] Preferably, the α composition image creation processing and the game execution processing are independently operable. Since the α composition image stored when the game player needs to be displayed is used, the responsiveness during the game can be improved.
発明の効果  The invention's effect
[0027] 本発明によれば、自動的に画像ノイズ検出して、背景ノイズについては除去、非背 景ノイズとエッジノイズについては緩和することができる。また、一連のノイズ処理は、 シルエット画像を直接編集しながら行うことができるので、メモリ領域の節約を図ること ができる。  [0027] According to the present invention, it is possible to automatically detect image noise, remove background noise, and mitigate non-background noise and edge noise. In addition, a series of noise processing can be performed while directly editing the silhouette image, so that the memory area can be saved.
[0028] また、ゲーム用プログラムにお 、ては、ゲームの背景画像にカメラで撮影したゲー ムプレーヤなど前影画像 (非背景画像)を合成する際、境界部分にグラデーションが かかるため、ゲームプレーヤをゲームの背景に溶け込ますことができて、より臨場感 のあるゲームを提供することができる。  [0028] In addition, in a game program, when a foreshadow image (non-background image) such as a game player photographed with a camera is combined with a background image of a game, a gradation is applied to the boundary portion. It can blend into the game background and provide a more realistic game.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0029] 以下、本発明の実施形態を説明する。 [0029] Hereinafter, embodiments of the present invention will be described.
く第 1の実施形態〉  First Embodiment>
図 1は、本発明の第 1の実施形態による画像処理装置 1のブロック図である。ここで 、画像処理装置 1は、カメラ 51によって撮影された映像信号を入力してデジタル信号 に変換する AZD変換手段 11、画像処理を実行する処理部 12、画像データを記憶 するメモリ 13、テレビモニタ 52へ送る表示用データを記憶する表示用メモリ 14、デジ タル信号をテレビモニタ用の信号に変換する DZA変換手段 15、 CD— ROMや DV D - ROMなどの記憶媒体の駆動装置 (外部記憶装置) 16、および、マウスやキーボ ードなどの入力部 17を備えている。  FIG. 1 is a block diagram of an image processing apparatus 1 according to the first embodiment of the present invention. Here, the image processing apparatus 1 includes an AZD conversion unit 11 that inputs a video signal photographed by the camera 51 and converts it into a digital signal, a processing unit 12 that executes image processing, a memory 13 that stores image data, a television monitor Display memory 14 for storing display data to be sent to 52, DZA conversion means 15 for converting digital signals to TV monitor signals, and drive devices for storage media such as CD-ROM and DV D-ROM (external storage devices) ) 16 and an input unit 17 such as a mouse or keyboard.
[0030] 処理部 12は、図 2に示すように画像入力手段 (処理) 21、画像分離手段 (処理) 22 、閾値調整手段 (処理) 23、背景ノイズ除去手段 (処理) 24、ノイズ緩和手段 (処理) 2 5、および、画像出力手段 (処理) 26を有している。また、メモリ 13には、予め背景画 像が記憶されているものとする。 As shown in FIG. 2, the processing unit 12 includes an image input means (process) 21, an image separation means (process) 22, a threshold adjustment means (process) 23, a background noise removal means (process) 24, and a noise mitigation means. (Process) 2 5 and image output means (processing) 26. Further, it is assumed that a background image is stored in the memory 13 in advance.
[0031] 次に、各手段の動作を説明する。以下の説明において、画像データは、便宜上 RG B系で説明する力 カメラ 51やテレビモニタ 52の仕様等によって必要ならば YCrCb 系など他の単位系に適宜変換するものとする。  [0031] Next, the operation of each means will be described. In the following description, the image data is appropriately converted to another unit system such as a YCrCb system if necessary according to the specifications of the power camera 51 and the television monitor 52 described in the RGB system for convenience.
[0032] [画像入力処理]  [0032] [Image input processing]
まず、入力部 17からの要求によって、処理部 12の画像入力手段 21が起動され、力 メラ 51で撮影された画像データを入力してメモリ 13に保存する。このとき、人物など の抽出対象を含まない背景のみの画像 (背景画像)と、抽出対象を含む画像 (抽出 対象画像)をそれぞれ撮影してメモリ 13に保存するようにする。図 3は背景画像、図 4 は抽出対象画像の例である。図 4は、図 3と同じ背景をバックに抽出対象の人物(たと えばゲームのプレーヤ)が撮影されている。  First, in response to a request from the input unit 17, the image input unit 21 of the processing unit 12 is activated, and the image data captured by the camera 51 is input and stored in the memory 13. At this time, an image including only the background (background image) not including the extraction target such as a person and an image including the extraction target (extraction target image) are respectively photographed and stored in the memory 13. Fig. 3 shows an example of a background image, and Fig. 4 shows an example of an extraction target image. In FIG. 4, a person to be extracted (for example, a game player) is photographed with the same background as in FIG.
[0033] [画像分離処理]  [0033] [Image separation processing]
次に、画像分離手段 22によって、背景画像と抽出対象画像のピクセルごとの差分 をとる。つまり、背景画像と抽出対象画像の RGB各 8ビット (計 24ビット)の RGBそれ ぞれの差分の合計値を計算する。そして、その合計値が所定の閾値以下のときは、 そのピクセルに対応する値 (非背景度)を 8ビットのデータ Aで表して、 A=0とする。 一方、合計値が所定の閾値より大きいときは、そのピクセルを抽出対象 (非背景)とし 、 A= 255とする。  Next, a difference for each pixel of the background image and the extraction target image is obtained by the image separation means 22. In other words, the sum of the differences between the RGB of the background image and the image to be extracted for each RGB of 8 bits (24 bits in total) is calculated. When the total value is less than or equal to a predetermined threshold value, the value (non-background level) corresponding to the pixel is represented by 8-bit data A, and A = 0. On the other hand, when the total value is larger than the predetermined threshold, the pixel is set as an extraction target (non-background), and A = 255.
[0034] このように背景画像と抽出対象画像をもとに 2値化したシルエット画像を作成する。  In this way, a binarized silhouette image is created based on the background image and the extraction target image.
なお、閾値との比較の仕方は上記に限らず、 RGB値のそれぞれの差分の平均値を 閾値とするなど、色相、彩度、明度について両画像の差に基づいて 2値ィ匕するように すれば良い。  The method of comparison with the threshold value is not limited to the above, and the hue, saturation, and brightness values are binarized based on the difference between the two images, for example, the average value of each RGB value difference is used as the threshold value. Just do it.
[0035] 図 5は、シルエット画像の説明図である。ここで、黒く塗りつぶした部分が背景 (A= 0)、白抜きの部分が抽出対象 (A= 255)である。  FIG. 5 is an explanatory diagram of a silhouette image. Here, the blacked out part is the background (A = 0), and the white part is the extraction target (A = 255).
[0036] しかしながら、実際のシルエット画像は、図 6に示すようにノイズが乗っているため、 このノイズ処理が必要になる。ノイズの種類としては、図 6 (a)に示す抽出対象の一部 を背景とみなしてしまう背景ノイズ、図 6 (b)に示す背景の一部を抽出対象とみなして しまう非背景ノイズ、図 6 (c)に示す抽出対象と背景の境界部分が互いに他の領域に 食!、込んでしまうエッジノイズがある。 However, since an actual silhouette image has noise as shown in FIG. 6, this noise processing is necessary. The types of noise include background noise that considers a part of the extraction target shown in Fig. 6 (a) as the background, and a part of the background shown in Fig. 6 (b) as the extraction target. Non-background noise, the boundary between the extraction target and the background shown in Fig. 6 (c) eats into other areas! , There will be edge noise.
[0037] 背景ノイズは、操作者の服装と背景の色が近いときなどに現れる。非背景ノイズは、 蛍光灯のちらつきなどによる背景ピクセルの誤差で現れ、背景の任意の場所にポッ ポッとして出現する。エッジノイズは、背景ノイズ'非背景ノイズの出現原因が複合し て現れ、エッジの部分がぎざぎざになったような状態になる。  [0037] Background noise appears when the operator's clothes and the background color are close. Non-background noise appears as background pixel errors due to flickering of fluorescent lights, etc., and pops up anywhere in the background. Edge noise is a combination of background noise and non-background noise, and the edges become jagged.
[0038] これらのノイズは、閾値調整手段 23によって、閾値を調整することにより、ある程度 は削減可能であるが、背景と抽出対象の色彩が近似している場合などは、完全に除 去できない場合がある。また、背景ノイズを減らそうとすると非背景ノイズが増加する など一定の限界がある。したがって、残存するこれらのノイズの除去ないし緩和が必 要になる。  [0038] These noises can be reduced to some extent by adjusting the threshold value using the threshold adjusting means 23, but they cannot be completely removed when the background and the color to be extracted are approximated. There is. In addition, there is a certain limit such as increasing non-background noise when trying to reduce background noise. Therefore, it is necessary to remove or mitigate these remaining noises.
[0039] 以下、これらのノイズ処理の手順を図 17乃至図 22を用いて説明する。  In the following, these noise processing procedures will be described with reference to FIGS.
[背景ノイズ除去処理]  [Background noise removal]
背景ノイズ除去処理は、図 17のステップ S301—ステップ 304の各処理で構成され る。  The background noise removal process includes the processes in steps S301 to 304 in FIG.
[0040] まず、背景ノイズ候補領域マーク処理にお!、て、シルエット画像の画像中の全ての 横方向のラインに対して、非背景ピクセル (A= 255)にはさまれた背景ピクセル (A =0)をマークする(S401, S402)。マークとしては、たとえば、グレー(例えば A= 12 8)を割り当てる。図 7は、背景ノイズ除去処理の説明図である。この図において、黒く 塗りつぶされたピクセル(図中の単位正方形)は背景ピクセル、白抜きのピクセルは 非背景ピクセルである。各ラインごとにステップ S401と S402の処理を行い、これを全 ラインに対して実施した後の状態は図 7 (b)となる。ここで、グレー (灰色)のピクセル はマークされたピクセルである。  [0040] First, for background noise candidate area mark processing! For all horizontal lines in the silhouette image, background pixels (A = 255) sandwiched between non-background pixels (A = 255) = 0) (S401, S402). For example, gray (for example, A = 128) is assigned as the mark. FIG. 7 is an explanatory diagram of the background noise removal process. In this figure, pixels filled in black (unit square in the figure) are background pixels, and white pixels are non-background pixels. The processing after steps S401 and S402 is performed for each line and this is performed for all lines is shown in FIG. 7 (b). Here, gray pixels are marked pixels.
[0041] そして、候補領域上方確認処理にお!、て、全てのラインに対して上から下にマーク された線分を走査して、マークされた線分のうち少なくともひとつのピクセルに対して 、そのひとつ上のピクセルが背景 (A=0)の場合は、そのピクセルに接するマーク部 分全体を背景に塗り替える(S501、 S502)。つまりマークされたピクセルの A値を 12 8から 0に変更するのである。図 7 (c)は途中のラインまで処理を終えた状態、図 7 (d) は全ラインにっ 、て処理を完了した後の状態を示す。 [0041] Then, in the candidate region upper confirmation process !, all the lines marked from top to bottom are scanned, and at least one pixel among the marked line segments is scanned. If the pixel above is the background (A = 0), the entire mark portion in contact with the pixel is painted with the background (S501, S502). In other words, the A value of the marked pixel is changed from 12 8 to 0. Fig. 7 (c) shows the state where processing has been completed to the middle line, Fig. 7 (d) Indicates the state after all the lines have been processed.
[0042] 最下行のラインにっ 、て上記の処理が完了すると、次は、候補領域下方確認処理 において、全てのラインに対して逆方向、すなわち、下力も上にマークされた線分を 走査する。そして、マークされた線分のうち少なくともひとつのピクセルに対して、その ひとつ下のピクセルが背景の場合は、マークされた線分全体について背景に塗り替 える(S601、 S602)。図 7 (e) (f)は途中のラインまで終了した状態、図 7 (g)は全ライ 、て処理を完了した後の状態である。  [0042] When the above process is completed for the bottom line, next, in the candidate area lower confirmation process, scan the line segment in which all lines are marked in the reverse direction, that is, the lower force is also marked upward. To do. Then, if at least one pixel of the marked line segment is the background, the entire marked line segment is replaced with the background (S601, S602). Figures 7 (e) and (f) show the state where the line has been completed, and Figure 7 (g) shows the state after all the lines have been processed.
[0043] 上記が全て終了した段階で、マークとして残っているピクセルは、背景ノイズなので 、非背景として塗り替える(S701、 S702)。図 7 (h)は、背景ノイズ除去処理後のシル エツト画像の状態である。  [0043] At the stage where all of the above are completed, the pixels remaining as marks are background noise, so they are repainted as non-background (S701, S702). Figure 7 (h) shows the state of the silhouette image after the background noise removal process.
以上の処理によって、背景ノイズを除去する。  Background noise is removed by the above processing.
[0044] [非背景ノイズ ·エッジノイズの緩和処理]  [0044] [Non-background noise / edge noise mitigation]
次に、図 8および図 22を用いて非背景ノイズとエッジノイズの緩和処理の手順を説 明する。  Next, the procedure for mitigating non-background noise and edge noise will be described using FIG. 8 and FIG.
[0045] イメージ上の全てのピクセルに対して、右下方向に 4x4ピクセルの領域を走査し、そ の領域の A値の平均で置き換える(S801、 S802)。たとえば、図 8 (b)の〇部分のピ クセルは背景ピクセル (A=0)だ力 平均を取ると A=255*3/16=48となる。ここで、 記号「*」は乗算、「/」は除算を意味している。  [0045] For all the pixels on the image, a 4x4 pixel area is scanned in the lower right direction and replaced with the average of the A values in the area (S801, S802). For example, the pixel in the O part of Fig. 8 (b) is A = 255 * 3/16 = 48 when taking the power average of the background pixels (A = 0). Here, the symbol “*” means multiplication, and “/” means division.
[0046] また、図 8 (c)のピクセルは非背景ピクセル (A= 255)だ力 平均を取ると、図 8 (b) と同様に A=255*3/16=48となる。  In addition, when the power average of the pixel in FIG. 8C is a non-background pixel (A = 255), A = 255 * 3/16 = 48 as in FIG. 8B.
[0047] この平均化処理を、まず、最上位のラインの左から右のピクセルにつ 、て実行し、 それが完了すると順に下のラインついて実行していく。この処理を、最下行のライン の右端のピクセルまで繰り返す。図 8 (d)は、一連の平均化処理の完了後の状態で ある。  [0047] This averaging process is first executed for the pixels from the left to the right of the top line, and when it is completed, the lower lines are executed in order. This process is repeated until the rightmost pixel in the bottom line. Figure 8 (d) shows the state after the completion of a series of averaging processes.
[0048] なお、演算領域の境界部分の精度が問題になる場合は、演算領域を十分含む形 で予め画像を取得しておくようにするとよい。境界部分の精度があまり問題にならな ければ、最下行 (最も下のライン)から上 4行目の平均化処理を行った後、その下のラ インはその上のピクセル値と同じ値で埋めるようにしても良い。 [0049] 以上の平均化処理の結果、シルエット画像は左上方向にずれた形になるので、例 えば右下方向に 2ピクセル、すなわち、平均計算の単位領域 4 X 4の半分だけ全体を ずらすことでフィルタを適正な位置にすることができる(S803)。(図 8 (e)の状態)[0048] When the accuracy of the boundary portion of the calculation area becomes a problem, an image may be acquired in advance so as to sufficiently include the calculation area. If the accuracy of the border does not matter much, after averaging from the bottom line (bottom line) to the top four lines, the line below is the same as the pixel value above it. You may make it fill. [0049] As a result of the above averaging process, the silhouette image is shifted in the upper left direction. For example, the entire silhouette image is shifted by 2 pixels in the lower right direction, that is, half of the average calculation unit area 4 X 4. Thus, the filter can be set to an appropriate position (S803). (State of Fig. 8 (e))
[0050] なお、この位置の移動は、実際にメモリ上のピクセルの値を書き直す必要は無ぐシ ルエツト画像の格納されて 、る領域のアドレス情報を 2 X 2だけ左上にずらすのみで よい。 [0050] It should be noted that the movement of this position need only be shifted to the upper left by 2 X 2 in the area where the shot image is stored without having to actually rewrite the pixel value in the memory.
[0051] 上記の説明において便宜上、横、縦という表現をしたが、画像データを X軸、 Y軸の 座標で表したときにどちらを縦または横にして上記の処理を行っても良いがピクセル 情報を保存するアドレスが連番になる方向を横方向に取ると処理プログラムを作成し やすくなる。  [0051] In the above description, for the sake of convenience, the terms horizontal and vertical are used. However, when the image data is represented by the coordinates of the X axis and the Y axis, the above processing may be performed with either the vertical or horizontal direction. It is easier to create a processing program if the address where information is stored is in the horizontal direction.
[0052] [画像出力処理]  [0052] [Image output processing]
上述の一連のノイズ処理後のシルエット画像を αチャンネル用データとして図 4の 抽出対象画像データを用いて a合成 (アルファブレンデイング)用画像データを作成 する。  Using the above-mentioned series of noise-processed silhouette images as alpha channel data, the image data for a synthesis (alpha blending) is created using the extraction target image data in FIG.
[0053] ここで、 α合成用画像データは、ピクセルごとに R : G : B : Αの各 8ビット(計 32ビット) のデータの配列として構成されて 、る。  Here, the image data for α synthesis is configured as an array of 8 bits (32 bits in total) of R: G: B: Α for each pixel.
[0054] そして、外部記憶装置 16の CD— ROM力 読み込んだ合成用の背景データを表 示用メモリ 14に書き込み、また、 α合成用画像データを同様に表示用メモリ 14に書 き込んだ後に、表示出力コマンドを出すことによって、両画像データがテレビモニタ 5 2上に合成されて表示される。図 9は、この説明図である。 RGB値による抽出対象画 像データと A値によるシルエット画像データによって a合成用画像データを作成し( 図 9 (a) )、これと RGB値による背景データ(図 9 (b) )を画像合成する。具体的には、 図 9 (b)の背景データを描画した上に図 9 (a)の oc合成用画像データを上書きする。 これによつて合成画像が表示される(図 9 (c) )。このこのとき、背景上に表示される抽 出対象画像は、ピクセルに対応する A値によって、完全透明 (A= 0)、完全不透明( A= 255)、中間状態(0〈A〈255)となる。  [0054] Then, after the background data for synthesis read in the CD-ROM force of the external storage device 16 is written in the display memory 14, and the image data for alpha synthesis is similarly written in the display memory 14. By issuing a display output command, both image data are synthesized and displayed on the television monitor 52. FIG. 9 is an explanatory diagram of this. Image data for composition is created from image data to be extracted based on RGB values and silhouette image data based on A values (Figure 9 (a)), and this is combined with background data based on RGB values (Figure 9 (b)). . Specifically, after the background data in Fig. 9 (b) is drawn, the image data for oc composition in Fig. 9 (a) is overwritten. As a result, a composite image is displayed (FIG. 9 (c)). At this time, the extraction target image displayed on the background is completely transparent (A = 0), completely opaque (A = 255), intermediate state (0 <A <255) depending on the A value corresponding to the pixel. Become.
[0055] 上記のノイズ処理の結果、背景ノイズに関しては除去され、非背景ノイズ'エッジノィ ズに関しては緩和されると共に、背景と対象画像との境界部分について A値が中間 値となりグラデーションがカゝかるため、対象画像が背景になじみ、自然な合成画像と なる。 [0055] As a result of the above noise processing, background noise is removed, non-background noise 'edge noise is reduced, and the A value is intermediate for the boundary between the background and the target image. Since the value and gradation are high, the target image becomes familiar with the background and becomes a natural composite image.
[0056] なお、処理部 12の各手段については、都度入力部からの要求によって起動するよ うにしてもょ 、が、前処理の完了によって自動的に起動されるようにしてもょ 、。  [0056] It should be noted that each means of the processing unit 12 may be activated by a request from the input unit each time, or may be automatically activated by completion of the preprocessing.
[0057] 本実施形態によれば、 CPUに負荷をかけずに自動的にノイズ処理を施して画像の 合成を行うことができる。  [0057] According to the present embodiment, it is possible to automatically perform noise processing without applying a load on the CPU to synthesize an image.
[0058] 特に背景ノイズ除去処理については、まず、ラインごとに非背景ピクセルに囲まれ た領域をマークし、その領域が隣接する行または列の背景ピクセルに接する場合は 、背景領域に順次変更していき、残ったマーク領域を背景ノイズとして除去するように したので、シルエット画像自体を編集しながら処理を行うことができ、処理用一時メモ リを確保する必要が無いのでメモリの節約を図ることができる。また、走査するメモリ領 域と書き込むメモリ領域が近いためキャッシュヒット率が上がり速度の向上が見込める  [0058] In particular, for background noise removal processing, first, an area surrounded by non-background pixels is marked for each line, and when the area touches a background pixel in an adjacent row or column, the area is sequentially changed to the background area. Since the remaining mark area is removed as background noise, it is possible to perform processing while editing the silhouette image itself, and it is not necessary to secure temporary memory for processing, thus saving memory. Can do. Also, since the memory area to be scanned and the memory area to be written are close, the cache hit rate can be increased and the speed can be improved.
[0059] また、ノイズ緩和処理につ!、ては、領域の端から順次平均化処理を行 、、最後に領 域範囲を補正するようにしたので、背景ノイズ除去処理の出力画像をそのまま編集し ていくことができ、処理用一時メモリを確保する必要がない。また、背景ノイズ除去処 理と同様に、走査するメモリ領域と書き込むメモリ領域が近いためキャッシュヒット率が 上がり速度の向上が見込める。 [0059] In addition, since noise reduction processing is performed, averaging processing is performed sequentially from the end of the region, and finally the region range is corrected, so the output image of the background noise removal processing is edited as it is. Therefore, there is no need to secure a temporary memory for processing. Similarly to the background noise removal process, the memory area to be scanned and the memory area to be written are close, so the cache hit rate can be increased and the speed can be improved.
[0060] く第 2の実施形態〉  [0060] <Second Embodiment>
次に、第 2の実施形態を説明する。  Next, a second embodiment will be described.
構成は、図 1および図 2と同様であるが、図 1の画像処理装置 1はゲーム装置として 機能するものである。また、入力部 17としては、ゲーム用コントローラが用いられる。  The configuration is the same as in FIGS. 1 and 2, but the image processing device 1 in FIG. 1 functions as a game device. As the input unit 17, a game controller is used.
[0061] CD— ROMや DVD— ROMなどの記憶媒体には、ゲームプログラムおよびゲーム 映像の背景として表示される画像データが保存されている。また、ゲーム映像の各フ レームに関連付けられてゲームプレーヤ (抽出対象)の画像の挿入位置情報が記憶 されている。 [0061] A storage medium such as a CD-ROM or DVD-ROM stores image data to be displayed as a background of a game program and a game video. Further, information on the insertion position of the image of the game player (extraction target) is stored in association with each frame of the game video.
[0062] 記憶媒体には、画像入力手段 (処理) 21、画像分離手段 (処理) 22、閾値調整手 段 (処理) 23、背景ノイズ除去手段 (処理) 24、ノイズ緩和手段 (処理) 25、画像処理 手段 (処理) 26のほか、ゲームの進行を行うゲーム実行手段 (処理) 27をコンピュータ に実行させるためのプログラムが格納されて 、る。 [0062] The storage medium includes image input means (process) 21, image separation means (process) 22, threshold adjustment means (process) 23, background noise removal means (process) 24, noise mitigation means (process) 25, Image processing In addition to means (process) 26, a program for causing a computer to execute game execution means (process) 27 for executing a game is stored.
[0063] 記憶媒体を外部記憶装置 16に挿入して起動すると、 CD— ROMに保存されている 必要なプログラム力 メモリ 13のプログラム領域にローデイングされ、処理部 12によつ て起動される。 When the storage medium is inserted into the external storage device 16 and activated, the required program power stored in the CD-ROM is loaded into the program area of the memory 13 and activated by the processing unit 12.
[0064] [事前準備段階] [0064] [Preparation stage]
まず、ゲームスタート前の事前準備として、背景画像と抽出対象画像 (プレーヤ画 像)を入力して、画像分離手段によって、両画像の差分を取ってシルエット画像を作 成する。  First, as a pre-preparation before starting the game, a background image and an extraction target image (player image) are input, and a silhouette image is created by taking the difference between the two images by the image separation means.
なお、背景画像はメモリ 13に保存し、この後のゲーム実行中の画像分離に使用する 。 そして、シルエット画像の A値 (0または 255)の閾値を調整する。  The background image is stored in the memory 13 and used for image separation during the subsequent game execution. Then adjust the threshold of the A value (0 or 255) of the silhouette image.
[0065] なお、プレーヤ画像を入力するときは、プレーヤ (操作者)に立って欲 、位置を限 定するために、図 11に示すように、プレーヤを含む画像にシルエットを表示し、プレ ーャの位置を誘導するのが好ましい。図 11では、画面中に「シルエットの位置に立つ てプレイしてください」という誘導指示が表示されている。画像中でプレーヤが存在す る位置を限定することで、画像解析の範囲を限定し CPUの処理負荷を軽減すること ができる。 [0065] When inputting a player image, in order to limit the player's (operator) standing and position, a silhouette is displayed on the image including the player as shown in FIG. It is preferable to guide the position of In FIG. 11, a guidance instruction “Please stand and play in silhouette” is displayed on the screen. By limiting the position of the player in the image, it is possible to limit the image analysis range and reduce the CPU processing load.
[0066] [閾値調整処理]  [0066] [Threshold adjustment processing]
背景 ·非背景分離のための閾値は経験力 ある程度固定的に設定可能だが、プレ ーャを含む画像を生成する環境を限定することができないため、操作者が調整する 機能を搭載するのが好ましい。閾値の大体の目安は 0— 255の範囲で 40程度の値で ある。  Although the threshold for background / non-background separation can be set to a certain degree of experience, it is not possible to limit the environment for generating an image including a player, so it is preferable to have a function that the operator can adjust. A rough guideline for the threshold is a value of about 40 in the range of 0-255.
[0067] 閾値調整用のユーザ画面として、一つは、図 12に例示するように、スライダーを表 示して、微調整を可能にする方法がある。プレーヤは、画面上のスライダーを左右に 移動させることで、閾値を変更し、変更結果の合成画像を画面上で直接確認する。 図 12 (a)は、閾値が低い、すなわち、背景画像と抽出対象画像とのピクセル値の差 力 、さい場合でも非背景 (抽出対象)と判定するため、非背景ノイズが大きく発生して いる。図 12 (b)は、閾値が適正で、ほとんどノイズが発生していない例である。図 12 ( c)は、閾値が高い場合は、ピクセル値の差が大きくないと非背景とみなさないため、 エッジノイズによって、抽出対象が背景に食い込まれている。 [0067] As one example of the user screen for threshold adjustment, there is a method that allows fine adjustment by displaying a slider as illustrated in FIG. The player changes the threshold by moving the slider on the screen to the left and right, and directly checks the composite image of the change result on the screen. In Fig. 12 (a), the threshold value is low, that is, the difference between the pixel values of the background image and the extraction target image. . Figure 12 (b) shows an example where the threshold is appropriate and almost no noise is generated. Fig. 12 ( In the case of c), when the threshold value is high, it is not regarded as non-background unless the difference in pixel values is large. Therefore, the extraction target is bitten into the background by edge noise.
[0068] もう一つは、図 13に例示するように代表的な閾値を複数個サンプリングし、それぞ れの設定ボタンを用意し、プレーヤがボタンを選ぶことで大まかに設定する方法があ る。例えば、 3つのボタンそれぞれに低め(20くらい)中くらい(40くらい)高め(60くらい[0068] The other is a method in which a plurality of representative threshold values are sampled as shown in FIG. 13, each setting button is prepared, and the player roughly sets it by selecting the button. . For example, each of the three buttons is low (about 20), medium (about 40) and high (about 60)
)の閾値を割り当て、それぞれの設定ボタンに対応する合成画像を表示するようにし て、適正なボタンを選択する。これによつて選択されたボタンの閾値がセットされる。 ) Is assigned, and a composite image corresponding to each setting button is displayed, and an appropriate button is selected. Thereby, the threshold value of the selected button is set.
[0069] この事前準備が終了すると、ゲームが開始される。 [0069] When the advance preparation is completed, the game is started.
ゲーム中の画像処理として、プレーヤ画像抽出処理とゲームの背景画像と合成し て出力する画像出力処理が独立して行われる。  As image processing during the game, player image extraction processing and image output processing that is combined with the game background image and output are performed independently.
[0070] [プレーヤ画像抽出処理] [0070] [Player Image Extraction Processing]
プレーヤの画像を周期的に取り込み画像入力処理、画像分離処理、背景ノイズ除 去処理、ノイズ緩和処理を実行する(S 105— S 108)。  The player's images are periodically fetched, and image input processing, image separation processing, background noise removal processing, and noise reduction processing are executed (S105 to S108).
[0071] なお、画像入力処理では、カメラ 51を通してプレーヤ画像を入力し、この画像と事 前処理でメモリ 13に保存した背景画像とを用いて画像分離処理以降の処理を実行 する。 In the image input process, a player image is input through the camera 51, and the processes after the image separation process are executed using this image and the background image stored in the memory 13 by the pre-processing.
これらの処理手順は、第 1の実施形態と同様であるため説明を割愛する。 ノイズ緩和処理の出力としては、 α合成用画像データが作成され、メモリ 13に保存 される。  Since these processing procedures are the same as those in the first embodiment, a description thereof will be omitted. As the output of the noise reduction processing, image data for α synthesis is created and stored in the memory 13.
[0072] [画像出力処理] [0072] [Image output processing]
次にゲーム実行中の画像出力処理について説明する。なお、画像出力のためにゲ ームモジュール (ゲームを実行するプログラム)力も渡されるデータは、図 15に示すよ うに、フレーム画像と出力位置情報および変形情報である。ここで、出力位置情報は 、プレーヤ画像の出力位置を指定する情報で、画面上の座標(アドレス範囲)で表さ れる。また、変形情報は、縦長、横長に変形する場合の他、画像の一部のみを切り出 してクリップ画像としてその拡大、縮小、回転や色彩の変化も含まれる。なお、これら の情報のほかに、プレーヤ画像を出力する力否かのフラグを設けてもよ 、。  Next, image output processing during game execution will be described. As shown in FIG. 15, the data to which the game module (program for executing the game) power is also passed for image output is a frame image, output position information, and deformation information. Here, the output position information is information for designating the output position of the player image, and is represented by coordinates (address range) on the screen. Further, the deformation information includes not only the case where the image is deformed vertically or horizontally, but also a part of the image that is cut out and enlarged, reduced, rotated, or changed in color as a clip image. In addition to this information, a flag indicating whether or not the player image is output may be provided.
[0073] テレビモニタ 52への画像出力処理において、まず、ゲームの背景フレームの画像 データを出力する(S201)。次に、プレーヤ画像の出力が必要力否かをフラグまたは プレーヤ画像の出力位置情報の有無によって判定して、不要の場合 (S202で「N」) は、表示出力コマンドを送出して(S206)、次のフレームの出力処理に移る。 [0073] In the image output process to the television monitor 52, first, the image of the background frame of the game Data is output (S201). Next, it is determined whether or not the output of the player image is necessary based on the flag or the presence / absence of the output position information of the player image. If not necessary (“N” in S202), a display output command is sent (S206). Then, the process proceeds to the next frame output process.
[0074] 一方、プレーヤ画像の出力が必要な場合 (S202で「Y」)は、出力位置情報と変形 情報を取得する(S203)。そして、メモリ 13に保存されている α合成用画像データを 取得して、変形情報に基づいて編集する(S204)。その後、出力位置情報の座標位 置へ出力して(S205)、表示出力コマンドを送出する(S206)。以上の処理を表示フ レームごとに繰り返す。  On the other hand, when the player image needs to be output (“Y” in S202), output position information and deformation information are acquired (S203). Then, the image data for α composition stored in the memory 13 is acquired and edited based on the deformation information (S204). Thereafter, the output position information is output to the coordinate position (S205), and a display output command is sent (S206). The above processing is repeated for each display frame.
[0075] ( α合成等に関する補足説明)  [0075] (Supplementary explanation on alpha synthesis, etc.)
上記は、 RGB系の場合の説明である力 YCrCb系の場合は、以下のようになる。 YCrCb系では、 Y:Cr:Cb = 8:8:8 bitであり、これを、 R:G:B = 8:8:8 bitにコンバートし、 生成した A = 8 bitを合成して、 R:G:B:A = 8:8:8:8 bitのピクセル情報とする。  The above is the explanation for the RGB system. For the YCrCb system, it is as follows. In YCrCb system, Y: Cr: Cb = 8: 8: 8 bit, this is converted to R: G: B = 8: 8: 8 bit, and the generated A = 8 bit is synthesized, and R : G: B: A = 8: 8: 8: 8 bit pixel information.
[0076] このとき、 α合成(アルファブレンド)の式は、下記のとおりとなる。基本的には、ダラ フィックチップにハードウェアインプリメントされているものである。  At this time, the formula of α synthesis (alpha blend) is as follows. Basically, it is hardware-implemented on a daraffic chip.
[0077] (Cs - Cd) * As + Cd · · · (1)  [0077] (Cs-Cd) * As + Cd · · · · (1)
ここで、  here,
Cs:書き込み元の RGB値  Cs: Source RGB value
Cd:書き込み先の RGB値  Cd: RGB value to write to
As:ソースのアルファ値(理論的には 0— 1の値をとる)  As: Alpha value of the source (theoretically takes a value of 0—1)
Cs, Cdはそれぞれ RGBごとに 0— 255の値  Cs and Cd are each 0 to 255 for each RGB.
上記(1)式に基づいて、合成処理が行われる。  Based on the above equation (1), the synthesis process is performed.
[0078] 本実施形態によれば、プレーヤ画像抽出処理とゲーム中の画像出力処理を独立 に実行させて、画像出力処理でプレーヤ画像との合成が必要になったときにその時 点でメモリに保存されて ヽるプレーヤの a合成用画像データを用いるようにしたので 、プレーヤ画像の抽出処理による待ち時間を削減できるのでリアルタイム性を向上さ せることができる。 According to the present embodiment, the player image extraction process and the image output process during the game are executed independently, and when the image output process needs to be combined with the player image, it is stored in the memory at that time. Since the player's a-compositing image data is used, the waiting time due to the player image extraction process can be reduced, so that real-time performance can be improved.
[0079] また、背景ノイズ除去処理とノイズ緩和処理は、取り込んだ原画像データの複製を 取る必要が無ぐ原画像データ自体を直接変更しながら処理を行うことができるため 、メモリ容量の節約を図ることができる。 [0079] In addition, the background noise removal process and the noise reduction process can be performed while directly changing the original image data itself without having to copy the captured original image data. The memory capacity can be saved.
[0080] なお、 CGの背景とプレーヤのクリップ画像を合成する際にプレーヤのクリップ画像 を回転拡大縮小することで、より臨場感のある合成画像を生成できる。 It should be noted that when the CG background and the player's clip image are combined, the player's clip image is rotated and enlarged / reduced to generate a more realistic composite image.
[0081] く第 3の実施形態〉 [0081] <Third Embodiment>
次に第 3の実施形態を説明する。  Next, a third embodiment will be described.
本実施形態は、第 1または第 2の実施形態に対して、エッジ処理に関して前処理を実 行することによって、細いエッジについては除去し、またエッジノイズを背景ノイズィ匕し て、背景ノイズ除去手段 24によってその背景ノイズの除去を可能にするものである。  This embodiment removes fine edges by performing pre-processing on edge processing as compared to the first or second embodiment, and also removes background noise from edge noise to remove background noise. 24 enables the removal of the background noise.
[0082] 図 23は、本実施形態による画像処理装置のブロック図である。図 2の構成に対してFIG. 23 is a block diagram of the image processing apparatus according to the present embodiment. For the configuration in Figure 2
、シルエット画像の非背景領域の範囲を抽出するシルエット領域抽出手段 28と、背 景ノイズ除去手段 24の前後に前処理手段 29と後処理手段 30を夫々追加している。 A pre-processing means 29 and a post-processing means 30 are added before and after the silhouette area extracting means 28 for extracting the range of the non-background area of the silhouette image and the background noise removing means 24, respectively.
[0083] 図 24は、本実施形態の画像処理装置 1の処理手順を示すフローチャートである。こ の図【こお 、て、ステップ S901、ステップ S906、ステップ S908、および、ステップ S9FIG. 24 is a flowchart showing a processing procedure of the image processing apparatus 1 of the present embodiment. In this figure, step S901, step S906, step S908, and step S9
09の各処理は、第 1の実施形態と同様である。 Each process of 09 is the same as that of the first embodiment.
[0084] 以下、図 24—図 34を用いて本実施形態による画像処理装置 1の動作について、 第 1の実施形態との違いを中心に説明する。 Hereinafter, the operation of the image processing apparatus 1 according to the present embodiment will be described with reference to FIGS. 24 to 34, focusing on differences from the first embodiment.
[0085] [画像分離処理] (図 24のステップ S 902) [0085] [Image separation processing] (Step S902 in FIG. 24)
画像分離手段 22は、画像入力手段 21の出力である背景画像と抽出対象画像を用 The image separation means 22 uses the background image and the extraction target image that are the output of the image input means 21.
V、て第 1の実施形態で説明した手順によってシルエット画像を作成し、次にシルエツ ト領域抽出手段 28を起動する。 V, a silhouette image is created by the procedure described in the first embodiment, and then the silhouette area extracting means 28 is activated.
[0086] [シルエット領域抽出処理] (ステップ S903) [0086] [Silhouette region extraction processing] (step S903)
シルエット領域抽出手段 28は、このシルエット画像に対してヒストグラムを取り、予め 定められた所定の閾値と比較して、それよりも幅の狭い領域をノイズと判定して除去 する。  The silhouette area extraction means 28 takes a histogram for this silhouette image, compares it with a predetermined threshold value, and determines that the area narrower than that is determined as noise and removes it.
[0087] 図 25は、シルエット領域抽出手段 28の処理手順を示すフローチャートである。この 図において、シルエット領域抽出手段 28は、起動されると、まず、シルエット画像の 縦方向のヒストグラムを生成する(S 1001)。図 29は、シルエット領域抽出処理の説 明図である。図 29 (a)のシルエット画像において、中央の白抜きの部分は、非背景領 域であり、左上の複数の白丸は、背景領域に現れた非背景ノイズを示している。この シルエット画像の縦方向のヒストグラムは、図 29 (b)のようになる。この図の白い部分 は、図 29 (a)の対応する縦 (列)方向の非背景ピクセル数もしくはその出現割合を意 味している。 FIG. 25 is a flowchart showing the processing procedure of the silhouette region extraction means 28. In this figure, when activated, the silhouette area extraction means 28 first generates a vertical histogram of the silhouette image (S 1001). FIG. 29 is an explanatory diagram of the silhouette region extraction process. In the silhouette image of Fig. 29 (a), the white outline is the non-background area. The white circles in the upper left indicate non-background noise that appears in the background area. The vertical histogram of this silhouette image is shown in Fig. 29 (b). The white part in this figure means the number of non-background pixels in the corresponding vertical (column) direction in Fig. 29 (a) or the appearance ratio.
[0088] そして、非背景抽出処理として、縦方向の非背景ピクセルのヒストグラムの値が 0の 区域とそうでない区域に分割し、 0でない区域のうち、予め定められた所定値以上の 幅を持った区域(図 29 (b)中 Aの区域)を選びこの区域をシルエット領域として分割 する(S1002)。図 29 (c)は、この処理によって図 29 (a)のシルエット画像の両サイド を縦方向に分割した (切り取った)図である。この図で、ヒストグラムの値が 0ではない が予め定められた所定値以下の区域(図 29 (b)中 Bの区域)は、非背景ノイズ領域と して排除され、ヒストグラムの値が 0の区域(図 29 (b)中 Cの区域)は、背景領域として 排除されている。  [0088] Then, as the non-background extraction processing, the vertical non-background pixel histogram value is divided into an area where the value is 0 and an area where it is not, and the non-zero area has a width equal to or greater than a predetermined value. This area is selected as a silhouette area (S1002). FIG. 29 (c) is a diagram in which both sides of the silhouette image of FIG. 29 (a) are divided (cut) in the vertical direction by this processing. In this figure, the area where the histogram value is not 0 but is less than or equal to the predetermined value (area B in Figure 29 (b)) is excluded as a non-background noise region, and the histogram value is 0. Area (area C in Figure 29 (b)) is excluded as a background area.
[0089] 次に、図 29 (c)のシルエット画像に対して、横方向のヒストグラムを生成する(S100 3)。図 29 (d)は、横方向のヒストグラムを示している。このヒストグラムをもとに、上記と 同様に非背景区域を抽出してシルエット領域として分割する(S1004)。以上のステ ップ S1001からステップ S1004の処理を所定の回数繰り返して、シルエット領域を順 次分割しつつ最終のシルエット領域を抽出する。所定回数繰り返す替りに、新しい非 背景ノイズ領域が見つ力 なければ、抽出処理を終了するようにしてもよい。図 29 (e Next, a horizontal histogram is generated for the silhouette image of FIG. 29 (c) (S1003). FIG. 29 (d) shows a horizontal histogram. Based on this histogram, a non-background area is extracted and divided as a silhouette area in the same manner as described above (S1004). The above steps S1001 to S1004 are repeated a predetermined number of times, and the final silhouette region is extracted while sequentially dividing the silhouette region. Instead of repeating a predetermined number of times, the extraction process may be terminated if a new non-background noise region is not found. Fig. 29 (e
)は抽出されたシルエット領域を示している。そして、このシルエット領域以外の領域 を背景領域として、背景ピクセル値で埋める(S1005)。 ) Indicates the extracted silhouette region. Then, the area other than the silhouette area is filled with the background pixel value as a background area (S1005).
[0090] [前処理] (ステップ S904、 S905) [0090] [Pretreatment] (Step S904, S905)
前処理手段 29は、シルエット画像の中のシルエット領域抽出手段 28で抽出された 領域に対して細いエッジの除去やエッジノイズの背景化処理を実行する。  The pre-processing means 29 performs a process of removing a thin edge and a background process of edge noise on the area extracted by the silhouette area extracting means 28 in the silhouette image.
[0091] 1.細!、エッジノイズ (背景ノイズ)の除去処理 (ステップ S 904) [0091] 1. Fine !, edge noise (background noise) removal processing (step S904)
背景にサッシなどの窓枠があり、これと操作者の髪の毛などが重なった場合などに 操作者シルエットの内側にできてしまう細いエッジノイズの例を図 30 (a)に示す。図 3 Figure 30 (a) shows an example of thin edge noise that can be generated inside the operator silhouette when a window frame such as a sash is in the background and the operator's hair overlaps. Fig 3
0 (a)の A部がそのエッジノイズである。 The A part of 0 (a) is the edge noise.
[0092] 以下、図 26に従って、このような細いノイズをシルエット(図 30 (a)の白抜きの部分) のエッジ抽出と合成によって埋めるときの手順を説明する。 [0092] In the following, according to Fig. 26, such a thin noise is silhouetted (the white part in Fig. 30 (a)). The procedure for filling by edge extraction and synthesis will be described.
まず、シルエット画像に対して輪郭線抽出フィルタを適用し、シルエットのエッジを 抽出する(S1101)。エッジの抽出には、たとえば、図 33の重み付けのラプラシアンフ ィルタを用いる。この処理によって、エッジ抽出された画像を図 30 (b)に示す。  First, a contour extraction filter is applied to a silhouette image to extract silhouette edges (S1101). For edge extraction, for example, the weighted Laplacian filter shown in FIG. 33 is used. An image extracted by this processing is shown in FIG. 30 (b).
[0093] 次に、エッジ抽出された画像(図 30 (b) )と、元のシルエット画像(図 30 (a) )を合成 する(S1102)。 Next, the edge extracted image (FIG. 30 (b)) and the original silhouette image (FIG. 30 (a)) are synthesized (S1102).
シルエット部分とエッジ部分は共に 255の値を持っているので、重ねると、シルエット のエッジが 1ピクセル分拡張された画像になる。  Since both the silhouette part and the edge part have a value of 255, when they are overlaid, the silhouette edge is expanded by one pixel.
細いエッジノイズは、通常 1, 2ピクセル程度の幅しかないので、上記の処理を適用 することで、図 30 (c)に示すように非背景として埋めることができる。  Thin edge noise is usually only about 1 or 2 pixels wide, so by applying the above processing, it can be filled as non-background as shown in Fig. 30 (c).
[0094] 2.エッジノイズの背景ノイズ化処理 [0094] 2. Background noise processing of edge noise
大きな穴になってしまっているエッジノイズの例を図 31 (a)に示す。このエッジノイズ は、背景が広い単色領域で、操作者の服装と色が近い場合などに出やすいノイズで ある。このノイズについては、ノイズの口(図中 B部)の部分を閉じて、背景ノイズ化す ることで、第 1の実施形態で説明した背景ノイズの除去アルゴリズムで除去することが でさるよう〖こなる。  An example of edge noise that has become a large hole is shown in Fig. 31 (a). This edge noise is likely to occur when the color of the operator's clothes is close to that of a single color area with a wide background. This noise can be removed using the background noise elimination algorithm described in the first embodiment by closing the noise mouth (B in the figure) and converting it to background noise. Become.
[0095] 以下、図 27を用いてノイズの口の部分を閉じる際の手順を説明する。  Hereinafter, the procedure for closing the mouth portion of the noise will be described with reference to FIG.
まず、シルエット画像(図 31 (a) )に輪郭線抽出フィルタを適用してエッジ画像(図 3 First, the contour extraction filter is applied to the silhouette image (Fig. 31 (a)) to obtain an edge image (Fig. 3).
1 (b) )を生成し(S1201)、このエッジ画像と元のシルエット画像を合成した画像(図 31 (b)) is generated (S1201), and this edge image and the original silhouette image are combined (Fig. 3
1 (c) )を生成する(S 1202)。さらに、この合成したシルエット画像に対して、ステップ1 (c)) is generated (S 1202). Furthermore, for this synthesized silhouette image,
S1201—ステップ S1202の処理を複数回繰り返す。(図 31 (d) (e) )。 ロカ小さいノ ィズなので、複数回繰り返すと、エッジが膨らみ、 口が閉じる。 S1201—The process of step S1202 is repeated a plurality of times. (Fig. 31 (d) (e)). Since it is a small noise, if it is repeated several times, the edge swells and the mouth closes.
[0096] 口が閉じた段階で、このシルエット画像にっ 、て、背景ノイズの除去処理を行うこと で、このエッジノイズを除去することができる。(図 31 (f) ) When the mouth is closed, this edge noise can be removed by performing background noise removal processing on the silhouette image. (Fig. 31 (f))
なお、状況によって、ノイズの口の大きさは様々なので、何回エッジの拡張を繰り返 すかは操作者が指定できるようにするとよ 、。  The size of the mouth of the noise varies depending on the situation, so the operator can specify how many times the edge extension is repeated.
[0097] たとえば、第 2の実施形態で説明した閾値設定手段 23を用いて、図 12に例示する 画面に相当する閾値設定画面を繰り返し回数別に表示して、操作者の設定した繰り 返し回数を設定登録するようにすれば、適切な繰り返し数を用いて画像処理を行うこ とがでさる。 For example, by using the threshold setting means 23 described in the second embodiment, a threshold setting screen corresponding to the screen illustrated in FIG. If the return count is set and registered, image processing can be performed using an appropriate number of repetitions.
[0098] 上記の前処理によって、細いエッジについては除去し、大きな穴になってしまって いるエッジノイズについては、ノイズの口を閉じて背景ノイズィ匕したシルエット画像を 作成する。  [0098] By the above pre-processing, thin edges are removed, and for edge noise that has become a large hole, a noise image is created by closing the noise mouth.
[0099] [背景ノイズ除去処理] (ステップ S906)  [0099] [Background noise removal processing] (Step S906)
次に、前処理手段 29で作成されたシルエット画像に対して、背景ノイズ除去手段 2 4によって背景ノイズの除去を行う。この処理は第 1の実施の形態と同様であるので 説明を割愛する。背景ノイズ除去処理によって、シルエット画像の背景ノイズが除去 される。  Next, the background noise is removed from the silhouette image created by the preprocessing means 29 by the background noise removing means 24. Since this process is the same as that in the first embodiment, a description thereof will be omitted. The background noise of the silhouette image is removed by the background noise removal process.
[0100] [後処理] (ステップ S907)  [0100] [Post-processing] (Step S907)
上記の処理で作成されたシルエット画像は、ノイズが除去されているものの、元のシ ルエツト画像に対して拡張している。このため、後処理手段 30を起動して、図 28に示 す手順によって、この拡張されたシルエット画像を元のシルエット画像に近づける。  The silhouette image created by the above process is expanded from the original sketch image, although noise is removed. For this reason, the post-processing means 30 is activated and this expanded silhouette image is brought close to the original silhouette image by the procedure shown in FIG.
[0101] まず、輪郭線抽出フィルタを適用して、シルエット画像の内側のエッジを抽出する( S1301)。この際、図 34に例示するラプラシアンフィルタを適用するとよい。次に、元 のシルエット画像(拡張画像)のピクセル値力 このフィルタを適用して作ったエッジ 画像のピクセル値を引く(S 1302)。そして、ピクセルの値が 0より小さくなつた場合 は 0にする(S 1303、 S1304)。 この処理によって、エッジ部分力 1ピクセル分縮小さ れることになる。以上のステップ S 1301—ステップ S 1304の処理を、適用した拡張処 理の回数分だけ繰り返す。 First, an outline extraction filter is applied to extract the inner edge of the silhouette image (S1301). At this time, a Laplacian filter illustrated in FIG. 34 may be applied. Next, the pixel value of the original silhouette image (extended image) is subtracted from the pixel value of the edge image created by applying this filter (S1302). If the pixel value becomes smaller than 0, it is set to 0 (S1303, S1304). This process reduces the edge partial force by 1 pixel. The above steps S 1301 to S 1304 are repeated as many times as the number of applied extended processes.
[0102] [ノイズ緩和処理、画像出力処理] (ステップ S908、 S909) [0102] [Noise mitigation processing, image output processing] (Step S908, S909)
また、ノイズ緩和手段 25によって、残った非背景ノイズやエッジノイズの緩和処理を 行い(S908)、画像出力手段 26によって合成画像の出力を行う(S909)。これらの 手段 25、 26の処理手順は第 1の実施形態と同様であるので説明を割愛する。  Further, the noise reduction means 25 performs the remaining non-background noise and edge noise reduction processing (S908), and the image output means 26 outputs the composite image (S909). Since the processing procedures of these means 25 and 26 are the same as those in the first embodiment, the description thereof is omitted.
[0103] 以上、本実施形態による画像処理装置の動作を第 1の実施形態との違いを中心に 説明したが、第 2の実施形態に対して本実施形態の前処理手段 29や後処理手段 30 等を設けることも可能である。 [0104] 本実施形態では、シルエット領域抽出手段によってノイズと判定できない領域のみ に対してフィルタリング(ノイズの除去、緩和)処理を適用するためフィルタリングの速 度が向上する。 The operation of the image processing apparatus according to the present embodiment has been described above with a focus on differences from the first embodiment. However, the preprocessing unit 29 and the postprocessing unit of the present embodiment are compared with the second embodiment. 30 etc. can be provided. [0104] In the present embodiment, the filtering (noise removal, mitigation) process is applied only to the region that cannot be determined as noise by the silhouette region extraction means, so that the filtering speed is improved.
[0105] また、前処理手段によって、予め細いエッジノイズについては除去し、口の部分が 狭く非背景領域に大きな広がりを持つようなエッジノイズについては口を閉じて背景 ノイズィ匕し、以降の背景ノイズ除去手段によってそのノイズを除去するため、第 1の実 施形態のノイズ緩和効果に比べて品質の良い合成画像を得ることができる。  [0105] Further, the pre-processing means removes thin edge noise in advance, and closes the mouth for edge noise that has a narrow mouth portion and a large spread in a non-background area, and background noise is generated. Since the noise is removed by the noise removing means, it is possible to obtain a composite image with better quality than the noise mitigation effect of the first embodiment.
[0106] 本発明は上述した実施形態に限定されるものではなぐその要旨を逸脱しない範 囲内において、種々変形して実施することができる。たとえば、上記の背景ノイズ除 去手段と、ノイズ緩和手段を両方実行する場合は、上記の順に実行する必要がある iS CPUの性能等によって背景ノイズ除去手段とノイズ緩和手段の 、ずれか一方を 実行するのみでもノイズ削減効果がある。また、後処理手段 30は、背景ノイズ除去処 理以降ならば、いずれのタイミングで起動しても一定の効果は得られる。たとえば、ノ ィズ緩和処理の後に起動するようにしても良い。なお、前処理手段によるエッジ拡大 処理のループ回数が少な 、場合は、後処理手段を省略することも可能である。 産業上の利用可能性  [0106] The present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the invention. For example, when both the background noise removal means and the noise reduction means are executed, the background noise removal means and the noise reduction means are executed in accordance with the performance of the iS CPU that must be executed in the above order. Even just doing it can reduce noise. Further, the post-processing means 30 can obtain a certain effect even if it is activated at any timing after the background noise removal processing. For example, it may be activated after noise reduction processing. If the number of loops of the edge enlargement processing by the preprocessing means is small, the postprocessing means can be omitted. Industrial applicability
[0107] 本発明による画像処理装置や画像処理方法は、人物などの特定の画像を抽出し、 それ以外の背景部分を他の画像に置き換えるような用途のもの全般に利用すること ができる。上記の実施形態で説明したゲーム機以外に、たとえば、テレビ電話におい て、通話者のみを抽出し、背景を他の画像に置き換えるとか、カメラ撮影において特 定の被写体のみを抽出して背景を他のものに置き換えるということが可能となる。画 像処理装置は、このような機能を有するゲーム機、テレビ電話、カメラなども含む趣旨 である。  [0107] The image processing apparatus and image processing method according to the present invention can be used for all purposes such as extracting a specific image such as a person and replacing the other background portion with another image. In addition to the game machine described in the above embodiment, for example, in a videophone, only the caller is extracted and the background is replaced with another image, or only a specific subject is extracted in camera shooting and other backgrounds are extracted. It becomes possible to replace with. The image processing apparatus includes a game machine, a video phone, a camera, and the like having such functions.
図面の簡単な説明  Brief Description of Drawings
[0108] [図 1]本発明の第 1の実施形態による画像処理装置のブロック図である。 FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.
[図 2]図 1の処理部の機能ブロック図である。  2 is a functional block diagram of the processing unit in FIG.
[図 3]図 2の画像入力手段によって入力される背景画像例である。  3 is an example of a background image input by the image input means of FIG.
[図 4]図 3の背景をバックに撮影された抽出対象 (人物)を含む抽出対象画像例であ る。 [Fig. 4] An example of an extraction target image that includes an extraction target (person) photographed against the background of Fig. 3. The
[図 5]図 2の画像分離手段で作成されるシルエット画像の説明図である。  FIG. 5 is an explanatory diagram of a silhouette image created by the image separation means of FIG.
[図 6]図 5のシルエット画像に発生するノイズの説明図であり、図 6 (a)は背景ノイズの 説明図、図 6 (b)は非背景ノイズの説明図、図 6 (c)はエッジノイズの説明図である。 圆 7]図 2の背景ノイズ除去手段の処理手順の説明図である。  [Fig. 6] An illustration of noise generated in the silhouette image of Fig. 5, Fig. 6 (a) is an illustration of background noise, Fig. 6 (b) is an illustration of non-background noise, and Fig. 6 (c) is an illustration It is explanatory drawing of edge noise. [7] FIG. 7 is an explanatory diagram of the processing procedure of the background noise removing means of FIG.
[図 8]図 2のノイズ緩和手段の処理手順の説明図である。  FIG. 8 is an explanatory diagram of a processing procedure of the noise mitigation means of FIG.
圆 9]図 2の画像出力手段による画像合成の説明図である。 9] FIG. 9 is an explanatory diagram of image composition by the image output means of FIG.
圆 10]本発明の第 2の実施形態による画像処理装置処理部の機能ブロック図である 圆 11]本発明の第 2の実施形態による事前準備段階でのプレーヤの立ち位置限定 のしかたの説明図である。 圆 10] Functional block diagram of the image processing apparatus processing unit according to the second embodiment of the present invention. 圆 11] Explanatory diagram of how to limit the standing position of the player at the preliminary preparation stage according to the second embodiment of the present invention. It is.
圆 12]本発明の第 2の実施形態による閾値設定画面の説明図である。図 12 (a)は、 閾値が低い場合でノイズが多く発生している例である。図 12 (b)は、閾値が適正で、 ほとんどノイズが発生していない例である。図 12 (c)は、閾値が高い場合に、エッジノ ィズによって、抽出対象が背景に食い込まれている例である。 12] An explanatory diagram of a threshold setting screen according to the second embodiment of the present invention. Figure 12 (a) shows an example where a lot of noise occurs when the threshold is low. Figure 12 (b) is an example where the threshold is appropriate and almost no noise is generated. Fig. 12 (c) shows an example in which the extraction target is bitten into the background by edge noise when the threshold is high.
圆 13]本発明の第 2の実施形態による他の閾値設定画面の説明図である。図 13 (a) は、閾値低の図、図 13 (b)は、閾値中の図、図 13 (c)は、閾値高の図である。 13] It is explanatory drawing of the other threshold value setting screen by the 2nd Embodiment of this invention. FIG. 13A is a diagram showing a low threshold value, FIG. 13B is a diagram showing a threshold value, and FIG. 13C is a diagram showing a high threshold value.
[図 14]本発明の第 2の実施形態によるゲームプレーヤの画像処理の手順を示すフロ 一チャートである。 FIG. 14 is a flowchart showing the image processing procedure of the game player according to the second embodiment of the present invention.
圆 15]本発明の第 2の実施形態によるプレーヤ画像とゲーム背景フレームとを関連 付けるデータの例である。 15] An example of data associating a player image and a game background frame according to the second embodiment of the present invention.
[図 16]図 10の画像出力手段の処理手順を示すフローチャートである。  FIG. 16 is a flowchart showing a processing procedure of the image output means of FIG.
[図 17]図 2および図 10の背景ノイズ除去手段の処理手順を示すフローチャートであ る。  FIG. 17 is a flowchart showing a processing procedure of the background noise removing means of FIGS. 2 and 10.
[図 18]図 17の背景ノイズ候補領域マーク処理ルーチンのフローチャートである。  FIG. 18 is a flowchart of the background noise candidate area mark processing routine of FIG.
[図 19]図 17の候補領域上方確認処理ルーチンのフローチャートである。 FIG. 19 is a flowchart of the candidate area upper confirmation processing routine of FIG.
[図 20]図 17の候補領域下方確認処理ルーチンのフローチャートである。 20 is a flowchart of the candidate area downward confirmation processing routine of FIG.
[図 21]図 17の候補領域変換処理ルーチンのフローチャートである。 [図 22]図 2および図 10のノイズ緩和手段の処理手順を示すフローチャートである。 FIG. 21 is a flowchart of the candidate area conversion processing routine of FIG. FIG. 22 is a flowchart showing a processing procedure of the noise mitigation means of FIGS. 2 and 10.
[図 23]本発明の第 3の実施形態による画像処理装置処理部の機能ブロック図である FIG. 23 is a functional block diagram of an image processing device processing unit according to the third embodiment of the present invention.
[図 24]図 23の処理部の各手段によって実行される処理手順のフローチャートである 24 is a flowchart of a processing procedure executed by each means of the processing unit in FIG. 23.
[図 25]図 23のシルエット領域抽出手段の処理手順を示すフローチャートである。 FIG. 25 is a flowchart showing a processing procedure of the silhouette region extraction means of FIG. 23.
[図 26]図 23の前処理手段によって実行される細いエッジノイズの除去処理の手順を 示すフローチャートである。 FIG. 26 is a flowchart showing a procedure of thin edge noise removal processing executed by the preprocessing means of FIG. 23.
[図 27]図 23の前処理手段によって実行されるエッジノイズ背景ノイズィ匕処理の手順 を示すフローチャートである。  FIG. 27 is a flowchart showing a procedure of edge noise background noise processing executed by the preprocessing means in FIG. 23.
[図 28]図 23の前処理手段によって実行される拡張されたエッジの縮小処理の手順を 示すフローチャートである。  FIG. 28 is a flowchart showing a procedure of extended edge reduction processing executed by the preprocessing means of FIG. 23.
[図 29]図 25のシルエット領域抽出処理の説明図である。  FIG. 29 is an explanatory diagram of the silhouette region extraction process of FIG. 25.
[図 30]図 26の細いエッジノイズの除去処理の説明図である。 FIG. 30 is an explanatory diagram of the thin edge noise removal process of FIG. 26.
[図 31]図 27のエッジノイズ背景ノイズィ匕処理の説明図である。 FIG. 31 is an explanatory diagram of edge noise background noise processing in FIG. 27;
[図 32]図 28の拡張されたエッジの縮小処理の説明図である。 FIG. 32 is an explanatory diagram of the extended edge reduction process of FIG. 28;
[図 33]図 26の細いエッジノイズの除去処理または図 27のエッジノイズ背景ノイズ化処 理で用いられる重み付けラプラシアンフィルタの例である。  FIG. 33 is an example of a weighted Laplacian filter used in the thin edge noise removal process of FIG. 26 or the edge noise background noise conversion process of FIG.
[図 34]図 28の拡張されたエッジの縮小処理で用いられる重み付けラプラシアンフィ ルタの例である。  FIG. 34 is an example of a weighted Laplacian filter used in the extended edge reduction process of FIG.
符号の説明 Explanation of symbols
1 画像処理装置 (ゲーム装置)  1 Image processing device (game device)
11 AZD変換手段  11 AZD conversion means
12 処理部  12 Processing section
13 メモリ  13 memory
14 表示用メモリ  14 Display memory
15 DZA変換手段  15 DZA conversion means
16 外部記憶装置 入力部 16 External storage device Input section
画像入力手段 画像分離手段 閾値調整手段 背景ノイズ除去手段 ノイズ緩和手段 画像出力手段 ゲーム実行手段 シルエット領域抽出手段 前処理手段 Image input means Image separation means Threshold adjustment means Background noise removal means Noise mitigation means Image output means Game execution means Silhouette region extraction means Preprocessing means
後処理手段 Post-processing means
カメラ The camera
テレビモニタ TV monitor

Claims

請求の範囲 The scope of the claims
[1] 背景画像と、この背景画像と同じ背景で抽出対象を含む抽出対象画像とを入力す る画像入力手段と、  [1] An image input means for inputting a background image and an extraction target image including the extraction target with the same background as the background image;
前記背景画像と前記抽出対象画像のピクセル値の差分に基づいて非背景ピクセ ルと背景ピクセルを有するシルエット画像を作成する画像分離手段と、  Image separation means for creating a silhouette image having a non-background pixel and a background pixel based on a difference between pixel values of the background image and the extraction target image;
前記シルエット画像を入力し、この入力画像のラインごとに非背景ピクセルに囲まれ た領域をマークし、このマーク領域が隣接する行または列の背景ピクセルに接する場 合は、当該マーク領域を背景領域に順次変更していき、残ったマーク領域を非背景 領域に変換してシルエット画像を編集する背景ノイズ除去手段と、  When the silhouette image is input, an area surrounded by non-background pixels is marked for each line of the input image, and when this mark area touches a background pixel in an adjacent row or column, the mark area is set as the background area. A background noise removal means that edits the silhouette image by converting the remaining mark area into a non-background area,
数値化された非背景度に基づ!ヽて、前記背景ノイズ除去手段によって編集された シルエット画像の画像領域の端からピクセルごとに当該ピクセルの近傍領域の非背 景度の平均化処理を順次行!ヽ、その後画像領域範囲を補正するノイズ緩和手段と、 前記平均化処理された非背景度と前記抽出対象画像をもとに O合成用画像を作 成し、別に入力された背景画像と共に出力する画像出力手段と、  Based on the digitized non-background level, the non-background level averaging process of the neighboring area of the pixel is sequentially performed for each pixel from the edge of the image area of the silhouette image edited by the background noise removing means.ヽ, and then noise reduction means to correct the image area range, and the O-composition image based on the averaged non-background level and the extraction target image, together with the separately input background image Image output means for outputting;
を備えたことを特徴とする画像処理装置。  An image processing apparatus comprising:
[2] 前記画像分離手段によって作成されたシルエット画像のエッジ抽出画像を作成し、 当該エッジ抽出画像と前記シルエット画像とを合成して前記シルエット画像の非背景 領域を拡大させることによってエッジノイズを背景ノイズに変換する前処理手段を備 え、 [2] Create an edge extraction image of the silhouette image created by the image separation means, and combine the edge extraction image and the silhouette image to expand the non-background area of the silhouette image to thereby reduce the background of the edge noise. Pre-processing means to convert to noise,
前記背景ノイズ除去手段は、前記前処理手段によって作成されたシルエット画像を 入力画像とすることを特徴とする請求項 1記載の画像処理装置。  2. The image processing apparatus according to claim 1, wherein the background noise removing unit uses the silhouette image created by the preprocessing unit as an input image.
[3] 前記画像分離手段によって作成されたシルエット画像の縦方向または横方向のヒ ストグラムを取り、当該ヒストグラムの幅に基づいて前記背景ノイズ除去手段または前 記ノイズ緩和手段によって編集または補正する範囲を決定するシルエット領域抽出 手段を備えたことを特徴とする請求項 1記載の画像処理装置。  [3] A vertical or horizontal histogram of the silhouette image created by the image separation unit is taken, and a range to be edited or corrected by the background noise removal unit or the noise reduction unit based on the width of the histogram. 2. The image processing apparatus according to claim 1, further comprising a silhouette region extracting means for determining.
[4] 前記画像分離手段は、背景画像と抽出対象画像のピクセル値の差分を閾値と比較 することによって非背景ピクセルである力 または、背景ピクセルであるかを判定し、 かつ、 前記閾値に基づ 、て作成されノイズ度合 、の判定可能な画像を表示し、入力部か ら入力される前記閾値の変更要求に基づいて前記閾値を変更するする閾値調整手 段を備えることを特徴とする請求項 1ないし 3のいずれか一に記載の画像処理装置。 [4] The image separating means determines whether the force is a non-background pixel or a background pixel by comparing a difference between pixel values of a background image and an extraction target image with a threshold value, and A threshold adjustment unit is provided that displays an image that can be determined based on the threshold and is capable of determining the degree of noise, and that changes the threshold based on the threshold change request input from an input unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized.
[5] 表示部に抽出対象領域を指示する範囲指定情報を表示する手段を備え、 [5] Provided with means for displaying range designation information indicating the extraction target area on the display unit,
前記画像入力手段は、この範囲指定情報に基づいて当該範囲の抽出対象画像を 入力することを特徴とする請求項 1ないし 3のいずれか一に記載の画像処理装置。  4. The image processing apparatus according to claim 1, wherein the image input unit inputs an extraction target image in the range based on the range designation information.
[6] 入力した画像から特定の画像を抽出して、別の画像と合成する画像処理方法であ つて、 [6] An image processing method for extracting a specific image from an input image and combining it with another image.
背景画像と、この背景画像と同じ背景で抽出対象を含む抽出対象画像とを入力す るステップと、  Inputting a background image and an extraction target image including the extraction target with the same background as the background image;
前記背景画像と前記抽出対象画像のピクセル値の差分に基づいて非背景ピクセ ルと背景ピクセルを有するシルエット画像を作成するステップと  Creating a silhouette image having a non-background pixel and a background pixel based on a difference between pixel values of the background image and the extraction target image;
このシルエット画像のラインごとに非背景ピクセルに囲まれた領域をマークし、この マーク領域が隣接する行または列の背景ピクセルに接する場合は、当該マーク領域 を背景領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルェ ット画像を編集した後、数値化された非背景度に基づいて、当該シルエット画像の画 像領域の端力 ピクセルごとに当該ピクセルの近傍領域の非背景度を平均化する処 理を順次行 ヽ、その後画像領域範囲を補正するステップと、  If you mark the area surrounded by non-background pixels for each line of this silhouette image, and this mark area touches the background pixel of the adjacent row or column, change the mark area to the background area sequentially, After converting the remaining mark area to a non-background area and editing the silhouette image, based on the digitized non-background degree, the edge area of the image area of the silhouette image Sequentially performing the process of averaging the non-background level of the image, and then correcting the image area range;
前記平均化処理された非背景度と前記抽出対象画像をもとに O合成用画像を生 成し、別に入力された背景画像と共に出力するステップと、  Generating an O composition image based on the averaged non-background degree and the extraction target image, and outputting the generated image together with a separately input background image;
を含むことを特徴とする画像処理方法。  An image processing method comprising:
[7] 入力した画像から特定の画像を抽出して、別の画像と合成する画像処理方法であ つて、 [7] An image processing method that extracts a specific image from an input image and combines it with another image.
背景画像と、この背景画像と同じ背景で抽出対象を含む抽出対象画像とを入力す るステップと、  Inputting a background image and an extraction target image including the extraction target with the same background as the background image;
前記背景画像と前記抽出対象画像のピクセル値の差分に基づいて非背景ピクセ ルと背景ピクセルを有するシルエット画像を作成するステップと、  Creating a silhouette image having a non-background pixel and a background pixel based on a difference between pixel values of the background image and the extraction target image;
このシルエット画像の非背景領域を拡大させることによってエッジノイズを背景ノィ ズに変換するステップと、 Edge noise is reduced by expanding the non-background area of this silhouette image. Step to convert to
このシルエット画像のラインごとに非背景ピクセルに囲まれた領域をマークし、この マーク領域が隣接する行または列の背景ピクセルに接する場合は、当該マーク領域 を背景領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルェ ット画像を編集した後、数値化された非背景度に基づいて、当該シルエット画像の画 像領域の端力 ピクセルごとに当該ピクセルの近傍領域の非背景度を平均化する処 理を順次行 ヽ、その後画像領域範囲を補正するステップと、  If you mark the area surrounded by non-background pixels for each line of this silhouette image, and this mark area touches the background pixel of the adjacent row or column, change the mark area to the background area sequentially, After converting the remaining mark area to a non-background area and editing the silhouette image, based on the digitized non-background degree, the edge area of the image area of the silhouette image Sequentially performing the process of averaging the non-background level of the image, and then correcting the image area range;
前記平均化処理された非背景度と前記抽出対象画像をもとに O合成用画像を生 成し、別に入力された背景画像と共に出力するステップと、  Generating an O composition image based on the averaged non-background degree and the extraction target image, and outputting the generated image together with a separately input background image;
を含むことを特徴とする画像処理方法。 An image processing method comprising:
カメラで撮影されたゲームプレーヤの画像をゲームの背景中に表示してゲームを進 行するコンピュータゲーム用プログラムであって、  A computer game program for displaying a game player image captured by a camera in the background of a game and executing the game,
背景画像を入力して保存する処理と、  Input and save a background image,
前記背景画像と同じ背景でプレーヤを含む抽出対象画像を入力する処理と、 前記保存されて!、る背景画像と前記抽出対象画像のピクセル値の差分に基づ 、て 非背景ピクセルと背景ピクセルを有するシルエット画像を作成する画像分離処理と、 このシルエット画像のラインごとに非背景ピクセルに囲まれた領域をマークし、この マーク領域が隣接する行または列の背景ピクセルに接する場合は、当該マーク領域 を背景領域に順次変更して 、き、残ったマーク領域を非背景領域に変換してシルェ ット画像を編集する背景ノイズ除去処理と、  A process of inputting an extraction target image including a player with the same background as the background image; and a non-background pixel and a background pixel based on a difference between pixel values of the background image and the extraction target image stored Image separation processing to create a silhouette image that has, and mark the area surrounded by non-background pixels for each line of this silhouette image, if this mark area touches the background pixel of the adjacent row or column, the mark area A background noise removal process that edits the shot image by converting the remaining mark area into a non-background area,
数値化された非背景度に基づ!/ヽて、前記背景ノイズ除去手段によって編集された シルエット画像の画像領域の端からピクセルごとに当該ピクセルの近傍領域の非背 景度を平均化する処理を順次行!ヽ、その後画像領域範囲を補正するノイズ緩和処 理と、  Based on the digitized non-background level, a process that averages the non-background level of the neighboring area of each pixel from the edge of the image area of the silhouette image edited by the background noise removing means.ノ イ ズ, then noise reduction processing to correct the image area range,
前記平均化処理された非背景度と前記抽出対象画像をもとに O合成用画像を作 成し、ゲームの進行を実行する処理によって作成され、または、外部記憶装置から入 力された背景画像と共に出力する画像出力処理と、  Based on the averaged non-background level and the extraction target image, an O composition image is created, and a background image created by a process of executing a game progress or input from an external storage device Image output processing to be output together with,
をコンピュータに実行させるためのプログラム。 A program that causes a computer to execute.
PCT/JP2005/004469 2004-09-22 2005-03-14 Image processing device, method, and program WO2006033178A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006536313A JP4399462B2 (en) 2004-09-22 2005-03-14 Image processing apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-276252 2004-09-22
JP2004276252 2004-09-22

Publications (1)

Publication Number Publication Date
WO2006033178A1 true WO2006033178A1 (en) 2006-03-30

Family

ID=36089944

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004469 WO2006033178A1 (en) 2004-09-22 2005-03-14 Image processing device, method, and program

Country Status (2)

Country Link
JP (1) JP4399462B2 (en)
WO (1) WO2006033178A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183560A (en) * 2008-12-16 2010-08-19 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
KR101101090B1 (en) 2006-06-26 2011-12-30 소니 온라인 엔터테인먼트 엘엘씨 Creation of game-based scenes
JP2012084987A (en) * 2010-10-07 2012-04-26 Canon Inc Image composition processing device, and control method of the same
CN106056532A (en) * 2016-05-20 2016-10-26 深圳市奥拓电子股份有限公司 Method and device of removing background images
CN110827300A (en) * 2019-11-08 2020-02-21 恒信东方文化股份有限公司 Image segmentation method and corresponding separation device thereof
JP2020077165A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device, image processing method, and program
CN111932566A (en) * 2020-05-27 2020-11-13 杭州群核信息技术有限公司 Method, device and system for generating model contour map
JP2021043409A (en) * 2019-09-13 2021-03-18 富士フイルム株式会社 Image processing device, photographing device, image processing method, and image processing program
JP7456702B1 (en) 2023-11-07 2024-03-27 リベラルロジック株式会社 Programs, information processing systems and information processing methods

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102178013B1 (en) * 2019-02-08 2020-11-12 한양대학교 산학협력단 Training data generation method and pose determination method for grasping object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255064A (en) * 1994-03-16 1995-10-03 Casio Comput Co Ltd Image control unit
JPH11346329A (en) * 1998-06-01 1999-12-14 Canon Inc Image processor, its method and image processing system
JP2000224410A (en) * 1998-08-31 2000-08-11 Hitachi Software Eng Co Ltd Image synthesizer and image synthesis method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255064A (en) * 1994-03-16 1995-10-03 Casio Comput Co Ltd Image control unit
JPH11346329A (en) * 1998-06-01 1999-12-14 Canon Inc Image processor, its method and image processing system
JP2000224410A (en) * 1998-08-31 2000-08-11 Hitachi Software Eng Co Ltd Image synthesizer and image synthesis method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101101090B1 (en) 2006-06-26 2011-12-30 소니 온라인 엔터테인먼트 엘엘씨 Creation of game-based scenes
JP2010183560A (en) * 2008-12-16 2010-08-19 Casio Computer Co Ltd Image capturing apparatus, image processing method, and program
JP2012084987A (en) * 2010-10-07 2012-04-26 Canon Inc Image composition processing device, and control method of the same
CN106056532A (en) * 2016-05-20 2016-10-26 深圳市奥拓电子股份有限公司 Method and device of removing background images
JP7207957B2 (en) 2018-11-07 2023-01-18 キヤノン株式会社 Image processing device, image processing method, and program
JP2020077165A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device, image processing method, and program
US11495010B2 (en) 2019-09-13 2022-11-08 Fujifilm Corporation Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2021043409A (en) * 2019-09-13 2021-03-18 富士フイルム株式会社 Image processing device, photographing device, image processing method, and image processing program
JP7256719B2 (en) 2019-09-13 2023-04-12 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program
CN110827300B (en) * 2019-11-08 2022-08-26 恒信东方文化股份有限公司 Image segmentation method and corresponding separation device thereof
CN110827300A (en) * 2019-11-08 2020-02-21 恒信东方文化股份有限公司 Image segmentation method and corresponding separation device thereof
CN111932566A (en) * 2020-05-27 2020-11-13 杭州群核信息技术有限公司 Method, device and system for generating model contour map
CN111932566B (en) * 2020-05-27 2024-02-20 杭州群核信息技术有限公司 Model contour diagram generation method, device and system
JP7456702B1 (en) 2023-11-07 2024-03-27 リベラルロジック株式会社 Programs, information processing systems and information processing methods

Also Published As

Publication number Publication date
JP4399462B2 (en) 2010-01-13
JPWO2006033178A1 (en) 2008-05-15

Similar Documents

Publication Publication Date Title
WO2006033178A1 (en) Image processing device, method, and program
JP3539539B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
EP2525561B1 (en) Data-generating device, data-generating method, data-generating program, and recording medium
JP4771573B2 (en) Smart erase brush
US20160006903A1 (en) Image processing apparatus, image processing method, and program
CN102202224B (en) Caption flutter-free method and apparatus used for plane video stereo transition
JP2008234342A (en) Image processor and image processing method
JP2011119974A (en) Panoramic image synthesizer, panoramic image synthesis method, and program
US7170524B2 (en) Line drawing image generating device, storage medium, and line drawing image generating method
JP2006332908A (en) Color image display apparatus, color image display method, program, and recording medium
CN103685858A (en) Real-time video processing method and equipment
JP2000232609A (en) Special effect processing method and image processing unit
JP5408037B2 (en) Image processing apparatus and method, and program
US8971636B2 (en) Image creating device, image creating method and recording medium
WO2020087968A1 (en) Picture display method, picture processing method and systems thereof
JP2004102819A (en) Image processing method and image processing apparatus
JP2005250778A (en) Vertical direction decision of image
JP2006041614A (en) Image processing apparatus, image processing method, program, and recording medium
CN112488972A (en) Method and device for synthesizing green screen image and virtual image in real time
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
JP4349019B2 (en) Image correction device
JPH11110577A (en) Device and method for processing image data, and transmission medium thereof
JP4165428B2 (en) Image processing apparatus, image processing method, computer program for performing image processing, recording medium for recording computer program, and projector
JP2005274887A (en) Image display system, image display program and image display method
JP5459072B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006536313

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05720737

Country of ref document: EP

Kind code of ref document: A1