JP4148240B2 - Image processing method, image processing apparatus, program, and recording medium - Google Patents

Image processing method, image processing apparatus, program, and recording medium Download PDF

Info

Publication number
JP4148240B2
JP4148240B2 JP2005158056A JP2005158056A JP4148240B2 JP 4148240 B2 JP4148240 B2 JP 4148240B2 JP 2005158056 A JP2005158056 A JP 2005158056A JP 2005158056 A JP2005158056 A JP 2005158056A JP 4148240 B2 JP4148240 B2 JP 4148240B2
Authority
JP
Japan
Prior art keywords
image
subject
photographed
processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005158056A
Other languages
Japanese (ja)
Other versions
JP2006331349A (en
Inventor
裕人 松岡
育生 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005158056A priority Critical patent/JP4148240B2/en
Publication of JP2006331349A publication Critical patent/JP2006331349A/en
Application granted granted Critical
Publication of JP4148240B2 publication Critical patent/JP4148240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、実物から3次元CG用データを生成するために用いられる技術に関し、特に被写体を撮影した撮影画像から被写体と背景を切り分ける画像処理技術に関するものである。   The present invention relates to a technique used to generate 3D CG data from an actual object, and more particularly to an image processing technique for separating a subject and a background from a photographed image obtained by photographing the subject.

近年、インターネットの普及や画像処理能力の向上に伴い、商品等のプレゼンテーションに3次元モデルデータが用いられるようになってきた。例えば3次元モデルデータを商品紹介に用いることにより、顧客は、実際に目の前に商品がなくても、パーソナルコンピュータ等の画面上で、商品を好きな角度及び方向から見ることができる。   In recent years, with the spread of the Internet and the improvement of image processing capability, 3D model data has been used for presentation of products and the like. For example, by using the three-dimensional model data for product introduction, the customer can see the product from a desired angle and direction on the screen of a personal computer or the like without actually having the product in front of him.

商品等の被写体を3次元CGデータとして表現するために、商品の表面を複数のポリゴンで表すジオメトリベースの3次元表現手法が一般に用いられている。しかし、この手法では、被写体の細部を忠実に表現するには膨大な量のポリンゴンが必要であり、そのデータ生成コスト及びデータ量が膨大となる。   In order to represent a subject such as a product as 3D CG data, a geometry-based 3D representation method in which the surface of the product is represented by a plurality of polygons is generally used. However, this method requires a huge amount of polingons to faithfully express the details of the subject, and its data generation cost and data amount are enormous.

そこで、予め被写体をあらゆる方向から写真撮影しておき、ユーザが被写体の見たい方向から撮影した写真を提示して3次元的に見せるイメージベースの表現手法がある。QuickTimeVR等はその代表的なアプリケーションであり、写真を用いているので、被写体をありのままに表示することができる。しかし、この手法で作成したデータを用いて、別の背景画像上に合成する等して仮想空間を構築するためには、撮影した画像から背景を正確に切り出す必要がある。   Therefore, there is an image-based expression method in which a subject is photographed in advance from all directions, and a photograph taken from the direction in which the user wants to view the subject is presented and viewed three-dimensionally. QuickTimeVR is a typical application that uses photographs, so that the subject can be displayed as it is. However, in order to construct a virtual space by using data created by this method and composing it on another background image, it is necessary to accurately extract the background from the captured image.

背景を切り出す一般的な手法の一つに、クロマキー法がある。この手法は、背景をある決められた単色にして撮影して、背景と同じ同色の部分を切り取る手法である。しかしながら、この手法では、撮影環境等により背景に色むらが生じたり、また、被写体に背景色に近い色が使われている場合、うまく切り出しを行うことができないという問題がある。これらの問題を解決するためには、被写体との境界を探索するアルゴリズム等を追加する必要があるが、処理時間が長くなり、被写体の撮影枚数が多い場合、その処理に膨大な時間が必要であるという問題がある。なお、本願に関連する先行技術文献として特許文献1〜3がある。
特開2004−46776号公報 N. R. Pal and S. K. Pal, "A review on image segmentation techniques," Pattern Recognition, vol. 26, no. 9, pp. 1277-1294, 1993. Y. Deng, B.S. Manjunath, and H. Shin, "Color image segmentation," Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, vol. 2, pp. 446-451, 1999.
One common technique for cutting out the background is the chroma key method. This method is a method in which the background is photographed with a predetermined single color and the same color as the background is cut out. However, with this method, there are problems that color unevenness occurs in the background due to the shooting environment or the like, and when a color close to the background color is used for the subject, it cannot be cut out well. In order to solve these problems, it is necessary to add an algorithm for searching the boundary with the subject.However, if the processing time is long and the number of subjects to be photographed is large, the processing takes a lot of time. There is a problem that there is. There are Patent Documents 1 to 3 as prior art documents related to the present application.
JP 2004-46776 A NR Pal and SK Pal, "A review on image segmentation techniques," Pattern Recognition, vol. 26, no. 9, pp. 1277-1294, 1993. Y. Deng, BS Manjunath, and H. Shin, "Color image segmentation," Proc. Of IEEE Conf. On Computer Vision and Pattern Recognition, vol. 2, pp. 446-451, 1999.

上記のように、被写体の撮影枚数が多い場合、背景除去を行う画像の枚数が多くなり、従来のセグメンテーション手法ではその処理に膨大な時間がかかるという問題がある。   As described above, when the number of subjects to be photographed is large, the number of images to be subjected to background removal increases, and the conventional segmentation technique has a problem that the processing takes an enormous amount of time.

本発明は上記の点に鑑みてなされたものであり、背景除去を行う画像の枚数が多い場合でも短時間で背景除去を行うことを可能した画像処理技術を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing technique capable of performing background removal in a short time even when the number of images subjected to background removal is large.

上記の課題は、被写体Oを撮影した画像から被写体O以外の領域を除去する処理を行う画像処理装置が実行する画像処理方法であって、被写体Oを直交する2方向から撮影した2枚の撮影画像である第1の撮影画像Po1と第2の撮影画像Po2とを入力する初期画像入力ステップと、第1の撮影画像Po1と第2の撮影画像Po2とから、被写体Oに外接する概略形状Sを求める概略計算ステップと、第1の撮影画像Po1及び第2の撮影画像Po2とは別の方向から被写体Oを撮影した第3の撮影画像Pnを入力する画像入力ステップと、第3の撮影画像Pnと概略形状Sとから、第3の撮影画像Pn上で被写体Oが含まれる領域である処理領域Aを求める処理領域計算ステップと、第3の撮影画像Pnにおける処理領域Aから、被写体O以外の領域を除去する背景除去ステップとを有することを特徴とする画像処理方法により解決される。   The above-described problem is an image processing method executed by an image processing apparatus that performs processing for removing an area other than the subject O from an image obtained by photographing the subject O, and two images obtained by photographing the subject O from two orthogonal directions. An approximate shape S circumscribing the subject O from the initial image input step for inputting the first photographed image Po1 and the second photographed image Po2, which are images, and the first photographed image Po1 and the second photographed image Po2. An approximate calculation step for obtaining the image, an image input step for inputting a third photographed image Pn obtained by photographing the subject O from a different direction from the first photographed image Po1 and the second photographed image Po2, and a third photographed image. A processing area calculation step for obtaining a processing area A that is an area including the subject O on the third photographed image Pn from the Pn and the schematic shape S, and a subject from the processing area A in the third photographed image Pn. It is solved by an image processing method characterized by having a background removal step of removing a region other than.

また、前記概略計算ステップは、第1の撮影画像Po1及び第2の撮影画像Po2から被写体O以外の部分をそれぞれ除去した画像である第1の背景除去画像Ps1と第2の背景除去画像Ps2を求める初期背景除去ステップと、第1の背景除去画像Ps1及び第2の背景除去画像Ps2において、被写体Oに外接する第1の矩形領域S1と第2の矩形領域S2を求める領域計算ステップと、前記領域計算ステップで求めた第1の矩形領域S1と第2の矩形領域S2とから概略形状Sを求める概略形状生成ステップとを備えて構成することができる。   In the rough calculation step, the first background-removed image Ps1 and the second background-removed image Ps2 are images obtained by removing portions other than the subject O from the first captured image Po1 and the second captured image Po2, respectively. An initial background removing step to be obtained; an area calculating step to obtain a first rectangular area S1 and a second rectangular area S2 circumscribing the subject O in the first background removed image Ps1 and the second background removed image Ps2; An approximate shape generating step for obtaining the approximate shape S from the first rectangular area S1 and the second rectangular area S2 obtained in the area calculating step can be provided.

また、前記画像処理方法において、前記概略計算ステップに替えて、第1の撮影画像Po1と第2の撮影画像Po2を表示し、ユーザにより指定されたそれらの画像上の被写体領域を入力し、入力された被写体領域から前記概略形状Sを求める概略計算ステップを備えてもよい。   In the image processing method, instead of the rough calculation step, the first photographed image Po1 and the second photographed image Po2 are displayed, and subject areas on those images designated by the user are input and input. A rough calculation step for obtaining the rough shape S from the subject area thus obtained may be provided.

また、前記初期画像入力ステップに替えて、それぞれ異なる方向から被写体Oを撮影した3枚以上の撮影画像を入力するステップを有し、前記概略計算ステップにおいて、当該3枚以上の撮影画像に基づき概略形状Sを求めるようにしてもよい。   Further, in place of the initial image input step, there is a step of inputting three or more photographed images obtained by photographing the subject O from different directions. In the approximate calculation step, the outline is based on the three or more photographed images. The shape S may be obtained.

また、本発明によれば、上記画像処理方法の実施に適した画像処理装置、当該画像処理装置の機能をコンピュータに実現させるプログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。   In addition, according to the present invention, there are provided an image processing apparatus suitable for carrying out the image processing method, a program for causing a computer to realize the functions of the image processing apparatus, and a computer-readable recording medium storing the program. .

本発明によれば、概略形状Sを用いることにより、任意の撮影画像Pn上で被写体Oが含まれる領域である処理領域Aを求め、処理領域Aでのみ被写体O以外の領域を除去する背景除去処理を実行することとしたので、背景除去処理を画像全体で行う必要がなくなり、1画像あたりの背景除去処理時間を短縮できる。よって、背景除去を行う画像の枚数が多い場合でも短時間で背景除去を行うことが可能となる。   According to the present invention, by using the approximate shape S, the processing area A that is the area including the subject O is obtained on an arbitrary captured image Pn, and the background removal that removes the area other than the subject O only in the processing area A is performed. Since the process is executed, it is not necessary to perform the background removal process on the entire image, and the background removal process time per image can be shortened. Therefore, even when the number of images to be subjected to background removal is large, background removal can be performed in a short time.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(システム構成)
図1に本実施の形態におけるシステム構成例を示す。図1に示すように、このシステムは、被写体を撮影するカメラCと、カメラCで撮影した画像から被写体O以外の背景を除去する処理を行う画像処理装置10とを有している。
(System configuration)
FIG. 1 shows a system configuration example in the present embodiment. As shown in FIG. 1, this system includes a camera C that captures a subject and an image processing apparatus 10 that performs a process of removing a background other than the subject O from an image captured by the camera C.

また、画像処理装置10は、被写体Oの概略形状Sを計算する概略計算手段11、概略形状Sを用いて被写体Oに対応する処理領域Aを計算する処理領域計算手段12、処理領域Aを用いて被写体Oの所望の撮影画像の背景除去を行う背景除去処理手段13、及び概略形状Sのデータ等を格納する格納手段14を有している。また、概略計算手段11は、初期背景除去処理手段111、最小領域計算手段112、及び座標変換手段113を有している。   The image processing apparatus 10 also uses a rough calculation unit 11 that calculates a rough shape S of the subject O, a processing region calculation unit 12 that calculates a processing region A corresponding to the subject O using the rough shape S, and a processing region A. A background removal processing means 13 for removing the background of a desired photographed image of the subject O, and a storage means 14 for storing data of the approximate shape S and the like. The rough calculation unit 11 includes an initial background removal processing unit 111, a minimum area calculation unit 112, and a coordinate conversion unit 113.

なお、画像処理装置10は、CPU、記憶装置等を備えた一般的なコンピュータに、本実施の形態で説明する処理を実行するプログラムを搭載することにより実現できる。また、当該プログラムは、メモリ等の記録媒体に格納して配布することもできるし、ネットワークを介して配布することもできる。   The image processing apparatus 10 can be realized by mounting a program for executing the processing described in the present embodiment on a general computer including a CPU, a storage device, and the like. Further, the program can be distributed by being stored in a recording medium such as a memory, or can be distributed via a network.

(処理の概要)
次に、画像処理装置10の処理動作の概要を図2に示すフローチャートを参照して説明する。
(Outline of processing)
Next, the outline of the processing operation of the image processing apparatus 10 will be described with reference to the flowchart shown in FIG.

まず、被写体Oを正面及び真上から撮影して得た2枚の画像Po1、Po2を画像処理装置10に入力し、画像処理装置10は、これらの画像を用いて被写体の概略形状Sを求め、概略形状Sのデータを保持する(ステップ1:概略計算ステップ)。   First, two images Po1 and Po2 obtained by photographing the subject O from the front and directly above are input to the image processing device 10, and the image processing device 10 obtains the approximate shape S of the subject using these images. The data of the general shape S is held (step 1: general calculation step).

そして、所望の方向から被写体Oを撮影した画像Pnを画像処理装置10に入力し、画像処理装置10は、画像Pn上に概略形状Sを透視投影し、概略形状Sが写し込まれた領域である被写体の処理領域Aを求め、処理領域Aのデータを保持する(ステップ2:処理領域計算ステップ)。   Then, an image Pn obtained by photographing the subject O from a desired direction is input to the image processing apparatus 10, and the image processing apparatus 10 perspectively projects the schematic shape S on the image Pn, and is an area where the schematic shape S is imprinted. A processing area A of a certain subject is obtained, and data of the processing area A is held (step 2: processing area calculation step).

続いて、画像Pnから処理領域Aでない部分を全て背景とみなし、処理領域内のみクロマキー法等の背景除去アルゴリズムを用いて背景除去を行い、被写体領域を抽出する(ステップ3:背景除去処理ステップ)。   Subsequently, all portions that are not the processing area A from the image Pn are regarded as the background, the background is removed only in the processing area using a background removal algorithm such as a chroma key method, and the subject area is extracted (step 3: background removal processing step). .

複数の方向から撮影した複数枚の画像から被写体領域を抽出する場合には、ステップ1で求めた概略形状Sを用いて、複数の方向から撮影した画像毎にステップ2と3の処理を実行すればよい。   When extracting a subject area from a plurality of images photographed from a plurality of directions, the processes in steps 2 and 3 are executed for each image photographed from a plurality of directions using the schematic shape S obtained in step 1. That's fine.

上記の方法では、一度概略形状を求めておけば、任意の方向から撮影した画像における被写体が存在する領域を絞り込むことができるので、背景除去のための処理を画面全体で行う必要がなくなり、1画像あたりの背景除去処理時間を短縮できる。従って、背景除去を行う画像枚数が多い場合に膨大な処理時間がかかるという従来の問題を解決できる。   In the above method, once the approximate shape is obtained, the area where the subject exists in the image taken from an arbitrary direction can be narrowed down, so that it is not necessary to perform processing for background removal on the entire screen. The background removal processing time per image can be shortened. Therefore, it is possible to solve the conventional problem that enormous processing time is required when the number of images for background removal is large.

(処理の詳細)
次に、図3を参照してステップ1(概略計算ステップ)の処理をより詳細に説明する。ここではカメラを2台用い、被写体Oの正面のカメラをC1、真上のカメラをC2とする。また、被写体OとカメラC1との距離をd1、被写体OとカメラC2との距離をd2とし、カメラC1により撮影した画像をPo1、カメラC2で撮影した画像をPo2とする。なお、1台のカメラを用い、被写体の向き等を変えることにより画像Po1、Po2を取得してもよい。
(Details of processing)
Next, the process of step 1 (rough calculation step) will be described in more detail with reference to FIG. Here, two cameras are used, the camera in front of the subject O is C1, and the camera directly above is C2. Further, the distance between the subject O and the camera C1 is d1, the distance between the subject O and the camera C2 is d2, an image photographed by the camera C1 is Po1, and an image photographed by the camera C2 is Po2. Note that the images Po1 and Po2 may be acquired by using one camera and changing the orientation of the subject.

そして、これらの画像から被写体以外の部分を除去した背景除去画像Ps1、Ps2を求める(ステップ11)。ここでの背景除去の方法としては、例えば、クロマキー手法、背景を変えて撮影した複数枚の画像から背景を除去する手法(特許文献1等)、被写体の境界を色彩等の情報で求める手法(特許文献2、3等)等を用いることができる。なお、背景を変えて撮影した複数枚の画像を用いる場合には、背景除去画像Ps1、Ps2のそれぞれについて、背景を変えて撮影した複数枚の画像を用いる。   Then, background-removed images Ps1 and Ps2 are obtained by removing portions other than the subject from these images (step 11). Examples of the background removal method include a chroma key method, a method of removing a background from a plurality of images taken by changing the background (Patent Document 1, etc.), and a method of obtaining a subject boundary using information such as color ( Patent Documents 2, 3, etc.) can be used. In addition, when using the several image image | photographed by changing a background, the several image image | photographed by changing a background is used about each of background removal image Ps1 and Ps2.

次に、背景除去画像Ps1、Ps2のそれぞれから、撮影した画像の被写体部分を囲む最小の長方形の領域S1、S2を求める最小領域計算処理を行う(ステップ12)。例えば、長方形の上辺を求める場合は、画像の一番上の1ライン上に被写体があるかどうか調べ、無ければラインを1ピクセル下げて被写体の有無を調べ、被写体が見つかるまでラインを下げる。同様の処理を、右辺、左辺、下辺で行うことで、被写体を囲む最小の領域を求めることができる。矩形領域S1の4頂点をV11〜14とし、矩形領域S2の4頂点をV21〜24とする。   Next, a minimum area calculation process for obtaining the minimum rectangular areas S1 and S2 surrounding the subject portion of the photographed image from each of the background removed images Ps1 and Ps2 is performed (step 12). For example, when obtaining the upper side of the rectangle, it is checked whether there is a subject on one line at the top of the image. If there is no subject, the line is lowered by one pixel to check for the presence of the subject, and the line is lowered until a subject is found. By performing the same processing on the right side, the left side, and the lower side, the minimum area surrounding the subject can be obtained. The four vertices of the rectangular area S1 are V11 to 14, and the four vertices of the rectangular area S2 are V21 to 24.

続いて、座標変換処理を行う(ステップ13)。まず、上記背景除去画像Ps1、Ps2の矩形領域S1、S2から、矩形領域S1、S2それぞれの4頂点V11〜14、V21〜24のピクセル座標(画面上の座標)を求める。V11〜14のピクセル座標をVp11=(xp11, yp11), Vp12=(xp12, yp11), Vp13=(xp12, yp12), Vp14=(xp11, yp12)とし、V21〜24のピクセル座標をVp21=(xp21, yp21), Vp22=(xp22, yp21), Vp23=(xp22, yp22), Vp24=(xp21, yp22)とする。   Subsequently, coordinate conversion processing is performed (step 13). First, the pixel coordinates (coordinates on the screen) of the four vertices V11 to V21 and V21 to 24 of the rectangular areas S1 and S2 are obtained from the rectangular areas S1 and S2 of the background removed images Ps1 and Ps2. The pixel coordinates of V11-14 are Vp11 = (xp11, yp11), Vp12 = (xp12, yp11), Vp13 = (xp12, yp12), Vp14 = (xp11, yp12), and the pixel coordinates of V21-24 are Vp21 = ( xp21, yp21), Vp22 = (xp22, yp21), Vp23 = (xp22, yp22), Vp24 = (xp21, yp22).

次に、矩形領域S1の4頂点V11〜14をカメラC1のカメラ座標系の座標値に変換する。このとき、矩形領域S1の4頂点V11〜14は、カメラC1から距離d1離れた位置(被写体が存在する位置)のスクリーンに投影したものとする(図3の概略形状Sにおける矩形Vo11〜14を参照)。   Next, the four vertices V11 to V14 of the rectangular area S1 are converted into coordinate values in the camera coordinate system of the camera C1. At this time, it is assumed that the four vertices V11 to V14 of the rectangular area S1 are projected on the screen at a position d1 away from the camera C1 (position where the subject exists) (rectangles Vo11 to 14 in the schematic shape S in FIG. 3). reference).

頂点V11〜14のカメラ座標系の座標値は、Vc11=(xc11, yc11, -d1), Vc12=(xc12, yc11, -d1), Vc13=(xc12, yc12, -d1), Vc14=(xc11, yc12, -d1)で表される。   The coordinate values in the camera coordinate system for vertices V11 to V14 are Vc11 = (xc11, yc11, -d1), Vc12 = (xc12, yc11, -d1), Vc13 = (xc12, yc12, -d1), Vc14 = (xc11 , yc12, -d1).

更に、被写体Oの中心を原点とし、オブジェクトからカメラC1への方向をZ軸、カメラC1のX軸をX軸、カメラC1のY軸をY軸とするオブジェクト座標系に変換すると、変換後の4頂点V11〜14の座標は、Vo11=(xc11, yc11, 0), Vo12=(xc12, yc11, 0), Vo13=(xc12, yc12, 0), Vo14=(xc11, yc12, 0)となる。   Further, when the object O is converted into an object coordinate system in which the center of the subject O is the origin, the direction from the object to the camera C1 is the Z axis, the X axis of the camera C1 is the X axis, and the Y axis of the camera C1 is the Y axis, The coordinates of the four vertices V11 to 14 are Vo11 = (xc11, yc11, 0), Vo12 = (xc12, yc11, 0), Vo13 = (xc12, yc12, 0), Vo14 = (xc11, yc12, 0) .

矩形領域S1と同様に、矩形領域S2の4頂点V21〜24をカメラC2のカメラ座標系の座標値に変換すると、Vc21=(xc21, yc21, -d2), Vc22=(xc22, yc21, -d2), Vc23=(xc22, yc22, -d2), Vc24=(xc21, yc22, -d2)で表される。また、これらの座標を上記のオブジェクト座標系に変換すると、Vo21=(xc21, 0, -yc21), Vo22=(xc22, 0, -yc21), Vo23=(xc22, 0, -yc22), Vo24=(xc21, 0, -yc22)となる。これより、図3に示す概略形状Sのオブジェクト座標系の8頂点の座標Vs1〜Vs8として、Vs1=(xc11, yc11, -yc21), Vs2=(xc12, yc11, -yc21), Vs3=(xc12, yc12, -yc21), Vs4=(xc11, yc12, -yc21), Vs5=(xc11, yc11, -yc22), Vs6=(xc12, yc11, -yc22), Vs7=(xc12, yc12, -yc22), Vs8=(xc11, yc12, -yc22)を求める。   Similarly to the rectangular area S1, when the four vertices V21 to 24 of the rectangular area S2 are converted into the coordinate values of the camera coordinate system of the camera C2, Vc21 = (xc21, yc21, -d2), Vc22 = (xc22, yc21, -d2 ), Vc23 = (xc22, yc22, -d2), Vc24 = (xc21, yc22, -d2). When these coordinates are converted to the above object coordinate system, Vo21 = (xc21, 0, -yc21), Vo22 = (xc22, 0, -yc21), Vo23 = (xc22, 0, -yc22), Vo24 = (xc21, 0, -yc22). Thus, as the coordinates Vs1 to Vs8 of the eight vertices of the object coordinate system of the general shape S shown in FIG. 3, Vs1 = (xc11, yc11, -yc21), Vs2 = (xc12, yc11, -yc21), Vs3 = (xc12 , yc12, -yc21), Vs4 = (xc11, yc12, -yc21), Vs5 = (xc11, yc11, -yc22), Vs6 = (xc12, yc11, -yc22), Vs7 = (xc12, yc12, -yc22) , Vs8 = (xc11, yc12, -yc22).

なお、被写体Oの撮影画像Po1、Po2を操作者に提示して、矩形領域S1、S2の4辺をグラフィカルユーザインタフェースにより手動で指定することにより矩形領域S1、S2を決定して、概略形状Sを求めてもよい。この場合、画像処理装置10は、被写体Oの撮影画像Po1、Po2を操作者に提示する手段と、操作者からの入力を受けるグラフィカルユーザインタフェース、操作者により指定された矩形領域S1、S2の頂点から概略形状Sを計算する手段を有する。   The photographed images Po1 and Po2 of the subject O are presented to the operator, and the rectangular areas S1 and S2 are determined by manually specifying the four sides of the rectangular areas S1 and S2 through the graphical user interface, and the approximate shape S You may ask for. In this case, the image processing apparatus 10 includes means for presenting the captured images Po1 and Po2 of the subject O to the operator, a graphical user interface that receives input from the operator, and the vertices of the rectangular areas S1 and S2 specified by the operator. Means for calculating the approximate shape S from

また、概略形状Sを求めるための2枚の画像の撮影方向は、正面と真上からの撮影方向の組み合わせだけでなく、正面と右側等、他の直交する2つの撮影方向から撮影した画像で概略形状Sを求めてもよい。   In addition, the shooting direction of the two images for obtaining the approximate shape S is not only a combination of the shooting direction from the front and directly above, but also an image shot from two other orthogonal shooting directions such as the front and right. The approximate shape S may be obtained.

更に、2枚だけでなく更に他の方向から撮影した画像を用いることにより、より正確な概略形状Sを求めることができ、計算領域をより少なくすることができる。また、3枚以上の撮影画像を用いて概略形状Sを求める場合は、必ずしも撮影方向が互いに直交している必要はない。   Further, by using images taken from other directions as well as two, a more accurate schematic shape S can be obtained, and the calculation area can be reduced. Further, when the approximate shape S is obtained using three or more photographed images, the photographing directions are not necessarily orthogonal to each other.

次に、図4を参照して図2のステップ2(処理領域計算ステップ)の処理について説明する。   Next, with reference to FIG. 4, the process of step 2 (processing area calculation step) of FIG. 2 will be described.

まず、概略形状Sを画像Pnに投影する(ステップ21)。すなわち、図3に示すような被写体Oを囲む位置にある概略形状Sを、画像Pnを撮影したときと同じ方向から撮影した場合に得られる概略形状Sの画像と画像Pnとが重ね合わされた画像を得る。続いて、概略形状の部分(外側の枠で囲まれた部分)を処理領域Aとして抽出する(ステップ22)。   First, the general shape S is projected onto the image Pn (step 21). That is, an image in which the image of the approximate shape S and the image Pn obtained when the approximate shape S at the position surrounding the subject O as shown in FIG. 3 is taken from the same direction as when the image Pn is taken is superimposed. Get. Subsequently, a roughly shaped portion (a portion surrounded by an outer frame) is extracted as the processing region A (step 22).

図2のステップ3(背景除去処理ステップ)では、クロマキー手法や、背景を変えて撮影した複数枚の画像から背景を除去する手法等により背景除去処理を行う。例えば特許文献1に記載された背景除去手法を用いる場合、概略形状Sを求めた後に、複数枚の画像のそれぞれについて処理領域を求め、その処理領域内で透明度画像等を求める処理を行う。本実施の形態の手法を用いることにより、画像全体でなく処理領域内でのみ透明度画像等を求める処理を行えばよいので、処理すべき画素数が大幅に削減され、処理速度が向上する。   In step 3 (background removal processing step) in FIG. 2, the background removal processing is performed by a chroma key method, a method of removing the background from a plurality of images taken by changing the background, or the like. For example, when the background removal method described in Patent Document 1 is used, after obtaining the approximate shape S, a processing area is obtained for each of a plurality of images, and processing for obtaining a transparency image or the like is performed within the processing area. By using the method of the present embodiment, it is only necessary to perform processing for obtaining a transparency image or the like only in the processing region, not in the entire image, so that the number of pixels to be processed is greatly reduced and the processing speed is improved.

本実施の形態で説明した手法を用いることにより、被写体をあらゆる方向から撮影して仮想空間上に表示する3次元CGデータを作成する場合のように被写体の撮影枚数が多くても短時間で背景除去を行うことができる。   By using the method described in the present embodiment, the background can be quickly acquired even when the number of captured subjects is large as in the case of creating 3D CG data for capturing a subject from any direction and displaying it in a virtual space. Removal can be performed.

本発明の実施の形態におけるシステム構成図である。It is a system configuration figure in an embodiment of the invention. 本発明の実施の形態における画像処理装置の処理動作の概要を示すフローチャートである。3 is a flowchart illustrating an outline of processing operation of the image processing apparatus according to the embodiment of the present invention. 概略計算ステップの処理を説明するための図である。It is a figure for demonstrating the process of a rough calculation step. 処理領域計算ステップの処理を説明するための図である。It is a figure for demonstrating the process of a process area | region calculation step.

符号の説明Explanation of symbols

C カメラ
O 被写体
10 画像処理装置
11 概略計算手段
12 処理領域計算手段
13 背景除去処理手段
14 格納手段
C Camera O Subject 10 Image processing apparatus 11 Approximate calculation means 12 Processing area calculation means 13 Background removal processing means 14 Storage means

Claims (10)

被写体Oを撮影した画像から被写体O以外の領域を除去する処理を行う画像処理装置が実行する画像処理方法であって、
被写体Oを直交する2方向から撮影した2枚の撮影画像である第1の撮影画像Po1と第2の撮影画像Po2とを入力する初期画像入力ステップと、
第1の撮影画像Po1と第2の撮影画像Po2とから、被写体Oに外接する概略形状Sを求める概略計算ステップと、
第1の撮影画像Po1及び第2の撮影画像Po2とは別の方向から被写体Oを撮影した第3の撮影画像Pnを入力する画像入力ステップと、
第3の撮影画像Pnと概略形状Sとから、第3の撮影画像Pn上で被写体Oが含まれる領域である処理領域Aを求める処理領域計算ステップと、
第3の撮影画像Pnにおける処理領域Aから、被写体O以外の領域を除去する背景除去ステップと
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that performs processing for removing a region other than the subject O from an image obtained by photographing the subject O,
An initial image input step of inputting a first photographed image Po1 and a second photographed image Po2 which are two photographed images photographed from two directions orthogonal to the subject O;
A rough calculation step for obtaining a rough shape S circumscribing the subject O from the first picked-up image Po1 and the second picked-up image Po2;
An image input step of inputting a third photographed image Pn obtained by photographing the subject O from a different direction from the first photographed image Po1 and the second photographed image Po2.
A processing area calculation step for obtaining a processing area A that is an area including the subject O on the third captured image Pn from the third captured image Pn and the schematic shape S;
A background removal step of removing a region other than the subject O from the processing region A in the third photographed image Pn.
前記概略計算ステップは、
第1の撮影画像Po1及び第2の撮影画像Po2から被写体O以外の部分をそれぞれ除去した画像である第1の背景除去画像Ps1と第2の背景除去画像Ps2を求める初期背景除去ステップと、
第1の背景除去画像Ps1及び第2の背景除去画像Ps2において、被写体Oに外接する第1の矩形領域S1と第2の矩形領域S2を求める領域計算ステップと、
前記領域計算ステップで求めた第1の矩形領域S1と第2の矩形領域S2とから概略形状Sを求める概略形状生成ステップと
を有する請求項1に記載の画像処理方法。
The rough calculation step includes:
An initial background removal step for obtaining a first background removal image Ps1 and a second background removal image Ps2 that are images obtained by removing portions other than the subject O from the first photographed image Po1 and the second photographed image Po2, respectively;
An area calculation step for obtaining a first rectangular area S1 and a second rectangular area S2 circumscribing the subject O in the first background removed image Ps1 and the second background removed image Ps2,
The image processing method according to claim 1, further comprising: a rough shape generation step of obtaining a rough shape S from the first rectangular region S1 and the second rectangular region S2 obtained in the region calculation step.
前記概略計算ステップに替えて、
第1の撮影画像Po1と第2の撮影画像Po2を表示し、ユーザにより指定されたそれらの画像上の被写体領域を入力し、入力された被写体領域から前記概略形状Sを求める概略計算ステップを有する請求項1に記載の画像処理方法。
Instead of the rough calculation step,
A first calculation image Po1 and a second shooting image Po2 are displayed, subject areas on those images designated by the user are input, and an approximate calculation step for obtaining the approximate shape S from the input subject area is included. The image processing method according to claim 1.
前記初期画像入力ステップに替えて、それぞれ異なる方向から被写体Oを撮影した3枚以上の撮影画像を入力するステップを有し、前記概略計算ステップにおいて、当該3枚以上の撮影画像に基づき概略形状Sを求める請求項1ないし3のうちいずれか1項に記載の画像処理方法。   In place of the initial image input step, there is a step of inputting three or more photographed images obtained by photographing the subject O from different directions, and in the approximate calculation step, an approximate shape S based on the three or more photographed images. The image processing method according to any one of claims 1 to 3, wherein: 被写体Oを撮影した画像から被写体O以外の領域を除去する処理を行う画像処理装置であって、
被写体Oを直交する2方向から撮影した2枚の撮影画像である第1の撮影画像Po1と第2の撮影画像Po2とを入力する初期画像入力手段と、
第1の撮影画像Po1と第2の撮影画像Po2とから、被写体Oに外接する概略形状Sを求める概略計算手段と、
第1の撮影画像Po1及び第2の撮影画像Po2とは別の方向から被写体Oを撮影した第3の撮影画像Pnを入力する画像入力手段と、
第3の撮影画像Pnと概略形状Sとから、第3の撮影画像Pn上で被写体Oが含まれる領域である処理領域Aを求める処理領域計算手段と、
第3の撮影画像Pnにおける処理領域Aから、被写体O以外の領域を除去する背景除去手段と
を有することを特徴とする画像処理装置。
An image processing apparatus that performs processing for removing a region other than the subject O from an image obtained by photographing the subject O,
Initial image input means for inputting a first photographed image Po1 and a second photographed image Po2 which are two photographed images photographed from two directions orthogonal to the subject O;
Rough calculation means for obtaining a rough shape S circumscribing the subject O from the first shot image Po1 and the second shot image Po2,
Image input means for inputting a third photographed image Pn obtained by photographing the subject O from a different direction from the first photographed image Po1 and the second photographed image Po2.
Processing area calculation means for obtaining a processing area A that is an area including the subject O on the third captured image Pn from the third captured image Pn and the schematic shape S;
An image processing apparatus comprising: a background removing unit that removes an area other than the subject O from the processing area A in the third photographed image Pn.
前記概略計算手段は、
第1の撮影画像Po1及び第2の撮影画像Po2から被写体O以外の部分をそれぞれ除去した画像である第1の背景除去画像Ps1と第2の背景除去画像Ps2を求める初期背景除去手段と、
第1の背景除去画像Ps1及び第2の背景除去画像Ps2において、被写体Oに外接する第1の矩形領域S1と第2の矩形領域S2を求める領域計算手段と、
前記領域計算ステップで求めた第1の矩形領域S1と第2の矩形領域S2とから概略形状Sを求める概略形状生成手段と
を有する請求項5に記載の画像処理装置。
The rough calculation means includes
Initial background removal means for obtaining a first background removal image Ps1 and a second background removal image Ps2, which are images obtained by removing portions other than the subject O from the first photographed image Po1 and the second photographed image Po2, respectively;
Area calculation means for obtaining the first rectangular area S1 and the second rectangular area S2 circumscribing the subject O in the first background removed image Ps1 and the second background removed image Ps2,
The image processing apparatus according to claim 5, further comprising: a rough shape generation unit that calculates a rough shape S from the first rectangular region S1 and the second rectangular region S2 obtained in the region calculation step.
前記概略計算手段に替えて、
第1の撮影画像Po1と第2の撮影画像Po2を表示し、ユーザにより指定されたそれらの画像上の被写体領域を入力し、入力された被写体領域から前記概略形状Sを求める概略計算手段を有する請求項5に記載の画像処理装置。
Instead of the rough calculation means,
The first photographed image Po1 and the second photographed image Po2 are displayed, subject areas on those images designated by the user are input, and approximate calculation means for obtaining the approximate shape S from the input subject areas is provided. The image processing apparatus according to claim 5.
前記初期画像入力手段に替えて、それぞれ異なる方向から被写体Oを撮影した3枚以上の撮影画像を入力する手段を有し、前記概略計算手段において、当該3枚以上の撮影画像に基づき概略形状Sを求める請求項5ないし7のうちいずれか1項に記載の画像処理装置。   In place of the initial image input means, there is provided means for inputting three or more photographed images obtained by photographing the subject O from different directions, and in the approximate calculation means, an approximate shape S based on the three or more photographed images. The image processing device according to claim 5, wherein the image processing device is calculated. 被写体Oを撮影した画像から被写体O以外の領域を除去する処理を行う画像処理装置の機能をコンピュータに実現させるためのプログラムであって、コンピュータを、
被写体Oを直交する2方向から撮影した2枚の撮影画像である第1の撮影画像Po1と第2の撮影画像Po2とを入力する初期画像入力手段、
第1の撮影画像Po1と第2の撮影画像Po2とから、被写体Oに外接する概略形状Sを求める概略計算手段、
第1の撮影画像Po1及び第2の撮影画像Po2とは別の方向から被写体Oを撮影した第3の撮影画像Pnを入力する画像入力手段、
第3の撮影画像Pnと概略形状Sとから、第3の撮影画像Pn上で被写体Oが含まれる領域である処理領域Aを求める処理領域計算手段、
第3の撮影画像Pnにおける処理領域Aから、被写体O以外の領域を除去する背景除去手段、
として機能させるプログラム。
A program for causing a computer to realize the function of an image processing apparatus that performs processing for removing a region other than the subject O from an image obtained by photographing the subject O.
An initial image input means for inputting a first photographed image Po1 and a second photographed image Po2 which are two photographed images photographed from two directions orthogonal to the subject O;
Rough calculation means for obtaining a rough shape S circumscribing the subject O from the first picked-up image Po1 and the second picked-up image Po2;
Image input means for inputting a third photographed image Pn obtained by photographing the subject O from a different direction from the first photographed image Po1 and the second photographed image Po2.
A processing region calculation means for obtaining a processing region A that is a region including the subject O on the third captured image Pn from the third captured image Pn and the schematic shape S;
Background removal means for removing a region other than the subject O from the processing region A in the third photographed image Pn;
Program to function as.
請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 is recorded.
JP2005158056A 2005-05-30 2005-05-30 Image processing method, image processing apparatus, program, and recording medium Active JP4148240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005158056A JP4148240B2 (en) 2005-05-30 2005-05-30 Image processing method, image processing apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005158056A JP4148240B2 (en) 2005-05-30 2005-05-30 Image processing method, image processing apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2006331349A JP2006331349A (en) 2006-12-07
JP4148240B2 true JP4148240B2 (en) 2008-09-10

Family

ID=37552948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005158056A Active JP4148240B2 (en) 2005-05-30 2005-05-30 Image processing method, image processing apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4148240B2 (en)

Also Published As

Publication number Publication date
JP2006331349A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
US9940756B2 (en) Silhouette-based object and texture alignment, systems and methods
EP2430588B1 (en) Object recognition method, object recognition apparatus, and autonomous mobile robot
JP6921686B2 (en) Generator, generation method, and program
WO2022105415A1 (en) Method, apparatus and system for acquiring key frame image, and three-dimensional reconstruction method
CN108629843A (en) A kind of method and apparatus for realizing augmented reality
CN112651881B (en) Image synthesizing method, apparatus, device, storage medium, and program product
WO2023093739A1 (en) Multi-view three-dimensional reconstruction method
CN102713975B (en) Image clearing system, image method for sorting and computer program
CN115439607A (en) Three-dimensional reconstruction method and device, electronic equipment and storage medium
US20230401855A1 (en) Method, system and computer readable media for object detection coverage estimation
JP2023172882A (en) Three-dimensional representation method and representation apparatus
CN103632131B (en) Apparatus and method for extracting object
JP6736422B2 (en) Image processing apparatus, image processing method and program
WO2020151078A1 (en) Three-dimensional reconstruction method and apparatus
CN113379899B (en) Automatic extraction method for building engineering working face area image
JP4148240B2 (en) Image processing method, image processing apparatus, program, and recording medium
KR20120118462A (en) Concave surface modeling in image-based visual hull
WO2022142311A1 (en) Method for segmenting target object in image, three-dimensional reconstruction method, and related apparatus
CN113610864A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN116645299B (en) Method and device for enhancing depth fake video data and computer equipment
JP4380376B2 (en) Image processing apparatus, image processing method, and image processing program
WO2021176877A1 (en) Image processing device, image processing method, and image processing program
CN112346564B (en) Method for grabbing and releasing virtual object by hand
CN117095013A (en) Method, device, equipment and storage medium for processing eidolon rarefaction
JP2024041435A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4148240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350