JP2010020581A - Image synthesizing system eliminating unnecessary objects - Google Patents

Image synthesizing system eliminating unnecessary objects Download PDF

Info

Publication number
JP2010020581A
JP2010020581A JP2008181018A JP2008181018A JP2010020581A JP 2010020581 A JP2010020581 A JP 2010020581A JP 2008181018 A JP2008181018 A JP 2008181018A JP 2008181018 A JP2008181018 A JP 2008181018A JP 2010020581 A JP2010020581 A JP 2010020581A
Authority
JP
Japan
Prior art keywords
image
subject
hidden part
hidden
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008181018A
Other languages
Japanese (ja)
Inventor
Kazuo Ozeki
和夫 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Institute of Technology
Original Assignee
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Institute of Technology filed Critical Shibaura Institute of Technology
Priority to JP2008181018A priority Critical patent/JP2010020581A/en
Publication of JP2010020581A publication Critical patent/JP2010020581A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a synthesizing system which, in photographing using a camera and the like, when shooting a subject, acquires images where images taken so as to include the subject and unnecessary objects obstructing the subject, and a portion of the image obstructing the subject, which is separately taken, acquires a part of the subject to be obstructed by the unnecessary object from the portion obstructing the subject, having been separately taken, and pastes it to change the portion. <P>SOLUTION: The system acquires images with reference to a plurality of shooting positions, acquires the position of an object, identifies a hidden part, acquires the hidden part from another image, synthesizes the images, and thereby complements a lacking area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

あらかじめ取得された被写体を含む対象物が撮影されている画像において、被写体を識別しそれを遮る不要物を除去するための技術に関する。   The present invention relates to a technique for identifying an object and removing unnecessary objects that obstruct the object in an image of an object including an object acquired in advance.

カメラ等を用いた写真撮影等において被写体を撮影する場合、画像中に被写体を遮る不要物が、写りこんでいることがよくある。例えば、マンション販売広告に記載されているマンション自体の写真などである。マンション自体の写真を撮るためには、その大きさからある程度遠距離から撮影する必要があり、遠距離から撮影すると被写体であるマンションを遮る不要物が写りこんでしまうことが多い。そこで、被写体を遮る不要物を画像から除去する非特許文献1に記載のような技術が提供されている。具体的には、固有空間法とBPLPを用いた画像補間法により、不要物などで一部が欠損した画像1枚のみを用いて欠損していない周囲の情報より欠損を補う技術である。
天野敏之「固有空間法を用いたBPLP による画像補間」電子情報通信学会論文誌D-II,Vol.J85-D-II,No.3,pp.457-465,2002
When photographing a subject in photography using a camera or the like, unnecessary objects that block the subject are often reflected in the image. For example, it is a photograph of the apartment itself described in the apartment sale advertisement. In order to take a picture of the apartment itself, it is necessary to shoot from a certain distance from the size, and if it is taken from a long distance, unnecessary objects that block the apartment that is the subject often appear. Therefore, a technique such as that described in Non-Patent Document 1 is provided that removes unnecessary objects that block the subject from the image. Specifically, it is a technique that compensates for deficiency from surrounding information that is not missing by using only one image partially missing due to an unnecessary object or the like by an eigenspace method and an image interpolation method using BPLP.
Toshiyuki Amano "Image interpolation by BPLP using eigenspace method" IEICE Transactions D-II, Vol.J85-D-II, No.3, pp.457-465,2002

しかしながら、非特許文献1に記載の技術は、1枚の画像から補完対象となる欠損領域を補完するためには、欠損領域とそうでない領域が類似する画像でなければならないという課題がある。つまり、例えば特徴的な形状をもつ建物を遮る不要物が撮影されているような、欠損領域とそうでない領域が類似しない画像や、建物を遮る不要物の割合が大きいなど欠損領域の面積が大きい画像などにおいては、不要物を除去することは困難であるということである。   However, the technique described in Non-Patent Document 1 has a problem that, in order to complement a missing area to be complemented from a single image, the missing area and the other area must be similar images. In other words, the area of the missing area is large, for example, an image where an unnecessary object that obstructs a building with a characteristic shape is captured, an image where the missing area is not similar to an area that is not, or a large proportion of unwanted objects that obstruct the building In an image or the like, it is difficult to remove unnecessary materials.

そこで、本発明はかかる課題を解決するために1枚の基準画像から基準画像の欠損領域を他複数の補完画像から取得し、基準画像の欠損領域を補う技術を提供する。具体的には、以下のような画像合成システムである。   Accordingly, the present invention provides a technique for acquiring a missing region of a reference image from a plurality of other complementary images from one reference image and solving the missing region of the reference image in order to solve such a problem. Specifically, the following image composition system is used.

第1発明では、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得部と、前記複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定部と、隠れ部分を他の画像から取得する隠れ部分取得部とを有する画像合成システムを提供する。   In the first invention, an image acquisition unit that acquires an image including a subject that can be identified by a relative position from a photographing position and an unnecessary object that can be identified by a relative position from the photographing position, for each of the plurality of photographing positions; Using the relative position information obtained from the position of the object in each image and the information indicating the positional relationship between the object and the shooting position for each image, the object is identified as a subject and an unnecessary object. In addition, the image composition includes a hidden part identifying unit that identifies a hidden part of a subject in which an unnecessary object other than the subject overlaps the subject in one image, and a hidden part obtaining unit that obtains the hidden part from another image Provide a system.

第2発明では、第1発明を基本として、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正部と、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換部と、を有する画像合成システムを提供する。   In the second invention, based on the first invention, a correction unit that corrects the acquired hidden part into a hidden part region shape in one image using relative position information, and a hidden part of one image using the correction result. An image composition system is provided that includes a pasting unit for pasting a part to an image of a subject.

第3発明では、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得ステップと、複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定ステップと、隠れ部分を他の画像から取得する隠れ部分取得ステップと、を有する画像合成システムの動作方法を提供する。   In the third invention, an image acquisition step of acquiring an image including a subject identifiable by a relative position from a photographing position and an unnecessary object identifiable by a relative position from the photographing position for each of a plurality of photographing positions; Using the relative position information obtained from the position of the object in each image and the information indicating the positional relationship between the object and the shooting position for each image, the object is identified as a subject and an unnecessary object. And a hidden part identifying step for identifying a hidden part of a subject in which an unnecessary object other than the subject overlaps the subject in one image, and a hidden part acquiring step for obtaining the hidden part from another image. Provide a method of operating the system.

第4発明では、第3発明を基本として、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正ステップと、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換ステップと、を有する画像合成システムの動作方法を提供する。   In the fourth invention, based on the third invention, a correction step of correcting the acquired hidden part into a hidden part region shape in one image using relative position information, and the hidden result of one image using the correction result An image synthesizing system operating method comprising: a step of replacing a portion with an image of a subject.

以上のような発明によって、被写体とそれを遮るように不要物が撮影されている画像と被写体を遮る部分を別に撮影した画像を取得し、被写体が不要物によって遮られている部分を被写体を遮る部分を別に撮影した画像から取得し、それを貼換えることが可能となる。   According to the invention as described above, an image in which an object and an unnecessary object are captured so as to block the subject and an image obtained by separately capturing the portion that blocks the object are acquired, and the portion where the subject is blocked by the unnecessary object is blocked. It is possible to acquire a part from an image taken separately and paste it.

以下に、図を用いて本発明の実施の形態を説明する。なお、本発明はこれらの実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to these embodiments, and can be carried out in various modes without departing from the scope of the invention.

なお、実施例1は主に請求項1、3を、実施例2は主に請求項2、4について説明する。   The first embodiment will mainly describe claims 1 and 3, and the second embodiment will mainly describe claims 2 and 4.

≪実施例1≫   Example 1

<概要>     <Overview>

図1は、本実施例の画像合成システムの機能を説明する図である。図1は、画像A(0101)及び画像B(0102)とそれぞれの撮影ポジション(0106、0107)から対象物(0103、0104、0105)までの位置関係を示している。画像A(0101)は画像Aの撮影ポジション(以降撮影ポジションAとする)から対象物(0103、0104、0105)を撮影した画像であり、対象物C(0105)と撮影ポジションの間に対象物C(0105)を遮るように対象物A(0103)及び対象物B(0104)が写りこんでいる。画像Bは画像Bの撮影ポジション(以降撮影ポジションBとする)から対象物(0103、0104、0105)を撮影した画像であり、対象物C(0105)と撮影ポジションBとの間に対象物A(0103)及び対象物B(0104)が対象物C(0105)を画像A(0103)とは異なる形で遮るように写っている。ここで、画像A(0101)及びB(0102)に撮影されている対象物A、B、Cは(0103、0104、0105)はお互いに対応しているものとする。また、画像A(0101)において対象物A、B(0103、0104)が対象物C(0105)を遮る部分は、画像B(0102)に撮影されているものとする   FIG. 1 is a diagram for explaining functions of the image composition system of the present embodiment. FIG. 1 shows the positional relationship between the image A (0101) and the image B (0102) and the respective photographing positions (0106, 0107) to the object (0103, 0104, 0105). The image A (0101) is an image obtained by shooting the object (0103, 0104, 0105) from the shooting position of the image A (hereinafter referred to as shooting position A), and the object is located between the object C (0105) and the shooting position. Object A (0103) and object B (0104) are reflected so as to block C (0105). The image B is an image obtained by shooting the object (0103, 0104, 0105) from the shooting position of the image B (hereinafter referred to as shooting position B), and the object A is located between the object C (0105) and the shooting position B. (0103) and the object B (0104) are shown so as to block the object C (0105) differently from the image A (0103). Here, it is assumed that the objects A, B, and C photographed in the images A (0101) and B (0102) correspond to each other (0103, 0104, and 0105). In addition, a portion of the image A (0101) where the objects A and B (0103, 0104) block the object C (0105) is captured in the image B (0102).

本実施例はまず、画像A(0101)及びB(0102)において、それぞれの画像に撮影されている対象物A、B、C(0103、0104、0105)の位置関係から各撮影ポジション(0106、0107)からの相対的位置の割り出しを行う。   In this embodiment, first, in the images A (0101) and B (0102), the respective shooting positions (0106, 0104, 0105, and 0105) are determined based on the positional relationship of the objects A, B, C (0103, 0104, 0105) captured in the respective images. The relative position is determined from 0107).

相対的位置の割り出しを行うと次に、基準画像(例えば画像A(0101)とする)において対象物A、B、C(0103、0104、0105)から被写体を識別する(例えば対象物C(0105)とする)。被写体を識別すると、被写体の前景にある不要物を特定する(対象物A、B(0103、0104)が特定される)。不要物を特定すると補完画像(ここでは画像B(0102))から、基準画像(画像A(0101))において、不要物によって被写体と重なっている部分を特定し取得することを特徴としている。   Once the relative position is determined, the subject is identified from the objects A, B, C (0103, 0104, 0105) in the reference image (for example, image A (0101)) (for example, the object C (0105)). )). When the subject is identified, an unnecessary object in the foreground of the subject is specified (objects A and B (0103, 0104) are specified). When an unnecessary object is specified, a part of the reference image (image A (0101)) that overlaps the subject due to the unnecessary object is specified and acquired from a complementary image (here, image B (0102)).

<機能的構成>     <Functional configuration>

以下に記載する画像合成システムの機能ブロックは、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方として実現され得る。具体的には、コンピュータを利用するものであれば、CPUや主メモリ、バスあるいは二次記憶装置(ハードディスクや不揮発性メモリ)、それらのハードウェアを制御するためのドライバプログラムやその他アプリケーションプログラムなどがあげられる。   The functional blocks of the image composition system described below can be realized as hardware, software, or both hardware and software. Specifically, if a computer is used, a CPU, a main memory, a bus or a secondary storage device (hard disk or nonvolatile memory), a driver program for controlling those hardware, and other application programs are included. can give.

またこれらのハードウェアやソフトウェアは、主メモリ上に展開したプログラムをCPUで演算処理したり、メモリやハードディスク上に保持されているデータや、インターフェースを介して入力されたデータなどを加工、蓄積、出力処理したり、あるいは各ハードウェア構成部の制御を行ったりするために利用される。また、この発明は装置として実現できるのみでなく、方法としても実現可能である。また、このような発明の一部をソフトウェアとして構成することができる。さらに、そのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品、及び同製品を固定した記録媒体も、当然この発明の技術的な範囲に含まれる。(本明細書の全体を通じて同様である)   In addition, these hardware and software process the program developed on the main memory with the CPU, process and store data stored on the memory and hard disk, data input via the interface, etc. This is used for output processing or for controlling each hardware component. The present invention can be realized not only as an apparatus but also as a method. A part of the invention can be configured as software. Furthermore, a software product used for causing a computer to execute such software and a recording medium on which the product is fixed are naturally included in the technical scope of the present invention. (Same throughout this specification)

以下、本実施例の「画像合成システム」の構成要件について、図2などを用いて説明する。   The configuration requirements of the “image composition system” of this embodiment will be described below with reference to FIG.

本実施例の「画像合成システム」は少なくとも「画像取得部」(0201)と、「隠れ部分特定部」(0202)と「隠れ部分取得部」(0203)とを有している。   The “image composition system” of this embodiment includes at least an “image acquisition unit” (0201), a “hidden part specifying unit” (0202), and a “hidden part acquisition unit” (0203).

「画像取得部」(0201)は、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する機能を有している。具体的にはまず、処理対象である被写体が不要物によって遮られて撮影されている基準画像と、少なくとも基準画像において被写体が遮られている部分が撮影されている補完画像を取得する。ここで、取得される補完画像は一つでもよいし、複数枚数の画像であってもよい。   The “image acquisition unit” (0201) has a function of acquiring, for each of a plurality of shooting positions, an image including a subject that can be identified by a relative position from the shooting position and an unnecessary object that can be identified by a relative position from the shooting position. Have. Specifically, first, a reference image in which a subject to be processed is captured by being blocked by an unnecessary object and a complementary image in which at least a portion of the reference image where the subject is blocked are captured are acquired. Here, the number of acquired complementary images may be one or a plurality of images.

次に画像を取得すると、それぞれの画像(基準画像と補完画像)中の特徴点を抽出する。特徴点の抽出には、特徴点を抽出するにあたり、取得した画像をノイズ除去、エッジ抽出、コントラスト強調や2値化など特徴点の抽出が容易になるような前処理を必要に応じて行ったうえでSIFT法、Harrisオペレータ法、トラッキング法などを用いて特徴点の抽出を行う。ここで特徴点とはそれぞれの画像上の任意の点であって、点の周囲の情報(例えば、周囲の点のRGB情報、明度など)に特徴がある点である。例えば、対象物と背景の境界となる点である。具体的な抽出方法は、例えば「特開2003−242162号公報」などに記載されている   Next, when images are acquired, feature points in the respective images (reference image and complementary image) are extracted. For feature point extraction, pre-processing that facilitates feature point extraction, such as noise removal, edge extraction, contrast enhancement, and binarization, was performed on the acquired image when necessary. In addition, feature points are extracted using the SIFT method, the Harris operator method, the tracking method, or the like. Here, the feature point is an arbitrary point on each image, and is a point characterized by information around the point (for example, RGB information and brightness of the surrounding point). For example, it is a point that becomes a boundary between the object and the background. A specific extraction method is described in, for example, “JP 2003-242162 A”.

それぞれの画像において特徴点が抽出されると次に、それぞれの画像において抽出された特徴点の対応付けを行う。例えば、基準画像の任意の特徴点における周囲の情報と補完画像で取得されたすべての特徴点における周囲の情報を比較し、周囲の情報が一致する特徴点を探すという具合である。ここでは、少なくとも8個以上の特徴点が対応づけられれば良く、すべての特徴点が対応づけられる必要はない(対応付けができない特徴点は排除する)。   When feature points are extracted from the respective images, the feature points extracted from the respective images are associated with each other. For example, the surrounding information at an arbitrary feature point in the reference image is compared with the surrounding information at all the feature points acquired in the complementary image, and the feature point with the matching surrounding information is searched. Here, it is sufficient that at least eight or more feature points are associated with each other, and it is not necessary to associate all the feature points (feature points that cannot be associated are excluded).

特徴点の対応付けがされると次に、複数の対応付けされた特徴点から被写体及び不要物ごとに基礎行列を取得する。   Once the feature points are associated, a basic matrix is obtained for each subject and unnecessary object from the plurality of associated feature points.

ここで、基礎行列とは基準画像と補完画像の対応する点の座標上の関係(写像関係)を示す行列である(図3)。具体的には、2枚の画像の対応点と思われる2点をp1、p2とし、エピポーラ幾何学の原理によって基礎行列をFとする。そして、p1*F*p2=0の関係が成立する場合のFが基礎行列である。ここで、特徴点p1、p2は図3に示す1×3で構成される三次元の位置情報を示す行列であり、Fは3×3で構成される行列で表現することができる。これにより、2枚の画像から対応する複数の特徴点ペア(p1,p2),(p3,p4),(p5,p6),(p7,p8),(p9,p10),(p11,p12),(p13,p14),(p15,p16)・・・をそれぞれ与えて複数の方程式を立ててこれを解き、基礎行列を求める。これらの具体的な算出は、例えば「金谷健一・三島等「未構成カメラによる2画像からの3次元復元とその信頼性評価」情報処理学会論文誌:コンピュータビジョンとイメージメディア,Vol.42,No.SIG 6(CVIM 2),2001」などに記載されている。 Here, the basic matrix is a matrix indicating the relationship (mapping relationship) on the coordinates of corresponding points of the reference image and the complementary image (FIG. 3). Specifically, two points that are considered to be corresponding points of two images are p1 and p2, and a basic matrix is F based on the principle of epipolar geometry. Then, F when the relationship of p1 T * F * p2 = 0 is established is a basic matrix. Here, the feature points p1 and p2 are matrices indicating the three-dimensional position information configured by 1 × 3 shown in FIG. 3, and F can be expressed by a matrix configured by 3 × 3. Thereby, a plurality of corresponding feature point pairs (p1, p2), (p3, p4), (p5, p6), (p7, p8), (p9, p10), (p11, p12) from the two images. , (P13, p14), (p15, p16)... And a plurality of equations are established and solved to obtain a basic matrix. For example, “Kenichi Kanaya, Mishima et al.“ 3D reconstruction from unconstructed camera and its reliability evaluation ”, Information Processing Society of Japan: Computer Vision and Image Media, Vol.42, No. .SIG 6 (CVIM 2), 2001 "and the like.

基礎行列が導かれると、導かれた基礎行列Fをもとに特徴点ごとに奥行きを求める(つまり、撮影ポジションからの距離が導かれる)。ここで、奥行きを求める具体的な算出方法についても、上記に記載の論文に記載されている。   When the basic matrix is derived, the depth is obtained for each feature point based on the derived basic matrix F (that is, the distance from the photographing position is derived). Here, a specific calculation method for obtaining the depth is also described in the paper described above.

画像ごとに各特徴点の奥行きが求められると、奥行きごとに特徴点のグループ分けを行い、画像に点在する特徴点がどの対象物における特徴点であるかを判別する。対象物ごとの特徴点が判別されると、対象物ごとに判別された特徴点を結んだ、対象物の輪郭情報を対象物ごとに取得する。   When the depth of each feature point is obtained for each image, the feature points are grouped for each depth to determine which object the feature points scattered in the image are. When the feature point for each object is determined, the outline information of the object connecting the determined feature points for each object is acquired for each object.

「隠れ部分特定部」(0202)は、複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する機能を有している。具体的には、複数の画像から導かれた各撮影ポジションから各対象物までの奥行きと、対象物ごとに取得した特徴点を結ぶ輪郭情報を元に画像に撮影されている対象物から被写体及び不要物を識別する。対象物から被写体と不要物を識別すると、特定された被写体と重なっている不要物が隠す部分を輪郭情報を元に特定するという具合である。
ここで、被写体を識別させるにあたり、PC等に出力される基準画像に撮影されている対象物のいずれかを人からの入力をうけて選択させることで、本実施例の「隠れ部分特定部」(0202)は、選択された対象物を被写体として識別し、被写体を隠す隠れ部分を特定させてもよいし、また、撮影ポジションから対象物ごとの距離に応じて区分けを行い(例えば、撮影ポジションから最も奥にある対象物までの距離を何等分かに分割する)、指定する範囲の範囲内にある対象物を被写体として識別させてもよい。さらには、画像から得られる距離に応じた別の情報(例えば、距離に応じてその輝度が異なって表現される輝度ヒストグラムなど)を使用して複数の対象物から被写体を識別させて、被写体を隠す隠れ部分を特定させてもよい。
The “hidden part specifying unit” (0202) calculates relative position information obtained from the position of the object in each of the plurality of images and information indicating the positional relationship between the object and the shooting position for each image. It has a function of identifying an object as an object and an unnecessary object, and identifying a hidden portion of the object in which an unnecessary object other than the object overlaps the object in one image. Specifically, from the object captured in the image based on the depth information from each imaging position derived from a plurality of images to each object and the contour information connecting the feature points acquired for each object, the object and Identify unwanted items. When the subject and the unwanted object are identified from the target object, the part hidden by the unwanted object that overlaps the identified subject is identified based on the contour information.
Here, when identifying the subject, the “hidden part identifying unit” of the present embodiment is selected by receiving any input from a person and selecting one of the objects captured in the reference image output to the PC or the like. (0202) may identify the selected object as a subject, specify a hidden part that hides the subject, and perform classification according to the distance of each object from the photographing position (for example, photographing position) The distance from the object to the farthest object is divided into equal parts), and the object within the specified range may be identified as the subject. Furthermore, the subject can be identified from a plurality of objects using different information according to the distance obtained from the image (for example, a luminance histogram expressed with different luminance depending on the distance). The hidden part to be hidden may be specified.

以下に、図4A及びBを用いて実際に取得された撮影ポジションから各対象物までの奥行きをもとに被写体と不要物とを識別し、隠れ部分を特定する手法の一例を説明する。図4Aは、基準画像である画像Aにおける対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図である(例えば、「対象物C」は対象物A、Bの後景にあって撮影ポジションからのX軸方向の距離は5aという具合である)。また、図4Bは、補完画像である画像Bにおける対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図である。   Hereinafter, an example of a method for identifying a subject and an unnecessary object and identifying a hidden part based on the depth from the photographing position actually acquired to each object will be described with reference to FIGS. 4A and 4B. FIG. 4A is a diagram showing the positional relationship of the objects in the image A that is the reference image and the distance of each object from the shooting position (for example, “object C” is the background of the objects A and B). The distance in the X-axis direction from the shooting position is 5a). FIG. 4B is a diagram illustrating the positional relationship of the objects in the image B that is a complementary image and the distances of the objects from the shooting position.

ここで、図4Aに示すように画像Aの撮影ポジションからX軸方向に任意の距離で区分けを行う(本例では、距離「a」で区分けを行う)。区分けを行うと、被写体が撮影されていると考えられる任意の範囲を指定する。範囲が指定されると、指定された範囲に属する対象物を検索する(例えば、距離「5a〜6a」の範囲を指定したとすると、「対象物C」が検索される)。対象物を検索すると、検索された対象物を被写体として識別する(検索対象外の対象物は不要物であると識別される)。ここで、本例では区分けをするにあたり任意の距離で区分けを行ったが、あらかじめ一定の奥行きを定めておき、それを任意の数で分割することとしてもよい。さらには、より具体的な方法として固定閾値判別、累積ヒストグラム、判別分析法のいずれか、もしくは複数の手法から最適なものを選択することとしてもよい。また、対象物を検索するにあたり、指定の範囲に属する対象物を検索することとしたが、対象物が検索できない場合には指定した範囲に最も近い対象物を検索することとしてもよい。   Here, as shown in FIG. 4A, classification is performed at an arbitrary distance from the photographing position of the image A in the X-axis direction (in this example, classification is performed at a distance “a”). When division is performed, an arbitrary range in which the subject is considered to be photographed is designated. When the range is specified, the object belonging to the specified range is searched (for example, if the range of distance “5a to 6a” is specified, “object C” is searched). When the object is searched, the searched object is identified as a subject (objects not to be searched are identified as unnecessary objects). Here, in this example, the classification is performed at an arbitrary distance. However, a certain depth may be determined in advance, and it may be divided by an arbitrary number. Furthermore, as a more specific method, any one of a fixed threshold discrimination, a cumulative histogram, a discriminant analysis method, or a plurality of methods may be selected. In searching for an object, an object belonging to a specified range is searched. However, if an object cannot be searched, an object closest to the specified range may be searched.

被写体と不要物とを識別すると、識別された被写体より前景に存在する不要物を特定する(本例では、対象物A、Bが該当する)。不要物が特定されると、基礎行列を用いて補完画像である画像Bから、画像Aにおいて隠れている部分を特定するという具合である。   When the subject and the unwanted object are identified, the unwanted object existing in the foreground from the identified subject is specified (in this example, the objects A and B correspond). When an unnecessary object is specified, a hidden part in the image A is specified from the image B which is a complementary image using the basic matrix.

「隠れ部分取得部」(0203)は、隠れ部分を他の画像から取得する機能を有している。具体的には、まず前記「隠れ部分特定部」(0202)において被写体を隠す隠れ部分が特定されたとする。隠れ部分が特定されると、前記「画像取得部」(0201)において求められている被写体と識別された対象物の基礎行列を使用し、基準画像における隠れ部分に対応する部分を補完画像から取得する。   The “hidden part acquisition unit” (0203) has a function of acquiring a hidden part from another image. Specifically, first, it is assumed that a hidden part that hides the subject is specified in the “hidden part specifying unit” (0202). When the hidden portion is specified, the basic matrix of the object identified as the subject obtained in the “image acquisition unit” (0201) is used to acquire the portion corresponding to the hidden portion in the reference image from the complementary image. To do.

<ハードウェア的構成>
図5は、本実施例の「画像合成システム」のハードウェア構成の一例を表す概略図である。この図を利用して、本実施例の画像合成システムにおけるそれぞれのハードウェア構成部の働きについて説明する。
<Hardware configuration>
FIG. 5 is a schematic diagram illustrating an example of a hardware configuration of the “image composition system” of the present embodiment. The operation of each hardware component in the image composition system of the present embodiment will be described using this figure.

本実施例の「画像合成システム」は、各種演算処理や制御を行う「CPU」(0501)と、「主メモリ」(0502)とを備えている。また、「画像合成システム」は、取得した画像などを保存する「記憶装置」(0503)や、画像データを取得するための「I/O」(0504)なども備えている。また、被写体等を出力させるための「画面」(0505)や被写体等を選択するためのマウスなどの「UI」(0506)も備えている。そして、これらが、「システムバス」などのデータ通信経路によって相互に接続され、情報の送受信や処理を行う。   The “image composition system” of this embodiment includes a “CPU” (0501) that performs various arithmetic processes and controls, and a “main memory” (0502). The “image composition system” also includes a “storage device” (0503) for storing acquired images and the like, and an “I / O” (0504) for acquiring image data. In addition, a “screen” (0505) for outputting a subject or the like and a “UI” (0506) such as a mouse for selecting the subject or the like are also provided. These are connected to each other via a data communication path such as a “system bus”, and perform transmission / reception and processing of information.

ここで、「画像合成システム」は、「I/O」(0504)を介して、基準画像及び補完画像を取得したとする。画像を取得すると「CPU」(0501)は「記憶装置」(0503)に取得した画像を記録させるとともに、「主メモリ」(0502)のワーク領域に展開されている。「前処理プログラム」(0507)を呼び出す。呼び出された「前処理プログラム」(0507)は、取得したそれぞれの画像に対して必要な前処理を行い、処理したそれぞれの画像を「特徴点検出プログラム」(0511)に引き渡す。ここで、前処理とは取得した画像の特徴点を抽出するにあたり必要に応じて、あらかじめ準備されているノイズ除去するプログラム(0508)や画像のコントラスト強調(0509)、画像の2値化(0510)などを行うプログラムを実行する処理である。   Here, it is assumed that the “image composition system” has acquired the reference image and the complementary image via “I / O” (0504). When the image is acquired, the “CPU” (0501) records the acquired image in the “storage device” (0503) and is expanded in the work area of the “main memory” (0502). Call "Pre-processing program" (0507). The called “pre-processing program” (0507) performs necessary pre-processing on each acquired image and delivers each processed image to the “feature point detection program” (0511). Here, preprocessing refers to a noise removal program (0508), image contrast enhancement (0509), image binarization (0510), which are prepared in advance, as necessary for extracting feature points of the acquired image. ) And the like.

「特徴点検出プログラム」(0511)は、前処理した画像を取得すると、各画像における特徴点を検出する。特徴点が検出されると特徴点を各画像間でマッチングを行う。マッチングしない特徴点は不良点として除去を行う。各特徴点がマッチングもしくは除去されると、「基礎行列算出プログラム」(0512)に、対象物ごとにマッチングした各特徴点の情報を引き渡す。   When the “feature point detection program” (0511) acquires the preprocessed image, the feature point detection program detects the feature point in each image. When the feature point is detected, the feature point is matched between the images. Feature points that do not match are removed as defective points. When each feature point is matched or removed, information of each feature point matched for each object is delivered to the “basic matrix calculation program” (0512).

「基礎行列算出プログラム」(0512)は、対象物ごとにマッチングした特徴点を受けとると特徴点の情報をもとに、対象物ごとに基礎行列の算出を行う。基礎行列が導かれると、「距離算出プログラム」(0513)に基礎行列を引き渡す。   The “basic matrix calculation program” (0512) receives a feature point matched for each object, and calculates a basic matrix for each object based on the feature point information. When the basic matrix is derived, the basic matrix is transferred to the “distance calculation program” (0513).

「距離算出プログラム」(0513)は、「基礎行列算出プログラム」(0512)より引き渡された対象物ごとに算出された基礎行列を使用しそれぞれの奥行きを求める。   The “distance calculation program” (0513) obtains each depth using the basic matrix calculated for each object delivered from the “basic matrix calculation program” (0512).

次に、「CPU」(0501)は、「主メモリ」(0502)のワーク領域に展開されている「隠れ部分特定プログラム」(0514)を呼び出す。「隠れ部分特定プログラム」(0514)は、基準画像に撮影されている複数の対象物から被写体を識別する。ここで、被写体を認識する方法として、プログラムで自動認識させてもよいし、必要に応じてUIを用いてユーザが被写体を指定し被写体を認識させてもよい。次に、被写体を識別すると、「距離算出プログラム」(0513)において算出された距離が識別された被写体よりも前景である不要物を取得する。これにより、被写体を隠している隠れ部分を特定する。隠れ部分が特定されると、「隠れ部分取得プログラム」(0515)を呼び出す。   Next, the “CPU” (0501) calls the “hidden part specifying program” (0514) developed in the work area of the “main memory” (0502). The “hidden part identification program” (0514) identifies a subject from a plurality of objects photographed in the reference image. Here, as a method of recognizing the subject, the program may be automatically recognized, or the user may designate the subject using the UI and recognize the subject as necessary. Next, when the subject is identified, an unnecessary object that is a foreground is acquired from the subject whose distance calculated in the “distance calculation program” (0513) is identified. Thereby, the hidden part which is hiding the subject is specified. When the hidden part is specified, the “hidden part acquisition program” (0515) is called.

「隠れ部分取得プログラム」(0515)は、「隠れ部分特定プログラム」(0514)において特定された隠れ部分を補完する部分を基礎行列を用いて、補完画像より取得する。   The “hidden part acquisition program” (0515) acquires a part that complements the hidden part specified in the “hidden part specifying program” (0514) from the complement image using the basic matrix.

<処理の流れ>     <Process flow>

図6は、本実施例の画像合成システムにおける、画像の取得から隠れ部分取得までの流れの一例を表すフローチャートである。なお、以下に示すステップは、媒体に記録され、計算機を制御するためのプログラムを構成する処理ステップであってもかまわない。   FIG. 6 is a flowchart illustrating an example of a flow from image acquisition to hidden part acquisition in the image composition system according to the present exemplary embodiment. The steps shown below may be processing steps that are recorded on a medium and constitute a program for controlling the computer.

ここで、画像合成システムは基準画像と補完画像を取得したとする(S0601、S0604)。基準画像と補完画像を取得すると、特徴点抽出前の前処理を行う(S0602、S0605)。前処理が完了すると、基準画像と補完画像それぞれにおいて特徴点の抽出を行う(S0603、S0606)。特徴点が抽出されると、基準画像と補完画像間で特徴点のマッチングを行う(S0607)。マッチング処理が完了すると、基礎行列の算出を行う(S0608)。算出すると、基礎行列から奥行き(距離)を算出する(S0609)。奥行きが算出されると、複数の対象物から被写体の識別を行う(S0610、S0611)。被写体を識別すると、基準画像において被写体の隠れ部分を特定する(S0612)。隠れ部分を特定すると、隠れ部分を補完画像から取得する(S0613)。   Here, it is assumed that the image composition system has acquired a reference image and a complementary image (S0601, S0604). When the reference image and the complementary image are acquired, preprocessing before feature point extraction is performed (S0602, S0605). When the preprocessing is completed, feature points are extracted from each of the reference image and the complementary image (S0603, S0606). When the feature point is extracted, the feature point is matched between the reference image and the complementary image (S0607). When the matching process is completed, a basic matrix is calculated (S0608). Once calculated, the depth (distance) is calculated from the basic matrix (S0609). When the depth is calculated, the subject is identified from a plurality of objects (S0610, S0611). When the subject is identified, the hidden portion of the subject is specified in the reference image (S0612). When the hidden part is specified, the hidden part is acquired from the complementary image (S0613).

<効果の簡単な説明>   <Brief description of effect>

本実施例の画像合成システムによって、基準画像と複数もしくは単数の補完画像を取得することにより、基準画像に撮影されている被写体を遮る部分を特定することが可能となる。   By acquiring the reference image and a plurality of or a single complementary image by the image composition system of the present embodiment, it is possible to specify a portion that blocks the subject imaged in the reference image.

≪実施例2≫     << Example 2 >>

<概要>     <Overview>

本実施例は、実施例1を基本とする画像合成システムにおいて、補完画像より取得した隠れ部分を基準画像に合わせて補正し、補正した隠れ部分を基準画像に貼換えることができることを特徴としている。   The present embodiment is characterized in that, in the image composition system based on the first embodiment, the hidden portion acquired from the complementary image can be corrected according to the reference image, and the corrected hidden portion can be replaced with the reference image. .

<機能的構成>     <Functional configuration>

図7は、本実施例の画像合成システムにおける機能的構成の一例を表す図である。この図にあるように本実施例は、実施例1の画像合成システムを基本として「補正部」(0704)と「貼換部」(0705)を新たに有していることを特徴としている。   FIG. 7 is a diagram illustrating an example of a functional configuration in the image composition system of the present embodiment. As shown in this figure, the present embodiment is characterized by newly having a “correction unit” (0704) and a “replacement unit” (0705) based on the image composition system of the first embodiment.

なお、本実施例において実施例1にて説明した構成について詳細な説明は省略し、本実施例において特徴的な箇所についてのみ説明する。   In the present embodiment, the detailed description of the configuration described in the first embodiment is omitted, and only characteristic portions in the present embodiment are described.

「補正部」(0704)は、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する機能を有する。具体的には、「隠れ部分取得部」(0703)において補完画像から取得された基準画像に補完すべき部分を、基準画像に合わせて補正する。ここで具体的に補正とは、色彩補正や輝度補正や形状補正などの手法を用いて基準画像と補完画像と異なる輝度や色彩のバランスを補正し、基準画像に貼り付けた際に違和感がないようにする。   The “correction unit” (0704) has a function of correcting the acquired hidden part into a hidden part region shape in one image using relative position information. Specifically, the “hidden part acquisition unit” (0703) corrects the part to be complemented with the reference image acquired from the complemented image according to the reference image. Here, the specific correction means that there is no sense of incongruity when the balance between the reference image and the complementary image is corrected using a method such as color correction, luminance correction, and shape correction, and the balance between the reference image and the complementary image is different. Like that.

「貼換部」(0705)は、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える機能を有する。具体的には、前記「補正部」(0704)において補正された、補完画像より取得した基準画像に貼り付けるべき隠れ部分を実際に、基準画像に貼換える。   The “replacement unit” (0705) has a function of reusing the hidden part of one image with the image of the subject using the correction result. Specifically, the hidden portion that should be pasted to the reference image acquired from the complementary image, corrected in the “correction unit” (0704), is actually pasted to the reference image.

<ハードウェア的構成>
図8は、本実施例の「画像合成システム」のハードウェア構成の一例を表す概略図である。これらの図を利用して、本実施例の画像合成システムの処理を説明する。
<Hardware configuration>
FIG. 8 is a schematic diagram illustrating an example of a hardware configuration of the “image composition system” of the present embodiment. The processing of the image composition system of this embodiment will be described using these figures.

ここで、「画像合成システム」は、「I/O」(0804)を介して、基準画像及び補完画像を取得したとする。画像を取得すると「CPU」(0801)は「記憶装置」(0803)に取得した画像を記録させるとともに、「主メモリ」(0802)のワーク領域に展開されている。「前処理プログラム」(0807)を呼び出す。呼び出された「前処理プログラム」(0807)は、取得したそれぞれの画像に対して必要な前処理を行い、処理したそれぞれの画像を「特徴点検出プログラム」(0811)に引き渡す。ここで、前処理とは取得した画像の特徴点を抽出するにあたり必要に応じて、あらかじめ準備されているノイズ除去するプログラム(0808)や画像のコントラスト強調(0809)、画像の2値化(0810)などを行うプログラムを実行する処理である。   Here, it is assumed that the “image composition system” has acquired the reference image and the complementary image via “I / O” (0804). When the image is acquired, the “CPU” (0801) records the acquired image in the “storage device” (0803) and is expanded in the work area of the “main memory” (0802). “Pre-processing program” (0807) is called. The called “pre-processing program” (0807) performs necessary pre-processing for each acquired image, and delivers each processed image to the “feature point detection program” (0811). Here, pre-processing refers to a noise removal program (0808) prepared in advance, image contrast enhancement (0809), and image binarization (0810) as necessary for extracting feature points of the acquired image. ) And the like.

「特徴点検出プログラム」(0811)は、前処理した画像を取得すると、各画像における特徴点を検出する。特徴点が検出されると特徴点を各画像間でマッチングを行う。マッチングしない特徴点は不良点として除去を行う。各特徴点がマッチングもしくは除去されると、「基礎行列算出プログラム」(0812)に、対象物ごとにマッチングした各特徴点の情報を引き渡す。   When the “feature point detection program” (0811) acquires a preprocessed image, it detects a feature point in each image. When the feature point is detected, the feature point is matched between the images. Feature points that do not match are removed as defective points. When each feature point is matched or removed, information on each feature point matched for each object is delivered to the “basic matrix calculation program” (0812).

「基礎行列算出プログラム」(0812)は、対象物ごとにマッチングした特徴点を受けとると特徴点の情報をもとに、対象物ごとに基礎行列の算出を行う。基礎行列が導かれると、「距離算出プログラム」(0813)に基礎行列を引き渡す。   The “basic matrix calculation program” (0812) receives a feature point matched for each object and calculates a basic matrix for each object based on the feature point information. When the basic matrix is derived, the basic matrix is transferred to the “distance calculation program” (0813).

「距離算出プログラム」(0813)は、「基礎行列算出プログラム」(0812)より引き渡された対象物ごとに算出された基礎行列を使用しそれぞれの奥行きを求める。   The “distance calculation program” (0813) obtains each depth using the basic matrix calculated for each object delivered from the “basic matrix calculation program” (0812).

次に、「CPU」(0801)は、「主メモリ」(0802)のワーク領域に展開されている「隠れ部分特定プログラム」(0814)を呼び出す。「隠れ部分特定プログラム」(0814)は、基準画像に撮影されている複数の対象物から被写体を識別する。ここで、被写体を認識する方法として、プログラムで自動認識させてもよいし、必要に応じてUIを用いてユーザが被写体を認識させてもよい。次に、被写体を識別すると、「距離算出プログラム」(0813)において算出された距離が識別された被写体よりも前景である不要物を取得する。これにより、被写体を隠している隠れ部分を特定する。隠れ部分が特定されると、「隠れ部分取得プログラム」(0815)を呼び出す。   Next, the “CPU” (0801) calls the “hidden part specifying program” (0814) developed in the work area of the “main memory” (0802). The “hidden part identification program” (0814) identifies a subject from a plurality of objects photographed in the reference image. Here, as a method of recognizing the subject, it may be automatically recognized by a program, or the user may recognize the subject using a UI if necessary. Next, when the subject is identified, an unnecessary object that is a foreground is acquired from the subject whose distance calculated in the “distance calculation program” (0813) is identified. Thereby, the hidden part which is hiding the subject is specified. When the hidden part is specified, the “hidden part acquisition program” (0815) is called.

「隠れ部分取得プログラム」(0815)は、「隠れ部分特定プログラム」(0814)において特定された隠れ部分を補完する部分を基礎行列を用いて、隠れ部分を補完画像より取得する。   The “hidden part acquisition program” (0815) acquires the hidden part from the complement image using the basic matrix for the part that complements the hidden part specified in the “hidden part identification program” (0814).

隠れ部分を取得すると、必要に応じて各種画像補正プログラムを呼び出し、取得した隠れ部分の画像を基準画像に貼り付けるための補正を行う。ここで、各種画像補正プログラムとは「色彩補正プログラム」(0817)や「輝度補正プログラム」(0818)や「形状補正プログラム」(0819)などである。   When the hidden part is acquired, various image correction programs are called as necessary, and correction for pasting the acquired hidden part image on the reference image is performed. Here, the various image correction programs are “color correction program” (0817), “brightness correction program” (0818), “shape correction program” (0819), and the like.

画像の補正が行われると、「画像貼換プログラム」(0820)は、補正を行った隠れ部分を基準画像に貼換えて画像の合成を行う。   When the image correction is performed, the “image replacement program” (0820) replaces the corrected hidden portion with the reference image and combines the images.

<処理の流れ>     <Process flow>

図9は、本実施例の画像合成システムにおける、画像の取得から基準画像へ隠れ部分を貼換えるまでの流れの一例を表すフローチャートである。なお、以下に占めるステップは、媒体に記録され、計算機を制御するためのプログラムを構成する処理ステップであってもかまわない。   FIG. 9 is a flowchart illustrating an example of a flow from the acquisition of an image to the replacement of a hidden portion on a reference image in the image composition system of the present embodiment. Note that the steps occupying the following may be processing steps that are recorded on the medium and constitute a program for controlling the computer.

ここで、画像合成システムは基準画像と補完画像を取得したとする(S0901、S0904)。基準画像と補完画像を取得すると、特徴点抽出前の前処理を行う(S0902、S0905)。前処理が完了すると、基準画像と補完画像それぞれにおいて特徴点の抽出を行う(S0903、S0906)。特徴点が抽出されると、基準画像と補完画像間で特徴点のマッチングを行う(S0907)。マッチング処理が完了すると、基礎行列の算出を行う(S0908)。算出すると、基礎行列から奥行き(距離)を算出する(S0909)。奥行きが算出されると、被写体の識別を行う(S0910、S0911)。被写体の隠れ部分を一の画像中にて特定する(S0912)。隠れ部分を特定すると、隠れ部分を他の画像から取得する(S0913)。隠れ部分を取得すると、取得した隠れ部分の画像に対して補正を行う(S0914)。隠れ部分に補正を行うと、基準画像に隠れ部分を貼換える(S0915)。   Here, it is assumed that the image composition system has acquired a reference image and a complementary image (S0901 and S0904). When the reference image and the complementary image are acquired, pre-processing before feature point extraction is performed (S0902, S0905). When the preprocessing is completed, feature points are extracted from each of the reference image and the complementary image (S0903, S0906). When the feature point is extracted, the feature point is matched between the reference image and the complementary image (S0907). When the matching process is completed, a basic matrix is calculated (S0908). Once calculated, the depth (distance) is calculated from the basic matrix (S0909). When the depth is calculated, the subject is identified (S0910, S0911). The hidden part of the subject is specified in one image (S0912). When the hidden part is specified, the hidden part is acquired from another image (S0913). When the hidden part is acquired, the acquired image of the hidden part is corrected (S0914). When the hidden portion is corrected, the hidden portion is pasted on the reference image (S0915).

<効果の簡単な説明>   <Brief description of effect>

本実施例の画像合成システムによって、補完画像より取得した隠れ部分を基準画像に合わせて補正を行い、実際に基準画像に隠れ部分を貼換えることが可能となる。   With the image composition system of the present embodiment, it is possible to correct the hidden part acquired from the complementary image in accordance with the reference image, and actually paste the hidden part on the reference image.

実施例1の画像合成システムにおける機能を説明する図FIG. 3 is a diagram for explaining functions in the image composition system according to the first embodiment. 実施例1の画像合成システムにおける機能的構成の一例を表す図FIG. 3 is a diagram illustrating an example of a functional configuration in the image composition system according to the first embodiment. 実施例1の画像合成システムにおける基礎行列を説明するための図The figure for demonstrating the basic matrix in the image composition system of Example 1. FIG. 実施例1の画像合成システムにおける基準画像である画像Aの対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図The figure which showed the positional relationship of the target object of the image A which is a reference | standard image in the image composition system of Example 1, and the distance of each target object from an imaging position. 実施例1の画像合成システムにおける基準画像である画像Bの対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図The figure which showed the positional relationship of the target object of the image B which is a reference | standard image in the image composition system of Example 1, and the distance of each target object from an imaging position. 実施例1の画像合成システムにおけるハードウェア構成の一例を表す図1 is a diagram illustrating an example of a hardware configuration in an image composition system according to a first embodiment. 実施例1の画像合成システムにおける画像の取得から隠れ部分取得までの流れの一例を表すフローチャート7 is a flowchart illustrating an example of a flow from image acquisition to hidden portion acquisition in the image composition system according to the first embodiment. 実施例2の画像合成システムにおける機能的構成の一例を表す図The figure showing an example of a functional structure in the image composition system of Example 2. 実施例2の画像合成システムにおけるハードウェア構成の一例を表す図FIG. 10 is a diagram illustrating an example of a hardware configuration in the image composition system according to the second embodiment. 実施例2の画像合成システムにおける画像の取得から基準画像へ隠れ部分を貼換までの流れの一例を表すフローチャートThe flowchart showing an example of the flow from the acquisition of the image to the reference image to the replacement of the hidden portion in the image composition system of the second embodiment.

符号の説明Explanation of symbols

0201 画像取得部
0202 隠れ部分特定部
0203 隠れ部分取得部
0704 補正部
0705 貼換部
0201 Image acquisition unit 0202 Hidden part identification unit 0203 Hidden part acquisition unit 0704 Correction unit 0705 Rewriting unit

Claims (4)

撮影ポジションからの相対的位置で識別可能な被写体及び撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得部と、
前記複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定部と、
隠れ部分を他の画像から取得する隠れ部分取得部と、
を有する画像合成システム。
An image acquisition unit that acquires an image including an object that can be identified by a relative position from a shooting position and an unnecessary object that can be identified by a relative position from the shooting position;
Using the relative position information obtained from the position of the object in each of the plurality of images and information indicating the positional relationship between the object and the shooting position for each image, the object is classified as an object and an unnecessary object. A hidden part identifying unit that identifies a hidden part of a subject in which an unnecessary object other than the subject overlaps the subject in one image,
A hidden part acquisition unit that acquires a hidden part from another image;
An image synthesizing system.
取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正部と、
補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換部と、
を有する請求項1に記載の画像合成システム。
A correction unit that corrects the acquired hidden part to a hidden part region shape in one image using relative position information;
A rewriting unit that replaces the hidden part of one image with the image of the subject using the correction result;
The image synthesizing system according to claim 1.
撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得ステップと、
複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定ステップと、
隠れ部分を他の画像から取得する隠れ部分取得ステップと、
を有する画像合成システムの動作方法。
An image acquisition step for acquiring, for each of a plurality of shooting positions, an image including an object that can be identified by a relative position from the shooting position and an unnecessary object that can be identified by a relative position from the shooting position;
Using the relative position information obtained from the position of the object in each of the plurality of images, information indicating the positional relationship between the object and the shooting position for each image, the object is converted into an object and an unnecessary object. A hidden part identifying step that identifies and identifies a hidden part of a subject in which an unnecessary object other than the subject overlaps the subject in one image;
A hidden part acquisition step of acquiring a hidden part from another image;
A method for operating an image composition system.
取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正ステップと、
補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換ステップと、
を有する請求項3に記載の画像合成システムの動作方法
A correction step of correcting the acquired hidden part into a hidden part region shape in one image using relative position information,
A pasting step of pasting the hidden part of one image into the subject image using the correction result;
The operation method of the image composition system according to claim 3 having
JP2008181018A 2008-07-11 2008-07-11 Image synthesizing system eliminating unnecessary objects Pending JP2010020581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008181018A JP2010020581A (en) 2008-07-11 2008-07-11 Image synthesizing system eliminating unnecessary objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181018A JP2010020581A (en) 2008-07-11 2008-07-11 Image synthesizing system eliminating unnecessary objects

Publications (1)

Publication Number Publication Date
JP2010020581A true JP2010020581A (en) 2010-01-28

Family

ID=41705399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181018A Pending JP2010020581A (en) 2008-07-11 2008-07-11 Image synthesizing system eliminating unnecessary objects

Country Status (1)

Country Link
JP (1) JP2010020581A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238751A (en) * 2013-06-10 2014-12-18 独立行政法人産業技術総合研究所 Image creating device and image creating method
JP2015133691A (en) * 2013-12-13 2015-07-23 パナソニックIpマネジメント株式会社 Imaging apparatus, image processing system, imaging method and recording medium
JP2015527764A (en) * 2012-06-08 2015-09-17 ノキア コーポレイション Multi-frame image calibrator
US9196069B2 (en) 2010-02-15 2015-11-24 Mobile Imaging In Sweden Ab Digital image manipulation
US9344642B2 (en) 2011-05-31 2016-05-17 Mobile Imaging In Sweden Ab Method and apparatus for capturing a first image using a first configuration of a camera and capturing a second image using a second configuration of a camera
US9432583B2 (en) 2011-07-15 2016-08-30 Mobile Imaging In Sweden Ab Method of providing an adjusted digital image representation of a view, and an apparatus
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
US9196069B2 (en) 2010-02-15 2015-11-24 Mobile Imaging In Sweden Ab Digital image manipulation
US9396569B2 (en) 2010-02-15 2016-07-19 Mobile Imaging In Sweden Ab Digital image manipulation
US9344642B2 (en) 2011-05-31 2016-05-17 Mobile Imaging In Sweden Ab Method and apparatus for capturing a first image using a first configuration of a camera and capturing a second image using a second configuration of a camera
US9432583B2 (en) 2011-07-15 2016-08-30 Mobile Imaging In Sweden Ab Method of providing an adjusted digital image representation of a view, and an apparatus
JP2015527764A (en) * 2012-06-08 2015-09-17 ノキア コーポレイション Multi-frame image calibrator
JP2014238751A (en) * 2013-06-10 2014-12-18 独立行政法人産業技術総合研究所 Image creating device and image creating method
JP2015133691A (en) * 2013-12-13 2015-07-23 パナソニックIpマネジメント株式会社 Imaging apparatus, image processing system, imaging method and recording medium

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US8817339B2 (en) Handheld device document imaging
JP6355346B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5908599B2 (en) Multispectral imaging system
JP2010020581A (en) Image synthesizing system eliminating unnecessary objects
JP2014178957A (en) Learning data generation device, learning data creation system, method and program
WO2013190862A1 (en) Image processing device and image processing method
KR20110124965A (en) Apparatus and method for generating bokeh in out-of-focus shooting
KR20130112311A (en) Apparatus and method for reconstructing dense three dimension image
Shah et al. Removal of specular reflections from image sequences using feature correspondences
JP2010244398A (en) Image processing apparatus and image processing program
JP2007201631A (en) Device and method for generating image having watermark, device for analyzing image having watermark, medium, and program
CN108234826B (en) Image processing method and device
JP6429483B2 (en) Information processing apparatus, imaging apparatus, information processing system, information processing method, and program
JP6403207B2 (en) Information terminal equipment
JP2013115738A (en) Vehicle periphery imaging apparatus and method of processing vehicle peripheral image
KR101718309B1 (en) The method of auto stitching and panoramic image genertation using color histogram
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
CN115034988A (en) RGBD camera-based two-stage main body point cloud filtering method
JP2005182098A (en) Device and method for generating and displaying composite image
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
JP2016072924A (en) Image processing system and image processing method
JP4560441B2 (en) Image composition apparatus, image composition method, and image composition program
US10839540B2 (en) Apparatus and method for generating intermediate view image
JP2005217721A (en) Apparatus and method for generating still picture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110711

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20121108