JP5230013B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5230013B2
JP5230013B2 JP2009164854A JP2009164854A JP5230013B2 JP 5230013 B2 JP5230013 B2 JP 5230013B2 JP 2009164854 A JP2009164854 A JP 2009164854A JP 2009164854 A JP2009164854 A JP 2009164854A JP 5230013 B2 JP5230013 B2 JP 5230013B2
Authority
JP
Japan
Prior art keywords
image
image data
unit
subject
subject image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009164854A
Other languages
Japanese (ja)
Other versions
JP2011023814A (en
Inventor
真一 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009164854A priority Critical patent/JP5230013B2/en
Publication of JP2011023814A publication Critical patent/JP2011023814A/en
Application granted granted Critical
Publication of JP5230013B2 publication Critical patent/JP5230013B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像編集を行うことができる撮像装置に関する。   The present invention relates to an imaging apparatus capable of performing image editing.

近年カメラは、フィルムを使うフィルムカメラから、撮像素子を使うデジタルカメラへと移行しつつある。デジタルカメラの大きなメリットの一つとして、内蔵メモリの容量が大きいので撮影できる残り枚数や失敗した撮影を気にせずに、いつでもどこでも気軽に撮影ができるということが挙げられる。しかしながら、こうした手軽なデジタルカメラで撮影しようとする際に、撮影者にとって不要な物体が撮影範囲内に入り込んでしまう場合があり、いつでもどこでも撮影できるというメリットが活かせない場合がある。例えば観光地などで記念に撮影する場合、他の観光客が撮影範囲内に入ってしまったり、撮影時に通行中の車が入ってしまったりなど、不要な物体が撮影範囲内に入ってしまう場合がある。そのため、撮影者は撮影場所を変えたり、撮影するタイミングを計ったりなどする必要があり、撮影者にとって撮りたい場所やタイミングで撮影できないという問題がある。   In recent years, cameras are shifting from film cameras that use film to digital cameras that use image sensors. One of the big merits of digital cameras is that the built-in memory has a large capacity, so you can easily shoot anytime, anywhere without worrying about the remaining number of shots or failed shots. However, when shooting with such a handy digital camera, an object unnecessary for the photographer may enter the shooting range, and the advantage of being able to shoot anytime and anywhere may not be utilized. For example, when taking a memorial photo at a tourist spot, unnecessary objects may fall within the shooting range, such as other tourists entering the shooting range or a passing car at the time of shooting. There is. Therefore, it is necessary for the photographer to change the shooting location or to measure the shooting timing, and there is a problem that the photographer cannot take a photo at the desired location and timing.

このような不要な物体を削除する手法として、撮影中に割り込んだ物体を除去する手法がいくつか提案されている。例えば、風景を背景とした人物の撮影をする際に、所定の時間間隔で3枚の画像を連続して撮影し、3枚の画像のうち2枚以上の画像から一致する部分を抽出して画像を合成することで、撮影中に撮影範囲に入った動きのある第3者を除去した画像を得る手法が提案されている(例えば、特許文献1参照)。また、電車の窓から風景を撮影する際に、連続的に撮影を行い、障害物の写りこんでいない前後の画像から手前にある不要な障害物を削除する手法が提案されている(例えば、特許文献2参照)。   As a technique for deleting such an unnecessary object, several techniques for removing an object interrupted during photographing have been proposed. For example, when photographing a person with a landscape background, three images are continuously photographed at a predetermined time interval, and a matching portion is extracted from two or more images of the three images. A method has been proposed in which an image obtained by removing a moving third person who has entered a shooting range during shooting is synthesized by synthesizing images (see, for example, Patent Document 1). In addition, when shooting a landscape from a train window, a technique has been proposed in which continuous shooting is performed, and unnecessary obstacles in front are deleted from images before and after the obstacle is not reflected (for example, Patent Document 2).

特開2005−12660号公報Japanese Patent Laid-Open No. 2005-12660 特開2007−305050号公報JP 2007-305050 A

しかしながら、特許文献1に開示された技術は、除去できる不要な物体は動いている移動体のみであり、静止している不要な物体に対しては適用できない。また、動いている対象はすべて除去対象となってしまうため、被写体が移動体の場合には撮影者が残しておきたい場合であっても除去されてしまう。そのため、移動体が複数存在する場合であっても除去すべきものと残すべきものを選択できず、希望通りの画像が得られない。さらには連続した3枚の画像では連続撮影中に同じ範囲に他の移動体が入り込んでしまったりすると除去対象物によって遮蔽された部分が補間できないという問題がある。   However, the technique disclosed in Patent Document 1 is an unnecessary object that can be removed only by a moving object, and cannot be applied to an unnecessary object that is stationary. Further, since all moving objects are to be removed, they are removed even if the photographer wants to leave them when the subject is a moving object. For this reason, even if there are a plurality of moving bodies, it is not possible to select what should be removed and what should be left, and a desired image cannot be obtained. Furthermore, in the case of three consecutive images, there is a problem that if another moving object enters the same range during continuous shooting, the portion shielded by the removal target cannot be interpolated.

一方、特許文献2に開示された技術は、撮影者は移動中の乗り物に乗っているという限定された環境であり、撮影者が静止している環境下では不要物を除去できない。また、撮影者に対して相対的に動いているものを除去してしまうため、一部を消したくない場合であっても前方の移動体を全て除去してしまい、希望通りの画像を得ることができないという問題がある。   On the other hand, the technique disclosed in Patent Document 2 is a limited environment in which a photographer is on a moving vehicle, and an unnecessary object cannot be removed under an environment where the photographer is stationary. Also, since moving objects relative to the photographer are removed, even if you do not want to erase a part, all the moving objects in front are removed, and the desired image is obtained. There is a problem that can not be.

すなわち、従来の技術は撮影者に対して相対的に動いている物体のみを除去するものであり、除去できるものが限定されている。また、複数枚の撮影画像から不要物を削除した画像を得るが、撮影者に対して相対的に動いているものであっても相対速度が小さい場合には、ある時間間隔で撮影した画像では完全に遮蔽されている部分が視界に入る保証はなく、その場合には除去がうまくできないという問題がある。   That is, the conventional technique removes only an object that moves relative to the photographer, and what can be removed is limited. In addition, an image obtained by deleting unnecessary objects from a plurality of photographed images is obtained. However, if the relative speed is low even if the object is moving relative to the photographer, There is no guarantee that a completely shielded part will enter the field of view, and in that case there is a problem that the removal cannot be performed well.

本発明は、このような事情に鑑みてなされたもので、移動体、静止体に関わらず撮影者の指定する対象物を除去した画像を撮影現場で簡単に生成することができる撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an imaging apparatus that can easily generate an image from which an object designated by a photographer is removed regardless of whether it is a moving body or a stationary body. The purpose is to do.

本発明は、被写体を撮影する撮像部と、前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部とを備えることを特徴とする。   The present invention displays an imaging unit that captures a subject, a first subject image acquisition unit that obtains first subject image data captured by the imaging unit, the first subject image data, and the first subject image data. An area designating unit for designating a removal target area on the image data; a second subject image obtaining unit for obtaining second subject image data captured by the imaging unit; and the removal target area from the second subject image data A partial image data corresponding to the image, and determining whether or not the partial image data can be combined with the removal target region on the first subject image data; and the image determination An image synthesizer that synthesizes the partial image data with the removal target area on the first subject image data when the determination result of the image can be synthesized.

本発明は、前記画像合成部は、前記第2の被写体画像取得部によって取得した複数の第2の被写体画像データのそれぞれから抽出した前記部分画像データを用いて、前記第1の被写体画像データ上の前記除去対象領域に対する画像合成を行うことを特徴とする。   According to the present invention, the image composition unit uses the partial image data extracted from each of the plurality of second subject image data acquired by the second subject image acquisition unit, and uses the partial image data on the first subject image data. The image composition is performed on the removal target area.

本発明は、前記画像合成部は、前記部分画像データを変形させて前記第1の被写体画像データ上の前記除去対象領域に対して画像合成することを特徴とする。   The present invention is characterized in that the image synthesizing unit deforms the partial image data and synthesizes the image with respect to the removal target region on the first subject image data.

本発明は、前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部をさらに備えたことを特徴とする。   The present invention is characterized by further comprising an instruction display unit that displays a photographing instruction for photographing the second subject image again when the judgment result of the image judgment unit is not compositable.

本発明は、前記指示表示部は、前記第1の被写体画像の撮影位置とは異なる撮影位置において、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする。   The present invention is characterized in that the instruction display unit displays a photographing instruction for photographing the second subject image at a photographing position different from the photographing position of the first subject image.

本発明は、前記指示表示部は、前記第2の被写体画像を複数撮影する場合に、前記第2の被写体画像の撮影位置のそれぞれが異なる位置になるように撮影指示を表示することを特徴とする。   The present invention is characterized in that when the plurality of second subject images are photographed, the instruction display unit displays photographing instructions so that the photographing positions of the second subject images are different from each other. To do.

本発明は、前記領域指定部により指定された前記領域内の被写体が移動体であるか否かを判定する移動体判定部を備え、前記指示表示部は、前記領域内の被写体が移動体である場合には、前記第1の被写体画像を撮影した撮影位置から前記第2の被写体画像を撮影させる撮影指示を表示し、前記領域内の被写体が移動体でない場合には、前記領域内の被写体が写らない位置へ移動して、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする。   The present invention includes a moving body determination unit that determines whether or not the subject in the region specified by the region specifying unit is a moving body, and the instruction display unit includes the subject in the region as a moving body. In some cases, a shooting instruction for shooting the second subject image from the shooting position at which the first subject image was shot is displayed. If the subject in the region is not a moving object, the subject in the region is displayed. Moving to a position where no image is captured, and a shooting instruction for shooting the second subject image is displayed.

本発明は、撮影領域の位置関係を判定することができる奥行き判定部を備え、前記指示表示部は、前記除去対象領域に応じて第2の撮影位置の方向と距離とを表示することを特徴とする。   The present invention includes a depth determination unit that can determine the positional relationship of the imaging region, and the instruction display unit displays the direction and distance of the second imaging position according to the removal target region. And

本発明は、前記撮像部は同時に異なる視点からみた2つの被写体画像1を得ることができる2眼の撮像部を備え、前記奥行き判定部は前記2つの被写体画像1の視差から奥行きを取得することを特徴とする。   According to the present invention, the imaging unit includes a two-lens imaging unit capable of obtaining two subject images 1 viewed from different viewpoints at the same time, and the depth determination unit acquires the depth from the parallax of the two subject images 1 It is characterized by.

本発明によれば、撮影を行う際に静止体、移動体に関わらず撮影者にとって不要な対象物を除去した画像を撮影現場で得ることができるという効果が得られる。   According to the present invention, it is possible to obtain an image obtained by removing an object unnecessary for a photographer regardless of whether it is a stationary body or a moving body when photographing.

本発明の第1の実施形態による撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 2枚の被写体画像を合成する処理動作を示す説明図である。It is explanatory drawing which shows the processing operation which synthesize | combines two subject images. 画像の撮影時の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship at the time of imaging | photography of an image. 本発明の第1の実施形態による撮像装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the imaging device by the 1st Embodiment of this invention. 画像の撮影時の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship at the time of imaging | photography of an image. 画像の撮影時の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship at the time of imaging | photography of an image. 本発明の第2の実施形態による撮像装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the imaging device by the 2nd Embodiment of this invention.

<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による撮像装置を説明する。図1は、第1の実施形態における撮像装置の構成を示す概略ブロック図である。この撮像装置は、デジタル一眼レフカメラ等のデジタルカメラ、PDA(携帯情報端末)、携帯電話等にも搭載することができる。撮像装置は、撮像部10、画像処理部11、画像記録部12、表示部13、指示部14、画像判定部15及び撮影タイミング提示部16から構成する。撮像部10は、撮像素子、結像光学系(レンズ光学系)、A/D変換部などによって構成され、結像光学系によって入射した被写体の像を撮像素子上に結像し、結像された被写体像は撮像素子によって電気信号に変換し、A/D変換部によりアナログ信号からデジタル画像信号へと変換し、画像データとして出力する。撮像素子には、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の固体電子デバイスを使用する。
<First Embodiment>
Hereinafter, an imaging device according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram illustrating the configuration of the imaging apparatus according to the first embodiment. This imaging apparatus can also be mounted on a digital camera such as a digital single lens reflex camera, a PDA (personal digital assistant), a mobile phone, or the like. The imaging apparatus includes an imaging unit 10, an image processing unit 11, an image recording unit 12, a display unit 13, an instruction unit 14, an image determination unit 15, and an imaging timing presentation unit 16. The imaging unit 10 includes an imaging device, an imaging optical system (lens optical system), an A / D conversion unit, and the like, and forms an image of a subject incident on the imaging device by the imaging optical system. The subject image is converted into an electrical signal by the image sensor, and converted from an analog signal to a digital image signal by the A / D converter, and output as image data. A solid-state electronic device such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor is used as the image sensor.

画像処理部11は、撮像部10から出力される画像データを入力し、入力した画像データに対して平滑化処理、コントラスト調整、色補正、信号圧縮などの各種画像処理や合成処理を行う。合成処理は撮影画像において、複数枚の画像から指示部14により選択された領域の置換または補間を行う。すなわち、撮影画像において不要な対象物が写りこんでいる領域を置換または補間することで、不要な対象物が除去された画像を作成する。置換または補間する領域は不要な対象物より大きい領域があればよく、最小の領域としては指定領域に写りこんでいる人や物体を抽出してその対象物の領域だけ処理する方法がある。合成領域は処理量や撮影画像など考慮した上で最適な手法を選択する。   The image processing unit 11 receives image data output from the imaging unit 10 and performs various image processing such as smoothing processing, contrast adjustment, color correction, and signal compression, and composition processing on the input image data. In the combination processing, the region selected by the instruction unit 14 from a plurality of images is replaced or interpolated in the captured image. That is, by replacing or interpolating a region where an unnecessary object is reflected in the captured image, an image from which the unnecessary object is removed is created. The area to be replaced or interpolated only needs to be larger than the unnecessary object, and as a minimum area, there is a method in which a person or an object reflected in a designated area is extracted and only the area of the object is processed. For the synthesis area, an optimum method is selected in consideration of the processing amount and the photographed image.

画像記録部12は、画像処理部11が行う画像処理などでワークエリアとして用いられるバッファメモリや撮影画像を記録しておくフラッシュメモリなどで構成し、必要に応じて画像データの読み書きを行う。表示部13は例えば液晶モニタなどで構成され、記録された画像表示やビューファインダーの代わりとして撮影画像の表示、またはメニューなど操作画面などを表示する。   The image recording unit 12 includes a buffer memory used as a work area for image processing performed by the image processing unit 11, a flash memory for recording captured images, and the like, and reads and writes image data as necessary. The display unit 13 is composed of, for example, a liquid crystal monitor, and displays a recorded image display, a captured image display instead of a viewfinder, or an operation screen such as a menu.

指示部14は、表示部13に表示された画像に対し、ボタンとカーソルによって撮影者が除去する領域を指定する操作を行う。表示部13には、指示部14として抵抗膜方式や静電容量方式などのタッチパネルを設け、撮影者が除去したい部分をタッチすることで簡単に選択できるようにしてもよい。この場合、表示部13と指示部14とは一体に構成にされて、表示指示部を構成している。また、指定領域の数に制限はなく、複数個所指定してもよい。この撮像装置を携帯電話等に搭載した場合、既存のスイッチ、ボタン等を流用するようにしてもよい。   The instruction unit 14 performs an operation for designating an area to be removed by the photographer with a button and a cursor on the image displayed on the display unit 13. The display unit 13 may be provided with a touch panel such as a resistive film type or a capacitance type as the instruction unit 14 so that the photographer can easily select the touched part by touching it. In this case, the display unit 13 and the instruction unit 14 are integrally configured to form a display instruction unit. Further, the number of designated areas is not limited, and a plurality of designated areas may be designated. When this imaging apparatus is mounted on a mobile phone or the like, existing switches and buttons may be used.

画像判定部15は、指示部14により指定された領域において置換または補間可能か否かを判定する。画像判定部15は、被写体を撮影した画像に基づいて撮影しようとしているまたは撮影した画像とを比較して選択領域の置換または補間の判定を行い、画像タイミング提示部16へとその判定結果情報を出力する。画像タイミング提示部16は、画像判定部15から出力される判定結果情報に基づいて、置換または補間が可能な画像の撮影を行うことができるように撮影者に対して撮影場所やタイミングなどの情報を提示する。タイミングや場所の提示方法はランプによって簡単に合成可能であるか通知してもよいし、具体的にどちらの方向に移って撮影すべきかを提示するのでも構わない。   The image determination unit 15 determines whether or not replacement or interpolation is possible in the area specified by the instruction unit 14. The image determination unit 15 determines whether to replace or interpolate the selected region by comparing with the image that is about to be captured or has been captured based on the captured image of the subject, and sends the determination result information to the image timing presentation unit 16. Output. Based on the determination result information output from the image determination unit 15, the image timing presentation unit 16 provides information such as a shooting location and timing to the photographer so that an image that can be replaced or interpolated can be captured. Present. The timing and place presentation method may be notified by the lamp whether the composition can be easily performed, or may be presented in which direction the photographing should be performed.

次に、図2を参照して、合成画像の生成の処理動作について説明する。図2において、符号1、2、3は、それぞれ画像を示している。画像1は、1回目の撮影画像である(これを被写体画像1と称する)。画像2は、補間または置換を行うための部分画像を得るための2回目の撮影画像である(これを被写体画像2と称する)。画像3は、画像処理部11が被写体画像1と被写体画像2をそれぞれ入力し、被写体画像1から画像処理によって不要部分を除去し、不要部分を除去した被写体画像1に対して、被写体画像2から部分画像を抽出し、抽出した部分画像に対して幾何学的変換等の処理を行って合成した合成画像である。   Next, with reference to FIG. 2, a processing operation for generating a composite image will be described. In FIG. 2, reference numerals 1, 2, and 3 indicate images. Image 1 is the first captured image (referred to as subject image 1). Image 2 is a second captured image for obtaining a partial image for interpolation or replacement (this is referred to as subject image 2). For the image 3, the image processing unit 11 inputs the subject image 1 and the subject image 2, removes unnecessary portions from the subject image 1 by image processing, and removes unnecessary portions from the subject image 2 from the subject image 2. It is a composite image obtained by extracting partial images and combining the extracted partial images by performing processing such as geometric transformation.

合成画像3は、撮影した被写体画像1において不要な被写体Xを選択し、新たに少なくとも1つの被写体画像2を撮影することで選択した不要な被写体Xを除去した画像を得るためのものである。画像合成のために行う2回目以降の撮影は、初めの撮影位置に対して不要な被写体Xの向こう側へ回り込んだ位置にて、被写体画像1において遮蔽されている領域が写るように撮影を行う。そのようにして得た被写体画像2を用いて被写体画像1の置換または補間を行うことで、不要な被写体Xを除去した合成画像3を得ることができる。この作業は撮像装置の指示に従って、撮影現場で撮影者が操作することで簡単に行うことができる。   The composite image 3 is for selecting an unnecessary subject X in the photographed subject image 1 and obtaining an image from which the unnecessary subject X is removed by newly photographing at least one subject image 2. In the second and subsequent shootings performed for image composition, shooting is performed so that the area shielded in the subject image 1 is captured at a position that wraps around the unnecessary subject X with respect to the first shooting position. Do. By replacing or interpolating the subject image 1 using the subject image 2 thus obtained, a composite image 3 from which the unnecessary subject X is removed can be obtained. This operation can be easily performed by a photographer operating at the shooting site in accordance with an instruction from the imaging apparatus.

次に、図2、図3及び図4を参照して、図2に示す画像合成処理の詳細を説明する。図3は、被写体を撮影する場合の被写体と撮像装置の撮影位置との関係を上方から見た状態を示す図である。図4は、図1に示す撮像装置の処理動作を示すフローチャートである。まず、撮影者が撮影したいアングルによって撮影した被写体画像1を画像記録部12に保存する(ステップS11)。被写体画像1は図2に示すように遠方の背景に山201があり、正面の建物202を撮影した画像である。撮影者が撮影したい位置、タイミングで撮影したため、建物202と撮影位置205の間に不要物(除去対象物)Xが写り込んでいる。この時、カメラの撮影範囲は図3に示す破線206a、206bの範囲であり、その範囲の中で実線207a、207bで囲まれた領域208は不要物Xによって視界が遮蔽されて背後が見えない状態となっている。そのため、不要物Xによってドア203の一部が隠されている。図3ではこの不要物Xによって遮蔽された建物202の部分を遮蔽領域209で示している。   Next, details of the image composition processing shown in FIG. 2 will be described with reference to FIGS. 2, 3, and 4. FIG. 3 is a diagram illustrating a relationship between the subject and the photographing position of the imaging device when the subject is photographed as viewed from above. FIG. 4 is a flowchart showing the processing operation of the imaging apparatus shown in FIG. First, the subject image 1 photographed at an angle that the photographer wants to photograph is stored in the image recording unit 12 (step S11). The subject image 1 is an image obtained by photographing a building 202 in front with a mountain 201 in the background in the distance as shown in FIG. Since the photographer has photographed at the position and timing at which the photographer wants to photograph, an unnecessary object (removal object) X is reflected between the building 202 and the photographing position 205. At this time, the shooting range of the camera is the range of the broken lines 206a and 206b shown in FIG. 3, and the area 208 surrounded by the solid lines 207a and 207b in the range is shielded by the unnecessary object X and the back cannot be seen. It is in a state. Therefore, a part of the door 203 is hidden by the unnecessary object X. In FIG. 3, a portion of the building 202 shielded by the unnecessary object X is indicated by a shielding area 209.

次に、撮影者は、指示部14を操作して、被写体画像1上の除去対象物の領域を指定する(ステップS12)。指示部14は、表示部13に設けられたタッチパネルで構成されており、表示部13に表示された被写体画像1上の不要物Xの輪郭部分を指等でたどりながら画像上の多角形領域を指定する。画像処理部11は、指示部14において指示された画像上の多角形領域の座標情報を抽出する。この除去対象物の領域の座標情報が、合成領域の座標情報となる。また、除去対象物の指定は、カメラに奥行情報が取得できる奥行き情報取得部が装備されており、指定した対象物の奥行き情報を取得し、指定部分の周辺領域で近い奥行きをもつ領域を自動的に抽出することで簡単に除去対象領域を指定する方法でもよいし、色情報を基に領域を抽出する方法でもよい。奥行き情報の取得は、例えば、撮像部が2眼以上の多眼構成となっており、そこから得られたステレオ画像から視差量を求めて奥行きを算出する方法でも構わないし、あるパターンを照射するレーザを組み合わせることで奥行きを算出する方法でも構わない。ここではタッチパネルを用いた指定操作としたが、指定操作する方法はこれに限るものではない。   Next, the photographer operates the instruction unit 14 to designate a region to be removed on the subject image 1 (step S12). The instruction unit 14 includes a touch panel provided on the display unit 13, and traces the polygonal region on the image while tracing the outline of the unwanted object X on the subject image 1 displayed on the display unit 13 with a finger or the like. specify. The image processing unit 11 extracts the coordinate information of the polygonal region on the image instructed by the instruction unit 14. The coordinate information of the area to be removed becomes the coordinate information of the synthesis area. In addition, the depth information acquisition unit that can acquire depth information is equipped in the camera to specify the removal target, and the depth information of the specified target is acquired, and an area with a depth close to the peripheral area of the specified part is automatically selected. Alternatively, a method of simply designating a removal target region by extracting automatically or a method of extracting a region based on color information may be used. For example, the depth information may be obtained by a method of calculating a depth by obtaining a parallax amount from a stereo image obtained from a multi-lens configuration in which the imaging unit has two or more eyes, and irradiating a certain pattern. A method of calculating the depth by combining lasers may be used. Although the designation operation using the touch panel is described here, the designation operation method is not limited to this.

また、被写体画像1のフォーカスの程度からフォーカスの合っていない人や物体などを除去対象に自動選択するなどカメラ側が選択して撮影者に確認させるようにして除去対象物の指定を行うようにしてもよい。合成処理を行う領域は不要物Xを含むある程度の大きさをもつ領域を選択し、被写体画像1と2に関して不要物Xの周辺領域での対応関係によって処理を行う。もちろん、画像から不要物Xを抽出し、不要物Xに遮蔽されている部分のみを対象としてもいい。この場合、処理対象の領域が小さいほど合成の処理量は少なくなる。本実施形態では、対象領域が全て含まれるようなエリアに対し、不要物Xの周辺部分でのパターンマッチングや特徴点による対応関係によって被写体画像2での対応領域を求めている。   Further, the removal target is designated by allowing the camera to select and confirm the photographer, such as automatically selecting a person or object that is out of focus as the removal target based on the degree of focus of the subject image 1. Also good. A region having a certain size including the unnecessary object X is selected as the region to be combined, and the subject images 1 and 2 are processed according to the correspondence relationship in the peripheral region of the unnecessary object X. Of course, the unnecessary object X may be extracted from the image, and only the portion shielded by the unnecessary object X may be targeted. In this case, the smaller the area to be processed, the smaller the amount of processing for synthesis. In the present embodiment, a corresponding region in the subject image 2 is obtained from an area that includes the entire target region by pattern matching in the peripheral portion of the unnecessary object X and a correspondence relationship by feature points.

次に、画像処理部11は、ステップS12で指定した除去対象物が移動体であるか否かを判定する(ステップS13)。画像処理部11には、被写体画像1上の移動体を判別する機能を備えており、除去対象物の移動速度によって処理方法を適切に選択する。本実施例では除去対象の不要物Xが移動体であるか静止体であるかの判定を次のような処理によって行う。画像処理部11は、撮像部10により撮像した被写体画像1を画像記録部12に記録する際に、時系列で並んだ複数枚の画像を保存し、画像間の差分によって移動体かを判別する。例えば、被写体画像1の撮影時に後ろのフレームも同時に記録しておき、被写体画像1と後ろフレームでの不要物Xの位置関係を比較することで移動体か静止体であるか判定を行う。このとき、画像処理部11は、不要物Xが移動体である場合、移動体の移動量(画像上のずれ量)とフレームレートに基づいて移動体の移動速度を算出する。   Next, the image processing unit 11 determines whether or not the removal target specified in step S12 is a moving object (step S13). The image processing unit 11 has a function of discriminating a moving body on the subject image 1 and appropriately selects a processing method according to the moving speed of the removal target. In this embodiment, whether the unnecessary object X to be removed is a moving body or a stationary body is determined by the following process. When the subject image 1 captured by the imaging unit 10 is recorded in the image recording unit 12, the image processing unit 11 stores a plurality of images arranged in time series, and determines whether the object is a moving object based on the difference between the images. . For example, when the subject image 1 is captured, the back frame is recorded at the same time, and the positional relationship between the subject image 1 and the unnecessary object X in the back frame is compared to determine whether the object is a moving body or a stationary body. At this time, when the unnecessary object X is a moving object, the image processing unit 11 calculates the moving speed of the moving object based on the moving amount (shift amount on the image) of the moving object and the frame rate.

なお、ここでは複数枚の画像から移動体であるか否かの判定を行う説明をしたが、速度測定用のセンサを設けるなどして、移動体の判定と速度を求めるようにしてもよい。ただし、移動体である場合の処理方法は移動速度が所定の閾値を超えたものに対して行う。なぜなら、非常に低速な対象では処理対象領域外に移動するのに時間がかかる場合があるためである。   Here, although it has been described that it is determined whether or not it is a moving body from a plurality of images, it is also possible to determine the speed and determine the speed of the moving body by providing a sensor for speed measurement. However, the processing method in the case of a moving body is performed for a moving speed exceeding a predetermined threshold. This is because it may take time to move out of the processing target area for a very slow target.

次に、撮影タイミング提示部16は、画像処理部11において、不要物Xが移動体であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが移動体である場合には一定時間経過すれば不要物Xによって遮蔽されている領域が見えるようになるため、選択された除去対象物が動いていると判定された場合は、撮影タイミング提示部16はその場で再度撮影をさせるように指示するメッセージを表示部13に表示する。例えば、被写体画像1から不要物Xを選択した時点で、「その場で再度撮影して下さい」というメッセージを表示部13に表示する。撮影者が表示部13に表示された指示に従ってその場で再度撮影の操作を行うことにより、画像処理部11は、撮像部10において撮像した被写体画像2を画像記録部12に記録する(ステップS14)。これにより、画像記録部12には、不要物Xが写っている被写体画像1と、被写体画像1上の不要物Xが別の位置へ移動した状態の被写体画像2が記録されたことになる。   Next, when the image processing unit 11 determines that the unnecessary object X is a moving body, the shooting timing presentation unit 16 displays a message for instructing the shooting position and timing to the photographer on the display unit 13. . If the unwanted object X is a moving object, the area shielded by the unwanted object X can be seen after a certain period of time, so if it is determined that the selected removal object is moving, shooting is performed. The timing presentation unit 16 displays a message on the display unit 13 instructing the user to shoot again on the spot. For example, when an unnecessary object X is selected from the subject image 1, a message “Please shoot again on the spot” is displayed on the display unit 13. When the photographer performs a shooting operation again on the spot in accordance with the instruction displayed on the display unit 13, the image processing unit 11 records the subject image 2 captured by the imaging unit 10 in the image recording unit 12 (step S14). ). As a result, the subject image 1 in which the unwanted object X is reflected and the subject image 2 in a state where the unwanted object X on the subject image 1 is moved to another position are recorded in the image recording unit 12.

次に、画像処理部11は、画像記録部12に記録されている被写体画像1と被写体画像2とが合成できるか否かを判定する(ステップS15)。例えば、再撮影の時点で他の物体によって除去対象領域の少なくとも一部が遮られた場合は、撮影者に対して合成ができないため、再度撮影するように指示するメッセージを表示部13に表示し、確実に合成ができる被写体画像2が得られるまで処理を繰り返し行う。これにより、撮影する場で画像合成が可能か否かを確認することができるため、画像合成の失敗がなくなる。   Next, the image processing unit 11 determines whether or not the subject image 1 and the subject image 2 recorded in the image recording unit 12 can be combined (step S15). For example, if at least a part of the removal target area is obstructed by another object at the time of re-shooting, since the compositing cannot be performed for the photographer, a message for instructing to shoot again is displayed on the display unit 13. The process is repeated until a subject image 2 that can be reliably combined is obtained. This makes it possible to check whether or not image composition is possible at the time of shooting, thereby eliminating image composition failure.

そして、合成可能な被写体画像2が得られた時点で、被写体画像1の除去対象領域に、被写体画像2の部分画像を用いて補間または置換することで合成処理を行う(ステップS16)。被写体画像2は被写体画像1とほぼ同じ位置から撮影されたものなので複雑な処理を行わなくても被写体画像1と一致し易いため、被写体画像1と被写体画像2の位置合わせや、サイズ調整など最小限の処理を行い、除去対象領域の置換を行う。このとき、被写体画像1と被写体画像2では撮影時刻に時間差があるため、屋外などでの撮影では太陽光による明るさなど変化する場合があるが、被写体画像2を被写体画像1に明るさや色調を合わせるように処理して合成する。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS20)。   Then, when the compositing subject image 2 is obtained, a compositing process is performed by interpolating or substituting the removal target area of the subject image 1 using the partial image of the subject image 2 (step S16). Since the subject image 2 is taken from almost the same position as the subject image 1, it is easy to match the subject image 1 without performing complicated processing. Therefore, the alignment of the subject image 1 and the subject image 2 and the size adjustment are minimized. Limit processing is performed to replace the area to be removed. At this time, since there is a time difference between the shooting times of the subject image 1 and the subject image 2, the brightness of the subject image 2 may change to the subject image 1 although the brightness due to sunlight may change when shooting outdoors. Process and match to match. Then, the image processing unit 11 stores the synthesized image in the image recording unit 12 (step S20).

一方、撮影タイミング提示部16は、画像処理部11において、不要物Xが静止体(または閾値以下の速度で移動する物体)であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが静止体である場合、不要物Xに遮蔽されている領域は、被写体画像1を撮影した撮影位置から移動しなければ撮影できないため、撮影タイミング提示部16は静止体であると判定した結果を受けて、不要物Xと建物202の間の領域に移動して撮影するように撮影者に指示を出す。撮影者は表示部13に表示された指示に従い、撮影位置を変えて被写体画像2の撮影を行い、画像処理部11は、撮影した被写体画像2を画像記録部12へ保存する(ステップS17)。このようにして、図2に示す被写体画像2が得られることになる。この時、撮影するべき被写体であるドア203に近づくことになるが、不要物Xの遮蔽している領域209全体がフレーム内に入っているように撮影する必要がある。   On the other hand, when the image processing unit 11 determines that the unnecessary object X is a stationary body (or an object that moves at a speed equal to or lower than the threshold), the shooting timing presentation unit 16 sets the shooting position and timing to the photographer. An instruction message is displayed on the display unit 13. If the unwanted object X is a stationary object, the region shielded by the unwanted object X cannot be photographed unless it moves from the photographing position where the subject image 1 was photographed. Therefore, the photographing timing presentation unit 16 determines that it is a stationary object. In response to the result, the photographer is instructed to move to the area between the unnecessary object X and the building 202 to shoot. The photographer changes the shooting position according to the instruction displayed on the display unit 13 to shoot the subject image 2, and the image processing unit 11 stores the shot subject image 2 in the image recording unit 12 (step S17). In this way, the subject image 2 shown in FIG. 2 is obtained. At this time, it approaches the door 203 which is the subject to be photographed, but it is necessary to photograph so that the entire area 209 where the unnecessary object X is shielded is in the frame.

図3に示すように、撮影位置210は、撮影するべき被写体(建物202のドア203)の撮影位置を示しており、その時の撮影範囲は破線211aから破線211bであり、不要物Xによって遮蔽された領域209が撮影範囲内に入っていることがわかる。撮影位置210に関して、第1の撮影位置205と不要物Xを結んだライン上であることが望ましい。これは領域209において被写体画像1と近い撮影角度で撮影でき、合成処理が簡単化できるためである。   As shown in FIG. 3, the shooting position 210 indicates the shooting position of the subject to be shot (the door 203 of the building 202), and the shooting range at that time is from the broken line 211a to the broken line 211b and is shielded by the unnecessary object X. It can be seen that the region 209 is within the shooting range. The shooting position 210 is preferably on a line connecting the first shooting position 205 and the unnecessary object X. This is because the region 209 can be photographed at a photographing angle close to the subject image 1 and the composition process can be simplified.

画像判定部15は、被写体画像1と被写体画像2とが合成できるか否かを判定することにより、撮影した被写体画像2によって被写体画像1の補間または置換ができるか否かを判定する(ステップS18)。この判定は、被写体画像1の補間対象である領域209が、被写体画像2において完全に撮影範囲に入っているか否かによって行い、例えば、被写体画像1と被写体画像2それぞれの特徴点抽出を行い、対応した特徴点が得られるか否かによって行う。図2に示す例では、被写体画像1上で指定された不要物Xを含む除去対象領域周辺の特徴点P1、P2、P3を抽出するとともに、被写体画像2から特徴点P1’、P2’、P3’を抽出し、特徴点P1と特徴点P1’、特徴点P2と特徴点P2’、特徴点P3と特徴点P3’のそれぞれが対応関係によって判定する。なお、特徴点の抽出は、公知の画像特徴点抽出処理を用いて行う。   The image determination unit 15 determines whether or not the subject image 1 can be interpolated or replaced by the captured subject image 2 by determining whether or not the subject image 1 and the subject image 2 can be combined (step S18). ). This determination is performed based on whether or not the region 209 that is the interpolation target of the subject image 1 is completely within the shooting range in the subject image 2, for example, extracting feature points of the subject image 1 and the subject image 2, respectively. This is performed depending on whether a corresponding feature point is obtained. In the example shown in FIG. 2, feature points P1, P2, and P3 around the removal target area including the unnecessary object X designated on the subject image 1 are extracted, and feature points P1 ′, P2 ′, and P3 are extracted from the subject image 2. 'Is extracted, and the feature point P1 and the feature point P1', the feature point P2 and the feature point P2 ', and the feature point P3 and the feature point P3' are determined by correspondence. The feature points are extracted using a known image feature point extraction process.

画像判定部15は、補間または置換するために必要な領域が、被写体画像2の撮影範囲に入ってない(対応点がない)などの場合、画像判定部15は、表示部13に合成ができないことを通知すると共に、再度位置を変えて撮影するように指示するメッセージを表示する。この時、領域209が撮影範囲より大きい場合はズームレンズをワイド方向に駆動させ、それでも撮影範囲に収まりきらない場合は撮影者に下がって撮影するように指示を出す。撮影者が指示に従って再度撮影を行うと、画像処理部11は、撮影された被写体画像2を画像記録部12に保存する。   The image determination unit 15 cannot synthesize the display unit 13 when the area necessary for interpolation or replacement is not within the shooting range of the subject image 2 (no corresponding point). And a message instructing to change the position and take a picture is displayed. At this time, if the area 209 is larger than the shooting range, the zoom lens is driven in the wide direction, and if it still does not fit within the shooting range, the photographer is instructed to go down and take a picture. When the photographer takes a picture again according to the instruction, the image processing unit 11 stores the photographed subject image 2 in the image recording unit 12.

次に、画像処理部11は、得られた被写体画像2と被写体画像1との合成を行う(ステップS19)。合成処理は、被写体画像1と被写体画像2で対応付けられた対応点点の座標を基に被写体画像2に対して射影変換やアフィン変換など幾何学的変換を行うことにより変形させ、除去対象物の領域部分を切り出して、被写体画像1の補間または置換することにより行う。また、このとき被写体画像1に合わせるように明るさ、色調を補正して合成する。このようにすることで撮影者が好きな位置、タイミングで撮影した被写体画像1から不要な不要物Xを取り除いた合成画像を得ることができる。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS20)。   Next, the image processing unit 11 combines the obtained subject image 2 and subject image 1 (step S19). The compositing process is performed by performing geometric transformation such as projective transformation or affine transformation on the subject image 2 based on the coordinates of the corresponding point points associated with the subject image 1 and the subject image 2, and the removal target object This is done by cutting out the region portion and interpolating or replacing the subject image 1. At this time, the brightness and the color tone are corrected so as to be matched with the subject image 1, and then synthesized. By doing so, it is possible to obtain a composite image obtained by removing unnecessary unnecessary objects X from the subject image 1 photographed at a position and timing that the photographer likes. Then, the image processing unit 11 stores the synthesized image in the image recording unit 12 (step S20).

なお、前述した説明においては、除去対象の不要物Xが1つである場合を説明したが、被写体画像1上に不要物Xが複数存在する場合でも同じように、それぞれ遮蔽された領域に対して再度撮影し、合成することで、不要物Xを取り除いた合成画像を得ることができる。例えば、除去したい不要物Xがn個ある場合は、n個の不要物Xそれぞれによって見えない遮蔽領域を個別に撮影し、それぞれの部分で合成処理を行う。この時、合成に必要な撮影画像は最大でn枚必要である。また、不要物Xに移動体と静止体が混ざっている場合においても、被写体画像1の撮影場所からの再撮影と撮影位置変更後の撮影とを組み合わせることで対応することができる。   In the above description, the case where there is one unnecessary object X to be removed has been described. However, even when there are a plurality of unnecessary objects X on the subject image 1, each of the shielded regions is similarly described. Then, the composite image from which the unnecessary object X is removed can be obtained by photographing again and compositing. For example, when there are n unnecessary objects X to be removed, a shielding area that cannot be seen by each of the n unnecessary objects X is individually photographed, and a synthesis process is performed on each portion. At this time, a maximum of n shot images necessary for composition are required. Further, even when the moving object and the stationary object are mixed with the unnecessary object X, it can be dealt with by combining the re-photographing of the subject image 1 from the photographing location and the photographing after changing the photographing position.

また、建物や風景などを背景に人物など撮影する場合があるが、人物は初めの被写体画像1を撮影する際に撮影するだけでよい。これは画像全体を処理するものではなく除去対象周辺までの領域で切り分けて処理し、処理対象領域以外は被写体画像1を基準としたものとするためである。そのため第2の被写体画像の撮影中も被写体は同じ位置に待機する必要はない。   In some cases, a person or the like is photographed against a background of a building or landscape, but the person only needs to photograph when photographing the first subject image 1. This is because the entire image is not processed, but is divided and processed in the area up to the periphery of the removal target, and the subject image 1 is used as a reference except for the processing target area. Therefore, it is not necessary for the subject to stand by at the same position during the shooting of the second subject image.

以上説明したように、不要な被写体が写り込んだ場合においても簡単に指定した対象を除去した画像が得られると共に、そのような補間が可能な画像が撮影できたか否かを容易に判定できるために画像合成の失敗を防ぐことができる。   As described above, even when an unnecessary subject is captured, it is possible to easily obtain an image from which a designated target is removed and to determine whether or not such an image capable of interpolation has been captured. In addition, failure of image composition can be prevented.

<第2の実施形態>
次に、図5〜図7を参照して、本発明の第2の実施形態による撮像装置を説明する。第2の実施形態による撮像装置は、被写体画像1の画像を合成するために、不要物Xによって遮蔽されている領域が撮影できる位置まで撮影者が移動して被写体画像2を撮影することにより、遮蔽領域の画像を得て画像を合成するものである。このため、不要物Xが遠方にある場合など不要物Xの向こう側へ移動して撮影することが困難な場合に用いることができる。第2の実施形態における撮像装置の構成は、図1に示す構成と同様であるため詳細な説明を省略する。図5、図6は、被写体を撮影する場合の被写体と撮像装置の撮影位置との関係を上方から見た状態を示す図である。図7は、第2の実施形態において、図1に示す撮像装置の処理動作を示すフローチャートである。
<Second Embodiment>
Next, an imaging device according to a second embodiment of the present invention will be described with reference to FIGS. In the imaging apparatus according to the second embodiment, in order to synthesize the image of the subject image 1, the photographer moves to a position where the area shielded by the unnecessary object X can be photographed and photographs the subject image 2. An image of the shielding area is obtained and the image is synthesized. For this reason, it can be used when it is difficult to move to the other side of the unwanted object X and photograph it, such as when the unwanted object X is far away. The configuration of the imaging apparatus in the second embodiment is the same as the configuration shown in FIG. FIG. 5 and FIG. 6 are diagrams showing the relationship between the subject and the photographing position of the imaging device when the subject is photographed as viewed from above. FIG. 7 is a flowchart showing the processing operation of the imaging apparatus shown in FIG. 1 in the second embodiment.

ここでは、第1の実施形態のように、図2に示す被写体画像1と被写体画像2を画像処理部11により合成した合成画像を得るものとして説明する。まず、撮影者が撮影したいアングルによって撮影した被写体画像1を画像記録部12に保存する(ステップS21)。被写体画像1は、図2に示すように遠方の背景に山201があり、正面の建物202を撮影した画像である。撮影者が撮影したい位置、タイミングで撮影したため、建物202と撮影位置205の間に不要物(除去対象物)Xが写り込んでいる。この時、カメラの撮影範囲は図5に示す破線206a、206bの範囲であり、その範囲の中で線207a、207bで囲まれた領域208は不要物Xによって視界が遮蔽されて背後が見えない状態となっている。そのため、不要物Xによってドア203の一部が隠されている。図5ではこの不要物Xによって遮蔽された建物202の部分を遮蔽領域209で示している。   Here, as in the first embodiment, description will be made assuming that a composite image obtained by combining the subject image 1 and the subject image 2 shown in FIG. 2 by the image processing unit 11 is obtained. First, the subject image 1 photographed at an angle that the photographer wants to photograph is stored in the image recording unit 12 (step S21). The subject image 1 is an image obtained by photographing a building 202 in front with a mountain 201 in the background in the distance as shown in FIG. Since the photographer has photographed at the position and timing at which the photographer wants to photograph, an unnecessary object (removal object) X is reflected between the building 202 and the photographing position 205. At this time, the shooting range of the camera is the range of the broken lines 206a and 206b shown in FIG. 5, and the area 208 surrounded by the lines 207a and 207b in the range is shielded by the unnecessary object X and the back cannot be seen. It is in a state. Therefore, a part of the door 203 is hidden by the unnecessary object X. In FIG. 5, a portion of the building 202 shielded by the unnecessary object X is indicated by a shielding area 209.

次に、撮影者は、指示部14を操作して、被写体画像1上の除去対象物の領域を指定する(ステップS22)。指示部14は、表示部13に設けられたタッチパネルで構成されており、表示部13に表示された被写体画像1上の不要物Xの輪郭部分を指等でたどりながら画像上の多角形領域を指定する。画像処理部11は、指示部14において指示された画像上の多角形領域の座標情報を抽出する。この除去対象物の領域の座標情報が、合成領域の座標情報となる。また、除去対象物の指定は、カメラに奥行情報が取得できる奥行き情報取得部が装備されており、指定した対象物の奥行き情報を取得し、指定部分の周辺領域で近い奥行きをもつ領域を自動的に抽出することで簡単に除去対象領域を指定する方法でもよいし、色情報を基に領域を抽出する方法でもよい。。奥行き情報の取得は、例えば、撮像部が2眼以上の多眼構成となっており、そこから得られたステレオ画像から視差量を求めて奥行きを算出する方法でも構わないし、あるパターンを照射するレーザを組み合わせることで奥行きを算出する方法でも構わない。   Next, the photographer operates the instruction unit 14 to designate a region to be removed on the subject image 1 (step S22). The instruction unit 14 includes a touch panel provided on the display unit 13, and traces the polygonal region on the image while tracing the outline of the unwanted object X on the subject image 1 displayed on the display unit 13 with a finger or the like. specify. The image processing unit 11 extracts the coordinate information of the polygonal region on the image instructed by the instruction unit 14. The coordinate information of the area to be removed becomes the coordinate information of the synthesis area. In addition, the depth information acquisition unit that can acquire depth information is equipped in the camera to specify the removal target, and the depth information of the specified target is acquired, and an area with a depth close to the peripheral area of the specified part is automatically selected. Alternatively, a method of simply designating a removal target region by extracting automatically or a method of extracting a region based on color information may be used. . For example, the depth information may be obtained by a method of calculating a depth by obtaining a parallax amount from a stereo image obtained from a multi-lens configuration in which the imaging unit has two or more eyes, and irradiating a certain pattern. A method of calculating the depth by combining lasers may be used.

ここではタッチパネルを用いた指定操作としたが、指定操作する方法はこれに限るものではない。また、被写体画像1のフォーカスの程度からフォーカスの合っていない人や物体などを除去対象に自動選択するなどカメラ側が選択して撮影者に確認させるようにして除去対象物の指定を行うようにしてもよい。除去対象の領域は不要物Xを含むある程度の大きさをもつ領域を選択し、被写体画像1と2に関して不要物Xの周辺領域での対応関係によって処理を行う。もちろん、画像から不要物Xを抽出し、不要物Xに遮蔽されている部分のみを対象としてもいい。この場合、処理対象の領域が小さいほど合成の処理量は少なくなる。本実施形態では、対象領域が全て含まれるようなエリアに対し、不要物Xの周辺部分でのパターンマッチングや特徴点による対応関係によって被写体画像2での対応領域を求めている。   Although the designation operation using the touch panel is described here, the designation operation method is not limited to this. Further, the removal target is designated by allowing the camera to select and confirm the photographer, such as automatically selecting a person or object that is out of focus as the removal target based on the degree of focus of the subject image 1. Also good. As a region to be removed, an area having a certain size including the unnecessary object X is selected, and the subject images 1 and 2 are processed according to the correspondence relationship in the peripheral area of the unnecessary object X. Of course, the unnecessary object X may be extracted from the image, and only the portion shielded by the unnecessary object X may be targeted. In this case, the smaller the area to be processed, the smaller the amount of processing for synthesis. In the present embodiment, a corresponding region in the subject image 2 is obtained from an area that includes the entire target region by pattern matching in the peripheral portion of the unnecessary object X and a correspondence relationship by feature points.

次に、画像処理部11は、ステップS22で指定した除去対象物が移動体であるか否かを判定する(ステップS23)。画像処理部11には、被写体画像1上の移動体を判別する機能を備えており、除去対象物の移動速度によって処理方法を適切に選択する。本実施例では除去対象の不要物Xが移動体であるか静止体であるかの判定を次のような処理により行う。画像処理部11は、撮像部10により撮像した被写体画像1を画像記録部12に記録する際に、時系列で並んだ複数枚の画像を保存し、画像間の差分によって移動体かを判別する。例えば、被写体画像1の撮影時に後ろのフレームも同時に記録しておき、被写体画像1と後ろフレームでの不要物Xの位置関係を比較することで移動体か静止体であるか判定を行う。このとき、画像処理部11は、不要物Xが移動体である場合、移動体の移動量(画像上のずれ量)とフレームレートに基づいて移動体の移動速度を算出する。   Next, the image processing unit 11 determines whether or not the removal target specified in step S22 is a moving object (step S23). The image processing unit 11 has a function of discriminating a moving body on the subject image 1 and appropriately selects a processing method according to the moving speed of the removal target. In this embodiment, whether the unnecessary object X to be removed is a moving body or a stationary body is determined by the following process. When the subject image 1 captured by the imaging unit 10 is recorded in the image recording unit 12, the image processing unit 11 stores a plurality of images arranged in time series, and determines whether the object is a moving object based on the difference between the images. . For example, when the subject image 1 is captured, the back frame is recorded at the same time, and the positional relationship between the subject image 1 and the unnecessary object X in the back frame is compared to determine whether the object is a moving body or a stationary body. At this time, when the unnecessary object X is a moving object, the image processing unit 11 calculates the moving speed of the moving object based on the moving amount (shift amount on the image) of the moving object and the frame rate.

なお、ここでは複数枚の画像から移動体であるか否かの判定を行う説明をしたが、速度測定用のセンサを設けるなどして、移動体の判定とその速度を求めるようにしてもよい。ただし、移動体である場合の処理方法は移動速度が所定の閾値を超えたものに対して行う。なぜなら、非常に低速な対象では処理対象領域外に移動するのに時間がかかる場合があるためである。   Here, although it has been described that it is determined whether or not it is a moving body from a plurality of images, the determination of the moving body and its speed may be obtained by providing a sensor for speed measurement. . However, the processing method in the case of a moving body is performed for a moving speed exceeding a predetermined threshold. This is because it may take time to move out of the processing target area for a very slow target.

次に、撮影タイミング提示部16は、画像処理部11において、不要物Xが移動体であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが移動体である場合には一定時間経過すれば不要物Xによって遮蔽されている領域が見えるようになるため、選択された除去対象物が動いていると判定された場合は、撮影タイミング提示部16はその場で再度撮影をさせるように指示するメッセージを表示部13に表示する。例えば、被写体画像1から不要物Xを選択した時点で、「その場で再度撮影して下さい」というメッセージを表示部13に表示する。撮影者が表示部13に表示された指示に従ってその場で再度撮影の操作を行うことにより、画像処理部11は、撮像部10において撮像した被写体画像2を画像記録部12に保存する(ステップS24)。これにより、画像記録部12には、不要物Xが写っている被写体画像1と、被写体画像1上の不要物Xが別の位置へ移動した状態の被写体画像2が記録されたことになる。   Next, when the image processing unit 11 determines that the unnecessary object X is a moving body, the shooting timing presentation unit 16 displays a message for instructing the shooting position and timing to the photographer on the display unit 13. . If the unwanted object X is a moving object, the area shielded by the unwanted object X can be seen after a certain period of time, so if it is determined that the selected removal object is moving, shooting is performed. The timing presentation unit 16 displays a message on the display unit 13 instructing the user to shoot again on the spot. For example, when an unnecessary object X is selected from the subject image 1, a message “Please shoot again on the spot” is displayed on the display unit 13. When the photographer performs a photographing operation again on the spot in accordance with the instruction displayed on the display unit 13, the image processing unit 11 stores the subject image 2 captured by the imaging unit 10 in the image recording unit 12 (step S24). ). As a result, the subject image 1 in which the unwanted object X is reflected and the subject image 2 in a state where the unwanted object X on the subject image 1 is moved to another position are recorded in the image recording unit 12.

次に、画像処理部11は、画像記録部12に記録されている被写体画像1と被写体画像2とが合成できるか否かを判定する(ステップS25)。例えば、再撮影の時点で他の物体によって除去対象領域の少なくとも一部が遮られた場合は、撮影者に対して合成ができないため、再度撮影するように指示するメッセージを表示部13に表示し、確実に合成ができる被写体画像2が得られるまで処理を繰り返し行う。これにより、撮影する場で画像合成が可能か否かを確認することができるため、画像合成の失敗がなくなる。   Next, the image processing unit 11 determines whether or not the subject image 1 and the subject image 2 recorded in the image recording unit 12 can be combined (step S25). For example, if at least a part of the removal target area is obstructed by another object at the time of re-shooting, since the compositing cannot be performed for the photographer, a message for instructing to shoot again is displayed on the display unit 13. The process is repeated until a subject image 2 that can be reliably combined is obtained. This makes it possible to check whether or not image composition is possible at the time of shooting, thereby eliminating image composition failure.

そして、合成可能な被写体画像2が得られた時点で、被写体画像1の除去対象領域に、被写体画像2の部分画像を用いて補間または置換することで合成処理を行う(ステップS26)。被写体画像2は被写体画像1とほぼ同じ位置から撮影されたものなので複雑な処理を行わなくても被写体画像1と一致し易いため、被写体画像1と被写体画像2の位置合わせや、サイズ調整など最小限の処理を行い、除去対象領域の置換を行う。このとき、被写体画像1と被写体画像2では撮影時刻に時間差があるため、屋外などでの撮影では太陽光による明るさなど変化する場合があるが、被写体画像2を被写体画像1に明るさや色調を合わせるように処理して合成する。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。   Then, when the compositing subject image 2 is obtained, the compositing process is performed by interpolating or substituting the removal target area of the subject image 1 using the partial image of the subject image 2 (step S26). Since the subject image 2 is taken from almost the same position as the subject image 1, it is easy to match the subject image 1 without performing complicated processing. Therefore, the alignment of the subject image 1 and the subject image 2 and the size adjustment are minimized. Limit processing is performed to replace the area to be removed. At this time, since there is a time difference between the shooting times of the subject image 1 and the subject image 2, the brightness of the subject image 2 may change to the subject image 1 although the brightness due to sunlight may change when shooting outdoors. Process and match to match. Then, the image processing unit 11 stores the synthesized image in the image recording unit 12 (step S32).

一方、撮影タイミング提示部16は、画像処理部11において、不要物Xが静止体(または閾値以下の速度で移動する物体)であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが静止体である場合、不要物Xに遮蔽されている領域は、被写体画像1を撮影した撮影位置から移動しなければ撮影できないため、撮影タイミング提示部16は静止体であると判定した結果を受けて、不要物Xにより遮蔽されている領域を撮影することができる位置に移動して撮影するように撮影者に指示を出す。撮影者は表示部13に表示された指示に従い、撮影位置を変えて被写体画像2の撮影を行い、画像処理部11は、撮影した被写体画像2を画像記録部12へ保存する(ステップS27)。   On the other hand, when the image processing unit 11 determines that the unnecessary object X is a stationary body (or an object that moves at a speed equal to or lower than the threshold), the shooting timing presentation unit 16 sets the shooting position and timing to the photographer. An instruction message is displayed on the display unit 13. If the unwanted object X is a stationary object, the region shielded by the unwanted object X cannot be photographed unless it moves from the photographing position where the subject image 1 was photographed. Therefore, the photographing timing presentation unit 16 determines that it is a stationary object. In response to the result, the photographer is instructed to move to a position where the area shielded by the unnecessary object X can be photographed. The photographer changes the shooting position according to the instruction displayed on the display unit 13 to shoot the subject image 2, and the image processing unit 11 stores the shot subject image 2 in the image recording unit 12 (step S27).

図5に示すように、撮影位置205が初めの撮影位置、撮影位置410が移動後の撮影位置であり、撮影位置410から撮影した際の撮像範囲が一点鎖線411a、411bで示す範囲となる。また、撮影位置410から見た遮蔽領域209に対応する視線範囲が実線412a、412bに囲まれた範囲となる。不要物Xによって遮蔽されている領域を補間する必要があるため、撮影タイミング提示部16は遮蔽領域209全体が見える位置まで左または右方向に移動するように指示する。図5では撮影者は左方向に移動し、不要物Xによって領域209が完全に遮蔽されていない位置410まで移動した例を示している。   As shown in FIG. 5, the shooting position 205 is the first shooting position, the shooting position 410 is the moved shooting position, and the shooting range when shooting from the shooting position 410 is a range indicated by alternate long and short dash lines 411a and 411b. In addition, the line-of-sight range corresponding to the shielding area 209 viewed from the imaging position 410 is a range surrounded by solid lines 412a and 412b. Since it is necessary to interpolate the area shielded by the unnecessary object X, the imaging timing presentation unit 16 instructs to move leftward or rightward to a position where the entire shielded area 209 can be seen. FIG. 5 shows an example in which the photographer moves leftward and moves to a position 410 where the area 209 is not completely shielded by the unnecessary object X.

画像判定部15は、被写体画像1と被写体画像2とが合成できるか否かを判定することにより、撮影した被写体画像2によって被写体画像1の補間または置換ができるか否かを判定する(ステップS28)。この判定は、被写体画像1の補間対象である領域209が、被写体画像2において完全に撮影範囲に入っているか否かによって行い、例えば、被写体画像1と被写体画像2それぞれの特徴点抽出を行い、対応した特徴点が得られるか否かによって行う。この判定の結果、合成できる場合、画像処理部11は、得られた被写体画像2と被写体画像1との合成を行う(ステップS29)。   The image determination unit 15 determines whether or not the subject image 1 can be interpolated or replaced by the captured subject image 2 by determining whether or not the subject image 1 and the subject image 2 can be combined (step S28). ). This determination is performed based on whether or not the region 209 that is the interpolation target of the subject image 1 is completely within the shooting range in the subject image 2, for example, extracting feature points of the subject image 1 and the subject image 2, respectively. This is performed depending on whether a corresponding feature point is obtained. If the result of this determination is that composition is possible, the image processing unit 11 performs composition of the obtained subject image 2 and subject image 1 (step S29).

合成処理は、被写体画像1と被写体画像2で対応付けられた対応点の座標を基に被写体画像2に対して射影変換やアフィン変換など幾何学的変換を行い、除去対象物の領域部分を切り出して、被写体画像1の補間または置換することにより行う。つまり、被写体画像2は被写体画像1の撮影方向に比べて斜め方向からの撮影となっているため、公知の射影変換処理などによって被写体画像1の撮影方向からの画像と一致するように補正を行う。また、さらに被写体画像1に合わせるように明るさ、色調を補正し、被写体画像1へと合成する。このような合成処理は画像全体で行う必要はなく、必要な領域のみで行うことで処理量が削減できる。また、マッチングを取るための領域は確保する必要がある。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。   The composition processing performs geometric transformation such as projective transformation or affine transformation on the subject image 2 based on the coordinates of the corresponding points associated with the subject image 1 and the subject image 2, and cuts out the region portion of the removal target object. Then, it is performed by interpolating or replacing the subject image 1. That is, since the subject image 2 is taken from an oblique direction compared to the photographing direction of the subject image 1, correction is performed so as to match the image from the photographing direction of the subject image 1 by a known projective transformation process or the like. . Further, the brightness and the color tone are corrected so as to match the subject image 1, and the subject image 1 is synthesized. Such a composition process does not need to be performed on the entire image, and the processing amount can be reduced by performing it only on a necessary area. In addition, it is necessary to secure an area for matching. Then, the image processing unit 11 stores the synthesized image in the image recording unit 12 (step S32).

一方、被写体画像2だけでは不要物Xによって遮蔽されている領域209の補間が行えず画像合成ができない場合、画像判定部15は、表示部13に合成ができないことを通知すると共に、さらに撮影位置を変えて撮影するように指示するメッセージを表示する。この時、不要物Xと領域209の位置関係からさらにどちら方向へ移動すべきか通知を行う。被写体画像2の撮影位置に関して具体的な指示を出す場合は、例えば、撮像装置が多眼カメラで構成され、各カメラ画像間での視差によって建物202と不要物Xとの位置関係と大きさを求めることで、どれだけの距離を移動して撮影すべきかを具体的に提示するようにしてもよい。ここでは多眼カメラによる距離推定を提示したがこの手法に限ることなくレーザを用いた距離推定など他の測距方法でもよい。   On the other hand, if the subject image 2 alone cannot interpolate the area 209 that is shielded by the unnecessary object X and the image composition cannot be performed, the image determination unit 15 notifies the display unit 13 that the composition cannot be performed, and further the shooting position. A message is displayed instructing you to shoot with different images. At this time, it is notified which direction to move further from the positional relationship between the unwanted object X and the region 209. When giving a specific instruction regarding the shooting position of the subject image 2, for example, the imaging device is configured with a multi-lens camera, and the positional relationship and size between the building 202 and the unnecessary object X are determined by the parallax between the camera images. By obtaining, it may be specifically shown how much distance should be moved and photographed. Although distance estimation using a multi-lens camera is presented here, other distance measurement methods such as distance estimation using a laser may be used without being limited to this method.

次に、撮影者が提示された方向と距離に従って移動し撮影を行うと、画像処理部11は、撮像部10から出力される画像データを画像記録部12へ保存する(ステップS30)。例えば、被写体である建物202と撮影距離がある程度離れている場合や、風景など遠方のものを撮影している場合には被写体画像1との視差がそれほど発生しないために被写体画像2によっての合成が比較的容易に行える。また、遮蔽領域209が平面的なものである場合でも処理は行いやすい。しかし、領域209に凹凸がある場合はオクルージョンが発生し、一部合成処理のできない個所ができる。そのため、さらに異なった方向からの撮影画像を用いてその部分の補間を行う必要がある。   Next, when the photographer moves according to the presented direction and distance and performs photographing, the image processing unit 11 stores the image data output from the imaging unit 10 in the image recording unit 12 (step S30). For example, when the shooting distance is some distance away from the building 202 as a subject, or when shooting a distant object such as a landscape, parallax with the subject image 1 does not occur so much, so that the composition by the subject image 2 is performed. It can be done relatively easily. Further, even when the shielding area 209 is planar, the processing is easy. However, if the region 209 has irregularities, occlusion occurs, and there are portions that cannot be partially combined. For this reason, it is necessary to interpolate that portion using captured images from different directions.

図6に示すように、撮影位置410から撮影した画像では遮蔽領域209の全体は視認できるものの、遮蔽領域209に凹凸がある場合は、完全に補間が行えないため、さらに撮影位置を変えて被写体画像2とは異なる新たな被写体画像(これを被写体画像3と称する)を撮影する必要がある。撮影位置513は、被写体画像3を撮影するべき撮影位置を示している。破線514aと514bで囲まれている領域は撮影位置513から撮影した時の撮影範囲を示し、実線515aと515bで囲まれている領域は領域209が視認できる範囲を示している。この被写体画像3の撮影位置513は、被写体画像1の撮影位置205と不要物Xを結ぶラインに対して被写体画像2の撮影位置410と反対側となる位置とするのが望ましい。なぜなら、撮影位置410と同じ側である場合は撮影位置410から見て死角になる部分があまり変わらない可能性が大きいためである。そのため逆方向から撮影することで死角部分の視認が行えるようになる。このように、領域209が視認でき、かつ被写体画像2とは異なる位置にて撮影された被写体画像3は画像記録部12に保存され、合成処理に用いられる。   As shown in FIG. 6, in the image taken from the photographing position 410, the entire shielding area 209 can be visually recognized, but if the shielding area 209 is uneven, interpolation cannot be performed completely. It is necessary to photograph a new subject image (referred to as subject image 3) different from the image 2. The shooting position 513 indicates a shooting position where the subject image 3 should be shot. A region surrounded by broken lines 514a and 514b indicates a shooting range when shooting from the shooting position 513, and a region surrounded by solid lines 515a and 515b indicates a range where the region 209 can be visually recognized. The shooting position 513 of the subject image 3 is preferably a position opposite to the shooting position 410 of the subject image 2 with respect to the line connecting the shooting position 205 of the subject image 1 and the unnecessary object X. This is because, when it is on the same side as the photographing position 410, there is a high possibility that the part that becomes a blind spot when viewed from the photographing position 410 does not change much. Therefore, the blind spot can be visually recognized by photographing from the opposite direction. In this way, the subject image 3 in which the region 209 can be visually recognized and photographed at a position different from the subject image 2 is stored in the image recording unit 12 and used for the composition process.

次に、画像処理部11は、画像記録部12に保存されている被写体画像1、被写体画像2及び被写体画像3を用いて合成処理を行う(ステップS31)。被写体画像2と被写体画像3をそれぞれ射影変換など行うことで被写体画像1方向からの画像を作成し、それらを用いて被写体画像1と除去対象領域に対して補間または置換を行う。この時、被写体画像1に明るさや色調を合わせも行う。また、合成処理の際には被写体画像2と被写体画像3から被写体画像1の方向から見た自由視点画像を作成し、対応部分を置換または補間するようにしてもよい。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。   Next, the image processing unit 11 performs composition processing using the subject image 1, the subject image 2, and the subject image 3 stored in the image recording unit 12 (step S31). The subject image 2 and the subject image 3 are each subjected to projective transformation or the like to create an image from the direction of the subject image 1 and are used to interpolate or replace the subject image 1 and the removal target region. At this time, the brightness and color tone of the subject image 1 are also adjusted. In addition, a free viewpoint image viewed from the direction of the subject image 1 may be created from the subject image 2 and the subject image 3 during the synthesis process, and the corresponding portion may be replaced or interpolated. Then, the image processing unit 11 stores the synthesized image in the image recording unit 12 (step S32).

第2の実施形態の説明においては、3つの被写体画像1〜3を合成する例を説明したが、合成する被写体画像の数は、3つに限定するものではなく、必要に応じてさらに複数枚の画像を用いて画像合成するようにしてもよい。また、除去対象の不要物X1つである場合を説明したが、複数存在する場合は同じように、それぞれ遮蔽された領域毎に同様な処理を行うことにより不要物Xが複数存在する場合の適用可能である。不要な対象が移動体や静止体と混在した場合であっても撮影方法をそれぞれ適宜使用することで不要な被写体を除去した画像を得ることができる。   In the description of the second embodiment, the example in which the three subject images 1 to 3 are combined has been described. However, the number of subject images to be combined is not limited to three, and a plurality of subject images may be added as necessary. Images may be synthesized using these images. Moreover, although the case where there is one unnecessary object X to be removed has been described, the same applies to the case where there are a plurality of unnecessary objects X by performing the same process for each shielded area, when there are a plurality of unnecessary objects X Is possible. Even when unnecessary objects are mixed with a moving object or a stationary object, an image from which an unnecessary object is removed can be obtained by appropriately using the photographing methods.

また、建物などを背景に人物など撮影する場合があるが、人物は初めの被写体画像1を撮影する際に撮影するだけでよい。これは画像全体を処理するものではなく除去対象周辺までの領域で切り分けて処理し、処理対象領域以外は被写体画像1を基準としたものとするためである。そのため合成のための撮影中も同じ位置に待機する必要はない。   In some cases, a person or the like is photographed against the background of a building or the like, but the person only needs to photograph when the first subject image 1 is photographed. This is because the entire image is not processed, but is divided and processed in the area up to the periphery of the removal target, and the subject image 1 is used as a reference except for the processing target area. Therefore, it is not necessary to wait at the same position during shooting for composition.

以上説明したように、撮像した画像から指定する不要な被写体を除去した画像を生成するために、初めに撮影した被写体画像から除去したい不要な物体を指定し、指定した不要な物体が写っていない新たな被写体画像を撮影し、初めに撮影した被写体画像上の除去対象領域を新たに撮影した被写体画像の部分画像で補間または置換するように合成処理することで指定した不要な物体が除去された画像を得るようにしたため、撮影を行う際に静止体、移動体に関わらず撮影者にとって不要な対象物を除去した画像を撮影現場で得ることができる。   As described above, in order to generate an image in which an unnecessary subject to be specified is removed from the captured image, an unnecessary object to be removed is specified from the first captured subject image, and the specified unnecessary object is not captured. A new subject image was shot, and the unnecessary object specified by removing the target area on the first shot subject image by interpolating or substituting with the partial image of the newly shot subject image was removed. Since the image is obtained, it is possible to obtain an image in which an object unnecessary for the photographer is removed regardless of whether it is a stationary body or a moving body when photographing.

近年は、画像データがデジタル化されたため、撮影した画像データをパソコンに取り込み、パソコン上で合成処理することにより、好みの写真を作り出すことができるようになってきたため、初めに撮影した画像に不要物が写っていた場合、その不要物が写っていない新たな画像を撮影し、自宅にあるパソコンで合成を行うことにより、不要物を除去した画像を作り出すことが可能になった。しかし、新たに撮影した画像が、不要物を除去するために用いることができるか否かは、パソコン上で合成を行ってみないと分からず、適切な画像が撮影できなかった場合は、不要物を除去するための合成が行えない場合がある。   In recent years, since the image data has been digitized, it has become possible to create a favorite photo by importing the captured image data into a computer and compositing on the computer, so it is not necessary for the first image taken When an object was captured, it was possible to create an image with the unnecessary object removed by taking a new image without the unnecessary object and compositing it on a personal computer at home. However, whether or not a newly taken image can be used to remove unnecessary objects is not known unless it is synthesized on a personal computer, and it is unnecessary if an appropriate image cannot be taken. There is a case where the synthesis for removing the object cannot be performed.

本発明による撮像装置は、新たな被写体画像を撮影した際に、その場で、合成を行えるか否かを判定するようにして、合成を行うことができる被写体画像を得ることができなかった場合は、再度撮影指示を表示するようにしたため、不要物を除去するための画像合成の失敗を防ぐことができ、不要物を除去した画像を確実に得ることが可能となる。   When the imaging apparatus according to the present invention has been unable to obtain a subject image that can be combined by determining whether or not composition can be performed on the spot when a new subject image is captured Since the shooting instruction is displayed again, it is possible to prevent failure of image composition for removing unnecessary objects, and it is possible to reliably obtain an image from which unnecessary objects are removed.

なお、図1における画像処理部11、画像判定部15及び撮影タイミング提示部16の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像合成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing the functions of the image processing unit 11, the image determination unit 15, and the photographing timing presentation unit 16 in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in the computer. The image composition processing may be performed by reading the system and executing it. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

デジタルの画像データを合成することにより、不要物を除去した画像を新たに生成する用途に適用できる。   By synthesizing digital image data, it can be applied to a purpose of newly generating an image from which unnecessary objects are removed.

10・・・撮像部、11・・・画像処理部、12・・・画像記録部、13・・・表示部、14・・・指示部、15・・・画像判定部、16・・・撮影タイミング提示部   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 11 ... Image processing part, 12 ... Image recording part, 13 ... Display part, 14 ... Instruction part, 15 ... Image determination part, 16 ... Photographing Timing presentation section

Claims (7)

被写体を撮影する撮像部と、
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部とを備え、
前記指示表示部は、前記第1の被写体画像の撮影位置とは異なる撮影位置において、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする撮像装置。
An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable ;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
The imaging apparatus , wherein the instruction display unit displays a shooting instruction for shooting the second subject image at a shooting position different from the shooting position of the first subject image .
前記指示表示部は、前記第2の被写体画像を複数撮影する場合に、前記第2の被写体画像の撮影位置のそれぞれが異なる位置になるように撮影指示を表示することを特徴とする請求項に記載の撮像装置。 The instruction display unit, according to claim 1, wherein the second object image when a plurality of photography, each of the imaging position of the second object image and displaying the photographing instruction such that the different positions The imaging device described in 1. 被写体を撮影する撮像部と、
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と、
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部と、
前記領域指定部により指定された前記領域内の被写体が移動体であるか否かを判定する移動体判定部を備え、
前記指示表示部は、前記領域内の被写体が移動体である場合には、前記第1の被写体画像を撮影した撮影位置から前記第2の被写体画像を撮影させる撮影指示を表示し、
前記領域内の被写体が移動体でない場合には、前記領域内の被写体が写らない位置へ移動して、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする撮像装置。
An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
And a moving object determining section for determining a subject in the specified the region whether a moving object by the area specifying unit,
The instruction display unit displays a shooting instruction for shooting the second subject image from a shooting position where the first subject image was shot when the subject in the area is a moving body,
Wherein when the object in the region is not a moving body is moved to a position where the subject in the field can not reflected, the second feature and to that imaging device to display a shooting instruction for shooting a subject image .
被写体を撮影する撮像部と、
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と、
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部と、
撮影領域の位置関係を判定することができる奥行き判定部を備え、前記指示表示部は、前記除去対象領域に応じて第2の撮影位置の方向と距離とを表示することを特徴とする撮像装置。
An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
And a depth determination unit capable of determining the positional relationship between the photographing area, the instruction display unit, you and displaying the direction and distance of the second imaging position in response to the removal target area imaging device.
前記撮像部は同時に異なる視点からみた2つの被写体画像データを得ることができる2眼の撮像部を備え、
前記奥行き判定部は前記2つの被写体画像データの視差から奥行きを取得することを特徴とする請求項に記載の撮像装置。
The imaging unit includes an imaging unit of the 2 eyes can be obtained two object picture image data viewed from different viewpoints simultaneously,
The depth determination unit imaging apparatus according to claim 4, characterized in that to obtain the depth from the parallax of the two object picture image data.
前記画像合成部は、前記第2の被写体画像取得部によって取得した複数の第2の被写体画像データのそれぞれから抽出した前記部分画像データを用いて、前記第1の被写体画像データ上の前記除去対象領域に対する画像合成を行うことを特徴とする請求項1から4のいずれかに記載の撮像装置。 The image composition unit uses the partial image data extracted from each of a plurality of second subject image data acquired by the second subject image acquisition unit, and uses the partial image data extracted from the first subject image data. the imaging apparatus according to claim 1, characterized in that performing the image synthesis for region 4. 前記画像合成部は、前記部分画像データを変形させて前記第1の被写体画像データ上の前記除去対象領域に対して画像合成することを特徴とする請求項1から4のいずれかに記載の撮像装置。 The image synthesizing unit, the image pickup according to any one of claims 1 to 4, characterized in that the image synthesizing the partial image data by deforming to the removal target region on the first object image data apparatus.
JP2009164854A 2009-07-13 2009-07-13 Imaging device Expired - Fee Related JP5230013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009164854A JP5230013B2 (en) 2009-07-13 2009-07-13 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009164854A JP5230013B2 (en) 2009-07-13 2009-07-13 Imaging device

Publications (2)

Publication Number Publication Date
JP2011023814A JP2011023814A (en) 2011-02-03
JP5230013B2 true JP5230013B2 (en) 2013-07-10

Family

ID=43633535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009164854A Expired - Fee Related JP5230013B2 (en) 2009-07-13 2009-07-13 Imaging device

Country Status (1)

Country Link
JP (1) JP5230013B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11416978B2 (en) 2017-12-25 2022-08-16 Canon Kabushiki Kaisha Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
US11830177B2 (en) 2017-12-25 2023-11-28 Canon Kabushiki Kaisha Image processing apparatus, control method and non-transitory computer-readable recording medium therefor

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6115024B2 (en) * 2012-04-25 2017-04-19 カシオ計算機株式会社 Imaging apparatus, imaging processing method, and program
JP6429483B2 (en) * 2013-07-09 2018-11-28 キヤノン株式会社 Information processing apparatus, imaging apparatus, information processing system, information processing method, and program
JP6622886B2 (en) * 2013-07-09 2019-12-18 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6494402B2 (en) * 2015-04-30 2019-04-03 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP6529345B2 (en) * 2015-06-04 2019-06-12 株式会社クリプトン Image combining apparatus and image combining method
JP6351663B2 (en) * 2016-06-23 2018-07-04 株式会社つくばマルチメディア Spherical video imaging device, global sphere video imaging system, omnidirectional video imaging program, recording medium recording the same, and omnidirectional video imaging method
JP6770442B2 (en) * 2017-01-06 2020-10-14 日本放送協会 Image processing device and its program
EP3598734A4 (en) * 2017-03-16 2020-03-04 Fujifilm Corporation Image compositing device, image compositing method, and program
JP7091199B2 (en) * 2018-09-12 2022-06-27 株式会社東芝 Image processing equipment, methods and programs
CN111917980B (en) * 2020-07-29 2021-12-28 Oppo(重庆)智能科技有限公司 Photographing control method and device, storage medium and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4777116B2 (en) * 2006-03-30 2011-09-21 キヤノン株式会社 Image processing apparatus and method, and imaging apparatus
JP2008182499A (en) * 2007-01-25 2008-08-07 Nikon Corp Image processor and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11416978B2 (en) 2017-12-25 2022-08-16 Canon Kabushiki Kaisha Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
US11830177B2 (en) 2017-12-25 2023-11-28 Canon Kabushiki Kaisha Image processing apparatus, control method and non-transitory computer-readable recording medium therefor

Also Published As

Publication number Publication date
JP2011023814A (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP5230013B2 (en) Imaging device
US11228748B2 (en) Application processor for disparity compensation between images of two cameras in digital photographing apparatus
JP6271990B2 (en) Image processing apparatus and image processing method
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
WO2015081870A1 (en) Image processing method, device and terminal
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2008193196A (en) Imaging device and specified voice output method
JPWO2012002046A1 (en) Stereoscopic panorama image synthesis device, compound eye imaging device, and stereo panorama image synthesis method
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
WO2016184131A1 (en) Image photographing method and apparatus based on dual cameras and computer storage medium
JP2012249175A (en) Imaging apparatus, display method, and program
US20120212640A1 (en) Electronic device
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JPWO2014077065A1 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2017011504A (en) Imaging device, image processing method and program
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP5646582B2 (en) Imaging device
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2012156747A (en) Imaging apparatus, image composition method, and program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP6700693B2 (en) Imaging device, control method thereof, program, and storage medium
JP5718502B2 (en) Image creating apparatus and image creating method
JP2011182014A (en) Image pickup device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees