JP5230013B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5230013B2 JP5230013B2 JP2009164854A JP2009164854A JP5230013B2 JP 5230013 B2 JP5230013 B2 JP 5230013B2 JP 2009164854 A JP2009164854 A JP 2009164854A JP 2009164854 A JP2009164854 A JP 2009164854A JP 5230013 B2 JP5230013 B2 JP 5230013B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- subject
- subject image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像編集を行うことができる撮像装置に関する。 The present invention relates to an imaging apparatus capable of performing image editing.
近年カメラは、フィルムを使うフィルムカメラから、撮像素子を使うデジタルカメラへと移行しつつある。デジタルカメラの大きなメリットの一つとして、内蔵メモリの容量が大きいので撮影できる残り枚数や失敗した撮影を気にせずに、いつでもどこでも気軽に撮影ができるということが挙げられる。しかしながら、こうした手軽なデジタルカメラで撮影しようとする際に、撮影者にとって不要な物体が撮影範囲内に入り込んでしまう場合があり、いつでもどこでも撮影できるというメリットが活かせない場合がある。例えば観光地などで記念に撮影する場合、他の観光客が撮影範囲内に入ってしまったり、撮影時に通行中の車が入ってしまったりなど、不要な物体が撮影範囲内に入ってしまう場合がある。そのため、撮影者は撮影場所を変えたり、撮影するタイミングを計ったりなどする必要があり、撮影者にとって撮りたい場所やタイミングで撮影できないという問題がある。 In recent years, cameras are shifting from film cameras that use film to digital cameras that use image sensors. One of the big merits of digital cameras is that the built-in memory has a large capacity, so you can easily shoot anytime, anywhere without worrying about the remaining number of shots or failed shots. However, when shooting with such a handy digital camera, an object unnecessary for the photographer may enter the shooting range, and the advantage of being able to shoot anytime and anywhere may not be utilized. For example, when taking a memorial photo at a tourist spot, unnecessary objects may fall within the shooting range, such as other tourists entering the shooting range or a passing car at the time of shooting. There is. Therefore, it is necessary for the photographer to change the shooting location or to measure the shooting timing, and there is a problem that the photographer cannot take a photo at the desired location and timing.
このような不要な物体を削除する手法として、撮影中に割り込んだ物体を除去する手法がいくつか提案されている。例えば、風景を背景とした人物の撮影をする際に、所定の時間間隔で3枚の画像を連続して撮影し、3枚の画像のうち2枚以上の画像から一致する部分を抽出して画像を合成することで、撮影中に撮影範囲に入った動きのある第3者を除去した画像を得る手法が提案されている(例えば、特許文献1参照)。また、電車の窓から風景を撮影する際に、連続的に撮影を行い、障害物の写りこんでいない前後の画像から手前にある不要な障害物を削除する手法が提案されている(例えば、特許文献2参照)。 As a technique for deleting such an unnecessary object, several techniques for removing an object interrupted during photographing have been proposed. For example, when photographing a person with a landscape background, three images are continuously photographed at a predetermined time interval, and a matching portion is extracted from two or more images of the three images. A method has been proposed in which an image obtained by removing a moving third person who has entered a shooting range during shooting is synthesized by synthesizing images (see, for example, Patent Document 1). In addition, when shooting a landscape from a train window, a technique has been proposed in which continuous shooting is performed, and unnecessary obstacles in front are deleted from images before and after the obstacle is not reflected (for example, Patent Document 2).
しかしながら、特許文献1に開示された技術は、除去できる不要な物体は動いている移動体のみであり、静止している不要な物体に対しては適用できない。また、動いている対象はすべて除去対象となってしまうため、被写体が移動体の場合には撮影者が残しておきたい場合であっても除去されてしまう。そのため、移動体が複数存在する場合であっても除去すべきものと残すべきものを選択できず、希望通りの画像が得られない。さらには連続した3枚の画像では連続撮影中に同じ範囲に他の移動体が入り込んでしまったりすると除去対象物によって遮蔽された部分が補間できないという問題がある。 However, the technique disclosed in Patent Document 1 is an unnecessary object that can be removed only by a moving object, and cannot be applied to an unnecessary object that is stationary. Further, since all moving objects are to be removed, they are removed even if the photographer wants to leave them when the subject is a moving object. For this reason, even if there are a plurality of moving bodies, it is not possible to select what should be removed and what should be left, and a desired image cannot be obtained. Furthermore, in the case of three consecutive images, there is a problem that if another moving object enters the same range during continuous shooting, the portion shielded by the removal target cannot be interpolated.
一方、特許文献2に開示された技術は、撮影者は移動中の乗り物に乗っているという限定された環境であり、撮影者が静止している環境下では不要物を除去できない。また、撮影者に対して相対的に動いているものを除去してしまうため、一部を消したくない場合であっても前方の移動体を全て除去してしまい、希望通りの画像を得ることができないという問題がある。
On the other hand, the technique disclosed in
すなわち、従来の技術は撮影者に対して相対的に動いている物体のみを除去するものであり、除去できるものが限定されている。また、複数枚の撮影画像から不要物を削除した画像を得るが、撮影者に対して相対的に動いているものであっても相対速度が小さい場合には、ある時間間隔で撮影した画像では完全に遮蔽されている部分が視界に入る保証はなく、その場合には除去がうまくできないという問題がある。 That is, the conventional technique removes only an object that moves relative to the photographer, and what can be removed is limited. In addition, an image obtained by deleting unnecessary objects from a plurality of photographed images is obtained. However, if the relative speed is low even if the object is moving relative to the photographer, There is no guarantee that a completely shielded part will enter the field of view, and in that case there is a problem that the removal cannot be performed well.
本発明は、このような事情に鑑みてなされたもので、移動体、静止体に関わらず撮影者の指定する対象物を除去した画像を撮影現場で簡単に生成することができる撮像装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an imaging apparatus that can easily generate an image from which an object designated by a photographer is removed regardless of whether it is a moving body or a stationary body. The purpose is to do.
本発明は、被写体を撮影する撮像部と、前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部とを備えることを特徴とする。 The present invention displays an imaging unit that captures a subject, a first subject image acquisition unit that obtains first subject image data captured by the imaging unit, the first subject image data, and the first subject image data. An area designating unit for designating a removal target area on the image data; a second subject image obtaining unit for obtaining second subject image data captured by the imaging unit; and the removal target area from the second subject image data A partial image data corresponding to the image, and determining whether or not the partial image data can be combined with the removal target region on the first subject image data; and the image determination An image synthesizer that synthesizes the partial image data with the removal target area on the first subject image data when the determination result of the image can be synthesized.
本発明は、前記画像合成部は、前記第2の被写体画像取得部によって取得した複数の第2の被写体画像データのそれぞれから抽出した前記部分画像データを用いて、前記第1の被写体画像データ上の前記除去対象領域に対する画像合成を行うことを特徴とする。 According to the present invention, the image composition unit uses the partial image data extracted from each of the plurality of second subject image data acquired by the second subject image acquisition unit, and uses the partial image data on the first subject image data. The image composition is performed on the removal target area.
本発明は、前記画像合成部は、前記部分画像データを変形させて前記第1の被写体画像データ上の前記除去対象領域に対して画像合成することを特徴とする。 The present invention is characterized in that the image synthesizing unit deforms the partial image data and synthesizes the image with respect to the removal target region on the first subject image data.
本発明は、前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部をさらに備えたことを特徴とする。 The present invention is characterized by further comprising an instruction display unit that displays a photographing instruction for photographing the second subject image again when the judgment result of the image judgment unit is not compositable.
本発明は、前記指示表示部は、前記第1の被写体画像の撮影位置とは異なる撮影位置において、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする。 The present invention is characterized in that the instruction display unit displays a photographing instruction for photographing the second subject image at a photographing position different from the photographing position of the first subject image.
本発明は、前記指示表示部は、前記第2の被写体画像を複数撮影する場合に、前記第2の被写体画像の撮影位置のそれぞれが異なる位置になるように撮影指示を表示することを特徴とする。 The present invention is characterized in that when the plurality of second subject images are photographed, the instruction display unit displays photographing instructions so that the photographing positions of the second subject images are different from each other. To do.
本発明は、前記領域指定部により指定された前記領域内の被写体が移動体であるか否かを判定する移動体判定部を備え、前記指示表示部は、前記領域内の被写体が移動体である場合には、前記第1の被写体画像を撮影した撮影位置から前記第2の被写体画像を撮影させる撮影指示を表示し、前記領域内の被写体が移動体でない場合には、前記領域内の被写体が写らない位置へ移動して、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする。 The present invention includes a moving body determination unit that determines whether or not the subject in the region specified by the region specifying unit is a moving body, and the instruction display unit includes the subject in the region as a moving body. In some cases, a shooting instruction for shooting the second subject image from the shooting position at which the first subject image was shot is displayed. If the subject in the region is not a moving object, the subject in the region is displayed. Moving to a position where no image is captured, and a shooting instruction for shooting the second subject image is displayed.
本発明は、撮影領域の位置関係を判定することができる奥行き判定部を備え、前記指示表示部は、前記除去対象領域に応じて第2の撮影位置の方向と距離とを表示することを特徴とする。 The present invention includes a depth determination unit that can determine the positional relationship of the imaging region, and the instruction display unit displays the direction and distance of the second imaging position according to the removal target region. And
本発明は、前記撮像部は同時に異なる視点からみた2つの被写体画像1を得ることができる2眼の撮像部を備え、前記奥行き判定部は前記2つの被写体画像1の視差から奥行きを取得することを特徴とする。 According to the present invention, the imaging unit includes a two-lens imaging unit capable of obtaining two subject images 1 viewed from different viewpoints at the same time, and the depth determination unit acquires the depth from the parallax of the two subject images 1 It is characterized by.
本発明によれば、撮影を行う際に静止体、移動体に関わらず撮影者にとって不要な対象物を除去した画像を撮影現場で得ることができるという効果が得られる。 According to the present invention, it is possible to obtain an image obtained by removing an object unnecessary for a photographer regardless of whether it is a stationary body or a moving body when photographing.
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による撮像装置を説明する。図1は、第1の実施形態における撮像装置の構成を示す概略ブロック図である。この撮像装置は、デジタル一眼レフカメラ等のデジタルカメラ、PDA(携帯情報端末)、携帯電話等にも搭載することができる。撮像装置は、撮像部10、画像処理部11、画像記録部12、表示部13、指示部14、画像判定部15及び撮影タイミング提示部16から構成する。撮像部10は、撮像素子、結像光学系(レンズ光学系)、A/D変換部などによって構成され、結像光学系によって入射した被写体の像を撮像素子上に結像し、結像された被写体像は撮像素子によって電気信号に変換し、A/D変換部によりアナログ信号からデジタル画像信号へと変換し、画像データとして出力する。撮像素子には、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の固体電子デバイスを使用する。
<First Embodiment>
Hereinafter, an imaging device according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram illustrating the configuration of the imaging apparatus according to the first embodiment. This imaging apparatus can also be mounted on a digital camera such as a digital single lens reflex camera, a PDA (personal digital assistant), a mobile phone, or the like. The imaging apparatus includes an
画像処理部11は、撮像部10から出力される画像データを入力し、入力した画像データに対して平滑化処理、コントラスト調整、色補正、信号圧縮などの各種画像処理や合成処理を行う。合成処理は撮影画像において、複数枚の画像から指示部14により選択された領域の置換または補間を行う。すなわち、撮影画像において不要な対象物が写りこんでいる領域を置換または補間することで、不要な対象物が除去された画像を作成する。置換または補間する領域は不要な対象物より大きい領域があればよく、最小の領域としては指定領域に写りこんでいる人や物体を抽出してその対象物の領域だけ処理する方法がある。合成領域は処理量や撮影画像など考慮した上で最適な手法を選択する。
The
画像記録部12は、画像処理部11が行う画像処理などでワークエリアとして用いられるバッファメモリや撮影画像を記録しておくフラッシュメモリなどで構成し、必要に応じて画像データの読み書きを行う。表示部13は例えば液晶モニタなどで構成され、記録された画像表示やビューファインダーの代わりとして撮影画像の表示、またはメニューなど操作画面などを表示する。
The
指示部14は、表示部13に表示された画像に対し、ボタンとカーソルによって撮影者が除去する領域を指定する操作を行う。表示部13には、指示部14として抵抗膜方式や静電容量方式などのタッチパネルを設け、撮影者が除去したい部分をタッチすることで簡単に選択できるようにしてもよい。この場合、表示部13と指示部14とは一体に構成にされて、表示指示部を構成している。また、指定領域の数に制限はなく、複数個所指定してもよい。この撮像装置を携帯電話等に搭載した場合、既存のスイッチ、ボタン等を流用するようにしてもよい。
The
画像判定部15は、指示部14により指定された領域において置換または補間可能か否かを判定する。画像判定部15は、被写体を撮影した画像に基づいて撮影しようとしているまたは撮影した画像とを比較して選択領域の置換または補間の判定を行い、画像タイミング提示部16へとその判定結果情報を出力する。画像タイミング提示部16は、画像判定部15から出力される判定結果情報に基づいて、置換または補間が可能な画像の撮影を行うことができるように撮影者に対して撮影場所やタイミングなどの情報を提示する。タイミングや場所の提示方法はランプによって簡単に合成可能であるか通知してもよいし、具体的にどちらの方向に移って撮影すべきかを提示するのでも構わない。
The
次に、図2を参照して、合成画像の生成の処理動作について説明する。図2において、符号1、2、3は、それぞれ画像を示している。画像1は、1回目の撮影画像である(これを被写体画像1と称する)。画像2は、補間または置換を行うための部分画像を得るための2回目の撮影画像である(これを被写体画像2と称する)。画像3は、画像処理部11が被写体画像1と被写体画像2をそれぞれ入力し、被写体画像1から画像処理によって不要部分を除去し、不要部分を除去した被写体画像1に対して、被写体画像2から部分画像を抽出し、抽出した部分画像に対して幾何学的変換等の処理を行って合成した合成画像である。
Next, with reference to FIG. 2, a processing operation for generating a composite image will be described. In FIG. 2,
合成画像3は、撮影した被写体画像1において不要な被写体Xを選択し、新たに少なくとも1つの被写体画像2を撮影することで選択した不要な被写体Xを除去した画像を得るためのものである。画像合成のために行う2回目以降の撮影は、初めの撮影位置に対して不要な被写体Xの向こう側へ回り込んだ位置にて、被写体画像1において遮蔽されている領域が写るように撮影を行う。そのようにして得た被写体画像2を用いて被写体画像1の置換または補間を行うことで、不要な被写体Xを除去した合成画像3を得ることができる。この作業は撮像装置の指示に従って、撮影現場で撮影者が操作することで簡単に行うことができる。
The composite image 3 is for selecting an unnecessary subject X in the photographed subject image 1 and obtaining an image from which the unnecessary subject X is removed by newly photographing at least one
次に、図2、図3及び図4を参照して、図2に示す画像合成処理の詳細を説明する。図3は、被写体を撮影する場合の被写体と撮像装置の撮影位置との関係を上方から見た状態を示す図である。図4は、図1に示す撮像装置の処理動作を示すフローチャートである。まず、撮影者が撮影したいアングルによって撮影した被写体画像1を画像記録部12に保存する(ステップS11)。被写体画像1は図2に示すように遠方の背景に山201があり、正面の建物202を撮影した画像である。撮影者が撮影したい位置、タイミングで撮影したため、建物202と撮影位置205の間に不要物(除去対象物)Xが写り込んでいる。この時、カメラの撮影範囲は図3に示す破線206a、206bの範囲であり、その範囲の中で実線207a、207bで囲まれた領域208は不要物Xによって視界が遮蔽されて背後が見えない状態となっている。そのため、不要物Xによってドア203の一部が隠されている。図3ではこの不要物Xによって遮蔽された建物202の部分を遮蔽領域209で示している。
Next, details of the image composition processing shown in FIG. 2 will be described with reference to FIGS. 2, 3, and 4. FIG. 3 is a diagram illustrating a relationship between the subject and the photographing position of the imaging device when the subject is photographed as viewed from above. FIG. 4 is a flowchart showing the processing operation of the imaging apparatus shown in FIG. First, the subject image 1 photographed at an angle that the photographer wants to photograph is stored in the image recording unit 12 (step S11). The subject image 1 is an image obtained by photographing a
次に、撮影者は、指示部14を操作して、被写体画像1上の除去対象物の領域を指定する(ステップS12)。指示部14は、表示部13に設けられたタッチパネルで構成されており、表示部13に表示された被写体画像1上の不要物Xの輪郭部分を指等でたどりながら画像上の多角形領域を指定する。画像処理部11は、指示部14において指示された画像上の多角形領域の座標情報を抽出する。この除去対象物の領域の座標情報が、合成領域の座標情報となる。また、除去対象物の指定は、カメラに奥行情報が取得できる奥行き情報取得部が装備されており、指定した対象物の奥行き情報を取得し、指定部分の周辺領域で近い奥行きをもつ領域を自動的に抽出することで簡単に除去対象領域を指定する方法でもよいし、色情報を基に領域を抽出する方法でもよい。奥行き情報の取得は、例えば、撮像部が2眼以上の多眼構成となっており、そこから得られたステレオ画像から視差量を求めて奥行きを算出する方法でも構わないし、あるパターンを照射するレーザを組み合わせることで奥行きを算出する方法でも構わない。ここではタッチパネルを用いた指定操作としたが、指定操作する方法はこれに限るものではない。
Next, the photographer operates the
また、被写体画像1のフォーカスの程度からフォーカスの合っていない人や物体などを除去対象に自動選択するなどカメラ側が選択して撮影者に確認させるようにして除去対象物の指定を行うようにしてもよい。合成処理を行う領域は不要物Xを含むある程度の大きさをもつ領域を選択し、被写体画像1と2に関して不要物Xの周辺領域での対応関係によって処理を行う。もちろん、画像から不要物Xを抽出し、不要物Xに遮蔽されている部分のみを対象としてもいい。この場合、処理対象の領域が小さいほど合成の処理量は少なくなる。本実施形態では、対象領域が全て含まれるようなエリアに対し、不要物Xの周辺部分でのパターンマッチングや特徴点による対応関係によって被写体画像2での対応領域を求めている。
Further, the removal target is designated by allowing the camera to select and confirm the photographer, such as automatically selecting a person or object that is out of focus as the removal target based on the degree of focus of the subject image 1. Also good. A region having a certain size including the unnecessary object X is selected as the region to be combined, and the
次に、画像処理部11は、ステップS12で指定した除去対象物が移動体であるか否かを判定する(ステップS13)。画像処理部11には、被写体画像1上の移動体を判別する機能を備えており、除去対象物の移動速度によって処理方法を適切に選択する。本実施例では除去対象の不要物Xが移動体であるか静止体であるかの判定を次のような処理によって行う。画像処理部11は、撮像部10により撮像した被写体画像1を画像記録部12に記録する際に、時系列で並んだ複数枚の画像を保存し、画像間の差分によって移動体かを判別する。例えば、被写体画像1の撮影時に後ろのフレームも同時に記録しておき、被写体画像1と後ろフレームでの不要物Xの位置関係を比較することで移動体か静止体であるか判定を行う。このとき、画像処理部11は、不要物Xが移動体である場合、移動体の移動量(画像上のずれ量)とフレームレートに基づいて移動体の移動速度を算出する。
Next, the
なお、ここでは複数枚の画像から移動体であるか否かの判定を行う説明をしたが、速度測定用のセンサを設けるなどして、移動体の判定と速度を求めるようにしてもよい。ただし、移動体である場合の処理方法は移動速度が所定の閾値を超えたものに対して行う。なぜなら、非常に低速な対象では処理対象領域外に移動するのに時間がかかる場合があるためである。 Here, although it has been described that it is determined whether or not it is a moving body from a plurality of images, it is also possible to determine the speed and determine the speed of the moving body by providing a sensor for speed measurement. However, the processing method in the case of a moving body is performed for a moving speed exceeding a predetermined threshold. This is because it may take time to move out of the processing target area for a very slow target.
次に、撮影タイミング提示部16は、画像処理部11において、不要物Xが移動体であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが移動体である場合には一定時間経過すれば不要物Xによって遮蔽されている領域が見えるようになるため、選択された除去対象物が動いていると判定された場合は、撮影タイミング提示部16はその場で再度撮影をさせるように指示するメッセージを表示部13に表示する。例えば、被写体画像1から不要物Xを選択した時点で、「その場で再度撮影して下さい」というメッセージを表示部13に表示する。撮影者が表示部13に表示された指示に従ってその場で再度撮影の操作を行うことにより、画像処理部11は、撮像部10において撮像した被写体画像2を画像記録部12に記録する(ステップS14)。これにより、画像記録部12には、不要物Xが写っている被写体画像1と、被写体画像1上の不要物Xが別の位置へ移動した状態の被写体画像2が記録されたことになる。
Next, when the
次に、画像処理部11は、画像記録部12に記録されている被写体画像1と被写体画像2とが合成できるか否かを判定する(ステップS15)。例えば、再撮影の時点で他の物体によって除去対象領域の少なくとも一部が遮られた場合は、撮影者に対して合成ができないため、再度撮影するように指示するメッセージを表示部13に表示し、確実に合成ができる被写体画像2が得られるまで処理を繰り返し行う。これにより、撮影する場で画像合成が可能か否かを確認することができるため、画像合成の失敗がなくなる。
Next, the
そして、合成可能な被写体画像2が得られた時点で、被写体画像1の除去対象領域に、被写体画像2の部分画像を用いて補間または置換することで合成処理を行う(ステップS16)。被写体画像2は被写体画像1とほぼ同じ位置から撮影されたものなので複雑な処理を行わなくても被写体画像1と一致し易いため、被写体画像1と被写体画像2の位置合わせや、サイズ調整など最小限の処理を行い、除去対象領域の置換を行う。このとき、被写体画像1と被写体画像2では撮影時刻に時間差があるため、屋外などでの撮影では太陽光による明るさなど変化する場合があるが、被写体画像2を被写体画像1に明るさや色調を合わせるように処理して合成する。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS20)。
Then, when the compositing
一方、撮影タイミング提示部16は、画像処理部11において、不要物Xが静止体(または閾値以下の速度で移動する物体)であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが静止体である場合、不要物Xに遮蔽されている領域は、被写体画像1を撮影した撮影位置から移動しなければ撮影できないため、撮影タイミング提示部16は静止体であると判定した結果を受けて、不要物Xと建物202の間の領域に移動して撮影するように撮影者に指示を出す。撮影者は表示部13に表示された指示に従い、撮影位置を変えて被写体画像2の撮影を行い、画像処理部11は、撮影した被写体画像2を画像記録部12へ保存する(ステップS17)。このようにして、図2に示す被写体画像2が得られることになる。この時、撮影するべき被写体であるドア203に近づくことになるが、不要物Xの遮蔽している領域209全体がフレーム内に入っているように撮影する必要がある。
On the other hand, when the
図3に示すように、撮影位置210は、撮影するべき被写体(建物202のドア203)の撮影位置を示しており、その時の撮影範囲は破線211aから破線211bであり、不要物Xによって遮蔽された領域209が撮影範囲内に入っていることがわかる。撮影位置210に関して、第1の撮影位置205と不要物Xを結んだライン上であることが望ましい。これは領域209において被写体画像1と近い撮影角度で撮影でき、合成処理が簡単化できるためである。
As shown in FIG. 3, the
画像判定部15は、被写体画像1と被写体画像2とが合成できるか否かを判定することにより、撮影した被写体画像2によって被写体画像1の補間または置換ができるか否かを判定する(ステップS18)。この判定は、被写体画像1の補間対象である領域209が、被写体画像2において完全に撮影範囲に入っているか否かによって行い、例えば、被写体画像1と被写体画像2それぞれの特徴点抽出を行い、対応した特徴点が得られるか否かによって行う。図2に示す例では、被写体画像1上で指定された不要物Xを含む除去対象領域周辺の特徴点P1、P2、P3を抽出するとともに、被写体画像2から特徴点P1’、P2’、P3’を抽出し、特徴点P1と特徴点P1’、特徴点P2と特徴点P2’、特徴点P3と特徴点P3’のそれぞれが対応関係によって判定する。なお、特徴点の抽出は、公知の画像特徴点抽出処理を用いて行う。
The
画像判定部15は、補間または置換するために必要な領域が、被写体画像2の撮影範囲に入ってない(対応点がない)などの場合、画像判定部15は、表示部13に合成ができないことを通知すると共に、再度位置を変えて撮影するように指示するメッセージを表示する。この時、領域209が撮影範囲より大きい場合はズームレンズをワイド方向に駆動させ、それでも撮影範囲に収まりきらない場合は撮影者に下がって撮影するように指示を出す。撮影者が指示に従って再度撮影を行うと、画像処理部11は、撮影された被写体画像2を画像記録部12に保存する。
The
次に、画像処理部11は、得られた被写体画像2と被写体画像1との合成を行う(ステップS19)。合成処理は、被写体画像1と被写体画像2で対応付けられた対応点点の座標を基に被写体画像2に対して射影変換やアフィン変換など幾何学的変換を行うことにより変形させ、除去対象物の領域部分を切り出して、被写体画像1の補間または置換することにより行う。また、このとき被写体画像1に合わせるように明るさ、色調を補正して合成する。このようにすることで撮影者が好きな位置、タイミングで撮影した被写体画像1から不要な不要物Xを取り除いた合成画像を得ることができる。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS20)。
Next, the
なお、前述した説明においては、除去対象の不要物Xが1つである場合を説明したが、被写体画像1上に不要物Xが複数存在する場合でも同じように、それぞれ遮蔽された領域に対して再度撮影し、合成することで、不要物Xを取り除いた合成画像を得ることができる。例えば、除去したい不要物Xがn個ある場合は、n個の不要物Xそれぞれによって見えない遮蔽領域を個別に撮影し、それぞれの部分で合成処理を行う。この時、合成に必要な撮影画像は最大でn枚必要である。また、不要物Xに移動体と静止体が混ざっている場合においても、被写体画像1の撮影場所からの再撮影と撮影位置変更後の撮影とを組み合わせることで対応することができる。 In the above description, the case where there is one unnecessary object X to be removed has been described. However, even when there are a plurality of unnecessary objects X on the subject image 1, each of the shielded regions is similarly described. Then, the composite image from which the unnecessary object X is removed can be obtained by photographing again and compositing. For example, when there are n unnecessary objects X to be removed, a shielding area that cannot be seen by each of the n unnecessary objects X is individually photographed, and a synthesis process is performed on each portion. At this time, a maximum of n shot images necessary for composition are required. Further, even when the moving object and the stationary object are mixed with the unnecessary object X, it can be dealt with by combining the re-photographing of the subject image 1 from the photographing location and the photographing after changing the photographing position.
また、建物や風景などを背景に人物など撮影する場合があるが、人物は初めの被写体画像1を撮影する際に撮影するだけでよい。これは画像全体を処理するものではなく除去対象周辺までの領域で切り分けて処理し、処理対象領域以外は被写体画像1を基準としたものとするためである。そのため第2の被写体画像の撮影中も被写体は同じ位置に待機する必要はない。 In some cases, a person or the like is photographed against a background of a building or landscape, but the person only needs to photograph when photographing the first subject image 1. This is because the entire image is not processed, but is divided and processed in the area up to the periphery of the removal target, and the subject image 1 is used as a reference except for the processing target area. Therefore, it is not necessary for the subject to stand by at the same position during the shooting of the second subject image.
以上説明したように、不要な被写体が写り込んだ場合においても簡単に指定した対象を除去した画像が得られると共に、そのような補間が可能な画像が撮影できたか否かを容易に判定できるために画像合成の失敗を防ぐことができる。 As described above, even when an unnecessary subject is captured, it is possible to easily obtain an image from which a designated target is removed and to determine whether or not such an image capable of interpolation has been captured. In addition, failure of image composition can be prevented.
<第2の実施形態>
次に、図5〜図7を参照して、本発明の第2の実施形態による撮像装置を説明する。第2の実施形態による撮像装置は、被写体画像1の画像を合成するために、不要物Xによって遮蔽されている領域が撮影できる位置まで撮影者が移動して被写体画像2を撮影することにより、遮蔽領域の画像を得て画像を合成するものである。このため、不要物Xが遠方にある場合など不要物Xの向こう側へ移動して撮影することが困難な場合に用いることができる。第2の実施形態における撮像装置の構成は、図1に示す構成と同様であるため詳細な説明を省略する。図5、図6は、被写体を撮影する場合の被写体と撮像装置の撮影位置との関係を上方から見た状態を示す図である。図7は、第2の実施形態において、図1に示す撮像装置の処理動作を示すフローチャートである。
<Second Embodiment>
Next, an imaging device according to a second embodiment of the present invention will be described with reference to FIGS. In the imaging apparatus according to the second embodiment, in order to synthesize the image of the subject image 1, the photographer moves to a position where the area shielded by the unnecessary object X can be photographed and photographs the
ここでは、第1の実施形態のように、図2に示す被写体画像1と被写体画像2を画像処理部11により合成した合成画像を得るものとして説明する。まず、撮影者が撮影したいアングルによって撮影した被写体画像1を画像記録部12に保存する(ステップS21)。被写体画像1は、図2に示すように遠方の背景に山201があり、正面の建物202を撮影した画像である。撮影者が撮影したい位置、タイミングで撮影したため、建物202と撮影位置205の間に不要物(除去対象物)Xが写り込んでいる。この時、カメラの撮影範囲は図5に示す破線206a、206bの範囲であり、その範囲の中で線207a、207bで囲まれた領域208は不要物Xによって視界が遮蔽されて背後が見えない状態となっている。そのため、不要物Xによってドア203の一部が隠されている。図5ではこの不要物Xによって遮蔽された建物202の部分を遮蔽領域209で示している。
Here, as in the first embodiment, description will be made assuming that a composite image obtained by combining the subject image 1 and the
次に、撮影者は、指示部14を操作して、被写体画像1上の除去対象物の領域を指定する(ステップS22)。指示部14は、表示部13に設けられたタッチパネルで構成されており、表示部13に表示された被写体画像1上の不要物Xの輪郭部分を指等でたどりながら画像上の多角形領域を指定する。画像処理部11は、指示部14において指示された画像上の多角形領域の座標情報を抽出する。この除去対象物の領域の座標情報が、合成領域の座標情報となる。また、除去対象物の指定は、カメラに奥行情報が取得できる奥行き情報取得部が装備されており、指定した対象物の奥行き情報を取得し、指定部分の周辺領域で近い奥行きをもつ領域を自動的に抽出することで簡単に除去対象領域を指定する方法でもよいし、色情報を基に領域を抽出する方法でもよい。。奥行き情報の取得は、例えば、撮像部が2眼以上の多眼構成となっており、そこから得られたステレオ画像から視差量を求めて奥行きを算出する方法でも構わないし、あるパターンを照射するレーザを組み合わせることで奥行きを算出する方法でも構わない。
Next, the photographer operates the
ここではタッチパネルを用いた指定操作としたが、指定操作する方法はこれに限るものではない。また、被写体画像1のフォーカスの程度からフォーカスの合っていない人や物体などを除去対象に自動選択するなどカメラ側が選択して撮影者に確認させるようにして除去対象物の指定を行うようにしてもよい。除去対象の領域は不要物Xを含むある程度の大きさをもつ領域を選択し、被写体画像1と2に関して不要物Xの周辺領域での対応関係によって処理を行う。もちろん、画像から不要物Xを抽出し、不要物Xに遮蔽されている部分のみを対象としてもいい。この場合、処理対象の領域が小さいほど合成の処理量は少なくなる。本実施形態では、対象領域が全て含まれるようなエリアに対し、不要物Xの周辺部分でのパターンマッチングや特徴点による対応関係によって被写体画像2での対応領域を求めている。
Although the designation operation using the touch panel is described here, the designation operation method is not limited to this. Further, the removal target is designated by allowing the camera to select and confirm the photographer, such as automatically selecting a person or object that is out of focus as the removal target based on the degree of focus of the subject image 1. Also good. As a region to be removed, an area having a certain size including the unnecessary object X is selected, and the
次に、画像処理部11は、ステップS22で指定した除去対象物が移動体であるか否かを判定する(ステップS23)。画像処理部11には、被写体画像1上の移動体を判別する機能を備えており、除去対象物の移動速度によって処理方法を適切に選択する。本実施例では除去対象の不要物Xが移動体であるか静止体であるかの判定を次のような処理により行う。画像処理部11は、撮像部10により撮像した被写体画像1を画像記録部12に記録する際に、時系列で並んだ複数枚の画像を保存し、画像間の差分によって移動体かを判別する。例えば、被写体画像1の撮影時に後ろのフレームも同時に記録しておき、被写体画像1と後ろフレームでの不要物Xの位置関係を比較することで移動体か静止体であるか判定を行う。このとき、画像処理部11は、不要物Xが移動体である場合、移動体の移動量(画像上のずれ量)とフレームレートに基づいて移動体の移動速度を算出する。
Next, the
なお、ここでは複数枚の画像から移動体であるか否かの判定を行う説明をしたが、速度測定用のセンサを設けるなどして、移動体の判定とその速度を求めるようにしてもよい。ただし、移動体である場合の処理方法は移動速度が所定の閾値を超えたものに対して行う。なぜなら、非常に低速な対象では処理対象領域外に移動するのに時間がかかる場合があるためである。 Here, although it has been described that it is determined whether or not it is a moving body from a plurality of images, the determination of the moving body and its speed may be obtained by providing a sensor for speed measurement. . However, the processing method in the case of a moving body is performed for a moving speed exceeding a predetermined threshold. This is because it may take time to move out of the processing target area for a very slow target.
次に、撮影タイミング提示部16は、画像処理部11において、不要物Xが移動体であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが移動体である場合には一定時間経過すれば不要物Xによって遮蔽されている領域が見えるようになるため、選択された除去対象物が動いていると判定された場合は、撮影タイミング提示部16はその場で再度撮影をさせるように指示するメッセージを表示部13に表示する。例えば、被写体画像1から不要物Xを選択した時点で、「その場で再度撮影して下さい」というメッセージを表示部13に表示する。撮影者が表示部13に表示された指示に従ってその場で再度撮影の操作を行うことにより、画像処理部11は、撮像部10において撮像した被写体画像2を画像記録部12に保存する(ステップS24)。これにより、画像記録部12には、不要物Xが写っている被写体画像1と、被写体画像1上の不要物Xが別の位置へ移動した状態の被写体画像2が記録されたことになる。
Next, when the
次に、画像処理部11は、画像記録部12に記録されている被写体画像1と被写体画像2とが合成できるか否かを判定する(ステップS25)。例えば、再撮影の時点で他の物体によって除去対象領域の少なくとも一部が遮られた場合は、撮影者に対して合成ができないため、再度撮影するように指示するメッセージを表示部13に表示し、確実に合成ができる被写体画像2が得られるまで処理を繰り返し行う。これにより、撮影する場で画像合成が可能か否かを確認することができるため、画像合成の失敗がなくなる。
Next, the
そして、合成可能な被写体画像2が得られた時点で、被写体画像1の除去対象領域に、被写体画像2の部分画像を用いて補間または置換することで合成処理を行う(ステップS26)。被写体画像2は被写体画像1とほぼ同じ位置から撮影されたものなので複雑な処理を行わなくても被写体画像1と一致し易いため、被写体画像1と被写体画像2の位置合わせや、サイズ調整など最小限の処理を行い、除去対象領域の置換を行う。このとき、被写体画像1と被写体画像2では撮影時刻に時間差があるため、屋外などでの撮影では太陽光による明るさなど変化する場合があるが、被写体画像2を被写体画像1に明るさや色調を合わせるように処理して合成する。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。
Then, when the compositing
一方、撮影タイミング提示部16は、画像処理部11において、不要物Xが静止体(または閾値以下の速度で移動する物体)であると判定された場合、撮影者に対して撮影位置やタイミングを指示するメッセージを表示部13に表示する。不要物Xが静止体である場合、不要物Xに遮蔽されている領域は、被写体画像1を撮影した撮影位置から移動しなければ撮影できないため、撮影タイミング提示部16は静止体であると判定した結果を受けて、不要物Xにより遮蔽されている領域を撮影することができる位置に移動して撮影するように撮影者に指示を出す。撮影者は表示部13に表示された指示に従い、撮影位置を変えて被写体画像2の撮影を行い、画像処理部11は、撮影した被写体画像2を画像記録部12へ保存する(ステップS27)。
On the other hand, when the
図5に示すように、撮影位置205が初めの撮影位置、撮影位置410が移動後の撮影位置であり、撮影位置410から撮影した際の撮像範囲が一点鎖線411a、411bで示す範囲となる。また、撮影位置410から見た遮蔽領域209に対応する視線範囲が実線412a、412bに囲まれた範囲となる。不要物Xによって遮蔽されている領域を補間する必要があるため、撮影タイミング提示部16は遮蔽領域209全体が見える位置まで左または右方向に移動するように指示する。図5では撮影者は左方向に移動し、不要物Xによって領域209が完全に遮蔽されていない位置410まで移動した例を示している。
As shown in FIG. 5, the
画像判定部15は、被写体画像1と被写体画像2とが合成できるか否かを判定することにより、撮影した被写体画像2によって被写体画像1の補間または置換ができるか否かを判定する(ステップS28)。この判定は、被写体画像1の補間対象である領域209が、被写体画像2において完全に撮影範囲に入っているか否かによって行い、例えば、被写体画像1と被写体画像2それぞれの特徴点抽出を行い、対応した特徴点が得られるか否かによって行う。この判定の結果、合成できる場合、画像処理部11は、得られた被写体画像2と被写体画像1との合成を行う(ステップS29)。
The
合成処理は、被写体画像1と被写体画像2で対応付けられた対応点の座標を基に被写体画像2に対して射影変換やアフィン変換など幾何学的変換を行い、除去対象物の領域部分を切り出して、被写体画像1の補間または置換することにより行う。つまり、被写体画像2は被写体画像1の撮影方向に比べて斜め方向からの撮影となっているため、公知の射影変換処理などによって被写体画像1の撮影方向からの画像と一致するように補正を行う。また、さらに被写体画像1に合わせるように明るさ、色調を補正し、被写体画像1へと合成する。このような合成処理は画像全体で行う必要はなく、必要な領域のみで行うことで処理量が削減できる。また、マッチングを取るための領域は確保する必要がある。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。
The composition processing performs geometric transformation such as projective transformation or affine transformation on the
一方、被写体画像2だけでは不要物Xによって遮蔽されている領域209の補間が行えず画像合成ができない場合、画像判定部15は、表示部13に合成ができないことを通知すると共に、さらに撮影位置を変えて撮影するように指示するメッセージを表示する。この時、不要物Xと領域209の位置関係からさらにどちら方向へ移動すべきか通知を行う。被写体画像2の撮影位置に関して具体的な指示を出す場合は、例えば、撮像装置が多眼カメラで構成され、各カメラ画像間での視差によって建物202と不要物Xとの位置関係と大きさを求めることで、どれだけの距離を移動して撮影すべきかを具体的に提示するようにしてもよい。ここでは多眼カメラによる距離推定を提示したがこの手法に限ることなくレーザを用いた距離推定など他の測距方法でもよい。
On the other hand, if the
次に、撮影者が提示された方向と距離に従って移動し撮影を行うと、画像処理部11は、撮像部10から出力される画像データを画像記録部12へ保存する(ステップS30)。例えば、被写体である建物202と撮影距離がある程度離れている場合や、風景など遠方のものを撮影している場合には被写体画像1との視差がそれほど発生しないために被写体画像2によっての合成が比較的容易に行える。また、遮蔽領域209が平面的なものである場合でも処理は行いやすい。しかし、領域209に凹凸がある場合はオクルージョンが発生し、一部合成処理のできない個所ができる。そのため、さらに異なった方向からの撮影画像を用いてその部分の補間を行う必要がある。
Next, when the photographer moves according to the presented direction and distance and performs photographing, the
図6に示すように、撮影位置410から撮影した画像では遮蔽領域209の全体は視認できるものの、遮蔽領域209に凹凸がある場合は、完全に補間が行えないため、さらに撮影位置を変えて被写体画像2とは異なる新たな被写体画像(これを被写体画像3と称する)を撮影する必要がある。撮影位置513は、被写体画像3を撮影するべき撮影位置を示している。破線514aと514bで囲まれている領域は撮影位置513から撮影した時の撮影範囲を示し、実線515aと515bで囲まれている領域は領域209が視認できる範囲を示している。この被写体画像3の撮影位置513は、被写体画像1の撮影位置205と不要物Xを結ぶラインに対して被写体画像2の撮影位置410と反対側となる位置とするのが望ましい。なぜなら、撮影位置410と同じ側である場合は撮影位置410から見て死角になる部分があまり変わらない可能性が大きいためである。そのため逆方向から撮影することで死角部分の視認が行えるようになる。このように、領域209が視認でき、かつ被写体画像2とは異なる位置にて撮影された被写体画像3は画像記録部12に保存され、合成処理に用いられる。
As shown in FIG. 6, in the image taken from the photographing
次に、画像処理部11は、画像記録部12に保存されている被写体画像1、被写体画像2及び被写体画像3を用いて合成処理を行う(ステップS31)。被写体画像2と被写体画像3をそれぞれ射影変換など行うことで被写体画像1方向からの画像を作成し、それらを用いて被写体画像1と除去対象領域に対して補間または置換を行う。この時、被写体画像1に明るさや色調を合わせも行う。また、合成処理の際には被写体画像2と被写体画像3から被写体画像1の方向から見た自由視点画像を作成し、対応部分を置換または補間するようにしてもよい。そして、画像処理部11は、合成した画像を画像記録部12に保存する(ステップS32)。
Next, the
第2の実施形態の説明においては、3つの被写体画像1〜3を合成する例を説明したが、合成する被写体画像の数は、3つに限定するものではなく、必要に応じてさらに複数枚の画像を用いて画像合成するようにしてもよい。また、除去対象の不要物X1つである場合を説明したが、複数存在する場合は同じように、それぞれ遮蔽された領域毎に同様な処理を行うことにより不要物Xが複数存在する場合の適用可能である。不要な対象が移動体や静止体と混在した場合であっても撮影方法をそれぞれ適宜使用することで不要な被写体を除去した画像を得ることができる。 In the description of the second embodiment, the example in which the three subject images 1 to 3 are combined has been described. However, the number of subject images to be combined is not limited to three, and a plurality of subject images may be added as necessary. Images may be synthesized using these images. Moreover, although the case where there is one unnecessary object X to be removed has been described, the same applies to the case where there are a plurality of unnecessary objects X by performing the same process for each shielded area, when there are a plurality of unnecessary objects X Is possible. Even when unnecessary objects are mixed with a moving object or a stationary object, an image from which an unnecessary object is removed can be obtained by appropriately using the photographing methods.
また、建物などを背景に人物など撮影する場合があるが、人物は初めの被写体画像1を撮影する際に撮影するだけでよい。これは画像全体を処理するものではなく除去対象周辺までの領域で切り分けて処理し、処理対象領域以外は被写体画像1を基準としたものとするためである。そのため合成のための撮影中も同じ位置に待機する必要はない。 In some cases, a person or the like is photographed against the background of a building or the like, but the person only needs to photograph when the first subject image 1 is photographed. This is because the entire image is not processed, but is divided and processed in the area up to the periphery of the removal target, and the subject image 1 is used as a reference except for the processing target area. Therefore, it is not necessary to wait at the same position during shooting for composition.
以上説明したように、撮像した画像から指定する不要な被写体を除去した画像を生成するために、初めに撮影した被写体画像から除去したい不要な物体を指定し、指定した不要な物体が写っていない新たな被写体画像を撮影し、初めに撮影した被写体画像上の除去対象領域を新たに撮影した被写体画像の部分画像で補間または置換するように合成処理することで指定した不要な物体が除去された画像を得るようにしたため、撮影を行う際に静止体、移動体に関わらず撮影者にとって不要な対象物を除去した画像を撮影現場で得ることができる。 As described above, in order to generate an image in which an unnecessary subject to be specified is removed from the captured image, an unnecessary object to be removed is specified from the first captured subject image, and the specified unnecessary object is not captured. A new subject image was shot, and the unnecessary object specified by removing the target area on the first shot subject image by interpolating or substituting with the partial image of the newly shot subject image was removed. Since the image is obtained, it is possible to obtain an image in which an object unnecessary for the photographer is removed regardless of whether it is a stationary body or a moving body when photographing.
近年は、画像データがデジタル化されたため、撮影した画像データをパソコンに取り込み、パソコン上で合成処理することにより、好みの写真を作り出すことができるようになってきたため、初めに撮影した画像に不要物が写っていた場合、その不要物が写っていない新たな画像を撮影し、自宅にあるパソコンで合成を行うことにより、不要物を除去した画像を作り出すことが可能になった。しかし、新たに撮影した画像が、不要物を除去するために用いることができるか否かは、パソコン上で合成を行ってみないと分からず、適切な画像が撮影できなかった場合は、不要物を除去するための合成が行えない場合がある。 In recent years, since the image data has been digitized, it has become possible to create a favorite photo by importing the captured image data into a computer and compositing on the computer, so it is not necessary for the first image taken When an object was captured, it was possible to create an image with the unnecessary object removed by taking a new image without the unnecessary object and compositing it on a personal computer at home. However, whether or not a newly taken image can be used to remove unnecessary objects is not known unless it is synthesized on a personal computer, and it is unnecessary if an appropriate image cannot be taken. There is a case where the synthesis for removing the object cannot be performed.
本発明による撮像装置は、新たな被写体画像を撮影した際に、その場で、合成を行えるか否かを判定するようにして、合成を行うことができる被写体画像を得ることができなかった場合は、再度撮影指示を表示するようにしたため、不要物を除去するための画像合成の失敗を防ぐことができ、不要物を除去した画像を確実に得ることが可能となる。 When the imaging apparatus according to the present invention has been unable to obtain a subject image that can be combined by determining whether or not composition can be performed on the spot when a new subject image is captured Since the shooting instruction is displayed again, it is possible to prevent failure of image composition for removing unnecessary objects, and it is possible to reliably obtain an image from which unnecessary objects are removed.
なお、図1における画像処理部11、画像判定部15及び撮影タイミング提示部16の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像合成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
A program for realizing the functions of the
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
デジタルの画像データを合成することにより、不要物を除去した画像を新たに生成する用途に適用できる。 By synthesizing digital image data, it can be applied to a purpose of newly generating an image from which unnecessary objects are removed.
10・・・撮像部、11・・・画像処理部、12・・・画像記録部、13・・・表示部、14・・・指示部、15・・・画像判定部、16・・・撮影タイミング提示部
DESCRIPTION OF
Claims (7)
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と、
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部とを備え、
前記指示表示部は、前記第1の被写体画像の撮影位置とは異なる撮影位置において、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする撮像装置。 An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable ;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
The imaging apparatus , wherein the instruction display unit displays a shooting instruction for shooting the second subject image at a shooting position different from the shooting position of the first subject image .
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と、
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部と、
前記領域指定部により指定された前記領域内の被写体が移動体であるか否かを判定する移動体判定部とを備え、
前記指示表示部は、前記領域内の被写体が移動体である場合には、前記第1の被写体画像を撮影した撮影位置から前記第2の被写体画像を撮影させる撮影指示を表示し、
前記領域内の被写体が移動体でない場合には、前記領域内の被写体が写らない位置へ移動して、前記第2の被写体画像を撮影させる撮影指示を表示することを特徴とする撮像装置。 An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
And a moving object determining section for determining a subject in the specified the region whether a moving object by the area specifying unit,
The instruction display unit displays a shooting instruction for shooting the second subject image from a shooting position where the first subject image was shot when the subject in the area is a moving body,
Wherein when the object in the region is not a moving body is moved to a position where the subject in the field can not reflected, the second feature and to that imaging device to display a shooting instruction for shooting a subject image .
前記撮像部により撮影した第1の被写体画像データを得る第1の被写体画像取得部と、
第1の被写体画像データを表示し、該第1の被写体画像データ上の除去対象領域を指定する領域指定部と、
前記撮像部により撮影した第2の被写体画像データを得る第2の被写体画像取得部と、
前記第2の被写体画像データから前記除去対象領域に相当する部分画像データを抽出し、該部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して合成することができるか否かを判定する画像判定部と、
前記画像判定部の判定結果が合成可能である場合に、前記部分画像データを前記第1の被写体画像データ上の前記除去対象領域に対して画像合成する画像合成部と、
前記画像判定部の判定結果が合成不可能である場合に、再度前記第2の被写体画像を撮影させる撮影指示を表示する指示表示部と、
撮影領域の位置関係を判定することができる奥行き判定部とを備え、前記指示表示部は、前記除去対象領域に応じて第2の撮影位置の方向と距離とを表示することを特徴とする撮像装置。 An imaging unit for photographing a subject;
A first subject image acquisition unit for obtaining first subject image data captured by the imaging unit;
An area designating unit for displaying first object image data and designating a removal target area on the first object image data;
A second subject image acquisition unit that obtains second subject image data captured by the imaging unit;
Whether partial image data corresponding to the removal target area can be extracted from the second subject image data, and the partial image data can be combined with the removal target area on the first subject image data. An image determination unit for determining whether or not
An image compositing unit that composites the partial image data with the removal target region on the first subject image data when the determination result of the image determination unit is compositable;
An instruction display unit that displays a shooting instruction for shooting the second subject image again when the determination result of the image determination unit cannot be combined;
And a depth determination unit capable of determining the positional relationship between the photographing area, the instruction display unit, you and displaying the direction and distance of the second imaging position in response to the removal target area imaging device.
前記奥行き判定部は前記2つの被写体画像データの視差から奥行きを取得することを特徴とする請求項4に記載の撮像装置。 The imaging unit includes an imaging unit of the 2 eyes can be obtained two object picture image data viewed from different viewpoints simultaneously,
The depth determination unit imaging apparatus according to claim 4, characterized in that to obtain the depth from the parallax of the two object picture image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009164854A JP5230013B2 (en) | 2009-07-13 | 2009-07-13 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009164854A JP5230013B2 (en) | 2009-07-13 | 2009-07-13 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011023814A JP2011023814A (en) | 2011-02-03 |
JP5230013B2 true JP5230013B2 (en) | 2013-07-10 |
Family
ID=43633535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009164854A Expired - Fee Related JP5230013B2 (en) | 2009-07-13 | 2009-07-13 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5230013B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416978B2 (en) | 2017-12-25 | 2022-08-16 | Canon Kabushiki Kaisha | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor |
US11830177B2 (en) | 2017-12-25 | 2023-11-28 | Canon Kabushiki Kaisha | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6115024B2 (en) * | 2012-04-25 | 2017-04-19 | カシオ計算機株式会社 | Imaging apparatus, imaging processing method, and program |
JP6429483B2 (en) * | 2013-07-09 | 2018-11-28 | キヤノン株式会社 | Information processing apparatus, imaging apparatus, information processing system, information processing method, and program |
JP6622886B2 (en) * | 2013-07-09 | 2019-12-18 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP6494402B2 (en) * | 2015-04-30 | 2019-04-03 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP6529345B2 (en) * | 2015-06-04 | 2019-06-12 | 株式会社クリプトン | Image combining apparatus and image combining method |
JP6351663B2 (en) * | 2016-06-23 | 2018-07-04 | 株式会社つくばマルチメディア | Spherical video imaging device, global sphere video imaging system, omnidirectional video imaging program, recording medium recording the same, and omnidirectional video imaging method |
JP6770442B2 (en) * | 2017-01-06 | 2020-10-14 | 日本放送協会 | Image processing device and its program |
EP3598734A4 (en) * | 2017-03-16 | 2020-03-04 | Fujifilm Corporation | Image compositing device, image compositing method, and program |
JP7091199B2 (en) * | 2018-09-12 | 2022-06-27 | 株式会社東芝 | Image processing equipment, methods and programs |
CN111917980B (en) * | 2020-07-29 | 2021-12-28 | Oppo(重庆)智能科技有限公司 | Photographing control method and device, storage medium and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4777116B2 (en) * | 2006-03-30 | 2011-09-21 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
JP2008182499A (en) * | 2007-01-25 | 2008-08-07 | Nikon Corp | Image processor and image processing program |
-
2009
- 2009-07-13 JP JP2009164854A patent/JP5230013B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416978B2 (en) | 2017-12-25 | 2022-08-16 | Canon Kabushiki Kaisha | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor |
US11830177B2 (en) | 2017-12-25 | 2023-11-28 | Canon Kabushiki Kaisha | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2011023814A (en) | 2011-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5230013B2 (en) | Imaging device | |
US11228748B2 (en) | Application processor for disparity compensation between images of two cameras in digital photographing apparatus | |
JP6271990B2 (en) | Image processing apparatus and image processing method | |
JP5214826B2 (en) | Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium | |
WO2015081870A1 (en) | Image processing method, device and terminal | |
JP5806623B2 (en) | Imaging apparatus, imaging method, and program | |
JP2008193196A (en) | Imaging device and specified voice output method | |
JPWO2012002046A1 (en) | Stereoscopic panorama image synthesis device, compound eye imaging device, and stereo panorama image synthesis method | |
WO2015192547A1 (en) | Method for taking three-dimensional picture based on mobile terminal, and mobile terminal | |
WO2016184131A1 (en) | Image photographing method and apparatus based on dual cameras and computer storage medium | |
JP2012249175A (en) | Imaging apparatus, display method, and program | |
US20120212640A1 (en) | Electronic device | |
JP2019176249A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP6786311B2 (en) | Image processing equipment, image processing methods, computer programs and storage media | |
JPWO2014077065A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
KR20120002834A (en) | Image pickup apparatus for providing reference image and method for providing reference image thereof | |
JP2017011504A (en) | Imaging device, image processing method and program | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP5646582B2 (en) | Imaging device | |
JP5889022B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2012156747A (en) | Imaging apparatus, image composition method, and program | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP6700693B2 (en) | Imaging device, control method thereof, program, and storage medium | |
JP5718502B2 (en) | Image creating apparatus and image creating method | |
JP2011182014A (en) | Image pickup device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130318 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5230013 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |