JP2013153321A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2013153321A
JP2013153321A JP2012012973A JP2012012973A JP2013153321A JP 2013153321 A JP2013153321 A JP 2013153321A JP 2012012973 A JP2012012973 A JP 2012012973A JP 2012012973 A JP2012012973 A JP 2012012973A JP 2013153321 A JP2013153321 A JP 2013153321A
Authority
JP
Japan
Prior art keywords
image
obstacle
subject
imaging apparatus
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012012973A
Other languages
Japanese (ja)
Inventor
Kanako Nakano
加奈子 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012012973A priority Critical patent/JP2013153321A/en
Publication of JP2013153321A publication Critical patent/JP2013153321A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a clear image to be easily obtained, even if there is an obstacle that hides a part of an imaging target subject in front of the subject, focused on the subject and from which the obstacle is removed.SOLUTION: An imaging unit 6, after focusing on an obstacle in front of an imaging target subject on the basis of an image projected on an imaging sensor 6d of the imaging unit 6 and detecting an image part area of the obstacle, focuses on the imaging target subject on the basis of an image other than the image part area of the obstacle, captures an image projected on the image sensor 6d at that moment as a captured image, and interpolates the captured image on the basis of the image part area of the obstacle.

Description

本発明は、撮影目的である被写体の手前にその被写体の一部を隠す障害物が存在しているような場合での撮影に適した撮像装置及び撮像方法並びにプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program suitable for imaging in a case where there is an obstacle that hides a part of the subject in front of the subject that is an imaging purpose.

一般に、コントラストAF(オートフォーカス)を採用しているデジタルカメラにおいては、撮像素子に映っている画像を基にフォーカスレンズを動かしながらコントラスト(色や明るさの差)が大きい点(AF評価値)が最大となる点を焦点位置として検出し、その位置にフォーカスを合わせるようにしているが、撮影目的である被写体(例えば、動物や人間など)が金網やネットなど(障害物)の奥に位置しているような場合には、その被写体よりも金網やネットのコントラストの方が高くなってしまうため、被写体の手前で誤合焦してしまうことがある。また、このような場合に撮影目的である被写体に合焦させることができたとしても金網やネットなどが被写体の前に写り込んでしまうため、被写体の一部が隠されたものとなり、画像全体が見づらいものとなってしまう。
そこで、従来においては、合焦範囲を制御することにより金網越しの被写体を撮影するような場合においても、所望する範囲の被写体に合焦させることを可能とした技術が開示されている(特許文献1参照)。
In general, in a digital camera that employs contrast AF (autofocus), the contrast (color or brightness difference) is large while the focus lens is moved based on the image displayed on the image sensor (AF evaluation value). The point where is the maximum is detected as the focus position, and the focus is set to that position. However, the subject (for example, animals or humans) that is the object of shooting is located behind the wire mesh or net (obstacle). In such a case, the contrast of the wire mesh or the net is higher than that of the subject, and the focus may be inadvertently in front of the subject. Also, even in this case, even if you can focus on the subject that you want to shoot, a wire mesh or net will be reflected in front of the subject, so part of the subject will be hidden and the entire image will be hidden. Becomes difficult to see.
Therefore, conventionally, there has been disclosed a technique that enables a subject in a desired range to be focused even when shooting a subject through a wire mesh by controlling the focus range (Patent Document). 1).

特開2005−202064号公報Japanese Patent Laid-Open No. 2005-202064

しかしながら、上述の特許文献の技術にあっては、金網(障害物)から目的の被写体に合焦させることは可能となるが、狭い合焦範囲内の被写体に合焦させることに限られてしまい、しかも被写体への合焦までに留まる技術であった。   However, in the technique of the above-described patent document, it is possible to focus on a target subject from a wire mesh (obstacle), but it is limited to focusing on a subject within a narrow focus range. And it was a technology that stayed in focus until the subject was focused.

本発明の課題は、撮影目的である被写体の手前にその被写体の一部を隠す障害物が存在していても、その被写体に合焦して障害物を取り除いた鮮明な画像を容易に得ることができるようにすることである。   An object of the present invention is to easily obtain a clear image in which an object is focused and the obstacle is removed even if an obstacle that hides a part of the subject exists in front of the subject that is a photographing purpose. Is to be able to.

上述した課題を解決するために本発明の一つの態様は、
撮像素子を備えた撮像手段と、
前記撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する第1のフォーカス手段と、
前記第1のフォーカス手段により前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する検出手段と、
前記検出手段により検出された前記障害物の画像部分の領域を除く画像を基に、より後ろ側に位置する被写体を撮影目的の被写体として合焦する第2のフォーカス手段と、
前記第2のフォーカス手段により前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むキャプチャ手段と、
前記キャプチャ手段により取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行う補間手段と、
を備えることを特徴とする撮像装置である。
In order to solve the above-described problem, one aspect of the present invention is as follows.
Imaging means comprising an imaging element;
First focusing means for focusing an object located in front as an obstacle based on an image shown on the image sensor;
Detecting means for detecting an area of an image portion of the obstacle from an image focused on the obstacle by the first focus means and reflected on the image sensor;
Second focusing means for focusing a subject located on the rear side as a subject to be photographed based on an image excluding the area of the image portion of the obstacle detected by the detecting means;
Capture means for capturing an image shown on the image sensor as a captured image in a state in which the second focus means is focused on the subject to be photographed;
Interpolation means for performing processing to interpolate the captured image captured by the capture means based on the area of the image portion of the obstacle;
It is an imaging device characterized by comprising.

上述した課題を解決するために本発明の他の態様は、
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦するステップと、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出するステップと、
前記検出された前記障害物の画像部分の領域を除く画像を基に、より後ろ側に位置する被写体を撮影目的の被写体として合焦するステップと、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むステップと、
前記取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行うステップと、
を備えることを特徴とする撮像方法である。
In order to solve the above-described problem, another aspect of the present invention provides:
Based on the image shown on the image sensor, focusing the object located in front as an obstacle,
Detecting an area of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on an image excluding an area of the detected image portion of the obstacle, focusing a subject located on the rear side as a subject for photographing;
Capturing an image reflected on the image sensor as a captured image in a state in which the subject to be photographed is focused;
Performing a process of interpolating the captured image captured based on the area of the image portion of the obstacle;
It is an imaging method characterized by comprising.

更に、上述した課題を解決するために本発明の他の態様は、
コンピュータに対して、
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する機能と、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する機能と、
前記検出された前記障害物の画像部分の領域を除く画像を基に、より後ろ側に位置する被写体を撮影目的の被写体として合焦する機能と、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込む機能と、
前記取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行う機能と、
を実現させるためのプログラムである。
Furthermore, in order to solve the above-described problem, another aspect of the present invention provides:
Against the computer,
Based on the image shown in the image sensor, the function to focus the subject located in front as an obstacle,
A function of detecting a region of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on the image excluding the area of the detected image portion of the obstacle, a function for focusing a subject located on the rear side as a subject for photographing,
A function of capturing an image reflected on the image sensor as a captured image in a state in which the object to be photographed is focused;
A function of performing the process of interpolating the captured captured image based on the area of the image portion of the obstacle;
It is a program for realizing.

本発明によれば、撮影目的である被写体の手前にその被写体の一部を隠す障害物が存在していても、その被写体に合焦して障害物を取り除いた鮮明な画像を容易に得ることができ、ユーザにあっては撮影困難な被写体であっても、それを鮮明に撮影することが可能となる。   According to the present invention, even if there is an obstacle that hides a part of the subject in front of the subject to be photographed, it is possible to easily obtain a clear image in which the subject is focused and the obstacle is removed. Thus, even a subject that is difficult for the user to photograph can be clearly photographed.

撮像装置としてデジタルカメラの基本的な構成要素を示したブロック図。FIG. 3 is a block diagram illustrating basic components of a digital camera as an imaging device. 金網/ネット撮影モードへの切り換えに応じて実行開始される動作を示したフローチャート。The flowchart which showed the operation | movement started according to the switch to a metal-mesh / net imaging mode. 近距離側(Near側)からコントラストAF処理を開始させた場合の被写体距離とコントラスト値(AF評価値)との関係を示した図。The figure which showed the relationship between a to-be-photographed object distance and contrast value (AF evaluation value) at the time of starting contrast AF process from the near distance side (Near side). (1)は、動物園の檻の中の動物を撮影した画像(エッジ検出前の画像)を示した図、(2)は、エッジ検出を施した後の画像を示した図。(1) is the figure which showed the image (image before edge detection) which image | photographed the animal in the cage of a zoo, (2) is the figure which showed the image after performing edge detection. 障害物の画像部分を削除した後の画像(加工画像)を基に遠距離側(Far側)からコントラストAF処理を開始させた場合の被写体距離とコントラスト値(AF評価値)との関係を示した図。The relationship between the subject distance and the contrast value (AF evaluation value) when contrast AF processing is started from the far side (Far side) based on the image (processed image) after deleting the obstacle image portion is shown. Figure. 第2実施形態において、金網/ネット撮影モードへの切り換えに応じて実行開始されるフローチャート。9 is a flowchart that starts execution in response to switching to a wire mesh / net shooting mode in the second embodiment. AF処理後に被写体に合焦した画像を取得する処理(図6のステップB6)を詳述するためのフローチャート。7 is a flowchart for explaining in detail processing (step B6 in FIG. 6) for acquiring an image focused on a subject after AF processing. 第2実施形態において、撮影者の移動と静止中の被写体との関係を示した図。The figure which showed the relationship between a photographer's movement and the to-be-photographed object in 2nd Embodiment. 同一の被写体を複数の位置A、B、Cでそれぞれ撮影した場合の各画像を例示すと共に、各画像を重ね合わせた状態を例示した図。The figure which illustrated the state which piled up each image while showing each image when the same subject was each image | photographed in the some position A, B, and C as an example.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図5を参照して本発明の第1実施形態を説明する。
本実施形態は、撮像装置としてデジタルカメラ(コンパクトカメラ)に適用した場合で、図1は、そのデジタルカメラの基本的な構成要素を示したブロック図である。
このデジタルカメラは、コントラストAF(オートフォーカス)機能を備えたコンパクトカメラで、制御部1を中核とする構成となっている。制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこのデジタルカメラ(以下、カメラと略称する)の全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
The present embodiment is applied to a digital camera (compact camera) as an imaging device, and FIG. 1 is a block diagram showing basic components of the digital camera.
This digital camera is a compact camera having a contrast AF (autofocus) function, and has a configuration with the control unit 1 as a core. The control unit 1 operates by supplying power from the power source unit (secondary battery) 2 and controls the overall operation of the digital camera (hereinafter abbreviated as a camera) according to various programs in the storage unit 3. The control unit 1 is provided with a CPU (Central Processing Unit) and a memory (not shown).

記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図2に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリM1と、このカメラが動作するために必要となる各種の情報(例えば、撮影された画像、フラグ、タイマなど)を一時的に記憶するワークメモリM2などを有する構成となっている。なお、記憶部3は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続された状態においては所定の外部サーバ側の記憶領域を含むものであってもよい。   The storage unit 3 has a configuration including, for example, a ROM, a flash memory, and the like, and a program memory in which a program and various applications for realizing the present embodiment are stored according to an operation procedure illustrated in FIG. M1 and a work memory M2 that temporarily stores various information necessary for the operation of the camera (for example, captured images, flags, timers, and the like). Note that the storage unit 3 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card, and is connected to a network via a communication function (not shown). May include a storage area on a predetermined external server side.

操作部4は、図示省略したが、撮影を指示する撮影操作(レリーズ操作)、露出などの撮影条件を設定する設定操作、撮影済み画像の再生を指示する再生操作などを行う押しボタン式の各種のキー(シャッタキー、設定キー、再生開始キーなど)を備えたもので、制御部1は、この操作部4からの入力操作信号に応じた処理として、例えば、撮影処理、撮影条件の設定、再生処理、データ入力処理などを行う。タッチ入力表示部5は、表示部及びタッチセンサ(図示省略)を有し、指などでのタッチ操作を感知してそのタッチ操作に応じたデータを入力するもので、撮影時にはライブビュー画像をモニタ表示するファインダ画面(モニタ画面)として機能する。   Although not shown in the drawings, the operation unit 4 is a variety of push button types that perform shooting operations (release operations) for instructing shooting, setting operations for setting shooting conditions such as exposure, and playback operations for instructing playback of captured images. Keys (shutter key, setting key, reproduction start key, etc.). The control unit 1 performs, for example, shooting processing, setting of shooting conditions, etc. as processing according to the input operation signal from the operation unit 4. Performs playback processing and data input processing. The touch input display unit 5 has a display unit and a touch sensor (not shown), senses a touch operation with a finger and inputs data corresponding to the touch operation, and monitors a live view image during shooting. Functions as a finder screen (monitor screen) to be displayed.

撮像部6は、光学レンズからの被写体画像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に静止画撮影することが可能なもので、静止画像のほかに動画像の撮影も可能な構成となっている。撮像部6は、ズームレンズ6a、フォーカスレンズ6bなどを備えたレンズ部6cからの被写体像が、図示省略した絞りやシャッタを介して撮像素子(CCD又はCMOS)6dに結像されることにより被写体を高精細に撮影可能なもので、各種センサのほかにアナログ処理部6e、画像信号処理部6fなどを備えている。そして、撮像素子6dによる光電変換後の画像信号(アナログ値の信号)に対して、色分離やRGBの色成分毎のゲイン調整などが行われた後に、デジタル値のデータに変換される。そして、デジタル変換された画像データは、色補間処理(デモザイク処理)が施されてタッチ入力表示部5に送られ、ライブビュー画像としてフルカラー表示される。   The imaging unit 6 can shoot a subject with high definition by forming a subject image from an optical lens on an image sensor (CCD, CMOS, etc.). It is also possible to shoot. The imaging unit 6 subjects a subject image from a lens unit 6c including a zoom lens 6a, a focus lens 6b, and the like to an image sensor (CCD or CMOS) 6d via an aperture or a shutter (not shown). Is provided with an analog processing unit 6e and an image signal processing unit 6f in addition to various sensors. The image signal (analog value signal) after photoelectric conversion by the image sensor 6d is subjected to color separation, gain adjustment for each RGB color component, and the like, and then converted to digital value data. The digitally converted image data is subjected to color interpolation processing (demosaic processing) and sent to the touch input display unit 5 to be displayed in full color as a live view image.

なお、本実施形態では、AF処理、ズーム処理、露出調整処理(AE処理)、オートホワイトバランス調整処理(AWB)、収差補正処理、画像圧縮処理、画像復元処理なども実行可能となっている。撮像部6によって撮像された撮影画像は、その画像のサイズを縮小することによって圧縮(可逆圧縮)してファイル化する画像圧縮処理を施した後に、記憶部3に記録保存される。そして、本実施形態においては、撮像部6によって撮影する際にその被写体に適した各種の撮影モード、例えば、絞り優先モード、シャッタ速度優先モード、風景モード、夜景モード、後述する金網/ネット撮影モードなどの中から被写体に適した撮影モードを選択して撮影を行うようにしている。   In this embodiment, AF processing, zoom processing, exposure adjustment processing (AE processing), auto white balance adjustment processing (AWB), aberration correction processing, image compression processing, image restoration processing, and the like can be executed. The captured image captured by the imaging unit 6 is recorded and stored in the storage unit 3 after being subjected to image compression processing for compression (reversible compression) by reducing the size of the image to form a file. In the present embodiment, various shooting modes suitable for the subject when shooting by the imaging unit 6, such as an aperture priority mode, a shutter speed priority mode, a landscape mode, a night view mode, and a wire mesh / net shooting mode described later. The shooting mode suitable for the subject is selected from the above and the like to perform shooting.

金網/ネット撮影モードは、例えば、動物園などで檻の中の動物を撮像したり、野球場などでネット越しに被写体(選手)を撮像したりするような場合に、撮影目的の被写体(動物や選手など)の前に略格子状の金網やネットなど(障害物)が存在していても、撮影目的の被写体に合焦した鮮明な画像であってその障害物が存在していないと同等の画像を得ることが可能な撮影モードである。ここで、“障害物”とは、金網やネットのほかに檻や門扉の鉄格子などをも含み、被写体の一部(例えば、1/5程度)を隠すものである。言い換えれば、第1実施形態での障害物とは、障害物で隠されていない被写体の残りの部分によってその被写体の全体を推測することが可能な程度に被写体を隠すものを意味している。   In the wire mesh / net shooting mode, for example, when shooting an animal in a cage at a zoo or when shooting a subject (player) over the net at a baseball stadium or the like, Even if there is an approximately grid-like wire net or net (obstacle) in front of the player, etc., it is equivalent to a clear image focused on the subject to be photographed and without the obstacle This is a shooting mode in which an image can be obtained. Here, the “obstacle” includes not only a wire mesh or a net but also a fence and a gate iron grid, and hides a part of the subject (for example, about 1/5). In other words, the obstacle in the first embodiment means that the subject is hidden to the extent that the entire subject can be estimated by the remaining portion of the subject that is not hidden by the obstacle.

そして、上述の金網/ネット撮影モードにおいては、コントラストAFを使用し、撮像素子6dに映っている画像を基にフォーカスレンズ6bを動かしながらコントラスト(色や明るさの差)が大きい点(AF評価値)が最大となる点を焦点位置として検出してフォーカスを合わせるようにしている。この場合、撮影目的の被写体は、金網やネットなど(障害物)の奥に位置しているために、その被写体よりも障害物のコントラストの方が高くなり、撮影目的である被写体の手前(障害物の位置)で合焦してしまうことになるが、第1実施形態では、撮像素子6dに映っている画像内から障害物の画像部分を削除してから障害物の画像部分の領域以外の画像を基に合焦を行うようにしている。これによって撮影目的の被写体にフォーカスを合わせるようにしている。そして、撮影目的の被写体にフォーカスを合わせた状態で撮像素子6dに映っている画像をキャプチャ画像として取り込み、そのキャプチャ画像を障害物の画像部分の領域を基に補間するようにしている。   In the above-described wire mesh / net shooting mode, contrast AF is used, and the contrast (color or brightness difference) is large while moving the focus lens 6b based on the image shown on the image sensor 6d (AF evaluation). The point where the (value) is maximum is detected as the focal position and focused. In this case, since the subject to be photographed is located behind the wire mesh or net (obstacle), the contrast of the obstacle is higher than that of the subject, and the subject in front of the subject (obstacle) In the first embodiment, the image portion of the obstacle is deleted from the image shown in the image sensor 6d, and then the region other than the region of the image portion of the obstacle is selected. Focusing is performed based on the image. In this way, the subject to be photographed is focused. Then, an image shown on the image sensor 6d in a state where the subject to be photographed is focused is captured as a captured image, and the captured image is interpolated based on the area of the image portion of the obstacle.

このように、第1実施形態においては、その撮像素子6dに映っている画像を基に撮影目的の被写体の手前の障害物に合焦してその障害物の画像部分の領域を検出した後に、この障害物の画像部分の領域以外の画像を基に撮影目的の被写体に合焦すると共に、そのときに撮像素子6dに映っている画像をキャプチャ画像として取り込んで障害物の画像部分の領域を基に補間するようにしているが、このような一連の処理は、撮像部6が独自に行ってもよいが、制御部1と撮像部6とが共同して行うようにしてもよい。   Thus, in the first embodiment, after detecting an area of the image portion of the obstacle by focusing on the obstacle in front of the subject to be photographed based on the image reflected on the image sensor 6d, The subject to be photographed is focused on the basis of an image other than the area of the obstacle image portion, and the image shown on the image sensor 6d at that time is captured as a captured image, and the area of the obstacle image portion is used as a base. However, such a series of processes may be performed independently by the imaging unit 6 or may be performed jointly by the control unit 1 and the imaging unit 6.

次に、第1実施形態におけるカメラの動作概念を図2に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図2は、カメラの全体動作のうち、第1実施形態の特徴部分の動作概要を示したフローチャートであり、この図2のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the camera in the first embodiment will be described with reference to the flowchart shown in FIG. Here, each function described in this flowchart is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation peculiar to the present embodiment can be executed using a program / data supplied externally via a transmission medium. FIG. 2 is a flowchart showing an outline of the operation of the characteristic part of the first embodiment of the overall operation of the camera. When the flow of FIG. 2 is exited, the main flow of the overall operation (not shown) Return to).

図2は、金網/ネット撮影モードへの切り換えに応じて実行開始される動作を示したフローチャートである。
撮影者は、動物園などで檻や金網の中の動物を撮像したり、野球場などでネット越しに被写体(選手)を撮像したりする場合には、撮影モードのメニュー画面の中から金網/ネット撮影モードを選択して撮影モードの切り換えを行った後に、撮影目的である被写体(動物や選手など)にカメラを向けて撮影範囲を決める。この状態において、制御部1は、撮像部6の撮像素子6dに映っている画像をタッチ入力表示部5にプレビュー画像として表示(ステップA1)させた後、レリーズ操作が行われたかを調べたり(ステップA2)、金網/ネット撮影モードでの撮影終了を指示する操作が行われたかを調べたり(ステップA3)、その他の操作が行われたかを調べたりする(ステップA4)。
FIG. 2 is a flowchart showing an operation started in response to switching to the wire mesh / net shooting mode.
Photographers can take pictures of animals in cages and wire nets at zoos, etc., or when shooting subjects (players) over the net at baseball stadiums, etc., from the menu screen of the shooting mode. After selecting the shooting mode and switching the shooting mode, the camera is pointed at the subject (animal, player, etc.) that is the shooting purpose, and the shooting range is determined. In this state, the control unit 1 displays an image shown on the imaging element 6d of the imaging unit 6 as a preview image on the touch input display unit 5 (step A1), and then checks whether a release operation has been performed ( In step A2), it is checked whether an operation for instructing the end of shooting in the wire mesh / net shooting mode is performed (step A3), or whether other operations are performed (step A4).

ここで、その他の操作として、例えば、露出設定、ズーム設定などが行われたときには(ステップA4でYES)、その操作に応じた処理として、露出設定、ズーム設定などの処理(ステップA5)を実行した後、上述のステップA1に戻る。また、金網/ネット撮影モードを解除して他の撮影モードに切り換える操作が行われたり、撮影モードから再生モードに切り換える操作が行われたりしたときには(ステップA3でYES)、図2のフローから抜ける。   Here, as other operations, for example, when exposure setting and zoom setting are performed (YES in step A4), processing such as exposure setting and zoom setting (step A5) is executed as processing corresponding to the operation. After that, the process returns to step A1 described above. Also, when an operation of canceling the wire mesh / net shooting mode and switching to another shooting mode is performed, or an operation of switching from the shooting mode to the playback mode is performed (YES in Step A3), the flow of FIG. 2 is exited. .

いま、金網/ネット撮影モードにおいてレリーズ操作が行われたときには(ステップA2でYES)、近距離側(Near側)から1回目のコントラストAF処理を開始する(ステップA6)。そして、近距離側からフォーカスレンズ6bを移動させながらコントラスト値(AF評価値)を算出する(ステップA7)。図3は、近距離側(Near側)からコントラストAF処理を開始する場合の被写体距離とコントラスト値(AF評価値)との関係を示した図である。ここで、撮影目的の被写体の手前に金網やネットなどが存在しているような場合、その被写体よりも障害物のコントラストの方が高いために近距離側からのコントラストAF処理を開始することは有効である。このようにAF評価値の最大点は、金網やネットなどの(障害物)の位置となるので、その点を焦点位置とするためにフォーカスレンズ6bを移動させて、撮影目的である被写体より手前に位置する被写体を障害物として合焦し、フォーカスをその障害物の位置に合わせ込む(ステップA8)。   Now, when a release operation is performed in the wire mesh / net shooting mode (YES in Step A2), the first contrast AF process is started from the near distance side (Near side) (Step A6). Then, the contrast value (AF evaluation value) is calculated while moving the focus lens 6b from the short distance side (step A7). FIG. 3 is a diagram showing the relationship between the subject distance and the contrast value (AF evaluation value) when contrast AF processing is started from the near distance side (Near side). Here, when there is a metal mesh or net in front of the subject to be photographed, the contrast AF processing from the short distance side is started because the contrast of the obstacle is higher than that of the subject. It is valid. Thus, the maximum point of the AF evaluation value is the position of (obstacle) such as a wire mesh or a net. Therefore, the focus lens 6b is moved in order to set that point as the focal position, and the object is the object before photographing. The subject located at is focused as an obstacle, and the focus is adjusted to the position of the obstacle (step A8).

このようにして障害物の位置にフォーカスを合わせた状態において、撮像素子6dに映っている画像に対してエッジ検出を行い、画素値が急峻に変化するエッジ部分を障害物の画像部分の領域として検出し、例えば、この障害物の画像部分の領域(例えば、輪郭:アウトライン)を認識して、一時記憶しておく(ステップA9)。図4(1)は、動物園の檻の中の動物(虎)を撮影した画像(エッジ検出前の画像)を示した図で、この場合、撮影目的の虎よりも手前の障害物(檻や金網)にフォーカスが合わせられている。図4(2)は、図4(1)の画像に対してエッジ検出を施した後の画像を示した図で、障害物の輪郭が明確なものとなっている。このようにして障害物を検出した後は、画像処理技術を基にその障害物の画像部分を削除する(ステップA10)。   In the state where the position of the obstacle is focused in this way, edge detection is performed on the image reflected on the image sensor 6d, and the edge portion where the pixel value changes sharply is set as the region of the obstacle image portion. For example, the area (for example, outline: outline) of the image portion of the obstacle is recognized and temporarily stored (step A9). FIG. 4 (1) is a diagram showing an image (image before edge detection) of an animal (tiger) in a zoo cage. In this case, an obstacle (a shark The focus is on the wire mesh. FIG. 4 (2) shows an image after edge detection is performed on the image of FIG. 4 (1), and the outline of the obstacle is clear. After the obstacle is detected in this way, the image portion of the obstacle is deleted based on the image processing technique (step A10).

上述のように障害物の画像部分の領域を削除した後の画像(加工された画像)、つまり、障害物の画像部分の領域以外の画像を基に2回目のコントラストAF処理を開始する(ステップA11)。そして、遠距離側(Far側)からフォーカスレンズ6bを移動させながらコントラスト値(AF評価値)を算出する(ステップA12)。図5は、障害物の画像部分の領域を削除した後の画像(加工された画像)を基に遠距離側(Far側)からコントラストAF処理を開始する場合の被写体距離とコントラスト値(AF評価値)との関係を示した遷移図である。ここで、障害物の画像部分の領域を削除した後の画像(加工された画像)は、撮影目的の被写体付近のみがコントラストが高くなるために、遠距離側からコントラストAF処理を開始することは有効である。この場合、AF評価値の最大点は、撮影目的の被写体付近となるので、その点を焦点位置とするためにフォーカスレンズ6bを移動させて、障害物より後側に位置する被写体を撮影目的の被写体として合焦し、撮影目的の被写体にフォーカスを合わせ込む(ステップA13)。   As described above, the second contrast AF process is started based on the image (processed image) after the area of the obstacle image portion is deleted, that is, the image other than the area of the obstacle image portion (step). A11). Then, the contrast value (AF evaluation value) is calculated while moving the focus lens 6b from the far distance side (Far side) (step A12). FIG. 5 shows the subject distance and contrast value (AF evaluation) when contrast AF processing is started from the far side (Far side) based on the image (processed image) after deleting the area of the image part of the obstacle. It is a transition diagram showing a relationship with (value). Here, the image after processing the area of the image portion of the obstacle (processed image) has a high contrast only in the vicinity of the subject to be photographed, so that the contrast AF process is started from the far side. It is valid. In this case, since the maximum point of the AF evaluation value is in the vicinity of the subject to be photographed, the focus lens 6b is moved to set the point as the focal position, and the subject located behind the obstacle is photographed for the purpose of photographing. Focus as a subject and focus on the subject to be photographed (step A13).

このように撮影目的の被写体にフォーカスを合わせた状態において撮像素子6dに映っている画像をキャプチャ画像として取り込み(ステップA14)、このキャプチャ画像のうち、障害物の画像部分の領域の周辺に位置している周辺画像(形状、色、模様、明るさなど)を解析する(ステップA15)。そして、障害物により隠されていた被写体の画像部分をその解析結果から推測し(ステップA16)、障害物の画像部分の領域を推測結果で補間する(ステップA17)。なお、このような補間機能は、画像処理技術では一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているが、第1実施形態の補間機能は、次のような点を特徴としている。   In this manner, an image shown on the image sensor 6d in a state where the subject to be photographed is focused is captured as a capture image (step A14), and the captured image is positioned around the area of the obstacle image portion. The surrounding image (shape, color, pattern, brightness, etc.) is analyzed (step A15). Then, the image portion of the subject hidden by the obstacle is estimated from the analysis result (step A16), and the area of the image portion of the obstacle is interpolated by the estimation result (step A17). Note that such an interpolation function is a technique that is generally used in image processing technology, and in this embodiment, the well-known technique is used. However, the interpolation function of the first embodiment is the following: It features the following points.

すなわち、一般に、手前の障害物に合焦している画像においては、この障害物の画像部分にはほぼ100%障害物の画像情報しか存在しないため、この障害物の画像部分を除去したとしても、後ろにある撮影目的の被写体の画像部分を復元することは難しい。一方、後ろにある目的の被写体に合焦している画像においては、障害物の画像部分がボケて広がるため、この障害物の画像部分がボケて広がった領域内には、例えば、10%が障害物の画像情報で残りの90%が撮影目的の被写体の画像部分のように、撮影目的の被写体の画像情報と障害物の画像情報とが混ざり合った状態となる。この混ざり合った画像から、障害物の画像情報に対応する画像成分だけを除去することができれば、撮影目的の被写体の画像情報を復元することが可能になる。しかしながら、後ろにある撮影目的の被写体に合焦している画像においては、障害物の画像部分がボケて広がっているため、障害物の画像部分の領域やその画像部分の色情報を正確に特定することができないため、どの範囲でどの色の画像成分だけを除去したら良いかわからない。そこで、手前の障害物に合焦している画像から取得した障害物の画像部分の領域や障害物の画像部分の色情報などを基に、後ろにある目的の被写体に合焦している画像内の画像情報を復元するための画像処理の対象となる範囲と色成分などとを特定することで、より正確な画像復元(画像補間)を可能とすることができる。   That is, in general, in an image focused on an obstacle in the foreground, there is almost 100% obstacle image information in the obstacle image portion, so even if the obstacle image portion is removed. It is difficult to restore the image portion of the subject to be photographed behind. On the other hand, in the image focused on the target subject behind, the image portion of the obstacle is blurred and spread, and therefore, for example, 10% is in the area where the image portion of the obstacle is blurred and spread. The remaining 90% of the image information of the obstacle is in a state where the image information of the subject to be photographed and the image information of the obstacle are mixed, such as the image portion of the subject to be photographed. If only the image component corresponding to the image information of the obstacle can be removed from the mixed image, it is possible to restore the image information of the subject to be photographed. However, in the image focused on the subject to be photographed behind, the image portion of the obstacle is blurred and widened, so the area of the image portion of the obstacle and the color information of the image portion are accurately identified. Since it is not possible to do this, it is not clear which image component of which color should be removed in which range. Therefore, an image focused on the target subject behind based on the area of the image part of the obstacle acquired from the image focused on the obstacle in front and the color information of the image part of the obstacle. By specifying the range, color components, and the like that are the targets of image processing for restoring the image information, more accurate image restoration (image interpolation) can be performed.

そこで、第1実施形態においては、上述した1回目のコントラストAF処理を行った後のエッジ検出によって、障害物の画像部分の領域(例えば、輪郭:アウトライン)が認識されて一時記憶されている状態において、この障害物の画像部分の領域を基準パターンとして読み出し、この基準パターンを基にキャプチャ画像内の障害物に相当する部分を探し出すようにしている。この場合、キャプチャ画像内の障害物に相当する部分は、同じパターンが連続する特異な形状であって基準パターンと相似形ではあるが、障害物の画像部分の領域はボケて広がっているために、基準パターンよりも一回り大きなものとなっている。このように特異な形状の基準パターンと相似形であること及び基準パターンよりも一回り大きいことを前提として、キャプチャ画像内において基準パターンの位置を合わせながら、色や明るさ模様の連続性などをも考慮して、キャプチャ画像内の障害物に相当する領域部分(例えば、輪郭:アウトライン)を特定するようにしている。そして、上述のようにして特定した部分に対して補間する処理を行い、その障害物が存在していない画像に加工するようにしている。
上述のような補間処理を行うと、その補間した画像を圧縮(可逆圧縮)してファイル化する画像圧縮処理を施した後、記憶部3に記録保存させる(ステップA18)。その後、最初のステップA1に戻る。
Therefore, in the first embodiment, a state (for example, outline: outline) of an obstacle image portion is recognized and temporarily stored by edge detection after performing the first contrast AF process described above. In this case, the region of the image portion of the obstacle is read out as a reference pattern, and a portion corresponding to the obstacle in the captured image is searched based on the reference pattern. In this case, the part corresponding to the obstacle in the captured image has a unique shape in which the same pattern continues and is similar to the reference pattern, but the area of the obstacle image part is blurred and widened. , It is one size larger than the reference pattern. Assuming that it is similar to the reference pattern with a unique shape and one size larger than the reference pattern, the continuity of colors and brightness patterns can be adjusted while matching the position of the reference pattern in the captured image. In consideration of this, an area portion (for example, outline: outline) corresponding to the obstacle in the captured image is specified. Then, an interpolation process is performed on the part specified as described above to process the image without the obstacle.
When the above-described interpolation processing is performed, the interpolated image is compressed (reversible compression) and converted into a file, and then recorded and stored in the storage unit 3 (step A18). Thereafter, the process returns to the first step A1.

以上のように、第1実施形態においては、撮像素子6dに映っている画像を基に、より手前の被写体を障害物としてその障害物に合焦した後、その障害物の画像部分の領域を除く画像を基に、より後方の被写体を撮影目的の被写体として、その被写体に合焦すると共に、そのときに撮像素子6dに映っている画像をキャプチャ画像として取り込み、このキャプチャ画像を障害物の画像部分の領域を基に補間するようにしたので、撮影目的である被写体の手前にその被写体の一部を隠す障害物が存在していても、その被写体に合焦して障害物を取り除いた鮮明な画像を容易に得ることができ、ユーザにあっては撮影困難な被写体であっても、それを鮮明に撮影することが可能となる。   As described above, in the first embodiment, after focusing on the obstacle based on the image shown on the image sensor 6d, the object in the foreground is focused on the obstacle, Based on the image to be excluded, the subject behind is taken as a subject to be photographed, and the subject is focused. At the same time, the image shown on the image sensor 6d is captured as a captured image, and this captured image is captured as an obstacle image. Since interpolation is performed based on the area of the part, even if there is an obstacle that hides a part of the subject in front of the subject that is the object of shooting, it is clear that the subject is focused and the obstacle is removed Therefore, even a subject that is difficult for the user to shoot can be captured clearly.

障害物の画像部分の領域を、コントラストの高い部分によって検出するようにしたので、撮影目的の被写体の手前に金網やネットなどが存在しているような場合、その被写体よりも障害物のコントラストの方が高いために、障害物の画像部分の領域を容易に検出することが可能となる。   Since the area of the image part of the obstacle is detected by the high-contrast part, if there is a wire mesh or net in front of the subject to be photographed, the contrast of the obstacle is higher than that of the subject. Therefore, it is possible to easily detect the area of the image portion of the obstacle.

また、障害物の画像部分を削除してその削除後の画像を基に撮影目的の被写体に合焦するようにしたので、障害物が存在しない画像を基に撮影目的の被写体に合焦することができ、撮影目的への合焦が容易なものとなる。   In addition, since the image portion of the obstacle is deleted and the object to be photographed is focused on the basis of the image after the deletion, the object to be photographed is focused on the image having no obstacle. This makes it easy to focus on the shooting purpose.

障害物は、略格子状に形成された障害物であるので、例えば、檻や金網内の動物あるいはネット越しの野球選手などを撮影するのに適したものとなる。   Since the obstacle is an obstacle formed in a substantially lattice shape, for example, the obstacle is suitable for photographing a cage, an animal in a wire net, or a baseball player over the net.

補間処理を行う際に、障害物の画像部分の領域の周辺画像を解析した解析結果から障害物によって隠されていた被写体の画像部分を推測して補間するようにしたので、精度の高い補間を期待することが可能となる。この場合、障害物は、略格子状に形成された障害物であるので、例えば、障害物によって隠されている部分が下半分、右半分のような場合に比べて、その推測が容易なものとなる。   When performing the interpolation process, the image part of the subject hidden by the obstacle is estimated and interpolated from the analysis result obtained by analyzing the peripheral image of the area of the obstacle image part. It is possible to expect. In this case, since the obstacle is an obstacle formed in a substantially lattice shape, for example, the estimation is easier than in the case where the portion hidden by the obstacle is the lower half and the right half. It becomes.

1回目のコントラストAF処理、障害物の画像部分の領域を検出する処理、2回目のコントラストAF処理、撮影目的の被写体に合焦した画像をキャプチャ画像として取り込む処理、障害物の画像部分の領域を補間する処理を1回の撮影操作で行うようにしたので、1回の撮影操作を行うだけで、撮影目的の被写体に合焦して障害物を含まない鮮明な画像を得ることができる。   The first contrast AF process, the process for detecting the area of the obstacle image part, the second contrast AF process, the process for capturing the image focused on the subject to be photographed as the captured image, the area of the obstacle image part Since the interpolating process is performed by a single photographing operation, it is possible to obtain a clear image that does not include an obstacle by focusing on the subject to be photographed by performing only one photographing operation.

1回目のコントラストAF処理は、撮像素子6dに映っている画像を基に近距離側からフォーカスすることで撮影目的の被写体より手前に位置する障害物に合焦するようにしたので、障害物に効率良く合焦することができる。   The first contrast AF process focuses on the obstacle located in front of the subject to be photographed by focusing from the short distance side based on the image shown on the image sensor 6d. It is possible to focus efficiently.

2回目のコントラストAF処理は、撮像素子6dに映っている画像を基に遠距離側からフォーカスすることで撮影目的の被写体に合焦するようにしたので、被写体に効率良く合焦することができる。   In the second contrast AF process, focusing is performed on the subject to be photographed by focusing from the far distance side based on the image shown on the image sensor 6d, so that the subject can be focused efficiently. .

画素値が急峻に変化するエッジを検出することにより障害物の画像部分の領域を検出するようにしたので、障害物の輪郭を精度良く認識することができる。   Since the region of the image portion of the obstacle is detected by detecting the edge where the pixel value changes sharply, the contour of the obstacle can be recognized with high accuracy.

キャプチャ画像を障害物の画像部分の領域を基に補間する場合に、障害物の画像部分の領域と相似形でそれよりも大きな領域をキャプチャ画像内の障害物に相当する領域部分として検出し、その検出領域内に対して補間処理を行うようにしたので、キャプチャ画像において障害物の画像部分がボケて広がっていても、その障害物に相当する領域を的確に特定することができ、補間処理が容易となる。   When the captured image is interpolated based on the area of the image part of the obstacle, an area similar to the area of the image part of the obstacle and larger than that is detected as an area part corresponding to the obstacle in the captured image, Since the interpolation process is performed on the detection area, even if the image part of the obstacle is blurred and spread in the captured image, the area corresponding to the obstacle can be accurately identified. Becomes easy.

補間された後の画像を記録保存するようにしたので、撮影目的の被写体に合焦して障害物を含まない鮮明な画像を記録することができる。   Since the interpolated image is recorded and stored, it is possible to record a clear image that does not include an obstacle by focusing on the subject to be photographed.

なお、上述した第1実施形態においては、障害物に合焦している状態において撮像素子6dに映っている画像の中から障害物の画像部分の領域を検出してその部分を削除するようにしたが、障害物の画像部分の領域をマスク又は無視するようにしてもよい。   In the first embodiment described above, the region of the image portion of the obstacle is detected from the image reflected on the image pickup device 6d in a state where the obstacle is in focus, and the portion is deleted. However, the area of the image portion of the obstacle may be masked or ignored.

また、上述した第1実施形態においては、障害物の画像部分の領域の周辺画像を解析した解析結果から障害物によって隠されていた被写体の画像部分を推測して補間するようにしたが、更に被写体の種類は何であるかを画像認識により特定し、例えば、虎であれば、画像解析の結果と画像認識により特定した被写体の種類に基づいて補間処理を行うようにしてもよい。また、撮影目的の被写体に合焦した画像をキャプチャ画像として取り込んで障害物の画像部分の領域を補間する処理を行う場合に、障害物の画像部分の領域を削除して空白にしてから被写体の画像部分を埋め込むことにより補間を行うようにしてもよく、また、障害物の画像部分の領域に被写体の画像部分を上書きにより重ね合わせることにより補間を行うようにしてもよいなど、補間の方法は任意である。
また、上述した第1実施形態においては、AF処理としてコントラストAFを使用しているが、位相差AFなど、他のAF方法を使用してもよい。
Further, in the first embodiment described above, the image portion of the subject hidden by the obstacle is estimated and interpolated from the analysis result obtained by analyzing the peripheral image of the region of the obstacle image portion. What kind of subject is specified by image recognition. For example, in the case of a tiger, interpolation processing may be performed based on the result of image analysis and the type of subject specified by image recognition. In addition, when an image focused on a subject to be photographed is captured as a capture image and the area of the obstacle image part is interpolated, the area of the obstacle image part is deleted and blanked, and then the object Interpolation may be performed by embedding the image part, or interpolation may be performed by superimposing the image part of the subject by overwriting the area of the obstacle image part. Is optional.
Further, in the first embodiment described above, contrast AF is used as the AF processing, but other AF methods such as phase difference AF may be used.

(第2実施形態)
以下、この発明の第2実施形態について図6〜図9を参照して説明する。
なお、上述した第1実施形態においては、障害物の画像部分の領域の周辺画像を解析した結果から障害物によって隠されていた被写体の画像部分を推測して補間するようにしたが、この第2実施形態においては、被写体を撮影位置をずらしながら(視点を変えながら)、複数回の連写撮影を行うことで、1回目の撮影時には障害物により隠されていた被写体の部分を2回目以降の撮影で撮影することにより、障害物の画像部分の領域を補間するようにしたものである。なお、上述した第1実施形態において“障害物”とは、障害物で隠されていない被写体の残りの部分によってその被写体の全体を推測することが可能な程度に被写体を隠すものを意味したが、この第2実施形態においては、第1実施形態よりも被写体を更に大きく隠すようなものであつてもよい。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, the image portion of the subject hidden by the obstacle is estimated and interpolated from the result of analyzing the peripheral image of the area of the obstacle image portion. In the second embodiment, a portion of the subject that is hidden by the obstacle at the time of the first shooting is performed for the second and subsequent times by performing a plurality of continuous shootings while shifting the shooting position (changing the viewpoint) of the subject. In this way, the area of the image part of the obstacle is interpolated. In the first embodiment described above, “obstacle” means that the subject is hidden to the extent that the entire subject can be estimated by the remaining portion of the subject that is not hidden by the obstacle. In the second embodiment, the subject may be hidden more greatly than in the first embodiment. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図6は、第2実施形態において、金網/ネット撮影モードへの切り換えに応じて実行開始されるフローチャートである。なお、図6のステップB1〜B5は、図2のステップA1〜A5に対応する処理であり、ステップB6(ステップB61〜69)は、図2のステップA6〜A14に対応する処理である。
先ず、制御部1は、撮像素子6dに映っている画像をプレビュー表示(ステップB1)させた後、レリーズ操作が行われたかを調べたり(ステップB2)、金網/ネット影モードでの撮影終了を指示する操作が行われたかを調べたり(ステップB3)、その他の操作が行われたかを調べたりする(ステップB4)。
FIG. 6 is a flowchart that starts execution in accordance with switching to the wire mesh / net shooting mode in the second embodiment. Note that steps B1 to B5 in FIG. 6 are processes corresponding to steps A1 to A5 in FIG. 2, and steps B6 (steps B61 to 69) are processes corresponding to steps A6 to A14 in FIG.
First, the control unit 1 displays a preview of the image shown on the image sensor 6d (step B1), and then checks whether a release operation has been performed (step B2), or ends the shooting in the wire mesh / net shadow mode. It is checked whether an instructing operation has been performed (step B3), or whether other operations have been performed (step B4).

いま、その他の操作が行われたときには(ステップB4でYES)、その操作に応じた処理(ステップB5)を実行した後、上述のステップB1に戻る。また、金網/ネット影モードでの撮影終了が指示されたときには(ステップB3でYES)、図6のフローから抜ける。また、金網/ネット撮影モードにおいてレリーズ操作が行われたときには(ステップB2でYES)、コントラストAF処理後に被写体に合焦した画像を取得する処理に移る(ステップB6)。   If another operation is performed (YES in step B4), a process corresponding to the operation (step B5) is executed, and then the process returns to step B1 described above. Also, when the end of shooting in the wire mesh / net shadow mode is instructed (YES in step B3), the flow exits from FIG. When a release operation is performed in the wire mesh / net shooting mode (YES in step B2), the process proceeds to a process of acquiring an image focused on the subject after the contrast AF process (step B6).

図7は、コントラストAF処理後に被写体に合焦した画像を取得する処理(図6のステップB6)を詳述するためのフローチャートである。
先ず、近距離側(Near側)から1回目のコントラストAF処理を開始する(ステップB61)。そして、近距離側からフォーカスレンズ6bを移動させながらコントラスト値(AF評価値)を算出して(ステップB62)、金網やネットなど(障害物)の位置にフォーカスを合わせ込む(ステップB63)。この状態において撮像素子6dに映っている画像に対してエッジ検出(ステップB64)を行った後、画像処理技術を基にその障害物の画像部分を削除する(ステップB65)。そして、削除後の画像(加工画像)を基に2回目のコントラストAF処理を開始(ステップB66)して、遠距離側からAF評価値を算出し(ステップB67)、撮影目的の被写体の位置にフォーカスを合わせ込み(ステップB68)、そのときの画像をキャプチャ画像として取り込む(ステップB69)。
FIG. 7 is a flowchart for explaining in detail the process for acquiring an image focused on the subject after the contrast AF process (step B6 in FIG. 6).
First, the first contrast AF process is started from the near distance side (Near side) (step B61). Then, the contrast value (AF evaluation value) is calculated while moving the focus lens 6b from the short distance side (step B62), and the focus is adjusted to the position of an obstacle (such as a wire mesh or net) (step B63). In this state, edge detection (step B64) is performed on the image reflected on the image sensor 6d, and then the image portion of the obstacle is deleted based on the image processing technique (step B65). Then, the second contrast AF process is started based on the deleted image (processed image) (step B66), and an AF evaluation value is calculated from the long distance side (step B67), and the position of the subject to be photographed is set. The focus is adjusted (step B68), and the image at that time is captured as a captured image (step B69).

このようにしてAF処理後に被写体に合焦した画像を取得する処理(ステップB6)が終わると、連写操作(レリーズ操作)が行われるまで待機状態となる(ステップB7)。ここで、2回目のレリーズ操作が行われると(ステップB7でYES)、AF処理後に被写体に合焦した画像を取得する処理(ステップB8)に移り、図7のフローチャートにしたがって上述の動作を再度実行する。これによって1回目のAF処理で障害物にフォーカスを合わせ込んで障害物の画像部分を削除した後、2回目のAF処理で撮影目的の被写体にフォーカスを合わせ込み、そのときの画像をキャプチャ画像として取り込む。   In this way, after the process of acquiring an image focused on the subject after the AF process (step B6) is finished, the process stands by until a continuous shooting operation (release operation) is performed (step B7). When the second release operation is performed (YES in step B7), the process proceeds to a process (step B8) for acquiring an image focused on the subject after the AF process, and the above operation is performed again according to the flowchart of FIG. Run. As a result, the obstacle is focused on the obstacle in the first AF process to delete the image portion of the obstacle, and then the focus is focused on the subject to be photographed in the second AF process, and the image at that time is used as the capture image. take in.

そして、上述の1回目の撮影時に取り込んだ画像に2回目の撮影時に取り込んだ画像を重ね合わせる(ステップB9)。図8は、撮影位置を3回変更して同一の被写体をその位置毎にそれぞれ撮影する場合を例示したもので、撮影者の移動方向(図中、矢印の方向)と静止中の被写体との関係を示している。この場合、1回目の撮影では、被写体に向かって右斜め45°方向の位置Aで行い、その後、撮影者は被写体に正対する位置Bまで移動して2回目の撮影を行い、更に、図示の例では、3回目の撮影として被写体に向かって左斜め45°方向の位置Cで行う場合を示している。なお、図8の例では、撮影を3回行う場合を例示したが、撮影回数は2回あるいは4回以上であってもよい。   Then, the image captured at the time of the second photographing is superimposed on the image captured at the time of the first photographing (step B9). FIG. 8 illustrates the case where the shooting position is changed three times and the same subject is shot for each position. The movement direction of the photographer (the direction of the arrow in the figure) and the stationary subject are illustrated. Showing the relationship. In this case, the first shooting is performed at a position A in a 45 ° right oblique direction toward the subject, and then the photographer moves to a position B facing the subject to perform a second shooting, and further, as illustrated in FIG. The example shows a case where the third shooting is performed at a position C in a 45 ° left oblique direction toward the subject. In the example of FIG. 8, the case where the photographing is performed three times is illustrated, but the number of photographing may be two times or four times or more.

このように同一の被写体を撮影する方向(撮影位置)をずらしながら、つまり、視点を変えながら複数回撮影を行うことにより、その被写体の前に障害物が存在していても、被写体に対して障害物の位置が相対的に変化するために、ある方向では障害物によって遮られて見えなかった被写体の部分が他の方向では見えるようになる。例えば、位置Aでの1回目の撮影では見えなかった被写体の部分が位置Bの2回目の撮影で見えるようになり、逆に1回目の撮影で見えていた被写体の部分が2回目の撮影で見えなくなる。このため被写体に対して右斜め45°方向の位置Aから撮影した1回目の画像と正面Bから撮影した2回目の画像とを重ね合わせることにより、障害物によって被写体か隠されている部分は、全く無くなって全体が見えるようになるか、かなり少なくなる。   In this way, by shifting the shooting direction (shooting position) of the same subject, that is, by shooting multiple times while changing the viewpoint, even if there is an obstacle in front of the subject, Since the position of the obstacle changes relatively, the portion of the subject that was not seen by the obstacle in one direction can be seen in the other direction. For example, the portion of the subject that was not visible in the first shooting at position A can be seen in the second shooting at position B, and the portion of the subject that was visible in the first shooting is reversed in the second shooting. Become invisible. For this reason, by superimposing the first image taken from the position A in the 45 ° diagonal direction on the subject and the second image taken from the front B, the part hidden by the obstacle is It disappears completely and you can see the whole, or it's much less.

ここで、各方向から撮影した複数の画像を重ね合わせる際に、画像処理技術により被写体の位置を特定し、被写体の継ぎ目が合うように各画像を重ね合わせるようにしている。そして、重ね合わせた画像を基に被写体の輪郭を検出すると共に、撮影した各画像から被写体の画像部分をそれぞれ検出して被写体検出情報として取得し(ステップB10)、この被写体検出情報に基づいて障害物の画像部分の領域を補間する(ステップB11)。その結果、障害物の画像部分の領域を全て補間したか(補間を完成したか)を調べ(ステップB12)、補間が完成していなければ(ステップB12でNO)、連写回数は限度値(例えば、3回)を超えたかを調べる(ステップB15)。いま、2回目の連写操作(レリーズ操作)であるため(ステップB15でNO)、次の連写操作が行われるまで待機状態となる(ステップB7)。   Here, when a plurality of images taken from each direction are superimposed, the position of the subject is specified by an image processing technique, and the images are superimposed so that the joints of the subjects are aligned. Then, the contour of the subject is detected based on the superimposed images, the image portion of the subject is detected from each captured image, and is acquired as subject detection information (step B10). The region of the image portion of the object is interpolated (step B11). As a result, it is checked whether all areas of the image portion of the obstacle have been interpolated (interpolation is completed) (step B12). If the interpolation has not been completed (NO in step B12), the number of continuous shots is the limit value ( For example, it is checked whether or not (3 times) has been exceeded (step B15). Now, since it is the second continuous shooting operation (release operation) (NO in step B15), it is in a standby state until the next continuous shooting operation is performed (step B7).

これによって3回目の連写操作が行われると(ステップB7でYES)、上述と同様の動作が行われる(ステップB7〜B11)。図9は、図8の例のように複数の位置A、B、Cで撮影した各画像を示すと共に、各画像を重ね合わせた状態を示した図である。このように3方向から撮影を行って各画像を重ね合わせることによって補間を完成することができたときには(ステップB12でYES)、その旨を撮影者に報知させるためにブザー(図示省略)を駆動して報知音を発生させる(ステップB13)。そして、補間した画像を圧縮(可逆圧縮)してファイル化する画像圧縮処理を施した後、記憶部3に記録保存させる(ステップB14)。その後、最初のステップB1に戻る。   Accordingly, when the third continuous shooting operation is performed (YES in step B7), the same operation as described above is performed (steps B7 to B11). FIG. 9 is a diagram showing each image taken at a plurality of positions A, B, and C as in the example of FIG. 8 and a state in which the images are superimposed. When interpolation can be completed by photographing from three directions and superimposing the images in this way (YES in step B12), a buzzer (not shown) is driven to notify the photographer to that effect. Then, a notification sound is generated (step B13). Then, after performing an image compression process for compressing (reversibly compressing) the interpolated image into a file, the image is recorded and saved in the storage unit 3 (step B14). Thereafter, the process returns to the first step B1.

また、連写回数の限度値(例えば、3回)を超えても補間を完成することができなかったときには(ステップB15でYES)、上述した第1実施形態と同様に、補間することができなかった残りの部分の周辺画像を解析し、その解析結果に基づいてその部分を推測して補間する処理を行う(ステップB16)。そして、補間完了の報知音を発生させると共に(ステップB13)、補間した画像を圧縮処理して記憶部3に記録保存(ステップB14)させた後、最初のステップB1に戻る。   If the interpolation cannot be completed even if the limit value (for example, 3 times) is exceeded, the interpolation can be performed as in the first embodiment described above. The peripheral image of the remaining part that has not been analyzed is analyzed, and the part is estimated and interpolated based on the analysis result (step B16). Then, a notification sound indicating completion of interpolation is generated (step B13), the interpolated image is compressed and recorded in the storage unit 3 (step B14), and then the process returns to the first step B1.

以上のように、第2実施形態においては、カメラを移動することによって撮影方向を変えながら複数回の連写操作が行われる毎に、1回目のコントラストAF処理、障害物の画像部分の領域を検出する処理、2回目のコントラストAF処理、及び撮影目的の被写体に合焦した画像をキャプチャ画像として取り込む処理を行い、最後の撮影操作で障害物の画像部分の領域を補間する処理を行うが、その際、複数回の連写によって取得したキャプチャ画像を重ね合わせることにより障害物の画像部分の領域を、補間するようにしたので、撮影方向を変えながら複数回の連写撮影を行うだけで、実際に撮影した画像部分を使用して補間することができ、障害物が存在していない場合の画像と同等の画像を得ることができる。   As described above, in the second embodiment, every time a plurality of continuous shooting operations are performed while changing the shooting direction by moving the camera, the first contrast AF process, the area of the obstacle image portion is changed. A process for detecting, a second contrast AF process, and a process for capturing an image focused on a subject to be photographed as a captured image, and a process for interpolating the area of the image part of the obstacle in the last photographing operation, At that time, since the area of the image part of the obstacle is interpolated by overlapping the captured images acquired by multiple continuous shooting, just by performing multiple continuous shooting while changing the shooting direction, Interpolation can be performed using an actually captured image portion, and an image equivalent to an image when no obstacle is present can be obtained.

障害物の画像部分の領域を全て補間することができた場合に、補間完了を報知するようにしたので、補間完了を撮影者に知らせることができるようになるために、例えば、2回の連写で足りる場合にはその時点で撮影をストップすることができ、2回の連写で足りなければ、3回目の連写を行えばよいことになる。   Since the interpolation completion is notified when all the regions of the image portion of the obstacle can be interpolated, in order to be able to notify the photographer of the completion of interpolation, for example, two consecutive times If the shooting is sufficient, the shooting can be stopped at that time, and if the two continuous shootings are not enough, the third continuous shooting may be performed.

なお、上述した各実施形態においては、ズーム動作については言及しなかったが、ズーム動作を行った場合には、ズームレンズ位置とフォーカスレンズ位置とを対応付けて記憶するフォーカステーブルの内容が変化するようになるためにコントラストAF処理の開始位置をズーム動作に応じて適宜変更するようにすればよい。   In each of the above-described embodiments, the zoom operation is not mentioned. However, when the zoom operation is performed, the contents of the focus table that stores the zoom lens position and the focus lens position in association with each other change. In order to achieve this, the start position of the contrast AF process may be appropriately changed according to the zoom operation.

また、上述した各実施形態においては、デジタルカメラ(コンパクトカメラ)に適用した場合を示したが、それに限らず、一眼レフカメラ・カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・スマートフォン・その他の携帯電話機・タブレット端末装置・音楽プレイヤーなどであってもよい。   In each of the above-described embodiments, the present invention is applied to a digital camera (compact camera). However, the present invention is not limited thereto, and is not limited to a single-lens reflex camera, a personal computer with a camera function, a PDA (personal portable information communication device), It may be a smartphone, other mobile phone, tablet terminal device, music player, or the like.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
撮像素子を備えた撮像手段と、
前記撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する第1のフォーカス手段と、
前記第1のフォーカス手段により前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する検出手段と、
前記検出手段により検出された前記障害物の画像部分の領域を除く画像を基に、より後側に位置する被写体を撮影目的の被写体として合焦する第2のフォーカス手段と、
前記第2のフォーカス手段により前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むキャプチャ手段と、
前記キャプチャ手段により取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行う補間手段と、
を備えることを特徴とする撮像装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記検出手段は、前記障害物の画像部分の領域を、コントラストの高い部分によって検出する、
ようにしたことを特徴とする撮像装置である。
(請求項3)
請求項3に記載の発明は、請求項1あるいは請求項2に記載の撮像装置において、
前記検出手段により検出された前記障害物の画像部分の領域を削除する削除手段を更に備え、
前記第2のフォーカス手段は、前記削除手段により前記障害物が削除された後の画像を基に前記撮影目的の被写体に合焦する、
ようにしたことを特徴とする撮像装置である。
(請求項4)
請求項4に記載の発明は、請求項1〜請求項3のいずれかに記載の撮像装置において、
前記障害物は、略格子状に形成された障害物である、
ことを特徴とする撮像装置である。
(請求項5)
請求項5に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記第2のフォーカス手段により前記撮影目的の被写体に合焦した状態において前記撮像手段により撮影された画像のうち、前記障害物の画像部分の領域の周辺に位置している周辺画像を解析する解析手段を更に備え、
前記補間手段は、前記障害物の画像部分の領域及び前記解析手段による解析結果を基に補間する処理を行う、
ようにしたことを特徴とする撮像装置である。
(請求項6)
請求項6に記載の発明は、請求項1〜請求項5のいずれかに記載の撮像装置において、
前記第1のフォーカス手段、前記検出手段、前記第2のフォーカス手段、前記キャプチャ手段、及び前記補間手段は、1回の撮影操作で動作する、
ようにしたことを特徴とする撮像装置である。
(請求項7)
請求項7に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記撮像手段の移動によって撮影方向を変えながら複数回の連写による撮影操作が行われる毎に、前記第1のフォーカス手段、前記検出手段、前記第2のフォーカス手段、及び前記キャプチャ手段は、それぞれ動作し、
前記補間手段は、最後の撮影操作で動作し、前記複数回の連写によって取り込んだ前記キャプチャ画像を重ね合わせることにより前記障害物の画像部分の領域を、前記障害物の画像部分の領域を基に補間する処理を行う、
ようにしたことを特徴とする撮像装置である。
(請求項8)
請求項8に記載の発明は、請求項7に記載の撮像装置において、
前記障害物の画像部分の領域を全て補間したか否かを判別する判別手段と、
前記判別手段により全て補間したと判別した場合に、補間完了を報知する報知手段と、
を更に備える、
ようにしたことを特徴とする撮像装置である。
(請求項9)
請求項9に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記第1のフォーカス手段は、前記撮像素子に映っている画像を基に近距離側からフォーカスすることで前記撮影目的の被写体より手前に位置する障害物に合焦する、
ようにしたことを特徴とする撮像装置である。
(請求項10)
請求項10に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記第2のフォーカス手段は、前記撮像素子に映っている画像を基に遠距離側からフォーカスすることで前記撮影目的の被写体に合焦する、
ようにしたことを特徴とする撮像装置である。
(請求項11)
請求項11に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記検出手段は、画素値が急峻に変化するエッジを検出することにより前記障害物の画像部分の領域を検出する、
ようにしたことを特徴とする撮像装置である。
(請求項12)
請求項12に記載の発明は、請求項1〜請求項11のいずれかに記載の撮像装置において、
前記補間手段は、前記キャプチャ手段により取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する場合に、前記障害物の画像部分の領域と相似形でそれよりも大きな領域を前記キャプチャ画像内の障害物に相当する領域部分として検出し、その検出領域内に対して補間処理を行う、
ようにしたことを特徴とする撮像装置。
(請求項13)
請求項13に記載の発明は、請求項1〜請求項12のいずれかに記載の撮像装置において、
前記補間手段により補間された後の画像を記録する記録手段を更に備える、
ようにしたことを特徴とする撮像装置である。
(請求項14)
請求項14に記載の発明は、
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦するステップと、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出するステップと、
前記検出された前記障害物の画像部分の領域を除く画像を基に、より後ろ側に位置する被写体を撮影目的の被写体として合焦するステップと、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むステップと、
前記取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行うステップと、
を備えることを特徴とする撮像方法である。
(請求項15)
請求項15に記載の発明は、
コンピュータに対して、
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する機能と、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する機能と、
前記検出された前記障害物の画像部分の領域を除く画像を基に、より後ろ側に位置する被写体を撮影目的の被写体として合焦する機能と、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込む機能と、
前記取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行う機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Imaging means comprising an imaging element;
First focusing means for focusing an object located in front as an obstacle based on an image shown on the image sensor;
Detecting means for detecting an area of an image portion of the obstacle from an image focused on the obstacle by the first focus means and reflected on the image sensor;
Second focusing means for focusing a subject located on the rear side as a subject to be photographed based on an image excluding the area of the image portion of the obstacle detected by the detecting means;
Capture means for capturing an image shown on the image sensor as a captured image in a state in which the second focus means is focused on the subject to be photographed;
Interpolation means for performing processing to interpolate the captured image captured by the capture means based on the area of the image portion of the obstacle;
It is an imaging device characterized by comprising.
(Claim 2)
The invention according to claim 2 is the imaging apparatus according to claim 1,
The detection means detects an area of the image portion of the obstacle by a high-contrast portion;
The imaging apparatus is characterized by the above.
(Claim 3)
According to a third aspect of the present invention, in the imaging device according to the first or second aspect,
A deletion unit that deletes an image part area of the obstacle detected by the detection unit;
The second focus unit focuses on the subject to be photographed based on an image after the obstacle is deleted by the deletion unit.
The imaging apparatus is characterized by the above.
(Claim 4)
The invention according to claim 4 is the imaging apparatus according to any one of claims 1 to 3,
The obstacle is an obstacle formed in a substantially lattice shape.
This is an imaging apparatus.
(Claim 5)
The invention according to claim 5 is the imaging apparatus according to any one of claims 1 to 4,
Analysis for analyzing a peripheral image located in the vicinity of the area of the image portion of the obstacle among the images photographed by the imaging means in a state in which the object to be photographed is focused by the second focus means. Further comprising means,
The interpolation means performs a process of interpolating based on the region of the image portion of the obstacle and the analysis result by the analysis means.
The imaging apparatus is characterized by the above.
(Claim 6)
The invention according to claim 6 is the imaging apparatus according to any one of claims 1 to 5,
The first focus means, the detection means, the second focus means, the capture means, and the interpolation means operate in one shooting operation;
The imaging apparatus is characterized by the above.
(Claim 7)
The invention according to claim 7 is the imaging apparatus according to any one of claims 1 to 4,
Each time a shooting operation is performed by a plurality of continuous shootings while changing the shooting direction by moving the imaging unit, the first focus unit, the detection unit, the second focus unit, and the capture unit are respectively Work,
The interpolation means operates at the last photographing operation, and superimposes the captured images captured by the plurality of continuous shootings, thereby superimposing the area of the obstacle image portion on the basis of the area of the obstacle image portion. To perform interpolation processing,
The imaging apparatus is characterized by the above.
(Claim 8)
The invention according to claim 8 is the imaging apparatus according to claim 7,
Discriminating means for discriminating whether or not all the regions of the image part of the obstacle have been interpolated,
A notification means for notifying completion of interpolation when it is determined that all the interpolation is performed by the determination means;
Further comprising
The imaging apparatus is characterized by the above.
(Claim 9)
The invention according to claim 9 is the imaging apparatus according to any one of claims 1 to 4,
The first focusing means focuses on an obstacle located in front of the subject to be photographed by focusing from a short distance side based on an image shown on the image sensor.
The imaging apparatus is characterized by the above.
(Claim 10)
The invention according to claim 10 is the imaging apparatus according to any one of claims 1 to 4,
The second focusing means focuses on the subject to be photographed by focusing from a long distance side based on an image shown on the image sensor.
The imaging apparatus is characterized by the above.
(Claim 11)
The invention according to claim 11 is the imaging apparatus according to any one of claims 1 to 4,
The detection means detects an area of the image portion of the obstacle by detecting an edge where the pixel value changes sharply.
The imaging apparatus is characterized by the above.
(Claim 12)
The invention according to claim 12 is the imaging apparatus according to any one of claims 1 to 11,
The interpolation means, when interpolating the captured image captured by the capture means based on the area of the obstacle image portion, captures an area similar to and larger than the area of the obstacle image portion. Detect as an area corresponding to an obstacle in the image, and perform interpolation processing within the detection area.
An imaging apparatus characterized by being configured as described above.
(Claim 13)
The invention according to claim 13 is the imaging apparatus according to any one of claims 1 to 12,
It further comprises recording means for recording the image after being interpolated by the interpolation means.
The imaging apparatus is characterized by the above.
(Claim 14)
The invention according to claim 14
Based on the image shown on the image sensor, focusing the object located in front as an obstacle,
Detecting an area of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on an image excluding an area of the detected image portion of the obstacle, focusing a subject located on the rear side as a subject for photographing;
Capturing an image reflected on the image sensor as a captured image in a state in which the subject to be photographed is focused;
Performing a process of interpolating the captured image captured based on the area of the image portion of the obstacle;
It is an imaging method characterized by comprising.
(Claim 15)
The invention according to claim 15 is:
Against the computer,
Based on the image shown in the image sensor, the function to focus the subject located in front as an obstacle,
A function of detecting a region of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on the image excluding the area of the detected image portion of the obstacle, a function for focusing a subject located on the rear side as a subject for photographing,
A function of capturing an image reflected on the image sensor as a captured image in a state in which the object to be photographed is focused;
A function of performing the process of interpolating the captured captured image based on the area of the image portion of the obstacle;
It is a program for realizing.

1 制御部
3 記憶部
6 撮像部
6a ズームレンズ
6b フォーカスレンズ
6c レンズ部
6d 撮像素子
6e アナログ処理部
6f 画像信号処理部
M1 プログラムメモリ
DESCRIPTION OF SYMBOLS 1 Control part 3 Memory | storage part 6 Image pick-up part 6a Zoom lens 6b Focus lens 6c Lens part 6d Image pick-up element 6e Analog processing part 6f Image signal processing part M1 Program memory

Claims (15)

撮像素子を備えた撮像手段と、
前記撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する第1のフォーカス手段と、
前記第1のフォーカス手段により前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する検出手段と、
前記検出手段により検出された前記障害物の画像部分の領域を除く画像を基に、より後側に位置する被写体を撮影目的の被写体として合焦する第2のフォーカス手段と、
前記第2のフォーカス手段により前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むキャプチャ手段と、
前記キャプチャ手段により取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する処理を行う補間手段と、
を備えることを特徴とする撮像装置。
Imaging means comprising an imaging element;
First focusing means for focusing an object located in front as an obstacle based on an image shown on the image sensor;
Detecting means for detecting an area of an image portion of the obstacle from an image focused on the obstacle by the first focus means and reflected on the image sensor;
Second focusing means for focusing a subject located on the rear side as a subject to be photographed based on an image excluding the area of the image portion of the obstacle detected by the detecting means;
Capture means for capturing an image shown on the image sensor as a captured image in a state in which the second focus means is focused on the subject to be photographed;
Interpolation means for performing processing to interpolate the captured image captured by the capture means based on the area of the image portion of the obstacle;
An imaging apparatus comprising:
前記検出手段は、前記障害物の画像部分の領域を、コントラストの高い部分によって検出する、
ようにしたことを特徴とする請求項1記載の撮像装置。
The detection means detects an area of the image portion of the obstacle by a high-contrast portion;
The imaging apparatus according to claim 1, which is configured as described above.
前記検出手段により検出された前記障害物の画像部分を削除する削除手段を更に備え、
前記第2のフォーカス手段は、前記削除手段により前記障害物が削除された後の画像を基に前記撮影目的の被写体に合焦する、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の撮像装置。
A deletion unit that deletes the image portion of the obstacle detected by the detection unit;
The second focus unit focuses on the subject to be photographed based on an image after the obstacle is deleted by the deletion unit.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記障害物は、略格子状に形成された障害物である、
ことを特徴とする請求項1〜請求項3のいずれかに記載の撮像装置。
The obstacle is an obstacle formed in a substantially lattice shape.
The imaging device according to any one of claims 1 to 3, wherein
前記第2のフォーカス手段により前記撮影目的の被写体に合焦した状態において前記撮像手段により撮影された画像のうち、前記障害物の画像部分の領域の周辺に位置している周辺画像を解析する解析手段を更に備え、
前記補間手段は、前記障害物の画像部分の領域及び前記解析手段による解析結果を基に補間する処理を行う、
ようにしたことを特徴とする請求項1〜請求項4のいずれかに記載の撮像装置。
Analysis for analyzing a peripheral image located in the vicinity of the area of the image portion of the obstacle among the images photographed by the imaging means in a state in which the object to be photographed is focused by the second focus means. Further comprising means,
The interpolation means performs a process of interpolating based on the region of the image portion of the obstacle and the analysis result by the analysis means.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記第1のフォーカス手段、前記検出手段、前記第2のフォーカス手段、前記キャプチャ手段、及び前記補間手段は、1回の撮影操作で動作する、
ようにしたことを特徴とする請求項1〜請求項5のいずれかに記載の撮像装置。
The first focus means, the detection means, the second focus means, the capture means, and the interpolation means operate in one shooting operation;
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記撮像手段の移動によって撮影方向を変えながら複数回の連写による撮影操作が行われる毎に、前記第1のフォーカス手段、前記検出手段、前記第2のフォーカス手段、及び前記キャプチャ手段は、それぞれ動作し、
前記補間手段は、最後の撮影操作で動作し、前記複数回の連写によって取り込んだ前記キャプチャ画像を重ね合わせることにより前記障害物の画像部分の領域を基に補間する処理を行う、
ようにしたことを特徴とする請求項1〜請求項4のいずれかに記載の撮像装置。
Each time a shooting operation is performed by a plurality of continuous shootings while changing the shooting direction by moving the imaging unit, the first focus unit, the detection unit, the second focus unit, and the capture unit are respectively Work,
The interpolation means operates in the last shooting operation, and performs a process of interpolating based on the region of the image portion of the obstacle by superimposing the captured images captured by the plurality of continuous shootings.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記障害物の画像部分の領域を全て補間したか否かを判別する判別手段と、
前記判別手段により全て補間したと判別した場合に、補間完了を報知する報知手段と、
を更に備える、
ようにしたことを特徴とする請求項7に記載の撮像装置。
Discriminating means for discriminating whether or not all the regions of the image part of the obstacle have been interpolated,
A notification means for notifying completion of interpolation when it is determined that all the interpolation is performed by the determination means;
Further comprising
The imaging apparatus according to claim 7, which is configured as described above.
前記第1のフォーカス手段は、前記撮像素子に映っている画像を基に近距離側からフォーカスすることで前記撮影目的の被写体より手前に位置する障害物に合焦する、
ようにしたことを特徴とする請求項1〜請求項4のいずれかに記載の撮像装置。
The first focusing means focuses on an obstacle located in front of the subject to be photographed by focusing from a short distance side based on an image shown on the image sensor.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記第2のフォーカス手段は、前記撮像素子に映っている画像を基に遠距離側からフォーカスすることで前記撮影目的の被写体に合焦する、
ようにしたことを特徴とする請求項1〜請求項4のいずれかに記載の撮像装置。
The second focusing means focuses on the subject to be photographed by focusing from a long distance side based on an image shown on the image sensor.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記検出手段は、画素値が急峻に変化するエッジを検出することにより前記障害物の画像部分の領域を検出する、
ようにしたことを特徴とする請求項1〜請求項4のいずれかに記載の撮像装置。
The detection means detects an area of the image portion of the obstacle by detecting an edge where the pixel value changes sharply.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記補間手段は、前記キャプチャ手段により取り込んだキャプチャ画像を前記障害物の画像部分の領域を基に補間する場合に、前記障害物の画像部分の領域と相似形でそれよりも大きな領域を前記キャプチャ画像内の障害物に相当する領域部分として検出し、その検出領域内に対して補間処理を行う、
ようにしたことを特徴とする請求項1〜請求項11のいずれかに記載の撮像装置。
The interpolation means, when interpolating the captured image captured by the capture means based on the area of the obstacle image portion, captures an area similar to and larger than the area of the obstacle image portion. Detect as an area corresponding to an obstacle in the image, and perform interpolation processing within the detection area.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記補間手段により補間された後の画像を記録する記録手段を更に備える、
ようにしたことを特徴とする請求項1〜請求項12のいずれかに記載の撮像装置。
It further comprises recording means for recording the image after being interpolated by the interpolation means.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦するステップと、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出するステップと、
前記検出された障害物の画像部分の領域を除く画像を基に、より後側に位置する被写体を撮影目的の被写体として合焦するステップと、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込むステップと、
前記取り込んだキャプチャ画像を、前記障害物の画像部分の領域を基に補間する処理を行うステップと、
を備えることを特徴とする撮像方法。
Based on the image shown on the image sensor, focusing the object located in front as an obstacle,
Detecting an area of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on the image excluding the area of the detected obstacle image portion, focusing a subject located on the rear side as a subject for shooting;
Capturing an image reflected on the image sensor as a captured image in a state in which the subject to be photographed is focused;
Performing the process of interpolating the captured image captured based on the area of the image portion of the obstacle;
An imaging method comprising:
コンピュータに対して、
撮像素子に映っている画像を基に、より手前に位置する被写体を障害物として合焦する機能と、
前記障害物に合焦されて前記撮像素子に映っている画像の中から前記障害物の画像部分の領域を検出する機能と、
前記検出された障害物の画像部分の領域を除く画像を基に、より後側に位置する被写体を撮影目的の被写体として合焦する機能と、
前記撮影目的の被写体に合焦した状態において前記撮像素子に映っている画像をキャプチャ画像として取り込む機能と、
前記取り込んだキャプチャ画像を、前記障害物の画像部分の領域を基に補間する処理を行う機能と、
を実現させるためのプログラム。
Against the computer,
Based on the image shown in the image sensor, the function to focus the subject located in front as an obstacle,
A function of detecting a region of an image portion of the obstacle from an image focused on the obstacle and reflected on the imaging element;
Based on an image excluding the area of the detected obstacle image portion, a function for focusing a subject located on the rear side as a subject for photographing,
A function of capturing an image reflected on the image sensor as a captured image in a state in which the object to be photographed is focused;
A function of performing processing for interpolating the captured image captured based on the area of the image portion of the obstacle;
A program to realize
JP2012012973A 2012-01-25 2012-01-25 Imaging apparatus, imaging method, and program Pending JP2013153321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012012973A JP2013153321A (en) 2012-01-25 2012-01-25 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012012973A JP2013153321A (en) 2012-01-25 2012-01-25 Imaging apparatus, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2013153321A true JP2013153321A (en) 2013-08-08

Family

ID=49049349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012012973A Pending JP2013153321A (en) 2012-01-25 2012-01-25 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2013153321A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097041A (en) * 2015-11-19 2017-06-01 株式会社 日立産業制御ソリューションズ Imaging device, imaging method, and focus control device
JP2019511871A (en) * 2016-06-09 2019-04-25 グーグル エルエルシー How to take pictures through visual obstacles

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097041A (en) * 2015-11-19 2017-06-01 株式会社 日立産業制御ソリューションズ Imaging device, imaging method, and focus control device
JP2019511871A (en) * 2016-06-09 2019-04-25 グーグル エルエルシー How to take pictures through visual obstacles
JP2020181595A (en) * 2016-06-09 2020-11-05 グーグル エルエルシー Methods for taking photos through visual obstructions
US11050948B2 (en) 2016-06-09 2021-06-29 Google Llc Taking photos through visual obstructions
JP7072606B2 (en) 2016-06-09 2022-05-20 グーグル エルエルシー How to take a picture through a visual obstacle

Similar Documents

Publication Publication Date Title
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP2011120143A (en) Image pickup device and image pickup method
JP2015040941A (en) Image-capturing device, control method therefor, and program
JP2011217103A (en) Compound eye photographing method and apparatus
JP6300076B2 (en) Imaging apparatus, imaging method, and program
JP2008109551A (en) Imaging device and image reproducing device
JP2009278432A (en) Imaging apparatus, and imaging method in imaging apparatus
JP4584884B2 (en) Imaging apparatus and imaging method
JP2007133810A (en) Image processor
JP2013153321A (en) Imaging apparatus, imaging method, and program
JP5796650B2 (en) Imaging apparatus and imaging method
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2006243636A (en) Imaging apparatus, autofocus control method and autofocus control program
JP2006276683A (en) Imaging apparatus and program
CN113473018B (en) Video shooting method and device, shooting terminal and storage medium
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP5451197B2 (en) Imaging device
JP2006128793A (en) Image pickup device and control method thereof
JP7389558B2 (en) Information processing device and its control method and program
US20110032390A1 (en) Digital photographing apparatus and moving picture capturing method performed by the same
JP2016063397A (en) Imaging apparatus, image display method and program
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP6645614B2 (en) Imaging device and electronic equipment