JP2015005925A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2015005925A
JP2015005925A JP2013130990A JP2013130990A JP2015005925A JP 2015005925 A JP2015005925 A JP 2015005925A JP 2013130990 A JP2013130990 A JP 2013130990A JP 2013130990 A JP2013130990 A JP 2013130990A JP 2015005925 A JP2015005925 A JP 2015005925A
Authority
JP
Japan
Prior art keywords
image data
distance
display
foreground object
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013130990A
Other languages
Japanese (ja)
Inventor
有一 中田
Yuichi Nakada
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013130990A priority Critical patent/JP2015005925A/en
Publication of JP2015005925A publication Critical patent/JP2015005925A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to check, when an image in which an obstruction is removed is displayed in live view, the obstruction from the live view.SOLUTION: When a distance to an obstruction is a predetermined value or more, an imaging device displays an image in which the obstruction is removed as image data, and when the distance to the obstruction is smaller than the predetermined value, performs collision prevention processing, such as creating display image data allowing the visual recognition of the obstruction.

Description

本発明は、撮像画像から特定のオブジェクトを除去した画像を表示する画像処理装置及びその方法に関する。   The present invention relates to an image processing apparatus and method for displaying an image obtained by removing a specific object from a captured image.

現在、手持ちカメラで撮像した映像中に含まれる特定の障害物を画像処理により除去するために様々な試みが行われている。例えば、平面構造で構成されているビルなどの被写体がその被写体よりも前景にある電柱などの障害物に遮蔽されている映像から、障害物を除去する方法が知られている(特許文献1を参照)。特許文献1では、映像中に含まれる代表的な平面構造の位置が合うように映像中の各フレームを射影変換によって変換する。そして、時空間フィルタを用いることにより映像中の前景物を除去する。   Currently, various attempts have been made to remove specific obstacles included in video captured by a handheld camera by image processing. For example, a method of removing an obstacle from an image in which an object such as a building having a planar structure is shielded by an obstacle such as a utility pole in the foreground than the object is known (see Patent Document 1). reference). In Patent Document 1, each frame in a video is converted by projective transformation so that the position of a typical planar structure included in the video matches. Then, foreground objects in the video are removed by using a spatio-temporal filter.

もう1つの方法として、視点の異なる画像間に前景物と背景物の視差の大きさの違いを利用して障害物を除去する方法も知られている(特許文献2を参照)。特許文献2では、視点Aの画像データの前景物領域と視点Bの画像データの前景物領域との間の視差が背景物領域より大きいことを利用して視点Aの画像データ中の前景物領域を認識する。そして、視点Aの画像データ中の前景物領域を視点Bの画像データを用いて補正することにより、視点Aの画像データから前景物(障害物)を除去する。また、特許文献2には、障害物の除去に適した視点の異なる撮像画像を得るために、撮像時の表示画面上の画像表示方法が記載されている。すなわち、異なる視点で撮像された複数の撮像画像を重ね合わせてライブビューに表示する。これにより、撮像者は十分な視差が得られているかを撮像時に確認することができる。   As another method, there is also known a method of removing an obstacle using a difference in parallax between a foreground object and a background object between images having different viewpoints (see Patent Document 2). In Patent Document 2, the foreground object region in the image data of the viewpoint A is obtained by utilizing the fact that the parallax between the foreground object region of the image data of the viewpoint A and the foreground object region of the image data of the viewpoint B is larger than the background object region. Recognize Then, the foreground object area in the image data of the viewpoint A is corrected using the image data of the viewpoint B, thereby removing the foreground object (obstacle) from the image data of the viewpoint A. Further, Patent Document 2 describes an image display method on a display screen at the time of imaging in order to obtain captured images with different viewpoints suitable for removing an obstacle. That is, a plurality of captured images captured from different viewpoints are superimposed and displayed on the live view. Thereby, the photographer can confirm at the time of imaging whether sufficient parallax is obtained.

特開2011−118495号公報JP 2011-118495 A 特開2010−41586号公報JP 2010-41586 A

撮像現場においては、例えば前景物であるフェンス越しに背景物である物体を撮像する場面が想定される。しかしながら、特許文献1の技術も特許文献2の技術も、実際に撮像現場での使用態様を考慮した技術ではない。   In an imaging field, for example, a scene is assumed in which an object that is a background object is imaged through a fence that is a foreground object. However, neither the technique disclosed in Patent Document 1 nor the technique disclosed in Patent Document 2 is a technique that actually considers the usage mode at the imaging site.

例えば、特許文献1のように前景物を除去した映像を表示した場合、表示画面上で前景物が確認できない。このため、前景物を除去した結果画像をライブビュー表示する場合に前景物までの距離が分からず、前景物に衝突してしまう恐れがあった。一方、特許文献2のように撮像画像を重ね合わせてライブビュー表示する場合は、前景物が半透明になって表示されるため前景物の距離は分かるものの、前景物を除去した結果をライブビュー表示で確認できない。このように、撮像現場において、表示画面上での前景物の確認と、表示画面上での前景物の除去した結果の確認とを適切にユーザーに提示する手法が存在しなかった。   For example, when an image from which the foreground object is removed is displayed as in Patent Document 1, the foreground object cannot be confirmed on the display screen. For this reason, when the image obtained as a result of removing the foreground object is displayed in live view, the distance to the foreground object is not known and there is a possibility of colliding with the foreground object. On the other hand, when the live view display is performed by superimposing the captured images as in Patent Document 2, the foreground object is displayed in a translucent manner, so the distance of the foreground object can be known, but the result of removing the foreground object is displayed in the live view. Cannot confirm by display. As described above, there has been no method for appropriately presenting the user with confirmation of the foreground object on the display screen and confirmation of the result of removing the foreground object on the display screen at the imaging site.

本発明の撮像装置は、前景物に部分的に遮蔽された背景物を撮像して画像データを取得する撮像手段と、前記画像データから前記前景物を除去し、前景物除去画像データを生成する除去手段と、前記撮像手段から前記前景物までの距離を取得する距離取得手段と、前記距離に基づいて、前記画像データと前記前景物除去画像データとの少なくともいずれかから表示画像データを生成して表示する表示手段とを有することを特徴とする。   An imaging apparatus according to the present invention generates image data obtained by imaging a background object partially shielded by a foreground object and acquiring image data, and removing the foreground object from the image data. Display image data is generated from at least one of the image data and the foreground object removal image data based on the distance, a removal unit, a distance acquisition unit that acquires a distance from the imaging unit to the foreground object, and And display means for displaying.

本発明は、撮像画像から特定の障害物を除去した画像を生成する画像処理装置において、撮像中に障害物を除去した画像を撮像者に提示するとともに、遮蔽物に衝突しないよう報知することができる。   In the image processing apparatus that generates an image obtained by removing a specific obstacle from a captured image, the present invention presents an image from which the obstacle has been removed during imaging to the photographer and notifies the imager not to collide with the shielding object. it can.

本発明の実施形態1に係る画像処理装置の外観を示す図である。It is a figure which shows the external appearance of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画像処理装置の内部構成を示す図である。It is a figure which shows the internal structure of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る撮像装置、遮蔽物、被写体の配置を示す図である。It is a figure which shows arrangement | positioning of the imaging device which concerns on Embodiment 1 of this invention, a shield, and a to-be-photographed object. 本発明の実施形態1に係る遮蔽物除去処理の流れを表すフローチャートである。It is a flowchart showing the flow of the obstruction removal process which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る座標変換画像データの例を表す図である。It is a figure showing the example of the coordinate transformation image data which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る遮蔽物除去画像データの例を表す図である。It is a figure showing the example of the obstruction removal image data concerning Embodiment 1 of this invention. 本発明の実施形態1に係る表示画像生成処理の流れを表すフローチャートである。It is a flowchart showing the flow of the display image generation process which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る距離と透過率の関係を示す図。The figure which shows the relationship between the distance which concerns on Embodiment 1 of this invention, and the transmittance | permeability. 本発明の実施形態1に係るライブビュー表示の例を示す図である。It is a figure which shows the example of the live view display which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る複数の撮像手段を持つ撮像装置の例を示す図である。It is a figure which shows the example of the imaging device which has several imaging means concerning Embodiment 1 of this invention. 本発明の実施形態2に係る表示画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the display image generation process which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係るライブビュー表示の例を示す図である。It is a figure which shows the example of the live view display which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る撮像装置の例を示す例である。It is an example which shows the example of the imaging device which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る光学部の制御方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the control method of the optical part which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る光学系制御処理の例を示す図である。It is a figure which shows the example of the optical system control process which concerns on Embodiment 3 of this invention. 本発明の実施形態4に係る光学系制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the optical system control process which concerns on Embodiment 4 of this invention.

[実施形態1]
<撮像装置の外観>
図1は本実施形態に係る撮像装置の外観を示す図であり、図1(a)は正面、図1(b)は背面の外観を示している。撮像装置101は、光学部102、撮像ボタン103、ストロボ104、距離画像取得部105、表示部106、および操作ボタン107を含む。
[Embodiment 1]
<Appearance of imaging device>
1A and 1B are views showing an external appearance of an imaging apparatus according to the present embodiment. FIG. 1A shows the external appearance of the front surface and FIG. The imaging apparatus 101 includes an optical unit 102, an imaging button 103, a strobe 104, a distance image acquisition unit 105, a display unit 106, and operation buttons 107.

光学部102はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、およびシャッターによって構成される鏡筒であり、被写体の光情報を集光する。撮像ボタン103は、ユーザーが撮像の開始を撮像装置101に指示するためのボタンである。ストロボ104は、ユーザー指示に従い撮像の開始に合わせて発光させることができる。距離画像取得部105は、撮像指示に応じて被写体の距離画像データを取得する。   The optical unit 102 is a lens barrel including a zoom lens, a focus lens, a shake correction lens, a diaphragm, and a shutter, and collects light information of a subject. The imaging button 103 is a button for the user to instruct the imaging apparatus 101 to start imaging. The strobe 104 can emit light at the start of imaging in accordance with a user instruction. The distance image acquisition unit 105 acquires distance image data of the subject according to the imaging instruction.

表示部106は、液晶ディスプレイなどが用いられており、撮像装置101にて処理された画像データや他の各種データなどを表示する。本実施形態では光学ファインダを設けていないので、フレーミング操作(ピントや構図の確認)は、表示部106を用いて行う。表示部106でライブビュー画像を確認しながら撮像を行うので、このフレーミングやフォーカシングの操作を行っている間は、表示部106は電子ファインダとして機能すると言える。表示部106には、撮像範囲をリアルタイムに表示するライブビュー表示を行う他、カメラ設定メニューを表示する。   The display unit 106 uses a liquid crystal display or the like, and displays image data processed by the imaging apparatus 101 and other various data. In this embodiment, since no optical finder is provided, a framing operation (confirmation of focus and composition) is performed using the display unit 106. Since the imaging is performed while confirming the live view image on the display unit 106, it can be said that the display unit 106 functions as an electronic viewfinder while performing the framing and focusing operations. The display unit 106 displays a camera setting menu in addition to performing live view display for displaying the imaging range in real time.

操作ボタン107は、撮像条件のパラメータや撮像モードなどをユーザーが撮像装置101に指示するためのボタンである。本実施形態では撮像モードの一つとして遮蔽物除去モードを含む。ユーザーは操作ボタン107、あるいは撮像ボタン103を用いて遮蔽物除去モードの開始、遮蔽物除去モードの終了、遮蔽物除去画像データの出力を指示することができるものとする。なお、表示部106はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザー指示を操作ボタン107の入力として扱うことも可能である。   The operation button 107 is a button for the user to instruct the imaging apparatus 101 about imaging condition parameters, imaging modes, and the like. In the present embodiment, the shielding removal mode is included as one of the imaging modes. It is assumed that the user can use the operation button 107 or the imaging button 103 to instruct to start the shielding removal mode, end the shielding removal mode, and output the shielding removal image data. Note that the display unit 106 may have a touch screen function. In that case, a user instruction using the touch screen can be handled as an input of the operation button 107.

<撮像装置の内部構成>
図2は本実施形態における撮像装置101の内部構成を示すブロック図である。
<Internal configuration of imaging device>
FIG. 2 is a block diagram illustrating an internal configuration of the imaging apparatus 101 according to the present embodiment.

CPU202は、各構成の処理すべてに関わり、ROM(Read Only Memory)203や、RAM(Rondom Access Memory)204に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。システムバス212はデータを送受信するためのバスである。   The CPU 202 is involved in all the processes of each component, and sequentially reads and interprets instructions stored in a ROM (Read Only Memory) 203 and a RAM (Rondom Access Memory) 204, and executes processes according to the results. The system bus 212 is a bus for transmitting and receiving data.

制御部206は、撮像ボタン103や操作ボタン107からのユーザー指示によって、撮像動作の開始及び終了などの制御を行う。また、本実施形態において制御部206は、ユーザー指示に応じてSW1およびSW2を制御する。具体的には、遮蔽物除去モードの開始を指示された場合はSW1をONに、遮蔽物除去モードの終了を指示された場合はSW1をOFFに、遮蔽物除去画像の出力を指示された場合はSW2をONにする。実際にはSW1及びSW2はそれぞれRAM204内のビット信号であり、ビットが0の状態をOFF、ビットが1の状態をONとし、制御部206はこれらビットの状態を切り替える。   The control unit 206 controls the start and end of the imaging operation according to a user instruction from the imaging button 103 and the operation button 107. In the present embodiment, the control unit 206 controls SW1 and SW2 according to a user instruction. Specifically, when instructed to start the shield removal mode, SW1 is turned on, when instructed to end the shield removal mode, SW1 is turned off, and when the output of the shield removal image is instructed. Turns on SW2. Actually, SW1 and SW2 are bit signals in the RAM 204, and the state where the bit is 0 is turned OFF and the state where the bit is 1 is turned ON, and the control unit 206 switches the state of these bits.

光学系制御部205は光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU202から指示された制御を行う。   The optical system control unit 205 performs control instructed to the optical unit 102 by the CPU 202 such as focusing, opening a shutter, and adjusting an aperture.

カラー撮像素子部201は、光学部102にて集光された光情報を電流値へと変換する素子であり、カラーフィルタなどと組み合わせることで色情報を取得する。   The color imaging element unit 201 is an element that converts light information collected by the optical unit 102 into a current value, and acquires color information by combining with a color filter or the like.

距離画像取得部105は、赤外光を発光する赤外発光部と、被写体に反射した赤外光を受光する受光部とを含み、発光した赤外光が被写体に反射し受光するまでの時間を基に撮像装置から被写体までの距離を算出し、距離画像データとして取得する。   The distance image acquisition unit 105 includes an infrared light emitting unit that emits infrared light and a light receiving unit that receives infrared light reflected by the subject, and a time until the emitted infrared light is reflected by the subject and received. The distance from the imaging device to the subject is calculated based on the above and acquired as distance image data.

A/D変換部208は、光学部102にて検知した被写体の光量をデジタル信号値に変換しRAW画像データとする。なお、本実施形態では同時刻に撮像した距離画像データとRAW画像データが取得可能であるとする。   The A / D conversion unit 208 converts the amount of light of the subject detected by the optical unit 102 into a digital signal value to obtain RAW image data. In this embodiment, it is assumed that distance image data and RAW image data captured at the same time can be acquired.

画像処理部209は上記のRAW画像データに対して現像処理を行い、カラー画像データを生成する。また、画像処理部209はカラー画像データや距離画像データを基に、遮蔽物除去処理(前景物除去処理)を含む各種画像処理を行って、遮蔽物除去画像データ(前景物除去画像データ)を生成する。画像処理部209の内部構造は後に詳述する。   An image processing unit 209 performs development processing on the above RAW image data to generate color image data. Further, the image processing unit 209 performs various image processes including a shielding object removal process (foreground object removal process) based on the color image data and the distance image data, thereby obtaining shielding object removal image data (foreground object removal image data). Generate. The internal structure of the image processing unit 209 will be described in detail later.

また、キャラクタージェネレーション部207は文字やグラフィックなどを生成する。ここで生成された文字やグラフィックは、画像処理部209によって生成された遮蔽物除去画像データと重畳して表示部106に表示される。   In addition, the character generation unit 207 generates characters and graphics. The characters and graphics generated here are displayed on the display unit 106 so as to be superimposed on the obstruction removal image data generated by the image processing unit 209.

エンコーダ部210は、画像処理部209にて処理したカラー画像データや遮蔽物除去処理によって生成される遮蔽物除去画像データを含む各種画像データをJpegなどのファイルフォーマットに変換処理を行う。   The encoder unit 210 converts various image data including color image data processed by the image processing unit 209 and shielding object removal image data generated by the shielding object removal process into a file format such as Jpeg.

メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)に画像データを送受信するためのインタフェースである。   The media I / F 211 is an interface for transmitting / receiving image data to / from a PC / media 213 (for example, a hard disk, a memory card, a CF card, an SD card, etc.).

<画像処理部の内部構成>
図3は本実施形態における画像処理部209の内部構成を示すブロック図である。
<Internal configuration of image processing unit>
FIG. 3 is a block diagram showing an internal configuration of the image processing unit 209 in the present embodiment.

現像処理部301は、A/D変換部208から取得したRAW画像データに対してホワイトバランス処理、デモザイク処理、ノイズリダクション処理、色変換処理、エッジ強調処理およびガンマ処理等を施し、カラー画像データを生成する。生成したカラー画像データはRAM204、PC/メディア213などの記憶装置に記憶する。   The development processing unit 301 performs white balance processing, demosaic processing, noise reduction processing, color conversion processing, edge enhancement processing, gamma processing, and the like on the RAW image data acquired from the A / D conversion unit 208, and converts the color image data. Generate. The generated color image data is stored in a storage device such as the RAM 204 and the PC / media 213.

遮蔽物除去処理部302は、現像処理部301で生成された複数のカラー画像データを基に被写体中に含まれる遮蔽物の除去を行い、遮蔽物除去画像データを生成する。生成した遮蔽物除去画像データはRAM204やPC/メディア213などの記憶装置に出力して記憶したり、表示部106へ出力して表示したりすることができる。   The shielding object removal processing unit 302 removes the shielding object included in the subject based on the plurality of color image data generated by the development processing unit 301, and generates shielding object removal image data. The generated shield removal image data can be output to and stored in a storage device such as the RAM 204 or the PC / media 213 or output to the display unit 106 for display.

表示画像生成部303は、距離画像取得部105から取得した距離画像データ、カラー画像データおよび遮蔽物除去画像データを基に表示画像データを生成する。生成した表示画像データは表示部106へ出力する。   The display image generation unit 303 generates display image data based on the distance image data, color image data, and shield removal image data acquired from the distance image acquisition unit 105. The generated display image data is output to the display unit 106.

<画像処理部の処理フロー>
図4は本実施形態の画像処理装置における画像処理部209の動作手順を示すフローチャートである。まず、連続して撮像された撮像位置の異なる複数のカラー画像データを基に遮蔽物除去画像データを生成する。そして、距離画像データに基づきカラー画像データと遮蔽物除去画像データから表示画像データを生成し表示部106へ出力することでライブビュー表示を行う。この際、撮像装置が遮蔽物から離れている場合は遮蔽物を除去した画像から表示画像データを生成し、撮像装置が遮蔽物に近づいた場合は遮蔽物を視認できるような表示画像データを生成する。以下、処理の詳細について述べる。
<Processing flow of image processing unit>
FIG. 4 is a flowchart showing an operation procedure of the image processing unit 209 in the image processing apparatus of this embodiment. First, shielding object removal image data is generated based on a plurality of color image data captured at different imaging positions. Then, display image data is generated from the color image data and the shield removal image data based on the distance image data, and is output to the display unit 106 to perform live view display. At this time, if the imaging device is away from the shielding object, display image data is generated from the image from which the shielding object is removed, and if the imaging device approaches the shielding object, display image data is generated so that the shielding object can be visually recognized. To do. Details of the processing will be described below.

ステップS401において、現像処理部301がA/D変換部208から取得したRAW画像データを基にカラー画像データを生成する。ここで時刻tに撮像したカラー画像データをI(t)とする。生成したカラー画像データはRAM204、PC/メディア213などの記憶装置に記憶する。なお、記憶装置にはI(t)よりも前に生成したN枚のカラー画像データI(t−1)〜I(t−N)も格納されているものとする。   In step S <b> 401, the development processing unit 301 generates color image data based on the RAW image data acquired from the A / D conversion unit 208. Here, the color image data captured at time t is assumed to be I (t). The generated color image data is stored in a storage device such as the RAM 204 and the PC / media 213. Note that the storage device also stores N pieces of color image data I (t−1) to I (t−N) generated before I (t).

ステップS402において、表示画像生成部303が距離画像取得部105から距離画像データを取得する。ここで時刻tに撮像した距離画像データをL(t)とする。図5にカラー画像データと距離画像データの例を示す。本実施形態では、撮像装置から被写体までの距離をd1、撮像装置から遮蔽物までの距離をd2とし、距離画像データの各画素は画素値として撮像装置から被写体や遮蔽物など各オブジェクトまでの距離値を格納しているものとする。   In step S <b> 402, the display image generation unit 303 acquires distance image data from the distance image acquisition unit 105. Here, the distance image data captured at time t is L (t). FIG. 5 shows an example of color image data and distance image data. In this embodiment, the distance from the imaging device to the subject is d1, the distance from the imaging device to the shielding object is d2, and each pixel of the distance image data is a pixel value as a distance from the imaging device to each object such as the subject or the shielding object. Assume that a value is stored.

ステップS403において、遮蔽物除去処理部302が複数のカラー画像データを基に遮蔽物除去処理を行い遮蔽物除去画像データを生成する。ここで、SW1の状態がONとされている。遮蔽物除去処理の詳細は後に詳述する。   In step S403, the shielding object removal processing unit 302 performs shielding object removal processing based on the plurality of color image data, and generates shielding object removal image data. Here, the state of SW1 is ON. Details of the shielding removal process will be described later.

ステップS404において、遮蔽物除去処理部302がSW2の状態に基づき遮蔽物除去画像データを出力するか否かの判定を行う。SW2がOFFの場合はステップS405に進み、SW2がONの場合はSW2をOFFにした上でステップS407へ進む。なお、SW2はユーザーが遮蔽物除去画像の出力を指示した場合にONになる。   In step S404, it is determined whether or not the shielding object removal processing unit 302 outputs shielding object removal image data based on the state of SW2. If SW2 is OFF, the process proceeds to step S405. If SW2 is ON, SW2 is turned OFF and then the process proceeds to step S407. SW2 is turned on when the user instructs the output of the shield removal image.

ステップS405において、表示画像生成部303が距離画像データに基づきカラー画像データと遮蔽物除去画像データから表示画像データを生成する。表示画像生成処理の詳細は後に詳述する。   In step S405, the display image generation unit 303 generates display image data from the color image data and the shield removal image data based on the distance image data. Details of the display image generation processing will be described later.

ステップS406において、表示画像生成部303が表示画像データを表示部106へ出力することにより表示画像データをライブビュー表示する。   In step S406, the display image generation unit 303 outputs the display image data to the display unit 106, thereby displaying the display image data in a live view.

ステップS407において、遮蔽物除去処理部302が遮蔽物除去画像データをPC/メディア213などの記憶装置に記憶する。さらに、遮蔽物除去画像データを表示部106へ出力し表示する。   In step S407, the shielding object removal processing unit 302 stores the shielding object removal image data in a storage device such as the PC / media 213. Further, the shield removal image data is output to the display unit 106 and displayed.

ステップS408において、遮蔽物除去処理部302がSW1の状態に基づき処理を続行するか否かを判定する。SW1がONの場合はステップS401へ進み、次の時刻のカラー画像データI(t+1)を取得し処理を続行する。SW1がOFFの場合は処理を終了する。   In step S408, the shielding object removal processing unit 302 determines whether or not to continue the processing based on the state of SW1. If SW1 is ON, the process proceeds to step S401, where color image data I (t + 1) at the next time is acquired and the process is continued. If SW1 is OFF, the process ends.

<遮蔽物除去処理>
ここでは、ステップS403で行う遮蔽物除去処理について説明する。遮蔽物除去処理では、複数のカラー画像データを基にカラー画像データ中に含まれる遮蔽物を除去し、遮蔽物除去画像データを生成する。以下、図6に示すフローチャートを用い、遮蔽物除去処理の詳細を説明する。
<Shield removal process>
Here, the shielding removal process performed in step S403 will be described. In the shielding object removal process, the shielding object included in the color image data is removed based on the plurality of color image data to generate shielding object removal image data. Hereinafter, the details of the shielding removal process will be described with reference to the flowchart shown in FIG.

まずステップS601において、遮蔽物除去処理部302が画像データI(t)を基準画像とし、N−1枚の過去画像データI(t−1)〜I(t−N)を基準画像の座標系へ変換し、座標変換画像データI’(t−1)〜I’(t−N)を生成する。   First, in step S601, the obstruction removal processing unit 302 uses the image data I (t) as a reference image, and N−1 pieces of past image data I (t−1) to I (t−N) are coordinate systems of the reference image. To coordinate-converted image data I ′ (t−1) to I ′ (t−N).

具体的には、初めに各画像を対応付けるために有用な特徴点を抽出する。特徴点は点の周囲の情報(輝度やRGB値)に特徴のある点であり、SIFT、SURFなどを用いて抽出する。次に基準画像と他の画像の特徴点を対応付ける。特徴点の周辺情報を他の画像の特徴点の周辺情報と比較して一致するものを対応付ける。最後に、対応付けされた特徴点から各画像を基準画像へ変換する行列を算出し、各画像を基準画像の座標系へ変換する。本実施形態では、RANSAC(RANdom SAmple Consensus)により特徴点を対応付け、変換行列を計算する。求めた変換行列により多視点画像データを基準画像の座標系へ変換することで座標変換画像データを生成する。   Specifically, first, feature points useful for associating each image are extracted. A feature point is a point characteristic of information (luminance or RGB value) around the point, and is extracted using SIFT, SURF, or the like. Next, the reference points are associated with feature points of other images. The peripheral information of the feature points is compared with the peripheral information of the feature points of other images, and the matching information is associated. Finally, a matrix for converting each image into a reference image is calculated from the associated feature points, and each image is converted into the coordinate system of the reference image. In the present embodiment, feature points are associated by RANSAC (RANdom Sample Consensus), and a transformation matrix is calculated. The coordinate conversion image data is generated by converting the multi-viewpoint image data into the coordinate system of the reference image using the obtained conversion matrix.

次にステップS602において、遮蔽物除去処理部302が基準画像データと座標変換画像データから遮蔽物を除去した遮蔽物除去画像データを生成する。図5に示す網のような遮蔽物(前景物)は、被写体を部分的に遮蔽しており、被写体(背景物)と比べてカラー画像データ中に占める面積が小さい。このため、基準画像データと座標変換画像データで同じ位置の画素を参照した場合、その画素に被写体が写っている画像の数は遮蔽物が写っている画像の数より多い傾向にある。図7にその例を示す。図7には基準画像データI(t)と座標変換画像データI’(t−1)〜I’(t−4)(参照画像データ)の合計5枚の例を示している。印で示している画素は各画像データ上で同じ位置を示しており、基準画像データでは遮蔽物が、4枚の座標変換画像データでは被写体が映っている。このように各画像データ上で特定の位置の画素を参照した場合、遮蔽物が映っている画像データよりも、被写体が映っている画像データの方が多い。そこで、例えばベクトルメディアンフィルタを用いて遮蔽物の除去を行う。   Next, in step S602, the shielding object removal processing unit 302 generates shielding object removal image data obtained by removing the shielding object from the reference image data and the coordinate conversion image data. A shielding object (foreground object) such as a net shown in FIG. 5 partially shields the subject, and occupies a smaller area in the color image data than the subject (background object). For this reason, when a pixel at the same position is referred to in the base image data and the coordinate conversion image data, the number of images in which the subject is reflected in the pixel tends to be larger than the number of images in which the shielding object is reflected. An example is shown in FIG. FIG. 7 shows a total of five examples of standard image data I (t) and coordinate-converted image data I ′ (t−1) to I ′ (t-4) (reference image data). The pixels indicated by the marks indicate the same position on each image data, and the shielding object is shown in the reference image data, and the subject is shown in the four coordinate conversion image data. In this way, when a pixel at a specific position is referred to on each image data, there is more image data showing a subject than image data showing a shielding object. Therefore, for example, a vector median filter is used to remove the shielding object.

ベクトルメディアンフィルタは1次元のメディアンフィルタの多次元への拡張であり、他のベクトルとの距離の和が最小となるベクトルを選択するフィルタである。ベクトルメディアンフィルタの式を以下に示す。   The vector median filter is an extension of the one-dimensional median filter to multiple dimensions, and is a filter that selects a vector that minimizes the sum of distances from other vectors. The expression for the vector median filter is shown below.

ここで、mはベクトルメディアン、vは各画素の画素値を表わす入力ベクトル、Nは入力ベクトルの数である。画素値はRGB値やLab値を3次元のベクトルvとして扱う。基準画像座標系の各座標の画素群にベクトルメディアンフィルタを適用する。これにより、写っている枚数が多い被写体の画素値mが選択され、遮蔽物が画像上から除去される。 Here, m is a vector median, v is an input vector representing the pixel value of each pixel, and N is the number of input vectors. As the pixel value, an RGB value or a Lab value is handled as a three-dimensional vector v. A vector median filter is applied to the pixel group at each coordinate in the reference image coordinate system. Thereby, the pixel value m of the subject having a large number of images is selected, and the shielding object is removed from the image.

図8は、遮蔽物除去画像データの一例であり、遮蔽物が除去できていることがわかる。以上の処理により、複数のカラー画像データを基にカラー画像データ中に含まれる遮蔽物を除去し、遮蔽物除去画像データH(t)を生成することができる。   FIG. 8 is an example of the shield removal image data, and it can be seen that the shield has been removed. With the above processing, the shielding object included in the color image data can be removed based on the plurality of color image data, and the shielding object removal image data H (t) can be generated.

<表示画像生成処理>
ここでは、ステップS405で行う表示画像生成処理について説明する。表示画像生成処理では、カラー画像データI(t)と距離画像データL(t)と遮蔽物除去画像データH(t)を基に表示画像データS(t)を生成する。以下、図9に示すフローチャートを用い、表示画像生成処理の詳細を説明する。
<Display image generation processing>
Here, the display image generation process performed in step S405 will be described. In the display image generation process, display image data S (t) is generated based on the color image data I (t), the distance image data L (t), and the shield removal image data H (t). Hereinafter, the details of the display image generation processing will be described with reference to the flowchart shown in FIG.

ステップS901において、表示画像生成部303が距離画像データL(t)を基に、カラー画像データの視点位置から遮蔽物までの距離値を推定する。ここでは、カラー画像データの視点位置を撮像装置の位置と捉え、距離値を推定する。まず距離画像データL(t)中の各画素に格納されている距離値を基にヒストグラムを生成する。次に、ヒストグラム中のビンから、含まれる画素数がしきい値以上となるビンを抽出する。そして、抽出されたビンの中から最も距離値の小さなビンを選択する。選択したビンに対応する距離値の中央値を遮蔽物までの距離値dとする。   In step S901, the display image generation unit 303 estimates the distance value from the viewpoint position of the color image data to the shielding object based on the distance image data L (t). Here, the viewpoint position of the color image data is regarded as the position of the imaging device, and the distance value is estimated. First, a histogram is generated based on the distance value stored in each pixel in the distance image data L (t). Next, bins in which the number of included pixels is equal to or greater than a threshold are extracted from the bins in the histogram. Then, the bin with the smallest distance value is selected from the extracted bins. The median value of the distance values corresponding to the selected bin is set as the distance value d to the shielding object.

ステップS902において、表示画像生成部303がS901で取得した遮蔽物までの距離値dを基にカラー画像データI(t)と遮蔽物除去画像データH(t)を加重加算することで表示画像データS(t)を生成する。この際、dが小さくなるほど遮蔽物除去画像H(t)に対する重みα(遮蔽物の透過率)は小さくなるよう設定する。本実施形態では、図10(a)に示すように、あらかじめ定めたしきい値D1とD2(所定値)(D1<D2)を用いて、dに対して単調増加するようにαを設定する。Αはαの最大値を設定するパラメータである。具体的には下記の式で表す。   In step S902, the display image data is added by weighting the color image data I (t) and the obstruction removal image data H (t) based on the distance value d to the obstruction acquired by the display image generation unit 303 in step S901. S (t) is generated. At this time, the weight α (the transmittance of the shielding object) for the shielding object removal image H (t) is set to be smaller as d is smaller. In the present embodiment, as shown in FIG. 10A, α is set so as to increase monotonously with respect to d using predetermined threshold values D1 and D2 (predetermined values) (D1 <D2). . Α is a parameter that sets the maximum value of α. Specifically, it is represented by the following formula.

そして、下記の式に従い、重みαを用いて下記の式に従いカラー画像データI(t)と遮蔽物除去画像データH(t)を加重加算し表示画像データS(t)を算出する。 Then, the display image data S (t) is calculated by weighted addition of the color image data I (t) and the obstruction removal image data H (t) according to the following equation using the weight α according to the following equation.

以上の処理により、dが小さくなるにつれて遮蔽物が視認しやすくなるように表示画像データS(t)を生成することができる。 Through the above processing, the display image data S (t) can be generated so that the shielding object becomes easier to visually recognize as d becomes smaller.

表示画像データS(t)を表示部106に表示した例を図11に示す。ここで、αの最大値Aは1に設定されている。d≦D1の場合はα=0となるため、図11(a)に示すように遮蔽物が表示される。D1<d<D2の場合は0<α<1となるため、図11(b)に示すように遮蔽物が透過するように表示される。D2≦d(所定値以上)の場合はα=1となるため、図11(c)に示すように遮蔽物は表示されない。   An example in which the display image data S (t) is displayed on the display unit 106 is shown in FIG. Here, the maximum value A of α is set to 1. Since α = 0 when d ≦ D1, a shielding object is displayed as shown in FIG. In the case of D1 <d <D2, 0 <α <1, so that the shielding object is displayed as shown in FIG. 11B. In the case of D2 ≦ d (greater than or equal to a predetermined value), α = 1, so that the shielding object is not displayed as shown in FIG.

なお、表示画像の生成方法はこれに限らない。例えば、重みαの設定方法を図10(b)に示すようにしてもよい。具体的には、下記の式で表す。   The display image generation method is not limited to this. For example, the method for setting the weight α may be as shown in FIG. Specifically, it is represented by the following formula.

この場合、dがD1(所定値)を前後する際に表示画像データの変化を大きくすることができる。ここで、αの最大値Aも1に設定されている。このように生成した表示画像データS(t)を表示部106に表示した様子は、図11(a)および(c)に示されている。すなわち、d<D1の場合はα=0となるため、図11(a)に示すように遮蔽物が表示される。D1≦dの場合はα=1となるため、図11(c)に示すように遮蔽物は表示されない。 In this case, the change in the display image data can be increased when d is around D1 (predetermined value). Here, the maximum value A of α is also set to 1. The manner in which the display image data S (t) generated in this way is displayed on the display unit 106 is shown in FIGS. 11 (a) and 11 (c). That is, in the case of d <D1, α = 0, so that a shielding object is displayed as shown in FIG. Since α = 1 in the case of D1 ≦ d, the shielding object is not displayed as shown in FIG.

なお、距離取得処理は上述した処理に限らない。例えば撮像装置を図12に示すようなステレオカメラとし、取得した視差を持つカラー画像データから三角測量を用いて距離画像データを取得しても構わない。図12では、2つの光学部1201、1202を用いて視差を持つ2つのカラー画像データを取得するが、撮像装置が光学部を3つ以上備え、視差を持つカラー画像データを3つ以上取得するようにしてもよい。あるいは、撮像装置から遮蔽物までの距離が特定の値以下になったことを検知可能な近接センサを用いても構わない。   The distance acquisition process is not limited to the process described above. For example, the imaging device may be a stereo camera as shown in FIG. 12, and distance image data may be acquired from the acquired color image data having parallax using triangulation. In FIG. 12, two color image data having parallax are acquired using two optical units 1201 and 1202. However, the imaging apparatus includes three or more optical units and acquires three or more color image data having parallax. You may do it. Or you may use the proximity sensor which can detect that the distance from an imaging device to a shield became below a specific value.

なお、カラー画像データの視点位置から遮蔽物までの距離値を推定する処理は上述した処理に限らない。例えば、距離画像データL(t)から視点位置からの距離が最小と思われる距離値を推定し遮蔽物までの距離値としても構わない。具体的には、距離画像データL(t)中の各画素に格納されている距離値の最小値を遮蔽物までの距離値としてもよい。   In addition, the process which estimates the distance value from the viewpoint position of color image data to a shield is not restricted to the process mentioned above. For example, a distance value at which the distance from the viewpoint position is considered to be the minimum may be estimated from the distance image data L (t) and used as the distance value to the shielding object. Specifically, the minimum value of the distance value stored in each pixel in the distance image data L (t) may be used as the distance value to the shielding object.

なお、遮蔽物除去処理は上述した処理に限らない。例えば、画像中の遮蔽物の領域を指定し、指定した領域をその他の領域の画素値を用いて埋めてもよい。   The shielding removal process is not limited to the process described above. For example, the area of the shielding object in the image may be designated, and the designated area may be filled using the pixel values of other areas.

以上により、遮蔽物除去結果をライブビューで確認できるとともに、撮像装置が遮蔽物へ接近した場合には遮蔽物をライブビューで視認できるようにすることができる。   As described above, the shielding object removal result can be confirmed in the live view, and when the imaging apparatus approaches the shielding object, the shielding object can be visually recognized in the live view.

[実施形態2]
実施形態1では撮像装置が遮蔽物へ接近した際に遮蔽物を表示するように表示画像を制御した。本実施形態では、撮像装置が遮蔽物へ接近した際にユーザーに警告を行う。
[Embodiment 2]
In the first embodiment, the display image is controlled so as to display the shielding object when the imaging apparatus approaches the shielding object. In the present embodiment, a warning is given to the user when the imaging apparatus approaches the shield.

本実施形態では実施形態1と比較し、表示画像生成処理が異なる。本実施形態における表示画像生成処理の流れを図13に示す。   This embodiment is different from the first embodiment in the display image generation process. The flow of the display image generation process in this embodiment is shown in FIG.

ステップS1301において、実施形態1のステップS901と同様に、表示画像生成部303が遮蔽物までの距離値dを取得する。   In step S1301, the display image generation unit 303 acquires the distance value d to the shielding object as in step S901 of the first embodiment.

ステップS1302において、表示画像生成部303が距離値dとしきい値D1(所定値)との比較を行う。距離値dがしきい値D1以下の場合はステップS1303に進み、距離値dがしきい値D1より大きい場合はステップS1304に進む。   In step S1302, the display image generation unit 303 compares the distance value d with a threshold value D1 (predetermined value). If the distance value d is less than or equal to the threshold value D1, the process proceeds to step S1303. If the distance value d is greater than the threshold value D1, the process proceeds to step S1304.

ステップS1303において、表示画像生成部303が遮蔽物除去画像データに距離値dを重畳した画像を表示画像として生成する。まず、キャラクタージェネレーション部207が距離値dに対応するグラフィックを生成する。そして、生成したグラフィックを遮蔽物除去画像データに重畳することにより表示画像データを生成し、処理を終了する。   In step S1303, the display image generation unit 303 generates an image in which the distance value d is superimposed on the shield removal image data as a display image. First, the character generation unit 207 generates a graphic corresponding to the distance value d. And display image data is produced | generated by superimposing the produced | generated graphic on obstruction removal image data, and a process is complete | finished.

ステップ1304において、表示画像生成部303が遮蔽物除去画像データを表示画像にし、処理を終了する。   In step 1304, the display image generation unit 303 converts the obstruction removal image data into a display image, and the process ends.

本実施形態における表示画像データS(t)を表示部106に表示した例を図14に示す。図14(a)に示すように撮像装置から遮蔽物までの距離dがD1以下となると、遮蔽物までの距離dを表示部106へ表示する。ここではD1=25cm、d=20cmとした場合の例を示している。距離dがD1よりも大きくなると、図14(b)に示すように距離値dは表示されなくなる。   An example in which the display image data S (t) in this embodiment is displayed on the display unit 106 is shown in FIG. As shown in FIG. 14A, when the distance d from the imaging device to the shielding object is equal to or less than D1, the distance d to the shielding object is displayed on the display unit 106. Here, an example in which D1 = 25 cm and d = 20 cm is shown. When the distance d becomes larger than D1, the distance value d is not displayed as shown in FIG.

なお、本実施形態では距離値dを表示部106へ表示することによりユーザーへの警告を行ったが、警告方法はこれに限らない。たとえば、ステップS1303においてあらかじめ設定した警告画面を表示画像にしても構わない。あるいは、音声や音による警告を行っても構わない。ステップS1303において、あらかじめ設定した音声あるいは警告音等を再生しても構わない。 なお、本実施形態では距離値dがしきい値D1以下の場合にのみ距離値dを表示部106へ表示したが、距離値dは常に表示していても構わない。この場合は距離値dがしきい値D1以下の場合にのみ、距離値dを強調して表示することにより警告を行う。具体的には、距離値dの表示を大きくしたり、色を変えたりしてもよい。あるいは、距離値dを強調するかわりに音声や音により警告を行っても構わない。   In the present embodiment, the warning is given to the user by displaying the distance value d on the display unit 106, but the warning method is not limited to this. For example, the warning screen set in advance in step S1303 may be displayed. Alternatively, a warning by voice or sound may be performed. In step S1303, a preset voice or warning sound may be reproduced. In the present embodiment, the distance value d is displayed on the display unit 106 only when the distance value d is equal to or less than the threshold value D1, but the distance value d may be always displayed. In this case, only when the distance value d is equal to or less than the threshold value D1, a warning is given by highlighting the distance value d. Specifically, the display of the distance value d may be enlarged or the color may be changed. Alternatively, a warning may be given by voice or sound instead of emphasizing the distance value d.

なお、本実施形態は実施形態1と組み合わせて実施することも可能である。   Note that this embodiment can also be implemented in combination with the first embodiment.

以上により、遮蔽物除去結果をライブビューで確認できるとともに、撮像装置が遮蔽物へ接近した際にユーザーに警告することができる。   As described above, the shield removal result can be confirmed in the live view, and the user can be warned when the imaging apparatus approaches the shield.

[実施形態3]
実施形態1、2では撮像装置が遮蔽物へ接近した際に情報をユーザーに提示した。本実施形態では、光学部102の保護を行う。
[Embodiment 3]
In the first and second embodiments, information is presented to the user when the imaging apparatus approaches the shield. In this embodiment, the optical unit 102 is protected.

まず、本実施形態における撮像装置の構成について述べる。本実施形態において光学部102は沈胴式の撮像光学系であり、繰り出し方向や繰り込み方向に移動可能とする。このため、電源ONなどのユーザー指示に従い、図15(a)に示すように光学部102を繰り出すことで撮像可能な状態にすることができる。あるいは、電源OFFなどのユーザー指示に従い、図15(b)に示すように光学部102を繰り込むことで光学部102を保護することができる。以下、図15(a)のような状態を繰り出し状態、図15(b)のような状態を繰り込み状態と呼ぶ。光学系制御部205はユーザー指示によって決定した焦点距離やフォーカス位置等を含む撮像パラメータに応じて、光学部102を繰り込み方向へ移動する操作や繰り出し方向へ移動する操作の制御を行う。また光学系制御部205は、繰り出し状態、繰り込み状態を含むレンズの状態をRAM(Rondom Access Memory)204などに記録する。   First, the configuration of the imaging apparatus in the present embodiment will be described. In this embodiment, the optical unit 102 is a collapsible imaging optical system, and is movable in the feeding direction and the feeding direction. For this reason, in accordance with a user instruction such as turning on the power, the optical unit 102 can be extended so as to be ready for imaging as shown in FIG. Alternatively, the optical unit 102 can be protected by retracting the optical unit 102 as shown in FIG. 15B in accordance with a user instruction such as power OFF. Hereinafter, the state as shown in FIG. 15A is referred to as the extended state, and the state as shown in FIG. 15B is referred to as the extended state. The optical system control unit 205 controls the operation of moving the optical unit 102 in the retraction direction and the operation of moving in the retraction direction according to the imaging parameters including the focal length and the focus position determined by the user instruction. Further, the optical system control unit 205 records the lens state including the extended state and the extended state in a RAM (Rondom Access Memory) 204 or the like.

図16は本実施形態の画像処理装置の動作手順を示すフローチャートである。本実施形態では、撮像装置から遮蔽物までの距離値dが所定の距離値D1以下(所定値以下)となった場合、光学部102を繰り込むように制御を行う。これにより、光学部102の保護を行う。以下、処理の詳細を述べる。   FIG. 16 is a flowchart showing the operation procedure of the image processing apparatus of this embodiment. In the present embodiment, when the distance value d from the imaging device to the shielding object becomes equal to or less than a predetermined distance value D1 (less than a predetermined value), control is performed so that the optical unit 102 is retracted. Thereby, the optical unit 102 is protected. Details of the processing will be described below.

ステップS1601において、光学系制御部205が電源ONなどのユーザー操作に応じて光学部102を繰り出す制御を行う。   In step S1601, the optical system control unit 205 performs control to feed out the optical unit 102 in response to a user operation such as power ON.

ステップS1602において、画像処理部209が距離画像取得部105から取得した距離画像データに基づき実施形態1のステップS901と同様に遮蔽物までの距離値dを取得する。   In step S1602, the image processing unit 209 acquires the distance value d to the shielding object based on the distance image data acquired from the distance image acquisition unit 105 as in step S901 of the first embodiment.

ステップS1603において、画像処理部209が距離値dと所定の距離値D1を比較する。距離値dがD1以下の場合はステップS1604へ進み、距離値dがD1より大きい場合はステップS1607へ進む。   In step S1603, the image processing unit 209 compares the distance value d with a predetermined distance value D1. If the distance value d is equal to or less than D1, the process proceeds to step S1604. If the distance value d is greater than D1, the process proceeds to step S1607.

ステップS1604において、光学系制御部205が光学部102の状態を判定し、光学部102が繰り込み状態でない場合はステップS1605へ進み、光学部102が繰り込み状態の場合はステップS1611へ進む。   In step S1604, the optical system control unit 205 determines the state of the optical unit 102. If the optical unit 102 is not in the retracted state, the process proceeds to step S1605. If the optical unit 102 is in the retracted state, the process proceeds to step S1611.

ステップS1605において、光学系制御部205が光学部102の状態に関わる焦点距離やフォーカス位置等の撮像パラメータを基準状態としてRAM204等の記憶装置に記憶する。   In step S1605, the optical system control unit 205 stores imaging parameters such as a focal length and a focus position related to the state of the optical unit 102 as a reference state in a storage device such as the RAM 204.

ステップS1606において、光学系制御部205が光学部102を繰り込み、ステップS1611へ進む。   In step S1606, the optical system control unit 205 moves the optical unit 102 forward, and the process proceeds to step S1611.

ステップS1607において、光学系制御部205が光学部102の状態を判定し、光学部102が繰り込み状態の場合はステップS1608へ進み、光学部102が繰り込み状態でない場合はステップS1610へ進む。   In step S1607, the optical system control unit 205 determines the state of the optical unit 102. If the optical unit 102 is in the retracted state, the process proceeds to step S1608. If the optical unit 102 is not in the retracted state, the process proceeds to step S1610.

ステップS1608において、光学系制御部205が光学部102の状態に関わる焦点距離やフォーカス位置等の撮像パラメータをRAM204等の記憶装置から読み出す。   In step S <b> 1608, the optical system control unit 205 reads out imaging parameters such as a focal length and a focus position related to the state of the optical unit 102 from a storage device such as the RAM 204.

ステップS1609において、光学系制御部205はステップS1608で読み出した撮像パラメータが示す基準状態を再現するように光学部102を繰り出す。   In step S1609, the optical system control unit 205 extends the optical unit 102 so as to reproduce the reference state indicated by the imaging parameter read in step S1608.

ステップS1610において、ユーザー指示によって設定された撮像モードに応じた撮像処理を行う。ここでは、実施形態2で述べた撮像処理を行う。   In step S1610, imaging processing according to the imaging mode set by the user instruction is performed. Here, the imaging process described in the second embodiment is performed.

ステップS1611において、画像処理部209がSW1の状態に基づき処理を続行するか否かを判定する。SW1がONの場合はステップS1602へ進み、SW1がOFFの場合は処理を終了する。   In step S1611, the image processing unit 209 determines whether to continue the processing based on the state of SW1. If SW1 is ON, the process proceeds to step S1602, and if SW1 is OFF, the process ends.

上記の処理により光学部102を保護した例を図17に示す。d≦D1の場合は、図17(a)に示すように光学部102が繰り込み状態となる。撮像はできないが光学部102を保護することができる。D1<dの場合は、図17(b)に示すように光学部102が繰り出し状態となり、撮像が可能となる。   An example in which the optical unit 102 is protected by the above processing is shown in FIG. In the case of d ≦ D1, the optical unit 102 is brought into a retracted state as shown in FIG. Although the image cannot be taken, the optical unit 102 can be protected. When D1 <d, as shown in FIG. 17B, the optical unit 102 is in the extended state, and imaging is possible.

なお、本実施形態は実施形態1、2と組み合わせて実施することも可能である。   Note that this embodiment can be implemented in combination with the first and second embodiments.

以上により、撮像装置が遮蔽物へ接近した際に光学部102を保護することができる。   As described above, the optical unit 102 can be protected when the imaging apparatus approaches the shield.

[実施形態4]
実施形態3では光学部102を繰り込み状態にした後、距離値dを基に光学部102を繰り出し状態にする判定を行った。この場合、カラー画像データを用いて距離値dを算出する構成に適用できない。そこで、本実施形態では光学部102を繰り込み状態にした後、所定の時間が経過した後に光学部102を繰り出す。
[Embodiment 4]
In the third embodiment, after the optical unit 102 is brought into the retracted state, it is determined based on the distance value d that the optical unit 102 is brought into the retracted state. In this case, it cannot be applied to a configuration in which the distance value d is calculated using color image data. Therefore, in this embodiment, after the optical unit 102 is brought into the retracted state, the optical unit 102 is fed out after a predetermined time has elapsed.

図18が本実施形態の画像処理装置の動作手順を示すフローチャートである。ステップS1801、S1802、S1803はそれぞれ実施形態3のステップS1601、ステップS1602、ステップS1603と同様の処理である。ステップS1803における判定の結果、dがD1(所定値)以下の場合はステップS1804へ進み、dがD1より大きい場合はステップS1809へ進む。なお、ステップS1804、ステップS1805はそれぞれ実施形態3のステップS1605、ステップS1606と同様の処理である。   FIG. 18 is a flowchart showing the operation procedure of the image processing apparatus of this embodiment. Steps S1801, S1802, and S1803 are the same processes as steps S1601, S1602, and S1603 of the third embodiment, respectively. If it is determined in step S1803 that d is equal to or smaller than D1 (predetermined value), the process proceeds to step S1804. If d is greater than D1, the process proceeds to step S1809. Note that steps S1804 and S1805 are the same processes as steps S1605 and S1606 of the third embodiment, respectively.

次にステップS1806において、所定の時間だけ待機する。所定の時間が経過した後ステップS1807へ進む。   In step S1806, the process waits for a predetermined time. After a predetermined time has elapsed, the process proceeds to step S1807.

以降、ステップS1807、ステップS1808、ステップS1809、ステップS1810はそれぞれ実施形態3のステップS1608、ステップS1609、ステップS1610、ステップS1611と同様の処理である。   Thereafter, step S1807, step S1808, step S1809, and step S1810 are the same processes as step S1608, step S1609, step S1610, and step S1611 of the third embodiment, respectively.

なお、本実施形態は実施形態1、2と組み合わせて実施することも可能である。   Note that this embodiment can be implemented in combination with the first and second embodiments.

以上により、カラー画像データを用いて距離値dを算出する構成に対しても、光学部102を繰り込み状態から繰り出し状態へ遷移させることができる。   As described above, the optical unit 102 can be changed from the retracted state to the extended state even for the configuration in which the distance value d is calculated using the color image data.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (14)

前景物に部分的に遮蔽された背景物を撮像して画像データを取得する撮像手段と、
前記画像データから前記前景物を除去し、前景物除去画像データを生成する除去手段と、
前記撮像手段から前記前景物までの距離を取得する距離取得手段と、
前記距離に基づいて、前記画像データと前記前景物除去画像データとの少なくともいずれかから表示画像データを生成して表示する表示手段と
を有することを特徴とする画像処理装置。
Imaging means for capturing image data by capturing a background object partially shielded by the foreground object;
Removing means for removing the foreground object from the image data and generating foreground object removal image data;
Distance acquisition means for acquiring a distance from the imaging means to the foreground object;
An image processing apparatus comprising: display means for generating and displaying display image data from at least one of the image data and the foreground object removal image data based on the distance.
前記表示手段は、前記距離が所定値以上の場合に、前記前景物除去画像データを前記表示画像データとして表示し、前記距離が所定値より小さい場合に、前記画像データと前記前景物除去画像データとから前記前景物が透過するように前記表示画像データを生成して表示することを特徴とする請求項1に記載の画像処理装置。   The display means displays the foreground object removal image data as the display image data when the distance is greater than or equal to a predetermined value, and the image data and the foreground object removal image data when the distance is smaller than a predetermined value. The image processing apparatus according to claim 1, wherein the display image data is generated and displayed so that the foreground object passes through the display. 前記距離が小さいほど前記前景物の透過率が小さくなるように設定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image processing apparatus is set such that the transmittance of the foreground object decreases as the distance decreases. 前記表示手段は、前記距離が所定値以上の場合に、前記前景物除去画像データを前記表示画像データとして表示し、前記距離が所定値より小さい場合に、前記前景物を含む前記画像データを前記表示画像データとして表示することを特徴とする請求項1に記載の画像処理装置。   The display means displays the foreground object removal image data as the display image data when the distance is greater than or equal to a predetermined value, and displays the image data including the foreground object when the distance is smaller than a predetermined value. The image processing apparatus according to claim 1, wherein the image processing apparatus displays the display image data. 前記表示手段は、前記前景物除去画像データに前記距離に関する情報を重畳することで前記表示画像データを生成して表示することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit generates and displays the display image data by superimposing information on the distance on the foreground object removal image data. 前記距離が所定値以下の場合に、ユーザーに警告する警告手段をさらに有することを特徴とする請求項1から5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a warning unit that warns a user when the distance is equal to or less than a predetermined value. 前記距離が所定値以下の場合に、前記撮像手段の撮像光学系を繰り込み方向へ移動させる制御手段をさらに有することを特徴とする請求項1から6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a control unit that moves an imaging optical system of the imaging unit in a retraction direction when the distance is equal to or less than a predetermined value. 前記制御手段は、前記撮像光学系が繰り込まれた状態で、前記距離が所定値より大きくなる場合に、前記撮像光学系を繰り出し方向へ移動させることを特徴とする請求項7に記載の画像処理装置。   The image according to claim 7, wherein the control unit moves the imaging optical system in a feeding direction when the distance is larger than a predetermined value in a state where the imaging optical system is retracted. Processing equipment. 前記制御手段は、前記撮像光学系が繰り込まれた状態で、所定の時間が経過したと判定された際に、前記撮像光学系を繰り出し方向へ移動させることを特徴とする請求項7に記載の画像処理装置。   The said control means moves the said imaging optical system to a paying-out direction, when it determines with predetermined | prescribed time having passed in the state where the said imaging optical system was retracted. Image processing apparatus. 前記制御手段は、ユーザー指示により定まる基準状態を記憶し、前記撮像光学系を繰り出し方向に移動させる際に、前記基準状態を再現することを特徴とする請求項8または9に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the control unit stores a reference state determined by a user instruction, and reproduces the reference state when the imaging optical system is moved in a feeding direction. . 前記撮像手段は、連続して撮像を行い、
前記表示手段は、ライブビュー表示を行うことを特徴とする請求項1から10のいずれかに記載の画像処理装置。
The imaging means continuously performs imaging,
The image processing apparatus according to claim 1, wherein the display unit performs live view display.
前記除去手段は、前記撮像手段が前記画像データより前に取得した視点の異なる過去画像データを、前記画像データと同じ視点となるように座標変換して参照画像データを生成し、前記参照画像データと前記画像データとに基づいて前記前景物除去画像データを生成することを特徴とする請求項11に記載の画像処理装置。   The removing unit generates reference image data by performing coordinate conversion of past image data having a different viewpoint acquired before the image data by the imaging unit so as to have the same viewpoint as the image data, and generating the reference image data. The image processing apparatus according to claim 11, wherein the foreground object removal image data is generated based on the image data and the image data. 前景物に部分的に遮蔽された背景物を撮像して画像データを取得する撮像ステップと、
前記画像データから前記前景物を除去し、前景物除去画像データを生成する除去ステップと、
撮像手段から前記前景物までの距離を取得する距離取得ステップと、
前記取得した距離に基づいて、前記画像データと前記前景物除去画像データの少なくともいずれかから表示画像データを生成して表示する表示ステップと
を含むことを特徴とする画像処理方法。
An imaging step of capturing image data by capturing a background object partially shielded by the foreground object;
Removing the foreground object from the image data and generating foreground object removal image data;
A distance acquisition step of acquiring a distance from the imaging means to the foreground object;
An image processing method comprising: a display step of generating display image data from at least one of the image data and the foreground object removal image data based on the acquired distance.
コンピュータを請求項1から12のいずれかに記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 12.
JP2013130990A 2013-06-21 2013-06-21 Image processing apparatus and image processing method Pending JP2015005925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013130990A JP2015005925A (en) 2013-06-21 2013-06-21 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013130990A JP2015005925A (en) 2013-06-21 2013-06-21 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2015005925A true JP2015005925A (en) 2015-01-08

Family

ID=52301468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013130990A Pending JP2015005925A (en) 2013-06-21 2013-06-21 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2015005925A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043331A1 (en) * 2015-09-09 2017-03-16 ソニー株式会社 Image processing device and image processing method
JP2019511871A (en) * 2016-06-09 2019-04-25 グーグル エルエルシー How to take pictures through visual obstacles
JP6868168B1 (en) * 2020-03-23 2021-05-12 株式会社リコー Imaging device and imaging processing method
JP6868167B1 (en) * 2020-03-23 2021-05-12 株式会社リコー Imaging device and imaging processing method
JP6966011B1 (en) * 2021-03-23 2021-11-10 株式会社リコー Imaging device, imaging method and information processing device
JP7031771B1 (en) 2021-03-23 2022-03-08 株式会社リコー Imaging device, imaging method and information processing device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043331A1 (en) * 2015-09-09 2017-03-16 ソニー株式会社 Image processing device and image processing method
JP2019511871A (en) * 2016-06-09 2019-04-25 グーグル エルエルシー How to take pictures through visual obstacles
JP2020181595A (en) * 2016-06-09 2020-11-05 グーグル エルエルシー Methods for taking photos through visual obstructions
US11050948B2 (en) 2016-06-09 2021-06-29 Google Llc Taking photos through visual obstructions
JP7072606B2 (en) 2016-06-09 2022-05-20 グーグル エルエルシー How to take a picture through a visual obstacle
JP6868168B1 (en) * 2020-03-23 2021-05-12 株式会社リコー Imaging device and imaging processing method
JP6868167B1 (en) * 2020-03-23 2021-05-12 株式会社リコー Imaging device and imaging processing method
JP6966011B1 (en) * 2021-03-23 2021-11-10 株式会社リコー Imaging device, imaging method and information processing device
JP7031771B1 (en) 2021-03-23 2022-03-08 株式会社リコー Imaging device, imaging method and information processing device
JP2022146976A (en) * 2021-03-23 2022-10-06 株式会社リコー Imaging apparatus, imaging method, and information processing apparatus
JP2022147087A (en) * 2021-03-23 2022-10-06 株式会社リコー Imaging apparatus, imaging method, and information processing apparatus

Similar Documents

Publication Publication Date Title
US9521320B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP6029380B2 (en) Image processing apparatus, imaging apparatus including image processing apparatus, image processing method, and program
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2015005925A (en) Image processing apparatus and image processing method
US20130038723A1 (en) Image acquisition apparatus and image processing apparatus
JP2011147109A (en) Image capturing apparatus and image processing apparatus
CN113141448B (en) Image pickup apparatus
CN104782110A (en) Image processing device, imaging device, program, and image processing method
JP2009021989A (en) Image display apparatus and method
JP2014222825A (en) Video processing apparatus and video processing method
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2009047497A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP6611531B2 (en) Image processing apparatus, image processing apparatus control method, and program
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2009047498A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
CN106878604B (en) Image generation method based on electronic equipment and electronic equipment
JP6104066B2 (en) Image processing apparatus and image processing method
KR101611427B1 (en) Image processing method and apparatus performing the same
JP2013038468A (en) Image processing apparatus, image processing method, imaging apparatus, control method of imaging apparatus, program and storage medium
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP5718502B2 (en) Image creating apparatus and image creating method
JP2013175821A (en) Image processing device, image processing method, and program