JP2013206035A - Image processing device, imaging device, and image processing program - Google Patents

Image processing device, imaging device, and image processing program Download PDF

Info

Publication number
JP2013206035A
JP2013206035A JP2012073100A JP2012073100A JP2013206035A JP 2013206035 A JP2013206035 A JP 2013206035A JP 2012073100 A JP2012073100 A JP 2012073100A JP 2012073100 A JP2012073100 A JP 2012073100A JP 2013206035 A JP2013206035 A JP 2013206035A
Authority
JP
Japan
Prior art keywords
image
subject
image processing
basic
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012073100A
Other languages
Japanese (ja)
Inventor
Kunihiro Kuwano
邦宏 桑野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012073100A priority Critical patent/JP2013206035A/en
Publication of JP2013206035A publication Critical patent/JP2013206035A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of easily acquiring the three-dimensional shape of a subject with a small operation amount.SOLUTION: An image processing device comprises: storage means that stores figure information on a three-dimensional shape of each of a plurality of basic figures; feature amount extraction means that extracts an image feature amount of a subject from at least one captured image obtained by capturing the subject; and shape acquisition means that obtains a three-dimensional shape of the subject on the basis of the image feature amount and the figure information.

Description

本発明は、画像処理装置、撮像装置および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

従来、被写体を複数の異なる方向から撮像した画像を用いて、被写体の立体像を生成取得する技術が開発されている。   2. Description of the Related Art Conventionally, a technique for generating and acquiring a stereoscopic image of a subject using images obtained by imaging the subject from a plurality of different directions has been developed.

例えば、多重解像度特異点フィルタと画像マッチング処理とを用いて、被写体の周囲の複数の位置で撮像した複数の画像を合成処理することにより、任意の方向から見た被写体の画像を取得し表示する技術がある(例えば、特許文献1など参照)。   For example, by using a multi-resolution singularity filter and image matching processing, a plurality of images captured at a plurality of positions around the subject are combined to obtain and display an image of the subject viewed from an arbitrary direction. There is a technology (see, for example, Patent Document 1).

特開2002−95011号公報JP 2002-95011 A

しかしながら、従来技術では、複数の画像に対して多重解像度特異点フィルタや画像マッチング処理などの複雑な処理を施す必要があり、処理に時間が掛かる。   However, in the prior art, it is necessary to perform complicated processing such as a multi-resolution singularity filter and image matching processing on a plurality of images, which takes time.

また、得られた画像に基づいて、例えば、3次元CADやコンピュータグラフィックス(CG)などのデータを生成するにはデータ量が膨大であり、使い勝手が悪い。   Further, for example, to generate data such as three-dimensional CAD and computer graphics (CG) based on the obtained image, the amount of data is enormous and the usability is poor.

上記従来技術が有する問題に鑑み、本発明の目的は、少ない演算量で被写体の立体形状を容易に取得することができる技術を提供することにある。   SUMMARY OF THE INVENTION In view of the above-described problems of the prior art, an object of the present invention is to provide a technique that can easily acquire a three-dimensional shape of a subject with a small amount of calculation.

上記課題を解決するために、本発明を例示する画像処理装置の一の態様は、複数の基本図形それぞれの立体形状の図形情報を記憶する記憶手段と、被写体を撮像した少なくとも1つの撮像画像から被写体の画像特徴量を抽出する特徴量抽出手段と、画像特徴量と図形情報とに基づいて、被写体の立体形状を求める形状取得手段と、を備える。   In order to solve the above-described problem, an aspect of the image processing apparatus illustrating the present invention includes a storage unit that stores graphic information of a three-dimensional shape of each of a plurality of basic figures, and at least one captured image obtained by imaging a subject. Feature amount extraction means for extracting the image feature amount of the subject, and shape acquisition means for obtaining the three-dimensional shape of the subject based on the image feature amount and graphic information.

また、形状取得手段は、画像特徴量と図形情報とに基づいて、少なくとも1つの基本図形を変形して被写体に合わせ込み、変形して合わせ込まれた基本図形と被写体との類似の度合いに基づいて、被写体の立体形状を求めてもよい。   Further, the shape acquisition means deforms at least one basic figure based on the image feature amount and the figure information and matches it with the subject, and based on the degree of similarity between the deformed and matched basic figure and the subject. Thus, the three-dimensional shape of the subject may be obtained.

また、形状取得手段は、画像特徴量を用いて、被写体を形成する面および面の配置を求め、画像特徴量および求められた面の配置に基づいて、少なくとも1つの基本図形を変形し合わせ込んでもよい。   In addition, the shape obtaining unit obtains the surface and the arrangement of the surface forming the subject using the image feature amount, and deforms and combines at least one basic figure based on the image feature amount and the obtained arrangement of the surface. But you can.

また、撮像画像から面に対応する画像領域の部分画像を面の模様として抽出する画像抽出手段を備え、形状取得手段は、撮像画像が複数の場合、画像抽出手段により抽出された部分画像に基づいて、一の撮像画像における面が他の撮像画像における面と同一か否かを判定し、被写体を形成する面の配置を求めてもよい。   In addition, an image extraction unit that extracts a partial image of an image region corresponding to a surface from the captured image as a surface pattern is provided, and the shape acquisition unit is based on the partial image extracted by the image extraction unit when there are a plurality of captured images. Thus, it may be determined whether the surface in one captured image is the same as the surface in the other captured image, and the arrangement of the surfaces forming the subject may be obtained.

また、形状取得手段は、度合いが最も大きい基本図形またはその組み合わせを被写体の立体形状としてもよい。   Further, the shape acquisition means may use the basic figure having the highest degree or a combination thereof as the three-dimensional shape of the subject.

また、ユーザからの指示を受け付ける操作部材と、表示手段と、を備え、形状取得手段は、複数の基本図形のうち、被写体の立体形状の候補となる基本図形またはその組み合わせを、度合いに応じて表示手段に表示し、ユーザによる操作部材の操作によって選択された基本図形またはその組み合わせを被写体の立体形状としてもよい。   In addition, an operation member that receives an instruction from the user and a display unit are provided, and the shape acquisition unit selects a basic figure that is a candidate for the three-dimensional shape of the subject or a combination thereof according to the degree from among a plurality of basic figures. The basic figure displayed on the display means and selected by the operation of the operation member by the user or a combination thereof may be the three-dimensional shape of the subject.

また、撮像画像は、被写体の撮像時の撮像情報が付加され、形状取得手段は、撮像情報に基づいて被写体の大きさを算出してもよい。   In addition, imaging information at the time of imaging of the subject may be added to the captured image, and the shape acquisition unit may calculate the size of the subject based on the imaging information.

本発明を例示する撮像装置の一の態様は、被写体を撮像して撮像画像を生成する撮像部と、本発明の画像処理装置と、を備える。   One aspect of an imaging apparatus illustrating the present invention includes an imaging unit that captures an image of a subject and generates a captured image, and the image processing apparatus of the present invention.

また、撮像画像に被写体の撮像時の撮像情報を付加する情報付加手段を備えてもよい。   Moreover, you may provide the information addition means to add the imaging information at the time of imaging of a to-be-photographed object to a captured image.

本発明を例示する画像処理プログラムの一の態様は、被写体を撮像した少なくとも1つの撮像画像から被写体の画像特徴量を抽出する特徴量抽出手順、画像特徴量と複数の基本図形それぞれの立体形状の図形情報とに基づいて、被写体の立体形状を求める形状取得手順、をコンピュータに実行させる。   One aspect of the image processing program exemplifying the present invention is a feature amount extraction procedure for extracting an image feature amount of a subject from at least one captured image obtained by imaging the subject, the image feature amount and a three-dimensional shape of each of a plurality of basic figures. Based on the graphic information, the computer is caused to execute a shape acquisition procedure for obtaining the three-dimensional shape of the subject.

本発明によれば、少ない演算量で被写体の立体形状を容易に取得することができる。   According to the present invention, the three-dimensional shape of a subject can be easily acquired with a small amount of calculation.

一の実施形態に係るデジタルカメラの構成を示すブロック図1 is a block diagram showing a configuration of a digital camera according to an embodiment. 一の実施形態に係るデジタルカメラの処理動作を示すフローチャート7 is a flowchart showing processing operations of a digital camera according to an embodiment. 被写体として建物を撮像した静止画像の一例を示す図The figure which shows an example of the still image which imaged the building as a photographic subject 図3に示す建物に基本図形の合わせ込みの一例を示す図The figure which shows an example of fitting of a basic figure to the building shown in FIG. 図3に示す建物の各面の部分画像を真正面から見た画像に変換した例を示す図The figure which shows the example which converted into the image which looked at the partial image of each surface of the building shown in FIG. 3 from the front. 被写体の立体形状の候補の基準画像を類似度の大きい順にモニタに表示する例を示す図The figure which shows the example which displays the reference image of the subject's three-dimensional shape candidate on a monitor in descending order of similarity 他の実施形態に係るデジタルカメラの処理動作を示すフローチャートThe flowchart which shows the processing operation of the digital camera which concerns on other embodiment. 図3に示す建物を2つの異なる方向からそれぞれ撮像した静止画像の一例を示す図The figure which shows an example of the still image which each imaged the building shown in FIG. 3 from two different directions, respectively 被写体として別の建物を撮像した静止画像の一例を示す図The figure which shows an example of the still image which imaged another building as a subject

《一の実施形態》
図1は、本発明の一の実施形態に係るデジタルカメラの構成を示すブロック図である。
<< One Embodiment >>
FIG. 1 is a block diagram showing a configuration of a digital camera according to an embodiment of the present invention.

本実施形態のデジタルカメラは、撮像光学系11、撮像素子12、AFE13、画像処理部14、メモリ15、モニタ16、記録I/F17、CPU19、操作部材23、レリーズ釦24、タッチパネル25、バスから構成される。画像処理部14、メモリ15、モニタ16、記録I/F17、CPU19は、バスを介して情報伝達可能にそれぞれ接続される。また、操作部材23、レリーズ釦24、タッチパネル25は、それぞれCPU19に接続される。   The digital camera of the present embodiment includes an imaging optical system 11, an imaging device 12, an AFE 13, an image processing unit 14, a memory 15, a monitor 16, a recording I / F 17, a CPU 19, an operation member 23, a release button 24, a touch panel 25, and a bus. Composed. The image processing unit 14, the memory 15, the monitor 16, the recording I / F 17, and the CPU 19 are connected to each other via a bus so that information can be transmitted. The operation member 23, the release button 24, and the touch panel 25 are each connected to the CPU 19.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のレンズ位置は、レンズ駆動部(不図示)によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the imaging optical system 11 is adjusted in the optical axis direction by a lens driving unit (not shown). For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

撮像素子12は、撮像光学系11を通過した光束によって結像される被写界を撮像するデバイスである。この撮像素子12の出力はAFE13に入力される。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCD等)であっても、XYアドレス方式の固体撮像素子(CMOS等)であってもよい。   The image pickup device 12 is a device that picks up an image of an object scene formed by a light beam that has passed through the image pickup optical system 11. The output of the image sensor 12 is input to the AFE 13. Note that the image sensor 12 of the present embodiment may be a progressive scan type solid-state image sensor (CCD or the like) or an XY address type solid-state image sensor (CMOS or the like).

また、撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。これにより、撮像素子12は、カラーの画像を取得できる。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the image sensor 12. In each light receiving element of the image sensor 12, red (R), green (G), and blue (B) color filters are arranged according to a known Bayer array. Therefore, each light receiving element of the imaging element 12 outputs an image signal corresponding to each color by color separation in the color filter. Thereby, the image sensor 12 can acquire a color image.

ここで、デジタルカメラの撮影モードにおいて、撮像素子12はレリーズ釦24の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子12は、撮影待機時にも所定の時間間隔で構図確認用画像(スルー画像)を撮像する。このスルー画像のデータは、撮像素子12から間引き読み出しで出力される。なお、スルー画像のデータは、モニタ16での画像表示や、CPU19による各種の演算処理等に使用される。   Here, in the photographing mode of the digital camera, the image pickup device 12 picks up a recorded image (main image) in response to a full pressing operation of the release button 24. Further, the imaging element 12 in the shooting mode captures a composition confirmation image (through image) at a predetermined time interval even during shooting standby. The through image data is output from the image sensor 12 by thinning-out readout. The through image data is used for image display on the monitor 16 and various arithmetic processes by the CPU 19.

AFE13は、撮像素子12の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE13は、相関二重サンプリング、画像信号のゲインの調整、画像信号のA/D変換を行う。AFE13の出力は、画像処理部14に接続される。なお、本実施形態では、撮像素子12とAFE13とで撮像部を構成する。   The AFE 13 is an analog front end circuit that performs analog signal processing on the output of the image sensor 12. The AFE 13 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion. The output of the AFE 13 is connected to the image processing unit 14. In the present embodiment, the imaging device 12 and the AFE 13 constitute an imaging unit.

画像処理部14は、1フレーム分のデジタル画像信号に対して、各種画像処理(例えば、色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。   The image processing unit 14 performs various types of image processing (for example, color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment) on the digital image signal for one frame.

メモリ15は、デジタルカメラによって撮像された画像データや、CPU19によって実行される制御プログラムや画像処理プログラムなどを記憶する。また、本実施形態のメモリ15は、本画像の被写体の立体形状を求めるための参照として、三角錐、直方体、円柱、球などの複数の基本図形それぞれの立体形状に関する図形情報を予め記憶している。さらに、メモリ15は、画像処理部14による画像処理の前工程や後工程での画像データを一時的に記憶する。メモリ15には、不揮発性の半導体メモリなどを用いることができる。   The memory 15 stores image data captured by the digital camera, a control program executed by the CPU 19, an image processing program, and the like. In addition, the memory 15 of the present embodiment stores in advance graphic information regarding the three-dimensional shape of each of a plurality of basic figures such as a triangular pyramid, a rectangular parallelepiped, a cylinder, and a sphere as a reference for obtaining the three-dimensional shape of the subject of the main image. Yes. Further, the memory 15 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 14. The memory 15 can be a non-volatile semiconductor memory or the like.

モニタ16は、液晶モニタなどの表示手段であり、CPU19の指示に応じて各種画像を表示する。   The monitor 16 is a display means such as a liquid crystal monitor, and displays various images in accordance with instructions from the CPU 19.

記録I/F17には、記憶媒体18を接続するためのコネクタが形成されている。そして、記録I/F17は、コネクタに接続された記憶媒体18に対してデータの書き込み/読み込みを実行する。上記記憶媒体18は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体18の一例としてメモリカードを示す。   A connector for connecting the storage medium 18 is formed in the recording I / F 17. The recording I / F 17 executes data writing / reading with respect to the storage medium 18 connected to the connector. The storage medium 18 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is shown as an example of the storage medium 18.

CPU19は、デジタルカメラの各部を統括的に制御するプロセッサである。CPU19は、制御プログラムを実行することにより、スルー画像のデータに基づいて、位相差検出方式やコントラスト検出方式による公知のAF制御や、自動露出(AE)演算、オートホワイトバランス演算などを行う。また、CPU19は、撮像モードにおける各種の演算処理を行うとともに、撮像した画像のファイル生成処理や設定画面での表示処理なども行う。さらに、本実施形態のCPU19は、画像処理プログラムの実行により、特徴量抽出部20、形状取得部21、画像抽出部22として動作する。   The CPU 19 is a processor that comprehensively controls each unit of the digital camera. By executing the control program, the CPU 19 performs known AF control by a phase difference detection method or a contrast detection method, automatic exposure (AE) calculation, auto white balance calculation, and the like based on the data of the through image. In addition, the CPU 19 performs various arithmetic processes in the imaging mode, and also performs a file generation process of the captured image, a display process on the setting screen, and the like. Furthermore, the CPU 19 of this embodiment operates as a feature amount extraction unit 20, a shape acquisition unit 21, and an image extraction unit 22 by executing the image processing program.

特徴量抽出部20は、本画像に公知の頂点抽出処理やエッジ抽出処理などを適用して被写体の頂点やエッジ量などの画像特徴量を抽出する。   The feature amount extraction unit 20 applies known vertex extraction processing, edge extraction processing, and the like to the main image to extract image feature amounts such as the vertex and edge amount of the subject.

形状取得部21は、特徴量抽出部20により抽出された被写体の画像特徴量と、基本図形の図形情報とに基づいて、被写体の立体形状を求める。まず、形状取得部21は、特徴量抽出部20が抽出した頂点の位置とエッジ量の分布に基づいて、被写体の輪郭およびその立体形状を形成する面とその配置とを求める。形状取得部21は、求めた被写体の頂点および輪郭や面の配置に基づいて、基本図形の縦、横、高さの比を変えたり、基本図形を拡大縮小やシフト、回転させたりして変形し被写体に合わせ込む。つまり、形状取得部21は、変形後の基本図形の本画像面上に投影された頂点および輪郭や面の配置が被写体の配置と同じになるように、基本図形を変形して被写体に合わせ込む。   The shape acquisition unit 21 obtains the three-dimensional shape of the subject based on the image feature amount of the subject extracted by the feature amount extraction unit 20 and the graphic information of the basic figure. First, the shape acquisition unit 21 obtains the contour of the subject, the surface that forms the three-dimensional shape, and the arrangement thereof based on the vertex position and edge amount distribution extracted by the feature amount extraction unit 20. The shape acquisition unit 21 changes the ratio of the vertical, horizontal, and height of the basic figure based on the obtained vertex of the subject, the outline, and the arrangement of the surface, and scales, shifts, and rotates the basic figure to deform it. And adjust to the subject. In other words, the shape acquisition unit 21 deforms the basic figure to fit the subject so that the placement of the vertex, contour, and surface projected on the main image plane of the transformed basic figure is the same as the subject placement. .

本実施形態の形状取得部21は、その同じになるという指標として、例えば、変形投影後の基本図形と被写体との頂点および輪郭や面それぞれにおけるズレ量に応じた、類似の度合いである類似度を出力する評価関数を用いる。形状取得部21は、基本図形ごとに評価関数の最大出力の類似度を算出し、類似度の値に基づいて被写体の立体形状を求める。   For example, the shape acquisition unit 21 according to the present embodiment has a similarity degree that is a degree of similarity according to the amount of deviation in the vertex, outline, and surface of the basic figure after deformation projection and the subject, as an index indicating that they are the same. Is used. The shape acquisition unit 21 calculates the similarity of the maximum output of the evaluation function for each basic figure, and obtains the three-dimensional shape of the subject based on the similarity value.

画像抽出部22は、形状取得部21により求められた面に対応する、本画像の画像領域の部分画像を、その面の模様として抽出する。画像抽出部22は、それぞれの面の部分画像を、真正面から見た場合の画像データ(以下、基準画像データ)に変換して、CPU19の内部メモリ(不図示)に一時的に記憶する。なお、画像抽出部22による基準画像データへの変換は、例えば、面の各頂点および輪郭の配置具合に基づいて行われる。また、本実施形態における模様とは、被写体の面に描かれた看板の絵やロゴマークなどとともに、建物の面(壁)に配置された窓なども模様として扱う。   The image extraction unit 22 extracts a partial image of the image area of the main image corresponding to the surface obtained by the shape acquisition unit 21 as a pattern of the surface. The image extraction unit 22 converts the partial image of each surface into image data (hereinafter referred to as reference image data) when viewed from the front, and temporarily stores it in an internal memory (not shown) of the CPU 19. Note that the conversion to the reference image data by the image extraction unit 22 is performed based on, for example, the arrangement of the vertices and contours of the surface. In addition, the pattern in the present embodiment deals with a sign placed on the surface of the subject, a logo mark, and the like, as well as a window arranged on the surface (wall) of the building.

操作部材23は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。そして、操作部材23はデジタルカメラの各種入力をユーザから受け付ける。例えば、操作部材23は、デジタルカメラの動作モードの切替操作や、設定画面での入力操作などに用いられる。   The operation member 23 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 23 receives various inputs of the digital camera from the user. For example, the operation member 23 is used for an operation for switching the operation mode of a digital camera, an input operation on a setting screen, and the like.

レリーズ釦24は、半押し操作による撮像前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザから受け付ける。   The release button 24 receives from the user an instruction input for starting an AF operation before imaging by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

タッチパネル25は、操作部材23の一部を構成し、パネル表面に接触したスタイラス(または指先など)の位置を検出し、検出した位置情報をCPU19に出力することでユーザからの指示入力を受け付ける。なお、タッチパネル25の構成は、静電容量式または感圧式のいずれでもよい。本実施形態のタッチパネル25は、モニタ16と同形状の透明のパネルで構成され、モニタ16の表面全体に積層配置される。ユーザは、モニタ16に表示されたGUI形式の釦を視認しつつ、タッチパネル25を介してCPU19に指示入力する。   The touch panel 25 constitutes a part of the operation member 23, detects the position of a stylus (or a fingertip or the like) in contact with the panel surface, and outputs the detected position information to the CPU 19 to accept an instruction input from the user. The configuration of the touch panel 25 may be either a capacitance type or a pressure sensitive type. The touch panel 25 of the present embodiment is composed of a transparent panel having the same shape as the monitor 16 and is stacked on the entire surface of the monitor 16. The user inputs an instruction to the CPU 19 via the touch panel 25 while visually recognizing the GUI button displayed on the monitor 16.

次に、図2のフローチャートを参照しつつ、本実施形態のデジタルカメラによる処理動作について説明する。なお、本実施形態のデジタルカメラは、撮影モードとして、単写モードと連写モードとを有する静止画モードおよび動画モードなどを有するものとする。さらに、デジタルカメラは、本画像から被写体の立体形状を求める処理の動作モードを疑似3次元モードとして有するものとする。   Next, the processing operation by the digital camera of this embodiment will be described with reference to the flowchart of FIG. Note that the digital camera of the present embodiment has a still image mode and a moving image mode having a single shooting mode and a continuous shooting mode as shooting modes. Further, the digital camera has an operation mode of processing for obtaining the three-dimensional shape of the subject from the main image as a pseudo three-dimensional mode.

そして、デジタルカメラは、撮影モードとして、単写モードの静止画モードに予め設定されているものとし、例えば、図3に示すような建物30の被写体を撮像した1つの静止画像(本画像)を用いた処理について説明する。なお、建物30以外の被写体の場合についても同様に動作する。   The digital camera is assumed to be set in advance to the still image mode of the single shooting mode as the shooting mode. For example, a single still image (main image) obtained by capturing an object of the building 30 as shown in FIG. The process used will be described. The same operation is performed for subjects other than the building 30.

CPU19は、ユーザによる操作部材23の電源釦操作により、電源投入指示を受け付け、デジタルカメラの電源を投入する。CPU19は、デジタルカメラを初期化する。CPU19は、撮像素子12に30fpsなどのフレームレートでスルー画像を撮像させ、モニタ16にそのスルー画像を表示させる。CPU19は、ステップS101からの処理を開始する。   The CPU 19 receives a power-on instruction by turning on the power button on the operation member 23 by the user, and turns on the digital camera. The CPU 19 initializes the digital camera. The CPU 19 causes the image sensor 12 to capture a through image at a frame rate such as 30 fps, and causes the monitor 16 to display the through image. The CPU 19 starts processing from step S101.

ステップS101:CPU19は、ユーザによってレリーズ釦24の全押し操作による撮像指示を受け付け、撮像素子12に、単写モードの静止画モードで、建物30を撮像させる。画像処理部14は、AFE13から出力されるデジタル画像信号に対して、各種画像処理を施す。CPU19は、画像処理された画像データを静止画像40とする画像ファイルを生成する。CPU19は、静止画像40の画像ファイルを記憶媒体18などに記録する。   Step S101: The CPU 19 accepts an imaging instruction by a user fully pressing the release button 24, and causes the imaging device 12 to image the building 30 in the still image mode of the single shooting mode. The image processing unit 14 performs various image processes on the digital image signal output from the AFE 13. The CPU 19 generates an image file in which the image data subjected to the image processing is a still image 40. The CPU 19 records the image file of the still image 40 on the storage medium 18 or the like.

なお、本実施形態のCPU19は、情報付加手段として、画像ファイルの生成にあたり、露光条件などとともに、AF領域の情報やレンズ駆動部(不図示)のよる撮像光学系11のレンズ移動量などの撮像情報を書き込んだ、Exif(Exchangeable image file format for digital still cameras)規格に準拠したメタデータを画像ファイルのヘッダ領域に付加する。   Note that the CPU 19 of the present embodiment serves as information addition means for generating image files such as exposure conditions and the like, information on the AF area, and the lens movement amount of the imaging optical system 11 by a lens driving unit (not shown). Metadata that conforms to the exchangeable image file format for digital still cameras (Exif) standard in which information is written is added to the header area of the image file.

ステップS102:CPU19は、ユーザによる操作部材23やタッチパネル25の操作に基づいて、撮影モードから疑似3次元モードへの設定変更指示を受け付ける。CPU19は、ステップS101において撮像した静止画像40の画像ファイルを記憶媒体18などから読み込む。なお、CPU19は、画像処理部14に、特徴量抽出部20などによる処理を行い易くするために、読み込んだ静止画像40に対し、予め収差補正したり、輝度、コントラスト、色相などを調整したりすることが好ましい。   Step S102: The CPU 19 accepts a setting change instruction from the shooting mode to the pseudo three-dimensional mode based on the operation of the operation member 23 and the touch panel 25 by the user. The CPU 19 reads the image file of the still image 40 captured in step S101 from the storage medium 18 or the like. Note that the CPU 19 corrects aberrations in advance for the read still image 40 or adjusts brightness, contrast, hue, and the like so that the image processing unit 14 can easily perform processing by the feature amount extraction unit 20 or the like. It is preferable to do.

ステップS103:特徴量抽出部20は、ステップS102で読み込んだ静止画像40に対して、公知の頂点抽出処理やエッジ抽出処理などを適用し、建物30の頂点およびエッジ量を抽出する。   Step S103: The feature amount extraction unit 20 applies a known vertex extraction process, an edge extraction process, or the like to the still image 40 read in step S102, and extracts the vertex and edge amount of the building 30.

ステップS104:形状取得部21は、ステップS103で抽出された建物30の頂点31a〜31fおよびエッジ量を用いて、建物30を形成する面を求める。具体的に、形状取得部21は、例えば、特徴量抽出部20が抽出した頂点31aと31bとを結ぶエッジ量の分布から輪郭32aを求める。同様にして、形状取得部21は、他の輪郭32b〜32gを求める。形状取得部21は、頂点31a〜31fと輪郭32a〜32gとの配置に基づいて、建物30を形成する面33、34とその配置を求める。   Step S104: The shape acquisition unit 21 obtains a surface on which the building 30 is formed using the vertices 31a to 31f and the edge amount of the building 30 extracted in step S103. Specifically, the shape acquisition unit 21 obtains the contour 32a from, for example, the distribution of edge amounts connecting the vertices 31a and 31b extracted by the feature amount extraction unit 20. Similarly, the shape acquisition unit 21 obtains other contours 32b to 32g. The shape acquisition part 21 calculates | requires the surfaces 33 and 34 which form the building 30, and its arrangement | positioning based on arrangement | positioning of vertex 31a-31f and outline 32a-32g.

ステップS105:画像抽出部22は、静止画像40から面33、34の画像領域における部分画像をそれぞれ抽出し、真正面から見た場合の基準画像データに変換する(図5)。CPU19は、面33、34の基準画像データを内部メモリ(不図示)に一時的に記録する。   Step S105: The image extraction unit 22 extracts partial images in the image regions of the surfaces 33 and 34 from the still image 40, and converts them into reference image data when viewed from the front (FIG. 5). The CPU 19 temporarily records the reference image data of the surfaces 33 and 34 in an internal memory (not shown).

ステップS106:形状取得部21は、ステップS104で求めた頂点31a〜31fおよび面33、34と、基本図形の図形情報とに基づいて、建物30の立体形状を求める。すなわち、形状取得部21は、建物30の頂点31a〜31fおよび面33、34の配置に基づいて、基本図形、例えば、図4に示す三角柱50(点線)の縦、横、高さの比を変えたり、拡大縮小やシフト、回転させたりして変形し、三角柱50において評価関数による最大出力の類似度の値が得られるまで建物30への合わせ込みを行う。形状取得部21は、最大出力の類似度の値が得られた時点の三角柱50の縦、横、高さの比、拡大率(または縮小率)、シフト量、回転角などを内部メモリ(不図示)に記録する。   Step S106: The shape obtaining unit 21 obtains the three-dimensional shape of the building 30 based on the vertices 31a to 31f and the surfaces 33 and 34 obtained in Step S104 and the graphic information of the basic figure. That is, the shape acquisition unit 21 calculates the ratio of the vertical, horizontal, and height of the basic figure, for example, the triangular prism 50 (dotted line) shown in FIG. 4 based on the arrangement of the vertices 31a to 31f and the surfaces 33 and 34 of the building 30. It is deformed by changing, enlarging / reducing, shifting, or rotating, and fitting to the building 30 is performed until the maximum output similarity value by the evaluation function is obtained in the triangular prism 50. The shape acquisition unit 21 stores the ratio of the vertical, horizontal, and height, the enlargement ratio (or reduction ratio), the shift amount, the rotation angle, and the like of the triangular prism 50 at the time when the maximum output similarity value is obtained. Record in the figure).

なお、本実施形態形では、建物30を一方向から撮像した1枚の静止画像40のみで行うことから、建物30の背後の形状は不明である。そこで、本実施形態の形状取得部21は、建物30の背後の形状は不明のままにして、頂点31a〜31fおよび面33、34のみに基づき、各基本図形を建物30に合わせ込む。   In the present embodiment, the shape behind the building 30 is unknown because only one still image 40 obtained by capturing the building 30 from one direction is used. Therefore, the shape acquisition unit 21 of the present embodiment adjusts each basic figure to the building 30 based on only the vertices 31a to 31f and the surfaces 33 and 34 while the shape behind the building 30 remains unknown.

ステップS107:形状取得部21は、複数の基本図形のうち、ステップS106で求めた類似度の値が大きい順に、複数の基本図形を、建物30の立体形状の候補として、図6に示すようにモニタ16に表示する。なお、図6では、類似度の値が大きい方から4つの基本図形A〜Dを表示させる場合の一例を示すが、4つ以外の数の基本図形を表示してもよい。   Step S107: As shown in FIG. 6, the shape acquisition unit 21 sets the plurality of basic graphics as candidates for the three-dimensional shape of the building 30 in descending order of the similarity value obtained in Step S106. Displayed on the monitor 16. FIG. 6 shows an example in which four basic figures A to D are displayed in descending order of the similarity value, but a number other than four basic figures may be displayed.

ステップS108:CPU19は、操作部材23やタッチパネル25を介して、ユーザから基本図形A〜Dの中から1つを選択する制御信号を受け付け、形状取得部21は、選択された基本図形が建物30の立体形状であるとする。CPU19は、選択された基本図形の図形情報に基づいて、建物30の3次元CADやCGのオブジェクトファイルなどを生成する。CPU19は、生成したオブジェクトファイルを記憶媒体18などに記憶し、一連の処理を終了する。   Step S108: The CPU 19 receives a control signal for selecting one of the basic figures A to D from the user via the operation member 23 or the touch panel 25, and the shape acquisition unit 21 determines that the selected basic figure is the building 30. It is assumed that the three-dimensional shape. The CPU 19 generates a three-dimensional CAD or CG object file of the building 30 based on the graphic information of the selected basic graphic. The CPU 19 stores the generated object file in the storage medium 18 or the like, and ends a series of processes.

なお、形状取得部21は、上記ファイルを生成するにあたり、画像抽出部22により抽出された面33、34の基準画像データを含ませてもよい。これにより、例えば、ユーザは建物30のCG画像を容易に作成することができる。   The shape acquisition unit 21 may include the reference image data of the surfaces 33 and 34 extracted by the image extraction unit 22 when generating the file. Thereby, for example, the user can easily create a CG image of the building 30.

また、CPU19は、静止画像40に付加された撮像情報のうち、AF領域の情報やレンズ駆動部(不図示)のよる撮像光学系11のレンズ移動量などに基づいて、建物30の大きさ(例えば、輪郭32a〜32gの長さ)を算出し、形状取得部21は、建物30の大きさ情報もオブジェクトファイルなどに含ませてもよい。つまり、例えば、お店で見かけた家具や冷蔵庫を被写体として撮像し、3次元CADやCGのオブジェクトファイルなどを生成することにより、ユーザは、バーチャル空間における自身の部屋やキッチンに家具や冷蔵庫を適切な縮尺で容易に配置することができ、実際に購入して配置した際の雰囲気などを確かめることができる。   Further, the CPU 19 determines the size of the building 30 based on the AF area information and the lens movement amount of the imaging optical system 11 by a lens driving unit (not shown) among the imaging information added to the still image 40. For example, the lengths of the contours 32a to 32g) may be calculated, and the shape acquisition unit 21 may include the size information of the building 30 in the object file or the like. In other words, for example, by capturing images of furniture and refrigerators seen in a store as a subject and generating object files of 3D CAD and CG, the user appropriately attaches furniture and refrigerators to his / her room or kitchen in the virtual space. It can be easily arranged at a small scale, and the atmosphere when actually purchased and arranged can be confirmed.

このように、本実施形態では、被写体の画像特徴量に基づいて、基本図形を被写体に合わせ込み、最も類似した基本図形を被写体の立体形状とすることにより、たとえ1枚の静止画像のみを用いる場合でも、少ない計算量で被写体の立体形状を容易に取得することができる。   As described above, in this embodiment, only a single still image is used by matching a basic figure to a subject based on the image feature quantity of the subject and making the most similar basic figure a solid shape of the subject. Even in this case, the three-dimensional shape of the subject can be easily acquired with a small amount of calculation.

また、被写体の立体形状の3次元CADやCGなどのオブジェクトファイルが、最も類似した基本図形の図形情報に基づいて容易に生成できる。
《他の実施形態》
本発明の他の実施形態に係るデジタルカメラは、図1に示す一の実施形態に係るデジタルカメラと同一である。したがって、本実施形態のデジタルカメラを構成する各構成要素について、同じ符号を付し詳細な説明は省略する。
In addition, an object file such as a three-dimensional CAD or CG of the three-dimensional shape of the subject can be easily generated based on the graphic information of the most similar basic figure.
<< Other embodiments >>
A digital camera according to another embodiment of the present invention is the same as the digital camera according to one embodiment shown in FIG. Therefore, the same reference numerals are given to the components constituting the digital camera of the present embodiment, and detailed description thereof is omitted.

一方、本実施形態に係るデジタルカメラと一の実施形態に係るものとの相違点は、形状取得部21が、(1)被写体の立体形状を複数の静止画像を用いて求め、(2)各画像に撮像された被写体を形成する各面の配置関係を、基準画像データに基づいて求めることにある。   On the other hand, the difference between the digital camera according to the present embodiment and that according to the first embodiment is that the shape acquisition unit 21 (1) obtains the three-dimensional shape of the subject using a plurality of still images, and (2) each The object is to obtain the positional relationship between the surfaces forming the subject imaged in the image based on the reference image data.

そこで、図7のフローチャートを参照しつつ、本実施形態のデジタルカメラによる処理動作について説明する。なお、本実施形態では、複数の静止画像とは2つの静止画像であり、被写体は一の実施形態と同じ図3に示す建物30であるとする。   A processing operation performed by the digital camera of this embodiment will be described with reference to the flowchart of FIG. In the present embodiment, it is assumed that the plurality of still images are two still images, and the subject is the building 30 shown in FIG. 3 as in the first embodiment.

CPU19は、ユーザによる操作部材23の電源釦操作により、電源投入指示を受け付け、デジタルカメラの電源を投入する。CPU19は、デジタルカメラを初期化する。CPU19は、撮像素子12に30fpsなどのフレームレートでスルー画像を撮像させ、モニタ16にそのスルー画像を表示させる。CPU19は、ステップS201からの処理を開始する。   The CPU 19 receives a power-on instruction by turning on the power button on the operation member 23 by the user, and turns on the digital camera. The CPU 19 initializes the digital camera. The CPU 19 causes the image sensor 12 to capture a through image at a frame rate such as 30 fps, and causes the monitor 16 to display the through image. The CPU 19 starts processing from step S201.

ステップS201:CPU19は、ユーザによってレリーズ釦24の全押し操作による撮像指示を2回受け付け、撮像素子12に、単写モードの静止画モードで、建物30を2回撮像させる。画像処理部14は、撮像ごとにAFE13から出力されるデジタル画像信号に対して、各種画像処理を施す。CPU19は、画像処理された画像データを静止画像としてデータ領域に書き込み、露光条件などとともに、AF領域の情報やレンズ駆動部(不図示)のよる撮像光学系11のレンズ移動量などの撮像情報を書き込んだExif規格に準拠したメタデータをヘッダ領域に付加した画像ファイルを生成する。CPU19は、生成した2つの画像ファイルを記憶媒体18などに記録する。   Step S201: The CPU 19 accepts an imaging instruction by a user fully pressing the release button 24 twice, and causes the image sensor 12 to image the building 30 twice in the still image mode of the single shooting mode. The image processing unit 14 performs various types of image processing on the digital image signal output from the AFE 13 for each imaging. The CPU 19 writes the processed image data as a still image in the data area and, along with the exposure conditions and the like, information on the AF area and imaging information such as the lens movement amount of the imaging optical system 11 by a lens driving unit (not shown). An image file is generated in which the metadata conforming to the written Exif standard is added to the header area. The CPU 19 records the generated two image files on the storage medium 18 or the like.

図8は、2つの静止画像60、65の一例を示す。2つの静止画像60、65は、建物30を互いに異なる2つの方向から撮像したものである。すなわち、静止画像60は、図3と同じ方向で建物30を斜め上方からの撮像されたものであり、静止画像65は、静止画像60とは180°反対の方向で建物30を斜め上方からの撮像したものである。   FIG. 8 shows an example of two still images 60 and 65. The two still images 60 and 65 are images of the building 30 taken from two different directions. That is, the still image 60 is an image of the building 30 taken obliquely from above in the same direction as in FIG. 3, and the still image 65 is the building 30 taken obliquely from above in a direction opposite to the still image 60 by 180 °. It is what was imaged.

ステップS202:CPU19は、一の実施形態のステップS102と同様に、ユーザによる操作部材23やタッチパネル25の操作に基づいて、撮影モードから疑似3次元モードへの設定変更指示を受け付ける。CPU19は、ステップS201において撮像した静止画像60、65の画像ファイルを記憶媒体18などから読み込む。   Step S202: The CPU 19 accepts a setting change instruction from the shooting mode to the pseudo three-dimensional mode based on the operation of the operation member 23 and the touch panel 25 by the user, similarly to step S102 of the embodiment. The CPU 19 reads the image files of the still images 60 and 65 captured in step S201 from the storage medium 18 or the like.

ステップS203:特徴量抽出部20は、ステップS202で読み込んだ静止画像60、65に対して、公知の頂点抽出処理やエッジ抽出処理などをそれぞれ適用し、建物30の頂点およびエッジ量を抽出する。   Step S203: The feature amount extraction unit 20 applies the known vertex extraction processing and edge extraction processing to the still images 60 and 65 read in step S202, respectively, and extracts the vertex and edge amount of the building 30.

ステップS204:形状取得部21は、一の実施形態のステップS104と同様に、静止画像60から抽出された建物30の頂点70a〜70gおよびエッジ量を用いて、建物30を形成する面61〜63とその配置を求める。同様に、形状取得部21は、静止画像65から抽出された建物30の頂点75a〜75gおよびエッジ量を用いて、面66〜68とその配置を求める。   Step S204: The shape acquisition unit 21 uses the vertices 70a to 70g and the edge amount of the building 30 extracted from the still image 60, as in step S104 of the embodiment, and the surfaces 61 to 63 that form the building 30. And its placement. Similarly, the shape acquisition unit 21 uses the vertices 75a to 75g and the edge amount of the building 30 extracted from the still image 65 to obtain the surfaces 66 to 68 and their arrangement.

ステップS205:画像抽出部22は、静止画像60、65から面61〜63、66〜68の画像領域における部分画像をそれぞれ抽出し、真正面から見た場合の基準画像データに変換する。CPU19は、面61〜63、66〜68の基準画像データを内部メモリ(不図示)に一時的に記録する。   Step S205: The image extraction unit 22 extracts partial images in the image regions of the surfaces 61 to 63 and 66 to 68 from the still images 60 and 65, respectively, and converts them into reference image data when viewed from the front. The CPU 19 temporarily records the reference image data of the surfaces 61 to 63 and 66 to 68 in an internal memory (not shown).

ステップS206:形状取得部21は、静止画像60における建物30の面61〜63と静止画像65における面66〜68との配置関係を、各面の基準画像データに基づいて求める。例えば、形状取得部21は、静止画像60の面61と静止画像65の面66との基準画像データで相関処理を施し、面61と面66とが同一の面か否かを判定する。図8に示すように、形状取得部21は、屋根に相当する面63と面68とは同じ面と判定し、面61、62、66、67は異なる面であると判定する。形状取得部21は、この判定結果に基づいて、建物30の面63(68)の周りに、各面61、62、66、67がそれぞれ配置されることを求める。   Step S206: The shape acquisition unit 21 obtains an arrangement relationship between the surfaces 61 to 63 of the building 30 in the still image 60 and the surfaces 66 to 68 in the still image 65 based on the reference image data of each surface. For example, the shape acquisition unit 21 performs correlation processing with reference image data of the surface 61 of the still image 60 and the surface 66 of the still image 65, and determines whether the surface 61 and the surface 66 are the same surface. As illustrated in FIG. 8, the shape acquisition unit 21 determines that the surface 63 and the surface 68 corresponding to the roof are the same surface, and determines that the surfaces 61, 62, 66, and 67 are different surfaces. Based on this determination result, the shape acquisition unit 21 determines that the surfaces 61, 62, 66, and 67 are arranged around the surface 63 (68) of the building 30, respectively.

ステップS207:形状取得部21は、ステップS206で求めた頂点70a〜70g、75a〜75gおよび面61〜63、66〜68の配置と、基本図形の図形情報とに基づいて、建物30の立体形状を求める。すなわち、形状取得部21は、一の実施形態のステップS106と同様に、建物30の頂点70a〜70g、75a〜75gおよび面61〜63、66〜68の配置に基づいて、各基本図形をその縦、横、高さの比を変えたり、拡大縮小やシフト、回転させたりして変形し、各基本図形において評価関数による最大出力の類似度の値が得られるまで建物30への合わせ込みを行う。   Step S207: The shape acquisition unit 21 determines the three-dimensional shape of the building 30 based on the arrangement of the vertices 70a to 70g and 75a to 75g and the surfaces 61 to 63 and 66 to 68 obtained in Step S206 and the graphic information of the basic figure. Ask for. That is, the shape acquisition unit 21 converts each basic figure into its basic figure based on the arrangement of the vertices 70a to 70g and 75a to 75g and the surfaces 61 to 63 and 66 to 68 of the building 30 as in step S106 of the embodiment. By changing the ratio of length, width, height, scaling, shifting, rotating, etc., it is deformed and adjusted to the building 30 until the maximum output similarity value by the evaluation function is obtained for each basic figure. Do.

ステップS208:形状取得部21は、一の実施形態のステップS107と同様に、複数の基本図形のうち、ステップS207で求めた類似度の値が大きい順に、複数の基本図形を、建物30の立体形状の候補として、図6に示すようにモニタ16に表示する。   Step S208: The shape acquisition unit 21 converts the plurality of basic figures into the three-dimensional structure of the building 30 in descending order of the similarity value obtained in Step S207 from among the plurality of basic figures as in Step S107 of the embodiment. The shape candidates are displayed on the monitor 16 as shown in FIG.

ステップS209:CPU19は、操作部材23やタッチパネル25を介して、ユーザから複数の候補の基本図形の中から1つを選択する制御信号を受け付け、形状取得部21は、選択された基本図形が建物30の立体形状であるとする。CPU19は、選択された基本図形の図形情報に基づいて、建物30の3次元CADやCGのオブジェクトファイルなどを生成する。CPU19は、生成したオブジェクトファイルなどを記憶媒体18などに記憶し、一連の処理を終了する。   Step S209: The CPU 19 receives a control signal for selecting one of a plurality of candidate basic figures from the user via the operation member 23 or the touch panel 25, and the shape acquisition unit 21 determines that the selected basic figure is a building. It is assumed that there are 30 solid shapes. The CPU 19 generates a three-dimensional CAD or CG object file of the building 30 based on the graphic information of the selected basic graphic. The CPU 19 stores the generated object file or the like in the storage medium 18 or the like, and ends a series of processes.

なお、形状取得部21は、例えば、ステップS206において、各面61、62、63(68)、66、67の位置関係に基づいて、建物30の立体形状が直方体であると判定した場合、直方体の基本図形のみで建物30に合わせ込み、ステップS208の処理とステップS209のユーザによる選択とを省略してもよい。   For example, when the shape acquisition unit 21 determines in step S206 that the three-dimensional shape of the building 30 is a rectangular parallelepiped based on the positional relationship between the surfaces 61, 62, 63 (68), 66, and 67, the rectangular parallelepiped. It is possible to fit the building 30 with only the basic figure, and omit the processing in step S208 and the selection by the user in step S209.

このように、本実施形態では、被写体の画像特徴量に基づいて、被写体に基本図形を合わせ込み、最も類似した基本図形を被写体の立体形状とすることにより、少ない計算量で被写体の立体形状を容易に取得することができる。   As described above, in this embodiment, the basic figure is combined with the subject based on the image feature quantity of the subject, and the most similar basic figure is set as the three-dimensional shape of the subject. Can be easily obtained.

また、複数の画像に基づいて被写体の立体形状を求める場合でも、画像間の位置合わせを行うことなく、単に面の部分画像に基づいて、異なる画像に撮像された面が互いに同一の面か否かを判定するだけで、被写体の立体形状を求めることができる。   In addition, even when obtaining the three-dimensional shape of a subject based on a plurality of images, whether or not the surfaces captured in different images are the same surface based on the partial images of the surfaces without performing alignment between the images. It is possible to obtain the three-dimensional shape of the subject simply by determining whether or not.

また、被写体の立体形状の3次元CADやCGなどのオブジェクトファイルが、最も類似した基本図形の図形情報に基づいて容易に生成できる。
《実施形態の補足事項》
(1)上記実施形態では、特徴量抽出部20、形状取得部21、画像抽出部22の各処理を、CPU20がソフトウエア的に実現する例を説明したが、ASICを用いてこれらの各処理をハードウエア的に実現してもよい。
In addition, an object file such as a three-dimensional CAD or CG of the three-dimensional shape of the subject can be easily generated based on the graphic information of the most similar basic figure.
<< Additional items of embodiment >>
(1) In the above-described embodiment, an example in which the CPU 20 implements each process of the feature amount extraction unit 20, the shape acquisition unit 21, and the image extraction unit 22 by software has been described, but each of these processes is performed using an ASIC. May be realized in hardware.

(2)本発明の画像処理装置は、上記実施形態のデジタルカメラの例に限定されない。例えば、画像をコンピュータに読み込ませ、コンピュータに画像処理のプログラムを実行させることにより、コンピュータを本発明の画像処理装置として機能させてもよい。   (2) The image processing apparatus of the present invention is not limited to the example of the digital camera of the above embodiment. For example, the computer may function as the image processing apparatus of the present invention by causing the computer to read an image and causing the computer to execute an image processing program.

また、上記コンピュータをネットワーク上に配置し、ネットワークを介して外部のユーザから送信された画像を受信して、その画像に撮像された被写体の立体形状を求め、その結果を3次元CADやCGのオブジェクトファイルなどとして、上記外部のユーザに送り返すオンラインサービスに対しても、本発明は適用可能である。なお、この場合、外部のユーザより送信される画像には、露出条件とともに、AF領域の情報やレンズ駆動部(不図示)のよる撮像光学系11のレンズ移動量などの撮像情報が付加されていることが好ましい。   In addition, the computer is placed on a network, an image transmitted from an external user is received via the network, a three-dimensional shape of a subject imaged in the image is obtained, and the result is obtained by 3D CAD or CG. The present invention is also applicable to an online service that is sent back to the external user as an object file or the like. In this case, the image transmitted from an external user is added with imaging conditions such as the AF area information and the lens movement amount of the imaging optical system 11 by a lens driving unit (not shown) together with the exposure condition. Preferably it is.

(3)上記実施形態では、静止画像を用いて被写体の立体形状を求めたが、本発明はこれに限定されず、スルー画像や動画を用いてもよい。   (3) In the above embodiment, the three-dimensional shape of the subject is obtained using a still image, but the present invention is not limited to this, and a through image or a moving image may be used.

(4)上記実施形態では、図3または図8に示す静止画像の建物30は、少なくとも2面が撮像されていたが、本発明はこれに限定されず、1面だけ撮像されていてもよい。   (4) In the above embodiment, at least two surfaces of the still image building 30 shown in FIG. 3 or FIG. 8 are captured, but the present invention is not limited to this, and only one surface may be captured. .

(5)上記実施形態では、ステップS107またはステップS208において、類似度の値が大きい順に、被写体の立体形状の候補となる基本図形をモニタ16に表示したが、本発明はこれに限定されない。例えば、形状取得部21は、類似度の値が最も大きい基本図形を被写体の立体形状とし、その基本図形のみをモニタ16に表示してもよい。   (5) In the above embodiment, the basic figures that are candidates for the three-dimensional shape of the subject are displayed on the monitor 16 in descending order of the similarity value in step S107 or step S208, but the present invention is not limited to this. For example, the shape acquisition unit 21 may set the basic figure having the highest similarity as the solid shape of the subject and display only the basic figure on the monitor 16.

(6)上記実施形態では、被写体に1つの基本図形で合わせ込んだが、本発明はこれに限定されず、2以上の基本図形の組み合わせを用いて合わせ込み、被写体の立体形状を求めてもよい。   (6) In the above embodiment, the subject is fitted with one basic figure, but the present invention is not limited to this, and a combination of two or more basic figures may be used to obtain the three-dimensional shape of the subject. .

例えば、形状取得部21は、建物30の窓や看板のロゴマークなどを模様としてではなく、建物30の構成要素として円や長方形などの基本図形で合わせ込み、対応する面に貼り付けてもよい。   For example, the shape acquisition unit 21 may align the basic mark such as a circle or a rectangle as a component of the building 30 instead of a pattern such as a window of the building 30 or a logo of a signboard as a pattern, and paste it on the corresponding surface. .

また、例えば、図9に示すように、建物30に円柱状の塔が屋根に追加配置された建物30’を撮像した静止画像80の場合、形状取得部21は、建物30’の上部の塔と下部の建物との部分に分けて、それぞれの部分について基本図形による合わせ込みを行ってもよい。   For example, as shown in FIG. 9, in the case of a still image 80 obtained by imaging a building 30 ′ in which a columnar tower is additionally arranged on the roof of the building 30, the shape acquisition unit 21 is a tower above the building 30 ′. It is also possible to divide into the parts of the building and the lower part of the building, and perform the fitting with the basic figure for each part.

あるいは、形状取得部21は、上記実施形態と同様に、まず1つの基本図形で建物30’の大枠で合わせ込みを行う。ステップS107やステップS208において、CPU19は、ユーザにより1つの基本図形が選択された時、例えば、モニタ16に「より詳細に合わせ込みますか?」などのメッセージのダイアログを表示する。ユーザにより上記メッセージに同意する制御信号を操作部材23またはタッチパネル25を介して受け付けた場合、CPU19は、ステップS106またはステップS207へ移行する。形状取得部21は、上記選択された基本図形で建物30’を合わせ込んだ場合、類似度が小さくなる塔の部分は別の基本図形から構成されると判断し、上部の塔と下部の建物との部分に分ける。形状取得部21は、それぞれの部分ついて基本図形による合わせ込みを再度行ってもよい。なお、下部の建物については最初に選択された基本図形で合わせ込まれるのが好ましい。   Alternatively, the shape acquisition unit 21 first performs alignment with a large frame of the building 30 ′ with one basic graphic as in the above embodiment. In step S107 or step S208, when one basic graphic is selected by the user, for example, the CPU 19 displays a message dialog such as “Do you want to fit in more detail?” On the monitor 16. When the control signal for agreeing to the message is received by the user via the operation member 23 or the touch panel 25, the CPU 19 proceeds to step S106 or step S207. The shape acquisition unit 21 determines that when the building 30 'is combined with the selected basic figure, the tower part having a low similarity is composed of another basic figure, and the upper tower and the lower building And divided into parts. The shape acquisition unit 21 may perform alignment with the basic figure for each part again. In addition, about the lower building, it is preferable to match | combine with the basic figure selected first.

また、形状取得部21は、建物30’の立体形状の候補の表示の順番として、例えば、それぞれの部分について合わせ込んだ基本図形における類似度の値の和が大きい組み合わせの順に表示することが好ましい。   Moreover, it is preferable that the shape acquisition part 21 displays the order of the candidate of the solid shape of building 30 'in order of the combination with the largest sum of the value of the similarity in the basic figure matched about each part, for example. .

(7)上記実施形態では、CPU19は、選択された基本図形の図形情報に基づいて、被写体の3次元CADやCGのオブジェクトファイルなどを生成したが、本発明はこれに限定されない。例えば、CPU19は、任意の視点方向から被写体を投影した画像ファイルを、選択された基本図形に基づいて生成してもよい。   (7) In the above embodiment, the CPU 19 generates a three-dimensional CAD or CG object file of the subject based on the graphic information of the selected basic graphic, but the present invention is not limited to this. For example, the CPU 19 may generate an image file in which a subject is projected from an arbitrary viewpoint direction based on the selected basic figure.

(8)上記実施形態では、撮像されなかった被写体の背後の形状を不明のままにして、被写体の頂点および輪郭や面の配置に基づき、基本図形を合わせ込んだが、本発明はこれに限定されない。例えば、形状取得部21は、被写体の頂点および輪郭や面の配置に応じて、いずれの基本図形がユーザにより選択されたり、選択される傾向にあるかの情報を記録することにより、たとえ被写体の背後の形状が不明であっても、類似度とともに上記情報に基づいて、より最適な基本図形を被写体の立体形状の候補としてモニタ16に表示してもよい。   (8) In the above embodiment, the shape behind the object that has not been imaged is left unclear, and the basic figure is combined based on the vertex, outline, and surface arrangement of the object, but the present invention is not limited to this. . For example, the shape acquisition unit 21 records information on which basic figure is selected or tends to be selected by the user according to the vertex, outline, and surface arrangement of the subject, so that Even when the shape behind is unknown, a more optimal basic figure may be displayed on the monitor 16 as a candidate for the three-dimensional shape of the subject based on the above information together with the similarity.

(9)上記実施形態では、被写体の大きさ情報を、撮像情報であるAF領域の情報やレンズ駆動部(不図示)のよる撮像光学系11のレンズ移動量などに基づいて求めたが、本発明はこれに限定されず、操作部材23やタッチパネル25を介して、ユーザにより入力された値を被写体の大きさ情報としてもよい。   (9) In the above embodiment, the subject size information is obtained based on the AF area information as the imaging information, the lens movement amount of the imaging optical system 11 by the lens driving unit (not shown), and the like. The invention is not limited to this, and a value input by the user via the operation member 23 or the touch panel 25 may be used as subject size information.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

11…撮像光学系、12…撮像素子、13…AFE、14…画像処理部、15…メモリ、16…モニタ、17…記録I/F、18…記憶媒体、19…CPU、20…特徴量抽出部、21…形状取得部、22…画像抽出部、23…操作部材、24…レリーズ釦、25…タッチパネル DESCRIPTION OF SYMBOLS 11 ... Imaging optical system, 12 ... Image sensor, 13 ... AFE, 14 ... Image processing part, 15 ... Memory, 16 ... Monitor, 17 ... Recording I / F, 18 ... Storage medium, 19 ... CPU, 20 ... Extraction of feature-value , 21 ... shape acquisition part, 22 ... image extraction part, 23 ... operation member, 24 ... release button, 25 ... touch panel

Claims (10)

複数の基本図形それぞれの立体形状の図形情報を記憶する記憶手段と、
被写体を撮像した少なくとも1つの撮像画像から前記被写体の画像特徴量を抽出する特徴量抽出手段と、
前記画像特徴量と前記図形情報とに基づいて、前記被写体の立体形状を求める形状取得手段と、
を備えることを特徴とする画像処理装置。
Storage means for storing three-dimensional figure information of each of the plurality of basic figures;
Feature quantity extraction means for extracting an image feature quantity of the subject from at least one captured image obtained by imaging the subject;
A shape acquisition means for obtaining a three-dimensional shape of the subject based on the image feature and the graphic information;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記形状取得手段は、前記画像特徴量と前記図形情報とに基づいて、少なくとも1つの前記基本図形を変形して前記被写体に合わせ込み、変形して合わせ込まれた前記基本図形と前記被写体との類似の度合いに基づいて、前記被写体の立体形状を求めることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The shape acquisition means deforms at least one basic figure based on the image feature quantity and the graphic information to fit the subject, and deforms and fits the basic figure and the subject. An image processing apparatus that obtains a three-dimensional shape of the subject based on a degree of similarity.
請求項2に記載の画像処理装置において、
前記形状取得手段は、前記画像特徴量を用いて、前記被写体を形成する面および前記面の配置を求め、前記画像特徴量および求められた前記面の配置に基づいて、前記少なくとも1つの基本図形を変形し合わせ込むことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The shape acquisition means uses the image feature amount to determine a surface forming the subject and the arrangement of the surface, and based on the image feature amount and the determined arrangement of the surface, the at least one basic figure An image processing apparatus characterized by deforming and combining.
請求項3に記載の画像処理装置において、
前記撮像画像から前記面に対応する画像領域の部分画像を前記面の模様として抽出する画像抽出手段を備え、
前記形状取得手段は、前記撮像画像が複数の場合、前記画像抽出手段により抽出された前記部分画像に基づいて、一の前記撮像画像における面が他の前記撮像画像における面と同一か否かを判定し、前記被写体を形成する面の配置を求める
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
Image extraction means for extracting a partial image of an image region corresponding to the surface from the captured image as a pattern of the surface;
In the case where there are a plurality of the captured images, the shape acquisition unit determines whether a surface in one captured image is the same as a surface in another captured image based on the partial image extracted by the image extraction unit. An image processing apparatus comprising: determining and determining an arrangement of a surface on which the subject is formed.
請求項2ないし請求項4のいずれか1項に記載の画像処理装置において、
前記形状取得手段は、前記度合いが最も大きい基本図形またはその組み合わせを前記被写体の立体形状とすることを特徴とすることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 2 to 4,
The image processing apparatus according to claim 1, wherein the shape acquisition means sets the basic figure having the highest degree or a combination thereof as the three-dimensional shape of the subject.
請求項2ないし請求項4のいずれか1項に記載の画像処理装置において、
ユーザからの指示を受け付ける操作部材と、
表示手段と、を備え、
前記形状取得手段は、前記複数の基本図形のうち、前記被写体の立体形状の候補となる基本図形またはその組み合わせを、前記度合いに応じて前記表示手段に表示し、前記ユーザによる前記操作部材の操作によって選択された基本図形またはその組み合わせを前記被写体の立体形状とする
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 2 to 4,
An operation member for receiving an instruction from the user;
Display means,
The shape acquisition means displays, on the display means, a basic figure that is a candidate for the three-dimensional shape of the subject, or a combination thereof, among the plurality of basic figures, and operates the operation member by the user. An image processing apparatus characterized in that the basic figure selected by (2) or a combination thereof is a three-dimensional shape of the subject.
請求項1ないし請求項6のいずれか1項に記載の画像処理装置において、
前記撮像画像は、前記被写体の撮像時の撮像情報が付加され、
前記形状取得手段は、前記撮像情報に基づいて前記被写体の大きさを算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
Imaging information at the time of imaging the subject is added to the captured image,
The shape processing means calculates the size of the subject based on the imaging information.
被写体を撮像して撮像画像を生成する撮像部と、
請求項1ないし請求項8のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates a captured image;
An image processing apparatus according to any one of claims 1 to 8,
An imaging apparatus comprising:
請求項8に記載の撮像装置において、
前記撮像画像に前記被写体の撮像時の撮像情報を付加する情報付加手段を備える
ことを特徴とする撮像装置。
The imaging device according to claim 8,
An image pickup apparatus comprising: information addition means for adding image pickup information at the time of image pickup of the subject to the picked-up image.
被写体を撮像した少なくとも1つの撮像画像から前記被写体の画像特徴量を抽出する特徴量抽出手順、
前記画像特徴量と複数の基本図形それぞれの立体形状の図形情報とに基づいて、前記被写体の立体形状を求める形状取得手順、
をコンピュータに実行させることを特徴とする画像処理プログラム。
A feature amount extraction procedure for extracting an image feature amount of the subject from at least one captured image obtained by imaging the subject;
A shape acquisition procedure for obtaining the three-dimensional shape of the subject based on the image feature amount and the graphic information of the three-dimensional shape of each of the plurality of basic figures;
An image processing program for causing a computer to execute.
JP2012073100A 2012-03-28 2012-03-28 Image processing device, imaging device, and image processing program Pending JP2013206035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012073100A JP2013206035A (en) 2012-03-28 2012-03-28 Image processing device, imaging device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012073100A JP2013206035A (en) 2012-03-28 2012-03-28 Image processing device, imaging device, and image processing program

Publications (1)

Publication Number Publication Date
JP2013206035A true JP2013206035A (en) 2013-10-07

Family

ID=49525067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012073100A Pending JP2013206035A (en) 2012-03-28 2012-03-28 Image processing device, imaging device, and image processing program

Country Status (1)

Country Link
JP (1) JP2013206035A (en)

Similar Documents

Publication Publication Date Title
KR101396743B1 (en) An image processing device, an image processing method, and a recording medium
TWI292472B (en)
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
JP5725975B2 (en) Imaging apparatus and imaging method
US20100238325A1 (en) Image processor and recording medium
TW201331693A (en) Image capturing apparatus and image processing method
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
CN111935398B (en) Image processing method and device, electronic equipment and computer readable medium
JP2008118387A (en) Imaging device
JP5952782B2 (en) Image processing apparatus, control method therefor, program, and storage medium
JP2009168536A (en) Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2013225779A (en) Image processing device, imaging device, and image processing program
JP2019169985A (en) Image processing apparatus
JP2014116789A (en) Photographing device, control method therefor, and program
JP2022036153A (en) Imaging apparatus
JP2013206035A (en) Image processing device, imaging device, and image processing program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2010016693A (en) Electronic camera
JP2017028606A (en) Imaging apparatus
JP2012186538A (en) Electronic camera, image display device, program, and recording medium
JP2013182478A (en) Subject tracking device, subject tracking method, and camera
JP6642661B2 (en) Imaging device
JP2002058046A (en) Imaging system and three-dimensional camera