JP2010199898A - Image processor, imaging apparatus, image generation method and program - Google Patents

Image processor, imaging apparatus, image generation method and program Download PDF

Info

Publication number
JP2010199898A
JP2010199898A JP2009041519A JP2009041519A JP2010199898A JP 2010199898 A JP2010199898 A JP 2010199898A JP 2009041519 A JP2009041519 A JP 2009041519A JP 2009041519 A JP2009041519 A JP 2009041519A JP 2010199898 A JP2010199898 A JP 2010199898A
Authority
JP
Japan
Prior art keywords
image
captured image
imaging
dimensional
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009041519A
Other languages
Japanese (ja)
Inventor
Masao Sanhongi
正雄 三本木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009041519A priority Critical patent/JP2010199898A/en
Publication of JP2010199898A publication Critical patent/JP2010199898A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate three-dimensional images from captured images. <P>SOLUTION: A detection part 400 detects an imaging position and an imaging direction during the imaging operation of an imaging part 100. A control part 210 acquires numerical map data corresponding to the imaging position from numerical map data stored in a storage part 250, and generates three-dimensional modeling data to be the same angle as the captured image on the basis of the detected imaging direction. The control part 210 extracts an object image from the captured image on the basis of the generated three-dimensional modeling data, maps it on the three-dimensional modeling data and thus generates the three-dimensional image using the captured image. The control part 210 specifies a light source direction or the like during imaging, records it as a light illumination condition, and when changing a view point in the generated three-dimensional image, calculates a light illumination state on the basis of the light illumination condition and performs rendering. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、撮像装置、画像生成方法、および、プログラムに関し、特に、3次元画像の生成に好適な画像処理装置、撮像装置、画像生成方法、および、プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image generation method, and a program, and more particularly, to an image processing device, an imaging device, an image generation method, and a program suitable for generating a three-dimensional image.

CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサを用いて撮像画像を生成するデジタルカメラが広く普及している。   Digital cameras that generate captured images using an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) are widely used.

デジタルカメラにおいては、撮像画像がデジタルデータとして得られるため、撮像時に種々の画像処理をおこなうことができる(例えば、特許文献1)。   In a digital camera, since a captured image is obtained as digital data, various image processing can be performed during imaging (for example, Patent Document 1).

特開平11−355705号公報JP 11-355705 A

しかしながら、従来のデジタルカメラにおいては、レンズを通して得られた被写体像を平面のイメージセンサに結像させることで撮像画像を生成しているため、被写体に対しての距離情報がない。このため、一般的な単眼のデジタルカメラで撮像した画像から立体画像(3次元画像)を生成することができなかった。   However, in a conventional digital camera, a captured image is generated by forming a subject image obtained through a lens on a flat image sensor, and thus there is no distance information with respect to the subject. For this reason, it was not possible to generate a stereoscopic image (three-dimensional image) from an image captured by a general monocular digital camera.

本発明は、上記実状に鑑みてなされたものであり、撮像画像から3次元画像を生成することのできる画像処理装置、撮像装置、画像生成方法、および、プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, an image generation method, and a program that can generate a three-dimensional image from a captured image.

上記目的を達成するため、本発明の第1の観点にかかる画像処理装置は、
撮像動作によって生成された撮像画像を取得する撮像画像取得手段と、
前記撮像動作時の位置と方向を示す位置情報と方向情報とを取得し、前記撮像画像取得手段が取得した前記撮像画像に対応づけて記録する撮像時情報取得手段と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得手段が取得した前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリング手段と、
前記モデリング手段が生成した3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention provides:
Captured image acquisition means for acquiring a captured image generated by the imaging operation;
Image capturing time information acquisition means for acquiring position information and direction information indicating the position and direction during the image capturing operation, and recording the information in association with the captured image acquired by the captured image acquisition means;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired by the map information acquisition unit. Means,
3D image generation means for mapping the captured image to 3D modeling data generated by the modeling means to generate a 3D image;
It is characterized by providing.

上記画像処理装置において、
前記3次元画像生成手段は、
前記撮像画像を構成しているオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が検出したオブジェクトを示すオブジェクト画像を当該撮像画像から抽出するオブジェクト画像抽出手段と、
をさらに備えていることが望ましく、この場合、
前記オブジェクト画像抽出手段が抽出したオブジェクト画像を前記3次元モデリングデータにマッピングすることで前記3次元画像を生成することが望ましい。
In the image processing apparatus,
The three-dimensional image generation means includes
Object detection means for detecting an object constituting the captured image;
Object image extraction means for extracting an object image indicating the object detected by the object detection means from the captured image;
In this case,
It is preferable that the three-dimensional image is generated by mapping the object image extracted by the object image extraction unit to the three-dimensional modeling data.

上記画像処理装置において、
前記3次元画像生成手段は、
前記撮像動作時の照光条件を特定する照光条件特定手段と、
前記照光条件特定手段が特定した照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工する画像加工手段と、をさらに備えていることが望ましい。
In the image processing apparatus,
The three-dimensional image generation means includes
An illumination condition specifying means for specifying an illumination condition during the imaging operation;
It is desirable to further include image processing means for processing an image to be mapped to the three-dimensional modeling data based on the illumination condition specified by the illumination condition specifying means.

上記目的を達成するため、本発明の第2の観点にかかる撮像装置は、
撮像時の位置を検出する位置検出手段と、
撮像時の方向を検出する方向検出手段と、
前記位置検出手段が検出した位置を示す位置情報と、前記方向検出手段が検出した方向を示す方向情報とを、当該撮像によって得られた撮像画像と対応づけて記憶する記憶手段と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記地図情報取得手段が取得した数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成し、該3次元モデリングデータに当該撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to a second aspect of the present invention provides:
Position detecting means for detecting a position at the time of imaging;
Direction detection means for detecting the direction during imaging;
Storage means for storing position information indicating the position detected by the position detection means and direction information indicating the direction detected by the direction detection means in association with a captured image obtained by the imaging;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Based on the position information and the direction information associated with the captured image, and the numerical map data acquired by the map information acquisition unit, three-dimensional modeling data corresponding to the captured image is generated, and the 3 3D image generation means for mapping the captured image to 3D modeling data to generate a 3D image;
It is characterized by providing.

上記撮像装置は、
前記数値地図データを格納する地図情報格納手段をさらに備えていることが望ましく、この場合、
前記地図情報取得手段は、前記地図情報格納手段から数値地図データを取得することが望ましい。
The imaging apparatus is
It is desirable to further comprise map information storage means for storing the numerical map data, in this case,
The map information acquisition means preferably acquires numerical map data from the map information storage means.

上記撮像装置において、
前記3次元画像生成手段は、前記撮像画像を構成しているオブジェクトを検出して抽出し、該抽出したオブジェクト画像を前記3次元モデリングデータにマッピングして前記3次元画像を生成することが望ましい。
In the imaging apparatus,
Preferably, the three-dimensional image generation means detects and extracts an object constituting the captured image, maps the extracted object image to the three-dimensional modeling data, and generates the three-dimensional image.

上記撮像装置において、
前記3次元画像生成手段は、撮像時の照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工することが望ましい。
In the imaging apparatus,
The three-dimensional image generation means preferably processes an image to be mapped to the three-dimensional modeling data based on illumination conditions at the time of imaging.

上記目的を達成するため、本発明の第3の観点にかかる画像生成方法は、
画像処理装置が3次元画像を生成するための画像生成方法であって、
前記画像処理装置が、
撮像動作によって生成された撮像画像を取得する撮像画像取得ステップと、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記撮像画像取得ステップで取得された前記撮像画像に対応づけて記録する撮像時情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得ステップで取得された前記数値地図データとに基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリングステップと、
前記モデリングステップで生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成ステップと、
を含むことを特徴とする。
In order to achieve the above object, an image generation method according to a third aspect of the present invention includes:
An image generation method for an image processing apparatus to generate a three-dimensional image,
The image processing apparatus is
A captured image acquisition step of acquiring a captured image generated by the imaging operation;
An imaging time information acquisition step of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording in association with the captured image acquired in the captured image acquisition step;
Based on the position information associated with the captured image, a map information acquisition step of acquiring numerical map data of the imaging location;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired in the map information acquisition step. Steps,
A 3D image generation step of generating a 3D image by mapping the captured image onto the 3D modeling data generated in the modeling step;
It is characterized by including.

上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
撮像装置によって得られた撮像画像に画像処理をおこなう画像処理装置を制御するコンピュータに、
撮像動作によって生成された撮像画像を取得する機能と、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記取得した撮像画像に対応づけて記録する機能と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、該取得された前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実行させることを特徴とする。
In order to achieve the above object, a program according to the fourth aspect of the present invention is:
A computer that controls an image processing apparatus that performs image processing on a captured image obtained by the imaging apparatus;
A function of acquiring a captured image generated by the imaging operation;
A function of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording the information in association with the acquired captured image;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
Is executed.

上記目的を達成するため、本発明の第5の観点にかかるプログラムは、
撮像時の位置と方向を検出する検出手段を備えた撮像装置を制御するコンピュータに、
前記検出手段が検出した位置および方向を示す位置情報および方向情報を、当該撮像によって得られた撮像画像と対応づけて記憶装置に記憶させる機能と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記取得された数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実現させることを特徴とする。
In order to achieve the above object, a program according to the fifth aspect of the present invention is:
To a computer that controls an imaging apparatus provided with detection means for detecting the position and direction at the time of imaging,
A function of storing position information and direction information indicating the position and direction detected by the detection unit in a storage device in association with a captured image obtained by the imaging;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image, and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
It is characterized by realizing.

本発明によれば、撮像画像から3次元画像を生成することができる。   According to the present invention, a three-dimensional image can be generated from a captured image.

本発明の実施形態にかかるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera concerning embodiment of this invention. 図1に示す制御部によって実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved by the control part shown in FIG. 本発明の実施形態にかかる「撮像時3D画像生成処理」を説明するためのフローチャートである。It is a flowchart for demonstrating "3D image generation process at the time of imaging" concerning embodiment of this invention. 図3に示す「撮像時3D画像生成処理」で処理される画像の例を示す図であり、(a)は撮像画像の例を示し、(b)は生成されたモデリングデータの例を示す。It is a figure which shows the example of the image processed by the "3D image generation process at the time of imaging" shown in FIG. 3, (a) shows the example of a captured image, (b) shows the example of the generated modeling data. 図3に示す「撮像時3D画像生成処理」で抽出されるオブジェクト画像を説明するための図であり、(a)は撮像画像の例を示し、(b)〜(d)は撮像画像から抽出されたオブジェクト画像の例を示す。FIG. 4 is a diagram for explaining an object image extracted by the “3D image generation process during imaging” illustrated in FIG. 3, where (a) illustrates an example of a captured image, and (b) to (d) are extracted from the captured image. An example of the obtained object image is shown.

本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。   Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the present invention is realized by a digital still camera (hereinafter referred to as a digital camera) is illustrated.

図1は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、撮像部100、データ処理部200、インタフェース(I/F)部300、検出部400、などである。   FIG. 1 is a block diagram showing a configuration of a digital camera 1 according to an embodiment of the present invention. The schematic configuration of the digital camera 1 according to the present embodiment includes an imaging unit 100, a data processing unit 200, an interface (I / F) unit 300, a detection unit 400, and the like as illustrated.

撮像部100は、デジタルカメラ1の撮像動作をおこなう部分であり、図1に示すように、光学装置110やイメージセンサ部120などから構成されている。   The imaging unit 100 is a part that performs an imaging operation of the digital camera 1, and includes an optical device 110, an image sensor unit 120, and the like as shown in FIG.

光学装置110は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置110の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。なお、光学装置110に含まれるシャッタ機構はいわゆるメカニカルシャッタであり、イメージセンサの動作のみでシャッタ動作をおこなう場合には、光学装置110にシャッタ機構が含まれていなくてもよい。また、光学装置110は、後述する制御部210による制御によって動作する。   The optical device 110 includes, for example, a lens, a diaphragm mechanism, a shutter mechanism, and the like, and performs an optical operation related to imaging. In other words, the operation of the optical device 110 collects incident light and adjusts optical elements related to the angle of view, focus, exposure, and the like, such as focal length, aperture, and shutter speed. Note that the shutter mechanism included in the optical device 110 is a so-called mechanical shutter, and when the shutter operation is performed only by the operation of the image sensor, the optical device 110 may not include the shutter mechanism. The optical device 110 operates under the control of the control unit 210 described later.

イメージセンサ部120は、光学装置110によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部120は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。   The image sensor unit 120 generates an electrical signal corresponding to the incident light collected by the optical device 110, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). (Semiconductor) image sensor. The image sensor unit 120 performs photoelectric conversion to generate an electrical signal corresponding to the received light and output it to the data processing unit 200.

データ処理部200は、撮像部100による撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図1に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。   The data processing unit 200 processes the electrical signal generated by the imaging operation by the imaging unit 100 to generate digital data indicating the captured image, and performs image processing on the captured image. As shown in FIG. 1, the data processing unit 200 includes a control unit 210, an image processing unit 220, an image memory 230, an image output unit 240, a storage unit 250, an external storage unit 260, and the like.

制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。   The control unit 210 includes, for example, a processor such as a CPU (Central Processing Unit), a main storage device (memory) such as a RAM (Random Access Memory), and the like. Each part of the digital camera 1 is controlled by executing the stored program. Further, in the present embodiment, by executing a predetermined program, a function related to each process described later is realized by the control unit 210.

画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、イメージセンサ部120によって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。   The image processing unit 220 includes, for example, an ADC (Analog-Digital Converter), a buffer memory, an image processing processor (so-called image processing engine), and the like, and is generated by the image sensor unit 120. Based on the electrical signal, digital data indicating the captured image is generated.

すなわち、イメージセンサ部120から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、バッファされたデジタルデータに対し、画像処理エンジンがいわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。   That is, when the analog electric signal output from the image sensor unit 120 is converted into a digital signal by the ADC and sequentially stored in the buffer memory, the image processing engine performs so-called development processing on the buffered digital data. Adjust image quality and compress data.

画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。   The image memory 230 includes, for example, a storage device such as a RAM or a flash memory, and temporarily stores captured image data generated by the image processing unit 220, image data processed by the control unit 210, and the like.

画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。   The image output unit 240 includes, for example, an RGB signal generation circuit and the like, converts the image data expanded in the image memory 230 into an RGB signal and the like, and outputs the RGB signal to a display screen (a display unit 310 to be described later).

記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムや処理に必要となるパラメータや演算式などが記憶部250に格納されているものとする。   The storage unit 250 includes a storage device such as a ROM (Read Only Memory) or a flash memory, and stores programs and data necessary for the operation of the digital camera 1. In the present embodiment, it is assumed that the operation program executed by the control unit 210 and the like, parameters and arithmetic expressions necessary for the processing are stored in the storage unit 250.

外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データなどを格納する。   The external storage unit 260 includes a storage device that can be attached to and detached from the digital camera 1 such as a memory card, and stores image data captured by the digital camera 1.

インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図1に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。   The interface unit 300 has a configuration related to an interface between the digital camera 1 and its user or an external device. As shown in FIG. 1, the display unit 310, an external interface (I / F) unit 320, an operation unit 330, etc. Consists of

表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。   The display unit 310 includes, for example, a liquid crystal display device, and displays and outputs various screens necessary for operating the digital camera 1, live view images at the time of shooting, captured images, and the like. In the present embodiment, display output of a captured image or the like is performed based on an image signal (RGB signal) from the image output unit 240.

外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、外部のコンピュータ装置への画像データの出力や、外部のモニタ装置への撮像画像の表示出力などをおこなう。また、外部インタフェース部320は、例えば、通信ネットワークを介して外部のコンピュータ装置などと通信するためのインタフェースを備えていてもよい。この場合、例えば、無線LANモジュールなどを外部インタフェース部320に含めることができ、無線LANアクセスポイントとの無線通信によって、インターネットなどに接続できるようにしてもよい。   The external interface unit 320 includes, for example, a USB (Universal Serial Bus) connector, a video output terminal, and the like, and performs output of image data to an external computer device, display output of a captured image to an external monitor device, and the like. . In addition, the external interface unit 320 may include an interface for communicating with an external computer device or the like via a communication network, for example. In this case, for example, a wireless LAN module or the like may be included in the external interface unit 320 and may be connected to the Internet or the like by wireless communication with a wireless LAN access point.

操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。   The operation unit 330 includes various buttons configured on the outer surface of the digital camera 1, generates an input signal corresponding to an operation by the user of the digital camera 1, and inputs the input signal to the control unit 210. As buttons constituting the operation unit 330, for example, a shutter button for instructing a shutter operation, a mode button for designating an operation mode of the digital camera 1, a cross key and a function button for performing various settings, and the like Is included.

検出部400は、撮像時のデジタルカメラ1の位置および方向を検出するためのものであり、図1に示すように、位置検出部410と、方向検出部420と、から構成される。   The detection unit 400 is for detecting the position and direction of the digital camera 1 at the time of imaging, and includes a position detection unit 410 and a direction detection unit 420 as shown in FIG.

位置検出部410は、撮像動作時のデジタルカメラ1の位置を検出するためのものであり、例えば、GPS(Global Positioning System:全地球測位システム)モジュールなどから構成される。この場合、位置検出部410は、デジタルカメラ1の位置を示す座標情報をGPS機能によって取得する。   The position detection unit 410 is for detecting the position of the digital camera 1 at the time of an imaging operation, and includes, for example, a GPS (Global Positioning System) module. In this case, the position detection unit 410 acquires coordinate information indicating the position of the digital camera 1 by the GPS function.

方向検出部420は、撮像動作時の撮像方向を検出するためのものであり、例えば、地磁気センサや角速度センサなどを含んだ3軸方位センサから構成され、デジタルカメラ1の撮像方向を検出する。この場合、例えば、地磁気センサなどによって撮像方向となっている方位(方位角)を検出し、角速度センサなどによって撮像方向の上下角度(仰角)を検出する。すなわち、方向検出部420によって、デジタルカメラ1の撮像方向が3次元方向で検出される。この場合、光学装置110を構成しているレンズの光軸方向が検出されるよう設定されているものとする。   The direction detection unit 420 is for detecting the imaging direction at the time of the imaging operation, and is composed of, for example, a three-axis azimuth sensor including a geomagnetic sensor and an angular velocity sensor, and detects the imaging direction of the digital camera 1. In this case, for example, the azimuth (azimuth angle) in the imaging direction is detected by a geomagnetic sensor or the like, and the vertical angle (elevation angle) in the imaging direction is detected by an angular velocity sensor or the like. That is, the direction detection unit 420 detects the imaging direction of the digital camera 1 in a three-dimensional direction. In this case, it is assumed that the optical axis direction of the lens constituting the optical device 110 is set to be detected.

このような構成のデジタルカメラ1においては、記憶部250に格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図2を参照して説明する。   In the digital camera 1 having such a configuration, the control unit 210 executes the operation program stored in the storage unit 250 to realize each process described later. In this case, the control unit 210 implements each process. The function will be described with reference to FIG.

図2は、制御部210によって実現される機能を示した機能ブロック図である。ここでは、デジタルカメラ1の撮像動作で得られた撮像画像から3次元画像を生成する動作を実現するために必要な機能構成を示す。この場合、図示するように、制御部210は、動作モード処理部211、撮像制御部212、検出情報取得部213、地図情報取得部214、3次元画像生成部215、などとして機能する。   FIG. 2 is a functional block diagram illustrating functions realized by the control unit 210. Here, a functional configuration necessary for realizing an operation of generating a three-dimensional image from a captured image obtained by the imaging operation of the digital camera 1 is shown. In this case, as illustrated, the control unit 210 functions as an operation mode processing unit 211, an imaging control unit 212, a detection information acquisition unit 213, a map information acquisition unit 214, a three-dimensional image generation unit 215, and the like.

動作モード処理部211は、表示部310との協働により、デジタルカメラ1が有する各種動作モードをデジタルカメラ1のユーザに指定させるために必要な画面表示や指定された動作モード毎の設定画面表示などをおこなう他、操作部330との協働により、ユーザが指定した動作モードを認識し、当該動作モードの実行に必要なプログラムや演算式などを記憶部250から読み出して制御部210の主記憶装置(メモリ)にロードする。本実施形態では、デジタルカメラ1での撮像時に撮像画像から3次元画像(3D画像)を生成する動作モード(以下、「3Dモード」とする)が用意されているものとし、3Dモードの選択が動作モード処理部211によって認識された場合に、以下の各機能が制御部210によって実現される。   The operation mode processing unit 211 cooperates with the display unit 310 to display screens necessary for the user of the digital camera 1 to specify various operation modes of the digital camera 1 and setting screen displays for each specified operation mode. In addition, the operation mode designated by the user is recognized in cooperation with the operation unit 330, and a program or an arithmetic expression necessary for executing the operation mode is read from the storage unit 250 to store the main memory of the control unit 210. Load to device (memory). In the present embodiment, it is assumed that an operation mode (hereinafter referred to as “3D mode”) for generating a three-dimensional image (3D image) from a captured image at the time of imaging with the digital camera 1 is prepared, and the selection of the 3D mode is performed. When recognized by the operation mode processing unit 211, the following functions are realized by the control unit 210.

撮像制御部212は、シャッタボタンが操作されたことによる操作部330からの入力信号などに応じて撮像部100を制御することで、デジタルカメラ1での撮像動作を実行する。ここで、撮像部100の撮像動作による撮像画像は、画像処理部220による処理の後、画像メモリ230に展開されるが、撮像画像のファイル形式は、例えば、Exif(Exchangeable Image File Format)であるものとし、撮像画像の画像データとともに撮像動作時のパラメータが記録されるものとする。本実施形態では、少なくとも、撮像画像の画角を示すパラメータ(例えば、レンズ焦点距離)が記録されているものとする。   The imaging control unit 212 executes the imaging operation in the digital camera 1 by controlling the imaging unit 100 according to an input signal from the operation unit 330 when the shutter button is operated. Here, a captured image obtained by the imaging operation of the imaging unit 100 is developed in the image memory 230 after being processed by the image processing unit 220. The file format of the captured image is, for example, Exif (Exchangeable Image File Format). It is assumed that the parameters at the time of the imaging operation are recorded together with the image data of the captured image. In the present embodiment, it is assumed that at least a parameter indicating the angle of view of the captured image (for example, a lens focal length) is recorded.

検出情報取得部213は、検出部400を制御し、3Dモード下での撮像動作時に位置検出部410と方向検出部420を動作させ、それぞれの検出結果を示す検出情報を取得し、撮像画像の画像データと対応づけて記録する。この場合、例えば、Exifフォーマットで記録されるパラメータの一部として記録する。また、検出情報には、撮像時に位置検出部410が検出したデジタルカメラ1の位置(緯度・経度)を示す位置情報と、方向検出部420が検出した撮像方向を示す方向情報が含まれる。   The detection information acquisition unit 213 controls the detection unit 400, operates the position detection unit 410 and the direction detection unit 420 during the imaging operation under the 3D mode, acquires detection information indicating the respective detection results, and acquires the captured image. Record in association with image data. In this case, for example, it is recorded as a part of parameters recorded in the Exif format. The detection information includes position information indicating the position (latitude / longitude) of the digital camera 1 detected by the position detection unit 410 at the time of imaging, and direction information indicating the imaging direction detected by the direction detection unit 420.

地図情報取得部214は、撮像画像に対応づけられている位置情報に基づいて、特定された撮像位置に対応する数値地図データを取得する。本実施形態では、数値地図データが記憶部250に予め格納されているものとし、地図情報取得部214は、撮像位置に対応する数値地図データを記憶部250から取得する。なお、本実施形態で用いられる数値地図データには、地図画像を示す数値地図データ(例えば、「数値地図25000(地図画像)」(国土地理院)など)や、標高データを含んだメッシュデータ(例えば、「数値地図5mメッシュ(標高)」(国土地理院)など)が含まれているものとする。   The map information acquisition unit 214 acquires numerical map data corresponding to the specified imaging position based on the position information associated with the captured image. In the present embodiment, it is assumed that the numerical map data is stored in the storage unit 250 in advance, and the map information acquisition unit 214 acquires the numerical map data corresponding to the imaging position from the storage unit 250. The numerical map data used in the present embodiment includes numerical map data indicating a map image (for example, “numerical map 25000 (map image)” (Geographical Survey Institute)) or mesh data including altitude data ( For example, it is assumed that “numerical map 5 m mesh (elevation)” (Geographical Survey Institute) is included.

3次元画像生成部215は、地図情報取得部214が取得した数値地図データと撮像画像を用いて3次元画像を生成する。この場合、3次元画像生成部215は、当該撮像画像の撮像時に検出された撮像位置と撮像方向、撮像パラメータが示すレンズ焦点距離などに基づいて、撮像画像と同じアングルとなるモデリングデータ(3次元モデリングデータ)を数値地図データから生成し、撮像画像をマッピングテクスチャとしてモデリングデータにマッピングすることで、撮像画像に対応した3次元画像の生成をおこなう。また、3次元画像生成部215は、生成した3次元画像における照光条件を設定し、設定した照光条件に応じたレンダリングなどをおこなう。   The three-dimensional image generation unit 215 generates a three-dimensional image using the numerical map data acquired by the map information acquisition unit 214 and the captured image. In this case, the three-dimensional image generation unit 215 performs modeling data (three-dimensional) that has the same angle as the captured image based on the imaging position and imaging direction detected when the captured image is captured, the lens focal length indicated by the imaging parameter, and the like. Modeling data) is generated from the numerical map data, and the captured image is mapped to the modeling data as a mapping texture, thereby generating a three-dimensional image corresponding to the captured image. The three-dimensional image generation unit 215 sets illumination conditions in the generated three-dimensional image, and performs rendering according to the set illumination conditions.

以上が制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図2に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。   The above is the function realized by the control unit 210. In the present embodiment, each function described above is realized by a logical process performed by the control unit 210 executing a program. These functions are, for example, ASIC (Application Specific Integrated Circuit). Or an integrated circuit). In this case, among the functions shown in FIG. 2, the functions related to image processing may be realized by the image processing unit 220.

以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。   The configuration of the digital camera 1 described above is a configuration necessary for realizing the present invention, and a configuration used for a basic function and various additional functions as a digital camera is provided as necessary. .

このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、3Dモードが選択されている場合に、撮像動作で得られた撮像画像から3次元画像を生成する「撮像時3D画像生成処理」を、図3に示すフローチャートを参照して説明する。この「撮像時3D画像生成処理」は、デジタルカメラ1のユーザが操作部330を操作することで、デジタルカメラ1の動作モードを3Dモードに設定したことを契機に開始される。なお、本実施形態にかかる3次元画像生成は、風景写真のような屋外での撮影によって得られる撮像画像に適用することが好適であるため、本実施形態では、このような撮影の際に3Dモードが設定されることを想定する。   The operation of the digital camera 1 having such a configuration will be described below. Here, “3D image generation processing during imaging” for generating a three-dimensional image from a captured image obtained by the imaging operation when the 3D mode is selected will be described with reference to the flowchart shown in FIG. This “3D image generation process during imaging” is started when the user of the digital camera 1 operates the operation unit 330 to set the operation mode of the digital camera 1 to the 3D mode. Note that the 3D image generation according to the present embodiment is preferably applied to a captured image obtained by outdoor shooting such as a landscape photograph. Therefore, in the present embodiment, 3D Assume that the mode is set.

処理が開始されると、動作モード処理部211により、3Dモードが設定された旨が検出情報取得部213に通知される。そして、デジタルカメラ1のユーザによるシャッタボタンの操作で生成された入力信号が制御部210に入力されると(ステップS101:Yes)、撮像制御部212は、撮像部100を制御して撮像動作を実行させる。撮像部100の撮像動作で生成された電気信号が画像処理部220での処理を経ることで撮像画像が生成され、画像メモリ230に展開される(ステップS102)。   When the process is started, the operation mode processing unit 211 notifies the detection information acquisition unit 213 that the 3D mode has been set. When the input signal generated by the user operating the shutter button by the user of the digital camera 1 is input to the control unit 210 (step S101: Yes), the imaging control unit 212 controls the imaging unit 100 to perform the imaging operation. Let it run. A captured image is generated by the electrical signal generated by the imaging operation of the imaging unit 100 being processed by the image processing unit 220, and is developed in the image memory 230 (step S102).

ここで、シャッタ操作を検出したと同時に、撮像制御部212は、その旨を検出情報取得部213に通知する。撮像制御部212からの通知に応じて、検出情報取得部213は、検出部400の位置検出部410と方向検出部420を制御し、シャッタ操作がなされた時点でのデジタルカメラ1の位置と方向を検出させ、検出結果を示す位置情報と方向情報とを取得する(ステップS103)。   Here, at the same time when the shutter operation is detected, the imaging control unit 212 notifies the detection information acquisition unit 213 to that effect. In response to the notification from the imaging control unit 212, the detection information acquisition unit 213 controls the position detection unit 410 and the direction detection unit 420 of the detection unit 400, and the position and direction of the digital camera 1 at the time when the shutter operation is performed. To detect position information and direction information indicating the detection result (step S103).

検出情報取得部213は、検出部400から位置情報と方向情報を検出すると、画像メモリ230に展開されている撮像画像にこれらを対応づける(ステップS104)。ここでは、例えば、撮像画像のExifデータとして位置情報と方向情報を付加する。   When the detection information acquisition unit 213 detects the position information and the direction information from the detection unit 400, the detection information acquisition unit 213 associates these with the captured image developed in the image memory 230 (step S104). Here, for example, position information and direction information are added as Exif data of a captured image.

撮像時の位置と方向を示した位置情報と方向情報を取得すると、検出情報取得部213は、その旨を地図情報取得部214に通知する。ここでは、例えば、当該撮像画像を特定する情報(ファイル名など)を地図情報取得部214に通知する。   When the position information and the direction information indicating the position and direction at the time of imaging are acquired, the detection information acquisition unit 213 notifies the map information acquisition unit 214 to that effect. Here, for example, the map information acquisition unit 214 is notified of information (such as a file name) specifying the captured image.

地図情報取得部214は、検出情報取得部213からの通知に応じて画像メモリ230に展開されている当該撮像画像にアクセスし、この撮像画像に対応づけられている位置情報を参照する。本実施形態では、GPSによって位置検出をおこなっているので、記録された位置情報は、撮像時におけるデジタルカメラ1の緯度・経度を示している。地図情報取得部214は、記憶部250に格納されている数値地図データにアクセスし、参照した位置情報(緯度・経度)に対応する数値地図データを取得し、例えば、制御部210のメモリに展開する(ステップS105)。   The map information acquisition unit 214 accesses the captured image developed in the image memory 230 in response to the notification from the detection information acquisition unit 213, and refers to the position information associated with the captured image. In the present embodiment, since position detection is performed by GPS, the recorded position information indicates the latitude and longitude of the digital camera 1 at the time of imaging. The map information acquisition unit 214 accesses the numerical map data stored in the storage unit 250, acquires the numerical map data corresponding to the referenced position information (latitude / longitude), and develops it in the memory of the control unit 210, for example. (Step S105).

ここで、数値地図データには標高データが含まれているため、特定された緯度・経度が示す地点の標高も特定することができるので、地図情報取得部214は、このようにして特定した標高情報を、撮像画像に対応づけられている位置情報に追加する。すなわち、3次元空間座標を示す位置情報によって撮像位置(地点)が示されることになる。   Here, since the altitude data is included in the numerical map data, the altitude at the point indicated by the specified latitude / longitude can also be specified, so the map information acquisition unit 214 determines the altitude specified in this way. The information is added to the position information associated with the captured image. That is, an imaging position (point) is indicated by position information indicating three-dimensional space coordinates.

撮像位置の数値地図データを取得すると、地図情報取得部214は、その旨を3次元画像生成部215に通知する。この場合、地図情報取得部214は、例えば、取得した数値地図データと特定するためのメモリ上のアドレスなどを3次元画像生成部215に通知する。   When the numerical map data of the imaging position is acquired, the map information acquisition unit 214 notifies the three-dimensional image generation unit 215 to that effect. In this case, the map information acquisition unit 214 notifies the three-dimensional image generation unit 215 of, for example, the acquired numerical map data and an address on the memory for specifying.

3次元画像生成部215は、地図情報取得部214から通知された数値地図データを使ったモデリングをおこなう。この場合、3次元画像生成部215は、3次元画像生成にかかる既知の手法によってモデリングをおこなうことで、例えば、ポリゴンモデリングなどによるモデリングデータ(3次元モデリングデータ)を生成する。   The 3D image generation unit 215 performs modeling using the numerical map data notified from the map information acquisition unit 214. In this case, the three-dimensional image generation unit 215 generates modeling data (three-dimensional modeling data) by, for example, polygon modeling by performing modeling using a known technique for generating a three-dimensional image.

モデリングをおこなうにあたり、3次元画像生成部215は、撮像画像に対応づけられている方向情報、および、撮像パラメータとして記録されている画角を示す情報(レンズ焦点距離など)を、パラメータとして3次元モデリングデータを生成する(ステップS106)。   In performing modeling, the three-dimensional image generation unit 215 uses the direction information associated with the captured image and the information indicating the angle of view recorded as the imaging parameter (such as the lens focal length) as a three-dimensional parameter. Modeling data is generated (step S106).

つまり、撮像位置(地点)を示す3次元座標を、数値地図データによって再現される疑似3次元空間内にあてはめ、そこから、方向情報が示す方向で撮像時の画角となるよう視点を設定することで、撮像画像と同じアングルとなるモデリングデータが生成される。例えば、図4(a)に示すような撮像画像である場合、この撮像時に得られた位置情報、方向情報、および、画角のパラメータから生成されるモデリングデータは、図4(b)に示すような撮像画像と同じアングルのものとなる。   In other words, the three-dimensional coordinates indicating the imaging position (point) are applied to the pseudo three-dimensional space reproduced by the numerical map data, and the viewpoint is set so as to obtain the angle of view at the time of imaging in the direction indicated by the direction information. Thus, modeling data having the same angle as the captured image is generated. For example, in the case of a captured image as shown in FIG. 4A, the modeling data generated from the position information, direction information, and angle-of-view parameters obtained at the time of imaging is shown in FIG. 4B. It becomes a thing of the same angle as such a captured image.

このように生成されたモデリングデータは、数値地図データから生成されているので、モデリングデータ内では各種のオブジェクト(例えば、山岳、河川、湖沼などのような地形を形成している自然物、建造物や道路などのような地図情報として含まれうる人工物など)が識別可能となっている。ここで、図4に示したように、撮像画像と同じアングルとなるモデリングデータを生成しているので、モデリングデータを2次元平面上に投影した画像と撮像画像との間で、画像サイズや解像度を同一にしたり、画像間で座標変換をおこなったりすることで、同じ座標系で処理することができる。このため、モデリングデータ上で認識されるオブジェクトに対応する部分を撮像画像上で特定することができる。   Since modeling data generated in this way is generated from numerical map data, various objects in the modeling data (for example, natural objects, buildings, etc. that form terrain such as mountains, rivers, lakes, etc.) Artifacts that can be included as map information such as roads) can be identified. Here, as shown in FIG. 4, since modeling data having the same angle as the captured image is generated, the image size and resolution between the image obtained by projecting the modeling data on the two-dimensional plane and the captured image are determined. Can be processed in the same coordinate system by making them the same or performing coordinate transformation between images. For this reason, the part corresponding to the object recognized on modeling data can be specified on a captured image.

3次元画像生成部215は、このような方法によって撮像画像上でオブジェクト部分を特定すると、各オブジェクトを示す画像領域(オブジェクト画像)を抽出する(ステップS107)。抽出されるオブジェクト画像の例を図5に示す。図示するように、図5(a)に示す撮像画像から、図5(b)〜図5(d)に示すようなオブジェクト画像が抽出される。ここで、オブジェクト画像の抽出では、輝度情報などに基づいて範囲選択をおこなう既知の手法(例えば、フラッドフィルなど)を用い、モデリングデータから特定された各オブジェクトの座標位置での範囲選択をおこなう。   When the three-dimensional image generation unit 215 specifies the object part on the captured image by such a method, the three-dimensional image generation unit 215 extracts an image region (object image) indicating each object (step S107). An example of the extracted object image is shown in FIG. As illustrated, object images as illustrated in FIGS. 5B to 5D are extracted from the captured image illustrated in FIG. Here, in the extraction of the object image, a known method (for example, flood fill or the like) that performs range selection based on luminance information or the like is used to select a range at the coordinate position of each object specified from the modeling data.

このようにして撮像画像からオブジェクト画像を抽出すると、3次元画像生成部215は、抽出したオブジェクト画像をマッピングテクスチャとするマッピングをおこなう。すなわち、ステップS106で生成したモデリングデータ(図4(b))に、ステップS107で撮像画像から抽出したオブジェクト画像をマッピングする(ステップS108)。これにより、撮像画像を用いた3D画像(3次元画像)が生成される。   When the object image is extracted from the captured image in this way, the three-dimensional image generation unit 215 performs mapping using the extracted object image as a mapping texture. That is, the object image extracted from the captured image in step S107 is mapped to the modeling data generated in step S106 (FIG. 4B) (step S108). Thereby, a 3D image (three-dimensional image) using the captured image is generated.

このように生成された3D画像は、撮像画像と同じアングルとなるモデリングデータに撮像画像をマッピングしたものであるから、マッピングされた画像は、撮像時の照光状態(光源方向や減衰など)が反映されたものである。   Since the 3D image generated in this way is obtained by mapping the captured image to modeling data having the same angle as the captured image, the mapped image reflects the illumination state (light source direction, attenuation, etc.) at the time of imaging. It has been done.

一方で、モデリングデータにマッピングテクスチャをマッピングするという一般的な3次元コンピュータグラフィクスの手法で生成されているので、各種のパラメータを変更することで、生成した3D画像の視点を変更することもできる。   On the other hand, since it is generated by a general three-dimensional computer graphics technique of mapping a mapping texture onto modeling data, the viewpoint of the generated 3D image can be changed by changing various parameters.

視点を変更した場合、光源方向なども変化するため、基準となる照光条件を設定する。ここでは、3次元画像生成部215が、撮像時の照光条件を設定し、生成した3D画像と対応づけて記録する(ステップS109)。   When the viewpoint is changed, the light source direction and the like also change, so a reference illumination condition is set. Here, the three-dimensional image generation unit 215 sets illumination conditions at the time of imaging, and records the illumination conditions in association with the generated 3D image (step S109).

本実施形態では、風景写真のような屋外での撮影によって得られた撮像画像を想定しているので、光源を太陽とする。よって、照光条件には、撮像時の太陽方向(方位角および仰角)を設定する。太陽の方向は、地球上の位置(緯度・経度)、年月日、時刻から求めることができるので、本処理で取得した位置情報(緯度・経度)と、Exifデータなどに通常記録される撮像日時情報に基づいて、撮像時の太陽方向を求めることができる。   In the present embodiment, since a captured image obtained by photographing outdoors such as a landscape photograph is assumed, the light source is the sun. Therefore, the sun direction (azimuth angle and elevation angle) at the time of imaging is set as the illumination condition. The sun's direction can be obtained from the position on the earth (latitude / longitude), date, and time, so the position information (latitude / longitude) acquired in this process and the image that is normally recorded in Exif data, etc. Based on the date and time information, the sun direction at the time of imaging can be obtained.

本実施形態では、緯度・経度、年月日、時刻から太陽方向を算出するための演算式が記憶部250に予め格納されているものとし、3次元画像生成部215は、位置情報が示す緯度・経度と撮像日時をこの演算式にあてはめて演算することで、撮像時の太陽方向を特定し、照光条件として設定する。   In the present embodiment, it is assumed that an arithmetic expression for calculating the sun direction from latitude / longitude, date, time, and time is stored in the storage unit 250 in advance, and the three-dimensional image generation unit 215 has a latitude indicated by the position information. By calculating the longitude and imaging date and time by applying this formula, the sun direction at the time of imaging is specified and set as an illumination condition.

ここで、ステップS108で生成した3D画像をデジタルカメラ1のユーザに視認させるため、3次元画像生成部215は、生成した3D画像を表示部310に表示させる。この場合、表示部310には、3D画像とともに、例えば、操作部330の十字キーなどで操作可能なスライダバーなどを表示する。このスライダバーは、表示された3D画像の視点変更を指示するためのもので、ユーザが視点変更を所望する場合には、操作部330を操作することでスライダバーを動かし、視点変更にかかる方向や移動量などを入力する。   Here, in order for the user of the digital camera 1 to visually recognize the 3D image generated in step S <b> 108, the three-dimensional image generation unit 215 displays the generated 3D image on the display unit 310. In this case, the display unit 310 displays a 3D image and, for example, a slider bar that can be operated with the cross key of the operation unit 330. This slider bar is for instructing to change the viewpoint of the displayed 3D image. When the user desires to change the viewpoint, the slider bar is moved by operating the operation unit 330 to change the direction of the viewpoint change. Enter the amount of movement.

このような操作にかかる入力信号が操作部330から制御部210に入力された場合、3次元画像生成部215は、視点変更操作がなされたと判別する(ステップS110:Yes)。この場合、3次元画像生成部215は、入力された視点変更の方向や移動量に応じて、モデリングデータのパラメータを変更し、指定された視点からのモデリングデータに変化させる。そして、変化させたモデリングデータに、ステップS107で抽出したオブジェクト画像をマッピングすることで3次元画像を生成するが、当初は撮像位置であった視点位置が変わったので、照光状態も変化している。   When an input signal related to such an operation is input from the operation unit 330 to the control unit 210, the three-dimensional image generation unit 215 determines that a viewpoint change operation has been performed (step S110: Yes). In this case, the three-dimensional image generation unit 215 changes the parameters of the modeling data in accordance with the input viewpoint change direction and movement amount, and changes the modeling data from the specified viewpoint. A three-dimensional image is generated by mapping the object image extracted in step S107 to the changed modeling data. However, since the viewpoint position that was the imaging position at the beginning has changed, the illumination state has also changed. .

よって、3次元画像生成部215は、ステップS109で設定した照光条件に基づいて、視点変更後の3D画像における照光パラメータを変更してレンダリングをおこなう(ステップS111)。この場合、照光条件として、撮像時の太陽方向が記録されているので、3次元画像生成部215は、視点変更による撮像方向に基づいて、当該3D画像での太陽方向を算出する。   Therefore, the three-dimensional image generation unit 215 performs rendering by changing the illumination parameter in the 3D image after changing the viewpoint based on the illumination condition set in step S109 (step S111). In this case, since the sun direction at the time of imaging is recorded as the illumination condition, the three-dimensional image generation unit 215 calculates the sun direction in the 3D image based on the imaging direction by the viewpoint change.

また、オブジェクト画像の抽出において、数値地図データから生成したモデリングデータからオブジェクトを認識していたので、モデリングデータの3次元座標空間における視点からオブジェクトまでの距離を算出することができる。よって、3次元画像生成部215は、変更した視点から各オブジェクトまでの距離をモデリングデータの3次元空間座標から算出する。   In the extraction of the object image, since the object is recognized from the modeling data generated from the numerical map data, the distance from the viewpoint to the object in the three-dimensional coordinate space of the modeling data can be calculated. Therefore, the three-dimensional image generation unit 215 calculates the distance from the changed viewpoint to each object from the three-dimensional space coordinates of the modeling data.

このようにして、視点変更後の3D画像における光源方向と、各オブジェクトまでの距離が算出されるので、3次元画像生成部215は、視点変更後のモデリングデータ上で、変更された光源方向と各オブジェクトまでの距離をパラメータとしたレンダリングをおこなうことで、マッピングする画像に対する照光状態を計算する。   Thus, since the light source direction in the 3D image after the viewpoint change and the distance to each object are calculated, the three-dimensional image generation unit 215 determines the changed light source direction on the modeling data after the viewpoint change. By performing rendering using the distance to each object as a parameter, the illumination state for the image to be mapped is calculated.

3次元画像生成部215は、計算した照光状態に応じて、マッピングするオブジェクト画像を加工する。この場合、各オブジェクト画像の輝度を変えることなどにより、視点変更後の照光状態を反映したマッピングテクスチャとする。   The three-dimensional image generation unit 215 processes the object image to be mapped according to the calculated illumination state. In this case, a mapping texture reflecting the illumination state after changing the viewpoint is obtained by changing the luminance of each object image.

3次元画像生成部215は、このように加工したオブジェクト画像をマッピングすることで、ユーザが指定した視点からの3D画像を生成する。この場合も、撮像画像から抽出したオブジェクト画像をマッピングテクスチャとしているので、撮像画像を用いつつ、撮像時とは異なるアングルからの3D画像が生成されることになる。   The three-dimensional image generation unit 215 generates a 3D image from the viewpoint designated by the user by mapping the object image processed in this way. Also in this case, since the object image extracted from the captured image is used as the mapping texture, a 3D image from an angle different from that at the time of imaging is generated while using the captured image.

このように、任意の視点変更指示に応じてパラメータを変更することで、あらゆるアングルからの3D画像とすることができる。よって、ユーザは、3D画像とともに表示されるスライダバーなどを随時操作することで、視点変化を何度でもおこなうことができる。   In this way, by changing the parameter according to an arbitrary viewpoint change instruction, a 3D image from any angle can be obtained. Therefore, the user can change the viewpoint as many times as necessary by operating a slider bar or the like displayed together with the 3D image.

ここで、生成した3D画像を保存する指示をユーザがおこなうまで、視点変更可能な状態とする(ステップS112:No)。そして、ユーザが操作部330を操作することなどによって、3D画像の保存を指示した場合(ステップS112:Yes)、3次元画像生成部215は、生成した3D画像を外部記憶部260などに保存する(ステップS113)。この場合、ステップS109で設定した照光条件を3D画像に対応づけて保存する。また、画像メモリ230に展開した撮像画像も、対応づけられている位置情報および方向情報とともに、3D画像と対応づけて外部記憶部260に保存する。   Here, the viewpoint can be changed until the user gives an instruction to save the generated 3D image (step S112: No). When the user instructs to save the 3D image by operating the operation unit 330 (step S112: Yes), the 3D image generation unit 215 stores the generated 3D image in the external storage unit 260 or the like. (Step S113). In this case, the illumination conditions set in step S109 are stored in association with the 3D image. The captured image developed in the image memory 230 is also stored in the external storage unit 260 in association with the 3D image together with the position information and the direction information associated with each other.

このようにして、撮像動作で得た撮像画像について、当該撮像画像を用いて生成した3D画像と当該撮像画像とが外部記憶部260に保存された後、所定の終了イベント(例えば、3Dモードの解除など)がなければ(ステップS114:No)、ステップS101以降の処理が繰り返しおこなわれ、次の撮像動作にかかる3D画像の生成がおこなわれる。   In this way, for the captured image obtained by the imaging operation, the 3D image generated using the captured image and the captured image are stored in the external storage unit 260, and then a predetermined end event (for example, in the 3D mode). If there is no cancellation, etc. (step S114: No), the processing after step S101 is repeated, and a 3D image related to the next imaging operation is generated.

そして、終了イベントの発生により本処理を終了する(ステップS114:Yes)。   Then, the process ends when an end event occurs (step S114: Yes).

以上説明したように、本発明を上記実施形態の如く適用することにより、撮像画像を用いた3次元画像の生成が実現される。   As described above, by applying the present invention as in the above embodiment, generation of a three-dimensional image using a captured image is realized.

この場合において、撮像画像とともに撮像位置や撮像方向を示す情報を取得することで、数値地図データを用いて撮像画像と同じアングルとなるモデリングをおこなうことができ、このモデリングデータに撮像画像をマッピングすることで、あたかも撮像画像を立体表示したような3次元画像を生成することができる   In this case, by obtaining information indicating the imaging position and the imaging direction together with the captured image, modeling with the same angle as the captured image can be performed using the numerical map data, and the captured image is mapped to the modeling data. As a result, it is possible to generate a three-dimensional image as if the captured image was stereoscopically displayed.

ここで、撮像画像をマッピングする際、撮像画像から抽出したオブジェクト画像をマッピングすることが望ましい。これにより、オブジェクト毎に撮影距離を算出することができるので、視点変更時にオブジェクト毎に照光状態を設定することができ、実際の撮像画像とは異なるアングルにした場合でも、適切なレンダリングをおこなうことができる。   Here, when mapping the captured image, it is desirable to map the object image extracted from the captured image. As a result, the shooting distance can be calculated for each object, so that the illumination state can be set for each object when the viewpoint is changed, and appropriate rendering is performed even when the angle is different from the actual captured image. Can do.

また、太陽を光源としている場合、撮像画像について取得された位置情報や方向情報、撮像日時などに基づいて撮像画像における光源方向を特定することができるので、このような撮像時の照光条件を特定することで、生成した3次元画像の視点を変化させた場合などでも、照光が適切になされた3次元画像とすることができる。   In addition, when the sun is used as the light source, the light source direction in the captured image can be specified based on the position information and direction information acquired for the captured image, the imaging date and time, etc., so the illumination conditions at the time of imaging are specified. Thus, even when the viewpoint of the generated three-dimensional image is changed, it is possible to obtain a three-dimensional image appropriately illuminated.

そして、撮像時の撮像位置や撮像方向を検出するGPSやセンサを搭載した撮像装置とすることで、撮像画像を用いた3次元画像を撮像したその場で生成することができる。   And it can produce | generate on the spot which imaged the three-dimensional image using the captured image by setting it as the imaging device carrying GPS and the sensor which detects the imaging position and imaging direction at the time of imaging.

この場合、3次元画像の生成に用いる数値地図データを撮像装置内に予め格納しておくことで、より短時間に3次元画像を生成することができる。   In this case, it is possible to generate a three-dimensional image in a shorter time by storing numerical map data used for generating a three-dimensional image in the imaging apparatus in advance.

上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。   The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.

例えば、上記実施形態では、記憶部250に予め格納してある数値地図データから、撮像位置に対応する数値地図データを取得するものとしたが、インターネットなどの通信ネットワークと接続することのできる撮像装置である場合、通信ネットワークを介した通信によって、外部装置から数値地図データを取得するようにしてもよい。   For example, in the above embodiment, the numerical map data corresponding to the imaging position is acquired from the numerical map data stored in advance in the storage unit 250. However, the imaging apparatus can be connected to a communication network such as the Internet. In this case, the numerical map data may be acquired from an external device by communication via a communication network.

また、本発明を上記実施形態で例示したデジタルカメラ1のような撮像装置で実現する場合においては、本発明にかかる構成や機能を予め備えた撮像装置として提供できる他、制御部210の各機能と同様の機能を実現するプログラムを適用することにより、既存の撮像装置を本発明にかかる撮像装置をして機能させることもできる。この場合、撮像時の撮像位置および撮像方向を検出する機能を有する撮像装置であれば、本発明の適用により、撮像画像を用いた3次元画像生成をおこなうことができる。   In the case where the present invention is realized by an imaging apparatus such as the digital camera 1 exemplified in the above embodiment, the configuration and functions according to the present invention can be provided as an imaging apparatus, and each function of the control unit 210 can be provided. By applying a program that realizes the same function as the above, it is possible to make an existing imaging device function as the imaging device according to the present invention. In this case, if the imaging apparatus has a function of detecting the imaging position and imaging direction at the time of imaging, the application of the present invention can generate a three-dimensional image using the captured image.

また、上記実施形態では、撮像装置として本発明を実現した場合を例示したが、撮像機能のない装置(例えば、パーソナルコンピュータなど)として本発明の画像処理装置を実現してもよい。   Moreover, although the case where this invention was implement | achieved as an imaging device was illustrated in the said embodiment, you may implement | achieve the image processing apparatus of this invention as an apparatus (for example, personal computer etc.) without an imaging function.

すなわち、上記実施形態では、本発明を撮像装置として実現した場合を例示したが、撮像時の撮像位置と撮像方向を示す情報を撮像画像とともに取得することができるのであれば、撮像装置以外の装置に本発明を適用することができる。   That is, in the above-described embodiment, the case where the present invention is realized as an imaging device is illustrated, but any device other than the imaging device can be used as long as information indicating the imaging position and imaging direction at the time of imaging can be acquired together with the captured image. The present invention can be applied to.

この場合も、プログラムを適用することで、既存の装置を本発明にかかる画像処理装置として機能させることができる。   Also in this case, by applying the program, an existing apparatus can be made to function as the image processing apparatus according to the present invention.

このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。   The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM or a memory card, or can be applied via a communication medium such as the Internet.

1…デジタルカメラ、100…撮像部、110…光学装置、120…イメージセンサ部、200…データ処理部、210…制御部、211…動作モード処理部、212…撮像制御部、213…検出情報取得部、214…地図情報取得部、215…3次元画像生成部、220…画像処理部、230…画像メモリ、240…画像出力部、250…記憶部、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部、400…検出部、410…位置検出部、420…方向検出部 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 100 ... Imaging part, 110 ... Optical apparatus, 120 ... Image sensor part, 200 ... Data processing part, 210 ... Control part, 211 ... Operation mode processing part, 212 ... Imaging control part, 213 ... Acquisition of detection information , 214 ... Map information acquisition unit, 215 ... 3D image generation unit, 220 ... Image processing unit, 230 ... Image memory, 240 ... Image output unit, 250 ... Storage unit, 260 ... External storage unit, 300 ... Interface unit, DESCRIPTION OF SYMBOLS 310 ... Display part, 320 ... External interface part, 330 ... Operation part, 400 ... Detection part, 410 ... Position detection part, 420 ... Direction detection part

Claims (10)

撮像動作によって生成された撮像画像を取得する撮像画像取得手段と、
前記撮像動作時の位置と方向を示す位置情報と方向情報とを取得し、前記撮像画像取得手段が取得した前記撮像画像に対応づけて記録する撮像時情報取得手段と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得手段が取得した前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリング手段と、
前記モデリング手段が生成した3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする画像処理装置。
Captured image acquisition means for acquiring a captured image generated by the imaging operation;
Image capturing time information acquisition means for acquiring position information and direction information indicating the position and direction during the image capturing operation, and recording the information in association with the captured image acquired by the captured image acquisition means;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired by the map information acquisition unit. Means,
3D image generation means for mapping the captured image to 3D modeling data generated by the modeling means to generate a 3D image;
An image processing apparatus comprising:
前記3次元画像生成手段は、
前記撮像画像を構成しているオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が検出したオブジェクトを示すオブジェクト画像を当該撮像画像から抽出するオブジェクト画像抽出手段と、
をさらに備え、
前記オブジェクト画像抽出手段が抽出したオブジェクト画像を前記3次元モデリングデータにマッピングすることで前記3次元画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
The three-dimensional image generation means includes
Object detection means for detecting an object constituting the captured image;
Object image extraction means for extracting an object image indicating the object detected by the object detection means from the captured image;
Further comprising
Mapping the object image extracted by the object image extraction means to the three-dimensional modeling data to generate the three-dimensional image;
The image processing apparatus according to claim 1.
前記3次元画像生成手段は、
前記撮像動作時の照光条件を特定する照光条件特定手段と、
前記照光条件特定手段が特定した照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工する画像加工手段と、をさらに備える、
ことを特徴とする請求項1または2に記載の画像処理装置。
The three-dimensional image generation means includes
An illumination condition specifying means for specifying an illumination condition during the imaging operation;
Image processing means for processing an image to be mapped to the three-dimensional modeling data based on the illumination condition specified by the illumination condition specifying means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
撮像時の位置を検出する位置検出手段と、
撮像時の方向を検出する方向検出手段と、
前記位置検出手段が検出した位置を示す位置情報と、前記方向検出手段が検出した方向を示す方向情報とを、当該撮像によって得られた撮像画像と対応づけて記憶する記憶手段と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記地図情報取得手段が取得した数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成し、該3次元モデリングデータに当該撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする撮像装置。
Position detecting means for detecting a position at the time of imaging;
Direction detection means for detecting the direction during imaging;
Storage means for storing position information indicating the position detected by the position detection means and direction information indicating the direction detected by the direction detection means in association with a captured image obtained by the imaging;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Based on the position information and the direction information associated with the captured image, and the numerical map data acquired by the map information acquisition unit, three-dimensional modeling data corresponding to the captured image is generated, and the 3 3D image generation means for mapping the captured image to 3D modeling data to generate a 3D image;
An imaging apparatus comprising:
前記数値地図データを格納する地図情報格納手段をさらに備え、
前記地図情報取得手段は、前記地図情報格納手段から数値地図データを取得する、
ことを特徴とする請求項4に記載の撮像装置。
Map information storage means for storing the numerical map data;
The map information acquisition means acquires numerical map data from the map information storage means;
The imaging apparatus according to claim 4.
前記3次元画像生成手段は、前記撮像画像を構成しているオブジェクトを検出して抽出し、該抽出したオブジェクト画像を前記3次元モデリングデータにマッピングして前記3次元画像を生成する、
ことを特徴とする請求項4または5に記載の撮像装置。
The three-dimensional image generation means detects and extracts an object constituting the captured image, maps the extracted object image to the three-dimensional modeling data, and generates the three-dimensional image.
The imaging apparatus according to claim 4 or 5, wherein
前記3次元画像生成手段は、撮像時の照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工する、
ことを特徴とする請求項4乃至6のいずれか1項に記載の撮像装置。
The three-dimensional image generation means processes an image to be mapped to the three-dimensional modeling data based on illumination conditions at the time of imaging.
The image pickup apparatus according to claim 4, wherein the image pickup apparatus is an image pickup apparatus.
画像処理装置が3次元画像を生成するための画像生成方法であって、
前記画像処理装置が、
撮像動作によって生成された撮像画像を取得する撮像画像取得ステップと、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記撮像画像取得ステップで取得された前記撮像画像に対応づけて記録する撮像時情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得ステップで取得された前記数値地図データとに基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリングステップと、
前記モデリングステップで生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成ステップと、
を含むことを特徴とする画像生成方法。
An image generation method for an image processing apparatus to generate a three-dimensional image,
The image processing apparatus is
A captured image acquisition step of acquiring a captured image generated by the imaging operation;
An imaging time information acquisition step of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording in association with the captured image acquired in the captured image acquisition step;
Based on the position information associated with the captured image, a map information acquisition step of acquiring numerical map data of the imaging location;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired in the map information acquisition step. Steps,
A 3D image generation step of generating a 3D image by mapping the captured image onto the 3D modeling data generated in the modeling step;
An image generation method comprising:
撮像装置によって得られた撮像画像に画像処理をおこなう画像処理装置を制御するコンピュータに、
撮像動作によって生成された撮像画像を取得する機能と、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記取得した撮像画像に対応づけて記録する機能と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、該取得された前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実行させることを特徴とするプログラム。
A computer that controls an image processing apparatus that performs image processing on a captured image obtained by the imaging apparatus;
A function of acquiring a captured image generated by the imaging operation;
A function of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording the information in association with the acquired captured image;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
A program characterized by having executed.
撮像時の位置と方向を検出する検出手段を備えた撮像装置を制御するコンピュータに、
前記検出手段が検出した位置および方向を示す位置情報および方向情報を、当該撮像によって得られた撮像画像と対応づけて記憶装置に記憶させる機能と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記取得された数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実現させることを特徴とするプログラム。
In a computer that controls an imaging apparatus provided with a detecting means for detecting a position and a direction at the time of imaging,
A function of storing position information and direction information indicating the position and direction detected by the detection unit in a storage device in association with a captured image obtained by the imaging;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image, and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
A program characterized by realizing.
JP2009041519A 2009-02-24 2009-02-24 Image processor, imaging apparatus, image generation method and program Pending JP2010199898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009041519A JP2010199898A (en) 2009-02-24 2009-02-24 Image processor, imaging apparatus, image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009041519A JP2010199898A (en) 2009-02-24 2009-02-24 Image processor, imaging apparatus, image generation method and program

Publications (1)

Publication Number Publication Date
JP2010199898A true JP2010199898A (en) 2010-09-09

Family

ID=42824168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009041519A Pending JP2010199898A (en) 2009-02-24 2009-02-24 Image processor, imaging apparatus, image generation method and program

Country Status (1)

Country Link
JP (1) JP2010199898A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112785678A (en) * 2019-11-09 2021-05-11 李本彦 Sunshine analysis method and system based on three-dimensional simulation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141655A (en) * 2003-11-10 2005-06-02 Olympus Corp Three-dimensional modeling apparatus and three-dimensional modeling method
JP2008017223A (en) * 2006-07-06 2008-01-24 Casio Comput Co Ltd Imaging apparatus, guide display method of imaging apparatus, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005141655A (en) * 2003-11-10 2005-06-02 Olympus Corp Three-dimensional modeling apparatus and three-dimensional modeling method
JP2008017223A (en) * 2006-07-06 2008-01-24 Casio Comput Co Ltd Imaging apparatus, guide display method of imaging apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112785678A (en) * 2019-11-09 2021-05-11 李本彦 Sunshine analysis method and system based on three-dimensional simulation
CN112785678B (en) * 2019-11-09 2023-12-12 李本彦 Sunlight analysis method and system based on three-dimensional simulation

Similar Documents

Publication Publication Date Title
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
WO2012001947A1 (en) Imaging device, image processing device, image processing program recording medium
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2013027021A (en) Omnidirectional imaging device and omnidirectional imaging method
JP5279636B2 (en) Imaging device
JP5750696B2 (en) Display device and display program
JP2006279135A (en) Starry-sky photographic device camera and method for photographing starry sky and program
JP6016516B2 (en) Image processing apparatus, control method therefor, image processing program, and imaging apparatus
JP5440366B2 (en) Image processing apparatus and method, and program
JP6685814B2 (en) Imaging device and control method thereof
JP2010199898A (en) Image processor, imaging apparatus, image generation method and program
JP6714819B2 (en) Image display system, information processing device, image display method, and image display program
JP2017069911A (en) Imaging system, composition setting apparatus and composition setting program
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP5753514B2 (en) Image display device and computer program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2012227717A (en) Display device, display program, and display method
JP6062029B2 (en) Imaging apparatus, imaging system, imaging method, and imaging program
JP5543636B2 (en) Imaging device
JP2019087984A (en) Information processing apparatus, imaging system, program
WO2022181056A1 (en) Imaging device, information processing method, and program
JP5911307B2 (en) Imaging device
KR101205961B1 (en) Apparatus for caculating 3D spatial coordinates of digital images
JP2011193170A (en) Imaged image display device, imaged image display method, and electronic map output by the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131112