JP6639832B2 - Imaging device, imaging method, imaging program - Google Patents

Imaging device, imaging method, imaging program Download PDF

Info

Publication number
JP6639832B2
JP6639832B2 JP2015165867A JP2015165867A JP6639832B2 JP 6639832 B2 JP6639832 B2 JP 6639832B2 JP 2015165867 A JP2015165867 A JP 2015165867A JP 2015165867 A JP2015165867 A JP 2015165867A JP 6639832 B2 JP6639832 B2 JP 6639832B2
Authority
JP
Japan
Prior art keywords
imaging
image
unit
blind spot
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015165867A
Other languages
Japanese (ja)
Other versions
JP2017046106A (en
Inventor
寿一 林
寿一 林
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015165867A priority Critical patent/JP6639832B2/en
Publication of JP2017046106A publication Critical patent/JP2017046106A/en
Application granted granted Critical
Publication of JP6639832B2 publication Critical patent/JP6639832B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、建築物等の撮影画像から簡単に当該建築物の俯瞰図データ、見取り図データを作成すると共に撮像ガイド情報を生成する撮像装置と、その撮像方法及び撮像プログラムに関するものである。   The present invention relates to an imaging apparatus that easily creates bird's-eye view data and floor plan data of a building from a captured image of the building and generates imaging guide information, and an imaging method and an imaging program thereof.

従来、撮像光学系により結像された光学像を光電変換素子等(以下、撮像素子という)を用いて順次光電変換し、得られた画像信号を所定の形態のデジタル画像データとして記憶媒体に記録すると共に、当該デジタル画像データに基いて静止画像又は動画像を表示する画像表示装置等を備えて構成された撮像装置が一般に実用化され広く普及している。   2. Description of the Related Art Conventionally, an optical image formed by an imaging optical system is sequentially photoelectrically converted using a photoelectric conversion element or the like (hereinafter, referred to as an imaging element), and an obtained image signal is recorded on a storage medium as digital image data of a predetermined form. In addition, an imaging device configured to include an image display device or the like that displays a still image or a moving image based on the digital image data has been practically used and widely used.

従来の撮像装置は、各種の行事(イベント)における一連の行為や、工事,作業等の経過,工程等を撮像対象として、複数の画像(写真)を順次記録する等の用途に利用されることがある。具体的には、例えば結婚式等の各種行事の記録や、土木構造物や建築物等の建設工事の経過記録等のほか、工作物の製造作業の工程の記録等がある。   2. Description of the Related Art Conventional imaging devices are used for purposes such as sequentially recording a plurality of images (photographs) with a series of actions at various events, progress of construction and work, processes, and the like as imaging targets. There is. Specifically, there are, for example, records of various events such as weddings, progress records of construction works such as civil engineering structures and buildings, and records of manufacturing work processes.

また、従来、この種の撮像装置を用いて取得した画像データ、例えば対象物の全体像を撮像した二次元画像データから二次元平面図(例えば見取り図等)を作成したり、同様に二次元画像データから三次元データを生成するための種々の装置が、例えば特開2001−033246号公報,特開2004−280196号公報等によって提案され、また実用化されている。   Conventionally, a two-dimensional plan view (for example, a sketch drawing) is created from image data acquired by using this type of imaging device, for example, two-dimensional image data obtained by capturing the entire image of an object, Various devices for generating three-dimensional data from data have been proposed and put into practical use, for example, in JP-A-2001-033246 and JP-A-2004-280196.

例えば、特開2001−033246号公報によって開示されている装置は、平面上の形状や大きさが既知の多角形が含まれる被写体像を基に、その被写体像の撮像位置を算出し、算出された撮像位置の情報を参照して被写体像から二次元平面図を作成するというものである。   For example, an apparatus disclosed in Japanese Patent Application Laid-Open No. 2001-033246 calculates an imaging position of a subject image based on the subject image including a polygon having a known shape and size on a plane. A two-dimensional plan view is created from the subject image with reference to the information on the imaging position.

また、特開2004−280196号公報によって開示されている装置は、二次元画像に基いて、撮像された部屋等の空間を有する被写体に関し、コンピュータ上の三次元データを生成するというものである。   An apparatus disclosed in Japanese Patent Application Laid-Open No. 2004-280196 generates three-dimensional data on a computer for a subject having a space such as a room in which the image is taken, based on a two-dimensional image.

特開2001−033246号公報JP 2001-033246 A 特開2004−280196号公報JP 2004-280196 A

ところで、従来の撮像装置等によって取得される画像は、個々のシーンの思い出の記録のみならず、様々なシーンにおいて状況記録に重要な役割を果たしている。ところが、個々のシーンにおいて取得された画像データと、実際の対象物の関連とが不明になってしまうことがあり、ユーザーへの分かりやすい補助が重要になっている。   By the way, an image acquired by a conventional imaging device or the like plays an important role not only in recording memories of individual scenes but also in various scenes. However, the relationship between the image data acquired in each scene and the actual target may become unclear, and easy-to-understand assistance to the user is important.

また、従来の撮像装置が用いられる用途において、例えば各種の行事(イベント)や、工事,作業等の記録用途では、個々の行事(イベント)又は工事毎に大量の画像データが取得されることになる。そして、取得された大量の画像データは、取捨選択された上で、各イベントの流れや工程,経過等、時系列的に若しくは関連事項毎に分類され、系統立てて並べる等の整理が施されることになる。これらの整理分類作業は、従来、撮像装置を取り扱う撮影者等による人力に頼っていた。この場合においても、取得された画像データと、実際の対象物の関連とが不明になったりすることがあり、後日の画像データの整理分類作業に支障を来す場合があった。   In addition, in applications where a conventional imaging apparatus is used, for example, in various applications (events) or recording applications such as construction and work, a large amount of image data is acquired for each individual event (event) or construction. Become. Then, the acquired large amount of image data is sorted and sorted, such as the flow, process, progress, etc. of each event, in a time series or per related matter, and arranged in a systematic manner. Will be. Conventionally, these sorting and classifying operations have relied on human power by a photographer or the like who handles the imaging apparatus. Also in this case, the relationship between the acquired image data and the actual object may become unknown, which may hinder the sorting and sorting of the image data at a later date.

しかしながら、例えば上記特開2001−033246号公報,上記特開2004−280196号公報等によって開示されている従来技術等では、対象物の全体像の二次元画像データから二次元平面図の見取り図データ等を作成すると共に、これに基いて以降の一連の撮像ガイド情報を生成し表示させるが、これらは、画像から得られた情報の見せ方を変換したものにすぎない。   However, in the prior art disclosed in, for example, JP-A-2001-033246 and JP-A-2004-280196, sketch drawing data of a two-dimensional plan view and the like are obtained from two-dimensional image data of an entire image of an object. Is generated, and a series of subsequent imaging guide information is generated and displayed based on this. However, these are merely conversions of how information obtained from an image is displayed.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、分かりやすく、失敗のない撮像動作の補助を行う撮像ガイド情報を生成することにより、ユーザーの作業性を向上させ得る機能を備えた撮像装置と、その撮像方法及び撮像プログラムを提供することである。   The present invention has been made in view of the above points, and has as its object the purpose of generating imaging guide information for assisting an imaging operation that is easy to understand and does not fail, thereby improving user's workability. An object of the present invention is to provide an imaging device having a function that can be improved, an imaging method thereof, and an imaging program.

上記目的を達成するために、本発明の一態様の撮像装置は、構造物の光学像を受けて画像データを生成する撮像部と、上記撮像部によって生成された画像データに基づいて画像を表示する表示部と、上記構造物の輪郭を判定する輪郭判定部と、上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測し、上記検出した輪郭線の交点及び上記予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成する領域特定部と、上記撮影ガイド情報を上記表示部に表示させる表示制御部と、を有し、上記領域特定部は、上記特定した構造物の撮像推奨領域のうち上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定する。 In order to achieve the above object, an imaging device according to one embodiment of the present invention includes an imaging unit that receives an optical image of a structure and generates image data, and displays an image based on the image data generated by the imaging unit. A display unit to perform, a contour determination unit that determines the contour of the structure, and an intersection of a plurality of contours of the contour of the structure to predict the shape of the structure, and an intersection of the detected contour. And, based on the predicted shape of the structure, the imaging recommendation area of the structure is specified , and in the imaging operation for the individual structures in the imaging recommendation area, the necessary imaging is imaged without omission. An area specifying unit that generates imaging guide information for guiding to obtain, and a display control unit that causes the display unit to display the imaging guide information, wherein the area specifying unit recommends imaging of the identified structure. Out of the area The blind spot area, which is a surface of a photographable structure that is a blind spot that is not photographed in the image data obtained by receiving the optical image of the structure, is a line where the contour generated by contacting the floor, ceiling or wall surface intersects the rear area includes you guess set as blind spot section.

本発明の一態様の撮像方法は、構造物の光学像を受けて画像データを生成するステップと、上記生成された画像データに基づいて画像を表示するステップと、上記構造物の輪郭を判定するステップと、上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測する検出・予測ステップと、上記検出・予測ステップにおいて検出した輪郭線の交点及び予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記特定した構造物の撮像推奨領域のうち、上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定して、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成する領域特定ステップと、撮影ガイド情報を表示するステップと、を含む。 An imaging method according to one embodiment of the present invention includes the steps of: receiving an optical image of a structure to generate image data; displaying an image based on the generated image data; and determining an outline of the structure A step, a detection / prediction step of detecting the intersection of a plurality of contours of the contour of the structure and predicting the shape of the structure, and an intersection of the contour detected in the detection / prediction and the predicted structure. The imaging recommendation area of the structure is specified based on the shape of the above , and among the imaging recommendation areas of the specified structure, the blind spot which is not captured in the image data obtained by receiving the optical image of the structure is obtained. the surface is a blind area of the recordable structures, guess by setting the rear area of the contour resulting in contact with the floor or ceiling or wall skilled comprises lines which intersect the blind section, the imaging recommended area In the imaging operation of the definitive individual structures an imaging target, an area specifying step of generating shooting guide information for guiding so as imaged without omission imaging in need, and displaying the photographed guide information, the Including.

本発明の一態様の撮像プログラムは、構造物の光学像を受けて画像データを生成し、上記生成された画像データに基づいて画像を表示し、上記構造物の輪郭を判定し、上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測し、上記検出した輪郭線の交点及び予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記特定した構造物の撮像推奨領域のうち、上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定し、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成し、撮影ガイド情報を表示する撮像方法をコンピュータに実行させる。 An imaging program according to one embodiment of the present invention receives an optical image of a structure, generates image data, displays an image based on the generated image data, determines an outline of the structure, The intersection of a plurality of outlines of the outline is detected to predict the shape of the structure, and based on the intersection of the detected outline and the predicted shape of the structure, an imaging recommendation area of the structure is specified . Of the imaging recommendation areas of the specified structure, a blind spot area that is a surface of a photographable structure that is a blind spot that is not photographed in image data obtained by receiving an optical image of the structure, a floor or a ceiling or The back side of the plane including the line where the contour arising from contact with the wall surface intersects is set as a blind spot , and the necessary imaging is performed in the imaging operation with the individual structures in the imaging recommended area as the imaging target. Take without omission It generates shooting guide information for guiding so as to, to execute the imaging method to display the shooting guide information to the computer.

本発明によれば、分かりやすく、失敗のない撮像動作の補助を行う撮像ガイド情報を生成することにより、ユーザーの作業性を向上させ得る機能を備えた撮像装置と、その撮像方法及び撮像プログラムを提供することである。   According to the present invention, there is provided an imaging apparatus having a function capable of improving the workability of a user by generating imaging guide information for assisting an imaging operation that is easy to understand and without failure, and an imaging method and an imaging program for the imaging apparatus. To provide.

本発明の第1の実施形態の撮像装置(カメラ)の主な構成を示すブロック構成図FIG. 1 is a block diagram illustrating a main configuration of an imaging device (camera) according to a first embodiment of the present invention. 図1の撮像装置(カメラ)を用いて撮像動作を行なう際の状況を示す概念図FIG. 1 is a conceptual diagram showing a situation when an imaging operation is performed using the imaging device (camera) of FIG. 1. 図2の撮像状況下で取得される補助データ(見取り図データ)の表示例Example of display of auxiliary data (floor view data) acquired under the imaging conditions in FIG. 図3の補助データ(見取り図データ)取得後の撮像動作を行う際の表示部の表示例Display example of the display unit when performing the imaging operation after the acquisition of the auxiliary data (drawing data) in FIG. 3 本発明の第1の実施形態の撮像装置(カメラ)のカメラ制御処理シーケンスを示すフローチャート(撮像モード)Flowchart showing a camera control processing sequence of the imaging device (camera) according to the first embodiment of the present invention (imaging mode) 本発明の第1の実施形態の撮像装置(カメラ)のカメラ制御処理シーケンスを示すフローチャート(撮像モード時以外)Flowchart showing a camera control processing sequence of the imaging apparatus (camera) according to the first embodiment of the present invention (other than in the imaging mode) 図5のカメラ制御処理シーケンスのうち死角予想処理(ステップS111)の詳細シーケンスを示すフローチャート5 is a flowchart showing a detailed sequence of a blind spot prediction process (step S111) in the camera control process sequence of FIG. 図1の撮像装置(カメラ)を用いて撮像動作を行った際に取得される画像データのファイル構造を簡略化して示す概念図FIG. 1 is a conceptual diagram showing a simplified file structure of image data acquired when an imaging operation is performed using the imaging device (camera) of FIG. 1. 本発明の第2の実施形態の撮像装置(カメラ)を用いて撮像動作を行なう際の状況を示す概念図A conceptual diagram showing a situation when performing an imaging operation using the imaging device (camera) of the second embodiment of the present invention. 図9の撮像状況下で取得される補助データ(見取り図データ)の表示例Display example of auxiliary data (floor plan data) acquired under the imaging conditions in FIG. 9 本発明の第2の実施形態の撮像装置(カメラ)における作用のうち死角予測処理(図5のステップS111の処理に相当する処理)の詳細を示すフローチャートA flowchart showing details of a blind spot prediction process (a process corresponding to the process of step S111 in FIG. 5) in the operation of the imaging device (camera) according to the second embodiment of the present invention.

以下、図示の実施の形態によって本発明を説明する。以下の説明に用いる各図面は模式的に示すものであり、各構成要素を図面上で認識可能な程度の大きさで示すために、各部材の寸法関係や縮尺等を各構成要素毎に異ならせて示している場合がある。したがって、本発明は、これら各図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率,各構成要素の相対的な位置関係等に関し、図示の形態のみに限定されるものではない。   Hereinafter, the present invention will be described with reference to the illustrated embodiments. Each drawing used in the following description is schematically shown, and in order to show each component in a size recognizable in the drawing, the dimensional relationship and scale of each member are different for each component. In some cases. Therefore, the present invention is limited to the illustrated form only with respect to the number of components, the shape of the components, the ratio of the size of the components, the relative positional relationship between the components, and the like described in these drawings. Not something.

以下に説明する本発明の各実施形態は、例えば撮像光学系により結像された光学像を、例えばCCD(Charge Coupled Device;電荷結合素子)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)型イメージセンサー等の光電変換素子等(以下、撮像素子という)を用いて順次光電変換し、これにより得られた画像信号を所定の形態の画像データ(例えば静止画像又は動画像を表わすデジタル画像データ)として記憶媒体に記録すると共に、この記憶媒体に記録されたデジタル画像データに基いて静止画像又は動画像を再生表示する画像表示装置、例えば液晶表示ディスプレイ(Liquid Crystal Display;LCD)や有機エレクトロルミネッセンス(有機EL;Organic Electro-Luminescence:OEL)ディスプレイ等を備えて構成された撮像装置、例えばデジタルカメラやビデオカメラ等(以下、単にカメラという)を例示するものである。   In each embodiment of the present invention described below, for example, an optical image formed by an imaging optical system is converted into, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor). A photoelectric conversion element or the like (hereinafter, referred to as an image pickup element) such as a film semiconductor) type image sensor or the like (hereinafter, referred to as an imaging element), and an obtained image signal is converted into image data in a predetermined form (for example, a still image or a moving image). An image display device that records the digital image data on a storage medium and reproduces and displays a still image or a moving image based on the digital image data recorded on the storage medium, such as a liquid crystal display (LCD) or Organic Electro-Luminescence (OEL) displays, etc. This is an example of an imaging device provided and configured, for example, a digital camera or a video camera (hereinafter, simply referred to as a camera).

なお、本発明を適用し得る撮像装置としてのカメラの形態は、特に限定された形態のものである必要はなく、一般に実用化されている種々のタイプのカメラに対して広く適用し得る。例えば、装置本体に対して撮像光学系を備えたレンズ鏡筒が一体に構成される形態のいわゆるレンズ一体型カメラや、装置本体に対してレンズ鏡筒が着脱自在に配設される形態のいわゆるレンズ交換式カメラ等の既存の形態のカメラのほか、例えば撮像機能及び画像記録機能を実現するための最低限の機能と外部機器との通信機能とを備えた撮像装置(レンズ鏡筒一体式でも交換式でもいずれの形態でも構わない)と、当該撮像装置を含む外部機器との間における通信機能を備えると共に各種の信号処理や制御処理を実行し得る機能を備えた通信制御機器、例えば一般に流通しているタブレット型コンピュータもしくはスマートフォンタイプの携帯電話等とを組み合わせて構築される撮像システム等に対して本発明は適用し得る。   The form of the camera as an imaging device to which the present invention can be applied does not need to be particularly limited, and can be widely applied to various types of cameras that are generally put into practical use. For example, a so-called lens-integrated camera in which a lens barrel provided with an imaging optical system is integrally formed with the apparatus main body, or a so-called lens-integrated camera in which the lens barrel is detachably mounted on the apparatus main body. In addition to existing forms of cameras such as interchangeable lens cameras, for example, an image pickup apparatus having a minimum function for realizing an image pickup function and an image recording function and a communication function with an external device (even with an integrated lens barrel). A communication control device having a communication function with an external device including the imaging device and a function capable of executing various signal processing and control processing, for example, a general distribution system. The present invention can be applied to an imaging system or the like constructed by combining a tablet computer or a smartphone type mobile phone.

上記撮像システムは、上記通信制御機器に導入したアプリケーションプログラムの作用によって、上記通信制御機器と上記撮像機器との間で相互通信を行なって、上記通信制御機器により上記撮像機器を制御して撮像動作を実行させたり、上記撮像装置により取得された画像データを上記撮像機器から上記制御機器へと通信機能を介して伝送し、上記通信制御機器において各種の信号処理を行ったり、これらの信号処理の結果得られた画像データ等を記録し得るように構成されるものである。   The imaging system performs mutual communication between the communication control device and the imaging device under the action of an application program introduced into the communication control device, controls the imaging device by the communication control device, and performs an imaging operation. Or transmit the image data obtained by the imaging device from the imaging device to the control device via a communication function, perform various signal processing in the communication control device, or perform these signal processing. It is configured so that image data and the like obtained as a result can be recorded.

まず、本発明の詳細を説明する前に、本発明が適用される撮像装置(カメラ)の概略構成について、主に図1を用いて以下に説明する。   First, before describing the details of the present invention, a schematic configuration of an imaging device (camera) to which the present invention is applied will be described below mainly with reference to FIG.

[第1の実施形態]
図1は、本発明の第1の実施形態の撮像装置(カメラ)の主な構成を示すブロック構成図である。なお、図1において、カメラ1の形態は、特に限定せずに図示している。
[First Embodiment]
FIG. 1 is a block diagram showing a main configuration of the imaging apparatus (camera) according to the first embodiment of the present invention. In FIG. 1, the form of the camera 1 is shown without any particular limitation.

本実施形態の撮像装置であるカメラ1は、撮像光学系により結像された対象物の光学像を受けて、これを光電変換して画像データを取得し、取得した画像データを記録し、又は画像として表示し得る構成を備えた画像再生記録装置である。   The camera 1 that is the imaging device of the present embodiment receives an optical image of an object formed by the imaging optical system, photoelectrically converts the optical image to obtain image data, records the obtained image data, or An image reproducing / recording apparatus having a configuration capable of displaying an image.

そのために、カメラ1は、図1に示すように、画像処理制御部11と、撮像部12と、通信部13と、記録部14と、操作判定部16と、姿勢センサ17aと、GPS17bと、方位センサ17cと、表示部18と、タッチパネル19等を有して構成されている。   For this purpose, as shown in FIG. 1, the camera 1 includes an image processing control unit 11, an imaging unit 12, a communication unit 13, a recording unit 14, an operation determination unit 16, an attitude sensor 17a, a GPS 17b, It has an orientation sensor 17c, a display unit 18, a touch panel 19 and the like.

画像処理制御部11は、中央処理装置(CPU)等を含んで構成される電子回路部である。画像処理制御部11は、撮像部12からの画像信号に対して所定の信号処理、例えば色信号生成処理やマトリックス変換処理等の各種のデジタル画像信号処理のほか、画像信号や音声信号等を記録するのに際して符号化処理を施したり、記録部14から記録済みの画像データ,音声データを読み出して復号化処理を施す等の各種の信号処理を行う画像信号処理部としての電子回路部と、当該カメラ1の全体的な動作制御を行う制御部としての電子回路部とを有して構成されている。この画像処理制御部11において実行されるソフトウエアプログラムは、記録部14若しくは別途設けられる不図示のROM(Read Only Memory)等に予め記憶されているものが用いられる。   The image processing control unit 11 is an electronic circuit unit including a central processing unit (CPU) and the like. The image processing control unit 11 records image signals, audio signals, and the like in addition to predetermined signal processing, for example, various digital image signal processing such as color signal generation processing and matrix conversion processing, for image signals from the imaging unit 12. An electronic circuit unit serving as an image signal processing unit that performs various signal processes such as performing an encoding process or reading out recorded image data and audio data from the recording unit 14 and performing a decoding process; An electronic circuit unit as a control unit for controlling the overall operation of the camera 1 is provided. As the software program executed in the image processing control unit 11, a program stored in advance in the recording unit 14 or a separately provided ROM (Read Only Memory) not shown is used.

画像処理制御部11は、表示制御部11aと、構造物輪郭判定部11bと、ガイド表示制御部11cと、死角予測部11dとを含んで構成されている。これら各構成部(11a,11b,11c,11d)等は、本カメラ1において特に用意されるハードウエア回路によって構成してもよいし、または、上記画像処理制御部11によって実行されるソフトウエアプログラムであってもよく、その形態は問わない。   The image processing control unit 11 includes a display control unit 11a, a structure contour determination unit 11b, a guide display control unit 11c, and a blind spot prediction unit 11d. Each of these components (11a, 11b, 11c, 11d) and the like may be constituted by a hardware circuit specifically prepared in the camera 1, or a software program executed by the image processing control unit 11 And the form is not limited.

表示制御部11aは、撮像部12によって取得された画像信号に基いて、上記画像処理制御部11によって表示用に生成された画像信号を受けて、これを画像として表示するために表示部18を制御する電子回路部である。   The display control unit 11a receives the image signal generated for display by the image processing control unit 11 based on the image signal acquired by the imaging unit 12, and displays the image signal on the display unit 18 to display the image signal as an image. It is an electronic circuit unit to be controlled.

構造物輪郭判定部11bは、撮像部12によって取得された画像信号に基いて、特定の撮像対象物の輪郭部分を判定する電子回路部である。   The structure contour determination unit 11b is an electronic circuit unit that determines a contour portion of a specific imaging target based on an image signal acquired by the imaging unit 12.

ガイド表示制御部11cは、所定のタイミングで表示部18の表示画面上に使用者(ユーザ)に対する使用上のアドバイスや警告,告知,報知等のガイド表示を行うための電子回路部である。   The guide display control unit 11c is an electronic circuit unit for performing guide display such as advice on use, warning, notification, and notification to the user (user) on the display screen of the display unit 18 at a predetermined timing.

死角予測部11dは、上記構造物輪郭判定部11bによる判定結果から、撮像対象としている対象構造物において、カメラ1から死角となる部位又は範囲等を予測する電子回路部である。ここで、死角とは、撮像対象としている対象構造物において、カメラ1のある位置からは見えない部位若しくは範囲である。   The blind spot prediction unit 11d is an electronic circuit unit that predicts, from the determination result by the structure outline determination unit 11b, a part or a range that is a blind spot from the camera 1 in the target structure to be imaged. Here, the blind spot is a part or range that cannot be seen from a certain position of the camera 1 in a target structure to be imaged.

上記死角予測部11dは、直方体予測部11eと、撮像面判定部11fとを有している。このうち、直方体予測部11eは、上記構造物輪郭判定部11bによる判定結果に基いて、撮像対象としている対象構造物の形状を予測する構造物形状予測部となる電子回路部である。ここで、構造物形状予測部としての直方体予測部11eは、撮像対象構造物の形状が直方体であることを予測する。   The blind spot prediction unit 11d includes a rectangular parallelepiped prediction unit 11e and an imaging plane determination unit 11f. Among them, the rectangular parallelepiped prediction unit 11e is an electronic circuit unit serving as a structure shape prediction unit that predicts the shape of the target structure to be imaged based on the determination result by the structure outline determination unit 11b. Here, the rectangular parallelepiped prediction unit 11e as the structure shape prediction unit predicts that the shape of the imaging target structure is a rectangular parallelepiped.

また、撮像面判定部11fは、上記直方体予測部11eにて予測される撮像対象構造物の直方体の各面のうち撮像し得ていない領域、即ち撮像を推奨する領域(具体的には死角部位,死角範囲)として特定して判定するための領域特定部となる電子回路部である。上記構造物の撮像推奨領域は、構造物を構成する直方体の面が露呈していて、撮影可能な状態の部位である。こうした露呈面は、経時変化などをモニタしやすく、のちのちまでに重要な評価項目になるので重要である。   In addition, the imaging plane determination unit 11f includes an area where imaging is not possible among the surfaces of the rectangular solid of the imaging target structure predicted by the rectangular parallelepiped prediction unit 11e, that is, an area where imaging is recommended (specifically, a blind spot part). , A blind spot range). The imaging recommendation area of the structure is a portion where the surface of the rectangular parallelepiped constituting the structure is exposed and is ready for imaging. Such an exposed surface is important because it is easy to monitor changes over time and becomes an important evaluation item later.

撮像部12は、光学レンズ等の撮像光学系等を含むレンズ鏡筒部(不図示)と、CCD(Charge Coupled Device;電荷結合素子)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)型イメージセンサー等の光電変換素子(撮像素子)等を含む電子回路部等によって構成される構成ユニットである。   The imaging unit 12 includes a lens barrel (not shown) including an imaging optical system such as an optical lens, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor), and a complementary metal oxide film. This is a configuration unit configured by an electronic circuit unit and the like including a photoelectric conversion element (imaging element) such as a semiconductor) image sensor.

撮像部12は、レンズ鏡筒部の撮像光学系(不図示)により撮像面に結像される光学像を受けて光電変換処理を行うことにより被写体像を含む静止画像又は動画像の画像信号を取得して、この画像信号を上記画像処理制御部11へと出力するように構成されている。撮像部12は、上記画像処理制御部11によって駆動制御される。つまり、画像処理制御部11は、撮像部12へと駆動信号を出力する一方、上記撮像部12によって取得された画像信号を取り込み、この画像信号に対して上記各種の信号処理を施して、所定の形態の画像データ、例えば静止画像又は動画像を表わすデジタル画像データを生成する。   The imaging unit 12 receives an optical image formed on an imaging surface by an imaging optical system (not shown) of the lens barrel unit and performs a photoelectric conversion process to convert an image signal of a still image or a moving image including a subject image. It is configured to acquire and output this image signal to the image processing control unit 11. The driving of the imaging unit 12 is controlled by the image processing control unit 11. That is, the image processing control unit 11 outputs a drive signal to the imaging unit 12, captures the image signal acquired by the imaging unit 12, performs various signal processing on the image signal, and performs predetermined signal processing. , For example, digital image data representing a still image or a moving image.

このようにして生成される画像データには、撮像光学系の画角情報や、撮像時の各種情報(被写体距離情報や露出情報等)等が関連付けられている。これら画像データに関連付けられた各種情報(画像データ関連報)は、画像データファイルに含めて記録される。なお、画像データ関連報としては、上述の形態のほか、画像データに関連付けされた別データファイルとして記録するような形態であってもよい。   The image data generated in this way is associated with angle-of-view information of the imaging optical system, various information at the time of imaging (subject distance information, exposure information, and the like), and the like. Various types of information (image data related information) associated with the image data are recorded in an image data file. It should be noted that the image data related information may be in a form recorded in another data file associated with the image data, in addition to the above-described form.

通信部13は、例えば無線通信機能によって外部機器(不図示)との間でデータ伝送を行ったり、外部機器(不図示)からの制御信号を受信したり、インターネット等の外部通信回線(不図示)に接続しこれを介して各種の外部データベース(不図示)等との間でデータ通信を行うために設けられる電子回路部である。   The communication unit 13 performs data transmission with an external device (not shown) using a wireless communication function, receives a control signal from the external device (not shown), and transmits data to an external communication line (not shown) such as the Internet. ), And an electronic circuit unit provided for performing data communication with various external databases (not shown) and the like via this.

記録部14は、所定の形態、例えば半導体メモリカード等の記録媒体(不図示)と、その駆動回路等を含んで構成され、画像処理制御部11の扱う画像データ,音声データ等を記録媒体に記録したり、画像処理制御部11が記録媒体に記録済みの同画像データ,音声データ等を読み出しを行なうための電子回路部である。なお、記録部14としては、カメラ1に対して着脱自在に構成される半導体メモリカード等の記憶媒体(不図示)に対応する形態のもののほか、カメラ1の内部電子基板上に固定される半導体メモリ等を記憶媒体として利用する形態のものとしてもよい。   The recording unit 14 is configured to include a recording medium (not shown) such as a semiconductor memory card and a drive circuit for the recording medium, and to store image data, audio data, and the like handled by the image processing control unit 11 in the recording medium. This is an electronic circuit unit for recording and for reading out the same image data, audio data and the like recorded on the recording medium by the image processing control unit 11. Note that the recording unit 14 may have a form corresponding to a storage medium (not shown) such as a semiconductor memory card detachably mounted on the camera 1, or a semiconductor fixed on an internal electronic board of the camera 1. A configuration in which a memory or the like is used as a storage medium may be used.

操作判定部16は、当該カメラ1における各種の操作部材(不図示)に連動した各種スイッチ類、例えばレリーズスイッチ,電源オンオフスイッチ,操作方向選択指示スイッチ,メニュースイッチ,動作モード切り換えスイッチ等のほか、タッチパネル19等から発生した各種の操作指示信号を受信して、使用者(ユーザ)が操作した指示内容を判定する電子回路部である。   The operation determination unit 16 includes various switches linked to various operation members (not shown) of the camera 1, such as a release switch, a power on / off switch, an operation direction selection instruction switch, a menu switch, an operation mode switch, and the like. The electronic circuit unit receives various operation instruction signals generated from the touch panel 19 or the like and determines the content of an instruction operated by a user.

操作判定部16は、使用者(ユーザ)による各種操作部材等の操作に応じた指示信号を発生させて、画像処理制御部11へと出力する。これを受けて画像処理制御部11は、入力された指示信号に対応する各種の制御処理を実行する。   The operation determination unit 16 generates an instruction signal corresponding to an operation of various operation members or the like by a user (user) and outputs the instruction signal to the image processing control unit 11. In response to this, the image processing control unit 11 executes various control processes corresponding to the input instruction signal.

姿勢センサ17aは、例えば加速度センサ等を含んで構成される電子回路部である。この姿勢センサ17aは、例えばカメラ1の姿勢状況(撮像画面が縦位置にあるか横位置にあるか、若しくは水平線や垂直線に対する画面の傾き等の状況)や、カメラ1(の撮像光学系の光軸)の仰角状況等のほか、カメラ1自体のブレ状況等を判定するために設けられている。   The attitude sensor 17a is an electronic circuit unit including, for example, an acceleration sensor and the like. This posture sensor 17a is provided for example in the posture state of the camera 1 (whether the imaging screen is in a vertical position or in a horizontal position, or the state of the screen tilting with respect to a horizontal line or a vertical line, etc.), and (of the imaging optical system of the camera 1). It is provided in order to determine the state of elevation of the optical axis, etc., as well as the state of shake of the camera 1 itself.

GPS17bは、全地球測位システム(Global Positioning System;GPS)におけるGPS衛星からの信号を受信して当該カメラ1の位置情報,時刻情報,方位情報等、各種の所定の情報を取得するための電子回路部である。   The GPS 17b is an electronic circuit for receiving a signal from a GPS satellite in a Global Positioning System (GPS) and acquiring various kinds of predetermined information such as position information, time information, and azimuth information of the camera 1. Department.

方位センサ17cは、例えば地磁気を検出して当該カメラ1の向き、具体的には撮像光学系の光学レンズ(撮像素子の撮像面)が向いている方向を検出するための電子回路部であって、いわゆる電子コンパス等が適用される。   The azimuth sensor 17c is an electronic circuit unit for detecting the direction of the camera 1 by detecting, for example, terrestrial magnetism, specifically, the direction in which the optical lens of the imaging optical system (the imaging surface of the imaging device) is facing. A so-called electronic compass or the like is applied.

表示部18は、当該カメラ1によって生成された画像データ若しくは記録部14に記録済みの画像データに基く画像を表示したり、当該カメラ1における各種の設定画面(メニュー表示等)を表示するための表示パネル、例えば液晶表示ディスプレイ(Liquid Crystal Display;LCD)や有機エレクトロルミネッセンス(有機EL;Organic Electro-Luminescence:OEL)ディスプレイ等の表示用デバイスと、その駆動回路等を含んで構成される構成ユニットである。   The display unit 18 displays an image based on the image data generated by the camera 1 or the image data recorded in the recording unit 14, and displays various setting screens (menu display and the like) in the camera 1. A display panel, for example, a display unit such as a liquid crystal display (LCD) or an organic electro-luminescence (organic EL) display, and a constituent unit including a drive circuit and the like for the display device. is there.

タッチパネル19は、表示部18の表示画面の表面に配置された操作入力パネル等を含んで構成される表示ユニットである。これに対応させて、画像処理制御部11の表示制御部11aは、表示部18の表示画面上に操作用表示等を表示させる制御を行なう。そして、上記タッチパネル19から生じる操作指示信号を受けて画像処理制御部11は、各種の制御を実行する。即ち、上記タッチパネル19は、表示画面中の任意の所望の位置を指定し得る指定操作部として機能する。   The touch panel 19 is a display unit that includes an operation input panel and the like arranged on the surface of the display screen of the display unit 18. In response to this, the display control unit 11a of the image processing control unit 11 performs control for displaying an operation display or the like on the display screen of the display unit 18. Then, upon receiving the operation instruction signal generated from the touch panel 19, the image processing control section 11 executes various controls. That is, the touch panel 19 functions as a designation operation unit that can designate any desired position on the display screen.

このように構成された本実施形態のカメラ1においては、画像処理制御部11,記録部14,表示部18は、撮像部12から出力される画像信号についての各種の処理を行なって、静止画像若しくは動画像についての画像処理を行なう。即ち、画像処理制御部11は、撮像部12からの画像信号に対し所定の信号処理を施して画像信号を順次生成すると同時に、この画像信号を表示制御部11aを介して表示部18へと順次出力する。これを受けて表示部18は、対応する画像を順次表示させることにより、リアルタイムの動画像表示、即ちライブビュー表示が行われる。   In the camera 1 of the present embodiment configured as described above, the image processing control unit 11, the recording unit 14, and the display unit 18 perform various processes on the image signal output from the imaging unit 12, and Alternatively, image processing is performed on a moving image. That is, the image processing control unit 11 sequentially performs predetermined signal processing on the image signal from the imaging unit 12 to generate an image signal, and sequentially transmits the image signal to the display unit 18 via the display control unit 11a. Output. In response to this, the display unit 18 sequentially displays the corresponding images, whereby real-time moving image display, that is, live view display is performed.

また、画像処理制御部11は、撮像部12から受けて処理済みの画像信号について、例えば圧縮処理を施して記録部14へと出力する。これを受けて、記録部14は、不図示の記録媒体に記録する。また、画像処理制御部11は、記録部14の記録媒体に記録済みの画像データを読み出して復号化処理を施した後、表示制御部11aを介して表示部18へと出力する。これを受けて、表示部18は、対応する画像を表示する。   Further, the image processing control unit 11 performs, for example, a compression process on the processed image signal received from the imaging unit 12 and outputs the processed image signal to the recording unit 14. In response to this, the recording unit 14 records on a recording medium (not shown). Further, the image processing control unit 11 reads out the image data recorded on the recording medium of the recording unit 14 and performs a decoding process, and then outputs the data to the display unit 18 via the display control unit 11a. In response, the display unit 18 displays the corresponding image.

なお、カメラ1の構成においては、上述した以外にも、図1に図示されていない構成ユニット等が多々ある。しかしながら、それらの構成ユニット等については、従来一般に実用化されておりまた広く普及している撮像装置(カメラ)と略同様の構成を有しているものとして、それらの説明は省略する。   In addition, in the configuration of the camera 1, in addition to the above, there are many configuration units and the like not shown in FIG. However, these constituent units and the like have substantially the same configuration as an imaging device (camera) that has been conventionally practically used and widely used, and a description thereof will be omitted.

次に、上述のように構成された本実施形態のカメラ1を用いて撮像動作を行った際の作用を、図2〜図8を用いて説明する。図2は、本実施形態のカメラ1を用いて撮像動作を行なう際の状況を示す概念図である。図3は、図2の撮像状況下で取得される補助データ(見取り図データ)の表示例である。図4は、図3の補助データ(見取り図データ)取得後の撮像動作を行う際の表示部の表示例である。   Next, an operation when an imaging operation is performed using the camera 1 according to the present embodiment configured as described above will be described with reference to FIGS. FIG. 2 is a conceptual diagram illustrating a situation when an imaging operation is performed using the camera 1 of the present embodiment. FIG. 3 is a display example of auxiliary data (floor view data) acquired under the imaging situation of FIG. FIG. 4 is a display example of the display unit when performing the imaging operation after the acquisition of the auxiliary data (drawing diagram data) in FIG. 3.

まず、図2〜図4を用いて、本実施形態のカメラの作用の概略を説明する。本実施形態のカメラ1を用いて撮像動作を実行する際の状況の例を、例えば図2に示す。図2に示す例は、撮像対象とする構造物若しくは建築物(以下、撮像対象構造物と略記する)の内部において、その撮像対象構造物の建設工事の過程を記録する撮像動作を行う状況を示している。具体的には、図2において、本実施形態のカメラ1を所持する使用者(ユーザ)100が、撮像対象構造物の所定のフロアにおける所定の部屋(以下、撮像対象領域という)200の室内に当該カメラ1を向けて撮像動作を実行しようとしている状況を示している。   First, an outline of the operation of the camera of the present embodiment will be described with reference to FIGS. FIG. 2 shows an example of a situation when an imaging operation is performed using the camera 1 of the present embodiment. The example illustrated in FIG. 2 illustrates a situation in which an imaging operation for recording a construction process of the imaging target structure is performed inside a structure or a building (hereinafter, simply referred to as an imaging target structure) to be an imaging target. Is shown. Specifically, in FIG. 2, a user (user) 100 carrying the camera 1 of the present embodiment is in a predetermined room (hereinafter, referred to as an imaging target area) 200 on a predetermined floor of an imaging target structure. This shows a situation in which the camera 1 is turned to perform an imaging operation.

この状況において、使用者(ユーザ)100は、まず、これから撮像動作を実行しようとする撮像対象領域200の全体像を二次元画像として撮像する。これにより、カメラ1は、撮像対象領域200の全体像を1つの二次元画像データとして取得する。このとき取得された二次元画像データによって表示される二次元画像は、なるべく広い範囲がカバーされているのが望ましい。そのために、例えば撮像光学系としては、広角系レンズが用いられる。また、全体像の撮像動作を実行する際、撮像光学系のズーム位置を広角側に設定する旨の表示を行うようにしてもよい。さらに、このときの撮像動作時には、カメラ1の姿勢を所定の姿勢に保つのが望ましい。つまり、カメラ1の姿勢を所定の姿勢に保持することによって、矩形状の撮像画面枠(不図示;撮像結果としての画像)の縦辺が垂直方向に、横辺が水平方向に略一致するようにされるのが望ましい。そこで、例えば姿勢センサ17a,方位センサ17c等の検出結果を利用して、水準表示等を表示部18に表示させるようにしてもよい。使用者(ユーザ)は、この表示部18の水準表示等を見ながらカメラ1の姿勢の水平垂直方向を保持するようにカメラ1を維持して撮像する。   In this situation, the user (user) 100 first captures the entire image of the imaging target region 200 in which the capturing operation is to be performed as a two-dimensional image. Thereby, the camera 1 acquires the entire image of the imaging target area 200 as one two-dimensional image data. It is desirable that the two-dimensional image displayed by the two-dimensional image data acquired at this time covers as wide a range as possible. For this purpose, for example, a wide-angle lens is used as the imaging optical system. Further, when executing the imaging operation of the entire image, a display indicating that the zoom position of the imaging optical system is set to the wide angle side may be performed. Further, at the time of the imaging operation at this time, it is desirable to maintain the posture of the camera 1 at a predetermined posture. That is, by maintaining the posture of the camera 1 in a predetermined posture, the vertical side of the rectangular imaging screen frame (not shown; an image as an imaging result) coincides with the vertical direction, and the horizontal side substantially coincides with the horizontal direction. It is desirable to be. Thus, for example, a level display or the like may be displayed on the display unit 18 using the detection results of the attitude sensor 17a, the orientation sensor 17c, and the like. The user captures an image while maintaining the camera 1 so as to maintain the horizontal and vertical directions of the posture of the camera 1 while watching the level display and the like on the display unit 18.

なお、図2に示す撮像対象領域200の例は、部屋の入り口に立ったとき、一方(向かって右側)の壁面に沿って所定の間隔をおいて柱R1,R2,R3が配置され、他方(向かって左側)の壁面に沿って所定の間隔をおいて柱L1,L2,L3が配置された室内空間を想定している。この場合において、当該想定例では、柱R1,R2は一面が右側壁201に接して配置されている。柱R3は、二面が右側壁201と奥側壁202に接して配置されているものとする。そして、柱L1,L2,L3は、一面と左側壁203との間に距離D1を置いて配置されている。さらに、柱L3は、上記一面とは異なる他面と奥側壁202との間に距離D2を置いて配置されているものとする。   In the example of the imaging target area 200 shown in FIG. 2, when standing at the entrance of the room, the pillars R1, R2, and R3 are arranged at predetermined intervals along one (right side) wall surface, and the other. An indoor space in which the pillars L1, L2, and L3 are arranged at predetermined intervals along the (left side as viewed) wall surface is assumed. In this case, in the assumed example, the pillars R1 and R2 are arranged such that one surface thereof is in contact with the right side wall 201. It is assumed that the pillar R3 is disposed so that two surfaces thereof are in contact with the right side wall 201 and the rear side wall 202. The columns L1, L2, L3 are arranged with a distance D1 between one surface and the left side wall 203. Further, it is assumed that the column L3 is arranged with a distance D2 between the other surface different from the one surface and the inner side wall 202.

本実施形態のカメラ1においては、上述したように、撮像対象領域200の全体像の画像データが取得されると、この画像データに基いて、画像処理制御部11において各種の信号処理が行われる。例えば、表示制御部11aは、取得した画像データに対応する表示用の画像処理が行われ、その処理済みの表示用画像データは表示部18へと送られて、当該表示部18の表示画面上に対応する画像を表示する。   In the camera 1 of the present embodiment, as described above, when the image data of the entire image of the imaging target area 200 is acquired, various signal processes are performed in the image processing control unit 11 based on the image data. . For example, the display control unit 11a performs display image processing corresponding to the acquired image data, and the processed display image data is sent to the display unit 18 and displayed on the display screen of the display unit 18. Display the image corresponding to.

また、同時に、構造物輪郭判定部1bは、当該画像データに基く画像処理を実行し、当該画像データによって表される画像内の柱等の各構造物について輪郭部分を判定し、柱等の各構造物の配置を推測して、例えば撮像を補助するための補助データである二次元平面の見取り図データを生成する処理等が実行される。   At the same time, the structure outline determining unit 1b executes image processing based on the image data, determines an outline portion of each structure such as a pillar in the image represented by the image data, and For example, a process of estimating the arrangement of the structures and generating sketch data of a two-dimensional plane, which is auxiliary data for assisting imaging, is performed.

ここで、補助データとしての見取り図データとは、撮像対象領域200の全体像に基いて、同領域200に含まれる各種構造物(柱等)の形状,位置等に関する各種の情報である。この見取り図データには、例えば撮像対象領域200を俯瞰して表す形態の情報(いわゆる俯瞰見取り図)等のほか、撮像すべきものと予定されている複数の撮像対象物に関する各種の詳細情報等が含まれる。なお、本実施形態のカメラ1によって生成される見取り図データは、撮像対象領域200の全体像を撮像した少なくとも一枚分の画像データのみから生成されるものであるので簡易的なものである。   Here, the sketch data as auxiliary data is various information on the shape, position, and the like of various structures (pillars and the like) included in the imaging region 200 based on the entire image of the imaging target region 200. The sketch data includes, for example, information (a so-called bird's-eye sketch) in a form in which the image-capturing target area 200 is viewed in a bird's-eye view, as well as various types of detailed information on a plurality of imaging objects scheduled to be captured. . Note that the sketch data generated by the camera 1 of the present embodiment is simple because it is generated from only at least one image data of the entire image of the imaging target area 200.

さらに、構造物輪郭判定部1bの判定結果は、死角予測部11dへと送られる。死角予測部11dは、全体像を撮像した画像データに基いて、上記見取り図データに付加する情報、例えば各構造物の死角部位,死角範囲等に関する上記見取り図データ上の位置情報等を含む撮像ガイド情報等を生成する。ここで、撮像ガイド情報とは、撮像動作を補助するための情報であって、例えば上記全体像の撮像動作以降の個々の撮像動作、即ち上記撮像対象領域200内の個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする等のための情報である。撮像ガイド情報は、具体的には、例えば現在の撮像位置から死角となる部位,範囲を表示部18に表示するための情報等である。   Further, the determination result of the structure outline determination unit 1b is sent to the blind spot prediction unit 11d. The blind spot prediction unit 11d is based on image data obtained by capturing the entire image, and includes imaging guide information including information to be added to the sketch data, for example, position information on the sketch data regarding the blind spot portion, blind spot range, and the like of each structure. And so on. Here, the imaging guide information is information for assisting the imaging operation. For example, individual imaging operations after the above-described entire image imaging operation, that is, individual structures in the imaging target area 200 are set as imaging targets. In the imaging operation described above, the information is used to guide necessary imaging to be able to be imaged without omission. Specifically, the imaging guide information is, for example, information for displaying, on the display unit 18, a part or range that is a blind spot from the current imaging position.

このようにして見取り図データが生成されると、その見取り図データは、図3に示すような形態で表示部18の表示画面に表示されると同時に、例えば記録部14等の所定の記憶領域に記憶される。   When the sketch data is generated in this way, the sketch data is displayed on the display screen of the display unit 18 in a form as shown in FIG. 3 and simultaneously stored in a predetermined storage area such as the recording unit 14. Is done.

図3においては、表示部18の表示画面の略中央領域に上記見取り図データに基いて生成された矩形状の見取り図画像18aが表示されている形態を示している。このとき、表示部18の表示画面の余白部分には、表示中の画像が「見取り図データ」である旨を示す表示18dと、表示部18の表示画像を切り換えて元に戻ることを示す戻るアイコン18b等が表示されている。   FIG. 3 shows a mode in which a rectangular sketch image 18a generated based on the sketch data is displayed in a substantially central area of the display screen of the display unit 18. At this time, in the margin of the display screen of the display unit 18, a display 18 d indicating that the image being displayed is “facsimile data” and a return icon indicating that the display image of the display unit 18 is switched to return to the original state. 18b and the like are displayed.

図3に示す見取り図データ画像18aの例では、例えば撮像対象領域200(部屋)の俯瞰見取り図として矩形状領域が表示され、その内部に複数の構造物(本例示では6本の柱R1,R2,R3,L1,L2,L3)と、カメラ1の位置及び方向を示す矢印アイコン18cとが表示されている。さらに、各構造物の一部には、現在のカメラ1の位置から死角であると予想される部位,範囲を太線若しくは色付けした形態で示す死角表示DAが表示されている。この死角表示DAは、図3に示す例では、各構造物の対応する部位,範囲の輪郭を太線で示すことで表している。このように表示される死角表示DAは、個々の構造物を対象とする撮像動作時の撮像ガイド情報となっている。   In the example of the sketch data image 18a illustrated in FIG. 3, for example, a rectangular region is displayed as a bird's-eye view sketch of the imaging target region 200 (room), and a plurality of structures (six pillars R1, R2, in this example) are provided therein. R3, L1, L2, L3) and an arrow icon 18c indicating the position and direction of the camera 1. Further, a part of each structure displays a blind spot display DA that indicates a part and a range that is expected to be a blind spot from the current position of the camera 1 with a thick line or colored form. In the example shown in FIG. 3, the blind spot display DA indicates the outline of the corresponding part and range of each structure by a thick line. The blind spot display DA displayed in this manner is imaging guide information at the time of an imaging operation for each structure.

なお、図3に示す各符号は当該表示を説明するために付しているものであって、実際に表示部18の表示画面に見取り図データが表示されるのに際し、これらの符号は表示されるものではない(後述の図4においても同様である)。   Note that the reference numerals shown in FIG. 3 are provided for explaining the display, and these reference numerals are displayed when the sketch data is actually displayed on the display screen of the display unit 18. (The same applies to FIG. 4 described later).

また、図3は、撮影の後ろ側の壁までも、補助されて表示されているが、これは、前方の撮影結果から予想して表示すればよく、背面を撮影するようなカメラの結果を利用してもよく、動画撮影した結果から類推してもよい。また、説明と理解を容易にするために「見取り図」という表記を行っているが、ユーザーが撮影時に参考にできる情報表示であればよく、まさしく図2に示すような実写結果(あるいは、それを強調表示したもの)に拡張現実的にガイド情報を出しても良いし、各構造物やその輪郭線を線画風にして、画像をイラストのようなものに置き換えて表示してもよい。この場合、柱の見える面と、その死角の有無などを含め測定対象が複数表示されていることが重要なので、見取り図とは別に、対象物一覧表示図という表現でもよい。   Also, in FIG. 3, the wall behind the photographing is also displayed as being assisted, but this may be displayed in anticipation of the photographing result in front, and the result of a camera that photographs the back side may be displayed. It may be used, or may be inferred from the result of shooting a moving image. In addition, for the sake of easy explanation and understanding, the notation “drawing plan” is used, but any information display that can be referred to by the user at the time of photographing may be used, and the actual photographing result as shown in FIG. (Highlighted one) may output guide information in augmented reality, or each structure or its outline may be displayed as a line drawing, and the image may be replaced with an illustration-like image. In this case, since it is important that a plurality of measurement objects including a visible surface of the pillar and the presence or absence of the blind spot are displayed, the expression may be referred to as an object list display diagram separately from the floor plan.

上記見取り図データ(もしくは、対象物一覧表示図)の生成後、引き続き当該撮像対象領域200の内部において個々の構造物の撮像動作を継続して行う場合、カメラ1の表示部18には、図4に示すような表示がなされる。図4に示す例では、撮像部12によって連続的に取得される画像信号に基く画像を順次表示させるライブビュー(LIVE VIEW)表示領域18eと、上記見取り図データを表示させる見取り図表示領域18fと、上記戻るアイコン18bとを、表示部18の一表示画面内に合わせて表示させる形態を示している。この見取り図表示領域18fも前述のように、対象物一覧表示図であればよく、厳密な意味での「見取り図」である必要はない。つまり、ユーザーが撮影時に参考にできる情報であればよく、実写結果(あるいは、それを強調表示したもの)に拡張現実的にガイド情報を出しても良いし、各構造物やその輪郭線を線画風にして、画像をイラストのようなものに置き換えて表示してもよい。   After the generation of the sketch data (or the object list display diagram), when the imaging operation of the individual structures is continuously performed inside the imaging target region 200, the display unit 18 of the camera 1 includes the information shown in FIG. Is displayed as shown in FIG. In the example shown in FIG. 4, a live view (LIVE VIEW) display area 18e for sequentially displaying images based on image signals continuously acquired by the imaging unit 12, a sketch display area 18f for displaying the sketch data, This shows a form in which the return icon 18b is displayed together with one display screen of the display unit 18. As described above, the sketch map display area 18f may be an object list display map, and need not be a “sketch map” in a strict sense. In other words, any information that can be referred to by the user at the time of shooting may be used, and guide information may be output in augmented reality in the actual shooting result (or in a highlighted form), or each structure or its outline may be drawn as a line. The image may be displayed in the style of an illustration, by replacing the image with something like an illustration.

使用者(ユーザ)100は、撮像対象領域200の空間内を移動しつつ個々の構造物(具体的には個々の柱等)の撮像動作を行うことになるが、その撮像動作の場合において、見取り図データを参照し、最初の全体像の撮像動作で取得できなかった死角部分の画像等を改めて撮像する。ここで、個々の構造物についての撮像が行われた場合には、撮像済みである旨の表示(チェックマーク)を見取り図上に付するようにしてもよい。   The user (user) 100 performs an imaging operation of an individual structure (specifically, an individual pillar or the like) while moving in the space of the imaging target area 200. In the case of the imaging operation, Referring to the sketch data, an image of a blind spot portion or the like that could not be obtained in the first entire image capturing operation is captured again. Here, when an image of an individual structure is captured, a display (check mark) indicating that the image has been captured may be attached on the drawing.

このように構成される本実施形態のカメラ1の作用を、図5〜図8を用いて以下に説明する。図5,図6は、本発明の第1の実施形態の撮像装置(カメラ)のカメラ制御処理シーケンスを示すフローチャートである。このうち図5は同カメラ制御処理シーケンスの主体部である撮像モード時の処理シーケンスを示すフローチャートである。図6は同カメラ制御処理シーケンスの一部であって、撮像モード時以外の処理シーケンスを簡略に示すフローチャートである。本実施形態の要旨は、主に撮像モード時にあるものである。したがって、それ以外の動作モード時の作用は、従来のカメラと同様の処理がなされるものとして、図6に示すように簡略化して図示している。   The operation of the camera 1 according to the present embodiment configured as described above will be described below with reference to FIGS. FIGS. 5 and 6 are flowcharts showing a camera control processing sequence of the imaging apparatus (camera) according to the first embodiment of the present invention. FIG. 5 is a flowchart showing a processing sequence in an imaging mode, which is a main part of the camera control processing sequence. FIG. 6 is a flowchart which is a part of the camera control processing sequence and schematically shows a processing sequence other than the imaging mode. The gist of the present embodiment is mainly in the imaging mode. Therefore, the operation in the other operation modes is simplified as shown in FIG. 6 assuming that the same processing as that of the conventional camera is performed.

図7は、図5のカメラ制御処理シーケンスのうち死角予想処理(ステップS111)の詳細シーケンスを示すフローチャートである。図8は、本実施形態の撮像装置(カメラ)を用いて撮像動作を行った際に取得される画像データのファイル構造を簡略化して示す概念図である。   FIG. 7 is a flowchart showing a detailed sequence of the blind spot prediction process (step S111) in the camera control process sequence of FIG. FIG. 8 is a conceptual diagram showing a simplified file structure of image data acquired when an imaging operation is performed using the imaging device (camera) of the present embodiment.

図5,図6のカメラ制御処理シーケンスについて以下に説明する。このカメラ制御処理シーケンスも、上述の図2〜図4で説明したと同じ撮像状況を想定している。したがって、以下の説明においては図2〜図4も参照する場合がある。   The camera control processing sequence shown in FIGS. 5 and 6 will be described below. This camera control processing sequence also assumes the same imaging situation as described with reference to FIGS. Therefore, in the following description, FIGS. 2 to 4 may be referred to.

まず、カメラ1の電源状態がオン状態にあり、カメラ1が起動状態にあるものとする。この場合において、図5のステップS101において、画像処理制御部11の制御部は、カメラ1の動作モードが撮像動作を実行し得る撮像モードに設定されているか否かの確認を行う。ここで、撮像モードに設定されていることが確認された場合には、次のステップS102の処理に進む。また、撮像モードに設定されていない場合には、図6のステップS121の処理に進む(図5,図6の符号A参照)。   First, it is assumed that the power state of the camera 1 is in the ON state and the camera 1 is in the activated state. In this case, in step S101 in FIG. 5, the control unit of the image processing control unit 11 checks whether the operation mode of the camera 1 is set to an imaging mode in which an imaging operation can be performed. Here, when it is confirmed that the imaging mode is set, the process proceeds to the next step S102. If the imaging mode has not been set, the process proceeds to step S121 in FIG. 6 (see reference numeral A in FIGS. 5 and 6).

ステップS102において、画像処理制御部11は、撮像部12等を制御して画像データを順次取得し(制御部)、取得した画像データを適宜所定の画像処理を施し(画像信号処理部)、表示部18を制御してライブビュー表示処理を開始する(制御部)。その後、ステップS103の処理に進む。   In step S102, the image processing control unit 11 controls the imaging unit 12 and the like to sequentially acquire image data (control unit), performs appropriate image processing on the acquired image data as appropriate (image signal processing unit), and displays the image data. The live view display process is started by controlling the unit 18 (control unit). Thereafter, the process proceeds to step S103.

ステップS103において、画像処理制御部11の制御部は、補助データとしての見取り図データが既に存在するか否かの確認を行う。ここで、補助データ(見取り図データ)は、例えばカメラ1に内蔵される一時記憶部若しくは記録部14等に記憶されるものである。この場合において、補助データ(見取り図データ)が既に存在することが確認された場合には、ステップS104の処理に進む。また、この時点において補助データ(見取り図データ)は存在していないことが確認された場合には、ステップS105の処理に進む。   In step S103, the control unit of the image processing control unit 11 checks whether sketch drawing data as auxiliary data already exists. Here, the auxiliary data (facsimile data) is stored in, for example, a temporary storage unit or the recording unit 14 built in the camera 1. In this case, when it is confirmed that the auxiliary data (the sketch data) already exists, the process proceeds to step S104. If it is confirmed at this point that no auxiliary data (drawing data) exists, the process proceeds to step S105.

ステップS104において、画像処理制御部11の制御部は、表示制御部11aを介して表示部18を制御して補助データ(見取り図データ)表示処理を実行する。その後、ステップS107の処理に進む。   In step S104, the control unit of the image processing control unit 11 controls the display unit 18 via the display control unit 11a to execute auxiliary data (floor view data) display processing. Thereafter, the process proceeds to step S107.

ここで、補助データ(見取り図データ)表示処理の詳細についての説明は省略するが、概略以下のような処理が行われる。   Here, although the detailed description of the auxiliary data (floor view data) display processing is omitted, the following processing is performed.

カメラ1において、補助データ(見取り図データ)を既に保持している場合とは、例えば、上述したように、カメラ1にて取得した画像データに基いて生成し、記録部14等に記録している場合のほか、別の機会に取得済みか若しくは別の装置にて生成済みの補助データ(見取り図データ)を、予め記録部14等に複写記録済みである場合等である。   The case where the auxiliary data (drawing data) is already stored in the camera 1 is, for example, as described above, generated based on the image data acquired by the camera 1 and recorded in the recording unit 14 or the like. In other cases, auxiliary data (facsimile data) that has been acquired at another opportunity or generated by another device has been copied and recorded in the recording unit 14 or the like in advance.

補助データ(見取り図データ)表示処理においては、これら記録済みの補助データ(見取り図データ)を記録部14等から読み出して、上述説明した図4に示すような表示形態で表示部18を用いて表示させる処理を行う。   In the auxiliary data (drawing data) display processing, the recorded auxiliary data (drawing data) is read from the recording unit 14 or the like, and is displayed using the display unit 18 in the above-described display form as shown in FIG. Perform processing.

この場合において、記録部14等に記録済みの補助データ(見取り図データ)が複数存在することもあり得る。このような場合には、例えばまず記録部14に記録済みの補助データ(見取り図データ)の一覧表示を行った後、その一覧表示の中から所望のデータ項目を使用者(ユーザ)に選択させ、選択された補助データ(見取り図データ)について同様の表示処理(図4の表示形態等)を行うようにすればよい。   In this case, there may be a plurality of auxiliary data (facsimile data) recorded in the recording unit 14 or the like. In such a case, for example, first, a list of auxiliary data (facsimile data) recorded in the recording unit 14 is displayed, and then a user (user) is allowed to select a desired data item from the list. The same display processing (display form in FIG. 4 and the like) may be performed on the selected auxiliary data (floor view data).

上述のステップS103の処理にて、補助データ(見取り図データ)の存在が確認されずにステップS105の処理に進むと、このステップS105において、画像処理制御部11の制御部は、操作判定部16からの信号を監視してユーザー操作の有無を確認する。ここで、ユーザー操作は、使用者(ユーザ)による各種の操作部材等の操作を指す。このユーザー操作がなされることにより、操作に応じた指示信号が発生する。したがって、その指示信号の発生が確認された場合には、ユーザー操作がなされたものとして、ステップS106の処理に進む。また、指示信号の発生が確認されない場合には、ユーザー操作がなされていないものとして、ステップS107の処理に進む。   If the process proceeds to step S105 without confirming the presence of the auxiliary data (drawing diagram data) in the above-described process of step S103, the control unit of the image processing control unit 11 Monitor the signal to check for any user operation. Here, the user operation refers to an operation of various operation members and the like by a user (user). When this user operation is performed, an instruction signal corresponding to the operation is generated. Therefore, when the generation of the instruction signal is confirmed, it is determined that a user operation has been performed, and the process proceeds to step S106. If the generation of the instruction signal is not confirmed, it is determined that the user operation has not been performed, and the process proceeds to step S107.

ステップS106において、画像処理制御部11の制御部は、上述のステップS105の処理において発生したユーザー操作に応じた動作処理を実行する。その後、ステップS107の処理に進む。   In step S106, the control unit of the image processing control unit 11 executes an operation process according to the user operation generated in the process of step S105 described above. Thereafter, the process proceeds to step S107.

ここで、ユーザー操作に応じた動作処理は、各種の操作部材毎に異なる動作処理がある。例えば、動作モード切り換え部材が操作されて別の動作モードへの切り換え信号が発生している場合には所定の動作モード切換処理を行う。また、電源ボタンが操作されてオフ信号が発生している場合には所定の電源オフ処理を行う。そして、撮像動作を開始するための撮像操作、即ちレリーズボタンの押圧操作等によるレリーズ信号が発生している場合には所定のレリーズ処理が実行される。その他、各種の操作部材に応じた動作処理があるが、詳細説明は省略する。   Here, the operation process according to the user operation includes different operation processes for various operation members. For example, when the operation mode switching member is operated and a switching signal to another operation mode is generated, a predetermined operation mode switching process is performed. When the power button is operated to generate an off signal, a predetermined power off process is performed. When a release signal is generated by an imaging operation for starting an imaging operation, that is, a pressing operation of a release button or the like, a predetermined release process is executed. In addition, there are operation processes corresponding to various operation members, but detailed description is omitted.

ステップS107において、画像処理制御部11の制御部は、上述のステップS105のユーザー操作が撮像動作を開始するための撮像操作であるか否かの確認を行う。ここで撮像操作である場合には、ステップS108の処理に進む。また、撮像操作ではない場合には、上述のステップS101の処理に戻り、以降同様の処理を繰り返す。   In step S107, the control unit of the image processing control unit 11 checks whether the user operation in step S105 is an imaging operation for starting an imaging operation. If the operation is an imaging operation, the process proceeds to step S108. If it is not an imaging operation, the process returns to the above-described step S101, and the same process is repeated thereafter.

ステップS108において、画像処理制御部11の制御部は、補助データ(見取り図データ)に対する操作がなされたか否かの確認を行う。この状態にあるときには、例えば表示部18に表示中の見取り図データに基く見取り図上の所望の領域に対してタッチパネル19を介して所定のタッチ操作等を行うと、そのタッチ位置に対応する所定領域を撮像対象とするAF処理やAE処理等が実行された後、タッチレリーズ信号が発生して、レリーズ処理が実行され得る。そこで、このステップS108においては、画像処理制御部11の制御部は、タッチパネル19の出力信号を監視する。そして、上記タッチレリーズ信号が確認された場合には、ステップS114の処理に進む。また、上記タッチレリーズ信号が確認されなかった場合には、ステップS109の処理に進む。   In step S108, the control unit of the image processing control unit 11 checks whether or not an operation has been performed on the auxiliary data (facsimile data). In this state, for example, when a predetermined touch operation or the like is performed via the touch panel 19 on a desired area on the sketch based on the sketch data displayed on the display unit 18, a predetermined area corresponding to the touch position is changed. After the AF processing, the AE processing, or the like for the imaging target is performed, a touch release signal is generated, and the release processing may be performed. Therefore, in step S108, the control unit of the image processing control unit 11 monitors an output signal of the touch panel 19. When the touch release signal is confirmed, the process proceeds to step S114. If the touch release signal has not been confirmed, the process proceeds to step S109.

ステップS109において、画像処理制御部11の制御部は、撮像部12,表示部18,記録部14等を制御して、通常の撮像処理を実行する。その後、ステップS110の処理に進む。   In step S109, the control unit of the image processing control unit 11 controls the imaging unit 12, the display unit 18, the recording unit 14, and the like to execute a normal imaging process. Thereafter, the process proceeds to step S110.

ステップS110において、画像処理制御部11の制御部は、上述のステップS109の撮像処理が全体像の撮像処理であったか否かの確認を行う。ここで、全体像の撮像処理であった場合には、ステップS111の処理に進む。また、全体像の撮像処理ではなかった場合には、ステップS115の処理に進む。   In step S110, the control unit of the image processing control unit 11 checks whether or not the above-described imaging process in step S109 is an imaging process of the entire image. Here, in the case of the whole image capturing process, the process proceeds to step S111. If it is not the whole image capturing process, the process proceeds to step S115.

ステップS111において、画像処理制御部11の制御部は、所定の死角予測処理を実行する。なお、この死角予測処理の詳細は、図7のサブシーケンスにて後述する。   In step S111, the control unit of the image processing control unit 11 executes a predetermined blind spot prediction process. The details of the blind spot prediction processing will be described later with reference to the subsequence of FIG.

次いで、ステップS112において、画像処理制御部11の制御部は、生成された見取り図データにづいて表示部18に表示される見取り図について、データ記録するか否かの確認を行う。ここで、使用者(ユーザ)は、当該見取り図データの記録を行いたい場合には、例えば操作部材のうちOKボタンの押圧操作を行う。また、記録せずにやり直す等の場合には、その他の操作部材例えば非記録動作を明示的に指示するキャンセルボタン等を操作する。若しくは、何の操作も行わないまま所定の時間の経過を待つことによってもキャンセルすることを指示することもできる。   Next, in step S112, the control unit of the image processing control unit 11 confirms whether to record data on the sketch displayed on the display unit 18 based on the generated sketch data. Here, when the user (user) wants to record the sketch data, for example, the user presses an OK button of the operation members. In the case of retrying without recording, for example, another operation member such as a cancel button for explicitly instructing a non-recording operation is operated. Alternatively, it is also possible to instruct to cancel by waiting for a predetermined time to elapse without performing any operation.

そのために、制御部は、操作判定部16を監視する。この場合において、OKボタンの指示信号が確認された場合には、ステップS113の処理に進む。また、OKボタン以外の指示信号が確認された場合、若しくは所定の時間操作がなされなかったとき、上述のステップS101の処理に戻り、以降の処理を繰り返す。   For that purpose, the control unit monitors the operation determination unit 16. In this case, if the instruction signal of the OK button is confirmed, the process proceeds to step S113. When an instruction signal other than the OK button is confirmed, or when no operation is performed for a predetermined time, the process returns to the above-described step S101 and the subsequent processes are repeated.

ステップS113において、画像処理制御部11の制御部は、補助データ(見取り図データ)作成処理を実行する。なお、この補助データ(見取り図データ)作成処理の詳細は省略する。その後、上述のステップS101の処理に戻り、以降の処理を繰り返す。   In step S113, the control unit of the image processing control unit 11 executes auxiliary data (drawing diagram data) creation processing. Note that the details of the auxiliary data (drawing diagram data) creation processing will be omitted. Thereafter, the process returns to the above-described step S101, and the subsequent processes are repeated.

一方、上述のステップS108の処理にて、上記タッチレリーズ信号が確認されてステップS114の処理に進むと、このステップS114において、画像処理制御部11の制御部は、個々の構造物に対する撮像処理を行った後、見取り図データ上の対応する位置に、その部位が撮像済みである旨の情報を表示する処理を実行する。その後、ステップS115の処理に進む。   On the other hand, in the process of step S108, the touch release signal is confirmed, and the process proceeds to the process of step S114. In step S114, the control unit of the image processing control unit 11 performs an imaging process on each structure. After that, a process of displaying information indicating that the part has been imaged at a corresponding position on the sketch data is executed. Thereafter, the process proceeds to step S115.

ステップS115において、画像処理制御部11の制御部は、上述のステップS114の処理にて取得した撮像結果の画像記録処理を実行する。この画像記録処理においては、取得した画像データに対し、関連する各種の情報を付加し関連付けするといった処理も同時に実行される。ここで、関連する各種の情報としては、一般的な撮像情報のほかに、上記補助データ(見取り図データや全体像の画像データ等を含む)に関する情報等をも含む。この画像記録処理において生成される画像データのデータ構造の例としては、例えば図8等に示すような形態が考えられる。   In step S115, the control unit of the image processing control unit 11 executes an image recording process of the imaging result obtained in the process of step S114. In the image recording process, a process of adding various types of related information to the acquired image data and associating the information is also executed at the same time. Here, the various types of related information include, in addition to general imaging information, information related to the auxiliary data (including sketch drawing data and image data of the entire image). As an example of the data structure of the image data generated in the image recording process, for example, a form as shown in FIG.

図8に示すように、画像データファイルには、ファイル番号(No.xxx)情報と、画像データ本体と、各種の画像情報(日時情報,位置情報,撮像条件等の撮像情報)と、画像サムネイルと、全体画像サムネイルと、見取り図サムネイル等の情報を含んで構成される。なお、上記日時情報は、カメラ1の制御部が有する内部時計等から取得した撮像時の日時に関する情報である。上記位置情報は、例えばGPS17bから取得した撮像時のカメラ1の地球上における位置に関する情報、具体的には例えば緯度経度情報等である。上記撮像条件等の撮像情報としては、撮像光学系のレンズ名,焦点距離,絞り値,ホワイトバランス,ISO感度,色空間,動作モード,AEモード,AFモード,シーンタイプ,シリアルナンバー,ドライブモード,解像度,処理アプリケーション等を含む各種情報であって、いわゆるイグジフ(Exif)情報等が相当する。   As shown in FIG. 8, the image data file includes file number (No. xxx) information, image data itself, various types of image information (imaging information such as date and time information, position information, and imaging conditions), and image thumbnails. , A thumbnail of the entire image, and information such as a sketch thumbnail. Note that the date and time information is information on the date and time at the time of imaging acquired from an internal clock or the like of the control unit of the camera 1. The position information is, for example, information relating to the position of the camera 1 on the earth at the time of image capturing obtained from the GPS 17b, specifically, for example, latitude and longitude information. The imaging information such as the imaging conditions include the lens name of the imaging optical system, focal length, aperture value, white balance, ISO sensitivity, color space, operation mode, AE mode, AF mode, scene type, serial number, drive mode, It is various kinds of information including resolution, processing application, and the like, and corresponds to so-called Exif information.

他方、上述のステップS101の処理にて撮像モードの設定が確認されずに図6のステップS121の処理に進むと(図5,図6の符号A)、この図6のステップS121において、画像処理制御部11の制御部は、現在設定されている動作モードが再生動作を実行し得る再生モードに設定されているか否かの確認を行う。ここで、再生モードに設定されていることが確認された場合には、次のステップS122の処理に進む。また、再生モードに設定されていない場合には、ステップS124の処理に進む。   On the other hand, if the process proceeds to the process of step S121 in FIG. 6 without confirming the setting of the imaging mode in the process of step S101 (reference A in FIGS. 5 and 6), the image processing is performed in step S121 in FIG. The control unit of the control unit 11 checks whether the currently set operation mode is set to a reproduction mode in which a reproduction operation can be performed. Here, when it is confirmed that the reproduction mode is set, the process proceeds to the next step S122. If the reproduction mode has not been set, the process proceeds to step S124.

ステップS122において、画像処理制御部11は、記録部14,表示部18等を制御して所定の画像再生処理を実行する。この画像再生処理の詳細は、従来のカメラ1において行われるものと同様の処理であるものとして、その説明は省略する。その後、ステップS123の処理に進む。   In step S122, the image processing control unit 11 controls the recording unit 14, the display unit 18, and the like to execute a predetermined image reproduction process. The details of the image reproduction processing are the same as those performed in the conventional camera 1, and the description thereof is omitted. Thereafter, the process proceeds to the process in step S123.

ステップS123において、画像処理制御部11の制御部は、操作判定部16を監視して、再生用画像の変更操作がなされたか否かの確認を行う。ここで、再生画像の変更を指示するために所定の操作部材による変更操作がなされると、所定の変更指示信号が発生する。この変更指示信号が確認されるとステップS125の処理に進む。また、上記変更指示信号が確認されない場合には、図5のステップS101の処理に戻り、以降の処理を繰り返す(リターン)。   In step S123, the control unit of the image processing control unit 11 monitors the operation determination unit 16 and checks whether or not an operation for changing the playback image has been performed. Here, when a change operation is performed by a predetermined operation member to instruct a change of a reproduced image, a predetermined change instruction signal is generated. When this change instruction signal is confirmed, the flow proceeds to the processing in step S125. If the change instruction signal is not confirmed, the process returns to step S101 in FIG. 5, and the subsequent processes are repeated (return).

上述のステップS123の処理にて、変更指示信号の発生を確認してステップS125の処理に進むと、このステップS125において、画像処理制御部11の制御部は、所定の画像変更処理を実行する。その後、図5のステップS101の処理に戻り、以降の処理を繰り返す(リターン)。   In the process of step S123, the generation of the change instruction signal is confirmed, and the process proceeds to step S125. In this step S125, the control unit of the image processing control unit 11 executes a predetermined image change process. Thereafter, the process returns to the process of step S101 in FIG. 5, and the subsequent processes are repeated (return).

なお、上述のステップS121の処理にて、再生モードに設定されていない(例えば画像通信モードに設定されている)ことが確認されてステップS124の処理に進むと、このステップS124において、画像処理制御部11の制御部は、所定の画像通信処理を実行する。その後、図5のステップS101の処理に戻り、以降の処理を繰り返す(リターン)。   In the process of step S121, it is confirmed that the reproduction mode is not set (for example, the image communication mode is set), and the process proceeds to step S124. The control unit of the unit 11 executes a predetermined image communication process. Thereafter, the process returns to the process of step S101 in FIG. 5, and the subsequent processes are repeated (return).

次に、上記死角予測処理(図5のステップS111の処理)の詳細を、図7を用いて以下に説明する。上記構造物の撮像推奨領域の一つに、構造物を構成する直方体の面が露呈していて、撮影可能な状態の部位である。こうした露呈面は、経時変化などをモニタしやすく、のちのちまでに重要な評価項目になるので重要であるが、1回の撮影では死角になることがあり、このような死角部を判定してガイドすることは、非常にユーザーに有益となる。   Next, details of the blind spot prediction processing (the processing of step S111 in FIG. 5) will be described below with reference to FIG. The surface of the rectangular parallelepiped constituting the structure is exposed in one of the imaging recommendation regions of the structure, and is a portion where imaging is possible. Such an exposed surface is important because it is easy to monitor changes over time and becomes an important evaluation item later, but it may be a blind spot in one shot, and such a blind spot is judged and guided. It will be very beneficial for users.

上述したようにして、図7の死角予測処理シーケンスに移行すると、まず、図7のステップS201において、画像処理制御部11の制御部は、姿勢センサ17a,方位センサ17c等の検出結果を参照しながら、カメラ1の姿勢が水平に保持されているか否かの確認を行う。ここで、カメラ1の姿勢が水平に保持されている(姿勢はOKである)ことが確認された場合には、ステップS203の処理に進む。また、カメラ1の姿勢が水平に保持されていない(姿勢はOKではない)場合には、ステップS202の処理に進む。ここで、水平を重視しているのは、建築物はそれを支える柱が品質に大きく影響するためで、柱が床から垂直に立って重力に逆らって建築物を支えるからである。水平に構えなくとも、水平とか重力方向が分かっていれば、画像が斜めでも、これを元に、柱や床が判定可能である。また、柱以外の構造物に関してガイドを出す場合には、壁などを基準にアーチや梁などを判定してもよいが、このような場合は、必ずしも水平保持をしなくてもよい。   As described above, when the process shifts to the blind spot prediction processing sequence in FIG. 7, first, in step S201 in FIG. 7, the control unit of the image processing control unit 11 refers to the detection results of the attitude sensor 17a, the direction sensor 17c, and the like. Then, it is checked whether or not the posture of the camera 1 is held horizontally. Here, if it is confirmed that the posture of the camera 1 is held horizontally (the posture is OK), the process proceeds to step S203. If the posture of the camera 1 is not held horizontally (the posture is not OK), the process proceeds to step S202. Here, the emphasis on horizontality is given to the fact that the pillars that support it greatly affect the quality of the building, and the pillars stand vertically from the floor to support the building against gravity. Even if the image is not inclined and the horizontal or gravity direction is known, even if the image is oblique, the pillar or floor can be determined based on the image. When a guide is provided for a structure other than a pillar, an arch or a beam may be determined based on a wall or the like, but in such a case, it is not always necessary to keep the horizontal.

ステップS202において、画像処理制御部11の制御部は、表示制御部11a,ガイド表示制御部11cによって表示部18等を制御して、カメラ1の姿勢を水平に保持すべき旨のアドバイス表示等を行う姿勢アドバイス処理を実行する。その後、ステップS201の処理に戻り、カメラ1の姿勢が水平に保持される状態(姿勢OK)になるまで以降の処理を繰り返す。   In step S202, the control unit of the image processing control unit 11 controls the display unit 18 and the like by the display control unit 11a and the guide display control unit 11c, and displays an advice display indicating that the posture of the camera 1 should be held horizontally. The posture advice processing to be performed is executed. Thereafter, the process returns to the process of step S201, and the subsequent processes are repeated until the posture of the camera 1 is held horizontally (posture OK).

ステップS203において、画像処理制御部11の制御部は、構造物輪郭判定部11b等によって、上記全体像を撮像した画像データについての画像信号処理を実行する。この場合における画像信号処理は、例えば画像内において、水平ライン(床や天井の境界を示すライン;図2の符号204,205等参照)を判定し、また、同画像データの画像内において、左端若しくは右端に垂直ラインが存在するか否かの確認を行う。ここで、左右端の垂直ラインは、例えば図2に示す例において、最も奥待った位置にある柱の垂直線を想定している。つまり、左右いずれかの端部の垂直ラインと、床及び天井の境界水平ライン(204,205)とを確認することで、全体像を撮像するのに適切な撮像領域がカバーされているか否かを確認する。具体的には例えば、床及び天井の境界水平ライン(204,205)が含まれており、かつ左右端部の一方の垂直ラインのみである場合には、全体像を撮像し得ないと判定される。この場合には、画角が足りないか若しくは距離が近いことから、ズーム設定をワイド側にするか若しくはカメラ1を持つ使用者(ユーザ)が下がる等によって、より広い領域の撮像を行ない得る。そこで、次のステップS204の処理において、そのようなアドバイスを行う処理を設けている。   In step S203, the control unit of the image processing control unit 11 performs image signal processing on the image data obtained by capturing the entire image by using the structure outline determination unit 11b and the like. In the image signal processing in this case, for example, a horizontal line (a line indicating a boundary between a floor and a ceiling; see reference numerals 204 and 205 in FIG. 2) is determined in the image. Check whether a vertical line exists at the right end. Here, the vertical lines at the left and right ends are assumed to be, for example, the vertical lines of the pillars located at the innermost position in the example shown in FIG. That is, by checking the vertical line at one of the left and right ends and the horizontal line (204, 205) between the floor and the ceiling, it is determined whether or not an imaging area appropriate for capturing the entire image is covered. Check. Specifically, for example, when the boundary horizontal line (204, 205) between the floor and the ceiling is included and only one of the vertical lines at the left and right ends is determined, it is determined that the entire image cannot be captured. You. In this case, since the angle of view is insufficient or the distance is short, a wider area can be imaged by setting the zoom setting to the wide side or lowering the user (user) having the camera 1. Therefore, a process for providing such advice is provided in the next process of step S204.

即ち、ステップS204において、画像処理制御部11の制御部は、表示制御部11a,ガイド表示制御部11cによって表示部18等を制御して、画角や距離に関するアドバイス処理を実行する。その後、ステップS203の処理に戻る。   That is, in step S204, the control unit of the image processing control unit 11 controls the display unit 18 and the like by the display control unit 11a and the guide display control unit 11c, and executes the advice process regarding the angle of view and the distance. After that, the process returns to step S203.

ステップS205において、画像処理制御部11の制御部は、構造物輪郭判定部11b等によって、上記全体像の画像データにおいて、垂直ラインが3本近接して存在する領域があるか否かの確認を行う。ここで、3本の垂直ラインが近接して存在する場合とは、例えば図2に示すように、直方体形状の柱を斜め方向から見た場合を想定している。この場合において、3本の垂直ラインが近接して存在する場合には、次のステップS207の処理に進む。また、3本の垂直ラインが近接して存在しない場合には、ステップS206の処理に進む。また、この場合において、例えば直方体形状の柱を真正面から見た場合、垂直ラインは2本しか見えない。このような場合には、例えばカメラ1の位置を左右に移動させれば、垂直ラインが3本近接して存在するように見える可能性がある。そこで、次のステップS206の処理において、その旨のアドバイスを行う処理を設けている。   In step S205, the control unit of the image processing control unit 11 uses the structure outline determination unit 11b and the like to confirm whether or not there is an area in which three vertical lines are present in the image data of the entire image in proximity to each other. Do. Here, the case where three vertical lines are close to each other is assumed to be, for example, a case where a rectangular parallelepiped pillar is viewed from an oblique direction as shown in FIG. In this case, when three vertical lines are close to each other, the process proceeds to the next step S207. If the three vertical lines do not exist close to each other, the process proceeds to step S206. Further, in this case, for example, when a rectangular parallelepiped pillar is viewed from the front, only two vertical lines are visible. In such a case, for example, if the position of the camera 1 is moved right and left, there is a possibility that three vertical lines appear to be close to each other. Therefore, in the processing of the next step S206, processing for giving advice to that effect is provided.

ステップS206において、画像処理制御部11の制御部は、表示制御部11a,ガイド表示制御部11cによって表示部18等を制御して、左右方向における撮像位置に関するアドバイス処理を実行する。その後、ステップS205の処理に戻る。   In step S206, the control unit of the image processing control unit 11 controls the display unit 18 and the like by the display control unit 11a and the guide display control unit 11c, and executes the advice process regarding the imaging position in the left-right direction. After that, the process returns to step S205.

ステップS207において、画像処理制御部11の制御部は、上述のステップS205の処理における構造物輪郭判定部11b等による判定の結果を受けて、上記全体像の画像内における直方体を検出する直方体検出処理を行う。直方体検出処理は、直方体形状の柱を検出する処理であって、上記死角予測部11dに含まれる直方体予測部11eによって実行される。   In step S207, the control unit of the image processing control unit 11 receives the determination result of the structure outline determination unit 11b or the like in the process of step S205, and detects a rectangular solid in the image of the entire image. I do. The rectangular parallelepiped detection process is a process of detecting a column having a rectangular parallelepiped shape, and is executed by the rectangular parallelepiped prediction unit 11e included in the blind spot prediction unit 11d.

次いで、ステップS208において、画像処理制御部11の制御部は、全体像の画像内における位置,距離に応じて検出した各直方体の配置を推測し、全体像の見取り図化、即ち撮像対象領域200(部屋)を撮像した全体像に基く俯瞰見取り図を生成する。その後、ステップS209の処理に進む。ここでは、「見取り図」と書いたが、ユーザーが撮り忘れしないような表現が可能な画像であれば、実写のままやイラスト表現化された画像でも良い。   Next, in step S208, the control unit of the image processing control unit 11 estimates the arrangement of each rectangular parallelepiped detected according to the position and distance of the whole image in the image, and makes a sketch of the whole image, that is, the imaging target area 200 ( A bird's-eye view sketch is generated based on the whole image of the room. Thereafter, the process proceeds to step S209. In this case, “floor sketch” is written, but any image that can be expressed so that the user does not forget to take a picture may be a live-action image or an image expressed as an illustration.

ステップS209において、画像処理制御部11の制御部は、上述の処理にて検出した3つの輪郭(3本の垂直ライン)が鋭角で一点に集まっている交点部分、例えば図2において符号L1A,L2A,L3A,R1A,R2A,R3A等によって示す部分が存在するか否かの確認を行う。ここで、3つの輪郭が鋭角で一点に集まっている交点部分が存在する場合には、次のステップS210の処理に進む。また、3つの輪郭が鋭角で一点に集まっている交点部分が存在しない場合には、一連の処理を終了し、元のシーケンスに戻る(リターン)。   In step S209, the control unit of the image processing control unit 11 determines an intersection where the three contours (three vertical lines) detected in the above-described processing are gathered at one point at an acute angle, for example, reference numerals L1A and L2A in FIG. , L3A, R1A, R2A, R3A and the like are checked. If there is an intersection where three contours are gathered at one point at an acute angle, the process proceeds to the next step S210. If there is no intersection point where the three contours are gathered at one point at an acute angle, the series of processing is terminated, and the process returns to the original sequence (return).

ステップS210において、画像処理制御部11の制御部は、上述の処理にて検出された直方体(柱部分)に着目し、当該直方体を構成する輪郭線のうち3つの垂直ラインの輪郭(図2の符号OR1,OL1参照)を除く2つの輪郭(図2の符号OR2,OL2参照)を延長した延長線(図2の符号OR3,OL3,OL4)が垂直輪郭(図2の符号OL1,OR1)及び床面輪郭(図2の符号205)のいずれにも交差するか否かの確認を行う。ここで、上記条件が確認された場合には、ステップS211の処理に進む。その他の場合は、ステップS212の処理に進む。   In step S210, the control unit of the image processing control unit 11 pays attention to the rectangular parallelepiped (column portion) detected in the above-described processing, and determines the contours of three vertical lines among the contours forming the rectangular parallelepiped (see FIG. 2). Extension lines (OR3, OL3, OL4 in FIG. 2) extending two outlines (see OR2, OL2 in FIG. 2) except for the outlines (OR1, OL1 in FIG. 2) and a vertical outline (OL1, OR1 in FIG. 2) and It is checked whether or not any of the floor contours (205 in FIG. 2) intersect. Here, if the above conditions are confirmed, the process proceeds to step S211. In other cases, the process proceeds to step S212.

ステップS211において、画像処理制御部11の制御部は、上記2つの輪郭(図2の符号OR2,OL2参照)の延長線(図2の符号OR3,OL3,OL4)のうち床輪郭205が交差するライン(図2の符号OL2B.OR2B)を含む面(図2の符号AL2,AR2)の背面側を死角部として推測し設定する。その後、一連の処理を終了し、元のシーケンスに戻る(リターン)。上記死角領域は、床や天井以外に当接して生じる輪郭線によって判定するのに限る必要はなく、壁面と当接して生じる輪郭205が交差するラインを含む面を利用すれば、アーチ状の構造物や梁(この場合、必ずしも厳密に直方体である必要はない)などの撮影されなかった側を死角部として推測し設定することが可能となる。こうした応用は、もちろん、本発明のカバーするところである。   In step S211, the control unit of the image processing control unit 11 determines that the floor contour 205 intersects with the extension line (reference sign OR3, OL3, OL4 in FIG. 2) of the two contours (see reference signs OR2, OL2 in FIG. 2). The back side of the surface (reference characters AL2, AR2 in FIG. 2) including the line (reference characters OL2B, OR2B in FIG. 2) is estimated and set as the blind spot. Thereafter, a series of processing is completed, and the process returns to the original sequence (return). The blind spot area does not need to be determined based on a contour line that abuts on a part other than the floor or the ceiling. If a plane including a line where a contour 205 that abuts on a wall surface intersects is used, an arch-shaped structure may be used. It is possible to guess and set a non-photographed side such as a beam or a beam (in this case, not necessarily a strictly rectangular parallelepiped) as a blind spot. Such applications are, of course, covered by the present invention.

一方、ステップS212において、画像処理制御部11の制御部は、上記2つの輪郭(図2の符号OR2,OL2参照)を延長した延長線(図2の符号OR3,OL3,OL4)のうち床面輪郭205に交差するライン(図2の符号OR3,OL4)があるとき、交差する床面輪郭205を含む壁面(符号201,203)に対向する柱の面を死角部として推測し設定する。その後、一連の処理を終了し、元のシーケンスに戻る(リターン)。なお、死角と言っても、隙間が狭すぎて、カメラを構えるスペースがなく、撮影が不可能な死角もあるが、これをガイド表示すると、ユーザーにはストレスになるので、画像上の輪郭の距離などから、撮影可能か否かを判定して、撮影不可能な場合は、ガイド表示がでないように工夫してもよい。図2に示す距離D1,D2の長さなどは輪郭の延長などから類推が可能である。撮影時の焦点距離や対象物のピント合わせ時の距離情報などから、こうした数値は測定可能である。ここで、死角の判定方法を特記したのは、死角領域は、最初の撮影(図2等)では撮影されなかった領域であって、例えば図2のような撮影結果(画像)があったとしても、死角領域が存在していれば、その構造物の全体が正しい工事や塗装の面になっているか否かが、まったく保証できないからである。即ち、死角領域において、例えば工事ミス等があった場合には、この全体画像のみでは、ミスを確認することができず、このようなミスを見逃すと、その後の経時変化などによって同箇所の追跡が出来なくなる場合がある。例えば、工事の過程によっては、内装工事、例えば壁面に対する壁紙の貼着等によって、壁面がふさがってしまう(隠されてしまう)場合があり、後日正しい建築作業(工事)がなされたか否かを後で検証することができず、場合によっては工事のやり直し(内装の除去等)の作業が発生する場合がある。したがって、費用や工期に無駄が生じてしまうことになる。このような理由から、構造物の撮像推奨領域(死角領域)は、上記構造物の光学像を受けて得られた全体画像データにおいて撮影されなかった死角となる撮影可能な構造物の面を含むことは重要である。死角領域というだけあって、見逃しやすいという点からも、撮像補助としてのアドバイスが重要となる。   On the other hand, in step S212, the control unit of the image processing control unit 11 sets the floor surface of the extension (OR3, OL3, OL4 in FIG. 2) extending from the two contours (OR2, OL2 in FIG. 2). When there is a line (OR3, OL4 in FIG. 2) that intersects the contour 205, the surface of the column facing the wall surface (201, 203) including the intersecting floor contour 205 is estimated and set as a blind spot. Thereafter, a series of processing is completed, and the process returns to the original sequence (return). In addition, although blind spots are too narrow, there is no space to hold the camera and there are blind spots where shooting is not possible, but displaying this as a guide will be stressful to the user, so the outline of the image It may be determined from the distance or the like whether or not shooting is possible, and if shooting is not possible, a guide display may be devised so as not to be displayed. The lengths of the distances D1 and D2 shown in FIG. 2 can be inferred from the extension of the contour. These numerical values can be measured from the focal length at the time of shooting, the distance information at the time of focusing the object, and the like. Here, the method of determining the blind spot is specially described because the blind spot area is an area that has not been shot in the first shooting (FIG. 2 and the like) and, for example, has a shooting result (image) as illustrated in FIG. 2. This is because if a blind spot area exists, it cannot be guaranteed at all whether or not the entire structure has a correct construction or painting surface. In other words, if there is a construction error in the blind spot area, for example, it is not possible to confirm the error only with this entire image. May not be possible. For example, depending on the construction process, the wall may be blocked (hidden) due to interior construction, for example, the application of wallpaper to the wall, and it will be determined later whether the correct construction work (construction) has been performed. Cannot be verified in some cases, and in some cases, work such as redoing work (such as removing the interior) may occur. Therefore, waste occurs in cost and construction period. For such a reason, the imaging recommended area (blind spot area) of the structure includes a surface of a photographable structure that is a blind spot and is not photographed in the entire image data obtained by receiving the optical image of the structure. That is important. It is important to give advice as imaging assistance from the viewpoint that it is easily overlooked because of the blind spot area.

以上説明したように上記第1の実施形態によれば、撮像対象物の全体像の画像データを取得すると、その全体像の画像データに基いて、補助データとしての見取り図データを生成し得るとともに、その全体像の画像データで得られていない死角部等を予測して表示する等、未撮像部分や撮像方向等を提示して、撮像をガイドする撮像ガイド情報を生成することができる。   As described above, according to the first embodiment, when image data of the entire image of the imaging target is acquired, sketch data as auxiliary data can be generated based on the image data of the entire image. It is possible to generate imaging guide information for guiding imaging by presenting an unimaged portion, an imaging direction, and the like, such as predicting and displaying a blind spot or the like that is not obtained from the image data of the entire image.

大量に取得された一連の画像データをあとで整理する際には、画像データのみで撮像エリアや撮像ポイントを特定することが困難であったが、本実施形態の撮像装置においては、全体像の撮像を行えば、その全体像の画像データに基いて簡単な見取り図を作成することができ、この見取り図データに関連する構造物について、それ以降に撮像される個々の撮像データは、自動的に上記見取り図データに関連付けられるので、例えば後日の画像整理時にも容易に特定が可能となる。したがって、確実かつ正確な画像整理を行うことができる。なお、ここでは、見取り図に表示した後、ガイド情報を表示しているが、死角情報を実写結果に拡張現実表示するような表現方法で、ユーザーにガイド情報を提供してもよい。   When arranging a series of image data acquired in large quantities later, it was difficult to specify an imaging area or an imaging point only with the image data. By taking an image, a simple sketch can be created based on the image data of the entire image, and for the structure related to the sketch data, individual image data to be imaged thereafter are automatically converted to the above-described image data. Since it is associated with the sketch data, it can be easily specified, for example, at a later time when organizing images. Therefore, reliable and accurate image organization can be performed. Note that, here, the guide information is displayed after being displayed on the sketch, but the guide information may be provided to the user in an expression method in which the blind spot information is displayed as augmented reality in the actual shooting result.

[第2の実施形態]
ところで、近年、ラジオコントロール式若しくは自律飛行を行い得る小型無人飛行体(いわゆるドローン等と呼ばれる飛行体)に撮像装置を搭載して飛行させ、上空からの動画像若しくは静止画像を手軽に撮像することができるようになっている。このような技術を利用すれば、例えば自然災害若しくは事故の現場等、人間が容易に入り込めないような地域であっても、上空から撮像を行うことで容易にその全体状況を把握することができると共に、取得した全体像の画像を観察することで個々の部分状況を確認し、必要に応じて、その部分状況に関するさらなる詳細な撮像を行なうことができ、よって詳細状況の確認が可能となっている。
[Second embodiment]
By the way, in recent years, a small unmanned aerial vehicle (a so-called drone or the like) capable of performing radio control or autonomous flight is mounted with an imaging device to fly and easily capture a moving image or a still image from the sky. Is available. By using such technology, even in an area where humans cannot easily enter, such as a site of a natural disaster or accident, it is possible to easily grasp the entire situation by taking an image from the sky. It is possible to check the individual partial situation by observing the image of the acquired whole image, and if necessary, to perform more detailed imaging of the partial situation, so that the detailed situation can be confirmed. ing.

そのような場合においても、例えば全体像の画像データを撮像することにより、簡単な見取り図データを生成し得れば至便である。次に説明する本発明の第2の実施形態は、このような状況を想定した場合の例示である。   Even in such a case, it is convenient if simple sketch data can be generated by, for example, capturing image data of the entire image. The second embodiment of the present invention described below is an example in which such a situation is assumed.

図9は、本発明の第2の実施形態の撮像装置(カメラ)を用いて撮像動作を行なう際の状況を示す概念図である。図10は、図9の撮像状況下で取得される補助データ(見取り図データ)の表示例である。   FIG. 9 is a conceptual diagram illustrating a situation when an imaging operation is performed using the imaging device (camera) according to the second embodiment of the present invention. FIG. 10 is a display example of auxiliary data (facsimile data) acquired under the imaging situation of FIG.

図8に示す例は、例えば建築物300等を含む撮像対象領域(具体的に言えば例えば災害現場若しくは事故現場等)の上空において、撮像装置1を搭載した小型無人飛行体21を飛行させながら、上記撮像装置1の遠隔操作を行って撮像を行う状況を示している。   In the example illustrated in FIG. 8, for example, the small unmanned aerial vehicle 21 equipped with the imaging device 1 is flown over an imaging target area including the building 300 and the like (specifically, for example, a disaster site or an accident site). 2 shows a situation in which the imaging device 1 is remotely operated to perform imaging.

この場合において、まず、撮像装置1を遠隔操作することによって、当該撮像対象領域における建築物300を含む所定の範囲の全体像を1つの画像データとして取得する。このとき、カメラ1の姿勢は、小型無人飛行体21側の自律飛行制御によってある程度の安定した姿勢を保持させることができる。なお、カメラ1の姿勢制御を完全に行うことができないとしても、取得した画像データにおいて、画像内の直線を基準とし、姿勢センサ17a,方位センサ17c等の検出結果を参照しながら水平垂直を規定するようにしてもよい。なお、図9に示す例では、建造物300は、複数の略立方体形状301,302を組み合わせた構造からなるものとしている。   In this case, first, by remotely operating the imaging apparatus 1, an entire image of a predetermined range including the building 300 in the imaging target area is acquired as one image data. At this time, the attitude of the camera 1 can be maintained to a certain degree by the autonomous flight control of the small unmanned aerial vehicle 21 side. Note that even if the attitude control of the camera 1 cannot be completely performed, horizontal and vertical directions are defined in the acquired image data with reference to the detection results of the attitude sensor 17a, the azimuth sensor 17c, etc., based on the straight line in the image. You may make it. In the example shown in FIG. 9, the building 300 has a structure in which a plurality of substantially cubic shapes 301 and 302 are combined.

こうして撮像対象領域の全体像の画像データが取得されると、この画像データに基いて、カメラ1の画像処理制御部11は各種の信号処理を実行し、例えば構造物輪郭判定部11bによって画像内の建造物300の輪郭部分を判定して直方体検出処理を行い、補助データである見取り図データを生成する処理等が実行される。この場合における見取り図データとは、例えば撮像対象領域における建造物の概略的な配置を示す俯瞰見取り図のデータである。また、さらに死角予測部11dによって、上記見取り図データ上に付加する情報、即ち例えば各建造物の死角部位,死角範囲等に関する撮像ガイド情報等を生成する。 このようにして生成された見取り図データは、図10に示すような形態で表示部18の表示画面に表示されると同時に、例えば記録部14等の所定の記憶領域に記憶される。   When the image data of the entire image of the imaging target area is obtained in this manner, the image processing control unit 11 of the camera 1 executes various signal processes based on the image data, and, for example, executes the in-image Then, the outline portion of the building 300 is determined, a rectangular parallelepiped detection process is performed, and a process of generating sketch data as auxiliary data is executed. The sketch data in this case is, for example, data of a bird's-eye sketch drawing indicating a schematic arrangement of the building in the imaging target area. Further, the blind spot prediction unit 11d generates information to be added to the sketch data, that is, for example, imaging guide information relating to a blind spot portion, a blind spot range, and the like of each building. The sketch data generated in this manner is displayed on the display screen of the display unit 18 in the form shown in FIG. 10 and is stored in a predetermined storage area such as the recording unit 14 at the same time.

図10においては、表示部18の表示画面の表示領域全体を用いて、上記見取り図データに基いて生成された見取り図画像18aが表示されている形態を示している。このとき、表示部18の表示画面の一隅部分には、例えば表示中の画像が「見取り図データ」である旨を示す表示18dと、戻るアイコン18bと、全体像を撮像したときのカメラ1の位置及び方向を示す矢印アイコン18c等が表示されている。   FIG. 10 shows a mode in which a sketch image 18a generated based on the sketch data is displayed using the entire display area of the display screen of the display unit 18. At this time, at one corner of the display screen of the display unit 18, for example, a display 18 d indicating that the image being displayed is “drawing plan data”, a return icon 18 b, and a position of the camera 1 when the whole image is captured And an arrow icon 18c indicating the direction.

また、図10においては、建造物300の一部であって、全体像を撮像したときのカメラ1の位置から死角となる部位,範囲に対し、輪郭線を太線若しくは色付けする手段等によって表示し、符号DAを付している。この部位DAを死角表示というものとする。このように表示される死角表示DAは、当該建造物300を対象として詳細な撮像を行う際の撮像ガイド情報となる。   In FIG. 10, a part or a part of the building 300 which becomes a blind spot from the position of the camera 1 when the entire image is captured is displayed by a thick line or a unit for coloring. , DA. This part DA is referred to as a blind spot display. The blind spot display DA displayed in this manner serves as imaging guide information when performing detailed imaging of the building 300.

なお、図10においても、各符号は当該表示を説明するために付しているものであって、実際に表示部18の表示画面に見取り図データが表示されるのに際し、これらの符号が表示されるものではないのは、上述の第1の実施形態における図3,図4と同様である。その他の表示体系や、作用についての細かい点においては、上述の第1の実施形態と略同様である。   Also, in FIG. 10, each reference numeral is used to explain the display, and these reference numerals are displayed when the sketch data is actually displayed on the display screen of the display unit 18. This is not the same as in FIGS. 3 and 4 in the first embodiment described above. The other display systems and the details of the operation are substantially the same as those of the first embodiment.

このように構成される本実施形態のカメラ1の作用の主な制御処理シーケンスは、上述の第1の実施形態と略同様である。なお、本実施形態においては、死角予測処理の処理シーケンスにおいて若干異なる。したがって、本実施形態のカメラにおける作用のうち上述の第1の実施形態のカメラとは異なる部分についてのみ、以下に説明する。図11は、本発明の第2の実施形態の撮像装置(カメラ)における作用のうち死角予測処理(図5のステップS111の処理に相当する処理)の詳細を示すフローチャートである。   The main control processing sequence of the operation of the camera 1 of the present embodiment configured as described above is substantially the same as that of the above-described first embodiment. In the present embodiment, the processing sequence of the blind spot prediction processing is slightly different. Therefore, only the part of the operation of the camera according to the present embodiment that is different from that of the camera according to the above-described first embodiment will be described below. FIG. 11 is a flowchart illustrating details of a blind spot prediction process (a process corresponding to the process of step S111 in FIG. 5) in the operation of the imaging apparatus (camera) according to the second embodiment of the present invention.

ステップS201,S202の処理は、上述の第1の実施形態(図7参照)と同様である。なお、本実施形態において、ステップS202の姿勢アドバイス処理は、小型無人飛行体21の操縦者に対するアドバイス表示としてもよいし、当該小型無人飛行体21が自律型制御である場合には、当該小型無人飛行体21の制御部へのアドバイス指示制御であってもよい。   The processing in steps S201 and S202 is the same as in the first embodiment (see FIG. 7). In the present embodiment, the attitude advice processing in step S202 may be an advice display for the operator of the small unmanned aerial vehicle 21 or, if the small unmanned aerial vehicle 21 is under autonomous control, the small unmanned aerial vehicle 21 Advice control to the control unit of the flying object 21 may be performed.

ステップS203Aにおいて、画像処理制御部11の制御部は、構造物輪郭判定部11b等によって、上記全体像を撮像した画像データについての画像信号処理を実行する。この場合における画像信号処理は、例えば画像内において、水平ライン(屋上の境界を示すライン;図9参照)を判定し、また、上記判定された水平ラインの左右端に垂直ラインが存在するか否かの確認を行う。ここで、左右端の垂直ラインは、例えば図9に示す例において、建造物300の左右両端の垂直の輪郭線を想定している。つまり、左右端部の垂直ラインと、屋上の境界水平ラインとを確認することで、対象とする建造物300の屋上領域が判定される。ここで、屋上判定がなされない場合には、ステップS204Aの処理に進む。一方、屋上判定がなされた場合、ステップS305の処理に進む。   In step S203A, the control unit of the image processing control unit 11 executes image signal processing on image data obtained by capturing the entire image by using the structure outline determination unit 11b and the like. The image signal processing in this case determines, for example, a horizontal line (a line indicating a rooftop boundary; see FIG. 9) in the image, and determines whether a vertical line exists at the left and right ends of the determined horizontal line. Confirm whether or not. Here, the vertical lines at the left and right ends are assumed to be vertical contour lines at both left and right ends of the building 300 in the example shown in FIG. 9, for example. That is, by checking the vertical lines at the left and right ends and the horizontal line on the rooftop boundary, the rooftop area of the target building 300 is determined. Here, if the roof determination is not made, the process proceeds to step S204A. On the other hand, when a rooftop determination is made, the process proceeds to step S305.

ステップS204Aにおいて、画像処理制御部11の制御部は、表示制御部11a,ガイド表示制御部11cによって表示部18等を制御して、画角,距離,高度等に関するアドバイス処理を実行する。その後、ステップS203Aの処理に戻る。   In step S204A, the control unit of the image processing control unit 11 controls the display unit 18 and the like by the display control unit 11a and the guide display control unit 11c, and executes an advice process regarding an angle of view, a distance, an altitude, and the like. After that, the process returns to step S203A.

ステップS305において、画像処理制御部11の制御部は、屋上輪郭が完結しているか否かを確認する。屋上輪郭が完結しているとは、建造物300において、例えば複数の直方体形状301,302の全ての屋上部分についての検出が行われたか否かの確認である。ここで、屋上輪郭が完結している場合には、次のステップS307の処理に進む。また、屋上輪郭が完結していない場合には、ステップS203Aの処理に戻り、以降の処理を繰り返す。   In step S305, the control unit of the image processing control unit 11 checks whether or not the roof outline is completed. Completion of the rooftop contour is a confirmation as to whether or not the rooftop portions of the plurality of rectangular parallelepiped shapes 301 and 302 have been detected in the building 300, for example. Here, if the roof outline is completed, the process proceeds to the next step S307. If the roof contour is not completed, the process returns to step S203A, and the subsequent processes are repeated.

ステップS307において、画像処理制御部11の制御部は、上述のステップS203Aの処理における構造物輪郭判定部11b等による判定の結果、上記全体像の画像内での直方体検出処理を行う。この場合における直方体検出処理においては、例えばさらに色の均一性も考慮に入れた処理を実行する。   In step S307, the control unit of the image processing control unit 11 performs the rectangular parallelepiped detection process in the image of the whole image as a result of the determination by the structure outline determination unit 11b or the like in the process of step S203A described above. In the rectangular parallelepiped detection processing in this case, for example, processing that further takes into account color uniformity is executed.

続いて、ステップS308において、画像処理制御部11の制御部は、全体像の画像内における位置,距離に応じて検出した各直方体301,302の配置を推測し、全体像の見取り図化、即ち撮像対象領域を撮像した全体像に基く俯瞰見取り図を生成する。その後、ステップS309の処理に進む。なお、上述のステップS308の処理は、上記第1の実施形態における図7のステップS208と同じ処理である。   Subsequently, in step S308, the control unit of the image processing control unit 11 estimates the arrangement of each of the rectangular parallelepipeds 301 and 302 detected according to the position and distance of the whole image in the image, and makes a sketch of the whole image, that is, captures the image. A bird's-eye view sketch is generated based on the entire image of the target area. Thereafter, the process proceeds to step S309. Note that the processing in step S308 described above is the same as the processing in step S208 in FIG. 7 in the first embodiment.

続いて、ステップS309において、画像処理制御部11の制御部は、上述の処理にて検出された屋上輪郭を構成する複数の輪郭線のうちの2つの輪郭と上記直方体の1本の垂直ラインとの3つの輪郭(図9の符号OS参照)が鈍角で一点で繋がるか(交わっている交点があるか;図9の符号S1参照)否かの確認を行う。ここで、当該交点(符号S1)が存在する場合には、ステップS310の処理に進む。また、上記交点が存在しない場合には、一連の処理を終了し、元のシーケンスに戻る(リターン)。   Subsequently, in step S309, the control unit of the image processing control unit 11 performs two contours of the plurality of contours constituting the roof contour detected in the above-described processing and one vertical line of the rectangular parallelepiped. It is confirmed whether or not the three contours (refer to the symbol OS in FIG. 9) are connected at one point at an obtuse angle (whether there is an intersection that intersects; refer to the symbol S1 in FIG. 9). Here, when the intersection (reference numeral S1) exists, the process proceeds to step S310. If the intersection does not exist, the series of processing ends, and the process returns to the original sequence (return).

ステップS310において、画像処理制御部11の制御部は、上記3つの輪郭(図9の符号OS参照)のうちの垂直ラインの対角(図9の符号S2参照)を含む二面を死角面とする。その後、一連の処理を終了し、元のシーケンスに戻る(リターン)。その他の作用は、上述の第1の実施形態と同様である。   In step S310, the control unit of the image processing control unit 11 determines that two surfaces including the diagonal of the vertical line (see reference symbol S2 in FIG. 9) among the three contours (see reference symbol OS in FIG. 9) are blind spot surfaces. I do. Thereafter, a series of processing is completed, and the process returns to the original sequence (return). Other operations are the same as those of the first embodiment.

以上説明したように、上記第2の実施形態においても、上述したような状況下、即ち例えばドローン等の小型無人飛行体を用いるような広範囲な撮像領域を対象とした場合においても、上述の第1の実施形態と略同様の効果を得ることができる。   As described above, even in the second embodiment, even in the above-described situation, that is, in a case where a wide-area imaging region using a small unmanned aerial vehicle such as a drone is targeted, the above-described second embodiment is used. Almost the same effects as those of the first embodiment can be obtained.

上述の各実施形態で説明した各処理シーケンスは、その性質に反しない限り、手順の変更を許容し得る。したがって、上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更したり、複数の処理ステップを同時に実行させたり、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。即ち、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   Each processing sequence described in each of the above-described embodiments can allow a change in procedure as long as it does not violate its nature. Therefore, for example, the order of each processing step may be different from the above-described processing sequence each time the execution order of each processing step is changed, a plurality of processing steps are simultaneously executed, or a series of processing sequences are executed. It may be. That is, even if the operation flow in the claims, the description, and the drawings is described using “first”, “next”, and the like for convenience, it is essential that the operation be performed in this order. It does not mean. In addition, it is needless to say that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがソフトウエアプログラムにより設定可能であることが多くあり、そのソフトウエアプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのソフトウエアプログラムは、コンピュータプログラム製品として、予め製品製造過程において上記記憶媒体や記憶部等、具体的には例えばフレキシブルディスク,CD−ROM等,不揮発性メモリ等の可搬媒体や、ハードディスク,揮発性メモリ等の記憶媒体に、その全体あるいは一部を記憶又は記録されている電子データである。また、これとは別に、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供が可能なものである。利用者は、製品出荷後であっても、自ら通信ネットワーク,インターネット等を介して、それらのソフトウエアプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記憶媒体からコンピュータにインストールすることで、動作可能にすることができ、これによって容易に本実施形態の撮像装置を実現することができる。   Of the techniques described here, many of the controls and functions mainly described in the flowcharts can be set by software programs in many cases, and the software programs described above are read and executed by a computer. Controls and functions can be realized. The software program may be used as a computer program product in advance in the product manufacturing process, such as the storage medium and the storage unit, specifically, for example, a portable medium such as a non-volatile memory such as a flexible disk, a CD-ROM, a hard disk, and a volatile medium. Electronic data stored or recorded in whole or in part in a storage medium such as a volatile memory. Apart from this, it can be distributed or provided at the time of product shipment or via a portable medium or a communication line. Even after the product is shipped, the user can operate the software program by downloading the software program and installing it on a computer via a communication network or the Internet, or installing the software program on a computer from a storage medium. Accordingly, the imaging apparatus according to the present embodiment can be easily realized.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications and applications can be made without departing from the gist of the invention. Further, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the one embodiment, if the problem to be solved by the invention can be solved and the effect of the invention can be obtained, this configuration is deleted. The configuration can be extracted as an invention. Further, components of different embodiments may be appropriately combined.

本発明は、デジタルカメラ等の撮像機能に特化した撮像措置に限られることはなく、撮像、観察機能を備えたその他の形態の電子機器、例えばムービーカメラ,携帯電話,スマートフォン,電子手帳,電子辞書,携帯情報端末,パーソナルコンピュータ,タブレット型端末機器,ゲーム機器,テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の音声記録再生機能付き電子機器に対し広く適用することができる。産業用の機器などは、建築物に準ずる構造体を検査する場合が多いが、こうした検査装置に本願のガイド表示を応用してもよい。   The present invention is not limited to an imaging device specialized for an imaging function of a digital camera or the like, but is applicable to other types of electronic devices having an imaging and observation function, such as a movie camera, a mobile phone, a smartphone, an electronic organizer, and an electronic device. It can be widely applied to various electronic devices with voice recording / playback functions, such as dictionaries, portable information terminals, personal computers, tablet terminals, game devices, televisions, clocks, navigation devices using GPS (Global Positioning System), etc. it can. Industrial equipment or the like often inspects a structure similar to a building, but the guide display of the present application may be applied to such an inspection device.

1……カメラ,
11……画像処理制御部,
11a……表示制御部,
11b……構造物輪郭判定部,
11c……ガイド表示制御部,
11d……死角予測部,
11e……直方体予測部,
11f……撮像面判定部,
12……撮像部,
13……通信部,
14……記録部,
16……操作判定部,
17a……姿勢センサ,
17b……GPS,
17c……方位センサ,
18……表示部,
19……タッチパネル,
21……小型無人飛行体,
1 ... Camera,
11 image processing control unit,
11a ... display control unit,
11b ... structure outline determination unit,
11c: guide display control unit,
11d: blind spot prediction unit,
11e: rectangular parallelepiped predictor,
11f... Imaging surface determination unit,
12 ... Imaging unit,
13 Communication unit,
14 ... Recording unit,
16 ... operation determination unit,
17a posture sensor,
17b ... GPS,
17c ... direction sensor,
18 Display unit,
19 ... Touch panel,
21 ... Small unmanned aerial vehicle,

Claims (5)

構造物の光学像を受けて画像データを生成する撮像部と、
上記撮像部によって生成された画像データに基づいて画像を表示する表示部と、
上記構造物の輪郭を判定する輪郭判定部と、
上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測し、上記検出した輪郭線の交点及び上記予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成する領域特定部と、
上記撮影ガイド情報を上記表示部に表示させる表示制御部と、
有し、
上記領域特定部は、上記特定した構造物の撮像推奨領域のうち、上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定することを特徴とする撮像装置。
An imaging unit that receives the optical image of the structure and generates image data,
A display unit that displays an image based on the image data generated by the imaging unit;
A contour determining unit for determining a contour of the structure;
The intersection of a plurality of contours of the outline of the structure is detected to predict the shape of the structure, and the imaging recommended area of the structure is determined based on the intersection of the detected contour and the predicted shape of the structure. identify the imaging operation of the imaging target individual structures in the imaging recommended area, the area specifying unit which generates a shooting guide information for guiding so as imaged without omission imaging in need,
A display control unit for displaying the shooting guide information on the display unit,
Has,
The area identification unit is a blind spot, which is a surface of a photographable structure that is a blind spot that is not photographed in image data obtained by receiving an optical image of the structure, in the imaging recommendation area of the structure. region, imaging device profile resulting in contact with the floor or ceiling or wall those is characterized that you guess sets the back side of the plane containing the line of intersection as a blind spot section.
上記輪郭判定部は、上記構造物が直方体であることを予測し判定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the outline determination unit predicts and determines that the structure is a rectangular parallelepiped. 上記撮影ガイド情報は、上記領域特定部によって特定される上記撮像推奨領域であることを特徴とする請求項1に記載の撮像装置。 The photographing guide information imaging apparatus according to claim 1, characterized in that the said imaging recommended region specified by the region specifying unit. 構造物の光学像を受けて画像データを生成するステップと、
上記生成された画像データに基づいて画像を表示するステップと、
上記構造物の輪郭を判定するステップと、
上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測する検出・予測ステップと、
上記検出・予測ステップにおいて検出した輪郭線の交点及び予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記特定した構造物の撮像推奨領域のうち、上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定し、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成する領域特定ステップと、
撮影ガイド情報を表示するステップと、
を含むことを特徴とする撮像方法。
Receiving an optical image of the structure and generating image data;
Displaying an image based on the generated image data;
Determining the contour of the structure;
A detection / prediction step of detecting intersections of a plurality of contour lines of the contour of the structure to predict the shape of the structure,
The imaging recommendation area of the structure is specified based on the intersection of the contour detected in the detection / prediction step and the predicted shape of the structure. The back side of a plane including a line where a contour formed by contacting a floor, a ceiling, or a wall surface with a blind spot area, which is a face of a photographable structure that becomes a blind spot and is not photographed in image data obtained by receiving an image, intersects Is assumed as a blind spot and is set, and in an imaging operation in which an individual structure in the above-mentioned imaging recommended area is to be imaged, an area identification for generating imaging guide information that guides the required imaging so that it can be imaged without omissions Steps and
And the step of displaying the shooting guide information,
An imaging method comprising:
構造物の光学像を受けて画像データを生成し、
上記生成された画像データに基づいて画像を表示し、
上記構造物の輪郭を判定し、
上記構造物の輪郭の複数の輪郭線の交点を検出して当該構造物の形状を予測し、
上記検出した輪郭線の交点及び予測した構造物の形状に基づいて上記構造物の撮像推奨領域を特定し、上記特定した構造物の撮像推奨領域のうち、上記構造物の光学像を受けて得られた画像データにおいて撮影されなかった死角となる撮影可能な構造物の面である死角領域を、床や天井または壁面と当接して生じる輪郭が交差するラインを含む面の背面側を死角部として推測し設定し、上記撮像推奨領域内における個々の構造物を撮像対象とする撮像動作において、必要とする撮像を漏れなく撮像し得るようにガイドする撮影ガイド情報を生成し、
撮影ガイド情報を表示する撮像方法をコンピュータに実行させる撮像プログラム。
Receiving an optical image of the structure to generate image data,
Displaying an image based on the generated image data,
Determining the contour of the structure,
Detecting the intersection of a plurality of contour lines of the contour of the structure to predict the shape of the structure,
An imaging recommended area of the structure is specified based on the intersection of the detected contour and the predicted shape of the structure, and the imaging recommended area of the specified structure is received by receiving an optical image of the structure. A blind spot area, which is a surface of a photographable structure that is not a blind spot in the captured image data and is a blind spot, is estimated as a blind spot on a rear side of a plane including a line where a contour generated by contacting a floor, a ceiling, or a wall surface intersects. In the imaging operation with the individual structures in the imaging recommended area as an imaging target, imaging guide information that guides the required imaging to be able to be imaged without omission is generated,
Imaging program for executing an imaging method for displaying a photographic guide information to the computer.
JP2015165867A 2015-08-25 2015-08-25 Imaging device, imaging method, imaging program Expired - Fee Related JP6639832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015165867A JP6639832B2 (en) 2015-08-25 2015-08-25 Imaging device, imaging method, imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015165867A JP6639832B2 (en) 2015-08-25 2015-08-25 Imaging device, imaging method, imaging program

Publications (2)

Publication Number Publication Date
JP2017046106A JP2017046106A (en) 2017-03-02
JP6639832B2 true JP6639832B2 (en) 2020-02-05

Family

ID=58210158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165867A Expired - Fee Related JP6639832B2 (en) 2015-08-25 2015-08-25 Imaging device, imaging method, imaging program

Country Status (1)

Country Link
JP (1) JP6639832B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6627117B1 (en) * 2018-10-29 2020-01-08 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, moving object, image processing method, and program
CN113971628A (en) * 2020-07-24 2022-01-25 株式会社理光 Image matching method, device and computer readable storage medium
JP7343232B1 (en) * 2022-09-13 2023-09-12 英晃 菊地 Information processing method, information processing device, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074347A (en) * 2000-08-31 2002-03-15 Minolta Co Ltd Information aquiring system
JP4588369B2 (en) * 2004-06-18 2010-12-01 株式会社トプコン Imaging apparatus and imaging method
JP2010165081A (en) * 2009-01-14 2010-07-29 Casio Computer Co Ltd Display apparatus, and system, apparatus and method for creating three-dimensional content
JP2010256252A (en) * 2009-04-27 2010-11-11 Topcon Corp Image capturing device for three-dimensional measurement and method therefor
JP2012015674A (en) * 2010-06-30 2012-01-19 Fujifilm Corp Imaging device, operation control method for imaging device, and program for imaging device

Also Published As

Publication number Publication date
JP2017046106A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
US11710205B2 (en) Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
JP5194650B2 (en) Electronic camera
US8994785B2 (en) Method for generating video data and image photographing device thereof
JP6639832B2 (en) Imaging device, imaging method, imaging program
JP5186984B2 (en) Electronic camera
JP6456783B2 (en) Bar arrangement measuring device
JP5007631B2 (en) Electronic camera
JP6741498B2 (en) Imaging device, display device, and imaging display system
JP7148648B2 (en) Photography system, photography location setting device, photography device and photography method
JP2012032339A (en) Digital camera
JP2011041145A (en) Image display apparatus, image display method, and computer program
JP2008301231A (en) Photographing device, electronic device, and photographing support system
JP2006157810A (en) Display controller, camera, method for controlling display and program
JP2011188054A (en) Image photographing device capable of using position information, image photographing method, and program
JP6504703B2 (en) Imaging apparatus and imaging method
JP5115375B2 (en) Image display device and electronic camera
JP2009060338A (en) Display device and electronic camera
JP2004088607A (en) Imaging apparatus, imaging method and program
JP5753514B2 (en) Image display device and computer program
JP5088051B2 (en) Electronic camera and program
JP2008152374A (en) Image system, photographing direction specifying device, photographing direction specifying method and program
JP2004242288A (en) Video reproducing apparatus and video recording and reproducing apparatus
JP7163238B2 (en) Bar arrangement measurement system, bar arrangement measurement method, bar arrangement measurement program
JP2012227717A (en) Display device, display program, and display method
JP5737961B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190813

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191225

R151 Written notification of patent or utility model registration

Ref document number: 6639832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees