JP2018155562A - Data acquisition device - Google Patents

Data acquisition device Download PDF

Info

Publication number
JP2018155562A
JP2018155562A JP2017051758A JP2017051758A JP2018155562A JP 2018155562 A JP2018155562 A JP 2018155562A JP 2017051758 A JP2017051758 A JP 2017051758A JP 2017051758 A JP2017051758 A JP 2017051758A JP 2018155562 A JP2018155562 A JP 2018155562A
Authority
JP
Japan
Prior art keywords
accuracy
measurement
unit
image
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017051758A
Other languages
Japanese (ja)
Inventor
吉田 英明
Hideaki Yoshida
英明 吉田
原田 久之
Hisashi Harada
久之 原田
寿一 林
Toshikazu Hayashi
寿一 林
岡田 圭司
Keiji Okada
圭司 岡田
裕一 土持
Yuichi Tsuchimochi
裕一 土持
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017051758A priority Critical patent/JP2018155562A/en
Publication of JP2018155562A publication Critical patent/JP2018155562A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data acquisition device capable of easily checking the measurement accuracy when measurement is performed based on a photographic image.SOLUTION: A data acquisition device 10 for acquiring a photographic image of an object includes a measurement part 130 for measuring the shape of the object based on the photographic image, a condition determination part 136 for determining the photographic conditions affecting the accuracy of measurement, an accuracy determination part 138 for determining the measurement accuracy corresponding to the determined photographic conditions, and a control part 120 for displaying the determined measurement accuracy.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像を取得し、取得した撮影画像に基づき対象物の計測を行う情報取得装置に関する。   The present invention relates to an information acquisition apparatus that acquires a captured image and measures an object based on the acquired captured image.

デジタルカメラにより撮影された画像は、銀塩写真に比べて圧倒的に即時性が優れていることから、様々な業務分野で証拠写真としての利用が広がっている。例えば、建設現場や土木工事現場では、デジタルカメラで撮影された画像データを証拠写真として使用するシステムが広がっている。さらに、工事現場では、撮影された画像データを利用して、柱、梁等の部材の形状測定も行われている。
2つの撮像部を備え立体視用の画像を撮像するステレオカメラを複数同時に使用することで、被写体までの距離を測定する技術が知られている。例えば、ステレオカメラ等の撮像装置を用いて、被写体上のユーザが指定した2点間の長さを精度良く測定する撮像装置も提案されている(特許文献1)。
Images taken with a digital camera are overwhelmingly superior in immediacy compared with silver halide photographs, and thus are widely used as evidence photographs in various business fields. For example, in construction sites and civil engineering sites, systems that use image data taken with a digital camera as evidence photographs are spreading. Further, at the construction site, the shape measurement of members such as columns and beams is performed using the captured image data.
A technique for measuring a distance to a subject by simultaneously using a plurality of stereo cameras that include two imaging units and capture a stereoscopic image is known. For example, an imaging apparatus that accurately measures the length between two points designated by a user on a subject using an imaging apparatus such as a stereo camera has been proposed (Patent Document 1).

特許第5018980号公報Japanese Patent No. 5018980

撮影画像に基づき部材等の対象物の形状等を計測する場合、撮影の状況により計測精度が大きく変化する。このため、計測に要求される精度が満足されるような状況で撮影することが必要である。要求精度が満足されない状況で得られた計測値は、信頼性に欠けることになるからである。   When measuring the shape of an object such as a member based on a captured image, the measurement accuracy varies greatly depending on the shooting situation. For this reason, it is necessary to photograph in a situation where the accuracy required for measurement is satisfied. This is because the measurement value obtained in a situation where the required accuracy is not satisfied is not reliable.

本願発明は、上記課題に鑑み、撮影画像に基づく計測を行う際に、計測精度の確認を容易にできる情報取得装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an information acquisition apparatus that can easily check measurement accuracy when performing measurement based on a captured image.

上記目的を達成するために、対象物の撮影画像を取得する情報取得装置において、前記撮影画像に基づき、前記対象物の形状を計測する計測部と、前記計測の精度に影響する撮影状況を判定する状況判定部と、前記判定された撮影状況に応じて、計測精度を判定する精度判定部と、前記判定された計測精度を表示する制御部と、を備える。   In order to achieve the above object, in an information acquisition device for acquiring a captured image of an object, a measurement unit that measures the shape of the object and a shooting situation that affects the accuracy of the measurement are determined based on the captured image. A determination unit that determines measurement accuracy according to the determined shooting situation, and a control unit that displays the determined measurement accuracy.

本発明によれば、撮影画像に基づく計測を行う際に、計測精度の確認を容易にできる情報取得装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when performing the measurement based on a picked-up image, the information acquisition apparatus which can confirm confirmation of measurement accuracy easily can be provided.

工事撮影の例を示す図である。It is a figure which shows the example of construction photography. 情報取得システム全体の構成図である。It is a block diagram of the whole information acquisition system. 情報取得装置のハードウェアブロック図である。It is a hardware block diagram of an information acquisition device. 計測精度に対する撮影距離と分解能の関係を説明する図である。It is a figure explaining the relationship between the imaging distance with respect to measurement accuracy, and resolution. 撮影範囲と計測精度の関係を説明する図である。It is a figure explaining the relationship between an imaging | photography range and measurement accuracy. 撮影範囲と計測精度の関係を説明する図である。It is a figure explaining the relationship between an imaging | photography range and measurement accuracy. 画像取得処理を説明するフローチャート1である。It is a flowchart 1 explaining an image acquisition process. 画像取得処理を説明するフローチャート2である。It is a flowchart 2 explaining an image acquisition process. 離れた位置からの撮影状態を示す図である。It is a figure which shows the imaging | photography state from the distant position. 精度メーターの表示例である。It is a display example of an accuracy meter. 接近しての撮影状態を示す図である。It is a figure which shows the imaging | photography state when approaching. 精度メーターの表示例である。It is a display example of an accuracy meter. 構成情報とライブビュー画像を含むガイド画面の表示例である。It is a display example of a guide screen including configuration information and a live view image. 斜めの柱を撮影する様子である。It is a state of shooting an oblique pillar. 2眼式カメラ部の構成を模式的に示す図である。It is a figure which shows typically the structure of a twin-lens camera part. 2眼式カメラ部における視差を説明する図である。It is a figure explaining the parallax in a twin-lens type camera part. 2眼式カメラ部による左右のライブビュー画像の関係を示す図である。It is a figure which shows the relationship of the left and right live view image by a twin-lens camera part. 第2の画像取得処理を説明するフローチャート1である。It is a flowchart 1 explaining a 2nd image acquisition process. 第2の画像取得処理を説明するフローチャート2である。It is a flowchart 2 explaining a 2nd image acquisition process. 精度メーターの表示例である。It is a display example of an accuracy meter. 合成ライブビュー画像の表示例である。It is a display example of a synthetic live view image. 2眼式のカメラで輻輳角を調整して撮影する様子である。It shows a situation where the convergence angle is adjusted with a twin-lens camera. 撮影距離に応じた輻輳角の調整例を示す図である。It is a figure which shows the example of adjustment of the convergence angle according to an imaging distance. 第3の画像取得処理を説明するフローチャート1である。It is a flowchart 1 explaining a 3rd image acquisition process. 第3の画像取得処理を説明するフローチャート1である。It is a flowchart 1 explaining a 3rd image acquisition process. 一致度メーターの表示である。It is a display of a coincidence meter.

以下、図面に従って本発明の実施形態を説明する。以下実施形態では、本発明の情報取得システム1を工事撮影で利用する例で説明する。工事撮影は、工事現場で工事内容の証拠写真等を取得するための撮影である。図1は、工事撮影の様子である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, an example in which the information acquisition system 1 of the present invention is used for construction photography will be described. Construction photography is photography for obtaining evidence photographs of construction contents at a construction site. FIG. 1 shows a state of construction photography.

図1は、複数の部材(柱P)が施工された室内で、撮影機器(以下では、情報取得装置10と呼ぶ)を携えた撮影者が、撮影準備をしている様子である。なお、以下では柱や梁のような撮影対象となる工事箇所を、パーツあるいは部材とも呼ぶ。そして、撮影画像の中で撮影された部材に対応する部分を撮影部位あるいは、単に部位とも呼ぶ。また、部位に対応する部材も、不明確にならない限り、部位とも略する。   FIG. 1 shows a situation where a photographer carrying a photographing device (hereinafter referred to as an information acquisition device 10) is preparing for photographing in a room where a plurality of members (columns P) are constructed. In the following, a construction site to be photographed such as a column or a beam is also referred to as a part or a member. And the part corresponding to the member image | photographed in the picked-up image is also called an imaging | photography site | part or only a site | part. Further, members corresponding to the parts are also abbreviated as parts unless obscured.

図2は、情報取得システム1全体の構成図である。情報取得システム1は、大きくは、情報取得装置10と外部装置40から構成される。情報取得装置10は、撮影画像を取得して、取得した画像に所定の処理を行う装置である。情報取得装置10としては、デジタルカメラ、カメラ付きの情報処理装置、あるいはカメラと情報処理端末(例えば、タブレット型の情報処理端末)が有線または無線で組み合わさったシステムのいずれでもよい。外部装置40は、例えば、情報取得装置10と通信回線で接続され、情報取得装置10による撮影結果を格納するサーバである。   FIG. 2 is a configuration diagram of the entire information acquisition system 1. The information acquisition system 1 is mainly composed of an information acquisition device 10 and an external device 40. The information acquisition device 10 is a device that acquires a captured image and performs predetermined processing on the acquired image. The information acquisition apparatus 10 may be a digital camera, an information processing apparatus with a camera, or a system in which a camera and an information processing terminal (for example, a tablet-type information processing terminal) are combined in a wired or wireless manner. The external device 40 is, for example, a server that is connected to the information acquisition device 10 via a communication line and stores a photographing result of the information acquisition device 10.

情報取得装置10は、カメラ部100、制御部120、記憶部150、表示部160、タッチパネル165及び通信部170等を有する。なお、カメラ部100は、単にカメラとも呼ぶ。   The information acquisition apparatus 10 includes a camera unit 100, a control unit 120, a storage unit 150, a display unit 160, a touch panel 165, a communication unit 170, and the like. The camera unit 100 is also simply called a camera.

カメラ部100は、撮影部102、画像処理部104、操作部106、操作判定部108及び姿勢センサ110を有する。なお、カメラ部100は、単眼式あるいは2眼式いずれでもよい。撮影部102は、不図示のレンズ部102a、撮像素子102b等を有し、被写体像を画像信号に変換する。画像処理部104は、撮影部102から出力される画像信号をデジタルデータに変換して、各種の画像処理を行う。   The camera unit 100 includes a photographing unit 102, an image processing unit 104, an operation unit 106, an operation determination unit 108, and a posture sensor 110. The camera unit 100 may be either a monocular type or a binocular type. The imaging unit 102 includes a lens unit 102a (not shown), an image sensor 102b, and the like, and converts a subject image into an image signal. The image processing unit 104 converts the image signal output from the photographing unit 102 into digital data, and performs various types of image processing.

操作部106は、撮影部102のレンズ部102aの焦点位置、焦点距離や各種設定等を調整するための指示部材である。操作判定部108は、操作部106に対する操作を判定する、姿勢センサ110は、カメラ部100の姿勢や方向を検出するセンサである。姿勢センサ110は、例えば、傾きセンサ(加速度センサ)や電子コンパスを有する。   The operation unit 106 is an instruction member for adjusting the focal position, focal length, various settings, and the like of the lens unit 102a of the imaging unit 102. The operation determination unit 108 determines an operation on the operation unit 106. The posture sensor 110 is a sensor that detects the posture and direction of the camera unit 100. The posture sensor 110 includes, for example, an inclination sensor (acceleration sensor) and an electronic compass.

制御部120は、情報取得装置10全体を統括的に制御する。制御部120は、情報処理部122、カメラ制御部124、構成情報取得部126、撮影済部位判定部128、計測部130、撮影距離算出部132、一致度判定部133、一致度表示処理部134、合成画像作成部135、状況判定部136、精度判定部138、精度表示処理部140、ガイド画面作成部142及び表示制御部144等を有する。   The control unit 120 controls the entire information acquisition apparatus 10 in an integrated manner. The control unit 120 includes an information processing unit 122, a camera control unit 124, a configuration information acquisition unit 126, an imaged site determination unit 128, a measurement unit 130, an imaging distance calculation unit 132, a coincidence degree determination unit 133, and a coincidence degree display processing unit 134. , A composite image creation unit 135, a situation determination unit 136, an accuracy determination unit 138, an accuracy display processing unit 140, a guide screen creation unit 142, a display control unit 144, and the like.

情報処理部122は、各種の判断処理や、外部装置40やカメラ部100から入力される情報を管理する。カメラ制御部124は、タッチパネル165から入力された指示に基づきカメラ部100を制御して、カメラ部100の動作モードを切換えたり、撮影等を実行させる。   The information processing unit 122 manages various determination processes and information input from the external device 40 or the camera unit 100. The camera control unit 124 controls the camera unit 100 based on an instruction input from the touch panel 165, and switches the operation mode of the camera unit 100 or performs shooting or the like.

構成情報取得部126は、撮影対象となる複数の部材の構成を示す構成情報を取得するものである。撮影対象となる部材とは、柱、壁や梁等の工事個所である。外部装置40の設計図情報422あるいはカメラ部100で撮影された画像から構成情報を取得する。   The configuration information acquisition unit 126 acquires configuration information indicating the configuration of a plurality of members to be imaged. The member to be photographed is a construction site such as a pillar, wall or beam. The configuration information is acquired from the design drawing information 422 of the external device 40 or the image taken by the camera unit 100.

構成情報取得部126は、カメラ部100で撮影された画像であって、複数の部材の全体が撮影された画像(全体画像とも呼ぶ)を、第1構成情報として取得する。また、構成情報取得部126は、設計図に基づく第2構成情報として、外部装置40から設計図情報422を取得する。   The configuration information acquisition unit 126 acquires an image (also referred to as an entire image) that is an image captured by the camera unit 100 and is captured of the entire plurality of members as first configuration information. In addition, the configuration information acquisition unit 126 acquires the design drawing information 422 from the external device 40 as the second configuration information based on the design drawing.

構成情報の表示例を図9で説明する。図9は、後述するガイド画面の表示例である。図9のガイド画面202及びガイド画面203で、左側がライブビュー画像で、右側が構成情報である。ガイド画面202右の構成情報は、第2構成情報である。この第2構成情報は、柱が6本配置された室内の設計図に基づく。ガイド画面203右の構成情報は、第1構成情報である。構成情報取得部126は、第1構成情報及び第2構成情報を記憶部150に格納する。   A display example of the configuration information will be described with reference to FIG. FIG. 9 is a display example of a guide screen described later. In the guide screen 202 and the guide screen 203 of FIG. 9, the left side is a live view image, and the right side is configuration information. The configuration information on the right side of the guide screen 202 is second configuration information. This second configuration information is based on an indoor design drawing in which six columns are arranged. The configuration information on the right side of the guide screen 203 is first configuration information. The configuration information acquisition unit 126 stores the first configuration information and the second configuration information in the storage unit 150.

撮影済部位判定部128は、複数の部材を順に撮影する経緯で、撮影した部材を判定するものである。工事現場では、形状の類似した部材が多数あるため、撮影済部材を撮影中に特定していくことで、重複撮影の無駄を抑えるとともに、撮影漏れを防止することができる。   The imaged region determination unit 128 determines the imaged member based on the process of sequentially imaging a plurality of members. Since there are many members having similar shapes at the construction site, by specifying the already-photographed member during photographing, it is possible to suppress waste of duplicate photographing and to prevent omission of photographing.

計測部130は、撮影画像から部位の形状を計測し、計測値を出力する。部位の形状とは、撮影対象の部材が柱の場合には、柱の幅(直径)や高さである。部材が梁の場合は梁の厚さ等である。計測原理は、後ほど式(1)で説明する。   The measurement unit 130 measures the shape of the part from the captured image and outputs a measurement value. The shape of the part is the width (diameter) or height of the column when the member to be imaged is a column. When the member is a beam, it is the thickness of the beam. The measurement principle will be described later using equation (1).

撮影距離算出部132は、カメラ部100から撮影される部材(例えば、柱)までの距離を算出する。カメラ部100が単眼式の場合には、撮影距離算出部132は、コントラスト方式により検出された撮影部102の合焦レンズの位置により、撮影距離を算出する。合焦検出ポイントの位置を対象部位の位置に合わせることで、対象部位に対応する撮影距離を算出することができる。   The shooting distance calculation unit 132 calculates a distance from the camera unit 100 to a member (for example, a pillar) to be shot. When the camera unit 100 is monocular, the shooting distance calculation unit 132 calculates the shooting distance based on the position of the focusing lens of the shooting unit 102 detected by the contrast method. By adjusting the position of the focus detection point to the position of the target part, the photographing distance corresponding to the target part can be calculated.

また、撮影部102が2眼式の場合は、撮影距離算出部132は、左右の撮像素子102bを用いた位相差測距で撮影距離を算出してもよい。ここで位相差測距とは、左右の各被写体像間の相関の程度(一致度)に基づいて被写体上の着目点に対応する像位置のずれ(視差)を検出し、左右2眼の視線(光軸)の離間距離である基線長や、撮影倍率などの諸条件を加味して、三角測量の原理に基づいて当該着目点までの距離を算出する公知の手法であり、撮影画像の中の各部位の距離を、1回の撮影で求めることができる。   When the photographing unit 102 is a twin-lens type, the photographing distance calculation unit 132 may calculate the photographing distance by phase difference ranging using the left and right imaging elements 102b. Here, the phase difference ranging means detecting a shift (parallax) of the image position corresponding to the point of interest on the subject based on the degree of correlation (degree of coincidence) between the left and right subject images, and the left and right eyes This is a well-known method for calculating the distance to the target point based on the principle of triangulation, taking into account various conditions such as the base line length, which is the separation distance of the (optical axis), and the imaging magnification. It is possible to obtain the distance between the respective parts in one imaging.

一致度判定部133は上述の位相差測距のための像相関の程度(一致度)を求めるのに利用され、また一致度表示処理部134及び合成画像作成部135とともに、後述する「輻輳角調整表示処理」で利用される。一致度判定部133、一致度表示処理部134及び合成画像作成部135は、カメラ部100が2眼式の場合に設けられる。   The coincidence degree determination unit 133 is used to obtain the degree of image correlation (coincidence degree) for the above-described phase difference distance measurement, and together with the coincidence degree display processing unit 134 and the composite image creation unit 135, a “convergence angle” described later. Used in “adjustment display processing”. The coincidence degree determination unit 133, the coincidence degree display processing unit 134, and the composite image creation unit 135 are provided when the camera unit 100 is a twin-lens system.

一致度判定部133は、左右の撮像素子102bから得られた画像の一致度を判定する。一致度表示処理部134は、判定された左右の画像の一致度を表示する処理を行う。合成画像作成部135は、左右の撮像素子102bから得られた画像を合成して、合成画像を作成する。   The degree of coincidence determination unit 133 determines the degree of coincidence of images obtained from the left and right imaging elements 102b. The coincidence degree display processing unit 134 performs processing for displaying the degree of coincidence of the determined left and right images. The composite image creation unit 135 composites images obtained from the left and right imaging elements 102b to create a composite image.

状況判定部136は、計測部130による計測の精度に影響を与える撮影状況を判定し、判定した撮影状況を判定結果として出力する。精度判定部138は、状況判定部136により判定された撮影状況により、計測の精度を判定する。   The situation determination unit 136 determines a shooting situation that affects the measurement accuracy of the measurement unit 130, and outputs the determined shooting situation as a determination result. The accuracy determination unit 138 determines the accuracy of measurement based on the shooting situation determined by the situation determination unit 136.

計測精度に影響を与える撮影状況とは、撮影部102の特性(レンズ部102aの分解能、撮像素子102bの分解能、撮像素子102bのS/N、アンプゲイン等)、被写体の輝度やコントラスト、カメラ部100から被写体までの距離(撮影距離)等である。また、2眼式の場合には、基線長も撮影状況に含まれる。   The shooting situation that affects the measurement accuracy includes the characteristics of the shooting unit 102 (resolution of the lens unit 102a, resolution of the image sensor 102b, S / N of the image sensor 102b, amplifier gain, etc.), luminance and contrast of the subject, camera unit For example, the distance from 100 to the subject (shooting distance). In the case of a twin-lens system, the base line length is also included in the shooting situation.

例えば、撮影距離を長くすれば、撮影範囲が広がり、複数の部材をまとめて撮影することができるが(図5A、図5B参照)、撮像素子102b等の分解能の関係で、計測の精度が低下する。つまり、高い計測精度が要求される場合には、近接撮影することが必要になる。このように、部材の計測値に対する要求精度に応じて、適切な撮影条件が設定されることが必要になる。   For example, if the shooting distance is increased, the shooting range is widened and a plurality of members can be shot together (see FIGS. 5A and 5B), but the measurement accuracy decreases due to the resolution of the image sensor 102b and the like. To do. That is, when high measurement accuracy is required, close-up imaging is required. As described above, it is necessary to set appropriate photographing conditions in accordance with the required accuracy for the measurement value of the member.

精度判定部138は、状況判定部136により判定された撮影状況により、計測精度を判定する。精度判定部138は、状況判定部136で判定された撮影状況と精度参照情報158を対比して、計測精度を判定してもよい。精度参照情報158は、例えば、予め実験等によって撮影状況の各種パラメータのデータと計測精度の関係を求めておいて、その関係をテーブル化したものである。あるいは、精度参照情報158は、撮影状況の各種パラメータのデータから計測精度を算出する計算式であってもよい。計算式は実験等によって定めてもよい。   The accuracy determination unit 138 determines the measurement accuracy based on the shooting situation determined by the situation determination unit 136. The accuracy determination unit 138 may determine the measurement accuracy by comparing the shooting situation determined by the situation determination unit 136 with the accuracy reference information 158. The accuracy reference information 158 is obtained by, for example, obtaining a relationship between data of various parameters of photographing conditions and measurement accuracy in advance by an experiment or the like and tabulating the relationship. Alternatively, the accuracy reference information 158 may be a calculation formula for calculating measurement accuracy from data of various parameters of the shooting situation. The calculation formula may be determined by experiments or the like.

精度判定部138は、精度参照情報158の中から、今回の撮影状況のデータに対応する計測精度を求め、求めた計測精度を計測精度と判定する。また、精度判定部138は、撮影距離等の撮影状況の変化に応じて、計測精度を連続的に判定する。   The accuracy determination unit 138 obtains the measurement accuracy corresponding to the current shooting situation data from the accuracy reference information 158, and determines the obtained measurement accuracy as the measurement accuracy. In addition, the accuracy determination unit 138 continuously determines the measurement accuracy according to a change in shooting conditions such as a shooting distance.

精度表示処理部140は、精度判定部138で判定された計測精度を表示する処理を行う。精度表示処理部140は、計測精度を示す画面として精度メーターを表示する処理を行う。精度メーターの画面については、図7B、図8Bで説明する。   The accuracy display processing unit 140 performs processing for displaying the measurement accuracy determined by the accuracy determination unit 138. The accuracy display processing unit 140 performs processing for displaying an accuracy meter as a screen indicating measurement accuracy. The screen of the accuracy meter will be described with reference to FIGS. 7B and 8B.

ガイド画面作成部142は、撮影援助用として、ガイド画面を作成する。ガイド画面には、撮影画像(ライブビュー画像あるいはレックビュー画像)、構成情報あるいは各種メーター(精度メーター、一致度メーター)が表示される。ガイド画面作成部142は、ガイド画面にさらに、計測部130による計測値、撮影距離算出部132に算出された撮影距離情報、要求精度情報、撮影済部位判定部128の判定に基づく撮影済み情報等を含ませてもよい。   The guide screen creation unit 142 creates a guide screen for photographing assistance. On the guide screen, a captured image (live view image or REC view image), configuration information, or various meters (accuracy meter, coincidence meter) are displayed. In addition to the guide screen, the guide screen creation unit 142 further includes a measurement value obtained by the measurement unit 130, imaging distance information calculated by the imaging distance calculation unit 132, required accuracy information, already-photographed information based on the determination of the already-photographed site determination unit 128, and the like. May be included.

また、ガイド画面は、カメラ部100の性能、機能の情報を基として、撮影計測時の環境、撮影計測の対象物に従って、効率的に精度良く、適切な撮影が出来るような情報を、撮影者に報知するものである。これらにより、部位の正しい測定や効率的に一度に多くの測定が出来るようなガイド画面が表示される。ガイド画面作成部142は、カメラ部100の性能や計測部130の精度、実際の各部位の配置や大きさなどからガイド画面を作成するが、必要に応じて、撮影者が撮影できる位置やスペースなどを考慮して、ガイド画面を作成してもよい。   Further, the guide screen provides information that enables efficient and appropriate shooting according to the shooting and measurement environment and the shooting measurement target based on the performance and function information of the camera unit 100. This is a notification. As a result, a guide screen is displayed so that correct measurement of a part and efficient measurement at a time can be performed. The guide screen creation unit 142 creates a guide screen based on the performance of the camera unit 100, the accuracy of the measurement unit 130, the actual arrangement and size of each part, and the position and space where the photographer can shoot as necessary. The guide screen may be created in consideration of the above.

表示制御部144は、撮影画像、モード等を設定するための設定画面、あるいはガイド画面等を表示部160に表示させる。   The display control unit 144 causes the display unit 160 to display a setting screen for setting a captured image, a mode, or the like, or a guide screen.

記憶部150は、不揮発性の記憶部である。記憶部150には、不揮発性の記憶部であって、撮影画像152、構成情報154、カメラ部特性情報156及び精度参照情報158等が格納される。撮影画像152は、カメラ部100で撮影記録された画像データである。構成情報154は、構成情報取得部126で取得された情報である。   The storage unit 150 is a nonvolatile storage unit. The storage unit 150 is a non-volatile storage unit that stores a captured image 152, configuration information 154, camera unit characteristic information 156, accuracy reference information 158, and the like. The captured image 152 is image data captured and recorded by the camera unit 100. The configuration information 154 is information acquired by the configuration information acquisition unit 126.

カメラ部特性情報156は、カメラ部100の特にレンズ部102aや撮像素子102bの特性に関する情報である。レンズ部102aの特性情報は、仕様以外に、明るさ、解像度、ディストーション等である。撮像素子102bの特性情報は、画素サイズ、ピクセル数や画素ピッチ等である。前述のように、精度参照情報158は、例えば、撮影状況の各種パラメータと計測精度の関係が記載されたテーブルである。また、精度参照情報158は、計測精度を算出する計算式でもよい。   The camera unit characteristic information 156 is information relating to the characteristics of the camera unit 100, in particular, the lens unit 102a and the image sensor 102b. The characteristic information of the lens unit 102a includes brightness, resolution, distortion, and the like in addition to the specifications. The characteristic information of the image sensor 102b is the pixel size, the number of pixels, the pixel pitch, and the like. As described above, the accuracy reference information 158 is, for example, a table in which the relationship between various parameters of the shooting situation and measurement accuracy is described. Further, the accuracy reference information 158 may be a calculation formula for calculating the measurement accuracy.

表示部160は、例えばLCDで、撮影画像やガイド画面等を表示する。タッチパネル165は、表示部160と一体的に構成される操作部で、撮影者からの各種指示が入力される。通信部170は、外部装置40と種々情報通信を行うインターフェースである。通信部170は、外部装置40とネットワーク(不図示)を経由して通信を行う。通信部170は、接続先やその要求などを受信や接続設定等で判別可能で、それによって様々な計測の要求仕様などを制御部120が判定可能となっている。この通信によって、外部装置40が、要求仕様を送信するようにしてもよい。   The display unit 160 is a LCD, for example, and displays a captured image, a guide screen, and the like. The touch panel 165 is an operation unit configured integrally with the display unit 160 and receives various instructions from the photographer. The communication unit 170 is an interface that performs various information communication with the external device 40. The communication unit 170 communicates with the external device 40 via a network (not shown). The communication unit 170 can determine a connection destination, a request for the connection, and the like based on reception, connection setting, and the like, so that the control unit 120 can determine various measurement required specifications. The external device 40 may transmit the required specification through this communication.

外部装置40は、制御部400、通信部410および記憶部420を有する。外部装置40は、工事撮影を管理するサーバである。制御部400は、外部装置40を統括的に制御する。通信部410は、外部の装置、例えば情報取得装置10と情報通信を行うインターフェースである。記憶部420には、設計図情報422が格納される。また、記憶部420には、情報取得装置10で撮影された撮影結果が保存される。   The external device 40 includes a control unit 400, a communication unit 410, and a storage unit 420. The external device 40 is a server that manages construction photography. The control unit 400 controls the external device 40 in an integrated manner. The communication unit 410 is an interface that performs information communication with an external device, for example, the information acquisition device 10. The storage unit 420 stores design drawing information 422. In addition, the storage unit 420 stores imaging results captured by the information acquisition apparatus 10.

図3は、情報取得装置10のハードウェアブロック図である。情報取得装置10は、CPU(Central Processing Unit)120a、DRAM(Dynamic Random Access Memory)120b、ROM(Read Only memory)120c、フラッシュメモリ150a、表示部160、タッチパネル165及び通信部170を有する。   FIG. 3 is a hardware block diagram of the information acquisition apparatus 10. The information acquisition apparatus 10 includes a central processing unit (CPU) 120a, a dynamic random access memory (DRAM) 120b, a read only memory (ROM) 120c, a flash memory 150a, a display unit 160, a touch panel 165, and a communication unit 170.

CPU120aは、ROM120cに格納される制御プログラムを読込んで実行して、ソフトウェア処理により情報取得装置10の制御を行う。DRAM120bは、制御プログラムや各種データを一時的に記憶するワーキングエリアを提供する。ROM120cは、制御プログラムを不揮発的に記憶する。制御部120は、CPU120a、DRAM120b及びROM120cにより構成される。   The CPU 120a reads and executes a control program stored in the ROM 120c, and controls the information acquisition apparatus 10 by software processing. The DRAM 120b provides a working area for temporarily storing control programs and various data. The ROM 120c stores the control program in a nonvolatile manner. The control unit 120 includes a CPU 120a, a DRAM 120b, and a ROM 120c.

フラッシュメモリ150aは、各種データテーブルや撮影画像を記憶する。記憶部150は、フラッシュメモリ150aにより構成される。表示部160、タッチパネル165及び通信部170は、前述したので、説明は省略する。   The flash memory 150a stores various data tables and captured images. The storage unit 150 includes a flash memory 150a. Since the display unit 160, the touch panel 165, and the communication unit 170 have been described above, description thereof will be omitted.

図4は、計測精度(分解能)と撮影距離の関係を簡単に説明する図である。図4の構成図C1及び構成図C2は、いずれも、カメラ部100を上から見た状態である。   FIG. 4 is a diagram for simply explaining the relationship between measurement accuracy (resolution) and shooting distance. Each of the configuration diagram C1 and the configuration diagram C2 of FIG. 4 is a state where the camera unit 100 is viewed from above.

図4の構成図C1は、撮影画像によって部位形状(ここでは、柱Pの幅)を計測する原理を示す図である。なお、構成図C1は、カメラ部100が単眼式の例である。   The configuration diagram C1 of FIG. 4 is a diagram illustrating the principle of measuring the part shape (here, the width of the column P) from the captured image. The configuration diagram C1 is an example in which the camera unit 100 is monocular.

構成図C1で、部位(柱P)の幅W、撮像素子102bの幅X0、レンズ部102aの画角φ、レンズ部102aの焦点距離F、被写体距離Dとする。幅X0、画角φ、焦点距離Fは、カメラ部特性情報156に含まれる値である。被写体距離Dは、例えばコントラストAFで検出されたピント位置により撮影距離算出部132により算出される。以上により、単眼式では、柱Pの幅Wは以下の式(1)で、画角φは式(2)で算出される。
W=D×X/F・・・式(1)
φ=2×arctan(X0/(2×F))・・・式(2)
なお式(1)、(2)においてF(焦点距離)とした部分は、正確には焦点距離Fにフォーカシングによる像面移動を加えた像面距離(固定焦点系の場合はその固定された像面距離)となるべきところだが、説明の簡易化のためFとした。以下本明細書では、特に断り無く同様の簡易化を用いる。
ここで撮像素子上の被写体像における部位(柱P)の幅であるXについては公知の種々の手法により求め得るが、画像の輝度・コントラスト・色などの特徴解析を用いたいわゆる「背景分離」手法を適用し、抽出された主要被写体部分(柱Pの部分)の画素数として求めることも一例である。
In the configuration diagram C1, the width W of the part (column P), the width X0 of the image sensor 102b, the angle of view φ of the lens unit 102a, the focal length F of the lens unit 102a, and the subject distance D are set. The width X0, the angle of view φ, and the focal length F are values included in the camera unit characteristic information 156. The subject distance D is calculated by the shooting distance calculation unit 132 based on the focus position detected by contrast AF, for example. As described above, in the monocular system, the width W of the column P is calculated by the following expression (1), and the angle of view φ is calculated by the expression (2).
W = D × X / F (1)
φ = 2 × arctan (X0 / (2 × F)) (2)
It should be noted that the portion denoted by F (focal length) in the expressions (1) and (2) is precisely the image plane distance obtained by adding the image plane movement by focusing to the focal length F (in the case of a fixed focus system, the fixed image). The distance should be F) for simplicity of explanation. Hereinafter, in the present specification, the same simplification is used without particular notice.
Here, X, which is the width of the part (column P) in the subject image on the image sensor, can be obtained by various known methods, but so-called “background separation” using characteristic analysis such as luminance, contrast, and color of the image. It is an example to obtain the number of pixels of the extracted main subject portion (column P portion) by applying the technique.

構成図C2は、撮像素子102bの受光面(像面)における分解能(計測精度)と被写体上の分解能の関係を示す図である。被写体分解能Ro、撮像素子102b上の分解能ri、被写体距離Dとする。
Ro=D×ri/F・・・式(3)
式(3)により、被写体平面上における分解能(計測精度)Roと被写体距離Dの関係が分かる。すなわちDが小さいほど、言い換えれば被写体に近づくほど計測精度が高く(被写体分解能Roが小さく)なる。ここで計測の要求精度(必要な分解能)がRrである場合、信頼有る計測結果を得るためにはRr≧Roであれば良いから、これを式(3)に適用して得られる
D≦F×Rr/ri・・・式(4)
が、その条件となる。
The configuration diagram C2 is a diagram illustrating the relationship between the resolution (measurement accuracy) on the light receiving surface (image surface) of the image sensor 102b and the resolution on the subject. It is assumed that the subject resolution Ro, the resolution ri on the image sensor 102b, and the subject distance D.
Ro = D × ri / F (3)
The relationship between the resolution (measurement accuracy) Ro on the object plane and the object distance D can be found from Expression (3). That is, as D is smaller, in other words, the closer to the subject, the higher the measurement accuracy (the subject resolution Ro becomes smaller). Here, when the required accuracy of measurement (required resolution) is Rr, Rr ≧ Ro may be obtained in order to obtain a reliable measurement result. × Rr / ri (4)
Is the condition.

図5A及び図5Bは、撮影範囲と計測精度の関係を簡単に説明する図である。いずれも、撮影状態のカメラ部100を上から見た状態である。図5Aは、柱Pの3本を、1本ずつ撮影する様子である。被写体距離Dの近距離で撮影すると、柱Pを1本ずつしか撮影できないことを示す図である。図5Bは、柱Pの3本を、まとめて撮影する場合である。   5A and 5B are diagrams for simply explaining the relationship between the imaging range and the measurement accuracy. In either case, the camera unit 100 in the shooting state is viewed from above. FIG. 5A shows a state where three pillars P are photographed one by one. FIG. 6 is a diagram showing that when shooting at a short distance of the subject distance D, only one pillar P can be shot. FIG. 5B shows a case where three pillars P are photographed together.

被写体平面上における撮影範囲H、被写体距離Dとする。
H=D×X0/F ・・・式(5)
上記したように計測精度を高めようとすると、近接撮影しなければならないが、そうすると撮影範囲Hが狭くなることを式(5)は示している。
The shooting range H and the subject distance D on the subject plane are assumed.
H = D × X0 / F (5)
If the measurement accuracy is to be increased as described above, close-up shooting must be performed, but equation (5) indicates that the shooting range H is narrowed by doing so.

次に、情報取得装置10による画像取得処理を説明する。画像取得処理に計測精度表示処理が含まれる。図6A、図6Bは、画像取得処理を説明するフローチャート1、2である。画像取得処理は、主に情報取得装置10の制御部120により実行される。   Next, image acquisition processing by the information acquisition apparatus 10 will be described. The image acquisition process includes a measurement accuracy display process. 6A and 6B are flowcharts 1 and 2 for explaining the image acquisition process. The image acquisition process is mainly executed by the control unit 120 of the information acquisition apparatus 10.

まず、制御部120は、情報取得装置10で工事モードが選択されたかを判断する(ステップS100)。制御部120は、情報取得装置10で工事モードが選択されていないと判断すると(ステップS100のNO)、選択された他のモードを実行する(ステップS102)。他のモードの説明は省略する。   First, the control unit 120 determines whether the construction mode is selected by the information acquisition device 10 (step S100). When determining that the construction mode is not selected in the information acquisition apparatus 10 (NO in step S100), the control unit 120 executes another selected mode (step S102). Description of other modes is omitted.

制御部120は、情報取得装置10で工事モードが選択されたと判断すると(ステップS100のYES)、その中の「工事撮影」が選択されたかを判断する(ステップS104)。工事モードには、「工事撮影」、「画像再生」、「設計図取得」、「結果確認」及び「結果格納」のサブモードが含まれる。   When determining that the construction mode is selected by the information acquisition apparatus 10 (YES in step S100), the control unit 120 determines whether or not “construction shooting” is selected (step S104). The construction mode includes sub-modes of “construction photography”, “image reproduction”, “design drawing acquisition”, “result confirmation”, and “result storage”.

「工事撮影」は、工事箇所を撮影する処理である。「画像再生」は、撮影された画像を再生する処理である。「設計図取得」は、外部装置40の記憶部420から設計図情報422を、第2構成情報として取得する処理である。   “Construction photography” is a process of photographing a construction site. “Image reproduction” is a process of reproducing a captured image. “Design drawing acquisition” is a process of acquiring the design drawing information 422 from the storage unit 420 of the external device 40 as second configuration information.

「結果確認」は、情報取得装置10で撮影された各部位の画像に基づき、撮影者あるいは管理者が撮影内容を確認する処理である。撮影者あるいは管理者は、確認画面で、撮影漏れや撮影した部位に不具合がないことを確認する。「結果格納」は、情報取得装置10で撮影された結果(撮影画像、計測結果)を、外部装置40に送信して、外部装置40に格納させる処理である。   The “result confirmation” is a process in which the photographer or the administrator confirms the photographing content based on the image of each part photographed by the information acquisition device 10. The photographer or administrator confirms on the confirmation screen that there are no omissions or defects in the imaged part. “Result storage” is a process in which results (captured images, measurement results) captured by the information acquisition device 10 are transmitted to the external device 40 and stored in the external device 40.

制御部120は、「工事撮影」が選択されたと判断すると(ステップS104のYES)、カメラ部100による画像撮影(画像取得)及びカメラ部100で取得された画像によるライブビュー画像表示を開始する(ステップS106)。   When determining that “construction shooting” has been selected (YES in step S104), the control unit 120 starts image shooting (image acquisition) by the camera unit 100 and live view image display using an image acquired by the camera unit 100 ( Step S106).

制御部120は、構成情報154が有るかを判断する(ステップS108)。制御部120は、記憶部150に構成情報154が格納されているかを判断する。制御部120は、構成情報がないと判断すると(ステップS108のNO)、通常のライブビュー画像表示を行う(ステップS110)。   The control unit 120 determines whether there is the configuration information 154 (step S108). The control unit 120 determines whether the configuration information 154 is stored in the storage unit 150. When determining that there is no configuration information (NO in step S108), the control unit 120 performs normal live view image display (step S110).

制御部120は、構成情報154が有ると判断すると(ステップS108のYES)、ガイド画面作成部142は、構成情報154とライブビュー画像を合成して、ガイド画面を作成する。制御部120は、構成情報154とライブビュー画像を含むガイド画面を表示部160に表示する(ステップS112)。構成情報とライブビュー画像は、分割されて表示される。   When the control unit 120 determines that the configuration information 154 exists (YES in step S108), the guide screen creation unit 142 synthesizes the configuration information 154 and the live view image to create a guide screen. The control unit 120 displays a guide screen including the configuration information 154 and the live view image on the display unit 160 (step S112). The configuration information and the live view image are divided and displayed.

図9は、構成情報154とライブビュー画像を含むガイド画面の表示例である。ガイド画面202は、構成情報154として、設計図に基づく第2構成情報が表示された例である。ガイド画面203は、構成情報154として、全体画像に基づく第1構成情報が表示された例である。   FIG. 9 is a display example of a guide screen including the configuration information 154 and the live view image. The guide screen 202 is an example in which the second configuration information based on the design drawing is displayed as the configuration information 154. The guide screen 203 is an example in which first configuration information based on the entire image is displayed as the configuration information 154.

制御部120は、撮影者によるカメラ部100の操作の有無を判断する(ステップS114)。撮影者による操作とは、例えば、操作部106のズーム操作である。制御部120は、撮影者による操作が有りと判断すると(ステップS114のYES)、カメラ制御部124は、操作結果を反映した制御を行う(ステップS116)。   The control unit 120 determines whether or not the photographer has operated the camera unit 100 (step S114). The operation by the photographer is a zoom operation of the operation unit 106, for example. When the control unit 120 determines that there is an operation by the photographer (YES in step S114), the camera control unit 124 performs control reflecting the operation result (step S116).

制御部120は、撮影者による操作がないと判断すると(ステップS114のNO)、部位選択がされたかを判断する(ステップS120)。部位選択とは、ライブビュー画像や構成情報の画面で、特定の部位が撮影者により選択される操作である。例えば、図9のガイド画面202は、右側の第2構成情報で、撮影者が右下の部位(柱)を選択する様子である。   If it is determined that there is no operation by the photographer (NO in step S114), the control unit 120 determines whether a region has been selected (step S120). The part selection is an operation in which a specific part is selected by the photographer on the screen of the live view image or the configuration information. For example, the guide screen 202 in FIG. 9 is a state in which the photographer selects the lower right part (column) in the second configuration information on the right side.

制御部120は、部位選択がされたと判断すると(ステップS120のYES)、計測部130は、選択された部位を計測対象に設定する(ステップS122)。計測部130は、部位選択がされなければ、デフォルトで選択された部位を計測対象にする。例えば、画面の中央に近い部位が自動で選択される。制御部120は、部位選択がされていないと判断すると(ステップS122のNO)、ステップS124に進む。   When the control unit 120 determines that a part has been selected (YES in step S120), the measurement unit 130 sets the selected part as a measurement target (step S122). If the part is not selected, the measurement unit 130 sets the part selected by default as a measurement target. For example, a part close to the center of the screen is automatically selected. If the control unit 120 determines that the region has not been selected (NO in step S122), the control unit 120 proceeds to step S124.

計測部130は、ライブビュー画像に基づき、選択された部位あるいはデフォルト選択の部位の形状を計測する(ステップS124)。精度判定部138により計測精度が判定され、判定された計測精度が精度メーターに表示される(ステップS126)。   The measurement unit 130 measures the shape of the selected part or the default selected part based on the live view image (step S124). The accuracy determination unit 138 determines the measurement accuracy, and the determined measurement accuracy is displayed on the accuracy meter (step S126).

具体的には、状況判定部136は、撮影状況を判定して、現在の撮影状況のデータを出力する。精度判定部138は、現在の撮影状況のデータと精度参照情報158を対比して、計測精度を判定する。精度表示処理部140は、判定された計測精度により、精度メーターを表示する処理を行う。   Specifically, the situation determination unit 136 determines the shooting situation and outputs the current shooting situation data. The accuracy determination unit 138 determines the measurement accuracy by comparing the current shooting situation data with the accuracy reference information 158. The accuracy display processing unit 140 performs processing for displaying an accuracy meter according to the determined measurement accuracy.

ガイド画面作成部142は、ライブビュー画像、精度メーター、計測結果等を含むガイド画面を作成する。制御部120は、ガイド画面を表示部160に表示する。   The guide screen creation unit 142 creates a guide screen including a live view image, an accuracy meter, a measurement result, and the like. The control unit 120 displays a guide screen on the display unit 160.

図7B、図8Bは、精度メーターの表示例である。なお、図7B,図8Bは、構成情報を含まないガイド画面の例である。   7B and 8B are display examples of the accuracy meter. 7B and 8B are examples of guide screens that do not include configuration information.

図7Aは、離れた位置から柱Pを撮影する状態を示す図である。図7Bのガイド画面200は、図7Aの撮影で表示されるガイド画面である。ガイド画面200の左側にライブビュー画像が表示され、右側に精度メーターが表示される。ライブビュー画像には、計測された部位に計測値(31cm)も表示される。また、撮影距離(4m)も表示される。   FIG. 7A is a diagram illustrating a state in which the pillar P is photographed from a distant position. A guide screen 200 in FIG. 7B is a guide screen displayed in the shooting in FIG. 7A. A live view image is displayed on the left side of the guide screen 200, and an accuracy meter is displayed on the right side. In the live view image, a measured value (31 cm) is also displayed at the measured site. The shooting distance (4 m) is also displayed.

精度メーターは、計測精度を示すセルを上下方向に配列し、精度判定部138で判定された計測精度を段階的に示す。点灯しているセルの最大値が、判定された計測精度を示す。上のセルが点灯するほど計測精度の数値が大きい(精度が低い)ことを示す。セルの横の数字が、そのセルの計測精度を示す。単位は例えばmmである。   The accuracy meter arranges cells indicating the measurement accuracy in the vertical direction, and indicates the measurement accuracy determined by the accuracy determination unit 138 step by step. The maximum value of the lighted cell indicates the determined measurement accuracy. It shows that the numerical value of the measurement accuracy is large (the accuracy is low) as the upper cell is lit. The number next to the cell indicates the measurement accuracy of that cell. The unit is, for example, mm.

ガイド画面200は、下4段のセルが点灯している状態で、計測精度が±10mm以内であることを示す。   The guide screen 200 indicates that the measurement accuracy is within ± 10 mm in a state where the lower four cells are lit.

また、指標Seは、撮影者から指定された要求精度の位置を示すマークである。ガイド画面200の例では、指定された要求精度が±5mm以内であることを示す。指定された要求精度に応じて、指標Seが上下に移動して表示される。そして、判定された計測精度が±10mmなので、現在の撮影状況では、要求精度±5mm以内が満足されていないことを、撮影者は表示から理解することができる。   The index Se is a mark indicating the position with the required accuracy specified by the photographer. The example of the guide screen 200 indicates that the specified required accuracy is within ± 5 mm. In accordance with the specified required accuracy, the index Se is moved up and down and displayed. Since the determined measurement accuracy is ± 10 mm, the photographer can understand from the display that the required accuracy within ± 5 mm is not satisfied in the current shooting situation.

図8Aは、図7Aに比べて、撮影者が柱Pまで近づいた状態である。図8Bのガイド画面201は、撮影者が柱Pまで近づいた状態でのガイド画面である。撮影距離が短くなったことで、計測精度が±5mm以内になったことが精度メーターに示される。計測精度が要求精度に一致したことが分かる。   FIG. 8A shows a state in which the photographer has approached the pillar P as compared with FIG. 7A. A guide screen 201 in FIG. 8B is a guide screen in a state where the photographer approaches the pillar P. The accuracy meter indicates that the measurement accuracy is within ± 5 mm due to the reduction of the shooting distance. It can be seen that the measurement accuracy matches the required accuracy.

このように、計測精度が判定され、メーター形式で表示されるので、撮影者は、現撮影状況での撮影可否を簡単に判断することができる。また、精度メーターに要求精度も表示されることで、判断もより容易になる。   In this way, the measurement accuracy is determined and displayed in a meter format, so that the photographer can easily determine whether or not shooting is possible in the current shooting situation. In addition, since the required accuracy is displayed on the accuracy meter, the determination becomes easier.

図6Aに戻る。制御部120は、撮影指示がされたかを判断する(ステップS170)。制御部120は、撮影指示がされたと判断すると(ステップS170のYES)、撮影及び計測を実行する(ステップS172)。計測部130は、レックビュー画像に基づき、ステップS122で選択された部位あるいはデフォルト選択の部位を計測する。ガイド画面には、撮影された画像によるレックビュー画像と計測結果が表示される。あわせて、図7B等で示した精度メーターを表示してもよい。   Returning to FIG. 6A. The control unit 120 determines whether an imaging instruction has been given (step S170). If the control unit 120 determines that a shooting instruction has been given (YES in step S170), the control unit 120 performs shooting and measurement (step S172). The measurement unit 130 measures the part selected in step S122 or the default selected part based on the REC view image. On the guide screen, a REC view image based on the photographed image and a measurement result are displayed. In addition, the accuracy meter shown in FIG. 7B or the like may be displayed.

制御部120は、撮影指示がないと判断すると(ステップS170のNO)、ステップS100に戻る。制御部120は、OK指示がされたかを判断する(ステップS174)。撮影者は、表示されたレックビュー画像や計測値等を確認して、撮影画像を保存する場合にはOKボタン等(不図示)を操作する。制御部120は、OKの操作されていないと判断すると、ステップS100に戻る(ステップS174のNO)。   When determining that there is no shooting instruction (NO in step S170), control unit 120 returns to step S100. The control unit 120 determines whether an OK instruction has been given (step S174). The photographer checks the displayed REC view image, measurement value, and the like, and operates an OK button or the like (not shown) when saving the photographed image. When determining that the OK operation has not been performed, the control unit 120 returns to step S100 (NO in step S174).

制御部120は、OKの操作がされたと判断すると(ステップS174のYES)、撮影結果や計測値等を記憶部150に記録する(ステップS176)。制御部120は、構成情報154が有るかを判断し、構成情報がないと判断すると(ステップS178のNO)、ステップS100に戻る。制御部120は、構成情報が有ると判断すると(ステップS178のYES)、構成情報154と対応させて、撮影結果等を記憶部150に記録する(ステップS180)。   When the control unit 120 determines that the OK operation has been performed (YES in step S174), the control unit 120 records the imaging result, the measurement value, and the like in the storage unit 150 (step S176). The control unit 120 determines whether or not the configuration information 154 exists, and when determining that there is no configuration information (NO in step S178), the control unit 120 returns to step S100. When determining that the configuration information is present (YES in step S178), the control unit 120 records the photographing result and the like in the storage unit 150 in association with the configuration information 154 (step S180).

制御部120は、構成情報に撮影状況を示す電子マーカを付加したガイド画面を表示する(ステップS182)。図9のガイド画面203は、右端の柱Pに撮影済を示す「済」と記載された電子マーカQが付加された様子である。ガイド画面作成部142は、撮影済部位判定部128の判定に基づき、電子マーカQを所定の部位に付加する。電子マーカQは、状況情報の1例である。制御部120は、ステップS100に戻る。   The control unit 120 displays a guide screen in which an electronic marker indicating the shooting state is added to the configuration information (step S182). The guide screen 203 in FIG. 9 is a state in which an electronic marker Q described as “Done” indicating that the image has been taken is added to the rightmost column P. The guide screen creation unit 142 adds the electronic marker Q to a predetermined site based on the determination by the imaged site determination unit 128. The electronic marker Q is an example of status information. The control unit 120 returns to step S100.

図6Bに進む。制御部120は、「工事撮影」が選択されていないと判断すると(ステップS104のNO)、「画像再生」が選択されたかを判断する(ステップS200)。   Proceed to FIG. 6B. When determining that “construction photography” is not selected (NO in step S104), the control unit 120 determines whether “image reproduction” is selected (step S200).

制御部120は、「画像再生」が選択されたと判断すると(ステップS200のYES)、画像再生を行う(ステップS202)。制御部120は、再生画像の変更指示がされたかを判断し(ステップS204)、再生画像の変更指示がされたと判断すると(ステップS204のYES)、指示に応じて再生画像を変更する(ステップS206)。制御部120は、再生画像の変更指示がされていないと判断すると(ステップS204のNO)、ステップS104に戻る。   When determining that “image reproduction” is selected (YES in step S200), the control unit 120 performs image reproduction (step S202). The control unit 120 determines whether or not a reproduction image change instruction has been issued (step S204). If the control unit 120 determines that a reproduction image change instruction has been issued (YES in step S204), the control unit 120 changes the reproduction image in accordance with the instruction (step S206). ). If the control unit 120 determines that the instruction to change the reproduced image has not been given (NO in step S204), the control unit 120 returns to step S104.

また、制御部120は、「画像再生」が選択されていないと判断すると(ステップS200のNO)、「設計図取得」が選択されたかを判断する(ステップS210)。制御部120は、「設計図取得」が選択されたと判断すると(ステップS210のYES)、通信部170を介して外部装置40に設計図情報422を要求し、外部装置40から送信される設計図情報422を受信する(ステップS212)。制御部120は、受信した設計図情報422を第2構成情報として記憶部150に記録する。   Further, when determining that “image reproduction” is not selected (NO in step S200), control unit 120 determines whether “design drawing acquisition” is selected (step S210). If the control unit 120 determines that “acquisition of design drawing” is selected (YES in step S210), the control unit 120 requests the design drawing information 422 from the external device 40 via the communication unit 170, and is transmitted from the external device 40. Information 422 is received (step S212). The control unit 120 records the received design drawing information 422 in the storage unit 150 as second configuration information.

制御部120は、「設計図取得」が選択されていないと判断すると(ステップS210のNO)、「結果確認」が選択されたかを判断する(ステップS220)。   When determining that “design drawing acquisition” is not selected (NO in step S210), control unit 120 determines whether “result confirmation” is selected (step S220).

制御部120は、「結果確認」が選択されたと判断すると(ステップS220のYES)、場所指定表示をする(ステップS222)。場所指定表示は、結果確認を行う工事箇所を指定するための表示である。制御部120は、指定された場所の撮影画像を、詳細確認画面に表示する(ステップS224)。詳細確認画面には、指定された場所の撮影画像に関した各種結果が表示される。   When determining that “result confirmation” has been selected (YES in step S220), the control unit 120 displays a place designation (step S222). The location designation display is a display for designating a construction location for confirming the result. The control unit 120 displays the captured image at the designated location on the detail confirmation screen (step S224). On the detail confirmation screen, various results relating to the photographed image at the designated location are displayed.

制御部120は、「結果確認」が選択されていないと判断すると(ステップS220のNO)、「結果格納」が選択されたかを判断する(ステップS230)。制御部120は、「結果格納」が選択されたと判断すると(ステップS230のYES)、撮影結果を外部装置40に送信する(ステップS232)。外部装置40は、送信された撮影結果を記憶部420に格納する。   When determining that “result confirmation” is not selected (NO in step S220), the control unit 120 determines whether “result storage” is selected (step S230). When determining that “result storage” is selected (YES in step S230), the control unit 120 transmits the imaging result to the external device 40 (step S232). The external device 40 stores the transmitted shooting result in the storage unit 420.

制御部120は、「結果格納」が選択されていないと判断すると(ステップS230のNO)、ステップS104に戻る。また、ステップS204、ステップS206、ステップS224、ステップS232等の後も、ステップS104に戻る。   When determining that “result storage” is not selected (NO in step S230), control unit 120 returns to step S104. Also, after step S204, step S206, step S224, step S232, etc., the process returns to step S104.

なお、上記説明では、精度メーターとして、配列されたセルによる表示例を示したが、これに限るものではない。判定された数値を直接、あるいは、数値に対応するグレードを表示してもよい。また、要求精度に対応する撮影距離(推奨撮影距離)を表示してもよい。   In the above description, the display example using the arranged cells is shown as the accuracy meter. However, the present invention is not limited to this. The determined numerical value may be displayed directly or a grade corresponding to the numerical value may be displayed. In addition, a shooting distance (recommended shooting distance) corresponding to the required accuracy may be displayed.

〈2方向精度メーター〉
次に、2方向精度メーターについて説明する。図7B及び図8Bでは、1方向の計測精度を表示する精度メーターを説明した。しかし、部材の計測方向は、1方向に限るものではない。第2の精度メーター表示では、直交する2方向の計測精度を表示する精度メーターについてを説明する。
<Two-way accuracy meter>
Next, the two-way accuracy meter will be described. 7B and 8B described the accuracy meter that displays the measurement accuracy in one direction. However, the measurement direction of the member is not limited to one direction. In the second accuracy meter display, an accuracy meter that displays measurement accuracy in two orthogonal directions will be described.

図10は、斜めの柱Pを撮影する様子である。情報取得システム1は、図2、図3での構成と同じであるので、説明は省略する。なお、本例では、カメラ部100が2眼式として説明する。   FIG. 10 shows a state where an oblique column P is photographed. The information acquisition system 1 has the same configuration as that shown in FIGS. In this example, the camera unit 100 is described as a twin-lens type.

図11は、2眼式のカメラ部100tにおける、レンズ部102a及び撮像素子102bの構成を模式的に示す図である。カメラ部100tの内部に、撮影部102が左右に設けられる。XYZの3次元座標は、図11〜図13の相互の方向関係を規定する。Y軸が鉛直方向になる。   FIG. 11 is a diagram schematically illustrating the configuration of the lens unit 102a and the imaging element 102b in the twin-lens camera unit 100t. The imaging units 102 are provided on the left and right inside the camera unit 100t. The three-dimensional coordinates of XYZ define the mutual directional relationship of FIGS. The Y axis is in the vertical direction.

レンズ部102aRと撮像素子102bRが被写体に向かって右下側の撮影部102を構成する。レンズ部102aLと撮像素子102bLが左上側の撮影部102を構成する。すなわち、撮影部102は、左右方向にも上下方向にも離間して配されている。Bxは、X方向(左右方向)の基線長である。Byは、Y方向(垂直方向)の基線長である。また、PxはXZ平面による柱Pの断面を示し、WxはPxのX方向の長さを示す。同様に、PyはYZ平面による柱Pの断面を示し、WyはPyのY方向の長さを示す。   The lens unit 102aR and the image sensor 102bR constitute the lower right imaging unit 102 toward the subject. The lens unit 102aL and the image sensor 102bL constitute the upper left imaging unit 102. In other words, the photographing unit 102 is arranged so as to be separated in both the left-right direction and the up-down direction. Bx is the baseline length in the X direction (left-right direction). By is the baseline length in the Y direction (vertical direction). Moreover, Px shows the cross section of the pillar P by XZ plane, and Wx shows the length of the X direction of Px. Similarly, Py indicates the cross section of the column P by the YZ plane, and Wy indicates the length of Py in the Y direction.

図12は、2眼式のカメラ部100tにおける視差を説明する図である。構成図C3は、カメラ部100tを上から見た図である。構成図C4は、カメラ部100tを横から見た図である。X方向の基線長Bx、Y方向の基線長By、レンズ部102aR及びレンズ部102aLの焦点距離F、被写体距離D、X方向の相対像位置ずれである視差ΔX、Y方向の相対像位置ずれである視差ΔYとする。以下の式が成り立つ。
D=F×Bx/ΔX・・・式(6)
D=F×By/ΔY・・・式(7)
FIG. 12 is a diagram illustrating parallax in the twin-lens camera unit 100t. The configuration diagram C3 is a diagram of the camera unit 100t as viewed from above. The configuration diagram C4 is a view of the camera unit 100t as viewed from the side. Base line length Bx in the X direction, Base line length By in the Y direction, focal length F of the lens unit 102aR and the lens unit 102aL, subject distance D, parallax ΔX which is a relative image position shift in the X direction, and a relative image position shift in the Y direction. Let it be a certain parallax ΔY. The following equation holds.
D = F × Bx / ΔX (6)
D = F × By / ΔY (7)

図13は、2眼式のカメラ部100tによる左右の撮影画像の関係を示す図である。ライブビュー画像VRは、撮像素子102bRによる画像であり、ライブビュー画像VLは、撮像素子102bLによる画像であるが、本図中では対応する被写体撮影範囲によってこれらを示す。ライブビュー画像VRとライブビュー画像VLは、左右及び上下にそれぞれの基線長に相当するだけの視差を有する。なお、柱Pの幅Wは、W=Wx×SIN(θ)で算出される。   FIG. 13 is a diagram illustrating a relationship between left and right captured images by the twin-lens camera unit 100t. The live view image VR is an image obtained by the image sensor 102bR, and the live view image VL is an image obtained by the image sensor 102bL. In FIG. The live view image VR and the live view image VL have parallax that corresponds to the respective base line lengths on the left, right, and top and bottom. Note that the width W of the column P is calculated by W = Wx × SIN (θ).

次に、2方向精度メーター表示を含む画像取得処理を説明する。2方向精度メーター表示を含む画像取得処理を第2の画像取得処理と呼ぶ。また、区別するために、以降で図6A及び図6Bの画像取得処理を第1の画像取得処理とも呼ぶ。   Next, an image acquisition process including a two-way accuracy meter display will be described. The image acquisition process including the two-direction accuracy meter display is referred to as a second image acquisition process. For the sake of distinction, the image acquisition process of FIGS. 6A and 6B is also referred to as a first image acquisition process hereinafter.

図14A、図14Bは、第2の画像取得処理を説明するフローチャート1、2である。第2の画像取得処理は、主に情報取得装置10の制御部120により実行される。また、以下では、第2の画像取得処理について、第1の画像取得処理と異なる処理を中心に説明し、共通の処理については説明を省略する。   14A and 14B are flowcharts 1 and 2 for explaining the second image acquisition process. The second image acquisition process is mainly executed by the control unit 120 of the information acquisition apparatus 10. In the following, the second image acquisition process will be described focusing on processes different from the first image acquisition process, and description of common processes will be omitted.

図14A、14BのステップS100〜ステップS120、ステップS170〜ステップS182は、図6Aのフローチャート1と共通であるので説明は省略する。図6Bも共通であるので説明は省略する。図14AのステップS130〜ステップS144が、第1の画像取得処理と異なる処理である。なお、表示されるライブビュー画像は、左右いずれの画像であってもよい。以下では、ライブビュー画像として撮像素子102bRで撮影されたライブビュー画像VRが表示されるとする。   Steps S100 to S120 and steps S170 to S182 in FIGS. 14A and 14B are the same as those in the flowchart 1 in FIG. Since FIG. 6B is also common, description is omitted. Steps S130 to S144 in FIG. 14A are processing different from the first image acquisition processing. Note that the displayed live view image may be a left or right image. In the following, it is assumed that a live view image VR photographed by the image sensor 102bR is displayed as a live view image.

計測部130は、選択された部位を計測対象に設定する(ステップS130)。計測部130は、部位選択がされなければ、デフォルトで選択された部位を計測対象にする。例えば、画面の中央に近い部位が自動で選択される。   The measurement unit 130 sets the selected part as a measurement target (step S130). If the part is not selected, the measurement unit 130 sets the part selected by default as a measurement target. For example, a part close to the center of the screen is automatically selected.

制御部120は、ガイド画面上の選択された部位で、縦スライド操作がされたかを判断する(ステップS132)。制御部120は、縦スライド操作がされたと判断すると(ステップS132のYES)、計測部130は、ライブビュー画像に基づき、選択された部位あるいはデフォルト設定の部位について、Y方向の形状を計測する(ステップS134)。Y方向の計測精度が判定され、Y方向の計測精度が精度メーターに表示される(ステップS136)。また、Y方向の計測結果も表示される。   The control unit 120 determines whether a vertical slide operation has been performed on the selected part on the guide screen (step S132). If the control unit 120 determines that a vertical slide operation has been performed (YES in step S132), the measurement unit 130 measures the shape in the Y direction for the selected region or a default region based on the live view image ( Step S134). The measurement accuracy in the Y direction is determined, and the measurement accuracy in the Y direction is displayed on the accuracy meter (step S136). The measurement result in the Y direction is also displayed.

具体的には、状況判定部136は、現在の撮影状況を判定して、判定したY方向の撮影状況のデータを出力する。精度判定部138は、現在のY方向の撮影状況のデータと精度参照情報158を対比して、計測精度を判定する。精度表示処理部140は、判定された計測精度により、精度メーターを表示する処理を行う。   Specifically, the situation determination unit 136 determines the current shooting situation and outputs the determined shooting situation data in the Y direction. The accuracy determination unit 138 determines the measurement accuracy by comparing the current Y-direction shooting situation data with the accuracy reference information 158. The accuracy display processing unit 140 performs processing for displaying an accuracy meter according to the determined measurement accuracy.

制御部120は、縦スライド操作ではなく、横方向スライドがされたと判断すると(ステップS132のNO)、計測部130は、ライブビュー画像に基づき、選択された部位あるいはデフォルト設定の部位について、X方向の形状を計測する(ステップS138)。Y方向の場合と同様にして、X方向の計測精度が判定され、X方向の計測精度が精度メーターに表示される(ステップS140)。また、X方向の計測結果も表示される。   If the control unit 120 determines that a horizontal slide has been performed instead of a vertical slide operation (NO in step S132), the measurement unit 130 determines whether the selected region or the default setting region is in the X direction based on the live view image. Is measured (step S138). The measurement accuracy in the X direction is determined in the same manner as in the Y direction, and the measurement accuracy in the X direction is displayed on the accuracy meter (step S140). The measurement result in the X direction is also displayed.

図15は、精度メーターの表示例である。ガイド画面204は、縦スライド操作されて、精度メーターにY方向精度が表示された例である。本例では、Y方向精度が±5mm、Y方向計測値が40cmと表示される。   FIG. 15 is a display example of the accuracy meter. The guide screen 204 is an example in which the Y-direction accuracy is displayed on the accuracy meter by a vertical slide operation. In this example, the Y direction accuracy is displayed as ± 5 mm, and the Y direction measurement value is displayed as 40 cm.

また、ガイド画面205は、横スライド操作されて、精度メーターにX方向精度が表示された例である。本例では、X方向精度が±1mm、Y方向計測値が30cmと表示される。また、ガイド画面204、205には、指標Seの下にチェックスイッチ(画面ではCKと表記)が設けられる。チェックスイッチは、右画像と左画像の重なりのチェックを指示するものである。   Further, the guide screen 205 is an example in which the X-direction accuracy is displayed on the accuracy meter by a horizontal slide operation. In this example, the X direction accuracy is displayed as ± 1 mm, and the Y direction measurement value is displayed as 30 cm. The guide screens 204 and 205 are provided with a check switch (denoted as CK on the screen) under the index Se. The check switch instructs to check the overlap between the right image and the left image.

制御部120は、チェックスイッチが操作されたかを判断する(ステップS142)。制御部120は、チェックスイッチが操作されたと判断すると(ステップS142のYES)、左側のライブビュー画像VLをライブビュー画像VRに重ねた合成ライブビュー画像を表示する(ステップS144)。合成画像作成部135が、ライブビュー画像VLをライブビュー画像VRに重ねた合成画像を作成する。   The control unit 120 determines whether the check switch has been operated (step S142). When determining that the check switch has been operated (YES in step S142), the control unit 120 displays a composite live view image in which the left live view image VL is superimposed on the live view image VR (step S144). The composite image creation unit 135 creates a composite image in which the live view image VL is superimposed on the live view image VR.

図16のガイド画面206は、合成ライブビュー画像の表示例である。実線の枠がライブビュー画像の表示範囲である表示枠を示し、ライブビュー画像VRはこの表示枠に合わせて表示される。従ってもしライブビュー画像VLを同様にこの表示枠に合わせて単純に重畳すれば、柱P等の主要被写体はRとLの視差の分だけずれて表示されることになるが、ここでは視差の分を補正して主要被写体の位置がほぼ一致するように画像をずらして重畳した場合を例示している。破線部分を含む枠Lが本来のライブビュー画像VLの範囲を示す。なお、枠Lの破線部分は説明のためのもので、表示枠の外の領域の画像は当然ながら表示はされないから、ライブビュー画像VLは、ライブビュー画像VRに重複する部分のみ表示される。なお上記画像の位置ずらしによる補正を行うかどうかは用途次第で任意である。   A guide screen 206 in FIG. 16 is a display example of a synthesized live view image. A solid line frame indicates a display frame that is a display range of the live view image, and the live view image VR is displayed in accordance with the display frame. Therefore, if the live view image VL is simply superimposed on the display frame in the same manner, the main subject such as the column P is displayed with a shift of R and L parallax. The case where the image is shifted and superimposed so that the minutes are corrected and the positions of the main subjects substantially coincide is illustrated. A frame L including a broken line portion indicates the range of the original live view image VL. Note that the broken line portion of the frame L is for explanation, and the image of the area outside the display frame is naturally not displayed, so the live view image VL is displayed only in the portion overlapping the live view image VR. Note that whether or not to perform correction by shifting the position of the image is arbitrary depending on the application.

制御部120は、チェックスイッチが操作されていないと判断すると(ステップS142のNO)、図14BのステップS170に進む。制御部120は、ステップS136やステップS140の後も、ステップS170に進む。ステップS170以降は、図6Aで説明済であるので、省略する。   When the control unit 120 determines that the check switch is not operated (NO in step S142), the control unit 120 proceeds to step S170 in FIG. 14B. The control unit 120 proceeds to step S170 even after step S136 or step S140. Steps S170 and after are already described with reference to FIG.

なお、上記2方向精度メーターの説明では、2眼式のカメラ部100tに適用した例を説明したが、単眼式のカメラ部100であっても、適用可能である。また、2方向は、直交2方向に限るものでなく、計測対象に応じて、2つの方向の角度は任意に設定可能にしても良い。   In the description of the bi-directional accuracy meter, the example applied to the binocular camera unit 100t has been described. However, the monocular camera unit 100 is also applicable. The two directions are not limited to the two orthogonal directions, and the angles of the two directions may be arbitrarily set according to the measurement target.

〈輻輳角調整表示〉
次に、輻輳角の調整度合いを表示する2眼式のカメラ部100tについて説明する。2眼式のカメラ部100tは、レンズ部102aRとレンズ部102aLの輻輳角を調整する調整機構を備える。輻輳角とは、レンズ部102aRとレンズ部102aLの光軸が作る角度である。なお本例においてカメラ部100tは、水平(X)方向だけに所定の基線長を介して配されており、垂直(Y)方向の視差を有しないものとする。
<Convergence angle adjustment display>
Next, the two-lens camera unit 100t that displays the degree of convergence angle adjustment will be described. The twin-lens camera unit 100t includes an adjustment mechanism that adjusts the convergence angle of the lens unit 102aR and the lens unit 102aL. The convergence angle is an angle formed by the optical axes of the lens portion 102aR and the lens portion 102aL. In this example, it is assumed that the camera unit 100t is arranged only in the horizontal (X) direction via a predetermined baseline length and has no vertical (Y) direction parallax.

図17は、2眼式のカメラ部100tを備える情報取得装置10で、レンズ部102aRの輻輳角を調整して、3本の柱Pを撮影する様子である。輻輳角は、操作部106に含まれる輻輳調整ダイヤル(不図示)の回動に応じて、レンズ部102aRが水平面内で回動して調整される。真ん中の柱Pに貼られたシールMは、輻輳角調整用のシールである。   FIG. 17 shows a state where the information acquisition apparatus 10 including the two-lens camera unit 100t adjusts the convergence angle of the lens unit 102aR and images the three columns P. The convergence angle is adjusted by rotating the lens unit 102aR in a horizontal plane according to the rotation of a convergence adjustment dial (not shown) included in the operation unit 106. The seal M affixed to the middle column P is a convergence angle adjustment seal.

図18は、撮影距離に応じて輻輳角を調整する例を示す図である。図18は、撮影状態のカメラ部100tを上から見た図である。カメラ部100tと各3本の柱Pの距離を、Da、Db又はDcの3つの場合を示す。なお、レンズ部102aRは、レンズ部102aRの光軸CRとレンズ部102aLの光軸CLが、Db付近で交差するよう、調整されたとする。   FIG. 18 is a diagram illustrating an example of adjusting the convergence angle according to the shooting distance. FIG. 18 is a top view of the camera unit 100t in the shooting state. The distance between the camera unit 100t and each of the three pillars P is shown as three cases of Da, Db, or Dc. It is assumed that the lens unit 102aR is adjusted so that the optical axis CR of the lens unit 102aR and the optical axis CL of the lens unit 102aL intersect in the vicinity of Db.

Daの距離で柱Pを撮影すると、柱3本を左右の撮影画像に余裕をもって収めることができるが、撮影距離が長くなり、前述した計測精度の点で不利になる。Dcの距離で柱Pを撮影すると、端部にある柱Pが、画面が外れてしまう。Dbの距離で柱Pを撮影すると、輻輳角が調整されているので、柱3本を左右の撮影画像に収め、かつ柱3本を画面一杯に配置することができる。このように、左右の撮影範囲が略一致するように、撮影距離に応じて輻輳角を調整することで、有効撮影範囲(左右の撮影画像の重複部分)を最大にすることができる。   When the pillar P is photographed at a distance of Da, the three pillars can be accommodated in the left and right photographed images with a margin, but the photographing distance becomes long, which is disadvantageous in terms of the measurement accuracy described above. When the pillar P is photographed at a distance of Dc, the screen of the pillar P at the end is removed. When the column P is photographed at the distance Db, the convergence angle is adjusted, so that the three columns can be accommodated in the left and right captured images, and the three columns can be arranged on the full screen. In this way, the effective shooting range (the overlapping portion of the left and right shot images) can be maximized by adjusting the convergence angle according to the shooting distance so that the left and right shooting ranges substantially coincide.

次に、輻輳角調整表示を含む画像取得処理を説明する。輻輳角調整表示を含む画像取得処理を第3の画像取得処理と呼ぶ。   Next, an image acquisition process including a convergence angle adjustment display will be described. The image acquisition process including the convergence angle adjustment display is referred to as a third image acquisition process.

図19A、図19Bは、第3の画像取得処理を説明するフローチャート1、2である。第3の画像取得処理は、主に情報取得装置10の制御部120により実行される。また、以下で第3の画像取得処理について、第1の画像取得処理と異なる処理を中心に説明し、共通処理については説明を省略する。   19A and 19B are flowcharts 1 and 2 for explaining the third image acquisition process. The third image acquisition process is mainly executed by the control unit 120 of the information acquisition apparatus 10. In the following, the third image acquisition process will be described focusing on a process different from the first image acquisition process, and the description of the common process will be omitted.

図19A、図19BのステップS100〜ステップS120、ステップS170〜ステップS182は、図6Aのフローチャートと共通であるので説明は省略する。図6Bも共通であるので説明は省略する。図19AのステップS150〜ステップS156までが、図6Aと異なる処理である。なお、表示されるライブビュー画像は、左右いずれの画像であってもよい。以下では、ライブビュー画像として撮像素子102bRで撮影されたライブビュー画像VRが表示されるとする。   Steps S100 to S120 and steps S170 to S182 in FIGS. 19A and 19B are the same as those in the flowchart in FIG. Since FIG. 6B is also common, description is omitted. Steps S150 to S156 in FIG. 19A are processes different from those in FIG. 6A. Note that the displayed live view image may be a left or right image. In the following, it is assumed that a live view image VR photographed by the image sensor 102bR is displayed as a live view image.

一致度判定部133は、左右の撮像素子102bL及び撮像素子102bRから得られた画像の一致度を判定する。一致度判定部133は、例えば、左右の画像データから所定領域の輝度データを抽出して、輝度データ間の差分を算出して、一致度を判定する。左右の画像データの差分が小さい程、一致度が高いと判定される。
ここで前述のシールMについて補足すると、一致度判定部133による一致度判定は画像データに基づいて行われるから、画像のコントラストが低かったり、画像のパターンに繰り返し性があるような場合には、原理的に精度や安定度が悪くなる傾向を持つ。これを補助するべく、被写体にシール貼付した状態でその付近でのコントラストが高くなるように、たとえば輝度コントラストを得やすい白や黒、色度コントラストを得やすい赤や青のような色のシールを貼り付けたものに対して一連の動作を行うことによって、判定の確実性を高めることができるものである。単色でなく文字パターンなどを印字してもよい。
The degree of coincidence determination unit 133 determines the degree of coincidence of images obtained from the left and right imaging elements 102bL and 102bR. For example, the coincidence determination unit 133 extracts luminance data of a predetermined area from the left and right image data, calculates a difference between the luminance data, and determines the coincidence. It is determined that the degree of coincidence is higher as the difference between the left and right image data is smaller.
Here, supplementing the above-mentioned sticker M, since the coincidence determination by the coincidence determination unit 133 is performed based on the image data, when the contrast of the image is low or the image pattern has repeatability, In principle, the accuracy and stability tend to deteriorate. In order to assist this, for example, a sticker of a color such as white or black, which is easy to obtain luminance contrast, or red or blue, which is easy to obtain chromaticity contrast, is provided so that the contrast in the vicinity of the subject becomes high with the sticker attached to the subject. The certainty of determination can be improved by performing a series of operations on the pasted one. A character pattern or the like may be printed instead of a single color.

一致度表示処理部134は、判定された画像データの一致度を一致度メーターに表示する処理を行う。制御部120は、判定された画像の一致度を一致度メーターに表示する(ステップS150)。一致度メーターは、ガイド画面に含まれる。   The coincidence degree display processing unit 134 performs processing for displaying the coincidence degree of the determined image data on the coincidence degree meter. The control unit 120 displays the determined degree of coincidence of the images on the coincidence degree meter (step S150). The coincidence meter is included in the guide screen.

図20は、一致度メーターが表示されたガイド画面207の例である。ガイド画面207の中央に、縦に8個並んだセルが一致度メーターである。上のセルが点灯されるほど、一致度が高いことを示す。撮影者は、一致度メーターでなるべく高いセルまで点灯するように、輻輳調整ダイヤルを回動させて輻輳角を調整すればよい。   FIG. 20 is an example of the guide screen 207 on which the coincidence meter is displayed. In the center of the guide screen 207, eight cells arranged vertically are a coincidence meter. As the upper cell is lit, the degree of coincidence is higher. The photographer only has to adjust the convergence angle by turning the convergence adjustment dial so that the cell is lit up as high as possible with the coincidence meter.

そして、精度メーター表示も行われる。ステップS152、ステップS154で行われる精度メーター表示処理は、図6AのステップS124、ステップS126と同様な処理であるので、説明は省略する。   And accuracy meter display is also performed. The accuracy meter display process performed in step S152 and step S154 is the same process as step S124 and step S126 in FIG.

上記一致度メーターを使用せず、または併用して、輻輳調整を目視確認するように構成してもよく、その例を説明する。この場合制御部120は、ライブビューの表示画枠に撮像素子102bRで撮影されたライブビュー画像VRだけでなく、撮像素子102bLで撮影されたライブビュー画像VLも重畳して表示する。その際特に画像の位置ずらしによる補正は行わず、ライブビュー画像VRと同様にこの表示枠に合わせて単純に重畳する。従って輻輳調整が不充分だと被写体の画像はRとLでずれて表示されることになるので、これが一致するように輻輳調整ダイヤルを回動させて輻輳角を調整すればよい。   You may comprise so that congestion adjustment may be confirmed visually, without using the said coincidence meter, or using together, The example is demonstrated. In this case, the control unit 120 superimposes and displays not only the live view image VR captured by the image sensor 102bR but also the live view image VL captured by the image sensor 102bL on the display frame of the live view. At that time, the correction is not particularly performed by shifting the position of the image, and the image is simply superimposed on the display frame in the same manner as the live view image VR. Accordingly, if the convergence adjustment is insufficient, the subject image is displayed with a shift between R and L. Therefore, the convergence angle may be adjusted by rotating the convergence adjustment dial so that they match.

その際調整精度を向上するためには、ガイド画面に当該重畳されたライブビュー画面の一部分を拡大表示する(ステップS156)。すなわち一致度メーターの横に確認画面MDとして表示され、さらに被写体にシールMをあらかじめ貼った場合は確認画面MDにシールMの拡大画像が表示される。すなわち確認画面MDは、一致度を目視で精度高く確認するために拡大表示する補助画面である。そして外観上の特徴に乏しい柱では一致度の判定が難しい場合もあるが、コントラストを高める色や印字が施されたシールであれば色や表面の文字等により、目視でも一致度の判定が容易になる。また前述のとおり、一致度判定部133でも、色や印字が施されたシールがあれば、一致度の判定がより確実になる。   In this case, in order to improve the adjustment accuracy, a part of the live view screen superimposed on the guide screen is enlarged and displayed (step S156). That is, it is displayed as a confirmation screen MD next to the coincidence meter, and when a sticker M is pasted on the subject in advance, an enlarged image of the sticker M is displayed on the confirmation screen MD. That is, the confirmation screen MD is an auxiliary screen that is enlarged and displayed in order to confirm the degree of coincidence with high accuracy. It may be difficult to determine the degree of coincidence with pillars with poor appearance characteristics, but it is easy to judge the degree of coincidence visually by using colors or characters on the surface of a sticker with a color or print that enhances contrast. become. In addition, as described above, the coincidence determination unit 133 can more reliably determine the coincidence if there is a sticker that is colored or printed.

以上のように、一致度メーターや確認画面MDを表示させることで、撮影距離に応じて、左右の撮影範囲を略一致させるような輻輳角の調整が容易にできる。2眼式のカメラ部100tでは、左右の撮影範囲を略一致した状態が有効撮影の範囲が最大となるので、この状態で撮影を行うことで、効率のよい撮影が可能になる。   As described above, by displaying the coincidence meter and the confirmation screen MD, it is possible to easily adjust the convergence angle so that the left and right photographing ranges substantially coincide with each other according to the photographing distance. In the two-lens camera unit 100t, the effective shooting range is maximized when the left and right shooting ranges are substantially coincident. Therefore, efficient shooting is possible by shooting in this state.

以上説明した実施形態は、建築物の部位を測定する以外にも、特定エリアの建造物群、森の木の一本一本、畑の作物やその他エリアの動植物などを対象の各部位に適用できる。また、マクロ的には、顕微鏡画像で測定する部品や配線パターンや半導体等の三次元的な測定にも応用でき、それぞれの対象物を各部位と考えて、本願の適用が可能となる。   The embodiment described above is applied to each target part in addition to measuring a part of a building, a group of buildings in a specific area, a single tree in a forest, crops in a field, animals and plants in other areas, etc. it can. Macroscopically, it can also be applied to three-dimensional measurement of parts, wiring patterns, semiconductors, and the like that are measured with a microscope image, and the present application can be applied by regarding each object as each part.

なお、情報取得装置10は、カメラ部100を除いた、制御部120、記憶部150や表示部160を備える情報処理装置であってもよい。   Note that the information acquisition apparatus 10 may be an information processing apparatus including the control unit 120, the storage unit 150, and the display unit 160, excluding the camera unit 100.

なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階でのその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素を適宜組み合わせても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このような、発明の趣旨を逸脱しない範囲内において種々の変形や応用が可能であることはもちろんである。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, all the constituent elements shown in the embodiments may be appropriately combined. Furthermore, constituent elements over different embodiments may be appropriately combined. It goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1 情報取得システム
10 情報取得装置
40 外部装置
100 カメラ部
120 制御部
126 構成情報取得部
128 撮影済部位判定部
130 計測部
132 撮影距離算出部
133 一致度判定部
134 一致度表示処理部
135 合成画像作成部
136 状況判定部
138 精度判定部
140 精度表示処理部
142 ガイド画面作成部
144 表示制御部
150 記憶部
154 構成情報
156 カメラ部特性情報
158 精度参照情報
160 表示部
165 タッチパネル
170 通信部
400 制御部
410 通信部
420 記憶部
422 設計図情報
DESCRIPTION OF SYMBOLS 1 Information acquisition system 10 Information acquisition apparatus 40 External apparatus 100 Camera part 120 Control part 126 Configuration information acquisition part 128 Image | photographed site | part determination part 130 Measurement part 132 Imaging distance calculation part 133 Match degree determination part 134 Match degree display process part 135 Composite image Creation unit 136 Status judgment unit 138 Accuracy judgment unit 140 Accuracy display processing unit 142 Guide screen creation unit 144 Display control unit 150 Storage unit 154 Configuration information 156 Camera unit characteristic information 158 Accuracy reference information 160 Display unit 165 Touch panel 170 Communication unit 400 Control unit 410 Communication unit 420 Storage unit 422 Blueprint information

Claims (10)

対象物の撮影画像を取得する情報取得装置において、
前記撮影画像に基づき、前記対象物の形状を計測する計測部と、
前記計測の精度に影響する撮影状況を判定する状況判定部と、
前記判定された撮影状況に応じて、計測精度を判定する精度判定部と、
前記判定された計測精度を表示する制御部と、を備える
ことを特徴とする情報取得装置。
In an information acquisition device that acquires a captured image of an object,
A measuring unit for measuring the shape of the object based on the captured image;
A situation determination unit that determines a shooting situation that affects the accuracy of the measurement;
An accuracy determination unit that determines measurement accuracy according to the determined shooting situation;
And a control unit that displays the determined measurement accuracy.
前記状況判定部は、前記撮影状況として、前記対象物を撮影したカメラから前記対象物までの距離を少なくとも含む
ことを特徴とする請求項1に記載の情報取得装置。
The information acquisition apparatus according to claim 1, wherein the situation determination unit includes at least a distance from a camera that has photographed the object to the object as the photographing situation.
前記撮影画像は、前記対象物を複数の異なる視点から捉える視差画像系で撮影された視差画像であって、
前記状況判定部は、前記撮影距離を前記視差画像に基づいて判定する
ことを特徴とする請求項2に記載の情報取得装置。
The captured image is a parallax image captured by a parallax image system that captures the object from a plurality of different viewpoints,
The information acquisition apparatus according to claim 2, wherein the situation determination unit determines the shooting distance based on the parallax image.
前記状況判定部は、前記撮影状況として、前記対象物を撮影したカメラから前記対象物までの距離、前記カメラの光学系の解像度、撮像素子の画素ピッチ又は対象物の輝度のいずれか1つを少なくとも含む
ことを特徴とする請求項1に記載の情報取得装置。
The situation determination unit, as the shooting situation, any one of a distance from the camera that shot the object to the object, a resolution of the optical system of the camera, a pixel pitch of the image sensor, or a luminance of the object. The information acquisition apparatus according to claim 1, comprising at least.
前記計測部は、前記対象物の形状を2方向で沿って計測し、
前記精度判定部は、前記計測精度として、前記2方向の精度をそれぞれ判定し、
前記制御部は、判定された2方向の精度をそれぞれ表示する
ことを特徴とする請求項1に記載の情報取得装置。
The measurement unit measures the shape of the object along two directions,
The accuracy determination unit determines the accuracy in the two directions as the measurement accuracy,
The information acquisition apparatus according to claim 1, wherein the control unit displays the determined accuracy in two directions.
前記制御部は、前記計測精度とともに、前記対象物に対する計測の要求精度を表示する
ことを特徴とする請求項1に記載の情報取得装置。
The information acquisition apparatus according to claim 1, wherein the control unit displays a measurement accuracy required for the object together with the measurement accuracy.
前記制御部は、前記計測精度とともに、前記計測部で計測された計測値を表示する
ことを特徴とする請求項1に記載の情報取得装置。
The information acquisition apparatus according to claim 1, wherein the control unit displays the measurement value measured by the measurement unit together with the measurement accuracy.
前記撮影画像として、2眼式カメラで撮影された左右の撮影画像の撮影範囲の一致度を判定する一致度判定部を備え、
前記制御部は、前記計測精度とともに、前記判定された一致度を表示する
ことを特徴とする請求項1に記載の情報取得装置。
As the captured image, provided with a coincidence degree determination unit that determines the coincidence degree of the photographing ranges of the left and right photographed images photographed with a twin-lens camera,
The information acquisition apparatus according to claim 1, wherein the control unit displays the determined degree of coincidence together with the measurement accuracy.
対象物の撮影画像に基づき前記対象物の形状を計測する計測方法において、
前記計測の精度に影響する撮影状況を判定する状況判定ステップと、
前記判定された撮影状況に応じて、計測精度を判定する精度判定ステップと、
前記対象物の撮影画像に基づき前記対象物の形状を計測する計測ステップと、
前記判定された計測精度を表示する表示ステップと、を含む
ことを特徴とする計測方法。
In a measurement method for measuring the shape of the object based on a captured image of the object,
A situation determination step for determining a shooting situation that affects the accuracy of the measurement;
An accuracy determination step of determining measurement accuracy in accordance with the determined shooting situation;
A measuring step for measuring the shape of the object based on a captured image of the object;
A display step of displaying the determined measurement accuracy.
対象物の撮影画像に基づき前記対象物の形状を計測する計測方法をコンピュータに実行させるプログラムにおいて、
前記計測の精度に影響する撮影状況を判定する状況判定ステップと、
前記判定された撮影状況に応じて、計測精度を判定する精度判定ステップと、
前記対象物の撮影画像に基づき前記対象物の形状を計測する計測ステップと、
前記判定された計測精度を表示する表示ステップと、を含む
ことを特徴とするプログラム。
In a program for causing a computer to execute a measurement method for measuring the shape of the object based on a captured image of the object,
A situation determination step for determining a shooting situation that affects the accuracy of the measurement;
An accuracy determination step of determining measurement accuracy in accordance with the determined shooting situation;
A measuring step for measuring the shape of the object based on a captured image of the object;
A display step of displaying the determined measurement accuracy.
JP2017051758A 2017-03-16 2017-03-16 Data acquisition device Pending JP2018155562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051758A JP2018155562A (en) 2017-03-16 2017-03-16 Data acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051758A JP2018155562A (en) 2017-03-16 2017-03-16 Data acquisition device

Publications (1)

Publication Number Publication Date
JP2018155562A true JP2018155562A (en) 2018-10-04

Family

ID=63717878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051758A Pending JP2018155562A (en) 2017-03-16 2017-03-16 Data acquisition device

Country Status (1)

Country Link
JP (1) JP2018155562A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124479A (en) * 2020-02-10 2021-08-30 三菱電機株式会社 Shape measuring system, shape measuring method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124479A (en) * 2020-02-10 2021-08-30 三菱電機株式会社 Shape measuring system, shape measuring method, and program
JP7378310B2 (en) 2020-02-10 2023-11-13 三菱電機株式会社 Shape measurement system, shape measurement method and program

Similar Documents

Publication Publication Date Title
EP3356887B1 (en) Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
US10506151B2 (en) Information acquisition apparatus
JP4307934B2 (en) Imaging apparatus and method with image correction function, and imaging apparatus and method
JP6779150B2 (en) Information acquisition device
US10198796B2 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory storage medium storing information processing program
CN108513072A (en) Image processor, image processing method and imaging system
KR101053506B1 (en) Method for adjusting parameters in distortion calibration of image acquired by camera having fish eye lens
JP2005347790A (en) Projector provided with trapezoidal distortion correction apparatus
WO2021037288A2 (en) Method for imaging calibration for dual-lens camera, apparatus, and dual-lens camera
CN105865423A (en) A binocular range finding method, a binocular range finding device, a panoramic image mosaicking method and a system thereof
JP2015108992A (en) Additional information display system
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
Yang et al. Effect of field of view on the accuracy of camera calibration
JP2018155562A (en) Data acquisition device
JP6641485B2 (en) Position specifying device and position specifying method
JP2008154188A (en) Image transmission system, and image transmitting method
JP7202337B2 (en) Information acquisition device and program
JP2005333628A (en) Camera control apparatus, and monitoring camera system using same
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP7504688B2 (en) Image processing device, image processing method and program
CN108731644B (en) Oblique photography mapping method and system based on vertical auxiliary line
JP5980541B2 (en) Imaging apparatus and imaging control method
JP2006187032A (en) Stereoscopic photographing apparatus and photographing method of same
JP2005258954A (en) Device for detecting moving object, and method
JP2005260731A (en) Camera selecting device and camera selecting method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180628