JP6779150B2 - 情報取得装置 - Google Patents

情報取得装置 Download PDF

Info

Publication number
JP6779150B2
JP6779150B2 JP2017018482A JP2017018482A JP6779150B2 JP 6779150 B2 JP6779150 B2 JP 6779150B2 JP 2017018482 A JP2017018482 A JP 2017018482A JP 2017018482 A JP2017018482 A JP 2017018482A JP 6779150 B2 JP6779150 B2 JP 6779150B2
Authority
JP
Japan
Prior art keywords
unit
image
shooting
target
configuration information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017018482A
Other languages
English (en)
Other versions
JP2018125795A (ja
Inventor
吉田 英明
英明 吉田
原田 久之
久之 原田
寿一 林
寿一 林
岡田 圭司
圭司 岡田
裕一 土持
裕一 土持
野中 修
修 野中
直樹 森本
森本  直樹
博久 早川
博久 早川
平 陽兵
陽兵 平
稔和 谷口
稔和 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kajima Corp
Original Assignee
Kajima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kajima Corp filed Critical Kajima Corp
Priority to JP2017018482A priority Critical patent/JP6779150B2/ja
Priority to US15/821,753 priority patent/US20180225839A1/en
Priority to CN201810047514.0A priority patent/CN108391046A/zh
Publication of JP2018125795A publication Critical patent/JP2018125795A/ja
Application granted granted Critical
Publication of JP6779150B2 publication Critical patent/JP6779150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮影された工事画像等を取得する情報取得装置に関する。
デジタルカメラにより撮影された画像は、銀塩写真に比べて圧倒的に即時性が優れていることから、様々な業務分野で証拠写真としての利用が広がっている。例えば、建設現場や土木工事現場では、デジタルカメラで撮影された画像データを証拠写真として使用するシステムが広がっている。さらに、工事現場では、撮影された画像データを利用して、柱、梁等の部材の形状測定も行われている。
撮影画像を利用した計測技術も色々提案されている。例えば、色センサで像の色分布を識別し測定対象物の高さを認識する3次元カメラが提案されている(特許文献1)。
特開平6―3122号公報
工事現場では、工事の進行に応じて、施工や作業が完了した部位の画像撮影が、施工の単位で行われ、撮影画像が管理される。工事現場では、既に施工が完了した部位と現に施工中の部位が混在したり、あるいは、異なる種類の部位の施工が同時に進行する場合も多い。そのため、画像内に撮影対象の以外の部位(例えば、撮影済の部材)が含まれてしまうことも少なくない。
このような場面で、画像データに基づき部材の形状計測を行うと、計測対象でない部位を計測したり、あるいは計測対象とそれ以外を含めた部位を合計して計測してしまう等の計測エラーを生じる可能性がある。また、撮影画像に異なる種類の部位が混在していると、撮影時には判別できても、撮影後には、いずれが撮影対象の部位であるかが、分からなくなることもある。そのため、撮影画像の中で、計測対象や撮影対象の部位を識別できるようにすることが必要となる。
本願発明は、上記課題に鑑み、撮影画像の部位の中から対象部位を識別する情報取得装置を提供することを目的とする。
上記目的を達成するために、部材の撮影画像を取得する情報取得装置において、前記撮影画像から取得された構成情報としての複数の部材の中から特定の部材に対応する部位を対象部位として判定する対象部位判定部と、前記撮影画像の中から前記対象部位に対して計測を行って、前記特定の部材の形状を計測する計測部と、を備え、前記対象部位判定部は、撮影用のカメラの存在する方向に近い側に存在する部材を前記特定の部材として、前記撮影画像の部位の中から前記特定の部材に対応する対象部位を判定する。
本発明によれば、撮影画像の部位の中から対象部位を識別する情報取得装置を提供することができる。
工事撮影の例を示す図である。 工事撮影の例を示す図である。 情報取得システム全体の構成図である。 対象部位判定部の詳細ブロック図である。 情報取得装置のハードウェアブロック図である。 対象部位判定処理を説明するフローチャート1である。 対象部位判定処理を説明するフローチャート2である。 対象部位判定処理を説明するフローチャート3である。 情報取得装置の処理モードを設定する設定画面の例である。 強調表示例である。 強調表示されたガイド画面の例である。 強調表示されたガイド画面の例である。 単眼式で、撮影画像から部位形状を計測する原理を示す図である。 2眼式で、撮影画像から部位形状を計測する原理を示す図である。 設計図による構成情報の例である。 第2構成情報によるガイド画面である。 結果確認の画面である。 結果確認の画面である。 対象部位判定1のサブルーチンである。 対象部位判定1の説明図である。 対象部位判定1の説明図である。 対象部位判定2のサブルーチンである。 対象部位判定2の具体例である。 対象部位判定3のサブルーチンである。 対象部位判定3の具体例である。 対象部位判定3の具体例である。 対象部位判定4のサブルーチンである。 対象部位判定4の具体例である。 撮影範囲ガイドを表示する処理のフローチャートである。 第1構成情報に、撮影範囲ガイドが表示される例である 第2構成情報に、撮影範囲ガイドが表示される例である。 第3構成情報に、撮影範囲ガイド表示が表示される例である。 撮影範囲ガイド表示で、パノラマ画像が表示される例である。 正対状態で柱の間隔を計測する原理を示す図である 斜め方向で柱の間隔を計測する原理を示す図である 床の土台の間隔を計測する原理を示す図である
以下、図面に従って本発明の実施形態を説明する。本発明の情報取得システム1を、工事撮影での利用例で説明する。工事撮影は、工事現場で工事内容の証拠写真等を取得するための撮影である。図1A及び図1Bは、工事撮影様子を示す図である。
図1Aは、複数の柱が施工された室内で、撮影機器(以下では、情報取得装置10と呼ぶ)を携えた撮影者が、撮影準備をしている様子である。工事は通常奥側から進行する。手前が今回の撮影対象の柱PAで、奥が撮影済の柱PBになる。なお、以下では柱や梁のような撮影対象となる工事箇所を、パーツあるいは部材とも呼ぶ。そして、撮影画像で、撮影された部材を撮影部位あるいは、単に部位とも呼ぶ。また、部位に対応する部材も、不明確にならない限り、部位とも略して表記する。
図1Bは、撮影者が情報取得装置10を構えて撮影対象である柱PAに正対して、撮影している様子である。工事現場では、工事の終了した箇所から順番に撮影を行っていく。そのため、工事が進んでいくと、今回の撮影対象である柱PAのみを撮影することが難しくなり、既に撮影済で今回の撮影対象ではない柱PBやその他無関係な箇所が画面に入ってしまう事も多い。そのため、撮影画像には、撮影対象である柱PAと既に撮影済の柱PBの両方が含まれてしまうことも多い。
図2は、情報取得システム1全体の構成図である。情報取得システム1は、大きくは、情報取得装置10と外部装置40から構成される。情報取得装置10は、撮影画像を取得する装置である。情報取得装置10としては、デジタルカメラ、カメラ付きの情報処理装置、あるいはカメラと情報処理端末(例えば、タブレット型の情報処理端末)が有線または無線で組み合わさったシステムのいずれでもよい。外部装置40は、例えば、情報取得装置10と通信回線で接続され、情報取得装置10による撮影結果を格納するサーバである。
情報取得装置10は、カメラ部100、制御部120、記憶部150、表示部160、タッチパネル165及び通信部170等を有する。なお、カメラ部100は、単にカメラとも呼ぶ。
カメラ部100は、撮影部102、画像処理部104、操作部106、操作判定部108及び姿勢センサ110を有する。撮影部102は、不図示のレンズ部102a、撮像素子102b等を有し、被写体像を画像信号に変換する。画像処理部104は、撮影部102から出力される画像信号をデジタルデータに変換して、各種の画像処理を行う。
操作部106は、撮影部102のレンズ部102aの焦点位置や焦点距離を調整するための指示部材である。操作判定部108は、操作部106に対する操作を判定する、姿勢センサ110は、カメラ部100の姿勢や方向を検出するセンサである。姿勢センサ110は、例えば、傾きセンサ(加速度センサ)や電子コンパスを有する。
制御部120は、情報取得装置10全体を統括的に制御する。制御部120は、情報処理部122、カメラ制御部124、構成情報取得部126、撮影済部位判定部128、計測部130、撮影距離算出部132、参考情報作成部134、対象部位判定部136、強調表示設定部138、撮影範囲設定部140、ガイド画面作成部142及び表示制御部144等を有する。
情報処理部122は、各種の判断処理や、外部装置40やカメラ部100から入力される情報を管理する。カメラ制御部124は、タッチパネル165から入力された指示に基づきカメラ部100を制御して、カメラ部100の動作モードを切換えたり、撮影等を実行させる。
構成情報取得部126は、外部装置40の設計図情報422あるいはカメラ部100で撮影された画像から構成情報を取得する。構成情報は、撮影対象となる複数の部材の構成を示す情報である。撮影対象となる部材とは、柱、壁や梁等の工事個所である。以下では、構成情報として、第1構成情報と第2構成情報の2種類を主に説明する。第1構成情報は、撮影画像に基づく複数の部材の構成を示す情報である。第2構成情報は、設計図に基づく複数の部材の構成を示す情報である。
構成情報取得部126は、カメラ部100で撮影された画像であって、複数の部材の全体が撮影された画像を、第1構成情報として取得する。また、構成情報取得部126は、外部装置40の設計図から第2構成情報を取得する。構成情報の詳細は後述する。
撮影済部位判定部128は、複数の部材を順に撮影する経緯で、撮影した部材を判定するものである。工事現場では、形状の類似した部材が多数あるため、撮影済部材を撮影中に特定していくことで、重複撮影の無駄を抑えるとともに、撮影漏れを防止することができる。
計測部130は、撮影画像から部位の形状を計測し、計測値を出力する。部位の形状とは、撮影対象の部材が柱の場合には、例えば柱の幅(直径)や高さである。部材が梁の場合は梁の厚さ等である。
図1Bに示したように、対象部材の部位(以下、対象部位とも呼ぶ)とそれ以外の部位が画面で混在すると、計測対象の設定ができなくなる。そこで、計測部130は、対象部位判定部136で判定された対象部位に基づき、計測を行う。なお、対象部位判定部136によって対象部位が複数判定された場合には、計測部130は、判定された複数の部位について計測を行う。
撮影距離算出部132は、カメラ部100から撮影される部材(例えば、柱)までの距離を算出する。撮影距離算出部132は、例えば、撮影部102の合焦レンズの位置で撮影距離を算出してもよい。そして、撮影画像の中の各部位の位置に合わせて合焦検出ポイントを設定して、各部位に対応する撮影距離を個別に算出すれば、各部位までの撮影距離を求めることができる。また、撮影部102が2眼式の場合は、撮影距離算出部132は、左右の撮像素子102bを用いた位相差測距で撮影距離を算出してもよい。ここで位相差測距とは、左右の各被写体像間の相関度に基づいて被写体上の着目点に対応する像位置のずれを検出し、三角測量の原理に基づいて当該着目点の距離を算出する公知の手法であり、撮影画像の中の各部位の距離を、1回の撮影で求めることができる。
参考情報作成部134は、予め撮影された画像や、一般的な標準参考撮影手順(外部のDB(Data Base)や記憶部150に記録された)を参考に、工事撮影の参考となる参考情報を作成するものである。例えば、参考情報作成部134は、現場で一般的に利用される撮影手順を「標準撮影ガイド」として提供する。また、参考情報作成部134は、同じビルの別なフロアの既に撮影で使用された撮影手順を「類似撮影ガイド」として提供してもよい。
対象部位判定部136は、撮影画像の中から特定の部材に対応する部位を対象部位として判定するものである。つまり、対象部位判定部136は、対象部位とそれ以外の部位が混在している画面の中から、対象部位を判定する。本実施形態では、対象部位判定部136は、対象部位として、最新工期の箇所(部材)を判定する。
具体的には、対象部位判定部136は、撮影画像の部位の中で、表層部位を対象部位として判定する。表層部位とは、撮影画像の部位の中で、カメラ部100の存在する方向に近い側に存在する部材に対応する部位をいう。表層部位が、最新工期の部材に対応すると、みなして良いからである。前述したように、通常、工事現場では、奥側から工事を進行させていくので、対応して撮影も奥側で出来上がった部材から実施されていく。従って、工事撮影では、通常、撮影者から見て、最も手前側に存在する部材が最新工期の部材になるからである。
また、部材の工期情報から直接的に最新工期の部材を特定してもよい。なお、最新工期の箇所は、部材1つとは限られず、複数の部材の場合もある。例えば、n本の柱がまとめて施工された場合である。この場合には、複数の部位からなるグループが対象部位に該当する。
対象部位判定部136は、以下の条件を単独あるいは組み合わせて、対象部位を判定する。対象部位とは、識別対象とする部位である。後述するように、対象部位は、計測対象とされたり、強調表示の対象とされる。
対象部位判定部136は、撮影画像の部位に対応する撮影距離から、対象部位を判定する。また、対象部位判定部136は、撮影対象の部材の形状を取得し、パターンマッチングも使って、対象部位を判定してもよい。さらに、対象部位判定部136は、撮影距離のグループや部材の工期も参酌して、対象部位を判定してもよい。
また、対象部位判定部136は、画像の特徴や撮影距離のグループや工期に基づき、1画面の中で、対象部位を複数判定してもよい。1画面内で複数の対象部位をまとめて判定し、まとめて計測できれば、撮影画像の枚数を削減することも可能になる。
図3Bは、対象部位判定部136の詳細ブロック図である。対象部位判定部136は、画像特徴判定部136a、パーツ判定部136b、距離判定部136c、工期判定部136dを有する。
画像特徴判定部136aは、撮影された各部位の特徴(形状やサイズや色)を判定する。具体的には、画像特徴判定部136aは、角柱や円柱や梁等の形状や色を特徴として判定する。パーツ判定部136bは、画像特徴判定部136aで判定された各部位の形状やサイズに基づいて、各部位がいずれの種類(角柱や円柱)の部材(パーツ)であるかを判定する。
対象部位判定部136は、設計図情報422や部材DB424から取得した各部材の仕様と、パーツ判定部136bで判定した部位の種類を比較して、対象部位を判定する。例えば、今回の識別対象とする部材が角柱で、画面のある部位が円柱と判定された場合には、画面のある部位は対象部位ではないと判定される。
距離判定部136cは、撮影距離算出部132で算出された撮影画像の各部位までの撮影距離に基づき、撮影距離ごとに各部位を分類する。距離判定部136cは、撮影された各部位を、例えば、撮影距離1m間隔で分類する。
工期判定部136dは、設計図情報422や部材DB424から、各部材の工期を取得して、各部材の工期を判定する。対象部位判定部136は、判定された各部材の工期に基づき最新工期の部材を判定し、最新工期の部材に対応する部位を、画像特徴等から判定する。
強調表示設定部138は、対象部位判定部136によって対象部位と判定された部位について、強調表示を設定する。ライブビュー画像、レックビュー画像あるいは後述するガイド画面で、対象部位が強調表示された撮影画像が表示される。強調表示設定部138は、対象部位判定部136によって対象部位と判定された部位が複数箇所有る場合には、判定された複数の部位に強調表示を設定する。
撮影範囲設定部140は、部材の形状の計測値に対する要求精度に応じて、撮影範囲を設定する。撮影距離を長くすると、撮影範囲が広がり、複数の部材をまとめて撮影することができるが、その分だけ撮像素子102bの分解能等の関係で、計測の精度が低下する。つまり、高い精度で部材の形状を計測したい場合には、近接して撮影することが必要になる。
撮影範囲設定部140は、計測の要求精度を満足するための撮影距離をカメラ部100の特性に基づき算出する。カメラ部100の特性は、レンズ部102aのMTF、ディストーションや撮像素子102bの分解能等である。そして、撮影範囲設定部140は、算出した撮影距離とカメラ部100の特性(レンズ部102aの画角)に基づき、対応する撮影範囲を設定する。レンズ部102aの画角は、F値、焦点距離やピント位置等により決まる。
ガイド画面作成部142は、取得された構成情報を含み、構成情報に示される部位に状況情報を付加したガイド画面を作成する。状況情報とは、撮影済部位判定部128の判定に基づく撮影状況で、撮影状況とは、例えば、撮影の経過や進行である。ガイド画面は、撮影経過中に、随時表示される。
そして、ガイド画面作成部142は、状況情報が付加された構成情報の他に、部位の撮影画像(ライブビュー画像あるいはレックビュー画像)と、撮影条件情報をガイド画面に含ませる。撮影条件情報は、計測された部位形状(寸法)、撮影距離、部位の形状の要求精度、要求精度が確保される推奨撮影距離等である。なお、ガイド画面を撮影ガイド画面とも呼ぶ。
また、ガイド画面作成部142は、撮影範囲設定部140で設定された撮影範囲を構成情報に付加したガイド画面を作成する。設定された撮影範囲は、構成情報を示す画面上で撮影範囲ガイドとして示される。撮影範囲ガイドの詳細は、実施形態2で説明する。
また、ガイド画面は、カメラ部100の性能、機能の情報をもととして、撮影計測時の環境、撮影計測の対象物に従って、効率的に精度良く、適切な撮影が出来るような情報を、撮影者に報知するものである。これらの情報や、測定精度、対象物、環境などに加えて、ガイド画面作成部142は、参考情報作成部134で作成された参考情報を表示、通知等できるようにしてもよい。これらにより、部位の正しい測定や効率的に一度に多くの測定が出来るようなガイド画面が表示される。ガイド画面作成部142は、カメラ部100の性能や計測部130の精度、実際の各部位の配置や大きさなどからガイド画面を作成するが、必要に応じて、撮影者が撮影できる位置やスペースなどを考慮して、ガイド画面を作成してもよい。
表示制御部144は、撮影画像、モード等を設定するための設定画面、あるいはガイド画面等を表示部160に表示させる。
記憶部150は、不揮発性の記憶部である。記憶部150には、不揮発性の記憶部であって、撮影画像152、構成情報154及びカメラ部特性情報156等が格納される。撮影画像152は、カメラ部100で撮影記録された画像データである。撮影画像152には、対象部位判定部136で判定された対象部位の情報が含まれても良い。また、強調表示設定部138により強調表示された画像を撮影画像152としてもよい。構成情報154は、構成情報取得部126で取得された情報である。記憶される構成情報154としては、第1構成情報または第2構成情報のいずれか、あるいは、第1構成情報及び第2構成情報の両方でもよい。
カメラ部特性情報156は、カメラ部100の特にレンズ部102aや撮像素子102bに関する特性情報である。レンズ部102aの特性情報は、仕様以外に、明るさ、解像度、ディストーション等である。撮像素子102bの特性情報は、画素サイズ、ピクセル数や画素ピッチ等である。
表示部160は、例えばLCDで、撮影画像やガイド画面等を表示する。タッチパネル165は、表示部160と一体的に構成される操作部で、撮影者からの各種指示が入力される。通信部170は、外部装置40と種々情報通信を行うインターフェースである。通信部170は、外部装置40とネットワーク(不図示)を経由して通信を行う。通信部170は、接続先やその要求などを受信や接続設定等で判別可能で、それによって様々な計測の要求仕様などを制御部120が判定可能となっている。この通信によって、外部装置40が、要求仕様を送信するようにしてもよい。
外部装置40は、制御部400、通信部410および記憶部420を有する。外部装置40は、工事撮影を管理するサーバである。制御部400は、外部装置40を統括的に制御する。通信部410は、外部の装置、例えば情報取得装置10と情報通信を行うインターフェースである。記憶部420には、設計図情報422及び部材DB(Data Base)424が含まれる。部品DBは、図7Bで後述する。記憶部420には、情報取得装置10で撮影された撮影結果(撮影部位の画像、後述レポート等)が保存される。
図3は、情報取得装置10のハードウェアブロック図である。情報取得装置10は、CPU(Central Processing Unit)120a、DRAM(Dynamic Random Access Memory)120b、ROM(Read Only memory)120c、フラッシュメモリ150a、表示部160、タッチパネル165及び通信部170を有する。
CPU120aは、ROM120cに格納される制御プログラムを読込んで実行して、ソフトウェア処理により情報取得装置10の制御を行う。DRAM120bは、制御プログラムや各種データを一時的に記憶するワーキングエリアを提供する。ROM120cは、制御プログラムを不揮発的に記憶する。制御部120は、CPU120a、DRAM120b及びROM120cにより構成される。
フラッシュメモリ150aは、各種データテーブルや撮影画像を記憶する。記憶部150は、フラッシュメモリ150aにより構成される。表示部160、タッチパネル165及び通信部170は、前述したので、説明は省略する。
以下で、情報取得装置10による画像取得処理を説明する。画像取得処理に対象部位判定処理が含まれる。図4A〜図4Cは、対象部位判定処理を説明するフローチャート1〜3である。画像取得処理は、主に情報取得装置10の制御部120により実行される。
まず、制御部120は、情報取得装置10で工事モードが選択されたかを判断する(ステップS100)。図5は、表示部160に表示された画面で、情報取得装置10の処理モードを設定する設定画面である。
図5の設定画面301は、モード設定画面であって、上から2番目の工事モードが選択された状態である。K1は、戻るボタンである。図5の設定画面302は、工事モードが選択されて、工事モードに含まれる具体的な処理が表示された画面である。工事モードには、「工事撮影」、「画像再生」、「設計図取得」、「結果格納」及び「結果確認」のサブモードが含まれる。
「工事撮影」は、工事箇所を撮影する処理である。「画像再生」は、撮影された画像を再生する処理である。
「設計図取得」は、外部装置40の記憶部420から設計図情報422を、構成情報154の中の第2構成情報として取得する処理である。「結果確認」は、情報取得装置10で撮影された各部位の画像に基づき、撮影者あるいは管理者が撮影内容を確認する処理である。撮影者あるいは管理者は、後述する確認画面で、撮影漏れや撮影した部位に不具合がないことを確認する。「結果格納」は、情報取得装置10で撮影された結果(撮影画像、部位の形状情報や判定された対象部位の情報)を、外部装置40に送信して、外部装置40に格納させる処理である。
制御部120は、情報取得装置10で工事モードが選択されていないと判断すると(ステップS100のNO)、選択された他のモードを実行する(ステップS102)。
制御部120は、情報取得装置10で工事モードが選択されたと判断すると(ステップS100のYES)、図5の工事モードの設定画面302で、「工事撮影」が選択されたかを判断する(ステップS104)。
制御部120は、「工事撮影」が選択されたと判断すると(ステップS104のYES)、カメラ部100による画像取得及び取得された画像によるライブビュー画像表示を開始する(ステップS106)。
制御部120は、撮影者の指示等に基づき、構成情報154を利用するかを判断する(ステップS108)。制御部120は、構成情報154を利用しないと判断すると(ステップS108のNO)、ライブビュー画像と測定用画像を表示する(ステップS110)。
対象部位判定部136は、ライブビュー画像に基づき、対象部位を判定する(ステップS112)。対象部位の判定の詳細については、図12A〜図15Bで後述する。計測部130は、判定された対象部位の形状を計測する(ステップS114)。強調表示設定部138は、対象部位を強調表示するよう設定する。制御部120は、強調表示された撮影画像と、計測結果を表示する(ステップS116)。
図6は、ライブビュー画像と測定用画像の表示例である。画面の左が通常のライブビュー画像で、画面の右が測定用画面である。測定用画面には、強調表示され、計測された形状(寸法)が付加されたライブビュー画像が表示される。カメラ部100から見て奥側の柱PB5本に対して、手前の柱PA4本が強調表示される。また、手前の柱PA4本の計測結果が、いずれも30cmと表示される。
制御部120は、撮影指示がされたかを判断する(ステップS118)。制御部120は、撮影指示がされたと判断すると(ステップS118のYES)、撮影を実行する(ステップS118)。計測部130は、撮影画像に基づき、対象部位の柱の幅を計測する(ステップS120)。制御部120は、撮影画像や計測結果を記憶部150に記録する(ステップS122)。制御部120は、ステップS122の後、あるいは撮影指示がされないと判断すると(ステップS118のNO)、ステップS130に進む。
制御部120は、構成情報154を利用すると判断すると(ステップS108のYES)、制御部120は、構成情報154が有るかを判断する(ステップS130)。なお、以下で構成情報154の種類を区別する場合には、第1構成情報154a、第2構成情報154bと表記して区別する。
制御部120は、記憶部150に、第1構成情報154aまたは第2構成情報154bが格納されているかを判断する。制御部120は、構成情報がないと判断すると(ステップS130のNO)、取得する構成情報種類が全体画像(第1構成情報154a)であるかを、撮影者の指定により判断する(ステップS132)。制御部120は、取得する構成情報種類として全体画像が指定されたと判断すると(ステップS132のYES)、撮影者に全体画像撮影を指示する。全体画像撮影が撮影者により行われる。制御部120は、撮影者により撮影された全体画像を第1構成情報154aとして記憶部150に記録する(ステップS134)。
一方、制御部120は、構成情報154の種類が全体画像でない、つまり、指定された構成情報154の種類が設計図であると判断すると(ステップS132のNO)、通信部170を介して、外部装置40の記憶部420から設計図情報422を取得して、第2構成情報154bとして記憶部150に記録する(ステップS136)。制御部120は、ステップS134またはステップS136の後、ステップS150に進む。
制御部120は、構成情報154が有ると判断すると(ステップS130のYES)、利用する構成情報154の種類を撮影者に選択させる(ステップS150)。ガイド画面作成部142は、選択された構成情報154とライブビュー画像を合成した画像から、ガイド画面を作成する。制御部120は、構成情報154とライブビュー画像を含むガイド画面を表示部160に表示する(ステップS152)。構成情報の画像とライブビュー画像は、分割されて表示される。
対象部位判定部136は、構成情報あるいはライブビュー画像に基づき、対象部位を判定する(ステップS154)。対象部位の判定については、前述のように図12A〜図15Bで説明する。計測部130は、判定された対象部位の形状を計測する(ステップS156)。強調表示設定部138は、対象部位を強調表示するよう設定する。制御部120は、強調表示された撮影画像と、計測結果を表示する(ステップS158)。
図7A、図7Bは、ガイド画面の画像で強調表示された例である。図7Aは、撮影者が構図を検討しているような状態の画面である。図7Aで、画面左がライブビュー画像で、画面右が構成情報である。構成情報として、予め撮影された室内の全体画像が表示される。構成情報で、カメラ部100から見て手前に存在する柱PAが撮影対象部位と判定され、柱PAが奥側の柱PBに対して強調表示される。なお、図7Aでは、構成情報の画像で強調表示される例を示したが、ライブビュー画像で強調表示するようにしてもよい。
なお、第1構成情報154aまたは第2構成情報154bのいずれか一方のみが記憶部150に格納されている場合には、ステップS150は省略され、ステップS152で記憶部150に格納されている構成情報154が表示される。
そして、計測部130は、ライブビュー画像に基づき、対象部位を計測する(ステップS156)。ガイド画面作成部142は、ガイド画面に計測された結果(部位形状)を加えてもよい。制御部120は、計測結果が加わった強調された構成情報(全体画像)を表示する(ステップS158、図7A参照)。
図8A、図8Bは、撮影画像によって部位形状(ここでは、柱Pの幅)を計測する原理を模式的に示す図である。いずれも、撮影状態のカメラ部100を上から見た状態である。図8Aは、撮影部102が単眼式の例で、図8Bは、撮影部102が2眼式の例である。
図8Aで、部位(柱P)の幅W、撮像素子102bの幅X0、レンズ部102aの画角φ、レンズ部102aの焦点距離F、撮影距離Dとする。幅X0、画角φ、焦点距離Fは、カメラ部特性情報156に含まれる。撮影距離Dは、例えばコントラストAFで検出されたピント位置により撮影距離算出部132で算出される。以上により、撮影部102が単眼式では、柱Pの幅Wは、以下式で算出される。
W=D×X/F・・・式(1)
φ=2×arctan(X0/(2×F))・・・式(2)
なお式(1)、(2)においてF(焦点距離)とした部分は、正確には焦点距離Fにフォーカシングによる像面移動を加えた像面距離(固定焦点系の場合はその固定された像面距離)となるべきところだが、説明の簡易化のためFとした。以下本明細書では、特に断り無く同様の簡易化を用いる。
ここで撮像素子上の被写体像における部位(柱P)の幅であるXについては公知の種々の手法により求め得るが、画像の輝度・コントラスト・色などの特徴解析を用いたいわゆる「背景分離」手法を適用し、抽出された主要被写体部分(柱Pの部分)の画素数として求めることも一例である。
図8Bで、レンズ部102aR及び撮像素子102bRは、撮影者から見て、右側のレンズと撮像素子とする。また、レンズ部102aL及び撮像素子102bLは、撮影者から見て、左側のレンズと撮像素子とする。また、左右の撮像素子102bの視差B、相対像位置ΔXとする。そして、レンズ部102aRの光軸上に柱Pの中心が配置されたとする。撮影部102が2眼式では、撮影距離Dは、撮影距離算出部132により視差Bと相対像位置ΔXを利用して算出される。
D=F×B/ΔX・・・式(3)
式(3)により算出されたDにより、式(1)でWが算出される。
図4Bに進む。制御部120は、撮影者による操作の有無を判断する(ステップS170)。撮影者による操作とは、例えば、操作部106のズーム操作である。制御部120は、撮影者による操作が有りと判断すると(ステップS170のYES)、カメラ制御部124は、操作結果を反映した制御を行う(ステップS172)。
制御部120は、撮影者による操作がないと判断すると(ステップS170のNO)、撮影指示を待つ(ステップS174)。制御部120は、撮影指示がされたと判断すると(ステップS174のYES)、撮影を実行する(ステップS176)。
計測部130は、レックビュー画像に基づき、対象部位の形状を計測する(ステップS178)。計測部130は、ステップS154で対象部位として判定された箇所を計測する。制御部120は、レックビュー画像を表示する(ステップS180)。図7Bは、図7Aで撮影指示がされた後の画面である。画面左がレックビュー画像、右が構成情報の画像である。レックビュー画像で、対象部位に強調表示(ハッチング)がされ、対象部位の計測値も表示される。
制御部120は、撮影指示がないと判断すると(ステップS174のNO)、ステップS104に戻る。制御部120は、OKボタンがクリックされたかを判断する(ステップS182)。制御部120は、OKボタンがクリックされていないと判断すると、ステップS104に戻る(ステップS182のNO)。
制御部120は、OKボタンがクリックされたと判断すると(ステップS182のYES)、構成情報154と対応させて、撮影結果を記憶部150に記録する(ステップS184)。また、撮影画像及び部位形状の計測結果を記憶部150に記録する。
制御部120は、構成情報に、撮影状況を示す電子マーカを付加したガイド画面を表示する(ステップS186)。電子マーカQは、状況情報の1例である。図7Aで、撮影時に右端の柱PAがクリックされたとする。すると、図7Bのガイド画面で、右端の柱PAに撮影済を示す「済」と記載された電子マーカQが付加される。ガイド画面作成部142は、撮影済部位判定部128の判定に基づき、電子マーカQを付加する。制御部120は、ステップS104に戻る。
図4Cに進む。制御部120は、「工事撮影」が選択されていないと判断すると(ステップS104のNO)、「画像再生」が選択されたかを判断する(ステップS200)。
制御部120は、「画像再生」が選択されたと判断すると(ステップS200のYES)、画像再生を行う(ステップS202)。制御部120は、再生画像の変更指示がされたかを判断し(ステップS204)、再生画像の変更指示がされたと判断すると(ステップS204のYES)、指示に応じて再生画像を変更する(ステップS206)。制御部120は、再生画像の変更指示がされていないと判断すると(ステップS204のNO)、ステップS104に戻る。
また、制御部120は、「画像再生」が選択されていないと判断すると(ステップS200のNO)、「設計図取得」が選択されたかを判断する(ステップS210)。制御部120は、「設計図取得」が選択されたと判断すると(ステップS210のYES)、通信部170を介して外部装置40に設計図情報422を要求し、外部装置40から送信される設計図情報422を受信する(ステップS212)。ステップS212の処理は、前述したステップS136の処理と同様な処理である。制御部120は、受信した設計図情報422を第2構成情報154bとして記憶部150に記録する。
次に、受信した設計図情報422に基づく第2構成情報154bによる強調表示を簡単に説明する。
図9は、設計図による第2構成情報154bが表示される例である。図9の設定画面310は、設計図取得時の設定画面の例である。工事モードの設定画面310で「設計図取得」が選択されると、外部装置40から設計図が取得される。図9の設定画面311は、取得された設計図の中から、表示させる箇所を具体的に指定する画面である。撮影者は、カーソルを移動させて、表示させる構成情報場所を指定する。
図9の設定画面312は、設定画面311で指定された場所(A社社屋4FのD室)の設計図の画面である。室内に5本の柱PAと、6本の柱PBが配置された状態である。柱PAを撮影対象とする。設定画面312の採用ボタンがクリックされると、表示中のA社社屋4FのD室の設計図が、第2構成情報154bとして採用される。
図10は、図9の設定画面312で採用された第2構成情報154bによるガイド画面である。画面左がライブビュー画像で、画面右が第2構成情報154bである。なお、ライブビュー画像は、右端の柱が含まれていない構図である。ライブビュー画像では、対象部位と判定された柱PAが、強調表示される。また、計測された柱PAの計測値も表示される。
図4CのステップS210に戻る。制御部120は、「設計図取得」が選択されていないと判断すると(ステップS210のNO)、「結果確認」が選択されたかを判断する(ステップS220)。「結果確認」のプロセスについて、図11A及び図11Bの各設定画面を参照して説明する。図11Aは、工事モードで「結果確認」が選択された設定画面320である。
制御部120は、「結果確認」が選択されたと判断すると(ステップS220のYES)、場所指定表示をする(ステップS222)。図11Aの設定画面321が、結果確認する場所を指定する画面の例である。ここでは、前述の図9で示したA社社屋4FのD室が、結果確認する場所に指定されたとする。図11Aの設定画面322は、指定されたA社社屋4FのD室の撮影結果である。
設定画面322では、設計図上の5本の柱PAに、その番号と撮影状況を示す状況情報(OKマーク)が付される。OKマークは、対象部位である柱が撮影済で、かつ柱の計測値(柱の幅)が規格に合致していることを示す。
制御部120は、撮影結果のレポート作成指示がされたかを判断する(ステップS224)。制御部120は、図11Aの設定画面322の「レポートOK」がクリックされたら、作成指示がされたと判断する。
制御部120は、レポート作成指示がされていないと判断すると(ステップS224のNO)、レポート作成を行わない。そして、例えば、設定画面322のガイド画面で、No5の柱がクリックされると、制御部120は、図11Bの設定画面323に示すような、詳細確認画面を表示する(ステップS228)。詳細確認画面には、記憶部150に格納されたNo5の柱の撮影画像(証拠画像)と計測値が表示される。
制御部120は、レポート作成指示がされたと判断すると(ステップS224のYES)、作成されたレポートをテキストベースで表示する(ステップS226)。図11Bの設定画面324は、作成されたレポートのテキストベースの内容例である。
制御部120は、「結果確認」が選択されていないと判断すると(ステップS220のNO)、「結果格納」が選択されたかを判断する(ステップS230)。制御部120は、「結果格納」が選択されたと判断すると(ステップS230のYES)、撮影結果を外部装置40に送信する(ステップS232)。撮影結果には、撮影画像やステップS226で作成されたレポート等が含まれる。外部装置40は、送信された撮影結果を記憶部420に格納する。
制御部120は、「結果格納」が選択されていないと判断すると(ステップS230のNO)、ステップS104に戻る。また、ステップS206、ステップS212、ステップS226、ステップS228またはステップS232等の後も、ステップS104に戻る。
図12A〜図15Bにより、ステップS112、ステップS154で示した対象部位判定を説明する。対象部位判定の処理として、代表的な方式を、対象部位判定1〜対象部位判定4として説明する。撮影部位は、柱・梁・鉄筋・土台のように様々な種類があり、またその工事環境も、通常のビルや家屋ばかりではなく、地下工事、トンネル工事等多岐にわたる。従って、このような環境や条件に応じて対象部位を的確に判定するために、対象部位判定部136は、以下4つの判定の方式を適宜、選択あるいは組み合わせて、判定処理を実行する。
図12Aは、対象部位判定1のサブルーチンである。図12B、図12Cは、対象部位判定1の処理を説明する模式図である。対象部位判定1は、撮影された部位の外観や、部位に対応する部材までの撮影距離に基づいて、表層部位(対象部位)を判定する処理である。
対象部位判定部136は、各部位(P1〜Pn)につき、各部位の輪郭等画像特徴及び各部位の撮影距離を判定して、分類する(ステップS300)。nは、画面に存在する部位の数である。図12Cの画面では、n=7となる。各部位の輪郭等画像特徴は、画像特徴判定部136aにより判定される。各部位の撮影距離は、撮影距離算出部132により算出される。
kは整数とし、k=1〜nとする。対象部位判定部136は、k=1として、初期化する(ステップS302)。対象部位判定部136は、撮影画像に基づき、各部位の輪郭等画像特徴及び各部位の撮影距離を分類して、部位同士の重なり関係を調べる。そして、対象部位判定部136は、部位Pkよりも上に重なる他の部位があるかを判定する(ステップS306)。
対象部位判定部136は、部位Pkよりも上に重なる他の部位がないと判定すると(ステップS306のNO)、Pkを表層部位と判定する(ステップS308)。表層部位とは、当該部位が、当該部位よりもカメラ部100に近い側に存在する他の部位がない部位である。前述のように、通常工事現場では、奥から工事を進行させていくので、カメラに最も近い側の部材に対応する部位が、最新の工期部位、つまり、計測対象や直接の撮影対象に該当するからである。
図12及び図12Cを用いて、具体例を説明する。図12Bは、撮影状態を上部から見た図である。図12Bは、撮影画像の各部位P1〜P7に対応する部材No1〜No7と、カメラ部100の位置関係を示す。部材No1〜と部材No5が垂直な柱で、部材No6及び部材No7が水平な梁とする。図12Cは、各部位P1〜P7の撮影画像である。カメラ部100に近い部材No2、部材No4が、撮影及び計測の対象となる部材である。部材No2及び部材No4に対応する部位P2及びP4が、ステップS308で表層部位と判定される。
対象部位判定部136は、部位Pkよりも上に重なる他の部位があると判定すると(ステップS306のYES)、部位Pkを表層部位でないと判定する(ステップS310)。ステップS308又はステップS310の後、対象部位判定部136は、k=nであるかを判定し(ステップS312)、k=nであると判定すると(ステップS312のYES)、この処理を終了する。対象部位判定部136は、k=nでないと判定すると(ステップS312のNO)、k=k+1とし(ステップS314)、ステップS304に戻る。
図13Aは、対象部位判定2のサブルーチンである。図13Bは、対象部位判定2の処理を説明する図である。対象部位判定2は、部位の撮影距離を判定し、撮影距離に応じて部位を分類して、分類に応じて表層部位を判定する処理である。
対象部位判定部136は、各部位(P1〜Pn)の撮影距離を判定して、距離に応じて分類する(ステップS330)。各部位の撮影距離は、撮影距離算出部132により算出される。
図13Bは、対象部位判定2の処理を説明する図である。図13Bは、図12Bと同様に、撮影状態を上部から見た図である。No10〜12の部材が、1〜2mの撮影距離範囲に属する。No20〜23の部材が、2〜3mの撮影距離範囲に属する。No30〜32の部材が、3〜4mの撮影距離範囲に属する。カメラ部100に近い1〜2mの撮影距離範囲の部材が、撮影及び計測の対象となる部材である。なお、上述の撮影距離範囲の設定は1例である。撮影距離範囲の設定は、撮影者が工事現場の状況を見て、事前に行ってもよい。
対象部位判定部136は、k=1として、初期化する(ステップS332)。対象部位判定部136は、部位Pkが最も近い距離グループに含まれるかを判定する(ステップS334)。最も近い距離グループとは、図13Bでは、1〜2mのグループである。
対象部位判定部136は、部位Pkが最も近い距離グループに含まれると判定すると(ステップS334のYES)、部位Pkを表層部位と判定する(ステップS336)。対象部位判定部136は、Pkが最も近い距離グループに含まれないと判定すると(ステップS334のNO)、部位Pkを表層部位でないと判定する(ステップS338)。
対象部位判定部136は、k=nであるかを判定し(ステップS340)、k=nであると判定すると(ステップS340のYES)、この処理を終了する。対象部位判定部136は、k=nでないと判定すると(ステップS340のNO)、k=k+1とし(ステップS342)、ステップS334に戻る。
複数の対象部位が横1列に並んでいる場合には、画面中心の対象部位までの撮影距離が最短になり、各対象部位の撮影距離にはバラツキが生じる。対象部位判定2の処理によれば、所定範囲のグループで判定するので、対象部位を一括して判定することができる。
図14Aは、対象部位判定3のサブルーチンである。図14B、図14Cは、対象部位判定3の処理を説明する図である。対象部位判定3は、設計図(設計図情報422)と部材リスト(部材DB424)により、現在の工事現場における各部材の工期を取得し、最新工期の部材に対応する部位を、撮影画像の部位の中から特定する。対象部位判定3は、特定した部位を対象部位として判定する。
対象部位判定部136は、最新工期の部材を判定する(ステップS360)。具体的には、対象部位判定部136は、外部装置40から取得した設計図情報422及び部材DB424を参照して、所定の工事現場における最新工期の部材を判定する。図14Bは、部材DB424に基づく部材リストの例である。図14Bにより、部材No301〜305が最新工期であると判定される。図14Cは、対応する設計図情報の例である。
対象部位判定部136は、画像特徴(部材の形状、部材の施工位置等)及び撮影距離判定で、部材と部位を対応づける(ステップS362)。具体的には、対象部位判定部136は、設計図情報422及び部材DB424による部材情報を参照して、画像特徴及び撮影距離判定で、部材と部位を対応づける。画像特徴及び撮影距離判定は、ステップS300における処理と同様である。
対象部位判定部136は、k=1として、初期化する(ステップS364)。対象部位判定部136は、部位Pkが最も新しい工期グループに含まれるかを判定する(ステップS366)。
対象部位判定部136は、部位Pkが最も新しい工期グループに含まれると判定すると(ステップS366のYES)、対象部位と判定する(ステップS368)。対象部位判定部136は、Pkが最も新しい工期グループに含まれないと判定すると(ステップS366のNO)、対象部位でないと判定する(ステップS370)。
対象部位判定部136は、k=nであるかを判定し(ステップS372)、k=nであると判定すると(ステップS372のYES)、この処理を終了する。対象部位判定部136は、k=nでないと判定すると(ステップS372のNO)、k=k+1とし(ステップS374)、ステップS366に戻る。
対象部位判定3の処理によれば、撮影距離の遠近には直接影響されずに、対象部位が判定される。従って、カメラ部100に対して対象部位よりも近い位置に他の部材がある場合でも、誤判定を防止することができる。
図15Aは、対象部位判定4のサブルーチンである。図15Bは、対象部位判定4の処理を説明する図である。対象部位判定4は、正対していない状態で撮影された場合でも、対象部位の判定を可能にする処理である。
対象部位判定4の原理を簡単に説明する。まず、対象部位判定部136は、部材の平面座標を作成し、平面座標からカメラ部100に最も距離が近い部材を特定し、この部材を表層部材の1つと判定する。次に、対象部位判定部136は、特定した部材と他の部材から構成される平面を複数設定する。対象部位判定部136は、設定した複数の平面の中で、カメラ部100に対して最も正対している平面を特定する。そして、対象部位判定部136は、特定した平面に属する部材に対応する部位を、対象部位として判定する。
図15Bは、図12Bと同様に、撮影状態を上部から見た図である。工事現場にNo20〜44の部材(柱)が配置されているとする。No20〜23の部材、No30〜34の部材、No40〜44の部材が、それぞれ同時期に施工されたグループとする。カメラ部100に近いNo20〜23の部材が、最新工期の部材(対象部位)とする。No30〜34の部材及びNo40〜44の部材は、No20〜23の部材より、工期の古い部材である。カメラ部100は、柱に対して斜めの状態である。工事現場の状態によっては、斜め方向からしか撮影できない場合もあるからである。
対象部位判定部136は、各部位に対応する部材の平面座標を作成する(ステップS380)。対象部位判定部136は、部材の平面座標を、画像特徴や撮影距離に基づき作成する。さらに、対象部位判定部136は、設計図情報422や部材DB424も参照して、部材の平面座標を作成してもよい。平面座標は、例えば、カメラ部100の光軸Cを基準にしたXY直交座標(図15B参照)に基づく座標である。
対象部位判定部136は、例えば、柱の右下を部材の位置基準にする。対象部位判定部136は、カメラ部100に最も近い部材を特定する(ステップS382)。図15Bの例では、No20の部材が特定される。
対象部位判定部136は、特定されたNo20の部材を含む平面を設定する(ステップS384)。図15Bでは、例えば、No20〜23の部材で平面H1が設定され、No20と34の部材で平面H2が設定され、No20と44の部材で平面H3が設定され、No20と30と40の部材で平面H4が設定される。それ以外の平面は、省略する。
対象部位判定部136は、設定された平面の中で、カメラ部100に対して、最も正対している平面を特定する。対象部位判定部136は、光軸Cに直交するX軸に対して、最も角度の浅い平面を特定する。最も角度の浅い平面を特定平面と称す。図15Bの例では、平面H1が特定される。対象部位判定部136は、特定平面H1に属するNo20〜23の部材に対応する部位を対象部位として特定する。なお、特定平面H1に属する部材の各平面座標の値が算出されているので、特定平面H1に属する部材に対応する部位は、前述のように画像特徴や撮影距離に応じて、判定される。
対象部位判定部136は、k=1として、初期化する(ステップS388)。対象部位判定部136は、部位Pkが特定平面上に配置された部材に対応する部位(以下、対応部位と称す)であるかを判定する(ステップS390)。
対象部位判定部136は、部位Pkが対応部位であると判定すると(ステップS390のYES)、部位Pkを表層部位と判定する(ステップS392)。対象部位判定部136は、部位Pkが対応部位でないと判定すると(ステップS390のNO)、部位Pkが表層部位でないと判定する(ステップS394)。
対象部位判定部136は、k=nであるかを判定し(ステップS396)、k=nであると判定すると(ステップS396のYES)、この処理を終了する。対象部位判定部136は、k=nでないと判定すると(ステップS396のNO)、k=k+1とし(ステップS398)、ステップS390に戻る。
対象部位判定4の処理によれば、部材に対して、カメラ部100を正対できない場合でも、対象部位を判定することができので、撮影位置や撮影方向の制約が少なくなり、撮影の自由度が増す。
以上説明した対象部位判定1〜4の処理によれば、撮影画像の中で、施工の新旧が異なる部位が混在していても、新規に施工された部位が正確に判定される。これにより、部位の形状の計測が正確に行われる。
また、撮影対象の部位が、ライブビュー画像、レックビュー画像あるいは構成情報の画像に強調して表示される。そのため、設計図等を参照しながら各工事箇所に指示された撮影箇所・撮影内容をいちいち確認しなくても、撮影漏れや重複撮影等を防止することができる。
なお、対象部位の判定結果に対する承認ボタンや対象部位の変更を指示する変更ボタンを画面に設けてもよい。工事現場の状況によっては、適切な部位が判定されない場合もあるからである。対象部位の変更指示がされた場合には、対象部位判定部136は、使用する対象部位判定1〜4の方式を切換えるか、対象部位判定1〜4の方式の優先順位を変更する。また、対象部位判定部136は、使用する対象部位判定1〜4の方式を撮影者に選択させるようにしてもよい。また、対象部位判定部136は、最初に撮影者に画面上で対象部位を特定させて、特定された対象部位に応じた対象部位判定の方式を選択するようにしてもよい。
また、以上説明した対象部位判定1〜4の処理では、表層部位を判定することを具体例として説明した。しかし、撮影や計測の対象部位は、表層部位に全て限定されるものではない。表層部位以外、例えば2番目の層の部位が、撮影対象部位の場合もあり得る。その場合には、例えば対象部位判定3によって、最新工期の部材に基づき、対象部位を特定することができる。
<実施形態2>
実施形態2は、計測の要求精度に応じた撮影範囲を設定し、ガイド画面の構成情報の部位に撮影範囲を付加して表示するものである。情報取得システム1の構成や、情報取得装置10のハードウェア構成は図2A、図2B、図3の内容と同様であるので、説明は省略する。
図16は、実施形態2におけるガイド画面表示処理を説明するフローチャートである。図16のフローチャートは、図4Aのフローチャートに、推奨撮影範囲を示す撮影範囲ガイドを表示する処理を追加したものである。推奨撮影範囲とは、部材形状の計測値に対する要求精度が満足される撮影距離に対応する撮影範囲である。前述した撮影範囲設定部140により、計測値に対する要求精度に応じて、撮影範囲が設定される。ステップS400〜ステップS406が、追加された処理である。
なお、以下では、図17を適宜参照して説明する。なお、図17のガイド画面は、構成情報として第1構成情報154aが表示される例である。計測部130は、ライブビュー画像に基づき、柱の間隔Tを計測する(ステップS400)。ガイド画面作成部142は、間隔Tの情報(1m)を付加したガイド画面220(図17)を作成する。ガイド画面220には、参考情報作成部134による参考情報を表示させるボタンが設けられる。「標準ガイド表示」は、標準撮影ガイドを表示させるボタンである。「類似ガイド表示」は、類似撮影ガイドを表示させるボタンである。
図19A〜図19Cは、撮影画像によって柱の間隔を計測する原理を示す図である。図19Aは、柱Pを正面から撮影する場合である。図19Aで、柱Pの間隔T、レンズ部102aの焦点距離F、像幅Y1、撮影距離Dとする。焦点距離Fは、カメラ部特性情報156に含まれる。撮影距離Dは、ピント検出等により撮影距離算出部132で算出される。以上により、柱Pの間隔Tは、以下式で算出される。
T=D×Y1/F・・・式(4)
図19Bは、柱Pを斜め方向から撮影する場合である。図19Bで、柱Pの間隔T、レンズ部102aの焦点距離F、像幅Y1、撮影距離D1、D2とする。焦点距離Fは、カメラ部特性情報156に含まれる。撮影距離D1、D2は、ピント検出等により撮影距離算出部132で算出される。柱Pの間隔Tは、以下式に基づき算出される。
ΔD=D2−D1・・・式(5)
T=W1/cosθ=W1/cos(arctan(ΔD/W1))・・・式(6)
このように、カメラ部100が柱Pに正対する向きでなく、斜めの方向からでも、柱Pの間隔Tを算出することができる。斜め方向から撮影することで、全体画像の撮影が容易になり、撮影時の自由度も増す。
図19Cは、床の土台や天井の梁や桁を撮影する場合の計測原理である。撮影対象の部位は、柱のような垂直な部材には限られないからである。例えばPは床の部材である。床の部材を撮影する場合には、撮影者は、図19Cのようにカメラ部100を斜め下向きにして、撮影を行う。カメラ部100の傾きは、姿勢センサ110により検出される。土台Pの間隔Tは、以下式に基づき算出される。
ΔD=D2−D1・・・式(7)
T=W1/cosθ・・・式(8)
図16に戻る。制御部120は、計測の要求精度を入力するよう、撮影者に指示する(ステップS402)。計測の要求精度が既に入力済の場合には、制御部120は、この処理を行わない。例えば、柱Pの要求精度として、1mmが入力されたとする。
制御部120は、撮影距離及び画角を判定する(ステップS404)。撮影範囲設定部140は、計測の要求精度を満足する撮影距離を算出する。計測の要求精度が高い程、短い撮影距離が算出される。前述のように、撮影範囲設定部140は、計測の要求精度を満足するための撮影距離をカメラ部100の特性(レンズ部102aのMTF、ディストーションや撮像素子102bの分解能等)に基づき算出する。カメラ部100の特性は、カメラ部特性情報156に含まれる。
撮影範囲設定部140は、算出した撮影距離とカメラ部100の特性に基づき、前記計測の要求精度を満足する撮影範囲を設定する。ガイド画面作成部142は、設定された撮影範囲に基づき、構成情報154の所定位置に撮影範囲ガイドGを付加する。制御部120は、構成情報154の所定位置に撮影範囲ガイドGが付加されたガイド画面を表示する(ステップS406)。
図17のガイド画面221は、撮影範囲ガイドGが付加されたガイド画面の例である。ガイド画面221の「精度1mm」は、入力された要求精度である。また、「推奨撮影距離1m」は、要求精度を満足するよう算出された距離である。第1構成情報154aには、撮影範囲ガイドGが表示される。撮影範囲ガイドGは、推奨撮影距離1mで撮影される範囲を示す。撮影範囲ガイドGにより、2本の柱が画面の左右に配置されるような構図が提案される。なお、左側の画面は、ライブビュー画像である。要求精度は手動入力でも、予め記憶されたものでもよい。また、要求精度は、画像や状況や、要求される出力形態から対象物の判定に応じて変更する数値であってもよい。
ガイド画面221では、左から1番目と2番目の柱が含まれるような範囲を1回目の撮影とし、3番目と4番目の柱Pが含まれるような範囲を2回目の撮影とし、5番と6番目の柱Pが含まれるような範囲を3回目の撮影とすることを、推奨している。ガイド画面221には、撮影回数が全3回であることも表示される。1m以内の距離で、6本の柱を1本ずつ撮影しても要求精度は満足されるが、2本まとめて撮影した方が、精度が満足されかつ効率が良いからである。
図17のガイド画面222は、1回目撮影の終了後の画面である。1番目と2番目の柱を覆う撮影範囲ガイドGが、例えばハッチングQ2で表示される。ハッチングQ2が、図11の電子マーカQに相当する。つまり、ハッチングQ2は状況情報である。これにより、1番目と2番目の柱Pが撮影済であることが明確になる。
なお、ガイド画面は、実際に撮影が出来るかも考慮して作成した方が良く、建築物の構造や危険な場所などの情報を外部のデータベース等から取得して、実際にそのガイド通りの撮影が可能かまでを判定できるようにしてもよい。つまり、ガイドした撮影範囲から、どの位置で撮影すれば良いかが画角や撮影距離から計算できるので、地図情報を持っていれば、撮影位置が適当かが判断可能となる。その場合は、図19Bのように、正面からではなく斜めから撮影を推奨してもよい。斜め撮影時も安全な場所かどうかを推測すればよい。撮影ガイドを仮決めしてから撮影位置を検証する方法以外にも、安全で適当な場所の候補(地図や平面図、建造物の設計データ等で判断)から、適宜、撮影領域や精度を求めて、撮影場所を決めて行く方法もある。
図18A〜図18Cは、撮影範囲ガイドGの他の表示態様を示す例である。図18Aは、第2構成情報154bを含むガイド画面の例である。図18Aのガイド画面230は、第2構成情報154bを含み、第2構成情報154bで撮影範囲ガイドGが横線で表示された例である。撮影済の撮影範囲ガイドGには、図7Bと同様な電子マーカQが表示される。また、ガイド画面230に表示された「撮影距離OK」は、現在の撮影距離が要求精度を満足する撮影距離以内であることを示す。
図18Bは、新たな形態の構成情報154を含むガイド画面の例である。新たな形態の構成情報154は、6本の柱が平面的に展開された状態で、これを第3構成情報154cとも称す。
ガイド画面231では、第3構成情報154cに3つ撮影範囲ガイドGが、対応する柱を覆うように表示される。撮影範囲ガイドGに記載された番号(1,2,3)は、撮影順番を示す。番号1の撮影範囲ガイドGには、状況情報として撮影済みを示す電子マーカQが表示される。
図18Cは、複数回の撮影がパノラマ画像風に繋げて表示されたガイド画面232の例である。構成情報は、図19Bと同じ第3構成情報154cが表示される。ガイド画面232では、画像の端部が重複するような撮影が提案される。そのため、ガイド画面232の第3構成情報154cで、撮影画像の端部が重複するような撮影範囲ガイドGが表示される。なお、図18Cのガイド画面232は、1回目撮影が終了して、2回目撮影の状態である。
ガイド画面232の下側に横長で表示される画像は、2枚の画像が貼り合わせされた画像である。左側が1回目の撮影済画像(レックビュー画像)である。右側が2回目の画像で、ライブビュー画像である。中央部分Vが、1回目画像と2回目画像の重複部分である。
以上説明した撮影範囲ガイドG表示によれば、設計図等を参照しながら各工事箇所に指示された撮影箇所・撮影内容をいちいち確認しなくても、撮影漏れや重複撮影等を防止することができるのに加えて、部位計測の要求精度を満足する撮影範囲が明示されるので、適切な工事画像撮影を簡単に行うことができる。
以上説明した建築物の部位を測定する以外にも、特定エリアの建造物群、森の木の一本一本、畑の作物やその他エリアの動植物などを対象の各部位と考えても良い。また、マクロ的には、顕微鏡画像で測定する部品や配線パターンや半導体等の三次元的な測定にも応用でき、それぞれの対象物を各部位と考えて、本願を適用が可能となる。
つまり、特定な領域に存在して群となっている各部位を適切、正確、効率的に測定する用途であれば、本願のカバー範囲と言える。また、これらの各対象物は形状が建造物ほど単純ではないが、測定したい部位の始点終点は、エッジを強調するなどの単純な輪郭判定のみならず、様々な画像処理で測定をしやすくするステップを介在させてもよく、頻繁に測定され手本となる測定例が多い場合は、それらを教師画像、教師測定例として、人工知能に機械学習させた結果を利用した判定を行っても良い。なお、情報取得装置10は、カメラ部100を除いた、制御部120、記憶部150や表示部160を備える情報処理装置であってもよい。
なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階でのその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素を適宜組み合わせても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このような、発明の趣旨を逸脱しない範囲内において種々の変形や応用が可能であることはもちろんである。
1 情報取得システム
10 情報取得装置
40 外部装置
100 カメラ部
120 制御部
126 構成情報取得部
128 撮影済部位判定部
130 計測部
132 撮影距離算出部
134 参考情報作成部
136 対象部位判定部
138 強調表示設定部
140 撮影範囲設定部
142 ガイド画面作成部
144 表示制御部
150 記憶部
154 構成情報
154a 第1構成情報
154b 第2構成情報
156 カメラ部特性情報
160 表示部
165 タッチパネル
170 通信部
400 制御部
410 通信部
420 記憶部
422 設計図情報
424 部材DB

Claims (5)

  1. 部材の撮影画像を取得する情報取得装置において、
    前記撮影画像から取得された構成情報としての複数の部材の中から特定の部材に対応する部位を対象部位として判定する対象部位判定部と、
    前記撮影画像の中から前記対象部位に対して計測を行って、前記特定の部材の形状を計測する計測部と、を備え、
    前記対象部位判定部は、撮影用のカメラの存在する方向に近い側に存在する部材を前記特定の部材として、前記撮影画像の部位の中から前記特定の部材に対応する対象部位を判定する、
    ことを特徴とする情報取得装置。
  2. 前記撮影画像の中で前記判定された対象部位を強調して表示する制御部を備えることを特徴とする請求項1に記載の情報取得装置。
  3. 前記撮影画像の部位に対応する撮影距離を算出する撮影距離算出部を備え、
    前記対象部位判定部は、前記撮影画像の部位の撮影距離から、前記対象部位を判定することを特徴とする請求項1に記載の情報取得装置。
  4. 撮影画像に基づき部材の形状を計測する計測方法において、
    前記撮影画像から取得された構成情報としての複数の部材の中から特定の部材に対応する部位を対象部位として判定する判定ステップと、
    前記撮影画像の中から前記対象部位に対して計測を行って、前記特定の部材の形状を計測する計測ステップと、有し、
    前記判定ステップは、撮影用のカメラの存在する方向に近い側に存在する部材を前記特定の部材として、前記撮影画像の部位の中から前記特定の部材に対応する対象部位を判定する、
    ことを特徴とする計測方法。
  5. 部材の撮影画像に基づき部材の形状を計測する計測方法をコンピュータに実行させるプログラムにおいて、
    前記撮影画像から取得された構成情報としての複数の部材の中から特定の部材に対応する部位を対象部位として判定する判定ステップと、
    前記撮影画像の中から前記対象部位に対して計測を行って、前記特定の部材の形状を計測する計測ステップと、有し、
    前記判定ステップは、撮影用のカメラの存在する方向に近い側に存在する部材を前記特定の部材として、前記撮影画像の部位の中から前記特定の部材に対応する対象部位を判定する、ことを特徴とするプログラム。
JP2017018482A 2017-02-03 2017-02-03 情報取得装置 Active JP6779150B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017018482A JP6779150B2 (ja) 2017-02-03 2017-02-03 情報取得装置
US15/821,753 US20180225839A1 (en) 2017-02-03 2017-11-22 Information acquisition apparatus
CN201810047514.0A CN108391046A (zh) 2017-02-03 2018-01-18 信息取得装置、计测方法、记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017018482A JP6779150B2 (ja) 2017-02-03 2017-02-03 情報取得装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020172553A Division JP7202337B2 (ja) 2020-10-13 2020-10-13 情報取得装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018125795A JP2018125795A (ja) 2018-08-09
JP6779150B2 true JP6779150B2 (ja) 2020-11-04

Family

ID=63037290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018482A Active JP6779150B2 (ja) 2017-02-03 2017-02-03 情報取得装置

Country Status (3)

Country Link
US (1) US20180225839A1 (ja)
JP (1) JP6779150B2 (ja)
CN (1) CN108391046A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018117329A (ja) * 2017-01-20 2018-07-26 オリンパス株式会社 情報取得装置
JP2018189544A (ja) * 2017-05-09 2018-11-29 オリンパス株式会社 情報処理装置
JP6819629B2 (ja) * 2018-02-23 2021-01-27 オムロン株式会社 画像センサ
US11055531B1 (en) * 2018-08-24 2021-07-06 United Services Automobiie Association (USAA) Augmented reality method for repairing damage or replacing physical objects
CN111209050A (zh) * 2020-01-10 2020-05-29 北京百度网讯科技有限公司 用于切换电子设备的工作模式的方法和装置
US11863910B2 (en) * 2020-03-03 2024-01-02 Daikin Industries, Ltd. Task support apparatus, task support program, terminal, and task support method
JP7149354B2 (ja) * 2020-03-27 2022-10-06 Sppテクノロジーズ株式会社 保守作業支援システム、保守作業支援方法、および、保守作業支援プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2007012658A (es) * 2005-04-13 2007-12-13 Store Eyes Inc Metodo y sistema para medir automaticamente el cumplimiento de la exhibicion en tiendas al menudeo.
JP2011188210A (ja) * 2010-03-08 2011-09-22 Olympus Imaging Corp 撮影機器及び撮影システム
JP2012021323A (ja) * 2010-07-14 2012-02-02 Takenaka Komuten Co Ltd 検査支援システムおよびプログラム
JP5987541B2 (ja) * 2012-08-07 2016-09-07 株式会社大林組 部材設置判定システム
JP6496497B2 (ja) * 2014-06-18 2019-04-03 株式会社大林組 配筋検査システム、配筋検査用のプログラム、及び配筋検査方法
JP6927481B2 (ja) * 2016-07-07 2021-09-01 国立大学法人京都大学 Led素子
JP2018066687A (ja) * 2016-10-20 2018-04-26 株式会社リコー 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
CN108391046A (zh) 2018-08-10
US20180225839A1 (en) 2018-08-09
JP2018125795A (ja) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6779150B2 (ja) 情報取得装置
US10506151B2 (en) Information acquisition apparatus
JP6654649B2 (ja) 欠陥検出装置及びプログラム
JP6996925B2 (ja) 杭頭解析システム、杭頭解析方法、及び杭頭解析プログラム
JP6502525B2 (ja) 物体測定装置及び物体測定方法
CN108090959B (zh) 室内外一体建模方法及装置
CN111583411A (zh) 一种基于倾斜摄影的三维模型建立方法
JP2011123008A (ja) 計測方法および計測プログラムならびに計測装置
JP6807459B2 (ja) 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体
JP5987541B2 (ja) 部材設置判定システム
JP6671852B2 (ja) 情報設定システム及びシミュレーションシステム
JP2007147522A (ja) 写真計測方法及び写真計測プログラム
CN112415010A (zh) 一种成像检测方法及系统
JP2007212187A (ja) ステレオ写真計測装置、ステレオ写真計測方法、及びステレオ写真計測プログラム
JP2001317915A (ja) 3次元計測装置
JP6725675B2 (ja) 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置
JP7504688B2 (ja) 画像処理装置、画像処理方法およびプログラム
US12002237B2 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
Yang et al. Effect of field of view on the accuracy of camera calibration
JP7202337B2 (ja) 情報取得装置、及びプログラム
JP3813108B2 (ja) 画像処理技術を用いた電柱計測方法および電柱計測プログラムとこのプログラムを記録した記録媒体
JPWO2020145004A1 (ja) 撮影ガイド装置
JPH09210649A (ja) 三次元計測装置
JP7044331B2 (ja) 橋梁などの構造物を効率的に検査するための画像処理システム、画像処理方法及びプログラム
JP2013122429A (ja) 製作誤差評価方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190628

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201013

R150 Certificate of patent or registration of utility model

Ref document number: 6779150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250