JP2022105442A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2022105442A
JP2022105442A JP2021000253A JP2021000253A JP2022105442A JP 2022105442 A JP2022105442 A JP 2022105442A JP 2021000253 A JP2021000253 A JP 2021000253A JP 2021000253 A JP2021000253 A JP 2021000253A JP 2022105442 A JP2022105442 A JP 2022105442A
Authority
JP
Japan
Prior art keywords
data
imaging
image data
information
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021000253A
Other languages
English (en)
Other versions
JP7427615B2 (ja
Inventor
雄磨 佐野
Yuma Sano
諒 中島
Ryo Nakajima
正子 柏木
Masako Kashiwagi
直 三島
Sunao Mishima
晃仁 関
Akihito Seki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021000253A priority Critical patent/JP7427615B2/ja
Priority to CN202110985737.3A priority patent/CN114726978A/zh
Priority to US17/465,225 priority patent/US20220215576A1/en
Publication of JP2022105442A publication Critical patent/JP2022105442A/ja
Application granted granted Critical
Publication of JP7427615B2 publication Critical patent/JP7427615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】画像データまたは奥行データを他と比較しやすいように表示する。【解決手段】実施形態に係る情報処理装置は、位置推定部と、奥行推定部と、登録部と、表示制御部とを備える。位置推定部は、対象画像データに基づき、対象画像データが撮像された撮像位置を表す対象位置データを推定する。奥行推定部は、対象画像データに基づき、対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定する。登録部は、対象画像データ、対象位置データおよび対象奥行データを含む新たな撮像情報を第1データベースに登録する。表示制御部は、第1データベースに格納された複数の撮像情報のうちの指定された指定撮像情報に含まれる画像データおよび奥行データの少なくとも一方を、マップデータにおける指定撮像情報に含まれる位置データに対応する画素位置に、対応させて表示させる。【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
例えば建物、トンネル等の社会インフラストラクチャの内部または建物の内部をカメラにより撮像し、撮像して得られた大量の画像データを用いて、社会インフラストラクチャの内部、建物の内部、またはこれらに設けられた設備の状態を検査する作業が行われている。しかし、GPS(Global Positioning System)等の測位システムを利用できないような屋内の環境において、このような検査作業をする場合、検査者は、大量の画像データのそれぞれに対して、撮像位置を入力しなければならなかった。
また、このような検査作業において、検査者は、検査対象を撮像した画像データと、同一の検査対象を異なる時刻に撮像した画像データとを比較しなければならなかった。このため、作業者は、大量の画像データの中から同一の検査対象を異なる時刻に撮像した画像データを目視により選択したり、確認したりする作業をしなければならなく、作業に手間がかかってしまっていた。
特開2017-102672号公報
Ryo Nakashima and Akihito Seki, "SIR-Net: Scene-Independent End-to-End Trainable Visual Relocalizer", 2019 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT) , IEEE, 16-19 sept. 2019, pp. 472-481 Masako Kashiwagi, Nao Mishima, Tatsuo Kozakaya, Shinsaku Hiura, "Deep Depth from Aberration Map", 2019 IEEE/CVF International Conference on Computer Vision (ICCV), IEEE, 27 Oct.-2 Nov. 2019, pp. 4069-4078
本発明が解決しようとする課題は、画像データまたは奥行データを、他の画像データまたは他の奥行データをと比較しやすいように表示することができる情報処理装置、情報処理方法およびプログラムを提供することにある。
実施形態に係る情報処理装置は、第1管理部と、取得部と、位置推定部と、奥行推定部と、登録部と、表示制御部とを備える。前記第1管理部は、画像データ、前記画像データが撮像された撮像位置を表す位置データ、および、前記位置データにより表される撮像位置からオブジェクトまでの距離を表す奥行データをそれぞれが含む複数の撮像情報を格納する第1データベースを管理する。前記取得部は、対象画像データを取得する。前記位置推定部は、前記対象画像データに基づき、前記対象画像データが撮像された撮像位置を表す対象位置データを推定する。前記奥行推定部は、前記対象画像データに基づき、前記対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定する。前記登録部は、前記対象画像データ、前記対象位置データおよび前記対象奥行データを含む新たな撮像情報を前記第1データベースに登録する。前記表示制御部は、前記画像データが撮像された環境のマップを表すマップデータを表示装置に表示させる。前記表示制御部は、前記第1データベースに格納された前記複数の撮像情報のうちの指定された指定撮像情報に含まれる前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記指定撮像情報に含まれる前記位置データに対応する画素位置に、対応させて表示させる。
実施形態に係る情報処理装置の機能構成を示す図。 第1データベースに格納されている情報の内容を示す図。 情報処理装置の登録処理の流れを示すフローチャート。 情報処理装置の表示処理の流れを示すフローチャート。 マップデータを表示した表示装置の一例を示す図。 位置アイコンおよび方向アイコンを表示した表示装置の一例を示す図。 マップデータおよび画像データを表示した表示装置の一例を示す図。 情報処理装置の変化領域情報の生成処理の流れを示すフローチャート。 変化領域画像を表示した表示装置の画面の一例を示す図。 視点変換処理を説明するための図。 第1変形例に係る情報処理装置の機能構成を示す図。 第2変形例に係る情報処理装置の機能構成を示す図。 第3変形例に係る情報処理装置の機能構成を示す図。 情報処理装置のハードウェア構成を示す図。
以下、図面を参照しながら実施形態に係る情報処理装置10について説明する。
情報処理装置10は、検査対象となる複数のオブジェクトのそれぞれをカメラにより撮像した複数の画像データを取得する。検査対象となる複数のオブジェクトのそれぞれは、例えば、社会インフラストラクチャ、プラントまたは工場等の建物の内部部分およびこれらの内部に設けられる設備等である。そして、情報処理装置10は、取得した複数の画像データに基づいて、複数のオブジェクトのそれぞれの劣化等の状態を判断するための情報を表示装置に表示させる。
図1は、情報処理装置10の機能構成を示す図である。図2は、第1データベースに格納されている情報の内容を示す図である。
情報処理装置10は、ネットワーク上のサーバ、または、専用または汎用のコンピュータ等である。情報処理装置10は、プログラムを実行することにより、図1に示すような機能構成を備える。すなわち、情報処理装置10は、第1DB記憶部22と、第1管理部24と、第2DB記憶部26と、第2管理部28と、取得部30と、位置推定部32と、奥行推定部34と、登録部36と、マップ記憶部40と、表示制御部42と、入力部44と、比較部46とを備える。
第1DB記憶部22は、第1データベースを記憶する。第1DB記憶部22は、情報処理装置10の外部に設けられたサーバまたはクラウド等により実現されてもよい。
第1データベースは、図2に示すように、複数の撮像情報を格納する。複数の撮像情報のそれぞれは、ID、日時データ、画像データ、位置データ、姿勢データ、奥行データおよびカメラパラメータを含む。
IDは、撮像情報を識別する情報である。日時データは、画像データを撮像した日付および時刻を表す情報である。画像データは、単眼のカメラにより撮像された2次元画像を表す。本実施形態において、画像データは、カラー画像のデータである。
位置データは、画像データが撮像された撮像位置を表す。撮像位置は、現実空間の三次元点の位置を表す。例えば、撮像位置は、緯度、経度および高度により表される情報であってもよいし、任意の基準位置を原点としたX方向、Y方向およびZ方向の距離により表されてもよい。X方向、Y方向およびZ方向は、現実空間における互いに直交する方向である。
姿勢データは、画像データを撮像したカメラの撮像姿勢を表す。撮像姿勢は、現実空間における、撮像位置から画像中心のオブジェクトへと向かう方向を表す。例えば、撮像姿勢は、方位により表される情報であってもよいし、任意の基準方向からの水平方向および垂直方向の角度により表されてもよい。
奥行データは、位置データにより表される撮像位置から、画像データに含まれるオブジェクトまでの距離を表す。奥行データは、画像データと同一の画角のデータである。
カメラパラメータは、画像データを撮像したカメラの撮像時における複数のパラメータを含む。本実施形態において、カメラパラメータは、焦点距離および画像中心を含む。すなわち、カメラパラメータは、画像座標とカメラ座標とを相互に変換するためのパラメータを含む。
第1管理部24は、第1DB記憶部22に記憶された第1データベースを管理する。例えば、第1管理部24は、第1データベースへのアクセスを管理する。例えば、第1管理部24は、第1データベースから、指定された条件に合致する1または複数の撮像情報を取得する。
第2DB記憶部26は、第2データベースを記憶する。第2DB記憶部26は、情報処理装置10の外部に設けられたサーバまたはクラウド等により実現されてもよい。
第2データベースは、複数の参照撮像情報を格納する。複数の参照撮像情報のそれぞれは、参照画像データ、参照位置データおよび参照姿勢データを含む。
参照画像データは、単眼のカメラにより撮像された2次元画像を表す。参照位置データは、参照画像データが撮像された撮像位置を表す。参照姿勢データは、参照画像データを撮像したカメラの撮像姿勢を表す。
複数の参照撮像情報は、作業者またはロボット等が、検査対象となる複数のオブジェクトをカメラにより撮像することにより生成した情報である。参照位置データおよび参照姿勢データは、参照画像データの撮像時において、作業者等が入力した情報である。また、複数の参照画像データは、一眼レフカメラのようなハイスペックのカメラにより撮像された精度の良い画像を表すことが好ましい。これにより、第2データベースは、精度の良い複数の参照撮像情報を格納することができる。
第2管理部28は、第2DB記憶部26に記憶された第2データベースを管理する。例えば、第2管理部28は、第2データベースへのアクセスを管理する。例えば、第2管理部28は、第2データベースから、指定された条件に合致する1または複数の参照撮像情報を取得する。
取得部30は、例えばインターネットなどの通信手段を介して、対象画像データを取得する。対象画像データは、検査対象となるオブジェクトをカメラにより撮像した画像データである。対象画像データは、作業者が撮像した画像データであってもよいし、ロボットが撮像した画像データであってもよい。対象画像データは、スマートフォンのような小型カメラで撮像した画像データであってもよいし、一眼レフのようなハイスペックカメラで撮像した画像データであってもよい。
また、取得部30は、対象画像データとともに、撮像日時を表す対象日時データ、および、少なくとも焦点距離および画像中心を表す対象カメラパラメータも取得する。取得部30は、対象画像データ、対象日時データおよび対象カメラパラメータを、位置推定部32、奥行推定部34および登録部36に送る。
位置推定部32は、対象画像データを受け取る。位置推定部32は、対象画像データに基づき、対象画像データが撮像された撮像位置を表す対象位置データ、および、対象画像データを撮像したカメラの撮像姿勢を表す対象姿勢データを推定する。そして、位置推定部32は、推定した対象位置データおよび対象姿勢データを登録部36に送る。
本実施形態においては、位置推定部32は、第2管理部28を介して第2データベースから複数の参照撮像情報を取得する。そして、位置推定部32は、対象画像データを、取得した複数の参照撮像情報のそれぞれと照合することにより、対象位置データおよび対象姿勢データを推定する。例えば、位置推定部32は、複数の参照撮像情報に含まれる複数の参照画像データのうち、対象画像データに最も近い撮像位置および撮像姿勢で撮像された近接画像データを探し出す。そして、位置推定部32は、対象画像データと近接画像データとの間の位置差および姿勢差と、近接画像データを含んでいた参照撮像情報に含まれる参照位置データおよび参照姿勢データとに基づき、対象位置データおよび対象姿勢データを算出する。
なお、位置推定部32は、対象画像データおよび複数の参照撮像情報に基づき、ディープニューラルネットワークを用いて、対象位置データおよび対象姿勢データを算出することが可能である。例えば、位置推定部32は、非特許文献1に記載されたディープニューラルネットワークを用いることにより、対象位置データおよび対象姿勢データを算出することが可能である。
奥行推定部34は、対象画像データを受け取る。奥行推定部34は、対象画像データに基づき、対象位置データにより表される撮像位置から、対象画像データに含まれるオブジェクトまでの距離を表す対象奥行データを推定する。そして、奥行推定部34は、推定した対象奥行データを登録部36に送る。
本実施形態においては、奥行推定部34は、対象画像データのボケの強さに基づき、それぞれの画素位置のオブジェクトまでの距離を表す対象奥行データを推定する。奥行推定部34は、画像データに含まれるオブジェクトのボケの強さとオブジェクトまでの距離とを対応付けるモデルを予め機械学習することによって、対象画像データから対象奥行データを推定することができる。例えば、奥行推定部34は、非特許文献2に記載されたディープニューラルネットワークを用いることにより、対象画像データから、対象奥行データを算出することが可能である。なお、本実施形態では、奥行推定部34は、奥行データを対象画像のボケの強さに基づき推定した。これに代えて、奥行推定部34は、対象画像のコンテキストから奥行データを推定してもよいし、ステレオカメラから推定した視差から奥行データを算出してもよいし、LiDAR(Light Detection and Ranging)のようなレーザの照射による測距装置を用いて計測したデータに基づき奥行データを生成してもよい。
登録部36は、対象画像データ、対象日時データ、対象カメラパラメータ、対象位置データ、対象姿勢データおよび対象奥行データを取得する。登録部36は、対象画像データ、対象日時データ、対象カメラパラメータ、対象位置データ、対象姿勢データおよび対象奥行データを、画像データ、日時データ、カメラパラメータ、位置データ、姿勢データおよび奥行データとして含む新たな撮像情報を生成する。そして、登録部36は、生成した新たな撮像情報を第1DB記憶部22に記憶された第1データベースに登録する。これにより、登録部36は、取得部30が対象画像データを取得する毎に、第1データベースに新たな撮像情報を追加することができる。
マップ記憶部40は、第1データベースに格納された複数の画像データが撮像された環境のマップを表すマップデータを記憶する。例えば、マップデータは、検査対象となる複数のオブジェクトが設けられている場所の地図、機器の配置図またはフロアマップ等の画像を表す。また、マップデータは、画素位置が、現実空間の三次元点の位置に対応している。例えば、マップデータは、フロアマップを表す場合、画素が、現実のフロアにおける2次元位置に対応する。
表示制御部42は、マップ記憶部40に記憶されたマップデータを取得する。そして、表示制御部42は、取得したマップデータを表示装置に表示させる。
さらに、表示制御部42は、第1データベースから、1または複数の撮像情報を取得する。表示制御部42は、取得した1または複数の撮像情報のそれぞれについて、マップデータ上に、画像データおよび奥行データが存在することを表す撮像位置情報を表示させる。この場合において、表示制御部42は、マップデータにおける位置データに示される撮像位置に対応する画素位置に、撮像位置情報を表示させる。
さらに、表示制御部42は、取得した1または複数の撮像情報のそれぞれについて、マップデータ上に、画像データを撮像したカメラの撮像姿勢を表す撮像姿勢情報を表示させる。この場合、表示制御部42は、マップデータにおける、位置データに示される撮像位置に対応する画素位置に、撮像姿勢情報を表示させる。
入力部44は、第1データベースから1または複数の撮像情報を取得するための条件情報を取得する。例えば、入力部44は、ユーザにより入力された情報に基づき、条件情報を取得する。例えば、入力部44は、条件情報として日時を取得する。表示制御部42は、条件情報を取得した場合、第1データベースから、条件情報に一致する1または複数の撮像情報を取得する。例えば、表示制御部42は、条件情報として日時が取得された場合、条件情報に一致する日時データを含む1または複数の撮像情報を第1データベースから取得し、取得した1または複数の撮像情報のそれぞれについて、マップデータ上に撮像位置情報および撮像姿勢情報を表示させる。
さらに、入力部44は、第1データベースに格納された複数の撮像情報のうちの何れかの撮像情報の指定を、例えばユーザから受け付ける。例えば、入力部44は、表示制御部42が取得した1または複数の撮像情報のうちの何れかの撮像情報の指定を受け付ける。例えば、入力部44は、マップデータ上に表示された撮像位置情報をクリックする等の操作をすることにより、クリックされた撮像位置情報に対応する撮像情報の指定を受け付ける。なお、ここでは、指定された撮像情報を、指定撮像情報という。
そして、表示制御部42は、指定撮像情報に含まれる画像データおよび奥行データの少なくとも一方を、表示装置に表示させる。この場合、表示制御部42は、マップデータにおける指定撮像情報に含まれる位置データに示される撮像位置に対応する画素位置に対応させて、画像データまたは奥行データを表示させる。
また、さらに、入力部44は、状態比較処理を実行させる操作を受け付ける。状態比較処理は、オブジェクトが劣化等により変化しているかどうかを、異なる日時に撮像された2つの画像データまたは2つの奥行データに基づき自動検出する処理である。
比較部46は、入力部44が状態比較処理を実行させる操作を受け付けた場合、状態比較処理を実行する。比較部46は、状態比較処理において、第1データベースに格納されている複数の撮像情報のうちの、同一のオブジェクトを異なる日時に撮像した画像データを含む第1撮像情報および第2撮像情報を取得する。
例えば、入力部44は、状態比較処理を実行させる操作とともに、第1撮像情報および第2撮像情報の指定を受け付けてもよい。この場合、比較部46は、ユーザにより指定された第1撮像情報および第2撮像情報を取得する。
そして、比較部46は、取得した第1撮像情報および第2撮像情報に基づき、オブジェクトにおける状態が変化した領域を表す変化領域情報を生成する。例えば、比較部46は、第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを比較することにより、オブジェクトにおける状態が変化した領域を表す変化領域情報を生成する。
この場合、比較部46は、第1撮像情報に含まれる画像データおよび第2撮像情報に含まれる画像データの少なくとも一方に対して視点変換処理をすることにより、第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換する。
そして、比較部46は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを比較することにより、変化領域情報を生成する。例えば、比較部46は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとの色または輝度の差分を算出し、差分が所定の閾値以上となる領域を表す変化領域情報を生成する。これにより、比較部46は、異なる視点からオブジェクトが撮像された2つの画像データを精度良く比較して、オブジェクトにおける状態が変化した領域を精度良く表す変化領域情報を生成することができる。
また、例えば、比較部46は、第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを比較することにより、オブジェクトにおける状態が変化した領域を表す変化領域情報を生成する。例えば、比較部46は、第1撮像情報に含まれる奥行データおよび第2撮像情報に含まれる奥行データの少なくとも一方に対して視点変換処理をすることにより、第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換する。
そして、比較部46は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを比較することにより、変化領域情報を生成する。例えば、比較部46は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとの距離の差分を算出し、差分が所定の閾値以上となる領域を表す変化領域情報を生成する。これにより、比較部46は、異なる視点からオブジェクトが撮像された2つの奥行データを精度良く比較して、オブジェクトにおける状態が変化した領域を精度良く表す変化領域情報を生成することができる。
比較部46は、生成した変化領域情報を表示制御部42に送る。表示制御部42は、状態比較処理が実行された場合、第1撮像情報または第2撮像情報に含まれる画像データまたは奥行データを表示装置に表示させるとともに、変化領域情報を、画像データまたは奥行データにおけるオブジェクトの状態が変化した領域に対応させて表示させる。
また、比較部46は、変化領域情報を生成した場合、オブジェクトにおける状態が変化した領域の大きさを、さらに算出してもよい。例えば、比較部46は、変化領域情報の画像データ上での画素サイズに基づき、状態が変化した領域の現実空間でのサイズを算出してもよい。また、例えば、比較部46は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとの同一画素位置での距離の差分に基づき、状態が変化した領域の現実空間での深さの変化量を算出してもよい。
そして、この場合、比較部46は、状態が変化した領域の大きさを表示制御部42に送る。表示制御部42は、第1撮像情報または第2撮像情報に含まれる画像データまたは奥行データを表示装置に表示させるとともに、比較部46が算出した大きさを、画像データまたは奥行データにおけるオブジェクトの状態が変化した領域に対応させて表示させる。
図3は、情報処理装置10の登録処理の流れを示すフローチャートである。情報処理装置10は、例えばインターネットなどの通信手段を介して、対象画像データを取得した場合、図3に示す流れで処理を実行する。
まず、S11において、情報処理装置10は、対象画像データを取得する。情報処理装置10は、対象画像データを撮像した日時を表す対象日時データ、および、対象画像データを撮像した時のカメラパラメータを示す対象カメラパラメータも取得する。
続いて、S12において、情報処理装置10は、対象画像データに基づき、対象画像データが撮像された撮像位置を表す対象位置データ、および、対象画像データを撮像したカメラの撮像姿勢を表す対象姿勢データを推定する。例えば、情報処理装置10は、対象画像データおよび第2データベースに格納された複数の参照撮像情報を、非特許文献1に記載されたディープニューラルネットワークに入力して、対象位置データおよび対象姿勢データを推定する。
続いて、S13において、情報処理装置10は、対象画像データに基づき、対象位置データにより表される撮像位置から、対象画像データに含まれるオブジェクトまでの距離を表す対象奥行データを推定する。例えば、情報処理装置10は、対象画像データを、非特許文献2に記載されたディープニューラルネットワークに入力して、奥行データを算出する。
続いて、S14において、情報処理装置10は、対象画像データ、対象日時データ、対象カメラパラメータ、対象位置データ、対象姿勢データおよび対象奥行データを含む新たな撮像情報を生成する。そして、情報処理装置10は、生成した新たな撮像情報を第1データベースに登録する。情報処理装置10は、S14の処理を終えると、本フローの処理を終了する。
情報処理装置10は、対象画像データを取得する毎に、S11からS14に示す流れで処理を実行する。これにより、情報処理装置10は、社会インフラストラクチャ、プラントまたは工場等の建物の内部部分およびこれらの内部に設けられる設備等が様々な位置から撮像される毎に、画像データ、日時データ、位置データ、姿勢データおよびカメラパラメータを含む撮像情報を生成して、第1データベースに登録することができる。
図4は、情報処理装置10の表示処理の流れを示すフローチャートである。図5は、マップデータを表示した表示装置の画面の一例を示す図である。図6は、マップデータ、位置アイコン206および方向アイコン208を表示した表示装置の画面の一例を示す図である。図7は、マップデータおよび画像データを表示した表示装置の画面の一例を示す図である。
情報処理装置10は、例えばユーザの操作により情報表示の操作がされた場合、図4に示す流れで処理を実行する。
まず、S21において、情報処理装置10は、マップ記憶部40に記憶されたマップデータを取得し、取得したマップデータを表示装置に表示させる。例えば、情報処理装置10は、図5に示すように、検査対象となる複数のオブジェクトが設けられている屋内のフロアマップを表すフロアマップ画像202を、マップデータとして表示装置に表示させる。
続いて、S22において、情報処理装置10は、条件情報を取得する。例えば、情報処理装置10は、図5に示すように、条件情報の一例である日付の指定を受け付けるための日付入力ボックス204を表示装置に表示させる。そして、情報処理装置10は、ユーザに対して、日付入力ボックス204に日付を入力させる。なお、情報処理装置10は、日付に限らず、月、年または任意の期間を条件情報として取得してもよい。
続いて、S23において、情報処理装置10は、第1データベースから、取得した条件情報に一致する1または複数の撮像情報を取得する。例えば、情報処理装置10は、日付入力ボックス204に入力された日付に一致する日時データを含む1または複数の撮像情報を第1データベースから取得する。
続いて、S24において、取得した1または複数の撮像情報のそれぞれについて、マップデータ上に、画像データおよび奥行データが存在することを表す撮像位置情報、および、画像データを撮像したカメラの撮像姿勢を表す撮像姿勢情報を表示させる。例えば、情報処理装置10は、図6に示すように、取得した1または複数の撮像情報のそれぞれについて、位置アイコン206を撮像位置情報として表示装置に表示させ、方向アイコン208を撮像姿勢情報として表示装置に表示させる。この場合、情報処理装置10は、位置アイコン206を、フロアマップ画像202における、対応する位置データに示される撮像位置に対応する画素位置に表示させる。また、情報処理装置10は、方向アイコン208を、フロアマップ画像202における、対応する位置データに示される撮像位置に対応する画素位置に、対応する姿勢データに示される方向を示すように表示させる。
続いて、S25において、情報処理装置10は、取得した1または複数の撮像情報のうち、何れかの撮像情報が指定撮像情報として指定されたか否かを判断する。例えば、情報処理装置10は、図6に示すような、表示装置に表示されている1または複数の位置アイコン206のうちのいずれかがマウス等によりクリックされた場合、クリックされた位置アイコン206に対応する撮像情報が指定撮像情報として指定されたと判断する。
情報処理装置10は、何れの撮像情報も指定されてない場合(S25のNo)、処理をS25で待機する。情報処理装置10は、何れかの撮像情報が指定された場合(S25のYes)、処理をS26に進める。
S26において、情報処理装置10は、指定撮像情報に含まれる画像データおよび奥行データの少なくとも一方を、マップデータにおける、指定撮像情報に含まれる位置データに示される撮像位置に対応する画素位置に対応させて表示させる。例えば、表示制御部42は、図7に示すように、フロアマップ画像202における対応する位置アイコン206から出る吹き出し画像210の中に、指定撮像情報に含まれる画像データまたは奥行データを表示させる。表示制御部42は、フロアマップ画像202とは別のウィンドウを表示させ、別のウィンドウ内に画像データまたは奥行データを表示させてもよい。
また、情報処理装置10は、画像データまたは奥行データのうちの一方をユーザに指定させるための種類指定ボックス212を表画装置に表示させてもよい。情報処理装置10は、ユーザに対して、種類指定ボックス212を用いて画像データまたは奥行データの何れを表示させるかを選択させる。そして、情報処理装置10は、指定撮像情報に含まれる画像データおよび奥行データのうち、種類指定ボックス212を用いて選択された一方を、吹き出し画像210の中に表示させる。
情報処理装置10は、S26の処理を終えると、処理をS25に戻す。そして、異なる撮像情報が新たに指定された場合、情報処理装置10は、新たな指定撮像情報について、S26の処理を実行する。
情報処理装置10は、ユーザにより情報表示の操作がされた場合、S21からS26までの処理を実行する。これにより、情報処理装置10は、社会インフラストラクチャ、プラントまたは工場等の建物の内部部分およびこれらの内部に設けられる設備等が様々な位置において撮像された画像データおよび対応する奥行データを、マップデータと対応付けながらユーザに表示することができる。これにより、情報処理装置10は、何れのオブジェクトについての画像データまたは奥行データであるのかを容易に確認することができる。従って、情報処理装置10は、画像データまたは奥行データを、他の画像データまたは他の奥行データをと比較しやすいように表示することができる。
さらに、情報処理装置10は、表示させる画像データおよび奥行データを、日時等の条件情報により容易に絞り込んで表示させることができる。これにより、情報処理装置10は、時間の経過によってオブジェクトがどのように変化したのかを、ユーザに容易に確認させることができる。
図8は、情報処理装置10の変化領域情報の生成処理の流れを示すフローチャートである。図9は、変化領域情報を表示した表示装置の画面の一例を示す図である。
情報処理装置10は、オブジェクトが変化しているかどうかを検出する状態比較処理を実行する。例えば、情報処理装置10は、図9に示すように、変化状況を検出させるため変化状況ボタンを含む種類指定ボックス212を表示装置に表示させてもよい。そして、情報処理装置10は、ユーザにより変化状況ボタンが選択された場合、図8に示す流れで状態比較処理を実行する。
まず、S31において、情報処理装置10は、第1撮像情報の指定を受け付ける。例えば、情報処理装置10は、状態比較処理を実行する操作を受け付けた後に、フロアマップ画像202上に表示された何れかの位置アイコン206がクリックされた場合、クリックされた位置アイコン206に対応する撮像情報を、第1撮像情報として受け付ける。
続いて、S32において、情報処理装置10は、第2撮像情報の指定を受け付ける。例えば、情報処理装置10は、第1撮像情報に含まれる位置データおよび姿勢データから予め定められた距離および角度の範囲内の位置データおよび姿勢データを含み、且つ、第1撮像情報に含まれる日時データと異なる日時データを含む1または複数の撮像情報を選択する。続いて、情報処理装置10は、選択した1または複数の撮像情報について、位置アイコン206および方向アイコン208をフロアマップ画像202に表示させる。そして、情報処理装置10は、フロアマップ画像202上に表示された何れかの位置アイコン206がクリックされた場合、クリックされた位置アイコン206に対応する撮像情報を、第2撮像情報として受け付ける。これにより、情報処理装置10は、近傍の視点から同一のオブジェクトを異なる日時に撮像した画像データを含む第1撮像情報および第2撮像情報を取得することができる。
続いて、S33において、情報処理装置10は、第1撮像情報に含まれる画像データおよび第2撮像情報に含まれる画像データの少なくとも一方に対して視点変換処理をすることにより、第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換する。さらに、情報処理装置10は、第1撮像情報に含まれる奥行データおよび第2撮像情報に含まれる奥行データに対しても、同様に視点変換処理をすることにより、第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換する。なお、視線変換処理のさらなる詳細について、図10を参照して後述する。
続いて、S34において、情報処理装置10は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを比較することにより、オブジェクトにおける状態が変化した領域を表す変化領域情報を生成する。例えば、情報処理装置10は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる画像データと第2撮像情報に含まれる画像データとを対応する画素同士で比較することにより、色または輝度の差分が所定の閾値以上となる領域を表す変化領域情報を生成する。これに代えてまたはこれに加えて、情報処理装置10は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを比較することにより変化領域情報を生成してもよい。例えば、情報処理装置10は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとを対応する画素同士で比較することにより、距離の差分が所定の閾値以上となる領域を表す変化領域情報を生成する。
続いて、S35において、情報処理装置10は、オブジェクトにおける状態が変化した領域の大きさを算出する。例えば、情報処理装置10は、変化領域情報の画像データ上での画素サイズに基づき、状態が変化した領域の現実空間でのサイズを算出する。また、例えば、情報処理装置10は、同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した第1撮像情報に含まれる奥行データと第2撮像情報に含まれる奥行データとの同一画素位置での距離の差分に基づき、状態が変化した領域での現実空間での深さの変化量を算出してもよい。
続いて、S36において、情報処理装置10は、第1撮像情報または第2撮像情報に含まれる画像データまたは奥行データを表示装置に表示させるとともに、変化領域情報を画像データまたは奥行データにおけるオブジェクトの状態が変化した領域に対応させて表示させる。例えば、情報処理装置10は、図9に示すように、画像データにおけるオブジェクトの状態が変化した領域に、変化領域の位置を表す変化領域画像214を表示させる。さらに、情報処理装置10は、S35で算出した大きさも、画像データにおけるオブジェクトの状態が変化した領域に対応させて表示させてもよい。
これにより、情報処理装置10は、社会インフラストラクチャ、プラントまたは工場等の建物の内部部分およびこれらの内部に設けられる設備等が、時間経過に応じて劣化等した場合、劣化した箇所をユーザに容易に確認させることができる。
図10は、視点変換処理を説明するための図である。情報処理装置10は、例えば、以下に説明する方法により、視点変換処理を実行する。
図10に示された第1画像データIは、第1撮像位置iから第1オブジェクト230を撮像した画像データである。第1奥行データDは、第1画像データIと同一の画角で、第1撮像位置iから第1オブジェクト230および第1オブジェクト230の周囲のオブジェクトまでの距離を表す。
図10に示された第2画像データIは、第2撮像位置jから第1オブジェクト230を撮像した画像データである。第2撮像位置jは、第1撮像位置iとは異なる位置である。第2奥行データDは、第2画像データIと同一の画角で、第2撮像位置jから第1オブジェクト230および第1オブジェクト230の周囲のオブジェクトまでの距離を表す。
また、Tjiは、第1撮像位置iから第2撮像位置jへとカメラを並行移動させる並進ベクトルを表す。Rjiは、第1撮像位置iでのカメラの撮像姿勢から、第2撮像位置jでのカメラの撮像姿勢へと、カメラを回転移動させる回転ベクトルを表す。
第1画像データIおよび第1奥行データDにおける画素pの位置を(x,y)および奥行をD(p)と表した場合、画素pの三次元座標{X(p),Y(p),Z(p)}は、式(1)のように表される。
Figure 2022105442000002
なお、fは、第1画像データIの焦点距離の水平方向の成分を表す。fは、第1画像データIの焦点距離の垂直方向の成分を表す。cは、第1画像データIの画像中心の水平方向の成分を表す。cは、第1画像データIの画像中心の垂直方向の成分を表す。
ここで、pは、第1画像データIおよび第1奥行データDにおける、第1オブジェクト230のP点が表示された画素位置である。pの三次元座標{X(p),Y(p),Z(p)}は、P点を第1撮像位置iから見たときの三次元座標である。従って、P点を第2撮像位置jから見たときの三次元座標{X´,Y´,Z´}は、TjiおよびRjiに基づき、画素pの三次元座標{X(p),Y(p),Z(p)}に基づき、式(2)のように表される。
Figure 2022105442000003
p´は、第2画像データIおよび第2奥行データDにおける、第1オブジェクト230のP点が表示された画素位置である。p´は、三次元座標{X´,Y´,Z´}を、第2画像データIに投影することにより算出される。従って、第2画像データIにおける第1オブジェクト230のP点が表示された画素p´=(x´,y´)は、式(3)のように表される。
Figure 2022105442000004
なお、f´は、第2画像データIの焦点距離の水平方向の成分を表す。f´は、第2画像データIの焦点距離の垂直方向の成分を表す。c´は、第2画像データIの画像中心の水平方向の成分を表す。c´は、第2画像データIの画像中心の垂直方向の成分を表す。
また、第2奥行データDにおける第1オブジェクト230のP点が表示された画素p´の奥行(D(p´))は、Z´により表される。
以上から、情報処理装置10は、式(1)、式(2)および式(3)を用いて演算をすることにより、第1撮像情報に含まれる画像データおよび奥行データを、第2撮像情報に含まれる画像データの撮像位置および撮像姿勢から撮像した補正画像データおよび補正奥行データとなるように、視点変換処理を実行することができる。
なお、p´(=(x´,y´))は、整数値とならない場合がある。この場合、情報処理装置10は、視点変換処理をした後の補正画像データおよび補正奥行データに対して、バイリニア補間処理等を行って、整数位置の画素を含む補正画像データおよび補正奥行データに変換する。これにより、情報処理装置10は、互いに同一の位置の複数の画素を含む画像データおよび奥行データを比較して、変化領域情報を生成することができる。
また、情報処理装置10は、上述の方法以外の視点変換処理を実行してもよい。例えば、情報処理装置10は、第1撮像情報に含まれる画像データおよび奥行データ、および、第2撮像情報に含まれる画像データおよび奥行データのそれぞれを、式(1)を用いて3次元座標で表された3次元点群情報に変換し、3次元点群情報の状態で視点を一致させるようにしてもよい。この場合、例えば、情報処理装置10は、ICP((Iterative Closest Point)またはNDT(Normal Distribution Transform)等の方法を用いて、3次元点群情報の状態で視点を一致させる。
図11は、第1変形例に係る情報処理装置10の機能構成を示す図である。情報処理装置10は、図1に示す構成に代えて、図11に示すような第1変形例に係る構成であってもよい。なお、第1変形例に係る情報処理装置10は、図1に示す構成と略同一であるので、略同一および機能を有する構成要素については同一の符号を付けて、相違点を除き詳細な説明を省略する。第2変形例以降についても同様である。
第3変形例に係る情報処理装置10は、認識部80をさらに備える。認識部80は、表示制御部42が取得した1または複数の撮像情報のうち、何れかの撮像情報が指定撮像情報として指定された場合、指定撮像情報に含まれる画像データを取得する。例えば、認識部80は、表示装置に表示されている1または複数の位置アイコン206のうちのいずれかがマウス等によりクリックされた場合、クリックされた位置アイコン206に対応する指定撮像情報に含まれる画像データを取得する。
認識部80は、取得した画像データに対して画像認識処理を実行し、オブジェクトにひび割れまたはさび等の劣化内容を認識する。認識部80は、認識結果を表示制御部42に送る。そして、表示制御部42は、認識部80から受け取った認識結果を、指定撮像情報に含まれる画像データまたは奥行データとともに、表示装置に表示させる。これにより、第1変形例に係る情報処理装置10は、オブジェクトに劣化が生じている場合、劣化内容をユーザに知らせることができる。
なお、認識部80は、比較部46が状態比較処理を実行した場合において、画像データにおける変化領域情報に示された領域に対して画像認識処理を実行してもよい。これにより、第1変形例に係る情報処理装置10は、変化領域にどのような内容の変化が生じているかをユーザに認識させることができる。
図12は、第2変形例に係る情報処理装置10の機能構成を示す図である。
第2変形例において、第2データベースが格納する複数の参照撮像情報のそれぞれは、参照奥行データをさらに含む。参照奥行データは、参照画像データが撮像された位置から、参照画像データに含まれるオブジェクトまでの距離を表す。参照奥行データは、参照画像データと同一の画角のデータである。参照奥行データは、例えば、ステレオカメラのようなハイスペックのカメラにより生成された奥行データであってもよい。これにより、第2データベースは、精度の良い奥行データを含む参照撮像情報を格納することができる。
また、第2変形例に係る奥行推定部34は、図12に示すように、推定した対象奥行データを位置推定部32に送る。
第2変形例に係る位置推定部32は、対象画像データおよび対象奥行データを受け取る。位置推定部32は、対象画像データおよび対象奥行データに基づき、対象画像データが撮像された撮像位置を表す対象位置データ、および、対象画像データを撮像したカメラの撮像姿勢を表す対象姿勢データを推定する。そして、位置推定部32は、推定した対象位置データおよび対象姿勢データを登録部36に送る。
本変形例において、位置推定部32は、第2管理部28を介して第2データベースから複数の参照撮像情報を取得する。そして、位置推定部32は、対象画像データおよび対象奥行データの組を、取得した複数の参照撮像情報のそれぞれと照合することにより、対象位置データおよび対象姿勢データを推定する。例えば、位置推定部32は、複数の参照撮像情報に含まれる複数組の参照画像データおよび参照奥行データのうち、対象画像データおよび対象奥行データの組に最も近い撮像位置および撮像姿勢で撮像された近接画像データおよび近接奥行データの組を探し出す。そして、位置推定部32は、対象画像データおよび対象奥行データの組と、近接画像データおよび近接奥行データの組との間の位置差および姿勢差と、近接画像データおよび近接奥行データの組を含んでいた参照撮像情報に含まれる参照位置データおよび参照姿勢データとに基づき、対象位置データおよび対象姿勢データを算出する。なお、位置推定部32は、対象画像データ、対象奥行データおよび複数の参照撮像情報に基づき、ディープニューラルネットワークを用いて、対象位置データおよび対象姿勢データを算出してもよい。
このような第2変形例に係る位置推定部32は、奥行データをさらに用いることにより、より精度良く対象位置データおよび対象姿勢データを推定することができる。例えば、対象画像データと見た目が類似した複数の参照画像データが第2データベースに含まれる場合であっても、位置推定部32は、対象奥行データと参照奥行データとを比較することで、より精度よく近接画像データと近接奥行データの組を探し出すことができる。この結果、位置推定部32は、より精度よく対象位置データおよび対象姿勢データを算出することができる。
図13は、第3変形例に係る情報処理装置10の機能構成を示す図である。
第3変形例において、登録部36は、対象画像データ、対象日時データ、対象カメラパラメータ、対象位置データ、対象姿勢データおよび対象奥行データを含む新たな撮像情報を、第1データベースに登録するとともに、新たな撮像情報を取得情報として表示制御部42に送る。また、第3変形例に係る登録部36は、新たな撮像情報を第1データベースに登録せずに、新たな撮像情報を取得情報として表示制御部42に送ってもよい。
第3変形例において、表示制御部42は、第1データベースから1または複数の撮像情報を取得するとともに、登録部36から取得情報を取得する。表示制御部42は、取得した1または複数の撮像情報および登録情報のそれぞれについて、マップデータ上に、画像データおよび奥行データが存在することを表す撮像位置情報を表示させる。
そして、表示制御部42は、取得情報および複数の撮像情報のうち何れかの指定を受け付ける。表示制御部42は、取得情報が指定された場合、対象画像データおよび対象奥行データの少なくとも一方を、マップデータにおける位置データに対応する画素位置に対応させて表示させる。表示制御部42は、複数の撮像情報のうちの何れかが指定された場合、画像データおよび奥行データの少なくとも一方を、マップデータにおける位置データに対応する画素位置に、対応させて表示させる。
このような第3変形例に係る情報処理装置10は、インターネットなどの通信手段を介して対象画像データを取得した場合、取得した対象画像データに基づき生成した取得情報を、第1データベースに予め登録されている複数の撮像情報とともに、劣化等の状態を判断するために表示装置に表示させることができる。
図14は、実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、例えば図14に示すようなハードウェア構成のコンピュータにより実現される。情報処理装置10は、CPU(Central Processing Unit)301と、RAM(Random Access Memory)302と、ROM(Read Only Memory)303と、操作入力装置304と、情報表示装置305と、記憶装置306と、通信装置307とを備える。そして、これらの各部は、バスにより接続される。
CPU301は、プログラムに従って演算処理および制御処理等を実行するプロセッサである。CPU301は、RAM302の所定領域を作業領域として、ROM303および記憶装置306等に記憶されたプログラムとの協働により各種処理を実行する。
RAM302は、SDRAM(Synchronous Dynamic Random Access Memory)等のメモリである。RAM302は、CPU301の作業領域として機能する。ROM303は、プログラムおよび各種情報を書き換え不可能に記憶するメモリである。
操作入力装置304は、マウスおよびキーボード等の入力デバイスである。操作入力装置304は、ユーザから操作入力された情報を指示信号として受け付け、指示信号をCPU301に出力する。
情報表示装置305は、LCD(Liquid Crystal Display)等の表示デバイスであり、表示装置の一例である。情報表示装置305は、CPU301からの表示信号に基づいて、各種情報を表示する。
記憶装置306は、フラッシュメモリ等の半導体による記憶媒体、または、磁気的若しくは光学的に記録可能な記憶媒体等にデータを書き込みおよび読み出しをする装置である。記憶装置306は、CPU301からの制御に応じて、記憶媒体にデータの書き込みおよび読み出しをする。通信装置307は、CPU301からの制御に応じて外部の機器とネットワークを介して通信する。
コンピュータで実行されるプログラムは、第1管理モジュールと、第2管理モジュールと、取得モジュールと、位置推定モジュールと、奥行推定モジュールと、登録モジュールと、表示制御モジュールと、入力モジュールと、比較モジュールとを含むモジュール構成となっている。このプログラムは、CPU301(プロセッサ)によりRAM302上に展開して実行されることにより、プロセッサを第1管理部24、第2管理部28、取得部30、位置推定部32、奥行推定部34、登録部36、表示制御部42、入力部44および比較部46として機能させる。このプログラムは、CPU301(プロセッサ)によりRAM302上に展開して実行されることにより、記憶装置306を第1DB記憶部22および第2DB記憶部26として機能させる。なお、第1管理部24、第2管理部28、取得部30、位置推定部32、奥行推定部34、登録部36、表示制御部42、入力部44および比較部46の一部または全部は、ハードウェア回路により実現されてもよい。
また、コンピュータで実行されるプログラムは、コンピュータにインストール可能な形式または実行可能な形式のファイルで、CD-ROM、フレキシブルディスク、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、このプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、このプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、情報処理装置10で実行されるプログラムを、ROM303等に予め組み込んで提供するように構成してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 情報処理装置
22 第1DB記憶部
24 第1管理部
26 第2DB記憶部
28 第2管理部
30 取得部
32 位置推定部
34 奥行推定部
36 登録部
40 マップ記憶部
42 表示制御部
44 入力部
46 比較部
80 認識部

Claims (17)

  1. 画像データ、前記画像データが撮像された撮像位置を表す位置データ、および、前記位置データにより表される撮像位置からオブジェクトまでの距離を表す奥行データをそれぞれが含む複数の撮像情報を格納する第1データベースを管理する第1管理部と、
    対象画像データを取得する取得部と、
    前記対象画像データに基づき、前記対象画像データが撮像された撮像位置を表す対象位置データを推定する位置推定部と、
    前記対象画像データに基づき、前記対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定する奥行推定部と、
    前記対象画像データ、前記対象位置データおよび前記対象奥行データを含む新たな撮像情報を前記第1データベースに登録する登録部と、
    前記画像データが撮像された環境のマップを表すマップデータを表示装置に表示させる表示制御部と、
    を備え、
    前記表示制御部は、前記第1データベースに格納された前記複数の撮像情報のうちの指定された指定撮像情報に含まれる前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記指定撮像情報に含まれる前記位置データに対応する画素位置に、対応させて表示させる
    情報処理装置。
  2. 前記第1データベースに格納されている前記複数の撮像情報のそれぞれは、前記画像データを撮像したカメラの撮像姿勢を表す姿勢データをさらに含み、
    前記位置推定部は、前記対象画像データを撮像したカメラの撮像姿勢を表す対象姿勢データをさらに推定し、
    前記登録部は、前記対象姿勢データをさらに含む前記新たな撮像情報を前記第1データベースに登録する
    請求項1に記載の情報処理装置。
  3. 複数の参照撮像情報を格納する第2データベースを管理する第2管理部をさらに備え、
    前記複数の参照撮像情報のそれぞれは、参照画像データ、前記参照画像データが撮像された撮像位置を表す参照位置データ、および、前記参照画像データを撮像したカメラの撮像姿勢を表す参照姿勢データを含み、
    前記位置推定部は、前記対象画像データを、前記第2データベースに格納される前記複数の参照撮像情報のそれぞれと照合することにより、前記対象位置データおよび前記対象姿勢データを推定する
    請求項2に記載の情報処理装置。
  4. 複数の参照撮像情報を格納する第2データベースを管理する第2管理部をさらに備え、
    前記複数の参照撮像情報のそれぞれは、参照画像データ、前記参照画像データが撮像された撮像位置を表す参照位置データ、前記参照画像データを撮像したカメラの撮像姿勢を表す参照姿勢データ、および、前記参照位置データにより表される撮像位置からオブジェクトまでの距離を表す参照奥行データを含み、
    前記位置推定部は、前記対象画像データおよび前記対象奥行データを、前記第2データベースにより管理される前記複数の参照撮像情報のそれぞれと照合することにより、前記対象位置データおよび前記対象姿勢データを推定する
    請求項2に記載の情報処理装置。
  5. 前記奥行推定部は、前記対象画像データのボケの強さに基づき、前記対象奥行データを推定する
    請求項1から4の何れか1項に記載の情報処理装置。
  6. 前記第1データベースにより管理されている前記複数の撮像情報のうちの何れかの撮像情報を、前記指定撮像情報として指定を受け付ける入力部をさらに備える
    請求項1から5の何れか1項に記載の情報処理装置。
  7. 前記複数の撮像情報のそれぞれは、前記画像データが撮像された日時を表す日時データをさらに含む
    請求項1から6の何れか1項に記載の情報処理装置。
  8. 前記表示制御部は、前記第1データベースに格納されている前記複数の撮像情報のうち、指定された期間の前記日時データを含む撮像情報に含まれる前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記位置データに対応する画素位置に、対応させて表示させる
    請求項7に記載の情報処理装置。
  9. 前記第1データベースに格納されている前記複数の撮像情報のうちの、同一のオブジェクトを異なる日時に撮像した前記画像データを含む第1撮像情報および第2撮像情報を取得し、前記第1撮像情報に含まれる前記画像データと前記第2撮像情報に含まれる前記画像データとを比較することによりオブジェクトにおける状態が変化した領域を表す変化領域情報を生成する比較部をさらに備え、
    前記表示制御部は、前記第1撮像情報または前記第2撮像情報に含まれる前記画像データを前記表示装置に表示させるとともに、前記変化領域情報を前記画像データにおけるオブジェクトの状態が変化した領域に対応させて表示させる
    請求項7に記載の情報処理装置。
  10. 前記比較部は、
    前記第1撮像情報に含まれる前記画像データおよび前記第2撮像情報に含まれる前記画像データの少なくとも一方に対して視点変換処理をすることにより、前記第1撮像情報に含まれる前記画像データと前記第2撮像情報に含まれる前記画像データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換し、
    同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した前記第1撮像情報に含まれる前記画像データと前記第2撮像情報に含まれる前記画像データとを比較することにより前記変化領域情報を生成する
    請求項9に記載の情報処理装置。
  11. 前記第1データベースに格納されている前記複数の撮像情報のうちの、同一のオブジェクトを異なる日時に撮像した前記画像データを含む第1撮像情報および第2撮像情報を取得し、前記第1撮像情報に含まれる前記奥行データと前記第2撮像情報に含まれる前記奥行データとを比較することによりオブジェクトにおける状態が変化した領域を表す変化領域情報を生成する比較部をさらに備え、
    前記表示制御部は、前記第1撮像情報または前記第2撮像情報に含まれる前記画像データを前記表示装置に表示させるとともに、前記変化領域情報を前記画像データにおけるオブジェクトの状態が変化した領域に対応させて表示させる
    請求項7に記載の情報処理装置。
  12. 前記第1撮像情報に含まれる前記奥行データおよび前記第2撮像情報に含まれる前記奥行データの少なくとも一方に対して視点変換処理をすることにより、前記第1撮像情報に含まれる前記奥行データと前記第2撮像情報に含まれる前記奥行データとを同一の撮像位置および同一の撮像姿勢で撮像した状態に変換し、
    同一の撮像位置および同一の撮像姿勢で撮像した状態に変換した前記第1撮像情報に含まれる前記奥行データと前記第2撮像情報に含まれる前記奥行データとを比較することにより前記変化領域情報を生成する
    請求項11に記載の情報処理装置。
  13. 前記比較部は、オブジェクトにおける状態が変化した領域の大きさを、さらに算出する
    請求項9から12の何れか1項に記載の情報処理装置。
  14. オブジェクトにおける状態が変化した領域における、状態の内容を認識する認識部をさらに備え、
    前記表示制御部は、状態の内容の認識結果を、前記画像データにおけるオブジェクトの状態が変化した領域に対応させて表示させる
    請求項9から13の何れか1項に記載の情報処理装置。
  15. 対象画像データを取得する取得部と、
    前記対象画像データに基づき、前記対象画像データが撮像された撮像位置を表す対象位置データを推定する位置推定部と、
    前記対象画像データに基づき、前記対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定する奥行推定部と、
    前記対象画像データが撮像された環境のマップを表すマップデータを表示装置に表示させる表示制御部と、
    を備え、
    前記表示制御部は、取得情報および予め生成された複数の撮像情報のうち何れかの指定を受け、
    前記取得情報は、前記対象画像データ、前記対象位置データおよび前記対象奥行データを含み、
    前記複数の撮像情報のそれぞれは、画像データ、前記画像データが撮像された撮像位置を表す位置データおよび前記位置データにより表される撮像位置からオブジェクトまでの距離を表す奥行データを含み、
    前記表示制御部は、
    前記取得情報が指定された場合、前記対象画像データおよび前記対象奥行データの少なくとも一方を、前記マップデータにおける前記位置データに対応する画素位置に対応させて表示させ、
    前記複数の撮像情報のうちの何れかが指定された場合、前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記位置データに対応する画素位置に、対応させて表示させる
    情報処理装置。
  16. 情報処理装置により実行される情報処理方法であって、
    画像データ、前記画像データが撮像された撮像位置を表す位置データ、および、前記位置データにより表される撮像位置からオブジェクトまでの距離を表す奥行データをそれぞれが含む複数の撮像情報を格納する第1データベースを管理し、
    対象画像データを取得し、
    前記対象画像データに基づき、前記対象画像データが撮像された撮像位置を表す対象位置データを推定し、
    前記対象画像データに基づき、前記対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定し、
    前記対象画像データ、前記対象位置データおよび前記対象奥行データを含む新たな撮像情報を前記第1データベースに登録し、
    前記画像データが撮像された環境のマップを表すマップデータを表示装置に表示させ、
    前記第1データベースに格納された前記複数の撮像情報のうちの指定された指定撮像情報に含まれる前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記指定撮像情報に含まれる前記位置データに対応する画素位置に、対応させて表示させる
    情報処理方法。
  17. コンピュータにより実行されるプログラムであって、
    前記コンピュータを、
    画像データ、前記画像データが撮像された撮像位置を表す位置データ、および、前記位置データにより表される撮像位置からオブジェクトまでの距離を表す奥行データをそれぞれが含む複数の撮像情報を格納する第1データベースを管理する第1管理部と、
    対象画像データを取得する取得部と、
    前記対象画像データに基づき、前記対象画像データが撮像された撮像位置を表す対象位置データを推定する位置推定部と、
    前記対象画像データに基づき、前記対象位置データにより表される撮像位置からオブジェクトまでの距離を表す対象奥行データを推定する奥行推定部と、
    前記対象画像データ、前記対象位置データおよび前記対象奥行データを含む新たな撮像情報を前記第1データベースに登録する登録部と、
    前記画像データが撮像された環境のマップを表すマップデータを表示装置に表示させる表示制御部と、
    して機能させ、
    前記表示制御部は、前記第1データベースに格納された前記複数の撮像情報のうちの指定された指定撮像情報に含まれる前記画像データおよび前記奥行データの少なくとも一方を、前記マップデータにおける前記指定撮像情報に含まれる前記位置データに対応する画素位置に、対応させて表示させる
    プログラム。
JP2021000253A 2021-01-04 2021-01-04 情報処理装置、情報処理方法およびプログラム Active JP7427615B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021000253A JP7427615B2 (ja) 2021-01-04 2021-01-04 情報処理装置、情報処理方法およびプログラム
CN202110985737.3A CN114726978A (zh) 2021-01-04 2021-08-26 信息处理装置、信息处理方法以及程序
US17/465,225 US20220215576A1 (en) 2021-01-04 2021-09-02 Information processing device, information processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021000253A JP7427615B2 (ja) 2021-01-04 2021-01-04 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022105442A true JP2022105442A (ja) 2022-07-14
JP7427615B2 JP7427615B2 (ja) 2024-02-05

Family

ID=82219757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021000253A Active JP7427615B2 (ja) 2021-01-04 2021-01-04 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20220215576A1 (ja)
JP (1) JP7427615B2 (ja)
CN (1) CN114726978A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163937A1 (en) * 2022-02-22 2023-08-31 Snap Inc. Scene change detection with novel view synthesis

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044605A1 (fr) 2006-10-04 2008-04-17 Nikon Corporation Appareil électronique et caméra électronique associée
JP2011244058A (ja) 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
US8878773B1 (en) * 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
US9619691B2 (en) * 2014-03-07 2017-04-11 University Of Southern California Multi-view 3D object recognition from a point cloud and change detection
CN106062862B (zh) * 2014-10-24 2020-04-21 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的系统和方法
WO2016069498A1 (en) * 2014-10-26 2016-05-06 Galileo Group, Inc. Temporal processes for aggregating multi dimensional data collection from discrete and distributed collectors using machine-to-machine networks and smartphones to provide enhanced space-time perspective for monitoring changes using algorithmic techniques
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
US20180143024A1 (en) * 2016-11-22 2018-05-24 Microsoft Technology Licensing, Llc Automated generation of indoor map data
US10262238B2 (en) * 2017-04-13 2019-04-16 Facebook, Inc. Panoramic camera systems
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
US10026218B1 (en) * 2017-11-01 2018-07-17 Pencil and Pixel, Inc. Modeling indoor scenes based on digital images
US10948297B2 (en) * 2018-07-09 2021-03-16 Samsung Electronics Co., Ltd. Simultaneous location and mapping (SLAM) using dual event cameras
US10809066B2 (en) 2018-10-11 2020-10-20 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US11354728B2 (en) * 2019-03-24 2022-06-07 We.R Augmented Reality Cloud Ltd. System, device, and method of augmented reality based mapping of a venue and navigation within a venue

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163937A1 (en) * 2022-02-22 2023-08-31 Snap Inc. Scene change detection with novel view synthesis

Also Published As

Publication number Publication date
US20220215576A1 (en) 2022-07-07
JP7427615B2 (ja) 2024-02-05
CN114726978A (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
Koch et al. Evaluation of cnn-based single-image depth estimation methods
JP2018163654A (ja) 電気通信インベントリ管理のためのシステムおよび方法
Lattanzi et al. 3D scene reconstruction for robotic bridge inspection
WO2018155590A1 (ja) 写真画像に映ったトンネル内の壁面の位置を同定する同定装置、同定方法、ならびに、プログラム
US20170038212A1 (en) Automatic connection of images using visual features
JP7427615B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR102566300B1 (ko) 실내 측위 방법, 장치, 장비 및 저장 매체
JP6431404B2 (ja) 姿勢推定モデル生成装置及び姿勢推定装置
Sommer et al. Scan methods and tools for reconstruction of built environments as basis for digital twins
Tang et al. Surveying, geomatics, and 3D reconstruction
Lunghi et al. Computer vision system for monitoring in dynamic structural testing
Shah et al. Condition assessment of ship structure using robot assisted 3D-reconstruction
US10529085B2 (en) Hardware disparity evaluation for stereo matching
Ruano et al. Aerial video georegistration using terrain models from dense and coherent stereo matching
Li et al. Registration of aerial imagery and LiDAR data in desert areas using sand ridges
Kul et al. Wall Size Prediction from 2D Images with the Help of Reference Objects
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
KR102039902B1 (ko) 원격 기자재 정도 검사 시스템 및 방법
JP7443303B2 (ja) 計測装置、計測方法及びプログラム
US10896333B2 (en) Method and device for aiding the navigation of a vehicle
WO2024084601A1 (ja) 変化検出方法、変化検出システム及び変化検出装置
CN117351306B (zh) 三维点云投影位姿求解器训练方法、确定方法及装置
US11282280B2 (en) Method and system for node vectorisation
Aldelgawy et al. Semi‐automatic reconstruction of object lines using a smartphone’s dual camera
JP2024066079A (ja) 計測装置、計測システム及び計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240124

R151 Written notification of patent or utility model registration

Ref document number: 7427615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151