JP6835536B2 - 画像処理方法、表示装置および点検システム - Google Patents

画像処理方法、表示装置および点検システム Download PDF

Info

Publication number
JP6835536B2
JP6835536B2 JP2016217782A JP2016217782A JP6835536B2 JP 6835536 B2 JP6835536 B2 JP 6835536B2 JP 2016217782 A JP2016217782 A JP 2016217782A JP 2016217782 A JP2016217782 A JP 2016217782A JP 6835536 B2 JP6835536 B2 JP 6835536B2
Authority
JP
Japan
Prior art keywords
image
dimensional
unit
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016217782A
Other languages
English (en)
Other versions
JP2017168077A (ja
Inventor
惟高 緒方
惟高 緒方
岡谷 貴之
貴之 岡谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Ricoh Co Ltd
Original Assignee
Tohoku University NUC
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Ricoh Co Ltd filed Critical Tohoku University NUC
Priority to PCT/JP2017/009342 priority Critical patent/WO2017155005A1/en
Priority to CN201780015932.5A priority patent/CN108780586B/zh
Priority to EP17763345.0A priority patent/EP3427232B1/en
Priority to CA3016539A priority patent/CA3016539C/en
Priority to US16/082,799 priority patent/US10818099B2/en
Publication of JP2017168077A publication Critical patent/JP2017168077A/ja
Application granted granted Critical
Publication of JP6835536B2 publication Critical patent/JP6835536B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Description

本発明は、画像処理方法、表示装置および点検システムに関する。
従来から、建造物などの人に対して十分大きな立体物の点検の際、遠隔操縦ロボットなどを用いて点検対象物を近接撮影し、地上にいる点検員が位置合わせされた撮影画像を用いて点検作業を行いたいという要求があった。そこで、複数の撮影画像を用いて3次元モデルを作成し、ユーザが入力した注釈を3次元モデルと撮影画像との間で関連付けて記憶および表示する技術が知られている。
特許文献1には、ユーザが2次元画像上で選択したオブジェクト(例えば境界ボックス)および入力したコンテンツ(例えば注釈)を3次元モデル上に投影し、これらオブジェクトおよびコンテンツを、同じ3次元位置を撮影した別の2次元画像に反映し、表示する技術が開示されている。特許文献1によれば、複数の画像から作成された3次元モデルにおける3次元オブジェクトに対する注釈を、ユーザが2次元画像を見ながら作成することが可能である。
しかしながら、従来技術による、3次元モデルを用いた注釈作成方法では、全体像を把握するためには3次元モデルを各方向から閲覧する必要があり、一覧性が低いという問題点があった。この一覧性が低いという問題点は、特許文献1によっても解消できていない。
本発明は、上記に鑑みてなされたものであって、3次元モデル上で指定された位置に関連付けられた情報を容易に一覧可能とすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、複数の2次元画像から対象物体の少なくとも一部を含む3次元モデルを生成する3次元モデル生成ステップと、3次元モデルの少なくとも一部を3次元メッシュで近似する3次元メッシュ近似ステップと、3次元メッシュを2次元パノラマ座標に変換する係数を決定する変換係数決定ステップと、2次元パノラマ座標の部分に対応する複数の2次元画像から第1の画像を決定する第1の画像決定ステップと、2次元パノラマ座標に投影するためのコンテンツと、第1の画像上での第1の位置とを、第1の画像に応じて指定する第1の指定ステップと、コンテンツの2次元パノラマ座標上での投影に対応する第2の位置を決定する第2の位置決定ステップと、第2の位置とコンテンツとを関連付けて記憶する第1の記憶ステップと、第1の画像を2次元パノラマ座標上に投影した第2の画像に、コンテンツを注釈として重畳させる第1の重畳ステップと、複数の2次元画像から第3の画像を決定する第3の画像決定ステップと、第1の位置の、第3の画像への投影に対応する第3の位置を決定する第3の位置決定ステップと、第3の画像上の第3の位置に、コンテンツを投影し、注釈として重畳させる第2の重畳ステップとを有する。
本発明によれば、3次元モデル上で指定された位置に関連付けられた情報が容易に一覧可能となるという効果を奏する。
図1は、第1の実施形態に係る画像処理装置による画像処理を概略的に説明するための図である。 図2は、第1の実施形態に係る注釈の生成方法について、より詳細に説明するための図である。 図3は、第1の実施形態に係る注釈の生成方法について、より詳細に説明するための図である。 図4は、第1の実施形態に係る注釈の生成方法について、より詳細に説明するための図である。 図5は、第1の実施形態に適用可能な画像処理装置のハードウェア構成の例を示すブロック図である。 図6は、第1の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。 図7は、第1の実施形態に係る画像処理を示す一例のフローチャートである。 図8は、第1の実施形態に係る画像および注釈の表示例について説明するための図である。 図9は、第1の実施形態に係る画像および注釈の表示例について説明するための図である。 図10は、第1の実施形態に係る、3次元メッシュの位置の調整を説明するための図である。 図11は、第1の実施形態に係る、3次元メッシュを2次元展開図に変換する処理を説明するための図である。 図12は、第2の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。 図13は、第2の実施形態に係るUI画面の第1の例を示す図である。 図14−1は、第2の実施形態に係るUI画面の第2の例を示す図である。 図14−2は、第2の実施形態に係るUI画面の第2の例を示す図である。 図14−3は、第2の実施形態に係るUI画面の第2の例を示す図である。 図15は、第2の実施形態に係るUI画面の第3の例を示す図である。 図16は、第2の実施形態に係るUI画面の第4の例を示す図である。 図17は、第2の実施形態に係るUI画面の第5の例を示す図である。 図18は、第3の実施形態に係る撮像装置の外観の例を概略的に示す3面図である。 図19は、第3の実施形態に適用可能な、3軸ジンバルを用いた撮像装置の例を示す図である。 図20は、第3の実施形態に係る撮像装置の一例の構成を示すブロック図である。
以下に添付図面を参照して、画像処理方法、表示装置および点検システムの実施形態を詳細に説明する。
(第1の実施形態に係る処理の概略)
図1は、第1の実施形態に係る画像処理装置による画像処理を概略的に説明するための図である。図1(a)において、物体100は、例えば橋梁などの建造物であり、ひび101が含まれている。物体100の観察者(例えば橋梁の点検者)は、ひび101の状態を観察(点検)するために、観察対象であるひび101を異なる観察点から撮影し、2次元画像としての複数の撮像画像を得る。
図1(b)は、ひび101を異なる観察点から撮像した撮像画像に基づく2枚の画像110および120の例を示す。画像110および120は、物体100における領域102および103の範囲の画像を含んでいる。また、画像110および120は、ひび101に対応する画像であるオブジェクトが、座標値111および121の位置にそれぞれに含まれている。
第1の実施形態に係る画像処理装置は、画像110および120に基づき、図1(c)に模式的に示されるように、物体100の少なくとも一部を近似する3次元メッシュ150を生成する。3次元メッシュ150は、例えば物体100の1面を近似する平面とすることができる。さらに、第1の実施形態に係る画像処理装置は、図1(d)に示されるように、3次元メッシュを2次元平面に展開した2次元展開図130を生成する。2次元展開図130は、3次元メッシュ150が含む各部分平面が正射影されるように変換した図である。
図1(d)において、画像131および132は、画像110および120を2次元展開図130に対して座標変換した画像である。第1の実施形態に係る画像処理装置は、画像131および132を、座標値111および121に基づき合成して、パノラマ画像140を形成することができる。パノラマ画像140および2次元展開図130は、画像110および120に含まれる座標値111および121を一致させた座標値133の位置に、座標値111および121に対応するオブジェクトを含む。
第1の実施形態に係る画像処理装置は、ユーザ操作に応じて、例えばユーザが画像110(第1の画像)を参照しながら、オブジェクトの座標値111と、テキスト112とを入力することができる(図1(b)参照)。テキスト112は、オブジェクトに対する注釈を示すコンテンツである。テキスト112は、文字情報に限られず、アイコン画像や手描きの画像であってもよい。また、第1の実施形態に係る画像処理装置は、入力された座標値に対応する別の画像での座標値を決定することができる。当該画像処理装置は、例えば、画像110に含まれるオブジェクトの座標値111を、別の画像としての2次元展開図130上の座標値に変換する。
また、別の第1の実施形態では、例えばユーザが2次元展開図130に対して座標変換された画像131を参照しながら、オブジェクトの座標値133とテキスト134とを入力することができる(図1(d)参照)。当該画像処理装置は、例えば、画像131に含まれるオブジェクトの座標値133を、別の画像としての撮像画像130上の座標値に変換する。
第1の実施形態に係る画像処理装置は、入力されたテキスト112を、オブジェクトの座標値111に対応する、別の画像での座標値に関連付けて記憶することができる。当該画像処理装置は、例えば、テキスト112を、2次元展開図130におけるオブジェクトの座標値133と関連付けて記憶することができる。
記憶された注釈は、例えば、第2の画像としての、パノラマ座標を持つ別の画像(画像120、画像132、パノラマ画像140)に重畳させて表示することができる。例えば、図1(b)の例では、画像110のオブジェクトの座標値111に対して入力されたテキスト112が、別の画像としての画像120の、座標値111のオブジェクトに対応するオブジェクトの座標値121に対してテキスト122として表示され、注釈表示がなされている。また、図1(d)の例では、テキスト112が、2次元展開図130に対して、座標133に対応する位置にテキスト134として重畳されて表示されている。
図2〜図4を用いて、第1の実施形態に係る注釈の生成方法について、より詳細に説明する。なお、図2〜図4において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。第1の実施形態に係る画像処理装置は、注釈を、撮像画像による画像110および120と、撮像画像に基づき生成された、観察対象の少なくとも一部を近似する3次元メッシュ150を2次元平面に展開した2次元展開図130とにそれぞれ生成する。
図2および図3は、画像内の座標値を、別の画像内の座標値に変換する処理を説明するための図である。図2において、画像110および120は、それぞれ異なる観察点P1およびP2から撮像された撮像画像に基づく。図2の例では、画像110内のオブジェクトの座標値111を、別の画像としての画像120内の座標値121に変換している。
図3において、第1の実施形態に係る画像処理装置は、画像110および120を、仮想的には、一旦3次元メッシュ150に変換し、その後、2次元展開図130に変換する。実際の処理としては、当該画像処理装置は、3次元メッシュ150への変換工程を省略し、画像110および120を直接的に2次元展開図130に変換し、画像131および132を形成する。また、当該画像処理装置は、座標値111に対応する2次元展開図130における座標値133についても同様に、3次元メッシュ150への変換工程を介さずに、直接的に決定する。これは、図2の例においても同様である。
なお、図3に示されるように、2次元展開図130、または、当該2次元展開図130に対応するパノラマ画像140は、観察点P3から物体100を観察した場合に相当する。
図4は、第1の実施形態に係る、3次元メッシュを2次元展開図に変換する別の例を示す。図4(a)の例では、物体100’は、上述した物体100に対して、観察者側から見た角度が異なる部分が追加されており、追加部分に対して傷105が存在している。また、図4(a)において、2次元展開図130bは、領域102、103および104を撮像した撮像画像を用いて生成された3次元メッシュ150’に基づき、観察点P4から撮像した撮像画像に基づく画像135に対応して生成されている。2次元展開図130aは、上述した2次元展開図130に対応する。
図4(b)は、3次元メッシュ150’から生成した2次元展開図130’の例を示す。2次元展開図130は、図4(a)で示した2次元展開図130aおよび130bを含む。第1の実施形態に係る画像処理装置は、2次元展開図130’を、3次元メッシュ150’を、3次元メッシュ150’に含まれる各部分平面を形状および相対面積を保ったまま2次元展開図に変換して生成する。また、第1の実施形態に係る画像処理装置は、2次元展開図130’に基づき、画像131、132および135を含むパノラマ画像140aを生成できる。画像135において、座標値136に対応する位置に、傷105の画像が表示されている。
(第1の実施形態に係る画像処理装置の構成例)
図5は、第1の実施形態に適用可能な画像処理装置のハードウェア構成の例を示す。図5において、画像処理装置1000は、CPU(Central Processing Unit)1010と、ROM(Read Only Memory)1011と、RAM(Random Access Memory)1012と、グラフィクスI/F1013と、ストレージ1015と、データI/F1016と、通信I/F1019とを含み、これら各部がバス1030により互いに通信可能に接続される。このように、第1の実施形態に係る画像処理装置1000は、一般的なコンピュータを用いて実現できる。
ストレージ1015は、ハードディスクドライブやフラッシュメモリといった不揮発性の記憶媒体であって、プログラムやデータが記憶される。CPU1010は、ストレージ1015やROM1011に記憶されるプログラムに従い、RAM1012をワークメモリとして用いて、画像処理装置1000の全体の動作を制御する。
グラフィクスI/F1013は、ディスプレイ1014が接続され、CPU1010によりプログラムに従い生成された表示制御情報に基づき、ディスプレイ1014が表示可能な表示信号を生成する。データI/F1016は、画像処理装置1000の外部から供給される外部データに対するインタフェースである。また、データI/F1016は、マウスといったポインティングデバイス1017や、キーボード1018を接続することができる。データI/F1016としては、例えばUSB(Universal Serial Bus)を適用することができる。
通信I/F1019は、ネットワークと接続され、ネットワークを介した通信を行う。ネットワークは、LAN(Local Area Network)であってもよいし、インターネットであってもよい。また、ネットワークは、有線通信および無線通信の何れを用いて接続されるものでもよい。
図6は、第1の実施形態に係る画像処理装置1000の機能を説明するための一例の機能ブロック図である。図6(a)において、画像処理装置1000は、画像取得部1100と、画像記憶部1101と、3D点群取得部1102と、3Dメッシュ生成部1103と、2D展開図生成部1104と、変換係数生成部1105と、変形部1106と、注釈重畳部1107と、指定部1108とを含む。
これらのうち、画像取得部1100、3D点群取得部1102、3Dメッシュ生成部1103、2D展開図生成部1104、変換係数生成部1105、変形部1106、注釈重畳部1107および指定部1108は、CPU1010上で動作するプログラムにより構成される。これに限らず、画像取得部1100、3D点群取得部1102、3Dメッシュ生成部1103、2D展開図生成部1104、変換係数生成部1105、変形部1106、注釈重畳部1107および指定部1108の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。また、画像記憶部1101は、ストレージ1015またはRAM1012における所定の記憶領域により構成される。
第1の実施形態に係る画像処理装置1000の各機能を実現するための画像処理プログラムは、インストール可能な形式また実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、情報処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、情報処理プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。
画像処理プログラムは、上述した各部(画像取得部1100、3D点群取得部1102、3Dメッシュ生成部1103、2D展開図生成部1104、変換係数生成部1105、変形部1106、注釈重畳部1107および指定部1108)を含むモジュール構成となっている。実際のハードウェアとしては、CPU1010がストレージ1015などの記憶媒体から当該画像処理プログラムを読み出して実行することにより、上述した各部がRAM1012などの主記憶装置上にロードされ、画像取得部1100、3D点群取得部1102、3Dメッシュ生成部1103、2D展開図生成部1104、変換係数生成部1105、変形部1106、注釈重畳部1107および指定部1108が主記憶装置上に生成されるようになっている。
図6において、画像取得部1100は、撮像画像を取得する。撮像画像は、観察対象を含めてカメラにより撮像され、例えばデータI/F1016から画像処理装置1000に入力される。画像取得部1100は、取得した撮像画像を、当該撮像画像を識別する識別情報と関連付けて画像記憶部1101に記憶する。
3D点群取得部1102は、画像記憶部1101に記憶される複数の撮像画像に基づき、3次元情報を持つ点の集まりである3次元点群を取得する。3Dメッシュ生成部1103は、3D点群取得部1102で取得された3次元点群に基づき3次元メッシュ150を生成する。2D展開図生成部1104は、3Dメッシュ生成部1103で生成された3次元メッシュ150に基づき2次元展開図130を生成する。
変換係数生成部1105は、2次元展開図130と画像との間で座標変換を行うための変換係数を生成する。例えば、変換係数生成部1105は、変換係数を、3D点群取得部1102で3次元点群を取得する際に用いた画像(例えば画像110および120)と、2D展開図生成部1104で生成された2次元展開図130とに基づき生成する。
変形部1106は、変換係数生成部1105で生成された変換係数を用いて、画像記憶部1101に記憶される画像(例えば画像110および120)を変形する。また、変形部1106は、それぞれ変形された複数の画像(例えば画像131および132)を合成してパノラマ座標に適用し、パノラマ画像140を生成することができる。
注釈重畳部1107は、指定部1108により指定された座標値に従い、指定部1108により指定されたテキスト(注釈)を、変形部1106にて変形された画像(例えば画像131および132)、および、2D展開図生成部1104で生成された2次元展開図(例えば2次元展開図130)の何れかに重畳し、出力する。注釈重畳部1107の出力は、例えばグラフィクスI/F1013を介してディスプレイ1014に供給され、ディスプレイ1014の画面に表示される。
指定部1108は、ポインティングデバイス1017やキーボード1018を用いて入力された情報に従い、注釈であるテキスト112と、注釈を表示させるための座標値111とを指定する。これに限らず、指定部1108は、例えば画像記憶部1101に記憶される画像を、CPU1010上で実行される他のプログラムを用いて解析した結果に応じて、テキスト112および座標値111を指定してもよい。
図6(b)は、注釈重畳部1107の機能を説明するための一例の機能ブロック図である。注釈重畳部1107は、位置決定部1170と、位置記憶部1171と、注釈取得部1172と、重畳部1173とを含む。
位置決定部1170は、変形部1106から供給された画像または2次元展開図と、指定部1108で指定された座標値とが入力される。また、位置決定部1170は、変換係数生成部1105で生成された変換係数が入力される。位置決定部1170は、入力された変換係数に基づき、指定された座標値に対応する画像または2次元展開図上の座標値を決定する。位置記憶部1171は、位置決定部1170により決定された座標値を記憶する。位置記憶部1171は、例えばストレージ1015の記憶領域の所定の領域を利用して構成される。
注釈取得部1172は、指定部1108において注釈として指定されたテキストを取得する。注釈取得部1172は、取得したテキストを、例えばストレージ1015の記憶領域の所定の領域に記憶する。
重畳部1173は、変形部1106から画像または2次元展開図が入力される。重畳部1173は、注釈取得部1172により取得されたテキストを、位置記憶部1171により記憶された座標値に従い、変形部1106から入力された画像または2次元展開図に重畳して出力する。
図7は、第1の実施形態に係る画像処理を示す一例のフローチャートである。ステップS10で、画像取得部1100は、観察対象を撮像した撮像画像による画像データ(例えば画像110および120)を取得する。このとき、画像取得部1100は、観察対象を異なる観察点から撮像された、複数の撮像画像による各画像を取得する。複数の撮像画像は、それぞれ、第1の撮像画像と、第1の撮像画像の近傍を撮像した第2の撮像画像との間で撮像範囲が重複部分を持つように撮像される。画像取得部1100は、取得した画像データを画像記憶部1101に記憶する。以下、画像取得部1100が取得した画像データは、特に記載の無い限り、画像として説明する。
例えば、観察対象が橋梁である場合、画像取得部1100が取得する画像は、空中の異なる点から橋梁を撮像した複数の写真画像による画像である。観察対象は、橋梁に限定されるものではなく、他の建造物などでもよいし、建造物に限られず他の物体でもよい。また、画像取得部1100が取得する画像は、レンズの歪みが補正された画像であると好ましい。
次のステップS11で、3D点群取得部1102は、観察対象の少なくとも一部を含む3次元点群を取得する。3D点群取得部1102は、ステップS10で取得され画像記憶部1101に記憶された複数の画像(例えば画像110および120)から生成することができる。すなわち、3D点群取得部1102は、複数の2次元画像から3次元点群(3次元モデル)を生成する。
3D点群取得部1102は、例えば、画像記憶部1101に記憶される画像110と画像120とからそれぞれ特徴を抽出する。3D点群取得部1102は、画像110の特徴と画像120の特徴とを比較して、画像110および120の間で一致する特徴を識別する。3D点群取得部1102は、各対の一致する特徴について、例えば、ステレオ方式による三角測量を使用して、各3次元点を決定する。これに限らず、3D点群取得部1102は、3次元計測装置を用いて3次元点群を取得してもよい。
次のステップS12で、3Dメッシュ生成部1103は、ステップS11で生成された3次元点群の一部を近似する3次元メッシュ150を生成する。3Dメッシュ生成部1103は、所定の3次元形状モデルまたはユーザ指定の3次元形状モデルに対し、例えばRANSAC(RANDdom Sample Consensus)アルゴリズムによりパラメータを決定することができる。
なお、3Dメッシュ生成部1103は、可展面の3次元メッシュ150を生成することができる。この場合、後述するステップS13の処理において生成される2次元展開図の歪みを抑制することができる。また、3Dメッシュ生成部1103は、平面の3次元メッシュ150を生成することができる。この場合、後述するステップS14の処理において、撮像画像と2次元展開図との変換を、単一のホモグラフィ行列により記述可能となる。
さらに、3Dメッシュ生成部1103は、円柱面、二次曲面、または、球面の3次元メッシュ150を生成することができる。これら場合、後述するステップS13の処理において、撮像画像と2次元展開図との変換を、固有の変換式により記述可能となる。また、3Dメッシュ生成部1103は、自由曲面の3次元メッシュ150を生成することができる。この場合、後述するステップS13の処理において、3次元点群を任意のレベルで近似可能となる。
次のステップS13で、2D展開図生成部1104は、ステップS12で生成された3次元メッシュ150の2次元展開図130を生成する。2D展開図生成部1104は、3次元メッシュ150の各部分平面を、形状および相対面積を保ったまま2次元展開図130に変換する。これにより、3次元メッシュを2次元座標に展開する際の歪みを抑制できる。
次のステップS14で、変換係数生成部1105は、2次元展開図130と画像(例えば画像110および120)の変換係数を生成する。変換係数生成部1105は、ホモグラフィ行列を用いて変換係数を記述することができる。これに限らず、変換係数生成部1105は、変換係数を、円柱展開図から画像への変換としてもよい。この場合、撮像画像と2次元展開図との変換を、固有の変換式により記述可能となる。
次のステップS15で、変形部1106は、ステップS14で生成された変換係数に基づいて、撮像画像に基づく画像(例えば画像110)を2次元展開図130に変形し、変形画像(例えば画像131)を生成する。第1の実施形態に係る変形部1106は、複数の変形画像(例えば画像131および132)を合成してパノラマ画像140(2次元パノラマ画像)を生成することができる。この場合、後述する注釈をパノラマ画像140により俯瞰することが可能となる。これに限らず、変形部1106は、複数の変形画像をそれぞれレイヤとして保持することができる。複数の変形画像をレイヤとして保持することで、パノラマ画像の合成工程を省略できる。
次のステップS16で、注釈重畳部1107は、撮像画像に基づく画像(例えば画像110および120)、および、2次元展開図130のうち一方(第3の画像)の画像座標での座標値入力を、ステップS15で生成された変換係数に基づいて、他方の画像座標値に変換する。注釈重畳部1107は、ポインティングデバイス1017などのデバイス入力値を用いて座標値入力を行う。これに限らず、注釈重畳部1107は、例えば画像処理装置1000が橋梁や建造物などの点検支援を行うためのものである場合、損傷検出アルゴリズムなどのプログラムが実行されて得られた画像処理結果の値を用いて座標値入力を行ってもよい。
次に、図8および図9を用いて、第1の実施形態に係る画像および注釈の表示例について説明する。なお、図8および図9において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。
図8は、ステップS10で取得された画像(例えば画像110)と、ステップS15で生成された2次元展開図130またはパノラマ画像140とのうち少なくとも1つと、ステップS16でこれらの画像に対応して変換された座標値とに基づき決定される注釈の表示例を示す。
図8(a)は、ステップS15で生成された2次元展開図130またはパノラマ画像140の例を示している。図8(b)は、図1(b)を参照し、図8(a)に示される2次元展開図130またはパノラマ画像140に含まれる画像132に対応する画像120と、座標値121に従い画像120に重畳された注釈であるテキスト122とが示されている。第1の実施形態に係る画像処理装置1000は、これらの、画像120と、画像120に対して座標値121に従い重畳された注釈とを、ウィンドウ400内に配置して、ディスプレイ1014に表示させる。
また、ウィンドウ400に、ステップS10で取得された画像(例えば画像110)が表示され、ステップS15で生成された対応する画像(例えば画像131)の2次元展開図130での配置に基づき、次に表示する画像(例えば画像120)を選択することができる。このように、第1の実施形態に係る画像処理装置1000は、複数の2次元画像の空間的配置に基づき、ウィンドウ400に表示する画像を決定することができる。これにより、複数の撮像画像に基づく画像(たとえは画像131、132)を、順に表示させることができる。
このとき、画像処理装置1000は、表示させる画像を、各画像を撮像した時間順に基づき決定することができる。これに限らず、画像処理装置1000は、表示させる画像を、パノラマ座標(パノラマ画像140)へのユーザ入力位置に基づき決定することができる。
図9は、少なくともステップS15で生成された2次元展開図130またはパノラマ画像140を表示するウィンドウ410の例を示す。図9の例では、ウィンドウ410は、ステップS15で生成された、画像131および132を含む2次元展開図130またはパノラマ画像140が表示されている。画像処理装置1000は、このウィンドウ410に表示される2次元展開図130またはパノラマ画像140に対する座標値入力に応じて、画像131および132のうち何れを表示するかを選択できる。
図9の例では、画像132が選択され、ウィンドウ410内の左側の領域に、選択された画像132に対応する画像120が表示されている。このように、第1の実施形態に係る画像処理装置1000は、注目領域の観察に最適な画像を表示させることが可能である。
これに限らず、第1の実施形態に係る画像処理装置1000は、例えばウィンドウ410に対して、ステップS15で生成された画像(例えば、画像131)が表示され、表示された画像131に対して入力された座標値に基づき、当該座標値周辺を最も高解像度で観察できる画像を、表示する画像として選択するようにできる。すなわち、画像処理装置1000は、入力されたパノラマ座標への座標値と、パノラマ座標に投影された複数の2次元画像(例えば画像131および132)の、入力された座標値周辺の解像度とに基づき、表示する画像を決定できる。
さらに、第1の実施形態に係る画像処理装置1000は、ウィンドウ410に、ステップS15で生成された画像(例えば、画像131)が表示され、表示された画像131に対して入力された座標値を、ステップS14で生成された変換係数に基づいて、ステップS10で取得された、画像131に対応する画像(例えば、画像110)の座標値に変換する。これにより、画像処理装置1000は、変換された座標値周辺を最も高解像度で観察できる画像を、表示する画像として選択できる。すなわち、画像処理装置1000は、入力された、パノラマ座標への座標値の、複数の2次元画像(例えば画像131および132)のパノラマ座標への投影に対応する位置と、当該複数の2次元画像の、入力された座標値周辺の解像度とに基づき、表示する画像を決定できる。
このように、第1の実施形態に係る画像処理装置1000では、観察対象を撮像した複数の画像から生成した3次元モデルに基づきパノラマ画像を生成する。そして、第1の実施形態に係る画像処理装置1000は、複数の画像のうち何れかに座標値およびコンテンツを指定し、この複数の画像を含むパノラマ画像上の、指定された座標値に対応する位置に、当該座標値に関連付けられたコンテンツを表示できるようにしている。そのため、3次元モデル上で指定された位置に関連付けられた情報の一覧性が向上する。
第1の実施形態に係る画像処理装置1000は、ステップS12で生成された3次元メッシュ150を、ユーザ入力に応じて所定の方向に移動させ、3次元メッシュ150の位置を微調整することができる。画像処理装置1000は、当該所定の方向を、3次元メッシュ150の各部分平面の法線ベクトルの重み付け和に基づき決定できる。図10は、第1の実施形態に係る、3次元メッシュの位置の調整を説明するための図である。なお、図10において、上述した図2と共通する部分には同一の符号を付して、詳細な説明を省略する。図10(a)は、3次元メッシュ1500が、位置調整により、観察点P1またはP2から奥側(3次元メッシュ1502)および手前側(3次元メッシュ1501)に移動された例を概念的に示している。図10(b)は、図10(a)の物体100および観察点P1またはP2を上面側から見た図である。
図11は、第1の実施形態に係る、上述したステップS13による3次元メッシュ150を2次元展開図130に変換する処理を説明するための図である。図11は、3次元メッシュ150と、2次元画像である画像110との変換を示している。図11(a)において、図中に示される数式「K[R|t]X」は、3次元点をカメラ画像の座標xに変換するための式である。数式「K[R|t]X」において、値Xは、3次元メッシュ上の点の3次元座標を示す(以下適宜、3次元点Xと呼ぶ)。また、値Kはカメラパラメータであり、値Rはカメラの3次元モデルに対する姿勢(回転)、値tはカメラと3次元モデルの併進を表している。ここでは、3次元メッシュ150は、任意の形状であるものとする。
図11(b)、ならびに、下記の式(1)、(2)および(3)を用いて、カメラ画像の座標xから未知の3次元点Xを求める方法について説明する。図11(b)、ならびに、式(1)、(2)および(3)は、画像110の、3次元メッシュ150上の点601の座標が変数r、θおよびhで記述できる可展な柱体の一部への変換の例を示す。なお、式(4)は、式(1)〜(3)で用いる各変数の関係を示す。式(1)〜(4)において、変数tmは、3次元モデルの位置、変数xm、ymおよびzmは、3次元モデルの姿勢を表す3軸を、それぞれ示している。また、式(1)〜(4)において、値Xバー(文字「X」の上にバーを付して示す)は、3次元点Xにおける方向を示す。
図11(b)における、画像110と3次元メッシュ150上の点601との幾何学的関係から、変数rを求める式(1)が立式できる。式(1)に基づき、知りたい変数hおよびθを求める式(2)および(3)を導出できる。
より具体的に説明する。図11(a)中の数式「K[R|t]X」を逆に解くと、図11(b)に数式「Xバー=K-1x」で示されるように、3次元点Xそのものは求められず、3次元点Xの方向が求められる。3次元点Xは、値Xバーで示されるベクトル上にある点なので、式(1)の右側の式に示されるように、値Xバーに係数sを乗じることで、3次元点Xを求めることができる。
ここで、式(1)の左側の式と、式(2)および式(3)とに示されるように、変数r、hおよびθを求めるためには、3次元点Xと係数sとを求める必要がある。係数sは、式(4)に示されるように、値Xバーと、3次元モデルの位置および姿勢を示す変数tmと、変数xm、ymおよびzmとに基づき求めることができる。
Figure 0006835536
Figure 0006835536
Figure 0006835536
Figure 0006835536
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、上述した第1の実施形態に係る画像処理装置1000により得られる各画像の閲覧などを行うためのユーザインタフェース(UI)を提供する。
図12は、第2の実施形態に係る画像処理装置1001の機能を説明するための一例の機能ブロック図である。なお、図12において、上述した図6と共通する部分には、同一の符号を付して詳細な説明を省略する。画像処理装置1001は、図6の画像処理装置1000に対して、UI部1121と、変形画像記憶部1122と、画像情報記憶部1123と、図面記憶部1124とが追加されている。また、図6に示した指定部1108の機能は、UI部1121の機能に含まれる。
なお、第2の実施形態に係る画像処理装置1001は、ハードウェア構成として、図5を用いて説明した第1の実施形態に係る画像処理装置1000のハードウェア構成をそのまま適用できる。
UI部1121は、CPU1010上で動作する表示プログラムにより構成される。これに限らず、UI部1121をハードウェア回路により構成してもよい。また、変形画像記憶部1122、画像情報記憶部1123および図面記憶部1124は、それぞれ、ストレージ1015またはRAM1012における所定の記憶領域により構成される。
変形画像記憶部1122は、変形部1106により変換係数に基づき変形された変形画像が、その変形画像を識別する識別情報を付加されて記憶される。このとき、変形部1106は、変形画像の識別情報と、その変形画像の元となる撮像画像による画像の識別情報とを関連付ける。以下、特に記載の無い限り、「撮像画像による画像」を「撮像画像」として説明を行う。
図面記憶部1124は、例えばパノラマ画像140が対応する物体100の図面が記憶される。図面は、例えば物体100の設計時の図面データが格納されるファイルを画像処理装置1001に読み込ませて、図面記憶部1124に記憶させる。これに限らず、図面データは、例えば物体100の撮像画像などに基づき自動生成された図面データを図面記憶部1124に記憶させてもよい。
UI部1121は、例えばディスプレイ1014にユーザインタフェース画面を表示させるための表示制御情報を生成する。例えば図5に示したグラフィクスI/F1013は、この表示制御情報に従いユーザインタフェース画面をディスプレイ1014に表示させる。UI部1121は、また、ユーザインタフェース画面に応じて例えばポインティングデバイス1017やキーボード1018といった入力デバイスを用いてなされるユーザ操作を受け付ける。
UI部1121は、注釈重畳部1107から出力された2次元展開図130またはパノラマ画像140が入力される。以下では、特に記載の無い限り、2次元展開図130およびパノラマ画像140を、パノラマ画像140で代表させて説明を行う。また、UI部1121は、変形画像記憶部1122に記憶される変形画像も入力される。UI部1121は、変形画像と、その変形画像に対応するパノラマ画像140に重畳させた画像を生成することができる。さらに、UI部1121は、図面記憶部1124に記憶される図面データに基づく3面図や立体図を作成することができる。
UI部1121は、ユーザ操作に応じて、入力されたパノラマ画像140や撮像画像に対して、拡大、縮小などの画像処理を実行できる。また、UI部1121は、ユーザ操作に応じて、例えばパノラマ画像140に対応する複数の撮像画像から1つの撮像画像を選択する処理や、この複数の撮像画像を、所定の順序に従って順次選択して表示させる処理を実行できる。
このように、UI部1121は、例えば図5に示した画像処理装置1000に接続される表示装置と考えることができる。
画像情報記憶部1123は、画像記憶部1101に記憶される撮像画像の情報と、変形画像記憶部1122に記憶される変形画像の情報と、パノラマ画像140の情報とを関連付けて記憶する。また、画像情報記憶部1123は、撮像画像の情報に関連付けて、UI部1121によりユーザ操作に応じてその撮像画像に対して実行された処理の履歴が記憶される。
表1は、画像情報記憶部1123に記憶される情報の例を示す。画像情報記憶部1123が記憶する情報は、例えば、撮像画像に関する情報と、その撮像画像が変形部1106により変形された変形画像に関する情報と、その変形画像が含まれるパノラマ画像に関する情報とを含む。
Figure 0006835536
撮像画像に関する情報は、例えば、撮像画像の識別情報と、撮像時間と、解像度(サイズ)と、撮像距離と、品質評価値とを含む。撮像画像の識別情報は、1つのパノラマ画像140に対応する複数の撮像画像のそれぞれを識別可能な情報である。撮像時間は、その撮像画像が撮像された時間(日時)である。解像度(サイズ)は、例えばその撮像画像の水平および垂直方向それぞれの画素数である。撮像距離は、カメラから被写体までの距離である。品質評価値は、撮像画像の品質を評価する値であって、撮像画像の暈け度合いや、コントラストなどの値を用いることができる。操作履歴は、ユーザ操作に従いUI部1121によりその撮像画像に対してなされた処理が順次記憶され蓄積される情報である。
これらの各情報のうち、撮像画像の識別情報、撮像時間、解像度(サイズ)および撮像距離は、カメラまたはカメラの制御回路から取得できる。また、品質評価値は、例えば、撮像画像に基づきUI部1121により算出される。
撮像画像の情報としては、さらに、その撮像画像を撮像した時点での撮像位置(カメラ位置)および撮像方向を含めることができる。これら撮像位置および撮像方向は、例えば、カメラに、それぞれx,y,zの3軸にて検知を行うジャイロセンサ(角速度センサ)、加速度センサ、地磁気センサを含む9軸センサを設け、この9軸センサの出力を用いて検出することが可能である。さらにまた、撮像画像の情報として、カメラの画角を示す情報を含めてもよい。例えば、これら撮像位置、撮像方向および画角と、上述した撮像距離とを用いることで、撮像画像の空間的位置を求めることができる。
変形画像に関する情報は、例えば、変形画像の識別情報と、閲覧フラグと、操作履歴と、パノラマ画像上での位置とを含む。変形画像の識別情報は、1つのパノラマ画像140に属する複数の変形画像のそれぞれを識別するための情報である。閲覧フラグは、UI部1121の指示に応じてその変形画像が選択されたか否かを示すフラグである。
パノラマ画像上での位置は、その変形画像が属するパノラマ画像上における、その変形画像の位置を用いることができる。なお、パノラマ画像上の位置に対する変形画像の関連付けは、例えば、図7のフローチャートにおけるステップS11の複数の2次元画像から3次元点群を生成する処理から、ステップS15による複数の変形画像を合成してパノラマ画像140を生成する処理の過程で実行可能である。
パノラマ画像の識別情報は、その撮像画像(変形画像)が対応するパノラマ画像を識別する識別情報であって、パノラマ画像を一意に識別可能な情報が用いられる。
(第2の実施形態に係るUI)
次に、第2の実施形態に係るUIについて、より具体的に説明する。なお、以下では、第2の実施形態に係る画像処理装置1001が、橋梁などの建造物の点検に用いる撮像画像に基づくパノラマ画像140を表示させるものとして説明を行う。
(第2の実施形態に係るUIの第1の例)
図13は、第2の実施形態に係るUI部1121により提示されるUI画面の第1の例を示す。この第1の例に係るUI画面は、例えば、パノラマ画像を用いて点検作業を行う場合に用いて好適な画面である。
図13において、UI画面200aは、ツールバー201と、パノラマ画像表示領域(Panorama view)210と、点検画像表示領域(Photo view)220と、パノラマ選択領域(Select Panorama)230aと、動作指定領域240とを含む。ツールバー201は、画像処理装置1001のストレージ1015に保存されるファイルを指定するファイル指定部を含む。
パノラマ画像表示領域210は、閲覧対象として選択されたパノラマ画像140が表示される。点検画像表示領域220は、パノラマ画像表示領域210に表示されるパノラマ画像140に対して指定された位置に対応する撮像画像が、点検対象の点検画像2100aとして表示される。パノラマ選択領域230aは、ファイル指定部において指定されたファイルに基づき、選択可能なパノラマ画像の一覧が表示される。
動作指定領域240は、UI画面200aにおける動作を指定するための操作子および入力領域を含む。図13の例では、動作指定領域240は、モード選択領域2401と、オプション選択領域2402と、スライドショー制御領域2403と、ツール選択領域2404と、保存および終了指示領域2405とを含む。
モード選択領域2401は、このUI画面200aのモードを選択するための領域である。UI画面200aは、例えば「点検モード」、「図面位置合わせモード」および「撮像品質確認モード」の3つのモードを備える。「点検モード」は、パノラマ画像140および点検画像220に基づき観察対象の点検を行うためのモードである。「図面位置合わせモード」は、例えば図面記憶部1124に記憶される図面データに基づく図面に対してパノラマ画像140の位置を合わせる操作を行うモードである。また、「撮像品質確認モード」は、パノラマ画像140に対応する各撮像画像の撮像品質を確認するモードである。図13の例では、これら3つのモードのうち「点検モード」が選択されている。
オプション選択領域2402は、パノラマ画像表示領域210においてパノラマ画像140に対応させて表示させる撮像画像の表示方法を選択するための領域である。この例では、チェックボックスに対する入力に応じて、「元画像はめ込み合成」と、「点検状態確認」との2つの表示方法が選択可能となっている。これら2つの表示方法の具体的な例については、後述する。
スライドショー制御領域2403は、点検画像表示領域220に表示される点検画像2100aを、パノラマ画像表示領域210に表示されるパノラマ画像140に対応する複数の点検画像2100a間で所定の順序により順次表示させる制御を行うための操作子を含む。
ツール選択領域2404は、パノラマ画像表示領域210および点検画像表示領域220において使用可能なツールを選択するための領域である。ツール選択領域2404に表示されるツールは、モード選択領域2401において選択されるモードにより異なる。モード選択領域2401において「点検モード」が選択される図13の例では、ツール選択領域2401は、パノラマ画像表示領域210および点検画像表示領域220において任意の描画や文字入力を行うためのツールが選択可能に表示されている。
保存および終了指示領域2405は、保存ボタン2405aおよび終了ボタン2405bを含む。保存ボタン2405aは、UI画面200aにおいて閲覧対象となるパノラマ画像140に係る各情報を保存するためのボタンである。例えば、保存ボタン2405aは、操作に応じて、各撮像画像に基づく点検結果と、点検作業の一時中断を想定した中間データとを保存する。
より具体的な例として、UI部1121は、保存ボタン2405aに対する操作に応じて、パノラマ画像表示領域210に表示中のパノラマ画像140(または2次元展開図130)と、当該パノラマ画像140に対応する各撮像画像および各変形画像と、パノラマ画像140、各撮像画像および各変形画像の情報と、注釈の情報(例えば注釈を示すオブジェクトの座標値133およびテキスト134)と、各撮像画像に対する処理の履歴とを関連付けて、ストレージ1015に保存する。UI部1121は、保存ボタン2405aに対する操作に応じて、画像内に注釈が重畳された撮像画像をさらに保存することができる。また、UI部1121は、保存ボタン2405aに対する操作に応じて、画像内に注釈が重畳されたパノラマ画像140または2次元展開図130を点検結果画像としてさらに保存することもできる。終了ボタン2405bは、このUI画面200aを閉じるためのボタンである。
パノラマ画像表示領域210について、より具体的に説明する。UI部1121は、例えば、ユーザ操作に応じてツールバー201に含まれるファイル指定部により指定されたファイルに格納されるパノラマ画像140を、パノラマ画像表示領域210に表示させる。
UI部1121は、ユーザ操作に応じて、パノラマ画像表示領域210に表示されるパノラマ画像140の拡大および縮小を実行できる。UI部1121は、例えば、画素単位での補間、間引きを用いてパノラマ画像140の拡大、縮小を実行する。
拡大、縮小の指示方法の例として、UI部1121は、パノラマ画像140の拡大の機能と縮小の機能とを、キーボード1018の所定のキー(例えば拡大を「+」キー、縮小を「−」キー)にそれぞれ割り当てて、これらのキーに対する操作に応じてパノラマ画像140の拡大、縮小を実行することが考えられる。拡大、縮小の指示は、この例に限られない。例えば、パノラマ画像表示領域210に、パノラマ画像140の拡大および縮小を指示するための各ボタンを配置し、各ボタンに対するユーザ操作に応じて、パノラマ画像140の拡大、縮小を実行してもよい。また例えば、ポインィングデバイス1017としてのマウスのホイールの操作に応じて拡大、縮小を実行することも考えられる。
また、UI部1121は、ユーザ操作によりパノラマ画像140上で位置を指定することで、当該位置に対応する撮像画像を、点検対象の画像である点検画像として選択することができる。図13の例では、パノラマ画像表示領域210において、指定された位置に対応する変形画像2100の枠が表示され、当該変形画像2100に対応する、識別情報「no.15」で識別される撮像画像が指定されている様子が示されている。また、図13の例では、オプション選択領域2402において「元画像はめ込み合成」が選択されており、この識別情報「no.15」で識別される撮像画像が、パノラマ画像140の指定位置(変形画像2100に対応する位置)に対してはめ込み合成にて表示される。
点検画像表示領域220について、より具体的に説明する。UI部1121は、パノラマ画像表示領域210において指定された撮像画像を、点検画像2100aとして点検画像表示領域220に表示させる。例えば、UI部1121は、画像情報記憶部1123に記憶される情報を参照して、パノラマ画像140の指定された位置に対応する変形画像を特定し、さらに、特定された変形画像に対応する撮像画像の情報を特定する。UI部1121は、画像記憶部1101から特定した撮像画像の情報に示される撮像画像を取得して、取得した撮像画像を点検画像2100aとして点検画像表示領域220に表示させる。
UI部1121は、ユーザ操作に応じて、点検画像表示領域220に表示される点検画像2101の拡大および縮小を実行できる。UI部1121は、例えば、画素単位での補間、間引きを用いて点検画像2100aの拡大、縮小を実行する。点検画像表示領域220における点検画像2100aの拡大、縮小は、上述したパノラマ画像表示領域210におけるパノラマ画像140の拡大、縮小指定方法や、拡大、縮小方法を適用できる。
点検画像表示領域220は、上への移動を指示するボタン2200Uと、下への移動を指示するボタン2200Dと、左への移動を指示するボタン2200Lと、右への移動を指示するボタン2200Rとを含む。UI部1121は、これらボタン2200U、2200D、2200Lおよび2200Rに対するユーザ操作に応じて、点検画像表示領域220に点検画像2100aとして表示される撮像画像を、複数の撮像画像それぞれの空間的位置に基づき、当該撮像画像の上下左右の撮像画像に切り替えることができる。
一例として、UI部1121は、画像情報記憶部1123に記憶される情報を参照して、パノラマ画像表示領域210に表示されるパノラマ画像140に属する各変形画像について、それらのパノラマ画像140上での位置を取得する。UI部1121は、取得した各変形画像のパノラマ画像140上での位置に基づき、点検画像2100aに対応する変形画像に対して、パノラマ画像140上で上下左右に位置する変形画像の識別情報を取得する。UI部1121は、ボタン2200U、2200D、2200Lおよび2200Rに対するユーザ操作に応じて、点検画像2100aに対応する変形画像の上、下、左または右の変形画像の識別情報に対応する撮像画像の識別情報を取得し、取得した撮像画像の識別情報に示される撮像画像を画像記憶部1101から取得する。UI部1121は、こうして取得した撮像画像を、ボタン2200U、2200D、2200Lおよび2200Rに対するユーザ操作に応じた点検画像2100aとして点検画像表示領域220に表示させる。
UI部1121は、パノラマ画像140に対応する各撮像画像を所定の順序で順次切り替えて、点検画像表示領域220に点検画像2100aとして表示させる事ができる。例えば、UI部1121は、画像情報記憶部1123に記憶される情報を参照して、スライドショー制御領域2403に対するユーザ操作に応じて、画像記憶部1101に記憶される各撮像画像を撮像時間順に選択して、順次、点検画像2100aとして点検画像表示領域220に表示させることができる。ここで、UI部1121は、スライドショー制御領域2403に対するユーザ操作に応じて、各撮像画像を、撮像時間に基づき時系列に沿って(順送り)、あるいは、時系列と逆方向に(逆送り)、順次表示させることができる。また、UI部1121は、スライドショー制御領域2403に対するユーザ操作に応じて、各撮像画像の表示速度の変更や、順次表示の一時停止を実行させることもできる。
UI部1121は、点検画像表示領域220に表示される点検画像2100aに対して表示させる注釈の入力を受け付けることができる。例えば、UI部1121は、点検画像表示領域220において、カーソル250で指定した位置に対する注釈の入力を受け付けるようにできる。
例えば、UI部1121は、入力された注釈および位置を示す情報と、表示中の点検画像2100aに対応する撮像画像の識別情報とを、注釈重畳部1107に渡す。注釈重畳部1107は、渡された注釈および位置を示す情報と、撮像画像の識別情報とに基づき、撮像画像の指定された位置に対して注釈を重畳させて、この注釈が重畳された撮像画像をUI部1121に渡す。UI部1121は、注釈が重畳された撮像画像により、点検画像表示領域220に表示される点検画像2100aを更新する。
パノラマ選択領域230について、より具体的に説明する。パノラマ選択領域230は、1つの観察対象に対して複数のパノラマ画像140が生成された場合に、この複数のパノラマ画像140から、パノラマ画像表示領域210に表示させる1のパノラマ画像140を選択するための領域である。図13の例では、UI部1121は、1つの観察対象の3つの面についてそれぞれ生成された各パノラマ画像140のサムネイル画像2300a、2300bおよび2300cを生成し、これら各サムネイル画像2300a、2300bおよび2300cをパノラマ選択領域230に表示させている。UI部1121は、これらサムネイル画像2300a、2300bおよび2300cのうち、ユーザ操作に応じて選択されたサムネイルに対応するパノラマ画像140を、パノラマ画像表示領域210に表示させる。
上述のように、この「点検モード」によるUI画面200aは、パノラマ画像表示領域210に表示されるパノラマ画像140に対して所望の位置を指定することで、指定した位置に対応する撮像画像が点検画像2100aとして点検画像表示領域220に表示される。また、点検画像表示領域220は、ユーザ操作に応じて、表示される点検画像2100aの拡大、縮小処理や、近接する他の撮像画像への切り替えなどが可能である。したがって、ユーザ(観察者)は、観察対象の一部の観察(点検)を、より容易に実行することができる。
なお、UI部1121は、UI画面200aに対してなされたユーザ操作を、操作履歴として逐次、画像情報記憶部1123に記憶することができる。例えば、UI部1121は、パノラマ画像表示領域210における拡大、縮小操作を操作履歴として記憶できる。また、UI部1121は、パノラマ画像表示領域210において指定され点検画像表示領域220に点検画像2100aとして表示された撮像画像の識別情報を、操作履歴として記憶できる。同様に、UI部1121は、点検画像表示領域220において上下左右への移動を指示する各ボタン2200U、2200D、2200Lおよび2200Rに対する操作や、点検画像表示領域220に表示される点検画像2100aに対する拡大、縮小操作を、操作履歴として記憶できる。さらに、UI部1121は、点検画像表示領域220において注釈が入力された撮像画像の識別情報を記憶できる。
(第2の実施形態に係るUIの第2の例)
図14−1、図14−2および図14−3は、第2の実施形態に係るUI画面の第2の例を示す。この第2の例に係るUI画面は、パノラマ画像140の図面に対する位置合わせを行うための画面である。なお、図14−1、図14−2および図14−3において、上述した図13と共通する部分には同一の符号を付して、詳細な説明を省略する。
図14−1において、UI画面200bは、モード選択領域2401にて「図面位置合わせモード」が選択されている。ツール選択領域2404は、このモード選択領域2401において選択された「図面位置合わせモード」に応じて、位置合わせを行うために用いるコントロールポイントの数を選択するためのツールが表示されている。図14−1の例では、ツール選択領域2404において、コントロールポイントの数として、4点、6点および8点の何れかを選択可能となっている。
UI部1121は、例えば、ユーザ操作に応じてツールバー201に含まれるファイル指定部により指定されたファイルに格納される図面データによる図面2106を、パノラマ画像140と共にパノラマ画像表示領域210に表示させる。
ここで、ツール選択領域2404において所望の数のコントロールポイントを選択することで、パノラマ画像表示領域210に表示される図面2106に対して、選択された数のコントロールポイントが設定される。UI部1121は、コントロールポイントを、例えば、図面2106の形状に応じて適切な位置(例えば角部)に設定することができる。なお、コントロールポイントは、画面上においてユーザ操作により位置などを変更可能とした点である。
図14−1の例では、ツール選択領域2404において4点のコントロールポイントが選択され、パノラマ画像表示領域210に表示される図面2106の4つの角部に、それぞれコントロールポイント21021、21022、21023および21024が設定されている。図14−1の例では、各コントロールポイント21021、21022、21023および21024に、「1」〜「4」の番号を付して示している。
UI部1121は、ユーザ操作に応じて、各コントロールポイント21021、21022、21023および21024と対応するパノラマ画像140の各位置を指定する。
例えば、UI部1121は、ユーザによる、カーソル250の表示に応じたポインティングデバイス1017によるドラッグアンドドロップ操作(図中に矢印Aにて示す)を用いて、各コントロールポイント21021、21022、21023および21024を、パノラマ画像140の各位置に対応付けることができる。図14−1の例では、各コントロールポイント21021、21022、21023および21024が、パノラマ画像140上の各角部21021’、21022’、21023’および21024’に対応付けられている。
UI部1121は、パノラマ画像140に指定された各位置を、各コントロールポイント21021、21022、21023および21024の位置と一致させるための座標変換係数を算出する。UI部1121は、算出した座標変換係数に従いパノラマ画像140の座標を図面2106の座標に変換する。これにより、パノラマ画像140の大きさおよび形状を図面2106の大きさおよび形状に変換して、パノラマ画像140の図面2106に対する位置合わせを行う。
図14−2は、図面2106と位置合わせを行い図面2106の大きさおよび形状に変換されたパノラマ画像140’の例を示す。図14−2の例では、図14−1のパノラマ画像表示領域210における図面2106に対して、座標変換されたパノラマ画像140’が、位置、大きさおよび形状を一致させて重ね合わせて表示されている。
なお、UI部1121は、パノラマ画像140に対応する各変形画像の座標も、算出された座標変換係数に従い変換する。これにより、UI部1121は、座標変換されたパノラマ画像140’上に指定された位置に対応する撮像画像を特定できる。
なお、図14−1の例において、UI画面200bは、パノラマ画像表示領域210において、対応点の指定前あるいは指定後に、各コントロールポイント21021、21022、21023および21024の少なくとも一部について、点間の距離を入力することができる。図14−1の例では、パノラマ画像140に示される観察対象の幅(長さ)および高さの実寸値として、コントロールポイント21021および21024間の距離2103Hと、コントロールポイント21024および21023の距離2103Vとが入力されている。
UI部1121は、パノラマ画像140のピクセル幅と、入力された各距離2103Hおよび2103Vとに基づき、パノラマ画像140の実寸との比(実スケール)を算出することができる。また、UI部1121は、パノラマ画像140上の実スケールを、点検画像表示領域220に表示される点検画像2100a上に座標変換することにより、点検画像2100a上での実スケールも算出することができる。これにより、点検画像2100a上で検出したひびの幅などの実スケールを推定することが可能となる。
パノラマ画像140の図面2106に対する位置合わせの方法は、図14−1および図14−2を用いて説明した、図面2106を用いた方法に限定されない。例えば、矩形、台形、八角形など、基準となる形状の図形(基準図形と呼ぶ)を選択し、選択された形状に予め設けられたコントロールポイントに対応するパノラマ画像140の位置を指定することで、パノラマ画像140の図面2106に対する位置合わせを行ってもよい。
図14−3は、この基準図形を用いて位置合わせを行うためのUI画面200b’の例を示す。UI画面200b’において、ツール選択領域2404は、位置合わせを行うために用いる基準図形を選択するためのツールが表示されている。図14−3の例では、ツール選択領域2404において、コントロールポイントを設定するための基準図形として、矩形、台形、および、対向する2辺が凹となった八角形の各図形を選択可能となっている。ここでは、ユーザ操作に応じて、基準図形として矩形が選択されたものとする。この矩形は、コントロールポイントが例えば4つの頂点それぞれに予め設けられているものとする。
UI部1121は、ユーザ操作に応じて、基準図形上に設けられた各コントロールポイントと対応するパノラマ画像140の各位置を指定する。図14−3の例では、基準図形2104に設けられた各コントロールポイント21051、21052、21053および21054に対応するパノラマ画像140の各位置として、パノラマ画像140の4つの角部が指定されている。
UI部1121は、上述と同様にして、パノラマ画像140に指定された各点の位置を、各コントロールポイント21051、21052、21053および21054の位置と一致させるための座標変換係数を算出する。UI部1121は、算出した座標変換係数に従いパノラマ画像140の座標を変換する。これにより、パノラマ画像140の形状を選択された基準図形の形状に変換して、パノラマ画像140の基準図形2104に対する位置合わせを行う。
なお、上述において、UI部1121は、選択された基準図形の例えば縦横比を、ユーザ操作に応じて変更可能とすると、より好ましい。
なお、この基準図形を用いてパノラマ画像140の位置合わせを行う方法においても、図14−1および図14−2を用いて説明したように、各コントロールポイント21051、21052、21053および21054の少なくとも一部について点間の距離を入力することができる。UI部1121は、上述と同様にして、入力された点間の距離に基づき、パノラマ画像140上の実スケール、および、当該パノラマ画像140に対して指定された位置に対応する撮像画像による点検画像2100a上での実スケールを算出することができる。
(第2の実施形態に係るUIの第3の例)
図15は、第2の実施形態に係るUI画面の第3の例を示す。この第3の例に係るUI画面は、パノラマ画像140に用いられた撮像画像の撮像品質を確認するための画面である。なお、図15において、上述した図13と共通する部分には同一の符号を付して、詳細な説明を省略する。また、図15において、パノラマ画像表示領域210には、図14−1および図14−2を用いて説明した、図面2106に合わせて大きさおよび形状を変換したパノラマ画像140’が表示されているものとする。
図15において、UI画面200cは、モード選択領域2401にて「撮像品質確認モード」が選択されている。ツール選択領域2404は、このモード選択領域2401において選択された「撮像品質確認モード」に応じて、対象となる撮像品質の種類を選択するためのチェックボックスが設けられている。この例では、画像品質として、撮像情報である「撮像解像度」および「撮像距離」と、画質評価情報である「暈け度合い」との3種類が選択可能となっている。選択可能な撮像品質の種類は、この例に限られない。例えば、画質評価情報として「コントラスト」や「平均輝度」などを、撮像品質の種類として適用してもよい。
例えば、UI部1121は、パノラマ画像表示領域210にパノラマ画像140’が表示された状態で、モード選択領域2401にて「撮像品質確認モード」が選択されると、画像情報記憶部1123に記憶される情報を参照して、パノラマ画像パノラマ画像表示領域210に表示されるパノラマ画像140’に対応する各撮像画像を画像記憶部1101から取得する。UI部1121は、さらに、ツール選択領域2404において撮像品質の種類が選択されると、取得した各撮像画像について、選択された種類の撮像品質を求める。
例えば、「撮像解像度」や「撮像距離」といった撮像情報は、各撮像画像がExif(Exchangeable image file format)に従い各メタデータを取得してファイルに格納される場合には、各撮像画像のファイルから直接的に抽出できる。また例えば、「暈け度合い」や「コントラスト」といった画像評価情報は、各撮像画像に基づきUI部1121により算出することができる。
これらの撮像品質の種類に応じた値は、モード選択領域2401およびツール選択領域2404に対するユーザ操作に応じて求めることができる。これに限らず、撮像品質の種類に応じた値を、画像取得部1100により撮像画像が取得され画像記憶部1101に記憶された際に、UI部1121が予め求めて画像情報記憶部1123に記憶するようにしてもよい。この場合、UI部1121は、モード選択領域2401およびツール選択領域2404に対するユーザ操作に応じて、画像情報記憶部1123から必要な情報を取得する。
UI部1121は、図15に例示されるように、パノラマ画像表示領域210に対して、パノラマ画像140’に対応する各撮像画像を示す各矩形21101、21102、…を、パノラマ画像140’上の対応する位置に重畳して表示させる。このとき、UI部1121は、各矩形21101、21102、…を、各撮像画像について取得した、選択された撮像品質を示す値に基づき分類してパノラマ画像表示領域210に表示する。
図15の例では、UI部1121は、各撮像画像の撮像品質を示す値に対して閾値判定を行い、各撮像画像の撮像品質を、「良い」、「中間」および「悪い」の3段階に分類している。閾値判定は、3段階の分類に限定されず、2段階の分類でもよいし、4段階以上の分類であってもよい。また、UI部1121は、閾値の値および数を、ユーザ操作に応じて変更可能とするようにもできる。
UI部1121は、分類結果に応じて、各撮像画像に対応する各矩形21101、21102、…を色分けして表示している。図15では、撮像品質が「良い」である領域Aに含まれる各撮像画像に対応する各矩形を明るい色(例えば黄色)に、撮像品質が「悪い」である領域Cに含まれる各矩形を暗い色(例えば茶色)に、撮像品質が「中間」である領域B含まれる各矩形をやや明るい色(例えば橙色)に色分けする。この色分けは一例であって、他の色を用いて色分けを行ってもよいし、例えば等高線など色分け以外の方法で分類結果を表現してもよい。等高線と色分けを組み合わせて撮像品質の分類結果を表現してもよい。
なお、図15において、パノラマ画像140’に対して撮像画像に対応する矩形が重畳されていない領域(例えば領域D)は、撮像漏れの領域を示している。
(第2の実施形態に係るUIの第4の例)
図16は、第2の実施形態に係るUI画面の第4の例を示す。この第4の例に係るUI画面は、パノラマ画像140の閲覧状況を確認するための画面である。なお、図16において、上述した図13と共通する部分には同一の符号を付して、詳細な説明を省略する。また、図16において、パノラマ画像表示領域210には、図14−1および図14−2を用いて説明した、図面2106に合わせて大きさおよび形状を変換したパノラマ画像140’が表示されているものとする。
図16において、UI画面200dは、モード選択領域2401にて「点検モード」が選択され、オプション選択領域2402にて「点検状況確認」が選択されている。また、ツール選択領域2404は、これらモード選択領域2401にて選択された「図面位置合わせモード」と、オプション選択領域2402にて選択された「点検状況確認」とに応じて、パノラマ画像表示領域210においてパノラマ画像140’に対応して表示する情報の種類を選択するためのツールが表示されている。この例では、情報の種類として、「表示済み」、「拡大表示済み」および「書き込み済み」の3種類が選択可能となっている。
UI部1121は、ツール選択領域2404において、ユーザ操作により「表示済み」が選択された場合、パノラマ画像140’に対応する各撮像画像のうち、点検画像表示領域220に点検画像2100aとして表示された撮像画像を、パノラマ画像表示領域210に明示的に表示させる。
図16の例では、ツール選択領域2404において「表示済み」が選択されている。この場合、UI部1121は、例えば画像情報記憶部1123に記憶される操作履歴または閲覧フラグに基づき、パノラマ画像140’に対応する各撮像画像のうち、点検画像表示領域220に点検画像2100aとして既に表示された撮像画像の識別情報を取得する。
図16の例では、UI部1121は、パノラマ画像表示領域210に表示されるパノラマ画像140’に対応する各変形画像21211、21212、21213、…のうち、点検画像2100aとして既に表示されたとして取得された撮像画像に対応する変形画像(図16の範囲Eに含まれる各変形画像)の枠を、実線で表示している。一方、UI部1121は、各変形画像21211、21212、21213、…のうち、点検画像2100aとして既に表示されたとして取得されていない撮像画像に対応する変形画像(図16の範囲Fに含まれる各変形画像)の枠を、点線で表示している。
これにより、パノラマ画像140’に対応する各撮像画像が点検画像2100aとして表示されているか否かを容易に見分けることが可能である。これは、ツール選択領域2404において「拡大表示済み」や「書き込み済み」が選択された場合であっても、同様の効果を得ることが可能である。また、ツール選択領域2404において「書き込み済み」が選択された場合は、注釈が入力された撮像画像に対応する変形画像が明示的に表示され、入力された注釈の確認を効率化できる。
(第2の実施形態に係るUIの第5の例)
図17は、第2の実施形態に係るUI画面の第5の例を示す。図13に示したUI画面200aのパノラマ選択領域230aでは、1つの観察対象における異なる面のパノラマ画像をそれぞれ2次元画像を用いて表示していた。これに対して、この第5の例によるUI画面200a’のパノラマ選択領域230bは、1つの観察対象における異なる面のパノラマ画像を、各面のパノラマ画像を統合した3次元画像を用いて表示する。なお、図17において、上述した図13と共通する部分には同一の符号を付して、詳細な説明を省略する。
図17に示されるように、UI部1121は、例えば図13のパノラマ選択領域230aにおける各パノラマ画像140のサムネイル画像2300a、2300bおよび2300cを、それぞれの空間的な位置関係に従い統合して3次元画像によるサムネイル画像2301を生成する。UI部1121は、生成したこのサムネイル画像2301を、UI画面200a’のパノラマ選択領域230bに表示させる。UI部1121は、パノラマ選択領域230bに表示される回転指示アイコン2302に対するユーザ操作に応じて、サムネイル画像2301を3次元空間内で回転させることができる。UI部1121は、サムネイル画像2301における1つの面に対するユーザ操作に応じて、その面に対応するパノラマ画像140を、パノラマ画像表示領域210に表示させる。
このように、3次元画像によるサムネイル画像2301を用いることで、パノラマ画像表示領域210に表示させるパノラマ画像140をより直感的に選択可能となる。
なお、上述した第1のUI画面200aと、第2のUI画面200bおよび200b’と、第3のUI画面200cと、第4のUI画面200dと、第5のUI画面200eとにおいて、ユーザ操作を行うための入力デバイスは、画面上の位置を指定可能であれば、特に種類は限定されない。例えば、当該入力デバイスとして、マウス、キーボード、ペンタブレット、ジョイスティック、トラックボール、タッチパネルなどを適用できる。また、画像処理装置1001に撮像装置を内蔵または接続し、ジェスチャー、ヘッドトラッキング、視線といったユーザの身体動作を用いてユーザ操作を行うこともできる。さらに、画像処理装置1001にマイクロホンといった収音デバイスを内蔵または接続し、音声を用いてユーザ操作を行ってもよい。
例えば、入力デバイスとしてペンタブレットを用いた場合には、注釈入力を直観的に実行可能である。また、入力デバイスとしてタッチパネルを用いた場合、スワイプ動作により点検画像2100aを送る、あるいは2本指でつまむ(ピンチ)動作により拡大、縮小を指示する、など、直感的な閲覧が可能となる。
さらに、ディスプレイ1014としてHMD(Head Mount Display)を採用することも考えられる。ここで、このHMDに姿勢を検知する検知手段(例えば9軸センサ)を設けることで、ヘッドトラッキングにより拡大、縮小などを指示することが可能となる。また、HMDに視線検知手段(例えばカメラ)を設けることで、視点移動や拡大、縮小を、視線に基づき指示することが可能となる。このように、姿勢検知手段や視線検知手段を設けたHMDをディスプレイ1014として採用することで、観察対象の全体像の把握と詳細の閲覧とを直感的に実行可能となる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、上述した第1の実施形態および第2の実施形態に共通して適用可能な撮像装置を提供するものである。第3の実施形態では、カメラを遠隔操作可能な飛行体に搭載して撮像装置を構成する。第3の実施形態にて提供される撮像装置と、上述した画像処理装置1000または1001とを用いることにより、観察対象の点検をより容易に実行可能な点検システムを構成できる。
図18は、第3の実施形態に係る撮像装置の外観の例を概略的に示す3面図である。図18(a)、図18(b)および図18(c)は、それぞれ、第3の実施形態に係る撮像装置300を上面、正面および側面から見た例を示す。
撮像装置300は、腕部310と、腕部の中央部分に設けられる胴体312と、胴体312の上部に設けられる、レンズ部314を備えるカメラ313とを含む。腕部310は、上面から見て前方右側、後方右側、前方左側および後方左側に張り出し、それぞれの先端部に、それぞれモータで駆動されるプロペラ311a、311b、311cおよび311dを備える。
また、撮像装置300は、腕部310と、胴体312と、レンズ部314およびカメラ313と、腕部310が備える各プロペラ311a、311b、311cおよび311dとを囲うように、保護部材320a、320b、320c、320c’、320dおよび320d’が設けられる。図18(a)〜図18(c)の例では、保護部材320a、320b、320c、320c’、320dおよび320d’は、全体として球状にて腕部310と、胴体312と、レンズ部314およびカメラ313と、腕部310が備える各プロペラ311a、311b、311cおよび311dとを囲うように設けられている。図18(a)〜図18(c)の例では、保護部材320aは、接続部材321a、321b、321cおよび321dにより腕部310の張り出した各端と接続され、保護部材320a、320b、320c、320c’、320dおよび320d’の全体が腕部310(胴体312)に対して固定されている。接続部材321a〜321dは、ゴムやスプリングなど、弾性のある材料を用いると好ましい。
撮像装置300は、遠隔操作により各プロペラ311a、311b、311cおよび311dの駆動を制御することで、上下移動、前後左右移動およびホバリングを行い、空中を飛行できる。
なお、上述では、第3の実施形態に係る撮像装置300が、腕部310(胴体312)に対して保護部材320a、320b、320c、320c’、320dおよび320d’が接続部材321a〜321dにより固定されるように説明したが、これはこの例に限定されない。例えば、「株式会社リコー、“公共構造物点検システム”、[online]、[平成28年10月25日検索]、インターネット<URL:https://jp.ricoh.com/technology/institute/research/tech_inspection_system.html>」に示されるように、撮像装置300は、保護部材320a、320b、320c、320c’、320dおよび320d’を、3軸ジンバルなどを用いて、腕部310または胴体312に対して可動に保持する構造であってもよい。
図19は、第3の実施形態に適用可能な、3軸ジンバルを用いた撮像装置300’の例を示す。図19(a)は、撮像装置300’を正面斜め上方向から見た斜視図、図19(b)は、撮像装置300’の中心部を抜き出した図を示している。なお、図19(a)および図19(b)において、上述した図18(a)、図18(b)および図18(c)と共通する部分には同一の符号を付して、詳細な説明を省略する。
図19(a)の例では、撮像装置300’は、腕部310’、胴体312およびカメラ部315と、腕部310’の4つの端にそれぞれ設けられたプロペラ311a〜311dとを備え、これらが略球形(球殻構造)をなす保護部材320eにより囲われた構造を有している。この例では、保護部材320eは、正五角形および正六角形を所謂サッカーボール様に組み合わせた各頂点を棒状部材で結合した構造となっている。
この例では、腕部310’は、平行な2本の腕の中心部を1または複数の板状部材で接続した、所謂H字型の形状となっている。腕部310’は、2本の腕のそれぞれの先端にプロペラ311a〜311dと、各プロペラ311a〜311dを駆動するための各モータが設けられ、2本の腕を接続する板状部材に胴体312が設けられている。胴体312は、正面にレンズ部を含むカメラ部315が設けられている。以下、これら腕部310’、胴体312およびカメラ部315と、プロペラ311a〜311dとを含む構成を、本体部と呼ぶ。保護部材320eは、少なくとも本体部が外部と直接的に接触しない大きさを有する。
本体部は、保護部材320eに対して3軸ジンバル構造を介して可動に保持される。より具体的には、図19(a)の例における3軸ジンバル構造は、ヨー(Yaw)軸を中心に回転可能(図中に矢印Yで示す)とされた部材330と、ロール(Roll)軸を中心に回転可能(図中に矢印Rで示す)とされた部材331aおよび331bと、ピッチ(Pitch)軸を中心に回転可能(図中に矢印Pで示す)とされた部材332とを含む。
図19(a)および図19(b)の例では、部材332は、円形状のレールとして構成され、このレールに沿って、回転部材3320が、部材332の内側においてピッチ軸を中心に回転自在に設けられる。本体部は、回転部材3320に含まれる固定部材3320aおよび3320bにより、回転部材3320に固定される。本体部は、カメラ部315の光軸がピッチ軸と一致するような配置で回転部材3320に固定されると好ましい。
一方、部材330は、回転部材3300aおよび3300bにより、ヨー軸を中心に回転自在に保護部材320eと接続される。また、部材331aおよび331bは、一端が、それぞれ回転部材3310aおよび331bによりロール軸を中心に回転自在に部材330と接続され、他端が部材332に対して固定的に接続される。
撮像装置300’は、このような3軸ジンバル構造を備えるため、保護部材320eが本体部とは独立して回転可能である。そのため、撮像装置300’は、保護部材320eが障害物と衝突した場合であっても、保護部材320eのみが回転し、本体部はバランスを保ったまま飛行を継続でき、安定的な撮像が可能である。また、撮像装置300’は、3軸ジンバル構造により、保護部材320eを被写体に接触させたまま飛行させて、被写体の接写画像を撮像することも可能である。
また、上述では、撮像装置300が、上面から見て前方右側、後方右側、前方左側および後方左側に張り出した腕部310の各先端部に設けられた4枚のプロペラ311a、311b、311cおよび311dにより飛行駆動されるように説明したが、これはこの例に限定されない。すなわち、撮像装置300は、遠隔操作により上下移動、前後左右移動およびホバリングが可能であれば、他の構造であってもよい。例えば、「Adrien Briod、“Insect-inspired flying robot handles collisions, goes where other robots can't”、[online]、平成25年10月30日、Robohub、[平成28年10月25日検索]、インターネット<URL:http://robohub.org/insect-inspired-flying-robot-handles-collisions-goes-where-other-robots-cant/>」に示されるように、撮像装置300は、胴体312の上面に設けた1組のプロペラにより飛行駆動される構造であってもよい。
図20は、第3の実施形態に係る撮像装置300の一例の構成を示す。撮像装置300は、制御部3001と、通信部3002と、駆動部3003と、複数のモータ(M)3004、3004、…と、カメラ3005と、メモリ3006とを含む。制御部3001は、CPU、ROMおよびRAMと、制御部3001に接続される通信部3002、駆動部3003、カメラ3005およびメモリ3006との間で通信を行う各種インタフェースとを含む。
制御部3001は、CPU、ROMおよびRAMを含み、ROMに予め格納されるプログラムに従い、RAMをワークメモリとして用いて動作するCPUの指示に従い、この撮像装置300の全体の動作を制御する。制御部3001は、さらに、撮像装置300の姿勢、飛行速度、飛行方向などを検出するためのセンサ(例えば9軸センサ)を含む。さらにまた、制御部3001は、現在位置を取得するため、GNSS(Global Navigation Satellite System)に対応する受信機を備えていてもよい。
通信部3002は、この撮像装置300を遠隔操作するためのリモートコントローラとの間で無線通信を行う。例えば、通信部3002は、撮像装置300の飛行を制御するユーザ操作に応じてリモートコントローラから送信された制御信号を受信し、受信した制御信号を制御部3001に渡す。駆動部3003は、制御信号に基づく制御部3001の制御に従い、例えば各プロベラ311a、311b、311cおよび311dを回転させる各モータ3004、3004、…をそれぞれ駆動する。
カメラ3005は、上述したカメラ313に対応し、制御部3001の指示に従い、被写体の撮像を行い、静止画像である撮像画像を出力する。例えば、通信部3002は、カメラ3005による撮像を制御するユーザ操作に応じてリモートコントローラから送信された制御信号を受信し、受信した制御信号を制御部3001に渡す。制御部3001は、この制御信号に応じて、カメラ3005に対して例えば撮像を指示する。
カメラ3005は、撮像を行った際に、撮像画像と共に、撮像に関するメタデータを取得することができる。カメラ3005は、撮像により得られた撮像画像およびメタデータを出力することができる。メタデータは、少なくとも、撮像を行った日時(撮像時間)と、撮像画像の解像度と、撮像距離(焦点距離)とを含む。カメラ3005から出力された撮像画像およびメタデータは、制御部3001に供給される。
制御部3001は、カメラ3005から供給された撮像画像およびメタデータを、例えばExif形式でファイルに格納する。これに限らず、制御部3001は、撮像画像およびメタデータを、独自の形式でファイルに格納してもよい。制御部3001は、撮像画像およびメタデータが格納されたファイルを、メモリ3006に記憶する。メモリ3006は、例えばフラッシュメモリなどの書き換え可能な不揮発性メモリである。メモリ3006は、撮像装置300に内蔵されていてもよいし、撮像装置300に対して着脱可能に構成されていてもよい。
図6および図12に示した画像取得部1100は、このメモリ3006に記憶された、撮像画像およびメタデータが格納されたファイルから、撮像画像を取得する。
なお、カメラ3005は、所定のフレームレート(例えば60フレーム/秒)で被写体の画像を取得し、動画像を出力できる。制御部3001は、カメラから出力された動画像を、通信部3002により送信することができる。通信部3002により送信された動画像は、リモートコントローラや、他の情報処理装置により受信し、表示させることができる。ユーザは、この動画像を参照することで、撮像装置300の撮像対象を確認することができる。
第3の実施形態に係る撮像装置300は、全体が保護部材320a、320b、320c、320c’、320dおよび320d’により囲まれているので、周囲の物体との多少の接触が許容される。そのため、狭隘部への侵入も可能であり、観察対象に安全に近接して明瞭な撮像画像を取得できる。
撮像装置300により撮像された撮像画像には、撮像装置300の一部、もしくは、保護部材320a、320cおよび320dなどの一部が映り込み、観察対象の一部を遮蔽してしまう可能性がある。上述した第1の実施形態および第2の実施形態によれば、同じ箇所について複数の少し違う位置から撮像した撮像画像群を閲覧することができる。そのため、遮蔽による点検不能箇所の発生が抑制される。また、空中を飛行する撮像装置300から撮像した撮像画像は、画像品質が不安定である可能性がある。このような場合であっても、図15に示したUI画面200cを用いることで、各撮像画像の画像品質をユーザが確認することができる。
なお、上述の各実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
110,120,131,132,135 画像
111,121,133,136
130,130’,130a,130b 2次元展開図
140,140’,140a パノラマ画像
150,150’ 3次元メッシュ
200a,200a’,200b,200b’,200c,200d,200e UI画面
210 パノラマ画像表示領域
220 点検画像表示領域
230 パノラマ選択領域
240 動作指定領域
300 撮像装置
313,3005 カメラ
320a,320b,320c,320c’,320d,320d’ 保護部材
1000 画像処理装置
1010 CPU
1014 ディプレイ
1015 ストレージ
1017 ポインティングデバイス
1100 画像取得部
1101 画像記憶部
1102 3D点群取得部
1103 3Dメッシュ生成部
1104 2D展開図生成部
1105 変換係数生成部
1106 変形部
1107 注釈重畳部
1108 指定部
2100a 点検画像
特表2011−510378号公報

Claims (23)

  1. 複数の2次元画像から対象物体の少なくとも一部を含む3次元モデルを生成する3次元モデル生成ステップと、
    前記3次元モデルの少なくとも一部を3次元メッシュで近似する3次元メッシュ近似ステップと、
    前記3次元メッシュを2次元パノラマ座標に変換する係数を決定する変換係数決定ステップと、
    前記2次元パノラマ座標の部分に対応する複数の2次元画像から第1の画像を決定する第1の画像決定ステップと、
    前記2次元パノラマ座標に投影するためのコンテンツと、前記第1の画像上での第1の位置とを、該第1の画像に応じて指定する第1の指定ステップと、
    前記コンテンツの前記2次元パノラマ座標上での投影に対応する第2の位置を決定する第2の位置決定ステップと、
    前記第2の位置と前記コンテンツとを関連付けて記憶する第1の記憶ステップと、
    前記第1の画像を前記2次元パノラマ座標上に投影した第2の画像に、前記コンテンツを注釈として重畳させる第1の重畳ステップと、
    前記複数の2次元画像から第3の画像を決定する第3の画像決定ステップと、
    前記第1の位置の、前記第3の画像への投影に対応する第3の位置を決定する第3の位置決定ステップと、
    前記第3の画像上の前記第3の位置に、前記コンテンツを投影し、注釈として重畳させる第2の重畳ステップと
    を有する画像処理方法。
  2. 前記第3の画像決定ステップは、
    それぞれ2次元画像である複数の撮像画像の撮像順に基づき前記第3の画像を決定する
    請求項1に記載の画像処理方法。
  3. 前記第3の画像決定ステップは、
    それぞれ2次元画像である複数の撮像画像の空間位置に基づき前記第3の画像を決定する
    請求項1に記載の画像処理方法。
  4. 前記第3の画像決定ステップは、
    ユーザ操作に応じて前記パノラマ座標に対して指定されたユーザ指定位置の前記複数の2次元画像における座標上への投影に対する投影位置と、前記複数の2次元画像上の該投影位置周辺の解像度とのうち少なくとも一方と、前記ユーザ指定位置とに基づき前記第3の画像を決定する
    請求項1に記載の画像処理方法。
  5. 前記3次元メッシュ近似ステップは、可展面の前記3次元メッシュを生成する
    請求項1に記載の画像処理方法。
  6. 前記3次元メッシュ近似ステップは、平面の前記3次元メッシュを生成する
    請求項1に記載の画像処理方法。
  7. 前記3次元メッシュ近似ステップは、円柱面の前記3次元メッシュを生成する
    請求項1に記載の画像処理方法。
  8. 前記3次元メッシュ近似ステップは、2次曲面の前記3次元メッシュを生成する
    請求項1に記載の画像処理方法。
  9. 前記3次元メッシュ近似ステップは、球面の前記3次元メッシュを生成する
    請求項1に記載の画像処理方法。
  10. 前記変換係数決定ステップは、
    前記3次元メッシュを構成する各部分平面を、法線方向から見た形状および相対面積を保ったまま2次元座標に変換する
    請求項1に記載の画像処理方法。
  11. 前記変換係数決定ステップは、
    ホモグラフィ行列を用いて前記変換する係数を算出する
    請求項1に記載の画像処理方法。
  12. 前記変換係数決定ステップは、
    前記3次元メッシュを、ユーザ操作に応じて所定の方向に移動させる3次元メッシュ調整ステップを含む
    請求項1に記載の画像処理方法。
  13. 前記変換係数決定ステップは、
    前記所定の方向を、前記3次元メッシュの各部分平面の法線ベクトルの重み付け和に基づき決定する
    請求項12に記載の画像処理方法。
  14. 前記第1の画像に投影するためのコンテンツと、前記2次元パノラマ座標上での第4の位置とを、前記第2の画像に応じて指定する第2の指定ステップと、
    前記第4の位置と前記コンテンツとを関連付けて記憶する第2の記憶ステップと、
    前記第1の画像上での前記コンテンツの投影に対応する投影位置を決定する第4の位置決定ステップと、
    前記投影位置に対応する前記第1の画像に、前記コンテンツを注釈として重畳させる第3の重畳ステップと
    をさらに有する請求項1に記載の画像処理方法。
  15. 請求項1乃至請求項14の何れか1項に記載の画像処理方法をコンピュータに実行させるためのプログラムがコンピュータにより実行されることで実現される画像処理装置に接続される表示装置であって、
    画像の表示とユーザ入力の検出とを行うためのユーザインタフェース画面を表示させる表示制御情報を生成するユーザインタフェース部を備え、
    前記ユーザインタフェース画面は、
    前記第1の画像を表示し、前記ユーザ入力を検出する第1の表示領域と、
    前記第2の画像を表示し、前記ユーザ入力を検出する第2の表示領域と
    前記ユーザ入力を検出し、1つ以上の前記第2の画像から少なくとも1つを選択する第3の表示領域と、
    を含み、
    前記第3の表示領域に、1つ以上の前記第2の画像を組み合わせて3次元形状として表示する、
    表示装置。
  16. 請求項1乃至請求項14の何れか1項に記載の画像処理方法をコンピュータに実行させるためのプログラムがコンピュータにより実行されることで実現される画像処理装置に接続される表示装置であって、
    画像の表示とユーザ入力の検出とを行うためのユーザインタフェース画面を表示させる表示制御情報を生成するユーザインタフェース部を備え、
    前記ユーザインタフェース画面は、
    前記第1の画像を表示し、前記ユーザ入力を検出する第1の表示領域と、
    前記第2の画像を表示し、前記ユーザ入力を検出する第2の表示領域と、
    前記ユーザ入力を検出し、1つ以上の前記第2の画像から少なくとも1つを選択する第3の表示領域と、
    を含み、
    図面を表示し、
    前記図面の座標と前記第2の画像の座標とを対応付ける2つ以上の対応点を前記ユーザ入力に応じて指定し、
    該ユーザ入力に応じて指定された2つ以上の該対応点に基づき、前記図面の座標と前記第2の画像の座標との間の座標変換係数を求め、該座標変換係数を用いて前記第2の画像の座標を前記図面の座標に変換する、
    表示装置。
  17. 前記ユーザインタフェース画面は、
    設定を表示し、ユーザ入力を検出する第4の表示領域をさらに含む
    請求項15または請求項16に記載の表示装置。
  18. 前記ユーザインタフェース部は、
    前記ユーザ入力に応じて図形を選択し、
    選択された該図形の2つ以上のコントロールポイントそれぞれに対応する2つ以上の対応点を前記第2の画像の座標上で前記ユーザ入力に応じて指定し、
    選択された該図形の2つ以上のコントロールポイントと、2つ以上の該指定した対応点との組み合わせから該図形と該第2の画像との間の座標変換係数を求め、該座標変換係数を用いて前記第2の画像の形状を該図形の形状に変換する
    請求項15または請求項16に記載の表示装置。
  19. 前記ユーザインタフェース部は、
    2つの前記対応点の間の距離を示す値を前記ユーザ入力に応じて入力する
    請求項16に記載の表示装置。
  20. 前記ユーザインタフェース部は、
    前記第2の表示領域に、前記第2の画像の領域毎の画像品質を、色分けおよび等高線の少なくとも1つを用いて表示し、
    前記画像品質は、撮像解像度と、撮像距離と、暈け度合と、コントラストとのうち少なくとも1つを含む
    請求項15に記載の表示装置。
  21. 前記ユーザインタフェース部は、
    前記第1の表示領域に表示された画像の閲覧履歴を記憶媒体に記憶し、
    該閲覧履歴に基づき、前記第2の表示領域に閲覧済み領域を表示する
    請求項15に記載の表示装置。
  22. 前記ユーザインタフェース部は、
    前記第1の表示領域で注釈を入力した画像を選択して前記閲覧済み領域に表示させる
    請求項21に記載の表示装置。
  23. 画像を用いた点検を実行するための点検システムであって、
    2次元画像を出力するカメラと、飛行機構を含み該カメラが設けられる胴体と、該カメラおよび該胴体が外部の物体に直接接触しないように該カメラおよび該胴体を囲う保護部材とを含む撮像装置と、
    請求項1乃至請求項14の何れか1項に記載の画像処理方法をコンピュータに実行させるためのプログラムがコンピュータにより実行されることで実現される画像処理装置と、
    請求項15乃至請求項22の何れか1項に記載の表示装置と
    を含む点検システム。
JP2016217782A 2016-03-09 2016-11-08 画像処理方法、表示装置および点検システム Active JP6835536B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2017/009342 WO2017155005A1 (en) 2016-03-09 2017-03-08 Image processing method, display device, and inspection system
CN201780015932.5A CN108780586B (zh) 2016-03-09 2017-03-08 图像处理方法、显示设备和检查系统
EP17763345.0A EP3427232B1 (en) 2016-03-09 2017-03-08 Image processing method, display device, and inspection system
CA3016539A CA3016539C (en) 2016-03-09 2017-03-08 Image processing method, display device, and inspection system
US16/082,799 US10818099B2 (en) 2016-03-09 2017-03-08 Image processing method, display device, and inspection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016046322 2016-03-09
JP2016046322 2016-03-09

Publications (2)

Publication Number Publication Date
JP2017168077A JP2017168077A (ja) 2017-09-21
JP6835536B2 true JP6835536B2 (ja) 2021-02-24

Family

ID=59909084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217782A Active JP6835536B2 (ja) 2016-03-09 2016-11-08 画像処理方法、表示装置および点検システム

Country Status (5)

Country Link
US (1) US10818099B2 (ja)
EP (1) EP3427232B1 (ja)
JP (1) JP6835536B2 (ja)
CN (1) CN108780586B (ja)
CA (1) CA3016539C (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6470323B2 (ja) 2017-01-23 2019-02-13 ファナック株式会社 情報表示システム
JP6621962B2 (ja) * 2017-03-21 2019-12-18 三菱電機株式会社 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム
CN108876934B (zh) * 2017-12-20 2022-01-28 北京旷视科技有限公司 关键点标注方法、装置和系统及存储介质
WO2019130827A1 (ja) * 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
TWI634515B (zh) * 2018-01-25 2018-09-01 廣達電腦股份有限公司 三維影像處理之裝置及方法
JP7272015B2 (ja) * 2018-03-14 2023-05-12 株式会社リコー 診断管理サーバ、診断システム、診断管理方法、及びプログラム
JP7020260B2 (ja) * 2018-04-13 2022-02-16 株式会社大林組 孔壁観察システム
CN108600716A (zh) * 2018-05-17 2018-09-28 京东方科技集团股份有限公司 投影设备和系统、投影方法
EP3820139B1 (en) * 2018-07-03 2023-09-13 FUJIFILM Corporation Image-capture plan presentation apparatus and method
JP7033045B2 (ja) * 2018-10-17 2022-03-09 株式会社神戸製鋼所 学習装置、推定装置、亀裂検出装置、亀裂検出システム、学習方法、推定方法、亀裂検出方法、及びプログラム
JP7207073B2 (ja) * 2019-03-27 2023-01-18 富士通株式会社 点検作業支援装置、点検作業支援方法及び点検作業支援プログラム
CN110033515B (zh) * 2019-04-15 2023-04-07 同济大学建筑设计研究院(集团)有限公司 图形转换方法、装置、计算机设备及存储介质
CN110246175A (zh) * 2019-05-24 2019-09-17 国网安徽省电力有限公司检修分公司 全景相机与云台相机结合的变电站巡检机器人图像检测系统及方法
WO2021010038A1 (ja) * 2019-07-18 2021-01-21 富士フイルム株式会社 情報表示装置、方法及びプログラム
JP7326446B2 (ja) * 2019-07-19 2023-08-15 富士フイルム株式会社 画像表示装置、方法及びプログラム
CN114175019A (zh) * 2019-07-19 2022-03-11 富士胶片株式会社 图像显示装置、方法及程序
JP7403273B2 (ja) * 2019-10-16 2023-12-22 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法
CN111091117B (zh) * 2019-12-31 2021-01-29 北京城市网邻信息技术有限公司 用于二维全景图像的目标检测方法、装置、设备、介质
CN111325823B (zh) * 2020-02-05 2022-09-27 腾讯科技(深圳)有限公司 人脸纹理图像的获取方法、装置、设备及存储介质
JP7447238B2 (ja) 2020-02-28 2024-03-11 富士フイルム株式会社 画像表示装置、画像表示方法、及びプログラム
WO2021176877A1 (ja) * 2020-03-02 2021-09-10 富士フイルム株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN115176281A (zh) * 2020-03-03 2022-10-11 富士胶片株式会社 三维显示装置、方法及程序
CN115176284A (zh) * 2020-03-16 2022-10-11 富士胶片株式会社 图像处理装置、图像处理方法及图像处理程序
CN111429518B (zh) * 2020-03-24 2023-10-03 浙江大华技术股份有限公司 一种标注方法、装置、计算设备及存储介质
CN113222943B (zh) * 2021-05-18 2022-05-03 宁波智能装备研究院有限公司 一种基于混合网格变换模型的图像形变估计方法
CN114401362A (zh) * 2021-12-29 2022-04-26 影石创新科技股份有限公司 一种图像显示方法、装置和电子设备
WO2023188510A1 (ja) * 2022-03-29 2023-10-05 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246412B1 (en) * 1998-06-18 2001-06-12 Microsoft Corporation Interactive construction and refinement of 3D models from multiple panoramic images
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
GB9930850D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv 3D environment labelling
FR2804936B1 (fr) 2000-02-15 2002-06-07 Bertin Technologies Sa Engin volant telecommande, en particulier de surveillance ou d'inspection
EP1820159A1 (en) * 2004-11-12 2007-08-22 MOK3, Inc. Method for inter-scene transitions
US8072448B2 (en) 2008-01-15 2011-12-06 Google Inc. Three-dimensional annotations for street view data
JP2010049313A (ja) * 2008-08-19 2010-03-04 Sony Corp 画像処理装置、画像処理方法、プログラム
JP2011046355A (ja) * 2009-08-28 2011-03-10 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 飛行体
US20140340427A1 (en) * 2012-01-18 2014-11-20 Logos Technologies Llc Method, device, and system for computing a spherical projection image based on two-dimensional images
JP5940393B2 (ja) * 2012-07-02 2016-06-29 Kddi株式会社 点検補助装置及び方法
FR2998400B1 (fr) * 2012-11-21 2016-01-15 Thales Sa Procede de reconstruction 3d et de mosaiquage 3d panoramique d'une scene
KR102003383B1 (ko) * 2013-03-14 2019-07-24 삼성전자주식회사 전자 장치에서 이미지를 촬영하는 위한 장치 및 방법
NL2010463C2 (nl) * 2013-03-15 2014-09-16 Cyclomedia Technology B V Werkwijze voor het genereren van een panoramabeeld.
JP2015001756A (ja) 2013-06-13 2015-01-05 株式会社日立製作所 状態変化管理システム、状態変化管理サーバ及び状態変化管理端末
JP6470567B2 (ja) * 2014-02-03 2019-02-13 株式会社プロスパークリエイティブ 画像検査装置及び画像検査プログラム
WO2015127535A1 (en) * 2014-02-26 2015-09-03 Searidge Technologies Inc. Image stitching and automatic-color correction
JP6344050B2 (ja) 2014-05-16 2018-06-20 株式会社リコー 画像処理システム、画像処理装置、プログラム
US10659750B2 (en) * 2014-07-23 2020-05-19 Apple Inc. Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
KR102281180B1 (ko) * 2014-11-21 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
US20180075652A1 (en) * 2016-09-13 2018-03-15 Next Aeon Inc. Server and method for producing virtual reality image about object

Also Published As

Publication number Publication date
EP3427232A4 (en) 2019-02-27
CA3016539C (en) 2023-04-04
US10818099B2 (en) 2020-10-27
CA3016539A1 (en) 2017-09-14
EP3427232B1 (en) 2022-09-07
EP3427232A1 (en) 2019-01-16
US20190026955A1 (en) 2019-01-24
CN108780586B (zh) 2023-05-05
JP2017168077A (ja) 2017-09-21
CN108780586A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
JP6835536B2 (ja) 画像処理方法、表示装置および点検システム
US20210166495A1 (en) Capturing and aligning three-dimensional scenes
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
JP5388932B2 (ja) 情報処理装置およびその制御方法
US10008028B2 (en) 3D scanning apparatus including scanning sensor detachable from screen
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP4262014B2 (ja) 画像撮影装置および画像処理方法
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
US7046838B1 (en) Three-dimensional data input method and apparatus
JP5593177B2 (ja) 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
JP7073850B2 (ja) 入力装置および入力装置の入力方法
JP4306006B2 (ja) 3次元データ入力方法及び装置
JP2009278456A (ja) 映像表示装置
WO2020003548A1 (ja) 画像表示システムおよび方法
WO2017155005A1 (en) Image processing method, display device, and inspection system
JP2010112731A (ja) ロボットの座標の結合方法
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6230923B2 (ja) 水中移動体の位置検知装置及び位置検知方法
JP4112925B2 (ja) 画像入力装置、画像入力方法、及びコンピュータが実行するためのプログラム
JP2019101753A (ja) 物体形状測定装置及びその制御方法、並びにプログラム
WO2023248353A1 (ja) ワークの位置データを取得する装置、制御装置、ロボットシステム、方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210204

R150 Certificate of patent or registration of utility model

Ref document number: 6835536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150