JP6725675B2 - 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置 - Google Patents

自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置 Download PDF

Info

Publication number
JP6725675B2
JP6725675B2 JP2018543861A JP2018543861A JP6725675B2 JP 6725675 B2 JP6725675 B2 JP 6725675B2 JP 2018543861 A JP2018543861 A JP 2018543861A JP 2018543861 A JP2018543861 A JP 2018543861A JP 6725675 B2 JP6725675 B2 JP 6725675B2
Authority
JP
Japan
Prior art keywords
image
coordinate
self
coordinates
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018543861A
Other languages
English (en)
Other versions
JPWO2018066435A1 (ja
Inventor
修平 堀田
修平 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2018066435A1 publication Critical patent/JPWO2018066435A1/ja
Application granted granted Critical
Publication of JP6725675B2 publication Critical patent/JP6725675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Description

本発明は、自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置に関し、特に撮影された画像を利用して自己の位置を推定する自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置に関する。
従来より、移動体において撮影された画像を利用して、移動体の位置(自己位置)を推定する技術が提案されている。
例えば特許文献1では、複数のランドマークの3次元座標に基づいてランドマーク地図を生成しておき、ロボットのステレオカメラでランドマークを含む画像を撮影し、その撮影画像とランドマーク地図とを比較することによりロボットの自己位置を推定する技術が記載されている。
また例えば特許文献2では、ロボットが初期位置に取得した全方位画像から、ロボットが初期位置から移動した場合を想定して合成した全方位の予測画像を作成し、この予測画像とロボットが実際に移動して新たに取得した全方位の画像とを照合して、ロボットの自己位置を検出する技術が記載されている。なお、ロボットには視野角が120°以上の超広角レンズが装着されている。
特開2013−25401号公報 特開2006−220521号公報
しかしながら、特許文献1に記載された技術では予めランドマーク地図を作成する必要があり、更にロボットがランドマークを含む画像を撮影しなければならない。したがって、特許文献1に記載された技術では、ランドマークを常に追跡する必要があり、ランドマークを見失ってしまうと自己位置の推定ができなくなってしまう。更に特許文献1に記載された技術では、ランドマーク地図を作成するための撮影が必要であり、ロボットが行う作業の目的(例えば構造物の検査)とは異なる撮影が必要になる場合がある。
また、特許文献2に記載された技術では、ロボットは初期位置において全方位画像を撮影しなければならず、そしてロボットには超広角レンズが装着される必要があり、ロボットが行う作業目的に使用する以外の撮影および装備が必要になる。
本発明はこのような事情に鑑みてなされたもので、その目的は、ロボットが行う作業目的以外の撮影および移動が抑制され且つランドマークは必要とせず、またロボットが行う作業目的以外の用途のための特殊な撮影装備を必要としない自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置を提供することである。
上記目的を達成するために、本発明の一の態様である自己位置推定装置は、構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定装置であって、カメラ付き移動式ロボットにより第1の位置において構造物を分割撮影して得た第1の構造物画像と、カメラ付き移動式ロボットが第1の位置から移動して第2の位置において構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得部と、第1の構造物画像と第2の構造物画像とを含む複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成部と、パノラマ合成画像における第1の位置に対応する第1の画像座標をパノラマ合成画像の座標系の原点として、第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得部と、第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出部と、を備える。
本態様によれば、カメラ付き移動式ロボットの作業目的である構造物の検査において、カメラ付き移動式ロボットにより撮影された第1の構造物画像、第2の構造物画像、および第1の構造物画像と第2の構造物画像とを含むパノラマ画像により、自己位置が推定される。これにより本態様は、カメラ付き移動式ロボットの作業目的である構造物の検査以外の撮影および移動が抑制され且つランドマークが必要とされず、構造物の検査目的以外のための撮影装備を必要とせずに、自己位置推定を行うことができる。
好ましくは、自己位置推定装置は、カメラ付き移動式ロボットをパノラマ合成画像における構造物画像が撮影できる任意の位置である第3の位置に移動させ、第3の位置で構造物を分割撮影した第3の構造物画像を取得する第2の構造物画像取得部と、第3の構造物画像とパノラマ合成画像とを照合することにより、第1の画像座標をパノラマ合成画像の座標系の原点として、第3の構造物画像の特定位置の座標である第3の画像座標を取得する第2の画像座標取得部と、第3の画像座標を画像座標系から現実座標系への変換係数により変換して、相対的な自己位置として、第3の位置の相対的な位置座標である相対位置座標を算出する第2の相対位置座標算出部と、を更に備える。
本態様によれば、分割撮影された複数の構造物画像から構成されるパノラマ合成画像と、パノラマ合成画像に含まれる構造物画像である第3の構造物画像とから、カメラ付き移動式ロボットの自己位置が推定される。これにより本態様は、パノラマ合成画像が生成された後に、パノラマ合成画像の範囲における任意の位置にカメラ付き移動式ロボットが移動した場合に、自己位置の推定を行うことができる。
好ましくは、自己位置推定装置は、第1の位置から構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報、および、第1の位置から絶対位置座標の原点までのY軸方向の距離情報により、第1の位置の絶対的な位置座標である第1の絶対位置座標を取得する初期絶対位置座標取得部と、相対位置座標および第1の絶対位置座標に基づいて、絶対的な自己位置として、第2の位置の絶対的な位置座標である第2の絶対位置座標を算出する第1の絶対位置座標算出部と、を更に備える。
本態様によれば、初期絶対位置座標取得部により、第1の位置から構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報および第1の位置から絶対位置座標の原点までのY軸方向の距離情報から、第1の位置の絶対的な位置座標である第1の絶対位置座標が取得される。また第1の絶対位置座標算出部により、相対位置座標および第1の絶対位置座標から絶対的な自己位置としての第2の絶対位置座標が算出される。これにより本態様は、カメラ付き移動式ロボットの絶対的な自己位置を算出することができる。
好ましくは、自己位置推定装置は、第1の位置から構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報、および、第1の位置から絶対位置座標の原点までのY軸方向の距離情報により、第1の位置の絶対的な位置座標である第1の絶対位置座標を取得する初期絶対位置座標取得部と、相対位置座標および第1の絶対位置座標に基づいて、絶対的な自己位置として、第3の位置の絶対的な位置座標である第3の絶対位置座標を算出する第2の絶対位置座標算出部と、を更に備える。
本態様によれば、初期絶対位置座標取得部により、第1の位置から構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報および第1の位置から絶対位置座標の原点までのY軸方向の距離情報から、第1の位置の絶対的な位置座標である第1の絶対位置座標が取得される。また第2の絶対位置座標算出部により、相対位置座標および第1の絶対位置座標から絶対的な自己位置としての第3の絶対位置座標が算出される。これにより本態様は、カメラ付き移動式ロボットの絶対的な自己位置を算出することができる。
好ましくは、初期絶対位置座標取得部は、カメラ付き移動式ロボットが有する距離測定装置により、第1の位置からX軸までの距離、第1の位置からY軸までの距離、および構造物までの距離を取得し、第1の絶対位置座標を取得する。
本態様によれば、カメラ付き移動式ロボットが有する距離測定装置により、第1の位置からX軸までの距離、第1の位置からY軸までの距離、および構造物までの距離が取得される。これにより本態様は、カメラ付き移動式ロボットに装備されている距離測定装置により、正確な第1の絶対位置座標を取得する。
好ましくは、初期絶対位置座標取得部は、カメラ付き移動式ロボットが撮影した画像から、第1の位置からX軸までの距離、および、第1の位置からY軸までの距離を取得し、カメラ付き移動式ロボットが有する距離測定装置により、第1の位置から構造物までの距離を取得して、第1の絶対位置座標を取得する。
本態様によれば、カメラ付き移動式ロボットが撮影した画像から、第1の位置からX軸までの距離、第1の位置からY軸までの距離、および構造物までの距離が取得される。これにより本態様は、カメラ付き移動式ロボットが撮影した画像から、正確な第1の絶対位置座標を取得することができる。
好ましくは、変換係数は、カメラ付き移動式ロボットのカメラから構造物までの距離、カメラが有する焦点距離、カメラの撮像素子のサイズ、およびカメラで撮影される画像の画素数から算出される。
本態様によれば、変換係数は、カメラ付き移動式ロボットのカメラから構造物までの距離、カメラが有する焦点距離、カメラの撮像素子のサイズ、およびカメラで撮影される画像の画素数から算出されるので、画像座標系から現実座標系への変換がより正確に行われる。
好ましくは、自己位置推定装置は、カメラ付き移動式ロボットが撮影したステレオ画像により、構造物の平面を算出する平面算出部と、算出された平面に基づいて、第2の画像座標を補正する画像座標補正部と、を更に備える。
本態様によれば、平面算出部により、カメラ付き移動式ロボットが撮影したステレオ画像に基づいて構造物の平面が算出され、算出された平面に基づいて、画像座標補正部により第2の画像座標が補正される。これにより、本態様は、構造物に対して正対しないで撮影された構造物画像を取得した場合であっても正確な自己位置の推定を行うことができる。
好ましくは、自己位置推定装置は、カメラ付き移動式ロボットが撮影したステレオ画像により、構造物の平面を算出する平面算出部と、算出された平面に基づいて、第3の画像座標を補正する画像座標補正部と、を更に備える。
本態様によれば、平面算出部により、カメラ付き移動式ロボットが撮影したステレオ画像に基づいて構造物の平面が算出され、算出された平面に基づいて、画像座標補正部により第2の画像座標が補正される。これにより、本態様は、構造物に対して正対しないで撮影された構造物画像を取得した場合であっても正確な自己位置の推定を行うことができる。
好ましくは、自己位置推定装置は、パノラマ合成画像における重畳領域において、一方の画像から抽出した画像を使用して他方の画像においてテンプレートマッチングを行うことにより、重畳領域における合成精度を評価し、評価に基づいて、第1の画像座標取得部に第2の画像座標を取得させるか否かの判定を行う合成精度評価部を更に備える。
本態様によれば、合成精度評価部により、パノラマ合成画像の重畳領域における合成精度の評価が行われるので、精度良く合成されたパノラマ合成画像によりカメラ付き移動式ロボットの自己位置の推定が行われ、正確な自己位置の推定が行われる。
好ましくは、自己位置推定装置は、第1の構造物画像取得部で取得された複数の構造物画像に対して、空間周波数解析を行い空間周波数解析の結果に基づいて、第1の構造物画像取得部に構造物画像の取得を再度行わせるか否かの判定を行う画像ボケ判定部を更に備える。
本態様によれば、画像ボケ判定部により、構造物画像に対して、空間周波数解析を行い空間周波数解析の結果に基づいて、第1の構造物画像取得部に構造物画像の取得を再度行わせるか否かの判定が行われる。これにより本態様は、空間周波数解析の結果が良好な構造物画像を使用して正確な自己位置の推定が行われる。
本発明の他の態様である画像処理装置は、上述の自己位置推定装置を有する。
本発明の他の態様である自己位置推定方法は、構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定方法であって、カメラ付き移動式ロボットにより第1の位置において構造物を分割撮影して得た第1の構造物画像と、カメラ付き移動式ロボットが第1の位置から移動して第2の位置において構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得ステップと、第1の構造物画像と第2の構造物画像とを含む複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成ステップと、パノラマ合成画像における第1の位置に対応する第1の画像座標をパノラマ合成画像の座標系の原点として、第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得ステップと、第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出ステップと、を含む。
本発明の他の態様であるプログラムは、構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定方法をコンピュータに実行させるプログラムであって、カメラ付き移動式ロボットにより第1の位置において構造物を分割撮影して得た第1の構造物画像と、カメラ付き移動式ロボットが第1の位置から移動して第2の位置において構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得ステップと、第1の構造物画像と第2の構造物画像とを含む複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成ステップと、パノラマ合成画像における第1の位置に対応する第1の画像座標をパノラマ合成画像の座標系の原点として、第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得ステップと、第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出ステップと、をコンピュータに実行させる。
本発明によれば、カメラ付き移動式ロボットの作業目的である構造物の検査において、カメラ付き移動式ロボットにより撮影された第1の構造物画像、第2の構造物画像、および第1の構造物画像と第2の構造物画像とを含むパノラマ画像により、自己位置が推定されるので、カメラ付き移動式ロボットの作業目的である構造物の検査以外の撮影および移動が抑制され且つランドマークが必要とされず、構造物の検査目的以外のための撮影装備を必要とせずに、自己位置推定を行うことができる。
構造物の一例である橋梁の構造を示す斜視図である。 ロボット装置の外観を示す斜視図である。 ロボット装置の要部断面図である。 二眼カメラおよびパンチルト機構の外観斜視図である。 点検システムの機能構成例を示すブロック図である。 自己位置推定装置の機能構成例を示すブロック図である。 分割撮影して得た床版画像を概念的に示す図である。 パノラマ合成画像を示す図である。 変換係数の算出に関して説明する図である。 自己位置推定装置の動作フローを示す図である。 自己位置推定装置の機能構成例を示すブロック図である。 第1の絶対位置座標の取得の例を示す図である。 第1の絶対位置座標の取得の例を示す図である。 自己位置推定装置の機能構成例を示すブロック図である。 第3の絶対位置座標の取得に関して説明する図である。 自己位置推定装置の機能構成例を示すブロック図である。 平面推定を説明する概念図である。 撮影アングルに応じた位置ずれ算出に関して説明する図である。 撮影アングルに応じた位置ずれ算出に関して説明する図である。 自己位置推定装置の機能構成例を示すブロック図である。
以下、添付図面にしたがって本発明に係る自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置の好ましい実施の形態について説明する。
図1は、検査対象物である構造物の一例である橋梁1の構造を示す斜視図であり、橋梁1を下から見た斜視図である。なお、本発明が適用される構造物は、橋梁に限定されるものではない。例えば、トンネル、ボックスカルバート、ダム、道路、水路、防波堤、建築物、タンク、船舶、堤防、護岸、法面、下水道、共同溝、駐車場、倉庫、および水槽において、本発明が適用される。また、橋梁1においても、床版、梁、橋脚、および橋台など、様々な箇所の構造物画像に本発明が適用される。
図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有し、これらがボルト、リベットまたは溶接により連結されて構成されている。また、主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。
主桁2は、橋台または橋脚の間に渡され、床版6上の車輌等の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4および横構5は、それぞれ風および地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。なお、格間とは床版6が対向する2つの主桁2および対向する2つの横桁3または対傾構4により区切られた空間のことであり、橋梁1の検査が行われるときには格間単位により検査が実施される場合がある。
図2は、撮像装置200の一実施形態である二眼カメラ202を含むロボット装置100の外観を示す斜視図であり、橋梁1の主桁2間に設置されている状態に関して示している。また、図3は、図2に示したロボット装置100の要部断面図である。なお、ロボット装置100は、カメラ付き移動式ロボットであり、橋梁1の検査作業を目的とするロボットである。
図2および図3に示すようにロボット装置100は、撮像装置200を備え、撮像装置200の3次元空間内の位置(撮影位置)を制御するとともに、撮像装置200による撮影方向を制御して、橋梁1の点検時に複数の部材から構成された橋梁1の任意の点検部材等を撮影するものである。
ロボット装置100は、後に詳しく説明するが、主フレーム102と、垂直伸延アーム104と、垂直伸延アーム104の駆動部および各種の制御部等が配設された筐体106と、筐体106を主フレーム102の長手方向(主桁2の長手方向と直交する方向)(X方向)に移動させるX方向駆動部108(図5)と、ロボット装置100全体を主桁2の長手方向(Y方向)に移動させるY方向駆動部110(図5)と、垂直伸延アーム104を垂直方向(Z方向)に伸縮させるZ方向駆動部112(図5)とを備えている。
X方向駆動部108は、主フレーム102の長手方向(X方向)に配設されたボールネジ108Aと、筐体106に配設されたボールナット108Bと、ボールネジ108Aを回転させるモータ108Cとから構成され、モータ108Cによりボールネジ108Aを正転または逆転させることにより、筐体106をX方向に移動させる。
Y方向駆動部110は、主フレーム102の両端にそれぞれ配設されたタイヤ110A、110Bと、タイヤ110A、110B内に配設されたモータ(図示せず)とから構成され、タイヤ110A、110Bをモータ駆動することによりロボット装置100全体をY方向に移動させる。
なお、ロボット装置100は、主フレーム102の両端のタイヤ110A、110Bが、2箇所の主桁2の下フランジ上に載置され、かつ主桁2を挟む態様で設置される。これにより、ロボット装置100は、主桁2の下フランジに懸垂して、主桁2に沿って移動(自走)することができる。また、主フレーム102は、図示しないが、主桁2の間隔に合わせて長さが調整可能に構成されている。
垂直伸延アーム104は、ロボット装置100の筐体106に配設されており、筐体106とともにX方向およびY方向に移動する。また、垂直伸延アーム104は、筐体106内に設けられたZ方向駆動部112(図5)によりZ方向に伸縮する。
図4は二眼カメラおよびパンチルト機構120の外観斜視図である。図4に示すように垂直伸延アーム104の先端には、カメラ設置部104Aが設けられており、カメラ設置部104Aには、パンチルト機構120によりパン方向およびチルト方向に回転可能な二眼カメラ202が設置されている。
二眼カメラ202は、視差の異なる2枚の視差画像(立体画像)を撮影する第1の撮像部202Aと第2の撮像部202Bとを有し、二眼カメラ202による撮影範囲に対応する構造物(橋梁1)の空間情報であって、二眼カメラ202を基準にしたローカル座標系(カメラ座標系)における橋梁1の空間情報を取得し、また、撮影される2つの画像のうちの少なくとも一方の画像を、点検調書に添付する「点検画像」として取得する。
また、二眼カメラ202は、パンチルト駆動部206(図5)から駆動力が加えられるパンチルト機構120により垂直伸延アーム104と同軸のパン軸Pを中心に回転し、あるいは水平方向のチルト軸Tを中心に回転する。これにより、二眼カメラ202は任意の姿勢にて撮影(任意の撮影方向の撮影)ができる。
本例の二眼カメラ202の第1の撮像部202Aの光軸Lと、第2の撮像部202Bの光軸Lとはそれぞれ平行である。また、パン軸Pは、チルト軸Tと直交している。更に、二眼カメラ202の基線長(即ち、第1の撮像部202Aと第2の撮像部202Bとの設置間隔)は既知である。
また、二眼カメラ202を基準にしたカメラ座標系は例えば、パン軸Pとチルト軸Tとの交点を原点Orとし、チルト軸Tの方向をx軸方向、パン軸Pの方向をz軸方向、x軸およびy軸にそれぞれ直交する方向をy軸方向とする。
二眼カメラ202の位置(カメラ座標系の原点Orの位置)であって、グローバル座標系(橋梁座標系)における位置(以下、「撮影位置」という)は、全地球測位システム(GPS:Global Positioning System)(以下、「GPS装置」という)により検出し、または橋梁座標系の原点に対するロボット装置100のX方向およびY方向移動量、垂直伸延アーム104のZ方向の移動量により検出することができる。また、二眼カメラ202による撮影方向は、パンチルト機構120のパン角度α、チルト角度βにより検出し、または二眼カメラ202に搭載した方位センサ(図示せず)により検出することができる。
図5は、点検システム10の機能構成例を示すブロック図である。
図5に示すように点検システム10は、ロボット装置100側のロボット制御部130、X方向駆動部108、Y方向駆動部110およびZ方向駆動部112と、撮像装置200側の二眼カメラ202、撮影制御部204、パンチルト制御部210、およびパンチルト駆動部206と、ロボット側通信部230と、端末装置300とから構成されている。
ロボット側通信部230は、端末側通信部310との間で双方向の無線通信を行い、端末側通信部310から送信されるロボット装置100の移動を制御する移動指令、パンチルト機構120を制御するパンチルト指令、二眼カメラ202を制御する撮影指令等の各種の指令を受信し、受信した指令をそれぞれ対応する制御部に出力する。
ロボット制御部130は、ロボット側通信部230から入力する移動指令に基づいてX方向駆動部108、Y方向駆動部110、およびZ方向駆動部112を制御し、ロボット装置100のX方向およびY方向に移動させるとともに、垂直伸延アーム104をZ方向に伸縮させる(図2参照)。
パンチルト制御部210は、ロボット側通信部230から入力するパンチルト指令に基づいてパンチルト駆動部206を介してパンチルト機構120をパン方向およびチルト方向に動作させ、二眼カメラ202を所望の方向にパンチルトさせる(図4参照)。
撮影制御部204は、ロボット側通信部230から入力する撮影指令に基づいて二眼カメラ202の第1の撮像部202Aおよび第2の撮像部202Bにライブビュー画像、または点検画像の撮影を行わせる。
橋梁1の点検時に二眼カメラ202の第1の撮像部202Aおよび第2の撮像部202Bにより撮影された視差の異なる第1の画像Iおよび第2の画像Iを示す画像データと、二眼カメラ202の撮影位置(橋梁座標系におけるカメラ座標系の原点Orの位置)および撮影方向(本例では、パン角度αおよびチルト角度β)を示す情報は、それぞれロボット側通信部230を介して端末側通信部310に送信される。
端末装置300は、点検システム10を操作する点検者により操作されるもので、主として端末側通信部310と、端末制御部320と、操作部として機能する入力部330と、表示部340と、記録部350とから構成されており、例えば、コンピュータまたはタブレット端末を適用することができる。また端末装置300は、コンピュータまたはタブレット端末に通常備わる様々な機能を有し、例えば画像処理装置としても機能する。
端末側通信部310は、ロボット側通信部230との間で双方向の無線通信を行い、ロボット側通信部230が入力する各種の情報(第1の撮像部202Aおよび第2の撮像部202Bにより撮影されたライブビュー画像、第1の画像Iおよび第2の画像Iを示す画像データ、二眼カメラ202の撮影位置および撮影方向を示す情報)を受信するとともに、端末制御部320を介して入力する入力部330での操作に応じた各種の指令をロボット側通信部230に送信する。
端末制御部320は、端末側通信部310を介して受信したライブビュー画像を示す画像データを表示部340に出力し、表示部340の画面にライブビュー画像を表示させる。入力部330は、ロボット操作入力部、パンチルト操作入力部および撮影操作入力部を有し、ロボット操作入力部は、ロボット装置100(二眼カメラ202)をX方向、Y方向およびZ方向に移動させる移動指令を出力し、パンチルト操作入力部は、パンチルト機構120(二眼カメラ202)をパン方向およびチルト方向に回転させるパンチルト指令を出力し、撮影操作入力部は、二眼カメラ202による点検画像の撮影を指示する撮影指令を出力する。点検者は、表示部340に表示されるライブビュー画像を見ながら入力部330を手動操作し、入力部330は、点検者による操作に応じて二眼カメラ202のX方向、Y方向およびZ方向の移動指令、パンチルト指令、および撮影指令等の各種の指令を端末制御部320に出力する。端末制御部320は、入力部330から入力する各種の指令を端末側通信部310を介してロボット側通信部230に送信する。
また端末制御部320は、自己位置推定装置400を有する。自己位置推定装置400に関して以下で詳述する。
<第1の実施形態>
次に本発明の第1の実施形態である自己位置推定装置400に関して説明する。
図6は、本実施形態の自己位置推定装置400の機能構成例を示すブロック図である。自己位置推定装置400は、主に第1の構造物画像取得部401、パノラマ合成部403、第1の画像座標取得部405、第1の相対位置座標算出部407、および構造物距離取得部408を有する。なお、以下の説明では、構造物画像の一例として床版画像が取得された例について説明する。よって、第1の構造物画像は第1の床版画像であり、第2の構造物画像は第2の床版画像であり、第3の構造物画像は第3の床版画像である。
第1の構造物画像取得部401は、検査対象である橋梁1の床版6を二眼カメラ202で分割撮影して得られた床版画像を取得する。具体的には第1の構造物画像取得部401は、カメラ付き移動式ロボットにより基準位置(第1の位置)において床版6を分割撮影して得た第1の床版画像と、カメラ付き移動式ロボットが基準位置から移動して自己位置推定位置(第2の位置)において床版6を分割撮影して得た第2の床版画像とを少なくとも含む複数の床版画像を取得する。ここで基準位置とは、自己位置推定を行う場合の基準となる位置であり例えばロボット装置100の移動の初期位置である。また、自己位置推定位置とは、ロボット装置100の自己位置の推定を行う位置であり、本発明ではこの自己位置推定位置の座標が算出されることにより、ロボット装置100の自己位置の推定が行われる。
パノラマ合成部403は、第1の床版画像と第2の床版画像とを含む複数の床版画像をパノラマ合成したパノラマ合成画像を生成する。パノラマ合成部403は、公知の技術によって第1の構造物画像取得部401が取得した床版画像をパノラマ合成することができる。なおパノラマ合成部403は、パノラマ合成する際に必要になる各床版画像の順序や位置等に関する情報はロボット装置100から取得する。
第1の画像座標取得部405は、パノラマ合成部403で生成されたパノラマ合成画像における基準位置に対応する第1の画像座標をパノラマ合成画像の座標系の原点として、自己位置推定位置に対応する第2の床版画像の特定位置の座標である第2の画像座標を取得する。基準位置に対応する第1の画像座標とは、ロボット装置100の基準位置に関連する画像上の座標であり、例えば第1の床版画像の中心点(画像上の二眼カメラ202の光軸)または第1の床版画像の矩形の4つの頂点のうちのいずれか一つの座標である。また、第2の床版画像の特定位置の座標とは、ロボット装置100の自己位置推定位置に関連する画像上の座標であり、例えば第2の床版画像の中心点または第2の床版画像の矩形の4つの頂点のうちのいずれか一つの座標である。
第1の相対位置座標算出部407は、第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する。ここで画像座標系とはパノラマ画像における座標のことであり、現実座標系(橋梁座標系)とはロボット装置100が位置する現実の位置を示す座標のことである。
構造物距離取得部408は、撮像装置200と床版6との距離を取得する。すなわち構造物距離取得部408は、撮像装置200の床版6の撮影距離を例えば撮像装置200で取得されるステレオ画像により取得する。ここで距離を測定するポイントは、ステレオ画像(左画像または右画像)上で手動決定、または画像認識で自動決定される。なお、撮影画像において同一平面が撮影されている場合には、距離を測定するポイントの指定は不要となる。また、構造物距離取得部408の距離の取得手段はステレオ画像によるものには限定されない。例えば構造物距離取得部408は、ユーザ入力により距離を取得してもよいし、ロボット装置100に備えられる距離センサにより距離を取得してもよい。
次に図7および図8に沿って、第1の画像座標取得部405で行われる画像座標の取得に関して説明する。
図7は、ロボット装置100が移動、停止、および撮影を順次繰り返して、床版6を分割撮影して取得した床版画像を概念的に示す図である。図7に示す場合では、ロボット装置100は初期位置Sから自己位置推定位置Qまで図に示された経路に沿って移動し、床版画像AからFがロボット装置100により撮影されている。なお、ロボット装置100は上述したように第1の撮像部202Aと第2の撮像部202Bを有しているが、いずれか一つの撮像部または二つの撮像部により、床版画像は撮影される。また、ロボット装置100は、複数の床版画像によりパノラマ合成画像を生成するために、合成のりしろが確保できるように各床版画像を撮影してもよい。例えば、パノラマ合成画像を生成する場合には、床版画像どうしの合成のりしろは片側において床版画像の30%である。
ここで、初期位置Sで撮影された床版画像Aは第1の床版画像であり、自己位置推定位置Qで撮影された床版画像Fは第2の床版画像である。またパノラマ合成部403は、枠Wで囲まれた床版画像AからFをパノラマ合成してパノラマ合成画像を取得する。
図8は、パノラマ合成部403が合成したパノラマ合成画像を示す図である。パノラマ合成画像Pは、パノラマ合成部403により、図7で示された床版画像AからFに基づいて生成されている。初期位置Sの座標は、原点Oを床版画像Aの4つの頂点のうちのひとつ(図に向かって左上の頂点)とすると(xi,yi)と表すことができる。また自己位置推定位置Qの座標(xn,yn)は、初期位置Sから自己位置推定位置Qまでの移動量がXおよびYなので、(xi+X,yi+Y)と表される。なお、図8に示した場合では、第1の画像座標は原点Oである床版画像Aの一つの頂点(図に向かって左上の頂点)である。
ここで、第1の画像座標取得部405は、移動量をパノラマ合成画像Pにおいて初期位置Sと自己位置推定位置Qとの距離で求めることができる。例えば、第1の画像座標取得部405は、パノラマ合成画像Pにおける画素数をカウントすることにより自己位置推定位置Qの座標を求めることができる。
次に相対位置座標の取得に関して説明する。
相対位置座標は第1の相対位置座標算出部407により算出される。第1の相対位置座標算出部407は、第1の画像座標取得部405が取得した自己位置推定位置Qの画像座標に対して変換係数を用いることにより、画像座標系から現実座標系へ変換をして、自己位置推定位置(現在位置)Qの相対位置座標を取得する。
変換係数は以下で説明するように算出することが可能である。図9は、変換係数の算出に関して説明する図である。
変換係数は、ロボット装置100の撮像装置200から床版6までの距離、撮像装置200の焦点距離、撮像装置200の撮像素子250のサイズ、および撮像装置200で撮影される画像の画素数から算出される。
撮像装置200から床版6までの距離、第1の撮像部202Aのレンズの焦点距離をF、撮像装置200の撮像素子250のサイズをSx×Syとし、撮影画像画素数(床版画像)をPx×Pyとする。この場合に、床版画像に対応した床版6の撮影範囲は以下のように算出することができる。なお、撮像装置200から床版6までの距離Dは、構造物距離取得部408により取得される。
X軸における床版の撮影範囲(Ax)=D×Sx/F
Y軸における床版の撮影範囲(Ay)=D×Sy/F
そして画像座標系から現実座標系への変換係数(Tx,Ty)は、以下のように算出される。
Tx=Ax/Px
Ty=Ay/Py
以下に具体例を使用して説明をする。
撮像装置200から床版6までの距離:D=2100mm、焦点距離:F=27mm、撮像素子250(イメージセンサ(APS(Advanced Photo System)−C)):Sx=23.6mm、Sy=15.6mm、撮影画像画素数:Px=4836ピクセル、Py=3264ピクセルとする。
上述の条件では、床版画像の撮影範囲は以下のようになる。
X軸の床版の撮影範囲(Ax)=1835.6mm
Y軸の床版の撮影範囲(Ay)=1213.3mm
そしてこの場合、変換係数(Tx,Ty)は、以下のように求められる。
Tx=0.375、Ty=0.372
次に、上述のように算出された変換係数を用いて、第1の相対位置座標算出部407により算出される相対位置座標に関して説明をする。
例えば、第1の画像座標取得部405により自己位置推定位置Qの画像座標(Xp,Yp)および移動量(Lpx,Lpy)が取得された場合に、現実座標系における相対位置座標(Xr,Xr)および現実移動量(Lrx,Lry)は以下のように算出される。
Xr=Xp×Tx、Yr=Yp×Ty
Lrx=Lpx×Tx、Lry=Lpy×Ty
ここで相対位置座標(Xr,Xr)は、自己位置推定位置Qに対応する現実座標系での位置を示し、現実移動量は初期位置Sから自己位置推定位置Qまでの現実座標系における移動量を示す。
自己位置推定装置400は、第1の相対位置座標算出部407により算出された相対位置座標を相対的な自己位置として推定する。
図10は自己位置推定装置400の動作フローを示す図である。
先ず、ロボット装置100の撮像装置200により床版画像が撮影される(ステップS10)。その後ロボット装置100は次の撮影位置に移動する(ステップS11)。そして、ロボット装置100が移動した後に、移動した位置(撮影位置)で床版6を撮影する(ステップS12)。その後、ロボット装置100のロボット制御部130は自己位置推定を行うか否かを判定する(ステップS13)。ロボット制御部130が自己位置推定を移動先の位置では行わないと判定した場合には、ロボット装置100は撮影計画に沿って次の移動地点に移動する。なお、ロボット装置100は、予め定められた移動経路および撮影位置から構成される撮影計画に沿って、移動および床版画像の撮影を行う。自己位置推定装置400による自己位置の推定は、例えば撮影計画に沿って、ロボット装置100が移動しているか否かの確認のために行われる。
一方、ロボット装置100のロボット制御部130が自己位置推定を行うと判定した場合には、自己位置推定装置400が作動する。
先ず、自己位置推定装置400の第1の構造物画像取得部401により撮像装置200で撮影された床版画像が取得される(第1の構造物画像取得ステップ:ステップS14)。その後、パノラマ合成部403は、第1の構造物画像取得部401により取得された複数の床版画像により、パノラマ合成画像を合成する(パノラマ合成ステップ:ステップS15)。その後第1の画像座標取得部405は、自己位置推定が行われる自己位置推定位置Q(現在位置)の画像座標を取得する(第1の画像座標取得ステップ:ステップS16)。そして第1の相対位置座標算出部407は、相対的な自己位置である相対位置座標を算出する(第1の相対位置座標算出ステップ:ステップS17)。その後自己位置推定装置400は、相対位置座標を相対的な自己位置として推定する。
上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
<第2の実施形態>
次に本発明の第2の実施形態に関して説明する。
図11は、本実施形態の自己位置推定装置400の機能構成例を示すブロック図である。自己位置推定装置400は、主に第1の構造物画像取得部401、パノラマ合成部403、第1の画像座標取得部405、第1の相対位置座標算出部407、構造物距離取得部408、第1の絶対位置座標算出部419、および初期絶対位置座標取得部417を有する。なお、図6で既に説明を行った箇所は、同じ番号を付し説明は省略する。
初期絶対位置座標取得部417は、初期位置Sの絶対位置座標を取得する。ここで初期位置Sの絶対位置座標とは、主桁2と横桁3とで囲まれる格間、または主桁2と対傾構4とで囲まれる格間における座標系である。初期絶対位置座標取得部417は、第1の位置から橋梁1の主桁2までの距離情報、および、第1の位置から橋梁1の横桁3または対傾構4までの距離情報により、第1の位置の絶対的な位置座標である第1の絶対位置座標を取得する。この場合は、第1の位置は初期位置Sである。
第1の絶対位置座標算出部419は、相対位置座標および第1の絶対位置座標に基づいて、絶対的な自己位置として、自己位置推定位置Qの絶対的な位置座標である第2の絶対位置座標を算出する。第1の絶対位置座標算出部419は、例えば第1の相対位置座標算出部407で算出された相対位置座標に第1の絶対位置座標を加算することにより、第2の絶対位置座標を算出する。ここで第2の絶対位置座標とは、例えば原点Oを格間における主桁2と横桁3との交わる箇所、または主桁2と対傾構4との交わる箇所にして、格間において主桁をX軸、横桁(対傾構)をY軸とした場合の座標系に属する。
次に、初期絶対位置座標取得部417の初期絶対位置座標の取得に関して説明する。図12は、初期絶対位置座標取得部417の第1の絶対位置座標の取得の例を示す図である。
図12に示す場合では、ロボット装置100の二眼カメラ202が距離測定装置として使用され、初期位置Sから主桁2までの距離、初期位置Sから横桁3または対傾構4までの距離、および床版6までの距離が取得される。すなわち、ロボット装置100は、初期位置Sにおいて二眼カメラ202をパンおよび/またはチルト駆動させて、初期位置Sから主桁2までの距離、初期位置Sから横桁3または対傾構4までの距離、および床版6までの距離を取得し、第1の絶対位置座標を取得する。なお、図4に示したロボット装置100は二眼カメラ202を距離センサとして使用しているがこれに限定されるものではなく、ロボット装置100にレーザ距離センサ等を備えてもよい。また、二眼カメラ202から床版6までの距離は、構造物距離取得部408で取得される距離である。
図13は、初期絶対位置座標取得部417の第1の絶対位置座標の取得の例を示す図である。図13は、初期位置Sで撮影された床版画像Aが示されている。床版画像Aには主桁2および横桁3が写っており、また主桁2と横桁3との接続部分も写っている。初期絶対位置座標取得部417は、画像処理を行うことにより床版画像Aにおいて、主桁2と横桁3との接続部分を原点Oとし床版画像Aの画像の中心を初期位置Sとした場合の初期絶対位置座標を取得する。また、ロボット装置100から床版6までの距離は二眼カメラ202やロボット装置100に備えられるレーザ距離センサ等で計測される。
なお、以上で説明した初期絶対位置座標取得部417はロボット装置100の初期位置Sの絶対座標の取得に関して説明したが、初期絶対位置座標取得部417の上述で説明した手法は初期位置Sの絶対座標の取得に限定されない。すなわち、例えば初期絶対位置座標取得部417と同じ手法を用いて、任意の位置での絶対座標を取得し、その絶対座標を基準にして自己位置推定装置400に自己位置の推定を行わせてもよい。このように任意の位置の絶対座標を基準にして自己位置推定を行うことにより、自己位置推定装置400の累積誤差を補正することが可能となる。
また、上述した例は、橋梁1の主桁2をX軸とし、橋梁1の横桁3または対傾構4をY軸とし、主桁2と横桁3とが交わる箇所を絶対位置座標の原点Oにして、第1の絶対位置座標を算出する例である。本発明はこの例に限定されるものではない。例えば床版以外の構造物の場合には、構造物上の任意の点を絶対座標の原点Oとして、橋梁1の主桁2と横桁3との関係のように、絶対座標の原点Oで直交する目印となるような構造物の物体を応用することができる。また例えば、構造物上の任意の点を絶対座標の原点Oと定義し、併せてX軸およびY軸を定義して、第1の位置(初期位置)からX軸方向およびY軸方向までの距離を予め取得しておくことにより、第1の絶対位置座標(初期絶対位置座標)を取得することもできる。
<第3の実施形態>
次に本発明の第3の実施形態に関して説明する。
図14は、本実施形態の自己位置推定装置400の機能構成例を示すブロック図である。自己位置推定装置400は、第1の構造物画像取得部401、パノラマ合成部403、第1の画像座標取得部405、第1の相対位置座標算出部407、構造物距離取得部408、第1の絶対位置座標算出部419、初期絶対位置座標取得部417、記憶部415、第2の構造物画像取得部421、第2の画像座標取得部423、第2の相対位置座標算出部425、および第2の絶対位置座標算出部427を有する。なお、図6および図11で既に説明を行った箇所は、同じ番号を付し説明は省略する。
記憶部415は、パノラマ合成部403でパノラマ合成されたパノラマ合成画像を記憶する。上述で説明したようにパノラマ合成部403において生成されたパノラマ合成画像は、一度生成されると本実施形態で説明するようにマップとして使用することができる。したがって、記憶部415は、パノラマ合成部403で合成されたパノラマ合成画像を記憶し、必要に応じて読み出せるようにしておく。
第2の構造物画像取得部421は、ロボット装置100をパノラマ合成画像における床版画像が撮影できる任意の位置である自己位置推定位置Q(第3の位置)に移動させ、自己位置推定位置Qで床版6を分割撮影した床版画像(第3の床版画像)を取得する。すなわち、パノラマ合成画像が一度合成された後に、パノラマ合成画像を構成する床版画像が撮影された範囲内に再びロボット装置100が移動し、パノラマ合成画像に含まれる床版画像が撮影され、そして第2の構造物画像取得部421はその床版画像を取得する。例えばロボット装置100は、橋梁1を検査する場合に往路では床版6の分割撮影を行いパノラマ合成画像を生成し、復路では任意の箇所の床版画像を撮影しその撮影位置(自己位置推定位置Q)を推定する。
第2の画像座標取得部423は、第2の構造物画像取得部421に取得された床版画像とパノラマ合成画像とを照合することにより、第1の画像座標をパノラマ合成画像の座標系の原点Oとして、第3の床版画像の特定位置の座標である第3の画像座標を取得する。すなわち、第2の画像座標取得部423は、記憶部415から既に合成されているパノラマ合成画像を読み出し、その読み出したパノラマ合成画像と第2の構造物画像取得部421に取得された床版画像とを照合して、第3の画像座標を取得する。なお第2の画像座標取得部423が行う照合には公知の技術が適用される。
第2の相対位置座標算出部425は、第3の画像座標を画像座標系から現実座標系への変換係数により変換して、相対的な自己位置として、自己位置推定位置Qの相対的な位置座標である相対位置座標を算出する。ここで使用される変換係数は、既に説明を行ったように算出される。
第2の絶対位置座標算出部427は、相対位置座標および第1の絶対位置座標に基づいて、絶対的な自己位置として、第3の位置の絶対的な位置座標である第3の絶対位置座標を算出する。すなわち、第2の絶対位置座標算出部427は、上述した第1の絶対位置座標算出部419と同様に、初期絶対位置座標取得部417から第1の絶対位置座標を取得して第3の位置の絶対位置座標を算出する。
図15は、本実施形態の第2の絶対位置座標算出部427の第3の絶対位置座の取得に関して説明する図である。
図15には、パノラマ合成画像Pとパノラマ合成画像Pの範囲内の床版画像Zが示されている。床版画像Zの画像中心Qは自己位置推定位置Qに対応する点であり、床版画像Zは第3の床版画像である。第2の絶対位置座標算出部427は、記憶部415から取得されたパノラマ合成画像Pにおける床版画像Zの画像中心Qの絶対位置座標を取得する。なお、図15に示されたパノラマ合成画像Pは主桁2と横桁との接続部を原点Oとして設定されており、主桁2に沿ってX軸および横桁3に沿ってY軸が設定されている。パノラマ合成画像Pにおける画像中心Qの画像座標に基づいて、画像中心Qに対応するロボット装置100の絶対位置座標が算出される。
以上の説明では、1台のロボット装置100で橋梁1の検査を行う場合を説明したが、ロボット装置100を2台使用して検査を行う方法も考えらえれる。この場合、第1のロボット装置100が分割された床版画像によりパノラマ合成画像を作成し、追随する第2のロボット装置100が第1のロボット装置100が作成したパノラマ合成画像(マップ)を頼りに本実施形態の方法で自己位置を推定しつつ鋼部材を撮影してもよい。
<第4の実施形態>
次に本発明の第4の実施形態に関して説明する。
図16は、本実施形態の自己位置推定装置400の機能構成例を示すブロック図である。自己位置推定装置400は、主に第1の構造物画像取得部401、パノラマ合成部403、第1の画像座標取得部405、第1の相対位置座標算出部407、構造物距離取得部408、平面算出部429、および画像座標補正部431を有する。なお、図6で既に説明を行った箇所は、同じ番号を付し説明は省略する。
平面算出部429は、ロボット装置100が撮影したステレオ画像432により、床版6の平面を算出する。すなわち、ロボット装置100の二眼カメラ202により撮影されたステレオ画像432に基づいて、平面算出部429は床版6の平面方程式(法線ベクトル)が推定する。
画像座標補正部431は、平面算出部429で算出された平面に基づいて、第2の画像座標を補正する。すなわち画像座標補正部431は、平面算出部429で算出された床版6の平面に基づいて、第1の画像座標取得部405で取得される第2の画像座標に補正を行う。なお、図16では画像座標補正部431が第1の画像座標取得部405で取得された第2の画像座標を補正する場合について説明するが、画像座標補正部431は第2の画像座標取得部423で取得された第3の画像座標を補正してもよい。
次に、平面算出部429および画像座標補正部431で行われる撮影アングルに応じた推定位置の補正に関して図17から図19に沿って具体的に説明を行う。
図17は、平面算出部429が行う平面推定を説明する概念図である。図17中のx、y、zはカメラ座標系を表し、z軸は撮像装置200の光軸を示す。
平面算出部429は、撮像装置200で取得されたステレオ画像432において左画像と右画像との平行化を行い、左画像と右画像との視差を算出し、3次元座標を推定して、以下のような平面方程式を算出する。
平面方程式:ax+by+cz+d=0
図18および図19は撮影アングルに応じた位置ずれ算出に関して説明する図である。
図18は橋梁1を横から見た図であり、図19は橋梁1の水平面の床を上から見た図である。平面(床版6)の法線ベクトルを(a,b,c)、カメラ光軸ベクトルを(e,f,g)=(0,0,1)とすると、平面とカメラ光軸のなす角θは以下の式で求められる。
床版6までの距離Dとすると、位置ずれ量δは、δ=D×sinθで求められる。
次に、図19に示すように絶対座標(格間座標)X,Y方向への位置ずれ量δXおよびδYに分解する。ここで、橋梁座標のX軸とカメラ光軸のなす角をαとすると、以下のようにδXおよびδYに分解することができる。
tanα=b/a
δX=δ×cosα
δY=δ×sinα
画像座標補正部431は、取得した画像座標(撮影画像の中心がカメラ位置として推定した位置)(X,Y)に対して、位置ずれ量(δX,δY)を使用して補正する。
<第5の実施形態>
次に本発明の第5の実施形態に関して説明する。
図20は、本実施形態の自己位置推定装置400の機能構成例を示すブロック図である。自己位置推定装置400は、主に第1の構造物画像取得部401、パノラマ合成部403、第1の画像座標取得部405、第1の相対位置座標算出部407、構造物距離取得部408、合成精度評価部433、および画像ボケ判定部435を有する。なお、図6で既に説明を行った箇所は、同じ番号を付し説明は省略する。
合成精度評価部433は、パノラマ合成画像における重畳領域において、一方の画像から抽出した画像を使用して他方の画像においてテンプレートマッチングを行うことにより、重畳領域における合成精度を評価し、その評価に基づいて、第1の画像座標取得部405に第2の画像座標を取得させるか否かの判定を行う。すなわち合成精度評価部433は、パノラマ合成画像の重畳領域における合成精度を評価して、合成精度が良好である場合にはそのまま第1の画像座標取得部に画像座標の取得を開始させ、合成精度が不良である場合には画像ボケ判定部435に取得した床版画像のボケの判定を開始させる。以下に合成精度評価部433が行う合成精度評価の方法に関して説明する。
先ず合成精度評価部433は、画像i、jの重畳領域に含まれる画像iからある大きさのテンプレート画像を複数抽出する。次に合成精度評価部433は、画像iから抽出したテンプレート画像を用いて画像jの重畳領域にテンプレートマッチングを実行する。その後画像iからの抽出位置と画像j上でのテンプレートマッチング結果との画素ずれ量を算出する。そして合成精度評価部433は、精度評価値(複数テンプレートマッチングの結果の画素ずれ量の平均値・最大値・標準偏差など)を算出する。なお、合成精度評価部433が行う精度高または精度低の判定は、位置推定精度などにより予め決められた閾値で行われる。また閾値の決定には誤差累積も考慮に入れることが好ましい。
具体例としては、格間内で自己位置の推定誤差100mm以内(誤差累積含む)と設定した場合、格間長辺方向に5回の合成をする。この場合、合成1回あたりの許容最大誤差は100(mm)/5(回)/0.375(1画素あたりの距離(mm/pixel)=53.3pixelと算出することができる。実際に設計を行う場合には、やや余裕を持たせて、1回あたりの許容最大誤差は50画素としてもよい。
合成精度評価部433が行った合成精度評価の結果が不良であった場合に画像ボケ判定部435は、取得された床版画像のボケの判定が行われる。画像ボケ判定部435は、第1の構造物画像取得部401で取得された複数の床版画像に対して、空間周波数解析を行い空間周波数解析の結果に基づいて、第1の構造物画像取得部401に床版画像の取得を再度行わせるか否かの判定を行う。具体的には、画像ボケ判定部435は、第1の構造物画像取得部401が取得した床版画像に対して空間周波数解析(FFT)を行い高周波成分の有無を判定する。画像ボケ判定部435は、高周波成分が有る場合にはボケなし画像として判定し、高周波成分が無い場合にはボケ画像として判定する。なお、高周波成分の有無は閾値判定し、その閾値は過去の床版撮影画像を解析して予め決定することができる。画像ボケ判定部435の判定結果で床版画像がボケ画像であるとされた場合には、ロボット装置100は床版画像を再撮影する。この場合撮像装置200の撮影条件等が適宜調節される。一方、画像ボケ判定部435の判定結果で床版画像がボケ画像でないとされた場合には、パノラマ合成の際の各床版画像の合成のりしろが不足している可能性があるので、ロボット装置100を移動(後退または前進)させて再撮影が行われる。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 橋梁
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
10 点検システム
100 ロボット装置
102 主フレーム
104 垂直伸延アーム
104A カメラ設置部
106 筐体
108 X方向駆動部
108A ボールネジ
108B ボールナット
108C モータ
110 Y方向駆動部
110A タイヤ
110B タイヤ
112 Z方向駆動部
120 パンチルト機構
130 ロボット制御部
200 撮像装置
202 二眼カメラ
202A 第1の撮像部
202B 第2の撮像部
204 撮影制御部
206 パンチルト駆動部
210 パンチルト制御部
230 ロボット側通信部
250 撮像素子
300 端末装置
310 端末側通信部
320 端末制御部
330 入力部
340 表示部
350 記録部
400 自己位置推定装置
401 第1の構造物画像取得部
403 パノラマ合成部
405 第1の画像座標取得部
407 第1の相対位置座標算出部
408 構造物距離取得部
415 記憶部
417 初期絶対位置座標取得部
419 第1の絶対位置座標算出部
421 第2の構造物画像取得部
423 第2の画像座標取得部
425 第2の相対位置座標算出部
427 第2の絶対位置座標算出部
429 平面算出部
431 画像座標補正部
432 ステレオ画像
433 合成精度評価部
435 画像ボケ判定部
A〜F、Z 床版画像
P パノラマ合成画像
ステップS10〜ステップS17 自己位置推定工程

Claims (14)

  1. 構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定装置であって、
    前記カメラ付き移動式ロボットにより第1の位置において前記構造物を分割撮影して得た第1の構造物画像と、前記カメラ付き移動式ロボットが前記第1の位置から移動して第2の位置において前記構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得部と、
    前記第1の構造物画像と前記第2の構造物画像とを含む前記複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成部と、
    前記パノラマ合成画像における前記第1の位置に対応する第1の画像座標を前記パノラマ合成画像の座標系の原点として、前記第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得部と、
    前記第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出部と、
    を備える自己位置推定装置。
  2. 前記カメラ付き移動式ロボットを前記パノラマ合成画像における構造物画像が撮影できる任意の位置である第3の位置に移動させ、前記第3の位置で前記構造物を分割撮影した第3の構造物画像を取得する第2の構造物画像取得部と、
    前記第3の構造物画像と前記パノラマ合成画像とを照合することにより、前記第1の画像座標を前記パノラマ合成画像の座標系の原点として、前記第3の構造物画像の特定位置の座標である第3の画像座標を取得する第2の画像座標取得部と、
    前記第3の画像座標を画像座標系から現実座標系への前記変換係数により変換して、相対的な自己位置として、前記第3の位置の相対的な位置座標である相対位置座標を算出する第2の相対位置座標算出部と、
    を更に備える請求項1に記載の自己位置推定装置。
  3. 前記第1の位置から前記構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報、および、前記第1の位置から前記絶対位置座標の原点までのY軸方向の距離情報により、前記第1の位置の絶対的な位置座標である第1の絶対位置座標を取得する初期絶対位置座標取得部と、
    前記相対位置座標および前記第1の絶対位置座標に基づいて、絶対的な自己位置として、前記第2の位置の絶対的な位置座標である第2の絶対位置座標を算出する第1の絶対位置座標算出部と、
    を更に備える請求項1または2に記載の自己位置推定装置。
  4. 前記第1の位置から前記構造物上に設定された絶対位置座標の原点までのX軸方向の距離情報、および、前記第1の位置から前記絶対位置座標の原点までのY軸方向の距離情報により、前記第1の位置の絶対的な位置座標である第1の絶対位置座標を取得する初期絶対位置座標取得部と、
    前記相対位置座標および前記第1の絶対位置座標に基づいて、絶対的な自己位置として、前記第3の位置の絶対的な位置座標である第3の絶対位置座標を算出する第2の絶対位置座標算出部と、
    を更に備える請求項2に記載の自己位置推定装置。
  5. 前記初期絶対位置座標取得部は、前記カメラ付き移動式ロボットが有する距離測定装置により、前記第1の位置から前記X軸までの距離、前記第1の位置から前記Y軸までの距離、および前記構造物までの距離を取得し、前記第1の絶対位置座標を取得する請求項3または4に記載の自己位置推定装置。
  6. 前記初期絶対位置座標取得部は、前記カメラ付き移動式ロボットが撮影した画像から、前記第1の位置から前記X軸までの距離、および、前記第1の位置から前記Y軸までの距離を取得し、前記カメラ付き移動式ロボットが有する距離測定装置により、前記第1の位置から前記構造物までの距離を取得して、前記第1の絶対位置座標を取得する請求項3または4に記載の自己位置推定装置。
  7. 前記変換係数は、前記カメラ付き移動式ロボットのカメラから前記構造物までの距離、前記カメラが有する焦点距離、前記カメラの撮像素子のサイズ、および前記カメラで撮影される画像の画素数から算出される請求項1から6のいずれか1項に記載の自己位置推定装置。
  8. 前記カメラ付き移動式ロボットが撮影したステレオ画像により、前記構造物の平面を算出する平面算出部と、
    前記算出された前記平面に基づいて、前記第2の画像座標を補正する画像座標補正部と、
    を更に備える請求項1に記載の自己位置推定装置。
  9. 前記カメラ付き移動式ロボットが撮影したステレオ画像により、前記構造物の平面を算出する平面算出部と、
    前記算出された前記平面に基づいて、前記第3の画像座標を補正する画像座標補正部と、を更に備える請求項2に記載の自己位置推定装置。
  10. 前記パノラマ合成画像における重畳領域において、一方の画像から抽出した画像を使用して他方の画像においてテンプレートマッチングを行うことにより、前記重畳領域における合成精度を評価し、前記評価に基づいて、前記第1の画像座標取得部に前記第2の画像座標を取得させるか否かの判定を行う合成精度評価部を更に備える請求項1から9のいずれか1項に記載の自己位置推定装置。
  11. 前記第1の構造物画像取得部で取得された前記複数の構造物画像に対して、空間周波数解析を行い前記空間周波数解析の結果に基づいて、前記第1の構造物画像取得部に前記構造物画像の取得を再度行わせるか否かの判定を行う画像ボケ判定部を更に備える請求項1から10のいずれか1項に記載の自己位置推定装置。
  12. 請求項1から11のいずれか1項に記載の自己位置推定装置を有する画像処理装置。
  13. 構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定方法であって、
    前記カメラ付き移動式ロボットにより第1の位置において前記構造物を分割撮影して得た第1の構造物画像と、前記カメラ付き移動式ロボットが前記第1の位置から移動して第2の位置において前記構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得ステップと、
    前記第1の構造物画像と前記第2の構造物画像とを含む前記複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成ステップと、
    前記パノラマ合成画像における前記第1の位置に対応する第1の画像座標を前記パノラマ合成画像の座標系の原点として、前記第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得ステップと、
    前記第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出ステップと、
    を含む自己位置推定方法。
  14. 構造物の検査を構造物を分割撮影することにより行うカメラ付き移動式ロボットの自己位置を推定する自己位置推定方法をコンピュータに実行させるプログラムであって、
    前記カメラ付き移動式ロボットにより第1の位置において前記構造物を分割撮影して得た第1の構造物画像と、前記カメラ付き移動式ロボットが前記第1の位置から移動して第2の位置において前記構造物を分割撮影して得た第2の構造物画像とを少なくとも含む複数の構造物画像を取得する第1の構造物画像取得ステップと、
    前記第1の構造物画像と前記第2の構造物画像とを含む前記複数の構造物画像をパノラマ合成したパノラマ合成画像を生成するパノラマ合成ステップと、
    前記パノラマ合成画像における前記第1の位置に対応する第1の画像座標を前記パノラマ合成画像の座標系の原点として、前記第2の構造物画像の特定位置の座標である第2の画像座標を取得する第1の画像座標取得ステップと、
    前記第2の画像座標を画像座標系から現実座標系へ変換する変換係数を用いて、相対的な自己位置として、第2の位置の相対的な現実座標である相対位置座標を算出する第1の相対位置座標算出ステップと、
    をコンピュータに実行させるプログラム。
JP2018543861A 2016-10-07 2017-09-27 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置 Active JP6725675B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016199239 2016-10-07
JP2016199239 2016-10-07
JP2017173283 2017-09-08
JP2017173283 2017-09-08
PCT/JP2017/035014 WO2018066435A1 (ja) 2016-10-07 2017-09-27 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2018066435A1 JPWO2018066435A1 (ja) 2019-07-18
JP6725675B2 true JP6725675B2 (ja) 2020-07-22

Family

ID=61831951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018543861A Active JP6725675B2 (ja) 2016-10-07 2017-09-27 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置

Country Status (5)

Country Link
US (1) US11107240B2 (ja)
EP (1) EP3525169A4 (ja)
JP (1) JP6725675B2 (ja)
CN (1) CN110178157B (ja)
WO (1) WO2018066435A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060669A (ja) * 2019-10-03 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
CN115401689B (zh) * 2022-08-01 2024-03-29 北京市商汤科技开发有限公司 基于单目相机的距离测量方法、装置以及计算机存储介质
CN116051540B (zh) * 2023-03-06 2023-07-14 武汉科技大学 基于点云模型的互感器接线端子定位位姿获取方法及系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
JP2006220521A (ja) 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
JP4469757B2 (ja) * 2005-05-31 2010-05-26 株式会社東芝 画像処理装置
US8717412B2 (en) * 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US8908054B1 (en) * 2011-04-28 2014-12-09 Rockwell Collins, Inc. Optics apparatus for hands-free focus
JP5803367B2 (ja) * 2011-07-15 2015-11-04 富士通株式会社 自己位置推定装置、自己位置推定方法およびプログラム
US9177384B2 (en) * 2013-07-31 2015-11-03 Trimble Navigation Limited Sequential rolling bundle adjustment
US9686479B2 (en) * 2013-09-16 2017-06-20 Duke University Method for combining multiple image fields
CN103927739B (zh) * 2014-01-10 2016-11-23 北京航天飞行控制中心 一种基于拼接图像的巡视器定位方法
JP6132981B2 (ja) * 2014-03-24 2017-05-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行機の状態をリアルタイムに修正する方法および装置
JP6355518B2 (ja) * 2014-10-14 2018-07-11 富士フイルム株式会社 橋梁検査ロボットシステム
JP6355517B2 (ja) * 2014-10-14 2018-07-11 富士フイルム株式会社 橋梁検査ロボットシステム
CN105865419A (zh) * 2015-01-22 2016-08-17 青岛通产软件科技有限公司 基于地面特征的移动机器人的自主精确定位系统及方法
EP3062066A1 (en) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
JP6394462B2 (ja) * 2015-03-30 2018-09-26 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6556015B2 (ja) * 2015-10-09 2019-08-07 ソニー株式会社 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム
JP6514125B2 (ja) * 2016-01-27 2019-05-15 京セラ株式会社 電子機器、電子機器の制御方法、制御プログラム並びに制御装置

Also Published As

Publication number Publication date
JPWO2018066435A1 (ja) 2019-07-18
US11107240B2 (en) 2021-08-31
WO2018066435A1 (ja) 2018-04-12
CN110178157B (zh) 2023-07-14
CN110178157A (zh) 2019-08-27
EP3525169A1 (en) 2019-08-14
US20190220998A1 (en) 2019-07-18
EP3525169A4 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6507268B2 (ja) 撮影支援装置及び撮影支援方法
JP6560366B2 (ja) 構造物の部材特定装置及び方法
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP6450481B2 (ja) 撮像装置及び撮像方法
CN108432227B (zh) 摄影辅助装置及摄影辅助方法
JP5388921B2 (ja) 3次元距離計測装置及びその方法
JP6725675B2 (ja) 自己位置推定装置、自己位置推定方法、プログラム、および画像処理装置
CN102798456B (zh) 一种工程机械臂架系统工作幅度的测量方法、装置及系统
CN111707668B (zh) 基于序列图像的隧道检测及图像处理方法
JP2008058264A (ja) 実河川を対象とした流速観測装置、流速観測方法,および流速観測プログラム
JP2007218705A (ja) 白線モデル計測システム、計測台車および白線モデル計測装置
JP2002156229A (ja) 構造物の移動式変位計測方法及び装置
WO2018070354A1 (ja) 撮影計画生成装置、撮影計画生成方法、およびプログラム
KR100998063B1 (ko) 교량의 변형량 측정방법
KR102044639B1 (ko) 스테레오 카메라 정렬 방법 및 장치
JP5007786B2 (ja) 映像監視装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250