JP2019086419A - 環境取得システム - Google Patents

環境取得システム Download PDF

Info

Publication number
JP2019086419A
JP2019086419A JP2017215253A JP2017215253A JP2019086419A JP 2019086419 A JP2019086419 A JP 2019086419A JP 2017215253 A JP2017215253 A JP 2017215253A JP 2017215253 A JP2017215253 A JP 2017215253A JP 2019086419 A JP2019086419 A JP 2019086419A
Authority
JP
Japan
Prior art keywords
environment
housing
acquisition system
visual sensor
environmental information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017215253A
Other languages
English (en)
Inventor
仁志 蓮沼
Hitoshi Hasunuma
仁志 蓮沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2017215253A priority Critical patent/JP2019086419A/ja
Priority to PCT/JP2018/041059 priority patent/WO2019093282A1/ja
Priority to CN201880072365.1A priority patent/CN111417836A/zh
Priority to US16/762,775 priority patent/US20200366815A1/en
Priority to TW107139524A priority patent/TWI687870B/zh
Publication of JP2019086419A publication Critical patent/JP2019086419A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • H04N23/531Constructional details of electronic viewfinders, e.g. rotatable or detachable being rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】準備作業が簡単で、外部環境の3次元データを機動的かつ柔軟に取得可能とする。【解決手段】環境取得システムは、ハウジング11と、視覚センサ12と、データ処理部14と、を備える。視覚センサ12は、ハウジング11に収容され、ハウジング11の外部の環境に関する環境情報を反復して取得可能である。データ処理部14は、視覚センサ12で取得した環境情報、又は、当該環境情報から得られた情報に基づいて、視覚センサ12の位置及び姿勢の推定処理及び外部環境3次元データの生成処理を行う。ハウジング11の姿勢が制御されず、かつ、ハウジング11が地面から離れていて外部からの機械的拘束を受けない状態において、視覚センサ12が前記環境情報を取得可能である。【選択図】図2

Description

本発明は、主として、環境取得システムの構成に関する。
従来から、ロボットにカメラやセンサを取り付けるとともに、カメラやセンサでロボットの位置情報等を取得する構成が知られている。特許文献1から特許文献3は、この種の構成を開示する。
特許文献1は、ロボットアームと、ロボットアームの先端やその近傍に取り付けたカメラと、撮像した画像データから得た作業対象等の位置情報に基づいて、ロボットアームの位置補正をするロボットコントローラーと、を備えるロボットシステムを開示する。この構成では、位置情報に基づいて、ロボットコントローラーがロボットアームの位置補正を行う。これにより、ロボットアームの保持等の動作精度を向上させている。
特許文献2は、移動台車と、移動台車側に取り付けたカメラと、所定位置に配置され、移動台車から固有の発光要求信号が送信された場合のみ反応して発光する複数の発光型のターゲットマーカーと、を備える移動体装置の位置同定システムを開示する。この構成では、全てのターゲットマーカーの設置位置と移動台車の発光要求信号とを予め関連付けておき、エリア内における少なくとも2つのターゲットマーカー位置をカメラで特定する。そして、カメラの向きと撮像画像中のマーカーの座標の位置に基づいて、自己位置を算出している。
特許文献3は、物体までの距離を3次元的に測距可能な3次元計測センサと、自己位置を計測可能な自己位置推定センサと、地図生成部を含む演算装置と、を備える自律移動ロボットを開示する。この構成では、移動環境内でロボットを動かして、3次元計測センサでロボットから周囲の物体までの距離を計測するとともに自己位置推定センサで移動環境をスキャンしている。そして、スキャンしたデータから環境地図のデータを生成している。
特開2017−132002号公報 特開2005−3445号公報 特開2016−149090号公報
しかし、特許文献1の構成は、ロボットアームの先端やその近傍等に、カメラを取り付けるためのスペースが必要になる。そのため、取付けスペースが不足している場合は、当該構成を使用することができない。
特許文献2の構成は、移動台車の位置を得るために、複数のマーカーを事前に用意して所定位置に配置することが必要である。従って、使用の準備に手間が掛かってしまい、利便性が高いとはいいがたい。
特許文献3の構成は、カメラやセンサを複数用いる。そのため、製造コストが高価になる。
本発明は以上の事情に鑑みてされたものであり、その目的は、準備作業が簡単で、外部環境の3次元データを機動的かつ柔軟に取得可能とすることにある。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
本発明の第1の観点によれば、以下の構成の環境取得システムが提供される。即ち、この環境取得システムは、ハウジングと、視覚センサと、データ処理部と、を備える。前記視覚センサは、前記ハウジングに収容され、前記ハウジングの外部の環境に関する環境情報を反復して取得可能である。前記データ処理部は、前記視覚センサで取得した環境情報、又は、当該環境情報から得られた情報に基づいて、前記視覚センサの位置及び姿勢の推定処理及び外部環境3次元データの生成処理を行う。前記ハウジングの姿勢が制御されず、かつ、前記ハウジングが地面から離れていて外部からの機械的拘束を受けない状態において、前記視覚センサが前記環境情報を取得可能である。
本発明の第2の観点によれば、以下の環境取得方法が提供される。即ち、この環境取得方法は、環境情報取得工程と、データ処理工程と、を含む。前記環境情報取得工程では、ハウジングと、視覚センサと、を備えるセンシング装置を用いて、前記ハウジングの姿勢が制御されず、かつ、前記ハウジングが地面から離れていて外部からの機械的拘束を受けない状態において、前記視覚センサに前記環境情報を取得させる。前記視覚センサは、前記ハウジングに収容され、前記ハウジングの外部の環境に関する環境情報を反復して取得可能である。前記データ処理工程では、前記環境情報取得工程で取得した環境情報、又は、当該環境情報から得られた情報に基づいて、前記視覚センサの位置及び姿勢の推定及び外部環境3次元データの生成を行う。
これにより、煩雑な準備作業をすることなく、外部環境3次元データを簡便に取得することができる。また、環境情報を極めて自由度の高い視点で取得できるので、死角による外部環境3次元データの欠落を抑制することができる。
本発明の環境取得システム及び環境取得方法によれば、準備作業が簡単で、外部環境の3次元データを機動的かつ柔軟に取得可能とすることができる。
本発明の一実施形態に係る環境取得システムの全体的な構成を示す外観図。 環境取得システムが備えるセンシング装置の断面図。 環境取得システムの電気的な構成を示すブロック図。 環境取得システムの使用例を示す図。 環境取得システムの他の使用例を示す図。
次に、図面を参照して本発明の実施の形態を説明する。図1は、環境取得システム1の全体的な構成を示す外観図である。図2は、環境取得システム1が備えるセンシング装置10の断面図である。図3は、環境取得システム1の電気的構成を示すブロック図である。
環境取得システム1は、図1に示すように、センシング装置10を備える。このセンシング装置10は、各装置を収容するハウジング11を備える。更に、センシング装置10は、図2に示すように、ステレオカメラ(視覚センサ)12と、距離画像データ生成装置13と、SLAM処理装置(データ処理部)14と、記憶部20と、通信部21と、を備える。
ハウジング11は、中空の球状に形成されている。ハウジング11の内部空間の中央部には、支持ケース25が配置されている。この支持ケース25は、複数の棒状の支持軸26を介して、ハウジング11の内壁に固定されている。支持ケース25の内部には、ステレオカメラ12、距離画像データ生成装置13、SLAM処理装置14、記憶部20、及び通信部21が配置されている。また、支持ケース25の内部には、上記の各部に電力を供給するための図示しない充電式のバッテリーが配置されている。
ハウジング11には、適宜の大きさの開口11aが形成されている。この開口11aを介して、内部に収容されているステレオカメラ12が外部を撮像することができる。
図示しないが、ハウジング11の表面には、衝撃を吸収可能な部材(例えば、ゴム等)が取り付けられることが好ましい。これにより、センシング装置10が後述のように投擲された結果として外部の何かに衝突した場合でも、内部の装置に加わる衝撃を減らすことができるとともに、外部環境の損傷を防止することができる。ハウジング11の全体が、振動を吸収可能な材料により構成されても良い。
ステレオカメラ12は、互いに適宜の距離だけ離して配置された1対の撮像素子(イメージセンサ)を備える。それぞれの撮像素子は、例えばCCD(Charge Cоupled Device)として構成することができる。2つの撮像素子は互いに同期して動作し、これにより、外部環境を同時に撮影した1対の画像データが生成される。本実施形態において、この1対の画像データ(ステレオ画像データ)が、環境情報に相当する。また、ステレオカメラ12においては、CCDが取得した画像データを直接RAMに書き込んで保存する等の高速化が図られており、これにより、ステレオカメラ12は、1秒間に500フレーム以上、好ましくは1000フレーム以上の画像データを生成することができる。
距離画像データ生成装置13は、画像処理が可能なコンピュータとして構成され、CPU、ROM、RAM等を備える。距離画像データ生成装置13は、ステレオカメラ12により得られた1対の画像データに対して公知のステレオマッチング処理を行うことによって、それぞれの画像が対応する位置のズレ(視差)を求める。視差は、写ったものとの距離が近いほど、距離に反比例して大きくなる。距離画像データ生成装置13は、この視差に基づいて、画像データの各画素に距離の情報を対応付けた距離画像データを生成する。
距離画像データの生成は、ステレオカメラ12が画像データを生成する毎に、リアルタイムに行われる。従って、距離画像データをステレオカメラ12と同様の頻度で得ることができる。距離画像データ生成装置13は、生成した距離画像データを、SLAM処理装置14に出力する。
SLAM処理装置14は、距離画像データ生成装置13と同様に、CPU、ROM及びRAM等を備えたコンピュータとして構成されている。SLAM処理装置14は、距離画像データ生成装置13から入力された距離画像データに対してSLAM(Simultaneous Localization and Mapping)処理を行う。これにより、ステレオカメラ12の位置及び姿勢の推定情報、及び、環境地図である外部環境3次元データを、同時に取得することができる。このようにカメラ画像を用いて行われるSLAM処理は、Visual−SLAMと呼ばれている。ステレオカメラ12の位置及び姿勢は、センシング装置10の位置及び姿勢に対応している。
SLAM処理装置14は、図3に示すように、特徴点処理部15と、環境地図生成部16と、自己位置推定部17と、を備える。
特徴点処理部15は、SLAM処理装置14に順次入力される距離画像データの画像を解析することにより、適宜の特徴点を設定し、その動きを取得する。特徴点処理部15は、特徴点とその動きの情報を、環境地図生成部16及び自己位置推定部17に出力する。
特徴点処理部15は、特徴点抽出部18と、特徴点追跡部19と、を備える。
特徴点抽出部18は、距離画像データに含まれている画像から、公知の手法によって複数の特徴点を抽出する。特徴点の抽出方法は様々に提案されており、例えば、Harris、FAST、SIFT、SURF等の各種アルゴリズムを用いることができる。特徴点抽出部18は、得られた特徴点の座標等の情報を特徴点追跡部19に出力する。特徴点追跡部19に出力される情報には、当該特徴点に関して記述された特徴量が含められても良い。
特徴点追跡部19は、連続的に得られる複数の距離画像データの間で、画像に現れる特徴点を公知の手法によって追跡する。特徴点の追跡方法は様々に提案されており、例えば、Horn−Schunk法、Lucas−Kanаde法等を用いることができる。この処理により、画像に相当する平面内での特徴点の動きをベクトルで表現したオプティカルフローを求めることができる。
環境地図生成部16は、特徴点処理部15から入力される特徴点のデータに基づいて、環境地図である3次元地図(外部環境3次元データ)を逐次生成する。自己位置推定部17は、特徴点の追跡結果に基づいて、ステレオカメラ12の位置及び姿勢を逐次取得する。
以下、具体的に説明する。地図を作成するための3次元地図座標系(ワールド座標系)が定められ、この座標系で表される3次元空間において、初期のステレオカメラ12の位置及び姿勢が何らかの方法で与えられる。その後、環境地図生成部16に、最初の距離画像データに基づく特徴点の情報が特徴点処理部15から入力される。この特徴点の情報には、画像上での特徴点の位置を表す座標と、当該特徴点までの距離(距離画像データにおいて座標に関連付けられている距離)と、が含まれている。環境地図生成部16は、ステレオカメラ12の位置及び姿勢と、特徴点の画像上での座標と、当該座標に関連付けられた距離と、を用いて、当該特徴点の3次元地図座標系での位置を計算する。環境地図生成部16は、得られた特徴点の位置の情報を、記憶部20に出力して記憶させる。この処理は、3次元空間に3次元地図の一部として特徴点をプロットすることに相当する。
続いて、新しい距離画像データが得られ、以前に設定された特徴点の追跡結果と、今回新しく設定された特徴点と、が特徴点処理部15から入力されたとする。自己位置推定部17は、入力された特徴点の追跡結果(位置及び距離の変化)と、3次元地図座標系における当該特徴点の位置と、に基づいて、ステレオカメラ12の位置及び姿勢の変化を推定する。これにより、3次元地図座標系におけるステレオカメラ12の新しい位置及び姿勢を得ることができる。
次に、環境地図生成部16は、更新されたステレオカメラ12の位置及び姿勢を基準にして、新しく設定された特徴点の3次元地図座標系での位置を計算し、計算結果を記憶部20に出力する。これにより、3次元空間に新しい特徴点を追加的にプロットすることができる。
このように、環境地図生成部16による3次元地図データの更新処理と、自己位置推定部17によるステレオカメラ12の位置及び姿勢の更新処理とが、距離画像データが入力される毎にリアルタイムで交互に反復される。以上により、プロットされた点群としての3次元地図データを生成することができる。
記憶部20は、環境地図生成部16により生成された3次元地図データを記憶する。なお、記憶部20は、自己位置推定部17により計算されたステレオカメラ12の位置及び姿勢の変化の履歴を併せて記憶しても良い。
通信部21は、ハウジング11の外部に配置されている外部装置50との間で、例えば無線により通信を行うことができる。これにより、センシング装置10の動作を外部からの指令に基づいて制御することができる。また、センシング装置10は、記憶部20に記憶された3次元地図データ等、センシング装置10が収集した情報を外部に出力することができる。
次に、図4を参照して、環境取得システム1の使用例について説明する。図4の例では、環境取得システム1は、ロボットアーム31を用いてワーク32に対して作業を行う際の動作支援のために用いられる。
ロボットアーム31の周囲がどのようになっているか等を示すデータを得るために、ユーザは、環境取得システム1のセンシング装置10を手に持って、ロボットアーム31とワーク32の周辺に向けて適当に投げる。
センシング装置10は、走行のためのタイヤ、飛行のためのプロペラ等の移動手段を特に有していない。従って、環境取得システム1を低コストで実現することができる。また、センシング装置10を投げたときの挙動は、球技等で用いられるボールと実質的に変わらないので、ユーザにとって親しみ易い。ハウジング11は球状であるので、壊れにくい構造とすることができ、この意味でもユーザにとって気軽に取り扱うことができる。
投げられたセンシング装置10が床等に落下して静止するまでの過程で、ステレオカメラ12による撮像、距離画像データ生成装置13による距離画像データの生成、及び、SLAM処理装置14による3次元地図データの作成が行われる。
上記の処理は、センシング装置10が放物運動ないし自由落下をしている状態、言い換えれば、ハウジング11の姿勢が制御されず、かつ、ハウジング11が地面から離れていて外部からの機械的拘束を受けない状態で行われる。従って、極めて柔軟な視点を実現でき、例えばセンシング装置10を上に放り投げれば、高所からの視点に基づく特徴点の位置を3次元地図データに含めることができる。従って、定点カメラで取得する場合に生じ易い死角の問題等を容易に回避して、3次元地図データの情報量を充実させることができる。ステレオカメラ12は、1秒間に500フレーム以上、好ましくは1000フレーム以上の画像データを生成するように構成されているので、投擲に伴ってセンシング装置10が高速で移動又は回転した場合でも、特徴点の追跡に失敗することは殆どない。
ユーザは、例えばセンシング装置10にスピンを意図的に掛けつつ投げることもできる。これにより、ステレオカメラ12の向きが様々に変化しながら放物線に沿って移動することになるので、センシング装置10の周囲の広い範囲について3次元地図データを取得することができる。言い換えれば、1つのステレオカメラ12で、あたかも複数のステレオカメラ12を備えているような広い視野を実質的に得ることができる。従って、センシング装置10の構成を簡素化でき、コストを低減することができる。
センシング装置10を投げた後に拾って、また投げる作業を繰り返しても良い。様々な場所に多様な軌道で投げることによって、広範囲かつ高精度な3次元地図データを得ることができる。
センシング装置10が生成して記憶部20に記憶した3次元地図データは、通信部21によって、図3に示す外部装置50へ送信される。
外部装置50が取得した3次元地図データは、ロボットアーム31の動作指令のために適宜活用される。例えば、3次元地図データを用いて、ロボットアーム31の先端のエンドエフェクタに対するワーク32の相対位置及び姿勢等を求め、この情報に基づいてロボットアーム31に指令を与える。これにより、何らかの理由でロボットアーム31自体が備えるセンサの精度が良好でない場合であっても、ロボットアーム31がワーク32に対して適切に作業を行うことができる。あるいは、3次元地図データに基づいて、ロボットアーム31の周囲の障害物の情報を生成することで、ロボットアーム31が動作するときに周囲と干渉するのを防止することができる。
外部装置50は、取得した3次元地図データを対象として3次元物体認識を行う。具体的に説明すると、外部装置50は3次元データ探索部51を備え、この3次元データ探索部51は、事前に与えられた3次元モデルの形状と、当該3次元モデルの名称と、を対応付けて、例えばデータベースの形で記憶している。3次元データ探索部51は、取得した3次元地図データから3次元モデルを、3次元マッチング等の公知の手法で探索し、見つかった3次元形状に対して、対応する名称を例えばラベルとして付与する。これにより、例えば、3次元地図データからワーク32の3次元形状が見つかった場合に「ワーク」というラベルを付すことができる。
得られたラベルを、ユーザがロボットアーム31に動作を指示するときに用いることで、指示の煩雑さを良好に回避することができる。併せて、ロボットアーム31の挙動についても、抽象的に、例えば、「把持」、「搬送」というように指示することができる。以上により、数値等での指示によらず、「ワークを把持する」と指示するような簡単なユーザインタフェースで、ユーザが望む作業をロボットアーム31に行わせることができる。
以上に説明したように、本実施形態における環境取得システム1は、ハウジング11と、ステレオカメラ12と、SLAM処理装置14と、を備える。ステレオカメラ12は、ハウジング11に収容され、ハウジング11の外部の環境に関するステレオ画像データを反復して取得可能である。SLAM処理装置14は、ステレオカメラ12で取得したステレオ画像データから得られた距離画像データに基づいて、ステレオカメラ12の位置及び姿勢の推定処理及び3次元地図データの生成処理を行う。ハウジング11の姿勢が制御されず、かつ、ハウジング11が地面から離れていて外部からの機械的拘束を受けない状態において、ステレオカメラ12がステレオ画像データを取得可能である。
これにより、固定的な設置スペースを事前に確保したり、装置の固定作業を事前に行ったりする必要がなく、3次元地図データを簡便に取得することができる。また、ハウジング11を投げたり落下させたりしながら環境情報を取得することができるので、死角による3次元地図データの欠落を抑制することができる。
また、本実施形態の環境取得システム1では、ハウジング11の自由落下状態においてステレオカメラ12がステレオ画像データを取得可能である。
これにより、例えば、任意の場所に単純に投擲することによって、簡単に使用することができる。
また、本実施形態の環境取得システム1において、ハウジング11の外形は球状である。
これにより、人の手等による投擲が容易である。また、球状であるので強度を確保できるとともに、容易に回転することから、広い範囲の3次元地図データを取得することができる。
また、本実施形態の環境取得システム1において、カメラにより、前記ステレオ画像データが取得されている。
カメラは、例えば後述のLIDARと比較して安価である。従って、コストを効果的に低減することができる。
また、本実施形態の環境取得システム1において、SLAM処理装置14はハウジング11に収容されている。ステレオカメラ12によるステレオ画像データの取得、及びSLAM処理装置14による処理がリアルタイムで行われる。
これにより、リアルタイムで外部環境3次元データを取得するので、即時性が要求される場合に好適である。
また、本実施形態の環境取得システム1は、予め登録された3次元データを3次元地図データから探索する3次元データ探索部51を備える。
これにより、例えば、ロボットの操作対象物を外部環境3次元データから検出することにより、ロボットの動作の教示に関するユーザインタフェースを簡単にすることができる。また、例えば、外部環境3次元データに現れている異常な状況を自動的に検出することができる。
また、本実施形態では、以下の環境情報取得工程及びデータ処理工程を含む方法により、外部環境の取得が行われている。前記環境情報取得工程では、上述のセンシング装置10を用いて、ハウジング11の姿勢が制御されず、かつ、ハウジング11が地面から離れていて外部からの機械的拘束を受けない状態において、ステレオカメラ12にステレオ画像データを取得させる。前記データ処理工程では、前記環境情報取得工程で取得したステレオ画像データから得られた距離画像データに基づいて、ステレオカメラ12の位置及び姿勢の推定及び3次元地図データの生成を行う。
これにより、固定的な設置スペースを事前に確保したり、装置の固定作業を事前に行ったりする必要がなく、3次元地図データを簡便に取得することができる。また、ハウジング11を投げたり落下させたりしながら環境情報を取得することができるので、死角による3次元地図データの欠落を抑制することができる。
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。なお、同じ説明は省略する場合がある。
SLAM処理装置14をセンシング装置10ではなく外部装置50に設け、外部装置50が距離画像データをセンシング装置10から無線通信により取得してVisual−SLAM処理を行うように変更することもできる。更に、距離画像データ生成装置13を外部装置50に設けて、外部装置50がステレオ画像データをセンシング装置10から無線通信により取得して、距離画像データの生成処理及びVisual−SLAM処理を行うように変更することもできる。
距離画像データ生成装置13及びSLAM処理装置14等を外部装置50に備える場合、センシング装置10を軽量化できるので、取扱いが一層容易になる。また、センシング装置10を、外部からの衝撃に対して壊れにくくすることができる。
一方で、上記の実施形態のように、ステレオカメラ12、距離画像データ生成装置13及びSLAM処理装置14を何れもセンシング装置10側に設けると、ステレオ画像データ、距離画像データ等を高速で入出力できるので、リアルタイム処理が容易になる。言い換えれば、ステレオカメラ12として上述のようにハイスピード型のカメラを用いた場合でも、距離画像データ生成装置13及びSLAM処理装置14をリアルタイムで動作させて、3次元地図データを実時間処理で生成することができる。
環境取得システム1は、ステレオカメラ12をハウジング11に対して回転させる回転駆動部を備えてもよい。この回転駆動部は、例えば支持ケース25を支持軸26に対して回転させる電動モータとして構成することができる。ハウジング11には、ステレオカメラ12が回転しながら外部を撮像できるように、例えば、ステレオカメラ12のレンズの回転軌跡に対向するように環状の透明部材を設けておく。
この場合、ステレオカメラ12を強制的に回転させながらステレオ画像データを取得することができる。従って、センシング装置10を投げてから床に着地して静止するまでの移動軌跡が短かったとしても、広い範囲の3次元地図データを取得することができる。
上記実施形態では、環境取得システム1は、ロボットアーム31等とは分離した状態で用いられたが、当該環境取得システム1は、ロボットアーム31等にハウジング11を直接的に取り付けて使用することもできる。
ハウジング11は、球状に代えて、例えば、立方体や直方体状に構成されてもよい。また、開口11aの形状は特に限定されず、例えば、長孔形状とすることができる。また、開口11aは透明窓に変更してもよい。ハウジング11は、その全体が透明部材とされていてもよい。
視覚センサとして、ステレオカメラ12に代えて、単眼カメラが用いられても良い。この場合、SLAM処理装置14は、公知の単眼Visual−SLAM処理を行えば良い。また、ステレオカメラ12の代わりに、単眼カメラとジャイロセンサとを組み合わせた公知の構成を用いて、視差情報を取得してSLAM技術に用いても良い。
単眼カメラを上記の回転駆動部によって強制的に回転させ、当該単眼カメラの回転方向と角速度を適宜の計測センサ(例えば、エンコーダ)によって逐次計測し、これによって視差情報を取得してSLAM技術に用いても良い。
視覚センサとして、ステレオカメラ12に代えて、3次元計測が可能な3次元LIDAR(Laser Imaging Detectiоn and Ranging)を用いてもよい。この場合、ステレオカメラ12を用いる場合と比較して、対象物の3次元的な位置をより正確に計測することができる。また、レーザーを使用することによって、明るさ等の外部の影響を抑制した走査を行うことができる。
3次元LIDARを用いる場合、当該3次元LIDARが出力する3次元点群データが、環境情報に相当する。距離画像データ生成装置13は省略され、3次元点群データはSLAM処理装置14に入力される。SLAM処理装置14においては特徴点処理部15が省略されており、当該3次元点群データは、3次元地図データの一部として環境地図生成部16へ出力される。次に3次元点群データが入力されると、当該点群がICP等の公知のアルゴリズムによって追跡処理され、点群の動きの情報が自己位置推定部17に出力される。自己位置推定部17は、3次元の点群の動きに基づいて、3次元LIDARの位置及び姿勢を推定する。以上により、SLAM処理を実現することができる。
自己位置推定部17による自己位置の推定精度を向上させるために、センシング装置10が、加速度及び角速度を測定可能なIMU(慣性計測ユニット)を備えても良い。
3次元データ探索部51は、外部装置50に代えて、センシング装置10に設けられても良い。センシング装置10側で3次元物体認識が行われることにより、認識結果を素早く(ほぼリアルタイムで)活用することが容易になる。
センシング装置10は、現場で作業を行う作業者の装着物(例えば、ヘルメット等)に、適宜の固定治具を介して取り付けて使用することもできる。これにより、作業者は、自己の目だけではなく、SLAM処理で取得された現在位置の情報や3次元地図データ等も利用して作業することができる。また、作業者が作業のために移動した経路のトレーサビリティを確保することも容易になる。作業者の現在位置及び3次元地図データを監督者の表示装置にリアルタイムで送信し、監督者がそれを見て作業者に指示することも考えられる。取得された3次元地図データに対しては、上述の実施形態と同様に、3次元物体認識を行うことが好ましい。これにより、予め登録した対象物と異なる異物を発見したり、対象物の異常な状態(例えば、破損等)を発見したり、メンテナンス対象の位置を把握したりすることが容易になる。このようにして、作業効率を向上させることができる。
センシング装置10は、図5に示すように、ドローン等の飛行体40に複数セットして使用することもできる。飛行体40はセンシング装置10を、3次元地図データを取得したいエリアに向けて、空中から一斉に投擲する。これにより、それぞれのセンシング装置10が3次元地図データを取得する。飛行体40に取り付けられている外部装置50は、各センシング装置10から無線通信により収集した3次元地図データを1つに統合する。これにより、広い範囲の3次元地図データを短時間で得ることができる。
1 環境取得システム
10 センシング装置
11 ハウジング
12 ステレオカメラ(視覚センサ)
14 SLAM処理装置(データ処理部)

Claims (9)

  1. ハウジングと、
    前記ハウジングに収容され、前記ハウジングの外部の環境に関する環境情報を反復して取得可能な視覚センサと、
    前記視覚センサで取得した環境情報、又は、当該環境情報から得られた情報に基づいて、前記視覚センサの位置及び姿勢の推定処理及び外部環境3次元データの生成処理を行うデータ処理部と、
    を備え、
    前記ハウジングの姿勢が制御されず、かつ、前記ハウジングが地面から離れていて外部からの機械的拘束を受けない状態において、前記視覚センサが前記環境情報を取得可能であることを特徴とする環境取得システム。
  2. 請求項1に記載の環境取得システムであって、
    前記ハウジングの自由落下状態において前記視覚センサが前記環境情報を取得可能であることを特徴とする環境取得システム。
  3. 請求項1又は2に記載の環境取得システムであって、
    前記ハウジングの外形は球状であることを特徴とする環境取得システム。
  4. 請求項1から3までの何れか一項に記載の環境取得システムであって、
    前記視覚センサはカメラであることを特徴とする環境取得システム。
  5. 請求項1から4までの何れか一項に記載の環境取得システムであって、
    前記データ処理部は前記ハウジングに収容され、
    前記視覚センサによる前記環境情報の取得、及び前記データ処理部による処理がリアルタイムで行われることを特徴とする環境取得システム。
  6. 請求項1から4までの何れか一項に記載の環境取得システムであって、
    前記データ処理部は前記ハウジングの外部に配置され、
    前記データ処理部は、前記視覚センサが取得した前記環境情報を通信により取得し、当該環境情報に対して処理を行うことを特徴とする環境取得システム。
  7. 請求項1から6までの何れか一項に記載の環境取得システムであって、
    前記視覚センサを前記ハウジングに対して回転させる回転駆動部を備えることを特徴とする環境取得システム。
  8. 請求項1から7までの何れか一項に記載の環境取得システムであって、
    予め登録された3次元データを前記外部環境3次元データから探索する3次元データ探索部を備えることを特徴とする環境取得システム。
  9. ハウジングと、
    前記ハウジングに収容され、前記ハウジングの外部の環境に関する環境情報を反復して取得可能な視覚センサと、
    を備えるセンシング装置を用いて、前記ハウジングの姿勢が制御されず、かつ、前記ハウジングが地面から離れていて外部からの機械的拘束を受けない状態において、前記視覚センサに前記環境情報を取得させる環境情報取得工程と、
    前記環境情報取得工程で取得した環境情報、又は、当該環境情報から得られた情報に基づいて、前記視覚センサの位置及び姿勢の推定及び外部環境3次元データの生成を行うデータ処理工程と、
    を含むことを特徴とする環境取得方法。
JP2017215253A 2017-11-08 2017-11-08 環境取得システム Pending JP2019086419A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017215253A JP2019086419A (ja) 2017-11-08 2017-11-08 環境取得システム
PCT/JP2018/041059 WO2019093282A1 (ja) 2017-11-08 2018-11-05 環境取得システム
CN201880072365.1A CN111417836A (zh) 2017-11-08 2018-11-05 环境取得系统
US16/762,775 US20200366815A1 (en) 2017-11-08 2018-11-05 Environment acquisition system
TW107139524A TWI687870B (zh) 2017-11-08 2018-11-07 環境取得系統以及環境取得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017215253A JP2019086419A (ja) 2017-11-08 2017-11-08 環境取得システム

Publications (1)

Publication Number Publication Date
JP2019086419A true JP2019086419A (ja) 2019-06-06

Family

ID=66438839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017215253A Pending JP2019086419A (ja) 2017-11-08 2017-11-08 環境取得システム

Country Status (5)

Country Link
US (1) US20200366815A1 (ja)
JP (1) JP2019086419A (ja)
CN (1) CN111417836A (ja)
TW (1) TWI687870B (ja)
WO (1) WO2019093282A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049281A1 (ja) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
JP2023511779A (ja) * 2020-02-13 2023-03-22 スカイディオ,インコーポレイテッド 無人航空機による3次元再構成の実行
WO2023234384A1 (ja) * 2022-06-03 2023-12-07 Necソリューションイノベータ株式会社 地図生成装置、地図生成方法、及びコンピュータ読み取り可能な記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11429113B2 (en) * 2019-08-08 2022-08-30 Lg Electronics Inc. Serving system using robot and operation method thereof
CN111268127A (zh) * 2020-02-26 2020-06-12 西安交通大学 一种飞行侦察机器人和多球形移动侦察机器人的复合侦查系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042420A (ja) * 1999-07-29 2001-02-16 Fuji Photo Film Co Ltd デジタルカメラ
JP2007104254A (ja) * 2005-10-04 2007-04-19 Konica Minolta Holdings Inc カメラユニット
JP2012221128A (ja) * 2011-04-06 2012-11-12 Casio Comput Co Ltd 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP2013066086A (ja) * 2011-09-19 2013-04-11 Ricoh Co Ltd 撮像装置
WO2016006588A1 (ja) * 2014-07-09 2016-01-14 パイオニア株式会社 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体
US20170043882A1 (en) * 2015-08-12 2017-02-16 Drones Latam Srl Apparatus for capturing aerial view images
JP2017134617A (ja) * 2016-01-27 2017-08-03 株式会社リコー 位置推定装置、プログラム、位置推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103135549A (zh) * 2012-12-21 2013-06-05 北京邮电大学 一种具有视觉反馈的球形机器人运动控制系统及运动控制方法
CN104079918A (zh) * 2014-07-22 2014-10-01 北京蚁视科技有限公司 全景三维摄像装置
CN104935896B (zh) * 2015-06-29 2019-03-08 广州杰赛科技股份有限公司 自适应运动环境侦测装置以及系统
US20170029103A1 (en) * 2015-07-28 2017-02-02 Inventec Appliances (Pudong) Corporation Unmanned vehicle
CN105354875B (zh) * 2015-09-25 2018-01-23 厦门大学 一种室内环境二维与三维联合模型的构建方法和系统
CN105931283B (zh) * 2016-04-22 2019-10-29 南京梦宇三维技术有限公司 一种基于动作捕捉大数据的三维数字内容智能制作云平台
CN106652028B (zh) * 2016-12-28 2020-07-03 深圳乐动机器人有限公司 一种环境三维建图方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042420A (ja) * 1999-07-29 2001-02-16 Fuji Photo Film Co Ltd デジタルカメラ
JP2007104254A (ja) * 2005-10-04 2007-04-19 Konica Minolta Holdings Inc カメラユニット
JP2012221128A (ja) * 2011-04-06 2012-11-12 Casio Comput Co Ltd 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP2013066086A (ja) * 2011-09-19 2013-04-11 Ricoh Co Ltd 撮像装置
WO2016006588A1 (ja) * 2014-07-09 2016-01-14 パイオニア株式会社 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体
US20170043882A1 (en) * 2015-08-12 2017-02-16 Drones Latam Srl Apparatus for capturing aerial view images
JP2017134617A (ja) * 2016-01-27 2017-08-03 株式会社リコー 位置推定装置、プログラム、位置推定方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049281A1 (ja) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
US11847784B2 (en) 2019-09-12 2023-12-19 Sony Interactive Entertainment Inc. Image processing apparatus, head-mounted display, and method for acquiring space information
JP2023511779A (ja) * 2020-02-13 2023-03-22 スカイディオ,インコーポレイテッド 無人航空機による3次元再構成の実行
JP7263630B2 (ja) 2020-02-13 2023-04-24 スカイディオ,インコーポレイテッド 無人航空機による3次元再構成の実行
JP2023072064A (ja) * 2020-02-13 2023-05-23 スカイディオ,インコーポレイテッド 無人航空機による3次元再構成の実行
WO2023234384A1 (ja) * 2022-06-03 2023-12-07 Necソリューションイノベータ株式会社 地図生成装置、地図生成方法、及びコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
TW201926139A (zh) 2019-07-01
TWI687870B (zh) 2020-03-11
WO2019093282A1 (ja) 2019-05-16
CN111417836A (zh) 2020-07-14
US20200366815A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
WO2019093282A1 (ja) 環境取得システム
US11932392B2 (en) Systems and methods for adjusting UAV trajectory
CN108453738B (zh) 一种基于Opencv图像处理的四旋翼飞行器空中自主抓取作业的控制方法
US20190094023A1 (en) Adaptive Compass Calibration Based on Local Field Conditions
ES2876449T3 (es) Cartografía de entorno de múltiples sensores
EP3505808A1 (en) Systems and methods for payload stabilization
US20180024570A1 (en) Gimbaled Universal Drone Controller
CN108226938A (zh) 一种agv小车的定位系统和方法
JP6280147B2 (ja) 無人走行作業車
CN115220475A (zh) 用于uav飞行控制的系统和方法
JP2017065467A (ja) 無人機およびその制御方法
JP2015001450A (ja) 飛行体誘導システム及び飛行体誘導方法
JP2012235712A (ja) 芝刈り状況監視機能を有する自動芝刈り機
JP6243944B2 (ja) 無人走行作業車
CN112703748B (zh) 信息处理装置、信息处理方法以及程序记录介质
JP6642502B2 (ja) 飛行装置、方法、及びプログラム
JP6235640B2 (ja) 無人走行作業車
US11490018B2 (en) Mobile image pickup device
US11656923B2 (en) Systems and methods for inter-process communication within a robot
Saleem An economic simultaneous localization and mapping system for remote mobile robot using SONAR and an innovative AI algorithm
TW202201946A (zh) 攝影系統及機器人系統
JPWO2021090352A1 (ja) 航空機の飛行制御を行う制御装置、及び制御方法
Vargas et al. A combined Wiimote-camera tracking system for small aerial vehicles
US12024284B2 (en) Information processing device, information processing method, and recording medium
WO2021217372A1 (zh) 可移动平台的控制方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221214