JP6659317B2 - 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム - Google Patents

位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム Download PDF

Info

Publication number
JP6659317B2
JP6659317B2 JP2015225013A JP2015225013A JP6659317B2 JP 6659317 B2 JP6659317 B2 JP 6659317B2 JP 2015225013 A JP2015225013 A JP 2015225013A JP 2015225013 A JP2015225013 A JP 2015225013A JP 6659317 B2 JP6659317 B2 JP 6659317B2
Authority
JP
Japan
Prior art keywords
imaging unit
reference image
time
unit
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015225013A
Other languages
English (en)
Other versions
JP2017090416A (ja
Inventor
琢麿 山本
琢麿 山本
三島 直
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Corp
Priority to JP2015225013A priority Critical patent/JP6659317B2/ja
Priority to MYPI2016704116A priority patent/MY179154A/en
Priority to EP16198145.1A priority patent/EP3171334B1/en
Priority to KR1020160150982A priority patent/KR101950558B1/ko
Priority to TW105137410A priority patent/TWI617277B/zh
Priority to US15/354,378 priority patent/US10375376B2/en
Priority to CN201611011555.1A priority patent/CN107067436B/zh
Publication of JP2017090416A publication Critical patent/JP2017090416A/ja
Application granted granted Critical
Publication of JP6659317B2 publication Critical patent/JP6659317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

実施形態は、位置姿勢の推定に関する。
カメラによって取得した画像に基づいて当該カメラの位置姿勢を推定する技術が、コンピュータビジョンおよびロボティクスなどの分野において活用されている。この技術は、例えば、自律移動ロボットの自己位置推定、ナビゲーションシステム、AR(拡張現実)技術などに応用されている。
具体的には、カメラの位置姿勢と周辺の被写体の3次元構造とを同時に推定する技術として、SLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などが研究されてきた。
位置姿勢推定技術には、単眼カメラが用いられることもあるし、ステレオカメラが用いられることもある。特に、ステレオカメラを用いてSLAMを実行すれば、当該ステレオカメラの周辺の3次元構造の絶対スケールを推定することができる。
ステレオカメラを用いたSLAMは、ある時刻(t)のステレオ画像に基づいて特徴点の3次元点を復元し、別の時刻(t+1)にこの3次元点をこのステレオカメラに投影した場合の再投影誤差を最小化するように、別の時刻(t+1)におけるステレオカメラの位置姿勢を推定する。
国際公開第2008/102764号
実施形態は、2個のカメラを備える装置の位置姿勢を推定することを目的とする。
実施形態によれば、位置姿勢推定装置は、第1の撮像部と、第2の撮像部と、推定部とを含む。第1の撮像部は、第1の時刻に撮像された第1の基準画像と第2の時刻に撮像された第2の基準画像とを生成する。第2の撮像部は、第1の時刻に関連付けられる第1の参照画像と第2の時刻に関連付けられる第2の参照画像とを生成する。推定部は、第1の基準画像と第2の基準画像と第1の参照画像と第2の参照画像とに基づいて、第2の時刻における第1の撮像部の位置姿勢を基準とした第1の時刻における第1の撮像部の位置姿勢と、第1の時刻における第2の撮像部の推定位置に対する第2の撮像部が第1の参照画像を撮像した位置のずれとを推定する。
第1の実施形態に係る位置姿勢推定装置を例示するブロック図。 図1の位置姿勢推定装置の動作を例示するフローチャート。 第1の撮像部および第2の撮像部がそれぞれ撮像を行う第1の周期および第2の周期が同期している場合の両者の撮像タイミングを例示するタイミングチャート。 第1の周期および第2の周期が同期していない場合の両者の撮像タイミングを例示するタイミングチャート。 図1の位置姿勢推定装置によって行われる推定処理の説明図。 図1の位置姿勢推定装置のハードウェア構成を例示するブロック図。 第2の実施形態に係る電気掃除機を例示するブロック図。 第2の実施形態に係る電気掃除機を例示する斜視図。 第2の実施形態に係る電気掃除機を例示する底面図。 第2の実施形態に係る電気掃除機を含むネットワークを例示する図。
位置姿勢推定技術の精度は、3次元点の復元および再投影の精度に影響される。仮に、2個のカメラの撮像タイミングがずれている場合には、一方のカメラが撮像を行ってから他方のカメラが撮像を行うまでの間にステレオカメラは移動するかもしれず、他方のカメラは理想的な撮像位置からずれた位置で撮像を行うことになるおそれがある。故に、このような撮像タイミングが同期していないステレオカメラを用いると、3次元点の正確な復元および再投影は困難となる。換言すれば、この位置姿勢推定技術は、ステレオカメラの撮像タイミングが同期していることを前提とする。
しかしながら、撮像タイミングを同期させる同期回路を備えた専用のステレオカメラは高価である。故に、比較的安価な汎用カメラ2台を備えるステレオカメラを用いて位置姿勢を高精度に推定する技術が求められている。
以下、図面を参照しながら実施形態の説明が述べられる。尚、以降、説明済みの要素と同一または類似の要素には同一または類似の符号が付され、重複する説明は基本的に省略される。
(第1の実施形態)
図1に例示されるように、第1の実施形態に係る位置姿勢推定装置10は、第1の撮像部101、第2の撮像部102および推定部103を含む。なお、便宜的に、後述される位置姿勢の推定処理は、第1の撮像部101の撮像タイミングに応じて実行されることとし、第1の撮像部101および第2の撮像部102はそれぞれ基準カメラおよび参照カメラとも呼ばれることとする。
第1の撮像部101は、撮像により基準画像110を生成する。第1の撮像部101は、複数回撮像を行う。第1の撮像部101は、例えば、第1の周期で繰り返し撮像を行う。第1の撮像部101は、複数の基準画像110を推定部103に与える。
第1の撮像部101は、複数のレンズを含む光学系とCMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)などのイメージセンサとを備えたディジタルカメラを用いて実装することができる。第1の撮像部101によって撮像される第1の撮像領域は、第1の撮像部101の外界の一部である。第1の撮像部101の撮像できる範囲は、当該第1の撮像部101の画角、イメージセンサのサイズなどに依存して決まる。第1の周期は、例えば一般的なディジタルカメラを用いて第1の撮像部101を実装する場合には、30fps(frames per second)または60fps程度である。
第2の撮像部102は、第1の撮像領域と一部重複する第2の撮像領域を撮像することで参照画像111を生成する。第2の撮像部102は、複数回撮像を行う。第2の撮像部102は、例えば、第2の周期で繰り返し撮像を行う。第2の撮像部102は、複数の参照画像111を推定部103に与える。なお、第2の撮像部102の位置姿勢は、基準カメラとしての第1の撮像部101の位置姿勢に基づいて得ることができる。第1の撮像部101の位置姿勢を基にした第2の撮像部102の位置姿勢は、後述する推定部103または図示されない記憶部等に記憶されていてもよい。
第2の撮像部102は、第1の撮像部101と同様に、ディジタルカメラを用いて実装することができる。第2の撮像部102の内部パラメータ(例えば、解像度、レンズの焦点距離など)は、第1の撮像部101と同じでもよいし、異なっていてもよい。以降の説明では、両者の内部パラメータは同一であることとする。また、第2の周期は、第1の周期と同期していてもよいし同期していなくてもよい。すなわち、位置姿勢推定装置10は、第1の撮像部101と第2の撮像部102の撮像を同期する同期回路を有していなくてもよい。
第2の周期が第1の周期と同期しているならば、図3に例示されるように、第1の撮像部101および第2の撮像部102は間隔Δt毎に同一のタイミングでそれぞれ撮像を開始および終了することができる。この場合には、撮像タイミングが同期しているステレオカメラを用いた従来のSLAMを実行することで、第1の撮像部101(基準カメラ)の位置姿勢を高精度に推定することができる。
他方、第2の周期が第1の周期と同期していないならば、図4に例示されるように、第1の撮像部101および第2の撮像部102は異なるタイミングで撮像を行う。具体的には、第1の撮像部101がある時刻(t)に撮像を行うと、それから遅延時間(δ)を経た時刻(t+δ)に第2の撮像部102が撮像を行う。同様に、第1の撮像部101が別の時刻(t+Δt)に撮像を行うと、それから遅延時間(δ)を経た時刻(t+Δt+δ)に第2の撮像部102が撮像を行う。なお、遅延時間(δ)および遅延時間(δ)は、同じであってもよいし異なっていてもよい。
これらの遅延時間(δまたはδ)の間に第2の撮像部102が移動すると、第2の撮像部102が撮像を行う位置はこの移動に応じて理想的な撮像位置(時刻(tまたはt+Δt)における第2の撮像部102の位置)からずれてしまう。すなわち、時刻(t+Δt)における第2の撮像部102の推定位置に対する第2の撮像部102が参照画像を撮像した位置のずれが生じる。第2の撮像部102の推定位置は、予め与えられた、第1の撮像部101の位置姿勢を基にした第2の撮像部102の位置姿勢から得ることができる。
しかしながら、以下に説明されるように、推定部103は、第1の撮像部101および第2の撮像部102の撮像タイミングが同期していないことにより上記ずれが発生したとしても、第1の撮像部101および第2の撮像部102の位置姿勢を高精度に推定することができる。
推定部103は、第1の撮像部101から基準画像110を受け取り、第2の撮像部102から参照画像111を受け取る。推定部103は、第1の時刻(t+1)に関連付けられる基準画像110−1および参照画像111−1と、当該第1の時刻(t+1)よりも過去の第2の時刻(t)に関連付けられる基準画像110−2および参照画像111−2とに基づいて、推定処理を行う。そして、推定部103は、第1の時刻(t+1)における第1の撮像部101の(第2の時刻(t)の位置姿勢を基準とした)相対的な位置姿勢と、第2の撮像部102が参照画像111−1および111−2を撮像した位置の理想的な撮像位置(すなわち、第1の時刻(t+1)および第2の時刻(t)における第2の撮像部102の位置)からのずれとを推定する。第1の時刻(t+1)における第1の撮像部101の相対的な位置姿勢と、第2の撮像部102が参照画像111−1および111−2を撮像した位置の理想的な撮像位置からのずれは、同時に推定されても良い。推定部103は、推定結果を示す推定データ112を外部出力する。
図1の位置姿勢推定装置10は、例えば図2に示されるように動作する。図2の動作は、基準カメラとしての第1の撮像部101が第1の時刻(t+1)に基準画像110−1を取得することで開始する(ステップS201)。他方、参照カメラとしての第2の撮像部102も参照画像111−1を撮像する(ステップS202)。なお、図2の例では、ステップS202は、ステップS201よりも後に実行されているが、実際にはこれらの順序は逆であってもよいし同時であってもよい。
推定部103は、ステップS201およびステップS202においてそれぞれ取得された基準画像110−1および参照画像111−1と、ステップS201およびステップS202の前回の実行時に取得された基準画像110−2および参照画像111−2とに基づいて、第1の撮像部101(基準カメラ)の位置姿勢の推定を行う(ステップS203)。
具体的には、推定部103は、まず、基準画像110−1および参照画像111−1にRectificationを施す。Rectificationは、基準画像110−1および参照画像111−1を完全な平行ステレオカメラによって撮像されたようなステレオペア画像へと変換する。なお、レンズ歪除去をRectificationに予め合成すれば、2つの変換を一度に行うことも可能である。変換パラメータは、キャリブレーションにより求まった第1の撮像部101および第2の撮像部102の外部パラメータおよびレンズ歪パラメータに基づいて計算することができる。Rectificationを施すことにより、後述される画像間での特徴点の対応の探索範囲が画像の横1ライン上に限定されるので、容易かつロバストな探索が可能となる。加えて、三角測量を利用した3次元点の復元の計算を簡単化することができる。
推定部103は、次に、第1の時刻(t+1)のステレオペア画像と、第2の時刻(t)のステレオペア画像(これはステップS203の前回の実行時に生成されているかもしれない)との合計4枚の画像から特徴点を抽出し、全ての対応を探索する。特徴点の抽出および対応の探索は、例えば特徴量に基づいて行われる。特徴量は、例えば、SIFT(Scale−Invariant Feature Transform)、SURF(Speeded Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)、KAZE(KAZE Features)、AKAZE(Accelerated KAZE)などの手法を用いて計算することができる。
推定部103は、次に、第1の時刻(t+1)における第1の撮像部101の相対的な位置姿勢と、第2の撮像部102が参照画像111−1および111−2を撮像した位置の理想的な撮像位置からのずれとを同時に推定する。
ここで、参照画像111−1の理想的な撮像位置は、例えば、第1の撮像部101と第2の撮像部102との位置関係に応じて、第1の時刻(t+1)における第1の撮像部101の位置をシフトさせることで算出することができる。第1の撮像部101と第2の撮像部102との位置関係は、例えばキャリブレーション時に導出することができる。
第2の撮像部102の理想的な撮像位置からのずれは、並進運動によるずれおよび回転運動によるずれに分解することができる。第2の撮像部102がその光学中心から所与の特徴点までを結ぶ直線に対して直交する方向に並進運動を行ったとすれば、当該特徴点の参照画像111−1における投影点のずれの大きさは、第1の時刻(t+1)における第2の撮像部102の光学中心から当該特徴点までの距離に反比例して小さくなる。他方、第2の撮像部102が回転運動を行ったとすれば、所与の特徴点の参照画像111−1における投影点のずれの大きさは、第1の時刻(t+1)における上記光学中心から当該特徴点までの距離に依存しない。故に、第2の撮像部102が特徴点からある程度離れているならば、当該特徴点の参照画像111における投影点のずれの大きさは主に回転運動によるずれに依存する。従って、以降の説明では、例えば、第2の撮像部102の理想的な撮像位置からのずれは、回転運動によるずれとみなすこととする。
推定部103は、第1の時刻(t+1)における第1の撮像部101の相対的な位置姿勢を3次元の並進ベクトルtおよび3行×3列の回転行列Rで表す。また、推定部103は、第2の時刻(t)および第1の時刻(t+1)に関する第2の撮像部102の理想的な撮像位置からのずれを3行×3列の回転行列RおよびRで表す。そして、推定部103は、これらのパラメータt、R、RおよびRを変数とする下記数式(1)に示される評価関数を最小化するように、これらのパラメータの値を推定する。
数式(1)において、w CLおよびw CRは、第1の時刻(t+1)の左画像および右画像(前述の変換後の基準画像110−1および参照画像111−2)それぞれにおける第i番目の特徴点の位置を表す。さらに、
は、第2の時刻(t)の左画像および右画像の第i番目の特徴点に基づいて復元した位置
を第1の時刻(t+1)における第1の撮像部101および第2の撮像部102それぞれに投影した再投影点の位置を表す。なお、特徴点および再投影点は同次座標で表される。復元した位置は、例えば、時刻(t+Δt)における基準位置に基づいて2次元または3次元で表わされる。
数式(1)は、特徴点の位置に対する再投影点の位置の誤差(以降、再投影誤差と称される)を評価するので、再投影誤差関数と呼ぶこともできる。
再投影点の位置は、下記数式(2)により算出することができる。
数式(2)のうちAは第1の撮像部101(或いは第2の撮像部102)の内部パラメータを表す3行×3列の行列である。なお、前述のように、第2の撮像部102の内部パラメータは、第1の撮像部101と同じである。t=[−b 0 0]であって、bは第1の撮像部101および第2の撮像部102の間の眼間距離を表す。bは、例えばキャリブレーション時に導出される。また、pは復元された3次元点の位置を表しており、下記数式(3)で導出することができる。
数式(3)において、tri(z,z’)は、三角測量の原理に基づいて3次元点を復元する関数であり、z=[z 1]およびz=[z’ z’ 1]の場合には下記数式(4)で表すことができる。
数式(4)において、c、cおよびfは、第1の撮像部101(或いは第2の撮像部102)の光学中心の中点のx座標およびy座標ならびに第1の撮像部101の焦点距離を表す。なお、前述のように、第2の撮像部102の内部パラメータ(c、cおよびfを含む)は、第1の撮像部101と同じである。c、cおよびfは、キャリブレーション時に導出することができる。
ここで説明された種々の点、ベクトルおよび行列の関係は、図5に模式的に例示されている。また、推定部103は、再投影誤差を最小化するために、ニュートン法、準ニュートン法、Levenberg−Marquardt法などを用いることができる。また、特徴点間の対応の探索では、誤対応が得られることもある。故に、推定部103は、例えばRANSAC(Random sample consensus)法を用いて推定処理をロバスト化してもよい。
上記例では、推定部103は、第1の撮像部101の相対的な位置姿勢を3次元の並進ベクトルtおよび回転行列Rで表し、第2の撮像部102の理想的な撮像位置からのずれを回転行列RおよびRで表している。しかしなら、推定部103は、第1の撮像部101の相対的な位置姿勢および第2の撮像部102の理想的な撮像位置からのずれを異なるパラメータとして表すこともできる。
具体的には、第1の撮像部101および第2の撮像部102が2次元平面を3自由度(x並進成分、y並進成分、回転成分)で移動すると仮定することができるならば、第1の撮像部101の相対的な位置姿勢は、x並進成分t、y並進成分tおよび回転成分(角度)θで表すことができる。同様に、第1の撮像部101の相対的な位置姿勢および第2の撮像部102の理想的な撮像位置からのずれは、回転成分θおよびθで表すことができる。従って、上記数式(1)の再投影誤差関数は、下記数式(5)に置き換えることができる。
また、上記例では、推定部103は、並進ベクトルtならびに回転行列R、RおよびRのパラメータセット、または、x並進成分t、y並進成分tならびに回転成分θ,θおよびθのパラメータセットを全て同時に推定する。しかしながら、推定部103は、過去に、第2の時刻(t)に関する第2の撮像部102の理想的な撮像位置からのずれ(すなわち、回転行列Rまたは回転成分θ)を推定している可能性がある。このような場合には、推定部103は、回転行列Rまたは回転成分θを過去の推定値に設定して、上記数式(1)または数式(7)に示す再投影誤差関数を最小化してもよい。しかしながら、推定処理を繰り返すにつれ、回転行列Rまたは回転成分θの再利用に起因する誤差が累積するので、高精度な推定を実現するためには全てのパラメータを同時に推定することが好ましい。
第1の実施形態に係る位置姿勢推定装置は、例えば図6に例示されるコンピュータ60を用いて実装することができる。コンピュータ60は、CPU(Central Processing Unit)601と、入力装置602と、表示装置603と、通信装置604と、記憶装置605とを含んでおり、これらはバス606を介して相互に接続されている。
CPU601は、種々のプログラムを実行することで、コンピュータ60の制御装置および演算装置として機能する電子回路である。CPU601は、例えば、入力装置602、通信装置604または記憶装置605からデータを入力して演算処理を行う。そして、CPU601は、演算結果または当該演算結果に基づく制御信号を例えば、表示装置603、通信装置604、記憶装置605へと出力する。
具体的には、CPU601は、コンピュータ60のOS(オペレーティングシステム)に加えて、コンピュータ60を第1の実施形態に係る位置姿勢推定装置として機能させるための位置姿勢推定プログラム(画像処理プログラムと呼ぶこともできる)を実行することにより、バス606を介して接続された各装置を制御する。
この位置姿勢推定プログラムは、一時的でない有形のコンピュータ読み取り可能な記録媒体に記録される。記録媒体は、例えば、光ディスク、光磁気ディスク、磁気ディスク、磁気テープ、フラッシュメモリまたは半導体メモリであってもよいが、これらに限られない。位置姿勢推定プログラムは、記憶装置605に予め保存されていてもよいし、記憶装置605以外の記録媒体に保存されていてもよいし、ネットワーク(例えばインターネット)上にアップロードされていてもよい。いずれにせよ、位置姿勢推定プログラムをコンピュータ60にインストールし、CPU601が当該位置姿勢推定プログラムを実行することによって、コンピュータ60は第1の実施形態に係る位置姿勢推定装置として機能する。
入力装置602は、コンピュータ60への入力情報を受付る。入力装置602は、第1の撮像部101および第2の撮像部102としてのディジタルカメラを含むことができる。入力装置602は、例えば、キーボード、マウス、タッチパネルなどをさらに含むこともできる。
表示装置603は、静止画像または動画像を表示する。表示装置603は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、PDP(Plasma Display Panel)などであってもよいが、これらに限られない。表示装置603は、例えば基準画像110および参照画像111を表示してもよいし、当該基準画像110および参照画像111に含まれる特徴点を表示してもよい。また、表示装置603は、位置姿勢推定プログラムの実行結果に基づいて作成されたマップ画像を表示してもよい。さらに、表示装置603は、第1の撮像部101(基準カメラ)の現在の位置姿勢を重畳したマップ画像を表示してもよいし、第1の撮像部101(基準カメラ)の位置姿勢の軌跡を重畳したマップ画像を表示してもよい。
通信装置604は、外部装置に対して無線または有線通信を行う。通信装置604は、例えば、モデム、ハブ、ルータなどであってもよいが、これらに限られない。なお、第1の撮像部101および第2の撮像部102は、コンピュータ60ではなく外部装置に備え付けられていてもよい。この場合には、CPU601は、通信装置604によって受信された基準画像110および参照画像111に基づいて位置姿勢の推定処理を行う。
記憶装置605は、種々のプログラム(例えば、コンピュータ60のOS、位置姿勢推定プログラムなど)、当該プログラムの実行に必要なデータ、当該プログラムの実行により生成されたデータなどを記憶する。
記憶装置605は、主記憶装置と外部記憶装置とを含む。主記憶装置は、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static RAM)などのRAMであるが、これに限られない。外部記憶装置は、例えば、ハードディスク、光ディスク、フラッシュメモリ、磁気テープなどであるが、これらに限られない。
なお、CPU601、入力装置602、表示装置603、通信装置604および記憶装置605は、それぞれ複数の装置を含むことができる。また、図6には示されていない周辺機器(例えば、プリンタ、スキャナ)がコンピュータ60に接続されてもよい。
さらに、単独のコンピュータ60ではなく相互に接続されたコンピュータ60(すなわち、コンピュータシステム)を用いて、第1の実施形態に係る位置姿勢推定装置を実装することもできる。
以上説明したように、第1の実施形態に係る位置姿勢推定装置は、第1の時刻における第1の撮像部の第2の時刻を基準とした相対的な位置姿勢と、第2の撮像部が第1の参照画像および第2の参照画像を撮像した位置の理想的な撮像位置からのずれとを同時に推定する。従って、この位置姿勢推定装置によれば、第1の撮像部および第2の撮像部の撮像タイミングが同期していなくても、基準カメラとしての第1の撮像部の位置姿勢を推定することができる。すなわち、この位置姿勢推定装置は、比較的安価な汎用カメラ2台を備えるステレオカメラを用いて実装することができる。
なお、この位置姿勢推定装置は、第1の時刻または第2の時刻と第2の撮像部が第1の参照画像または第2の参照画像を撮像した時刻との間の時間差が未知であっても、当該第1の時刻または第2の時刻に関する第2の撮像部の理想的な撮像位置からのずれを推定できる。従って、この位置姿勢推定装置は、例えば上記時間差を計測するためのタイムスタンプを取得できない状況下であっても使用可能である。
さらに、この位置姿勢推定装置は、第1の時刻または第2の時刻から第1の参照画像または第2の参照画像が撮像されるまでの第2の撮像部の動きを例えば等速直線運動などと仮定することによる単純化をしない。故に、この位置姿勢推定装置によれば、この動きが回転運動または加速度運動を含んでいたとしても、第1の時刻または第2の時刻に関する第2の撮像部の理想的な撮像位置からのずれを高精度に推定することができる。
本実施形態の位置姿勢推定装置によると、移動体が、現在位置や目的位置を取得したり、現在位置から目的位置まで効率よく移動したりすることができる。移動体は、位置姿勢推定装置を備えていてもよいし、位置姿勢推定装置から遠隔に移動の指示を受けてもよい。
(第2の実施形態)
前述の第1の実施形態に係る位置姿勢推定装置は、例えば、図7乃至図9に例示される電気掃除機(電気掃除システム)11に組み込むことができる。電気掃除機11は、いわゆる自走式のロボットクリーナ(掃除ロボットとも呼ばれる)であって、掃除対象領域(例えば建物内の床面)上を自律走行しながら掃除を行う。
電気掃除機11は、例えば図10に示される充電装置12を基地として、一連の掃除動作を行うことができる。すなわち、電気掃除機11は、充電装置12を出発して走行しながら掃除を行い、最終的に当該充電装置12に帰還して次の掃除動作指示を待機する。充電装置12は、電気掃除機11と機械的および電気的に接続した状態で、当該電気掃除機11に内蔵された二次電池28を充電する。
電気掃除機11は、図7および図10に例示されるように、中継装置としてのホームゲートウェイ14(ルータ、アクセスポイントなどであってもよい)と有線通信または無線通信(例えば、Wi−Fi(登録商標)、Bluetooth(登録商標)など)を行ってもよい。ホームゲートウェイ14は、インターネットなどのネットワーク15に例えば有線で接続されており、当該ネットワーク15を介して外部装置としてのサーバ16、スマートフォン17、PC18(タブレットであってもよい)などの通信機器と通信可能である。すなわち、電気掃除機11は、ホームゲートウェイ14およびネットワーク15を介して、サーバ16、スマートフォン17、PC18などと通信することができる。
サーバ16は、ネットワーク15に接続されたコンピュータ(クラウドサーバ)であって、電気掃除機11に関わる種々のデータ(例えば、電気掃除機11から送信された画像)を保存することができる。サーバ16は、保存しているデータを、スマートフォン17またはPC18からの要求に応じて送信してもよい。
スマートフォン17またはPC18は、ホームゲートウェイ14が設置された建物の内部では例えば当該ホームゲートウェイ14を介して電気掃除機11と有線通信または無線通信を行うことができる。また、スマートフォン17またはPC18は、建物の外部からもネットワーク15を介して電気掃除機11と有線通信または無線通信を行うことができる。スマートフォン17またはPC18は、いずれも画像を表示する表示装置を含む。
このようなネットワークにより、例えば、電気掃除機11のユーザは、スマートフォン17またはPC18を操作して電気掃除機11に動作を指示したり、電気掃除機11の掃除作業の結果(例えば走行履歴)を画像としてスマートフォン17またはPC18に備え付けられた表示装置を介して閲覧したりすることができる。この画像は、例えば、サーバ16からダウンロードされる。
電気掃除機11は、本体ケース20を含む。この本体ケース20は、例えば合成樹脂などにより略円柱(厚みのある円盤)状に形成される。すなわち、本体ケース20は、それぞれ略円形の上面部20bおよび下面部20cと、これらを接続する略円筒状の側面部20aとを含む。また、本体ケース20の内部は中空であって、種々の部品(例えば、制御部27、二次電池28、電動送風機41、集塵部46など)を内蔵する。
以降の説明では、電気掃除機11(本体ケース20)を走行させる駆動輪34の回転軸方向に略平行な方向を左右方向(幅方向)とし、当該幅方向に略直交する電気掃除機11の走行方向を前後方向(図8および図9のFRおよびRR)とする。図8および図9では、理解を助けるために、前後方向に平行に中心線Lが描かれている。
本体ケース20の側面部20aの前方両側には、図8に例示されるように、撮像部25(より具体的には、左カメラ51−Lおよび右カメラ51−R)などが取り付けられている。左カメラ51−Lおよび右カメラ51−Rは、両者(の例えば光学中心)を結ぶ直線が例えば幅方向(すなわち、駆動輪34の回転軸方向)に略平行になるように取り付けられる。左カメラ51−Lおよび右カメラ51−Rは、例えば可視光領域の画像を取得する。可視光領域の画像は、例えば赤外領域の画像に比べて画質が良好であるので、複雑な画像処理を施すことなくユーザに視認可能に表示することができる。
さらに、左カメラ51−Lおよび右カメラ51−Rの周囲には図示されないランプ(例えば、LED(Light Emitting Diode))が取り付けられてもよい。このランプは、例えば周囲の明るさが所定以下の場合に点灯し、それ以外の場合には点灯しないように例えば後述される制御部27によって制御される。ランプは、点灯時に可視光領域を含む光を発生することで、左カメラ51−Lおよび右カメラ51−Rのための照明として機能し、物陰のような暗い場所や夜間などでも適切な画像を取得できるようにする。
なお、左カメラ51−Lおよび右カメラ51−Rは、赤外領域の画像を取得する赤外線カメラであってもよい。この場合には、図示されないランプによって赤外領域を含む光を発生することで、周囲の明るさを問わず安定的に適切な画像を取得することができる。さらに、このランプによって発生する光が可視光領域を含まないならば、当該ランプを物陰のような暗い場所や夜間などで点灯させたとしても、周囲の人間に明るく感じさせることなく撮像作業を遂行することができる。
本体ケース20の下面部20cは、走行時に掃除対象領域と向かい合う面であって、図9に例示されるように、電気掃除機11を走行させるための駆動輪34および旋回輪36が露出している。また、下面部20cには、集塵口としての吸込み口31と、排気口32とが開口されている。吸込み口31付近には塵埃を当該吸込み口31へと掻き揚げる回転清掃体としての回転ブラシ42が回転可能に取り付けられており、下面部20cの前方両側には塵埃を掻き集める補助掃除部としてのサイドブラシ44が回転可能に取り付けられている。さらに、下面部20cの後方両側には、本体ケース20に内蔵された二次電池28を充電装置12に電気的および機械的に接続させて充電を可能とする充電端子71が取り付けられている。
この電気掃除機11は、図7に例示されるように、走行部21と、掃除部22と、通信部23と、撮像部25と、センサ部26と、制御部27と、二次電池28とを含む。
二次電池28は、電気掃除機11の動力源であって、走行部21、掃除部22、通信部23、撮像部25、センサ部26および制御部27への給電を行う。なお、二次電池28は、前述の充電端子71と電気的に接続されており、当該充電端子71を介して充電装置12に電気的および機械的に接続することで充電が可能となる。
走行部21は、電気掃除機11の本体ケース20を掃除対象領域上で走行させる。具体的には、走行部21は、一対の駆動輪34と、一対のモータ35と、旋回輪36とを含む。
各駆動輪34は、対応するモータ35から伝達される動力によって回転駆動され、電気掃除機11を掃除対象領域上で前後方向に走行させる。各駆動輪34は、その回転軸が前述のように本体ケース20の幅方向に略平行であり、図9に例示されるように本体ケース20の前後方向を軸として略対称に配置される。なお、駆動輪34は、それぞれ対応するモータ35によって独立に駆動される。
各モータ35は、後述される走行制御部66からの制御に従って、対応する駆動輪34に動力を伝達する。旋回輪36は、掃除対象領域上で旋回可能な従動輪であって、図9に例示されるように本体ケース20の前方中央付近に配置される。
掃除部22は、掃除対象領域上にある塵埃を掃除する。具体的には、掃除部22は、電動送風機41と、回転ブラシ42と、ブラシモータ43と、一対のサイドブラシ44と、一対のサイドブラシモータ45と、集塵部46とを含む。なお、ここで例示された一部の要素を省略したとしても、掃除対象領域上の塵埃を掃除することは可能である。
電動送風機41は、本体ケース20に内蔵されており、後述される掃除制御部67からの制御に従って動作する。電動送風機41は、吸込み口31から空気とともに塵埃を吸込み、吸い込んだ空気を排気口32から排気する。電動送風機41によって吸い込まれた塵埃は集塵部46へと導かれる。
ブラシモータ43は、掃除制御部67からの制御に従って、前述の回転ブラシ42を回転駆動する。サイドブラシモータ45は、掃除制御部67からの制御に従って、前述のサイドブラシ44を個別に回転駆動する。集塵部46は、吸込み口31に連通して配置されており、当該吸込み口31を介して吸い込まれた塵埃を集積する。
通信部23は、充電装置12またはホームゲートウェイ14などの外部装置と通信をする。具体的には、通信部23は、無線LANデバイス47を含む。通信部23は、図6の通信装置604に相当する。
無線LANデバイス47は、ホームゲートウェイ14およびネットワーク15を介して外部装置(例えば、サーバ16、スマートフォン17、PC18など)へと種々の情報を送信したり、逆に外部装置から種々の情報を受信したりする。無線LANデバイス47は、例えば本体ケース20に内蔵することができる。
なお、通信部23は、図示されない送信部および受信部を含むことができる。この送信部は、例えば充電装置12へ赤外線信号(無線信号)を送信する赤外線発光素子であってよい。また、この受信部は、充電装置12または図示されないリモートコントローラから送信された赤外線信号(無線信号)を受信するフォトトランジスタであってよい。
撮像部25は、電気掃除機11の周囲の画像を取得する。前述のように、撮像部25は、左カメラ51−Lおよび右カメラ51−Rを含み、図示されないランプを含むこともできる。左カメラ51−Lおよび右カメラ51−Rは、前述の第1の撮像部101および第2の撮像部102にそれぞれ相当する。すなわち、左カメラ51−Lおよび右カメラ51−Rは、後述される撮像制御部68からの制御に従って、個別の撮像タイミングで画像を取得する。なお、左カメラ51−Lおよび右カメラ51−Rによって取得された画像は、図示されない画像処理回路によって所定のデータ形式へと圧縮されてもよい。
センサ部26は、例えば各駆動輪34または各モータ35の回転数を測定する回転数センサ55を含む。回転数センサ55は、例えば光エンコーダであってよい。なお、回転数センサ55は省略可能である。
制御部27は、走行部21、掃除部22、通信部23および撮像部25などを制御する。具体的には、制御部27は、メモリ61と、位置姿勢推定部62と、走行制御部66と、掃除制御部67と、撮像制御部68と、マップ作成部70とを含む。制御部27は、例えばマイクロコントローラであってよい。制御部27は、図6のCPU601および記憶装置605に相当する。
なお、図7の機能分割は一例に過ぎない。例えば、位置姿勢推定部62、走行制御部66、掃除制御部67、撮像制御部68およびマップ作成部70の一部または全部が、制御部27とは独立して設けられてもよいし、これらのうちの2つ以上を任意に組み合わせることもできる。
メモリ61には、例えば、左カメラ51−Lおよび右カメラ51−Rによって取得された画像などの種々の制御または演算に必要とされるデータが保存される。なお、メモリ61に保存されたデータは、電気掃除機11の電源状態に関わらず維持されることが好ましい。故に、メモリ61は、例えばフラッシュメモリなどの不揮発性記録媒体である。
位置姿勢推定部62は、図1の推定部103に相当する。すなわち、位置姿勢推定部62は、左カメラ51−Lおよび右カメラ51−Rによって取得された画像(それぞれ基準画像110および参照画像111に対応)をメモリ61から読み出して、前述の推定処理を行う。位置姿勢推定部62は、基準カメラとしての左カメラ51−Lの位置姿勢を示す推定データを生成する。なお、位置姿勢推定部62は、推定した左カメラ51−Lの位置姿勢を本体ケース20の中心の位置姿勢へと変換してもよい。この推定データは、例えば走行制御部66によって自律走行の制御(例えば、速度または方向の決定)に利用されたり、マップ作成部70によってマップ作成に利用されたりする。
走行制御部66は、各モータ35に流れる電流の大きさおよび向きをそれぞれ制御することで、当該モータ35を正転または逆転させる。各駆動輪34は、対応するモータ35の回転に連動し、電気掃除機11を所望の方向へと走行させる。
掃除制御部67は、電動送風機41、ブラシモータ43およびサイドブラシモータ45を個別に導通角制御する。なお、掃除制御部67は、電動送風機41、ブラシモータ43およびサイドブラシモータ45のそれぞれにつき1つずつ設けられてもよい。撮像制御部68は、左カメラ51−Lおよび右カメラ51−Rの撮像開始および撮像終了を個別制御する。
マップ作成部70は、位置姿勢推定部62によって生成された推定データに基づいてマップ画像を作成する。マップ作成部70は、電気掃除機11の外界だけでなく電気掃除機11の現在の位置姿勢を重畳したマップ画像を作成してもよいし、電気掃除機11の位置姿勢の軌跡(すなわち、走行履歴)を重畳したマップ画像を作成してもよい。
制御部27の動作状態は、電気掃除機11に自律走行しつつ掃除を行わせる掃除モードと、電気掃除機11を充電装置12に電気的および機械的に接続させて二次電池28の充電を行う充電モードと、次の掃除モードが開始するまで電気掃除機11を例えば充電装置12に接続した状態で待機させる待機モードとに大別することができる。このうち充電モードでは、例えば充電装置12に内蔵された定電流回路などの充電回路を用いた既知の手法が適用可能である。なお、制御部27は、スマートフォン17、PC18または図示されないリモートコントローラからの指示に従って、左カメラ51−Lおよび右カメラ51−Rのうち少なくとも一方に例えば所定の対象物を撮像させてもよい。
例えば予め設定されている掃除開始時刻が到来したり、スマートフォン17、PC18または図示されないリモートコントローラから送信された掃除開始指令信号を受信したりすると、制御部27の動作状態は待機モードまたは充電モードから掃除モードへと遷移する。掃除モードが開始すると、制御部27の走行制御部66は各モータ35を駆動させ、電気掃除機11は充電装置12から所定距離離脱する。
それから、電気掃除機11は、掃除対象領域上を自律走行しつつ掃除をする。電気掃除機11の走行中に、制御部27の撮像制御部68は、左カメラ51−Lおよび右カメラ51−Rにそれぞれ周期的に撮像を行わせ、本体ケース20の前方正面のステレオ画像(すなわち、基準画像110および参照画像111)を取得する。取得されたステレオ画像は、メモリ61に保存される。
制御部27の位置姿勢推定部62は、メモリ61に保存されているステレオ画像を読み出して、前述の推定処理を行う。位置姿勢推定部62は、基準カメラとしての左カメラ51−L(若しくは本体ケース20の中心)の位置姿勢を示す推定データ112を生成する。そして、制御部27の走行制御部66は、この推定データ112に基づいて、電気掃除機11の自律走行を制御する。
なお、メモリ61に保存された画像は、所定のタイミングでホームゲートウェイ14およびネットワーク15を介してサーバ16へと送信(アップロード)されてもよい。具体的には、画像は、電気掃除機11が充電装置12に帰還した時にアップロードされてもよいし、掃除作業中に定期的に若しくは不定期にアップロードされてもよいし、スマートフォン17またはPC18などの外部装置からの要求に応じてアップロードされてもよい。送信済みの画像はメモリ61から消去されてもよいし、当該画像の記憶領域が新たなデータを上書きするために利用されてもよい。これにより、メモリ61の容量を効率よく使用することができる。なお、サーバ16の代わりに、メモリ61、スマートフォン17またはPC18がデータを蓄積することも可能である。
制御部27の掃除制御部67は、電気掃除機11の走行中に、電動送風機41、ブラシモータ43およびサイドブラシモータ45を駆動する。これにより、掃除対象領域上にある塵埃は、吸込み口31から吸い込まれて集塵部46に集積される。
掃除対象領域の掃除作業が完了すると、制御部27の走行制御部66は電気掃除機11を充電装置12へと帰還させる。なお、予定された掃除作業を完了させるのに二次電池28の容量が十分でない場合には、最終的に二次電池28の容量が枯渇して電気掃除機11は充電装置12へ帰還できないかもしれない。故に、掃除作業の途中であっても二次電池28の容量が所定値まで低下している(例えば、二次電池28の電圧が放電終止電圧近傍まで低下している)場合には、制御部27の走行制御部66は電気掃除機11を充電装置12へと帰還させてもよい。充電端子71が充電装置12に電気的および機械的に接続されると、制御部27の動作状態は掃除モードから充電モードに遷移する。充電完了後に、制御部27の動作状態は待機モードへと遷移してもよいし、再び掃除モードに復帰してもよい。
以上説明したように、第2の実施形態に係る電気掃除機は、前述の第1の実施形態で記述されたように自己の位置姿勢を推定し、推定結果に基づいて自律走行する。故に、この電気掃除機によれば、自己の位置姿勢と周囲のマップとを考慮して走行することで、掃除作業を効率的に遂行することができる。また、この電気掃除機は、撮像タイミングの同期していないステレオカメラによって取得された画像に基づいて自己の位置姿勢を推定できるので、コストを削減することができる。
なお、スマートフォン17またはPC18などの外部装置に表示される画像は、例えば制御部27によって当該外部装置に表示できるように処理されてもよいし、当該外部装置にインストールされた専用のプログラム(アプリケーション)によって当該外部装置に表示できるように処理されてもよい。或いは、制御部27またはサーバ16が画像に対して予め処理を行うことで、外部装置はブラウザなどの汎用のプログラムを用いて画像を表示することもできる。すなわち、画像の表示制御は、制御部27、サーバ16または外部装置にインストールされたプログラムによって実現することができる。
また、左カメラ51−Lおよび右カメラ51−Rによって取得された画像は、例えば電気掃除機11に備え付けられた表示部(例えば、図6の表示装置603に相当)に直接的に表示されてもよい。この場合には、電気掃除機11がホームゲートウェイ14およびネットワーク15を介して画像を送信できなくても、ユーザは当該画像を閲覧することができる。すなわち、ネットワーク設備が貧弱な環境下での画像閲覧が可能となるとともに電気掃除機11の構成および制御を簡略化することもできる。
さらに、例えば、左カメラ51−Lおよび右カメラ51−Rの視野外にある障害物を検出する接触センサなどのセンサが本体ケース20の後部などに設けられてもよいし、掃除対象領域にある段差を検出する段差検出部(例えば、赤外線センサ)が本体ケース20の下面部20cなどに設けられてもよい。
電気掃除機(電気掃除システム)11の位置姿勢推定部62は、撮像部25が収められた本体ケースの外に設けられていても良い。すなわち、例えば、制御部27が、撮像部25および掃除部22と別に設けられていて、これらが無線または有線で通信してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10・・・位置姿勢推定装置
11・・・電気掃除機
12・・・充電装置
14・・・ホームゲートウェイ
15・・・ネットワーク
16・・・サーバ
17・・・スマートフォン
18・・・PC
20・・・本体ケース
20a・・・側面部
20b・・・上面部
20c・・・下面部
21・・・走行部
22・・・掃除部
23・・・通信部
25・・・撮像部
26・・・センサ部
27・・・制御部
28・・・二次電池
31・・・吸込み口
32・・・排気口
34・・・駆動輪
35・・・モータ
36・・・旋回輪
41・・・電動送風機
42・・・回転ブラシ
43・・・ブラシモータ
44・・・サイドブラシ
45・・・サイドブラシモータ
46・・・集塵部
47・・・無線LANデバイス
51−L・・・左カメラ
51−R・・・右カメラ
55・・・回転数センサ
60・・・コンピュータ
61・・・メモリ
62・・・位置姿勢推定部
66・・・走行制御部
67・・・掃除制御部
68・・・撮像制御部
70・・・マップ作成部
71・・・充電端子
101・・・第1の撮像部
102・・・第2の撮像部
103・・・推定部
110・・・基準画像
111・・・参照画像
112・・・推定データ
601・・・CPU
602・・・入力装置
603・・・表示装置
604・・・通信装置
605・・・記憶装置
L・・・中心線

Claims (7)

  1. 撮像タイミングが互いに同期していない第1の撮像部と第2の撮像部とを有するステレオカメラの第1の撮像部の位置姿勢を推定する位置姿勢推定装置であって、
    第1の時刻に撮像された第1の基準画像と第2の時刻に撮像された第2の基準画像とを生成する前記第1の撮像部と、
    前記第1の時刻に関連付けられる第1の参照画像および前記第2の時刻に関連付けられる第2の参照画像を生成する前記第2の撮像部と、
    前記第1の基準画像と前記第2の基準画像と前記第1の参照画像と前記第2の参照画像とに基づいて、前記第2の時刻における前記第1の撮像部の位置姿勢を基準とした前記第1の時刻における前記第1の撮像部の位置姿勢と、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれとを推定する推定部と
    を具備し、
    前記推定部は、前記第1の時刻における前記第2の撮像部の理想的な推定位置を、前記第1の撮像部と前記第2の撮像部との位置関係に応じて前記第1の時刻における前記第1の撮像部の位置をシフトさせることによって算出し、
    前記推定部は、前記第1の基準画像と前記第2の基準画像と前記第1の参照画像と前記第2の参照画像との間で対応する特徴点を探索し、当該特徴点の位置を前記第2の基準画像および前記第2の参照画像に基づいて復元し、復元した位置を前記第1の時刻において前記第1の撮像部および前記第2の撮像部に投影することで得られる再投影点と、前記第1の基準画像および前記第1の参照画像に含まれる前記特徴点との間の誤差が最小となるように、前記第2の時刻における前記第1の撮像部の位置姿勢を基準とした前記第1の時刻における前記第1の撮像部の位置姿勢と、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれとを推定する、位置姿勢推定装置。
  2. 前記推定部は、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれを回転運動とみなす、請求項1に記載の位置姿勢推定装置。
  3. 前記推定部は、さらに前記第2の撮像部が前記第2の参照画像を撮像した位置の前記第2の時刻における前記第2の撮像部の理想的な推定位置からのずれを推定し、
    前記推定部は、前記第2の撮像部が前記第2の参照画像を撮像した位置の前記第2の時刻における前記第2の撮像部の理想的な推定位置を、前記第1の撮像部と前記第2の撮像部との位置関係に応じて前記第2の時刻における前記第1の撮像部の位置をシフトさせることによって算出する、請求項1に記載の位置姿勢推定装置。
  4. 前記推定部は、前記第2の時刻における前記第1の撮像部の位置姿勢を基準とした前記第1の時刻における前記第1の撮像部の位置姿勢を2自由度の並進成分および1自由度の回転成分として推定し、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれを1自由度の回転成分として推定する、請求項1に記載の位置姿勢推定装置。
  5. 請求項1乃至請求項のいずれか1項に記載の位置姿勢推定装置を具備する、電気掃除機システム。
  6. 前記電気掃除機を走行させる駆動輪をさらに具備し、
    前記駆動輪の回転軸は、前記第1の撮像部および前記第2の撮像部を結ぶ直線に対して略平行である、
    請求項記載の電気掃除機システム。
  7. コンピュータを
    撮像タイミングが互いに同期していない第1の撮像部と第2の撮像部とを有するステレオカメラの第1の撮像部の位置姿勢を推定する位置姿勢推定装置における、
    第1の時刻に撮像された第1の基準画像と第2の時刻に撮像された第2の基準画像とを生成する前記第1の撮像部の制御手段、
    前記第1の時刻に関連付けられる第1の参照画像と前記第2の時刻に関連付けられる第2の参照画像とを生成する前記第2の撮像部の制御手段、
    前記第1の基準画像と前記第2の基準画像と前記第1の参照画像と前記第2の参照画像とに基づいて、前記第2の時刻における前記第1の撮像部の位置姿勢を基準とした前記第1の時刻における前記第1の撮像部の位置姿勢と、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれとを推定する推定手段、
    として機能させ、
    前記推定手段は、前記第1の時刻における前記第2の撮像部の理想的な推定位置を、前記第1の撮像部と前記第2の撮像部との位置関係に応じて前記第1の時刻における前記第1の撮像部の位置をシフトさせることによって算出し、
    前記推定手段は、前記第1の基準画像と前記第2の基準画像と前記第1の参照画像と前記第2の参照画像との間で対応する特徴点を探索し、当該特徴点の位置を前記第2の基準画像および前記第2の参照画像に基づいて復元し、復元した位置を前記第1の時刻において前記第1の撮像部および前記第2の撮像部に投影することで得られる再投影点と、前記第1の基準画像および前記第1の参照画像に含まれる前記特徴点との間の誤差が最小となるように、前記第2の時刻における前記第1の撮像部の位置姿勢を基準とした前記第1の時刻における前記第1の撮像部の位置姿勢と、前記第1の時刻における前記第2の撮像部の理想的な推定位置に対する前記第2の撮像部が前記第1の参照画像を撮像した位置のずれとを推定する
    位置姿勢推定プログラム。
JP2015225013A 2015-11-17 2015-11-17 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム Active JP6659317B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015225013A JP6659317B2 (ja) 2015-11-17 2015-11-17 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
MYPI2016704116A MY179154A (en) 2015-11-17 2016-11-09 Pose estimation apparatus and vacuum cleaner system
EP16198145.1A EP3171334B1 (en) 2015-11-17 2016-11-10 Pose estimation apparatus and vacuum cleaner system
KR1020160150982A KR101950558B1 (ko) 2015-11-17 2016-11-14 자세 추정 장치 및 진공 청소기 시스템
TW105137410A TWI617277B (zh) 2015-11-17 2016-11-16 姿勢估計裝置及吸塵器系統
US15/354,378 US10375376B2 (en) 2015-11-17 2016-11-17 Pose estimation apparatus and vacuum cleaner system
CN201611011555.1A CN107067436B (zh) 2015-11-17 2016-11-17 位姿估计装置及真空清洁器系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225013A JP6659317B2 (ja) 2015-11-17 2015-11-17 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム

Publications (2)

Publication Number Publication Date
JP2017090416A JP2017090416A (ja) 2017-05-25
JP6659317B2 true JP6659317B2 (ja) 2020-03-04

Family

ID=57286312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225013A Active JP6659317B2 (ja) 2015-11-17 2015-11-17 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム

Country Status (7)

Country Link
US (1) US10375376B2 (ja)
EP (1) EP3171334B1 (ja)
JP (1) JP6659317B2 (ja)
KR (1) KR101950558B1 (ja)
CN (1) CN107067436B (ja)
MY (1) MY179154A (ja)
TW (1) TWI617277B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546385B2 (en) 2016-02-25 2020-01-28 Technion Research & Development Foundation Limited System and method for image capture device pose estimation
JP6831210B2 (ja) * 2016-11-02 2021-02-17 東芝ライフスタイル株式会社 電気掃除機
KR101938668B1 (ko) 2017-05-29 2019-01-15 엘지전자 주식회사 청소기 및 그 제어방법
CN107168343B (zh) * 2017-07-14 2020-09-15 灵动科技(北京)有限公司 一种行李箱的控制方法及行李箱
CN109254579B (zh) * 2017-07-14 2022-02-25 上海汽车集团股份有限公司 一种双目视觉相机硬件系统、三维场景重建系统及方法
KR102277650B1 (ko) * 2017-07-21 2021-07-16 엘지전자 주식회사 청소기 및 그 제어방법
KR101984516B1 (ko) * 2017-07-21 2019-05-31 엘지전자 주식회사 청소기 및 그 제어방법
US10671075B1 (en) * 2017-12-15 2020-06-02 Zoox, Inc. Trajectory generation using curvature segments
JP2019148926A (ja) * 2018-02-26 2019-09-05 株式会社リコー 情報処理装置、移動体システム、撮像システム及び情報処理方法
US11175677B2 (en) 2018-05-01 2021-11-16 Continental Automotive Systems, Inc. Tow vehicle and trailer alignment
US11198340B2 (en) 2018-05-01 2021-12-14 Continental Automotive Systems, Inc. Coupler and tow-bar detection for automated trailer hitching via cloud points
US10984553B2 (en) 2018-05-01 2021-04-20 Continental Automotive Systems, Inc. Real-time trailer coupler localization and tracking
US10733761B2 (en) 2018-06-29 2020-08-04 Zoox, Inc. Sensor calibration
JP7427614B2 (ja) * 2018-06-29 2024-02-05 ズークス インコーポレイテッド センサ較正
US11288842B2 (en) 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
CN110069593B (zh) * 2019-04-24 2021-11-12 百度在线网络技术(北京)有限公司 图像处理方法及系统、服务器、计算机可读介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
JP4160572B2 (ja) * 2005-03-31 2008-10-01 株式会社東芝 画像処理装置及び画像処理方法
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
JP4748082B2 (ja) 2007-02-23 2011-08-17 トヨタ自動車株式会社 車両用周辺監視装置及び車両用周辺監視方法
CN101419055B (zh) * 2008-10-30 2010-08-25 北京航空航天大学 基于视觉的空间目标位姿测量装置和方法
CN101581569B (zh) * 2009-06-17 2011-01-12 北京信息科技大学 双目视觉传感系统结构参数的标定方法
CN101865656B (zh) * 2010-06-18 2011-12-14 浙江大学 一种使用少数共面点精确定位多摄像头系统位姿的方法
US9286810B2 (en) * 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
CN102012706B (zh) * 2010-10-01 2015-06-24 苏州佳世达电通有限公司 能自动定位移动的电子装置及让其移动件自动归位的方法
CN103988226B (zh) * 2011-08-31 2017-09-26 Metaio有限公司 用于估计摄像机运动以及用于确定实境三维模型的方法
US9275459B2 (en) * 2012-10-05 2016-03-01 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
CN202956117U (zh) * 2012-12-04 2013-05-29 金宝电子(中国)有限公司 定位检测系统以及装置
CN103150728A (zh) * 2013-03-04 2013-06-12 北京邮电大学 一种动态环境中的视觉定位方法
EP2839769B1 (en) * 2013-08-23 2016-12-21 LG Electronics Inc. Robot cleaner and method for controlling the same
TWM477595U (zh) * 2013-11-18 2014-05-01 Weistech Technology Co Ltd 具有路線記憶功能之移動裝置
JP6266331B2 (ja) * 2013-12-13 2018-01-24 東芝ライフスタイル株式会社 走行体装置
CN103994755B (zh) * 2014-05-29 2016-03-30 清华大学深圳研究生院 一种基于模型的空间非合作目标位姿测量方法
JP6412819B2 (ja) * 2015-03-30 2018-10-24 株式会社東芝 画像処理装置、画像処理方法、および画像処理プログラム
JP2017027417A (ja) 2015-07-23 2017-02-02 株式会社東芝 画像処理装置及び電気掃除器
JP6705636B2 (ja) * 2015-10-14 2020-06-03 東芝ライフスタイル株式会社 電気掃除機

Also Published As

Publication number Publication date
EP3171334B1 (en) 2018-09-19
US10375376B2 (en) 2019-08-06
KR101950558B1 (ko) 2019-02-20
TW201720357A (zh) 2017-06-16
CN107067436A (zh) 2017-08-18
KR20170057840A (ko) 2017-05-25
EP3171334A1 (en) 2017-05-24
TWI617277B (zh) 2018-03-11
CN107067436B (zh) 2021-01-05
US20170140540A1 (en) 2017-05-18
JP2017090416A (ja) 2017-05-25
MY179154A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP6659317B2 (ja) 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
JP6785860B2 (ja) 多方向カメラを使用した空間のマッピング
KR102457222B1 (ko) 이동 로봇 및 그 제어 방법
JP5898022B2 (ja) 自走式機器
US20170178392A1 (en) 3d scanning apparatus including scanning sensor detachable from screen
EP3455686A1 (en) Systems and methods for initializing a robot to autonomously travel a trained route
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
KR20190016143A (ko) 모바일 디바이스에서의 slam
CN102692236A (zh) 基于rgb-d相机的视觉里程计方法
GB2569926A (en) Electric vacuum cleaner
CN107229274B (zh) 位置指示方法、终端装置、自行式装置以及程序
CN113570715B (zh) 基于传感器融合的旋转激光实时定位建模系统及方法
JP2017027417A (ja) 画像処理装置及び電気掃除器
Strobl et al. The self-referenced DLR 3D-modeler
CN113701750A (zh) 一种井下多传感器的融合定位系统
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
CN115514885B (zh) 基于单双目融合的远程增强现实随动感知系统及方法
Xu et al. PMLIO: Panoramic Tightly-Coupled Multi-LiDAR-Inertial Odometry and Mapping
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
CN110919644B (zh) 一种利用摄像头设备和机器人进行定位交互的方法及系统
Saleem An economic simultaneous localization and mapping system for remote mobile robot using SONAR and an innovative AI algorithm
CN113379911A (zh) Slam方法、slam系统及智能机器人
CN111971149A (zh) 记录介质、信息处理设备和信息处理方法
JP7327596B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
JP7266128B2 (ja) 3次元マップ生成方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200206

R150 Certificate of patent or registration of utility model

Ref document number: 6659317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150