JP2006284372A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2006284372A
JP2006284372A JP2005104959A JP2005104959A JP2006284372A JP 2006284372 A JP2006284372 A JP 2006284372A JP 2005104959 A JP2005104959 A JP 2005104959A JP 2005104959 A JP2005104959 A JP 2005104959A JP 2006284372 A JP2006284372 A JP 2006284372A
Authority
JP
Japan
Prior art keywords
image
parallax
imaging
point
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005104959A
Other languages
English (en)
Other versions
JP4160572B2 (ja
Inventor
Manabu Nishiyama
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005104959A priority Critical patent/JP4160572B2/ja
Priority to US11/387,901 priority patent/US7599548B2/en
Publication of JP2006284372A publication Critical patent/JP2006284372A/ja
Application granted granted Critical
Publication of JP4160572B2 publication Critical patent/JP4160572B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数カメラにより異なるフレーム時刻に撮影された画像対を用いる際のステレオ画像処理の誤差を低減して対象物の3次元位置情報を算出する。
【解決手段】第一の撮像装置により移動体をフレーム時刻tに撮像することにより得られる第一の画像と、異なる視点の第二の撮像装置により移動体をフレーム時刻t+Δtに撮像することにより得られる第二の画像と、該第二の撮像装置により移動体をフレーム時刻t−Δtに撮像することにより得られる第三の画像とを取得する。第一の画像上の任意点に対応する第二の画像上の第一対応点を探索し、該任意点についての視差を計測する。第二の画像と第三の画像とに基づいて、第一対応点の動き情報を算出し、これを補正量として用いて視差を補正する。補正された視差に基づいて任意点の3次元位置情報を算出する。
【選択図】図1

Description

本発明は、複数カメラを用いて異なるフレーム時刻に撮影された画像を画像処理することにより、対象物の3次元位置情報を算出する画像処理装置及び画像処理方法に関する。
人物に追従する移動ロボットの視覚処理系に関して種々の研究開発が進められている。移動ロボットが人物等の移動体に追従するよう移動するとき、視覚処理系はまず移動体を撮像してその3次元位置を画像処理により計測する。この計測結果に従って、ロボットは移動のための駆動系の制御量等を算出する。
従来、監視システム等で用いられてきた背景差分による人物検出技術や、画像処理により人物の頭部を認識する技術が知られており、これらの技術を移動ロボットの視覚処理系に応用することが考えられる。しかしながら、ロボットの移動により背景画像は大きく変化することから、背景差分法は移動ロボットの視覚処理系には適さない。また、人との位置関係や遮蔽などで追従対象の頭部が必ずしもロボットの視界内にとらえられるとは限らないことから、人物の頭部認識技術も有効ではない。移動ロボットが人間の生活空間内で活動することを考慮すると、処理対象のデータを削減して高速に処理できることが必要である。
ここで、複数カメラを用いて異なるフレーム時刻(シャッタータイミング)に撮影された画像を画像処理することにより、対象物の3次元位置情報を高速に算出する技術が知られている(例えば下記非特許文献1)。
清水彰一,藤吉弘亘,"カメラ間のシャッタータイミングのずれを利用した高速3次元位置推定",Proc. of MIRU2004,vol.1,pp.428−433,July,2004.
移動ロボットへの視覚処理系の実装においては、ロボットが備えるコンピュータ処理能力に対する負担をできるだけ抑える必要がある。移動ロボットは、視覚処理のみならず移動機構制御や他の処理のためにもコンピュータ資源を費やす。プロセッサ性能等は進歩しているとはいえ、コンピュータの処理能力を大幅に増強することは製品コスト増を招いてしまう。このような事情から、視覚処理系において、複数のカメラからの映像信号を交互に取り込む構成が採られる場合がある。
対象物の3次元位置情報を算出するために、複数カメラにより異なるフレーム時刻に撮影された画像対をそのまま用いてステレオ画像処理を行った場合、フレーム時刻のずれに起因して誤差が生じるという問題がある。
そこで本発明は、複数カメラにより異なるフレーム時刻に撮影された画像対を用いる際のステレオ画像処理の誤差を低減して対象物の3次元位置情報を算出することのできる画像処理装置及び画像処理方法を提供することを目的とする。
本発明の一観点に係る画像処理装置は、第一の撮像装置により移動体をフレーム時刻tに撮像することにより得られる第一の画像と、該第一の撮像装置とは異なる視点を有する第二の撮像装置により前記移動体をフレーム時刻t+Δtに撮像することにより得られる第二の画像と、該第二の撮像装置により前記移動体をフレーム時刻t−Δtに撮像することにより得られる第三の画像とを取得する画像取得手段と、前記第一の画像上の任意点に対応する前記第二の画像上の第一対応点を探索し、該任意点についての視差を計測する視差計測手段と、前記第二の画像と前記第三の画像とに基づいて、前記第一対応点の動き情報を算出する動き情報算出手段と、前記動き情報を補正量として用いて前記視差を補正する視差補正手段と、補正された視差に基づいて前記任意点の3次元位置情報を算出する3次元位置情報算出手段とを具備する。
本発明によれば、複数カメラにより異なるフレーム時刻に撮影された画像対を用いる際のステレオ画像処理の誤差を低減して対象物の3次元位置情報を算出することのできる画像処理装置及び画像処理方法を提供できる。
以下、図面を参照しながら本発明の実施形態を説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態に係る画像処理装置(視覚処理系)を示すブロック図である。本実施形態は、図2に示すようなロボット1に本発明を適用したものである。ロボット1は、複数の撮像装置101、アーム3、車輪4等を備え、これらは図示しない制御部によって制御される。このようなロボット1がアーム3で物を掴んだり、特定の人物を追いかけ続けたりといったタスクを行う場合に、ロボット1はこれら対象物の3次元位置情報を得ることが必要である。本実施形態は、この3次元位置情報の生成を比較的簡単な装置構成及び画像処理により実現するものである。
本発明の実施にあたり複数の撮像装置101が必要である。図1及び図2の構成では2台の撮像装置101を用いるものとする。なお、2つの撮像装置間の位置関係は既知であるものとする。
映像信号切り替え部102は、2台の撮像装置101の各々から出力される映像信号を交互に切り替えて画像取得部103に供給する。画像取得部103は、映像信号切り替え部102からの映像信号を入力し、コンピュータで処理しやすいディジタルの画像データに変換する。これにより、フレーム時刻が異なる対象物の複数の画像が本実施形態の画像処理装置に取り込まれる。
画像記録部104は、画像取得部103を介して得られた画像データを一時的に記録する。画像記録部104は、少なくとも各撮像装置101により撮像された1フレーム前の画像データを参照できるように記録保持動作を行う。
動き検出部105は、画像データ上の動きを検出して動き情報を生成する。動き検出部105は、最新のフレーム時刻の画像データと、画像記録部104により記録されている1フレーム前の画像データとを比較し、2つの画像間で同じ点がどれだけ移動したかを計測することにより動き情報を求める。
視差計測部106は、2台の撮像装置101で撮影された画像間での視差を計測する。視差補正部107は視差計測部106で得られた視差を動き検出部105で得られた動き情報を用いて補正する。3次元位置情報算出部108は補正された視差から対象の3次元位置情報を算出する。制御部109は3次元位置情報算出部108により得られた3次元位置情報からロボットの制御量を求める。図1において、2台の撮像装置101及び映像信号切り替え部102を除く構成要素は同図に示すようにコンピュータ110として実現される。
以上のように構成された本実施形態において、対象物を撮像し、その3次元位置情報を算出する。
図3は本発明の第一の実施形態に係る非同期ステレオ画像処理手順を示すフローチャートである。
先ずST301では、映像信号切り替え部102を介して撮像装置101から画像データを取得する。一般に、時系列画像データはサイズが膨大になり、特に複数台の撮像装置101から一斉に画像データを取り込み、コンピュータ110内の図示しないメモリー装置に転送するには、十分速度の速い通信路が必要となる。そこで本実施形態では、映像信号切り替え部102により、各撮像装置について1台ずつ交互に切り替えながら画像データの取り込みを行う。映像信号の切り替えには一定の時間を要するために、結果として2台の撮像装置101から得られる2つの画像データの撮影時刻(フレーム時刻)には「ずれ」が生じる。尚、以下の説明では、信号の切り替えに要する時間は常に一定であるものとする。
図4は撮像装置1,2の撮影タイミング(時刻)を示す図である。この図4のように時間的にずれを有する2つの画像をステレオ画像対としてステレオ画像処理を行うわけであるが、一般的なステレオ画像処理は、複数の撮像装置により同時刻に撮影された画像データを用いて行うことを前提としており、撮影時刻にずれがあると誤差が生じ、正しいステレオ画像処理結果が得られない。
本発明の実施形態は、この誤差を低減し、時刻にずれのある画像対を用いる場合であっても適切にステレオ画像処理が行えるようにする。
ST302では、得られた画像データを画像記録部104により一時的に保存する。ここでは、少なくとも最新の画像よりも1つ前の画像データが保存されるようにしておく。それよりも前の画像データは順次消去される。
ST303では、どちらか一方の撮像装置101について、最新の画像データと画像記録部104により記録されている1フレーム前の画像データとを比較し、画像中の動き情報を計測する。具体的には以下のように行う。
図5は、最新の画像データ501と、同じ撮像装置で得られた1フレーム前の画像データ502とを示している。今、画像データ501中の点pの動きを求める場合、pを中心とした小領域w1を作成する。そして、1つ前の画像データ502とのブロックマッチングを行い、最も類似度の高い小領域を探索する。探索範囲は点pの座標から一定範囲内とし、類似度はブロック内の画素値の2乗誤差の総和などを用いる。図5の場合では、小領域w1に最も類似するのは小領域w2である。この小領域w1と小領域w2とが同じ箇所を撮影したものであると見なすと、小領域w2から小領域w1への座標変化が、画像502を撮影してから501を撮影するまでの点pの移動量であると考えられる。このような移動量の計測を、3次元位置情報を求めたい全ての点で行い、結果を記録しておく。
ST304では、2つの撮像装置101で撮影された最新の画像対を用いて視差の計測を行う。視差計測の方法は、異なる撮像装置で撮影された2つの画像対を用いることを除けば、ST303における動き情報の計測と同様であり、3次元位置情報を得たい点pを含む小領域に類似する領域をもう一方の画像から探索する。この探索により得られる領域と元の領域との座標の差が視差となる。この視差の計測は、動き情報の計測を行った方の撮像装置から他方の撮像装置へ探索するという形で行う。視差の計測についても3次元位置情報を求めたい全ての点で行い、結果を記録しておく。
非同期撮影を行わない通常のステレオ画像処理の場合、2つの画像データの撮影時刻は同じであることから、視差の計測結果から適切に3次元位置情報を求めることができる。しかし、時刻差のある2つの画像の場合、従来手法と同じようにして3次元位置情報を算出してしまうと、動いている物体については大きな誤差が生じてしまう。そこでST305においては、動き情報を利用して視差情報の補正を行う。補正の原理は次の通りである。
図6は2つの撮像装置1,2の撮影タイミングを示したものである。点線で囲まれた時刻tと時刻t+Δtにそれぞれ撮影された2つの画像をステレオ画像処理する場合を考える。図6から分かるように、2つの画像の撮影時刻には映像信号の切り替え時間Δtのずれが生じている。この期間に対象物が移動したら、その3次元位置情報は正しい値が得られなくなる。もし、時刻tにおける撮像装置2の画像データを近似的にでも得ることができれば、通常のステレオ画像処理で処理可能である。このためには、図7に示すように、時刻t−Δt及び時刻t+Δtに撮像装置2で撮影された画像を使って時刻tの画像を補完すればよい。本発明の実施形態では、これと同等の効果を例えば次のようにして得る。
図8において、画像データ803は時刻tに撮像装置1により撮影されたものである。画像データ801、802はそれぞれ時刻t+Δt、t−Δtに撮像装置2によって撮影されたものである。これら画像データの撮影タイミングは図6と同じである。今、撮像装置2の画像データについては動き検出部105により、画像データ801中の3次元位置情報を取得する全ての点について、1フレーム前の画像データ802から対応する点が求められており、時間2Δtの各点の移動量が求められている。さらに、視差計測部106によって、画像データ801中の3次元位置情報を取得する全ての点について、撮像装置1による画像データ803から対応点が求められており、撮像装置間の視差も計測されている。以上により、画像データ801中の3次元位置情報を取得するそれぞれの点pについて、時刻t−Δtからの移動量vと、撮像装置1の画像データとの視差dが求められていることになる。移動量vから点pの時刻tにおける位置p’を予測するとp’=p−v/2であると考えられる。したがって撮像装置1の画像803でのpの対応点をp’’とすると、仮想的に時刻tで同期したときのp’とp’’との視差d’はd’=d−v/2と求められる。こうして求められる時刻tで仮想同期された視差d’は同時刻に撮影された画像対に関する視差と等価であるので、以降は従来のステレオ画像処理手法と同じように3次元位置情報を求めることができる。
ST306では、仮想的に同期して得られた視差情報から3次元位置情報を算出する。異なる撮像装置101で撮影された画像間の対応点を求め、3次元位置情報を獲得する手法については、参考文献(徐剛・辻三郎著,「3次元ビジョン」,第7章 両眼視)に記載されているように既によく知られているが、簡単に説明すると、撮像装置の光学特性と撮像装置間の位置関係が既知であれば、図9のように撮像装置1の画像902上の点p’’と仮想的に同期をとることで得られる撮像装置2の画像901上の点p’から、これらが示す部位が元々あった3次元位置Pを求めることができる。以上のような仮想的な同期により、時刻差のある画像対に対してステレオ画像処理を行うことが可能になる。
最後にST307では、得られた3次元位置情報をもとに、ロボット1の制御部は次のような制御量を算出する。例えば、追従する対象との距離を一定に保ち続けるよう車輪の回転量を決める、対象となる物体を掴むために関節を動かす、などである。あるいは、撮像装置101から対象物までの3次元距離が目標に近づくように、サーボモーターなどの移動駆動制御の回転量や回転速度を決定する。
以上説明した第一の実施形態によれば、複数の撮像装置から出力された映像信号を全て同じ時刻に取り込んで処理することができず、その結果、各撮像装置から得られる画像データ間に時刻のずれが生じるような場合であっても、移動する対象物の3次元位置情報を精度良く取得することができる。このような本発明は画像処理性能が非力なハードウェア構成に好適である。誤差を低減するための手法についても、各時刻について3つの画像データのみで実行できることから、誤差の蓄積が生じないという利点もある。
(第二の実施形態)
図10は本発明の第二の実施形態に係る画像処理装置を示すブロック図である。本実施形態は、撮像装置1001が2台に限定されずn台に一般化されている点、及び撮影時刻を記録するための撮影時刻記録部1005が付加されている点で上述した第一の実施形態とは異なる。その他の構成は第一の実施形態と同様である。
次に本実施形態の動作について説明する。図11は本発明の第二の実施形態に係る非同期ステレオ画像処理手順を示すフローチャートである。第一の実施形態と同じ処理を行う部分は省略して説明すると、ST1101では、撮像装置1、2、・・・、nの順に映像信号切り替え部102により切り替えながら撮影を行う。撮像装置nに到達したら、撮像装置1に戻って画像の取り込みを繰り返す。
ST1102では、画像データを撮影した時刻を記録する。時刻の記録は各撮像装置ごとに行うこととし、少なくとも最新のフレームの時刻と過去の1フレームの時刻とをそれぞれ記録する。
ST1103の画像データの記録では、各撮像装置について少なくとも過去の1フレーム分は画像データを記録しておくようにする。
[視差計測]
ST1104では、画像間の視差を計測する。視差の計測手法自体は第一の実施形態と同じであるが、撮像装置nの最新画像データと撮像装置1の最新画像データ,撮像装置nと撮像装置2,・・・,撮像装置nと撮像装置n−1というように、ある撮像装置(ここでは撮像装置n)について、ステレオ視に用いられる他の全ての撮像装置に対し対応点探索を行う。このとき、n台のうち一部のみを用いることも可能である。このときは用いる撮像装置全てについて対応点を求める。
[動き検出]
ST1105では、各撮像装置について動きの検出を行う。ステレオ視に用いる各撮像装置について、記録されている1フレーム前の画像と比較し、3次元位置情報を求める全ての点について移動量の計測を行う。具体的な手法は第一の実施形態と同じである。
[視差の補正]
ST1106では、視差計測の結果と動き検出の結果とに基づいて視差情報の補正を行う。n台の撮像装置の場合、撮影タイミングは図12のようになる。
各撮像装置について、最新フレームと過去の1フレームの撮影時刻、及びその間の移動量が求められているので、図12に示される時刻t−Δt1から時刻tまでの間の任意の時刻に対して仮想的な同期を行うことが可能である。
仮想同期の方法としては、移動量を線形補間することにより任意の時刻の対応点の位置を予測可能である。なお、本実施形態の説明では複数の撮像装置のうち同時に1つしか画像が取り込めないことを前提にしてきたが、2台あるいは3台の撮像装置から同時に画像を取り込めるが、全ての撮像装置間の同期が取れているとは限らないような状況でも、本発明に従って仮想的に同期をとることが可能である。
ST1107では、複数の画像の対応点情報から3次元位置情報を算出する。その手法は第一の実施形態の場合と同じであるが、本実施形態では対応点を通る全ての直線の交点を3次元位置とすることで頑健性が向上する。ただし、誤差などの影響により、全ての直線が1点に交わることはほとんどないので、全ての直線が最も集まっている箇所を結果の3次元位置とする。
以上説明した本発明の実施形態によれば、2台あるいはそれ以上の複数台の撮像装置を用いて互いに異なるフレーム時刻に撮影された画像対を用いる際のステレオ画像処理の誤差を低減し、対象物の3次元位置情報を算出することができる。つまり、同時に撮影が不可能な装置構成であっても、誤差の少ない測定が可能になる。また、このような装置は比較的安価に構成できるため、結果として同等の精度を安価な装置で実現できる。さらに、既存のステレオ画像処理技術を大幅に変更することなく利用して本発明に係る処理を実現できる点においても優れる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第一の実施形態に係る画像処理装置のブロック図 上記実施形態に係るロボットの外観を示す図 本発明の第一の実施形態に係る非同期ステレオ画像処理手順を示すフローチャート 2台の撮像装置による撮影タイミング(時刻)を示す図 最新の画像データと、同じ撮像装置で得られた1フレーム前の画像データとを示す図 2台の撮像装置の撮影タイミングを示す図であって、ステレオ視に用いる画像データの撮影タイミングを示す図 時刻tにおける仮想的な画像の補完を示す図 実施形態に係る仮想同期の対象画像フレームを示す図 2次元画像対と3次元位置情報とを示す図 本発明の第二の実施形態に係る画像処理装置を示すブロック図 本発明の第二の実施形態に係る非同期ステレオ画像処理手順を示すフローチャート n台の撮像装置の場合の撮影タイミングを示す図
符号の説明
101…撮像装置;
102…映像信号切り替え部;
103…画像取得部;
104…画像記録部;
105…動き検出部;
106…視差計測部;
107…視差補正部;
108…3次元位置情報算出部;
109…制御部;
110…コンピュータ;

Claims (6)

  1. 第一の撮像装置により移動体をフレーム時刻tに撮像することにより得られる第一の画像と、該第一の撮像装置とは異なる視点を有する第二の撮像装置により前記移動体をフレーム時刻t+Δtに撮像することにより得られる第二の画像と、該第二の撮像装置により前記移動体をフレーム時刻t−Δtに撮像することにより得られる第三の画像とを取得する画像取得手段と、
    前記第一の画像上の任意点に対応する前記第二の画像上の第一対応点を探索し、該任意点についての視差を計測する視差計測手段と、
    前記第二の画像と前記第三の画像とに基づいて、前記第一対応点の動き情報を算出する動き情報算出手段と、
    前記動き情報を補正量として用いて前記視差を補正する視差補正手段と、
    補正された視差に基づいて前記任意点の3次元位置情報を算出する3次元位置情報算出手段とを具備する画像処理装置。
  2. 前記視差計測手段は、前記第一の画像上の任意点に対応する前記第二の画像上の第一対応点をブロックマッチングにより探索する請求項1記載の画像処理装置。
  3. 前記動き情報算出手段は、前記第一対応点に対応する前記第三の画像上の第二対応点をブロックマッチングにより探索し、前記第一対応点と前記第二対応点との間の画像上の移動量を前記動き情報として算出する請求項1記載の画像処理装置。
  4. 第一の撮像装置により移動体をフレーム時刻tに撮像することにより得られる第一の画像と、該第一の撮像装置とは異なる視点を有する第二の撮像装置により前記移動体をフレーム時刻t+Δtに撮像することにより得られる第二の画像と、該第二の撮像装置により前記移動体をフレーム時刻t−Δtに撮像することにより得られる第三の画像とを取得する画像取得ステップと、
    前記第一の画像上の任意点に対応する前記第二の画像上の第一対応点を探索し、該任意点についての視差を計測する視差計測ステップと、
    前記第二の画像と前記第三の画像とに基づいて、前記第一対応点の動き情報を算出する動き情報算出ステップと、
    前記動き情報を補正量として用いて前記視差を補正する視差補正ステップと、
    補正された視差に基づいて前記任意点の3次元位置情報を算出する3次元位置情報算出ステップとを具備する画像処理方法。
  5. 前記視差計測ステップにおいて、前記第一の画像上の任意点に対応する前記第二の画像上の第一対応点をブロックマッチングにより探索する請求項4記載の画像処理方法。
  6. 前記動き情報算出ステップにおいて、前記第一対応点に対応する前記第三の画像上の第二対応点をブロックマッチングにより探索し、前記第一対応点と前記第二対応点との間の画像上の移動量を前記動き情報として算出する請求項4記載の画像処理方法。
JP2005104959A 2005-03-31 2005-03-31 画像処理装置及び画像処理方法 Active JP4160572B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005104959A JP4160572B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び画像処理方法
US11/387,901 US7599548B2 (en) 2005-03-31 2006-03-24 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005104959A JP4160572B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2006284372A true JP2006284372A (ja) 2006-10-19
JP4160572B2 JP4160572B2 (ja) 2008-10-01

Family

ID=37070546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005104959A Active JP4160572B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US7599548B2 (ja)
JP (1) JP4160572B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266155A (ja) * 2008-04-30 2009-11-12 Toshiba Corp 移動体追跡装置及びその方法
JP2010108110A (ja) * 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
WO2011129361A1 (ja) * 2010-04-15 2011-10-20 コニカミノルタホールディングス株式会社 画像処理システム、画像処理方法、およびプログラム
JP2012222743A (ja) * 2011-04-13 2012-11-12 Canon Inc 撮像装置
JP2015179499A (ja) * 2014-02-28 2015-10-08 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
WO2015194082A1 (ja) * 2014-06-20 2015-12-23 パナソニックIpマネジメント株式会社 画像処理方法および画像処理システム
JP2016010144A (ja) * 2014-06-20 2016-01-18 パナソニックIpマネジメント株式会社 画像処理方法および画像処理システム
JP2017090416A (ja) * 2015-11-17 2017-05-25 株式会社東芝 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
WO2018142496A1 (ja) * 2017-02-01 2018-08-09 株式会社日立製作所 三次元計測装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872836B2 (ja) * 2007-07-06 2012-02-08 コニカミノルタホールディングス株式会社 情報処理システム
JP5075672B2 (ja) * 2008-02-25 2012-11-21 株式会社東芝 対象物検出装置及び方法
TWI332453B (en) * 2008-07-21 2010-11-01 Univ Nat Defense The asynchronous photography automobile-detecting apparatus and method thereof
JP2010045584A (ja) * 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
JP5299111B2 (ja) * 2009-06-19 2013-09-25 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
TW201310339A (zh) * 2011-08-25 2013-03-01 Hon Hai Prec Ind Co Ltd 機器人控制系統及方法
JP6201379B2 (ja) * 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
US11062142B2 (en) 2017-06-29 2021-07-13 Accenture Gobal Solutions Limited Natural language unification based robotic agent control
WO2019225681A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
US10949982B1 (en) * 2019-06-21 2021-03-16 Amazon Technologies, Inc. Moving object recognition, speed estimation, and tagging

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000035200A1 (en) * 1998-12-07 2000-06-15 Universal City Studios, Inc. Image correction method to compensate for point of view image distortion
JP4282920B2 (ja) 2000-08-25 2009-06-24 富士フイルム株式会社 視差画像撮像装置及び視差画像処理装置
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266155A (ja) * 2008-04-30 2009-11-12 Toshiba Corp 移動体追跡装置及びその方法
JP2010108110A (ja) * 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
WO2011129361A1 (ja) * 2010-04-15 2011-10-20 コニカミノルタホールディングス株式会社 画像処理システム、画像処理方法、およびプログラム
JP5299567B2 (ja) * 2010-04-15 2013-09-25 コニカミノルタ株式会社 画像処理システム、画像処理方法、およびプログラム
US8923639B2 (en) 2010-04-15 2014-12-30 Konica Minolta Holdings, Inc. Image processing system, image processing method, and program
JP2012222743A (ja) * 2011-04-13 2012-11-12 Canon Inc 撮像装置
JP2015179499A (ja) * 2014-02-28 2015-10-08 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
WO2015194082A1 (ja) * 2014-06-20 2015-12-23 パナソニックIpマネジメント株式会社 画像処理方法および画像処理システム
JP2016010144A (ja) * 2014-06-20 2016-01-18 パナソニックIpマネジメント株式会社 画像処理方法および画像処理システム
US10277832B2 (en) 2014-06-20 2019-04-30 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing system
JP2017090416A (ja) * 2015-11-17 2017-05-25 株式会社東芝 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
WO2018142496A1 (ja) * 2017-02-01 2018-08-09 株式会社日立製作所 三次元計測装置
US11132810B2 (en) 2017-02-01 2021-09-28 Hitachi, Ltd. Three-dimensional measurement apparatus

Also Published As

Publication number Publication date
JP4160572B2 (ja) 2008-10-01
US7599548B2 (en) 2009-10-06
US20060222238A1 (en) 2006-10-05

Similar Documents

Publication Publication Date Title
JP4160572B2 (ja) 画像処理装置及び画像処理方法
US10789765B2 (en) Three-dimensional reconstruction method
US9495761B2 (en) Environment mapping with automatic motion model selection
JP6845895B2 (ja) 画像に基づく位置検出方法、装置、機器及び記憶媒体
US20150379766A1 (en) Generation of 3d models of an environment
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
EP3073285B1 (en) Methods and apparatus for providing a snapshot truthing system for a tracker
JP3732335B2 (ja) 画像入力装置及び画像入力方法
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
WO2018159168A1 (en) System and method for virtually-augmented visual simultaneous localization and mapping
US9781340B2 (en) Image processing system, information processing device, information storage device, and image processing method
JP2017087758A (ja) 障害物検知装置
US10410372B1 (en) Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
CN111899276A (zh) 一种基于双目事件相机的slam方法及系统
JP2017028655A (ja) 追跡システム、追跡方法および追跡プログラム
Dang et al. Self-calibration for active automotive stereo vision
JP2559939B2 (ja) 3次元情報入力装置
JPH07181024A (ja) 3次元形状計測方法および装置
JP4469757B2 (ja) 画像処理装置
KR101273634B1 (ko) 모바일 기기를 이용하는 증강현실 환경에서 복수 객체 추적방법 및 이를 이용한 시스템
Ryu et al. Digital image stabilization for humanoid eyes inspired by human VOR system
WO2019208234A1 (ja) 自己位置推定装置、自己位置推定方法、およびそのプログラム
Noguchi et al. Geometric and timing calibration for unsynchronized cameras using trajectories of a moving marker
JP3655065B2 (ja) 位置・姿勢検出装置と位置・姿勢検出方法と3次元形状復元装置及び3次元形状復元方法
KR101867212B1 (ko) 컬러 카메라 및 깊이 카메라에 대한 촬영 영상 동기화 장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080717

R151 Written notification of patent or utility model registration

Ref document number: 4160572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5