JP2010281685A - 位置計測システム及び位置計測方法 - Google Patents

位置計測システム及び位置計測方法 Download PDF

Info

Publication number
JP2010281685A
JP2010281685A JP2009135193A JP2009135193A JP2010281685A JP 2010281685 A JP2010281685 A JP 2010281685A JP 2009135193 A JP2009135193 A JP 2009135193A JP 2009135193 A JP2009135193 A JP 2009135193A JP 2010281685 A JP2010281685 A JP 2010281685A
Authority
JP
Japan
Prior art keywords
line
sight
optical system
imaging optical
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009135193A
Other languages
English (en)
Inventor
Takeshi Hashimoto
岳 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2009135193A priority Critical patent/JP2010281685A/ja
Publication of JP2010281685A publication Critical patent/JP2010281685A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】対象物のステレオ視によって対象物の位置を計測するに際し、量子化誤差を軽減することができる位置計測システム及び位置計測方法を提供する。
【解決手段】位置計測システム1では、対象物Tのステレオ視において2台のカメラの視線領域が重なる重複領域に対象物Tの真値(真の座標)が存在することに鑑み、視線領域SR1,SR2が、カメラ2,2の移動によって、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、視線領域SR1と視線領域SR2とが重なる重複領域DR1のうち、一方の視線領域と他方の視線領域との境界領域に対象物Tが位置すると判断し、対象物Tの位置を算出する。これにより、重複領域DR1から境界領域へと、真値が存在する領域が狭められる。
【選択図】図1

Description

本発明は、対象物のステレオ視によって対象物の位置を計測する位置計測システム及び位置計測方法に関する。
対象物の位置を計測するに際しては、多数の画素の配列によって受光部が構成された撮像素子(例えば、CMOSやCCD等)を有する第1のカメラ及び第2のカメラを用意し、それらのカメラを用いて対象物のステレオ視を行う。すなわち、第1のカメラは、画像を構成する多数の画素のそれぞれの中心を通る第1の視線、及び第1の視線のそれぞれを中心として画素ごとに設定された第1の視線領域を有しており、このとき、対象物を捉えた第1の視線領域を所定の第1の視線領域とする。一方、第2のカメラは、画像を構成する多数の画素のそれぞれの中心を通る第2の視線、及び第2の視線のそれぞれを中心として画素ごとに設定された第2の視線領域を有しており、このとき、対象物を捉えた第2の視線領域を所定の第2の視線領域とする。これにより、対象物の真値(真の座標)は、対象物を捉えた所定の第1の視線領域と所定の第2の視線領域とが重なる重複領域内に存在することになるが、重複領域内のどこに位置するかは分からない。
そこで、例えば、重複領域の重心点を算出して、その重心点を対象物の真値として代用する場合があるが、これでは、対象物の位置の計測に誤差が生じるおそれがある。このような誤差が生じるのは、撮像素子の受光部の各画素が所定の大きさを有していることに起因して、重複領域も所定の大きさを有することになるからである。以下、この誤差を量子化誤差という。
このような量子化誤差を軽減する技術として、特許文献1には、所定の間隔で配置された3台以上のカメラのうち2台のカメラを異なる組合せで選定して、各組合せにおいて対象物までの距離を算出し、その平均値をとる距離計測方法が記載されている。
特開2006−38718号公報
上述した特許文献1記載の距離計測方法は、量子化誤差を軽減する技術として有効であるが、更なる量子化誤差の軽減が望まれている。
そこで、本発明は、対象物のステレオ視によって対象物の位置を計測するに際し、量子化誤差を軽減することができる位置計測システム及び位置計測方法を提供することを課題とする。
上記課題を解決するため、本発明に係る位置計測システムは、対象物のステレオ視によって対象物の位置を計測する位置計測システムであって、画像を構成する複数の最小要素のそれぞれの中心を通る第1の視線、及び第1の視線のそれぞれを中心として最小要素ごとに設定された第1の視線領域を有し、所定の第1の視線領域にて対象物を捉える第1の撮像光学系と、画像を構成する複数の最小要素のそれぞれの中心を通る第2の視線、及び第2の視線のそれぞれを中心として最小要素ごとに設定された第2の視線領域を有し、所定の第2の視線領域にて対象物を捉える第2の撮像光学系と、第1の撮像光学系及び第2の撮像光学系の少なくとも1つが動いた場合において、所定の第1の視線領域及び所定の第2の視線領域の少なくとも1つが、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、所定の第1の視線領域と所定の第2の視線領域とが重なる重複領域のうち、一方の視線領域と他方の視線領域との境界領域に対象物が位置すると判断し、対象物の位置を算出する演算部と、を備えることを特徴とする。
また、本発明に係る位置計測方法は、対象物のステレオ視によって対象物の位置を計測する位置計測方法であって、画像を構成する複数の最小要素のそれぞれの中心を通る第1の視線、及び第1の視線のそれぞれを中心として最小要素ごとに設定された第1の視線領域を有し、所定の第1の視線領域にて対象物を捉える第1の撮像光学系、並びに、画像を構成する複数の最小要素のそれぞれの中心を通る第2の視線、及び第2の視線のそれぞれを中心として最小要素ごとに設定された第2の視線領域を有し、所定の第2の視線領域にて対象物を捉える第2の撮像光学系を用意する工程と、第1の撮像光学系及び第2の撮像光学系の少なくとも1つが動いた場合において、所定の第1の視線領域及び所定の第2の視線領域の少なくとも1つが、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、所定の第1の視線領域と所定の第2の視線領域とが重なる重複領域のうち、一方の視線領域と他方の視線領域との境界領域に対象物が位置すると判断し、対象物の位置を算出する工程と、を含むことを特徴とする。
これらの位置計測システム及び位置計測方法においては、第1の撮像光学系の所定の第1の視線領域と第2の撮像光学系の所定の第2の視線領域とが重なる重複領域に対象物の真値(真の座標)が存在することに鑑み、所定の第1の視線領域及び所定の第2の視線領域の少なくとも1つが、撮像光学系の動きによって、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、所定の第1の視線領域と所定の第2の視線領域とが重なる重複領域のうち、一方の視線領域と他方の視線領域との境界領域に対象物が位置すると判断し、対象物の位置を算出する。これにより、重複領域から境界領域へと、対象物の真値が存在する領域が狭められるので、対象物のステレオ視によって対象物の位置を計測するに際し、量子化誤差を軽減することが可能となる。なお、視線とは便宜的に導入した概念であり、視線を特定することができなくても、撮像画像上の対象点の画素を特定することができれば、その視線領域を求めることが可能である。また、撮像光学系の動きとは、撮像光学系の移動や回転を含む意味である。
ここで、所定の第1の視線領域及び所定の第2の視線領域は、画像における対象物の重心点又は特徴点を捉えることが好ましい。これにより、第1の撮像光学系及び第2の撮像光学系によって対象物を精度良く捉えることが可能となる。
また、前記第1の撮像光学系及び前記第2の撮像光学系の少なくとも1つを動かす駆動機構を更に備え、前記演算部は、前記駆動機構によって動かされた前記第1の撮像光学系の動き量に基づいて、前記第1の視線領域を更新し、前記駆動機構によって動かされた前記第2の撮像光学系の動き量に基づいて、前記第2の視線領域を更新するようにしても良い。この場合、第1の撮像光学系や第2の撮像光学系が駆動機構によって動かされる時点でその動き量は既知であるため、第1の撮像光学系及び第2の撮像光学系の動き量を検出する動き量検出器が不要となる。なお、撮像光学系の動き量とは、撮像光学系の移動量や回転量を含む意味である。
或いは、前記第1の撮像光学系及び前記第2の撮像光学系の動き量を検出する動き量検出器を更に備え、前記演算部は、前記動き量検出器によって検出された前記第1の撮像光学系の前記動き量に基づいて、前記第1の視線領域を更新し、前記動き量検出器によって検出された前記第2の撮像光学系の前記動き量に基づいて、前記第2の視線領域を更新するようにしても良い。この場合、第1の撮像光学系や第2の撮像光学系の動きに振動等を利用することができ、第1の撮像光学系及び第2の撮像光学系の少なくとも1つを動かす駆動機構が不要となる。
本発明によれば、対象物のステレオ視によって対象物の位置を計測するに際し、量子化誤差を軽減することができる。
本発明に係る位置計測システムの一実施形態の構成図である。 図1の位置関係にあるカメラの画像を示す図である。 図1の位置計測システムにおいてカメラの位置関係が異なる場合の重複領域を示す図である。 図3の位置関係にあるカメラの画像を示す図である。 図1の位置計測システムにおいてカメラの位置関係が異なる場合の重複領域を示す図である。 図5の位置関係にあるカメラの画像を示す図である。 図1,3,5の重複領域の関係を示す図である。
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。なお、各図において同一又は相当部分には同一符号を付し、重複する説明を省略する。
図1に示されるように、位置計測システム1は、Y軸方向に位置する対象物Tの位置を、対象物Tのステレオ視によって計測するシステムである。位置計測システム1は、X軸方向に沿って並設された2台のカメラ(第1の撮像光学系)2及びカメラ(第2の撮像光学系)2と、カメラ2,2を移動させるXYステージ等の駆動機構3,3と、カメラ2,2からの画像データの取込みや各種演算処理を行うコンピュータ等の演算部11と、を備えている。更に、位置計測システム1は、カメラ2,2から取り込まれた画像データや演算部11によって算出された結果等を表示するディスプレイ等の表示部12と、それらの画像データや結果等を記憶するHDDやメモリカード等の記憶部13と、を備えている。
カメラ2は、多数の画素(画像を構成する最小要素)の配列によって受光部が構成された撮像素子(例えば、CMOSやCCD等)を有しており、各画素の中心を通る視線、及び各視線を中心として画素ごとに設定された視線領域を有し、対象物Tを含む画像を撮像する。ここでは、カメラ2は、多数の視線領域のうち視線領域SR1にて対象物Tを捉えている。具体的には、カメラ2は、視線領域SR1にて、画像における対象物Tの重心点を捉えている。同様に、カメラ2は、多数の画素の配列によって受光部が構成された撮像素子を有しており、各画素の中心を通る視線、及び各視線を中心として画素ごとに設定された視線領域を有し、対象物Tを含む画像を撮像する。ここでは、カメラ2は、多数の視線領域のうち視線領域SR2にて対象物Tを捉えている。具体的には、カメラ2は、視線領域SR2にて、画像における対象物Tの重心点を捉えている。視線領域SR1は、3次元空間では、視線SL1を基準とした四角錐状の領域であり、同様に、視線領域SR2は、3次元空間では、視線SL2を基準とした四角錐状の領域である。なお、カメラ2は、視線領域SR1にて、画像における対象物Tの特徴点を捉えても良く、同様に、カメラ2は、視線領域SR2にて、画像における対象物Tの特徴点を捉えても良い。また、視線領域SR1,SR2は、サブピクセル処理により画像の解像度を上げた際のその最小要素に対応させても良い。
上述した特徴点の例としては、最輝度点(最も輝度の高い点)、特徴的な色の点、パターンマッチングで最も相関の高い座標、画像エッジ、エッジ線とエッジ線との交点、エッジとエピポーラ線(他方のカメラにおける対象物から視線を一方のカメラの画像に投影した線)との交点等がある。これらの特徴点は、カメラによって撮像された2次元画像から抽出される。ここで、パターンマッチングで最も相関の高い座標について説明する。すなわち、異なるカメラにおいて、計測すべき対象物のターゲットを探索することは極めて困難である(「対応点探索」のことで、例えば、水玉模様を撮影した場合、異なるカメラでは、どの水玉かの判断は極めて困難である)。人間の視覚は、対象物を理解しているために対応点探索を容易に行い得る。各ターゲットが完全に同じ水玉ではなく、良く似ているが異なる形の場合を考える。このときには、ターゲットの形で探索することができる。つまり、パターンマッチングで最も相関の高い座標とは、探したいターゲットの形と、画像に写っているいろいろなターゲットの形との相関を求めて、ターゲットの探索することを意味する。相関係数が最も高くない座標を見つけるには、探したいターゲットの形(テンプレート)を画像上で少しずつ移動させ、移動のたびに、テンプレートと画像との(各画素のグレイレベルの)相関係数を計算する。
以上のように構成された位置計測システム1による位置計測方法について説明する。図1に示されるように、演算部11は、カメラ2の視線領域SR1とカメラ2の視線領域SR2とが重なる重複領域DR1を取得する。このとき、カメラ2の画像では、図2(a)に示されるように、対象物Tが画素P1(p)に位置しており、カメラ2の画像では、図2(b)に示されるように、対象物Tが画素P2(p)に位置している。
ここで、対象物Tの真値(真の座標)が重複領域DR1内に存在することは分かっても、対象物Tの真値が重複領域DR1内のどこに位置するかは分からない。位置計測システム1では、例えば対象物Tの真値が重複領域DR1内の中央手前側(すなわち、重複領域DR1内のカメラ2,2側)に位置するものとした場合に、次のようにして対象物Tの真値の位置が特定される。
すなわち、図3に示されるように、駆動機構3がカメラ2をX軸方向左側に移動させると、演算部11は、駆動機構3によって移動させられたカメラ2の移動量に基づいて、カメラ2の視線領域SR1を更新する。この場合において、図4(a)に示されるように、カメラ2の画像で対象物Tが右側の画素P1(r)に移動したときには、演算部11は、この移動を検出することで、カメラ2の視線領域SR1が、隣り合う一方の視線領域から他方の視線領域に移動したことを検出する。対象物Tの画素間の移動のタイミングは、画素のグレイレベルを用いて、グレイレベルの変化を検出することで、より高精度に検出することができる。なお、カメラ2の画像では、図4(b)に示されるように、対象物Tが画素P2(p)に位置している。
そして、カメラ2の視線領域SR1が一方の視線領域から他方の視線領域に移動したことを検出した時点において、演算部11は、図3に示されるように、重複領域DR1のうち、一方の視線領域と他方の視線領域との境界領域BR1に対象物Tが位置すると判断する。ここで、境界領域BR1は、カメラ2の視線領域SR1が一方の視線領域から他方の視線領域に移動した時点において、カメラ2の視線領域SR1とカメラ2の視線領域SR2とが重なる重複領域DR2の右手前側の領域である。
また、図5に示されるように、駆動機構3がカメラ2をX軸方向右側に移動させると、演算部11は、駆動機構3によって移動させられたカメラ2の移動量に基づいて、カメラ2の視線領域SR2を更新する。この場合において、図6(b)に示されるように、カメラ2の画像で対象物Tが左側の画素P2(l)に移動したときには、演算部11は、この移動を検出することで、カメラ2の視線領域SR2が、隣り合う一方の視線領域から他方の視線領域に移動したことを検出する。なお、カメラ2の画像では、図6(a)に示されるように、対象物Tが画素P1(p)に位置している。
そして、カメラ2の視線領域SR2が一方の視線領域から他方の視線領域に移動したことを検出した時点において、演算部11は、図5に示されるように、重複領域DR1のうち、一方の視線領域と他方の視線領域との境界領域BR2に対象物Tが位置すると判断する。ここで、境界領域BR2は、カメラ2の視線領域SR2が一方の視線領域から他方の視線領域に移動した時点において、カメラ2の視線領域SR1とカメラ2の視線領域SR2とが重なる重複領域DR3の左手前側の領域である。
これにより、演算部11は、図7に示されるように、境界領域BR1と境界領域BR2とが交差する領域に対象物Tが位置すると判断して(つまり、対象物Tの真値が位置すると判断して)対象物Tの位置を算出し、更に、対象物Tまでの距離等を算出する。そして、演算部11は、これらの結果等を表示部12に表示させたり、記憶部13に記憶させたりする。
以上説明したように、位置計測システム1では、対象物Tを捉えた2台のカメラの視線領域が重なる重複領域に対象物Tの真値(真の座標)が存在することに鑑み、視線領域SR1,SR2が、カメラ2,2の移動によって、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、視線領域SR1と視線領域SR2とが重なる重複領域DR1のうち、一方の視線領域と他方の視線領域との境界領域BR1,BR2に対象物Tが位置すると判断し、対象物Tの位置を算出する。つまり、位置計測システム1では、対象物Tが位置する画素P1(p),P1(p)が画像の最小要素であることから、画素P1(p),P1(p)内における対象物Tの真値の位置をその最小要素以上に絞り込むことはできないが、隣り合う画素に移動したタイミングを検出することはできるので、それにより、対象物Tの真値の存在範囲を絞り込むのである。これにより、重複領域DR1から境界領域BR1,BR2へと、対象物Tの真値が存在する領域が狭められるので、対象物Tのステレオ視によって対象物Tの位置を計測するに際し、量子化誤差を軽減することが可能となる。
また、位置計測システム1では、カメラ2,2の各視線領域SR1,SR2が画像における対象物Tの重心点又は特徴点を捉える。これにより、カメラ2,2によって対象物Tを精度良く捉えることが可能となる。
また、位置計測システム1では、演算部11が、駆動機構3によって移動させられたカメラ2の移動量に基づいて視線領域SR1を更新し、駆動機構3によって移動させられたカメラ2の移動量に基づいて視線領域SR2を更新する。この場合、カメラ2,2が駆動機構3,3によって移動させられる時点でその移動量は既知であるため、カメラ2,2の移動量を検出する動き量検出器(例えば、ジャイロスコープ等の加速度センサ)が不要となり、位置計測システム1の構成の単純化を図ることが可能となる。
本発明は、上述した実施形態に限定されるものではない。
例えば、カメラ等の撮像光学系の移動は、少なくとも1つの撮像光学系を移動させれば良い。そして、撮像光学系の移動は、X軸方向での移動といった1次元的な移動に限らず、2次元的な移動や3次元的な移動であっても良い。更に、駆動機構によって撮像光学系が移動させられるだけでなく、回転させられても良い。つまり、視線領域SR1,SR2が、隣り合う一方の視線領域から他方の視線領域に移動したことを検出することができれば、撮像光学系の移動及び回転の少なくとも一方を行うなど、撮像光学系をどのように動かしても良い。そして、この場合、駆動機構によって動かされた撮像光学系の移動量や回転量等の動き量に基づいて、視線領域SR1,SR2を更新すれば良い。
また、駆動機構に代えて、カメラ等の撮像光学系の動き量を検出する動き量検出器(例えば、ジャイロスコープ等の加速度センサ)を設け、演算部11が、動き量検出器によって検出された撮像光学系の移動量に基づいて視線領域SR1,SR2を更新するようにしても良い。撮像光学系の移動量は、画像を構成する最小要素に入る空間量であるため、当該移動量は、対象物Tが数メートル先に存在する場合、数ミクロン〜数ミリで済む。従って、撮像光学系の動きに振動(手振れや、車載カメラの場合における車両の振動)等を利用することができるので、駆動機構が不要となり、位置計測システム1の構成の単純化を図ることが可能となる。なお、撮像光学系によって撮像された画像に基づいて、その撮像光学系の移動量を取得すれば、駆動機構に加え、動き量検出器も不要となる。
また、一方の視線領域から他方の視線領域への移動を少なくとも1回検出して、一方の視線領域と他方の視線領域との境界領域を少なくとも1回取得すれば、重複領域に対して、対象物Tの真値TPが存在する領域を狭めることができる。ただし、一方の視線領域から他方の視線領域への移動をより多く検出して、一方の視線領域と他方の視線領域との境界領域をより多く取得すれば、対象物Tの真値TPが存在する領域をより一層狭めることができ、対象物Tの位置の計測精度をより一層向上させることが可能となる。
また、複数の撮像光学系は、複数の光学系(レンズ等)と1つの撮像素子(CCDやCMOS等)との組合せによって構成されても良く、この場合、少なくとも1つの光学系を動かせば良い。逆に、複数の撮像光学系は、1つの光学系と複数の撮像素子との組合せによって構成されても良く、この場合、少なくとも1つの撮像素子を動かせば良い。また、撮像光学系に1次元センサを適用しても良い。この場合、複数の1次元センサを同一平面(水平面)上に並設させることが好ましい。このことは、撮像光学系に2次元センサを適用した場合にも同様であり、各水平走査線を同一平面(水平面)上に配置することが好ましい。このとき、対応する水平走査線が同一直線上にあると更に良い。なお、撮像光学系そのものを移動させても良いし、撮像光学系を構成する光学系や撮像素子を相対的に移動させても良い。
また、上記実施形態では、2次元平面における対象物の位置の計測について説明したが、本発明は、3次元空間における対象物の位置の計測にも適用可能である。
また、上記実施形態は、2つの撮像光学系の視線領域が同時に取得されたことを前提にしているが、実際には、複数の撮像光学系間で走査タイミングを同期させたとしても、CCD等ではその特性上、画素ごとに取得タイミングが異なる。しかしながら、撮像光学系が動く速度に比べて走査時間は十分に短いので、実用上問題にはならない。
1…位置計測システム、2…カメラ(第1の撮像光学系)、2…カメラ(第2の撮像光学系)、3,3…駆動機構、11…演算部、SL1…視線(第1の視線)、SL2…視線(第2の視線)、SR1…視線領域(第1の視線領域)、SR2…視線領域(第2の視線領域)、D1…重複領域、BR1,BR2…境界領域、T…対象物。

Claims (5)

  1. 対象物のステレオ視によって前記対象物の位置を計測する位置計測システムであって、
    画像を構成する複数の最小要素のそれぞれの中心を通る第1の視線、及び前記第1の視線のそれぞれを中心として前記最小要素ごとに設定された第1の視線領域を有し、所定の前記第1の視線領域にて前記対象物を捉える第1の撮像光学系と、
    画像を構成する複数の最小要素のそれぞれの中心を通る第2の視線、及び前記第2の視線のそれぞれを中心として前記最小要素ごとに設定された第2の視線領域を有し、所定の前記第2の視線領域にて前記対象物を捉える第2の撮像光学系と、
    前記第1の撮像光学系及び前記第2の撮像光学系の少なくとも1つが動いた場合において、所定の前記第1の視線領域及び所定の前記第2の視線領域の少なくとも1つが、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、所定の前記第1の視線領域と所定の前記第2の視線領域とが重なる重複領域のうち、前記一方の視線領域と前記他方の視線領域との境界領域に前記対象物が位置すると判断し、前記対象物の位置を算出する演算部と、を備えることを特徴とする位置計測システム。
  2. 所定の前記第1の視線領域及び所定の前記第2の視線領域は、画像における前記対象物の重心点又は特徴点を捉えることを特徴とする請求項1記載の位置計測システム。
  3. 前記第1の撮像光学系及び前記第2の撮像光学系の少なくとも1つを動かす駆動機構を更に備え、
    前記演算部は、前記駆動機構によって動かされた前記第1の撮像光学系の動き量に基づいて、前記第1の視線領域を更新し、前記駆動機構によって動かされた前記第2の撮像光学系の動き量に基づいて、前記第2の視線領域を更新することを特徴とする請求項1又は2記載の位置計測システム。
  4. 前記第1の撮像光学系及び前記第2の撮像光学系の動き量を検出する動き量検出器を更に備え、
    前記演算部は、前記動き量検出器によって検出された前記第1の撮像光学系の前記動き量に基づいて、前記第1の視線領域を更新し、前記動き量検出器によって検出された前記第2の撮像光学系の前記動き量に基づいて、前記第2の視線領域を更新することを特徴とする請求項1又は2記載の位置計測システム。
  5. 対象物のステレオ視によって前記対象物の位置を計測する位置計測方法であって、
    画像を構成する複数の最小要素のそれぞれの中心を通る第1の視線、及び前記第1の視線のそれぞれを中心として前記最小要素ごとに設定された第1の視線領域を有し、所定の前記第1の視線領域にて前記対象物を捉える第1の撮像光学系、並びに、画像を構成する複数の最小要素のそれぞれの中心を通る第2の視線、及び前記第2の視線のそれぞれを中心として前記最小要素ごとに設定された第2の視線領域を有し、所定の前記第2の視線領域にて前記対象物を捉える第2の撮像光学系を用意する工程と、
    前記第1の撮像光学系及び前記第2の撮像光学系の少なくとも1つが動いた場合において、所定の前記第1の視線領域及び所定の前記第2の視線領域の少なくとも1つが、隣り合う一方の視線領域から他方の視線領域に移動したことを検出したときには、所定の前記第1の視線領域と所定の前記第2の視線領域とが重なる重複領域のうち、前記一方の視線領域と前記他方の視線領域との境界領域に前記対象物が位置すると判断し、前記対象物の位置を算出する工程と、を含むことを特徴とする位置計測方法。
JP2009135193A 2009-06-04 2009-06-04 位置計測システム及び位置計測方法 Pending JP2010281685A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009135193A JP2010281685A (ja) 2009-06-04 2009-06-04 位置計測システム及び位置計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009135193A JP2010281685A (ja) 2009-06-04 2009-06-04 位置計測システム及び位置計測方法

Publications (1)

Publication Number Publication Date
JP2010281685A true JP2010281685A (ja) 2010-12-16

Family

ID=43538553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009135193A Pending JP2010281685A (ja) 2009-06-04 2009-06-04 位置計測システム及び位置計測方法

Country Status (1)

Country Link
JP (1) JP2010281685A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130582A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 映像提供装置
US9160929B2 (en) 2012-12-11 2015-10-13 Hyundai Motor Company Line-of-sight tracking system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0875462A (ja) * 1994-09-08 1996-03-22 Fujitsu Ltd 両眼立体視装置
JP2001012944A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2006038718A (ja) * 2004-07-29 2006-02-09 Takeshi Hashimoto 量子化誤差を軽減する距離計測方法
JP2008241609A (ja) * 2007-03-28 2008-10-09 National Univ Corp Shizuoka Univ 距離計測システム及び距離計測方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0875462A (ja) * 1994-09-08 1996-03-22 Fujitsu Ltd 両眼立体視装置
JP2001012944A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2006038718A (ja) * 2004-07-29 2006-02-09 Takeshi Hashimoto 量子化誤差を軽減する距離計測方法
JP2008241609A (ja) * 2007-03-28 2008-10-09 National Univ Corp Shizuoka Univ 距離計測システム及び距離計測方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160929B2 (en) 2012-12-11 2015-10-13 Hyundai Motor Company Line-of-sight tracking system and method
JP2015130582A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 映像提供装置

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP6132275B2 (ja) サイズ測定装置及びサイズ測定方法
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
JP5293131B2 (ja) 車両用複眼距離測定装置及び複眼距離測定方法
CN101825431A (zh) 用于三维传感的参考图像技术
US20060215881A1 (en) Distance measurement apparatus, electronic device, distance measurement method, distance measurement control program and computer-readable recording medium
JP2012058076A (ja) 3次元計測装置及び3次元計測方法
Jo et al. Spedo: 6 dof ego-motion sensor using speckle defocus imaging
JP2015049200A (ja) 計測装置、方法及びプログラム
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP2019074535A (ja) 校正方法、校正装置、及びプログラム
CN102881040A (zh) 一种数码相机移动拍摄三维重建方法
JP2611173B2 (ja) 魚眼レンズを用いた測位方法およびその装置
JP6441581B2 (ja) フレキシブルディスプレイの曲げモーションに対する光検出
WO2008075632A1 (ja) 複眼測距装置の検査方法および検査装置並びにそれに用いるチャート
JP2008275366A (ja) ステレオ3次元計測システム
JP2009229439A (ja) 3次元形状測定システム、及び、3次元形状測定方法
JP2008241609A (ja) 距離計測システム及び距離計測方法
JP2010281685A (ja) 位置計測システム及び位置計測方法
KR100957590B1 (ko) 객체 영상 표출형 전방향 영상레이다 장치
WO2020075213A1 (ja) 計測装置、計測方法および顕微鏡システム
Lu et al. Image-based system for measuring objects on an oblique plane and its applications in 2-D localization
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法
JP2013190281A (ja) 設置状態検出システム、設置状態検出装置、及び設置状態検出方法
JP2012026816A (ja) 寸法測定方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022