JP2007064836A - カメラキャリブレーションの自動化アルゴリズム - Google Patents
カメラキャリブレーションの自動化アルゴリズム Download PDFInfo
- Publication number
- JP2007064836A JP2007064836A JP2005252400A JP2005252400A JP2007064836A JP 2007064836 A JP2007064836 A JP 2007064836A JP 2005252400 A JP2005252400 A JP 2005252400A JP 2005252400 A JP2005252400 A JP 2005252400A JP 2007064836 A JP2007064836 A JP 2007064836A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- dimensional
- perspective projection
- projection matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【解決手段】 三次元形状が既知の対象物12を所定位置に固定配置された複数のカメラ13、14で撮影し、得られた二次元の各カメラ画像15、16から対象物12の主要構成を抽出して形成した主要構成画像18、19と、対象物12を透視投影行列Pを用いて各カメラ画像15、16と同一平面上にそれぞれ作成した二次元のモデル画像20、21とが重なるように、透視投影行列Pを最適化し、各カメラ13、14で撮像した任意の物体の三次元データを得る。
【選択図】 図1
Description
前記対象物を所定位置に固定配置された複数のカメラで撮影して二次元の各カメラ画像を得る第2工程と、
前記第2工程で得られた前記各カメラ画像から前記主要構成を抽出した主要構成画像を得る第3工程と、
前記第1工程で得た前記対象物の複数の主要構成の三次元データから選択された数点の計測点の三次元空間内の座標M(X,Y,Z)を、これに対応する前記主要構成画像の座標m(u,v)で探してその位置を決める第4工程と、
前記第1工程で入力した前記対象物の主要構成の前記三次元データと、前記第4工程で決定した主要構成の座標m(u,v)から透視投影行列の各要素を仮決定して、前記カメラ画像と同一面上に前記対象物のモデル画像を作成する第5工程と、
前記仮決定を繰り返すという前記透視投影行列の最適化を行って、前記主要構成画像と前記モデル画像の一致度を最大にして、最適化された前記透視投影行列を得る第6工程とを有し、
前記最適化された前記透視投影行列を用いて前記各カメラで撮像した任意の物体の三次元データを得る。
最適化された透視投影行列によって、個々のカメラのキャリブレーションを行い、キャリブレーションを行った複数のカメラで三次元空間内の任意の物体を撮影して得られた各カメラ画像から、この物体の三次元データを得ることができる。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記第4工程では、前記第3工程で得た主要構成画像中の前記座標mを前記第1工程で得た対象物の三次元データ中の前記計測点の座標Mに自動的に対応させてもよい。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記主要構成画像及び前記モデル画像は平滑化してもよい。
多次元滑降シンプレックス法は、幾何学的な本質をもち、目的関数のみを必要とし、微分係数を必要としない。N次元空間におけるN+1角形をシンプレックス(simplex、単体)という。シンプレックスは、N次元でN+1の点(ベクトル)の全てを相互に繋げている線分、多面体等からなる幾何学的図形である。例えば、二次元でのシンプレックスは三角形であり、三次元でのシンプレックスは四面体である。
また、勾配法は、最急降下法ともいわれ、目的関数をそれぞれの経過点で線形近似して、勾配の方向へ進み、漸近的に極小値へ向かう方法である。
請求項4記載のカメラキャリブレーションの自動化アルゴリズムにおいては、計測点の座標M及び主要構成画像の座標mを自動的に対応させているので、カメラで対象物を撮影するだけで、キャリブレーションが可能となる。
請求項6記載のカメラキャリブレーションの自動化アルゴリズムにおいては、透視投影行列の最適化を多次元滑降シンプレックス法又は勾配法によって行うので、主要構成画像及びモデル画像をより簡単に一致させることができる。
ここで、図1は本発明の一実施の形態に係るカメラキャリブレーションの自動化アルゴリズムを適用した三次元位置計測装置の説明図、図2は同自動化アルゴリズムのフローチャート、図3(A)、(B)はそれぞれ三次元位置計測装置のモニタに表示された左画像及び右画像の説明図、図4は同自動化アルゴリズムによるモデル画像と主要構成画像の説明図、図5(A)は同自動化アルゴリズムの最適化を行う多次元滑降シンプレックス法の初期値の説明図、(B)〜(E)は多次元滑降シンプレックス法の基本動作の説明図である。
(第1工程)
対象物12の三次元空間11における主要構成の三次元データをコンピュータ23に入力し、コンピュータ23内の図示しない保存部に保存する。ここで、主要構成の三次元データとは、対象物12の12本の棒状部材25から形成される立方体の8個の頂点の三次元座標であり、座標Mj (Xj ,Yj ,Zj )(j=1〜8)で表される。なお、対象物12の8つの頂点の三次元座標が与えられると対象物12の三次元形状が解るが、更に、対象物12の隣り合う頂点を結ぶ辺の中点の座標を加えて、コンピュータ23に入力してもよい。
図1に示すように、対象物12をカメラ13、14で撮影してカメラ画像15、16をそれぞれ得る。図3(A)、(B)に示すように、カメラ画像15、16は、対象物12をそれぞれ左目及び右目で見ているように、モニタ24でそれぞれ左画像26及び右画像27として表示される。
図4に示すように、コンピュータ23により、カメラ画像15、16から対象物12の主要構成を抽出した主要構成画像18、19をそれぞれ得る。ここで、対象物12の主要構成の抽出は、例えば、カメラ画像15、16をRGB表色系からHSV表色系に変換し、対象物12と同じ色相(すなわち、白色)のピクセルを背景から抽出して行っている。これによって、カメラ画像15、16から対象物12の棒状部材25の画像部分を抽出した主要構成画像18、19をそれぞれ作成できる。なお、RGB表色系は、色の三原色である赤(R)、緑(G)、及び青(B)でそれぞれ表すものであり、HSV表色系は、色情報を色相(H)、彩度(S)、及び輝度(V)で表示したものである。ここで、対象物12の背後に、例えば、黒色の幕28を設置して、白色の棒状部材で形成された対象物12の色相を抽出し易くしている(図3(A)、(B)参照)。
三次元空間11内の対象物12の主要構成の8つの三次元データから選択された同一平面上にない数点、例えば4つの計測点を、対象物12の1つの頂点(原点)M1 (0,0,0)と、原点からx軸、y軸、z軸上にそれぞれ配置される座標M2 (x,0,0)、M3 (0,y,0)、及び座標M4 (0,0,z)とする。この三次元空間内の座標M1 〜座標M4 を、これに対応する主要構成画像18の座標の座標m1 j (u1 j ,v1 j )及び主要構成画像19の座標m2 j (u2 j ,v2 j )で探して位置を決める(j=1〜4)。ここで、主要構成画像18、19の座標mi j の位置決めは、モニタ24に映し出される映像、すなわち、主要構成画像18、19上のポインタ(図示せず)を、コンピュータ23に接続された図示しないマウス等で移動させて、コンピュータ23で行っている。
第1工程で入力した対象物12の主要構成の三次元データ(座標M1 〜座標M4 )と、第4工程で決定した主要構成の4つの計測点の座標mi 1 〜座標mi 4 とから、コンピュータ23により透視投影行列Pi の各要素を仮決定して、カメラ画像15、16と同一面上に対象物12のモデル画像20、21をそれぞれ作成する。以下、モデル画像20、21の作成について、詳しく説明する。
透視投影行列Pi を、例えば、多次元滑降シンプレックス法により、仮決定を繰り返して最適化を行って、主要構成画像18、19及びモデル画像20、21の一致度を最大にし、最適化された透視投影行列Pi*を得る。ここで、最適化とは、一致度の一例である目的関数Oを最大化もしくは最小化することであり、その際の変数、すなわち、透視投影行列Pi の各要素pi 11〜pi 34の値を求めることである。目的関数Oを最小化する場合は、主要構成画像18、19及びモデル画像20、21の類似度sを用いて目的関数Oを1−sとすることができる。以下、目的関数Oの最小化について説明する。
シンプレックスの目的関数が最小値となるまで、図5(B)〜(E)に示す動作を行って、主要構成画像18、19及びモデル画像20、21を実質的に一致させる最適化された透視投影行列Pi*を得ることができる。
本発明のカメラキャリブレーションの自動化アルゴリズムを適用して、カメラキャリブレーションを行った。また、対象物としては、一辺が0.525mの棒状部材を組んだ立方体を使用した。この立方体の原点の座標M1 と、原点からX軸、Y軸、Z軸上にある各頂座標M2 〜座標M4 の座標(真値)をコンピュータに入力した。立方体を2台のカメラで撮影して2枚のカメラ画像をそれぞれ得た後、それぞれのカメラ画像からコンピュータによって立方体の主要構成を抽出した主要構成画像を得た。
実施例2は、立方体の原点の座標M1 とZ軸上にある頂座標M4 の座標をコンピュータに入力し、座標M1 、M4 と、主要構成画像の座標m1 、座標m4 をそれぞれ対応させて透視投影行列P* を得る点が実施例1と異なっている。ここで、表2に実施例2によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図7(A)、(B)及び表2に示すように、実施例2における主要構成画像とモデル画像は、底面部分では重なっているが、上面部分ではかなり外れている。このように、コンピュータに入力する計測点が、2点ではキャリブレーションの精度が低くなることが解った。
従来のカメラのキャリブレーション法に従って、立方体の8個の頂点の座標をコンピュータに入力し、立方体を2台のカメラで撮影して2枚のカメラ画像をそれぞれ得た後、立方体の各頂点の座標(M’j (X’j ,Y’j ,Z’j )、j=1〜8)とカメラ画像中の座標m’j (u’j ,v’j )をそれぞれ対応させ、射影方程式により透視投影行列P’を計算して求めた。ここで、表3に比較例1によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図8(A)、(B)及び表3に示すように、比較例1におけるカメラ画像とモデル画像は、大きくずれており、実施例1で指定した計測点よりも多くの点を使用した比較例1の方法ではキャリブレーションの精度が低いことが解る。
比較例2のカメラのキャリブレーション法は、立方体の各頂点(8個)及び隣り合う頂点を結ぶ辺の中点(12個)を使用して合計20個の計測点を対応させた点が比較例1と異なっている。ここで、表4に比較例2によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図9(A)、(B)及び表4に示すように、比較例2におけるカメラ画像とモデル画像はほとんど重なっており、キャリブレーションの精度が高いことが解る。しかしながら、20個の計測点を計測する作業が大変煩雑である。
Claims (6)
- 三次元形状が既知の対象物を所定位置に固定配置された複数のカメラで撮影し、得られた二次元の各カメラ画像から該対象物の主要構成を抽出して形成した主要構成画像と、前記対象物を透視投影行列を用いて前記各カメラ画像と同一平面上にそれぞれ作成した二次元のモデル画像とが重なるように、前記透視投影行列を最適化し、前記各カメラで撮像した任意の物体の三次元データを得ることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
- 三次元形状が既知の対象物の主要構成の三次元データを得る第1工程と、
前記対象物を所定位置に固定配置された複数のカメラで撮影して二次元の各カメラ画像を得る第2工程と、
前記第2工程で得られた前記各カメラ画像から前記主要構成を抽出した主要構成画像を得る第3工程と、
前記第1工程で得た前記対象物の複数の主要構成の三次元データから選択された数点の計測点の三次元空間内の座標M(X,Y,Z)を、これに対応する前記主要構成画像の座標m(u,v)で探してその位置を決める第4工程と、
前記第1工程で入力した前記対象物の主要構成の前記三次元データと、前記第4工程で決定した主要構成の座標m(u,v)から透視投影行列の各要素を仮決定して、前記カメラ画像と同一面上に前記対象物のモデル画像を作成する第5工程と、
前記仮決定を繰り返すという前記透視投影行列の最適化を行って、前記主要構成画像と前記モデル画像の一致度を最大にして、最適化された前記透視投影行列を得る第6工程とを有し、
前記最適化された前記透視投影行列を用いて前記各カメラで撮像した任意の物体の三次元データを得ることを特徴とするカメラキャリブレーションの自動化アルゴリズム。 - 請求項2記載の自動化アルゴリズムにおいて、前記第4工程では、前記計測点を同一の平面上にない4つとすることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
- 請求項2及び3のいずれか1項に記載の自動化アルゴリズムにおいて、前記第4工程では、前記第3工程で得た主要構成画像中の前記座標mを前記第1工程で得た対象物の三次元データ中の前記計測点の座標Mに自動的に対応させていることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
- 請求項2〜4のいずれか1項に記載の自動化アルゴリズムにおいて、前記主要構成画像及び前記モデル画像は平滑化されていることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
- 請求項2〜5のいずれか1項に記載の自動化アルゴリズムにおいて、前記第6工程での前記透視投影行列の最適化は、多次元滑降シンプレックス法又は勾配法によって行うことを特徴とするカメラキャリブレーションの自動化アルゴリズム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252400A JP2007064836A (ja) | 2005-08-31 | 2005-08-31 | カメラキャリブレーションの自動化アルゴリズム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252400A JP2007064836A (ja) | 2005-08-31 | 2005-08-31 | カメラキャリブレーションの自動化アルゴリズム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007064836A true JP2007064836A (ja) | 2007-03-15 |
Family
ID=37927198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005252400A Pending JP2007064836A (ja) | 2005-08-31 | 2005-08-31 | カメラキャリブレーションの自動化アルゴリズム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007064836A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250487A (ja) * | 2007-03-29 | 2008-10-16 | Kyushu Institute Of Technology | エッジ検出によるモデルマッチングを用いたカメラ校正方法 |
KR100951309B1 (ko) | 2008-07-14 | 2010-04-05 | 성균관대학교산학협력단 | 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법 |
JP2010210585A (ja) * | 2009-03-12 | 2010-09-24 | Omron Corp | 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ |
US8447097B2 (en) | 2009-03-12 | 2013-05-21 | Omron Corporation | Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement |
US8559704B2 (en) | 2009-03-12 | 2013-10-15 | Omron Corporation | Three-dimensional vision sensor |
US8565515B2 (en) | 2009-03-12 | 2013-10-22 | Omron Corporation | Three-dimensional recognition result displaying method and three-dimensional visual sensor |
US8654193B2 (en) | 2009-03-13 | 2014-02-18 | Omron Corporation | Method for registering model data for optical recognition processing and optical sensor |
WO2018173205A1 (ja) * | 2017-03-23 | 2018-09-27 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、その制御方法、及びプログラム |
CN110084854A (zh) * | 2009-12-24 | 2019-08-02 | 康耐视公司 | 用于相机校准误差的运行时测定的系统和方法 |
JP2020161034A (ja) * | 2019-03-28 | 2020-10-01 | 株式会社AB.do | 三次元データスケール付与方法及び三次元データスケール付与プログラム |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61277012A (ja) * | 1985-06-03 | 1986-12-08 | Nippon Telegr & Teleph Corp <Ntt> | カメラ位置姿勢校正方法 |
JPH05164517A (ja) * | 1991-12-18 | 1993-06-29 | Ono Sokki Co Ltd | 三次元座標計測方法 |
JPH0818848A (ja) * | 1994-06-27 | 1996-01-19 | Sanyo Electric Co Ltd | カメラシステムおよび歪み除去方法 |
JPH0953914A (ja) * | 1995-08-14 | 1997-02-25 | Nec Corp | 三次元座標計測装置 |
JP2002158915A (ja) * | 2000-09-05 | 2002-05-31 | Inst Of Physical & Chemical Res | 画像のレンズ歪みの補正方法 |
JP2002535894A (ja) * | 1999-01-12 | 2002-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | カメラ動きパラメータを推定する方法 |
JP2003067775A (ja) * | 2001-08-24 | 2003-03-07 | Japan Science & Technology Corp | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
JP2003117041A (ja) * | 2001-10-15 | 2003-04-22 | Hamamatsu Photonics Kk | ストローク情報測定装置及びストローク情報測定方法 |
WO2004081853A1 (en) * | 2003-03-06 | 2004-09-23 | Animetrics, Inc. | Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery |
JP2004348659A (ja) * | 2003-05-26 | 2004-12-09 | Suzuki Motor Corp | 被写体形状認識システム及び方法並びに被写体形状認識用プログラム、当該プログラムを記憶した記憶媒体 |
JP2005174151A (ja) * | 2003-12-12 | 2005-06-30 | Topcon Corp | 三次元画像表示装置及び方法 |
-
2005
- 2005-08-31 JP JP2005252400A patent/JP2007064836A/ja active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61277012A (ja) * | 1985-06-03 | 1986-12-08 | Nippon Telegr & Teleph Corp <Ntt> | カメラ位置姿勢校正方法 |
JPH05164517A (ja) * | 1991-12-18 | 1993-06-29 | Ono Sokki Co Ltd | 三次元座標計測方法 |
JPH0818848A (ja) * | 1994-06-27 | 1996-01-19 | Sanyo Electric Co Ltd | カメラシステムおよび歪み除去方法 |
JPH0953914A (ja) * | 1995-08-14 | 1997-02-25 | Nec Corp | 三次元座標計測装置 |
JP2002535894A (ja) * | 1999-01-12 | 2002-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | カメラ動きパラメータを推定する方法 |
JP2002158915A (ja) * | 2000-09-05 | 2002-05-31 | Inst Of Physical & Chemical Res | 画像のレンズ歪みの補正方法 |
JP2003067775A (ja) * | 2001-08-24 | 2003-03-07 | Japan Science & Technology Corp | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
JP2003117041A (ja) * | 2001-10-15 | 2003-04-22 | Hamamatsu Photonics Kk | ストローク情報測定装置及びストローク情報測定方法 |
WO2004081853A1 (en) * | 2003-03-06 | 2004-09-23 | Animetrics, Inc. | Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery |
JP2006520054A (ja) * | 2003-03-06 | 2006-08-31 | アニメトリクス,インク. | 不変視点からの画像照合および2次元画像からの3次元モデルの生成 |
JP2004348659A (ja) * | 2003-05-26 | 2004-12-09 | Suzuki Motor Corp | 被写体形状認識システム及び方法並びに被写体形状認識用プログラム、当該プログラムを記憶した記憶媒体 |
JP2005174151A (ja) * | 2003-12-12 | 2005-06-30 | Topcon Corp | 三次元画像表示装置及び方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250487A (ja) * | 2007-03-29 | 2008-10-16 | Kyushu Institute Of Technology | エッジ検出によるモデルマッチングを用いたカメラ校正方法 |
KR100951309B1 (ko) | 2008-07-14 | 2010-04-05 | 성균관대학교산학협력단 | 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법 |
JP2010210585A (ja) * | 2009-03-12 | 2010-09-24 | Omron Corp | 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ |
US8447097B2 (en) | 2009-03-12 | 2013-05-21 | Omron Corporation | Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement |
US8559704B2 (en) | 2009-03-12 | 2013-10-15 | Omron Corporation | Three-dimensional vision sensor |
US8565515B2 (en) | 2009-03-12 | 2013-10-22 | Omron Corporation | Three-dimensional recognition result displaying method and three-dimensional visual sensor |
US8654193B2 (en) | 2009-03-13 | 2014-02-18 | Omron Corporation | Method for registering model data for optical recognition processing and optical sensor |
CN110084854A (zh) * | 2009-12-24 | 2019-08-02 | 康耐视公司 | 用于相机校准误差的运行时测定的系统和方法 |
WO2018173205A1 (ja) * | 2017-03-23 | 2018-09-27 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、その制御方法、及びプログラム |
US10798360B2 (en) | 2017-03-23 | 2020-10-06 | Sony Interactive Entertainment Inc. | Information processing system, method for controlling same, and program |
JP2020161034A (ja) * | 2019-03-28 | 2020-10-01 | 株式会社AB.do | 三次元データスケール付与方法及び三次元データスケール付与プログラム |
JP7012965B2 (ja) | 2019-03-28 | 2022-01-31 | 株式会社AB.do | 三次元データスケール付与方法及び三次元データスケール付与プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007064836A (ja) | カメラキャリブレーションの自動化アルゴリズム | |
KR102261020B1 (ko) | 개선된 카메라 캘리브레이션 시스템, 타겟 및 프로세스 | |
US10699476B2 (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US6671399B1 (en) | Fast epipolar line adjustment of stereo pairs | |
KR101121034B1 (ko) | 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 | |
CN101299270B (zh) | 三维扫描系统中的多个摄像机同步快速标定方法 | |
Santos et al. | 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera | |
CN113841384B (zh) | 校准装置,用于校准的图表和校准方法 | |
CN110415304B (zh) | 一种视觉标定方法及系统 | |
KR20160031967A (ko) | 멀티 프로젝션 시스템 및 이의 프로젝터 캘리브레이션 방법 | |
CN110567441B (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
JP4821009B2 (ja) | エッジ検出によるモデルマッチングを用いたカメラ校正方法 | |
JPH04102178A (ja) | 物体モデル入力装置 | |
CN107941241B (zh) | 一种用于航空摄影测量质量评价的分辨率板及其使用方法 | |
CN116527856B (zh) | 球幕影院的播放控制方法、装置、设备及存储介质 | |
CN111260735B (zh) | 一种单次拍摄的lidar与全景相机的外参数标定方法 | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
CN113724365B (zh) | 一种三维重建方法及装置 | |
CN109410272A (zh) | 一种变压器螺母识别与定位装置及方法 | |
CN115841668A (zh) | 一种双目视觉苹果识别以及精准定位的方法 | |
Tyukin et al. | The development and research of the indoor navigation system for a mobile robot with the possibility of obstacle detection | |
JP6641313B2 (ja) | 領域抽出装置及びプログラム | |
Southey et al. | Object discovery through motion, appearance and shape | |
JP2002135807A (ja) | 3次元入力のためのキャリブレーション方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101215 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110412 |