JP2020053008A - 位置決め方法、ロボット及びコンピューター記憶媒体 - Google Patents

位置決め方法、ロボット及びコンピューター記憶媒体 Download PDF

Info

Publication number
JP2020053008A
JP2020053008A JP2019099027A JP2019099027A JP2020053008A JP 2020053008 A JP2020053008 A JP 2020053008A JP 2019099027 A JP2019099027 A JP 2019099027A JP 2019099027 A JP2019099027 A JP 2019099027A JP 2020053008 A JP2020053008 A JP 2020053008A
Authority
JP
Japan
Prior art keywords
marking
coordinate data
robot
data
world coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019099027A
Other languages
English (en)
Other versions
JP6573419B1 (ja
Inventor
勇勝 趙
yong sheng Zhao
勇勝 趙
友軍 熊
Youjun Xiong
友軍 熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Application granted granted Critical
Publication of JP6573419B1 publication Critical patent/JP6573419B1/ja
Publication of JP2020053008A publication Critical patent/JP2020053008A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position Or Direction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】計算量を低減した、小型ロボット用の位置決め方法を提供する。【解決手段】位置決め方法は、ロボットに適用され、ロボットはカメラを含む。マーキングパターン領域を含む予め設定された領域の写真を撮影するステップと、マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、各マーキングポイントの第1座標データを取得するステップと、カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算するステップと、マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算するステップとを含む。上記位置決め方法により、小型ロボットは単眼視覚位置決めを迅速に行うことができ、位置決めの計算量を低減することができる。【選択図】図1

Description

本願はロボット技術の分野に関し、特に位置決め方法、ロボット及びコンピューター記憶媒体に関する。
センサー技術、ネットワーク技術及び画像技術の発展に伴い、視覚に基づく位置決め技術は急速に発展している新しい分野となり、ロボットナビゲーション、航空宇宙航空機の位置決め及び捕捉、仮想現実などの技術においてますます広く使用されている。
位置決め技術は、単眼位置決め技術、両眼位置決め技術、及び多眼位置決め技術を含む。その中で、単眼位置決め技術は、その簡単なシステム及び低コストのために小型ロボットの位置決めに広く使用されている。
しかしながら、小型ロボットのサイズが小さいため、位置決め技術に必要な計算量は、小型ロボットのプロセッサーに大きな負担をかける。
本願は、位置決め方法、ロボット及びコンピューター記憶媒体を提供するものであり、その主な技術課題は、単眼視覚位置決めの計算量をいかにして低減するかである。
上記技術課題を解決するために、本願は位置決め方法を提供する。位置決め方法はロボットに適用される。ロボットはカメラを含む。その位置決め方法は、
マーキングパターン領域を含む予め設定された領域の写真を撮影するステップと、
マーキングパターン領域の少なくとも2つのマーキングポイントを識別して、マーキングポイントの第1座標データを取得するステップと、
カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算するステップと、
マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算するステップとを含む。
上記技術課題を解決するために、本願はロボットをさらに提供する。そのロボットは、カメラと、メモリと、カメラ及びメモリにそれぞれ接続されたプロセッサーとを含む。
カメラは、マーキングパターン領域を含む予め設定された領域の写真を撮影するために使用される。
プロセッサーは、マーキングパターン領域の少なくとも2つのマーキングポイントを識別して、マーキングポイントの第1座標データを取得するために使用される。プロセッサーはまた、カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算するために使用される。プロセッサーはさらに、マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算するために使用される。
メモリは、プロセッサーのデータを記憶するために使用される。
上記技術課題を解決するために、本願はコンピューター記憶媒体を更に提供する。そのコンピューター記憶媒体は、コンピュターブログラムを記憶するために使用される。上記位置決め方法のステップを実現するためにコンピュターブログラムを実行することができる。
従来技術と比較して、本願の有益な効果は以下のとおりである。その位置決め方法は以下のステップを含む。マーキングパターン領域を含む予め設定された領域の写真を撮影する。マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、マーキングポイントの第1座標データを取得する。撮影したマーキングパターンを識別することにより、マーキングポイントの画素データ及び物理データを取得することができ、画素データにより物理データを取得するための計算量を節約することができる。カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算する。マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算する。ロボットのワールド座標における角度データにより、ロボットの姿勢を取得することができる。上記に示す方法により、小型ロボットは単眼視覚位置決めを迅速に行うことができ、位置決めの計算量を低減することができる。
以下、本発明の実施例の技術的手段を更に詳細に説明するために、実施例の説明に必要な図面を簡単に説明する。当然のことながら、下記の説明における図面は本発明の幾つかの実施例に過ぎず、当業者であれば、創造的な労働をしない前提で、これらの図面に基づいて他の図面を得ることができる。ここで、
本願の位置決め方法の第1実施例のフローチャートである。 図1のロボットの構造模式図である。 本願の位置決め方法の第2実施例のフローチャートである。 図3の画像領域をマーキングした模式図である。 図3の画像領域をマーキングした模式図である。 本願の位置決め方法の第3実施例のフローチャートである。 本願のロボットの一実施例の構造模式図である。 本願のコンピューター記憶媒体の一実施例の構造模式図である。
以下では、本願の実施例の添付図面を参照しながら、本願の実施例の技術的解決手段を明確かつ完全に説明する。当然のことながら、ここで説明する実施例は本願の実施例の全てではなく一部にすぎない。当業者が創造的な作業なしに本願の実施例に基づいて得られる全ての他の実施例は、本願の保護範囲に含まれるべきである。
図1及び図2を参照されたい。図1は本願の位置決め方法の第1実施例のフローチャートである。図2は図1のロボットの構造模式図である。
本実施例の位置決め方法はロボット200に適用される。図2に示すように、ロボット200は少なくともカメラ21を含み、カメラ21は、例えば、ロボット200の頭部に配置される。小型ロボット200では、カメラ21の位置及び角度は、小型ロボット200全体の位置及び角度に近似する。小型ロボット200は、本実施例の位置決め方法によって、マップの座標系に対する小型ロボット200の姿勢を取得することができる。
図1に示すように、位置決め方法はS11〜S14を含む。
S11では、マーキングパターン領域を含む予め設定された領域の写真を撮影する。
ロボット200は、マーキングツール上に置かれる(図示せず)。マーキングツールは、碁盤目を有するマーキングプレート又はマーキングペーパーである。マーキングツールはマーキングパターン領域を含む。具体的に、ロボット200はマーキングパターン領域内に置かれる。
ロボット200は、マーキングパターン領域の中央、又はマーキングパターン領域内の任意の位置に置かれる。ロボット200内に設けられたカメラ21は写真を撮影する。カメラ21は、マーキングパターン領域の異なる角度及び異なる距離を含む写真を取得し、少なくともマーキングパターンの一部が写真に表示される。
S12では、マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、マーキングポイントの第1座標データを取得する。
ロボット200は、写真内のマーキングパターン領域の少なくとも2つのマーキングポイントを識別して、識別したマーキングポイントの第1座標データを取得する。マーキングポイントの第1座標データは少なくともワールド座標系におけるマーキングポイントの座標データを含む。
S13では、カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算する。
カメラ21のパラメータは、カメラ21自体の技術的パラメータや、撮影時に設定された例えば、焦点距離、拡大倍率及び解像度などのカメラ21のパラメータを含む。ロボット200は、カメラ21のパラメータ(内部パラメータ及び外部パラメータ)とステップS12で取得されたマーキングポイントの第1座標データに基づいて、ロボット200のワールド座標における第2座標データを光学原理又は座標変換などにより計算することができる。内部パラメータは、カメラ21自体の技術的パラメータや撮影時に設定されたカメラ21のパラメータを含む。外部パラメータは、カメラ21の光学中心とロボットの座標との位置関係である。
S14では、マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算する。
ロボット200は、マーキングポイントのワールド座標における第1座標データ及びロボット200のワールド座標における第2座標データに基づいて、ロボット200のワールド座標における角度データを計算する。ロボット200は、ワールド座標における角度データをロボット200の姿勢データに変換する。カメラ21の位置及び角度は、小型ロボット200全体の位置及び角度に近似する。ロボット200の姿勢データは、ロボット200自体の表示画面(図示せず)によって表示されてもよいし、記憶及び処理のために無線伝送によってクラウドサーバー又はコンピューターに伝送されてもよい。
具体的には、ロボット200は、マーキングポイントのワールド座標における第1座標データ及びロボット200のワールド座標における第2座標データに基づいて、三角関数及び余弦定理を用いて、ロボット200のワールド座標における角度を計算することができる。
本実施例の位置決め方法では、ロボット200は、撮影した写真により、少なくともマーキングポイントのワールド座標における第1座標データを取得する。次に、マーキングポイントのワールド座標における第1座標データに基づいて、ロボット200のワールド座標における第2座標データを取得する。最後に、第1座標データ及び第2座標データに基づいて、ロボット200の角度データ及び姿勢データを取得する。上記位置決め方法によれば、ロボット200は、単眼視覚位置決めを行う際に、マーキングポイントの座標データを識別することによって座標変換時の計算量を低減することができる。
本願は別の位置決め方法を更に提供する。詳細については、図3及び図4を参照されたい。図3は、本願の位置決め方法の第2実施例のフローチャートである。図4は、図3の画像領域をマーキングした模式図である。本実施例の位置決め方法もロボット200に適用される。ロボット200の具体的な構造については図2を参照されたく、ここでは贅言しない。
図3に示すように、本実施例の位置決め方法は以下のステップS31〜S38を含む。
S31では、カメラのパラメータを校正する。
カメラ21のパラメータは少なくとも拡大倍率、解像度、及び焦点距離などを含む。
S32では、カメラは前記ロボットの底部方向に対して固定された予め設定された角度で、予め設定された領域の写真を撮影する。予め設定された角度は90°未満である。
カメラ21はロボット200の底部方向に対して固定された予め設定された角度で、予め設定された領域の写真を撮影する。予め設定された角度は90°未満である。本実施例では、予め設定された角度の大きさは、マーキングツールのマーキング画像領域の大きさ及びロボット200の配置位置に依存する。具体的には、カメラ21は、予め設定された角度に従って、マーキング画像の各角度及び各位置の写真を撮影することができる。
S33では、マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、マーキングポイントの第1画素座標データを取得する。
ロボット200は、撮影された写真によってマーキングパターン領域の少なくとも2つのマーキングポイントを識別して、写真上のマーキングポイントの第1画素座標データを取得する。第1画素座標は、画素座標系におけるマーキングポイントの2次元座標である。
S34では、カメラのパラメータ及び第1画素座標データに基づいて、マーキングポイントとカメラとの第1距離データを取得する。
ロボット200は、カメラ21のパラメータに基づいて、マーキングポイントの第1画素座標を、ロボット座標におけるマーキングポイントの座標に変換することによって、マーキングポイントからロボット200までの距離を取得する。
具体的には、カメラ21の光学中心の座標を原点として、カメラ21のパラメータに基づいて、各マーキングポイントの第1画素座標を、光学中心に対する物理座標(ロボット座標におけるマーキングポイントの物理座標)に変換することができる。光学中心とマーキングポイントの物理座標は、直線で結ぶことができる。マーキングポイントに対応する位置の高さ(例えば、マップ平面又はある既知の高さ)に基づいて、直線と平面との交点、即ち、マーキングポイントのカメラ21の光学中心の座標系に対する物理座標を計算する。その後、カメラ21の光学中心とロボット200との位置関係に応じて、マーキングポイントの第1画素座標をロボット座標系における座標に変換する。
具体的には、例えば、マーキングポイントの第1画素座標は(u、v)であり、ロボット200は、まず第1画素座標(u、v)を第1画像座標(x、y)に変換する。画像座標系は、CCD画像平面の中心を座標原点とし、X軸とY軸はそれぞれ画像平面の2つの垂直な辺と平行であり、座標値は(x、y)によって表される。第1画素座標(u、v)と第1画像座標(x、y)との変換関係は以下のとおりである。
は、画素座標系における画像座標系の原点の座標であり、dxとdyはそれぞれ画像平面のx方向とy方向における各画素の物理的サイズである。
ロボット200は、マーキングポイントの第1画像座標(x、y)を、ロボット座標系におけるマーキングポイントの座標(X,Y,Z)に変換する。変換関係は以下のとおりである。
fは、カメラ21の焦点距離である。
ロボット200は、ロボット座標系におけるマーキングポイントの座標(X,Y,Z)とロボット座標系の原点(0,0,0)との距離を計算することで、マーキングポイントとカメラ21との第1距離データを取得することができる。
本実施例では、カメラ21の位置及び角度は、小型ロボット200全体の位置及び角度に近似する。カメラ21の光学中心に対するマーキングポイントの物理座標は、ロボット座標系におけるマーキングポイントの物理座標に近似する。他の実施例において、カメラ21の位置及び角度がロボット200全体の位置及び角度に近似することができない場合、カメラ21の光学中心に対するマーキングポイント物理座標に対して簡単な3次元座標系変換を行うことによって、ロボット座標系におけるマーキングポイントの物理座標を取得することができる。ここでは贅言しない。
S35では、マーキングパターン領域の少なくとも2つのマーキングポイントの間のコード化パターンを識別して、コード化パターンに対応するコード化データを取得する。
ロボット200は、写真におけるマーキングパターン領域の少なくとも2つのマーキングポイントの間のコード化パターンを識別して、コード化パターンに対応するコード化データを取得する。
具体的には、コード化パターンは少なくとも2つのコード化ブロックを含む。隣接するマーキングポイントの間のコード化ブロックの色、数及び/又は配列順序が異なる場合、それに対応するコード化データも異なる。この場合、ステップS35は、前記マーキングパターン領域の少なくとも2つのマーキングポイントの間の前記コード化ブロックの色、数及び/又は配列順序を識別して、前記コード化パターンに対応するコード化データを取得するステップを含み得る。
図4は、図3に示される位置決め方法のマーキングパターン領域の模式的なブロック図である。図4−1に示すように、マーキングパターン領域400の内輪郭には碁盤41が設けられ、ロボット200は、碁盤41の中央交点又は任意の交点に置かれる。マーキングパターン領域400の外輪郭には複数のマーキングポイント42が設けられる。2個毎のマーキングポイント42の間にはn個のコード化ブロックが設けられる。n個のコード化ブロックは、n1個の第1コード化ブロック43、及びn2個の第2コード化ブロック44を含む。マーキングパターン領域400の外輪郭の4つ頂点にマーキングポイント42が配置することができる。各2つの隣接するマーキングポイント42の間におけるコード化ブロックの数は同じであるべきである。各2つの隣接するマーキングポイント42の間の距離は同じであってもよく、異なってもよく、かつ各2つの隣接するコード化ブロックの間の距離も同じであってもよく、異なってもよく、かつ碁盤41の格子に対応しなくてもよい。
第1コード化ブロック43と第2コード化ブロック44は、形状が同じである場合、色によって区別される。例えば、第1コード化ブロック43は黒色のコード化ブロックであり、第2コード化ブロック44は白色のコード化ブロックである。第1コード化ブロック43と第2コード化ブロック44は、色が同じである場合、形状領域によって区別される。例えば、第1コード化ブロック43は長方形であり、第2コード化ブロック44は三角形である。
コード化ブロックの配列順序は2進数で計算される。第1コード化ブロック43及び第2コード化ブロック44は、nビットの2進数コードと見ることができる。例えば、第1コード化ブロック43は「1」であり、第2コード化ブロック44は「0」であり、n個のコード化ポイントは最大2n種類のコードを構成することができる。コード化時に、所望のマーキングパターン領域400の全長及び2つのマーキングポイント42間の適切な距離に基づいて、適切なn値が選択される。
他の実施例では、マーキングパターン領域400は1つのコードのみを含んでもよく、連続した複数のコードを含んでもよい。マーキングパターンは、マーキングパターン領域400の縁に限定されず、マーキングパターン領域400の内部にあってもよい。マーキングパターンは、前端と後端がつながることに限定されず、互いに交差してもよい(図4−2を参照)。マーキングパターンは、配置時に水平面に対して平行又は水平面に対して垂直とすることができ、ここでは贅言しない。
S36では、予め記憶された記録から、コード化データに対応するコード化パターンに隣接するマーキングポイントのワールド座標における第1物理座標データを検索する。
ステップS35で取得されたコード化データに基づいて、ロボット200は、予め記憶された記録から、対応するコード化パターンに隣接するマーキングポイントのワールド座標における第1物理座標データを検索する。予め記憶された記録は、コード化データと隣接するマーキングポイントの物理座標との間のマッピング関係を含み、当然のことながら、マーキングポイント画素データ、コード化パターン、コード化データ、及び物理座標データなどのマッピング関係も含み得る。
ロボット200は、全てのマーキングポイントの第1物理座標データを取得するか、又は写真の左右両端及び上下両端の4つのマーキングポイントの第1物理座標データを取得する。
S37では、マーキングポイントのワールド座標における第1物理座標データ及び第1距離データに基づいて、三辺測量位置決め方法により、ロボットのワールド座標における第2座標データを取得する。
ロボット200は、ステップS34及びステップS36において、マーキングポイントのワールド座標における第1物理座標データ及び第1距離データを取得し、その後、三辺測量位置決め方法により、ロボットのワールド座標における第2座標データを取得する。第2座標データは物理データである。
具体的には、本実施例では、3つのマーキングポイントの第1物理座標データを取得し、3つのマーキングポイントはすべて同一の水平面上にあり、z座標の値は同じである。例えば、3つのマーキングポイント点A、点B、及び点Cの座標はそれぞれA(x1、y1、z1)、B(x2、y2、z2)、及びC(x3、y3、z3)である。点A、点B、及び点Cをそれぞれ円心とし、ロボットが位置する座標Dをタグとして、各円心から測定されるタグまでの最も近い距離を半径として円を作成する。得られる3つの円の交点はD(x、y)となる。円Aの半径はd1、円Bの半径はd2、円Cの半径はd3である。交点D(x、y)は、次の式から計算することができる。
(x−x+(y−y+(z−z=d
(x−x+(y−y+(z−z=d
(x−x+(y−y+(z−z=d
円A、円B及び円Cの間には次の3種類の関係がある。3つの円は2つずつ交差し、共有領域を有する。3つの円は2つずつ交差しているが、共有領域を有していない。3つの円は交差しない。すなわち、点A、点B、及び点Cが同一直線上に存在していなければ、座標Dは一つの解として決定されるが、点A、点B、及び点Cが同一直線上に存在する場合、座標Dは二つの解を有するため、合理的でない解を排除する必要がある。
3つの円が共有領域を有する場合、共有領域には必然的に3つの交点がある。3つの交点を用いて三角形を作成すると、測定されるタグの座標Dは三角形の内部中心座標である。
3つの円が2つずつ交差しているが共有領域を有していない場合、必然的に2つの互いに交差していない共有領域がある。2つの円の交差領域の2つの交点の結ぶ線の中点を取り、その後、これら3つの中点を用いて三角形を作成する。その内部中心は測定されるタグの内部中心座標Dである。
3つの円が交差しない場合、それらが破棄され、3つのマーキングポイントが採用される。3セットのマーキングポイントが全て交差しない場合、3つのマーキングポイントの位置を用いて三角形が作成される。その三角形の内部中心は測定されるタグの位置Dである。
他の実施例では、ロボット200は2つのマーキングポイントを取得する。三辺測量位置決め方法によれば、2つの円は2つの交点を有する可能性があり、測定されるタグDの計算位置の結果が2つある。地図の事前情報、即ち、マーキング画像領域内(マーキング画像領域上)の交点が有効であり、マーキング画像領域外の交点を無効とすることによって、そのうちの1つの位置座標が破棄される。
S38では、マーキングポイントのワールド座標における第1物理座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算する。
ステップS38の技術的特徴は、上記ステップS14の技術的特徴と実質的に同じであり、ここでは贅言しない。
上述した実施例の位置決め方法に基づいて、本実施例のロボット200は、カメラパラメータ及び第1画素座標データに基づいてマーキングポイントとカメラの第1距離データを取得する。次に、マーキングポイントの間のコード化パターンを識別し、コード化データを取得し、コード化データによってマーキングポイントのワールド座標における第1物理座標データを抽出する。マーキングポイントのワールド座標における第1物理座標データ及び第1距離データに基づいて、三辺測量位置決め方法により、ロボットのワールド座標における第2座標データを取得する。上記位置決め方法によれば、ロボット200は、単眼視覚位置決めを行う際に、マーキングポイントの座標データを識別することによって座標変換時の計算量を低減することができる。
本願は他の位置決め方法を更に提供する。詳細については図5を参照されたい。図5は、本願の位置決め方法の第3実施例のフローチャートである。本実施例の位置決め方法もロボット200に適用される。ロボット200の具体的な構造については図2を参照されたく、ここでは贅言しない。
図に示すように、上記実施例3に基づくと、ステップS33の後にS331〜S334がさらに含まれる。
S331では、少なくとも2つのマーキングポイントの第1画素座標データに基づいて、マーキングポイントの間の第2距離データを取得する。
ロボット200は、識別された隣接するマーキングポイントの第1画素座標データに基づいて、マーキングポイントの間の第2距離データ、即ち、実際の空間距離を計算する。
具体的には、識別されたマーキングポイントが同じ直線上にある場合、ロボット200は、左右両端のマーキングポイントデータのみを取得する。識別されたマーキングポイントが同じ直線上にない場合、ロボット200は、左右両端のマーキングポイントデータと、左右両端のマーキングポイントから最も遠いマーキングポイントデータとを含む3つのマーキングポイントデータを取得することによって、ロボット200の位置計算精度を向上させる。
S332では、第2距離データが予め設定された距離条件を満たすか否かを判断する。
第2距離データ、即ち、2つのマーキングポイントの実際の空間距離が予め設定された距離範囲内にあるか否かを判断する。2つのマーキングポイントの実際の空間距離が予め設定された距離範囲内にある場合、ステップS334に進む。2つのマーキングポイントの実際の空間距離が予め設定された距離範囲内にない場合、ステップS333に進む。予め設定された距離は、マーキングポイントを取得するための一つの基準である。ロボット200により取得されたマーキングポイントの実際の空間距離が予め設定された距離範囲外である場合、これらのマーキングポイントによって算出されたマーキングポイントとカメラの第1距離データの精度が低い。従って、計算の精度を向上させるために、ロボット200は、予め設定された距離範囲内にある実際の空間距離を有する2つ以上のマーキングポイントを取得する必要がある。
S333では、第2距離データが予め設定された距離条件を満たさない場合、マーキングポイントを再識別する。
第2距離データが予め設定された距離条件を満たさない場合、ロボット200は、これらの2つのマーキングポイントを破棄し、他のマーキングポイントを再識別し、取得された2つのマーキングポイントの空間距離が予め設定された距離条件を満たすまでステップS331及びステップS332により再判断する。
S334では、第2距離データが予め設定された距離条件を満たす場合、カメラのパラメータ及び第1画素座標データに基づいて、マーキングポイントとカメラとの第1距離データを取得するステップを実行する。
実施例3の位置決め方法に基づいて、本実施例は、マーキングポイントの実際の空間距離が予め設定された距離範囲内にあることを保証するように、取得されたマーキングポイントに対して条件判断を行い、ロボットの位置計算の精度を提供する。
本願はロボットを更に提供する。詳細については、図6を参照されたい。図6は本願のロボットの一実施例の構造模式図である。
ロボット600は、上記位置決め方法の実施例に開示されたロボットである。ロボット600は少なくともカメラ61、メモリ62及びプロセッサー63を含む。プロセッサー63は、カメラ61とメモリ62にそれぞれ接続される。
カメラ61は、マーキングパターン領域を含む予め設定された領域の写真を撮影するために使用される。
プロセッサー63は、マーキングパターン領域の少なくとも2つのマーキングポイントを識別して、マーキングポイントの第1座標データを取得するために使用される。プロセッサー63はまた、カメラのパラメータ及びマーキングポイントの第1座標データに基づいて、ロボットのワールド座標における第2座標データを計算するために使用される。プロセッサー63はさらに、マーキングポイントの第1座標データ及びロボットのワールド座標における第2座標データに基づいて、ロボットのワールド座標における角度データを計算するために使用される。
メモリ62は、カメラパラメータ、写真データ、マーキングポイントの第1座標データ、ロボット600のワールド座標における第2座標データ、及びロボット600のワールド座標における角度データなどを含むプロセッサー63及びカメラ61のデータを記憶するために使用される。
本実施例では、プロセッサー63はCPU(Central Processing Unit、中央処理装置)とも呼ばれる。プロセッサー63は、信号処理機能を有する集積回路チップであってもよい。プロセッサー63は、汎用プロセッサー、デジタルシグナルプロセッサー(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、又は他のプログラマブルロジックデバイス、ディスクリートゲート若しくはトランジスタロジックデバイス、 ディスクリートハードウェアコンポーネントであってもよい。汎用プロセッサーはマイクロプロセッサーであってもよく、又はプロセッサー63は任意の従来のプロセッサーなどであってもよい。
本願はコンピューター記憶媒体を更に提供する。図7に示すように、コンピューター記憶媒体700はコンピュターブログラム71を記憶するために使用される。上記実施例の位置決め方法のステップを実現するためにコンピュターブログラムを実行することができる。
本願の位置決め方法の実施例に関与する方法は、ソフトウェア機能ユニットの形式で存在し、独立した製品として販売又は使用されるとき、例えば、コンピューター読み取り可能な記憶媒体のような装置700内に記憶することができる。そのような理解に基づいて、本願の技術的手段の本質的な部分、即ち、従来技術に貢献する部分、又はこの技術的手段の全部若しくは一部は、ソフトウェア製品の形式で表すことができる。このコンピュータソフトウェア製品は、記憶媒体に記憶され、コンピューター機器(パーソナルコンピューター、サーバ又はネットワーク機器などであってもよい)又はプロセッサー(processor)に本発明の各実施例に記載の方法の全部若しくは一部のステップを実行させる複数の命令を含む。前記記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、ディスクまたは光ディスクなどの様々なプログラム・コードを記憶可能である媒体を含む。
以上の説明は本願に係る実施形態に過ぎず、本願の保護範囲を制限するものではない。本願の明細書及び添付図面によって作成したすべての同等構造又は同等フローの変更を、直接又は間接的に他の関連する技術分野に実施することは、いずれも同じ理由により本願の保護範囲内に含まれるべきである。

Claims (16)

  1. 位置決め方法であって、ロボットに適用され、前記ロボットはカメラを含み、前記位置決め方法は、
    マーキングパターン領域を含む予め設定された領域の写真を撮影するステップと、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、各マーキングポイントの第1座標データを取得するステップと、
    前記カメラのパラメータ及び前記マーキングポイントの第1座標データに基づいて、前記ロボットのワールド座標における第2座標データを計算するステップと、
    前記マーキングポイントの第1座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するステップとを含む、ことを特徴とする位置決め方法。
  2. 予め設定された領域の写真を撮影する前に、
    前記カメラのパラメータを校正するステップを更に含み、前記カメラのパラメータは少なくとも焦点距離、解像度、及び拡大倍率を含む、ことを特徴とする請求項1に記載の位置決め方法。
  3. 予め設定された領域の写真を撮影するステップは、
    前記カメラが前記ロボットの底部方向に対して固定された予め設定された角度で、予め設定された領域の写真を撮影するステップを更に含み、前記予め設定された角度は90°未満である、ことを特徴とする請求項2に記載の位置決め方法。
  4. 前記第1座標データは、第1画素座標データ及び前記マーキングポイントのワールド座標における第1物理座標データを含み、
    前記カメラのパラメータ及び前記マーキングポイントの第1座標データに基づいて、前記ロボットのワールド座標における第2座標データを計算するステップはさらに、
    前記カメラのパラメータ及び前記第1画素座標データに基づいて、前記マーキングポイントと前記カメラとの第1距離データを取得するステップと、
    前記マーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、前記ロボットのワールド座標における第2座標データを取得するステップとを含み、
    前記マーキングポイントの第1座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するステップはさらに、
    前記マーキングポイントのワールド座標における第1物理座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するステップを含む、ことを特徴とする請求項1に記載の位置決め方法。
  5. 前記マーキングパターン領域は、マーキングポイントとコード化パターンとを含み、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、前記少なくとも2つのマーキングポイントの第1座標データを取得するステップは、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、前記少なくとも2つのマーキングポイントの第1画素座標データを取得するステップと、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントの間のコード化パターンを識別して、前記コード化パターンに対応するコード化データを取得するステップと、
    予め記憶された記録から、前記コード化データに対応する前記コード化パターンに隣接する前記マーキングポイントのワールド座標における第1物理座標データを検索するステップとを含む、ことを特徴とする請求項4に記載の位置決め方法。
  6. 前記コード化パターンは少なくとも2つのコード化ブロックを含み、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントの間のコード化パターンを識別して、前記コード化パターンに対応するコード化データを取得するステップはさらに、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントの間の前記コード化ブロックの色、数及び/又は配列順序を識別して、前記コード化パターンに対応するコード化データを取得するステップを含む、ことを特徴とする請求項5に記載の位置決め方法。
  7. 前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、前記少なくとも2つのマーキングポイントの第1画素座標データを取得するステップの後に、
    少なくとも2つの前記マーキングポイントの第1画素座標データに基づいて、前記マーキングポイントの間の第2距離データを取得するステップと、
    第2距離データが予め設定された距離条件を満たすか否かを判断するステップと、
    第2距離データが予め設定された距離条件を満たさない場合、前記マーキングポイントを再識別するステップと、
    第2距離データが予め設定された距離条件を満たす場合、前記カメラのパラメータ及び前記第1画素座標データに基づいて、前記マーキングポイントと前記カメラとの第1距離データを取得するステップを実行するステップとをさらに含む、ことを特徴とする請求項5に記載の位置決め方法。
  8. 前記マーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、前記ロボットのワールド座標における第2座標データを取得するステップはさらに、
    前記マーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、三辺測量位置決め方法により、前記ロボットのワールド座標における第2座標データを取得するステップを含む、ことを特徴とする請求項7に記載の位置決め方法。
  9. ロボットであって、カメラと、メモリと、前記カメラ及び前記メモリにそれぞれ接続されたプロセッサーと、1つ以上のコンピュータプログラムとを含み、
    前記カメラは、マーキングパターン領域を含む予め設定された領域の写真を撮影するために使用され、
    前記1つ以上のコンピュータプログラムは、前記メモリに記憶され、前記プロセッサー上で実行可能であり、以下のような命令を含み、
    前記命令は、前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、各マーキングポイントの第1座標データを取得し、前記カメラのパラメータ及び前記少なくとも2つのマーキングポイントの第1座標データに基づいて、前記ロボットのワールド座標における第2座標データを計算し、前記少なくとも2つのマーキングポイントの第1座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するためのものである、ことを特徴とするロボット。
  10. 前記1つ以上のコンピュータプログラムは、
    前記カメラのパラメータを校正するための命令をさらに含み、
    前記カメラのパラメータは、少なくとも焦点距離、解像度、及び拡大倍率を含む、ことを特徴とする請求項9に記載のロボット。
  11. 予め設定された領域の写真を撮影するための命令は、
    前記カメラによって、ロボットの底部方向に対して予め設定された角度で、予め設定された領域の写真を撮影するための命令を含み、
    前記予め設定された角度は90°未満である、ことを特徴とする請求項10に記載のロボット。
  12. 前記第1座標データは、第1画素座標データ及び少なくとも2つのマーキングポイントのワールド座標における第1物理座標データを含み、
    前記カメラのパラメータ及び前記少なくとも2つのマーキングポイントの第1座標データに基づいて、前記ロボットのワールド座標における第2座標データを計算するための前記命令は、
    前記カメラのパラメータ及び前記第1画素座標データに基づいて、前記少なくとも2つのマーキングポイント及び前記カメラの第1距離データを取得するための命令と、
    前記マーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、前記ロボットのワールド座標における第2座標データを計算するための命令とを含み、
    前記少なくとも2つのマーキングポイントの第1座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するための前記命令は、
    前記少なくとも2つのマーキングポイントのワールド座標における第1物理座標データ及び前記ロボットのワールド座標における第2座標データに基づいて、前記ロボットのワールド座標における角度データを計算するための命令を含む、ことを特徴とする請求項9に記載のロボット。
  13. 前記マーキングパターン領域は、マーキングポイントとコード化パターンとを含み、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、前記少なくとも2つのマーキングポイントの第1座標データを取得するための前記命令は、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントを識別し、前記少なくとも2つのマーキングポイントの第1画素座標データを取得するための命令と、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントの間のコード化パターンを識別して、前記コード化パターンに対応するコード化データを取得する命令と、
    予め記憶された記録から、前記コード化データに対応する前記コード化パターンに隣接する少なくとも2つのマーキングポイントのワールド座標における第1物理座標データを検索するための命令とを含む、ことを特徴とする請求項12に記載のロボット。
  14. 前記コード化パターンは少なくとも2つのコード化ブロックを含み、
    前記マーキングパターン領域の前記少なくとも2つのマーキングポイントの間のコード化パターンを識別して、前記コード化パターンに対応するコード化データを取得する前記命令は、
    前記マーキングパターン領域の少なくとも2つのマーキングポイントの間の前記コード化ブロックの色、数及び/又は配列順序を識別して、前記コード化パターンに対応するコード化データを取得するための命令を含む、ことを特徴とする請求項13に記載のロボット。
  15. 前記1つ以上のコンピュータプログラムは、
    前記少なくとも2つのマーキングポイントの第1画素座標データに基づいて、前記少なくとも2つのマーキングポイントの間の第2距離データを計算するための命令と、
    前記第2距離データが予め設定された距離条件を満たすか否かを判断するための命令と、
    前記第2距離データが前記予め設定された距離条件を満たさないと決定することに応答して少なくとも2つのマーキングポイントを再識別するための命令と、
    前記第2距離データが予め設定された距離条件を満たすと決定することに応答して、前記カメラのパラメータ及び前記第1画素座標データに基づいて、前記少なくとも2つのマーキングポイントと前記カメラとの第1距離データを取得するステップを実行するための命令とをさらに含む、ことを特徴とする請求項13に記載のロボット。
  16. 前記マーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、前記ロボットの前記第2座標データを計算するための前記命令は、
    前記少なくとも2つのマーキングポイントのワールド座標における第1物理座標データ及び前記第1距離データに基づいて、三辺測量位置決め方法により、前記ロボットのワールド座標における第2座標データを計算するための命令を含む、ことを特徴とする請求項15に記載のロボット。
JP2019099027A 2018-09-26 2019-05-28 位置決め方法、ロボット及びコンピューター記憶媒体 Active JP6573419B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811125578.4A CN110956660B (zh) 2018-09-26 2018-09-26 定位方法、机器人以及计算机存储介质
CN201811125578.4 2018-09-26

Publications (2)

Publication Number Publication Date
JP6573419B1 JP6573419B1 (ja) 2019-09-11
JP2020053008A true JP2020053008A (ja) 2020-04-02

Family

ID=67909557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099027A Active JP6573419B1 (ja) 2018-09-26 2019-05-28 位置決め方法、ロボット及びコンピューター記憶媒体

Country Status (3)

Country Link
US (1) US11204249B2 (ja)
JP (1) JP6573419B1 (ja)
CN (1) CN110956660B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969159B (zh) * 2019-11-08 2023-08-08 北京字节跳动网络技术有限公司 图像识别方法、装置及电子设备
CN112179357B (zh) * 2020-09-25 2022-04-01 中国人民解放军国防科技大学 基于单目相机的平面运动目标视觉导航方法及系统
CN112833883B (zh) * 2020-12-31 2023-03-10 杭州普锐视科技有限公司 一种基于多相机的室内移动机器人定位方法
CN112767487B (zh) * 2021-01-27 2024-04-05 京东科技信息技术有限公司 机器人的定位方法、装置以及系统
CN112907644B (zh) * 2021-02-03 2023-02-03 中国人民解放军战略支援部队信息工程大学 一种面向机器地图的视觉定位方法
CN112991296A (zh) * 2021-03-12 2021-06-18 深圳中科飞测科技股份有限公司 定位方法、检测系统及计算机可读存储介质
CN113208731B (zh) * 2021-04-23 2023-02-10 上海大学 基于双目视觉系统的手术穿刺机器人手眼标定方法
CN113837999A (zh) * 2021-08-20 2021-12-24 北京工业大学 一种金属自动化加工设备中光学标定点设计方法
CN113808195B (zh) * 2021-08-26 2024-04-12 领翌技术(横琴)有限公司 视觉定位方法、装置及存储介质
CN114252012B (zh) * 2021-12-22 2024-01-16 上海原能细胞生物低温设备有限公司 一种冻存盒孔位的获取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071313A (ja) * 2000-08-31 2002-03-08 Toshiba Corp ターゲットマーカとこれを用いた対象物の位置計測方法及びロボットシステム
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2007319938A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
WO2016024555A1 (ja) * 2014-08-12 2016-02-18 国立研究開発法人産業技術総合研究所 マーカとマーカを用いた姿勢推定方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US20040158346A1 (en) * 2002-12-28 2004-08-12 Dupuis Tina L. System and method of generating instructional information from graphic images and fonts for use in producing a craft project
KR100506533B1 (ko) * 2003-01-11 2005-08-05 삼성전자주식회사 이동로봇 및 그에 따른 자율주행 시스템 및 방법
JP4300199B2 (ja) * 2005-06-13 2009-07-22 株式会社東芝 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
JP2008014940A (ja) * 2006-06-08 2008-01-24 Fast:Kk 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
KR100926760B1 (ko) * 2007-12-17 2009-11-16 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
JP4985436B2 (ja) * 2008-01-30 2012-07-25 富士ゼロックス株式会社 位置検出装置及びプログラム
KR101538775B1 (ko) * 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
JP2012504771A (ja) * 2008-10-06 2012-02-23 マンチスビジョン リミテッド 三次元及び距離の面間推定を与えるための方法及びシステム
US9250073B2 (en) * 2011-09-02 2016-02-02 Trimble Navigation Limited Method and system for position rail trolley using RFID devices
US9420275B2 (en) * 2012-11-01 2016-08-16 Hexagon Technology Center Gmbh Visual positioning system that utilizes images of a working environment to determine position
US11061338B2 (en) * 2014-04-17 2021-07-13 Nikon Corporation High-resolution position encoder with image sensor and encoded target pattern
CN104680528A (zh) * 2015-02-11 2015-06-03 广州霞光技研有限公司 一种基于双目立体视觉的排爆机器人空间定位方法
JP6562072B2 (ja) * 2015-04-09 2019-08-21 日本電気株式会社 地図生成装置、地図生成方法、およびプログラム
CN105245765A (zh) * 2015-07-20 2016-01-13 联想(北京)有限公司 图像传感阵列及其排布方法、图像采集部件、电子设备
CN105066884B (zh) * 2015-09-09 2018-07-06 大族激光科技产业集团股份有限公司 一种机器人末端定位偏差校正方法及系统
CN205909828U (zh) * 2016-08-06 2017-01-25 中科院合肥技术创新工程院 一种用于室内移动机器人定位的红外路标
EP3510562A1 (en) * 2016-09-07 2019-07-17 Starship Technologies OÜ Method and system for calibrating multiple cameras
CN106780623B (zh) * 2016-12-14 2023-07-21 厦门理工学院 一种机器人视觉系统快速标定方法
CN108198216A (zh) * 2017-12-12 2018-06-22 深圳市神州云海智能科技有限公司 一种机器人及其基于标识物的位姿估计方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071313A (ja) * 2000-08-31 2002-03-08 Toshiba Corp ターゲットマーカとこれを用いた対象物の位置計測方法及びロボットシステム
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2007319938A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
JP2009211666A (ja) * 2008-02-29 2009-09-17 Ind Technol Res Inst 区域識別システム
WO2016024555A1 (ja) * 2014-08-12 2016-02-18 国立研究開発法人産業技術総合研究所 マーカとマーカを用いた姿勢推定方法

Also Published As

Publication number Publication date
CN110956660A (zh) 2020-04-03
US11204249B2 (en) 2021-12-21
CN110956660B (zh) 2023-10-10
JP6573419B1 (ja) 2019-09-11
US20200096343A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
JP6573419B1 (ja) 位置決め方法、ロボット及びコンピューター記憶媒体
AU2019432052B2 (en) Three-dimensional image measurement method, electronic device, storage medium, and program product
CN110276808B (zh) 一种单相机结合二维码测量玻璃板不平度的方法
CN107223269B (zh) 三维场景定位方法和装置
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6363863B2 (ja) 情報処理装置および情報処理方法
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
CN109559349B (zh) 一种用于标定的方法和装置
JP6067175B2 (ja) 位置測定装置及び位置測定方法
JP2017010327A (ja) 情報処理装置、情報処理方法及びプログラム
CN111862180B (zh) 一种相机组位姿获取方法、装置、存储介质及电子设备
CN109272555B (zh) 一种rgb-d相机的外部参数获得及标定方法
CN112648976B (zh) 实景影像测量方法、装置、电子设备及存储介质
EP3944194B1 (en) Fisheye camera calibration system, method and apparatus, and electronic device and storage medium
CN111123242A (zh) 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质
TWI599987B (zh) 點雲拼接系統及方法
CN111383264A (zh) 一种定位方法、装置、终端及计算机存储介质
JP7432793B1 (ja) 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器
JP2005140547A (ja) 3次元計測方法、3次元計測装置、及びコンピュータプログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP4548228B2 (ja) 画像データ作成方法
CN110736426A (zh) 物体尺寸获取方法、装置、计算机设备以及存储介质
JP6867766B2 (ja) 情報処理装置およびその制御方法、プログラム
CN113822994A (zh) 三维模型构建方法、装置及存储介质
CN113450415A (zh) 一种成像设备标定方法以及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190528

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190730

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R150 Certificate of patent or registration of utility model

Ref document number: 6573419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250