JP4002211B2 - Field work support device - Google Patents

Field work support device Download PDF

Info

Publication number
JP4002211B2
JP4002211B2 JP2003145640A JP2003145640A JP4002211B2 JP 4002211 B2 JP4002211 B2 JP 4002211B2 JP 2003145640 A JP2003145640 A JP 2003145640A JP 2003145640 A JP2003145640 A JP 2003145640A JP 4002211 B2 JP4002211 B2 JP 4002211B2
Authority
JP
Japan
Prior art keywords
unit
marker
orientation
image
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003145640A
Other languages
Japanese (ja)
Other versions
JP2004347488A (en
Inventor
宮田  亮
覚 坊
信太郎 渡邉
景一 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003145640A priority Critical patent/JP4002211B2/en
Publication of JP2004347488A publication Critical patent/JP2004347488A/en
Application granted granted Critical
Publication of JP4002211B2 publication Critical patent/JP4002211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、プラントなどの設備の保守や点検などの作業を現場において行うに当たり、作業対象や作業行為に関連する情報を、作業対象物を撮影した映像、もしくは作業対象物自身またはその周囲に重ね合わせて表示して現場作業を支援する現場作業支援装置に関するものである。
【0002】
【従来の技術】
プラントなどの設備の保守や点検といった作業を現場において支援する方法として、作業対象や作業行為に関連する情報を、作業対象物を撮影した映像、または、作業対象物自身またはその周囲、に重ね合わせて表示する技術が知られている。
例えば、特許文献1の「映像表示装置及び映像表示システム」にはそのような技術の適用として、映像情報を対象物またはその周囲に投影する例が示されている。ここでは、カメラから得られた映像、または、(磁気センサ、ジャイロ、超音波センサなどで実現された)位置姿勢計測装置から得られた情報に基づき、対象物との間の相対位置と姿勢を計測ならびに計算し、その結果に基づいて投影情報検索部にて投影情報データベースを検索し、映像情報生成部にて投影すべき映像を生成する。このようにすることにより、作業支援の情報を対象物自身またはその周辺に重ね合わせて表示するので、複数の作業員で情報を共有することができるというメリットを有する。
【0003】
また、特許文献2の「作業情報提示装置」には、さらに作業行為を同定する手段を設けて、予め想定した作業行為内容と比較してそれに応じた情報を作業者に提示する例が示されている。この特許文献2の情報重畳装置には、特許文献1の例に示されているような映像情報を対象物またはその周囲に重ね合わせて表示する方法も含まれる。作業行為を同定し、作業行為比較手段によって予め想定した作業行為内容と比較することで、誤りの防止効果をもたらすというメリットを有する。
【0004】
ここで、特許文献1に示されるような投影手段と作業対象物との相対位置を把握する従来手法は、大きく以下の2種類に分かれる。
A:センサー(磁気、超音波、ジャイロなど)を用いて装置(カメラ+プロジェクタ)の絶対位置を計測して、対象物(データベース等から位置が得られる)との相対位置を算出する。(特許文献1)
B:対象物が写った画像をカメラから取得し、それを解析してカメラ(ひいては装置)と対象物との相対位置を算出する。以下のB1及びB2の方法が代表的である。
B1:円盤状のマーカーを対象物に貼り、それが写った画像を解析する。画像上でのマーカーの像の大きさや変形の度合いからカメラとの相対位置が計算される。
B2:対象物の特徴点(頂点など)が写った画像を解析する。複数の特徴点について、画像上でのそれら特徴点の像の位置からカメラとの相対位置が計算される。
【0005】
【特許文献1】
特許第3274290号公報(段落番号0040〜0045、図1)
【特許文献2】
特開2001−282349号公報(段落番号0019〜0034、図1)
【0006】
【発明が解決しようとする課題】
作業対象物自身やその周辺に情報を重ね合わせて表示するためには、作業対象物と投影表示手段との間の相対位置および姿勢が高精度に求まっている必要がある。
さらに、作業対象物が可動部分を有し、作業行為の結果として、あるいは、対象物の内部状態の変化の結果として、可動部分が大きく変位する場合は、重ね合わせ表示する情報の内容や表示位置も変位に合わせて変化させる必要がある。したがって、可動部分の変位量が高精度に求まっている必要がある。
また、現場作業に支障がないよう、支援装置には、可搬性の具備、小型化、軽量化、簡素化が求められる。
【0007】
上述のAの方法では、センサー系を含めた装置全体が大がかりになる、複雑になるという問題や、装置を複数の現場で移動しながら使うなどの可搬性が実現しにくいという問題があった。
また、B1の方法では、画像上で、マーカーの像の大きさや変形の度合いを精度良く計測するのは難しく、計算された相対位置の精度は低くなるため、概略値を得るなど用途が限定されるという問題があった。
また、B2の方法では、計算に必要な個数の特徴点が全て画像内に写っている必要がある。すなわち、そのような画像が撮影できる位置に装置を設置する必要があり、設置場所が限定されてしまうという問題や、カメラからの画像に画像処理を施して特徴点の像を検出する際に、照明条件によっては検出できない場合があるという問題があった。
【0008】
この発明は、上述のような課題を解決するためになされたものであり、投影手段と作業対象物との相対位置及び姿勢を精度よく算出するようにした現場作業支援装置を得ることを目的にしている。
【0009】
【課題を解決するための手段】
この発明に係わる現場作業支援装置においては、作業を行う対象物上または対象物の近傍に作業に関連する映像を投射して作業を支援する現場作業支援装置において、対象物に映像を投射する投射手段、この投射手段により投射された映像を撮影する撮影手段、及び投射手段により投射される映像及び撮影手段により撮影された映像を処理する計算処理部を備え、計算処理部は、投射手段と撮影手段との相対位置及び姿勢を格納または計測する投影手段撮影手段位置姿勢計測部と、対象物のデータを格納した設備モデルデータベースと、投影手段撮影手段位置姿勢計測部により格納または計測された投射手段と撮影手段との相対位置及び姿勢に基づき、対象物を撮影手段により撮影された対象物映像データと設備モデルデータベースの対象物のデータとの照合により投射手段と対象物との概略の相対位置及び姿勢を推定する対象物位置姿勢推定部と、この対象物位置姿勢推定部により推定された対象物の存在する領域に投射手段により投射されるマーカー図形を生成するマーカー映像生成部と、投射手段と撮影手段との相対位置及び姿勢に基づき、対象物に投射されたマーカー図形を撮影手段により撮影して撮影されたマーカー図形を分析することにより投射手段と対象物との相対位置及び姿勢を算出する対象物位置姿勢確定算出部と、この対象物位置姿勢確定算出部により算出された投射手段と対象物との相対位置及び姿勢に基づき投影手段により対象物に投影される対象物の作業支援映像を生成する作業支援映像生成部とによって構成されているものである。
【0010】
【発明の実施の形態】
実施の形態1.
図1は、この発明の実施の形態1による現場作業支援装置の構成を示すブロック図である。
図1において、対象物を撮影するカメラ1(撮影手段)と、対象物またはその周辺に所定の情報を映像として投影するプロジェクタ2(投影手段)が配置され、カメラ1から得られた映像を基にプロジェクタで投影すべき映像を生成する計算処理部3が設けられている。
この計算処理部3の内部を構成する手段として4〜10があり、カメラとプロジェクタとの間の相対位置および姿勢を格納または計測するカメラ〜プロジェクタ間位置姿勢計測部4(投影手段撮影手段位置姿勢計測部)と、対象物の識別情報や3次元空間における位置、姿勢、形状に関するデータ(対象物のデータ)を格納する設備モデルデータベース5と、対象物とプロジェクタとの間の相対位置および姿勢を推定する対象物位置姿勢推定部6と、マーカー図形を対象物にプロジェクタで投影する映像を生成するマーカー映像生成部7と、対象物とプロジェクタとの間の相対位置および姿勢を確定算出する対象物位置姿勢確定算出部8と、対象物に関する情報や対象物に対する作業行為に関する情報を格納する作業支援情報データベース9と、作業支援情報を表現する映像(作業支援映像)を生成する作業支援映像生成部10を有している。
【0011】
次に、動作について説明する。
カメラ〜プロジェクタ位置姿勢計測部4は、カメラ1とプロジェクタ2とが支持具などで一体化されていて、相対位置および姿勢が固定されている場合は、予め計測しておいた値を格納する記憶装置によって実現され、可動機構などによって可変の場合は、適当なセンサー出力や制御機構の制御パラメータなどから両者の相対位置および姿勢を計測する装置によって実現される。
対象物位置姿勢推定部6は、カメラ1から得られた映像(対象物映像データ)を分析して、設備モデルデータベース5との照合により、映像内に写った対象物を同定するとともに、対象物とカメラ1との間の相対位置と姿勢の概略値を算出し、さらにカメラ〜プロジェクタ間位置姿勢計測部4から得られたデータに基づき、対象物とプロジェクタ2との間の相対位置と姿勢の情報に変換する。この対象物位置姿勢推定部6において算出される相対位置と姿勢は、概略値でよい。具体的な方法としては、例えば、対象物に円形のマーカーを貼り、映像内に写ったマーカーの楕円状の像の大きさ、傾き、扁平の度合を計測することによって概略値を求めることができる。
対象物の同定は、対象物ごとにマーカーの色を違えるなどして、設備モデルデータベース5との照合により行なうことができる。
【0012】
マーカー映像生成部7は、対象物位置姿勢推定部6によって推定された相対位置および姿勢と、設備モデルデータベース5に格納された対象物の形状データとから、プロジェクタ2から見て対象物が存在すると推定される領域方向に対して、所定の形と光学的特徴を有するマーカー図形が投影されるような映像を生成する。
対象物位置姿勢確定算出部8は、前記マーカー図形が対象物の表面に投影されたものをカメラ1で撮影した映像を分析してマーカー図形の像を検出し、カメラ1(またはプロジェクタ2)に対するマーカー図形の特徴点の相対位置を算出する。
さらに、そのようなマーカー図形の相対位置データと設備モデルデータベース5に格納された対象物の形状データとを照合して、カメラ1(またはプロジェクタ2)に対する対象物の相対位置および姿勢を算出する。
マーカー映像生成部7と対象物位置姿勢確定算出部8とによって実現される対象物の相対位置および姿勢の算出は、具体的には、以下のようにして行なう。(図2参照)
【0013】
図2は、この発明の実施の形態1による現場作業支援装置の対象物の相対位置及び姿勢の算出を示す図である。
図2において、対象物201をカメラ1で撮影した映像が得られるスクリーン面(撮像スクリーン面)202と、プロジェクタ2で投影する映像が置かれるスクリーン面(投影スクリーン面)203とを有し、対象物位置姿勢推定部6で推定された対象物が、プロジェクタ2の投影スクリーン面203上で位置すると推定される領域204に表わされる。
【0014】
今、投影すべきマーカー図形は点図形とする。この時、プロジェクタ2の投影スクリーン203面におけるマーカー図形の位置P、対象物の表面に投影されたマーカー図形の位置X、カメラ1の撮像スクリーン202面におけるマーカー図形像の位置Qは、同図に示すような位置関係にある。
カメラ1とプロジェクタ2との間の相対位置および姿勢は、既に得られている。また、位置Pは、マーカー映像生成部7によって決定されるため、既知である。さらに、位置Qもカメラ1からの映像の分析結果として得られるため、既知である。したがって、対象物の表面に投影されたマーカー図形の位置Xのみが未知となるが、これは三角測量の原理に基づき、一意に求めることができる。
【0015】
対象物の表面の形状データは、設備モデルデータベース5から取得することができ、例えば平面部分に3個のマーカー図形を投影すれば、平面の位置や向きは一意に特定される。
作業支援映像生成部10は、作業支援情報データベース9を検索して対象物の諸元データ(仕様、定格、内部状態など)や対象物に対する作業指示などの作業支援情報を取得し、対象物とプロジェクタ2との間の相対位置および姿勢に基づき、これらの情報が対象物またはその周辺に重なり合うような映像を生成し、プロジェクタ2によって対象物に投影する。
【0016】
実施の形態1によれば、対象物に投影されたマーカー図形を用いて、対象物とプロジェクタとの間の相対位置および姿勢を高精度で算出するので、作業を支援する適切な情報を正しい位置に重ね合わせ表示することができる。
【0017】
実施の形態2.
実施の形態2は、対象物が所定の軌跡に沿って運動するような可動部分を有する場合に、可動部分の変位量を高精度で算出できるようにし、変位に合わせて投影すべき作業支援情報を変化させるようにしたものである。
実施の形態2の構成は、実施の形態1と同様で、図1に示されるものと同じである。
図3は、この発明の実施の形態1による現場作業支援装置のマーカー映像生成部によるマーカー図形を投影するための映像を生成する様子を示す図である。
図3において、対象物301の可動部分で、本例では直線状に前後移動する引出し形ユニット302がある。プロジェクタ2が投影する映像が置かれるスクリーン面303(投影スクリーン面)には、可動部分の形状と3次元運動軌跡データに基づいて計算された可動範囲が投影スクリーン面において占める領域304が表わされている。
【0018】
次に、動作について説明する。
対象物の固定部分とプロジェクタ2との間の相対位置および姿勢を算出する過程は、実施の形態1と同様である。
このように固定部分とプロジェクタ2との間の相対位置および姿勢が、確定算出されたのち、マーカー映像生成部7は、設備モデルデータベース5に格納された可動部分の形状データとその3次元運動軌跡データとに基づき、可動部分が運動しうる範囲を計算し、プロジェクタ2から見た可動範囲の領域方向に対して、所定の形と光学的特徴を有するマーカー図形が投影されるような映像を生成する。
【0019】
対象物位置姿勢確定部8は、マーカー図形が可動部分の表面に投影されたものをカメラ1で撮影した映像を分析してマーカー図形の像を検出し、実施の形態1に示した同様の方法により、カメラ1(またはプロジェクタ2)に対する可動部分の表面における同マーカー図形の特徴点の相対位置を計算する。さらに、設備モデルデータベース5に格納された可動部分の形状データと3次元運動軌跡データとから、可動部分の表面が上述のように算出された位置を通るような変位量を算出する。
図3において、投影すべきマーカー図形は、可動部分の運動の自由度を減じるのに十分な個数の点図形でよく、同図の例では1次元の直線運動のため1個の点図形で十分である。
作業支援映像生成部10は、このようにして算出された変位量に基づき、変位量に合わせた内容の情報を生成し、また、変位量に応じた位置に情報が表示されるような映像を生成し、プロジェクタ2によって対象物に投影する。
【0020】
なお、実施の形態2では、直線運動を行なう引出し形ユニットを可動部分として有する設備を例にして説明したが、扉や回転スイッチのような回転運動の場合や、直線運動や回転運動を組み合せた任意の運動についても同様の方法で処理することができる。
【0021】
実施の形態2によれば、対象物が所定の軌跡に沿って運動するような可動部分を持ち、作業支援情報を可動部分に対して投影する必要があるような場合でも、可動部分の変位量を高精度に算出するので、作業を支援する適切な情報を正しい位置に重ね合わせ表示することができる。
【0022】
実施の形態3.
実施の形態3は、対象物とプロジェクタとの間の相対位置や姿勢に応じて最も適した位置にマーカー図形の映像を投影するようにして、対象物とプロジェクタとの間の位置関係に関する制約を少なくしたものである。
実施の形態3の構成は、実施の形態1と同様であり、図1に示されるものと同一のものである。
図4は、この発明の実施の形態3による現場作業支援装置の対象物が直方体形状である場合に、マーカー図形を投影する様子を示す図であり、図4(a)は、正面に投影する場合、図4(b)は、正面と側面に投影する場合、図4(c)は、側面に投影する場合を示している。
【0023】
次に、動作について説明する。
マーカー映像生成部7は、対象物位置姿勢推定部6によって推定された対象物とプロジェクタ2(およびカメラ1)との間の相対位置および姿勢に基づき、対象物を構成する表面のうち、対象物位置姿勢確定算出部8における計算を最も精度よく行なえるようなマーカー図形の投影対象面を決定し、プロジェクタ1からの投影がそのような対象面に当たるよう、生成するマーカー図形の位置を計算して、投影映像を生成する。
【0024】
例えば、図4のように対象物が直方体形状である場合には、対象物とプロジェクタ2およびカメラ2との間の相対位置および姿勢の推定に基づき、
図4(a)のように、正面のみ
図4(c)のように、側面のみ
図4(b)のように、正面と側面の双方
などの組み合わせについてマーカー図形を投影した場合の計算精度を評価し、最もよい精度が期待される組み合わせを決定し、マーカー図形の映像を生成する。この場合は、平面が決められる3点以上のマーカー図形を用いる。
【0025】
実施の形態3によれば、対象物とカメラとの間の相対位置や姿勢によらず、安定して対象物の位置や姿勢を算出することができる。
【0026】
実施の形態4.
実施の形態4は、対象物をカメラで撮影して得られた画像を分析し、対象物や対象物が置かれた環境の色、明度、材質などの特徴を評価し、投影すべきマーカー図形の形や光学的特徴を決定することで、対象物位置姿勢確定算出部8におけるマーカー図形の検出をより頑健なものにしたものである。
実施の形態4の構成は、実施の形態1と同様であり、図1に示されるものと同一のものである。
【0027】
次に動作について説明する。
対象物位置姿勢推定部6は、カメラ1から得れらた映像を分析する際に、画像の色分布や明度分布など評価して、対象物表面および周囲の環境の光学的特性を表した属性情報を合わせて算出する。
マーカー映像生成部7は、対象物への相対位置および姿勢に関するデータに加えて、対象物表面および周囲の環境の光学的特性を表した属性情報も併せて対象物位置推定部6から取得し、対象物位置姿勢確定算出部8においてマーカー図形像が周辺部との間で補色効果を現すなど検出が容易となるような光学的特徴を有するマーカー図形の映像を生成する。
【0028】
実施の形態4によれば、現場ごとに環境や対象物の光学的特性が大きく変化する場合でも、安定して対象物の位置や姿勢を算出することができる。
【0029】
【発明の効果】
この発明は、以上説明したように、作業を行う対象物上または対象物の近傍に作業に関連する映像を投射して作業を支援する現場作業支援装置において、対象物に映像を投射する投射手段、この投射手段により投射された映像を撮影する撮影手段、及び投射手段により投射される映像及び撮影手段により撮影された映像を処理する計算処理部を備え、計算処理部は、投射手段と撮影手段との相対位置及び姿勢を格納または計測する投影手段撮影手段位置姿勢計測部と、対象物のデータを格納した設備モデルデータベースと、投影手段撮影手段位置姿勢計測部により格納または計測された投射手段と撮影手段との相対位置及び姿勢に基づき、対象物を撮影手段により撮影された対象物映像データと設備モデルデータベースの対象物のデータとの照合により投射手段と対象物との概略の相対位置及び姿勢を推定する対象物位置姿勢推定部と、この対象物位置姿勢推定部により推定された対象物の存在する領域に投射手段により投射されるマーカー図形を生成するマーカー映像生成部と、投射手段と撮影手段との相対位置及び姿勢に基づき、対象物に投射されたマーカー図形を撮影手段により撮影して撮影されたマーカー図形を分析することにより投射手段と対象物との相対位置及び姿勢を算出する対象物位置姿勢確定算出部と、この対象物位置姿勢確定算出部により算出された投射手段と対象物との相対位置及び姿勢に基づき投影手段により対象物に投影される対象物の作業支援映像を生成する作業支援映像生成部とによって構成されているので、投射手段と対象物との相対位置および姿勢を高精度で算出でき、作業支援映像を適確な位置に表示することができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による現場作業支援装置の構成を示すブロック図である。
【図2】 この発明の実施の形態1による現場作業支援装置の対象物の相対位置及び姿勢の算出を示す図である。
【図3】 この発明の実施の形態2による現場作業支援装置のマーカー映像生成部によるマーカー図形を投影するための映像を生成する様子を示す図である。
【図4】 この発明の実施の形態3による現場作業支援装置の対象物が直方体形状である場合に、マーカー図形を投影する様子を示す図である。
【符号の説明】
1 カメラ、2 プロジェクタ、3 計算処理部、
4 カメラ〜プロジェクタ間位置姿勢計測部、5 設備モデルデータベース、
6 対象物位置姿勢推定部、7 マーカー映像生成部、
8 対象物位置姿勢確定算出部、9 作業支援情報データベース、
10 作業支援映像生成部、201 対象物、202 撮像スクリーン面、
203 投影スクリーン面、204 対象物の位置が推定される領域、
301 対象物、302 引出し形ユニット、303 投影スクリーン面、
304 可動範囲が占める領域。
[0001]
BACKGROUND OF THE INVENTION
When performing maintenance or inspection of facilities such as a plant on the site, the present invention superimposes information related to the work object or work action on a video image of the work object or the work object itself or its surroundings. The present invention relates to an on-site work support device that displays and supports the on-site work.
[0002]
[Prior art]
As a method to support operations such as maintenance and inspection of facilities such as plants, information related to work objects and work activities is superimposed on video images of work objects or the work objects themselves or their surroundings. A technique for displaying images is known.
For example, “Video display device and video display system” in Patent Document 1 shows an example in which video information is projected onto an object or its surroundings as an application of such a technique. Here, based on the image obtained from the camera or the information obtained from the position and orientation measurement device (realized by a magnetic sensor, gyroscope, ultrasonic sensor, etc.), the relative position and orientation with the object are calculated. Based on the measurement and calculation, the projection information database is searched by the projection information search unit, and the video to be projected is generated by the video information generation unit. By doing so, work support information is displayed superimposed on the object itself or its surroundings, so that there is an advantage that information can be shared by a plurality of workers.
[0003]
In addition, the “work information presentation device” of Patent Document 2 is provided with an example of providing a means for identifying a work action and presenting information corresponding to the work action content to the worker in comparison with the assumed work action content. ing. The information superimposing device of Patent Document 2 includes a method for displaying video information superimposed on an object or its surroundings as shown in the example of Patent Document 1. By identifying the work action and comparing it with the work action content assumed in advance by the work action comparison means, there is a merit that an error prevention effect is brought about.
[0004]
Here, the conventional method for grasping the relative position between the projection means and the work object as shown in Patent Document 1 is roughly divided into the following two types.
A: The absolute position of the apparatus (camera + projector) is measured using a sensor (magnetism, ultrasonic wave, gyro, etc.), and the relative position with respect to the object (position can be obtained from a database or the like) is calculated. (Patent Document 1)
B: An image showing the object is acquired from the camera, and is analyzed to calculate the relative position between the camera (and apparatus) and the object. The following methods B1 and B2 are typical.
B1: A disk-shaped marker is pasted on an object, and an image in which the marker is reflected is analyzed. The relative position to the camera is calculated from the size of the marker image on the image and the degree of deformation.
B2: Analyzing an image in which feature points (vertices and the like) of the object are captured For a plurality of feature points, a relative position with respect to the camera is calculated from the positions of the image of the feature points on the image.
[0005]
[Patent Document 1]
Japanese Patent No. 3274290 (paragraph numbers 0040 to 0045, FIG. 1)
[Patent Document 2]
JP 2001-282349 A (paragraph numbers 0019 to 0034, FIG. 1)
[0006]
[Problems to be solved by the invention]
In order to superimpose and display information on the work object itself and its surroundings, the relative position and orientation between the work object and the projection display means need to be obtained with high accuracy.
In addition, if the work object has a movable part and the movable part is greatly displaced as a result of a work action or as a result of a change in the internal state of the object, the content and display position of the information to be overlaid Needs to be changed according to the displacement. Therefore, the displacement amount of the movable part needs to be determined with high accuracy.
In addition, the support device is required to have portability, size reduction, weight reduction, and simplification so as not to hinder field work.
[0007]
In the method A described above, there are problems that the entire apparatus including the sensor system becomes large and complicated, and that it is difficult to realize portability such as using the apparatus while moving at a plurality of sites.
In the method B1, it is difficult to accurately measure the size of the marker image and the degree of deformation on the image, and the accuracy of the calculated relative position is low. There was a problem that.
Further, in the method B2, it is necessary that all the number of feature points necessary for the calculation are shown in the image. In other words, it is necessary to install the device at a position where such an image can be captured, and there is a problem that the installation location is limited, or when performing image processing on the image from the camera and detecting the image of the feature point, There was a problem that it could not be detected depending on the illumination conditions.
[0008]
The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an on-site work support device capable of accurately calculating the relative position and posture between the projection means and the work object. ing.
[0009]
[Means for Solving the Problems]
In the field work support device according to the present invention, in the field work support device that supports the work by projecting an image related to the work on or near the object to be worked, the projection for projecting the image on the object Means, a photographing means for photographing the image projected by the projecting means, and a calculation processing section for processing the image projected by the projecting means and the image photographed by the photographing means. Projection means imaging means position / orientation measurement section for storing or measuring relative position and orientation with means, equipment model database storing object data, and projection means stored or measured by projection means imaging means position / orientation measurement section The object image data obtained by photographing the object by the photographing means and the object in the equipment model database based on the relative position and posture between the image taking means and the photographing means An object position / posture estimation unit that estimates an approximate relative position and posture between the projection unit and the target object by collating with the data, and an area where the target object estimated by the target position / posture estimation unit exists Based on the marker image generation unit that generates the projected marker graphic and the relative position and orientation of the projection unit and the imaging unit, the marker graphic projected on the object is imaged by the imaging unit and the captured marker graphic is analyzed. To calculate the relative position and orientation between the projection means and the object, and the relative position and orientation between the projection means and the object calculated by the object position and orientation determination calculation section. And a work support video generation unit that generates a work support video of the target object projected onto the target object by the projection means.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
1 is a block diagram showing a configuration of a field work support apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a camera 1 (photographing means) for photographing an object and a projector 2 (projection means) for projecting predetermined information as an image on the object or its periphery are arranged, and based on an image obtained from the camera 1. Is provided with a calculation processing unit 3 for generating an image to be projected by the projector.
There are 4 to 10 means constituting the inside of the calculation processing unit 3, and a camera-projector position / orientation measurement unit 4 (projection means photographing means position and orientation) that stores or measures the relative position and orientation between the camera and the projector. A measurement unit), an equipment model database 5 for storing identification information of the object and data on the position, orientation, and shape in the three-dimensional space (object data), and a relative position and orientation between the object and the projector. An object position / orientation estimation unit 6 to be estimated, a marker image generation unit 7 that generates an image in which a marker graphic is projected onto the object by the projector, and an object that determines and calculates the relative position and orientation between the object and the projector A position / orientation determination calculation unit 8 and a work support information database 9 for storing information on the object and information on work actions on the object. Has a work support video generation unit 10 for generating a video (work support video) representing the work support information.
[0011]
Next, the operation will be described.
The camera-projector position / orientation measurement unit 4 stores a value measured in advance when the camera 1 and the projector 2 are integrated with a support or the like and the relative position and orientation are fixed. When realized by a device and variable by a movable mechanism or the like, it is realized by a device that measures the relative position and posture of both from an appropriate sensor output, a control parameter of a control mechanism, and the like.
The object position / orientation estimation unit 6 analyzes the image (object image data) obtained from the camera 1 and identifies the object shown in the image by collating with the equipment model database 5. The approximate values of the relative position and orientation between the camera and the camera 1 are calculated, and the relative position and orientation between the object and the projector 2 are calculated based on the data obtained from the camera-projector position and orientation measurement unit 4. Convert to information. The relative position and orientation calculated by the object position and orientation estimation unit 6 may be approximate values. As a specific method, for example, a rough marker can be obtained by pasting a circular marker on an object and measuring the size, inclination, and flatness of the elliptical image of the marker in the video. .
The identification of the object can be performed by collating with the equipment model database 5 by changing the color of the marker for each object.
[0012]
The marker video generation unit 7 determines that there is an object as viewed from the projector 2 based on the relative position and orientation estimated by the object position / orientation estimation unit 6 and the shape data of the object stored in the equipment model database 5. An image is generated in which a marker graphic having a predetermined shape and optical characteristics is projected with respect to the estimated region direction.
The object position / orientation determination calculation unit 8 detects an image of the marker graphic by analyzing an image of the marker graphic projected on the surface of the object with the camera 1, and detects the image of the marker graphic with respect to the camera 1 (or projector 2). The relative position of the feature point of the marker figure is calculated.
Further, the relative position data of the marker figure and the shape data of the object stored in the equipment model database 5 are collated to calculate the relative position and orientation of the object with respect to the camera 1 (or projector 2).
The calculation of the relative position and orientation of the target realized by the marker video generation unit 7 and the target position / posture determination calculation unit 8 is specifically performed as follows. (See Figure 2)
[0013]
FIG. 2 is a diagram showing the calculation of the relative position and posture of the object of the field work support apparatus according to Embodiment 1 of the present invention.
In FIG. 2, it has a screen surface (imaging screen surface) 202 from which an image obtained by photographing the object 201 with the camera 1 is obtained, and a screen surface (projection screen surface) 203 on which an image projected by the projector 2 is placed. The object estimated by the object position / orientation estimation unit 6 is represented in a region 204 estimated to be located on the projection screen surface 203 of the projector 2.
[0014]
Now, the marker graphic to be projected is a point graphic. At this time, the position P of the marker graphic on the surface of the projection screen 203 of the projector 2, the position X of the marker graphic projected on the surface of the object, and the position Q of the marker graphic image on the surface of the imaging screen 202 of the camera 1 are shown in FIG. The positional relationship is as shown.
The relative position and orientation between the camera 1 and the projector 2 have already been obtained. Further, the position P is known because it is determined by the marker video generation unit 7. Further, the position Q is also known because it is obtained as an analysis result of the video from the camera 1. Accordingly, only the position X of the marker graphic projected on the surface of the object is unknown, but this can be uniquely determined based on the principle of triangulation.
[0015]
The shape data of the surface of the object can be acquired from the equipment model database 5. For example, if three marker figures are projected on the plane portion, the position and orientation of the plane are uniquely specified.
The work support video generation unit 10 searches the work support information database 9 to acquire work support information such as specification data (specifications, ratings, internal state, etc.) of the target object and work instructions for the target object, Based on the relative position and orientation with respect to the projector 2, an image is generated such that these pieces of information overlap the object or its surroundings, and the projector 2 projects the image onto the object.
[0016]
According to the first embodiment, the relative position and orientation between the object and the projector are calculated with high accuracy using the marker graphic projected on the object, so that appropriate information for supporting the work is set to the correct position. Can be displayed superimposed on each other.
[0017]
Embodiment 2. FIG.
In the second embodiment, when the object has a movable part that moves along a predetermined trajectory, the amount of displacement of the movable part can be calculated with high accuracy, and work support information to be projected in accordance with the displacement Is to change.
The configuration of the second embodiment is the same as that of the first embodiment and is the same as that shown in FIG.
FIG. 3 is a diagram showing a state in which a video for projecting a marker graphic is generated by the marker video generation unit of the field work support apparatus according to Embodiment 1 of the present invention.
In FIG. 3, there is a drawer-type unit 302 that is a movable part of an object 301 and moves back and forth linearly in this example. On the screen surface 303 (projection screen surface) on which an image projected by the projector 2 is placed, an area 304 occupied by the movable range calculated based on the shape of the movable part and the three-dimensional motion trajectory data is represented. ing.
[0018]
Next, the operation will be described.
The process of calculating the relative position and orientation between the fixed part of the object and the projector 2 is the same as in the first embodiment.
After the relative position and orientation between the fixed part and the projector 2 are determined and calculated in this way, the marker video generation unit 7 calculates the shape data of the movable part stored in the equipment model database 5 and its three-dimensional motion trajectory. Based on the data, the range in which the movable part can move is calculated, and an image is generated in which a marker figure having a predetermined shape and optical characteristics is projected in the direction of the movable range viewed from the projector 2 To do.
[0019]
The object position / posture determination unit 8 detects an image of the marker graphic by analyzing a video image of the marker graphic projected on the surface of the movable part by the camera 1, and performs the same method as described in the first embodiment. Thus, the relative position of the feature point of the marker graphic on the surface of the movable part with respect to the camera 1 (or projector 2) is calculated. Further, a displacement amount is calculated such that the surface of the movable part passes through the position calculated as described above from the shape data of the movable part and the three-dimensional motion trajectory data stored in the equipment model database 5.
In FIG. 3, the marker figure to be projected may be a sufficient number of point figures to reduce the degree of freedom of movement of the movable part. In the example of FIG. 3, one point figure is sufficient for one-dimensional linear movement. It is.
Based on the displacement amount calculated in this way, the work support image generation unit 10 generates information of contents according to the displacement amount, and displays an image whose information is displayed at a position corresponding to the displacement amount. It is generated and projected onto the object by the projector 2.
[0020]
In the second embodiment, the equipment having the drawer-type unit that performs linear motion as a movable part has been described as an example. However, in the case of rotational motion such as a door or a rotary switch, linear motion or rotational motion is combined. Arbitrary exercises can be processed in a similar manner.
[0021]
According to the second embodiment, even when the object has a movable part that moves along a predetermined trajectory and the work support information needs to be projected onto the movable part, the displacement amount of the movable part Can be calculated with high accuracy, so that appropriate information supporting the work can be displayed in a superimposed manner at the correct position.
[0022]
Embodiment 3 FIG.
In the third embodiment, a marker graphic image is projected at the most suitable position according to the relative position and orientation between the object and the projector, and restrictions on the positional relationship between the object and the projector are imposed. Less.
The configuration of the third embodiment is the same as that of the first embodiment, and is the same as that shown in FIG.
FIG. 4 is a diagram showing a state in which marker graphics are projected when the object of the field work support apparatus according to Embodiment 3 of the present invention has a rectangular parallelepiped shape, and FIG. 4 (a) is projected onto the front. In this case, FIG. 4B shows a case of projecting to the front and side surfaces, and FIG. 4C shows a case of projecting to the side surfaces.
[0023]
Next, the operation will be described.
Based on the relative position and orientation between the object and the projector 2 (and the camera 1) estimated by the object position / orientation estimation unit 6, the marker image generation unit 7 selects the object among the surfaces constituting the object. The projection target surface of the marker graphic that can perform the calculation in the position / orientation determination calculation unit 8 most accurately is determined, and the position of the marker graphic to be generated is calculated so that the projection from the projector 1 hits the target surface. , Generate a projected image.
[0024]
For example, when the object has a rectangular parallelepiped shape as shown in FIG. 4, based on the estimation of the relative position and orientation between the object and the projector 2 and the camera 2,
As shown in FIG. 4 (a), only the front side is calculated as shown in FIG. 4 (c), and only the side surface is calculated as shown in FIG. 4 (b). Evaluate, determine the combination that is expected to have the best accuracy, and generate a marker graphic image. In this case, three or more marker figures that can determine the plane are used.
[0025]
According to the third embodiment, the position and orientation of the object can be calculated stably regardless of the relative position and orientation between the object and the camera.
[0026]
Embodiment 4 FIG.
In the fourth embodiment, an image obtained by photographing an object with a camera is analyzed, characteristics such as color, brightness, and material of the environment in which the object and the object are placed are evaluated, and a marker graphic to be projected By determining the shape and optical characteristics of the object, the detection of the marker figure in the object position / posture determination calculation unit 8 is made more robust.
The configuration of the fourth embodiment is the same as that of the first embodiment and is the same as that shown in FIG.
[0027]
Next, the operation will be described.
The object position / orientation estimation unit 6 evaluates the color distribution, brightness distribution, etc. of the image when analyzing the video obtained from the camera 1, and represents the optical characteristics of the object surface and the surrounding environment. Calculate the information together.
The marker video generation unit 7 acquires, in addition to the data related to the relative position and orientation to the target object, attribute information representing the optical characteristics of the target surface and the surrounding environment from the target position estimation unit 6, The object position / posture determination calculation unit 8 generates a marker graphic image having optical characteristics that facilitate detection, such as a complementary color effect between the marker graphic image and the peripheral part.
[0028]
According to the fourth embodiment, the position and orientation of an object can be calculated stably even when the environment and the optical characteristics of the object greatly change from site to site.
[0029]
【The invention's effect】
As described above, the present invention provides a projecting means for projecting an image on an object in a field work support device for assisting the work by projecting an image related to the work on or near the object to be worked. A photographing means for photographing the video projected by the projecting means, and a calculation processing section for processing the video projected by the projecting means and the video photographed by the photographing means. The calculation processing section comprises the projecting means and the photographing means. Projecting means photographing means position and orientation measuring section for storing or measuring relative position and orientation with respect to, equipment model database storing object data, and projecting means stored or measured by the projecting means photographing means position and orientation measuring section Based on the relative position and orientation relative to the photographing means, the object video data obtained by photographing the object by the photographing means and the object data in the equipment model database. The target position / posture estimation unit for estimating the approximate relative position and posture between the projection unit and the target object and the target unit estimated by the target position / posture estimation unit are projected by the projection unit. By analyzing the marker graphic photographed by photographing the marker graphic projected on the object by the photographing means based on the marker image generation unit for generating the marker graphic, and the relative position and orientation of the projection means and the photographing means An object position / posture determination calculation unit that calculates a relative position and posture between the projection unit and the target, and a projection unit based on the relative position and posture between the projection unit and the target calculated by the target position / posture determination calculation unit And a work support video generation unit that generates a work support video of the target object projected onto the target object, so that the relative position between the projection means and the target object The energizing can be calculated with high accuracy, it is possible to display the work support video to accurately position.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a field work support apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a diagram showing calculation of a relative position and posture of an object of the field work support apparatus according to Embodiment 1 of the present invention.
FIG. 3 is a diagram showing a state in which a video for projecting a marker graphic is generated by a marker video generation unit of a field work support apparatus according to Embodiment 2 of the present invention;
FIG. 4 is a diagram showing a state in which a marker graphic is projected when the object of the field work support apparatus according to Embodiment 3 of the present invention has a rectangular parallelepiped shape.
[Explanation of symbols]
1 camera, 2 projector, 3 calculation processing unit,
4 Camera-projector position and orientation measurement unit, 5 equipment model database,
6 object position and orientation estimation unit, 7 marker image generation unit,
8 object position and orientation determination calculation unit, 9 work support information database,
10 work support video generation unit, 201 object, 202 imaging screen surface,
203 projection screen surface, 204 area where the position of the object is estimated,
301 object, 302 drawer-type unit, 303 projection screen surface,
304 Area occupied by movable range.

Claims (5)

作業を行う対象物上または上記対象物の近傍に上記作業に関連する映像を投射して上記作業を支援する現場作業支援装置において、上記対象物に映像を投射する投射手段、この投射手段により投射された映像を撮影する撮影手段、及び上記投射手段により投射される映像及び上記撮影手段により撮影された映像を処理する計算処理部を備え、上記計算処理部は、上記投射手段と上記撮影手段との相対位置及び姿勢を格納または計測する投影手段撮影手段位置姿勢計測部と、上記対象物のデータを格納した設備モデルデータベースと、上記投影手段撮影手段位置姿勢計測部により格納または計測された上記投射手段と上記撮影手段との相対位置及び姿勢に基づき、上記対象物を上記撮影手段により撮影された対象物映像データと上記設備モデルデータベースの上記対象物のデータとの照合により上記投射手段と対象物との概略の相対位置及び姿勢を推定する対象物位置姿勢推定部と、この対象物位置姿勢推定部により推定された上記対象物の存在する領域に上記投射手段により投射されるマーカー図形を生成するマーカー映像生成部と、上記投射手段と上記撮影手段との相対位置及び姿勢に基づき、上記対象物に投射されたマーカー図形を上記撮影手段により撮影して上記撮影されたマーカー図形を分析することにより上記投射手段と上記対象物との相対位置及び姿勢を算出する対象物位置姿勢確定算出部と、この対象物位置姿勢確定算出部により算出された上記投射手段と対象物との相対位置及び姿勢に基づき上記投影手段により上記対象物に投影される上記対象物の作業支援映像を生成する作業支援映像生成部とによって構成されていることを特徴とする現場作業支援装置。Projection means for projecting an image on the object, and projecting by the projection means in a field work support device that supports the work by projecting an image related to the work on or near the object to be worked And a calculation processing unit for processing the video projected by the projection unit and the video shot by the shooting unit. The calculation processing unit includes the projection unit, the imaging unit, Projecting means photographing means position / orientation measuring section for storing or measuring the relative position and orientation of the object, equipment model database storing the object data, and the projection stored or measured by the projecting means photographing means position / orientation measuring section Object image data obtained by photographing the object by the photographing means and the equipment model based on the relative position and posture between the photographing means and the photographing means An object position / posture estimation unit for estimating an approximate relative position and posture of the projection means and the target object by collating with the data of the target object in the database, and the target object estimated by the target object position / posture estimation unit A marker image generating unit that generates a marker graphic projected by the projecting unit on an area where the projecting unit exists, and a marker graphic projected on the object based on a relative position and orientation of the projecting unit and the imaging unit. An object position / posture determination calculation unit that calculates a relative position and posture between the projection unit and the object by analyzing the photographed marker graphic taken by the image pickup unit, and the object position / posture determination calculation unit The work support video of the object projected onto the object by the projecting means based on the relative position and orientation between the projecting means and the object calculated by Field work support device, characterized in that it is constituted by a work support image generating unit to generate. 上記対象物は、所定の軌跡に沿って運動する可動部分を有し、上記設備モデルデータベースには、上記可動部分の形状データ及び3次元の運動軌跡データが格納され、上記マーカー映像生成部は、上記設備モデルデータベースを参照して上記可動部分の可動範囲の領域に投射される上記マーカー図形を生成し、上記対象物位置姿勢確定算出部は、上記可動部分に投射されたマーカー図形を上記撮影手段により撮影して上記撮影されたマーカー図形を分析することにより上記投射手段と上記可動部分との相対位置及び姿勢並びに上記可動部分の変位量を算出し、上記作業支援映像生成部は、上記投射手段と上記可動部分との相対位置及び姿勢並びに上記可動部分の変位量に基づき、上記投影手段により上記可動部分に投影される上記対象物の作業支援映像を生成することを特徴とする請求項1記載の現場作業支援装置。The object has a movable part that moves along a predetermined locus, and the equipment model database stores shape data and three-dimensional movement locus data of the movable part, and the marker image generator The marker graphic projected on the movable range region of the movable part is generated with reference to the equipment model database, and the object position / posture determination calculation unit is configured to capture the marker graphic projected on the movable part as the imaging unit. And calculating the relative position and orientation of the projection means and the movable part and the displacement amount of the movable part by analyzing the photographed marker graphic, and the work support video generation unit is configured to output the projection means. Of the object projected onto the movable part by the projection means based on the relative position and posture of the movable part and the displacement of the movable part. Field work support apparatus according to claim 1, wherein the generating support image. 上記マーカー映像生成部によって生成されるマーカー図形は、上記対象物の可動部分の運動軌跡及び可動範囲に応じた数の点図形であることを特徴とする請求項2記載の現場作業支援装置。3. The field work support apparatus according to claim 2, wherein the marker graphic generated by the marker video generation unit is a number of point graphics corresponding to a motion trajectory and a movable range of the movable part of the object. 上記マーカー映像生成部は、上記対象物位置姿勢推定部により推定された上記投影手段と対象物との相対位置及び姿勢に応じて、上記対象物のマーカー図形を投射する上記対象物の投影対象面を決定し、上記投影対象面に投影されるマーカー図形を生成することを特徴とする請求項1〜請求項3のいずれかに記載の現場作業支援装置。The marker video generation unit projects the marker graphic of the target according to the relative position and posture between the projection means and the target estimated by the target position / posture estimation unit. The field work support device according to claim 1, wherein a marker figure projected onto the projection target surface is generated. 上記対象物位置姿勢推定部は、上記撮影手段により得られる映像から上記対象物及び上記対象物の周囲の光学的特性を表す属性情報を算出し、上記マーカー映像生成部は、上記光学的特性を表す属性情報に基づき、上記上記対象物位置姿勢確定算出部による投射手段と対象物との相対位置及び姿勢が算出しやすい光学的特徴を有するマーカー図形を生成することを特徴とする請求項1〜請求項4のいずれかに記載の現場作業支援装置。The target object position / posture estimation unit calculates attribute information representing optical characteristics of the target object and the surroundings of the target object from an image obtained by the photographing unit, and the marker video generation unit calculates the optical characteristic. 2. A marker graphic having an optical feature that makes it easy to calculate the relative position and orientation between the projection means and the object by the object position / orientation determination calculation unit based on the attribute information that is expressed. The on-site work support device according to claim 4.
JP2003145640A 2003-05-23 2003-05-23 Field work support device Expired - Fee Related JP4002211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003145640A JP4002211B2 (en) 2003-05-23 2003-05-23 Field work support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003145640A JP4002211B2 (en) 2003-05-23 2003-05-23 Field work support device

Publications (2)

Publication Number Publication Date
JP2004347488A JP2004347488A (en) 2004-12-09
JP4002211B2 true JP4002211B2 (en) 2007-10-31

Family

ID=33532716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003145640A Expired - Fee Related JP4002211B2 (en) 2003-05-23 2003-05-23 Field work support device

Country Status (1)

Country Link
JP (1) JP4002211B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189712A (en) * 2005-01-07 2006-07-20 Nippon Telegr & Teleph Corp <Ntt> Information presenting apparatus, information presenting method and program
US8138938B2 (en) * 2008-10-28 2012-03-20 The Boeing Company Hand-held positioning interface for spatial query
JP5460341B2 (en) * 2010-01-06 2014-04-02 キヤノン株式会社 Three-dimensional measuring apparatus and control method thereof
JP5256330B2 (en) * 2011-07-20 2013-08-07 独立行政法人日本原子力研究開発機構 Marker placement method in field work support system
CN103717995B (en) * 2011-08-29 2016-05-11 株式会社日立制作所 Monitoring arrangement, surveillance and supervision method
JP6803607B2 (en) * 2016-11-16 2020-12-23 株式会社エアレックス Leak inspection support device and leak inspection method using this

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09113223A (en) * 1995-10-18 1997-05-02 Fuji Xerox Co Ltd Non-contacting method and instrument for measuring distance and attitude
JPH11202904A (en) * 1998-01-08 1999-07-30 Toshiba Corp Maintenance operation support board device and maintenance operation support system
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work

Also Published As

Publication number Publication date
JP2004347488A (en) 2004-12-09

Similar Documents

Publication Publication Date Title
JP4537557B2 (en) Information presentation system
US11243072B2 (en) Method for the three dimensional measurement of moving objects during a known movement
US9683837B2 (en) Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
US10393515B2 (en) Three-dimensional scanner and measurement assistance processing method for same
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
JP2010219825A (en) Photographing device for three-dimensional measurement
JP5388921B2 (en) Three-dimensional distance measuring apparatus and method
JP2008015573A (en) Image processor, image processing method and image monitoring system
JP4002211B2 (en) Field work support device
JP3282516B2 (en) 3D image measurement method
JP2002259984A (en) Motion analyzing device and motion analyzing method
JP4776983B2 (en) Image composition apparatus and image composition method
JP2015206654A (en) Information processing apparatus, information processing method, and program
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
KR20200125626A (en) A method of calculating the three-dimensional drive value of a three-dimensional numerical drive control device by measuring the drive of a follow-up laser distance meter
WO2018134866A1 (en) Camera calibration device
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JP2963419B2 (en) Attitude change measuring device for aircraft-mounted photography equipment
RU2562602C2 (en) System of diagnostics of main pipeline at above-ground crossing sections
JP2005018385A (en) Operation information providing device
JP2010281685A (en) System and method for measurement of position
JP5168313B2 (en) Image display device
JP2605135B2 (en) 3D shape measuring device
JP2004163139A (en) Amount-of-rotation calculating apparatus, amount-of-movement calculating apparatus, amount-of-rotation calculation method, and amount-of-movement calculation method
JP2012165426A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees