JP3737919B2 - Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program - Google Patents

Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program Download PDF

Info

Publication number
JP3737919B2
JP3737919B2 JP33484699A JP33484699A JP3737919B2 JP 3737919 B2 JP3737919 B2 JP 3737919B2 JP 33484699 A JP33484699 A JP 33484699A JP 33484699 A JP33484699 A JP 33484699A JP 3737919 B2 JP3737919 B2 JP 3737919B2
Authority
JP
Japan
Prior art keywords
reference point
point
straight line
auxiliary
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33484699A
Other languages
Japanese (ja)
Other versions
JP2000221029A (en
Inventor
滋 若代
正人 原
敦美 金子
利宏 中山
敦 木田
Original Assignee
ペンタックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ペンタックス株式会社 filed Critical ペンタックス株式会社
Priority to JP33484699A priority Critical patent/JP3737919B2/en
Publication of JP2000221029A publication Critical patent/JP2000221029A/en
Application granted granted Critical
Publication of JP3737919B2 publication Critical patent/JP3737919B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、写真測量におけるカメラ位置の算出に関する。
【0002】
【従来の技術】
従来、交通事故調査等の写真測量では、ステレオ写真による測量が知られている。ステレオ写真による測量では、所定の距離をおいた2つのカメラで同時に現場が撮影され、それにより得られるステレオ画像を光学式の機械で立体視しながら立体化された画像内の点を測量点として指定し、各測量点の座標が算出される。測量点を算出するためには、撮影画像を撮影した2つカメラの位置情報、即ちカメラから被写体までの距離や、被写体に対するカメラの角度等の情報が必要である。そのため、撮影現場において、担当者がカメラの位置情報を常に計測し記録しなければならない。
【0003】
しかしながら、撮影する度に被写体に対するカメラの距離や角度を計測するのは煩わしく、また時間と労力を要するため、迅速な処理が求められる事故調査等の現場では、常に正確なカメラの位置情報を得ることは困難であった。さらに、ステレオ画像を光学式の機械で立体視したり、立体化された画像内の点を指定するといった作業は担当者の熟練度に左右されるため、測量の作業効率や測量精度の点においても問題があった。
【0004】
このような問題を解決するため、3つの基準点部材を備えたターゲットを用いた写真測量システムが提案されている。測量現場に前述のターゲットを設置した上で異なるカメラ位置及び角度で複数の写真を撮影し、コンピュータのメモリにデジタル画像として格納する。複数のデジタル画像の中から、適宜一対のデジタル画像を選出してコンピュータに接続されたモニタ上に表示させ、それぞれの画像内においてターゲットの基準点部材をコンピュータに接続されたマウス等を用いて指定する。指定された基準点部材の座標値に基づいてカメラ位置データが算出される。さらに、モニタ上の画像内の任意の測量点を指定し、指定された測量点の座標値及びカメラ位置データに基づいて適宜演算処理が実行され、測量現場の白地図が作成されモニタに表示される。
【0005】
【発明が解決しようとする課題】
ところが、モニタに映し出されたデジタル画像を目視しながらマウス操作を行ない基準点部材を指定するという作業は、操作者の操作技術に依存する部分が大きい。また、測量現場の状況によっては撮影される写真が大量になる場合があり、マウスによる基準点部材の指定は操作者に多大な労力を強いることになる。即ち、基準点部材の指定が常時、正確に行なわれるとは限らない。基準点部材の指定が正確に行なわれない場合、精度の高いカメラ位置データは算出されず、その結果、カメラ位置データに基づく演算処理に影響を及ぼし、白地図が精度高く作成されないという問題があった。
【0006】
本発明は、以上の問題を解決するものであり、撮影画像からカメラ位置を自動的に算出する写真測量装置を提供することを目的としている。
【0007】
【課題を解決するための手段】
本発明にかかる写真測量用ターゲットの基準点の算出装置は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する画像取得手段と、画像取得手段により得られる撮影画像内において、第1の直線上の補助点の数と、第2の直線上の補助点の数を比較することにより、撮影画像内の第1の基準点、第2の基準点及び第3の基準点の位置を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する2次元座標取得手段とを備えたことを特徴とする。
【0008】
好ましくは、写真測量用ターゲットにおいて、第1の基準点、第2の基準点、第3の基準点及び補助点が撮影画像内において他の被写体よりも相対的に高い輝度情報を有するよう反射部材から成り、2次元座標取得手段が、撮影画像を構成する各画素の輝度情報を所定の閾値と比較して、画素のそれぞれについて高い輝度情報を有する画素と低い輝度情報を有する画素との2種類に種別する2値化処理手段と、撮影画像内において高い輝度情報を有する画素が所定範囲内で複数連続するグループを抽出するグループ抽出手段と、グループを構成する各画素の輝度情報および写真座標系における座標値に基づいて、グループの重心の座標値を算出するグループ重心座標値算出手段と、撮影画像内において、第1の基準点と第2の基準点と第1の直線上の補助点の数の合計点数と等しい数の重心が同一直線上に並ぶ第1の点列を抽出する第1の点列抽出手段と、撮影画像内において、第2の基準点と第3の基準点と第2の直線上の補助点の数の合計点数と等しい数の重心が同一直線上に並ぶ第2の点列を抽出する第2の点列抽出手段と、それぞれの点列において一方の端部の重心を共有する第1の点列と第2の点列の組合せを選択する選択手段と、選択手段により選択された第1の点列において選択手段により選択された第2の点列と共有する重心と反対側の端部に相当する重心を第1の基準点と特定し、選択手段により選択された第1の点列と第2の点列が共有する重心を第2の基準点と特定し、選択手段により選択された第2の点列において選択手段により選択された第1の点列と共有する重心と反対側の端部に相当する重心を第3の基準点と特定する基準点特定手段とを備えている。
【0009】
写真測量用ターゲットにおいて、例えば第1の直線上に補助点が2つ設けられ、第2の直線上に補助点が1つ設けられ、撮影画像内において第1の点列が重心が同一直線上に4つ並ぶ4点列であり、第2の点列が重心が同一直線上に3つ並ぶ3点列であることを特徴とする。
【0010】
また、本発明の写真測量用ターゲットの基準点の算出方法は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する第1ステップと、カメラにより撮影された撮影画像内において、第1の直線上の補助点の数と第2の直線上の補助点の数との差に基づいて、第1の基準点、第2の基準点、及び第3の基準点を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する第2ステップとを備えることを特徴とする。
【0011】
また、本発明に係る写真測量用ターゲットの基準点の算出プログラムが格納された記録媒体は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物がカメラにより撮影された撮影画像内において、第1の直線上の補助点の数と第2の直線上の補助点の数の相違に基づいて、第1の基準点、第2の基準点及び第3の基準点を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する2次元座標取得ルーチンを備えたことを特徴とする。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。図1には、本発明に係る実施形態に適用される写真測量用ターゲットが一部破断して示される。図2には、同写真測量用ターゲットの側面図が示される。ターゲット10はL字型を呈しており、2本の柱状部材12、14を備える。第1の柱状部材12および第2の柱状部材14は金属材料から形成され、内部が中空の四角柱形状を呈しており、それらの全外周面には無反射シートが貼付される。第1の柱状部材12および第2の柱状部材14の幅は共に同じ長さLw であり、またそれぞれの厚みは共に同じ長さLH である。
【0013】
第1の柱状部材12の一方の端部12aには、直方体の制御部筐体20が一体的に固定される。制御部筐体20は金属材料から形成され、その全外周面には無反射シートが貼付される。制御部筐体20において、その厚みは第1の柱状部材12の厚みと同じ長さLH であり、またその幅は第1の柱状部材12の幅Lw の約2倍である。制御部筐体20はその側面20bが第1の柱状部材12の側面12bと同一平面上に位置するように設けられており、制御部筐体20の側面20cは第1の柱状部材12の側面12cから突出している。
【0014】
制御部筐体20の側面20cには、第2の柱状部材14の一方の端部14aがヒンジ15により回動可能に取付けられる。第2の柱状部材14の側面14bは、制御部筐体20の第1の柱状部材12が設けられる面の反対側の端面20dと同一平面上に位置する。
【0015】
第2の柱状部材14の側面14cと制御部筐体20の側面20cとが成す角α、即ち2本の柱状部材12および14の軸心AおよびB(図中、二点鎖線で示す)が成す鋭角側には固定部材であるステー16が連結され、これにより2本の柱状部材12および14は互いに固定される。ステー16はその幅および厚みは第1および第2の柱状部材12、14の幅Lw および厚みLH より小さい。またステー16の長手方向長さは第1の柱状部材12の長手方向長さより短い。
【0016】
ステー16は2本の柱状部材12、14に対してそれぞれ傾斜して設けられ、このとき第2の柱状部材14の第1の柱状部材12に対して成す鋭角αは90度である。ステー16はステー用ヒンジ92により第1の柱状部材12に回動可能に固定され、ロックヒンジ94により第2の柱状部材14に対して着脱自在である。
【0017】
ターゲット10の上面、即ち2本の柱状部材12、14および制御部筐体20の上面には3個の基準点部材31、34、36、および3個の補助点部材32、33、35が同一平面上に設けられる。基準点部材31(第1の基準点)、補助点部材32、33は第1の柱状部材12の上面12eに設けられ、基準点部材34(第2の基準点)は制御部筐体20の上面20eに設けられ、補助点部材35、基準点部材36(第3の基準点)は第2の柱状部材14の上面14eに設けられる。すなわち、基準点部材31と基準点部材34を結ぶ直線(第1の直線)上に2個の補助点部材32、33が設けられ、基準点部材34と基準点部材36を結ぶ直線(第2の直線)上に1個の補助点部材35が設けられている。
【0018】
各基準点部材31、34、36、および各補助点部材32、33、35は円板状を呈しており、それらの直径は全て同じであり、かつ柱状部材12、14の幅Lw より小さい。
【0019】
基準点部材31、34、補助点部材32、33は、軸心A方向に平行な基準点部材31と基準点部材34を結ぶ直線(第1の直線)上に設けられ、基準点部材34、36および補助点部材35は、軸心B方向に平行な基準点部材34と基準点部材36を結ぶ直線(第2の直線)上に設けられる。すなわち、基準点部材31と基準点部材34を結ぶ直線上に2個の補助点部材32、33が設けられ、基準点部材34と基準点部材36を結ぶ直線上に1個の補助点部材35が設けられており、各直線上に配設される補助点部材の数は異なる。基準点部材31と補助点部材32の間、補助点部材32と補助点部材33の間、補助点部材33と基準点部材34の間の距離はそれぞれ等しく、基準点部材34と補助点部材35の間、補助点部材35と基準点部材36の間の距離はそれぞれ等しい。また、基準点部材31から基準点部材34までの距離と、基準点部材34から基準点部材36までの距離は等しい。
【0020】
基準点部材31、34、36、および補助点部材32、33、35によって、写真測量の基準平面が定められ、同時に基準点部材31、34、36を頂点とする二等辺三角形の辺長さが基準尺として定められる。即ち、基準点部材31から基準点部材34までの距離、あるいは基準点部材34から基準点部材36までの距離、あるいは基準点部材36から基準点部材31までの距離が既知であり、これらが基準尺として写真測量に用いられる。
【0021】
図1から明らかなように、二等辺三角形の長さの等しい2辺において補助点部材の数が異なっているため、ターゲット10の向きが容易に判別でき、被写体が同一の撮影画像が多数ある場合に、そのカメラ位置が容易に想定できる。
【0022】
基準点部材31、34、36および補助点部材32、33、35により規定される基準平面は、道路面と平行であることが望ましい。制御部筐体20は第1の柱状部材12側に設けられており、ヒンジ15で第2の柱状部材14の端部のみを連結した場合、第1の柱状部材12側が重いために第2の柱状部材14が道路面から浮き、第1の柱状部材12側の基準点部材31、補助点部材32、33と、第2の柱状部材14側の補助点部材35、基準点部材36が同一平面上に位置することができなくなり、また基準平面が道路面に対して平行でなくなる恐れがある。
【0023】
このため、ステー16により柱状部材12、14の中間を互いに連結させて、第2の柱状部材14の道路面からの浮上りを防止し、基準平面を道路面に平行にして写真測量の精度を向上させている。
【0024】
さらに、ヒンジ15の取付によって生じる制御部筐体20の側面20cと第2の柱状部材14の端面14aとの間隙にはシート状の弾性部材19(図5参照)が設けられ、これにより第2の柱状部材14のガタつきが防止される。弾性部材19はゴムやスポンジ等から形成され、第2の柱状部材14の端面14aに密着固定される。なお、シート状の弾性部材19の代わりにバネ部材を設けてもよい。
【0025】
基準点部材31、34、36および補助点部材32、33、35には反射シートが貼付され、さらに各基準点部材31、34、36および補助点部材32、33、35の周りには、黒色の円板部材である無反射部材41、42、43、44、45、46がそれぞれ設けられる。これにより、撮影画像における基準点部材31、34、36および補助点部材32、33、35の識別が容易になり、写真測量の精度を向上させることができる。
【0026】
ターゲット10は、基準点部材31、34、36および補助点部材32、33、35が設けられる面の反対側の面に3本の脚18を備える。脚18は基準点部材31、34、36に対応して設けられ、これらによりターゲット10は道路面に対して脚18の長さ分だけ離れて載置される。
【0027】
図3および図4を参照して、補助点部材35および無反射部材45の構成について説明する。図3は、図1のVIII−VIII線断面におけるターゲット10の断面図である。図4は無反射部材45の第2の柱状部材14側の面を示す平面図である。他の基準点部材31、34、36、補助点部材32、33および無反射部材41、42、43、44、46は、補助点部材35および無反射部材45と同様の構成であるのでここでは説明を省略する。
【0028】
第2の柱状部材14の上面14eには磁石保持部材62が設けられ、この磁石保持部材62の内部には環状の磁石64が収納される。磁石保持部材62の外径は第2の柱状部材14の幅Lw と略同じ長さである。磁石64は磁石保持部材62とともに、ネジ部材66により第2の柱状部材14に一体的に固定される。ネジ部材66の頭部67には反射シート68が貼付される。これら磁石保持部材62、磁石64、ネジ部材66および反射シート68により、補助点部材35が構成される。
【0029】
無反射部材45は、電波が透過できる材料、例えば樹脂あるいはゴムから形成された円板72を備える。円板72の材料がゴムの場合、無反射部材45の落下による破損が防止される。円板72の一方の面には無反射シート74が貼付される。無反射部材45の直径はこの実施形態においては、補助点部材35、即ちネジ部材頭部67の直径の約7倍である。また、無反射部材45の厚みはネジ部材66の頭部67の厚みよりわずかに小さい。
【0030】
無反射部材45の中央には、ネジ部材66の頭部67と略同径の嵌合穴76が形成される。無反射部材45の無反射シート74が設けられていない面において、嵌合穴76の周囲には環状の鉄板78が埋込まれている。鉄板78の内径は嵌合穴76の直径と略等しく、その外径は磁石保持部材62の外径と略等しい。
【0031】
無反射部材45は補助点部材35に対して着脱自在である。ターゲット10の使用時には、ネジ部材66の頭部67と嵌合穴76とが嵌合させられ、このとき磁石64の磁力により鉄板78がネジ部材66の頭部67あるいは磁石保持部材62に密着固定される。図3から明らかなように、無反射部材45が補助点部材35に取付けられた状態において、反射シート68と無反射シート74とは略同一平面上にある。ターゲット10の非使用時には、人手により無反射部材45が補助点部材35から取外される。
【0032】
このように、無反射部材45を補助点部材35に対して着脱自在にすることにより、ターゲット10の携帯性が向上する。さらに、反射シート68の周囲に無反射シート74が設けられることにより、補助点部材35の領域が明確になり、夜間や雨によって周囲が暗い現場での撮影、あるいは道路面が反射しやすい現場での撮影等の撮影条件が悪い場合でも、撮影画像における補助点部材35の識別が容易になる。
【0033】
なお、補助点部材35と無反射部材45との直径の比率、即ち反射シート68および無反射シート74の領域の大きさは、特にこの実施形態に限定されず、ターゲット10の撮影画像において反射シート68が十分認識できる大きさであればよい。また補助点部材35および無反射部材45の形状も円形に限定されない。
【0034】
図5は、図1における制御部筐体20の近傍を拡大して示す平面図であり、一部破断して示す図である。図6は図5のXI−XI線における断面図であり、制御部筐体20の構成を簡略化して示す図である。
【0035】
制御部筐体20の端面20d側には電池収納室83が設けられる。電池収納室83には電源である電池87が収納され、ターゲット10に電力を供給している。電池収納室83は端面20d側に開口を有し、蓋部83aにより閉密される。制御部筐体20の端面20dにはスイッチ85が一体的に設けられ、このスイッチ85の手動操作により電源のオン、オフが切換えられる。電源がオンされると、傾斜角センサや方位センサ等(図示せず)の各種のセンサが作動し、ターゲット10の位置情報が得られる。
【0036】
制御部筐体20の上面20eは開口81を有しており、この開口81はカバー82により閉密される。カバー82は電波が透過可能な材料、例えば樹脂から形成される。
【0037】
このようなターゲット10が測量現場において所定の位置に配設された上で、カメラにより撮影される。
【0038】
次に、ターゲット10を用いた本実施形態のカメラ位置算出の手順について説明する。図7は、ターゲット10とカメラ100との位置関係を示す図である。ターゲット10は、カメラ100によってカメラ位置Mで撮影される。カメラ位置Mは、カメラ100の撮影レンズの後側主点位置として定義される。カメラ位置Mでの光軸は2点鎖線Oで示される。上述のようにターゲット10上には3個の基準点部材と3個の補助点部材が設けられるが、図の複雑化を避けるために頂点である3個の基準点部材のみを説明に用いる。図7において、基準点部材31、34および36によって決定される平面は基準平面とされ、基準点部材31と基準点部材34との間の距離、および基準点部材34と基準点部材36との間の距離が基準尺Lとして示される。
【0039】
尚、図7から明らかなように、カメラ100には読み出し可能な記録媒体であるICカード24が装着されている。ICカード24はカメラ100に対して着脱自在である。撮影された画像データはこのICカード24に記録される。画像データに基づく写真測量の実行は、ICカード24を後述する写真測量装置に装着し、ICカード24に記録された画像データを写真測量装置のメモリにロードした上で行なわれる。
【0040】
図8にはカメラ位置Mにおける撮影画像が示される。撮影画像には2次元直交座標系(Xp, Yp)が設定され、その座標原点は撮像中心CPとされる。図8から明らかなように、撮影画像では、基準点部材31、34および36の像点はそれぞれ座標P1(Xp1 ,Yp1 )、P2(Xp2 ,Yp2 )、P3(Xp3 ,Yp3 )で示される。尚、本明細書では撮影画像の2次元直交座標を「写真座標系」と呼ぶ。
【0041】
図9は、カメラ100による撮影画像と、ターゲット10との間の位置関係を相対的に示す図である。基準点部材31、34および36により規定される基準平面は、図中ハッチング領域で示される。図9において、カメラ位置Mの3次元直交座標は(Xc,Yc,Zc)で示される。その座標原点はカメラ位置Mにおけるカメラ100の撮影レンズの後側主点位置に一致し、またそのZc軸はカメラ位置Mにおける撮影レンズの光軸Oに一致する。また、Xc軸は図8に示す撮影画像の2次元直交座標系のXp軸と平行であり、Yc軸は同2次元直交座標系のYp軸と平行である。本明細書では、カメラ位置Mの3次元直交座標を「カメラ座標系」と呼ぶ。
【0042】
ここで、撮影画像に基づいてカメラ位置Mを特定するために、図10に示す右手系の3次元直交座標系(Xs,Ys,Zs)が適宜設定される。3次元直交座標系(Xs,Ys,Zs)の座標原点はターゲット10の基準点部材34に一致させられる。Zs軸は、基準点部材34から36へ向かう方向であり、基準点部材34を通り、Zs軸に直交し、かつ基準平面にある軸をXs軸とし、基準点部材34を通り、基準平面に直交する軸、すなわち紙面に直交する軸をYs軸とする。上述のようにターゲット10の基準点部材31と基準点部材34、および基準点部材34と基準点部材36との間の距離はLなので、基準点部材31、34および36の像点はそれぞれ座標Ps1(−L,0,0)、Ps2(0,0,0)、Ps3(0,0,L)で示される。本明細書ではこの3次元直交座標を「シーン座標系」と呼ぶ。
【0043】
カメラ位置Mは、シーン座標系とカメラ座標系の相対的な関係で示される。すなわち、シーン座標系の原点からのカメラ座標系の原点の移動距離と、Xs軸のXc軸回りの回転角と、Ys軸のYc軸回りの回転角、およびZs軸のZc軸回りの回転角で、カメラ位置Mは定義される。
【0044】
シーン座標系における基準点の座標値Psi(Psxi,Psyi,Pszi)(i=1、2、3)と、カメラ座標系における基準点Piの座標値Pci(Pcxi,Pcyi,Pczi)(i=1、2、3)との関係は(1)式で示される。
【0045】
【数1】

Figure 0003737919
【0046】
(1)式において、αはXs軸のXc軸回りの回転角、βはYs軸のYc軸回りの回転角、γはZs軸のZc軸回りの回転角であり、Rはα、β、γの回転行列、Δはシーン座標からカメラ座標へのベクトルである。
【0047】
また、カメラ座標系における基準点の座標値Pci(Pcxi,Pcyi,Pczi)(i=1、2、3)と、写真座標系における基準点の座標値Di(Dxi、Dyi)(i=1、2、3)との関係は式(2)で表わされる。尚、(2)式における「f」はカメラ100の撮影レンズの焦点距離である。
【0048】
【数2】
Figure 0003737919
【0049】
以上のように、上述の(1)式および(2)式により、基準点のシーン座標系における座標値から、写真座標系における座標値が算出される。一方、写真座標系における基準点の座標値は、後述するように撮影画像より自動抽出される。従って、(1)式および(2)式から算出した基準点の座標値と、撮影画像から自動抽出した座標値とを比較することにより、カメラ位置を定義するΔX、ΔY、ΔZ、α、β、γの値を算出することができる。
【0050】
図17は、ICカード24に格納された画像データに基づいて写真測量が行なわれる写真測量装置の座標算出システムのブロック図である。図17に示すように、座標算出システムはコンピュータ184を備えるコンピュータシステムで構成される。コンピュータ184は、中央演算処理装置(CPU)184A、オペレーティングシステム、常数等が格納された読出し専用メモリ(ROM)184B、データ等を一時的に格納する書込み/読出し自在なメモリ(RAM)184C、CPU184Aで実行された演算結果を格納するためのハードディスク184D、入出力インターフェース(I/O)184Eを有する。
【0051】
コンピュータシステムはまた、I/O184Eを介してコンピュータ184に接続されるICカードリーダ186を備える。ICカードリーダ186はICメモリカード24が装着されるスロットを備えており、1フレーム分のデジタル画像や他のデータを読み込むためのICカードドライバ188を有する。
【0052】
また、コンピュータシステムは、I/O184Eを介してコンピュータ184に接続されるCD−ROMリーダ197を備える。CD−ROMリーダ197は、CD−ROM198を装着するためのトレーを備えており、CD−ROMドライブユニット199を有する。後述するターゲットの基準点やカメラ位置の算出プログラムは、CD−ROM198に格納されている。この算出プログラムはCD−ROM198から読み出され、ハードディスク184Dに記憶される。
【0053】
さらに、コンピュータシステムは、ICメモリカード24から読み出された1フレーム分のデジタル画像データに基づく撮影画像の再生や、コンピュータ184により作成される測量図の再生を行なうためのモニタ190、種々のコマンド信号やデータをコンピュータ184に入力するためのキーボード192、モニタ190に表示されるカーソルを操作するためのマウス194、必要に応じて測量図を印刷するためのプリンタ196を備える。
【0054】
図11は、上述のCPU184Aにより実行される、本実施形態のカメラ位置算出の手順を示すフローチャートである。ステップS1000において、上述のターゲット10を設置して撮影した測量現場のデジタル画像が本実施形態の写真測量装置にロードされ、次いでステップS1002でグレースケール処理が行なわれる。グレースケール処理とは、カラー画像から色成分を除去し、輝度情報のみを抽出する処理である。デジタル画像を構成する全ての画素毎に256階調の輝度情報が抽出され、配列形式の変数Imgに格納される。すなわち、各画素の輝度情報はImg(j,k)で表わされる。jおよびkは画素のデジタル画像における2次元座標値(写真座標系の座標値)である。
【0055】
ステップS1004で各画素毎に抽出された輝度情報の2値化処理が行なわれる。変数Imgに格納された輝度情報を所定の閾値を比較し、その輝度情報が高く閾値を超えていれば「1」、輝度情報が低く閾値以下であれば「0」をImgと同様の配列形式の変数Binに格納する。すなわち、各画素の輝度情報を2値化したデータはBin(j,k)で表わされる。上述のように、本実施形態で用いられるターゲット10の基準点部材31、34、36、補助点部材32、33、35には反射シートが貼付され、その周りには、黒色の無反射部材41、42、43、44、45、46が設けられている。従って、基準点部材31、34、36および補助点部材32、33、35に対応する画素の2値化データは「1」となり、周囲の無反射部材41、42、43、44、45、46に対応する画素の2値化データは「0」となる。
【0056】
次いで、ステップS1006でラベリングが行なわれる。ラベリングとは、2値化データが「1」である画素が連続している部分を1つのグループとして抽出する処理であり、デジタル画像において輝度情報の高い領域が抽出される。各グループ毎に、そのグループを構成する画素の数およびそれぞれの2次元座標値が所定の変数に格納される。
【0057】
次いで、ステップS1008で各グループの面積、すなわち画素数が算出され、ステップS1010で、各グループの画素数に基づいて、そのグループが基準点部材若しくは補助点部材に相当するか否かを判別する。具体的には、画素数が下限値Th1と上限値Th2の範囲内にあるか否かをチェックする。下限値Th1および上限値Th2は、それにより規定される画素数の範囲が、デジタル画像内の基準点部材、補助点部材に相当するグループの画素数を十分に含み、かつ最小の範囲となるよう設定されている。従ってステップS1010の処理により、デジタル画像のノイズに相当する画素数が1、2個程度のグループや、測量現場の道路上においてペンキが塗布されたような、広範囲にわたって高い輝度情報を有する領域に相当するグループが除去される。
【0058】
次いでステップ1012において、各グループの輝度情報を考慮した重心の算出が行われる。図12は、重心算出の処理手順を示すフローチャートである。ステップS1022で変数SumX、SumY、SumImgが初期化される。変数SumXには、グループを構成する各画素の輝度情報とx座標値との積が累積して格納され、変数SumYには、グループを構成する各画素の輝度情報とy座標値との積が累積して格納される。また、変数SumImgは、グループを構成する各画素の輝度情報を加算した総和が格納される。
【0059】
ステップS1026で、画素の輝度情報(Img(j,k))と画素のx座標値(j)の積が算出され、その時点で変数SumXに格納されている値に加算した上で変数SumXに格納される。次いでステップS1028で、画素の輝度情報と画素のy座標値(k)の積が算出され、その時点で変数SumYに格納されている値に加算した上で変数SumYに格納される。さらに、ステップS1030で、画素の輝度情報がその時点で変数SumImgに格納されている値に加算され、変数SumImgに格納される。以上のステップS1026〜S1030の処理が、グループを構成する全ての画素に対して繰り返される。
【0060】
すなわち、変数SumXには、各画素の輝度情報をx方向の座標値に基づいて重み付けをした値の総和が格納され、変数SumYには、各画素の輝度情報をy方向の座標値に基づいて重み付けをした値の総和が格納される。また、変数SumImgには、各画素の輝度情報の総和が格納される。
【0061】
ステップS1032でグループを構成する全ての画素に対して、上述の輝度情報の累積演算処理が行われたか否かがチェックされる。グループを構成する全ての画素についてステップS1026〜S1030の処理が行われたら、ステップS1034へ進む。ステップS1034では、各画素の輝度情報をx方向の座標値に基づいて重み付けをした値の総和を、各画素の輝度情報の総和により除算する処理が行なわれ、グループの重心のx座標値が算出される。ステップS1036では、各画素の輝度情報をy方向の座標値に基づいて重み付けをした値の総和を、各画素の輝度情報の総和により除算する処理が行なわれ、グループの重心のy座標値が算出される。
【0062】
次いで、ステップS1038において、撮影画像内の全てのグループについて輝度情報を考慮した重心の座標の算出が行われたか否かがチェックされる。全てのグループについての重心の座標の算出処理が終了していない場合は、ステップS1020〜S1036までの処理が繰り返される。全てのグループについての重心の座標の算出処理が終了したら、図11のステップS1014へ進む。
【0063】
図13は、各グループの重心座標の算出が行なわれた後の撮影画像の各画素の状態を模式的に示す図であり、輝度情報の低い画素には斜線を付してある。図13に示すように、グループG1〜G13が抽出されており、それぞれの重心はGC1〜GC13である。
【0064】
ステップS1014では、ターゲット10の基準点部材31、34、36、補助点部材32、33、35の相対関係を満たす、グループの組み合わせを抽出する。図14はグループの組み合わせ抽出処理の前半を示すフローチャート、図15は後半を示すフローチャートである。以降、グループの組合せ抽出処理の手順を図13を参照しながら説明する。
【0065】
ステップS1040で画像内のグループから任意の2グループを選択され、ステップS1042で、選択した2グループの重心を含む直線が算出される。次いでステップS1044で直線上において、選択した2グループの重心の間に重心を有するグループが検出される。
【0066】
ステップS1046において、ステップS1044で検出されたグループの数がチェックされる。直線上に重心を有するグループがステップS1040で選択された2グループを含めて4つの場合はステップS1048へ進み、3つの場合はステップS1050へ進み、その他の場合はステップS1052へ進む。
【0067】
例えば、グループG1とグループG2が選択された場合、それぞれの重心GC1、GC2を含む直線上には他のグループの重心が存在しないため、処理はステップS1052へ進む。グループG3とグループG6が選択された場合、若しくはグループG10とグループ13が選択された場合、重心GC3、GC6を含む直線上にはグループG4の重心GC4とグループG5の重心GC5の2つの重心が存在し、重心GC10、GC13を含む直線上にはグループG11の重心GC11とグループG12の重心GC12の2つの重心が存在する。従って処理はステップS1048へ進む。グループG1とグループG3が選択された場合、若しくはグループG7とグループG9が選択された場合、重心GC1、GC3を含む直線上にはグループG2の重心GC2が1つ存在し、重心GC7、GC9を含む直線上には、グループG8の重心GC8が1つ存在する。従って処理はステップS1050へ進む。
【0068】
ステップS1048では、4つのグループが同一直線上に並列する4点列として登録され、ステップS1050では、3つのグループが同一直線上に並列する3点列として登録される。例えば図13の各グループは、グループG1、G2、G3と、グループG6、G7、G8がそれぞれ3点列として登録され、グループG4、G5、G6、G7と、グループG10、G11、G12、G13がそれぞれ4点列として登録される。
【0069】
ステップS1052では、2グループの全ての組合せについて処理が行なわれたか否かがチェックされ、全ての組合せについて処理が終了していない場合はステップS1040〜S1050の処理が繰り返される。2グループの全ての組合せについて処理が終了したら、図15のステップS1054へ進む。
【0070】
ステップS1054では、それぞれ同一直線上にある3点列と4点列が1つづつ選択され、それぞれの端点に相当するグループの重心が一致するか否かがチェックされる。それぞれの端点に相当するグループの重心が一致する場合ステップS1058へ進み、端点に相当するグループの重心が一致しない場合、ステップS1054へ戻り、他の組合せの3点列と4点列が選択される。図13において、グループG3は、グループG1、G2、G3の3点列の端点であり、かつグループG3、G4、G5、G6の4点列の端点である。従って、3点列と4点列の組合せとして、グループG1、G2、G3と、グループG3、G4、G5、G6が選択される。
【0071】
ステップS1058では、4点列を構成するグループのうち、3点列の端点と一致する端点と反対側の端点に相当するグループの重心の座標が、基準点部材31の座標を示す変数A1(Ax1 、Ay1 )に格納され、3点列と4点列の一致する端点に相当するグループの重心の座標が基準点部材34の座標を示す変数A2(Ax2 、Ay2 )に格納され、3点列を構成するグループのうち、4点列の端点と一致する端点と反対側の端点に相当するグループの重心の座標が、基準点部材36の座標を示す変数A3(Ax3 、Ay3 )に格納される。すなわち、図13の重心GC6の座標が変数A1に格納され、重心GC3が変数A2に格納され、重心GC1が変数A3に格納される。
【0072】
次いでステップS1060において、変数A2から変数A1へ向かうベクトルに対する、変数A2から変数A3へ向かうベクトルの成す角度がチェックされる。変数A2から変数A1へ向かうベクトルに対する、変数A2から変数A3へ向かうベクトルの成す反時計回りの角度θが、下限値Th3より大きくかつ上限値Th4より小さいか否かがチェックされる。本実施形態では、下限値Th3は0度、上限値Th4は180度に設定されている。ステップS1060の条件を満たす場合、選択された3点列と4点列の組合せがターゲット10の3つの基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす組合せであるので、グループの組み合わせ抽出処理を終了し、図11のステップS1016へ進む。
【0073】
角度θが下限値Th3と上限値Th4の範囲内にない場合、ステップS1062へ進み、3点列と4点列の全ての組合せについて処理が行なわれたか否かがチェックされる。ステップS1056〜S1060までの処理が行なわれていない3点列と4点列の組合せが存在する場合は、ステップS1054へ戻り、ステップS1060までの処理を繰り返す。
【0074】
すなわち、基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす3点列と4点列の組合せが検出されるまでステップS1054〜S1062の処理が繰り返される。基準点部材と補助点部材の相対的関係を満たす3点列と4点列の組合せが検出されたら、他の3点列と4点列の他の組合せの処理は行なわずに処理を終了する。
【0075】
図13の3点列と4点列の組合せ、グループG1、G2、G3と、グループG3、G4、G5、G6に関して、変数A2から変数A1へ向かうベクトルに対する変数A2から変数A3へ向かうベクトルの反時計回りの角度は、図13から明らかなように、下限値Th3と上限値Th4の範囲内にある。従って、グループG1、G2、G3と、グループG3、G4、G5、G6は、基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす3点列と4点列の組合せとして検出される。
【0076】
ステップS1016において、カメラ位置の算出処理が行われる。図16は、カメラ位置算出の処理手順を示すフローチャートである。ステップS1070で、上述の(1)式の変数ΔX、ΔY、ΔZ、α、β、γを初期化する。次いで、ステップS1072で、(1)式のPs1、Ps2、Ps3にそれぞれ(−L,0,0)、(0,0,0)、(0,0,L)を代入し、かつ変数ΔX、ΔY、ΔZ、α、β、γに適当な値を代入し、カメラ座標系における基準点部材31、34、36の各座標値Pc1(Pcx1 、Pcy1 、Pcz1 )、Pc2(Pcx2 、Pcy2 、Pcz2 )、Pc3(Pcx3 、Pcy3 、Pcz3 )を算出する。
【0077】
ステップS1074で、上述の(2)式にPc1、Pc2、Pc3の各座標値を代入し、写真座標系における基準点部材31、34、36の各座標値D1(Dx1 、Dy1 )、D2(Dx2 、Dy2 )、D3(Dx3 、Dy3 )を算出する。
【0078】
ステップS1076において、撮影画像から自動抽出した基準点部材31、34、36の写真座標系における各座標値A1、A2、A3と、上述の(1)式および(2)式を用いて算出した座標値D1、D2、D3とを比較する。すなわち、各基準点部材の座標値D1、D2、D3とA1、A2、A3との差分の絶対値をそれぞれ算出し、その合計値Sを算出する。
【0079】
ステップS1078で、合計値Sが最小であるか否かを確認し、最小でない場合は、変数ΔX、ΔY、ΔZ、α、β、γの値を変えてステップS1072からS1076の処理を繰り返す。すなわち、合計値Sが最小となる変数ΔX、ΔY、ΔZ、α、β、γを最小二乗法により算出する。
【0080】
ステップS1078で合計値Sが最小であることが確認されたら、ステップS1080において合計値Sが最小となった場合の変数ΔX、ΔY、ΔZ、α、β、γの値をカメラ位置Mを示すパラメータとして登録し、カメラ位置算出処理を終了する。
【0081】
以上のように本実施形態によれば、ターゲット10において基準点部材31、34の間に設けられた補助点部材と、基準点部材34、36の間に設けられた補助点部材の数が異なり、かつ各基準点部材および各補助点部材に反射シートが貼付されているため、撮影画像内において輝度情報により各基準点部材、補助点部材の位置を特定することが容易である。従って、撮影画像内における基準点部材31、34、36の座標値が自動的に抽出される。
【0082】
また、本実施形態によれば、ターゲット10の基準点部材31、34の間の長さと基準点部材34、36の間の長さ、および第1の柱状部材12と第2の柱状部材14の角度が既知であるため、シーン座標系における各基準点部材の座標値が所定の値に定まっており、その座標値に基づいて写真座標系における各基準点部材の座標値を算出できる。従って、撮影画像内で自動抽出した基準点部材の座標値と比較することにより、カメラ位置を自動算出することができる。
【0083】
尚、図11、12、14、15、16に示すフローチャートの処理は、測量現場のデジタル画像をモニタに表示し、モニタ上でターゲットの基準点及び任意の測量点を指定し、所定の測量演算等が実行される写真測量システムにおいて、ターゲットの基準点の2次元座標の算出及びカメラ位置の算出を実行する部分である。即ち、本実施形態によれば、モニタに表示されたデジタル画像内のターゲットの基準点をマウスにより指定するという作業が省略されると共に、担当者の熟練度に左右されない正確なカメラ位置のデータが常時得られ、写真測量システムにおける以降の処理段階において精度の高い演算処理が実行される。
【0084】
【発明の効果】
以上のように、本発明によれば、写真測量においてカメラ位置を自動的に算出することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に適用される写真測量用ターゲットを示す平面図である。
【図2】図1に示す写真測量用ターゲットの側面図である。
【図3】図1のVIII−VIII線断面におけるターゲットの断面図である。
【図4】図1に示すターゲットの無反射部材の第2の柱状部材側の面を示す平面図である。
【図5】図1に示すターゲットの制御部筐体の近傍を拡大して示す平面図であり、一部破断して示す図である。
【図6】図5のXI−XI線における断面図であり、制御部筐体の構成を簡略化して示す図である。
【図7】本発明の実施形態である写真測量用ターゲットとカメラとの位置関係を示す斜視図である。
【図8】図7のカメラで撮影した画像を模式的に示す図である。
【図9】基準点部材と、その像点と、カメラの撮影レンズの後側主点位置との位置関係を3次元座標で示す図である。
【図10】シーン座標系とカメラ座標系を相対的に示す図である。
【図11】本発明の実施形態のカメラ自動算出処理の手順を示すフローチャートである。
【図12】撮影画像内で高い輝度情報を有するグループの重心を算出する手順を示すフローチャートである。
【図13】グループの重心座標の算出が行なわれた後の撮影画像の各画素の状態を模式的に示す図である。
【図14】グループの組み合わせ抽出処理の前半を示すフローチャートである。
【図15】グループの組み合わせ抽出処理の後半を示すフローチャートである。
【図16】カメラ位置算出の処理手順を示すフローチャートである。
【図17】写真測量装置の座標算出システムのブロック図である。
【符号の説明】
10 ターゲット
12 第1の柱状部材
14 第2の柱状部材
15 ヒンジ
16 ステー
20 制御部筐体
24 ICカード
31、34、36 基準点部材
32、33、35 補助点部材
41、42、43、44、45、46 無反射部材
92 ステー用ヒンジ
94 ロックヒンジ
184 コンピュータ
186 ICカードリーダ
188 ICカードドライバ
197 CD−ROMリーダ
198 CD−ROM
199 CD−ROMドライブユニット
190 モニタ
192 キーボード
194 マウス
196 プリンタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to calculation of a camera position in photogrammetry.
[0002]
[Prior art]
Conventionally, in photogrammetry such as traffic accident investigation, survey by stereo photography is known. In surveying by stereo photography, the site is photographed simultaneously by two cameras at a predetermined distance, and the stereo image obtained as a result is stereoscopically viewed with an optical machine as a point in the three-dimensional image. The coordinates of each survey point are calculated. In order to calculate the survey point, information on the position of the two cameras that have captured the captured image, that is, information on the distance from the camera to the subject, the angle of the camera with respect to the subject, and the like is necessary. Therefore, the person in charge must always measure and record the position information of the camera at the shooting site.
[0003]
However, it is cumbersome to measure the distance and angle of the camera with respect to the subject every time it is taken, and it takes time and effort. Therefore, it is always necessary to obtain accurate camera position information in accident investigations where quick processing is required. It was difficult. In addition, operations such as stereoscopic viewing of stereo images with optical machines and designation of points in the three-dimensional image depend on the skill level of the person in charge, so in terms of survey work efficiency and survey accuracy There was also a problem.
[0004]
In order to solve such a problem, a photogrammetry system using a target having three reference point members has been proposed. A plurality of photographs are taken at different camera positions and angles with the above-mentioned target installed at the surveying site, and stored as digital images in a computer memory. A suitable pair of digital images is selected from a plurality of digital images and displayed on a monitor connected to a computer, and a target reference point member is designated in each image using a mouse or the like connected to the computer. To do. Camera position data is calculated based on the coordinate values of the designated reference point member. Furthermore, an arbitrary survey point in the image on the monitor is designated, and an appropriate calculation process is executed based on the coordinate value of the designated survey point and the camera position data, and a white map of the survey site is created and displayed on the monitor. .
[0005]
[Problems to be solved by the invention]
However, the operation of operating the mouse while designating the digital image displayed on the monitor and designating the reference point member largely depends on the operation technique of the operator. In addition, depending on the situation of the surveying site, there are cases where a large number of photographs are taken, and designation of a reference point member with a mouse imposes a great deal of labor on the operator. That is, the designation of the reference point member is not always accurately performed. When the reference point member is not specified correctly, the camera position data with high accuracy is not calculated. As a result, the calculation processing based on the camera position data is affected, and the white map is not created with high accuracy. .
[0006]
The present invention solves the above-described problems, and an object thereof is to provide a photogrammetry apparatus that automatically calculates a camera position from a captured image.
[0007]
[Means for Solving the Problems]
In the photogrammetric target reference point calculation apparatus according to the present invention, first, second, and third reference points whose distances are known are provided, and the first reference point and the second reference point are determined. The first straight line that connects, the second straight line that connects the second reference point, and the third reference point have a predetermined angle, and there are different auxiliary points on the first straight line and the second straight line, respectively. An image acquisition means for photographing a surveying object with a camera together with a photogrammetry target, and the number of auxiliary points on the first straight line and a second straight line in a photographed image obtained by the image acquisition means By comparing the number of auxiliary points, the positions of the first reference point, the second reference point, and the third reference point in the captured image are specified, and the photographic coordinates that are two-dimensional orthogonal coordinates in the captured image Secondary to obtain the coordinate values of the first reference point, the second reference point, and the third reference point in the system Characterized by comprising a coordinate acquisition unit.
[0008]
Preferably, in the photogrammetry target, the first reference point, the second reference point, the third reference point, and the auxiliary point have reflection information that is relatively higher than other subjects in the captured image. The two-dimensional coordinate acquisition means compares the luminance information of each pixel constituting the captured image with a predetermined threshold value, and each pixel has two types of pixels having high luminance information and pixels having low luminance information. Binarization processing means, group extraction means for extracting a group in which a plurality of pixels having high luminance information in a captured image are consecutive within a predetermined range, luminance information and photographic coordinate system of each pixel constituting the group Group center-of-gravity coordinate value calculating means for calculating the coordinate value of the center of gravity of the group based on the coordinate value at, a first reference point, a second reference point, and a first reference point in the captured image A first point sequence extracting means for extracting a first point sequence in which the same number of centroids as the total number of auxiliary points on the line are arranged on the same line; and a second reference point and a third in the photographed image. A second point sequence extracting means for extracting a second point sequence in which the same number of centroids as the total number of reference points and the number of auxiliary points on the second straight line are arranged on the same straight line; A selection unit that selects a combination of the first point sequence and the second point sequence sharing the center of gravity of one end, and a second point selected by the selection unit in the first point sequence selected by the selection unit The center of gravity corresponding to the end opposite to the center of gravity shared with the point sequence is identified as the first reference point, and the center of gravity shared by the first point sequence and the second point sequence selected by the selection means is the second. A first point sequence selected by the selection unit in the second point sequence selected by the selection unit The center of gravity corresponding to the end portion of the center of gravity and the opposite with and a third reference point specifying means for specifying the reference point.
[0009]
In the photogrammetry target, for example, two auxiliary points are provided on the first straight line, one auxiliary point is provided on the second straight line, and the first point sequence is on the same straight line in the photographed image. And the second point sequence is a three-point sequence in which three centroids are arranged on the same straight line.
[0010]
In addition, in the method for calculating the reference point of the photogrammetric target according to the present invention, the first reference point and the second reference point are provided with first, second, and third reference points whose distances are known. The first straight line that connects the second reference point and the second straight line that connects the second reference point and the third reference point have a predetermined angle, and the number of assists on the first straight line and the second straight line are different. A first step of photographing a surveying object with a camera together with a photogrammetric target provided with a point, and the number of auxiliary points on the first straight line and a second straight line in a photographed image photographed by the camera Based on the difference from the number of auxiliary points, the first reference point, the second reference point, and the third reference point are specified, and the first reference point in the photographic coordinate system that is a two-dimensional orthogonal coordinate in the photographed image. And a second step of acquiring coordinate values of the reference point, the second reference point, and the third reference point. To.
[0011]
The recording medium storing the reference point calculation program for the photogrammetric target according to the present invention is provided with first, second and third reference points whose distances are known, and the first reference point is provided. The first straight line connecting the point and the second reference point and the second straight line connecting the second reference point and the third reference point have a predetermined angle, and the first straight line and the second straight line The number of auxiliary points on the first straight line and the auxiliary points on the second straight line in the photographed image obtained by photographing the surveying object with the photogrammetry target on which the different number of auxiliary points are provided. The first reference point, the second reference point, and the third reference point are identified based on the difference in the number of the first reference point, the first reference point in the photographic coordinate system that is a two-dimensional orthogonal coordinate in the photographed image, the first reference point, A two-dimensional coordinate acquisition routine for acquiring the coordinate values of the second reference point and the third reference point is provided. To.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a partially broken view of a photogrammetry target applied to an embodiment according to the present invention. FIG. 2 shows a side view of the photogrammetric target. The target 10 has an L-shape and includes two columnar members 12 and 14. The first columnar member 12 and the second columnar member 14 are made of a metal material, have a hollow rectangular column shape inside, and a non-reflective sheet is pasted on the entire outer peripheral surface thereof. Both the first columnar member 12 and the second columnar member 14 have the same length L. w And each thickness is the same length L H It is.
[0013]
A rectangular parallelepiped control unit housing 20 is integrally fixed to one end 12 a of the first columnar member 12. The control unit housing 20 is made of a metal material, and a non-reflective sheet is attached to the entire outer peripheral surface thereof. In the control unit housing 20, the thickness is the same length L as the thickness of the first columnar member 12. H And the width thereof is the width L of the first columnar member 12. w About twice as much. The control unit housing 20 is provided such that the side surface 20b thereof is located on the same plane as the side surface 12b of the first columnar member 12, and the side surface 20c of the control unit housing 20 is the side surface of the first columnar member 12. It protrudes from 12c.
[0014]
One end portion 14 a of the second columnar member 14 is rotatably attached to the side surface 20 c of the control unit housing 20 by a hinge 15. The side surface 14b of the second columnar member 14 is located on the same plane as the end surface 20d on the opposite side of the surface on which the first columnar member 12 of the control unit housing 20 is provided.
[0015]
The angle α formed by the side surface 14c of the second columnar member 14 and the side surface 20c of the control unit housing 20, that is, the axial centers A and B of the two columnar members 12 and 14 (indicated by a two-dot chain line in the figure). A stay 16 that is a fixing member is connected to the acute angle side that is formed, whereby the two columnar members 12 and 14 are fixed to each other. The width and thickness of the stay 16 is the width L of the first and second columnar members 12 and 14. w And thickness L H Smaller than. The length of the stay 16 in the longitudinal direction is shorter than the length of the first columnar member 12 in the longitudinal direction.
[0016]
The stay 16 is provided so as to be inclined with respect to the two columnar members 12, 14. At this time, the acute angle α formed with respect to the first columnar member 12 of the second columnar member 14 is 90 degrees. The stay 16 is pivotally fixed to the first columnar member 12 by a stay hinge 92, and is detachable from the second columnar member 14 by a lock hinge 94.
[0017]
Three reference point members 31, 34, 36 and three auxiliary point members 32, 33, 35 are the same on the upper surface of the target 10, that is, the upper surfaces of the two columnar members 12, 14 and the control unit housing 20. Provided on a plane. The reference point member 31 (first reference point) and auxiliary point members 32 and 33 are provided on the upper surface 12 e of the first columnar member 12, and the reference point member 34 (second reference point) is provided on the control unit housing 20. The auxiliary point member 35 and the reference point member 36 (third reference point) are provided on the upper surface 20 e of the second columnar member 14. That is, two auxiliary point members 32 and 33 are provided on a straight line (first straight line) connecting the reference point member 31 and the reference point member 34, and a straight line connecting the reference point member 34 and the reference point member 36 (second line). The auxiliary point member 35 is provided on the straight line).
[0018]
Each reference point member 31, 34, 36 and each auxiliary point member 32, 33, 35 have a disk shape, all have the same diameter, and the width L of the columnar members 12, 14. w Smaller than.
[0019]
The reference point members 31 and 34 and the auxiliary point members 32 and 33 are provided on a straight line (first straight line) connecting the reference point member 31 and the reference point member 34 parallel to the axis A direction. 36 and the auxiliary point member 35 are provided on a straight line (second straight line) connecting the reference point member 34 and the reference point member 36 parallel to the axis B direction. That is, two auxiliary point members 32 and 33 are provided on a straight line connecting the reference point member 31 and the reference point member 34, and one auxiliary point member 35 is provided on a straight line connecting the reference point member 34 and the reference point member 36. And the number of auxiliary point members arranged on each straight line is different. The distances between the reference point member 31 and the auxiliary point member 32, between the auxiliary point member 32 and the auxiliary point member 33, and between the auxiliary point member 33 and the reference point member 34 are the same. , The distance between the auxiliary point member 35 and the reference point member 36 is equal. Further, the distance from the reference point member 31 to the reference point member 34 is equal to the distance from the reference point member 34 to the reference point member 36.
[0020]
The reference plane members 31, 34, 36 and the auxiliary point members 32, 33, 35 define a photogrammetric reference plane, and at the same time, the side length of an isosceles triangle having the reference point members 31, 34, 36 as vertices is determined. It is defined as a reference scale. That is, the distance from the reference point member 31 to the reference point member 34, the distance from the reference point member 34 to the reference point member 36, or the distance from the reference point member 36 to the reference point member 31 is already known. Used as a measure for photogrammetry.
[0021]
As is apparent from FIG. 1, the number of auxiliary point members is different on two sides having the same length of an isosceles triangle, so that the orientation of the target 10 can be easily determined, and there are many captured images with the same subject. In addition, the camera position can be easily assumed.
[0022]
The reference plane defined by the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35 is preferably parallel to the road surface. The control unit housing 20 is provided on the first columnar member 12 side, and when only the end of the second columnar member 14 is connected by the hinge 15, the second columnar member 12 side is heavy and the second columnar member 12 side is heavy. The columnar member 14 floats from the road surface, and the reference point member 31 and auxiliary point members 32 and 33 on the first columnar member 12 side, and the auxiliary point member 35 and reference point member 36 on the second columnar member 14 side are on the same plane. There is a possibility that it cannot be located above and the reference plane is not parallel to the road surface.
[0023]
For this reason, the middle of the columnar members 12 and 14 are connected to each other by the stay 16 to prevent the second columnar member 14 from rising from the road surface, and the reference plane is parallel to the road surface to improve the accuracy of photogrammetry. It is improving.
[0024]
Further, a sheet-like elastic member 19 (see FIG. 5) is provided in the gap between the side surface 20c of the control unit housing 20 and the end surface 14a of the second columnar member 14 generated by the attachment of the hinge 15. The backlash of the columnar member 14 is prevented. The elastic member 19 is formed of rubber, sponge, or the like, and is closely fixed to the end surface 14 a of the second columnar member 14. A spring member may be provided instead of the sheet-like elastic member 19.
[0025]
Reflective sheets are affixed to the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35, and the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35 are black. Non-reflective members 41, 42, 43, 44, 45, and 46, which are disc members, are provided. Thereby, the reference point members 31, 34, and 36 and the auxiliary point members 32, 33, and 35 in the captured image can be easily identified, and the accuracy of photogrammetry can be improved.
[0026]
The target 10 includes three legs 18 on the surface opposite to the surface on which the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35 are provided. The legs 18 are provided corresponding to the reference point members 31, 34, and 36, so that the target 10 is placed away from the road surface by the length of the legs 18.
[0027]
The configuration of the auxiliary point member 35 and the non-reflecting member 45 will be described with reference to FIGS. 3 is a cross-sectional view of the target 10 taken along the line VIII-VIII in FIG. FIG. 4 is a plan view showing a surface of the non-reflective member 45 on the second columnar member 14 side. The other reference point members 31, 34, 36, auxiliary point members 32, 33 and non-reflective members 41, 42, 43, 44, 46 have the same configuration as the auxiliary point member 35 and non-reflective member 45, so here Description is omitted.
[0028]
A magnet holding member 62 is provided on the upper surface 14 e of the second columnar member 14, and an annular magnet 64 is accommodated in the magnet holding member 62. The outer diameter of the magnet holding member 62 is the width L of the second columnar member 14. w Is approximately the same length. The magnet 64 is fixed together with the magnet holding member 62 to the second columnar member 14 by a screw member 66. A reflective sheet 68 is attached to the head 67 of the screw member 66. The auxiliary point member 35 is configured by the magnet holding member 62, the magnet 64, the screw member 66, and the reflection sheet 68.
[0029]
The non-reflective member 45 includes a disk 72 made of a material that can transmit radio waves, for example, resin or rubber. When the material of the disc 72 is rubber, the non-reflective member 45 is prevented from being damaged by dropping. A non-reflective sheet 74 is attached to one surface of the disc 72. In this embodiment, the diameter of the nonreflective member 45 is about 7 times the diameter of the auxiliary point member 35, that is, the screw member head 67. Further, the thickness of the non-reflective member 45 is slightly smaller than the thickness of the head 67 of the screw member 66.
[0030]
A fitting hole 76 having substantially the same diameter as the head 67 of the screw member 66 is formed in the center of the non-reflective member 45. An annular iron plate 78 is embedded around the fitting hole 76 on the surface of the nonreflective member 45 where the nonreflective sheet 74 is not provided. The inner diameter of the iron plate 78 is substantially equal to the diameter of the fitting hole 76, and the outer diameter thereof is substantially equal to the outer diameter of the magnet holding member 62.
[0031]
The non-reflective member 45 is detachable from the auxiliary point member 35. When the target 10 is used, the head 67 of the screw member 66 and the fitting hole 76 are fitted, and at this time, the iron plate 78 is closely fixed to the head 67 of the screw member 66 or the magnet holding member 62 by the magnetic force of the magnet 64. Is done. As is apparent from FIG. 3, in the state where the non-reflective member 45 is attached to the auxiliary point member 35, the reflective sheet 68 and the non-reflective sheet 74 are substantially on the same plane. When the target 10 is not used, the non-reflective member 45 is manually detached from the auxiliary point member 35.
[0032]
Thus, by making the non-reflective member 45 detachable from the auxiliary point member 35, the portability of the target 10 is improved. Further, by providing the non-reflective sheet 74 around the reflective sheet 68, the area of the auxiliary point member 35 becomes clear, and shooting at a dark place due to nighttime or rain, or in a place where the road surface is likely to be reflected. Even when shooting conditions such as shooting are poor, it is easy to identify the auxiliary point member 35 in the shot image.
[0033]
In addition, the ratio of the diameter of the auxiliary point member 35 and the non-reflective member 45, that is, the size of the region of the reflective sheet 68 and the non-reflective sheet 74 is not particularly limited to this embodiment. 68 should just be a magnitude | size which can fully recognize. Further, the shapes of the auxiliary point member 35 and the non-reflective member 45 are not limited to a circle.
[0034]
FIG. 5 is an enlarged plan view showing the vicinity of the control unit housing 20 in FIG. 1 and is a partially broken view. FIG. 6 is a cross-sectional view taken along line XI-XI in FIG. 5, and is a diagram showing a simplified configuration of the control unit housing 20.
[0035]
A battery storage chamber 83 is provided on the end surface 20 d side of the control unit housing 20. A battery 87 serving as a power source is stored in the battery storage chamber 83 and supplies power to the target 10. The battery storage chamber 83 has an opening on the end face 20d side and is closed by a lid portion 83a. A switch 85 is integrally provided on the end surface 20 d of the control unit housing 20, and the power is turned on and off by manual operation of the switch 85. When the power is turned on, various sensors such as an inclination angle sensor and an azimuth sensor (not shown) are activated, and position information of the target 10 is obtained.
[0036]
The upper surface 20 e of the control unit housing 20 has an opening 81, and the opening 81 is closed by a cover 82. The cover 82 is made of a material that can transmit radio waves, such as a resin.
[0037]
Such a target 10 is photographed by a camera after being arranged at a predetermined position in a surveying site.
[0038]
Next, a procedure for calculating the camera position of the present embodiment using the target 10 will be described. FIG. 7 is a diagram illustrating the positional relationship between the target 10 and the camera 100. The target 10 is photographed at the camera position M by the camera 100. The camera position M is defined as the rear principal point position of the taking lens of the camera 100. The optical axis at the camera position M is indicated by a two-dot chain line O. As described above, the three reference point members and the three auxiliary point members are provided on the target 10, but only the three reference point members that are the vertices are used for explanation in order to avoid complication of the drawing. In FIG. 7, the plane determined by the reference point members 31, 34, and 36 is a reference plane, the distance between the reference point member 31 and the reference point member 34, and the reference point member 34 and the reference point member 36. The distance between them is shown as a reference scale L.
[0039]
As is apparent from FIG. 7, the camera 100 is equipped with an IC card 24 that is a readable recording medium. The IC card 24 is detachable from the camera 100. The photographed image data is recorded on the IC card 24. The photogrammetry based on the image data is performed after the IC card 24 is mounted on a photogrammetry apparatus described later and the image data recorded on the IC card 24 is loaded into the memory of the photogrammetry apparatus.
[0040]
FIG. 8 shows a captured image at the camera position M. The photographed image has a two-dimensional orthogonal coordinate system (Xp , Yp) is set, and the coordinate origin is set as the imaging center CP. As is clear from FIG. 8, in the captured image, the image points of the reference point members 31, 34, and 36 are represented by coordinates P1 (Xp 1 , Yp 1 ), P2 (Xp 2 , Yp 2 ), P3 (Xp Three , Yp Three ). In the present specification, the two-dimensional orthogonal coordinates of the photographed image are referred to as “photographic coordinate system”.
[0041]
FIG. 9 is a diagram relatively showing a positional relationship between an image captured by the camera 100 and the target 10. A reference plane defined by the reference point members 31, 34 and 36 is indicated by a hatched area in the figure. In FIG. 9, the three-dimensional orthogonal coordinates of the camera position M are indicated by (Xc, Yc, Zc). The coordinate origin coincides with the rear principal point position of the taking lens of the camera 100 at the camera position M, and the Zc axis thereof coincides with the optical axis O of the taking lens at the camera position M. The Xc axis is parallel to the Xp axis of the two-dimensional orthogonal coordinate system of the captured image shown in FIG. 8, and the Yc axis is parallel to the Yp axis of the two-dimensional orthogonal coordinate system. In this specification, the three-dimensional orthogonal coordinates of the camera position M are referred to as a “camera coordinate system”.
[0042]
Here, in order to specify the camera position M based on the captured image, a right-handed three-dimensional orthogonal coordinate system (Xs, Ys, Zs) shown in FIG. 10 is appropriately set. The coordinate origin of the three-dimensional orthogonal coordinate system (Xs, Ys, Zs) is made to coincide with the reference point member 34 of the target 10. The Zs axis is a direction from the reference point member 34 to 36, passes through the reference point member 34, is orthogonal to the Zs axis and is on the reference plane as an Xs axis, passes through the reference point member 34, and enters the reference plane. An axis that is orthogonal, that is, an axis that is orthogonal to the paper surface is defined as a Ys axis. Since the distances between the reference point member 31 and the reference point member 34 of the target 10 and between the reference point member 34 and the reference point member 36 are L as described above, the image points of the reference point members 31, 34 and 36 are coordinates. Ps1 (-L, 0, 0), Ps2 (0, 0, 0), Ps3 (0, 0, L). In this specification, this three-dimensional orthogonal coordinate is referred to as a “scene coordinate system”.
[0043]
The camera position M is indicated by the relative relationship between the scene coordinate system and the camera coordinate system. That is, the movement distance of the origin of the camera coordinate system from the origin of the scene coordinate system, the rotation angle of the Xs axis around the Xc axis, the rotation angle of the Ys axis around the Yc axis, and the rotation angle of the Zs axis around the Zc axis Thus, the camera position M is defined.
[0044]
The coordinate value Psi (Psxi, Psyi, Pszi) (i = 1, 2, 3) of the reference point in the scene coordinate system and the coordinate value Pci (Pcxi, Pcyi, Pczi) (i = 1) of the reference point Pi in the camera coordinate system 2, 3) is expressed by equation (1).
[0045]
[Expression 1]
Figure 0003737919
[0046]
In equation (1), α is the rotation angle of the Xs axis around the Xc axis, β is the rotation angle of the Ys axis around the Yc axis, γ is the rotation angle of the Zs axis around the Zc axis, and R is α, β, A rotation matrix of γ, Δ is a vector from scene coordinates to camera coordinates.
[0047]
Further, the coordinate value Pci (Pcxi, Pcyi, Pczi) (i = 1, 2, 3) of the reference point in the camera coordinate system and the coordinate value Di (Dxi, Dyi) (i = 1, of the reference point in the photographic coordinate system). The relationship with (2, 3) is expressed by equation (2). Note that “f” in equation (2) is the focal length of the taking lens of the camera 100.
[0048]
[Expression 2]
Figure 0003737919
[0049]
As described above, the coordinate value in the photographic coordinate system is calculated from the coordinate value in the scene coordinate system of the reference point by the above-described equations (1) and (2). On the other hand, the coordinate value of the reference point in the photographic coordinate system is automatically extracted from the captured image as will be described later. Accordingly, by comparing the coordinate value of the reference point calculated from the equations (1) and (2) with the coordinate value automatically extracted from the photographed image, ΔX, ΔY, ΔZ, α, β defining the camera position. , Γ can be calculated.
[0050]
FIG. 17 is a block diagram of a coordinate calculation system of a photogrammetry apparatus in which photogrammetry is performed based on image data stored in the IC card 24. As shown in FIG. 17, the coordinate calculation system is configured by a computer system including a computer 184. The computer 184 includes a central processing unit (CPU) 184A, an operating system, a read only memory (ROM) 184B in which constants are stored, a write / readable memory (RAM) 184C in which data and the like are temporarily stored, and a CPU 184A. The hard disk 184D and the input / output interface (I / O) 184E for storing the calculation results executed in the above are included.
[0051]
The computer system also includes an IC card reader 186 connected to the computer 184 via the I / O 184E. The IC card reader 186 has a slot in which the IC memory card 24 is inserted, and has an IC card driver 188 for reading a digital image and other data for one frame.
[0052]
The computer system also includes a CD-ROM reader 197 connected to the computer 184 via the I / O 184E. The CD-ROM reader 197 includes a tray for mounting the CD-ROM 198 and has a CD-ROM drive unit 199. A target reference point and a camera position calculation program, which will be described later, are stored in the CD-ROM 198. This calculation program is read from the CD-ROM 198 and stored in the hard disk 184D.
[0053]
Further, the computer system can reproduce a captured image based on one frame of digital image data read from the IC memory card 24, a monitor 190 for reproducing a survey map created by the computer 184, and various commands. A keyboard 192 for inputting signals and data to the computer 184, a mouse 194 for operating a cursor displayed on the monitor 190, and a printer 196 for printing a survey map as necessary are provided.
[0054]
FIG. 11 is a flowchart showing the procedure for calculating the camera position of the present embodiment, which is executed by the CPU 184A. In step S1000, a digital image of the surveying site photographed by setting the above-described target 10 is loaded into the photogrammetry apparatus of the present embodiment, and then gray scale processing is performed in step S1002. Gray scale processing is processing that removes color components from a color image and extracts only luminance information. The luminance information of 256 gradations is extracted for every pixel constituting the digital image, and stored in the array format variable Img. That is, the luminance information of each pixel is represented by Img (j, k). j and k are two-dimensional coordinate values (coordinate values of a photographic coordinate system) in a digital image of a pixel.
[0055]
In step S1004, the luminance information extracted for each pixel is binarized. The luminance information stored in the variable Img is compared with a predetermined threshold, and if the luminance information is high and exceeds the threshold, “1” is set, and if the luminance information is low and below the threshold, “0” is set in the same arrangement format as Img. Stored in the variable Bin. That is, data obtained by binarizing the luminance information of each pixel is represented by Bin (j, k). As described above, the reflection sheet is affixed to the reference point members 31, 34, and 36 and the auxiliary point members 32, 33, and 35 of the target 10 used in the present embodiment, and the black non-reflective member 41 is disposed around the reflection sheet. , 42, 43, 44, 45, 46 are provided. Therefore, the binarized data of the pixels corresponding to the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35 are “1”, and the surrounding non-reflective members 41, 42, 43, 44, 45, 46 The binarized data of the pixel corresponding to “0” is “0”.
[0056]
Next, labeling is performed in step S1006. Labeling is a process of extracting, as a group, a portion in which pixels having binarized data “1” are continuous, and a region having high luminance information is extracted from a digital image. For each group, the number of pixels constituting the group and the respective two-dimensional coordinate values are stored in a predetermined variable.
[0057]
Next, in step S1008, the area of each group, that is, the number of pixels is calculated. In step S1010, it is determined whether or not the group corresponds to a reference point member or an auxiliary point member based on the number of pixels in each group. Specifically, it is checked whether or not the number of pixels is within the range between the lower limit value Th1 and the upper limit value Th2. The lower limit value Th1 and the upper limit value Th2 are such that the range of the number of pixels defined thereby sufficiently includes the number of pixels of the group corresponding to the reference point member and auxiliary point member in the digital image, and is the minimum range. Is set. Accordingly, the processing in step S1010 corresponds to a group having about 1 or 2 pixels corresponding to the noise of the digital image, or a region having high luminance information over a wide area such as paint applied on the road of the surveying site. Group to be removed.
[0058]
Next, in step 1012, the center of gravity is calculated in consideration of the luminance information of each group. FIG. 12 is a flowchart illustrating a processing procedure for calculating the center of gravity. In step S1022, variables SumX, SumY, and SumImg are initialized. The variable SumX stores the product of the luminance information of each pixel constituting the group and the x coordinate value, and the variable SumY stores the product of the luminance information of each pixel constituting the group and the y coordinate value. Accumulated and stored. In addition, the variable SumImg stores the sum obtained by adding the luminance information of each pixel constituting the group.
[0059]
In step S1026, the product of the luminance information (Img (j, k)) of the pixel and the x coordinate value (j) of the pixel is calculated, added to the value stored in the variable SumX at that time, and then added to the variable SumX. Stored. Next, in step S1028, the product of the luminance information of the pixel and the y coordinate value (k) of the pixel is calculated, added to the value stored in the variable SumY at that time, and stored in the variable SumY. In step S1030, the luminance information of the pixel is added to the value stored in the variable SumImg at that time, and stored in the variable SumImg. The processes in steps S1026 to S1030 described above are repeated for all the pixels constituting the group.
[0060]
That is, the variable SumX stores the sum of values obtained by weighting the luminance information of each pixel based on the coordinate value in the x direction, and the variable SumY stores the luminance information of each pixel based on the coordinate value in the y direction. Stores the sum of weighted values. The variable SumImg stores the sum of luminance information of each pixel.
[0061]
In step S 1032, it is checked whether or not the above-described luminance information accumulation calculation processing has been performed on all the pixels constituting the group. When the processing of steps S1026 to S1030 is performed for all the pixels constituting the group, the process proceeds to step S1034. In step S1034, a process of dividing the sum of values obtained by weighting the luminance information of each pixel based on the coordinate value in the x direction by the sum of the luminance information of each pixel is performed, and the x coordinate value of the center of gravity of the group is calculated. Is done. In step S1036, a process of dividing the sum of values obtained by weighting the luminance information of each pixel based on the coordinate value in the y direction by the sum of the luminance information of each pixel is performed, and the y coordinate value of the center of gravity of the group is calculated. Is done.
[0062]
Next, in step S1038, it is checked whether or not the coordinates of the center of gravity in consideration of the luminance information have been calculated for all groups in the captured image. If the calculation processing of the center-of-gravity coordinates for all the groups has not been completed, the processing from step S1020 to S1036 is repeated. When the calculation process of the coordinates of the center of gravity for all the groups is completed, the process proceeds to step S1014 in FIG.
[0063]
FIG. 13 is a diagram schematically showing the state of each pixel of the captured image after the calculation of the barycentric coordinates of each group. Pixels with low luminance information are hatched. As illustrated in FIG. 13, groups G1 to G13 are extracted, and the respective centers of gravity are GC1 to GC13.
[0064]
In step S1014, a group combination that satisfies the relative relationship between the reference point members 31, 34, and 36 and the auxiliary point members 32, 33, and 35 of the target 10 is extracted. FIG. 14 is a flowchart showing the first half of the group combination extraction process, and FIG. 15 is a flowchart showing the second half. Hereinafter, the procedure of the group combination extraction process will be described with reference to FIG.
[0065]
In step S1040, two arbitrary groups are selected from the groups in the image. In step S1042, a straight line including the center of gravity of the selected two groups is calculated. Next, in step S1044, a group having a centroid between the centroids of the two selected groups is detected on the straight line.
[0066]
In step S1046, the number of groups detected in step S1044 is checked. If there are four groups having the center of gravity on the straight line including the two groups selected in step S1040, the process proceeds to step S1048. If three groups, the process proceeds to step S1050. Otherwise, the process proceeds to step S1052.
[0067]
For example, when the group G1 and the group G2 are selected, since the centroids of other groups do not exist on the straight line including the centroids GC1 and GC2, the process proceeds to step S1052. When the group G3 and the group G6 are selected, or when the group G10 and the group 13 are selected, two centroids of the centroid GC4 of the group G4 and the centroid GC5 of the group G5 exist on the straight line including the centroids GC3 and GC6. On the straight line including the centroids GC10 and GC13, there are two centroids, the centroid GC11 of the group G11 and the centroid GC12 of the group G12. Accordingly, the process proceeds to step S1048. When the group G1 and the group G3 are selected, or when the group G7 and the group G9 are selected, one centroid GC2 of the group G2 exists on the straight line including the centroids GC1 and GC3, and includes the centroids GC7 and GC9. There is one center of gravity GC8 of the group G8 on the straight line. Accordingly, the process proceeds to step S1050.
[0068]
In step S1048, the four groups are registered as a four-point sequence parallel on the same straight line, and in step S1050, the three groups are registered as a three-point sequence parallel on the same straight line. For example, in each group in FIG. 13, groups G1, G2, and G3, and groups G6, G7, and G8 are registered as a three-point sequence, and groups G4, G5, G6, and G7, and groups G10, G11, G12, and G13 are registered. Each is registered as a 4-point sequence.
[0069]
In step S1052, it is checked whether or not processing has been performed for all combinations of the two groups. If processing has not been completed for all combinations, the processing in steps S1040 to S1050 is repeated. When the processing is completed for all combinations of the two groups, the process proceeds to step S1054 in FIG.
[0070]
In step S1054, a three-point sequence and a four-point sequence that are on the same straight line are selected one by one, and it is checked whether the centroids of the groups corresponding to the respective end points match. If the centroids of the groups corresponding to the respective end points match, the process proceeds to step S1058. If the centroids of the groups corresponding to the end points do not match, the process returns to step S1054 to select another combination of the three-point string and the four-point string. . In FIG. 13, a group G3 is an end point of a three-point sequence of groups G1, G2, and G3, and an end point of a 4-point sequence of groups G3, G4, G5, and G6. Therefore, groups G1, G2, and G3 and groups G3, G4, G5, and G6 are selected as combinations of the three-point string and the four-point string.
[0071]
In step S1058, the coordinates of the center of gravity of the group corresponding to the end point opposite to the end point that coincides with the end point of the three-point sequence among the groups constituting the 4-point sequence are the variables A1 (Ax) indicating the coordinates of the reference point member 31. 1 , Ay 1 ) And the coordinates of the center of gravity of the group corresponding to the end points where the three-point string and the four-point string coincide are the variables A2 (Ax 2 , Ay 2 ) And the coordinates of the center of gravity of the group corresponding to the end point on the opposite side of the end point that coincides with the end point of the 4-point sequence among the groups constituting the 3-point sequence are variables A3 ( Ax Three , Ay Three ). That is, the coordinates of the center of gravity GC6 in FIG. 13 are stored in the variable A1, the center of gravity GC3 is stored in the variable A2, and the center of gravity GC1 is stored in the variable A3.
[0072]
Next, in step S1060, the angle formed by the vector from variable A2 to variable A3 with respect to the vector from variable A2 to variable A1 is checked. It is checked whether the counterclockwise angle θ formed by the vector from the variable A2 to the variable A3 with respect to the vector from the variable A2 to the variable A1 is larger than the lower limit value Th3 and smaller than the upper limit value Th4. In the present embodiment, the lower limit value Th3 is set to 0 degrees, and the upper limit value Th4 is set to 180 degrees. If the condition of step S1060 is satisfied, the combination of the selected 3-point sequence and 4-point sequence satisfies the relative relationship of the three reference point members 31, 34, 36 and auxiliary point members 32, 33, 35 of the target 10. Therefore, the group combination extraction process ends, and the process proceeds to step S1016 in FIG.
[0073]
If the angle θ is not within the range between the lower limit value Th3 and the upper limit value Th4, the process proceeds to step S1062, and it is checked whether or not processing has been performed for all combinations of the three-point string and the four-point string. If there is a combination of a three-point sequence and a four-point sequence for which the processing from steps S1056 to S1060 has not been performed, the process returns to step S1054 and the processing up to step S1060 is repeated.
[0074]
That is, the processes of steps S1054 to S1062 are repeated until a combination of a three-point string and a four-point string satisfying the relative relationship between the reference point members 31, 34, 36 and the auxiliary point members 32, 33, 35 is detected. When a combination of a three-point string and a four-point string that satisfies the relative relationship between the reference point member and the auxiliary point member is detected, the process ends without performing the other combinations of the three-point string and the four-point string. .
[0075]
The combination of the three-point sequence and the four-point sequence in FIG. 13, the groups G1, G2, G3, and the groups G3, G4, G5, G6, the inverse of the vector from the variable A2 to the variable A3 with respect to the vector from the variable A2 to the variable A1 As is apparent from FIG. 13, the clockwise angle is within the range between the lower limit value Th3 and the upper limit value Th4. Accordingly, the groups G1, G2, and G3 and the groups G3, G4, G5, and G6 are a three-point row and a four-point row that satisfy the relative relationship between the reference point members 31, 34, and 36 and the auxiliary point members 32, 33, and 35. Are detected as a combination.
[0076]
In step S1016, camera position calculation processing is performed. FIG. 16 is a flowchart illustrating a processing procedure for camera position calculation. In step S1070, the variables ΔX, ΔY, ΔZ, α, β, and γ in the above equation (1) are initialized. Next, in step S1072, (−L, 0, 0), (0, 0, 0), (0, 0, L) are substituted for Ps1, Ps2, and Ps3 in the equation (1), respectively, and a variable ΔX, Substituting appropriate values into ΔY, ΔZ, α, β, γ, the coordinate values Pc1 (Pcx) of the reference point members 31, 34, 36 in the camera coordinate system 1 , Pcy 1 , Pcz 1 ), Pc2 (Pcx 2 , Pcy 2 , Pcz 2 ), Pc3 (Pcx Three , Pcy Three , Pcz Three ) Is calculated.
[0077]
In step S1074, the coordinate values of Pc1, Pc2, and Pc3 are substituted into the above equation (2), and the coordinate values D1 (Dx (Dx) of the reference point members 31, 34, and 36 in the photographic coordinate system are substituted. 1 , Dy 1 ), D2 (Dx 2 , Dy 2 ), D3 (Dx Three , Dy Three ) Is calculated.
[0078]
In step S1076, the coordinates calculated using the coordinate values A1, A2, A3 in the photographic coordinate system of the reference point members 31, 34, 36 automatically extracted from the captured image, and the above-described equations (1) and (2). The values D1, D2, and D3 are compared. That is, the absolute value of the difference between the coordinate values D1, D2, and D3 of each reference point member and A1, A2, and A3 is calculated, and the total value S is calculated.
[0079]
In step S1078, it is confirmed whether or not the total value S is the minimum. If not, the values of the variables ΔX, ΔY, ΔZ, α, β, and γ are changed, and the processing of steps S1072 to S1076 is repeated. That is, the variables ΔX, ΔY, ΔZ, α, β, γ that minimize the total value S are calculated by the least square method.
[0080]
If it is confirmed in step S1078 that the total value S is minimum, the parameters ΔX, ΔY, ΔZ, α, β, and γ when the total value S is minimum in step S1080 are parameters indicating the camera position M. And the camera position calculation process ends.
[0081]
As described above, according to the present embodiment, the number of auxiliary point members provided between the reference point members 31 and 34 and the number of auxiliary point members provided between the reference point members 34 and 36 in the target 10 are different. In addition, since the reflection sheet is affixed to each reference point member and each auxiliary point member, it is easy to specify the positions of each reference point member and auxiliary point member from the luminance information in the captured image. Accordingly, the coordinate values of the reference point members 31, 34, and 36 in the captured image are automatically extracted.
[0082]
Further, according to the present embodiment, the length between the reference point members 31 and 34 of the target 10 and the length between the reference point members 34 and 36, and the first columnar member 12 and the second columnar member 14. Since the angle is known, the coordinate value of each reference point member in the scene coordinate system is set to a predetermined value, and the coordinate value of each reference point member in the photographic coordinate system can be calculated based on the coordinate value. Therefore, the camera position can be automatically calculated by comparing with the coordinate value of the reference point member automatically extracted in the captured image.
[0083]
11, 12, 14, 15 and 16, the digital image of the surveying site is displayed on the monitor, the reference point of the target and an arbitrary surveying point are designated on the monitor, and a predetermined surveying calculation is performed. In the photogrammetry system in which the above and the like are executed, the calculation of the two-dimensional coordinates of the target reference point and the calculation of the camera position are executed. That is, according to the present embodiment, the operation of designating the reference point of the target in the digital image displayed on the monitor with the mouse is omitted, and accurate camera position data independent of the skill level of the person in charge is obtained. It is always obtained, and high-precision arithmetic processing is executed in the subsequent processing steps in the photogrammetry system.
[0084]
【The invention's effect】
As described above, according to the present invention, the camera position can be automatically calculated in the photogrammetry.
[Brief description of the drawings]
FIG. 1 is a plan view showing a photogrammetry target applied to an embodiment of the present invention.
FIG. 2 is a side view of the photogrammetric target shown in FIG.
FIG. 3 is a cross-sectional view of the target taken along the line VIII-VIII in FIG. 1;
4 is a plan view showing a surface on the second columnar member side of the non-reflective member of the target shown in FIG. 1; FIG.
FIG. 5 is an enlarged plan view showing the vicinity of the control unit housing of the target shown in FIG.
6 is a cross-sectional view taken along line XI-XI in FIG. 5, and is a diagram showing a simplified configuration of a control unit housing.
FIG. 7 is a perspective view showing a positional relationship between a photogrammetry target and a camera according to an embodiment of the present invention.
8 is a diagram schematically showing an image photographed by the camera of FIG. 7. FIG.
FIG. 9 is a diagram illustrating a positional relationship between a reference point member, its image point, and a rear principal point position of a photographing lens of a camera in three-dimensional coordinates.
FIG. 10 is a diagram relatively showing a scene coordinate system and a camera coordinate system.
FIG. 11 is a flowchart illustrating a procedure of camera automatic calculation processing according to the embodiment of this invention.
FIG. 12 is a flowchart showing a procedure for calculating a center of gravity of a group having high luminance information in a captured image.
FIG. 13 is a diagram schematically illustrating a state of each pixel of a captured image after calculation of the barycentric coordinates of the group.
FIG. 14 is a flowchart showing the first half of group combination extraction processing;
FIG. 15 is a flowchart showing the second half of the group combination extraction processing;
FIG. 16 is a flowchart illustrating a processing procedure for camera position calculation.
FIG. 17 is a block diagram of a coordinate calculation system of the photogrammetry apparatus.
[Explanation of symbols]
10 Target
12 First columnar member
14 Second columnar member
15 Hinge
16 stays
20 Control unit housing
24 IC card
31, 34, 36 Reference point member
32, 33, 35 Auxiliary point member
41, 42, 43, 44, 45, 46 Non-reflective member
92 Stay hinge
94 Lock Hinge
184 computer
186 IC card reader
188 IC card driver
197 CD-ROM reader
198 CD-ROM
199 CD-ROM drive unit
190 Monitor
192 keyboard
194 mouse
196 Printer

Claims (5)

互いの間隔が既知である第1、第2、第3の基準点が設けられ、前記第1の基準点と前記第2の基準点を結ぶ第1の直線と前記第2の基準点と前記第3の基準点を結ぶ第2の直線とが所定の角度を有し、前記第1の直線上と前記第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する画像取得手段と、
前記画像取得手段により得られる撮影画像内において、前記第1の直線上の前記補助点の数と、前記第2の直線上の前記補助点の数を比較することにより、前記撮影画像内の前記第1の基準点、前記第2の基準点及び前記第3の基準点の位置を特定し、前記撮影画像内の2次元直交座標である写真座標系における前記第1の基準点、前記第2の基準点及び前記第3の基準点の座標値を取得する2次元座標取得手段と
を備えたことを特徴とする写真測量用ターゲットの基準点の算出装置。
First, second, and third reference points whose distances are known are provided, the first straight line connecting the first reference point and the second reference point, the second reference point, and the Surveying together with a photogrammetric target having a predetermined angle with the second straight line connecting the third reference points, and a different number of auxiliary points provided on the first straight line and the second straight line, respectively. Image acquisition means for capturing an object with a camera;
By comparing the number of auxiliary points on the first straight line and the number of auxiliary points on the second straight line in the captured image obtained by the image acquisition means, the The positions of the first reference point, the second reference point, and the third reference point are specified, and the first reference point and the second reference point in a photographic coordinate system that is a two-dimensional orthogonal coordinate in the captured image. And a two-dimensional coordinate acquisition means for acquiring the coordinate value of the third reference point and a reference point calculation device for a photogrammetric target.
前記写真測量用ターゲットにおいて、前記第1の基準点、前記第2の基準点、前記第3の基準点及び前記補助点が前記撮影画像内において他の被写体よりも相対的に高い輝度情報を有するよう反射部材から成り、
前記2次元座標取得手段が、
前記撮影画像を構成する各画素の輝度情報を所定の閾値と比較して、前記画素のそれぞれについて高い輝度情報を有する画素と低い輝度情報を有する画素との2種類に種別する2値化処理手段と、
前記撮影画像内において前記高い輝度情報を有する画素が所定範囲内で複数連続するグループを抽出するグループ抽出手段と、
前記グループを構成する各画素の輝度情報および前記写真座標系における座標値に基づいて、前記グループの重心の座標値を算出するグループ重心座標値算出手段と、
前記撮影画像内において、前記第1の基準点と前記第2の基準点と前記第1の直線上の前記補助点の数の合計点数と等しい数の前記重心が同一直線上に並ぶ第1の点列を抽出する第1の点列抽出手段と、
前記撮影画像内において、前記第2の基準点と前記第3の基準点と前記第2の直線上の前記補助点の数の合計点数と等しい数の前記重心が同一直線上に並ぶ第2の点列を抽出する第2の点列抽出手段と、
それぞれの点列において一方の端部の前記重心を共有する前記第1の点列と前記第2の点列の組合せを選択する選択手段と、
前記選択手段により選択された前記第1の点列において前記選択手段により選択された前記第2の点列と共有する前記重心と反対側の端部に相当する前記重心を前記第1の基準点と特定し、前記選択手段により選択された前記第1の点列と前記第2の点列が共有する前記重心を前記第2の基準点と特定し、前記選択手段により選択された前記第2の点列において前記選択手段により選択された前記第1の点列と共有する前記重心と反対側の端部に相当する前記重心を前記第3の基準点と特定する基準点特定手段と
を備えていることを特徴とする請求項1に記載の写真測量用ターゲットの基準点の算出装置。
In the photogrammetry target, the first reference point, the second reference point, the third reference point, and the auxiliary point have relatively higher luminance information than the other subjects in the captured image. Made of reflective members,
The two-dimensional coordinate acquisition means
The binarization processing means for comparing the luminance information of each pixel constituting the photographed image with a predetermined threshold and classifying each pixel into two types of pixels having high luminance information and pixels having low luminance information When,
A group extracting means for extracting a group in which a plurality of pixels having the high luminance information in the photographed image are consecutive within a predetermined range;
Group centroid coordinate value calculating means for calculating the coordinate value of the centroid of the group based on the luminance information of each pixel constituting the group and the coordinate value in the photographic coordinate system;
In the captured image, a first number of the centroids equal to the total number of the first reference point, the second reference point, and the number of auxiliary points on the first straight line are aligned on the same straight line. First point sequence extraction means for extracting a point sequence;
In the captured image, a second number of the centroids equal to the total number of the second reference point, the third reference point, and the number of the auxiliary points on the second straight line are arranged on the same straight line. Second point sequence extracting means for extracting the point sequence;
Selection means for selecting a combination of the first point sequence and the second point sequence sharing the center of gravity of one end in each point sequence;
In the first point sequence selected by the selection unit, the centroid corresponding to the end opposite to the centroid shared with the second point sequence selected by the selection unit is used as the first reference point. The center of gravity shared by the first point sequence and the second point sequence selected by the selection unit is specified as the second reference point, and the second point selected by the selection unit Reference point specifying means for specifying, as the third reference point, the center of gravity corresponding to the end opposite to the center of gravity shared with the first point sequence selected by the selection means in the point sequence of The apparatus for calculating a reference point of a target for photogrammetry according to claim 1.
前記写真測量用ターゲットにおいて、前記第1の直線上に前記補助点が2つ設けられ、前記第2の直線上に前記補助点が1つ設けられ、前記撮影画像内において前記第1の点列が前記重心が同一直線上に4つ並ぶ4点列であり、前記第2の点列が前記重心が同一直線上に3つ並ぶ3点列であることを特徴とする請求項2に記載の写真測量用ターゲットの基準点の算出装置。In the photogrammetry target, two auxiliary points are provided on the first straight line, one auxiliary point is provided on the second straight line, and the first point sequence in the photographed image. 3. The four-point sequence in which the four centroids are arranged on the same straight line, and the second point sequence is a three-point sequence in which the three centroids are arranged on the same straight line. Photogrammetry target reference point calculation device. 互いの間隔が既知である第1、第2、第3の基準点が設けられ、前記第1の基準点と前記第2の基準点を結ぶ第1の直線と前記第2の基準点と前記第3の基準点を結ぶ第2の直線とが所定の角度を有し、前記第1の直線上と前記第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する第1ステップと、
前記カメラにより撮影された撮影画像内において、前記第1の直線上の前記補助点の数と前記第2の直線上の前記補助点の数との差に基づいて、前記第1の基準点、前記第2の基準点、及び前記第3の基準点を特定し、前記撮影画像内の2次元直交座標である写真座標系における前記第1の基準点、前記第2の基準点及び前記第3の基準点の座標値を取得する第2ステップと
を備えることを特徴とする写真測量用ターゲットの基準点の算出方法。
First, second, and third reference points whose distances are known are provided, the first straight line connecting the first reference point and the second reference point, the second reference point, and the Surveying together with a photogrammetric target having a predetermined angle with the second straight line connecting the third reference points, and a different number of auxiliary points provided on the first straight line and the second straight line, respectively. A first step of photographing an object with a camera;
Based on the difference between the number of the auxiliary points on the first straight line and the number of the auxiliary points on the second straight line in the captured image taken by the camera, the first reference point, The second reference point and the third reference point are specified, and the first reference point, the second reference point, and the third reference point in a photographic coordinate system that is a two-dimensional orthogonal coordinate in the captured image. And a second step of acquiring the coordinate value of the reference point of the photogrammetric target.
互いの間隔が既知である第1、第2、第3の基準点が設けられ、前記第1の基準点と前記第2の基準点を結ぶ第1の直線と前記第2の基準点と前記第3の基準点を結ぶ第2の直線とが所定の角度を有し、前記第1の直線上と前記第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物がカメラにより撮影された撮影画像内において、前記第1の直線上の前記補助点の数と前記第2の直線上の前記補助点の数の相違に基づいて、前記第1の基準点、前記第2の基準点及び前記第3の基準点を特定し、前記撮影画像内の2次元直交座標である写真座標系における前記第1の基準点、前記第2の基準点及び前記第3の基準点の座標値を取得する2次元座標取得ルーチンを備える写真測量用ターゲットの基準点の算出プログラムが格納されていることを特徴とする記録媒体。First, second, and third reference points whose distances are known are provided, the first straight line connecting the first reference point and the second reference point, the second reference point, and the Surveying together with a photogrammetric target having a predetermined angle with the second straight line connecting the third reference points, and a different number of auxiliary points provided on the first straight line and the second straight line, respectively. Based on the difference between the number of the auxiliary points on the first straight line and the number of the auxiliary points on the second straight line in the captured image obtained by photographing the object by the camera, the first reference point The second reference point and the third reference point are specified, and the first reference point, the second reference point, and the third reference point in a photographic coordinate system that is a two-dimensional orthogonal coordinate in the captured image. Photogrammetric target reference equipped with a two-dimensional coordinate acquisition routine to acquire the coordinate value of the reference point Recording medium, wherein the program of calculation is stored.
JP33484699A 1998-11-25 1999-11-25 Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program Expired - Fee Related JP3737919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33484699A JP3737919B2 (en) 1998-11-25 1999-11-25 Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP33432098 1998-11-25
JP10-334320 1998-11-25
JP33484699A JP3737919B2 (en) 1998-11-25 1999-11-25 Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program

Publications (2)

Publication Number Publication Date
JP2000221029A JP2000221029A (en) 2000-08-11
JP3737919B2 true JP3737919B2 (en) 2006-01-25

Family

ID=26574808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33484699A Expired - Fee Related JP3737919B2 (en) 1998-11-25 1999-11-25 Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program

Country Status (1)

Country Link
JP (1) JP3737919B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009057816A1 (en) 2008-12-10 2010-08-12 Fanuc Ltd Calibration device for calibrating and image measuring system with a calibration device
US9996931B2 (en) 2011-12-26 2018-06-12 Mitsubishi Heavy Industries Machine Tool Co., Ltd. Method for calibrating camera measurement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6309938B2 (en) * 2015-11-24 2018-04-11 大豊精機株式会社 3D position measurement system, 3D position measurement probe, and calibrator

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009057816A1 (en) 2008-12-10 2010-08-12 Fanuc Ltd Calibration device for calibrating and image measuring system with a calibration device
US8350913B2 (en) 2008-12-10 2013-01-08 Fanuc Ltd Calibrating device for calibration and image measurement system comprising calibrating device
DE102009057816B4 (en) 2008-12-10 2022-08-18 Fanuc Corporation Calibration device for calibration and image measuring system with a calibration device
US9996931B2 (en) 2011-12-26 2018-06-12 Mitsubishi Heavy Industries Machine Tool Co., Ltd. Method for calibrating camera measurement system

Also Published As

Publication number Publication date
JP2000221029A (en) 2000-08-11

Similar Documents

Publication Publication Date Title
US6445814B2 (en) Three-dimensional information processing apparatus and method
US8773514B2 (en) Accurate 3D object reconstruction using a handheld device with a projected light pattern
US20050212931A1 (en) Digital camera which estimates and corrects small camera rotations
EP0692759A2 (en) Writing device for storing handwriting
WO2006083639A1 (en) Determining scene distance in digital camera images
KR20030078903A (en) Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method
JP2000089092A (en) Document image pickup technique by digital camera
JP2010256253A (en) Image capturing device for three-dimensional measurement and method therefor
JP4848166B2 (en) Projection apparatus and system for three-dimensional measurement
TWI510052B (en) Scanner
US6628803B1 (en) Device for calculating positional data of standard points of photogrammetric target
US7272267B1 (en) Image processing method and apparatus for normalizing faces for a layout image
TW558668B (en) Method and system of reconstructing a digital image of an image on a surface
JP3737919B2 (en) Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program
CN113306308B (en) Design method of portable printing and copying machine based on high-precision visual positioning
JP3737918B2 (en) Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program
CN108510537B (en) 3D modeling method and device
JP2003065737A (en) System and method for measuring surface shape and system for illustrating surface condition
JPH1023311A (en) Image information input method and device therefor
JPH09210649A (en) Three dimensional measurement device
JP2001074452A (en) Apparatus and method for image processing for photogrammetry and storage medium with stored image processing program for photogrammetry
JP2020096254A (en) Image processing apparatus, image processing method, and program
JP2004295423A (en) Original drawing transferring method and camera image correction processor to be used for same method
CN210109868U (en) Internal reference calibration equipment
US20050083556A1 (en) Image cropping based on imaged cropping markers

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051028

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees