JP3737919B2 - Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program - Google Patents
Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program Download PDFInfo
- Publication number
- JP3737919B2 JP3737919B2 JP33484699A JP33484699A JP3737919B2 JP 3737919 B2 JP3737919 B2 JP 3737919B2 JP 33484699 A JP33484699 A JP 33484699A JP 33484699 A JP33484699 A JP 33484699A JP 3737919 B2 JP3737919 B2 JP 3737919B2
- Authority
- JP
- Japan
- Prior art keywords
- reference point
- point
- straight line
- auxiliary
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、写真測量におけるカメラ位置の算出に関する。
【0002】
【従来の技術】
従来、交通事故調査等の写真測量では、ステレオ写真による測量が知られている。ステレオ写真による測量では、所定の距離をおいた2つのカメラで同時に現場が撮影され、それにより得られるステレオ画像を光学式の機械で立体視しながら立体化された画像内の点を測量点として指定し、各測量点の座標が算出される。測量点を算出するためには、撮影画像を撮影した2つカメラの位置情報、即ちカメラから被写体までの距離や、被写体に対するカメラの角度等の情報が必要である。そのため、撮影現場において、担当者がカメラの位置情報を常に計測し記録しなければならない。
【0003】
しかしながら、撮影する度に被写体に対するカメラの距離や角度を計測するのは煩わしく、また時間と労力を要するため、迅速な処理が求められる事故調査等の現場では、常に正確なカメラの位置情報を得ることは困難であった。さらに、ステレオ画像を光学式の機械で立体視したり、立体化された画像内の点を指定するといった作業は担当者の熟練度に左右されるため、測量の作業効率や測量精度の点においても問題があった。
【0004】
このような問題を解決するため、3つの基準点部材を備えたターゲットを用いた写真測量システムが提案されている。測量現場に前述のターゲットを設置した上で異なるカメラ位置及び角度で複数の写真を撮影し、コンピュータのメモリにデジタル画像として格納する。複数のデジタル画像の中から、適宜一対のデジタル画像を選出してコンピュータに接続されたモニタ上に表示させ、それぞれの画像内においてターゲットの基準点部材をコンピュータに接続されたマウス等を用いて指定する。指定された基準点部材の座標値に基づいてカメラ位置データが算出される。さらに、モニタ上の画像内の任意の測量点を指定し、指定された測量点の座標値及びカメラ位置データに基づいて適宜演算処理が実行され、測量現場の白地図が作成されモニタに表示される。
【0005】
【発明が解決しようとする課題】
ところが、モニタに映し出されたデジタル画像を目視しながらマウス操作を行ない基準点部材を指定するという作業は、操作者の操作技術に依存する部分が大きい。また、測量現場の状況によっては撮影される写真が大量になる場合があり、マウスによる基準点部材の指定は操作者に多大な労力を強いることになる。即ち、基準点部材の指定が常時、正確に行なわれるとは限らない。基準点部材の指定が正確に行なわれない場合、精度の高いカメラ位置データは算出されず、その結果、カメラ位置データに基づく演算処理に影響を及ぼし、白地図が精度高く作成されないという問題があった。
【0006】
本発明は、以上の問題を解決するものであり、撮影画像からカメラ位置を自動的に算出する写真測量装置を提供することを目的としている。
【0007】
【課題を解決するための手段】
本発明にかかる写真測量用ターゲットの基準点の算出装置は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する画像取得手段と、画像取得手段により得られる撮影画像内において、第1の直線上の補助点の数と、第2の直線上の補助点の数を比較することにより、撮影画像内の第1の基準点、第2の基準点及び第3の基準点の位置を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する2次元座標取得手段とを備えたことを特徴とする。
【0008】
好ましくは、写真測量用ターゲットにおいて、第1の基準点、第2の基準点、第3の基準点及び補助点が撮影画像内において他の被写体よりも相対的に高い輝度情報を有するよう反射部材から成り、2次元座標取得手段が、撮影画像を構成する各画素の輝度情報を所定の閾値と比較して、画素のそれぞれについて高い輝度情報を有する画素と低い輝度情報を有する画素との2種類に種別する2値化処理手段と、撮影画像内において高い輝度情報を有する画素が所定範囲内で複数連続するグループを抽出するグループ抽出手段と、グループを構成する各画素の輝度情報および写真座標系における座標値に基づいて、グループの重心の座標値を算出するグループ重心座標値算出手段と、撮影画像内において、第1の基準点と第2の基準点と第1の直線上の補助点の数の合計点数と等しい数の重心が同一直線上に並ぶ第1の点列を抽出する第1の点列抽出手段と、撮影画像内において、第2の基準点と第3の基準点と第2の直線上の補助点の数の合計点数と等しい数の重心が同一直線上に並ぶ第2の点列を抽出する第2の点列抽出手段と、それぞれの点列において一方の端部の重心を共有する第1の点列と第2の点列の組合せを選択する選択手段と、選択手段により選択された第1の点列において選択手段により選択された第2の点列と共有する重心と反対側の端部に相当する重心を第1の基準点と特定し、選択手段により選択された第1の点列と第2の点列が共有する重心を第2の基準点と特定し、選択手段により選択された第2の点列において選択手段により選択された第1の点列と共有する重心と反対側の端部に相当する重心を第3の基準点と特定する基準点特定手段とを備えている。
【0009】
写真測量用ターゲットにおいて、例えば第1の直線上に補助点が2つ設けられ、第2の直線上に補助点が1つ設けられ、撮影画像内において第1の点列が重心が同一直線上に4つ並ぶ4点列であり、第2の点列が重心が同一直線上に3つ並ぶ3点列であることを特徴とする。
【0010】
また、本発明の写真測量用ターゲットの基準点の算出方法は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物をカメラにより撮影する第1ステップと、カメラにより撮影された撮影画像内において、第1の直線上の補助点の数と第2の直線上の補助点の数との差に基づいて、第1の基準点、第2の基準点、及び第3の基準点を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する第2ステップとを備えることを特徴とする。
【0011】
また、本発明に係る写真測量用ターゲットの基準点の算出プログラムが格納された記録媒体は、互いの間隔が既知である第1、第2、第3の基準点が設けられ、第1の基準点と第2の基準点を結ぶ第1の直線と第2の基準点と第3の基準点を結ぶ第2の直線とが所定の角度を有し、第1の直線上と第2の直線上にそれぞれ個数の異なる補助点が設けられた写真測量用ターゲットと共に測量対象物がカメラにより撮影された撮影画像内において、第1の直線上の補助点の数と第2の直線上の補助点の数の相違に基づいて、第1の基準点、第2の基準点及び第3の基準点を特定し、撮影画像内の2次元直交座標である写真座標系における第1の基準点、第2の基準点及び第3の基準点の座標値を取得する2次元座標取得ルーチンを備えたことを特徴とする。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。図1には、本発明に係る実施形態に適用される写真測量用ターゲットが一部破断して示される。図2には、同写真測量用ターゲットの側面図が示される。ターゲット10はL字型を呈しており、2本の柱状部材12、14を備える。第1の柱状部材12および第2の柱状部材14は金属材料から形成され、内部が中空の四角柱形状を呈しており、それらの全外周面には無反射シートが貼付される。第1の柱状部材12および第2の柱状部材14の幅は共に同じ長さLw であり、またそれぞれの厚みは共に同じ長さLH である。
【0013】
第1の柱状部材12の一方の端部12aには、直方体の制御部筐体20が一体的に固定される。制御部筐体20は金属材料から形成され、その全外周面には無反射シートが貼付される。制御部筐体20において、その厚みは第1の柱状部材12の厚みと同じ長さLH であり、またその幅は第1の柱状部材12の幅Lw の約2倍である。制御部筐体20はその側面20bが第1の柱状部材12の側面12bと同一平面上に位置するように設けられており、制御部筐体20の側面20cは第1の柱状部材12の側面12cから突出している。
【0014】
制御部筐体20の側面20cには、第2の柱状部材14の一方の端部14aがヒンジ15により回動可能に取付けられる。第2の柱状部材14の側面14bは、制御部筐体20の第1の柱状部材12が設けられる面の反対側の端面20dと同一平面上に位置する。
【0015】
第2の柱状部材14の側面14cと制御部筐体20の側面20cとが成す角α、即ち2本の柱状部材12および14の軸心AおよびB(図中、二点鎖線で示す)が成す鋭角側には固定部材であるステー16が連結され、これにより2本の柱状部材12および14は互いに固定される。ステー16はその幅および厚みは第1および第2の柱状部材12、14の幅Lw および厚みLH より小さい。またステー16の長手方向長さは第1の柱状部材12の長手方向長さより短い。
【0016】
ステー16は2本の柱状部材12、14に対してそれぞれ傾斜して設けられ、このとき第2の柱状部材14の第1の柱状部材12に対して成す鋭角αは90度である。ステー16はステー用ヒンジ92により第1の柱状部材12に回動可能に固定され、ロックヒンジ94により第2の柱状部材14に対して着脱自在である。
【0017】
ターゲット10の上面、即ち2本の柱状部材12、14および制御部筐体20の上面には3個の基準点部材31、34、36、および3個の補助点部材32、33、35が同一平面上に設けられる。基準点部材31(第1の基準点)、補助点部材32、33は第1の柱状部材12の上面12eに設けられ、基準点部材34(第2の基準点)は制御部筐体20の上面20eに設けられ、補助点部材35、基準点部材36(第3の基準点)は第2の柱状部材14の上面14eに設けられる。すなわち、基準点部材31と基準点部材34を結ぶ直線(第1の直線)上に2個の補助点部材32、33が設けられ、基準点部材34と基準点部材36を結ぶ直線(第2の直線)上に1個の補助点部材35が設けられている。
【0018】
各基準点部材31、34、36、および各補助点部材32、33、35は円板状を呈しており、それらの直径は全て同じであり、かつ柱状部材12、14の幅Lw より小さい。
【0019】
基準点部材31、34、補助点部材32、33は、軸心A方向に平行な基準点部材31と基準点部材34を結ぶ直線(第1の直線)上に設けられ、基準点部材34、36および補助点部材35は、軸心B方向に平行な基準点部材34と基準点部材36を結ぶ直線(第2の直線)上に設けられる。すなわち、基準点部材31と基準点部材34を結ぶ直線上に2個の補助点部材32、33が設けられ、基準点部材34と基準点部材36を結ぶ直線上に1個の補助点部材35が設けられており、各直線上に配設される補助点部材の数は異なる。基準点部材31と補助点部材32の間、補助点部材32と補助点部材33の間、補助点部材33と基準点部材34の間の距離はそれぞれ等しく、基準点部材34と補助点部材35の間、補助点部材35と基準点部材36の間の距離はそれぞれ等しい。また、基準点部材31から基準点部材34までの距離と、基準点部材34から基準点部材36までの距離は等しい。
【0020】
基準点部材31、34、36、および補助点部材32、33、35によって、写真測量の基準平面が定められ、同時に基準点部材31、34、36を頂点とする二等辺三角形の辺長さが基準尺として定められる。即ち、基準点部材31から基準点部材34までの距離、あるいは基準点部材34から基準点部材36までの距離、あるいは基準点部材36から基準点部材31までの距離が既知であり、これらが基準尺として写真測量に用いられる。
【0021】
図1から明らかなように、二等辺三角形の長さの等しい2辺において補助点部材の数が異なっているため、ターゲット10の向きが容易に判別でき、被写体が同一の撮影画像が多数ある場合に、そのカメラ位置が容易に想定できる。
【0022】
基準点部材31、34、36および補助点部材32、33、35により規定される基準平面は、道路面と平行であることが望ましい。制御部筐体20は第1の柱状部材12側に設けられており、ヒンジ15で第2の柱状部材14の端部のみを連結した場合、第1の柱状部材12側が重いために第2の柱状部材14が道路面から浮き、第1の柱状部材12側の基準点部材31、補助点部材32、33と、第2の柱状部材14側の補助点部材35、基準点部材36が同一平面上に位置することができなくなり、また基準平面が道路面に対して平行でなくなる恐れがある。
【0023】
このため、ステー16により柱状部材12、14の中間を互いに連結させて、第2の柱状部材14の道路面からの浮上りを防止し、基準平面を道路面に平行にして写真測量の精度を向上させている。
【0024】
さらに、ヒンジ15の取付によって生じる制御部筐体20の側面20cと第2の柱状部材14の端面14aとの間隙にはシート状の弾性部材19(図5参照)が設けられ、これにより第2の柱状部材14のガタつきが防止される。弾性部材19はゴムやスポンジ等から形成され、第2の柱状部材14の端面14aに密着固定される。なお、シート状の弾性部材19の代わりにバネ部材を設けてもよい。
【0025】
基準点部材31、34、36および補助点部材32、33、35には反射シートが貼付され、さらに各基準点部材31、34、36および補助点部材32、33、35の周りには、黒色の円板部材である無反射部材41、42、43、44、45、46がそれぞれ設けられる。これにより、撮影画像における基準点部材31、34、36および補助点部材32、33、35の識別が容易になり、写真測量の精度を向上させることができる。
【0026】
ターゲット10は、基準点部材31、34、36および補助点部材32、33、35が設けられる面の反対側の面に3本の脚18を備える。脚18は基準点部材31、34、36に対応して設けられ、これらによりターゲット10は道路面に対して脚18の長さ分だけ離れて載置される。
【0027】
図3および図4を参照して、補助点部材35および無反射部材45の構成について説明する。図3は、図1のVIII−VIII線断面におけるターゲット10の断面図である。図4は無反射部材45の第2の柱状部材14側の面を示す平面図である。他の基準点部材31、34、36、補助点部材32、33および無反射部材41、42、43、44、46は、補助点部材35および無反射部材45と同様の構成であるのでここでは説明を省略する。
【0028】
第2の柱状部材14の上面14eには磁石保持部材62が設けられ、この磁石保持部材62の内部には環状の磁石64が収納される。磁石保持部材62の外径は第2の柱状部材14の幅Lw と略同じ長さである。磁石64は磁石保持部材62とともに、ネジ部材66により第2の柱状部材14に一体的に固定される。ネジ部材66の頭部67には反射シート68が貼付される。これら磁石保持部材62、磁石64、ネジ部材66および反射シート68により、補助点部材35が構成される。
【0029】
無反射部材45は、電波が透過できる材料、例えば樹脂あるいはゴムから形成された円板72を備える。円板72の材料がゴムの場合、無反射部材45の落下による破損が防止される。円板72の一方の面には無反射シート74が貼付される。無反射部材45の直径はこの実施形態においては、補助点部材35、即ちネジ部材頭部67の直径の約7倍である。また、無反射部材45の厚みはネジ部材66の頭部67の厚みよりわずかに小さい。
【0030】
無反射部材45の中央には、ネジ部材66の頭部67と略同径の嵌合穴76が形成される。無反射部材45の無反射シート74が設けられていない面において、嵌合穴76の周囲には環状の鉄板78が埋込まれている。鉄板78の内径は嵌合穴76の直径と略等しく、その外径は磁石保持部材62の外径と略等しい。
【0031】
無反射部材45は補助点部材35に対して着脱自在である。ターゲット10の使用時には、ネジ部材66の頭部67と嵌合穴76とが嵌合させられ、このとき磁石64の磁力により鉄板78がネジ部材66の頭部67あるいは磁石保持部材62に密着固定される。図3から明らかなように、無反射部材45が補助点部材35に取付けられた状態において、反射シート68と無反射シート74とは略同一平面上にある。ターゲット10の非使用時には、人手により無反射部材45が補助点部材35から取外される。
【0032】
このように、無反射部材45を補助点部材35に対して着脱自在にすることにより、ターゲット10の携帯性が向上する。さらに、反射シート68の周囲に無反射シート74が設けられることにより、補助点部材35の領域が明確になり、夜間や雨によって周囲が暗い現場での撮影、あるいは道路面が反射しやすい現場での撮影等の撮影条件が悪い場合でも、撮影画像における補助点部材35の識別が容易になる。
【0033】
なお、補助点部材35と無反射部材45との直径の比率、即ち反射シート68および無反射シート74の領域の大きさは、特にこの実施形態に限定されず、ターゲット10の撮影画像において反射シート68が十分認識できる大きさであればよい。また補助点部材35および無反射部材45の形状も円形に限定されない。
【0034】
図5は、図1における制御部筐体20の近傍を拡大して示す平面図であり、一部破断して示す図である。図6は図5のXI−XI線における断面図であり、制御部筐体20の構成を簡略化して示す図である。
【0035】
制御部筐体20の端面20d側には電池収納室83が設けられる。電池収納室83には電源である電池87が収納され、ターゲット10に電力を供給している。電池収納室83は端面20d側に開口を有し、蓋部83aにより閉密される。制御部筐体20の端面20dにはスイッチ85が一体的に設けられ、このスイッチ85の手動操作により電源のオン、オフが切換えられる。電源がオンされると、傾斜角センサや方位センサ等(図示せず)の各種のセンサが作動し、ターゲット10の位置情報が得られる。
【0036】
制御部筐体20の上面20eは開口81を有しており、この開口81はカバー82により閉密される。カバー82は電波が透過可能な材料、例えば樹脂から形成される。
【0037】
このようなターゲット10が測量現場において所定の位置に配設された上で、カメラにより撮影される。
【0038】
次に、ターゲット10を用いた本実施形態のカメラ位置算出の手順について説明する。図7は、ターゲット10とカメラ100との位置関係を示す図である。ターゲット10は、カメラ100によってカメラ位置Mで撮影される。カメラ位置Mは、カメラ100の撮影レンズの後側主点位置として定義される。カメラ位置Mでの光軸は2点鎖線Oで示される。上述のようにターゲット10上には3個の基準点部材と3個の補助点部材が設けられるが、図の複雑化を避けるために頂点である3個の基準点部材のみを説明に用いる。図7において、基準点部材31、34および36によって決定される平面は基準平面とされ、基準点部材31と基準点部材34との間の距離、および基準点部材34と基準点部材36との間の距離が基準尺Lとして示される。
【0039】
尚、図7から明らかなように、カメラ100には読み出し可能な記録媒体であるICカード24が装着されている。ICカード24はカメラ100に対して着脱自在である。撮影された画像データはこのICカード24に記録される。画像データに基づく写真測量の実行は、ICカード24を後述する写真測量装置に装着し、ICカード24に記録された画像データを写真測量装置のメモリにロードした上で行なわれる。
【0040】
図8にはカメラ位置Mにおける撮影画像が示される。撮影画像には2次元直交座標系(Xp, Yp)が設定され、その座標原点は撮像中心CPとされる。図8から明らかなように、撮影画像では、基準点部材31、34および36の像点はそれぞれ座標P1(Xp1 ,Yp1 )、P2(Xp2 ,Yp2 )、P3(Xp3 ,Yp3 )で示される。尚、本明細書では撮影画像の2次元直交座標を「写真座標系」と呼ぶ。
【0041】
図9は、カメラ100による撮影画像と、ターゲット10との間の位置関係を相対的に示す図である。基準点部材31、34および36により規定される基準平面は、図中ハッチング領域で示される。図9において、カメラ位置Mの3次元直交座標は(Xc,Yc,Zc)で示される。その座標原点はカメラ位置Mにおけるカメラ100の撮影レンズの後側主点位置に一致し、またそのZc軸はカメラ位置Mにおける撮影レンズの光軸Oに一致する。また、Xc軸は図8に示す撮影画像の2次元直交座標系のXp軸と平行であり、Yc軸は同2次元直交座標系のYp軸と平行である。本明細書では、カメラ位置Mの3次元直交座標を「カメラ座標系」と呼ぶ。
【0042】
ここで、撮影画像に基づいてカメラ位置Mを特定するために、図10に示す右手系の3次元直交座標系(Xs,Ys,Zs)が適宜設定される。3次元直交座標系(Xs,Ys,Zs)の座標原点はターゲット10の基準点部材34に一致させられる。Zs軸は、基準点部材34から36へ向かう方向であり、基準点部材34を通り、Zs軸に直交し、かつ基準平面にある軸をXs軸とし、基準点部材34を通り、基準平面に直交する軸、すなわち紙面に直交する軸をYs軸とする。上述のようにターゲット10の基準点部材31と基準点部材34、および基準点部材34と基準点部材36との間の距離はLなので、基準点部材31、34および36の像点はそれぞれ座標Ps1(−L,0,0)、Ps2(0,0,0)、Ps3(0,0,L)で示される。本明細書ではこの3次元直交座標を「シーン座標系」と呼ぶ。
【0043】
カメラ位置Mは、シーン座標系とカメラ座標系の相対的な関係で示される。すなわち、シーン座標系の原点からのカメラ座標系の原点の移動距離と、Xs軸のXc軸回りの回転角と、Ys軸のYc軸回りの回転角、およびZs軸のZc軸回りの回転角で、カメラ位置Mは定義される。
【0044】
シーン座標系における基準点の座標値Psi(Psxi,Psyi,Pszi)(i=1、2、3)と、カメラ座標系における基準点Piの座標値Pci(Pcxi,Pcyi,Pczi)(i=1、2、3)との関係は(1)式で示される。
【0045】
【数1】
【0046】
(1)式において、αはXs軸のXc軸回りの回転角、βはYs軸のYc軸回りの回転角、γはZs軸のZc軸回りの回転角であり、Rはα、β、γの回転行列、Δはシーン座標からカメラ座標へのベクトルである。
【0047】
また、カメラ座標系における基準点の座標値Pci(Pcxi,Pcyi,Pczi)(i=1、2、3)と、写真座標系における基準点の座標値Di(Dxi、Dyi)(i=1、2、3)との関係は式(2)で表わされる。尚、(2)式における「f」はカメラ100の撮影レンズの焦点距離である。
【0048】
【数2】
【0049】
以上のように、上述の(1)式および(2)式により、基準点のシーン座標系における座標値から、写真座標系における座標値が算出される。一方、写真座標系における基準点の座標値は、後述するように撮影画像より自動抽出される。従って、(1)式および(2)式から算出した基準点の座標値と、撮影画像から自動抽出した座標値とを比較することにより、カメラ位置を定義するΔX、ΔY、ΔZ、α、β、γの値を算出することができる。
【0050】
図17は、ICカード24に格納された画像データに基づいて写真測量が行なわれる写真測量装置の座標算出システムのブロック図である。図17に示すように、座標算出システムはコンピュータ184を備えるコンピュータシステムで構成される。コンピュータ184は、中央演算処理装置(CPU)184A、オペレーティングシステム、常数等が格納された読出し専用メモリ(ROM)184B、データ等を一時的に格納する書込み/読出し自在なメモリ(RAM)184C、CPU184Aで実行された演算結果を格納するためのハードディスク184D、入出力インターフェース(I/O)184Eを有する。
【0051】
コンピュータシステムはまた、I/O184Eを介してコンピュータ184に接続されるICカードリーダ186を備える。ICカードリーダ186はICメモリカード24が装着されるスロットを備えており、1フレーム分のデジタル画像や他のデータを読み込むためのICカードドライバ188を有する。
【0052】
また、コンピュータシステムは、I/O184Eを介してコンピュータ184に接続されるCD−ROMリーダ197を備える。CD−ROMリーダ197は、CD−ROM198を装着するためのトレーを備えており、CD−ROMドライブユニット199を有する。後述するターゲットの基準点やカメラ位置の算出プログラムは、CD−ROM198に格納されている。この算出プログラムはCD−ROM198から読み出され、ハードディスク184Dに記憶される。
【0053】
さらに、コンピュータシステムは、ICメモリカード24から読み出された1フレーム分のデジタル画像データに基づく撮影画像の再生や、コンピュータ184により作成される測量図の再生を行なうためのモニタ190、種々のコマンド信号やデータをコンピュータ184に入力するためのキーボード192、モニタ190に表示されるカーソルを操作するためのマウス194、必要に応じて測量図を印刷するためのプリンタ196を備える。
【0054】
図11は、上述のCPU184Aにより実行される、本実施形態のカメラ位置算出の手順を示すフローチャートである。ステップS1000において、上述のターゲット10を設置して撮影した測量現場のデジタル画像が本実施形態の写真測量装置にロードされ、次いでステップS1002でグレースケール処理が行なわれる。グレースケール処理とは、カラー画像から色成分を除去し、輝度情報のみを抽出する処理である。デジタル画像を構成する全ての画素毎に256階調の輝度情報が抽出され、配列形式の変数Imgに格納される。すなわち、各画素の輝度情報はImg(j,k)で表わされる。jおよびkは画素のデジタル画像における2次元座標値(写真座標系の座標値)である。
【0055】
ステップS1004で各画素毎に抽出された輝度情報の2値化処理が行なわれる。変数Imgに格納された輝度情報を所定の閾値を比較し、その輝度情報が高く閾値を超えていれば「1」、輝度情報が低く閾値以下であれば「0」をImgと同様の配列形式の変数Binに格納する。すなわち、各画素の輝度情報を2値化したデータはBin(j,k)で表わされる。上述のように、本実施形態で用いられるターゲット10の基準点部材31、34、36、補助点部材32、33、35には反射シートが貼付され、その周りには、黒色の無反射部材41、42、43、44、45、46が設けられている。従って、基準点部材31、34、36および補助点部材32、33、35に対応する画素の2値化データは「1」となり、周囲の無反射部材41、42、43、44、45、46に対応する画素の2値化データは「0」となる。
【0056】
次いで、ステップS1006でラベリングが行なわれる。ラベリングとは、2値化データが「1」である画素が連続している部分を1つのグループとして抽出する処理であり、デジタル画像において輝度情報の高い領域が抽出される。各グループ毎に、そのグループを構成する画素の数およびそれぞれの2次元座標値が所定の変数に格納される。
【0057】
次いで、ステップS1008で各グループの面積、すなわち画素数が算出され、ステップS1010で、各グループの画素数に基づいて、そのグループが基準点部材若しくは補助点部材に相当するか否かを判別する。具体的には、画素数が下限値Th1と上限値Th2の範囲内にあるか否かをチェックする。下限値Th1および上限値Th2は、それにより規定される画素数の範囲が、デジタル画像内の基準点部材、補助点部材に相当するグループの画素数を十分に含み、かつ最小の範囲となるよう設定されている。従ってステップS1010の処理により、デジタル画像のノイズに相当する画素数が1、2個程度のグループや、測量現場の道路上においてペンキが塗布されたような、広範囲にわたって高い輝度情報を有する領域に相当するグループが除去される。
【0058】
次いでステップ1012において、各グループの輝度情報を考慮した重心の算出が行われる。図12は、重心算出の処理手順を示すフローチャートである。ステップS1022で変数SumX、SumY、SumImgが初期化される。変数SumXには、グループを構成する各画素の輝度情報とx座標値との積が累積して格納され、変数SumYには、グループを構成する各画素の輝度情報とy座標値との積が累積して格納される。また、変数SumImgは、グループを構成する各画素の輝度情報を加算した総和が格納される。
【0059】
ステップS1026で、画素の輝度情報(Img(j,k))と画素のx座標値(j)の積が算出され、その時点で変数SumXに格納されている値に加算した上で変数SumXに格納される。次いでステップS1028で、画素の輝度情報と画素のy座標値(k)の積が算出され、その時点で変数SumYに格納されている値に加算した上で変数SumYに格納される。さらに、ステップS1030で、画素の輝度情報がその時点で変数SumImgに格納されている値に加算され、変数SumImgに格納される。以上のステップS1026〜S1030の処理が、グループを構成する全ての画素に対して繰り返される。
【0060】
すなわち、変数SumXには、各画素の輝度情報をx方向の座標値に基づいて重み付けをした値の総和が格納され、変数SumYには、各画素の輝度情報をy方向の座標値に基づいて重み付けをした値の総和が格納される。また、変数SumImgには、各画素の輝度情報の総和が格納される。
【0061】
ステップS1032でグループを構成する全ての画素に対して、上述の輝度情報の累積演算処理が行われたか否かがチェックされる。グループを構成する全ての画素についてステップS1026〜S1030の処理が行われたら、ステップS1034へ進む。ステップS1034では、各画素の輝度情報をx方向の座標値に基づいて重み付けをした値の総和を、各画素の輝度情報の総和により除算する処理が行なわれ、グループの重心のx座標値が算出される。ステップS1036では、各画素の輝度情報をy方向の座標値に基づいて重み付けをした値の総和を、各画素の輝度情報の総和により除算する処理が行なわれ、グループの重心のy座標値が算出される。
【0062】
次いで、ステップS1038において、撮影画像内の全てのグループについて輝度情報を考慮した重心の座標の算出が行われたか否かがチェックされる。全てのグループについての重心の座標の算出処理が終了していない場合は、ステップS1020〜S1036までの処理が繰り返される。全てのグループについての重心の座標の算出処理が終了したら、図11のステップS1014へ進む。
【0063】
図13は、各グループの重心座標の算出が行なわれた後の撮影画像の各画素の状態を模式的に示す図であり、輝度情報の低い画素には斜線を付してある。図13に示すように、グループG1〜G13が抽出されており、それぞれの重心はGC1〜GC13である。
【0064】
ステップS1014では、ターゲット10の基準点部材31、34、36、補助点部材32、33、35の相対関係を満たす、グループの組み合わせを抽出する。図14はグループの組み合わせ抽出処理の前半を示すフローチャート、図15は後半を示すフローチャートである。以降、グループの組合せ抽出処理の手順を図13を参照しながら説明する。
【0065】
ステップS1040で画像内のグループから任意の2グループを選択され、ステップS1042で、選択した2グループの重心を含む直線が算出される。次いでステップS1044で直線上において、選択した2グループの重心の間に重心を有するグループが検出される。
【0066】
ステップS1046において、ステップS1044で検出されたグループの数がチェックされる。直線上に重心を有するグループがステップS1040で選択された2グループを含めて4つの場合はステップS1048へ進み、3つの場合はステップS1050へ進み、その他の場合はステップS1052へ進む。
【0067】
例えば、グループG1とグループG2が選択された場合、それぞれの重心GC1、GC2を含む直線上には他のグループの重心が存在しないため、処理はステップS1052へ進む。グループG3とグループG6が選択された場合、若しくはグループG10とグループ13が選択された場合、重心GC3、GC6を含む直線上にはグループG4の重心GC4とグループG5の重心GC5の2つの重心が存在し、重心GC10、GC13を含む直線上にはグループG11の重心GC11とグループG12の重心GC12の2つの重心が存在する。従って処理はステップS1048へ進む。グループG1とグループG3が選択された場合、若しくはグループG7とグループG9が選択された場合、重心GC1、GC3を含む直線上にはグループG2の重心GC2が1つ存在し、重心GC7、GC9を含む直線上には、グループG8の重心GC8が1つ存在する。従って処理はステップS1050へ進む。
【0068】
ステップS1048では、4つのグループが同一直線上に並列する4点列として登録され、ステップS1050では、3つのグループが同一直線上に並列する3点列として登録される。例えば図13の各グループは、グループG1、G2、G3と、グループG6、G7、G8がそれぞれ3点列として登録され、グループG4、G5、G6、G7と、グループG10、G11、G12、G13がそれぞれ4点列として登録される。
【0069】
ステップS1052では、2グループの全ての組合せについて処理が行なわれたか否かがチェックされ、全ての組合せについて処理が終了していない場合はステップS1040〜S1050の処理が繰り返される。2グループの全ての組合せについて処理が終了したら、図15のステップS1054へ進む。
【0070】
ステップS1054では、それぞれ同一直線上にある3点列と4点列が1つづつ選択され、それぞれの端点に相当するグループの重心が一致するか否かがチェックされる。それぞれの端点に相当するグループの重心が一致する場合ステップS1058へ進み、端点に相当するグループの重心が一致しない場合、ステップS1054へ戻り、他の組合せの3点列と4点列が選択される。図13において、グループG3は、グループG1、G2、G3の3点列の端点であり、かつグループG3、G4、G5、G6の4点列の端点である。従って、3点列と4点列の組合せとして、グループG1、G2、G3と、グループG3、G4、G5、G6が選択される。
【0071】
ステップS1058では、4点列を構成するグループのうち、3点列の端点と一致する端点と反対側の端点に相当するグループの重心の座標が、基準点部材31の座標を示す変数A1(Ax1 、Ay1 )に格納され、3点列と4点列の一致する端点に相当するグループの重心の座標が基準点部材34の座標を示す変数A2(Ax2 、Ay2 )に格納され、3点列を構成するグループのうち、4点列の端点と一致する端点と反対側の端点に相当するグループの重心の座標が、基準点部材36の座標を示す変数A3(Ax3 、Ay3 )に格納される。すなわち、図13の重心GC6の座標が変数A1に格納され、重心GC3が変数A2に格納され、重心GC1が変数A3に格納される。
【0072】
次いでステップS1060において、変数A2から変数A1へ向かうベクトルに対する、変数A2から変数A3へ向かうベクトルの成す角度がチェックされる。変数A2から変数A1へ向かうベクトルに対する、変数A2から変数A3へ向かうベクトルの成す反時計回りの角度θが、下限値Th3より大きくかつ上限値Th4より小さいか否かがチェックされる。本実施形態では、下限値Th3は0度、上限値Th4は180度に設定されている。ステップS1060の条件を満たす場合、選択された3点列と4点列の組合せがターゲット10の3つの基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす組合せであるので、グループの組み合わせ抽出処理を終了し、図11のステップS1016へ進む。
【0073】
角度θが下限値Th3と上限値Th4の範囲内にない場合、ステップS1062へ進み、3点列と4点列の全ての組合せについて処理が行なわれたか否かがチェックされる。ステップS1056〜S1060までの処理が行なわれていない3点列と4点列の組合せが存在する場合は、ステップS1054へ戻り、ステップS1060までの処理を繰り返す。
【0074】
すなわち、基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす3点列と4点列の組合せが検出されるまでステップS1054〜S1062の処理が繰り返される。基準点部材と補助点部材の相対的関係を満たす3点列と4点列の組合せが検出されたら、他の3点列と4点列の他の組合せの処理は行なわずに処理を終了する。
【0075】
図13の3点列と4点列の組合せ、グループG1、G2、G3と、グループG3、G4、G5、G6に関して、変数A2から変数A1へ向かうベクトルに対する変数A2から変数A3へ向かうベクトルの反時計回りの角度は、図13から明らかなように、下限値Th3と上限値Th4の範囲内にある。従って、グループG1、G2、G3と、グループG3、G4、G5、G6は、基準点部材31、34、36、補助点部材32、33、35の相対的関係を満たす3点列と4点列の組合せとして検出される。
【0076】
ステップS1016において、カメラ位置の算出処理が行われる。図16は、カメラ位置算出の処理手順を示すフローチャートである。ステップS1070で、上述の(1)式の変数ΔX、ΔY、ΔZ、α、β、γを初期化する。次いで、ステップS1072で、(1)式のPs1、Ps2、Ps3にそれぞれ(−L,0,0)、(0,0,0)、(0,0,L)を代入し、かつ変数ΔX、ΔY、ΔZ、α、β、γに適当な値を代入し、カメラ座標系における基準点部材31、34、36の各座標値Pc1(Pcx1 、Pcy1 、Pcz1 )、Pc2(Pcx2 、Pcy2 、Pcz2 )、Pc3(Pcx3 、Pcy3 、Pcz3 )を算出する。
【0077】
ステップS1074で、上述の(2)式にPc1、Pc2、Pc3の各座標値を代入し、写真座標系における基準点部材31、34、36の各座標値D1(Dx1 、Dy1 )、D2(Dx2 、Dy2 )、D3(Dx3 、Dy3 )を算出する。
【0078】
ステップS1076において、撮影画像から自動抽出した基準点部材31、34、36の写真座標系における各座標値A1、A2、A3と、上述の(1)式および(2)式を用いて算出した座標値D1、D2、D3とを比較する。すなわち、各基準点部材の座標値D1、D2、D3とA1、A2、A3との差分の絶対値をそれぞれ算出し、その合計値Sを算出する。
【0079】
ステップS1078で、合計値Sが最小であるか否かを確認し、最小でない場合は、変数ΔX、ΔY、ΔZ、α、β、γの値を変えてステップS1072からS1076の処理を繰り返す。すなわち、合計値Sが最小となる変数ΔX、ΔY、ΔZ、α、β、γを最小二乗法により算出する。
【0080】
ステップS1078で合計値Sが最小であることが確認されたら、ステップS1080において合計値Sが最小となった場合の変数ΔX、ΔY、ΔZ、α、β、γの値をカメラ位置Mを示すパラメータとして登録し、カメラ位置算出処理を終了する。
【0081】
以上のように本実施形態によれば、ターゲット10において基準点部材31、34の間に設けられた補助点部材と、基準点部材34、36の間に設けられた補助点部材の数が異なり、かつ各基準点部材および各補助点部材に反射シートが貼付されているため、撮影画像内において輝度情報により各基準点部材、補助点部材の位置を特定することが容易である。従って、撮影画像内における基準点部材31、34、36の座標値が自動的に抽出される。
【0082】
また、本実施形態によれば、ターゲット10の基準点部材31、34の間の長さと基準点部材34、36の間の長さ、および第1の柱状部材12と第2の柱状部材14の角度が既知であるため、シーン座標系における各基準点部材の座標値が所定の値に定まっており、その座標値に基づいて写真座標系における各基準点部材の座標値を算出できる。従って、撮影画像内で自動抽出した基準点部材の座標値と比較することにより、カメラ位置を自動算出することができる。
【0083】
尚、図11、12、14、15、16に示すフローチャートの処理は、測量現場のデジタル画像をモニタに表示し、モニタ上でターゲットの基準点及び任意の測量点を指定し、所定の測量演算等が実行される写真測量システムにおいて、ターゲットの基準点の2次元座標の算出及びカメラ位置の算出を実行する部分である。即ち、本実施形態によれば、モニタに表示されたデジタル画像内のターゲットの基準点をマウスにより指定するという作業が省略されると共に、担当者の熟練度に左右されない正確なカメラ位置のデータが常時得られ、写真測量システムにおける以降の処理段階において精度の高い演算処理が実行される。
【0084】
【発明の効果】
以上のように、本発明によれば、写真測量においてカメラ位置を自動的に算出することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に適用される写真測量用ターゲットを示す平面図である。
【図2】図1に示す写真測量用ターゲットの側面図である。
【図3】図1のVIII−VIII線断面におけるターゲットの断面図である。
【図4】図1に示すターゲットの無反射部材の第2の柱状部材側の面を示す平面図である。
【図5】図1に示すターゲットの制御部筐体の近傍を拡大して示す平面図であり、一部破断して示す図である。
【図6】図5のXI−XI線における断面図であり、制御部筐体の構成を簡略化して示す図である。
【図7】本発明の実施形態である写真測量用ターゲットとカメラとの位置関係を示す斜視図である。
【図8】図7のカメラで撮影した画像を模式的に示す図である。
【図9】基準点部材と、その像点と、カメラの撮影レンズの後側主点位置との位置関係を3次元座標で示す図である。
【図10】シーン座標系とカメラ座標系を相対的に示す図である。
【図11】本発明の実施形態のカメラ自動算出処理の手順を示すフローチャートである。
【図12】撮影画像内で高い輝度情報を有するグループの重心を算出する手順を示すフローチャートである。
【図13】グループの重心座標の算出が行なわれた後の撮影画像の各画素の状態を模式的に示す図である。
【図14】グループの組み合わせ抽出処理の前半を示すフローチャートである。
【図15】グループの組み合わせ抽出処理の後半を示すフローチャートである。
【図16】カメラ位置算出の処理手順を示すフローチャートである。
【図17】写真測量装置の座標算出システムのブロック図である。
【符号の説明】
10 ターゲット
12 第1の柱状部材
14 第2の柱状部材
15 ヒンジ
16 ステー
20 制御部筐体
24 ICカード
31、34、36 基準点部材
32、33、35 補助点部材
41、42、43、44、45、46 無反射部材
92 ステー用ヒンジ
94 ロックヒンジ
184 コンピュータ
186 ICカードリーダ
188 ICカードドライバ
197 CD−ROMリーダ
198 CD−ROM
199 CD−ROMドライブユニット
190 モニタ
192 キーボード
194 マウス
196 プリンタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to calculation of a camera position in photogrammetry.
[0002]
[Prior art]
Conventionally, in photogrammetry such as traffic accident investigation, survey by stereo photography is known. In surveying by stereo photography, the site is photographed simultaneously by two cameras at a predetermined distance, and the stereo image obtained as a result is stereoscopically viewed with an optical machine as a point in the three-dimensional image. The coordinates of each survey point are calculated. In order to calculate the survey point, information on the position of the two cameras that have captured the captured image, that is, information on the distance from the camera to the subject, the angle of the camera with respect to the subject, and the like is necessary. Therefore, the person in charge must always measure and record the position information of the camera at the shooting site.
[0003]
However, it is cumbersome to measure the distance and angle of the camera with respect to the subject every time it is taken, and it takes time and effort. Therefore, it is always necessary to obtain accurate camera position information in accident investigations where quick processing is required. It was difficult. In addition, operations such as stereoscopic viewing of stereo images with optical machines and designation of points in the three-dimensional image depend on the skill level of the person in charge, so in terms of survey work efficiency and survey accuracy There was also a problem.
[0004]
In order to solve such a problem, a photogrammetry system using a target having three reference point members has been proposed. A plurality of photographs are taken at different camera positions and angles with the above-mentioned target installed at the surveying site, and stored as digital images in a computer memory. A suitable pair of digital images is selected from a plurality of digital images and displayed on a monitor connected to a computer, and a target reference point member is designated in each image using a mouse or the like connected to the computer. To do. Camera position data is calculated based on the coordinate values of the designated reference point member. Furthermore, an arbitrary survey point in the image on the monitor is designated, and an appropriate calculation process is executed based on the coordinate value of the designated survey point and the camera position data, and a white map of the survey site is created and displayed on the monitor. .
[0005]
[Problems to be solved by the invention]
However, the operation of operating the mouse while designating the digital image displayed on the monitor and designating the reference point member largely depends on the operation technique of the operator. In addition, depending on the situation of the surveying site, there are cases where a large number of photographs are taken, and designation of a reference point member with a mouse imposes a great deal of labor on the operator. That is, the designation of the reference point member is not always accurately performed. When the reference point member is not specified correctly, the camera position data with high accuracy is not calculated. As a result, the calculation processing based on the camera position data is affected, and the white map is not created with high accuracy. .
[0006]
The present invention solves the above-described problems, and an object thereof is to provide a photogrammetry apparatus that automatically calculates a camera position from a captured image.
[0007]
[Means for Solving the Problems]
In the photogrammetric target reference point calculation apparatus according to the present invention, first, second, and third reference points whose distances are known are provided, and the first reference point and the second reference point are determined. The first straight line that connects, the second straight line that connects the second reference point, and the third reference point have a predetermined angle, and there are different auxiliary points on the first straight line and the second straight line, respectively. An image acquisition means for photographing a surveying object with a camera together with a photogrammetry target, and the number of auxiliary points on the first straight line and a second straight line in a photographed image obtained by the image acquisition means By comparing the number of auxiliary points, the positions of the first reference point, the second reference point, and the third reference point in the captured image are specified, and the photographic coordinates that are two-dimensional orthogonal coordinates in the captured image Secondary to obtain the coordinate values of the first reference point, the second reference point, and the third reference point in the system Characterized by comprising a coordinate acquisition unit.
[0008]
Preferably, in the photogrammetry target, the first reference point, the second reference point, the third reference point, and the auxiliary point have reflection information that is relatively higher than other subjects in the captured image. The two-dimensional coordinate acquisition means compares the luminance information of each pixel constituting the captured image with a predetermined threshold value, and each pixel has two types of pixels having high luminance information and pixels having low luminance information. Binarization processing means, group extraction means for extracting a group in which a plurality of pixels having high luminance information in a captured image are consecutive within a predetermined range, luminance information and photographic coordinate system of each pixel constituting the group Group center-of-gravity coordinate value calculating means for calculating the coordinate value of the center of gravity of the group based on the coordinate value at, a first reference point, a second reference point, and a first reference point in the captured image A first point sequence extracting means for extracting a first point sequence in which the same number of centroids as the total number of auxiliary points on the line are arranged on the same line; and a second reference point and a third in the photographed image. A second point sequence extracting means for extracting a second point sequence in which the same number of centroids as the total number of reference points and the number of auxiliary points on the second straight line are arranged on the same straight line; A selection unit that selects a combination of the first point sequence and the second point sequence sharing the center of gravity of one end, and a second point selected by the selection unit in the first point sequence selected by the selection unit The center of gravity corresponding to the end opposite to the center of gravity shared with the point sequence is identified as the first reference point, and the center of gravity shared by the first point sequence and the second point sequence selected by the selection means is the second. A first point sequence selected by the selection unit in the second point sequence selected by the selection unit The center of gravity corresponding to the end portion of the center of gravity and the opposite with and a third reference point specifying means for specifying the reference point.
[0009]
In the photogrammetry target, for example, two auxiliary points are provided on the first straight line, one auxiliary point is provided on the second straight line, and the first point sequence is on the same straight line in the photographed image. And the second point sequence is a three-point sequence in which three centroids are arranged on the same straight line.
[0010]
In addition, in the method for calculating the reference point of the photogrammetric target according to the present invention, the first reference point and the second reference point are provided with first, second, and third reference points whose distances are known. The first straight line that connects the second reference point and the second straight line that connects the second reference point and the third reference point have a predetermined angle, and the number of assists on the first straight line and the second straight line are different. A first step of photographing a surveying object with a camera together with a photogrammetric target provided with a point, and the number of auxiliary points on the first straight line and a second straight line in a photographed image photographed by the camera Based on the difference from the number of auxiliary points, the first reference point, the second reference point, and the third reference point are specified, and the first reference point in the photographic coordinate system that is a two-dimensional orthogonal coordinate in the photographed image. And a second step of acquiring coordinate values of the reference point, the second reference point, and the third reference point. To.
[0011]
The recording medium storing the reference point calculation program for the photogrammetric target according to the present invention is provided with first, second and third reference points whose distances are known, and the first reference point is provided. The first straight line connecting the point and the second reference point and the second straight line connecting the second reference point and the third reference point have a predetermined angle, and the first straight line and the second straight line The number of auxiliary points on the first straight line and the auxiliary points on the second straight line in the photographed image obtained by photographing the surveying object with the photogrammetry target on which the different number of auxiliary points are provided. The first reference point, the second reference point, and the third reference point are identified based on the difference in the number of the first reference point, the first reference point in the photographic coordinate system that is a two-dimensional orthogonal coordinate in the photographed image, the first reference point, A two-dimensional coordinate acquisition routine for acquiring the coordinate values of the second reference point and the third reference point is provided. To.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a partially broken view of a photogrammetry target applied to an embodiment according to the present invention. FIG. 2 shows a side view of the photogrammetric target. The
[0013]
A rectangular parallelepiped
[0014]
One
[0015]
The angle α formed by the
[0016]
The
[0017]
Three
[0018]
Each
[0019]
The
[0020]
The
[0021]
As is apparent from FIG. 1, the number of auxiliary point members is different on two sides having the same length of an isosceles triangle, so that the orientation of the
[0022]
The reference plane defined by the
[0023]
For this reason, the middle of the
[0024]
Further, a sheet-like elastic member 19 (see FIG. 5) is provided in the gap between the
[0025]
Reflective sheets are affixed to the
[0026]
The
[0027]
The configuration of the
[0028]
A
[0029]
The
[0030]
A
[0031]
The
[0032]
Thus, by making the
[0033]
In addition, the ratio of the diameter of the
[0034]
FIG. 5 is an enlarged plan view showing the vicinity of the
[0035]
A
[0036]
The
[0037]
Such a
[0038]
Next, a procedure for calculating the camera position of the present embodiment using the
[0039]
As is apparent from FIG. 7, the
[0040]
FIG. 8 shows a captured image at the camera position M. The photographed image has a two-dimensional orthogonal coordinate system (Xp , Yp) is set, and the coordinate origin is set as the imaging center CP. As is clear from FIG. 8, in the captured image, the image points of the
[0041]
FIG. 9 is a diagram relatively showing a positional relationship between an image captured by the
[0042]
Here, in order to specify the camera position M based on the captured image, a right-handed three-dimensional orthogonal coordinate system (Xs, Ys, Zs) shown in FIG. 10 is appropriately set. The coordinate origin of the three-dimensional orthogonal coordinate system (Xs, Ys, Zs) is made to coincide with the
[0043]
The camera position M is indicated by the relative relationship between the scene coordinate system and the camera coordinate system. That is, the movement distance of the origin of the camera coordinate system from the origin of the scene coordinate system, the rotation angle of the Xs axis around the Xc axis, the rotation angle of the Ys axis around the Yc axis, and the rotation angle of the Zs axis around the Zc axis Thus, the camera position M is defined.
[0044]
The coordinate value Psi (Psxi, Psyi, Pszi) (i = 1, 2, 3) of the reference point in the scene coordinate system and the coordinate value Pci (Pcxi, Pcyi, Pczi) (i = 1) of the reference point Pi in the camera coordinate
[0045]
[Expression 1]
[0046]
In equation (1), α is the rotation angle of the Xs axis around the Xc axis, β is the rotation angle of the Ys axis around the Yc axis, γ is the rotation angle of the Zs axis around the Zc axis, and R is α, β, A rotation matrix of γ, Δ is a vector from scene coordinates to camera coordinates.
[0047]
Further, the coordinate value Pci (Pcxi, Pcyi, Pczi) (i = 1, 2, 3) of the reference point in the camera coordinate system and the coordinate value Di (Dxi, Dyi) (i = 1, of the reference point in the photographic coordinate system). The relationship with (2, 3) is expressed by equation (2). Note that “f” in equation (2) is the focal length of the taking lens of the
[0048]
[Expression 2]
[0049]
As described above, the coordinate value in the photographic coordinate system is calculated from the coordinate value in the scene coordinate system of the reference point by the above-described equations (1) and (2). On the other hand, the coordinate value of the reference point in the photographic coordinate system is automatically extracted from the captured image as will be described later. Accordingly, by comparing the coordinate value of the reference point calculated from the equations (1) and (2) with the coordinate value automatically extracted from the photographed image, ΔX, ΔY, ΔZ, α, β defining the camera position. , Γ can be calculated.
[0050]
FIG. 17 is a block diagram of a coordinate calculation system of a photogrammetry apparatus in which photogrammetry is performed based on image data stored in the
[0051]
The computer system also includes an
[0052]
The computer system also includes a CD-
[0053]
Further, the computer system can reproduce a captured image based on one frame of digital image data read from the
[0054]
FIG. 11 is a flowchart showing the procedure for calculating the camera position of the present embodiment, which is executed by the
[0055]
In step S1004, the luminance information extracted for each pixel is binarized. The luminance information stored in the variable Img is compared with a predetermined threshold, and if the luminance information is high and exceeds the threshold, “1” is set, and if the luminance information is low and below the threshold, “0” is set in the same arrangement format as Img. Stored in the variable Bin. That is, data obtained by binarizing the luminance information of each pixel is represented by Bin (j, k). As described above, the reflection sheet is affixed to the
[0056]
Next, labeling is performed in step S1006. Labeling is a process of extracting, as a group, a portion in which pixels having binarized data “1” are continuous, and a region having high luminance information is extracted from a digital image. For each group, the number of pixels constituting the group and the respective two-dimensional coordinate values are stored in a predetermined variable.
[0057]
Next, in step S1008, the area of each group, that is, the number of pixels is calculated. In step S1010, it is determined whether or not the group corresponds to a reference point member or an auxiliary point member based on the number of pixels in each group. Specifically, it is checked whether or not the number of pixels is within the range between the lower limit value Th1 and the upper limit value Th2. The lower limit value Th1 and the upper limit value Th2 are such that the range of the number of pixels defined thereby sufficiently includes the number of pixels of the group corresponding to the reference point member and auxiliary point member in the digital image, and is the minimum range. Is set. Accordingly, the processing in step S1010 corresponds to a group having about 1 or 2 pixels corresponding to the noise of the digital image, or a region having high luminance information over a wide area such as paint applied on the road of the surveying site. Group to be removed.
[0058]
Next, in step 1012, the center of gravity is calculated in consideration of the luminance information of each group. FIG. 12 is a flowchart illustrating a processing procedure for calculating the center of gravity. In step S1022, variables SumX, SumY, and SumImg are initialized. The variable SumX stores the product of the luminance information of each pixel constituting the group and the x coordinate value, and the variable SumY stores the product of the luminance information of each pixel constituting the group and the y coordinate value. Accumulated and stored. In addition, the variable SumImg stores the sum obtained by adding the luminance information of each pixel constituting the group.
[0059]
In step S1026, the product of the luminance information (Img (j, k)) of the pixel and the x coordinate value (j) of the pixel is calculated, added to the value stored in the variable SumX at that time, and then added to the variable SumX. Stored. Next, in step S1028, the product of the luminance information of the pixel and the y coordinate value (k) of the pixel is calculated, added to the value stored in the variable SumY at that time, and stored in the variable SumY. In step S1030, the luminance information of the pixel is added to the value stored in the variable SumImg at that time, and stored in the variable SumImg. The processes in steps S1026 to S1030 described above are repeated for all the pixels constituting the group.
[0060]
That is, the variable SumX stores the sum of values obtained by weighting the luminance information of each pixel based on the coordinate value in the x direction, and the variable SumY stores the luminance information of each pixel based on the coordinate value in the y direction. Stores the sum of weighted values. The variable SumImg stores the sum of luminance information of each pixel.
[0061]
In
[0062]
Next, in step S1038, it is checked whether or not the coordinates of the center of gravity in consideration of the luminance information have been calculated for all groups in the captured image. If the calculation processing of the center-of-gravity coordinates for all the groups has not been completed, the processing from step S1020 to S1036 is repeated. When the calculation process of the coordinates of the center of gravity for all the groups is completed, the process proceeds to step S1014 in FIG.
[0063]
FIG. 13 is a diagram schematically showing the state of each pixel of the captured image after the calculation of the barycentric coordinates of each group. Pixels with low luminance information are hatched. As illustrated in FIG. 13, groups G1 to G13 are extracted, and the respective centers of gravity are GC1 to GC13.
[0064]
In step S1014, a group combination that satisfies the relative relationship between the
[0065]
In step S1040, two arbitrary groups are selected from the groups in the image. In step S1042, a straight line including the center of gravity of the selected two groups is calculated. Next, in step S1044, a group having a centroid between the centroids of the two selected groups is detected on the straight line.
[0066]
In step S1046, the number of groups detected in step S1044 is checked. If there are four groups having the center of gravity on the straight line including the two groups selected in step S1040, the process proceeds to step S1048. If three groups, the process proceeds to step S1050. Otherwise, the process proceeds to step S1052.
[0067]
For example, when the group G1 and the group G2 are selected, since the centroids of other groups do not exist on the straight line including the centroids GC1 and GC2, the process proceeds to step S1052. When the group G3 and the group G6 are selected, or when the group G10 and the group 13 are selected, two centroids of the centroid GC4 of the group G4 and the centroid GC5 of the group G5 exist on the straight line including the centroids GC3 and GC6. On the straight line including the centroids GC10 and GC13, there are two centroids, the centroid GC11 of the group G11 and the centroid GC12 of the group G12. Accordingly, the process proceeds to step S1048. When the group G1 and the group G3 are selected, or when the group G7 and the group G9 are selected, one centroid GC2 of the group G2 exists on the straight line including the centroids GC1 and GC3, and includes the centroids GC7 and GC9. There is one center of gravity GC8 of the group G8 on the straight line. Accordingly, the process proceeds to step S1050.
[0068]
In step S1048, the four groups are registered as a four-point sequence parallel on the same straight line, and in step S1050, the three groups are registered as a three-point sequence parallel on the same straight line. For example, in each group in FIG. 13, groups G1, G2, and G3, and groups G6, G7, and G8 are registered as a three-point sequence, and groups G4, G5, G6, and G7, and groups G10, G11, G12, and G13 are registered. Each is registered as a 4-point sequence.
[0069]
In step S1052, it is checked whether or not processing has been performed for all combinations of the two groups. If processing has not been completed for all combinations, the processing in steps S1040 to S1050 is repeated. When the processing is completed for all combinations of the two groups, the process proceeds to step S1054 in FIG.
[0070]
In step S1054, a three-point sequence and a four-point sequence that are on the same straight line are selected one by one, and it is checked whether the centroids of the groups corresponding to the respective end points match. If the centroids of the groups corresponding to the respective end points match, the process proceeds to step S1058. If the centroids of the groups corresponding to the end points do not match, the process returns to step S1054 to select another combination of the three-point string and the four-point string. . In FIG. 13, a group G3 is an end point of a three-point sequence of groups G1, G2, and G3, and an end point of a 4-point sequence of groups G3, G4, G5, and G6. Therefore, groups G1, G2, and G3 and groups G3, G4, G5, and G6 are selected as combinations of the three-point string and the four-point string.
[0071]
In step S1058, the coordinates of the center of gravity of the group corresponding to the end point opposite to the end point that coincides with the end point of the three-point sequence among the groups constituting the 4-point sequence are the variables A1 (Ax) indicating the coordinates of the
[0072]
Next, in step S1060, the angle formed by the vector from variable A2 to variable A3 with respect to the vector from variable A2 to variable A1 is checked. It is checked whether the counterclockwise angle θ formed by the vector from the variable A2 to the variable A3 with respect to the vector from the variable A2 to the variable A1 is larger than the lower limit value Th3 and smaller than the upper limit value Th4. In the present embodiment, the lower limit value Th3 is set to 0 degrees, and the upper limit value Th4 is set to 180 degrees. If the condition of step S1060 is satisfied, the combination of the selected 3-point sequence and 4-point sequence satisfies the relative relationship of the three
[0073]
If the angle θ is not within the range between the lower limit value Th3 and the upper limit value Th4, the process proceeds to step S1062, and it is checked whether or not processing has been performed for all combinations of the three-point string and the four-point string. If there is a combination of a three-point sequence and a four-point sequence for which the processing from steps S1056 to S1060 has not been performed, the process returns to step S1054 and the processing up to step S1060 is repeated.
[0074]
That is, the processes of steps S1054 to S1062 are repeated until a combination of a three-point string and a four-point string satisfying the relative relationship between the
[0075]
The combination of the three-point sequence and the four-point sequence in FIG. 13, the groups G1, G2, G3, and the groups G3, G4, G5, G6, the inverse of the vector from the variable A2 to the variable A3 with respect to the vector from the variable A2 to the variable A1 As is apparent from FIG. 13, the clockwise angle is within the range between the lower limit value Th3 and the upper limit value Th4. Accordingly, the groups G1, G2, and G3 and the groups G3, G4, G5, and G6 are a three-point row and a four-point row that satisfy the relative relationship between the
[0076]
In step S1016, camera position calculation processing is performed. FIG. 16 is a flowchart illustrating a processing procedure for camera position calculation. In step S1070, the variables ΔX, ΔY, ΔZ, α, β, and γ in the above equation (1) are initialized. Next, in step S1072, (−L, 0, 0), (0, 0, 0), (0, 0, L) are substituted for Ps1, Ps2, and Ps3 in the equation (1), respectively, and a variable ΔX, Substituting appropriate values into ΔY, ΔZ, α, β, γ, the coordinate values Pc1 (Pcx) of the
[0077]
In step S1074, the coordinate values of Pc1, Pc2, and Pc3 are substituted into the above equation (2), and the coordinate values D1 (Dx (Dx) of the
[0078]
In step S1076, the coordinates calculated using the coordinate values A1, A2, A3 in the photographic coordinate system of the
[0079]
In step S1078, it is confirmed whether or not the total value S is the minimum. If not, the values of the variables ΔX, ΔY, ΔZ, α, β, and γ are changed, and the processing of steps S1072 to S1076 is repeated. That is, the variables ΔX, ΔY, ΔZ, α, β, γ that minimize the total value S are calculated by the least square method.
[0080]
If it is confirmed in step S1078 that the total value S is minimum, the parameters ΔX, ΔY, ΔZ, α, β, and γ when the total value S is minimum in step S1080 are parameters indicating the camera position M. And the camera position calculation process ends.
[0081]
As described above, according to the present embodiment, the number of auxiliary point members provided between the
[0082]
Further, according to the present embodiment, the length between the
[0083]
11, 12, 14, 15 and 16, the digital image of the surveying site is displayed on the monitor, the reference point of the target and an arbitrary surveying point are designated on the monitor, and a predetermined surveying calculation is performed. In the photogrammetry system in which the above and the like are executed, the calculation of the two-dimensional coordinates of the target reference point and the calculation of the camera position are executed. That is, according to the present embodiment, the operation of designating the reference point of the target in the digital image displayed on the monitor with the mouse is omitted, and accurate camera position data independent of the skill level of the person in charge is obtained. It is always obtained, and high-precision arithmetic processing is executed in the subsequent processing steps in the photogrammetry system.
[0084]
【The invention's effect】
As described above, according to the present invention, the camera position can be automatically calculated in the photogrammetry.
[Brief description of the drawings]
FIG. 1 is a plan view showing a photogrammetry target applied to an embodiment of the present invention.
FIG. 2 is a side view of the photogrammetric target shown in FIG.
FIG. 3 is a cross-sectional view of the target taken along the line VIII-VIII in FIG. 1;
4 is a plan view showing a surface on the second columnar member side of the non-reflective member of the target shown in FIG. 1; FIG.
FIG. 5 is an enlarged plan view showing the vicinity of the control unit housing of the target shown in FIG.
6 is a cross-sectional view taken along line XI-XI in FIG. 5, and is a diagram showing a simplified configuration of a control unit housing.
FIG. 7 is a perspective view showing a positional relationship between a photogrammetry target and a camera according to an embodiment of the present invention.
8 is a diagram schematically showing an image photographed by the camera of FIG. 7. FIG.
FIG. 9 is a diagram illustrating a positional relationship between a reference point member, its image point, and a rear principal point position of a photographing lens of a camera in three-dimensional coordinates.
FIG. 10 is a diagram relatively showing a scene coordinate system and a camera coordinate system.
FIG. 11 is a flowchart illustrating a procedure of camera automatic calculation processing according to the embodiment of this invention.
FIG. 12 is a flowchart showing a procedure for calculating a center of gravity of a group having high luminance information in a captured image.
FIG. 13 is a diagram schematically illustrating a state of each pixel of a captured image after calculation of the barycentric coordinates of the group.
FIG. 14 is a flowchart showing the first half of group combination extraction processing;
FIG. 15 is a flowchart showing the second half of the group combination extraction processing;
FIG. 16 is a flowchart illustrating a processing procedure for camera position calculation.
FIG. 17 is a block diagram of a coordinate calculation system of the photogrammetry apparatus.
[Explanation of symbols]
10 Target
12 First columnar member
14 Second columnar member
15 Hinge
16 stays
20 Control unit housing
24 IC card
31, 34, 36 Reference point member
32, 33, 35 Auxiliary point member
41, 42, 43, 44, 45, 46 Non-reflective member
92 Stay hinge
94 Lock Hinge
184 computer
186 IC card reader
188 IC card driver
197 CD-ROM reader
198 CD-ROM
199 CD-ROM drive unit
190 Monitor
192 keyboard
194 mouse
196 Printer
Claims (5)
前記画像取得手段により得られる撮影画像内において、前記第1の直線上の前記補助点の数と、前記第2の直線上の前記補助点の数を比較することにより、前記撮影画像内の前記第1の基準点、前記第2の基準点及び前記第3の基準点の位置を特定し、前記撮影画像内の2次元直交座標である写真座標系における前記第1の基準点、前記第2の基準点及び前記第3の基準点の座標値を取得する2次元座標取得手段と
を備えたことを特徴とする写真測量用ターゲットの基準点の算出装置。First, second, and third reference points whose distances are known are provided, the first straight line connecting the first reference point and the second reference point, the second reference point, and the Surveying together with a photogrammetric target having a predetermined angle with the second straight line connecting the third reference points, and a different number of auxiliary points provided on the first straight line and the second straight line, respectively. Image acquisition means for capturing an object with a camera;
By comparing the number of auxiliary points on the first straight line and the number of auxiliary points on the second straight line in the captured image obtained by the image acquisition means, the The positions of the first reference point, the second reference point, and the third reference point are specified, and the first reference point and the second reference point in a photographic coordinate system that is a two-dimensional orthogonal coordinate in the captured image. And a two-dimensional coordinate acquisition means for acquiring the coordinate value of the third reference point and a reference point calculation device for a photogrammetric target.
前記2次元座標取得手段が、
前記撮影画像を構成する各画素の輝度情報を所定の閾値と比較して、前記画素のそれぞれについて高い輝度情報を有する画素と低い輝度情報を有する画素との2種類に種別する2値化処理手段と、
前記撮影画像内において前記高い輝度情報を有する画素が所定範囲内で複数連続するグループを抽出するグループ抽出手段と、
前記グループを構成する各画素の輝度情報および前記写真座標系における座標値に基づいて、前記グループの重心の座標値を算出するグループ重心座標値算出手段と、
前記撮影画像内において、前記第1の基準点と前記第2の基準点と前記第1の直線上の前記補助点の数の合計点数と等しい数の前記重心が同一直線上に並ぶ第1の点列を抽出する第1の点列抽出手段と、
前記撮影画像内において、前記第2の基準点と前記第3の基準点と前記第2の直線上の前記補助点の数の合計点数と等しい数の前記重心が同一直線上に並ぶ第2の点列を抽出する第2の点列抽出手段と、
それぞれの点列において一方の端部の前記重心を共有する前記第1の点列と前記第2の点列の組合せを選択する選択手段と、
前記選択手段により選択された前記第1の点列において前記選択手段により選択された前記第2の点列と共有する前記重心と反対側の端部に相当する前記重心を前記第1の基準点と特定し、前記選択手段により選択された前記第1の点列と前記第2の点列が共有する前記重心を前記第2の基準点と特定し、前記選択手段により選択された前記第2の点列において前記選択手段により選択された前記第1の点列と共有する前記重心と反対側の端部に相当する前記重心を前記第3の基準点と特定する基準点特定手段と
を備えていることを特徴とする請求項1に記載の写真測量用ターゲットの基準点の算出装置。In the photogrammetry target, the first reference point, the second reference point, the third reference point, and the auxiliary point have relatively higher luminance information than the other subjects in the captured image. Made of reflective members,
The two-dimensional coordinate acquisition means
The binarization processing means for comparing the luminance information of each pixel constituting the photographed image with a predetermined threshold and classifying each pixel into two types of pixels having high luminance information and pixels having low luminance information When,
A group extracting means for extracting a group in which a plurality of pixels having the high luminance information in the photographed image are consecutive within a predetermined range;
Group centroid coordinate value calculating means for calculating the coordinate value of the centroid of the group based on the luminance information of each pixel constituting the group and the coordinate value in the photographic coordinate system;
In the captured image, a first number of the centroids equal to the total number of the first reference point, the second reference point, and the number of auxiliary points on the first straight line are aligned on the same straight line. First point sequence extraction means for extracting a point sequence;
In the captured image, a second number of the centroids equal to the total number of the second reference point, the third reference point, and the number of the auxiliary points on the second straight line are arranged on the same straight line. Second point sequence extracting means for extracting the point sequence;
Selection means for selecting a combination of the first point sequence and the second point sequence sharing the center of gravity of one end in each point sequence;
In the first point sequence selected by the selection unit, the centroid corresponding to the end opposite to the centroid shared with the second point sequence selected by the selection unit is used as the first reference point. The center of gravity shared by the first point sequence and the second point sequence selected by the selection unit is specified as the second reference point, and the second point selected by the selection unit Reference point specifying means for specifying, as the third reference point, the center of gravity corresponding to the end opposite to the center of gravity shared with the first point sequence selected by the selection means in the point sequence of The apparatus for calculating a reference point of a target for photogrammetry according to claim 1.
前記カメラにより撮影された撮影画像内において、前記第1の直線上の前記補助点の数と前記第2の直線上の前記補助点の数との差に基づいて、前記第1の基準点、前記第2の基準点、及び前記第3の基準点を特定し、前記撮影画像内の2次元直交座標である写真座標系における前記第1の基準点、前記第2の基準点及び前記第3の基準点の座標値を取得する第2ステップと
を備えることを特徴とする写真測量用ターゲットの基準点の算出方法。First, second, and third reference points whose distances are known are provided, the first straight line connecting the first reference point and the second reference point, the second reference point, and the Surveying together with a photogrammetric target having a predetermined angle with the second straight line connecting the third reference points, and a different number of auxiliary points provided on the first straight line and the second straight line, respectively. A first step of photographing an object with a camera;
Based on the difference between the number of the auxiliary points on the first straight line and the number of the auxiliary points on the second straight line in the captured image taken by the camera, the first reference point, The second reference point and the third reference point are specified, and the first reference point, the second reference point, and the third reference point in a photographic coordinate system that is a two-dimensional orthogonal coordinate in the captured image. And a second step of acquiring the coordinate value of the reference point of the photogrammetric target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33484699A JP3737919B2 (en) | 1998-11-25 | 1999-11-25 | Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33432098 | 1998-11-25 | ||
JP10-334320 | 1998-11-25 | ||
JP33484699A JP3737919B2 (en) | 1998-11-25 | 1999-11-25 | Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000221029A JP2000221029A (en) | 2000-08-11 |
JP3737919B2 true JP3737919B2 (en) | 2006-01-25 |
Family
ID=26574808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33484699A Expired - Fee Related JP3737919B2 (en) | 1998-11-25 | 1999-11-25 | Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3737919B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009057816A1 (en) | 2008-12-10 | 2010-08-12 | Fanuc Ltd | Calibration device for calibrating and image measuring system with a calibration device |
US9996931B2 (en) | 2011-12-26 | 2018-06-12 | Mitsubishi Heavy Industries Machine Tool Co., Ltd. | Method for calibrating camera measurement system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6309938B2 (en) * | 2015-11-24 | 2018-04-11 | 大豊精機株式会社 | 3D position measurement system, 3D position measurement probe, and calibrator |
-
1999
- 1999-11-25 JP JP33484699A patent/JP3737919B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009057816A1 (en) | 2008-12-10 | 2010-08-12 | Fanuc Ltd | Calibration device for calibrating and image measuring system with a calibration device |
US8350913B2 (en) | 2008-12-10 | 2013-01-08 | Fanuc Ltd | Calibrating device for calibration and image measurement system comprising calibrating device |
DE102009057816B4 (en) | 2008-12-10 | 2022-08-18 | Fanuc Corporation | Calibration device for calibration and image measuring system with a calibration device |
US9996931B2 (en) | 2011-12-26 | 2018-06-12 | Mitsubishi Heavy Industries Machine Tool Co., Ltd. | Method for calibrating camera measurement system |
Also Published As
Publication number | Publication date |
---|---|
JP2000221029A (en) | 2000-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6445814B2 (en) | Three-dimensional information processing apparatus and method | |
US8773514B2 (en) | Accurate 3D object reconstruction using a handheld device with a projected light pattern | |
US20050212931A1 (en) | Digital camera which estimates and corrects small camera rotations | |
EP0692759A2 (en) | Writing device for storing handwriting | |
WO2006083639A1 (en) | Determining scene distance in digital camera images | |
KR20030078903A (en) | Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method | |
JP2000089092A (en) | Document image pickup technique by digital camera | |
JP2010256253A (en) | Image capturing device for three-dimensional measurement and method therefor | |
JP4848166B2 (en) | Projection apparatus and system for three-dimensional measurement | |
TWI510052B (en) | Scanner | |
US6628803B1 (en) | Device for calculating positional data of standard points of photogrammetric target | |
US7272267B1 (en) | Image processing method and apparatus for normalizing faces for a layout image | |
TW558668B (en) | Method and system of reconstructing a digital image of an image on a surface | |
JP3737919B2 (en) | Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program | |
CN113306308B (en) | Design method of portable printing and copying machine based on high-precision visual positioning | |
JP3737918B2 (en) | Photogrammetry target reference point calculation device, photogrammetry target reference point calculation method, and recording medium storing photogrammetry target reference point calculation program | |
CN108510537B (en) | 3D modeling method and device | |
JP2003065737A (en) | System and method for measuring surface shape and system for illustrating surface condition | |
JPH1023311A (en) | Image information input method and device therefor | |
JPH09210649A (en) | Three dimensional measurement device | |
JP2001074452A (en) | Apparatus and method for image processing for photogrammetry and storage medium with stored image processing program for photogrammetry | |
JP2020096254A (en) | Image processing apparatus, image processing method, and program | |
JP2004295423A (en) | Original drawing transferring method and camera image correction processor to be used for same method | |
CN210109868U (en) | Internal reference calibration equipment | |
US20050083556A1 (en) | Image cropping based on imaged cropping markers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051028 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091104 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101104 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111104 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111104 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111104 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121104 Year of fee payment: 7 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121104 Year of fee payment: 7 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131104 Year of fee payment: 8 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |