JP4276360B2 - Stereo imaging system - Google Patents

Stereo imaging system Download PDF

Info

Publication number
JP4276360B2
JP4276360B2 JP2000190513A JP2000190513A JP4276360B2 JP 4276360 B2 JP4276360 B2 JP 4276360B2 JP 2000190513 A JP2000190513 A JP 2000190513A JP 2000190513 A JP2000190513 A JP 2000190513A JP 4276360 B2 JP4276360 B2 JP 4276360B2
Authority
JP
Japan
Prior art keywords
unit
photographing
shooting
camera
stereo image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000190513A
Other languages
Japanese (ja)
Other versions
JP2002006424A (en
Inventor
伸夫 高地
仁志 大谷
光晴 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2000190513A priority Critical patent/JP4276360B2/en
Priority to US09/887,267 priority patent/US6611664B2/en
Publication of JP2002006424A publication Critical patent/JP2002006424A/en
Application granted granted Critical
Publication of JP4276360B2 publication Critical patent/JP4276360B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ステレオ画像撮影用システムに係り、特に、ステレオ画像から三次元データを得るために必要な情報と測定データを容易に得ることができるステレオ画像撮影用システムに関するものである。
【0002】
【従来の技術】
近年では、電子平板に代表されるような測量機とポータブルコンピュータとの組み合わせにより、計測現場の線画図面が作成されていた。このような従来の電子平板では、トータルステーションやGPSなどの測量機を利用してポータブルコンピュータ上で、線画を描画することで図化を行っていた。そして、計測現場の図化を行う際、現地にて現況を見ながら図化したり、別途写真撮影して、それらを見ながらオフィスにて図化を行っていた。また、航空写真などでは、ステレオ撮影していた画像から、解析図化機等を用いて図化を行っていた。そして、地上写真測量においてはステレオ画像から三次元計測する際、従来は、基線長やカメラの向きが厳格に固定されたステレオカメラで撮影、解析、計測を行なっていた。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の技術では、ステレオカメラは基線長等が固定されてしまい、撮影範囲や精度(対象物)が限定された。また、従来において、基線等を固定せず計測を行なおうとすると、ステレオ撮影を行なって三次元解析する際、2枚の画像をオーバーラップさせて撮影しても、ステレオ解析可能な画像とすることは困難であった。すなわち、大抵の場合、解析出来ない画像であったり、解析できても不安定で、精度が悪く、いちじるしく信頼性の低いものであった。特にバルーンや車、その他移動体等にカメラを載せ、撮影する場合、信頼性が高く解析可能な画像を取得するのは大変困難であった。
【0004】
【課題を解決するための手段】
本発明の解決手段によると、
タイミングを示すタイミング信号により対象物の画像を撮影するカメラ及び反射部材が載置されている移動可能な撮影部と、
上記撮影部から離れた位置に置かれ、測定光を上記撮影部の反射部材に向けて放出し、この反射部材から反射された反射光に基づき上記撮影部の位置を測定する測定部と、
撮影対象に関係する撮影条件データに基づき、撮影位置データを演算する撮影位置演算部と、
上記撮影位置演算部により演算された撮影位置データに基づき上記撮影部を所定位置へ移動させる駆動部と、
上記駆動部を制御する移動制御部と、
上記測定部が測定した上記撮影部の位置を示す位置データと、上記撮影位置演算部により演算された撮影位置データとが一致又は略一致した際に、上記撮影部のカメラにタイミング信号を出力する撮影制御部と
を備えたステレオ画像撮影用システムを提供する。
【0005】
【発明の実施の形態】
本発明の実施の形態について以下説明する。
図1に、ステレオ画像撮影用システムの第一の実施の形態の構成図を示す。この実施の形態は、撮影部10、画像データ記憶部30、信号処理部200、測定部100、条件設定部70、撮影位置演算部40、撮影制御部50、移動制御部80、駆動部90を備える。
【0006】
撮影部10は、画像を撮影するカメラと全周プリズムを有する。画像データ記憶部30は、撮影部10のカメラにより撮影された画像データと、測定部100により測定された位置データを対応づけて記憶する。また、信号処理部200は、ステレオ撮影された画像データ及び位置データをもとに三次元計測・解析を行う。測定部100は、測量機であるトータルステーション等が用いられ、撮影部10上のプリズムを視準として、その位置データ(測定値)を計測する。ここで、自動視準トータルステーションを利用することにより、自動計測を行う。条件設定部70は、撮影範囲、精度、カメラの規格値、等の撮影条件を設定する。撮影位置演算部40は、条件設定部70で設定された撮影対象の範囲や必要精度、カメラ・レンズ等の撮影条件に基づき適切な撮影位置を演算する。また、測定部100の予備測定結果に基づき、撮影予定位置を演算、決定する。撮影制御部50は、測定部100が測定した撮影部10の位置データ(測定値)と、撮影位置演算部40により演算された撮影位置データとが一致又は略一致するように、移動制御部80及び駆動部90により撮影部10を移動させる。そして、測定された位置データと演算された撮影位置データとが一致又は略一致した際に、撮影部10及び測定部100に撮影のためのタイミング信号を出力する。また、撮影制御部50は、撮影したタイミングでの位置データ(測定値)を画像データ記憶部30に与える。また、このとき撮影部10から画像データ記憶部30に撮影された画像データが記憶される。移動制御部80は、駆動部90に、撮影部10の移動量を与える。駆動部90は、撮影部10を移動可能とする。
【0007】
図2に、撮影部10の構成図を示す。カメラ1は、市販のフィルムカメラやデジタルカメラ、計測用カメラ等が用いられる。全周プリズム2は、どこからでもその位置を測定部100により計測できるようにプリズムが各方向に多数取り付けられている。さらに、撮影部10は駆動部90により移動可能となっている。
【0008】
つぎに、図3に駆動部の構成図を示す。例えば、その駆動部90は、図3(a)に示すように、車、キャタピラのようなものや、図3(b)に示すようなバルーン、その他移動可能なものに取り付けられ、プラットホームを構成することができる。さらに、撮影部10のカメラ1に後述のような撮影姿勢位置補正部を設け、そこで使用するジャイロセンサや傾斜計を利用して、得られる加速度や角速度を累積演算することもできる。
【0009】
撮影のためのプラットホームには、少なくとも撮影部10が搭載され、さらに、画像データ記憶部30、信号処理部200等が適宜搭載されうる。プラットホームと測定部100との間では、それぞれに設けられた送受信器により、計測指令のための位置、計測データ等の各信号が送受される。これら送受信器は、撮影部10、画像データ記憶部30、その他の適宜の位置に取り付けられる。送受信器は、光送受信器を用いた光通信による伝送の他、適宜の無線又は有線の伝送方式を用いることができる。
【0010】
各構成部の搭載例としては、例えば、プラットホームに測定部100以外の構成部を搭載する場合、プラットホームと測定部100との間は、タイミング信号及び測定された位置データが送受信器により伝送される。また、他の例としては、プラットホームに、撮影部10、駆動部90、移動制御部80、画像データ記憶部30、信号処理部200を搭載し、撮影制御部50、撮影位置演算部40、条件設定部70を測定部100側に搭載してもよい。この場合、プラットホームと測定部側との間は、タイミング信号、測定された位置データ及び移動制御部80の制御信号が送受信器により伝送される。さらに、他の例としては、プラットホーム、測定部100側以外の他のブロックとして、適宜の構成部を搭載してもよい。この場合、例えば、プラットホームに、撮影部10、駆動部90、移動制御部80を、一方、他のブロックに撮影制御部50、撮影位置演算部40、条件設定部70、画像データ記憶部30、信号処理部200を搭載することもできる。
【0011】
図4は、計測の様子を示す説明図である。この図のように、撮影部10は、ステレオ撮影を行なうために、最低でも2個所以上から撮影をする。そして、撮影部10に搭載された全周プリズム2を用いて、それぞれの撮影位置を測定部100の測量機で計測する。また、計測対象物に最低1個以上基準点を配置すれば、対象物までのカメラ1位置と撮影部10、測定部100の位置関係が正確に測定できる。
【0012】
つぎに、フローチャートに従って自動計測の動作を説明する。図5は、自動計測のフローチャートである。さらに、図6は、自動計測による撮影位置についての説明図である。
まず、測定部100とプラットホーム(撮影部10)を設置する(S100)。測定部100は、計測対象に対して撮影部10の撮影位置が見通せ、かつ邪魔にならない位置へ設置する。例えば、図6の測定部100に示す位置とする。なお、概略の撮影開始位置におけば、より効率的となる。つぎに、計測したい対象物の計測範囲(基準位置)、例えば図6で位置a,bを測定部100によって計測する(S110)。更に、測定部100により撮影部10の全周プリズム2の位置を計測する(S110)。そして、測定部100は、これら計測データを撮影制御部50に転送する。条件設定部70は、撮影対象に関係する撮影条件データを撮影位置演算部40に設定する(S120)。ここで設定するのは、レンズの画角θ、焦点距離f、デジタルカメラの画素ピッチδp、平面方向必要精度δxy、奥行き方向必要精度δz、等である。撮影位置演算部40は、これらの条件により、撮影位置データを演算する(S130)。ここで、撮影位置データの演算について説明する。簡単のために、デジタルカメラは計測対象物に平行であると想定する。撮影位置演算部40では、ステップS120で設定された、撮影部10に取り付けられたデジタルカメラの画素サイズδp、レンズの焦点距離f、画角θ、必要精度により撮影位置が算出される。
【0013】
例えば、計測対象物の平面方向の必要精度δxyとすると撮影距離Hは、
H=δxy×f/δp ▲1▼
奥行き方向をδzとすると、基線長Bは、
B=H×H×δp/(f×δz) ▲2▼
撮影範囲Rは、
R=2Htan(θ/2) ▲3▼
で算出される。オーバーラップ範囲Oは、
O=R−B ▲4▼
となる。
【0014】
これらから、撮影枚数は、
n=エリア/O 余り≠0であればn+1 ▲5▼
となる。
従って、全撮影範囲は、
if 余り=0、全エリア=O×n+2B ▲6▼
if 余り≠0、全エリア=O×(n+1)+2B ▲7▼
計測範囲a〜bは、すべてオーバーラップ領域とすることにより撮影位置が決められる。余り≠0のときは▲7▼式の限りではない。また、オーバーラップ方法もこの限りではない。尚、ステップS120、S130は、あらかじめ撮影範囲がわかっていれば、このステップより前のステップで事前に条件設定し概略計算しておいてもよい。また、必要精度や現場の条件等からレンズやカメラを選択したいときは、現地作業の前にこれら諸条件から最適条件を求め決定しておく。
【0015】
再びフローチャートに戻り説明をする。ステップS130で撮影位置データが演算されると、先に計測したプラットホーム(撮影部10)の位置データと撮影位置演算部40により計算された撮影位置データを撮影制御部50により比較する(S140)。両者が一致又は略一致ならば、撮影信号が適当(OK)と判定され、ステップS180へ進む。OKでなければ、次のステップS145へ進む。ステップS145では、計測した撮影部10を含むプラットホームの位置データ(測定値)と撮影位置演算部40で計算された撮影予定位置との変位量(移動量)を撮影制御部50により計算する。つぎに、撮影制御部50は、移動量を移動制御部80に送る。移動制御部80は、撮影制御部50からの指示に基づき、駆動部90により撮影位置へ撮影部10を移動させる(S150)。移動制御部80は、移動が終了すると、必要に応じて移動終了信号を撮影制御部50に送出する。つぎに、測定部100は、プラットホーム(撮影部10)の位置を計測する(S160)。受信したプラットホーム(撮影部10)の位置データ(測定値)と撮影位置演算部40により計算された撮影位置データ(演算値)を撮影制御部50により比較する(S170)。両者が一致又は略一致ならば、撮影信号が適当(OK)と判定され、ステップS180へ進む。OKでなければ、ステップS145へ進む。ステップS140又はS170で撮影位置がOKであれば、撮影部10により撮影を行なう(S180)。このとき画像データ記憶部30があるシステム構成であれば、画像データ記憶部30に撮影画像データと位置データ(測定値)を同時に書き込みする。つぎに、撮影枚数が条件を満たしていれば、撮影を終了し、次の撮影が必要であれば、ステップS145へ進む(S190)。撮影が終了すれば、信号処理部200で三次元計測を行なうこととなる。以上で、自動的にステレオ画像を撮影することが可能となる。
【0016】
ここで、図7に自動計測のフローチャート中、ステップS110及びS160の撮影部10位置計測の詳細フローチャートを示す。
【0017】
図5のステップS100あるいはS150にて撮影位置へ移動すると、プラットホーム側から、測定部100へ撮影タイミングに合せタイミング信号が送出される(S41)。つぎに、撮影部10の位置を測定部100により計測する(S45)。すなわち、位置計測の指令信号を受信した測定部100は、撮影部10の全周プリズム2を自動視準、位置計測を行なう。測定部100は、位置計測を行なった後、プラットホーム側へ計測位置データを送出する(S46)。画像データ記憶部30は、計測位置データを受け取り、撮影された画像データと関連付けて記憶する(S48)。以上の作業は、自動で行なうことが可能である。
【0018】
ここで、ステレオ法による三次元計測の基本原理について示す。図8に、ステレオ法の説明図を示す。ここでは、簡単のために、同じCCDカメラを2台使用する。それぞれの光軸は平行で、カメラレンズの主点からCCD面までの距離aが等しいものとする。さらに、CCDは光軸に直角に置かれているものとする。これらの条件を用いて、ステレオ法の原理について以下に説明する。
【0019】
2つの光軸間距離(基線長)をLとする。物体上の点P(x、y)、P(x、y)の座標の間には、以下のような関係がある。
=ax/z (1)
=y=ay/z (2)
−x=a×L/z (3)
但し、全体の座標系(x、y、z)の原点をカメラ1のレンズ主点にとるものとする。(3)式よりzを求める。この結果から(1)式、(2)式よりx、yが求められる。
【0020】
ステレオ撮影する際には、取得された2枚の画像(オーバーラップ画像)によりステレオモデルが形成できるような撮影としなければならない。さらに計測精度を向上させるためには、なるべく適切な条件で撮影をする必要がある。そのために撮影部10上のカメラ1をx,y,zの3軸方向に制御、更に上下動が可能であり、レンズ倍率も可変の構造とした撮影姿勢位置補正部6を上記撮影部10のカメラ1に設けることができる。
【0021】
図9に、撮影姿勢位置補正部を有する撮影部の構成図を示す。この構成は、カメラ1、撮影姿勢位置補正部6を備える。
撮影姿勢位置補正部6は、カメラ1の姿勢、向きをセンサー(ジャイロ等)により計測して、その姿勢、向きを補正する。その結果、計測対象物に対してステレオ計測が容易となるように保たれた撮影データ位置のデータにより、かなり信頼性の高い計測が可能となる。あるいは、カメラ1の姿勢、向きをそれらセンサーにより計測して信号処理部200にて姿勢、向きを計算補正すれば自動三次元計測が可能となる。さらに、撮影姿勢位置補正部6には、3軸方向(方位、傾斜角)を計測するセンサ部と3軸及び上下方向に可変な可動部があり、更にカメラレンズの倍率制御も行なうことができる。
【0022】
3軸方向の計測は、傾斜計や方向計等、各種の姿勢センサを使用することにより行なう。あるいは、整準台に撮影部10のカメラ1を載せることによって3軸方向を補正しても良い。上下方向及び倍率補正は、これらのセンサを使用したり、あるいはGPS500等も使用できるが、測定部100の計測値を利用することによって、さらに精度良く補正できる。
【0023】
これらを以下説明する。図10に、上下方向の補正についての説明図を示す。図10(a)に示されるように、2つの撮影位置で高低差がついたとき、撮影される上下の範囲が異なってしまい計測に不具合な画像となってしまう。撮影部10位置を測定部100で計測する際に、高低差がわかる。撮影姿勢位置補正部6は、この3次元データをもとに撮影部10のカメラ1の上下動を行うことで、図10(b)のような適切な高さに移動させる。
【0024】
図11に、水平(左右)方向の補正についての説明図を示す。図11(a)に示されるように、水平方向に移動するにつれ、オーバーラップする部分が減少する。所定の位置に撮影部10をうまく制御できればよい。しかし、なんらかの原因から撮影部10を適切な位置に持っていけない場合、カメラ1を所定の計測範囲の方向へ向け、撮影を行なう(図11(b))。撮影位置補正部6のジャイロによってその方位を知ることができるので、これと測定部100により計測した撮影位置により、適切な方向を計算し、その方向へ撮影部10のカメラ1を向ける。
【0025】
図12に、スイング方向(傾斜)の補正についての説明図を示す。進行方向の上下あるいは、左右に傾斜があった場合、撮影画像は図12(a)、(b)のようになる。
上下方向は、例えば図12(c)に図示するような状態に撮影部10がなった場合である。
これらを回避させるために、撮影姿勢位置補正部6の上下−左右方向の傾斜計により、カメラ1の傾斜分を計測し、補正させて撮影させる。
【0026】
図13に、倍率の補正についての説明図を示す。図13(a)に示されるように、2枚の画像で倍率が異なると不具合が生じる。例えば、2枚目の画像を図13(b)の撮影部10と撮影部10’の位置で撮影しなければならないときに何らかの理由で撮影部10’の位置で撮影できず、撮影部10’’の位置に来た場合等がある。この場合は、測定部100により撮影部10から計測対象物までの距離がわかるので、撮影姿勢位置補正部6は、カメラ1のレンズの倍率を調整する。これにより、2枚の画像の倍率の違いを補正し、計測範囲を適切にして撮影を行なう。
【0027】
このように、撮影部10のカメラ1に撮影姿勢補正部6を設け、各種姿勢センサーと測定部の計測値を用いることにより、ステレオ撮影に適した撮影条件とすることが可能となる。
【0028】
つぎに、障害物検出について説明する。計測したい範囲の撮影位置に障害物があった場合、測定部100にノンプリズムトータルステーション(TS)を使うことによって、以下の手順により障害物を回避させ撮影することが可能となる。
【0029】
図14に、障害物検出のための計測フローチャートを示す。また、図15に、障害物検出の説明図を示す。この障害物検出の処理は、自動測定の処理の前又は途中に適宜実行することができる。以下、図14のフローチャートに従って説明する。
最初に、測定部100とプラットホーム(撮影部10)を適当な位置に設定する(S200)。条件設定部70により、撮影条件を設定する(S210)。このとき図5のステップS110で設定している撮影パラメータ以外に、測定対象範囲a〜b(図6参照)を概略入力する。測定範囲の基準位置をノンプリズムTSによって測定する(S220)。測定範囲の基準位置は、測定対象範囲a〜bが入力してあれば、始点、終点の区別がつけば、どちらか一点でも良いし、両方でも良い。さらに、計測を確実にするために、ここで撮影部10位置も計測する。但し、プリズム程の反射物体が測定対象物に無い場合は、次のステップS230の自動スキャンで撮影部10の位置を計測しても良い。撮影部10の位置は、全周プリズム2により、ノンプリズムTSの受光光量が一番強い所で検出される。しかしながら、ここでプラットホーム(撮影部10)の位置計測等を行うことにより、作業の短縮化(スキャンニング検出時間)が可能となる。つぎに、ノンプリズムTSを測定範囲内で自動スキャンニングさせる(S230)。このときに、障害物位置(図15の領域300)を自動検出する。障害物検出は、ノンプリズムTSによる測距値が大きく不連続となる点(図15のラインc、d)とそれら距離の連続性によって検出することが可能である。つぎに、撮影条件、測定範囲基準位置より撮影位置の計算を行なう(S240)。撮影位置の計算後、障害物検出範囲と撮影位置が重複していないか、さらに予定移動ルートに障害物がないか計算する。仮に撮影位置と障害物が重複する場合は、撮影可能位置とレンズ倍率より等価撮影位置を決定する(例えば図15の撮影部の10’の位置)。対象物に近づくときは広角側に、遠ざかる場合は望遠側に調整する。調整しきれないときは、さらに水平方向のカメラ1の角度を計算し、図11(b)のようにカメラ1を水平方向に動かす。撮影位置移動ルートに障害物がある場合は、障害物の手前を回避ルートと設定して移動する。これ以降の処理は、図5の自動計測フローチャートのステップS140からの処理と同様になる。
【0030】
以上説明してきたように、本発明によれば、今まで三次元計測するためのステレオ撮影が困難であったものを簡便かつ信頼性高く行なうことが可能となり、更に自動化が行なえるようになる。
【0031】
【発明の効果】
本発明によると、以上のように、通常のカメラで三次元計測する際に、安定して、信頼性が高く、かつ精度良いステレオ画像を容易に取得することができる。
【図面の簡単な説明】
【図1】自動計測の全体構成図。
【図2】撮影部の構成図。
【図3】駆動部の構成図。
【図4】計測の様子の説明図。
【図5】自動計測のフローチャート。
【図6】撮影位置の説明図。
【図7】位置計測のフローチャート。
【図8】ステレオ法の説明図。
【図9】撮影部のカメラの構成図。
【図10】上下方向補正の説明図。
【図11】左右方向補正の説明図。
【図12】スイング方向(傾斜)補正の説明図。
【図13】倍率の補正の説明図。
【図14】障害物検出のフローチャート。
【図15】障害物検出時の計測の説明図。
【符号の説明】
10 撮影部
30 画像データ記憶部
40 撮影位置演算部
50 撮影制御部
70 条件設定部
80 移動制御部
90 駆動部
100 測定部
200 信号処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a stereo image capturing system, and more particularly to a stereo image capturing system capable of easily obtaining information and measurement data necessary for obtaining three-dimensional data from a stereo image.
[0002]
[Prior art]
In recent years, line drawings of measurement sites have been created by a combination of a surveying instrument represented by an electronic flat plate and a portable computer. In such a conventional electronic flat plate, a line drawing is drawn on a portable computer using a surveying instrument such as a total station or GPS. Then, when plotting the measurement site, it was charted while looking at the current situation at the site, or separately photographed and charted at the office while looking at them. In aerial photography, etc., the images were taken from stereo images using an analysis plotter. In terrestrial photogrammetry, when three-dimensional measurement is performed from a stereo image, conventionally, photographing, analysis, and measurement are performed with a stereo camera in which the base line length and the camera direction are strictly fixed.
[0003]
[Problems to be solved by the invention]
However, in the conventional technology, the base line length and the like of the stereo camera are fixed, and the imaging range and accuracy (object) are limited. Also, in the past, if measurement was to be performed without fixing the base line or the like, when performing stereo imaging and performing three-dimensional analysis, an image that can be analyzed in stereo can be obtained even when two images are overlapped and captured. It was difficult. That is, in most cases, the image cannot be analyzed, is unstable even if it can be analyzed, has poor accuracy, and is extremely low in reliability. In particular, when a camera is mounted on a balloon, a car, or other moving body, it is very difficult to obtain a highly reliable and analyzable image.
[0004]
[Means for Solving the Problems]
According to the solution of the present invention,
A camera that captures an image of an object by a timing signal indicating timing, and a movable photographing unit on which a reflecting member is mounted;
A measuring unit that is placed at a position away from the imaging unit, emits measurement light toward the reflecting member of the imaging unit, and measures the position of the imaging unit based on the reflected light reflected from the reflecting member;
A shooting position calculation unit that calculates shooting position data based on shooting condition data related to the shooting target;
A driving unit that moves the photographing unit to a predetermined position based on the photographing position data calculated by the photographing position calculating unit;
A movement control unit for controlling the driving unit;
A timing signal is output to the camera of the photographing unit when the position data indicating the position of the photographing unit measured by the measuring unit and the photographing position data calculated by the photographing position calculating unit match or substantially match. A stereo image shooting system including a shooting control unit is provided.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below.
FIG. 1 shows a configuration diagram of a first embodiment of a stereo image capturing system. In this embodiment, the photographing unit 10, the image data storage unit 30, the signal processing unit 200, the measurement unit 100, the condition setting unit 70, the photographing position calculation unit 40, the photographing control unit 50, the movement control unit 80, and the driving unit 90 are provided. Prepare.
[0006]
The imaging unit 10 includes a camera that captures an image and an all-around prism. The image data storage unit 30 stores the image data captured by the camera of the imaging unit 10 and the position data measured by the measurement unit 100 in association with each other. The signal processing unit 200 performs three-dimensional measurement / analysis based on stereo imaged image data and position data. The measuring unit 100 uses a total station or the like as a surveying instrument, and measures the position data (measured value) using the prism on the photographing unit 10 as a collimation. Here, automatic measurement is performed by using an automatic collimation total station. The condition setting unit 70 sets shooting conditions such as a shooting range, accuracy, camera standard value, and the like. The shooting position calculation unit 40 calculates an appropriate shooting position based on the shooting target range and required accuracy set by the condition setting unit 70, and shooting conditions such as a camera and a lens. Further, based on the preliminary measurement result of the measurement unit 100, the planned shooting position is calculated and determined. The imaging control unit 50 moves the movement control unit 80 so that the position data (measured value) of the imaging unit 10 measured by the measurement unit 100 and the imaging position data calculated by the imaging position calculation unit 40 match or substantially match. The photographing unit 10 is moved by the driving unit 90. Then, when the measured position data and the calculated shooting position data match or substantially match, a timing signal for shooting is output to the shooting unit 10 and the measurement unit 100. In addition, the imaging control unit 50 gives position data (measurement value) at the timing of imaging to the image data storage unit 30. At this time, the image data photographed from the photographing unit 10 is stored in the image data storage unit 30. The movement control unit 80 gives the movement amount of the photographing unit 10 to the driving unit 90. The drive unit 90 enables the photographing unit 10 to move.
[0007]
FIG. 2 shows a configuration diagram of the photographing unit 10. As the camera 1, a commercially available film camera, digital camera, measurement camera, or the like is used. A large number of prisms are attached in each direction so that the position of the all-round prism 2 can be measured by the measuring unit 100 from anywhere. Further, the photographing unit 10 can be moved by the driving unit 90.
[0008]
Next, FIG. 3 shows a configuration diagram of the drive unit. For example, as shown in FIG. 3A, the drive unit 90 is attached to a car, a caterpillar, a balloon as shown in FIG. can do. Further, the camera 1 of the photographing unit 10 can be provided with a photographing posture position correcting unit as described later, and the obtained acceleration and angular velocity can be cumulatively calculated using a gyro sensor and an inclinometer used there.
[0009]
At least a photographing unit 10 is mounted on a platform for photographing, and an image data storage unit 30, a signal processing unit 200, and the like can be appropriately mounted. Between the platform and the measurement unit 100, signals such as a position for measurement command, measurement data, and the like are transmitted and received by a transmitter / receiver provided in each. These transceivers are attached to the photographing unit 10, the image data storage unit 30, and other appropriate positions. The transmitter / receiver can use an appropriate wireless or wired transmission method in addition to transmission by optical communication using the optical transmitter / receiver.
[0010]
As an example of mounting each component, for example, when a component other than the measuring unit 100 is mounted on the platform, a timing signal and measured position data are transmitted between the platform and the measuring unit 100 by a transceiver. . As another example, the imaging unit 10, the drive unit 90, the movement control unit 80, the image data storage unit 30, and the signal processing unit 200 are mounted on the platform, and the imaging control unit 50, the imaging position calculation unit 40, the condition The setting unit 70 may be mounted on the measurement unit 100 side. In this case, the timing signal, the measured position data, and the control signal of the movement control unit 80 are transmitted between the platform and the measurement unit side by the transceiver. Furthermore, as another example, an appropriate component may be mounted as a block other than the platform and the measurement unit 100 side. In this case, for example, the imaging unit 10, the driving unit 90, and the movement control unit 80 are provided on the platform, while the imaging control unit 50, the imaging position calculation unit 40, the condition setting unit 70, the image data storage unit 30, and the other blocks are provided. The signal processing unit 200 can also be mounted.
[0011]
FIG. 4 is an explanatory diagram showing a state of measurement. As shown in this figure, the photographing unit 10 performs photographing from at least two places in order to perform stereo photographing. Then, using the all-round prism 2 mounted on the photographing unit 10, each photographing position is measured by the surveying instrument of the measuring unit 100. Further, if at least one reference point is arranged on the measurement object, the positional relationship between the camera 1 position up to the object and the photographing unit 10 and the measurement unit 100 can be measured accurately.
[0012]
Next, the automatic measurement operation will be described according to the flowchart. FIG. 5 is a flowchart of automatic measurement. Furthermore, FIG. 6 is an explanatory diagram of a shooting position by automatic measurement.
First, the measurement unit 100 and the platform (imaging unit 10) are installed (S100). The measuring unit 100 is installed at a position where the photographing position of the photographing unit 10 can be seen through the measurement target and does not get in the way. For example, the position shown in the measurement unit 100 of FIG. In addition, it becomes more efficient if it is in the approximate photographing start position. Next, a measurement range (reference position) of an object to be measured, for example, positions a and b in FIG. 6 is measured by the measurement unit 100 (S110). Further, the position of the all-round prism 2 of the photographing unit 10 is measured by the measuring unit 100 (S110). Then, the measurement unit 100 transfers these measurement data to the imaging control unit 50. The condition setting unit 70 sets shooting condition data related to the shooting target in the shooting position calculation unit 40 (S120). Here, the angle of view θ of the lens, the focal length f, the pixel pitch δp of the digital camera, the necessary accuracy δxy in the plane direction, the required accuracy δz in the depth direction, and the like are set. The shooting position calculation unit 40 calculates shooting position data based on these conditions (S130). Here, calculation of shooting position data will be described. For simplicity, it is assumed that the digital camera is parallel to the measurement object. The photographing position calculation unit 40 calculates the photographing position based on the pixel size δp of the digital camera attached to the photographing unit 10, the focal length f of the lens, the angle of view θ, and the required accuracy set in step S 120.
[0013]
For example, assuming that the required accuracy δxy in the plane direction of the measurement object is the shooting distance H,
H = δxy × f / δp (1)
If the depth direction is δz, the baseline length B is
B = H × H × δp / (f × δz) (2)
The shooting range R is
R = 2Htan (θ / 2) (3)
Is calculated by The overlap range O is
O = R−B ▲ 4 ▼
It becomes.
[0014]
From these, the number of shots is
If n = area / O remainder ≠ 0, then n + 1 (5)
It becomes.
Therefore, the total shooting range is
if remainder = 0, all areas = O × n + 2B (6)
if remainder ≠ 0, all areas = O × (n + 1) + 2B (7)
In the measurement ranges a and b, the shooting positions are determined by setting them as overlap regions. When the remainder is not 0, it is not limited to the equation (7). Also, the overlap method is not limited to this. In steps S120 and S130, if the photographing range is known in advance, conditions may be set in advance and roughly calculated in a step prior to this step. When it is desired to select a lens or a camera based on the required accuracy or on-site conditions, the optimum conditions are determined and determined from these conditions before the field work.
[0015]
Returning to the flowchart, the description will be continued. When the shooting position data is calculated in step S130, the shooting control unit 50 compares the previously measured position data of the platform (shooting unit 10) with the shooting position data calculated by the shooting position calculation unit 40 (S140). If both match or substantially match, it is determined that the imaging signal is appropriate (OK), and the process proceeds to step S180. If not OK, the process proceeds to the next step S145. In step S <b> 145, the photographing control unit 50 calculates a displacement (movement amount) between the measured position data (measured value) of the platform including the photographing unit 10 and the planned photographing position calculated by the photographing position calculation unit 40. Next, the imaging control unit 50 sends the movement amount to the movement control unit 80. The movement control unit 80 moves the photographing unit 10 to the photographing position by the driving unit 90 based on an instruction from the photographing control unit 50 (S150). When the movement is completed, the movement control unit 80 sends a movement end signal to the imaging control unit 50 as necessary. Next, the measurement unit 100 measures the position of the platform (imaging unit 10) (S160). The imaging control unit 50 compares the received position data (measured value) of the platform (imaging unit 10) with the imaging position data (calculated value) calculated by the imaging position calculation unit 40 (S170). If both match or substantially match, it is determined that the imaging signal is appropriate (OK), and the process proceeds to step S180. If not OK, the process proceeds to step S145. If the photographing position is OK in step S140 or S170, photographing is performed by the photographing unit 10 (S180). At this time, if the image data storage unit 30 has a system configuration, the captured image data and the position data (measurement value) are simultaneously written in the image data storage unit 30. Next, if the number of shots satisfies the condition, the shooting is terminated, and if the next shooting is necessary, the process proceeds to step S145 (S190). When shooting is finished, the signal processing unit 200 performs three-dimensional measurement. As described above, a stereo image can be automatically captured.
[0016]
Here, FIG. 7 shows a detailed flowchart of the position measurement of the photographing unit 10 in steps S110 and S160 in the flowchart of automatic measurement.
[0017]
When moving to the shooting position in step S100 or S150 of FIG. 5, a timing signal is sent from the platform side to the measurement unit 100 in accordance with the shooting timing (S41). Next, the position of the photographing unit 10 is measured by the measuring unit 100 (S45). That is, the measurement unit 100 that has received the position measurement command signal automatically collimates and measures the position of the all-round prism 2 of the imaging unit 10. After measuring the position, the measurement unit 100 sends measurement position data to the platform side (S46). The image data storage unit 30 receives the measurement position data and stores it in association with the imaged image data (S48). The above operations can be performed automatically.
[0018]
Here, the basic principle of the three-dimensional measurement by the stereo method is shown. FIG. 8 shows an explanatory diagram of the stereo method. Here, for the sake of simplicity, two identical CCD cameras are used. Each optical axis is parallel and the distance a from the principal point of the camera lens to the CCD surface is equal. Further, it is assumed that the CCD is placed at a right angle to the optical axis. The principle of the stereo method will be described below using these conditions.
[0019]
Let L be the distance between the two optical axes (base line length). The following relationship exists between the coordinates of the points P 1 (x 1 , y 1 ) and P 2 (x 2 , y 2 ) on the object.
x 1 = ax / z (1)
y 1 = y 2 = ay / z (2)
x 2 −x 1 = a × L / z (3)
However, the origin of the entire coordinate system (x, y, z) is taken as the lens principal point of the camera 1. Z is obtained from equation (3). From these results, x and y are obtained from the equations (1) and (2).
[0020]
When performing stereo shooting, the shooting must be such that a stereo model can be formed from the two acquired images (overlapping images). Furthermore, in order to improve the measurement accuracy, it is necessary to shoot under conditions that are as appropriate as possible. For this purpose, the camera 1 on the photographing unit 10 is controlled in three axial directions of x, y, and z, and can be further moved up and down, and the photographing posture position correcting unit 6 having a variable lens magnification is provided on the photographing unit 10. It can be provided in the camera 1.
[0021]
FIG. 9 is a configuration diagram of a photographing unit having a photographing posture position correcting unit. This configuration includes a camera 1 and a photographing posture position correction unit 6.
The photographing posture position correcting unit 6 measures the posture and orientation of the camera 1 with a sensor (such as a gyroscope) and corrects the posture and orientation. As a result, it is possible to perform highly reliable measurement with the data of the photographing data position maintained so that stereo measurement can be easily performed on the measurement object. Alternatively, automatic three-dimensional measurement can be performed by measuring the posture and orientation of the camera 1 with these sensors and calculating and correcting the posture and orientation in the signal processing unit 200. Further, the photographing posture position correction unit 6 includes a sensor unit that measures the triaxial direction (azimuth and tilt angle) and a movable unit that is variable in the triaxial and vertical directions, and can also control the magnification of the camera lens. .
[0022]
The measurement in the three-axis direction is performed by using various posture sensors such as an inclinometer and a direction meter. Alternatively, the triaxial direction may be corrected by placing the camera 1 of the photographing unit 10 on the leveling table. For the vertical direction and magnification correction, these sensors can be used, or the GPS 500 or the like can be used. However, by using the measurement value of the measurement unit 100, it can be corrected with higher accuracy.
[0023]
These are described below. FIG. 10 is an explanatory diagram for vertical correction. As shown in FIG. 10A, when there is a difference in height between two shooting positions, the upper and lower ranges to be shot are different, resulting in an image that is defective in measurement. When the position of the imaging unit 10 is measured by the measurement unit 100, the height difference is known. The photographing posture position correcting unit 6 moves the camera 1 to an appropriate height as shown in FIG. 10B by moving the camera 1 up and down based on the three-dimensional data.
[0024]
FIG. 11 is an explanatory diagram for correction in the horizontal (left / right) direction. As shown in FIG. 11 (a), the overlapping portion decreases as it moves in the horizontal direction. It is only necessary that the photographing unit 10 can be controlled well at a predetermined position. However, when the photographing unit 10 cannot be held at an appropriate position for some reason, the camera 1 is directed toward a predetermined measurement range and photographing is performed (FIG. 11B). Since the orientation can be known by the gyro of the imaging position correction unit 6, an appropriate direction is calculated based on this and the imaging position measured by the measurement unit 100, and the camera 1 of the imaging unit 10 is directed in that direction.
[0025]
FIG. 12 is an explanatory diagram for correcting the swing direction (tilt). When the traveling direction is tilted up and down or left and right, the photographed images are as shown in FIGS.
The up-down direction is a case where the photographing unit 10 is in a state as illustrated in FIG.
In order to avoid these problems, the tilt of the camera 1 is measured by an inclinometer in the up-down and left-right directions of the photographing posture position correction unit 6 and corrected for photographing.
[0026]
FIG. 13 is an explanatory diagram for correcting the magnification. As shown in FIG. 13A, a problem occurs when the magnifications of the two images are different. For example, when the second image has to be photographed at the positions of the photographing unit 10 and the photographing unit 10 ′ in FIG. 13B, it cannot be photographed at the photographing unit 10 ′ for some reason, and the photographing unit 10 ′. There are cases where you come to the position of '. In this case, since the distance from the photographing unit 10 to the measurement object is known by the measuring unit 100, the photographing posture position correcting unit 6 adjusts the magnification of the lens of the camera 1. As a result, the difference in magnification between the two images is corrected, and shooting is performed with the measurement range appropriately set.
[0027]
As described above, by providing the photographing posture correction unit 6 in the camera 1 of the photographing unit 10 and using the measurement values of the various posture sensors and the measurement unit, it is possible to obtain photographing conditions suitable for stereo photographing.
[0028]
Next, obstacle detection will be described. When there is an obstacle at the photographing position in the range to be measured, the non-prism total station (TS) is used in the measurement unit 100, and it is possible to shoot while avoiding the obstacle by the following procedure.
[0029]
FIG. 14 shows a measurement flowchart for obstacle detection. FIG. 15 is an explanatory diagram of obstacle detection. This obstacle detection process can be appropriately executed before or during the automatic measurement process. Hereinafter, a description will be given according to the flowchart of FIG.
First, the measurement unit 100 and the platform (imaging unit 10) are set to appropriate positions (S200). The condition setting unit 70 sets shooting conditions (S210). At this time, in addition to the imaging parameters set in step S110 of FIG. 5, the measurement target ranges a to b (see FIG. 6) are roughly input. The reference position of the measurement range is measured by the non-prism TS (S220). As long as the measurement target ranges a to b are input, the reference position of the measurement range may be either one or both as long as the start point and the end point are distinguished. Furthermore, in order to ensure the measurement, the position of the photographing unit 10 is also measured here. However, when there is no reflective object as large as the prism in the measurement object, the position of the imaging unit 10 may be measured by automatic scanning in the next step S230. The position of the imaging unit 10 is detected by the all-round prism 2 where the light received by the non-prism TS is the strongest. However, the work can be shortened (scanning detection time) by measuring the position of the platform (photographing unit 10). Next, the non-prism TS is automatically scanned within the measurement range (S230). At this time, the obstacle position (area 300 in FIG. 15) is automatically detected. Obstacle detection can be performed based on a point where the distance measurement values by the non-prism TS are greatly discontinuous (lines c and d in FIG. 15) and the continuity of the distances. Next, the shooting position is calculated from the shooting conditions and the measurement range reference position (S240). After the photographing position is calculated, it is calculated whether the obstacle detection range and the photographing position are not overlapped, and further, there is no obstacle on the planned moving route. If the shooting position and the obstacle overlap, an equivalent shooting position is determined from the shooting position and the lens magnification (for example, the position 10 ′ of the shooting unit in FIG. 15). Adjust to the wide-angle side when approaching the object and to the telephoto side when moving away. When the adjustment cannot be completed, the angle of the camera 1 in the horizontal direction is further calculated, and the camera 1 is moved in the horizontal direction as shown in FIG. If there is an obstacle on the shooting position movement route, the vehicle is moved by setting the route before the obstacle as an avoidance route. The subsequent processing is the same as the processing from step S140 of the automatic measurement flowchart of FIG.
[0030]
As described above, according to the present invention, it has become possible to easily and reliably perform what has been difficult to perform stereo photography for three-dimensional measurement, and can be further automated.
[0031]
【The invention's effect】
According to the present invention, as described above, when three-dimensional measurement is performed with a normal camera, a stereo image that is stable, reliable, and accurate can be easily acquired.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of automatic measurement.
FIG. 2 is a configuration diagram of a photographing unit.
FIG. 3 is a configuration diagram of a drive unit.
FIG. 4 is an explanatory diagram of a state of measurement.
FIG. 5 is a flowchart of automatic measurement.
FIG. 6 is an explanatory diagram of a shooting position.
FIG. 7 is a flowchart of position measurement.
FIG. 8 is an explanatory diagram of a stereo method.
FIG. 9 is a configuration diagram of a camera of a photographing unit.
FIG. 10 is an explanatory diagram of vertical direction correction.
FIG. 11 is an explanatory diagram of left-right direction correction.
FIG. 12 is an explanatory diagram of swing direction (tilt) correction.
FIG. 13 is an explanatory diagram of magnification correction.
FIG. 14 is a flowchart of obstacle detection.
FIG. 15 is an explanatory diagram of measurement when an obstacle is detected.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Image | photographing part 30 Image data memory | storage part 40 Image | photographing position calculating part 50 Image | photographing control part 70 Condition setting part 80 Movement control part 90 Drive part 100 Measuring part 200 Signal processing part

Claims (11)

タイミングを示すタイミング信号により対象物の画像を撮影するカメラ及び反射部材が載置されている移動可能な撮影部と、
上記撮影部から離れた位置に置かれ、測定光を上記撮影部の反射部材に向けて放出し、この反射部材から反射された反射光に基づき上記撮影部の位置を測定する測定部と、
撮影対象に関係する撮影条件データに基づき、撮影位置データを演算する撮影位置演算部と、
上記撮影位置演算部により演算された撮影位置データに基づき上記撮影部を所定位置へ移動させる駆動部と、
上記駆動部を制御する移動制御部と、
上記測定部が測定した上記撮影部の位置を示す位置データと、上記撮影位置演算部により演算された撮影位置データとが一致又は略一致した際に、上記撮影部のカメラにタイミング信号を出力する撮影制御部と
を備えたステレオ画像撮影用システム。
A movable photographing unit on which a camera for capturing an image of an object by a timing signal indicating timing and a reflecting member are mounted;
A measuring unit that is placed at a position away from the imaging unit, emits measurement light toward the reflecting member of the imaging unit, and measures the position of the imaging unit based on the reflected light reflected from the reflecting member;
A shooting position calculation unit that calculates shooting position data based on shooting condition data related to the shooting target;
A driving unit that moves the photographing unit to a predetermined position based on the photographing position data calculated by the photographing position calculating unit;
A movement control unit for controlling the driving unit;
A timing signal is output to the camera of the photographing unit when the position data indicating the position of the photographing unit measured by the measuring unit and the photographing position data calculated by the photographing position calculating unit match or substantially match. A stereo image shooting system including a shooting control unit.
請求項1に記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、少なくとも2カ所でのステレオ撮影を行い、
上記測定部は、その撮影された少なくとも2カ所の位置の測定を行うことを特徴とするステレオ画像撮影用システム。
The stereo image capturing system according to claim 1,
The camera of the above shooting unit performs stereo shooting in at least two places,
The above-mentioned measurement part measures the position of the photoed at least 2 places, The system for stereo image photography characterized by the above-mentioned.
請求項1又は2に記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、上記駆動部の移動に応じて、ステレオ撮影に適した条件を維持するように、向き、上下、倍率の少なくともいずれかの撮影条件を変更可能とするための位置補正部を
さらに備えたステレオ画像撮影用システム。
The stereo image shooting system according to claim 1 or 2,
The camera of the photographing unit can change the photographing condition of at least one of direction, up / down, and magnification so as to maintain a condition suitable for stereo photographing according to the movement of the driving unit. Stereo image shooting system further equipped with.
請求項1乃至3のいずれかに記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、上記駆動部による移動の高低に応じて、ステレオ撮影に適した条件を維持するように、撮影条件としてのカメラの上下方向の向きを調整可能に構成されていることを特徴とするステレオ画像撮影用システム。
The stereo image shooting system according to any one of claims 1 to 3,
The camera of the photographing unit is configured to be capable of adjusting the vertical direction of the camera as a photographing condition so as to maintain conditions suitable for stereo photographing according to the level of movement by the driving unit. A featured stereo image shooting system.
請求項1乃至4のいずれかに記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、上記駆動部による移動の距離に応じてステレオ撮影に適した条件を維持するように、撮影条件としてのカメラの水平方向の向きを調整可能に構成されていることを特徴とするステレオ画像撮影用システム。
The stereo image shooting system according to any one of claims 1 to 4,
The camera of the photographing unit is configured to be capable of adjusting a horizontal direction of the camera as a photographing condition so as to maintain a condition suitable for stereo photographing according to a distance moved by the driving unit. Stereo image shooting system.
請求項1乃至5のいずれかに記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、上記駆動部による移動の際の上記撮影部の傾斜に応じてステレオ撮影に適した条件を維持するように、撮影条件としてのカメラのスウイング方向の向きを調整可能に構成されていることを特徴とするステレオ画像用撮影システム。
The stereo image capturing system according to any one of claims 1 to 5,
The camera of the photographing unit is configured to be able to adjust the direction of the swing direction of the camera as a photographing condition so as to maintain conditions suitable for stereo photographing according to the inclination of the photographing unit when moved by the driving unit Stereo image shooting system characterized by the above.
請求項1乃至6のいずれかに記載のステレオ画像撮影用システムにおいて、
上記撮影部のカメラは、撮影対象からカメラまでの距離に応じてステレオ撮影に適した条件を維持するように、撮影条件としてのカメラの倍率を調整可能に構成されていることを特徴とするステレオ画像撮影用システム。
The stereo image capturing system according to any one of claims 1 to 6,
The camera of the photographing unit is configured to be capable of adjusting a magnification of the camera as a photographing condition so as to maintain a condition suitable for stereo photographing according to a distance from the photographing target to the camera. Image shooting system.
請求項1乃至7のいずれかに記載のステレオ画像撮影用システムにおいて、
上記測定部は、撮影対象範囲及び撮影位置近傍の障害物を検出する予備測定を行い、その予備測定の結果に基づき、上記撮影位置演算部は、撮影予定位置を演算して決定するように構成されていることを特徴とするステレオ画像撮影用システム。
The stereo image capturing system according to any one of claims 1 to 7,
The measurement unit is configured to perform preliminary measurement to detect an obstacle near the shooting target range and the shooting position, and based on the result of the preliminary measurement, the shooting position calculation unit calculates and determines the planned shooting position. Stereo image shooting system characterized by the above.
請求項1乃至8のいずれかに記載のステレオ画像撮影用システムにおいて、
上記測定部は、さらに、測定された撮影位置の位置データを上記撮影部側に送出するように構成されたことを特徴とするステレオ画像撮影用システム。
The stereo image shooting system according to any one of claims 1 to 8,
The stereo image capturing system, wherein the measuring unit is further configured to send position data of the measured capturing position to the capturing unit side.
請求項1乃至9のいずれかに記載のステレオ画像撮影用システムにおいて、
上記測定部により測定された位置データと上記撮影部のカメラで撮影された撮影画像データとを関連付けて記憶するための画像記憶部を
さらに備えたステレオ画像撮影用システム。
The stereo image shooting system according to any one of claims 1 to 9,
A stereo image capturing system further comprising an image storage unit for storing the position data measured by the measuring unit and the captured image data captured by the camera of the capturing unit in association with each other.
請求項1乃至10のいずれかに記載のステレオ画像撮影用システムにおいて、
撮影のためのプラットホームに、少なくとも上記撮影部、上記駆動部、上記移動制御部が搭載され、
上記プラットホームと上記測定部との間とのデータの送出のための送受信器を
さらに備えたステレオ画像撮影用システム。
The stereo image capturing system according to any one of claims 1 to 10,
At least the photographing unit, the driving unit, and the movement control unit are mounted on a platform for photographing,
A stereo image capturing system further comprising a transceiver for transmitting data between the platform and the measurement unit.
JP2000190513A 2000-06-26 2000-06-26 Stereo imaging system Expired - Fee Related JP4276360B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000190513A JP4276360B2 (en) 2000-06-26 2000-06-26 Stereo imaging system
US09/887,267 US6611664B2 (en) 2000-06-26 2001-06-25 Stereo image photographing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000190513A JP4276360B2 (en) 2000-06-26 2000-06-26 Stereo imaging system

Publications (2)

Publication Number Publication Date
JP2002006424A JP2002006424A (en) 2002-01-09
JP4276360B2 true JP4276360B2 (en) 2009-06-10

Family

ID=18689968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000190513A Expired - Fee Related JP4276360B2 (en) 2000-06-26 2000-06-26 Stereo imaging system

Country Status (1)

Country Link
JP (1) JP4276360B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010297A (en) * 2000-06-26 2002-01-11 Topcon Corp Stereoscopic image photographing system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6367522B2 (en) 2013-02-28 2018-08-01 株式会社トプコン Aerial photography system
JP5882951B2 (en) 2013-06-14 2016-03-09 株式会社トプコン Aircraft guidance system and aircraft guidance method
JP6316568B2 (en) 2013-10-31 2018-04-25 株式会社トプコン Surveying system
JP6326237B2 (en) 2014-01-31 2018-05-16 株式会社トプコン Measuring system
JP6490401B2 (en) 2014-11-12 2019-03-27 株式会社トプコン Tilt detection system and tilt detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010297A (en) * 2000-06-26 2002-01-11 Topcon Corp Stereoscopic image photographing system

Also Published As

Publication number Publication date
JP2002006424A (en) 2002-01-09

Similar Documents

Publication Publication Date Title
US8224030B2 (en) Position measuring method and position measuring instrument
JP7022559B2 (en) Unmanned aerial vehicle control method and unmanned aerial vehicle control program
JP3731123B2 (en) Object position detection method and apparatus
JP6994879B2 (en) Surveying system
KR100888716B1 (en) Gis system
CN112334733B (en) Calibration device for imaging device, monitoring device, working machine, and calibration method
JP5650942B2 (en) Inspection system and inspection method
US9776320B2 (en) Measurement and installation data indicating apparatus and measurement and installation data indicating method
US6611664B2 (en) Stereo image photographing system
KR100887361B1 (en) Gis system
JP6930840B2 (en) Surveying system
JP7050425B2 (en) Surveying system
KR102152720B1 (en) Photographing apparatus and method for 3d modeling
CN113984019A (en) Measurement system, measurement method, and measurement program
JP4276360B2 (en) Stereo imaging system
US20180003820A1 (en) Three-dimensional position measuring system, three-dimensional position measuring method, and measuring module
JP4430789B2 (en) Stereo imaging system
JP2002010297A (en) Stereoscopic image photographing system
JP2016139914A (en) Display device, portable terminal and control method
JP2622089B2 (en) Surveying equipment
JP2007033315A (en) Three-dimensional object surveying system and surveying photography analysis system
JP2003042760A (en) Instrument, method, and system for measurement
JP3122777B2 (en) Distance measuring device for unmanned vehicles
JP2010043961A (en) Three-dimensional image measuring system
JPH112521A (en) Position-measuring plotting device with inclination sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090306

R150 Certificate of patent or registration of utility model

Ref document number: 4276360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees