JP2002230586A - Image system for supporting three-dimensional survey using composite reality - Google Patents

Image system for supporting three-dimensional survey using composite reality

Info

Publication number
JP2002230586A
JP2002230586A JP2001023387A JP2001023387A JP2002230586A JP 2002230586 A JP2002230586 A JP 2002230586A JP 2001023387 A JP2001023387 A JP 2001023387A JP 2001023387 A JP2001023387 A JP 2001023387A JP 2002230586 A JP2002230586 A JP 2002230586A
Authority
JP
Japan
Prior art keywords
image
reference point
coordinates
camera
personal computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001023387A
Other languages
Japanese (ja)
Other versions
JP3398796B2 (en
Inventor
Hiroshi Chikahisa
久 博 志 近
Kaoru Kobayashi
林 薫 小
Kazunobu Matsumoto
元 和 伸 松
Hirotaka Nakahara
原 博 隆 中
Masayuki Tsutsui
井 雅 行 筒
Koju Kumagai
谷 幸 樹 熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobishima Corp
Original Assignee
Tobishima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobishima Corp filed Critical Tobishima Corp
Priority to JP2001023387A priority Critical patent/JP3398796B2/en
Publication of JP2002230586A publication Critical patent/JP2002230586A/en
Application granted granted Critical
Publication of JP3398796B2 publication Critical patent/JP3398796B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image system for supporting three-dimensional survey for displaying a precise three-dimensional position in survey work by composite reality on a notebook-sized or portable personal computer (herein after referred as a PC) and a stereoscopic display. SOLUTION: A CCD camera in place of an eye of a worker W, a sensor for obtaining a viewpoint position, and a sensor for obtaining a viewpoint attitude are mounted on the PC, and a plurality of reference points which a three-dimensional coordinate is known are arranged in a space which is an observation object. An image of the CCD camera is accumulated in an image accumulating part, is used in compositing with a plot object by an image composite part, and is used for correction of an error of a viewpoint position and viewpoint attitude sensor by a position and attitude detecting means. Because the plot object is superimposed on a predefined coordinate in a real space which is the observation object on the basis of obtained position and attitude information of the CCD camera, a stereoscopic image is projected successively on the PC and the stereoscopic display by a plot object restructuring part for restructuring the plot object and an image signal converting part for converting image data of the restructured plot object into an image display signal which can be displayed on an image display device.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は複合現実感を利用し
た3次元測量支援用画像システムに係り、特に建設工事
において現実空間に重ね合わせて映し出された仮想立体
映像を利用して対象とする現場に即した位置情報を提供
し、施工の合理化を図るようにした複合現実感を利用し
た3次元測量支援用画像システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional surveying support image system using mixed reality, and more particularly, to a construction site where a virtual three-dimensional image projected on a real space and projected is used in construction work. The present invention relates to a three-dimensional surveying support image system that uses mixed reality to provide location information that conforms to the requirements of (1) and streamlines construction.

【0002】[0002]

【従来の技術】近年のコンピュータ技術の発達により、
現実空間にコンピュータによる電子的な仮想データを融
合することを目的とした複合現実感(Mixed Re
ality、以下、MRと略す)に関する各種の提案が
なされている。MRは、コンピュータ内に仮想空間を構
築し、その中にあたかも存在するような体験をさせる仮
想現実感(Virtual Reality、VR)を
増強する技術として各方面で研究が盛んに行われてい
る。
2. Description of the Related Art With the recent development of computer technology,
Mixed Reality (Mixed Re) for the purpose of fusing electronic virtual data with a computer to the real space
(hereinafter referred to as MR). MR has been actively studied in various fields as a technique for constructing a virtual space in a computer and enhancing virtual reality (VR) for giving an experience as if it were present in the virtual space.

【0003】このMRを体験する方式は、ゴーグルを通
して入射する外界からの光を透過させるように位置する
ハーフミラー上に、組み込まれた表示素子に表示された
CG(コンピュータグラフィックス)による仮想空間の
立体映像を入射光と重ね合わせるようにして、光学系を
介して投影させることができる半透過型のHMD(He
ad Mounted Display)を利用する光
学シースルー方式と、ビデオカメラで撮影された映像に
仮想空間の立体映像を重畳するビデオシースルー方式に
分類される。
A method of experiencing this MR is to create a virtual space by CG (computer graphics) displayed on a display element incorporated on a half mirror positioned so as to transmit light from the outside entering through goggles. A transflective HMD (HeD) that can project a stereoscopic image through an optical system so as to be superimposed on incident light.
The method is classified into an optical see-through method using ad mounted display, and a video see-through method in which a stereoscopic image in a virtual space is superimposed on an image captured by a video camera.

【0004】MRの技術的課題の一つに、作業者の視点
位置・視点姿勢の検出あるいは算定誤差に起因して生じ
る現実空間と仮想空間の間の位置ずれという問題があ
り、従来から多くの取り組みが行われてきた。MRにお
ける位置合わせの問題は、作業者の3次元的な位置と姿
勢を正確に求める問題に帰着される。
One of the technical problems of MR is that there is a problem of misalignment between a real space and a virtual space caused by an error in detection or calculation of an operator's viewpoint position and viewpoint posture. Efforts have been made. The problem of alignment in MR is reduced to the problem of accurately determining the three-dimensional position and posture of the worker.

【0005】MRにおける作業者の3次元的な位置や姿
勢を求める方法には、主に光学シースルー方式のMRの
場合に利用される、自動追尾型トータルステーション、
GPS受信器、ジャイロセンサ、加速度センサ、磁気セ
ンサおよび超音波センサなどを利用するトラッカベース
法と、主にビデオシースルー方式のMRの場合に利用さ
れる、画像情報を基に画像上での位置合わせを直接行う
画像ベース法が一般的に用いられる。
[0005] A method for obtaining a three-dimensional position and posture of an operator in MR includes an automatic tracking type total station mainly used in the case of an optical see-through type MR.
Tracker-based method using GPS receiver, gyro sensor, acceleration sensor, magnetic sensor, ultrasonic sensor, etc., and positioning on image based on image information, mainly used for video see-through type MR Is generally used.

【0006】トラッカベース法の場合、動作が安定して
いる反面、行動範囲がトラッカの有効範囲に限定され
る、計測精度が十分とは言えないなどの問題があり、特
にトラッカの計測誤差が位置ずれの原因になっている。
[0006] In the tracker-based method, although the operation is stable, there are problems such as that the action range is limited to the effective range of the tracker and the measurement accuracy is not sufficient. It is the cause of misalignment.

【0007】一方、画像ベース法の場合、ランドマーク
の抽出や識別といった画像処理の不安定さによりシステ
ムの安定性に欠ける。これに対して、近年、センサと画
像情報の両者を併用することによって位置合わせを行う
手法が提案されている。
On the other hand, the image-based method lacks system stability due to instability in image processing such as landmark extraction and identification. On the other hand, in recent years, there has been proposed a method of performing alignment using both a sensor and image information.

【0008】ところで、土木、建築などの建設工事では
構造物の建設位置を絶対座標で把握し、その絶対座標を
もとに設計上の構造寸法を有する構造物を構築する。こ
のため、建設工事の現場では、3次元的な絶対座標を測
定する測量作業が必要となる。このような構造物の位置
出しは、測距装置、測角装置、水準儀、スチールテープ
やレーザーマーカなどの測量機器を利用して、多大な労
力と作業時間を掛けて実測しながら行っていた。
In construction works such as civil engineering and construction, the construction position of a structure is grasped in absolute coordinates, and a structure having a designed structural dimension is constructed based on the absolute coordinates. For this reason, a surveying operation for measuring three-dimensional absolute coordinates is required at a construction site. The positioning of such a structure has been carried out using a measuring device such as a distance measuring device, an angle measuring device, a level gauge, a steel tape or a laser marker, and a great deal of labor and work time has been required for the actual measurement.

【0009】[0009]

【発明が解決しようとする課題】MRにおける画像ベー
ス法による位置合わせに関する研究事例の多くは、位置
ずれを2次元的に作業者の見え方に一致させる手法であ
り、カメラ位置と姿勢情報に3次元的に正しい補正を加
えるものではなく、センサ誤差が小さい場合に限定され
ていた。
Many of the research cases relating to the registration based on the image-based method in MR are methods for two-dimensionally matching the displacement with the appearance of the worker. The correction is not dimensionally correct and is limited to the case where the sensor error is small.

【0010】そこで、本発明の目的は上述したMRにお
ける位置合わせに関する問題点を解消し、CGにより作
成された仮想立体映像情報を、作業者がディスプレイを
介して見ることにより、現実空間内で作業者が行う測量
作業に有用な情報を与え、作業の効率化、施工精度、安
全性の向上を図ることにある。
Therefore, an object of the present invention is to solve the above-described problems relating to the positioning in MR, and to allow a worker to view virtual stereoscopic video information created by CG via a display, thereby enabling the operator to work in real space. The purpose of the present invention is to provide useful information to a surveying operation performed by a worker to improve the efficiency of the operation, the construction accuracy and the safety.

【0011】[0011]

【課題を解決するための手段】本発明の複合現実感を利
用した3次元測量支援用画像システムは、作業者の目の
替りとなるCCDカメラを介してノート型或は携帯可能
のパソコンに表示された観察対象測量地域の画像は、そ
の現実空間に加えて、予め設計した構造物である描画オ
ブジェクトをその所定設置場所の仮想空間を重畳させ複
合現実感を持たせる画像表示とする3次元測量支援用画
像システムであって、前記パソコンは、左目用及び右目
用CCDカメラを所定位置に装着し、またそのカメラ視
点位置及び姿勢センサデータを逐次取得してセンサデー
タ記憶部に送信する位置及び姿勢センサ取得装置部を所
定位置に装着し、前記描画オブジェクトの所定設置場所
を示す3次元座標が既知である複数の基準点が含まれる
前記CCDカメラの画像をリアルタイムでデジタル画像
として逐次画像蓄積部に書込み更新する画像蓄積手段
と、オペレータが初期画像上の基準点の写真座標の抽出
とカメラの少なくとも主点位置、画面距離補正を行う初
期設定の完了後に、前記画像蓄積部より呼出した左右カ
メラの各画像中の複数の基準点を画像面上に自動抽出
し、その位置を定める基準点自動抽出手段と、3次元座
標が(X,Y,Z)であるような点の写真座標(x,
y)を表わす射影幾何学に基づく共線条件式において、
前記座標(X,Y,Z)を既知とする基準点座標と、前
記自動抽出し算出した複数の基準点の各写真座標(x,
y)とから、未知のCCDカメラ位置(座標X
,Z)及び姿勢(回転軸ω,φ,κ)を解く位置
・姿勢検出手段と、前記位置・姿勢検出手段により得ら
れる前記パソコンに装着したCCDカメラ位置及び姿勢
に基づいて、前記現実空間の写真座標基準点に従って前
記描画オブジェクトをそのデータベースより呼出して重
畳させるために逐次描画オブジェクトを再構築する描画
オブジェクト再構築手段と、前記画像蓄積部より観察対
象のCCDカメラ画像を呼出し、その現実空間に、前記
再構築した描画オブジェクトの仮想空間を重畳する画像
合成手段と、前記CCDカメラ画像に描画オブジェクト
を合成した画像データを前記パソコンの表示部に表示可
能な映像表示信号に変換する映像信号変換手段とを少な
くとも備えることを特徴とする。
SUMMARY OF THE INVENTION A three-dimensional surveying support image system using mixed reality according to the present invention is displayed on a notebook or portable personal computer via a CCD camera as an eye for an operator. The image of the observation target survey area obtained is a three-dimensional survey in which, in addition to the real space, a drawing object, which is a pre-designed structure, is superimposed on the virtual space at the predetermined installation location to provide an image display that provides mixed reality. An image system for assistance, wherein the personal computer mounts left and right eye CCD cameras at predetermined positions, sequentially obtains camera viewpoint position and posture sensor data, and transmits the sensor data to a sensor data storage unit. The CCD camera, which includes a plurality of reference points whose three-dimensional coordinates indicating a predetermined installation position of the drawing object are mounted, wherein the sensor acquisition device is mounted at a predetermined position. Image storage means for sequentially writing and updating the image as a digital image in the image storage unit in the image storage unit, and completion of the initial setting in which the operator extracts the photograph coordinates of the reference point on the initial image and corrects at least the principal point position and the screen distance of the camera. Subsequently, a plurality of reference points in each image of the left and right cameras called from the image storage unit are automatically extracted on the image plane, and the reference point automatic extraction means for determining the position and the three-dimensional coordinates are (X, Y, Z). ), The photo coordinates (x,
In a collinear conditional expression based on projective geometry representing y),
The reference point coordinates for which the coordinates (X, Y, Z) are known, and the respective photograph coordinates (x,
y), the unknown CCD camera position (coordinates X 0 ,
Y 0 , Z 0 ) and posture (rotational axes ω, φ, κ) based on position / posture detection means, and the position and posture of the CCD camera mounted on the personal computer obtained by the position / posture detection means. A drawing object reconstructing means for sequentially reconstructing a drawing object in order to call and superimpose the drawing object from its database in accordance with the photograph coordinate reference point in the real space; and a CCD camera image to be observed is called from the image storage unit. Image synthesizing means for superimposing the virtual space of the reconstructed drawing object on the real space, and an image for converting image data obtained by synthesizing the drawing object on the CCD camera image into an image display signal which can be displayed on the display unit of the personal computer And at least signal conversion means.

【0012】また、前記位置・姿勢検出手段の共線条件
式においてカメラ位置及び姿勢を未知数として解くに際
し、主点位置ずれを含む補正計算を簡単化するため、2
台のCCDカメラのステレオ・ペア画像により少なくと
も主点位置ずれ・画面距離の内部標定要素を補正後、前
記未知数をその近似値と微少補正量とに分解して非線形
方程式を線形化し繰返し計算によって解くことを特徴と
する。
Further, when solving the camera position and orientation as unknowns in the collinear condition expression of the position / posture detection means, to simplify the correction calculation including the displacement of the principal point,
After correcting the internal orientation elements of at least principal point displacement and screen distance by stereo pair images of two CCD cameras, the unknown is decomposed into its approximate value and a small correction amount, and a nonlinear equation is linearized and solved by iterative calculation. It is characterized by the following.

【0013】また、前記位置・姿勢検出手段は、オペレ
ータが前記初期設定を行った後の初期状態に際しては、
前記パソコンの位置及び姿勢センサ取得装置部のセンシ
ング結果を取得して、その値を初期状態で与えるカメラ
位置及び姿勢の前記近似値として共線条件式を解き、そ
れ以降のフレームの近似値はその時点でのセンシング結
果を用い、もし誤差の大きい場合については前フレーム
の解析結果を用いることを特徴とする。
[0013] The position / posture detecting means may be provided in an initial state after the initial setting by the operator.
Acquire the sensing result of the position and orientation sensor acquisition device section of the personal computer, solve the collinear conditional expression as the approximate value of the camera position and orientation that gives the value in the initial state, and the approximate values of the subsequent frames are It is characterized in that the sensing result at the time is used, and if the error is large, the analysis result of the previous frame is used.

【0014】また、前記位置データ取得装置部は、パソ
コンの所定位置に反射プリズムを装着すると共に、自動
追尾機能付きの位置測定用トータルステーションにより
検出された位置データを無線モデムを介して前記反射プ
リズムに送信し、逐次前記センサデータ記憶部に記録す
ることを特徴とする。
Further, the position data acquisition device section mounts a reflecting prism at a predetermined position on a personal computer, and transfers position data detected by a position measuring total station having an automatic tracking function to the reflecting prism via a wireless modem. The data is transmitted and sequentially recorded in the sensor data storage unit.

【0015】また、前記姿勢データ取得装置部は、パソ
コンの所定位置にジャイロセンサを装着し、そこで検出
された姿勢データを逐次前記センサデータ記憶部に記録
することを特徴とする。
Further, the attitude data acquisition device section is characterized in that a gyro sensor is mounted at a predetermined position of a personal computer, and the attitude data detected there is sequentially recorded in the sensor data storage section.

【0016】また、前記パソコンはその表示部は液晶デ
ィスプレイであり、その左右にそれぞれ左目用CCDカ
メラ及び右目用CCDカメラの映像を一定の周波数でリ
フレッシュされて表示され、作業者はこの周波数に同期
して開閉する液晶シャッターメガネを装着することによ
って複合現実感を体験することを特徴とする。
The personal computer has a liquid crystal display as a display unit, and the left and right images of the left-eye CCD camera and the right-eye CCD camera are refreshed and displayed at a constant frequency on the left and right sides thereof. It is characterized by experiencing mixed reality by wearing liquid crystal shutter glasses that open and close.

【0017】また、前記映像変換手段により変換した映
像表示信号を前記パソコンの表示部に送信すると共に立
体視ディスプレイの表示部にも送信し、左右の映像を分
離するため2枚のイメージスプリッタを配置したディス
プレイとして、作業者はメガネなしで立体視できること
を特徴とする。
Also, the image display signal converted by the image conversion means is transmitted to the display section of the personal computer and also to the display section of the stereoscopic display, and two image splitters are arranged to separate the left and right images. The display is characterized in that the worker can view stereoscopically without glasses.

【0018】また、前記基準点自動抽出手段は、前記初
期画像で補正されたCCDカメラ主点位置・画面距離に
加えて、前フレームでのカメラ位置及び姿勢データを基
に前記複数の各基準点のカメラ画像上の写真座標を逆算
し、その座標の周囲に所定の探索範囲を設定して、そこ
の基準点のRGB情報を基に正確な基準点の写真座標を
自動的に抽出する探索範囲設定手段を含むことを特徴と
する。
Further, the reference point automatic extracting means includes a plurality of the plurality of reference points based on camera position and orientation data in the previous frame, in addition to the CCD camera principal point position and screen distance corrected in the initial image. A search range in which the photo coordinates on the camera image are calculated backward, a predetermined search range is set around the coordinates, and the accurate photo coordinate of the reference point is automatically extracted based on the RGB information of the reference point there. It is characterized by including setting means.

【0019】また、前記基準点自動抽出手段は、予め基
準点の周囲と異なる色でマーキングする基準点マーキン
グ手段を含み、基準点自動抽出を実行する前にオペレー
タが初期画像での最初のフレームの基準点の写真座標の
抽出を容易に行えることを特徴とする。
Further, the reference point automatic extracting means includes a reference point marking means for marking in advance a color different from the surroundings of the reference point, and an operator sets the first frame of the initial image in the initial image before executing the reference point automatic extraction. It is characterized in that the photograph coordinates of the reference point can be easily extracted.

【0020】また、前記基準点自動抽出手段における基
準点抽出時の探索範囲内でのRGB値に対するパターン
自動認識では、以下の〜の4つの処理を繰返すこと
を特徴とする。 前フレームで抽出した基準点iのR値(R
(t))、G値(G(t))、B値(B
(t))、幅(w(t))、高さ(h(t))を
記憶しておく; 「切り捨て処理」(1) R(t),G
(t),B(t)の最大値(A(t)MAX)を
取るA値(AはR,G,Bのうちいずれかを意味する)
がA(t+1)<A(t)MAX/2である画素
と、(2) R(GB)値それぞれにしきい値dR(G
B)を設け、R(GB)(t)−dR(GB)<R
(GB)(t+1)<R(GB)(t)+dR(G
B)となる画素以上の画素を切り捨てる(重みを0とす
る); 「連続性処理」探索範囲に重み≠0の範囲が連続す
る画素の集合が2つ以上ある場合、その集合の幅w
(t+1)と高さh(t+1)が最もw
(t)),h(t)に近いもののみを抽出する; 探索範囲内のA値に対する重み付き重心座標を求め
写真座標とする。
In the automatic pattern recognition for the RGB values within the search range at the time of the reference point extraction by the reference point automatic extracting means, the following four processes are repeated. R value of reference point i extracted in the previous frame (R
i (t)), G value (G i (t)), B value (B
i (t)), width (w i (t)), stores the height (h i (t)); "truncation" (1) R i (t) , G
A value (A means any one of R, G, and B) that takes the maximum value (A i (t) MAX ) of i (t) and B i (t)
There A i (t + 1) < A i and the pixel is (t) MAX / 2, ( 2) R (GB) value respectively threshold dR (G
B), and R (GB) i (t) −dR (GB) <R
(GB) i (t + 1) <R (GB) i (t) + dR (G
B) Pixels equal to or larger than B) are discarded (weight is set to 0); When there are two or more sets of pixels having a range of weight ≠ 0 in the “continuity processing” search range, the width w of the set is
i (t + 1) and the height hi (t + 1) are w
i (t)) and only those close to hi (t) are extracted; weighted barycentric coordinates for the A value within the search range are obtained and set as photograph coordinates.

【0021】[0021]

【発明の実施の形態】以下、本発明の複合現実感を利用
した3次元測量支援用画像システムの実施の形態を図に
基づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a three-dimensional surveying support image system utilizing mixed reality according to the present invention will be described below with reference to the drawings.

【0022】図1は本発明の3次元測量支援用画像シス
テム100に用いるノート型或は携帯可能なパソコン1
の構成図を示し、図2はそのシステム100の動作の流
れを説明するための図である。
FIG. 1 shows a notebook or portable personal computer 1 used in an image system 100 for supporting three-dimensional surveying according to the present invention.
FIG. 2 is a diagram for explaining the flow of operation of the system 100.

【0023】図1、図2において、1はパソコン、2は
立体視ディスプレイ、P〜Pは観察対象測量地域1
0に設置する予定の構成物の設置場所を示す複数の基準
点である。この基準点は3次元座標(X,Y,Z)が既
知である。
1 and 2, reference numeral 1 denotes a personal computer, 2 denotes a stereoscopic display, and P 1 to P n denote observation surveying areas 1.
There are a plurality of reference points indicating the installation locations of components to be installed at 0. The three-dimensional coordinates (X, Y, Z) of this reference point are known.

【0024】パソコン1は市販のオペレーティングシス
テム(OS)で制御されており、ここで3は中央制御
部、4は表示部或は液晶ディスプレイを示す。5はキー
及びポインティングデバイス入力装置部、6はCDディ
スクドライブ、7はハードディスク装置、8はバス、I
/Fはインターフェイス回路を示す。
The personal computer 1 is controlled by a commercially available operating system (OS), where 3 is a central control unit, and 4 is a display unit or a liquid crystal display. 5 is a key and pointing device input unit, 6 is a CD disk drive, 7 is a hard disk drive, 8 is a bus,
/ F indicates an interface circuit.

【0025】また、11L,11Rはそれぞれ左目右目
の替りのCCDカメラを示し、図2に示すようにパソコ
ン1の筐体の所定位置に装着し、観察対象測量地域10
に設置予定構造物の設定場所の基準点P〜Pを含め
てその映像を取得する。
Reference numerals 11L and 11R denote CCD cameras for the left and right eyes, respectively, which are mounted at predetermined positions on the housing of the personal computer 1 as shown in FIG.
Including the reference point P 1 to P n of the set location of the planned installation structure to get the video.

【0026】また、21,22は位置及び姿勢センサ取
得装置部であり、図2に示すようにパソコン1の筐体の
所定位置に装着し、前記カメラの視点位置及び姿勢セン
シング結果を取得する。
Reference numerals 21 and 22 denote position and orientation sensor acquisition units, which are mounted at predetermined positions on the housing of the personal computer 1 as shown in FIG. 2, and acquire the viewpoint position and orientation sensing results of the camera.

【0027】また、42は映像信号転送部であり、後述
の映像信号変換手段41で生成された映像信号はこの転
送部42を介して立体像ディスプレイ2の映像信号受信
部40へ送られ立体像ディスプレイ2の表示部44へ表
示する。
Reference numeral 42 denotes a video signal transfer unit. The video signal generated by the video signal conversion means 41 described later is sent to the video signal receiving unit 40 of the stereoscopic image display 2 via the transfer unit 42 and is sent to the stereoscopic image display unit 2. The information is displayed on the display unit 44 of the display 2.

【0028】次に、図2に基づいて本発明のシステム1
00の動作の流れを詳細に説明する。
Next, the system 1 of the present invention will be described with reference to FIG.
00 will be described in detail.

【0029】このシステムの動作に必要なCCDカメラ
画像蓄積手段12、カメラ画像の基準点自動抽出手段1
3、カメラ位置・姿勢検出手段23、描画オブジェクト
再構築手段31、画像合成手段32、映像信号変換手段
41のアプリケーションプログラムは、予めハードディ
スク装置7などへ記録しておく。
CCD camera image storage means 12 necessary for operation of the system, camera image reference point automatic extraction means 1
3. The application programs of the camera position / posture detecting means 23, the drawing object reconstructing means 31, the image synthesizing means 32, and the video signal converting means 41 are recorded in the hard disk device 7 or the like in advance.

【0030】以上の各手段12,13,23,31,3
2,41をシステム100の動作の流れの順に従って説
明する。
Each of the above means 12, 13, 23, 31, 3
2, 41 will be described in the order of the operation flow of the system 100.

【0031】まず、パソコン1に装着されたCCDカメ
ラ11L,11Rを観察対象測量地域10に向けて設置
する。CCDカメラの映像の現実空間の中に予め設計し
た構造物を設置する場所を示す基準点P〜Pが入る
ようにパソコン1を設置する。
First, the CCD cameras 11L and 11R attached to the personal computer 1 are set facing the observation target survey area 10. The reference point P 1 to P n indicating the location for installing the pre-designed structure installing the computer 1 to enter into the real space image of the CCD camera.

【0032】次に、映像蓄積手段12により、前記映像
をCCDカメラより取得する。そのCCDカメラ映像に
は、予め設計した構造物である描画オブジェクトの設定
設置場所を示す3次元座標が既知である複数の基準点が
含まれているが、そのカメラ映像をリアルタイムでデジ
タル映像として逐次画像蓄積部12aに書込み更新す
る。
Next, the image is acquired from the CCD camera by the image storage means 12. The CCD camera image includes a plurality of reference points whose three-dimensional coordinates indicating the setting and installation positions of the drawing object which is a pre-designed structure are known, and the camera image is sequentially converted into a digital image in real time. The data is updated in the image storage unit 12a.

【0033】次に、パソコン1の表示部4に左右のCC
Dカメラ11L,11Rから取得した映像をそれぞれ左
右に表示する。オペレータがこの初期画像上の基準点P
〜Pの写真座標(x,y)をそれぞれ抽出し、また
カメラ11の主点位置、画面距離補正を行う「初期設
定」の完了した後に、基準点自動抽出手段13により画
像蓄積部12aより呼出した左右カメラの各画像中の複
数の基準点P〜Pを画像面上で自動抽出し、その位
置を定める。
Next, the left and right CCs are displayed on the display unit 4 of the personal computer 1.
The images acquired from the D cameras 11L and 11R are displayed on the left and right, respectively. The operator determines the reference point P on this initial image.
After the “initial setting” of extracting the photograph coordinates (x, y) of 1 to P n and correcting the principal point position of the camera 11 and the screen distance is completed, the reference point automatic extraction means 13 causes the image storage unit 12 a to be used. automatically extracting a plurality of reference points P 1 to P n in each image of the left and right cameras more calls in the image plane, determining its position.

【0034】次に、位置・姿勢検出手段23により、3
次元座標が(X,Y,Z)であるような点の写真座標
(x,y)を表わす射影幾何学に基づく共線条件式にお
いて、その座標を既知とする基準点座標と、手段13に
より自動抽出し算出した複数の基準点の各写真座標
(x,y)とから、未知数のCCDカメラ位置(座標X
,Y,Z)及び姿勢(回転軸ω,φ,κ)を解
く。
Next, the position / posture detecting means 23
In a collinear conditional expression based on projective geometry representing photographic coordinates (x, y) of a point whose dimensional coordinates are (X, Y, Z), a reference point coordinate whose coordinates are known, From the photograph coordinates (x, y) of the plurality of reference points automatically extracted and calculated, the unknown CCD camera position (coordinate X
0 , Y 0 , Z 0 ) and attitude (rotational axes ω, φ, κ).

【0035】ここで、前述の共線条件式について、より
詳しく以下に述べる。
Here, the aforementioned collinear condition expression will be described in more detail.

【0036】測定用カメラのように、カメラレンズのひ
ずみ曲収差が無視できる場合、座標が(X,Y,Z)で
あるような点の写真座標(x,y)は、共線条件式
(1)(2)で表される。(図3参照)
When the distortion of the camera lens is negligible as in a measuring camera, the photographic coordinates (x, y) of a point whose coordinates are (X, Y, Z) are expressed by the collinear conditional expression ( 1) and (2). (See Fig. 3)

【0037】[0037]

【式1】 (Equation 1)

【0038】[0038]

【式2】 (Equation 2)

【0039】ここで、cは画面距離、(X,Y,Z
)はカメラ投影中心の座標、(ω,φ,κ)はカメラ
の姿勢であり、aijは回転行列の要素である。カメラ
の画面距離cが既知である場合、3点以上の基準点が与
えられればカメラ位置と姿勢は一義的に求められる。し
かし、使用するCCDカメラは非測定用カメラであり、
主点位置Hのずれ(x,y)、カメラレンズのひず
み曲収差を考慮する必要があり、この場合、式(1)
(2)の共線条件式の左辺は、それぞれx−x−△
x,y−y−△yで表される。ただし、
Here, c is the screen distance, (X 0 , Y 0 , Z
0 ) is the coordinates of the camera projection center, (ω, φ, κ) is the attitude of the camera, and a ij is an element of the rotation matrix. When the screen distance c of the camera is known, the camera position and orientation can be uniquely obtained if three or more reference points are given. However, the CCD camera used is a non-measurement camera,
It is necessary to consider the displacement (x h , y h ) of the principal point position H and the distortion of the camera lens. In this case, the equation (1)
Left side of the collinear conditional expression (2), respectively x-x h - △
x, y-y h- △ y. However,

【0040】[0040]

【式3】 (Equation 3)

【0041】[0041]

【式4】 (Equation 4)

【0042】[0042]

【式5】 (Equation 5)

【0043】である。さらに、カメラの画面距離cも厳
密には未知であるため、共線条件式は、外部標定要素
(X,Y,Z,ω,φ,κ)に加えて、内部標定
要素(c,x,y,k,k,k,γ,p
)も未知数となって、繰り返し計算に時間を要す
る。そこで、主点位置H補正計算を簡単に行うために、
事前にMR体験と同条件で被験者のHMDに装着した2
台のCCDカメラ11L,11Rのステレオ・ペア画像
によって、これらの内部標定要素をキャリブレートして
おく。共線条件式(1)(2)は、未知数(カメラ位置
と姿勢)について非線形であるため、解析では未知数を
「近似値」と「微少補正量」とに分解して非線形方程式
を線形化し、繰り返し計算によって解を求める。
Is as follows. Further, since the screen distance c of the camera is also strictly unknown, the collinear conditional expression includes the internal orientation element (c) in addition to the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ). , X h , y h , k 1 , k 2 , k 3 , γ, p 1 ,
p 2 ) also becomes an unknown number, and it takes time for iterative calculation. Therefore, in order to easily calculate the principal point position H correction,
2 previously worn on the subject's HMD under the same conditions as the MR experience
These internal orientation elements are calibrated by stereo pair images of the two CCD cameras 11L and 11R. Since the collinear conditional expressions (1) and (2) are nonlinear with respect to the unknowns (camera position and attitude), the analysis decomposes the unknowns into “approximate values” and “small correction amounts” to linearize the nonlinear equations, Find a solution by iterative calculation.

【0044】前記位置・姿勢検出手段13では、オペレ
ータが前述した「初期設定」を行った後の初期状態に際
しては、前記パソコンの位置及び姿勢センサ取得装置部
21,22、すなわちトラッカのセンシング結果を取得
して、その値を初期状態で与えるカメラ位置及び姿勢の
前記「近似値」として共線条件式(1)(2)を解く。
すなわち、初期状態で与える外部標定要素(カメラ位置
・姿勢に関する要素、X,Y,Z,ω,φ,κ)
の「近似値」はトラッカのセンシング結果を用い、以降
の「近似値」はその時点で活用できるトラッカの精度を
考慮して、誤差の大きいものについては、前フレームで
の解析結果を、その他はその時点でのトラッカのセンシ
ング結果を用いる。この際、各外部標定要素には個別に
ウェイトを与えることによって、トラッカの精度を考慮
した解析を行う。例えば、ジャイロセンサの鉛直軸周り
のドリフトと呼ばれる見地角度のずれが顕著な場合はκ
の、位置センサが測定範囲外になった場合はX
,Zのウェイトを小さくすることになる。
In the position / posture detecting means 13, in the initial state after the above-mentioned “initial setting” is performed by the operator, the position / posture sensor acquisition device units 21, 22 of the personal computer, that is, the sensing results of the tracker are read. The collinear condition formulas (1) and (2) are obtained as the "approximate values" of the camera position and orientation which are acquired and given in the initial state.
That is, external orientation elements (elements related to camera position / posture, X 0 , Y 0 , Z 0 , ω, φ, κ) given in the initial state
The "approximate value" uses the tracker sensing result, and the subsequent "approximate value" takes into account the accuracy of the tracker that can be used at that time. The tracker sensing result at that time is used. At this time, each external orientation element is individually given a weight to perform an analysis in consideration of the accuracy of the tracker. For example, if the deviation of the viewing angle called drift around the vertical axis of the gyro sensor is remarkable, κ
If the position sensor goes out of the measurement range, X 0 ,
The weights of Y 0 and Z 0 will be reduced.

【0045】なお、図3は重複写真の共線条件を示す説
明図であり、P(X,Y,Z)は基準点、O
は(X,Y,Z)はそれぞれ左右カメラ位置、O
C1,OC2はそれぞれ左右のカメラ画像PC1,P
C2はそれぞれ写真座標を示す。また、H,Hはそ
れぞれの主点位置、C,Cはそれぞれの画面距離を
示す。また、ω,φ,κはそれぞれ座標X,Y,Z軸の
回転角、すなわちカメラ姿勢を定めるものである。
FIG. 3 is an explanatory view showing the collinear condition of the overlapped photograph, where P (X P , Y P , Z P ) is a reference point, O 1 , O 1 ,
O 2 is (X, Y, Z) is the left and right camera position, O
C1 and O C2 are left and right camera images P C1 and P C , respectively.
C2 indicates photographic coordinates. H 1 and H 2 indicate respective principal point positions, and C 1 and C 2 indicate respective screen distances. Further, ω, φ, and κ determine the rotation angles of the coordinates X, Y, and Z axes, that is, the camera attitude.

【0046】次に、描画オブジェクト再構築手段31
は、前述の位置・姿勢検出手段23により得られる前記
パソコンに装着したCCDカメラ位置及び姿勢に基づい
て、前記現実空間の写真座標基準点に従って、予め描画
オブジェクト基本形状データ部30(データベース)を
呼出して、その描画オブジェクトを重畳させるために逐
次描画オブジェクトを再構築する。
Next, the drawing object reconstructing means 31
Calls the drawing object basic shape data unit 30 (database) in advance in accordance with the photographic coordinate reference point in the real space based on the position and orientation of the CCD camera mounted on the personal computer obtained by the position / posture detection means 23 described above. Then, the drawing object is sequentially reconstructed in order to superimpose the drawing object.

【0047】次に、画像合成手段32は、前記画像蓄積
部12aより観察対象のCCDカメラ画像を呼出し、そ
の現実空間に、前記再構築した描画オブジェクトの仮想
空間を重畳する。
Next, the image synthesizing means 32 calls the CCD camera image to be observed from the image storage section 12a, and superimposes the virtual space of the reconstructed drawing object on the real space.

【0048】次に、映像信号変換手段41はCCDカメ
ラ画像に描画オブジェクトを合成した画像データをパソ
コン1の表示部4に表示可能な映像表示信号に変換す
る。
Next, the video signal conversion means 41 converts the image data obtained by combining the drawing object with the CCD camera image into a video display signal that can be displayed on the display unit 4 of the personal computer 1.

【0049】その変換出力はパソコン1の表示部4へ出
力され、表示される。なお、立体像ディスプレイ2へは
前述したように、転送部42を介して、立体像ディスプ
レイ2の受信部40で受信し、表示部44へ表示する。
The converted output is output to the display unit 4 of the personal computer 1 and displayed. As described above, the data is received by the receiving unit 40 of the stereoscopic image display 2 via the transfer unit 42 and is displayed on the display unit 44.

【0050】次に、前述した基準点自動抽出手段13に
ついて、より詳細に以下に説明する。
Next, the above-mentioned reference point automatic extracting means 13 will be described in more detail.

【0051】自動抽出手段13は、予め基準点P〜P
の周囲を異なる色でマーキングする基準点マーキング
手段13yを含み、基準点自動抽出を実行する前にオペ
レータが初期画像での最初のフレームの基準点の写真座
標の抽出を容易に行えるようにする。
The automatic extraction means 13 determines in advance the reference points P 1 -P
Reference point marking means 13y for marking the periphery of n with a different color so that the operator can easily extract the photograph coordinates of the reference point of the first frame in the initial image before executing the automatic extraction of the reference point. .

【0052】また、自動抽出手段13は前記初期画像で
補正されたCCDカメラ主点位置H ,H、画面距離
,Cに加えて、前フレームでのカメラ位置及び姿
勢データを基に基準点P〜Pのカメラ画像上の写真
座標を逆算し、その座標の周囲に所定の探索範囲を設定
して、そこの基準点のRGB情報を基に正確な基準点の
写真座標を自動的に抽出する探索範囲設定手段13xを
含む。この手段13xによって効率的に必要な部分のみ
探索することによって高速に正確に抽出できる。
Further, the automatic extraction means 13 uses the initial image
Corrected CCD camera principal point position H 1, H2, Screen distance
C1, C2In addition to the camera position and figure in the previous frame
Reference point P based on current data1~ PnPhoto on camera image
Reverse the coordinates and set a predetermined search range around the coordinates
Then, based on the RGB information of the reference point there,
Search range setting means 13x for automatically extracting the photograph coordinates
Including. Only the parts that are required efficiently by this means 13x
By searching, it can be accurately extracted at high speed.

【0053】また、自動抽出手段13の探索範囲設定手
段13xにおいて基準点抽出時の探索範囲内でのRGB
値に対するパターン自動認識では、 前フレームで抽出した基準点iのR値(R
(t)),G値(G(t)),B値(B
(t)),幅(w(t)),高さ(h(t))を
記憶しておく。(tは前フレームの時点) [切り捨て処理](1)R(t),G(t),
(t)の最大値(A(t)max)を取るA値
(AはR,G,Bのうちいずれかを意味する)がA
(t+1)<A(t)max/2である画素と、
(2)R(GB)値それぞれにしきい値dR(GB)を
設け、R(GB)(t)−dR(GB)<R(GB)
(t+1)<R(GB)(t)+dR(GB)とな
る画素以外の画素を切り捨てる(切り捨てた画素を重み
を0とする)。(t+1は現時点) [連続性処理]探索範囲に重み≠0(切り捨てられ
なかった画素の重み)の範囲が連続する画素の集合が2
つ以上ある場合、その集合の幅w(t+1)と高さh
(t+1)が最もw(t),h(t)に近いもの
のみを抽出する。 探索範囲内のA値に対する重み付き重心座標を求
め、写真座標とする。という処理を繰り返す。
In the search range setting means 13x of the automatic extraction means 13, RGB in the search range at the time of extraction of the reference point is extracted.
In the automatic pattern recognition for the value, the R value (R
i (t)), G value (G i (t)), B value (B
i (t)), width (w i (t)), stores the height (h i (t)). (T is the time of the previous frame) [Truncation processing] (1) R i (t), G i (t),
A value (A means any one of R, G, and B) that takes the maximum value (A i (t) max ) of B i (t) is A
a pixel where i (t + 1) < Ai (t) max / 2;
(2) A threshold value dR (GB) is provided for each R (GB) value, and R (GB) i (t) −dR (GB) <R (GB)
Pixels other than pixels satisfying i (t + 1) <R (GB) i (t) + dR (GB) are rounded down (the weight of the rounded down pixel is set to 0). (Continuity processing) A set of pixels in which the range of weight ≠ 0 (the weight of the pixels that have not been truncated) continues in the search range is 2
If there are more than two, the width w i (t + 1) and the height h of the set
i (t + 1) is the most w i (t), to extract only those close to the h i (t). The weighted barycentric coordinates for the A value within the search range are obtained and set as photograph coordinates. Is repeated.

【0054】本発明による具体的な実施例3次元測量支
援用画像システム200を図4に基づき以下に説明す
る。
Specific Embodiment of the Invention A three-dimensional surveying support image system 200 will be described below with reference to FIG.

【0055】1はいわゆるノート型或は携帯可能のパソ
コン1で、これにCCDカメラ11と位置センサとして
の反射プリズム24と、方位センサとしてのジャイロセ
ンサ25が取り付けられている。
Reference numeral 1 denotes a so-called notebook or portable personal computer 1 on which a CCD camera 11, a reflecting prism 24 as a position sensor, and a gyro sensor 25 as an azimuth sensor are attached.

【0056】26は自動追尾型のトータルステーション
で、無線モデム27を介して逐次反射プリズム24へ位
置データを送信する。
Reference numeral 26 denotes an automatic tracking type total station, which sequentially transmits position data to the reflecting prism 24 via a wireless modem 27.

【0057】トータルステーション26により検出され
た位置データと、ジャイロセンサ25により検出された
姿勢データは、逐次リアルタイムに画像蓄積部12aへ
書込み更新する。
The position data detected by the total station 26 and the attitude data detected by the gyro sensor 25 are sequentially written and updated in the image storage unit 12a in real time.

【0058】一方、CCDカメラ11L,11Rの画像
は逐次、パソコン1内の画像蓄積部12でデジタル画像
として蓄積され、パソコン1上で先ず、オペレータが初
期画像上の基準点Pの写真座標の抽出とカメラのキャリ
ブレーションすなわちX,Yの主点位置・画面距離
補正を行い、この初期設定完了後逐次、基準点の自動抽
出とカメラ位置・姿勢の検出が自動で行われる。
On the other hand, the images of the CCD cameras 11L and 11R are sequentially stored as digital images in the image storage unit 12 in the personal computer 1, and on the personal computer 1, the operator first extracts the photographic coordinates of the reference point P on the initial image. a camera calibration i.e. X h, subjected to principal point position and screen distance compensation of Y h, sequentially after the completion of the initial settings, the automatic extraction and camera position and posture detection of the reference points is carried out automatically.

【0059】前記手段によって検出されたカメラの位置
・姿勢を基に、パソコン1内の描画オブジェクト再構築
部31で描画オブジェクトを再構築し、画像合成部32
でCCDカメラ画像に描画オブジェクトを重畳し、映像
信号変換部41からパソコン1の表示部4に表示させる
と共に、パソコン1の映像信号転送部42を介して、立
体視ディスプレイ2の受信部40からその表示部44に
転送され、表示される。
Based on the position and orientation of the camera detected by the above means, the drawing object is reconstructed by the drawing object reconstructing section 31 in the personal computer 1 and the image compositing section 32 is reconstructed.
The drawing object is superimposed on the CCD camera image, and is displayed on the display unit 4 of the personal computer 1 from the video signal conversion unit 41, and is received from the receiving unit 40 of the stereoscopic display 2 via the video signal transfer unit 42 of the personal computer 1. The data is transferred to the display unit 44 and displayed.

【0060】表示部4は、パソコン1の液晶ディスプレ
イで、左右それぞれの異なる2つの映像を一定の周波数
でリフレッシュされて表示され、作業者はこの周波数に
同期して開閉する液晶シャッターメガネ43を装着する
ことによって、複合現実感を体験することができる。
The display unit 4 is a liquid crystal display of the personal computer 1 and displays two different left and right images refreshed at a certain frequency, and the operator wears liquid crystal shutter glasses 43 which open and close in synchronization with this frequency. By doing so, you can experience mixed reality.

【0061】立体視ディスプレイ2の表示部44は、左
右の映像を分離するため、2枚のイメージスプリッタを
配置したディスプレイで、作業者はメガネなしでの立体
視が可能である。
The display section 44 of the stereoscopic display 2 is a display on which two image splitters are arranged to separate the left and right images, so that an operator can perform stereoscopic viewing without glasses.

【0062】[0062]

【発明の効果】以上に述べたように本発明によれば、以
下に示す効果を奏する。
As described above, according to the present invention, the following effects can be obtained.

【0063】すなわち、複合現実感の提示における位置
合わせの精度が向上し、特に建設工事において現実空間
に重ね合わせて映し出された仮想立体映像を利用して、
対象とする現場に即した位置情報を提供し、測量作業や
施工の迅速化、合理化、安全性の向上という効果を奏す
る。
That is, the accuracy of the positioning in the presentation of the mixed reality is improved, and in particular, by utilizing the virtual stereoscopic video projected on the real space in the construction work,
Providing location information suitable for the target site, it has the effect of speeding up surveying and construction, streamlining, and improving safety.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の3次元測量支援用画像システムの構成
図である。
FIG. 1 is a configuration diagram of a three-dimensional surveying support image system according to the present invention.

【図2】本発明の3次元測量支援用画像システムの動作
の流れの説明図である。
FIG. 2 is an explanatory diagram of an operation flow of the three-dimensional survey support image system of the present invention.

【図3】重複写真の共線条件の説明図である。FIG. 3 is an explanatory diagram of a collinear condition of a duplicate photograph.

【図4】本発明の3次元測量支援用画像システムの具体
的な実施例での動作の流れを示す図である。
FIG. 4 is a diagram showing a flow of an operation in a specific embodiment of the three-dimensional survey support image system of the present invention.

【符号の説明】[Explanation of symbols]

1 ノート型或は携帯可能のパソコン 2 立体視ディスプレイ 3 中央制御部 4 パソコンの表示部 5 キー及びポインティングデバイス入力装置 6 光ディスクドライブ装置 7 ハードディスク装置 8 バス 10 観察対象測量地域 11,11L,11R CCDカメラ 12 画像蓄積手段 12a 画像蓄積部 13 基準点自動抽出手段 13x 抽出探索範囲設定手段 13y 基準点マーキング手段 21 位置センサ取得装置部 22 姿勢センサ取得装置部 23 位置・姿勢検出手段 23a センサデータ記憶部 30 描画オブジェクト基本形状データ部(データベ
ース) 31 描画オブジェクト再構築手段 32 画像合成手段 40 立体視ディスプレイ2の映像信号受信部 41 映像信号変換手段 42 映像信号転送部 43 液晶シャッターメガネ 44 立体視ディスプレイ2の表示部 100,200 3次元測量支援用画像システム I/F インターフェイス回路部 P,P,P,‥‥,P 3次元座標既知の基準
Reference Signs List 1 notebook or portable personal computer 2 stereoscopic display 3 central control unit 4 personal computer display unit 5 key and pointing device input device 6 optical disk drive device 7 hard disk device 8 bus 10 observation surveying area 11, 11L, 11R CCD camera DESCRIPTION OF SYMBOLS 12 Image storage means 12a Image storage part 13 Reference point automatic extraction means 13x Extraction search range setting means 13y Reference point marking means 21 Position sensor acquisition device part 22 Attitude sensor acquisition device part 23 Position / posture detection means 23a Sensor data storage part 30 Drawing Object basic shape data part (database) 31 Drawing object reconstructing means 32 Image synthesizing means 40 Video signal receiving part of stereoscopic display 2 41 Video signal converting means 42 Video signal transfer part 43 Liquid crystal shutter glasses 44 Stand Visual imaging system for display units 100 and 200 three-dimensional surveying assistance display 2 I / F interface circuit portion P, P 1, P 2, ‥‥, P n 3 -dimensional coordinates known reference point

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松 元 和 伸 東京都千代田区三番町2番地 飛島建設株 式会社内 (72)発明者 中 原 博 隆 東京都千代田区三番町2番地 飛島建設株 式会社内 (72)発明者 筒 井 雅 行 東京都千代田区三番町2番地 飛島建設株 式会社内 (72)発明者 熊 谷 幸 樹 東京都千代田区三番町2番地 飛島建設株 式会社内 Fターム(参考) 5B050 BA04 BA08 BA09 BA10 BA11 EA07 EA19 EA27 FA02 FA06 5C061 AA03 AA20 AB04 AB12 AB14 AB20  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Kazunobu Matsumoto 2 Sanbancho, Chiyoda-ku, Tokyo Tobishima Construction Co., Ltd. (72) Inventor Hirotaka Nakahara 2nd Sanbancho, Chiyoda-ku, Tokyo Tobishima (72) Inventor Masayuki Tsutsui 2nd Sanbancho, Chiyoda-ku, Tokyo Tobishima Construction Co., Ltd. (72) Inventor Yukiki Kumagai 2nd Sanbancho, Chiyoda-ku, Tokyo F-term in the formula company (reference) 5B050 BA04 BA08 BA09 BA10 BA11 EA07 EA19 EA27 FA02 FA06 5C061 AA03 AA20 AB04 AB12 AB14 AB20

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 作業者の目の替りとなるCCDカメラを
介してノート型或は携帯可能のパソコンに表示された観
察対象測量地域の画像は、その現実空間に加えて、予め
設計した構造物である描画オブジェクトをその所定設置
場所の仮想空間を重畳させ複合現実感を持たせる画像表
示とする3次元測量支援用画像システムであって、 前記パソコンは、左目用及び右目用CCDカメラを所定
位置に装着し、またそのカメラ視点位置及び姿勢センサ
データを逐次取得してセンサデータ記憶部に送信する位
置及び姿勢センサ取得装置部を所定位置に装着し、 前記描画オブジェクトの所定設置場所を示す3次元座標
が既知である複数の基準点が含まれる前記CCDカメラ
の画像をリアルタイムでデジタル画像として逐次画像蓄
積部に書込み更新する画像蓄積手段と、 オペレータが初期画像上の基準点の写真座標の抽出とカ
メラの少なくとも主点位置、画面距離補正を行う初期設
定の完了後に、前記画像蓄積部より呼出した左右カメラ
の各画像中の複数の基準点を画像面上に自動抽出し、そ
の位置を定める基準点自動抽出手段と、 3次元座標が(X,Y,Z)であるような点の写真座標
(x,y)を表わす射影幾何学に基づく共線条件式にお
いて、前記座標(X,Y,Z)を既知とする基準点座標
と、前記自動抽出し算出した複数の基準点の各写真座標
(x,y)とから、未知のCCDカメラ位置(座標
,Y,Z)及び姿勢(回転軸ω,φ,κ)を解
く位置・姿勢検出手段と、 前記位置・姿勢検出手段により得られる前記パソコンに
装着したCCDカメラ位置及び姿勢に基づいて、前記現
実空間の写真座標基準点に従って前記描画オブジェクト
をそのデータベースより呼出して重畳させるために逐次
描画オブジェクトを再構築する描画オブジェクト再構築
手段と、 前記画像蓄積部より観察対象のCCDカメラ画像を呼出
し、その現実空間に、前記再構築した描画オブジェクト
の仮想空間を重畳する画像合成手段と、 前記CCDカメラ画像に描画オブジェクトを合成した画
像データを前記パソコンの表示部に表示可能な映像表示
信号に変換する映像信号変換手段とを少なくとも備える
ことを特徴とする複合現実感を利用した3次元測量支援
用画像システム。
1. An image of an observation target survey area displayed on a notebook or portable personal computer via a CCD camera serving as an eye of an operator, in addition to its actual space, a structure designed in advance. 3. A three-dimensional surveying support image system for displaying a drawing object, which is an image display that superimposes a virtual space at a predetermined installation place on the virtual object and gives mixed reality, wherein the personal computer moves the left-eye and right-eye CCD cameras at predetermined positions. And a position and orientation sensor acquisition unit for sequentially acquiring and transmitting the camera viewpoint position and orientation sensor data to the sensor data storage unit are attached to a predetermined position, and three-dimensionally indicating a predetermined installation location of the drawing object. An image to be written and updated in real time as a digital image of the CCD camera including a plurality of reference points whose coordinates are known as a digital image. After the completion of the initial setting in which the operator extracts the photo coordinates of the reference point on the initial image and corrects at least the principal point position of the camera and the screen distance, the operator selects each of the left and right camera images called from the image storage unit. A reference point automatic extracting means for automatically extracting a plurality of reference points on an image plane and determining the positions thereof; and representing photograph coordinates (x, y) of a point whose three-dimensional coordinates are (X, Y, Z). In the collinear conditional expression based on the projective geometry, the reference point coordinates for which the coordinates (X, Y, Z) are known and the photograph coordinates (x, y) of the plurality of reference points automatically extracted and calculated are used. Position / posture detecting means for solving unknown CCD camera positions (coordinates X 0 , Y 0 , Z 0 ) and postures (rotational axes ω, φ, κ), and mounting on the personal computer obtained by the position / posture detecting means Based on the CCD camera position and attitude Drawing object reconstruction means for sequentially reconstructing a drawing object in order to call and superimpose the drawing object from its database in accordance with the photograph coordinate reference point in the real space, and call a CCD camera image to be observed from the image storage unit, Image synthesizing means for superimposing the virtual space of the reconstructed drawing object on the real space; and converting image data obtained by synthesizing the drawing object with the CCD camera image into a video display signal that can be displayed on the display unit of the personal computer. An image system for supporting three-dimensional surveying using mixed reality, comprising at least video signal conversion means.
【請求項2】 前記位置・姿勢検出手段の共線条件式に
おいてカメラ位置及び姿勢を未知数として解くに際し、
主点位置ずれを含む補正計算を簡単化するため、2台の
CCDカメラのステレオ・ペア画像により少なくとも主
点位置ずれ・画面距離の内部標定要素を補正後、前記未
知数をその近似値と微少補正量とに分解して非線形方程
式を線形化し繰返し計算によって解くことを特徴とする
請求項1記載の複合現実感を利用した3次元測量支援用
画像システム。
2. In solving the camera position and orientation as unknowns in the collinear conditional expression of the position / posture detection means,
In order to simplify the correction calculation including the displacement of the principal point, after correcting at least the internal orientation elements of the displacement of the principal point and the screen distance with the stereo pair images of the two CCD cameras, the unknown is approximated to its approximate value and minutely corrected. 2. The three-dimensional surveying support image system using mixed reality according to claim 1, wherein the nonlinear equation is linearized by being decomposed into quantities and solved by iterative calculation.
【請求項3】 前記位置・姿勢検出手段は、オペレータ
が前記初期設定を行った後の初期状態に際しては、前記
パソコンの位置及び姿勢センサ取得装置部のセンシング
結果を取得して、その値を初期状態で与えるカメラ位置
及び姿勢の前記近似値として共線条件式を解き、それ以
降のフレームの近似値はその時点でのセンシング結果を
用い、もし誤差の大きい場合については前フレームの解
析結果を用いることを特徴とする請求項2記載の複合現
実感を利用した3次元測量支援用画像システム。
3. The position / posture detecting means, in an initial state after the operator performs the initial setting, acquires a position / posture sensor acquisition device unit sensing result of the personal computer and initializes the value. Solve the collinear conditional expression as the approximate value of the camera position and orientation given in the state, use the sensing result at that time as the approximate value of the subsequent frames, and use the analysis result of the previous frame if the error is large 3. The three-dimensional surveying support image system using mixed reality according to claim 2, wherein:
【請求項4】 前記位置データ取得装置部は、パソコン
の所定位置に反射プリズムを装着すると共に、自動追尾
機能付きの位置測定用トータルステーションにより検出
された位置データを無線モデムを介して前記反射プリズ
ムに送信し、逐次前記センサデータ記憶部に記録するこ
とを特徴とする請求項1,2又は3記載の複合現実感を
利用した3次元測量支援用画像システム。
4. The position data acquisition device section mounts a reflection prism at a predetermined position on a personal computer, and transmits position data detected by a position measurement total station having an automatic tracking function to the reflection prism via a wireless modem. The image system for supporting three-dimensional surveying using mixed reality according to claim 1, 2 or 3, wherein the image data is transmitted and sequentially recorded in the sensor data storage unit.
【請求項5】 前記姿勢データ取得装置部は、パソコン
の所定位置にジャイロセンサを装着し、そこで検出され
た姿勢データを逐次前記センサデータ記憶部に記録する
ことを特徴とする請求項1,2,3又は4記載の複合現
実感を利用した3次元測量支援用画像システム。
5. The attitude data acquisition device section, wherein a gyro sensor is mounted at a predetermined position of a personal computer, and the attitude data detected there is sequentially recorded in the sensor data storage section. , 3 or 4, a three-dimensional surveying support image system using the mixed reality.
【請求項6】 前記パソコンはその表示部は液晶ディス
プレイであり、その左右にそれぞれ左目用CCDカメラ
及び右目用CCDカメラの映像を一定の周波数でリフレ
ッシュされて表示され、作業者はこの周波数に同期して
開閉する液晶シャッターメガネを装着することによって
複合現実感を体験することを特徴とする請求項1,2,
3,4又は5記載の複合現実感を利用した3次元測量支
援用画像システム。
6. The personal computer has a liquid crystal display as a display unit, and displays left and right images of a left-eye CCD camera and a right-eye CCD camera at a fixed frequency on the left and right sides thereof. A mixed reality experience is provided by wearing liquid crystal shutter glasses that open and close.
An image system for supporting three-dimensional surveying using the mixed reality described in 3, 4, or 5.
【請求項7】 前記映像変換手段により変換した映像表
示信号を前記パソコンの表示部に送信すると共に立体視
ディスプレイの表示部にも送信し、左右の映像を分離す
るため2枚のイメージスプリッタを配置したディスプレ
イとして、作業者はメガネなしで立体視できることを特
徴とする請求項6記載の複合現実感を利用した3次元測
量支援用画像システム。
7. A video display signal converted by the video conversion means is transmitted to a display unit of the personal computer and also to a display unit of a stereoscopic display, and two image splitters are arranged to separate left and right images. 7. The three-dimensional survey support image system using mixed reality according to claim 6, wherein the worker can perform stereoscopic viewing without glasses as the display.
【請求項8】 前記基準点自動抽出手段は、前記初期画
像で補正されたCCDカメラ主点位置・画面距離に加え
て、前フレームでのカメラ位置及び姿勢データを基に前
記複数の各基準点のカメラ画像上の写真座標を逆算し、
その座標の周囲に所定の探索範囲を設定して、そこの基
準点のRGB情報を基に正確な基準点の写真座標を自動
的に抽出する探索範囲設定手段を含むことを特徴とする
請求項1,2,3,4又は5記載の複合現実感を利用し
た3次元測量支援用画像システム。
8. The reference point automatic extraction means, based on the camera position and orientation data in the previous frame, in addition to the CCD camera principal point position and screen distance corrected in the initial image. Back-calculate the photo coordinates on the camera image of
A search range setting means for setting a predetermined search range around the coordinates and automatically extracting accurate photograph coordinates of the reference point based on the RGB information of the reference point therein. An image system for supporting three-dimensional surveying using the mixed reality described in 1, 2, 3, 4, or 5.
【請求項9】 前記基準点自動抽出手段は、予め基準点
の周囲と異なる色でマーキングする基準点マーキング手
段を含み、基準点自動抽出を実行する前にオペレータが
初期画像での最初のフレームの基準点の写真座標の抽出
を容易に行えることを特徴とする請求項8記載の複合現
実感を利用した3次元測量支援用画像システム。
9. The reference point automatic extracting means includes a reference point marking means for marking in advance a color different from the surroundings of the reference point, and an operator selects the first frame of the initial image before executing the reference point automatic extraction. 9. The image system for supporting three-dimensional surveying using mixed reality according to claim 8, wherein the photograph coordinates of the reference point can be easily extracted.
【請求項10】 前記基準点自動抽出手段における基準
点抽出時の探索範囲内でのRGB値に対するパターン自
動認識では、以下の〜の4つの処理を繰返すことを
特徴とする請求項8又は9記載の複合現実感を利用した
3次元測量支援用画像システム。 前フレームで抽出した基準点iのR値(R
(t))、G値(G(t))、B値(B
(t))、幅(w(t))、高さ(h(t))を
記憶しておく; 「切り捨て処理」(1) R(t),G
(t),B(t)の最大値(A(t)MAX)を
取るA値(AはR,G,Bのうちいずれかを意味する)
がA(t+1)<A(t)MAX/2である画素
と、 (2) R(GB)値それぞれにしきい値dR(GB)
を設け、R(GB)(t)−dR(GB)<R(G
B)(t+1)<R(GB)(t)+dR(GB)
となる画素以上の画素を切り捨てる(重みを0とす
る); 「連続性処理」探索範囲に重み≠0の範囲が連続す
る画素の集合が2つ以上ある場合、その集合の幅w
(t+1)と高さh(t+1)が最もw
(t)),h(t)に近いもののみを抽出する; 探索範囲内のA値に対する重み付き重心座標を求め
写真座標とする。
10. The automatic reference point extraction means repeats the following four processes in automatic pattern recognition of RGB values within a search range when extracting a reference point. 3D survey support image system using mixed reality. R value of reference point i extracted in the previous frame (R
i (t)), G value (G i (t)), B value (B
i (t)), width (w i (t)), stores the height (h i (t)); "truncation" (1) R i (t) , G
A value (A means any one of R, G, and B) that takes the maximum value (A i (t) MAX ) of i (t) and B i (t)
Where A i (t + 1) <A i (t) MAX / 2, and (2) a threshold dR (GB) for each R (GB) value
R (GB) i (t) −dR (GB) <R (G
B) i (t + 1) <R (GB) i (t) + dR (GB)
If there are two or more sets of pixels in which the range of weight ≠ 0 is continuous in the “continuity processing” search range, the width w of the set is truncated.
i (t + 1) and the height hi (t + 1) are w
i (t)) and only those close to hi (t) are extracted; weighted barycentric coordinates for the A value within the search range are obtained and set as photograph coordinates.
JP2001023387A 2001-01-31 2001-01-31 Image system for 3D survey support using mixed reality Expired - Fee Related JP3398796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001023387A JP3398796B2 (en) 2001-01-31 2001-01-31 Image system for 3D survey support using mixed reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001023387A JP3398796B2 (en) 2001-01-31 2001-01-31 Image system for 3D survey support using mixed reality

Publications (2)

Publication Number Publication Date
JP2002230586A true JP2002230586A (en) 2002-08-16
JP3398796B2 JP3398796B2 (en) 2003-04-21

Family

ID=18888682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001023387A Expired - Fee Related JP3398796B2 (en) 2001-01-31 2001-01-31 Image system for 3D survey support using mixed reality

Country Status (1)

Country Link
JP (1) JP3398796B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
CN100417197C (en) * 2003-07-08 2008-09-03 佳能株式会社 Position and orientation detection method and apparatus
KR101022228B1 (en) 2010-12-09 2011-03-17 삼성탈레스 주식회사 Apparatus for providing virtual image based on personal computer and method thereof
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
KR101574099B1 (en) 2011-12-20 2015-12-03 인텔 코포레이션 Augmented reality representations across multiple devices
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP2019128776A (en) * 2018-01-24 2019-08-01 株式会社建設システム Information processing device, information processing method, and program
US10430655B2 (en) 2014-06-13 2019-10-01 Fujitsu Limited Augmented reality information processing system and augmented reality display control method with space information conversion and display control features
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100417197C (en) * 2003-07-08 2008-09-03 佳能株式会社 Position and orientation detection method and apparatus
US7613356B2 (en) 2003-07-08 2009-11-03 Canon Kabushiki Kaisha Position and orientation detection method and apparatus
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
US10764565B2 (en) 2010-03-12 2020-09-01 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
KR101022228B1 (en) 2010-12-09 2011-03-17 삼성탈레스 주식회사 Apparatus for providing virtual image based on personal computer and method thereof
KR101574099B1 (en) 2011-12-20 2015-12-03 인텔 코포레이션 Augmented reality representations across multiple devices
US9952820B2 (en) 2011-12-20 2018-04-24 Intel Corporation Augmented reality representations across multiple devices
US10430655B2 (en) 2014-06-13 2019-10-01 Fujitsu Limited Augmented reality information processing system and augmented reality display control method with space information conversion and display control features
JP2019128776A (en) * 2018-01-24 2019-08-01 株式会社建設システム Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP3398796B2 (en) 2003-04-21

Similar Documents

Publication Publication Date Title
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US11244649B2 (en) Calibration of augmented reality device
JP4560128B1 (en) Map image integrated database generation system and map image integrated database generation program
CN104243959B (en) Based on the Intelligent Composite glasses of polarization orientation and integrated positioning
JP3486613B2 (en) Image processing apparatus and method, program, and storage medium
US10462406B2 (en) Information processing apparatus and information processing method
JP3398796B2 (en) Image system for 3D survey support using mixed reality
WO2016017254A1 (en) Information processing device, information processing method, and program
Helpke State-of-the-art of digital photogrammetric workstations for topographic applications
JP4743818B2 (en) Image processing apparatus, image processing method, and computer program
JP2013507677A (en) Display method of virtual information in real environment image
JP3957888B2 (en) Imaging apparatus and captured image composition method
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
KR20030056284A (en) Method and system for extraction a road institution body information using a vehicles
CN115371673A (en) Binocular camera target positioning method based on Bundle Adjustment in unknown environment
CN111783849B (en) Indoor positioning method and device, electronic equipment and storage medium
CN110769245A (en) Calibration method and related equipment
KR100956446B1 (en) Method for automatic extraction of optimal 3d-object facade texture using digital aerial images
JP4359084B2 (en) Surveying system
WO2006043319A1 (en) Terminal and server
CN107478227B (en) Interactive large space positioning algorithm
KR20110044092A (en) Apparatus and method for modeling building
KR101323099B1 (en) Device of generating Mosaic images
JP4810403B2 (en) Information processing apparatus and information processing method
CN212379884U (en) Underground pipeline display device based on augmented reality

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090221

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110221

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110221

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120221

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130221

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140221

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140221

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150221

Year of fee payment: 12

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees