JP2005284992A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2005284992A
JP2005284992A JP2004101132A JP2004101132A JP2005284992A JP 2005284992 A JP2005284992 A JP 2005284992A JP 2004101132 A JP2004101132 A JP 2004101132A JP 2004101132 A JP2004101132 A JP 2004101132A JP 2005284992 A JP2005284992 A JP 2005284992A
Authority
JP
Japan
Prior art keywords
coordinates
camera
feature points
photographing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004101132A
Other languages
Japanese (ja)
Other versions
JP4135934B2 (en
Inventor
Hiroichi Kato
博一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KNACK EIZO CENTER KK
KNACK EIZO CT KK
Original Assignee
KNACK EIZO CENTER KK
KNACK EIZO CT KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KNACK EIZO CENTER KK, KNACK EIZO CT KK filed Critical KNACK EIZO CENTER KK
Priority to JP2004101132A priority Critical patent/JP4135934B2/en
Publication of JP2005284992A publication Critical patent/JP2005284992A/en
Application granted granted Critical
Publication of JP4135934B2 publication Critical patent/JP4135934B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic apparatus for composing a virtual object and a real video image with high positioning accuracy while reducing a labor of a user. <P>SOLUTION: A display device 10 converts an optical image including feature points photographed by a camera 11 in different attitudes into a plurality of image data. Coordinates of the feature points photographed in the image data are then acquired by a pointing device. Furthermore, a position of the camera corresponding to a tripod 14 is determined by an arithmetic section 18 based on coordinate values and a rotating angle of the camera 11. Therefore, the position of the camera 11 can be accurately known. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、拡張現実感を実現する電子機器に関するものである。   The present invention relates to an electronic device that realizes augmented reality.

公園や街路などに新しく何かを作る場合、新しく作った物が周囲の景観等にどのような影響を与えるかを知っておくことは重要である。一例として建設問題を考えると、新たに建設構造物を作る場合、その構造物が周囲の景観を損ねるか否かを検討する必要がある。現状では、この必要性を満たすためには、建設後の環境を絵や写真で示す第1の方法と、建設後の環境を模型で示す第2の方法とが考えられる。この第1の方法では、様々な角度から見た建設後の状況を把握することが難しい。また、前述第2の方法では、周囲の環境の全てを制限するには限界がある。   When creating something new in a park or street, it is important to know how the newly created object affects the surrounding landscape. Considering a construction problem as an example, when creating a new construction structure, it is necessary to consider whether or not the structure damages the surrounding landscape. At present, in order to satisfy this need, there are a first method for showing the environment after construction with pictures and photographs and a second method for showing the environment after construction with a model. In this first method, it is difficult to grasp the post-construction situation viewed from various angles. In the second method, there is a limit in restricting all surrounding environments.

上述の要求を満たすべく、最近では、コンピュータ内に仮想世界を構築する人工現実感を用いて建設後の状況を確認することも可能である。しかしながら、この人工現実感では、ユーザーに提供される物の全てはあくまで仮想物体であるため、周囲の環境の全てを再現することは難しい。   In order to satisfy the above-described requirements, recently, it is also possible to check a post-construction situation using a virtual reality that builds a virtual world in a computer. However, in this artificial reality, since all of the objects provided to the user are virtual objects, it is difficult to reproduce the entire surrounding environment.

CGの短所を補う方法として、拡張現実感の技術がある(下記非特許文献1を参照)。拡張現実感とは、現実世界に仮想物体を重畳させる技術である。この技術であれば、上述した他の方法と比較して、ユーザーはよりリアルな視覚的情報を得ることが出来るので、建設後の景観の変化をより正確に予測することができる。
http://www.tobi-tech.com/tech/mr.htm(2004年2月19日検索)
As a method of compensating for the disadvantages of CG, there is an augmented reality technology (see Non-Patent Document 1 below). Augmented reality is a technology that superimposes a virtual object on the real world. With this technique, the user can obtain more realistic visual information as compared with the other methods described above, and therefore can more accurately predict changes in the landscape after construction.
http://www.tobi-tech.com/tech/mr.htm (searched on February 19, 2004)

しかしながら、従来の拡張現実感の技術では、以下の3つの課題がある。具体的には、幾何学的整合性をとる第1の課題と、時間的整合性をとる第2の課題と、光学的整合性をとる第3の課題がある。   However, the conventional augmented reality technology has the following three problems. Specifically, there are a first problem to obtain geometric matching, a second problem to obtain temporal matching, and a third problem to obtain optical matching.

第1の課題は、現実世界と仮想物体の3次元的位置合わせの課題である。仮想物体が現実世界内の正しい位置に表示されてそのサイズも的確に成るように、仮想物体と現実世界との整合をとる必要がある。   The first problem is a three-dimensional alignment problem between the real world and the virtual object. It is necessary to match the virtual object with the real world so that the virtual object is displayed at the correct position in the real world and its size is also accurate.

第2の課題は、現実世界に対する仮想物体表示の時間遅れの課題である。カメラの位置姿勢を変化させた場合に、仮想物体の動きと現実世界の動きが同じとなるようにする必要がある。   The second problem is a problem of time delay of virtual object display with respect to the real world. When the position and orientation of the camera is changed, it is necessary to make the movement of the virtual object and the movement of the real world the same.

第3の課題は、現実世界と仮想世界との画質や陰影の違いの問題である。ディスプレイ等に表示された仮想物体の明るさや陰影といった光学条件が、現実世界のそれらと同じようになるように整合をとる必要がある。   The third problem is the problem of the difference in image quality and shadow between the real world and the virtual world. It is necessary to match so that the optical conditions such as the brightness and shadow of the virtual object displayed on the display or the like are the same as those in the real world.

拡張現実感の技術に於いては、上述した3つの問題の各々が重要であるが、その中でも最も重要なのが幾何学的整合をとる第1の課題である。建設予定の構造物と周囲の景観等を比較する場合、様々な角度や場所からカメラを用いて映像を確認したいという要望がある。しかしながら、カメラの位置を移動させた際の、現実世界と仮想物体との位置合わせを行うための好適な手法が開発されていない問題があった。   In the augmented reality technology, each of the above three problems is important. Among them, the most important one is the first problem of geometric matching. When comparing a structure to be constructed with the surrounding landscape, there is a desire to check images using cameras from various angles and locations. However, there has been a problem that a suitable method for performing alignment between the real world and the virtual object when the position of the camera is moved has not been developed.

更に、通常は三脚等の支持手段にカメラを固定して現実世界の撮影を行うが、カメラとそれを固定する固定部との相対的な位置関係を求めるのが困難である問題があった。   Furthermore, although the camera is usually fixed to a support means such as a tripod to take a picture of the real world, there is a problem that it is difficult to obtain the relative positional relationship between the camera and a fixing portion for fixing the camera.

本発明は上記した問題を鑑みて成されたものであり、本発明の主な目的は、ユーザーの労力を低減させつつ位置精度の高い仮想物体と実写映像との合成を行う電子機器を提供することにある。   The present invention has been made in view of the above-described problems, and a main object of the present invention is to provide an electronic device that combines a virtual object and a live-action image with high positional accuracy while reducing user effort. There is.

本発明の電子機器は、特徴点を含む現実世界の光学像を撮影して画像データに変換する撮影手段と、前記画像データに基づく映像を表示する表示手段と、前記撮影手段を固定する固定手段と、前記固定手段を回転自在に支持する支持手段と、前記固定手段の回転角を測定する測定手段と、前記表示手段に表示される前記特徴点の前記表示手段上での座標を取得する取得手段と、前記特徴点の座標を基にして演算を行う演算手段とを具備し、前記撮影手段は、第1の画像データと、前記第1の画像データを撮影したときとは異なる姿勢で第2の画像データとを撮影し、前記取得手段は、前記第1の画像データに写る前記特徴点の座標である第1の座標と、前記第2の画像データに写る前記特徴点の座標である第2の座標とを取得し、前記測定手段は、前記第2の画像データを撮影した際に前記固定手段が回転した回転角を測定し、前記演算手段は、前記第1の座標、前記第2の座標および前記回転角を基にして、前記撮影手段の前記固定手段に対しての位置を求めることを特徴とする。   An electronic apparatus according to the present invention includes a photographing unit that photographs a real-world optical image including a feature point and converts the image into image data, a display unit that displays an image based on the image data, and a fixing unit that fixes the photographing unit. Obtaining a coordinate on the display means of the feature point displayed on the display means; a support means for rotatably supporting the fixing means; a measuring means for measuring a rotation angle of the fixing means; And a calculation means for performing a calculation based on the coordinates of the feature points. The shooting means has a first image data and a posture different from that when the first image data is shot. 2 is captured, and the acquisition means is a first coordinate that is a coordinate of the feature point that appears in the first image data, and a coordinate of the feature point that appears in the second image data. A second coordinate and the measuring hand Measures the rotation angle of rotation of the fixing means when the second image data is photographed, and the calculation means is based on the first coordinates, the second coordinates and the rotation angle, The position of the photographing means relative to the fixing means is obtained.

更に本発明の電子機器では、前記測定手段は、前記固定手段の水平方向の回転角を測定する第1の測定手段と、前記固定手段の垂直方向の回転角を測定する第2の測定手段とから成ることを特徴とする。   Furthermore, in the electronic device of the present invention, the measuring means includes a first measuring means for measuring a horizontal rotation angle of the fixing means, and a second measuring means for measuring a vertical rotation angle of the fixing means. It is characterized by comprising.

更に本発明の電子機器では、前記取得手段は、ポインティングデバイスであり、前記表示手段に表示された前記特徴点を前記ポインティングデバイスにより選択することで、前記特徴点の前記表示手段上での座標を取得することを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the acquisition unit is a pointing device, and the feature point displayed on the display unit is selected by the pointing device, whereby coordinates of the feature point on the display unit are selected. It is characterized by acquiring.

更に本発明の電子機器では、前記演算手段は、統計学的手法にて前記撮影手段の位置を算出することを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the calculation means calculates the position of the photographing means by a statistical method.

更に本発明の電子機器では、前記演算手段は、前記第1の画像データを撮影したときと前記第2の画像データを撮影したときの、前記撮影手段および前記固定手段の位置姿勢の変化を算出してから、前記撮影手段の前記固定手段に対しての位置を求めることを特徴とする。   Furthermore, in the electronic device of the present invention, the calculation means calculates a change in position and orientation of the photographing means and the fixing means when the first image data is photographed and when the second image data is photographed. Then, the position of the photographing means relative to the fixing means is obtained.

本発明の電子機器は、特徴点を含む現実世界の光学像を撮影して画像データに変換する撮影手段と、前記画像データに基づく映像を表示する表示手段と、前記撮影手段を支持する支持手段と、前記表示手段に表示される前記特徴点の前記表示手段上での座標を取得する取得手段と、前記特徴点の座標を基にして前記現実世界に対する前記支持手段の位置を計算する演算手段とを具備することを特徴とする。   An electronic apparatus according to the present invention includes a photographing unit that photographs a real-world optical image including a feature point and converts the image into image data, a display unit that displays an image based on the image data, and a supporting unit that supports the photographing unit. Acquisition means for acquiring the coordinates of the feature points displayed on the display means on the display means, and calculation means for calculating the position of the support means relative to the real world based on the coordinates of the feature points It is characterized by comprising.

更に本発明の電子機器では、前記演算手段は、1つの前記画像データに含まれる複数個の前記特徴点の座標を基にして前記支持手段の座標を計算することを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the calculation means calculates the coordinates of the support means based on the coordinates of the plurality of feature points included in one image data.

更に本発明の電子機器では、前記撮影手段は前記支持手段に対して回転自在に固定され、前記撮影手段の回転角を測定する測定手段を具備し、前記撮影手段を回転させつつ、前記取得手段は前記特徴点の前記表示手段上での座標を取得し、前記演算手段は、前記取得手段にて取得した前記特徴点の座標および当該特徴点を所得したときの前記撮影手段の回転角から、前記支持手段の位置を計算することを特徴とする。   Furthermore, in the electronic apparatus according to the present invention, the photographing unit is rotatably fixed to the support unit, and includes a measuring unit that measures a rotation angle of the photographing unit, and the acquiring unit rotates the photographing unit. Obtains the coordinates of the feature point on the display means, and the computing means calculates from the coordinates of the feature point obtained by the obtaining means and the rotation angle of the photographing means when the feature point is earned. The position of the support means is calculated.

更に本発明の電子機器では、前記取得手段は、ポインティングデバイスであり、前記表示手段に表示された前記特徴点を前記ポインティングデバイスにより選択することで、前記特徴点の前記表示手段上での座標を取得することを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the acquisition unit is a pointing device, and the feature point displayed on the display unit is selected by the pointing device, whereby coordinates of the feature point on the display unit are selected. It is characterized by acquiring.

更に本発明の電子機器では、前記演算手段は、統計学的手法にて前記撮影手段の位置を算出することを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the calculation means calculates the position of the photographing means by a statistical method.

更に本発明の電子機器では、前記測定手段は、前記固定手段の水平方向の回転角を測定する第1の測定手段と、前記固定手段の垂直方向の回転角を測定する第2の測定手段とから成ることを特徴とする。   Furthermore, in the electronic device of the present invention, the measuring means includes a first measuring means for measuring a horizontal rotation angle of the fixing means, and a second measuring means for measuring a vertical rotation angle of the fixing means. It is characterized by comprising.

更に本発明の電子機器では、前記撮影手段は固定手段に固定され、前記固定手段は回転自在に前記支持手段に固定されることを特徴とする。   Furthermore, in the electronic apparatus of the present invention, the photographing unit is fixed to a fixing unit, and the fixing unit is rotatably fixed to the supporting unit.

本発明の電子機器によれば、現実世界に配設された特徴点を撮影して、これらの特徴点の表示手段上での座標値を取得手段にて取得することにより、撮影手段とそれを支持する支持手段との相対的位置関係を検出することが出来る。従って、ユーザーにとって簡易な手法で撮影手段の位置の特定を行うことが可能となる。   According to the electronic apparatus of the present invention, the image capturing means and the image capturing means are obtained by capturing the feature points arranged in the real world and acquiring the coordinate values on the display means of these feature points by the acquiring means. The relative positional relationship with the supporting means to support can be detected. Therefore, it is possible for the user to specify the position of the photographing means by a simple method.

更に本発明の電子機器によれば、複数個の特徴点を撮影手段により撮影し、これらの特徴点での表示部上での座標値を取得手段にて取得することで、撮影手段を支持する支持手段の現実世界での座標を容易に算出することが可能となる。また、上記特徴点の撮影は、前記撮影手段の1つの視界に写り込む複数個の特徴点を用いることができる。更には、離散して配置された複数個の特徴点を、撮影手段を回転させながら撮影することも可能である。このことにより、ユーザーは、より自由な場所に固定手段を移動させることができる。   Furthermore, according to the electronic apparatus of the present invention, the imaging unit is supported by imaging a plurality of feature points by the imaging unit and acquiring the coordinate values on the display unit at these feature points by the acquisition unit. It becomes possible to easily calculate the coordinates of the support means in the real world. The feature points can be photographed using a plurality of feature points reflected in one field of view of the photographing means. Furthermore, it is also possible to photograph a plurality of feature points arranged discretely while rotating the photographing means. This allows the user to move the fixing means to a more free place.

以下に図を参照して、本発明の実施の形態に斯かる電子機器を説明する。   Hereinafter, an electronic apparatus according to an embodiment of the present invention will be described with reference to the drawings.

<第1の形態>
本形態では、実写映像と仮想物体との重ね合わせを行う電子機器10の構成およびそれの使用方法等を説明する。
<First form>
In this embodiment, a configuration of an electronic device 10 that superimposes a real image and a virtual object, a method of using the electronic device 10, and the like will be described.

図1を参照して、本形態の電子機器10の機械的・電気的構成を説明する。本形態の電子機器10では、カメラ11は、雲台13を介して、回転自在に三脚14に固定されている。ユーザー16は、雲台13に固定された表示手段としてのモニタ12を認識しながら、操作レバー15によりカメラ11を自在に回転させることができる。   With reference to FIG. 1, the mechanical and electrical configuration of the electronic apparatus 10 of the present embodiment will be described. In the electronic apparatus 10 of this embodiment, the camera 11 is fixed to a tripod 14 via a pan head 13 so as to be rotatable. The user 16 can freely rotate the camera 11 with the operation lever 15 while recognizing the monitor 12 as display means fixed to the camera platform 13.

演算手段としての計算機17は、上記したカメラ11やモニタ12等と接続されて、所定のプログラムに基づいた計算を行う。また、本形態の各構成要素は、電的に接続されている。   A computer 17 as a calculation means is connected to the above-described camera 11, monitor 12, and the like, and performs calculation based on a predetermined program. Moreover, each component of this form is electrically connected.

三脚14は、装置全体を支持する役割を有し、雲台13を介してその上部にはカメラ11等が固定される。また、ユーザーの要望に応じて装置全体を移動可能なように、三脚14は地面に対して移動可能に固定されている。更に、三脚14の脚は伸縮可能であり、この脚を伸縮させることにより、カメラ11等の高さを調節することが出来る。   The tripod 14 has a role of supporting the entire apparatus, and the camera 11 and the like are fixed to the upper part of the tripod 14 via the pan head 13. Further, the tripod 14 is fixed so as to be movable with respect to the ground so that the entire apparatus can be moved according to the user's request. Furthermore, the leg of the tripod 14 can be expanded and contracted, and the height of the camera 11 and the like can be adjusted by extending and contracting the leg.

雲台13は、三脚14の上部に介装され、カメラ11等を回転自在に三脚に固定している。また、雲台13には、図示しない角度センサーが備えられている。また、雲台13の上部にはカメラ11を固定する固定手段として機能する部位があり、この部位に操作レバー15が接続されている。   The pan head 13 is interposed in the upper part of the tripod 14, and fixes the camera 11 etc. to the tripod rotatably. The pan head 13 is provided with an angle sensor (not shown). Further, there is a part that functions as a fixing means for fixing the camera 11 at the upper part of the camera platform 13, and an operation lever 15 is connected to this part.

図1(B)を参照して、この角度センサーの詳細を説明する。三脚上の雲台接地面に対して水平方向の角度の変化を検出する第1の検出手段20Aと、三脚上の雲台接地面に対して垂直方向の角度の変化を検出する第2の検出手段20Bとから成る角度センサーが、表示装置10に装備されている。これら検出手段により角度を検出することで、雲台13の上部に固定されたカメラの姿勢の変化を知ることができる。上記した検出手段の解像度は例えば、24000ステップ/回転であり、非常に高性能なセンサーである。以下の説明では、三脚上の雲台接地面に対して平行な方向をパン方向と呼び、三脚上の雲台接地面に対して垂直な方向をチルト方向と呼ぶ場合がある。また、第1の測定手段20Aおよび第1の測定手段20Bにより得られた角度情報は、演算部18に伝達される。そして、これらの角度情報は、記憶部19に記憶されても良い。   Details of the angle sensor will be described with reference to FIG. First detection means 20A for detecting a change in the angle in the horizontal direction with respect to the head grounding surface on the tripod, and a second detection for detecting a change in the angle in the vertical direction with respect to the head grounding surface on the tripod. The display device 10 is equipped with an angle sensor comprising means 20B. By detecting the angle by these detection means, it is possible to know a change in the posture of the camera fixed on the top of the pan head 13. The resolution of the detection means described above is, for example, 24000 steps / rotation, which is a very high-performance sensor. In the following description, a direction parallel to the pan / tilt ground contact surface on the tripod may be referred to as a pan direction, and a direction perpendicular to the pan / tilt head ground surface may be referred to as a tilt direction. Further, the angle information obtained by the first measuring unit 20A and the first measuring unit 20B is transmitted to the calculation unit 18. These angle information may be stored in the storage unit 19.

カメラ11は、雲台13の上部に固定されて、現実空間の光画像を画像データに変換する機能を有する。このカメラ11としては、光信号を電気信号に変換する個体撮影素子を備えたカメラが好適である。具体的には、CCD(charge-coupled device)を備えた個体撮影素子あるいはCMOS(complementary MOS)を備えた個体撮影素子を内蔵するカメラ11を本形態に適用することができる。図1(B)を参照して、カメラ11により変換された画像データを構成する電気信号は、演算部18に伝達される。   The camera 11 is fixed to the top of the camera platform 13 and has a function of converting a light image in the real space into image data. As the camera 11, a camera including an individual photographing element that converts an optical signal into an electric signal is suitable. Specifically, a camera 11 incorporating an individual photographing element having a CCD (charge-coupled device) or an individual photographing element having a CMOS (complementary MOS) can be applied to this embodiment. With reference to FIG. 1B, the electrical signal constituting the image data converted by the camera 11 is transmitted to the calculation unit 18.

モニタ12は、上述したカメラ11と共に雲台13上に固定されている。そして、モニタ12は、演算部18から出力された映像が表示される。具体的には、カメラ11にて撮影された画像データは、演算部18にて処理されて映像データが生成され、この映像データに基ずく映像がモニタ12に表示される。また、モニタ12は、カメラ11にて撮影された画像データに基づく映像を、リアルタイムに連続して表示させている。このことにより、カメラが撮影している光画像をユーザー16は的確に知ることができる。   The monitor 12 is fixed on the camera platform 13 together with the camera 11 described above. The monitor 12 displays the video output from the calculation unit 18. Specifically, image data captured by the camera 11 is processed by the calculation unit 18 to generate video data, and a video based on the video data is displayed on the monitor 12. The monitor 12 continuously displays video based on image data captured by the camera 11 in real time. As a result, the user 16 can accurately know the optical image captured by the camera.

上述した処理とは、例えば、カメラ11にて撮影された画像データにCG(computer graphics)を重畳させる処理を挙げることが出る。モニタ12としては、携帯性を考慮すると薄型の液晶ディスプレイが好ましい。また、モニタ12は、必ずしも雲台13に固定されている必要はなく、三脚14とは分離されて設置されても良い。   Examples of the process described above include a process of superimposing CG (computer graphics) on image data captured by the camera 11. The monitor 12 is preferably a thin liquid crystal display in consideration of portability. Further, the monitor 12 is not necessarily fixed to the camera platform 13 and may be installed separately from the tripod 14.

操作レバー15は、雲台13の上部に固定されている棒状のレバーである。ユーザー16は、この操作レバー15を操作することにより、雲台13に固定されているカメラ11を自在に回転させることができる。この際の回転の挙動は、上述した第1の測定手段20Aおよび第2の測定手段20Bにより測定され、記憶部19に記憶されている。   The operation lever 15 is a rod-like lever fixed to the upper part of the pan head 13. The user 16 can freely rotate the camera 11 fixed to the camera platform 13 by operating the operation lever 15. The behavior of rotation at this time is measured by the first measuring means 20A and the second measuring means 20B described above, and is stored in the storage unit 19.

記憶部19は、ハードディスク等の板状の形状を有する記録媒体、または、半導体記録媒体等であり、情報を記録する機能を有する部位である。記憶部19に記憶される情報としては、重畳される予定のCGに関する情報、装置全体の設定情報、位置特定の際に用いる特徴点の座標、第1の測定手段20Aにて測定された角度変化の情報、第2の測定手段20Bにより測定された角度変化の情報、あるいは、各部位の挙動を制御するプログラムを挙げることができる。   The storage unit 19 is a recording medium having a plate shape such as a hard disk or a semiconductor recording medium, and is a part having a function of recording information. Information stored in the storage unit 19 includes information on the CG to be superimposed, setting information of the entire apparatus, coordinates of feature points used for specifying the position, and angle change measured by the first measuring unit 20A. Information on the angle change measured by the second measuring means 20B, or a program for controlling the behavior of each part.

図2(A)を参照して、次に、本形態を説明する際に用いる座標系に関して説明する。現実世界と仮想物体との位置合わせには、現実の世界座標からカメラの座標までの変換行列が必要になる。本形態では、以下の座標系を用いる。   Next, with reference to FIG. 2 (A), the coordinate system used when describing this form is demonstrated. The alignment between the real world and the virtual object requires a transformation matrix from the real world coordinates to the camera coordinates. In this embodiment, the following coordinate system is used.

世界座標C1は、現実の世界に設定される座標系であり、CG構造物や特徴点の位置などを表現するために用いる座標系である。ここで、特徴点とは、座標系同士の変換行列を算出する際に基準とする3次元の座標値が既知の点である。   The world coordinate C1 is a coordinate system set in the real world, and is a coordinate system used for expressing the positions of CG structures and feature points. Here, the feature point is a point for which a three-dimensional coordinate value used as a reference when calculating a transformation matrix between coordinate systems is known.

三脚座標系C2は、三脚の雲台を基準にした座標系であり、ユーザーが位置認識装置を移動させることにより、この座標系は変化する。   The tripod coordinate system C2 is a coordinate system based on the tripod head, and the coordinate system changes when the user moves the position recognition device.

三脚PT座標系C3は、三脚座標系と原点位置は同じであるが、ユーザーのチルト・パン方向の操作により回転した座標系である。従って、チルト角およびパン角がゼロ度であるときは、三脚PT座標系C3は、三脚座標系C2と一致する。   The tripod PT coordinate system C3 has the same origin position as the tripod coordinate system, but is a coordinate system rotated by a user's operation in the tilt and pan directions. Therefore, when the tilt angle and the pan angle are zero degrees, the tripod PT coordinate system C3 coincides with the tripod coordinate system C2.

カメラ座標系C4は、カメラの焦点を基準とした座標系である。従って、カメラのレンズの交換等によりこの座標系は移動する可能性がある。   The camera coordinate system C4 is a coordinate system based on the focus of the camera. Therefore, there is a possibility that this coordinate system is moved by changing the lens of the camera.

スクリーン座標系C5は、モニタ12等のスクリーンに映し出される2次原画像の座標系である。また、カメラで観測を行った画像には、レンズによる歪みが生じているので、カメラにより取り込まれた画像は、この歪みを除去するための補正が行われている。   The screen coordinate system C5 is a coordinate system of a secondary original image displayed on the screen of the monitor 12 or the like. In addition, since distortion caused by the lens is generated in the image observed by the camera, the image captured by the camera is corrected to remove this distortion.

上記した各座標間の関係が明らかになると、世界座標系での座標値が既知のCGと、レンズに映り込む光画像との重畳を行うことが可能となる。ここで、各座標系の関係とは、即ち各座標間の変換行列を具体的に求めることである。図2(B)を参照して、各座標系の変換を行う変換行列に関して説明を行う。   When the relationship between the coordinates is clarified, it becomes possible to superimpose a CG whose coordinate value is known in the world coordinate system and an optical image reflected on the lens. Here, the relationship between the coordinate systems means that a conversion matrix between the coordinates is specifically obtained. With reference to FIG. 2B, a description will be given of a transformation matrix that performs transformation of each coordinate system.

行列M1は、世界座標系から三脚座標系までの変換行列である。具体的には、現実世界と仮想物体の位置合わせを行う場合、現実世界における三脚の位置姿勢が必要である。世界座標系から三脚座標系までの変換行列は三脚を設置した時に一度だけ求めれば良い。これは画像データと現実世界における3次元座標値を数点使い、キャリブレーションを行う事で実現できる。現実世界における三脚の設置位置を変えた場合は、この操作をもう一度行う必要がある。行列M1を求めるキャリブレーションは後述する。更にまた、ユーザーが所望の箇所に移動することから、世界座標系と三脚座標系との関係は事前には計測できない。従って、現実世界の現場にてユーザーが三脚を設置した時点で求める。   The matrix M1 is a transformation matrix from the world coordinate system to the tripod coordinate system. Specifically, when positioning the real world and the virtual object, the position and orientation of the tripod in the real world is necessary. The transformation matrix from the world coordinate system to the tripod coordinate system need only be obtained once when the tripod is installed. This can be realized by using several points of image data and three-dimensional coordinate values in the real world and performing calibration. If you change the position of the tripod in the real world, you will need to do this again. The calibration for obtaining the matrix M1 will be described later. Furthermore, since the user moves to a desired location, the relationship between the world coordinate system and the tripod coordinate system cannot be measured in advance. Therefore, it is obtained when the user installs a tripod in the real world site.

行列M2は、三脚PT座標から三脚座標までの変換行列である。具体的には、三脚PT座標系から三脚座標系への変換は、三脚に装備されたセンサである第1及び第2の測定手段20A、20Bから得られるパン・チルト方向の角度情報から求める事ができる。パン・チルト方向の回転がそれぞれ1P[rad]、2P[rad]であるとすると、この変換は以下の数1で表現される。上述したように、本形態の計測手段は高精度なものである。この計測手段により、ユーザーのパン・チルト方向への操作はリアルタイム且つ高精度に演算部18に入力される。   The matrix M2 is a transformation matrix from tripod PT coordinates to tripod coordinates. Specifically, the conversion from the tripod PT coordinate system to the tripod coordinate system is obtained from angle information in the pan / tilt direction obtained from the first and second measuring means 20A and 20B which are sensors mounted on the tripod. Can do. If the rotations in the pan / tilt directions are 1P [rad] and 2P [rad], respectively, this conversion is expressed by the following equation (1). As described above, the measuring means of this embodiment is highly accurate. By this measuring means, the user's operation in the pan / tilt direction is input to the calculation unit 18 in real time and with high accuracy.

Figure 2005284992
行列M3は、カメラ座標系から三脚PT座標系までの変換行列である。具体的には、本システムでは三脚14の雲台13にカメラ11を固定しているが、雲台13のパン・チルト方向の回転軸とカメラ座標系の原点がずれている。ゆえに雲台13のパン・チルト方向への回転とカメラの位置姿勢変化の関係を表現するための変換行列をあらかじめ求めておく必要がある。更に詳述すると、カメラ座標系の原点はカメラの焦点位置にあり、三脚PT座標系とは、原点位置も向きもことなる。しかし、カメラ11は三脚14上にしっかりと固定されているので、ねじが緩んだり、壊れない限り変化しない。実際は、カメラは三脚から容易に取り外したり、取り付けたりすることあるが、取り付け自体がしっかりしているので、毎回の取り付けによって位置や角度が変わることがない。つまり、この関係は、事前に一度求めておけばよい。この三脚とカメラのオフセットを表す変換行列を求めるキャリブレーションは後述する。
Figure 2005284992
The matrix M3 is a transformation matrix from the camera coordinate system to the tripod PT coordinate system. Specifically, in this system, the camera 11 is fixed to the pan head 13 of the tripod 14, but the rotation axis of the pan head 13 in the pan / tilt direction is shifted from the origin of the camera coordinate system. Therefore, it is necessary to obtain in advance a transformation matrix for expressing the relationship between the rotation of the camera platform 13 in the pan / tilt direction and the change in the position and orientation of the camera. More specifically, the origin of the camera coordinate system is at the focal position of the camera, and the origin position and orientation of the tripod PT coordinate system are different. However, since the camera 11 is firmly fixed on the tripod 14, it does not change unless the screw is loosened or broken. In practice, the camera may be easily removed from or attached to the tripod, but since the attachment itself is firm, the position and angle will not change with each attachment. In other words, this relationship may be obtained once in advance. The calibration for obtaining a conversion matrix representing the tripod and camera offset will be described later.

行列M4は、カメラ座標系からスクリーン座標系までの変換行列である。具体的には、この変換行列の導出には拡張現実感構築ツールARToolKit[6]が提供する関数を使用している。具体的なM4の算出方法は後述する。カメラ座標系とスクリーン座標系との関係は、カメラ11を取り替えない限り変化しないものなので、事前に1回求めておけばよい。   The matrix M4 is a transformation matrix from the camera coordinate system to the screen coordinate system. Specifically, a function provided by the augmented reality construction tool ARToolKit [6] is used to derive this transformation matrix. A specific method for calculating M4 will be described later. Since the relationship between the camera coordinate system and the screen coordinate system does not change unless the camera 11 is replaced, it may be obtained once in advance.

次に図3および図4を参照して、カメラ座標系C4から三脚PT座標系までの変換行列M3を求める方法を説明する。図3は、この方法を詳述するためのフローチャートであり、図4は、各座標系の関連を示す模式図である。本形態では、カメラをパン方向及びチルト方向に回転させながら複数枚の画像を撮影し、その画像に写り込む特徴点から変換行列M3を求めている。   Next, a method for obtaining the transformation matrix M3 from the camera coordinate system C4 to the tripod PT coordinate system will be described with reference to FIGS. FIG. 3 is a flowchart for explaining this method in detail, and FIG. 4 is a schematic diagram showing the relationship between the coordinate systems. In this embodiment, a plurality of images are taken while rotating the camera in the pan direction and the tilt direction, and the transformation matrix M3 is obtained from the feature points reflected in the images.

図3を参照して、上記した変換行列M3を算出する具体的な各ステップを説明する。   With reference to FIG. 3, specific steps for calculating the conversion matrix M3 will be described.

ステップS1では、現実世界に位置する特徴点の3次元の座標を測定する。ここで、特徴点とはユーザーが視覚的に認識できる特徴的なポイントであることが好適である。具体的には、建物の角、標識の付け根、アンテナなど位置が特定できる物体であれば、それを特徴点として採用することができる。また、そのような物体がない場合は、適当に配置されたマーカーを特徴点として採用することができる。更に、特徴点の3次元の位置は、トータルステーションという計測器を用いて測定することができる。ここで、マーカーとしては、視覚的に際だつ色を有する物体、発行する物体等を採用することができる。   In step S1, the three-dimensional coordinates of feature points located in the real world are measured. Here, the characteristic point is preferably a characteristic point that can be visually recognized by the user. Specifically, any object whose position can be specified, such as a corner of a building, the base of a sign, or an antenna, can be used as a feature point. Further, when there is no such object, an appropriately arranged marker can be employed as the feature point. Furthermore, the three-dimensional position of the feature point can be measured using a measuring instrument called a total station. Here, an object having a visually distinct color, an object to be issued, or the like can be employed as the marker.

ステップS2では、上記特徴点をカメラにより撮影する。即ち、特徴点が撮影されるようにカメラの位置姿勢を調節して特徴点の撮影を行う。   In step S2, the feature point is photographed by a camera. That is, the feature point is photographed by adjusting the position and orientation of the camera so that the feature point is photographed.

ステップS3では、ステップS2にて撮影した特徴点のモニタ上での座標を取得する。この取得の作業は、マウス等のポインティングデバイスを用いて行うことができる。具体的には、ユーザーがマウスを操作して、モニタに映し出された特徴点の箇所までマウスカーソルを移動させてクリックすることにより、座標の取得を行うことができる。ここで、ポインティングデバイスとしては、マウスの他にもタブレット等を用いることができる。また、カメラが取得した画像データをプログラムにより解析を行って、モニタ上での特徴点の位置を算出してもよい。   In step S3, coordinates on the monitor of the feature point imaged in step S2 are acquired. This acquisition operation can be performed using a pointing device such as a mouse. Specifically, coordinates can be acquired by the user operating the mouse to move the mouse cursor to the location of the feature point displayed on the monitor and clicking. Here, as the pointing device, a tablet or the like can be used in addition to the mouse. In addition, the image data acquired by the camera may be analyzed by a program to calculate the position of the feature point on the monitor.

ステップS4では、カメラの回転を行う。本形態では、カメラをパン方向およびチルト方向に回転させている。このことにより、パン方向およびチルト方向の両方が考慮された変換行列を求めるキャリブレーションを行うことができる。本ステップでのカメラのパン方向およびチルト方向への回転角は、第1の測定手段20Aおよび第2の測定手段20Bにより正確に測定され、その情報は記憶部19に記憶されている。   In step S4, the camera is rotated. In this embodiment, the camera is rotated in the pan direction and the tilt direction. This makes it possible to perform calibration for obtaining a transformation matrix in which both the pan direction and the tilt direction are considered. The rotation angle of the camera in the pan direction and the tilt direction in this step is accurately measured by the first measurement unit 20A and the second measurement unit 20B, and the information is stored in the storage unit 19.

そして、ステップS4にてカメラの回転を行った後に、ステップS2に戻って、特徴点の撮影を行う。即ち、カメラを回転させてからモニタに写る特徴点の撮影を複数回に渡り行う。   And after rotating a camera in step S4, it returns to step S2 and image | photographs a feature point. That is, the feature point that appears on the monitor is shot a plurality of times after the camera is rotated.

本形態では、統計学的手法にて変換行列を求めている。従って、一般的には上記した撮影の回数が多いほど、算出される変換行列の精度は高くなるように思われる。しかしながら、モニタ上での特徴点の座標取得をユーザーの手作業で行った場合は、取得座標の回数が多すぎると、ユーザーが疲労してしまうので、取得される座標自体の精度が落ちてしまうか恐れがある。このことから、ユーザーに負担が掛からず、精度が確保できる範囲で、特徴点の撮影は行われる。   In this embodiment, the transformation matrix is obtained by a statistical method. Therefore, generally, the more the number of times of shooting described above, the higher the accuracy of the calculated conversion matrix. However, when the coordinates of the feature points on the monitor are manually acquired by the user, if the number of acquired coordinates is too many, the user gets tired and the accuracy of the acquired coordinates itself is reduced. There is a fear. For this reason, the feature points are photographed within a range in which accuracy is ensured without imposing a burden on the user.

下記に詳述するステップS5以降では、上記のステップにより求めた座標ペアおよび回転角に関する情報から、変換行列M3を算出する。即ち、現実世界に配設された複数個の特徴点を回転しつつ撮影することで、カメラ11とその固定部(雲台13の上部)との相対的な位置関係を明らかにする。   In step S5 and later described in detail below, the transformation matrix M3 is calculated from the information on the coordinate pair and the rotation angle obtained in the above step. That is, the relative positional relationship between the camera 11 and its fixed part (the upper part of the pan head 13) is clarified by photographing while rotating a plurality of feature points arranged in the real world.

ステップS5では、座標ペアに対して、世界座標系C1からカメラ座標系C4への変換行列Tを求める。また、変換行列Tは、下記の数2に示すような行列である。ここで、iは取り込む画像の枚数を示している。この変換行列を求めるには、ARToolKit[6]が提供する関数を使用している。この具体的な方法としては、図5を参照して、カメラを用いてボード24の表面に配置された複数個の黒点25を撮影し、黒点25の重心を求める等の作業を行って、下記数2の変換行列を得る。 In step S5, a transformation matrix T i from the world coordinate system C1 i to the camera coordinate system C4 i is obtained for the coordinate pair. Further, the transformation matrix T i is a matrix as shown in the following Equation 2. Here, i indicates the number of images to be captured. In order to obtain this conversion matrix, a function provided by ARToolKit [6] is used. As a specific method, referring to FIG. 5, a plurality of black spots 25 arranged on the surface of the board 24 are photographed using a camera, and operations such as obtaining the center of gravity of the black spots 25 are performed. A transformation matrix of Formula 2 is obtained.

Figure 2005284992
ステップS6では、座標ペアに対して、三脚PT座標系C3から三脚座標系C2までの変換を行う変換行列Uを求める。ここで、変換行列Uは以下の数3に示すような行列である。この変換行列は、上述した数1を用いて求めることができる。
Figure 2005284992
In step S6, a transformation matrix U i for performing transformation from the tripod PT coordinate system C3 to the tripod coordinate system C2 is obtained for the coordinate pair. Here, the transformation matrix U i is a matrix as shown in Equation 3 below. This conversion matrix can be obtained using the above-described equation (1).

Figure 2005284992
ステップS7では、三脚PT座標系の位置姿勢の変化を示す変換行列Sを求め、更に、カメラ座標系の位置姿勢の変化を示す変換行列Cを求める。変換行列Sを下記数4に示し、変換行列Cを下記数5に示す。ここで、i=1、2、3・・・n+1のとき、j=1、2、3・・・nである。
Figure 2005284992
In step S7, a transformation matrix S j indicating the change in position and orientation of the tripod PT coordinate system is obtained, and further, a transformation matrix C j showing the change in position and orientation in the camera coordinate system is obtained. The transformation matrix S j is shown in the following equation 4, and the transformation matrix C j is shown in the following equation 5. Here, when i = 1, 2, 3,... N + 1, j = 1, 2, 3,... N.

Figure 2005284992
Figure 2005284992

Figure 2005284992
上記した変換行列Cの具体的な算出方法を、図4を参照して説明する。変換行列Cは、1番目と2番目に於けるTとTから導出することができる。世界座標系C1は常に静止して動かない座標系である。そして、変換行列Tは世界座標系C1からカメラ座標系C4への変換を行う行列である。また、変換行列Tは、世界座標C1からカメラ座標系C4への変換行列である。ここで、求めたい変換行列Cは、カメラ座標系C4からカメラ座標系C4への変換行列である。この変換行列Cの変換ルートは、C4→C4である。更にこの変換ルートは、C4→C1→C4とみなすことができる。図4では、このルートをR1で示している。このことから、j番目の変換行列Cは下記数6で求めることができる。
Figure 2005284992
A specific method for calculating the transformation matrix C j will be described with reference to FIG. The transformation matrix C 1 can be derived from T 1 and T 2 in the first and second . The world coordinate system C1 is a coordinate system that is always stationary and does not move. The transformation matrix T 1 is a matrix for performing transformation from the world coordinate system C 1 to the camera coordinate system C 4 1 . The conversion matrix T 2 are a transformation matrix from a world coordinate C1 to the camera coordinate system C4 2. Here, the transformation matrix C 1 to be obtained is a transformation matrix from the camera coordinate system C 4 1 to the camera coordinate system C 4 2 . The conversion route of this conversion matrix C 1 is C 4 1 → C 4 2 . Further, this conversion route can be regarded as C4 1 → C1 → C4 2 . In FIG. 4, this route is indicated by R1. From this, the j-th transformation matrix C j can be obtained by the following equation (6).

Figure 2005284992
またCを求めた上記と同様の考え方で、下記数7でj番目の変換行列Sは下記数7で求めることができる。
Figure 2005284992
Further, based on the same idea as described above for obtaining C j , the j-th transformation matrix S j can be obtained by the following equation (7).

Figure 2005284992
以上の計算で、カメラ座標系および三脚PT座標系の姿勢変化を示す変換行列CおよびSが計算される。
Figure 2005284992
With the above calculation, the transformation matrices C j and S j indicating the posture change of the camera coordinate system and the tripod PT coordinate system are calculated.

ステップS8では、上記したステップにて計算された変換行列CおよびSを用いて、カメラ座標系C4から三脚PT座標系C3への変換行列であるRを算出する。ここで、Rは、下記数8に示すような行列である。 In step S8, R, which is a conversion matrix from the camera coordinate system C4 i to the tripod PT coordinate system C3 i , is calculated using the conversion matrices C j and S j calculated in the above step. Here, R is a matrix as shown in Equation 8 below.

Figure 2005284992
図4を参照して、変換行列Rを算出するために、カメラ座標系C4から三脚PT座標系C3を算出する経路を考えてみる。この経路は二通が考えられる。1つの経路は、C4→C4→C3の経路R2である。それに対して、もう一つの経路は、C4→C3→C3の経路R3である。どちらの経路でも同じ座標系に到達する。更に、CおよびSは上記のステップにより既に求められているので、以下の数9が得られる。
Figure 2005284992
Referring to FIG. 4, in order to calculate a transformation matrix R, consider the path from the camera coordinate system C4 1 calculates a tripod PT coordinate system C3 2. There are two possible routes. One path is a path R2 of C4 1 → C4 2 → C3 2 . On the other hand, another route is a route R3 of C4 1 → C3 1 → C3 2 . Both paths reach the same coordinate system. Further, since C j and S j have already been obtained by the above steps, the following formula 9 is obtained.

Figure 2005284992
上記数9を変形すると、以下の数10を得る。
Figure 2005284992
When the above formula 9 is transformed, the following formula 10 is obtained.

Figure 2005284992
上記数10を展開すると下記の数11を得る。
Figure 2005284992
When the above formula 10 is expanded, the following formula 11 is obtained.

Figure 2005284992
n+1枚の画像を取り込んだ場合、上記数11をn個得ることができる。そこで、n個の上記数11をまとめた物を以下の数12と考えると、Jは12n×1行列、Kは12n×11行列、Lは11×1行列となる。
Figure 2005284992
When n + 1 images are captured, n of the above equation 11 can be obtained. Therefore, when the above-described n number 11 is summarized as the following number 12, J is a 12n × 1 matrix, K is a 12n × 11 matrix, and L is an 11 × 1 matrix.

Figure 2005284992
このことから、最小二乗法を用いて下記数13が得られる。数13では、正方行列の逆行列を用いた最小二乗法による演算を行っている。
Figure 2005284992
From this, the following Equation 13 is obtained using the least square method. In Equation 13, an operation is performed by the least square method using an inverse matrix of a square matrix.

Figure 2005284992
この数13を計算することで、変換行列Rの全ての成分を求めることができる。即ち、本形態では、カメラ座標系C4から三脚座標PT系C3への変換行列を計算する際に、先ず、これらの座標系の位置姿勢の変化を表す変換行列(CおよびS)を求める。その後に、CおよびSを用いた統計学的手法により、変換行列Rを算出している。
Figure 2005284992
By calculating Equation 13, all components of the transformation matrix R can be obtained. That is, in this embodiment, when calculating the conversion matrix from the camera coordinate system C4 to the tripod coordinate PT system C3, first, conversion matrices (C j and S j ) representing changes in the position and orientation of these coordinate systems are obtained. . Thereafter, the transformation matrix R is calculated by a statistical method using C j and S j .

変換行列Rを求める手法として、上述した統計学的手法ではなく、数学的に連立方程式を解く方法も考えられる。しかしながら、本形態にて変換行列Rを求める手法としては、上述した統計学的手法が好適である。これは、数学的手法にて変換行列Rを算出する場合を考えると、複数個求められる解の中から1つを選択しなければ成らない問題、安定した解が得られない場合がある問題等が発生する恐れがあるからである。それに比較して、本形態で採用した統計学的手法による変換行列Rの算出方法は、安定した解を得ることができる利点がある。更に本形態は、観測を行う特徴点の個数を増やすと、得られる解の精度が向上する利点もある。   As a method for obtaining the transformation matrix R, a method for solving simultaneous equations mathematically instead of the statistical method described above is also conceivable. However, the statistical method described above is suitable as a method for obtaining the transformation matrix R in this embodiment. Considering the case where the transformation matrix R is calculated by a mathematical method, there is a problem that one must be selected from a plurality of obtained solutions, a problem that a stable solution may not be obtained, etc. This is because there is a risk of occurrence. In comparison, the method of calculating the transformation matrix R using the statistical method employed in this embodiment has an advantage that a stable solution can be obtained. Furthermore, this embodiment has an advantage that the accuracy of the obtained solution is improved when the number of feature points to be observed is increased.

図6および図7を参照して、表示装置10を移動させた場合において、その位置を特定する変換行列を算出する方法に関して説明する。図6は変換行列を求めるフローチャートであり、図7は表示装置10を移動させて仮想物体22を観測する様子を示す概念図である。   With reference to FIG. 6 and FIG. 7, a method for calculating a transformation matrix for specifying the position when the display device 10 is moved will be described. FIG. 6 is a flowchart for obtaining a transformation matrix, and FIG. 7 is a conceptual diagram showing how the virtual object 22 is observed by moving the display device 10.

例えば、建設予定の構造物等の仮想物体が周りの景観にどのような視覚的影響を与えるかを詳細に知るためには、ユーザーが望む場所に表示装置10を据える作業が必要になる。このような場合では、表示装置10を移動させる度に、世界座標系C1から三脚座標系C2までの変換を行う変換行列M1を再計算する必要がある。以下では、この変換行列M1の再計算を行う各ステップを説明する。   For example, in order to know in detail how a virtual object such as a structure to be constructed has a visual influence on the surrounding landscape, it is necessary to install the display device 10 at a location desired by the user. In such a case, every time the display device 10 is moved, it is necessary to recalculate the transformation matrix M1 for performing transformation from the world coordinate system C1 to the tripod coordinate system C2. Hereinafter, each step for recalculating the transformation matrix M1 will be described.

ステップS11では、表示装置10の移動を行う。即ち、仮想物体と周囲の景観との比較が好適に行えるように、ユーザーは所望の位置に表示装置10を移動させる。このステップを複数回に渡り行うことで、ユーザーは、仮想物体がどの様な影響を周囲に与えるかを詳細に知ることができる。   In step S11, the display device 10 is moved. That is, the user moves the display device 10 to a desired position so that the comparison between the virtual object and the surrounding landscape can be suitably performed. By performing this step multiple times, the user can know in detail how the virtual object affects the surroundings.

ステップS12では、現実世界に配設された特徴点の撮影を行う。特徴点の撮影を行う方法は、2つの方法が考えられる。第1の方法は、カメラを回転させずに、1つの映像に収まる複数個の特徴点を撮影する方法である。第2の方法は、カメラを回転しつつ、広範囲に配設された複数個の特徴点を撮影する方法である。精度向上のためには、特徴点が広範囲に配設することができる第2の方法が好適である。以下の説明では、第2の方法を採用して説明するが、第1の方法でも本形態を実施することができる。なお、特徴点の詳細は図3を参照して説明した物と同様である。   In step S12, the feature points arranged in the real world are photographed. There are two possible methods for photographing the feature points. The first method is a method of photographing a plurality of feature points that fit in one video without rotating the camera. The second method is a method of photographing a plurality of feature points arranged over a wide range while rotating the camera. In order to improve accuracy, the second method in which feature points can be arranged in a wide range is preferable. In the following description, the second method is used for explanation, but the present embodiment can also be implemented by the first method. The details of the feature points are the same as those described with reference to FIG.

ステップS13では、特徴点の画面上での座標値の取得を行う。具体的には、ポインティングデバイスを用いて、モニタ12上に映し出される特徴点の平面的座標を取得する。このことにより、特徴点の現実世界での3次元の座標値と、モニタ上での2次元の座標値から成る座標ペアを複数個得ることができる。モニタ上での座標値を取得する具体的な方法は、図3を参照して説明した方法と同一である。また、特徴点同士の区別を行うために、各特徴点のモニタ上での座標を取得するときは、IDを指定する。このことにより、特徴点の現実世界での3次元座標値と、モニタ上での2次元座標値から成る座標ペアが複数個得られる。   In step S13, the coordinate value of the feature point on the screen is acquired. Specifically, the planar coordinates of the feature points displayed on the monitor 12 are acquired using a pointing device. This makes it possible to obtain a plurality of coordinate pairs consisting of the three-dimensional coordinate value of the feature point in the real world and the two-dimensional coordinate value on the monitor. A specific method for acquiring coordinate values on the monitor is the same as the method described with reference to FIG. Further, in order to distinguish between feature points, an ID is specified when acquiring coordinates on the monitor of each feature point. As a result, a plurality of coordinate pairs consisting of the three-dimensional coordinate value of the feature point in the real world and the two-dimensional coordinate value on the monitor are obtained.

ステップS14では、カメラの回転を行う。本形態では、特徴点の座標値を用いて変換行列の算出を行うことから、特徴点は広範囲に分布していることが好ましい。更に、表示装置10と特徴点の相対的位置によっては、カメラの1つの視野に映し出すことができる特徴点の個数が変化する場合がある。このことから、本形態では、カメラを回転しつつ特徴点の撮影を行っている。このステップでのカメラのパン方向およびチルト方向への回転角は、常時測定されて記憶されている。   In step S14, the camera is rotated. In this embodiment, since the transformation matrix is calculated using the coordinate values of the feature points, the feature points are preferably distributed over a wide range. Furthermore, depending on the relative positions of the display device 10 and the feature points, the number of feature points that can be displayed in one field of view of the camera may change. Therefore, in this embodiment, the feature point is photographed while rotating the camera. The rotation angle of the camera in the pan direction and tilt direction at this step is always measured and stored.

他の特徴点がモニタに写り込むようにカメラを回転させた後は、ステップS12に戻って、他の特徴点の撮影を行い、ステップS13にてその特徴点のモニタ上での座標値を取得する。   After rotating the camera so that other feature points are reflected on the monitor, the process returns to step S12 to shoot other feature points, and in step S13, the coordinate values of the feature points on the monitor are obtained. To do.

図7を参照して、紙面上にて左側に位置する表示装置10Aを一例に、特徴点のモニタ上での座標の取得方法を説明する。先ず、第1及び第2の特徴点P1及びP2を撮影して、各々の特徴点のモニタ上での座標値を取得する。次に、第3の特徴点P3から第5の特徴点P5がモニタに写り込むように、表示装置10Aのカメラを回転させる。そして、第3の特徴点P3から第5の特徴点P5のモニタ上での座標値を取得する。以上のステップにより、複数個の特徴点が広範囲に配設された場合でも、それらの特徴点のモニタ上での座標値を取得して、座標ペアを取得することができる。   With reference to FIG. 7, a method for acquiring coordinates on a feature point monitor will be described using the display device 10 </ b> A located on the left side of the drawing as an example. First, the first and second feature points P1 and P2 are photographed, and coordinate values on the monitor of each feature point are acquired. Next, the camera of the display device 10A is rotated so that the third feature point P3 to the fifth feature point P5 are reflected on the monitor. And the coordinate value on the monitor of the 3rd feature point P3 to the 5th feature point P5 is acquired. Through the above steps, even when a plurality of feature points are arranged over a wide range, coordinate values on the monitor of those feature points can be acquired and coordinate pairs can be acquired.

ステップS15では、上記ステップにより求められた座標ペアを用いて、世界座標系C1から三脚座標系C2までの変換行列M1を算出する。即ち、世界座標系C1における三脚の位置姿勢を求める。その具体的手法を下記する。   In step S15, a transformation matrix M1 from the world coordinate system C1 to the tripod coordinate system C2 is calculated using the coordinate pair obtained in the above step. That is, the position and orientation of the tripod in the world coordinate system C1 are obtained. The specific method is described below.

先ず、世界座標系C1からスクリーン座標系C5までの座標変換を行う下記数14を考えてみる。   First, consider the following equation 14 which performs coordinate transformation from the world coordinate system C1 to the screen coordinate system C5.

Figure 2005284992
数14にて、Xを含む左辺の行列は、モニタ上に映し出された特徴点の位置である。換言すると、ユーザーがクリックを行ったマウスポインタの位置である。そして、Xを含む右辺の行列は、特徴点の世界座標系での位置であり、予め測定されている。また、左辺のhは、行列式の変換を行う際に、3次元から2次元への変換を行う変数である。この変数hは、一般的に同次座標系と呼ばれている。尚、上記数14に現れるM1からM4は、図2を参照して説明された変換行列である。
Figure 2005284992
At number 14, the left side of the matrix containing the X S is the position of the projected feature points on the monitor. In other words, it is the position of the mouse pointer where the user clicked. The matrix on the right side containing X W is a position in the world coordinate system of the feature points is previously measured. In addition, h on the left side is a variable for performing conversion from three dimensions to two dimensions when performing determinant conversion. This variable h is generally called a homogeneous coordinate system. Note that M1 to M4 appearing in Equation 14 are the transformation matrices described with reference to FIG.

ここで、カメラを回転させながらn点の特徴点に関して測定を行うことで、特徴点のスクリーン座標系での座標値と、特徴点の世界座標系での座標値と、M3との組み合わせをn個得ることができる。ここで、上記数14を書き直すと下記数15になる。   Here, by measuring the n feature points while rotating the camera, the coordinate value of the feature point in the screen coordinate system, the coordinate value of the feature point in the world coordinate system, and the combination of M3 is n. Can be obtained. Here, when the above equation 14 is rewritten, the following equation 15 is obtained.

Figure 2005284992
上記数15にて、M(4−2)はM4・M3−1・M2−1である。そして、添え字のiは、1、2、・・・・nである。即ち、n点の特徴点について上記ステップを行った場合は、n個の数15を得ることができる。そして、n個の数15を用いた誤差最小化法により変換行列M1を算出する。具体的には、下記数16のような定義を行い、下記数17を最小化するようなM1を求めればいい。数16および数17にて、ハットマークが上部に付された変数は、ユーザーの操作により取得されたスクリーン座標系の特徴点の座標値を示している。
Figure 2005284992
In the above equation 15, M (4-2) is M4 · M3 −1 · M2 −1 . The subscript i is 1, 2,... N. That is, when the above steps are performed for n feature points, n number 15 can be obtained. Then, a transformation matrix M1 is calculated by an error minimization method using n number 15. Specifically, a definition like the following formula 16 is made, and M1 that minimizes the following formula 17 may be obtained. In Equations 16 and 17, the variable with a hat mark at the top indicates the coordinate value of the feature point of the screen coordinate system acquired by the user's operation.

Figure 2005284992
Figure 2005284992

Figure 2005284992
即ち、数16及び数17を用いた算出方法では、特徴点の世界座標系に於ける座標値から算出される特徴点のスクリーン座標系での計算値が、実際の値に近くなるように、変換行列M1を求める。
Figure 2005284992
That is, in the calculation method using Equations 16 and 17, the calculated value of the feature point in the screen coordinate system calculated from the coordinate value of the feature point in the world coordinate system is close to the actual value. A transformation matrix M1 is obtained.

上記のステップにより、世界座標系C1から三脚座標系C2までの変換を行う変換行列M1は算出される。このことにより、世界座標系C1からスクリーン座標系C5への座標変換を行う全ての変換行列が求められた。   Through the above steps, the transformation matrix M1 for performing transformation from the world coordinate system C1 to the tripod coordinate system C2 is calculated. As a result, all transformation matrices for performing coordinate transformation from the world coordinate system C1 to the screen coordinate system C5 were obtained.

ステップS16では、上述して求められた変換行列を、表示予定の仮想物体に適用させることにより、仮想物体の幾何学的整合性を保ちつつ、現実世界を映し出した画像に重ね合わせる。そして更に、異なる箇所からの撮影を行う場合は、ステップS11に戻って表示装置10の移動を行う。   In step S16, the transformation matrix obtained as described above is applied to the virtual object to be displayed, so that the virtual object is superposed on the image showing the real world while maintaining the geometric consistency of the virtual object. Further, when shooting from a different location, the process returns to step S11 and the display device 10 is moved.

上述した本形態のステップにより、ユーザーは、表示装置10を所望の箇所に移動させて仮想物体22と周囲の景観とが合成された画像を得ることができる。従って、ユーザーは、構築予定の構造物等の仮想物体22が、周囲の景観に如何に影響を与えるかをより的確に知ることができる。具体的には、表示装置10の移動を行った場合でも、表示装置を用いて、複数の特徴点を観測することにより、世界座標系C1から三脚座標系C2への変換を行う変換行列を求めることができる。また、世界座標系C1からスクリーン座標系C5への変換に必要な他の変換行列は既知である。従って、これらの変換行列用いることにより、幾何学的整合性を保ちつつ仮想物体22を表示させることができる。   Through the steps of the present embodiment described above, the user can move the display device 10 to a desired location and obtain an image in which the virtual object 22 and the surrounding landscape are combined. Therefore, the user can know more precisely how the virtual object 22 such as a structure to be constructed affects the surrounding landscape. Specifically, even when the display device 10 is moved, a plurality of feature points are observed using the display device, thereby obtaining a conversion matrix for performing conversion from the world coordinate system C1 to the tripod coordinate system C2. be able to. Further, other conversion matrices necessary for conversion from the world coordinate system C1 to the screen coordinate system C5 are known. Therefore, by using these transformation matrices, the virtual object 22 can be displayed while maintaining geometric consistency.

更に、本形態では、表示装置10に装備されたカメラを回転させつつ、特徴点の撮影を行うことができる。従って、特徴点を広範囲に配設させることができるので、特徴点を用いて算出される変換行列の精度を向上させることができる。   Furthermore, in this embodiment, it is possible to capture the feature points while rotating the camera equipped in the display device 10. Therefore, since the feature points can be arranged in a wide range, the accuracy of the transformation matrix calculated using the feature points can be improved.

<第2の形態>
本形態では、上述した第1の実施の形態にて説明した表示装置を用いた映像の表示方法を中心に説明する。
<Second form>
In this embodiment, the description will focus on the video display method using the display device described in the first embodiment.

図8および図9を参照して、上記の第1の形態により位置関係が明らかにされた電子機器10を用いて、現実世界を撮した実写画像に仮想物体を重ね合わせる方法を説明する。図8(A)は、図1に示すモニタ12に表示される映像を示しており、図8(B)は箱27が映し出される部分の拡大図である。図8(C)は仮想物体が実写画像に重ね合わされた映像を示しており、図8(C)はその拡大図である。   With reference to FIG. 8 and FIG. 9, a method of superimposing a virtual object on a real photographed image of the real world using the electronic device 10 whose positional relationship has been clarified by the first embodiment will be described. 8A shows an image displayed on the monitor 12 shown in FIG. 1, and FIG. 8B is an enlarged view of a portion where the box 27 is projected. FIG. 8C shows an image in which a virtual object is superimposed on a real image, and FIG. 8C is an enlarged view thereof.

図8(A)を参照して、先ず、現実世界に配設された複数個の特徴点の、モニタ上での平面的座標を取得する。同図では、机26の上部に箱27が載置されている。そして、特徴点である箱27の角部の現実世界での3次元上の位置は計測されている。この特徴点の位置の計測は、トータルステーション等の測量器具で行うことができる。   Referring to FIG. 8A, first, planar coordinates on a monitor of a plurality of feature points arranged in the real world are acquired. In the figure, a box 27 is placed on the top of the desk 26. Then, the three-dimensional positions in the real world of the corners of the box 27 that are feature points are measured. The position of the feature point can be measured with a surveying instrument such as a total station.

図8(B)を参照して、モニタ12上における特徴点の平面的な座標を取得する。この座標値の取得は、マウス等のポインティングデバイスを用いて行う。即ち、ユーザー16が、モニタ12上に映し出される特徴点にマウスポインタの先端を合わせて、クリックすることで、各特徴点28の平面的な座標を取得する。更に、クリックを行った点がどの特徴点に対応するかを記録するために、その点のIDを指定する。このことにより、現実世界の3次元の座標と、モニタ上での2次元の座標値から成る座標ペアが複数個取得できる。本形態では、これらの座標ペアを基に、現実世界の座標系からモニタ上の座標系への変換座標を求めている。従って、ユーザー16は、上記座標ペアを複数個指定するのみで、この変換行列を求めることができる。   With reference to FIG. 8B, the planar coordinates of the feature points on the monitor 12 are acquired. This coordinate value is acquired using a pointing device such as a mouse. That is, the user 16 aligns the tip of the mouse pointer with the feature point displayed on the monitor 12 and clicks to obtain the planar coordinates of each feature point 28. Further, in order to record which feature point the clicked point corresponds to, the point ID is designated. As a result, a plurality of coordinate pairs consisting of the three-dimensional coordinates in the real world and the two-dimensional coordinate values on the monitor can be acquired. In this embodiment, conversion coordinates from the coordinate system in the real world to the coordinate system on the monitor are obtained based on these coordinate pairs. Therefore, the user 16 can obtain this transformation matrix only by designating a plurality of coordinate pairs.

図8(C)を参照して、仮想物体29が実写画像に重ね合わされた映像をモニタ12に表示する。ここでは、飛行機の如き仮想物体29が箱27の上面に載置された状態の映像がモニタ12に表示されている。ここで、仮想物体29は、現実世界には存在しないものであり、いわゆるCG(Computer Graphic)である。仮想物体29の形状は、現実世界の3次元の座標で表現されている。具体的には、箱27の上部に仮想物体29が載置された状態になるように、仮想物体29を構成する各部位の3次元の座標は決められている。従って、上記座標ペアにより求められた変換行列を、仮想物体29の3次元の座標に適用させることで、3次元幾何学的な整合性を保ちつつ、重ね合わせを行うことができる。図8(D)は、仮想物体29が表示された部分の拡大図であり、仮想物体29が箱27の上部に載置された状態が正確に映像化されていることを理解することができる。   With reference to FIG. 8C, a video in which the virtual object 29 is superimposed on the real image is displayed on the monitor 12. Here, an image of a virtual object 29 such as an airplane placed on the upper surface of the box 27 is displayed on the monitor 12. Here, the virtual object 29 does not exist in the real world and is a so-called CG (Computer Graphic). The shape of the virtual object 29 is expressed by three-dimensional coordinates in the real world. Specifically, the three-dimensional coordinates of each part constituting the virtual object 29 are determined so that the virtual object 29 is placed on the top of the box 27. Accordingly, by applying the transformation matrix obtained from the coordinate pair to the three-dimensional coordinates of the virtual object 29, it is possible to perform superposition while maintaining three-dimensional geometric consistency. FIG. 8D is an enlarged view of a portion where the virtual object 29 is displayed, and it can be understood that the state in which the virtual object 29 is placed on the top of the box 27 is accurately visualized. .

図9を参照して、箱27等を撮影しているカメラを回転させた場合における、モニタ12に映し出される映像の変化を説明する。図9(A)は箱27が正面に写り込むようにカメラを設置して撮影した映像を示し、図9(B)から図9(D)はカメラを回転させて撮影した状態映像を示している。   With reference to FIG. 9, a change in the image displayed on the monitor 12 when the camera that captures the box 27 and the like is rotated will be described. FIG. 9A shows images taken with the camera installed so that the box 27 is reflected in the front, and FIGS. 9B to 9D show state images taken by rotating the camera. Yes.

図9(A)を参照して、箱27およびその上部に載置された状態で表示される仮想物体29は、映像の中心部付近に表示されている。   With reference to FIG. 9A, the virtual object 29 displayed in a state of being placed on the box 27 and its upper part is displayed near the center of the video.

図9(B)を参照して、ここでは、カメラを右方向に回転させたときに、モニタ12に表示される映像を示している。カメラの回転に伴い、箱27等は左よりの箇所に表示されている。更に本形態では、カメラの回転角度をリアルタイムに計測している。そして、計測された回転角度を用いて、現実世界の座標系からモニタ上の座標系までの変換を行う変換行列を逐次算出している。そして、求められた変換行列を用いて、仮想物体29のモニタ上での座標を求めている。従って、本形態では、カメラを回転させた場合でも、幾何学的な整合性を保ちつつ仮想物体29の表示を行うことができる。   Referring to FIG. 9B, here, an image displayed on the monitor 12 when the camera is rotated in the right direction is shown. As the camera rotates, the box 27 and the like are displayed on the left side. Furthermore, in this embodiment, the rotation angle of the camera is measured in real time. Then, using the measured rotation angle, a conversion matrix for performing conversion from the real-world coordinate system to the coordinate system on the monitor is sequentially calculated. And the coordinate on the monitor of the virtual object 29 is calculated | required using the calculated | required conversion matrix. Therefore, in this embodiment, even when the camera is rotated, the virtual object 29 can be displayed while maintaining geometric consistency.

図9(C)および図9(D)を参照して、これらの図では、カメラを左方向及び上方向に回転させた場合の映像を示している。これらの図でも、仮想物体29の幾何学的整合性は保たれていることを理解することができる。   Referring to FIGS. 9C and 9D, these drawings show images when the camera is rotated leftward and upward. In these drawings, it can be understood that the geometric consistency of the virtual object 29 is maintained.

図10および図11を参照して、本形態の表示装置10を用いた画像の合成方法を更に詳細に説明する。   With reference to FIG. 10 and FIG. 11, an image composition method using the display device 10 of the present embodiment will be described in more detail.

先ず図10を参照して、表示装置10に装備されたカメラ11により撮影された実写映像上にCGを重ね合わせるために必要な条件について説明する。図10(A)は現実世界に於ける建物30A等の配置を示す図であり、図10(B)はCGの建物31の状態を示す図である。ここでは、道路32に面する建物30Aと建物30Bとの間に、CGの建物32を合成する場合を考える。   First, with reference to FIG. 10, conditions necessary for superimposing a CG on a real image captured by the camera 11 provided in the display device 10 will be described. FIG. 10A is a diagram showing the arrangement of the buildings 30A and the like in the real world, and FIG. 10B is a diagram showing the state of the CG building 31. FIG. Here, a case where a CG building 32 is synthesized between a building 30A and a building 30B facing the road 32 is considered.

図10(A)を参照して、本形態では、道路32に面して既に建設されている建物30Aと30Bとを、カメラ11を用いて撮影している。ここでは、実際に現存する建物を実線で描き、CGで描かれる建物を点線で描写している。   Referring to FIG. 10A, in this embodiment, buildings 30A and 30B that are already constructed facing road 32 are photographed using camera 11. Here, a building that actually exists is drawn with a solid line, and a building drawn with CG is drawn with a dotted line.

実写映像との幾何学的整合性を保ちつつCGの合成を行うには、描画する物体(ここでは、建物31)の3次元形状データと、カメラに関するパラメータの2つの情報が必要になる。ここで、カメラに関するパラメータとは、どの位置から見たCGを描画するのかという事項に関する情報である。   In order to synthesize CG while maintaining geometric consistency with a live-action image, two pieces of information are required: three-dimensional shape data of an object to be drawn (here, building 31) and parameters relating to the camera. Here, the parameter relating to the camera is information related to the matter of drawing the CG viewed from which position.

このカメラに関するパラメータは、視野角や画像サイズといったカメラ自体のパラメータ(内部パラメータ)と、カメラがどの位置からどの方向に向けて設置されているのかといった、カメラと外部環境との関係を表すパラメータ(外部パラメータ)とに分類ことができる。   Parameters related to the camera include parameters representing the relationship between the camera and the external environment, such as the camera's own parameters (internal parameters) such as viewing angle and image size, and from which position the camera is installed in which direction. External parameters).

内部パラメータについては、実写撮影に使用するカメラが決まると、その時点で定数化されるパラメータである。従って、カメラに備えられたレンズの仕様から得たり、事前に計測しておくことができる。このようにして得られた内部パラメータは、CG描画を行うためのパラメータとして設定される。   The internal parameters are parameters that are made constant at that time when a camera to be used for live-action shooting is determined. Therefore, it can be obtained from the specification of the lens provided in the camera, or can be measured in advance. The internal parameters obtained in this way are set as parameters for performing CG drawing.

外部パラメータについては、本形態では、カメラ11をユーザーが自由に移動させることができることから、以下のようなステップを行っている。先ず、CGの形状データを表現する座標系と同じ物を実世界にも想定している。具体的には、図10(B)のCGを描く際の世界座標系を図10(A)の世界座標系と同じにしている。そして、この世界座標系と実際のカメラとの間の座標変換行列を求めて、この変換行列をCG合成用のパラメータとして設定する。以上のステップにより、実写と幾何学的な整合が取れたCGを描画することができる。即ち、本願では、実際のカメラの位置や姿勢が変わる毎に、この座標変換行列を再計算し、設定している。   Regarding the external parameters, in the present embodiment, the user can move the camera 11 freely, and therefore the following steps are performed. First, the same thing as the coordinate system expressing CG shape data is assumed in the real world. Specifically, the world coordinate system for drawing the CG of FIG. 10B is the same as the world coordinate system of FIG. Then, a coordinate transformation matrix between this world coordinate system and the actual camera is obtained, and this transformation matrix is set as a parameter for CG synthesis. Through the above steps, it is possible to draw a CG that is geometrically consistent with the actual image. That is, in the present application, every time the actual camera position or orientation changes, this coordinate transformation matrix is recalculated and set.

本願の表示装置10では、ユーザーは自由に三脚を移動して、三脚上のカメラを自由にパン方向およびチルト方向に回転させることができる。更に、表示装置10では、リアルタイムに世界座標系から実際のカメラとの間の座標変換行列を求めることで、幾何学的整合性を損なわずに、CGの合成を行うことができる。   In the display device 10 of the present application, the user can freely move the tripod and freely rotate the camera on the tripod in the pan direction and the tilt direction. Furthermore, the display device 10 can synthesize CG without degrading geometric consistency by obtaining a coordinate transformation matrix between the actual camera and the real camera in real time.

更に、図10(B)を参照して、画像の重ね合わせ方法について説明する。CGを単純に実写映像に重ね合わせた場合を考えると、CGの構造物31の下部が、実際にはそれよりも手前にある建物30Aを隠してしまう映像が生成される。このような映像は、不自然な映像である。従って本願では、映像を構成する各ピクセル毎に、実際の世界の構造物とCGの世界の構造物のどちらがカメラに対して手前にあるかを判定している。   Further, with reference to FIG. 10B, an image superimposing method will be described. Considering the case where the CG is simply superimposed on the live-action image, an image is generated in which the lower part of the CG structure 31 actually hides the building 30A in front of it. Such an image is an unnatural image. Accordingly, in the present application, for each pixel constituting the video, it is determined which of the actual world structure and the CG world structure is in front of the camera.

具体的には、CG構造物が実際の構造物より手前にあるならば、そのピクセルに対してCGを合成する。それに対して、CG構造物が実際の構造物より奥にあるならば、そのピクセルに対してCGを合成しない。これらの作業が必要になる。   Specifically, if the CG structure is in front of the actual structure, CG is synthesized for the pixel. On the other hand, if the CG structure is behind the actual structure, the CG is not synthesized for the pixel. These operations are necessary.

次に図11を参照して、レンズの歪みを考慮した画像の合成方法を説明する。図11は画像の合成を行う方法を示すフローチャートである。   Next, with reference to FIG. 11, a method for synthesizing an image in consideration of lens distortion will be described. FIG. 11 is a flowchart showing a method for synthesizing images.

図10を参照して上述したように、CGにおけるパラメータ設定を実際のカメラの撮影条件に全て一致させることで、幾何学的に整合性がとれたCGを描画することが可能となる。更に本形態では、カメラ内部のパラメータであるレンズ歪みを考慮したCGの合成方法を行っている。   As described above with reference to FIG. 10, it is possible to draw a CG that is geometrically consistent by matching all the CG parameter settings with the actual camera imaging conditions. Furthermore, in this embodiment, a CG combining method is performed in consideration of lens distortion, which is a parameter inside the camera.

レンズ歪みとは、レンズの有する光学的特性によって直線が曲線として観測されることである。即ち、実際のカメラで撮影した画像は歪みが生じている。このレンズ歪みは、魚眼レンズ等で顕著に発生する。歪みが生じている実写画像に、歪みが生じていないCGの画像を重ね合わせると、幾何学的な整合性が損なわれる。従って、本形態では、このレンズ歪みの補正処理が行われた実写映像に、歪みのないCG映像を合成させている。また、レンズの歪みに合わせて、歪ませたCGを合成することでも、上記問題を解決することが可能である。しかしながら、計算量の低減を考えると、歪みを補正した実写映像にCGを合成する方が好適である。   Lens distortion means that a straight line is observed as a curved line due to optical characteristics of the lens. That is, an image taken with an actual camera is distorted. This lens distortion occurs remarkably in a fisheye lens or the like. If a CG image without distortion is superimposed on a real image with distortion, geometrical consistency is lost. Therefore, in this embodiment, a CG image without distortion is synthesized with the actual image that has been subjected to the lens distortion correction processing. The above problem can also be solved by synthesizing distorted CG in accordance with the distortion of the lens. However, considering a reduction in the amount of calculation, it is preferable to synthesize CG into a real image with distortion corrected.

図11のフローチャートを参照して、その具体的手法を説明する。先ず、ステップS21では、現実環境を実際のカメラで撮影する。このことにより、カメラに装備されたレンズによる歪みを含む実写映像が得られる。そして、ステップS22では、レンズ歪みの補正を行う。即ち、レンズの歪みにより曲線として示されている部分の幾何学的補正を行う。以上の作業により、レンズ歪みが排除された実写映像が得られる。   The specific method is demonstrated with reference to the flowchart of FIG. First, in step S21, the real environment is photographed with an actual camera. As a result, a live-action image including distortion caused by a lens mounted on the camera can be obtained. In step S22, lens distortion is corrected. That is, geometric correction is performed on a portion indicated as a curve due to lens distortion. Through the above operation, a live-action image from which lens distortion has been eliminated is obtained.

ステップS24では、予め用意されたCGデータからCGを生成する。このことにより、歪みが考慮されていないCG映像が得られる。ステップS23では、歪みが無い実写映像に、同様に歪みがないCG画像を合成させる。このことにより、幾何学的整合性が保たれた画像の合成を行うことができる。
In step S24, CG is generated from CG data prepared in advance. As a result, a CG image in which distortion is not considered is obtained. In step S23, similarly, a CG image without distortion is combined with a real image without distortion. As a result, it is possible to synthesize an image in which geometric matching is maintained.

本発明の表示装置を説明する概念図(A)、概念図(B)である。1A and 1B are a conceptual diagram and a conceptual diagram illustrating a display device of the present invention. 本発明に用いる座標系を説明する概念図(A)、各座標系同士の関連を説明する概念図(B)である。It is the conceptual diagram (A) explaining the coordinate system used for this invention, and the conceptual diagram (B) explaining the relationship between each coordinate system. 本発明の表示装置を用いた変換行列の算出方法を示すフローチャートである。It is a flowchart which shows the calculation method of the conversion matrix using the display apparatus of this invention. 世界座標系から三脚座標系までの関係を示す概念図である。It is a conceptual diagram which shows the relationship from a world coordinate system to a tripod coordinate system. ボードの全容を示す斜視図である。It is a perspective view which shows the whole board. 本発明の表示装置を用いた変換行列の算出方法を示すフローチャートである。It is a flowchart which shows the calculation method of the conversion matrix using the display apparatus of this invention. 本発明の表示装置の使用方法を示す概念図である。It is a conceptual diagram which shows the usage method of the display apparatus of this invention. 本発明の表示装置の使用方法を示す概念図(A)−(D)である。It is a conceptual diagram (A)-(D) which shows the usage method of the display apparatus of this invention. 本発明の表示装置の使用方法を示す概念図(A)−(D)である。It is a conceptual diagram (A)-(D) which shows the usage method of the display apparatus of this invention. 本発明の表示装置を用いて画像の合成を行う様子を説明する斜視図(A)、斜視図(B)である。FIGS. 4A and 4B are a perspective view and a perspective view illustrating a state in which an image is synthesized using the display device of the present invention. 本発明の表示装置を用いた画像の合成方法を示すフローチャートである。It is a flowchart which shows the composition method of the image using the display apparatus of this invention.

符号の説明Explanation of symbols

10 表示装置
11 カメラ
12 モニタ
13 雲台
14 三脚
15 操作レバー
16 ユーザー
17 計算機
18 演算部
19 記憶部
20A 第1の測定手段
20B 第2の測定手段
C1〜C5 座標系
M1〜M4 変換行列
10 Display device
11 Camera
12 Monitor
13 Head
14 Tripod
15 Control lever
16 users
17 Calculator
18 Calculation unit
19 Memory
20A First measuring means
20B Second measuring means
C1-C5 coordinate system
M1-M4 transformation matrix

Claims (12)

特徴点を含む現実世界の光学像を撮影して画像データに変換する撮影手段と、
前記画像データに基づく映像を表示する表示手段と、
前記撮影手段を固定する固定手段と、
前記固定手段を回転自在に支持する支持手段と、
前記固定手段の回転角を測定する測定手段と、
前記表示手段に表示される前記特徴点の前記表示手段上での座標を取得する取得手段と、
前記特徴点の座標を基にして演算を行う演算手段とを具備し、
前記撮影手段は、第1の画像データと、前記第1の画像データを撮影したときとは異なる姿勢で第2の画像データとを撮影し、
前記取得手段は、前記第1の画像データに写る前記特徴点の座標である第1の座標と、前記第2の画像データに写る前記特徴点の座標である第2の座標とを取得し、
前記測定手段は、前記第2の画像データを撮影した際に前記固定手段が回転した回転角を測定し、
前記演算手段は、前記第1の座標、前記第2の座標および前記回転角を基にして、前記撮影手段の前記固定手段に対しての位置を求めることを特徴とする電子機器。
Photographing means for photographing a real-world optical image including feature points and converting it into image data;
Display means for displaying video based on the image data;
Fixing means for fixing the photographing means;
Supporting means for rotatably supporting the fixing means;
Measuring means for measuring the rotation angle of the fixing means;
Obtaining means for obtaining coordinates on the display means of the feature points displayed on the display means;
Computation means for performing computation based on the coordinates of the feature points,
The imaging means captures the first image data and the second image data in a posture different from when the first image data is captured,
The acquisition means acquires first coordinates that are coordinates of the feature points that appear in the first image data, and second coordinates that are coordinates of the feature points that appear in the second image data,
The measuring means measures a rotation angle of the fixing means when the second image data is captured;
The electronic apparatus is characterized in that the calculation means obtains a position of the photographing means relative to the fixing means based on the first coordinates, the second coordinates, and the rotation angle.
前記測定手段は、前記固定手段の水平方向の回転角を測定する第1の測定手段と、前記固定手段の垂直方向の回転角を測定する第2の測定手段とから成ることを特徴とする請求項1記載の電子機器。   The measuring means comprises first measuring means for measuring a horizontal rotation angle of the fixing means, and second measuring means for measuring a vertical rotation angle of the fixing means. Item 1. An electronic device according to Item 1. 前記取得手段は、ポインティングデバイスであり、
前記表示手段に表示された前記特徴点を前記ポインティングデバイスにより選択することで、前記特徴点の前記表示手段上での座標を取得することを特徴とする請求項1記載の電子機器。
The acquisition means is a pointing device;
2. The electronic apparatus according to claim 1, wherein coordinates of the feature point on the display unit are acquired by selecting the feature point displayed on the display unit with the pointing device.
前記演算手段は、統計学的手法にて前記撮影手段の位置を算出することを特徴とする請求項1記載の電子機器。   The electronic apparatus according to claim 1, wherein the calculation unit calculates a position of the photographing unit by a statistical method. 前記演算手段は、
前記第1の画像データを撮影したときと前記第2の画像データを撮影したときの、前記撮影手段および前記固定手段の位置姿勢の変化を算出してから、前記撮影手段の前記固定手段に対しての位置を求めることを特徴とする請求項1記載の電子機器。
The computing means is
After calculating the change in position and orientation of the photographing means and the fixing means when the first image data is photographed and when the second image data is photographed, the fixing means of the photographing means is 2. The electronic device according to claim 1, wherein all positions are obtained.
特徴点を含む現実世界の光学像を撮影して画像データに変換する撮影手段と、
前記画像データに基づく映像を表示する表示手段と、
前記撮影手段を支持する支持手段と、
前記表示手段に表示される前記特徴点の前記表示手段上での座標を取得する取得手段と、
前記特徴点の座標を基にして前記現実世界に対する前記支持手段の位置を計算する演算手段とを具備することを特徴とする電子機器。
Photographing means for photographing a real-world optical image including feature points and converting it into image data;
Display means for displaying video based on the image data;
Support means for supporting the imaging means;
Obtaining means for obtaining coordinates on the display means of the feature points displayed on the display means;
An electronic apparatus comprising: an operation unit that calculates a position of the support unit with respect to the real world based on the coordinates of the feature point.
前記演算手段は、1つの前記画像データに含まれる複数個の前記特徴点の座標を基にして前記支持手段の座標を計算することを特徴とする請求項6記載の電子機器。   The electronic apparatus according to claim 6, wherein the calculation unit calculates the coordinates of the support unit based on the coordinates of the plurality of feature points included in one image data. 前記撮影手段は前記支持手段に対して回転自在に固定され、
前記撮影手段の回転角を測定する測定手段を具備し、
前記撮影手段を回転させつつ、前記取得手段は前記特徴点の前記表示手段上での座標を取得し、
前記演算手段は、前記取得手段にて取得した前記特徴点の座標および当該特徴点を所得したときの前記撮影手段の回転角から、前記支持手段の位置を計算することを特徴とする請求項6記載の電子機器。
The photographing means is rotatably fixed to the support means,
Comprising measuring means for measuring the rotation angle of the photographing means;
The acquisition unit acquires the coordinates of the feature points on the display unit while rotating the photographing unit,
The calculation means calculates the position of the support means from the coordinates of the feature points acquired by the acquisition means and the rotation angle of the photographing means when the feature points are obtained. The electronic device described.
前記取得手段は、ポインティングデバイスであり、
前記表示手段に表示された前記特徴点を前記ポインティングデバイスにより選択することで、前記特徴点の前記表示手段上での座標を取得することを特徴とする請求項6記載の電子機器。
The acquisition means is a pointing device;
The electronic device according to claim 6, wherein coordinates on the display unit of the feature point are acquired by selecting the feature point displayed on the display unit with the pointing device.
前記演算手段は、統計学的手法にて前記撮影手段の位置を算出することを特徴とする請求項6記載の電子機器。   The electronic apparatus according to claim 6, wherein the calculation unit calculates a position of the photographing unit by a statistical method. 前記測定手段は、前記固定手段の水平方向の回転角を測定する第1の測定手段と、前記固定手段の垂直方向の回転角を測定する第2の測定手段とから成ることを特徴とする請求項8記載の電子機器。   The measuring means comprises first measuring means for measuring a horizontal rotation angle of the fixing means, and second measuring means for measuring a vertical rotation angle of the fixing means. Item 9. An electronic device according to Item 8. 前記撮影手段は固定手段に固定され、
前記固定手段は回転自在に前記支持手段に固定されることを特徴とする請求項8記載の電子機器。
The photographing means is fixed to a fixing means;
The electronic device according to claim 8, wherein the fixing unit is rotatably fixed to the support unit.
JP2004101132A 2004-03-30 2004-03-30 Electronics Expired - Fee Related JP4135934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004101132A JP4135934B2 (en) 2004-03-30 2004-03-30 Electronics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004101132A JP4135934B2 (en) 2004-03-30 2004-03-30 Electronics

Publications (2)

Publication Number Publication Date
JP2005284992A true JP2005284992A (en) 2005-10-13
JP4135934B2 JP4135934B2 (en) 2008-08-20

Family

ID=35183271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004101132A Expired - Fee Related JP4135934B2 (en) 2004-03-30 2004-03-30 Electronics

Country Status (1)

Country Link
JP (1) JP4135934B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280046A (en) * 2006-04-06 2007-10-25 Canon Inc Image processor and its control method, and program
JP2010123121A (en) * 2008-11-17 2010-06-03 Honeywell Internatl Inc Method and apparatus for marking position of real world object in see-through display
JP2010540933A (en) * 2007-09-28 2010-12-24 ザ・ボーイング・カンパニー Local positioning system and method
JP2011077780A (en) * 2009-09-30 2011-04-14 Shotoku Corp Method for calculating position of camera device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280046A (en) * 2006-04-06 2007-10-25 Canon Inc Image processor and its control method, and program
JP2010540933A (en) * 2007-09-28 2010-12-24 ザ・ボーイング・カンパニー Local positioning system and method
JP2010123121A (en) * 2008-11-17 2010-06-03 Honeywell Internatl Inc Method and apparatus for marking position of real world object in see-through display
JP2011077780A (en) * 2009-09-30 2011-04-14 Shotoku Corp Method for calculating position of camera device

Also Published As

Publication number Publication date
JP4135934B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP4115117B2 (en) Information processing apparatus and method
AU2011312140B2 (en) Rapid 3D modeling
JP5872923B2 (en) AR image processing apparatus and method
Zhang et al. A universal and flexible theodolite-camera system for making accurate measurements over large volumes
JP2007072537A (en) 360-degree image photographing device
JP2008275391A (en) Position attitude measurement device and method
WO1991015924A1 (en) Computer assisted video surveying and method therefor
JP6849634B2 (en) Terminal device and control method of terminal device
JP2004342067A (en) Image processing method, image processor and computer program
JPH11136575A (en) Image pickup device and photographed image synthesizing method
JP2008216158A (en) Displacement measuring device
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP2009528766A (en) Method and system for obtaining multiple views of an object with real-time video output
JP4776983B2 (en) Image composition apparatus and image composition method
JP4135934B2 (en) Electronics
KR101082545B1 (en) Mobile communication terminal had a function of transformation for a picture
GB2553148A (en) Modelling system and method
JP2013231607A (en) Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program
JP6685814B2 (en) Imaging device and control method thereof
CN114371819A (en) Augmented reality screen system and augmented reality screen display method
JP2006113001A (en) Three-dimensional measuring method and device by photogrammetry
JP2009192098A (en) Object orbital operational device and its program
JP2004108836A (en) Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device
JP2004325072A (en) Photogrammetry and photogrammetric program
KR20150002273A (en) camera image calibration apparatus and method based on homography calculation

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061204

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20061204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070202

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070511

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees