JP2016053961A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2016053961A
JP2016053961A JP2015189158A JP2015189158A JP2016053961A JP 2016053961 A JP2016053961 A JP 2016053961A JP 2015189158 A JP2015189158 A JP 2015189158A JP 2015189158 A JP2015189158 A JP 2015189158A JP 2016053961 A JP2016053961 A JP 2016053961A
Authority
JP
Japan
Prior art keywords
building
position coordinates
image
information processing
planned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015189158A
Other languages
Japanese (ja)
Other versions
JP6064269B2 (en
Inventor
小林 英之
Hideyuki Kobayashi
英之 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2015189158A priority Critical patent/JP6064269B2/en
Publication of JP2016053961A publication Critical patent/JP2016053961A/en
Application granted granted Critical
Publication of JP6064269B2 publication Critical patent/JP6064269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To correct a positional deviation occurring when a perspective image of a building scheduled for construction and a photographed image of the planned site for the building are synthesized on a real time basis.SOLUTION: An information processing device comprises; a memory in which three-dimensional data representing planned position coordinates of a building scheduled for construction and the pertinent building and topographic data including the heights in different positions in a prescribed range covering the planned position coordinates are stored; a camera; a position sensor; a direction sensor; a display unit; and a control unit. The control unit draws a perspective image of the building from the viewpoint of the camera on the basis of the three-dimensional data, the planned position coordinates, current position coordinates and the direction, causes a synthesized image resulting from superposing the perspective image over the photographed image to be displayed on the display unit, and can use, for drawing the perspective image, a value resulting from adding the average height of a human viewpoint to a height in the topographic data as the correcting value in the perpendicular direction of the current position coordinates.SELECTED DRAWING: Figure 5

Description

本発明は、建造物を建築した場合の周囲の景観を検討するための画像を表示することが可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus capable of displaying an image for examining a surrounding landscape when a building is constructed, and an information processing method and program in the information processing apparatus.

従来から、現実の建築予定現場の写真に、建築予定の建造物の画像を合成表示し、その現場の景観をユーザに検討させる技術が存在する。   2. Description of the Related Art Conventionally, there is a technique for displaying an image of a building planned for construction on a photograph of an actual construction planned site and allowing the user to examine the scene of the site.

下記非特許文献1には、背景となる現場の写真が撮影された視点位置及びカメラアングルを、被写体から復原計算し(空中写真の標定に相当)、写真が撮影された位置から同じアングルで、建設予定の建造物の三次元データからパースを作成することが記載されている。   In Non-Patent Document 1 below, the viewpoint position and the camera angle at which the background site photograph was taken are restored from the subject (corresponding to the orientation of the aerial photograph), and at the same angle from the position at which the photograph was taken, It describes that a perspective is created from three-dimensional data of a building to be constructed.

具体的には、まず建造物の形状を三次元データとして準備する。次に、背景写真の被写体から、地図上で位置が特定できるポイントを4つ以上見出し、写真上の二次元座標[u,v]と、建造物を三次元データとして記述したのと同じ座標系を用いて記述した実空間における座標[x,y,z]のペアを4組以上準備する。これを用いて、写真を撮影した位置とカメラアングルを復原計算する。この計算は「視点抽出」操作画面を用いて行われる。算出された視点位置とカメラアングルから、建造物のパースを作成し、合成表示することにより、正しい位置に写真合成を行うことができる。   Specifically, first, the shape of the building is prepared as three-dimensional data. Next, from the subject of the background photo, find four or more points whose position can be specified on the map, and the same coordinate system that describes the 2D coordinates [u, v] on the photo and the building as 3D data. Prepare four or more pairs of coordinates [x, y, z] in the real space described using. Using this, the position where the photograph was taken and the camera angle are restored. This calculation is performed using the “viewpoint extraction” operation screen. By creating a perspective of the building from the calculated viewpoint position and camera angle and displaying it in combination, it is possible to combine the photos at the correct position.

これにより、単に画像を重ねたモンタージュ写真とは異なる、正確な位置合わせに基づく写真合成が可能となる。この写真合成に際しては、フィルムカメラで撮影された画像を現像し、スキャナーにより背景画像のデータを作成し、1枚の写真合成を行うために、上記標定計算を含む準備作業が必要であった。   This enables photo composition based on accurate alignment, which is different from a montage photo in which images are simply superimposed. At the time of this photo composition, in order to develop an image photographed with a film camera, create background image data with a scanner, and compose one photo, preparation work including the above-mentioned orientation calculation was required.

一方、カメラで動的に取得された背景画像の上に、センサで計測した視点位置を用いて毎秒30回程度の速度で建造物等のパースを重ねて表示するリアルタイム写真合成が、いわゆる「複合現実感」(MR)として、2000年頃から使用されるようになった。初期においては、特殊な表示装置(HMD:Head Mount Display)が使用されていたが、2010年頃から、撮影カメラ、GPS(Global Positioning System)センサ、方位センサ、重力センサ等を内蔵した携帯端末が普及し、ローコストで実施できるような技術的・社会的な環境が整い、これらを応用したいくつかのアプリケーションが開発、発表されている(例えば、下記特許文献1及び2参照)。   On the other hand, real-time photo composition that superimposes and displays a perspective of a building or the like at a speed of about 30 times per second using a viewpoint position measured by a sensor on a background image dynamically acquired by a camera is a so-called “composite”. It has been used since about 2000 as "Reality" (MR). In the early days, a special display device (HMD: Head Mount Display) was used, but from around 2010, mobile terminals with built-in photographing cameras, GPS (Global Positioning System) sensors, orientation sensors, gravity sensors, etc. have become widespread. However, a technical and social environment that can be implemented at low cost has been prepared, and several applications using these have been developed and published (for example, see Patent Documents 1 and 2 below).

特開2004−102835号公報JP 2004-102835 A 特開2006−011970号公報JP 2006-011970 A

小林英之著「3次元CGによる土木建築施設のための景観検討システム‐プロトタイプ版(Ver.1.0)」建設省建築研究所・建築研究資料No.85、1995年9月Hideyuki Kobayashi, “Scenery Examination System for Civil Engineering Facilities by 3D CG-Prototype Version” Ver.1.0, Ministry of Construction, Architectural Research Materials No.85, September 1995

しかしながら、GPSにより取得される位置精度には誤差が数m以上あるため、遠くの山並み等への合成表示は可能であるが、市街地内部における住宅等を対象としたリアルタイム写真合成を、センサから得られた位置情報だけから行うことは、位置ずれなどから、まだ実用的なものではない。   However, since the positional accuracy acquired by GPS has an error of several meters or more, it is possible to display composite images on distant mountains, etc., but real-time photo composition for houses in urban areas is obtained from sensors. It is not yet practical to perform only from the obtained position information because of position shift or the like.

以上のような事情に鑑み、本発明の目的は、建築予定の建造物のパース画像と建築予定現場の撮像画像とをリアルタイムに合成する際の両画像の位置ずれを補正することが可能な情報処理装置装置、情報処理方法及びプログラムを提供することにある。   In view of the circumstances as described above, an object of the present invention is information capable of correcting a positional deviation between both images when combining a perspective image of a building planned for construction and a captured image of the planned construction site in real time. To provide a processing device, an information processing method, and a program.

上述の課題を解決するため、本発明の一形態に係る情報処理装置は、記憶部と、カメラと、GPSセンサと、方位センサと、表示部と、操作受付部と、制御部とを有する。上記記憶部は、建造物の建築予定の予定位置座標及び当該建造物を示す三次元データを記憶可能である。上記カメラは、上記建造物の建築予定現場の画像を撮像可能である。上記GPSセンサは、当該情報処理装置の現在位置座標を検出可能である。上記方位センサは、上記カメラが向いている方位を検出可能である。上記操作受付部は、当該情報処理装置を保持するユーザの操作を受付可能である。上記制御部は、上記三次元データと、上記予定位置座標と、上記現在位置座標と、上記方位とを基に、上記カメラを視点とした上記建造物のパース画像を描画し、当該パース画像を上記撮像された画像上に合成した合成画像を上記表示部に表示させることが可能である。また制御部は、上記ユーザから第1の操作が受け付けられた場合に、当該第1の操作受付時における現在位置座標を記憶し、上記パース画像を当該第1の操作の受付時における表示状態に固定して、上記撮像された画像を上記現在位置座標及び上記方位の変化に応じて更新することが可能である。さらに制御部は、上記第1の操作後に上記ユーザから第2の操作が受け付けられた場合に、上記第1の操作受付時における現在位置座標と、上記第2の操作受付時における現在位置座標との差分を算出し、上記固定を解除して、上記差分を上記現在位置座標に加算する補正値として上記パース画像の生成に用いることが可能である。   In order to solve the above-described problem, an information processing apparatus according to an embodiment of the present invention includes a storage unit, a camera, a GPS sensor, a direction sensor, a display unit, an operation reception unit, and a control unit. The said memory | storage part can memorize | store the three-dimensional data which show the plan position coordinate of the construction plan of a building, and the said building. The camera can capture an image of a planned construction site of the building. The GPS sensor can detect the current position coordinates of the information processing apparatus. The direction sensor can detect the direction in which the camera is facing. The operation accepting unit can accept an operation of a user holding the information processing apparatus. The control unit draws a perspective image of the building from the viewpoint of the camera based on the three-dimensional data, the planned position coordinates, the current position coordinates, and the orientation, and the perspective image is displayed. It is possible to display a composite image synthesized on the captured image on the display unit. In addition, when the first operation is received from the user, the control unit stores the current position coordinates at the time of receiving the first operation, and displays the perspective image in the display state at the time of receiving the first operation. It is possible to fix and update the captured image in accordance with changes in the current position coordinates and the orientation. Further, the control unit, when a second operation is received from the user after the first operation, a current position coordinate when the first operation is received and a current position coordinate when the second operation is received Can be used as a correction value for adding the difference to the current position coordinates to generate the perspective image.

この構成により情報処理装置は、ユーザによる第1の操作及び第2の操作を基に補正値を算出することで、建築予定の建造物のパース画像と建築予定現場の撮像画像とをリアルタイムに合成する際の両画像の位置ずれを補正することができる。ユーザは第1の操作を行った上で、撮像画像内の建設予定位置にパース画像が正しく表示されるようになるまで情報処理装置を移動させて第2の操作を行うだけで、容易に合成画像を補正することができる。   With this configuration, the information processing apparatus calculates a correction value based on the first operation and the second operation by the user, and synthesizes the perspective image of the building planned for construction and the captured image of the planned construction site in real time. It is possible to correct the misalignment between the two images at the time. The user simply performs the first operation, and then simply moves the information processing device until the perspective image is correctly displayed at the planned construction position in the captured image, and then performs the second operation. The image can be corrected.

上記制御部は、上記ユーザから第1の操作が受け付けられた場合に、当該第1の操作受付時における方位を記憶し、上記第2の操作が受け付けられた場合に、上記第1の操作受付時における方位と、上記第2の操作受付時における方位との差分を算出し、当該差分を上記方位の補正値として上記パース画像の生成に用いてもよい。   When the first operation is received from the user, the control unit stores the azimuth at the time when the first operation is received, and when the second operation is received, the control unit receives the first operation. A difference between the azimuth at the time and the azimuth at the time of accepting the second operation may be calculated, and the difference may be used as the correction value for the azimuth to generate the perspective image.

これにより情報処理装置は、現在位置座標のみならず方位(回転方向及び垂直方向)に関する位置ずれも容易に補正することができる。   As a result, the information processing apparatus can easily correct not only the current position coordinates but also the positional deviation regarding the azimuth (rotation direction and vertical direction).

上記制御部は、上記補正値の算出後に上記第1の操作及び上記第2の操作が受け付けられた場合に、新たに補正値を算出して、前回算出された補正値に上記新たに算出された補正値を累積的に加算して上記パース画像の生成に用いてもよい。   When the first operation and the second operation are accepted after the calculation of the correction value, the control unit calculates a new correction value and calculates the new correction value to the previously calculated correction value. The correction values may be cumulatively added and used to generate the perspective image.

これにより情報処理装置は、ユーザから第1の操作及び第2の操作が受け付けられる度に補正値を追加的・累積的に加算することで、補正値の精度を向上させることができる。   Thereby, the information processing apparatus can improve the accuracy of the correction value by adding the correction value additionally and cumulatively every time the first operation and the second operation are received from the user.

上記方位センサは、水平方向の軸に関する当該情報処理装置の傾き角を検出可能であってもよい。この場合上記制御部は、上記第1の操作後に検出された傾き角と、上記現在位置座標と上記予定位置座標との距離とを基に、上記現在位置座標の垂直方向の補正値を算出してもよい。   The azimuth sensor may be capable of detecting an inclination angle of the information processing apparatus with respect to a horizontal axis. In this case, the control unit calculates a correction value in the vertical direction of the current position coordinates based on the inclination angle detected after the first operation and the distance between the current position coordinates and the planned position coordinates. May be.

これにより情報処理装置は、合成画像における垂直方向の位置ずれも容易に補正することができる。   As a result, the information processing apparatus can easily correct the positional deviation in the vertical direction in the composite image.

上記操作受付部は上記表示部上のタッチセンサであってもよく、上記表示部は所定のボタン画像を表示可能であってもよい。この場合上記タッチセンサは、上記第1の操作として上記ボタン画像の押下維持操作を受け付け、上記第2の操作として上記ボタン画像の押下解除操作を受け付けることが可能であってもよい。   The operation reception unit may be a touch sensor on the display unit, and the display unit may be capable of displaying a predetermined button image. In this case, the touch sensor may be capable of receiving a button image pressing maintenance operation as the first operation and a button image pressing release operation as the second operation.

これによりユーザは、表示部上のボタンのいわゆる長押し(押下ホールド)操作と押下解除(リリース)操作という簡易な操作により合成画像を補正することができる。   Thereby, the user can correct the composite image by a simple operation of a so-called long press (press hold) operation and press release (release) operation of a button on the display unit.

上記制御部は、上記パース画像が合成されるべき方位が上記撮像された画像の表示範囲から外れている場合に、上記撮像された画像上に上記パース画像が合成されるべき方位を示す情報を表示するように上記表示部を制御してもよい。   The control unit, when the direction in which the perspective image is to be synthesized is out of the display range of the captured image, indicates information indicating the direction in which the perspective image is to be synthesized on the captured image. You may control the said display part so that it may display.

これにより情報処理装置は、ユーザに建造物の建築予定位置を容易に把握させることができる。   Thereby, the information processing apparatus can make the user easily grasp the planned building position of the building.

上記現在位置座標は、緯度、経度及び標高を含んでもよい。この場合上記記憶部は、上記予定位置座標を含む所定範囲における各地点の高さを含む地形データを記憶してもよい。この場合上記制御部は、上記現在位置座標における上記緯度及び経度に対応する上記地形データ中の高さに、平均的な人間の視点の高さを加えた値を、上記現在位置座標の垂直方向の補正値として上記パース画像の生成に用いてもよい。   The current position coordinates may include latitude, longitude, and altitude. In this case, the storage unit may store terrain data including the height of each point in a predetermined range including the planned position coordinates. In this case, the control unit calculates a value obtained by adding an average height of the human viewpoint to the height in the topographic data corresponding to the latitude and longitude in the current position coordinates in the vertical direction of the current position coordinates. The correction value may be used to generate the perspective image.

これにより情報処理装置は、地形データを用いることで、合成画像における垂直方向の位置ずれをより高精度に補正することができる。   Thereby, the information processing apparatus can correct the positional deviation in the vertical direction in the composite image with higher accuracy by using the terrain data.

上記記憶部は、上記建造物に隣接する隣接建物の上記建造物と対向する面を示す隣接面三次元データ及び当該面の隣接面位置座標を記憶してもよい。この場合上記制御部は、上記パース画像の合成前に、上記隣接面三次元データ及び上記隣接面位置座標を基に、上記撮像された画像上の、上記パース画像の前景となる上記隣接建物の上記隣接面位置座標に相当する位置に透明な面を描画してもよい。   The said memory | storage part may memorize | store the adjacent surface three-dimensional data which show the surface facing the said building of the adjacent building adjacent to the said building, and the adjacent surface position coordinate of the said surface. In this case, before the composition of the perspective image, the control unit, based on the adjacent surface three-dimensional data and the adjacent surface position coordinates, of the adjacent building serving as the foreground of the perspective image on the captured image. A transparent surface may be drawn at a position corresponding to the adjacent surface position coordinate.

これにより、パース画像の前景となる隣接建物の面の画像とパース画像とが重なる部分については隣接建物の面の描画が優先される結果、その面部分に相当するパース画像の部分が描画されずに隠されることになり、かつ、面が透明で描画されるため、合成の結果、その部分については撮像された隣接建物の画像そのものが表示されることになり、パース画像の前景が正しく表示される。したがって情報処理装置は、複雑な演算を行うことなく、上記面の三次元データを保持しておくだけで、パース画像の前景の描画処理を容易に実行することができる。   As a result, the drawing of the adjacent building surface is given priority for the part where the image of the adjacent building that is the foreground of the perspective image overlaps with the perspective image. As a result, the portion of the perspective image corresponding to the surface part is not drawn. As a result of the synthesis, the image of the adjacent building that was captured is displayed for that part, and the foreground of the perspective image is displayed correctly. The Therefore, the information processing apparatus can easily execute the foreground drawing process of the perspective image by simply holding the three-dimensional data of the surface without performing complicated calculations.

本発明の他の形態に係る情報処理方法は、
建築予定の建造物を示す三次元データと、上記建造物が建築予定の予定位置座標と、GPSセンサで検出された現在位置座標と、方位センサで検出されたカメラの方位とを基に、上記カメラを視点とした上記建造物のパース画像を描画すること、
上記パース画像を、上記カメラで撮像された建造物の建築予定現場の画像上に合成した合成画像を表示すること、
ユーザから第1の操作が受け付けられた場合に、当該第1の操作受付時における現在位置座標を記憶すること、
上記パース画像を上記第1の操作の受付時における表示状態に固定して、上記撮像された画像を上記現在位置座標及び上記方位の変化に応じて更新すること、
上記第1の操作後に上記ユーザから第2の操作が受け付けられた場合に、上記第1の操作受付時における現在位置座標と、上記第2の操作受付時における現在位置座標との差分を算出すること、及び、
上記固定を解除して、上記差分を上記現在位置座標に加算する補正値として上記パース画像の生成に用いることを含む。
An information processing method according to another aspect of the present invention includes:
Based on the three-dimensional data indicating the building planned to be built, the planned position coordinates where the building is scheduled to be built, the current position coordinates detected by the GPS sensor, and the camera orientation detected by the direction sensor, Drawing a perspective image of the building from the perspective of the camera;
Displaying a synthesized image obtained by synthesizing the perspective image on an image of a building planned site of a building imaged by the camera;
Storing the current position coordinates when the first operation is received when the first operation is received from the user;
Fixing the perspective image to a display state at the time of accepting the first operation, and updating the captured image according to changes in the current position coordinates and the orientation;
When a second operation is received from the user after the first operation, a difference between the current position coordinate at the time of the first operation reception and the current position coordinate at the time of the second operation reception is calculated. And
And releasing the fixing and using the difference as a correction value to be added to the current position coordinates for generating the perspective image.

本発明のまた別の形態に係るプログラムは、情報処理装置に、
建築予定の建造物を示す三次元データと、上記建造物が建築予定の予定位置座標と、GPSセンサで検出された現在位置座標と、方位センサで検出されたカメラの方位とを基に、上記カメラを視点とした上記建造物のパース画像を描画するステップと、
上記パース画像を、上記カメラで撮像された建造物の建築予定現場の画像上に合成した合成画像を表示するステップと、
ユーザから第1の操作が受け付けられた場合に、当該第1の操作受付時における現在位置座標を記憶するステップと、
上記パース画像を上記第1の操作の受付時における表示状態に固定して、上記撮像された画像を上記現在位置座標及び上記方位の変化に応じて更新するステップと、
上記第1の操作後に上記ユーザから第2の操作が受け付けられた場合に、上記第1の操作受付時における現在位置座標と、上記第2の操作受付時における現在位置座標との差分を算出するステップと、
上記固定を解除して、上記差分を上記現在位置座標に加算する補正値として上記パース画像の生成に用いるステップとを実行させる。
A program according to another embodiment of the present invention is provided in an information processing device.
Based on the three-dimensional data indicating the building planned to be built, the planned position coordinates where the building is scheduled to be built, the current position coordinates detected by the GPS sensor, and the camera orientation detected by the direction sensor, Drawing a perspective image of the building from the viewpoint of the camera;
Displaying the composite image obtained by combining the perspective image on the image of the planned construction site of the building imaged by the camera;
Storing a current position coordinate when the first operation is received when the first operation is received from the user;
Fixing the perspective image to a display state at the time of accepting the first operation, and updating the captured image according to changes in the current position coordinates and the orientation;
When a second operation is received from the user after the first operation, a difference between the current position coordinate at the time of the first operation reception and the current position coordinate at the time of the second operation reception is calculated. Steps,
The fixing is released, and the step of generating the perspective image as a correction value for adding the difference to the current position coordinates is executed.

以上のように、本発明によれば、建築予定の建造物のパース画像と建築予定現場の撮像画像とをリアルタイムに合成する際の両画像の位置ずれを補正することができる。ここに記載された効果は必ずしも本発明を限定するものではなく、本発明は、本開示中に記載されたいずれかの効果が達成できればよい。   As described above, according to the present invention, it is possible to correct a positional shift between both images when a perspective image of a building planned for construction and a captured image of a construction planned site are combined in real time. The effects described here do not necessarily limit the present invention, and the present invention only needs to achieve any of the effects described in the present disclosure.

本発明の一実施形態に係る携帯端末のハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the portable terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係るアプリケーションの実行中に表示される画面の構成を示した図である。It is the figure which showed the structure of the screen displayed during execution of the application which concerns on one Embodiment of this invention. 上記アプリケーションの起動時における画面遷移動作の流れを示したフローチャートである。It is the flowchart which showed the flow of the screen transition operation | movement at the time of starting of the said application. 上記アプリケーションによるリアルタイム写真合成処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the real-time photo compositing process by the said application. 上記アプリケーションによるリアルタイム写真合成表示処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the real-time photograph composite display process by the said application. 上記アプリケーションによるユーザの移動を用いた誤差補正処理を模式的に示した図である。It is the figure which showed typically the error correction process using the movement of the user by the said application. 上記アプリケーションによるユーザの移動を用いた誤差補正処理を実行中のリアルタイム写真合成画面の例を示した図である。It is the figure which showed the example of the real-time photograph synthetic | combination screen in executing the error correction process using the user's movement by the said application. ジオイドとローカル座標系との関係を示した図である。It is the figure which showed the relationship between a geoid and a local coordinate system. 日本付近のジオイド図を示した図である。It is the figure which showed the geoid figure of Japan vicinity. 上記アプリケーションが高さの誤差を補正するために用いる地形データの例を示した図である。It is the figure which showed the example of the topography data used in order for the said application to correct | amend the error of height. 上記アプリケーションによる三次元モデル描画処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the three-dimensional model drawing process by the said application. 上記写真合成におけるパース画像とその前景との関係を示した図である。It is the figure which showed the relationship between the perspective image in the said photograph composition, and its foreground. 従来の写真合成における前景処理を説明した図である。It is a figure explaining the foreground process in the conventional photo composition. 上記アプリケーションによるパース画像及びその前景の描画処理の流れを示した図である。It is the figure which showed the flow of the drawing process of the perspective image by the said application, and its foreground. 上記アプリケーションによるパース画像及びその前景の描画処理を模式的に示した図である。It is the figure which showed typically the drawing process of the perspective image and its foreground by the said application. 上記アプリケーションが用いる、建造物の建築予定の敷地の座標軸を示した図である。It is the figure which showed the coordinate axis of the site of the construction schedule of the building which the said application uses. 上記アプリケーションが用いる、携帯端末の座標軸を示した図である。It is the figure which showed the coordinate axis of the portable terminal which the said application uses.

以下、本発明に係る実施形態を、図面を参照しながら説明する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings.

[携帯端末のハードウェア構成]
図1は、本実施形態に係る携帯端末のハードウェア構成を示したブロック図である。
[Hardware configuration of mobile terminal]
FIG. 1 is a block diagram showing a hardware configuration of the mobile terminal according to the present embodiment.

この携帯端末は、建築物の建築後の景観を検討するためのリアルタイム写真合成処理に用いられる。   This portable terminal is used for real-time photo composition processing for studying the landscape of a building after construction.

ここで携帯端末とは、具体的には、例えばスマートフォン、携帯電話機、タブレットPC(Personal Computer)、デジタルスチルカメラ、PDA(Personal Digital Assistant)、携帯型AVプレイヤー、携帯型ゲーム機、電子ブック等の携帯型の情報処理装置である。   Here, specifically, the portable terminal is, for example, a smartphone, a mobile phone, a tablet PC (Personal Computer), a digital still camera, a PDA (Personal Digital Assistant), a portable AV player, a portable game machine, an electronic book, or the like. This is a portable information processing apparatus.

同図に示すように、携帯端末100は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、不揮発メモリ13、表示部14、通信部15、カメラ16、GPSセンサ17、磁気センサ(電子コンパス)18、及び加速度センサ19を有する。   As shown in the figure, a mobile terminal 100 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a nonvolatile memory 13, a display unit 14, a communication unit 15, a camera 16, a GPS sensor 17, a magnetic sensor ( An electronic compass) 18 and an acceleration sensor 19.

CPU11は、必要に応じてRAM12等に適宜アクセスし、各種演算処理を行いながら携帯端末100の各ブロック全体を統括的に制御する。RAM12は、CPU11の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データ(後述の三次元データ、撮像画像データ、座標データ、補正値等)を一時的に保持する。   The CPU 11 appropriately accesses the RAM 12 or the like as necessary, and comprehensively controls each block of the mobile terminal 100 while performing various arithmetic processes. The RAM 12 is used as a work area for the CPU 11 and temporarily holds the OS, various applications being executed, and various data being processed (three-dimensional data, captured image data, coordinate data, correction values, etc., which will be described later). .

不揮発メモリ13は、例えばフラッシュメモリやROM(Read Only Memory)であり、CPU11に実行させるOS、後述するソフトウェアモジュール等のプログラムや各種パラメータなどのファームウェアを固定的に記憶する。   The nonvolatile memory 13 is, for example, a flash memory or a ROM (Read Only Memory), and fixedly stores an OS to be executed by the CPU 11, a program such as a software module described later, and firmware such as various parameters.

特に本実施形態において、不揮発メモリ13は、上記リアルタイム写真合成処理アプリケーションを記憶する。また不揮発メモリ13は、上記アプリケーションの実行に用いられるデータとして、カメラ16により撮像された画像データ(写真データ)、建築予定の建造物の三次元データ(幾何学的形状データ、表面仕上データ等の属性データ)、建築予定現場の位置座標データ等を記憶する。   In particular, in the present embodiment, the nonvolatile memory 13 stores the real-time photo composition processing application. The non-volatile memory 13 includes, as data used for execution of the application, image data (photo data) captured by the camera 16, three-dimensional data (geometric shape data, surface finish data, etc.) of a building to be built. Attribute data), position coordinate data of the planned construction site, and the like.

表示部14は、例えばLCD(Liquid Crystal Display)やOELD(Organic ElectroLuminescence Display)であり、カメラ16による撮像画像や、当該撮像画像に建造物のパース画像を合成した合成画像、当該合成画像を補正するためのユーザインタフェース等を表示する。典型的には、表示部14は、タッチパネルと一体とされており、ユーザのタッチ操作を受け付け可能である。すなわち表示部14は、操作検出部としても機能する。   The display unit 14 is, for example, an LCD (Liquid Crystal Display) or an OELD (Organic ElectroLuminescence Display), and corrects an image captured by the camera 16, a composite image obtained by combining the captured image with a perspective image of a building, and the composite image. A user interface or the like is displayed. Typically, the display unit 14 is integrated with a touch panel and can accept a user's touch operation. That is, the display unit 14 also functions as an operation detection unit.

図示しないが、携帯端末100は、上記操作検出部として、例えば電源ボタン等のハードウェアボタンも有する。   Although not shown, the mobile terminal 100 also includes hardware buttons such as a power button as the operation detection unit.

通信部15は、WiFi(Wireless Fidelity)等の無線LAN(IEEE802.11等)や移動通信用の3Gや4Gのネットワークを用いて、他の装置と通信する。   The communication unit 15 communicates with other devices using a wireless LAN (IEEE802.11 or the like) such as WiFi (Wireless Fidelity) or a 3G or 4G network for mobile communication.

カメラ16は、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Devices)センサ等の撮像素子により、静止画(写真)及び動画を撮像する。当該カメラ16は、例えば夜景モードや人物モード等の各種撮影モードの選択機能、パノラマ撮影機能、3D撮影機能、ホワイトバランス調整機能、絞り調整機能等の様々な機能を有し、ユーザは上記表示部14(タッチパネル)等を操作してそれらの機能の設定を行うことができる。   The camera 16 captures a still image (photograph) and a moving image by an imaging element such as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) sensor. The camera 16 has various functions such as a selection function of various shooting modes such as a night view mode and a portrait mode, a panoramic shooting function, a 3D shooting function, a white balance adjustment function, an aperture adjustment function, and the like. These functions can be set by operating 14 (touch panel) or the like.

GPSセンサ17は、3つ以上の衛星からの電波を捕捉し、それぞれの衛星までの距離に基づいて、携帯端末100が存在する位置を地球座標系で記述した座標を算出し、これを地球楕円体の上に当てはめて、携帯端末100の位置情報(緯度・経度・標高情報)を検出する。   The GPS sensor 17 captures radio waves from three or more satellites, calculates coordinates describing the position where the mobile terminal 100 exists in the earth coordinate system based on the distance to each satellite, and calculates the coordinates of the ellipse. The position information (latitude / longitude / elevation information) of the mobile terminal 100 is detected by applying it on the body.

当該GPSセンサ17が用いられる代わりに、通信部15による無線通信により、基地局との間で三辺測量が行われることで、上記位置情報が検出されてもよい。   Instead of using the GPS sensor 17, the position information may be detected by performing trilateral surveying with the base station by wireless communication by the communication unit 15.

磁気センサ(方位センサ)18は、携帯端末100から見た磁北の向きを検出可能である。加速度センサ19は、鉛直(重力)方向を検出可能である。これら検出された磁北の向き及び鉛直の向きから、携帯端末100の姿勢(カメラ16のアングル)が算出される。   The magnetic sensor (orientation sensor) 18 can detect the direction of magnetic north as viewed from the mobile terminal 100. The acceleration sensor 19 can detect the vertical (gravity) direction. From the detected magnetic north orientation and vertical orientation, the attitude of the mobile terminal 100 (the angle of the camera 16) is calculated.

[携帯端末の動作]
次に、以上のように構成された携帯端末100の動作について説明する。当該動作は、携帯端末100のCPU11及び各種センサ等のハードウェアと、不揮発メモリ13に記憶されたソフトウェアとの協働により実行される。以下の説明では、便宜上、CPU11を動作主体とする。
[Operation of mobile terminal]
Next, the operation of the mobile terminal 100 configured as described above will be described. The operation is executed in cooperation with hardware such as the CPU 11 and various sensors of the mobile terminal 100 and software stored in the nonvolatile memory 13. In the following description, for the sake of convenience, the CPU 11 is an operation subject.

(アプリケーションの画面構成)
図2は、上記リアルタイム写真合成アプリケーションの実行中に表示される画面の構成を示した図である。
(Application screen structure)
FIG. 2 is a diagram showing a configuration of a screen displayed during execution of the real-time photo composition application.

同図に示すように、上記アプリケーションでは、起動画面、表示モデル選択画面、リアルタイム写真合成画面、再生選択画面及び再生画面の5つの画面が表示可能とされている。   As shown in the figure, the application can display five screens: a startup screen, a display model selection screen, a real-time photo composition screen, a playback selection screen, and a playback screen.

起動画面は、「表示モデル選択」「再生表示」「終了」の各画面の選択ボタンを有し、ユーザの選択に応じて各画面へ遷移する。   The startup screen has selection buttons for each screen of “display model selection”, “reproduction display”, and “end”, and transitions to each screen according to the user's selection.

表示モデル選択画面は、建築予定の住宅等の建造物の三次元モデルの一覧を表示し、ユーザの操作によって一の三次元モデルを選択する。   The display model selection screen displays a list of three-dimensional models of buildings such as houses to be built, and selects one three-dimensional model by a user operation.

リアルタイム写真合成画面は、上記選択された三次元モデルから描画された建造物のパース画像と、カメラ15によって撮像された建築予定現場の画像(以下、背景画像)との合成写真を表示する合成写真表示領域と、上記パース画像と背景画像との位置ずれを補正するための「キャリブレーション」ボタンと、背景画像を記録するための「シャッター」ボタンとを有する。   The real-time photo composition screen is a composite photo that displays a composite photograph of a perspective image of a building drawn from the selected three-dimensional model and an image of a planned construction site (hereinafter, a background image) captured by the camera 15. It has a display area, a “calibration” button for correcting the positional deviation between the perspective image and the background image, and a “shutter” button for recording the background image.

詳細は後述するが、パース画像と背景画像とが表示された状態で「キャリブレーション」ボタンが押下されると、パース画像が押下時の状態で画面に固定され、背景画像のみが携帯端末100の移動に伴って更新されるようになる。   As will be described in detail later, when the “calibration” button is pressed while the perspective image and the background image are displayed, the perspective image is fixed to the screen when it is pressed, and only the background image is displayed on the mobile terminal 100. It will be updated as it moves.

「シャッター」ボタン操作時には、背景画像と共に、その時点におけるGPSセンサ17から取得された位置座標、カメラ16の姿勢(方位及び傾き)、時刻、その他天候等の環境条件、及び背景画像に合成表示されている建造物のパース画像(三次元モデル)の識別情報等も記録される。   When the “shutter” button is operated, the background image is displayed in combination with the background image, the position coordinates acquired from the GPS sensor 17 at that time, the posture (azimuth and inclination) of the camera 16, time, other environmental conditions such as weather, and the background image. Identification information of a perspective image (three-dimensional model) of a building is also recorded.

上記「キャリブレーション」ボタンは例えば表示部14の左下に、上記「シャッター」ボタンは例えば表示部14の右下に表示されるが、この位置に限られない。   For example, the “calibration” button is displayed at the lower left of the display unit 14 and the “shutter” button is displayed at the lower right of the display unit 14, for example.

再生選択画面は、シャッターで記録した背景画像の縮小画像を例えばマトリクス表示し、ユーザの操作によって一の背景画像を選択する。   The reproduction selection screen displays, for example, a matrix of reduced images of the background image recorded by the shutter, and selects one background image by a user operation.

再生画面は、上記再生選択画面によって選択された背景画像と、それに対応する上記パース画像及びキャリブレーション時に保存済みの補正値を用いて、現場におけるリアルタイム写真合成と同じ条件で写真合成を再現する。   The reproduction screen reproduces the photo composition under the same conditions as the real-time photo composition in the field, using the background image selected by the reproduction selection screen, the corresponding perspective image, and the correction value stored at the time of calibration.

(アプリケーション起動時の画面遷移動作)
次に、上記アプリケーションの起動時の画面遷移動作について説明する。図3は、当該画面遷移動作の流れを示したフローチャートである。
(Screen transition operation at application startup)
Next, the screen transition operation when starting the application will be described. FIG. 3 is a flowchart showing the flow of the screen transition operation.

同図に示すように、まず、CPU11は、上記モデル選択画面上で、ユーザによりモデル選択ボタンが押されたか否かを判断する(ステップ31)。   As shown in the figure, first, the CPU 11 determines whether or not the model selection button has been pressed by the user on the model selection screen (step 31).

モデル選択ボタンが押下されたと判断した場合(Yes)、CPU11は、リアルタイム写真合成処理へ遷移する(ステップ32)。   If it is determined that the model selection button has been pressed (Yes), the CPU 11 transitions to real-time photo composition processing (step 32).

一方、再生選択画面上で再生選択ボタンが押下されたと判断した場合(ステップ33のYes)、CPU11は、再生写真合成処理へ遷移する(ステップ34)。   On the other hand, if it is determined that the playback selection button has been pressed on the playback selection screen (Yes in step 33), the CPU 11 transitions to playback photo composition processing (step 34).

そして、終了ボタンが押されたと判断した場合(ステップ35のYes)、CPU11は、アプリケーションを終了する。   When it is determined that the end button has been pressed (Yes in step 35), the CPU 11 ends the application.

(リアルタイム写真合成処理)
次に、上記リアルタイム写真合成処理について説明する。図4は、当該リアルタイム写真合成処理の流れを示したフローチャートである。
(Real-time photo composition processing)
Next, the real-time photo composition process will be described. FIG. 4 is a flowchart showing the flow of the real-time photo composition process.

同図に示すように、CPU11は、モデル選択画面を表示すると(ステップ41)、ユーザにより一覧中から特定の建造物の三次元モデルが選択されたか否かを判断する(ステップ42)。   As shown in the figure, when displaying the model selection screen (step 41), the CPU 11 determines whether or not a three-dimensional model of a specific building has been selected from the list by the user (step 42).

三次元モデルが選択されたと判断した場合(Yes)、CPU11は、不揮発メモリ13から、選択された三次元モデルのファイルを読み込む(ステップ43)。   When determining that the three-dimensional model has been selected (Yes), the CPU 11 reads the selected three-dimensional model file from the nonvolatile memory 13 (step 43).

続いてCPU11は、上記読み込んだファイルを用いて、リアルタイム写真合成表示処理を実行する(ステップ44)。   Subsequently, the CPU 11 executes real-time photo composition display processing using the read file (step 44).

ここで、当該リアルタイム写真合成表示処理の詳細を説明する。図5は、当該リアルタイム写真合成表示処理の流れを示したフローチャートである。   Here, details of the real-time photo composition display processing will be described. FIG. 5 is a flowchart showing the flow of the real-time photo composition display process.

同図に示すように、CPU11は、カメラ16により、背景画像を取得し、表示部14に表示する(ステップ51)。   As shown in the figure, the CPU 11 acquires a background image by the camera 16 and displays it on the display unit 14 (step 51).

続いてCPU11は、GPSセンサ17により携帯端末100の現在の位置座標を取得する(ステップ52)。   Then, CPU11 acquires the present position coordinate of the portable terminal 100 by the GPS sensor 17 (step 52).

続いてCPU11は、上記位置座標中の標高の位置ずれ補正処理に地形データを使用するか否かを判断する(ステップ53)。地形データを用いると判断した場合(Yes)には、当該地形データを用いたキャリブレーション処理を実行する(ステップ54)。この処理については後述する。地形データを用いるか否かは、例えばユーザが予めアプリケーションに設定してもよいし、地形の複雑さをアプリケーションが判断して、ある程度以上地形が複雑な場合に地形データを用いてもよい。   Subsequently, the CPU 11 determines whether or not the terrain data is used for the process of correcting the displacement of the altitude in the position coordinates (step 53). If it is determined that terrain data is to be used (Yes), calibration processing using the terrain data is executed (step 54). This process will be described later. Whether or not to use the terrain data may be set in advance by the user in the application, or the terrain data may be used when the application determines the complexity of the terrain and the terrain is more than a certain degree.

地形データを用いないと判断した場合(No)、CPU11は、磁気センサ18及び加速度センサ19の各検出値から、携帯端末100の姿勢データ(カメラアングル)を取得する(ステップ55)。   If it is determined that the topographic data is not used (No), the CPU 11 acquires the attitude data (camera angle) of the mobile terminal 100 from the detection values of the magnetic sensor 18 and the acceleration sensor 19 (step 55).

続いてCPU11は、上記取得した現在位置座標と姿勢データとから、現状の視点座標、注視ベクトル、上方ベクトル、焦点距離等からなるカメラパラメータcamを作成する(ステップ56)。   Subsequently, the CPU 11 creates a camera parameter cam including the current viewpoint coordinates, gaze vector, upper vector, focal length, and the like from the acquired current position coordinates and posture data (step 56).

そしてCPU11は、上記カメラパラメータcamを用いて、建造物の三次元モデルの描画処理を実行する(ステップ57)。   And CPU11 performs the drawing process of the three-dimensional model of a building using the said camera parameter cam (step 57).

ここで、上記三次元モデル描画処理の詳細について説明する。   Here, the details of the three-dimensional model drawing process will be described.

当該三次元モデル描画処理においては、上記現状のカメラパラメータcamを用いた建造物の三次元モデル(パース画像)の位置と、背景画像における建造物の建築予定位置とに誤差が生じる場合に、当該誤差を補正する処理(キャリブレーション処理)が実行される。   In the 3D model drawing process, if an error occurs between the position of the 3D model (perspective image) of the building using the current camera parameter cam and the planned building position of the building in the background image, Processing for correcting the error (calibration processing) is executed.

本実施形態では、携帯端末100は、上記誤差補正処理の1つとして、携帯端末100を携帯したユーザの足による移動を用いることができる。以下、ユーザの移動による誤差補正処理について説明する。   In the present embodiment, the mobile terminal 100 can use movement by the foot of the user carrying the mobile terminal 100 as one of the error correction processes. Hereinafter, the error correction process by the movement of the user will be described.

‐ユーザの移動による誤差補正処理‐
携帯端末100がGPS衛星から取得する位置情報は、AndroidやiOS等の携帯端末100上のオペレーティング・システムが提供する関数と共に、アプリケーション内で利用することができる。GPSシステムの座標系は、地球の中心を原点とする三次元直交座標系であるが、このような関数によって提供される位置情報は、利用の便のために、上述のように既に緯度、経度および標高の形に処理された計算結果である。
-Error correction processing by user movement-
The position information acquired by the mobile terminal 100 from the GPS satellite can be used in the application together with a function provided by an operating system on the mobile terminal 100 such as Android or iOS. The coordinate system of the GPS system is a three-dimensional orthogonal coordinate system with the center of the earth as the origin. However, the position information provided by such a function is already in the latitude, longitude as described above for convenience of use. And the calculation result processed into the form of elevation.

水平位置の計測誤差を把握するためには、従来は、緯度経度が既知の地点に携帯端末をが置かれて、計測値の正値からのずれが計算される。以降、このずれの値を計測値に加算したものが必要な処理に用いられることにより、誤差が補正(キャリブレーション)される。   In order to grasp the measurement error of the horizontal position, conventionally, the portable terminal is placed at a point where the latitude and longitude are known, and the deviation of the measured value from the positive value is calculated. Thereafter, an error is corrected (calibrated) by using the value obtained by adding the deviation value to the measured value for the necessary processing.

しかしながら、上記の作業には、地図上から位置座標が特定できるポイントを探したり、その場所に行って差分を取得するための技能と手間とが要求される。本実施形態による方法によれば、非常に簡単な方法でこの補正を行うことができる。   However, the above work requires skill and labor for searching for a point where the position coordinates can be specified on the map or for obtaining the difference by going to that point. According to the method according to the present embodiment, this correction can be performed by a very simple method.

図6は、上記ユーザの移動による誤差補正処理を概念的に示した図である。また図7は、当該誤差補正処理を実行中のリアルタイム写真合成画面の例を示した図である。   FIG. 6 is a diagram conceptually showing the error correction processing by the movement of the user. FIG. 7 is a diagram showing an example of a real-time photo composition screen during execution of the error correction process.

ユーザはまず、図6及び図7Aに示すように、携帯端末100が表示した建造物のパース画像Pと背景画像Bとの写真合成画面70を参照しながら、パース画像Pと、それが配置されるべき建築予定の敷地C(空地など)の両方が画面に表示される場所に移動する。   First, as shown in FIGS. 6 and 7A, the user refers to the photograph composition screen 70 of the building perspective image P and the background image B displayed by the mobile terminal 100, and arranges the perspective image P and the image. Both the site C to be constructed (such as an open space) are moved to a place displayed on the screen.

次に、ユーザは、画面70上のキャリブレーションボタン71を押す。そうすると、ボタン71が押される直前の位置座標を用いたパース画像Pの表示がその状態で固定され、背景画像Bだけが更新される状態となる。この際、ボタン押下時のGPSセンサ17等の各センサからの計測値が記憶される。   Next, the user presses the calibration button 71 on the screen 70. Then, the display of the perspective image P using the position coordinates immediately before the button 71 is pressed is fixed in that state, and only the background image B is updated. At this time, measurement values from the sensors such as the GPS sensor 17 when the button is pressed are stored.

次に、ユーザはこのキャリブレーションボタン71を押したまま移動し、パース画像Pが正しい位置と向きに合成表示される場所を歩き回って探す。そしてユーザは、十分に整合する合成表示が得られたら、その場所においてキャリブレーションボタン71を離す(図7B参照)。   Next, the user moves while holding down the calibration button 71 and walks around to find a place where the perspective image P is synthesized and displayed at the correct position and orientation. When the combined display that is sufficiently matched is obtained, the user releases the calibration button 71 at that location (see FIG. 7B).

そうすると、携帯端末100は、そのボタンを離した瞬間のGPSセンサ17等の各センサからの計測値と、それまで記憶していた、キャリブレーションボタン71が押された瞬間の計測値との差分を計算する。   Then, the portable terminal 100 calculates the difference between the measured value from each sensor such as the GPS sensor 17 at the moment when the button is released and the measured value at the moment when the calibration button 71 is pressed. calculate.

以後、携帯端末100は、この差分を補正値として、GPSセンサ17等の各センサからの計測値に当該補正値を加えたものを用いてパース画像Pの描画を行う。視点位置が変化すると、パース画像Pの表示は、恰もその敷地Cに固定されているように変化する。   Thereafter, the portable terminal 100 draws the perspective image P using the difference as a correction value and adding the correction value to the measurement value from each sensor such as the GPS sensor 17. When the viewpoint position changes, the display of the perspective image P changes so that the basket is fixed to the site C.

既に補正値が与えられている状態で、更にこの補正操作が行われた場合、携帯端末100は、新たな補正値を、それまでの補正値に追加的・累積的に加算してパース画像Pの描画に用いる。   When this correction operation is further performed in a state where a correction value has already been given, the mobile terminal 100 additionally adds the new correction value to the correction value so far and cumulatively adds it to the perspective image P. Used for drawing.

ここで、上記画面70において、パース画像Pが合成されるべき方位が背景画像Bの表示範囲から外れている場合には、携帯端末100は、背景画像B上に、パース画像Pが合成される(存在する)べき位置を示す情報(例えば右・左のテキストやそれらを示す矢印画像等)を表示可能である。   Here, when the orientation in which the perspective image P is to be synthesized is out of the display range of the background image B on the screen 70, the mobile terminal 100 synthesizes the perspective image P on the background image B. Information (for example, right and left texts and arrow images indicating them) indicating the position where they should exist can be displayed.

携帯端末100は、回転(磁気センサ18の検出値)に関しても、上記移動による補正と同様の方法による補正を行う。すなわち、ユーザがキャリブレーションボタン71を押して、移動せずに水平方向の向きを変更し、パース画像Pが正しい位置に表示された状態でキャリブレーションボタン71を離すと、回転方向の補正値が算出される。   The portable terminal 100 also performs correction by the same method as the correction by the movement with respect to the rotation (the detection value of the magnetic sensor 18). That is, when the user presses the calibration button 71 to change the horizontal direction without moving and releases the calibration button 71 in a state where the perspective image P is displayed at the correct position, the correction value in the rotation direction is calculated. Is done.

垂直方向(標高)の補正に関しては、例えば建造物が本来建つべき位置よりも上方に表示されている場合(GPSセンサ17により、視点位置の標高が実際よりも低く計測された場合)には、携帯端末100の上下方向の(水平方向の軸に関する)回転が補正値の算出に用いられる。   Regarding the correction in the vertical direction (elevation), for example, when the building is displayed above the position where it should originally be built (when the elevation of the viewpoint position is measured lower than the actual position by the GPS sensor 17), The vertical rotation (with respect to the horizontal axis) of the mobile terminal 100 is used to calculate the correction value.

すなわち、ユーザは、パース画像Pがユーザから見上げたアングルで表示された状態でキャリブレーションボタン71を押し、水平のアングルに携帯端末100を上下回転させてキャリブレーションボタン71を離す。   That is, the user presses the calibration button 71 in a state where the perspective image P is displayed at an angle looked up by the user, rotates the portable terminal 100 up and down to a horizontal angle, and releases the calibration button 71.

この瞬間には、建造物のパース画像Pは地上に傾いて着地した状態で表示されている。次に、上記キャリブレーションボタン71の押下時から離した時までの差分の中に上下角の変化が含まれる場合には、携帯端末100は、その角度を、携帯端末100の現在位置座標と、建造物の建築予定の位置座標との間の水平距離に基づき、携帯端末100の上下角誤差に相応する垂直の高さの誤差に換算し、その値を以て補正を行う。その結果、この換算が終了した後に、パース画像Pが鉛直な姿勢を回復する。   At this moment, the perspective image P of the building is displayed in a state where the building is inclined to the ground. Next, when a change in the vertical angle is included in the difference from when the calibration button 71 is pressed to when it is released, the mobile terminal 100 determines the angle as the current position coordinates of the mobile terminal 100, and Based on the horizontal distance between the position coordinates of the building and the planned construction position, it is converted into a vertical height error corresponding to the vertical angle error of the portable terminal 100, and the value is corrected. As a result, after this conversion is completed, the perspective image P recovers the vertical posture.

以上のような機構を実現したことにより、ユーザは、補正に必要な数値を読み取ったり入力する必要がなく、迅速に補正データを取得して利用することができる。   By realizing the mechanism as described above, the user does not need to read or input numerical values necessary for correction, and can quickly acquire and use correction data.

‐位置と地形データを用いた高さの補正処理‐
次に、上記図5のステップ53及びステップ54で示した地形データを用いた高さの補正処理について説明する。
-Height correction using position and topographic data-
Next, the height correction process using the topographic data shown in step 53 and step 54 of FIG. 5 will be described.

GPSセンサ17から得られる緯度・経度のデータと比較して、標高のデータは誤差がより大きくなる傾向にある。そのことの要因として、GPSセンサ17の処理系内部で標高の算出に使用している国際的なジオイドデータが、日本国土地理院が日本付近に関して計測し公開しているジオイドと比較して精度が低いことが推測される。   Compared with the latitude / longitude data obtained from the GPS sensor 17, the altitude data tends to have a larger error. As a factor of this, the international geoid data used for calculating the altitude inside the processing system of the GPS sensor 17 is more accurate than the geoid that the Geospatial Information Authority of Japan has measured and published in the vicinity of Japan. Inferred to be low.

図8は、ジオイドとローカル座標系との関係を示した図である。また図9は、日本付近のジオイド図を示した図である。   FIG. 8 is a diagram showing the relationship between the geoid and the local coordinate system. FIG. 9 is a diagram showing a geoid diagram around Japan.

ローカル座標系は、ジオイド面への接平面をXY平面としており、地球楕円体に対する等重力面の凹凸を補正したジオイド面からの標高(ジオイド高)が、GPS座標から求めた標高に対応する(図8)。しかし、日本付近ではジオイド面の凹凸が複雑であり、とりわけ、東日本の太平洋側に関しては、阿武隈山地付近に国内の最高点が存在する一方、日本海溝付近に深い谷があり、その間がジオイドの急斜面となっているため、ジオイドの解像度や精度が、高さ誤差に大きく影響する(図9)。   In the local coordinate system, the tangent plane to the geoid surface is the XY plane, and the altitude (geoid height) from the geoid surface corrected for unevenness of the isogravity surface with respect to the earth ellipsoid corresponds to the altitude obtained from the GPS coordinates ( FIG. 8). However, the irregularities of the geoid surface are complex near Japan, especially on the Pacific side of eastern Japan, while the highest point in the country exists near the Abukuma Mountains, there is a deep valley near the Japan Trench, between which the steep slope of the geoid Therefore, the resolution and accuracy of the geoid greatly affect the height error (FIG. 9).

上述したように、高さの誤差を補正するために、携帯端末100の上下方向の回転による補正を実行することが可能である。本実施形態においてはこれに加えて、視点移動の範囲となる領域の地盤高さ、または市街地であれば道路等の高さを携帯端末100の中にデータとして保有する。携帯端末100は、このデータを用いて、緯度・経度からその地点の地面の高さを求め、これに平均的な歩行者の視点の高さ(例えば1.5m)を加えることにより、視点位置を計算し、これをリアルタイム写真合成に、上述の携帯端末100の回転による高さの誤差補正の代わりに使用することができる。   As described above, in order to correct the height error, it is possible to execute correction by rotating the mobile terminal 100 in the vertical direction. In the present embodiment, in addition to this, the ground height of the region that is the range of the viewpoint movement or the height of the road or the like in the city area is stored in the mobile terminal 100 as data. Using this data, the mobile terminal 100 obtains the height of the ground at that point from the latitude and longitude, and adds the average pedestrian viewpoint height (for example, 1.5 m) to the viewpoint position. This can be used for real-time photo composition instead of the above-described height error correction by the rotation of the mobile terminal 100.

この地形データは、大都市圏や被災地においては、数値地図標高から作成することが可能である。図10は、この地形データの例を示す。また、この地形データは、団地の造成データから作成することも可能である。   This topographic data can be created from digital map elevations in metropolitan areas and disaster areas. FIG. 10 shows an example of this terrain data. The topographic data can also be created from the building data.

視点高さを求めるための地盤高のメッシュ・データは、最高点と最低点の標高差が25.6m以内であれば、0.1mの精度の高さデータを256階調のモノクロ画像として表現し、例えばJPEG形式等の汎用性の高いフォーマットで、例えばクラウド上のサーバ等に比較的小容量で保存されうる。したがって、当該データは、短時間で携帯端末100に配信され、携帯端末100において復原し、位置座標計算に利用することが可能である。   The ground height mesh data used to determine the viewpoint height is expressed as a 256-tone monochrome image with 0.1m accuracy height data if the elevation difference between the highest and lowest points is within 25.6m. For example, it can be stored in a relatively versatile format such as a JPEG format, for example, in a server on the cloud with a relatively small capacity. Therefore, the data can be distributed to the mobile terminal 100 in a short time, restored at the mobile terminal 100, and used for position coordinate calculation.

三次元データとして作成した過去の町並や将来の団地の地盤面が現状と異なる場合には、それぞれのデータに対応した地面のデータを用いることによって、現在のサイトを歩き回ることにより、恰も過去または計画案の地盤面を歩き回ることが可能となる。   If the past townscape created as three-dimensional data or the ground surface of the future housing complex is different from the current situation, by using the ground data corresponding to each data, walking around the current site, the kite is also past or planned It becomes possible to walk around the ground surface of the plan.

図11は、上記三次元モデル描画処理の流れを示したフローチャートであり、このうちステップ81〜ステップ88が、上記移動による誤差補正処理の流れを示す。   FIG. 11 is a flowchart showing the flow of the three-dimensional model drawing process. Of these steps, steps 81 to 88 show the flow of the error correction process by the movement.

同図に示すように、CPU11は、キャリブレーションボタン71が押されているか否かを判断する(ステップ111)。   As shown in the figure, the CPU 11 determines whether or not the calibration button 71 is pressed (step 111).

キャリブレーションボタン71が押されていると判断した場合(Yes)、CPU11は、当該ボタン71の押下が継続されているか否かを示すホールドフラグがその時点で真か否かを判断する(ステップ112)。   When determining that the calibration button 71 is pressed (Yes), the CPU 11 determines whether or not the hold flag indicating whether or not the button 71 is continuously pressed is true at that time (step 112). ).

ホールドフラグが偽であると判断した場合(No)、CPU11は、ホールドフラグを真に設定する(ステップ113)。   When determining that the hold flag is false (No), the CPU 11 sets the hold flag to true (step 113).

続いてCPU11は、その時点における位置座標及び姿勢の状態mを、上記キャリブレーションボタン71の押下時の位置座標及び姿勢の状態hとして記憶する(ステップ114)。   Subsequently, the CPU 11 stores the position coordinate and posture state m at that time as the position coordinate and posture state h when the calibration button 71 is pressed (step 114).

一方、上記ステップ111においてキャリブレーションボタン71が押されていないと判断した場合(No)、CPU11は、上記ホールドフラグがその時点で真か否かを判断する(ステップ115)。   On the other hand, if it is determined in step 111 that the calibration button 71 has not been pressed (No), the CPU 11 determines whether or not the hold flag is true at that time (step 115).

ホールドフラグが真であると判断した場合(Yes)、CPU11は、ホールドフラグを偽に設定する(ステップ116)。すなわち、CPU11は、この時点でキャリブレーションボタン71からユーザの指が離されたと判断する。   When determining that the hold flag is true (Yes), the CPU 11 sets the hold flag to false (step 116). That is, the CPU 11 determines that the user's finger is released from the calibration button 71 at this time.

続いてCPU11は、記憶されている上記状態hと、現状の状態mの差分を計算し、その値を補正項dに追加する(ステップ117)。   Subsequently, the CPU 11 calculates a difference between the stored state h and the current state m, and adds the value to the correction term d (step 117).

そしてCPU11は、現状mの値に補正項dを追加し、建造物の三次元モデル(パース画像P)を描画する(ステップ118)。   Then, the CPU 11 adds the correction term d to the current value m and draws a three-dimensional model (perspective image P) of the building (step 118).

‐リアルタイム前景処理−
次に、上記パース画像Pの前景処理について説明する。
-Real-time foreground processing-
Next, foreground processing of the perspective image P will be described.

写真合成においては、計画上の建造物を記述した三次元データから作成したパース画像Pと、現況の背景画像を合成するにあたり、建造物よりも手前にある被写体が建造物のパース画像Pにより隠されないように処理する必要がある。図12Aは、前景の被写体Fがパース画像Pにより隠されてしまっている合成写真を示し、図12Bは、前景の被写体Fがパース画像Pによって隠されずに正しく表示されている合成写真を示す。   When compositing a perspective image P created from 3D data describing a planned building and the current background image, the subject in front of the building is hidden by the perspective image P of the building. It is necessary to deal with it. 12A shows a composite photo in which the foreground subject F is hidden by the perspective image P, and FIG. 12B shows a composite photo in which the foreground subject F is correctly displayed without being hidden by the perspective image P.

図13は、従来の写真合成手法における前景処理を示す。従来の写真合成処理においては、視点位置が固定されていることから、建造物の手前に存在する画像上の被写体を建造物の上に表示して、これを用いて建造物を隠すために、背景画像とは別に、前景画像を予め用意し、背景画像→建造物→前景画像の順に上描き表示する方法を用いていた。ここで使用する前景画像は、建造物よりも手前となる被写体以外の部分を画像処理により透明化することにより、裏側の建造物を隠さないようにするように、手間と時間をかけて準備作業の中で手作業により加工したものである。   FIG. 13 shows foreground processing in a conventional photo composition method. In the conventional photo compositing process, since the viewpoint position is fixed, in order to hide the building using this, the subject on the image existing in front of the building is displayed on the building. In addition to the background image, a foreground image is prepared in advance, and a method of overdrawing and displaying in the order of the background image → the building → the foreground image is used. The foreground image used here is time-consuming and time-consuming preparatory work so as not to hide the building on the back side by making the part other than the subject in front of the building transparent by image processing. It was processed by hand.

しかし、本実施形態におけるリアルタイム写真合成においては、絶えず変化する背景画像Bに対して、その都度このような前景画像Fを、視点移動の度に作成することは現実的ではない。   However, in the real-time photo composition in this embodiment, it is not realistic to create such a foreground image F every time the viewpoint is moved for the background image B that changes constantly.

そこで、本実施形態に係るリアルタイム前景処理においては、前景画像を使用せず、その代わりに建築予定の建造物の前景となる可能性が高い既存建物(あるいはその部分)を、予め前景モデルとするための三次元データとして作成しておき、これを建造物のパース画像の描画に先だって描画する。   Therefore, in the real-time foreground processing according to the present embodiment, the foreground image is not used, and instead, an existing building (or a part thereof) that is likely to be a foreground of a building to be built is used as a foreground model in advance. It is created as three-dimensional data for this purpose, and this is drawn prior to drawing the perspective image of the building.

図14は、本実施形態におけるパース画像及びその前景の描画処理の流れを示した図である。また図15は、上記パース画像及びその前景の描画処理を模式的に示した図である。   FIG. 14 is a diagram showing a flow of drawing processing of a perspective image and its foreground in the present embodiment. FIG. 15 is a diagram schematically showing the drawing process of the perspective image and its foreground.

図14Aは背景画像Bが撮像された状態を示し、同図Bは前景モデルを描画した状態を示し、同図Cは建造物のパース画像を描画した状態を示す。   FIG. 14A shows a state in which a background image B is captured, FIG. 14B shows a state in which a foreground model is drawn, and FIG. 14C shows a state in which a perspective image of a building is drawn.

同図Bに示すように、前景モデルの三次元データが有する全ての面のカラーを透明とした透明画像Wを描画しておくことにより、この段階では表示画面は何も変化せず、背景画像がまだそのまま表示されている。   As shown in FIG. B, by rendering a transparent image W in which the colors of all the faces of the three-dimensional data of the foreground model are transparent, the display screen does not change at this stage, and the background image Is still displayed.

しかし、このことの効果として、その次に三次元描画される建造物のパース画像Pの内、視点位置から見て前景モデルFの背後となる部分に関しては、前景モデルFの透明の描画処理が優先される結果、描画されずに隠されることとなり、結果的にその部分の背景画像(この場合は手前建物の実写)が表示される(図14C参照)。   However, as an effect of this, the transparent drawing process of the foreground model F is performed on the portion behind the foreground model F as viewed from the viewpoint position in the perspective image P of the building to be three-dimensionally drawn next. As a result of being prioritized, the image is hidden without being drawn, and as a result, the background image of that portion (in this case, the actual image of the front building) is displayed (see FIG. 14C).

この前景モデルFとなる建物の三次元データは、建物全体について詳細に作成する必要はない。図15に示すように、例えば町並を構成する連担する住宅群の中に1軒分の空地があり、そこに新たな建造物が計画されたとする。携帯端末100は、計画された建造物の三次元モデルを作成する際に、両隣の既存建物の壁面の内、計画された建造物に隣接する(対向する)面Wa及びWbだけのデータを作成する。そして携帯端末100は、これに透明の属性を付けておき、これを建造物のパース画像Pの描画に先だって描画することによって、所期の目的を果たすことができる。   The three-dimensional data of the building serving as the foreground model F need not be created in detail for the entire building. As shown in FIG. 15, for example, it is assumed that there is an open space for one house in a group of houses that form a townscape, and a new building is planned there. When creating the three-dimensional model of the planned building, the mobile terminal 100 creates only data Wa and Wb adjacent to (facing) the planned building among the walls of the existing buildings on both sides. To do. And the portable terminal 100 can achieve the intended purpose by attaching a transparent attribute to this and drawing it prior to drawing the perspective image P of the building.

図11に戻り、上記リアルタイム前景処理の流れを説明する。   Returning to FIG. 11, the flow of the real-time foreground processing will be described.

CPU11はまず、デプスバッファをクリアし(ステップ119)、パース画像Pにより隠されたくない画面上の隣接建物の壁面の三次元モデルを、全て透明なオブジェクトとしてデプスバッファに描画する(ステップ120)。   First, the CPU 11 clears the depth buffer (step 119), and draws the three-dimensional model of the wall surface of the adjacent building on the screen which is not desired to be hidden by the perspective image P as a transparent object in the depth buffer (step 120).

そしてCPU11は、パース画像Pのモデルを、デプスバッファに不透明なオブジェクトとして描画する(ステップ121)。   Then, the CPU 11 draws the model of the perspective image P as an opaque object in the depth buffer (step 121).

以上によりリアルタイム写真合成処理が終了する(図4のステップ44)。   Thus, the real-time photo composition process ends (step 44 in FIG. 4).

図4に戻り、その後、CPU11は、いずれかのセンサの計測値が変化したか否かを判断する(ステップ45のYes)。   Returning to FIG. 4, thereafter, the CPU 11 determines whether or not the measured value of any of the sensors has changed (Yes in step 45).

いずれかのセンサの値が変化したと判断した場合(Yes)、CPU11は、当該変化した値を用いて上記リアルタイム写真合成処理を実行する(ステップ44)。   If it is determined that the value of any of the sensors has changed (Yes), the CPU 11 executes the real-time photo composition process using the changed value (step 44).

いずれかのセンサの値が変化していないと判断した場合(No)、CPU11は、シャッターボタン72が押下されたか否かを判断する(ステップ46)。   If it is determined that the value of any sensor has not changed (No), the CPU 11 determines whether the shutter button 72 has been pressed (step 46).

シャッターボタン72が押下されたと判断した場合(Yes)、CPU11は、背景画像と共に、その時点におけるGPSセンサ17から取得された位置座標、カメラ16の姿勢(方位及び傾き)、補正値、写真合成に用いた補正後のカメラパラメータ、日時、その他天候等の環境条件、及び背景画像に合成表示されている建造物のパース画像(三次元モデル)の識別情報等を記録する(ステップ47)。   If it is determined that the shutter button 72 has been pressed (Yes), the CPU 11 uses the background image, the position coordinates acquired from the GPS sensor 17 at that time, the orientation (azimuth and inclination) of the camera 16, correction values, and photo composition. The camera parameters after correction, date and time, other environmental conditions such as weather, and identification information of the perspective image (three-dimensional model) of the building synthesized and displayed on the background image are recorded (step 47).

シャッターボタン72も押下されていないと判断した場合(No)、CPU11は、ユーザからアプリケーションの終了要求が入力されたか否かを判断し(ステップ48)、終了要求が入力されたと判断した場合には(Yes)、アプリケーションを終了する。   If it is determined that the shutter button 72 has not been pressed (No), the CPU 11 determines whether an application termination request has been input from the user (step 48), and if it is determined that the termination request has been input. (Yes), the application is terminated.

(誤差補正における演算手法)
ここで、上記誤差補正における演算手法の一例について、詳細について説明する。
(Calculation method in error correction)
Here, an example of the calculation method in the error correction will be described in detail.

本実施形態においては、携帯端末100を、位置に関する3つと、姿勢に関する3つの合計6つの自由度を有する剛体として扱う。   In the present embodiment, the mobile terminal 100 is treated as a rigid body having a total of six degrees of freedom, ie, three related to the position and three related to the posture.

携帯端末100の位置と姿勢を表現するために、本処理系においては、図16に示すように、敷地に固定した、東をX軸、北をY軸、上をZ軸とする三次元座標(x,y,z)を用いる。   In order to express the position and orientation of the mobile terminal 100, in this processing system, as shown in FIG. 16, three-dimensional coordinates are fixed on the site, with the east as the X axis, the north as the Y axis, and the top as the Z axis. Use (x, y, z).

地面に固定した座標系で、東をx軸、北をy軸とするのは二次元図面から始まった建築CAD等の慣習である。測量では、北をx軸、西をy軸とする。また、写真から始まったCG分野では、東をx軸、上をy軸とする慣習が存在する。   In a coordinate system fixed on the ground, the east is the x-axis and the north is the y-axis. In surveying, the north is the x-axis and the west is the y-axis. Also, in the CG field that started with photography, there is a custom that the east is the x axis and the top is the y axis.

表示すべき建物等の位置、方位、形状は、敷地の座標系を用いて表現する。   The position, direction, and shape of the building to be displayed are expressed using the coordinate system of the site.

一方、図17に示すように、携帯端末100に固定した座標軸として、ユーザが画面(表示部14)を手前に横長に水平に構えた姿勢において、右をW、上をU、正面をVとする座標軸を用いる。   On the other hand, as shown in FIG. 17, as coordinate axes fixed to the mobile terminal 100, in a posture in which the user holds the screen (display unit 14) horizontally and horizontally in front, W on the right, U on the top, and V on the front. Use coordinate axes.

上記6つの自由度の内、3つは位置に関する座標値である。   Of the above six degrees of freedom, three are coordinate values related to the position.

GPSセンサ17から得られる緯度経度標高を、敷地の座標系に変換した座標値を用いて、視点位置P(x,y,z)を表現する。   The viewpoint position P (x, y, z) is expressed using coordinate values obtained by converting the latitude and longitude elevation obtained from the GPS sensor 17 into the coordinate system of the site.

敷地座標系の原点を、基本位置とする。   The origin of the site coordinate system is the basic position.

敷地の原点位置の緯度経度標高は、建築設計に際して基準点測量などにより求められた数値を使用する。   For the latitude and longitude elevation of the site origin, the numerical value obtained by reference point surveying etc. is used in building design.

GPSセンサ17の計測値から計算される座標値Pmと、敷地原点から計測した座標値Ptの偏差Dを簡便に正しく補正することが、本実施形態の目的である。   The purpose of this embodiment is to simply and correctly correct the deviation D between the coordinate value Pm calculated from the measured value of the GPS sensor 17 and the coordinate value Pt measured from the site origin.

例えば、敷地原点の位置でGPS計測した計測座標値を補正値D1とすると、計測値からD1を引いた値が正しい敷地座標値である。   For example, when a measurement coordinate value measured by GPS at the position of the site origin is a correction value D1, a value obtained by subtracting D1 from the measurement value is a correct site coordinate value.

また、例えばGPS計測値が原点を示す地点の敷地原点から計測した座標値を補正値D2とすると、 計測値にD2を加えた値が正しい敷地座標値である。   For example, when the coordinate value measured from the site origin where the GPS measurement value indicates the origin is the correction value D2, the value obtained by adding D2 to the measurement value is the correct site coordinate value.

原点付近に移動せずとも、写真合成画面上でのキャリブレーション操作により計測された偏差により補正することができ、さらに既に得られている補正値の精度を向上することができる。   Even without moving to the vicinity of the origin, it can be corrected by the deviation measured by the calibration operation on the photo composition screen, and the accuracy of the correction value already obtained can be improved.

すなわち、キャリブレーションボタン71によるホールド中の移動をdとすると、dをD1から減ずるか、 またはD2に加えることにより補正値を取得し、改善することができる。   That is, if the movement during the holding by the calibration button 71 is d, the correction value can be acquired and improved by subtracting d from D1 or adding it to D2.

上記6つの自由度の内、3つは姿勢に関する値である。   Of the above six degrees of freedom, three are values related to the posture.

携帯端末100(剛体)は、上述のとおり、加速度センサ19と、磁気センサ18を有している。   The portable terminal 100 (rigid body) includes the acceleration sensor 19 and the magnetic sensor 18 as described above.

加速度センサ19の計測値は、自由落下している時、無重力空間にある時には、端末10の座標系で(0,0,0)となる。机の上に静止して置かれているときには、上方に加速度を机から受けている。よって、水平に置かれているのか、縦に置かれているのかなどを自己認識できる。(携帯端末100に固定された座標系で、上がどちらにあるのかが分かる)。   The measured value of the acceleration sensor 19 is (0, 0, 0) in the coordinate system of the terminal 10 when it is free-falling or in a weightless space. When resting on the desk, it receives acceleration upward from the desk. Therefore, it can recognize itself whether it is placed horizontally or vertically. (In the coordinate system fixed to the portable terminal 100, it can be seen where the top is).

地球上の重力場は、一様ではなく、歪んでいる。例えば、東日本大震災の震源域(海溝、プレート境界)の付近では、地下に密度の高い物質があって、等重力面、即ち海面が地球楕円体に対して、数十mほど凹んでいる。また、阿武隈山中付近では、日本付近で最も等重力面が高くなっている。   The gravitational field on the earth is not uniform and is distorted. For example, in the vicinity of the epicenter of the Great East Japan Earthquake (trench, plate boundary), there is a dense material in the basement, and the isogravity surface, that is, the sea surface is recessed by several tens of meters from the earth ellipsoid. In the vicinity of Mt. Abukuma, the isogravity surface is the highest in the vicinity of Japan.

このため、この付近の山は標高よりも幾何学的形状において高く、東北日本の太平洋岸付近では、海面がかなり東下がりに傾いている。上述のとおり、この等重力面の凹凸の状態は、ジオイドとして計測され、公開されており、このデータを加味することにより、より正確な高さや上方ベクトルを得ることができる。   For this reason, the mountains in this area are higher in geometric shape than the altitude, and the sea level is inclined eastwardly downward near the Pacific coast of Tohoku Japan. As described above, the uneven state of the isogravity surface is measured and disclosed as a geoid, and more accurate height and upper vector can be obtained by adding this data.

GPSセンサ17により得られる位置座標から、その場所のジオイドを求めることにより、携帯端末100の正確な標高(=歪んだ等重力面からの高さ)や、地球中心の向きを得ることができる。西暦2000年以前の測量データは、明治期に東京付近から作業を始めたこともあり、地球楕円体に対してかなり東下がりに傾いた等重力面(水準器で認識される水平)を地球楕 円体に接する面と考えて作成されているため、複雑な変換を行わないと、GPSセンサ17で計測される世界の座標系とうまくつながらない。   By obtaining the geoid of the place from the position coordinates obtained by the GPS sensor 17, it is possible to obtain the accurate altitude (= height from the distorted isogravity surface) of the mobile terminal 100 and the orientation of the center of the earth. Survey data before the year 2000 AD began work near Tokyo in the Meiji period, and the iso-gravity plane (horizontal perceived by the level) tilted eastward relative to the earth ellipsoid was Since the surface is considered to be in contact with the circular body, it cannot be connected to the world coordinate system measured by the GPS sensor 17 unless complicated conversion is performed.

磁気センサ19は、上述の通り、磁北を検出する。磁北は地軸の北極(真北)とは一致せず、ずれている。しかも、地下にある鉄分等の分布により、場所場所で偏差が異なっている。この磁北と真北の偏差の地理的分布も国土地理院により計測され、データとして公開されている。GPSにより得られる位置座標と分布図から、その場所における磁北の真北からの偏差を知り、補正することができる。   The magnetic sensor 19 detects magnetic north as described above. Magnetic north is not aligned with the north pole (true north) of the earth's axis. In addition, the deviation varies depending on the location due to the distribution of iron, etc. in the basement. The geographical distribution of the deviation between magnetic north and true north is also measured by the Geographical Survey Institute and published as data. From the position coordinates and distribution map obtained by GPS, the deviation from true north of the magnetic north at that location can be known and corrected.

また、三次元的にみた地表の磁場は、水平ではない。しかし、上述のとおり、加速度センサ19により鉛直の向きが計測できるため、それと直交する向きに補正することにより水平な磁北を求める計算が可能である。   In addition, the magnetic field on the ground in three dimensions is not horizontal. However, since the vertical direction can be measured by the acceleration sensor 19 as described above, it is possible to calculate the horizontal magnetic north by correcting the vertical direction.

携帯端末100に固定した座標系を、画面を横長に構えた時の右をW軸、正面をV軸、上をU軸とし、携帯端末100の姿勢は、この座標系で計測した真上(加速度≒敷地座標系のZ軸)と、真北(磁北≒敷地座標系のY軸)の向きから、外部から情報伝達を受けることなしに、自己認識することができる。   The coordinate system fixed to the portable terminal 100 is the W axis when the screen is held horizontally, the V axis is the front, the U axis is the top, and the attitude of the portable terminal 100 is measured directly above this coordinate system ( Self-recognition is possible without receiving external information transmission from the direction of acceleration≈Z axis of site coordinate system) and true north (magnetic north≈Y axis of site coordinate system).

よって、敷地座標系の各軸が、携帯端末100の座標系から見てどの向きであるかを知ることができる。逆に、敷地の座標系に即して、携帯端末100がどのような向きにあるのかを逆算することができる。   Therefore, it can be known in which direction each axis of the site coordinate system is viewed from the coordinate system of the mobile terminal 100. Conversely, it is possible to reversely calculate the orientation of the mobile terminal 100 according to the coordinate system of the site.

一般に、携帯端末100のような剛体の姿勢は、機器に固定された座標軸であるW軸、V軸、U軸方向の 各単位ベクトルのそれぞれの、敷地座標系で計測したx,y,z成分を示す3×3の行列で表現されることが多い。計算処理は単純であるが計算回数が多く、回転の自由度は3しかないため、データの保存方法としては冗長である。   In general, the posture of a rigid body such as the mobile terminal 100 is an x, y, z component measured in the site coordinate system of each unit vector in the W axis, V axis, and U axis directions which are coordinate axes fixed to the device. It is often expressed by a 3 × 3 matrix indicating Although the calculation process is simple, the number of calculations is large and the rotational degree of freedom is only 3. Therefore, the data storage method is redundant.

一方複素数を4次元に拡張した四元数Q(スカラー成分が1、ベクトル成分が3)を用いても、回転を表現することができる。   On the other hand, rotation can also be expressed by using a quaternion Q (scalar component is 1, vector component is 3) obtained by expanding a complex number into four dimensions.

Qを構成する4成分を(t,x,y,z)と表した時、tをQのスカラー成分、(x,y,z)をベクトル成分と呼ぶ。
Qのベクトル成分の長さとは、√(x2+y2+z2)である。
Qの長さとは、√(t2+x2+y2+z2)である。
二つの四元数(t1, x1, y1, z1)と(t2, x2, y2, z2)の和は、(t1 + t2, x1 + x2, y1 + y2, z1 + z2)である。
二つの四元数(t1, x1, y1, z1)と(t2, x2, y2, z2)の積は、(t1*t2-x1*x2 - y1*y2-z1*z2, t1*x2+x1*t2 + y1*z2-z1*y2, t1*y2-x1*z2 + y1*t2+z1*x2, t1*z2+x1*y2 - y1*x2+z1*t2)である。
When the four components constituting Q are represented as (t, x, y, z), t is referred to as a scalar component of Q, and (x, y, z) is referred to as a vector component.
The length of the vector component of Q is √ (x 2 + y 2 + z 2 ).
The length of Q is √ (t 2 + x 2 + y 2 + z 2 ).
The sum of the two quaternions (t 1 , x 1 , y 1 , z 1 ) and (t 2 , x 2 , y 2 , z 2 ) is (t 1 + t 2 , x 1 + x 2 , y 1 + y 2 , z 1 + z 2 ).
The product of two quaternions (t 1 , x 1 , y 1 , z 1 ) and (t 2 , x 2 , y 2 , z 2 ) is (t 1 * t 2 -x 1 * x 2 -y 1 * y 2 -z 1 * z 2 , t 1 * x 2 + x 1 * t 2 + y 1 * z 2 -z 1 * y 2 , t 1 * y 2 -x 1 * z 2 + y 1 * t 2 + z 1 * x 2 , t 1 * z 2 + x 1 * y 2 -y 1 * x 2 + z 1 * t 2 ).

四元数Q=(t,x,y,z)の逆数(1/Q)は、Qの長さをrとしたとき、 (t/r2, -x/r2, -y/r2, -z/r2)である。
特に、Qの長さが1である場合、Qの逆数は、スカラー成分をそのままとし、ベクトル成分の符号を反転させるだけで得られる。Q*(Qの逆数)、つまりQ/Qは、(1,0,0,0)となる。
The reciprocal (1 / Q) of the quaternion Q = (t, x, y, z) is (t / r 2 , -x / r 2 , -y / r 2 , where Q is r. , -z / r 2 ).
In particular, when the length of Q is 1, the reciprocal of Q can be obtained by simply inverting the sign of the vector component while leaving the scalar component unchanged. Q * (the reciprocal of Q), that is, Q / Q is (1,0,0,0).

四元数Qによるある四元数Vの回転は、Q*V*(Qの逆数)という計算(つまりQ*V/Q)で求められる。この時、Vのベクトル成分は、ある回転軸の回りに一定の角度分回転する。   The rotation of a quaternion V by the quaternion Q can be obtained by calculation (ie, Q * V / Q) Q * V * (the reciprocal of Q). At this time, the vector component of V rotates around a certain rotation axis by a certain angle.

回転を表現するQのベクトル成分をベクトルとしてみた場合、このベクトルの向きは回転軸の向きに等しい。   When the vector component of Q representing rotation is viewed as a vector, the direction of this vector is equal to the direction of the rotation axis.

スカラー成分が1で、ベクトル成分がすべてゼロの四元数Q=(1,0,0,0)は、回転なしを意味する。   A quaternion Q = (1,0,0,0) with a scalar component of 1 and a vector component of all zero means no rotation.

また、スカラー成分がゼロでベクトル成分の長さが1の場合は、180度回転を表す。
Q=(0,x,y,z), x2+y2+z2 = 1
In addition, when the scalar component is zero and the length of the vector component is 1, it represents 180 degree rotation.
Q = (0, x, y, z), x 2 + y 2 + z 2 = 1

その場合も、ベクトル成分が回転軸を表し、ベクトル成分の符号を全て反転させた回転-Q=(0,-x,-y,-z)も同じ結果をもたらす。   In that case, the rotation -Q = (0, -x, -y, -z) in which the vector component represents the rotation axis and the signs of the vector components are all reversed yields the same result.

それ以外の場合には、ベクトル成分を軸とするある角度Ψ(0〜180°)の回転を表す。 この場合、Qのスカラー成分tはcos(Ψ/2)であり、ベクトル成分の長さはr=sin(Ψ/2)である。
Q= (cos(Ψ/2), Px sin(Ψ/2), Py sin(Ψ/2), Pz sin(Ψ/2))
ここでPは、長さ1の、回転軸を表すベクトルで、Ψは回転角である。
In other cases, it represents a rotation of a certain angle Ψ (0 to 180 °) about the vector component. In this case, the scalar component t of Q is cos (ψ / 2), and the length of the vector component is r = sin (ψ / 2).
Q = (cos (Ψ / 2), Px sin (Ψ / 2), Py sin (Ψ / 2), Pz sin (Ψ / 2))
Here, P is a vector representing a rotation axis having a length of 1, and Ψ is a rotation angle.

例えば、携帯端末が水平に回転する場合(ビデオカメラで言うパン)、回転軸は鉛直線である。
P=(0,0,1)
回転角が60度なら、Q=(約0.866, 0, 0, 0.5)
(実成分の約0.866は、cos30°で、(√3)/2、z成分は1×sin30°で1/2)
Qの逆数は、(約0,866, 0, 0, -0.5)
である。
For example, when the mobile terminal rotates horizontally (panning in a video camera), the rotation axis is a vertical line.
P = (0,0,1)
If the rotation angle is 60 degrees, Q = (about 0.866, 0, 0, 0.5)
(About 0.866 of real component is cos30 °, (√3) / 2, z component is 1/2 at 1 × sin30 °)
The reciprocal of Q is (about 0,866, 0, 0, -0.5)
It is.

スカラー成分tはベクトル成分から、
t = cos(Ψ/2) = √(1-x2-y2-z2)
として計算することができるため、スカラー成分をデータとして保存する必要はない。
The scalar component t is derived from the vector component,
t = cos (Ψ / 2) = √ (1-x 2 -y 2 -z 2 )
Therefore, it is not necessary to store the scalar component as data.

携帯端末100の姿勢は、ある基本姿勢(例えば、真北に向かって水平に構えた姿勢)に対する回転として表現することができる。よって、この回転を表す一つの四元数Qによって表現することができる。さらに、Qの長さが1であると限定しても一般性は失われないことから、 データとしては、そのベクトル成分である3の数値を保存するだけで十分である。Qが決まれば、Q*(0,0,1,0)/Q:携帯端末100のY軸のベクトル(注視ベクトル)の、敷地座標系からみた各成分Q*(0,0,0,1)/Q:携帯端末100のZ軸のベクトル(上方ベクトル)の、敷地座標系からみた各成分により、携帯端末100の姿勢が決まる。   The attitude of the mobile terminal 100 can be expressed as a rotation with respect to a certain basic attitude (for example, an attitude held horizontally toward true north). Therefore, it can be expressed by one quaternion Q representing this rotation. Furthermore, since the generality is not lost even if the length of Q is limited to 1, it is sufficient to store the numerical value of 3 as its vector component as data. If Q is determined, Q * (0,0,1,0) / Q: each component Q * (0,0,0,1) of the Y-axis vector (gaze vector) of the mobile terminal 100 viewed from the site coordinate system ) / Q: The attitude of the mobile terminal 100 is determined by each component of the Z-axis vector (upper vector) of the mobile terminal 100 as viewed from the site coordinate system.

Q1で表現される姿勢にある携帯端末100をさらに、Q2だけ回転させた後の姿勢がQ3であるとすると、
Q3=Q2*Q1であり、従って、例えば基本姿勢における注視ベクトルVは、
Q2*(Q1*V/Q1)/Q2 = Q3*V/Q3と変換される。
If the mobile terminal 100 in the posture expressed by Q1 is further rotated by Q2 and the posture is Q3,
Q3 = Q2 * Q1, and therefore, for example, the gaze vector V in the basic posture is
Q2 * (Q1 * V / Q1) / Q2 = Q3 * V / Q3 is converted.

このような回転を表す四元数のベクトル成分を構成する3値だけをデータとして保存する方法を用いることにより、回転を繰り返した場合に、回転に関する誤差以外の、物体が変形(拡大、縮小、アフィン変換)する誤差を防ぐことができる。またマトリクスを用いる場合よりも、計算回数を縮減することができる。   By using a method of storing only three values constituting a vector component of a quaternion representing such rotation as data, when the rotation is repeated, an object other than an error related to rotation is deformed (enlarged, reduced, (Affine transformation) can be prevented. Further, the number of calculations can be reduced as compared with the case of using a matrix.

計測された携帯端末100の姿勢は、本処理系においては、敷地座標系で表現した注視ベクトルと上方ベクトルの形で表示系に伝えられる。   In the present processing system, the measured attitude of the mobile terminal 100 is transmitted to the display system in the form of a gaze vector and an upper vector expressed in the site coordinate system.

携帯端末100の姿勢はオイラー角を用いて、基本姿勢からヨー角(Y)水平回転し、ピッチ角(P)上下回転し、ロール角(R)横回転することでも表現できる。磁気センサ19と加速度センサ18から計算されたロールR、ピッチP、ヨーYを用いて、回転を表す四元数Qをさらに次のように計算することができる。
Q=(cos(R/2),0,sin(R/2),0)*(cos(P/2),sin(P/2),0,0)*(cos(Y/2),0,0,sin(Y/2))
この回転は、基本姿勢からまずヨー角だけU軸まわりに方位を回転させ、次にW軸まわりにピッチ角だけ回転させ、最後にV軸周りにロール角だけ回転させる手順に対応する。
The posture of the mobile terminal 100 can also be expressed by using the Euler angle and rotating the yaw angle (Y) horizontally from the basic posture, rotating the pitch angle (P) up and down, and rotating the roll angle (R) sideways. Using the roll R, pitch P, and yaw Y calculated from the magnetic sensor 19 and the acceleration sensor 18, the quaternion Q representing the rotation can be further calculated as follows.
Q = (cos (R / 2), 0, sin (R / 2), 0) * (cos (P / 2), sin (P / 2), 0,0) * (cos (Y / 2), (0,0, sin (Y / 2))
This rotation corresponds to the procedure of rotating the azimuth around the U axis by the yaw angle from the basic posture, then rotating the pitch angle around the W axis, and finally rotating the roll angle around the V axis.

加速度センサ19及び磁気センサ18から計算される姿勢Qmと、敷地座標系による姿勢との偏差Qdを正しく補正することが、本実施形態の目的である。例えば、敷地座標系の基本姿勢に携帯端末を置いた時にセンサから計測値で計算した姿勢を、誤差Qd1とすると、任意の姿勢の計測値から求めた姿勢Qmを、Qm/Qd1に補正することにより正しい姿勢が得られる。   It is an object of the present embodiment to correctly correct the deviation Qd between the attitude Qm calculated from the acceleration sensor 19 and the magnetic sensor 18 and the attitude based on the site coordinate system. For example, if the posture calculated with the measured value from the sensor when the mobile terminal is placed in the basic posture of the site coordinate system is the error Qd1, the posture Qm obtained from the measured value of an arbitrary posture is corrected to Qm / Qd1. The correct posture can be obtained.

また、センサ計測値が基本姿勢に対応する値を得る姿勢を敷地座標系で計測した姿勢をQd2とすると、任意の姿勢の計測値から求めたQを、Q*Qd2に補正することにより正しい姿勢、すなわちより正確な表示が得られる。   Also, assuming that the attitude obtained by sensor measurement values corresponding to the basic attitude is Qd2 as the attitude measured in the site coordinate system, the correct attitude is obtained by correcting Q obtained from the measured value of any attitude to Q * Qd2. That is, a more accurate display is obtained.

Qd1は、正しい基本姿勢から計測値上の基本姿勢への回転を示す四元数である。またQd2は、計測値上の基本姿勢から、正しい基本姿勢への回転を示す四元数である。Qd1とQd2は、Qd1*Qd2=1、言い換えるとQd2=1/Qd1の関係にある。   Qd1 is a quaternion indicating the rotation from the correct basic posture to the basic posture on the measurement value. Qd2 is a quaternion indicating rotation from the basic posture on the measurement value to the correct basic posture. Qd1 and Qd2 have a relationship of Qd1 * Qd2 = 1, in other words, Qd2 = 1 / Qd1.

ユーザにより合成表示結果を見て補正を行うためのホールド操作が行われている間に、Qdの回転が行われた場合には、Qd1をQdで除するか、またはQd2にQdに乗ずることにより、補正値Qd1またはQd2の精度をより高めることができる。   If the rotation of Qd is performed while the hold operation for performing correction by looking at the synthesized display result is performed by the user, Qd1 is divided by Qd or Qd2 is multiplied by Qd. The accuracy of the correction value Qd1 or Qd2 can be further increased.

ホールド操作の前の上方ベクトルと注視ベクトルの計測値を四元数で表したものをU1,V1とし、 ホールドが解除された時点における上方ベクトルと注視ベクトルの計測値を四元数で表したものをU2,V2とすると、右方向ベクトルはそれぞれ、W1=V1*U1, W2=V2*U2として求められる。   U1 and V1 represent the measured values of the upper vector and gaze vector before the hold operation as quaternions, and represent the measured values of the upper vector and gaze vector in quaternions when the hold was released. Is U2, V2, the right direction vectors are obtained as W1 = V1 * U1 and W2 = V2 * U2, respectively.

これらを用いて、ホールド期間中の回転Qdの自乗を、
Qd2 = (W2*W1+V2*V1+U2*U1+(1,0,0,0))*(-0.5,0,0,0)
として求めることができる。
Using these, the square of the rotation Qd during the hold period is
Qd 2 = (W2 * W1 + V2 * V1 + U2 * U1 + (1,0,0,0)) * (-0.5,0,0,0)
Can be obtained as

但し、Qd2のスカラー成分が-1となる場合、すなわち180°回転の場合には、Qd2のベクトル成分が 全てゼロとなるために、Qdが求められない。そこで、このような場合には、Qdのベクトル成分を、(V2-V1)*(U2-U1)のベクトル成分または、(W2-W1)*(V2-V1)のベクトル成分の内、長さが大きい方を正規化する方法で直接求め、スカラー成分をゼロとする。 However, when the scalar component of Qd 2 is −1, that is, when the rotation is 180 °, the vector components of Qd 2 are all zero, so that Qd cannot be obtained. In such a case, the vector component of Qd is the length of the vector component of (V2-V1) * (U2-U1) or the vector component of (W2-W1) * (V2-V1). The one with a larger value is directly obtained by normalization, and the scalar component is set to zero.

Qdは、Qd2からは、三角関数を使用せずに、以下の手順で計算することができる。
Qd2の成分を、(T,X,Y,Z)、Qdの成分を(t,x,y,z)とすると、tは√((1+T)/2)である。
また、k = (√((1-T)/2))/(√(1-T2))とすると、
x = kX, y = kY, z = kZとなる。
但し、Tが1の場合には、k = 0とする。また、Tが-1となる場合には、上記[0176]の処理で完結するため、この処理は必要ではない。
Qd from Qd 2, without the use of trigonometric functions can be calculated by the following procedure.
The components of Qd 2, (T, X, Y, Z), the component of Qd (t, x, y, z) When, t is √ ((1 + T) / 2).
If k = (√ ((1-T) / 2)) / (√ (1-T 2 )),
x = kX, y = kY, z = kZ.
However, when T is 1, k = 0. Further, when T is −1, the process of [0176] is completed, so this process is not necessary.

[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本開示の要旨を逸脱しない範囲内において種々変更され得る。
[Modification]
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present disclosure.

上述の実施形態においては、キャリブレーションボタン71が押下された時にパース画像が固定され、押下が維持された後(ロングタッチ)、指がリリースされた時に補正値が算出された。しかし、単にボタン71のタッチ操作によってパース画像が固定され、次のタッチ操作によって補正値が算出されてもよい。   In the above-described embodiment, the perspective image is fixed when the calibration button 71 is pressed, and after the pressing is maintained (long touch), the correction value is calculated when the finger is released. However, the perspective image may be fixed simply by touching the button 71, and the correction value may be calculated by the next touch operation.

また、パース画像の固定のためのボタンと、補正値算出のためのボタンが別個に用意されてもよい。すなわち、パース画像の固定のための操作と、補正値算出のための操作とが連関していなくてもよい。   In addition, a button for fixing a perspective image and a button for calculating a correction value may be prepared separately. That is, the operation for fixing the perspective image and the operation for calculating the correction value do not have to be linked.

上述の実施形態では、GPSセンサ、磁気センサ、加速度センサの各値が補正されたが、これらのうちいずれか1つまたは2つの値が補正されてもよい。   In the above-described embodiment, each value of the GPS sensor, the magnetic sensor, and the acceleration sensor is corrected. However, any one or two of these values may be corrected.

上述の実施形態の各フローチャートで示した処理は一例であり、それ以外の処理によっても本発明の目的を達成することができる。   The processing shown in each flowchart of the above-described embodiment is an example, and the object of the present invention can be achieved by other processing.

11…CPU
12…RAM
13…不揮発メモリ
14…表示部
15…通信部
16…カメラ
17…GPSセンサ
18…磁気センサ
19…加速度センサ
70…写真合成画面
71…キャリブレーションボタン
71…ボタン
72…シャッターボタン
100…携帯端末
11 ... CPU
12 ... RAM
DESCRIPTION OF SYMBOLS 13 ... Non-volatile memory 14 ... Display part 15 ... Communication part 16 ... Camera 17 ... GPS sensor 18 ... Magnetic sensor 19 ... Acceleration sensor 70 ... Photograph composition screen 71 ... Calibration button 71 ... Button 72 ... Shutter button 100 ... Portable terminal

Claims (7)

情報処理装置であって、
建造物の建築予定の予定位置座標及び当該建造物を示す三次元データと、前記予定位置座標を含む視点移動範囲における各地点の高さを含む地形データとを記憶可能な記憶部と、
前記建造物の建築予定現場の画像を撮像可能なカメラと、
当該情報処理装置の緯度、経度及び標高を含む現在位置座標を検出可能な位置センサと、
前記カメラが向いている方位を検出可能な方位センサと、
表示部と、
前記三次元データと、前記予定位置座標と、前記現在位置座標と、前記方位とを基に、前記カメラを視点とした前記建造物のパース画像を描画し、当該パース画像を前記撮像された画像上に合成した合成画像を前記表示部に表示させ、
前記現在位置座標における前記緯度及び経度に対応する前記地形データ中の高さに、平均的な人間の視点の高さを加えた値を、前記現在位置座標の垂直方向の値として前記パース画像の描画に用いる
ことが可能な制御部と
を具備する情報処理装置。
An information processing apparatus,
A storage unit capable of storing planned position coordinates of a building to be built and three-dimensional data indicating the building, and terrain data including the height of each point in the viewpoint movement range including the planned position coordinates;
A camera capable of capturing an image of the building planned site of the building;
A position sensor capable of detecting current position coordinates including latitude, longitude and altitude of the information processing apparatus;
An orientation sensor capable of detecting the orientation in which the camera is facing;
A display unit;
Based on the three-dimensional data, the planned position coordinates, the current position coordinates, and the azimuth, a perspective image of the building is drawn from the viewpoint of the camera, and the perspective image is captured. Display the synthesized image synthesized above on the display unit,
A value obtained by adding an average height of the human viewpoint to the height in the terrain data corresponding to the latitude and longitude in the current position coordinates is used as a value in the vertical direction of the current position coordinates. An information processing apparatus comprising: a control unit that can be used for drawing.
請求項1に記載の情報処理装置であって、
前記記憶部は、前記建造物の建築予定地に隣接して存在する隣接建物の前記建造物と対向する面を示す隣接面三次元データ及び当該面の隣接面位置座標を記憶し、
前記制御部は、前記パース画像の合成前に、前記隣接面三次元データ及び前記隣接面位置座標を基に、前記撮像された画像上の、前記パース画像の前景となる前記隣接建物の前記隣接面位置座標に相当する位置に透明な面を描画する
情報処理装置。
The information processing apparatus according to claim 1,
The storage unit stores adjacent surface three-dimensional data indicating a surface facing the building of an adjacent building adjacent to the planned construction site of the building and adjacent surface position coordinates of the surface,
The control unit, before synthesizing the perspective image, based on the adjacent surface three-dimensional data and the adjacent surface position coordinates, on the captured image, the adjacent building that is the foreground of the perspective image. An information processing apparatus that draws a transparent surface at a position corresponding to surface position coordinates.
請求項1に記載の情報処理装置であって、
前記制御部は、前記パース画像が合成されるべき方位が前記撮像された画像の表示範囲から外れている場合に、前記撮像された画像上に前記パース画像が合成されるべき方位を示す情報を表示するように前記表示部を制御する
情報処理装置。
The information processing apparatus according to claim 1,
The control unit includes information indicating an orientation in which the perspective image is to be synthesized on the captured image when the orientation in which the perspective image is to be synthesized is out of a display range of the captured image. An information processing apparatus that controls the display unit to display.
請求項1に記載の情報処理装置であって、
当該情報処理装置を保持するユーザの操作を受付可能な操作受付部をさらに具備し、
前記制御部は、ユーザから第1の操作が受け付けられた場合に、前記撮像された画像と共に、少なくともその時点における前記現在位置座標と、前記方位と、前記三次元データの識別情報とを記録する
情報処理装置。
The information processing apparatus according to claim 1,
An operation receiving unit capable of receiving an operation of a user holding the information processing apparatus;
When the first operation is received from the user, the control unit records at least the current position coordinates, the azimuth, and the identification information of the three-dimensional data together with the captured image. Information processing device.
請求項4に記載の情報処理装置であって、
前記制御部は、前記記録された複数の画像から1つの画像を選択する前記ユーザの操作が受け付けられた場合に、前記第1の操作時に記録された前記現在位置座標及び前記方位と、前記記録された識別情報を有する前記三次元データとを基に、前記パース画像を前記選択された画像上に合成した合成画像を前記表示部に表示させる
情報処理装置。
The information processing apparatus according to claim 4,
The control unit receives the current position coordinates and the orientation recorded at the time of the first operation when the user's operation of selecting one image from the plurality of recorded images is received, and the recording An information processing apparatus that causes the display unit to display a composite image obtained by combining the perspective image with the selected image based on the three-dimensional data having the identified identification information.
建築予定の建造物を示す三次元データと、前記建造物の建築予定の予定位置座標と、位置センサで検出された情報処理装置の緯度、経度及び標高を含む現在位置座標と、方位センサで検出されたカメラの方位とを基に、前記カメラを視点とした前記建造物のパース画像を描画し、
前記パース画像を、前記カメラで撮像された建造物の建築予定現場の画像上に合成した合成画像を表示し、
前記予定位置座標を含む視点移動範囲における各地点の高さを含む地形データを基に、前記現在位置座標における前記緯度及び経度に対応する前記地形データ中の高さに、平均的な人間の視点の高さを加えた値を、前記現在位置座標の垂直方向の値として前記パース画像の描画に用いる
情報処理方法。
Three-dimensional data indicating the building planned to be built, the planned position coordinates of the building planned to be built, the current position coordinates including the latitude, longitude, and altitude of the information processing device detected by the position sensor, and the direction sensor Draw a perspective image of the building from the viewpoint of the camera based on the orientation of the camera,
Displaying a synthesized image obtained by synthesizing the perspective image on the image of the planned construction site of the building imaged by the camera;
Based on the terrain data including the height of each point in the viewpoint movement range including the planned position coordinates, the average human viewpoint in the height in the terrain data corresponding to the latitude and longitude in the current position coordinates An information processing method in which a value obtained by adding the height of the current position is used for drawing the perspective image as a value in the vertical direction of the current position coordinates.
情報処理装置に、
建築予定の建造物を示す三次元データと、前記建造物の建築予定の予定位置座標と、位置センサで検出された情報処理装置の緯度、経度及び標高を含む現在位置座標と、方位センサで検出されたカメラの方位とを基に、前記カメラを視点とした前記建造物のパース画像を描画するステップと、
前記パース画像を、前記カメラで撮像された建造物の建築予定現場の画像上に合成した合成画像を表示するステップと、
前記予定位置座標を含む視点移動範囲における各地点の高さを含む地形データを基に、前記現在位置座標における前記緯度及び経度に対応する前記地形データ中の高さに、平均的な人間の視点の高さを加えた値を、前記現在位置座標の垂直方向の値として前記パース画像の描画に用いるステップと
を実行させるプログラム。
In the information processing device,
Three-dimensional data indicating the building planned to be built, the planned position coordinates of the building planned to be built, the current position coordinates including the latitude, longitude, and altitude of the information processing device detected by the position sensor, and the direction sensor Drawing a perspective image of the building from the viewpoint of the camera based on the orientation of the camera,
Displaying a synthesized image obtained by synthesizing the perspective image on an image of a planned construction site of a building imaged by the camera;
Based on the terrain data including the height of each point in the viewpoint movement range including the planned position coordinates, the average human viewpoint in the height in the terrain data corresponding to the latitude and longitude in the current position coordinates And a step of using the value obtained by adding the height of the current position coordinates for drawing the perspective image as a value in the vertical direction of the current position coordinates.
JP2015189158A 2015-09-28 2015-09-28 Information processing apparatus, information processing method, and program Active JP6064269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189158A JP6064269B2 (en) 2015-09-28 2015-09-28 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189158A JP6064269B2 (en) 2015-09-28 2015-09-28 Information processing apparatus, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014506384A Division JP5817012B2 (en) 2013-11-15 2013-11-15 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016053961A true JP2016053961A (en) 2016-04-14
JP6064269B2 JP6064269B2 (en) 2017-01-25

Family

ID=55745252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189158A Active JP6064269B2 (en) 2015-09-28 2015-09-28 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6064269B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132913A (en) * 2017-02-15 2018-08-23 清水建設株式会社 Structural visualization device and structural visualization system
JP6410874B1 (en) * 2017-05-30 2018-10-24 株式会社タカラトミー AR video generator
CN111986097A (en) * 2019-05-24 2020-11-24 北京小米移动软件有限公司 Image processing method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04281572A (en) * 1991-03-11 1992-10-07 Personal Joho Kankyo Kyokai Synthesizing system for photographic image with computer graphic in image processing system
JP2003132374A (en) * 2001-10-26 2003-05-09 Canon Inc Image display device, its method and storage medium
JP2011138258A (en) * 2009-12-28 2011-07-14 Rakuten Inc View reproduction system
JP2012174243A (en) * 2011-02-24 2012-09-10 Kyocera Corp Mobile information device and virtual information display program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04281572A (en) * 1991-03-11 1992-10-07 Personal Joho Kankyo Kyokai Synthesizing system for photographic image with computer graphic in image processing system
JP2003132374A (en) * 2001-10-26 2003-05-09 Canon Inc Image display device, its method and storage medium
JP2011138258A (en) * 2009-12-28 2011-07-14 Rakuten Inc View reproduction system
JP2012174243A (en) * 2011-02-24 2012-09-10 Kyocera Corp Mobile information device and virtual information display program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132913A (en) * 2017-02-15 2018-08-23 清水建設株式会社 Structural visualization device and structural visualization system
JP6410874B1 (en) * 2017-05-30 2018-10-24 株式会社タカラトミー AR video generator
JP2018205828A (en) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar video generation device
CN111986097A (en) * 2019-05-24 2020-11-24 北京小米移动软件有限公司 Image processing method and device
CN111986097B (en) * 2019-05-24 2024-02-09 北京小米移动软件有限公司 Image processing method and device

Also Published As

Publication number Publication date
JP6064269B2 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
US11217019B2 (en) Presenting image transition sequences between viewing locations
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
KR20210064115A (en) 3D modeling system and method based on shooting, automatic 3D modeling apparatus and method
US11557083B2 (en) Photography-based 3D modeling system and method, and automatic 3D modeling apparatus and method
TWI494898B (en) Extracting and mapping three dimensional features from geo-referenced images
JP6682821B2 (en) Service system, information processing device, service providing method
JP5477059B2 (en) Electronic device, image output method and program
JP6476657B2 (en) Image processing apparatus, image processing method, and program
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
CN102338639A (en) Information processing device and information processing method
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
JP2017212510A (en) Image management device, program, image management system, and information terminal
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
JP6064269B2 (en) Information processing apparatus, information processing method, and program
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP5817012B2 (en) Information processing apparatus, information processing method, and program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
JP5862865B2 (en) Composite image display device and composite image display program
CN114092646A (en) Model generation method and device, computer equipment and storage medium
JP2022507714A (en) Surveying sampling point planning method, equipment, control terminal and storage medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
CA3102860C (en) Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method
Hussein et al. Evaluation of the accuracy of direct georeferencing of smartphones for use in some urban planning applications within smart cities
JP2011041020A (en) Mobile terminal, display method, and display system
JP2012138759A (en) Imaging device, imaging control method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

R150 Certificate of patent or registration of utility model

Ref document number: 6064269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150