JP2021047611A - Image display system - Google Patents

Image display system Download PDF

Info

Publication number
JP2021047611A
JP2021047611A JP2019169457A JP2019169457A JP2021047611A JP 2021047611 A JP2021047611 A JP 2021047611A JP 2019169457 A JP2019169457 A JP 2019169457A JP 2019169457 A JP2019169457 A JP 2019169457A JP 2021047611 A JP2021047611 A JP 2021047611A
Authority
JP
Japan
Prior art keywords
image
display
orientation
dimensional shape
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019169457A
Other languages
Japanese (ja)
Other versions
JP7303711B2 (en
Inventor
石田 仁
Hitoshi Ishida
仁 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Penta Ocean Construction Co Ltd
Original Assignee
Penta Ocean Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Penta Ocean Construction Co Ltd filed Critical Penta Ocean Construction Co Ltd
Priority to JP2019169457A priority Critical patent/JP7303711B2/en
Publication of JP2021047611A publication Critical patent/JP2021047611A/en
Application granted granted Critical
Publication of JP7303711B2 publication Critical patent/JP7303711B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To make it possible to superimpose and display a design image of a construction object on an actual construction object without placing a large number of artifacts, even in a vast construction site where the surrounding landscape is monotonous.SOLUTION: A terminal device 12 identifies a position and posture of a backhoe 8 based on positions measured by GNSS units 11(1) and 11(2) located on the backhoe 8. A terminal device 13 identifies corresponding points corresponding to three or more recognized feature points from an image taken of the backhoe 8 out of a three-dimensional shape of the backhoe 8 represented by data stored in advance. The terminal device 13 identifies a positional relationship between the terminal device 13 and the backhoe 8 based on the positions of the feature points in the image and the positions of the corresponding points in the three-dimensional shape. Based on the positional relationship and the position and posture of the backhoe 8, the terminal device 13 identifies the position and posture of the terminal device 13. Using the identified position and posture of the terminal device 13, the terminal device 13 displays an image in which the designed three-dimensional shape is superimposed on an actual image of the construction object.SELECTED DRAWING: Figure 1

Description

本発明は、施工物に画像を重ねて表示するための技術に関する。 The present invention relates to a technique for superimposing and displaying an image on a construction object.

実空間の物体に対し、実空間と座標系が共通の仮想空間内の画像を重ねて表示する拡張現実(Augmented Reality)や複合現実(Mixed Reality)のシステムにおいては、液晶ディスプレイ等の表示手段の実空間における位置及び姿勢を正確に特定する必要がある。装置の位置及び姿勢を特定する技術を開示している文献として、例えば特許文献1がある。特許文献1には、実空間中に配置された既知位置の指標をカメラで撮像し、撮像した画像中から指標を検出し、検出した指標の画像における位置からカメラの位置及び姿勢を測定する技術が記載されている(例えば、段落0002)。 In augmented reality (Augmented Reality) and mixed reality (Mixed Reality) systems that superimpose images in a virtual space with a common coordinate system on a real space object, display means such as a liquid crystal display It is necessary to accurately identify the position and orientation in real space. For example, Patent Document 1 is a document that discloses a technique for specifying a position and an attitude of an apparatus. Patent Document 1 describes a technique in which an index of a known position arranged in a real space is imaged by a camera, the index is detected from the captured image, and the position and orientation of the camera are measured from the position in the image of the detected index. Is described (eg, paragraph 0002).

特開2005−107966号公報Japanese Unexamined Patent Publication No. 2005-107966

工事現場において、作業者や検査者が、拡張現実や複合現実の技術により、実空間内の施工物に対し、当該施工物の設計上の三次元形状(竣工時の三次元形状)を重ねて表示した画像を見ることができれば、作業者や検査者は施工作業や施工物の検査作業を効率的に行うことができる。 At the construction site, workers and inspectors superimpose the design three-dimensional shape (three-dimensional shape at the time of completion) on the construction work in the real space by using augmented reality and mixed reality technology. If the displayed image can be seen, the worker or the inspector can efficiently perform the construction work and the inspection work of the construction object.

既述のように、拡張現実や複合現実のシステムにおいては、表示手段の実空間における位置及び姿勢を正確に特定する必要がある。そのための方法として、表示手段と位置関係が変化しない撮影手段により撮影した画像から既知位置の特徴点を認識し、認識したそれらの特徴点の画像における位置に基づき表示手段の位置及び姿勢を特定する方法が知られている。 As described above, in augmented reality and mixed reality systems, it is necessary to accurately specify the position and orientation of the display means in real space. As a method for that purpose, the feature points at known positions are recognized from the image taken by the photographing means whose positional relationship does not change with the display means, and the position and orientation of the display means are specified based on the positions of the recognized feature points in the image. The method is known.

既知位置の特徴点は、自然物(例えば山の山頂など)と人工物(マーカ)に区分される。工事現場には形状等に特徴のある自然物がない場合がある。例えば、工事現場が海上や砂漠などの周囲の風景が単調な場所にある場合、どの方向にも特徴のある自然物が見当たらない。そのような場合、自然物を撮影しても表示手段の位置及び姿勢を特定することはできない。 The feature points at known positions are divided into natural objects (for example, mountain peaks) and man-made objects (markers). There may be no natural objects with distinctive shapes at the construction site. For example, if the construction site is in a place where the surrounding landscape such as the sea or desert is monotonous, no characteristic natural objects can be found in any direction. In such a case, the position and orientation of the display means cannot be specified even if a natural object is photographed.

また、工事現場は一般的に広大であるため、自然物に代え人工物を用いるために工事現場の周囲に特徴点となる多数の人工物(マーカ)を配置するには多大な労力と時間を要し、現実的ではない。 In addition, since the construction site is generally vast, it takes a lot of labor and time to arrange a large number of artificial objects (markers) that are characteristic points around the construction site in order to use artificial objects instead of natural objects. However, it is not realistic.

上記の事情に鑑み、本発明は、周囲の風景が単調な広大な工事現場においても、多数の人工物を配置せずに、実物の施工物に当該施工物の設計上の画像を重ねて表示することを可能とする手段を提供する。 In view of the above circumstances, the present invention superimposes a design image of a construction object on an actual construction object without arranging a large number of artificial objects even in a vast construction site where the surrounding landscape is monotonous. Provide the means by which it is possible to do so.

本発明は、撮影手段と、前記撮影手段と所定の位置関係にある表示手段と、前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段とを備え、前記表示手段は前記表示用画像を表示する画像表示システムを第1の態様として提供する。 The present invention includes a photographing means, a display means having a predetermined positional relationship with the photographing means, a measuring means for measuring the position and orientation of the object to be photographed by the photographing means on the earth, the photographing means and the display means. The positional relationship data indicating the positional relationship of the object, the first three-dimensional shape data representing the three-dimensional shape of the object, the three-dimensional shape in the design of the construction, and the second three-dimensional representing the position and attitude on the earth. A storage means for storing the shape data, a recognition means for the photographing means to recognize three or more feature points of the object from an image obtained by photographing the object, and a three-dimensional shape represented by the first three-dimensional shape data. The corresponding point specifying means for specifying the three or more corresponding points, which are the points corresponding to the three or more feature points recognized by the recognition means, and the positions of the three or more corresponding points in the object. The positional relationship between the object and the photographing means is specified based on the positions of the three or more feature points in the image of the object, and the object and the object and the above are based on the positional relationship and the positional relationship indicated by the positional relationship data. The positional relationship specifying means for specifying the positional relationship of the display means, the positional relationship between the object specified by the positional relationship specifying means and the display means, and the measurement means measured by the measuring means at the time of photographing the image of the object. Based on the position and orientation of the object on the earth, the position and orientation specifying means for specifying the position and orientation of the display means on the earth at the time of shooting, and the position and orientation of the display means specified by the position and orientation specifying means on the earth. Based on the design three-dimensional shape of the construction object represented by the second three-dimensional shape data and the position and orientation on the earth, the design is performed in a virtual space in which the real space and the coordinate system photographed by the photographing means are common. An image generation means for generating a display image representing a three-dimensional shape of the construction object constructed at an upper position in a design posture is provided, and the display means provides an image display system for displaying the display image. It is provided as one aspect.

第1の態様に係る画像表示システムによれば、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the image display system according to the first aspect, even in a vast construction site where the surrounding landscape is monotonous, by photographing a predetermined object with a photographing means, the actual construction object can be made into the actual construction object in the design of the construction object. Images can be overlaid and displayed.

また、本発明は、第1の態様に係る画像表示システムであって、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段を備え、前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する、という構成を第2の態様として提案する。 Further, the present invention is an image display system according to the first aspect, and when the measuring means is used as the first measuring means, a second method of continuously measuring a change in the position and posture of the displaying means. The position and orientation specifying means includes the position and orientation of the display means on the earth at the specified time of shooting, and the display means measured by the second measuring means from the time of shooting to the present time. As the second aspect, we propose a configuration in which the current position and orientation of the display means on the earth are specified based on the changes in the position and the attitude.

第2の態様に係る画像表示システムによれば、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる According to the image display system according to the second aspect, even during a period in which the photographing means is not photographing a predetermined object, the design image of the construction object can be superimposed and displayed on the actual construction object.

また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示用画像は、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像である、という構成を第3の態様として提案する。 Further, the present invention is an image display system according to the first or second aspect, and the display image is an image representing a design three-dimensional shape of the construction object on an image taken by the photographing means. As a third aspect, we propose a configuration in which the image is a superposed image.

第3の態様に係る画像表示システムによれば、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the image display system according to the third aspect, the user who sees the image displayed on the display means has a three-dimensional shape obtained by photographing the actual structure of the current construction, the position of the three-dimensional shape in the design of the construction, and You can intuitively grasp the deviation of the posture.

また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示手段は、ユーザの頭部に装着される透過型の表示手段であり、前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である、という構成を第4の態様として提案する。 Further, the present invention is an image display system according to a first or second aspect, wherein the display means is a transmissive display means worn on a user's head, and the display image is the display means. The user sees the real space through the display means, and the user is in the virtual space where the real space and the coordinate system are common. As a fourth aspect, we propose a configuration in which the original shapes are superimposed and shown as an image.

第4の態様に係る画像表示システムによれば、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the image display system according to the fourth aspect, the user wearing the transmissive display means on the head can see the display means through the display means from various positions and angles. It is possible to intuitively grasp the deviation of the position and posture of the three-dimensional shape in the design of the object.

また、本発明は、コンピュータに、撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、前記表示用画像を前記表示手段に表示させる処理とを実行させるためのプログラムを第5の態様として提供する。 Further, the present invention presents a first three-dimensional object in which a computer is provided with positional relationship data indicating a predetermined positional relationship between a photographing means and a display means, and a three-dimensional shape of an object whose position and orientation on the earth are measured by the measuring means. A process of acquiring shape data, a second three-dimensional shape data representing a design three-dimensional shape of a construction object and a position and orientation on the earth, and image data representing an image of the object taken by the photographing means. And the process of acquiring the position and orientation data indicating the position and orientation of the object on the earth measured by the measuring means at the time of shooting the image, and the three or more feature points of the object from the image represented by the image data. The process of recognizing, the process of specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the recognized three or more feature points, and the above-mentioned The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the photographed image of the object, and the positional relationship and the positional relationship are specified. The process of specifying the positional relationship between the object and the display means based on the positional relationship indicated by the data, the positional relationship between the specified object and the display means, and the position and orientation of the object on the earth indicated by the positional orientation data. Based on the above, the process of specifying the position and orientation of the display means on the earth at the time of shooting, the position and orientation of the specified display means on the earth, and the construction object represented by the second three-dimensional shape data. Based on the design three-dimensional shape and the position and orientation on the earth, the construction object constructed at the design position in the design posture in the virtual space in which the real space and the coordinate system photographed by the photographing means are common. A fifth embodiment provides a program for executing a process of generating a display image representing a three-dimensional shape and a process of displaying the display image on the display means.

第5の態様に係るプログラムによればコンピュータにより、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the program according to the fifth aspect, even in a vast construction site where the surrounding landscape is monotonous, a predetermined object can be photographed by a photographing means to make an actual construction object in the design of the construction object. Images can be overlaid and displayed.

また、本発明は、第5の態様に係るプログラムであって、前記コンピュータに、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理とを実行させるためのプログラムを、第6の態様として提案する。 Further, the present invention is a program according to a fifth aspect, in which, when the measuring means is used as the first measuring means, the computer continuously measures the change in the position and posture of the display means. The process of acquiring the position / orientation change data indicating the change in the position and posture of the display means from the time of shooting to the present time measured by the second measuring means, and the process of acquiring the data of the change in position / orientation at the specified time of shooting on the earth. Based on the position and orientation and the change in the position and orientation of the display means from the time of shooting to the present time indicated by the change in position and orientation data, the process of specifying the position and orientation of the display means on the earth at the present time. A program for executing the above is proposed as a sixth aspect.

第6の態様に係るプログラムによればコンピュータにより、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the program according to the sixth aspect, the computer can superimpose the design image of the construction object on the actual construction object even during the period when the photographing means is not photographing the predetermined object. ..

また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させるためのプログラムを、第7の態様として提案する。 Further, the present invention is a program according to a fifth or sixth aspect, in which a three-dimensional shape in the design of the construction is applied to the image taken by the photographing means as the display image on the computer. A program for generating an image in which the represented image is superimposed is proposed as a seventh aspect.

第7の態様に係るプログラムによればコンピュータにより、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the program according to the seventh aspect, the user who sees the image displayed on the display means by the computer can see the three-dimensional shape obtained by photographing the actual structure of the current construction and the position of the three-dimensional shape in the design of the construction. You can intuitively grasp the deviation of the posture.

また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させるためのプログラムを、第8の態様として提案する。 Further, the present invention is a program according to a fifth or sixth aspect, in which the computer is transmitted through the transparent display means worn on the user's head as the display image in a real space. An image showing the user superimposing the three-dimensional shape of the construction piece constructed in the posture and shape to be constructed at the design construction position in the virtual space in which the real space and the coordinate system are common. A program for generating is proposed as an eighth aspect.

第8の態様に係るプログラムによればコンピュータにより、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the program according to the eighth aspect, a user wearing a transparent display means on the head by a computer can see the display means through the display means from various positions and angles. It is possible to intuitively grasp the deviation of the position and posture of the three-dimensional shape in the design of the object.

本発明によれば、周囲の風景が単調な広大な工事現場においても、実物の施工物に、当該施工物の設計上の画像を重ねて表示することができる。 According to the present invention, even in a vast construction site where the surrounding landscape is monotonous, a design image of the construction object can be superimposed and displayed on the actual construction object.

一実施形態に係る画像表示システムの全体構成を示した図。The figure which showed the whole structure of the image display system which concerns on one Embodiment. 一実施形態に係る2つの端末装置の機能構成を示した図。The figure which showed the functional structure of the two terminal devices which concerns on one Embodiment. 一実施形態に係る表示手段により表示される画像を示した図。The figure which showed the image which is displayed by the display means which concerns on one Embodiment. 一変形例に係る画像表示システムの全体構成を示した図。The figure which showed the whole structure of the image display system which concerns on one modification. 一変形例に係る画像表示システムにおいてユーザの目に見えるものを示した図。The figure which showed what the user can see in the image display system which concerns on one modification.

[実施形態]
以下、本発明の一実施形態に係る画像表示システム1を説明する。画像表示システム1は工事現場において作業者、検査者等のユーザが工事により施工される施工物の三次元形状と、その施工物の設計上の三次元形状(竣工時の三次元形状)とのズレを直感的に把握できるようにするシステムである。
[Embodiment]
Hereinafter, the image display system 1 according to the embodiment of the present invention will be described. The image display system 1 has a three-dimensional shape of a construction work constructed by a user such as a worker or an inspector at a construction site and a three-dimensional shape of the construction work in design (three-dimensional shape at the time of completion). It is a system that makes it possible to intuitively grasp the deviation.

図1は、画像表示システム1の全体構成を示した図である。なお、図1は、例として、バックホウ8により土砂を用いて四角錐台形状の施工物9を施工する工事において画像表示システム1が用いられる様子を示している。 FIG. 1 is a diagram showing the overall configuration of the image display system 1. Note that FIG. 1 shows, as an example, how the image display system 1 is used in the construction of a quadrangular pyramid trapezoidal construction object 9 using earth and sand with a backhoe 8.

画像表示システム1は、バックホウ8(請求の範囲に記載の撮影手段により撮影される物体の一例)の所定位置に配置されたGNSS(Global Navigation Satellite System)ユニット11(1)及びGNSSユニット11(2)と、バックホウ8内に配置されGNSSユニット11(1)及びGNSSユニット11(2)から出力される位置データに基づきバックホウ8の地球における位置及び姿勢を特定する端末装置12(GNSSユニット11(1)及びGNSSユニット11(2)と共に請求の範囲に記載の第1の測定手段の一例を構成する)と、実物の施工物9を撮影した画像に施工物9の設計上の三次元形状を重畳した画像を表示するために用いられる端末装置13を備える。端末装置12と端末装置13は無線通信を行う。また、端末装置13が表示する画像はユーザXにより閲覧される。ユーザXは、施工物9の工事の作業者、検査者等のいずれであってもよい。 The image display system 1 includes a GNSS (Global Navigation Satellite System) unit 11 (1) and a GNSS unit 11 (2) arranged at predetermined positions of a back hoe 8 (an example of an object photographed by the photographing means described in the claimed range). ) And the terminal device 12 (GNSS unit 11 (1)) that is arranged in the back hou 8 and specifies the position and orientation of the back hou 8 on the earth based on the position data output from the GNSS unit 11 (1) and the GNSS unit 11 (2). ) And the GNSS unit 11 (2) together with an example of the first measuring means described in the claim range), and the three-dimensional shape of the design of the construction 9 is superimposed on the photographed image of the actual construction 9. The terminal device 13 used for displaying the image is provided. The terminal device 12 and the terminal device 13 perform wireless communication. Further, the image displayed by the terminal device 13 is viewed by the user X. The user X may be either a worker, an inspector, or the like of the construction work 9.

GNSSユニット11(1)及びGNSSユニット11(2)は各々、複数の人工衛星から発信される電波を受信し、受信した電波から得られる情報に基づき、自装置の地球における三次元位置を測定する装置である。GNSSユニット11(1)及びGNSSユニット11(2)の各々により測定される位置は、例えば、緯度、経度、高度で表される。GNSSユニット11(1)及びGNSSユニット11(2)は、既知のGNSSユニットであるため、その構成の説明を省略する。 Each of the GNSS unit 11 (1) and the GNSS unit 11 (2) receives radio waves transmitted from a plurality of artificial satellites, and measures the three-dimensional position of its own device on the earth based on the information obtained from the received radio waves. It is a device. The position measured by each of the GNSS unit 11 (1) and the GNSS unit 11 (2) is represented by, for example, latitude, longitude, and altitude. Since the GNSS unit 11 (1) and the GNSS unit 11 (2) are known GNSS units, the description of their configurations will be omitted.

GNSSユニット11(1)及びGNSSユニット11(2)はバックホウ8の上部旋回体の互いに異なる所定位置に配置されている。バックホウ8におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置は、バックホウ8の上部旋回体(クローラの上に配置され、クローラに対し鉛直方向の軸周りに旋回する部分であり、エンジン、燃料タンク、操縦席等を含み、それらに対し位置が変化するブーム、アーム、バケット等は含まない)の所定の基準位置を原点とし、例えば、前方向をX軸正方向、右方向をY軸正方向、上方向をZ軸正方向とする座標空間(以下、「物体座標空間」という)における座標により特定される位置である。地球における上部旋回体の位置及び姿勢が変化しても、GNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置は変化しない。 The GNSS unit 11 (1) and the GNSS unit 11 (2) are arranged at different predetermined positions on the upper swing body of the backhoe 8. The positions of the GNSS unit 11 (1) and the GNSS unit 11 (2) in the back hoe 8 are the upper swivel bodies of the back hoe 8 (the portion arranged on the crawler and swiveling around the axis in the vertical direction with respect to the crawler, and the engine. , The fuel tank, the cockpit, etc., but the boom, arm, bucket, etc. whose position changes with respect to them are not included). It is a position specified by coordinates in a coordinate space (hereinafter, referred to as "object coordinate space") in which the positive axis direction and the upward direction are the positive Z-axis directions. Even if the position and orientation of the upper swivel body on the earth change, the positions of the GNSS unit 11 (1) and the GNSS unit 11 (2) in the object coordinate space do not change.

以下、特に断ることなく「バックホウ8の位置」という場合、地球における物体座標空間の原点の三次元位置を意味するものとする。 Hereinafter, unless otherwise specified, the term "backhoe 8 position" means the three-dimensional position of the origin of the object coordinate space on the earth.

GNSSユニット11(1)及びGNSSユニット11(2)の各々は端末装置12と通信接続されている。GNSSユニット11(1)及びGNSSユニット11(2)は継続的に自装置の地球における位置を測定し、測定結果を示す位置データを順次、端末装置12に送信する。 Each of the GNSS unit 11 (1) and the GNSS unit 11 (2) is communicatively connected to the terminal device 12. The GNSS unit 11 (1) and the GNSS unit 11 (2) continuously measure the position of the own device on the earth, and sequentially transmit the position data indicating the measurement result to the terminal device 12.

端末装置12はコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置12のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースを備える一般的なコンピュータである。 The terminal device 12 is realized by the computer executing a process according to the program. That is, the hardware of the terminal device 12 is a communication interface for transmitting and receiving data between a memory that stores various data, a processor that performs various data processing according to a program stored in the memory, and an external device. It is a general computer equipped with.

端末装置13はモーションセンサとカメラが内蔵されたタブレット型のコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置13のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースと、不透過型のタッチディスプレイと、カメラと、モーションセンサを備える一般的なタブレット型のコンピュータである。 The terminal device 13 is realized by a tablet-type computer having a built-in motion sensor and a camera executing a process according to a program. That is, the hardware of the terminal device 13 is a communication interface for transmitting and receiving data between a memory that stores various data, a processor that performs various data processing according to a program stored in the memory, and an external device. It is a general tablet computer equipped with an opaque touch display, a camera, and a motion sensor.

図2は、端末装置12と端末装置13の機能構成を示した図である。すなわち、端末装置12のハードウェアとして用いられるコンピュータは、端末装置12用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置12の構成を備える装置として機能する。また、端末装置13のハードウェアとして用いられるタブレット型のコンピュータは、端末装置13用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置13の構成を備える装置として機能する。 FIG. 2 is a diagram showing a functional configuration of the terminal device 12 and the terminal device 13. That is, the computer used as the hardware of the terminal device 12 functions as a device having the configuration of the terminal device 12 shown in FIG. 2 by performing various data processing according to the program for the terminal device 12. Further, the tablet-type computer used as the hardware of the terminal device 13 functions as a device having the configuration of the terminal device 13 shown in FIG. 2 by performing various data processing according to the program for the terminal device 13.

以下に、端末装置12の機能構成を説明する。記憶手段121は、各種データを記憶する。記憶手段121には予め、物体座標空間におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置を示す位置データが記憶されている。 The functional configuration of the terminal device 12 will be described below. The storage means 121 stores various data. The storage means 121 stores in advance position data indicating the positions of the GNSS unit 11 (1) and the GNSS unit 11 (2) in the object coordinate space.

受信手段122は、GNSSユニット11(1)及びGNSSユニット11(2)から継続的に送信される位置データを順次、受信する。受信手段122が受信する位置データは、記憶手段121に予め記憶されている位置データとは異なり、GNSSユニット11(1)及びGNSSユニット11(2)の各々が測定した自装置の地球における三次元位置を示す位置データである。 The receiving means 122 sequentially receives the position data continuously transmitted from the GNSS unit 11 (1) and the GNSS unit 11 (2). The position data received by the receiving means 122 is different from the position data stored in advance in the storage means 121, and is three-dimensional on the earth of the own device measured by each of the GNSS unit 11 (1) and the GNSS unit 11 (2). It is position data indicating a position.

位置姿勢算出手段123は、記憶手段121に予め記憶されている位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置と、受信手段122がGNSSユニット11(1)及びGNSSユニット11(2)から最後に受信した位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の地球における位置とに基づいて、地球におけるバックホウ8の位置及び姿勢を算出する。 The position / orientation calculating means 123 includes the positions of the GNSS unit 11 (1) and the GNSS unit 11 (2) in the object coordinate space indicated by the position data stored in advance in the storage means 121, and the receiving means 122 is the GNSS unit 11 (1). ) And the positions of the GNSS unit 11 (1) and GNSS unit 11 (2) on the earth indicated by the position data last received from the GNSS unit 11 (2), and the position and attitude of the back hou 8 on the earth are calculated. ..

装置の姿勢とは、装置が基準位置から回転している程度を意味する。姿勢の表現形式としては様々なものがあるが、本実施形態においては、座標空間において装置の基準位置からのX軸時計周りの回転角度(ロール角)、Y軸時計周りの回転角度(ピッチ角)、Z軸時計回りの回転角度(ヨー角)により装置の姿勢が表現されるものとする。地球における装置の姿勢は、例えば、北方向をX軸正方向、東方向をY軸正方向、上方向をZ軸正方向とする座標空間において、X軸時計回りの回転角(ロール角)、Y軸時計回りの回転角(ピッチ角)、Z軸時計回りの回転角(ヨー角)により表現される。 The posture of the device means the degree to which the device is rotated from the reference position. There are various forms of posture expression, but in the present embodiment, the rotation angle around the X-axis clockwise (roll angle) and the rotation angle around the Y-axis clockwise (pitch angle) from the reference position of the device in the coordinate space. ), Z-axis clockwise rotation angle (yaw angle) shall represent the posture of the device. The attitude of the device on the earth is, for example, an X-axis clockwise rotation angle (roll angle) in a coordinate space in which the north direction is the X-axis positive direction, the east direction is the Y-axis positive direction, and the upward direction is the Z-axis positive direction. It is expressed by the Y-axis clockwise rotation angle (pitch angle) and the Z-axis clockwise rotation angle (yaw angle).

送信手段124は、位置姿勢算出手段123により継続的に算出されるバックホウ8の位置及び姿勢を示す位置姿勢データを順次、端末装置13に送信する。 The transmission means 124 sequentially transmits the position / attitude data indicating the position and attitude of the backhoe 8 continuously calculated by the position / attitude calculation means 123 to the terminal device 13.

続いて、端末装置13の機能構成を説明する。記憶手段130(請求の範囲に記載の記憶手段の一例)は、各種データを記憶する。記憶手段130には予め、バックホウ8の上部旋回体の外から見える部分の三次元形状を表す第1の三次元形状データ(特徴点の位置を示す役割を果たす)と、施工物9の設計上の三次元形状と位置及び姿勢とを表す第2の三次元形状データと、後述する撮影手段132と表示手段139の所定の位置関係を示す位置関係データが記憶されている。 Subsequently, the functional configuration of the terminal device 13 will be described. The storage means 130 (an example of the storage means described in the claims) stores various data. In the storage means 130, first three-dimensional shape data (playing a role of indicating the position of the feature point) representing the three-dimensional shape of the portion of the upper swivel body of the back hoe 8 that can be seen from the outside, and the design of the construction body 9 The second three-dimensional shape data representing the three-dimensional shape, the position, and the posture of the above, and the positional relationship data showing a predetermined positional relationship between the photographing means 132 and the display means 139, which will be described later, are stored.

第1の三次元形状データは、物体座標空間において変化しないバックホウ8の上部旋回体の三次元形状を表す。第2の三次元形状データは、緯度、経度、高度で表現される座標空間において変化しない施工物9の設計上の竣工時の三次元形状を表す。 The first three-dimensional shape data represents the three-dimensional shape of the upper swing body of the backhoe 8 that does not change in the object coordinate space. The second three-dimensional shape data represents the three-dimensional shape at the time of design completion of the construction 9 that does not change in the coordinate space represented by latitude, longitude, and altitude.

受信手段131は、端末装置12から継続的に送信される位置姿勢データを順次、受信する。撮影手段132は、端末装置13の周囲の画像を撮影し、撮影した画像を表す画像データを生成する。認識手段133は、撮影手段132が撮影した画像からバックホウ8の上部旋回体の3以上の特徴点を認識する。認識手段133が特徴点を認識する方法は既知の画像認識方法であるため、その説明を省略する。 The receiving means 131 sequentially receives the position / orientation data continuously transmitted from the terminal device 12. The photographing means 132 photographs an image around the terminal device 13 and generates image data representing the captured image. The recognition means 133 recognizes three or more feature points of the upper swing body of the backhoe 8 from the image taken by the photographing means 132. Since the method of recognizing the feature points by the recognition means 133 is a known image recognition method, the description thereof will be omitted.

対応点特定手段134は、第1の三次元形状データが表す三次元形状上の点であり、認識手段133が認識した3以上の特徴点と対応する点である3以上の対応点を特定する。対応点特定手段134が行う処理は2つの画像間のマッチングを行う既知の画像処理であるため、その説明を省略する。 The corresponding point specifying means 134 is a point on the three-dimensional shape represented by the first three-dimensional shape data, and identifies three or more corresponding points which are points corresponding to the three or more feature points recognized by the recognition means 133. .. Since the process performed by the corresponding point specifying means 134 is a known image process for matching between two images, the description thereof will be omitted.

位置関係特定手段135は、対応点特定手段134が特定した3以上の対応点の物体座標空間における位置と、認識手段133が認識した3以上の特徴点の認識に用いられた画像(バックホウ8を撮影した画像)における位置と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、バックホウ8と表示手段139の位置関係を特定し、特定した位置関係を示す位置関係データを生成する。位置関係特定手段135が特定する位置関係データは、表示手段139の基準位置(例えば表示面の中央位置)の物体座標空間における位置と、表示手段139の物体座標空間における姿勢(ロール角、ピッチ角、ヨー角)を示す。 The positional relationship specifying means 135 uses an image (back ho 8) used for recognizing the positions of the three or more corresponding points specified by the corresponding point specifying means 134 in the object coordinate space and the three or more feature points recognized by the recognition means 133. Based on the position in the captured image) and the positional relationship between the photographing means 132 and the display means 139 indicated by the positional relationship data stored in the storage means 130, the positional relationship between the back hoe 8 and the display means 139 is specified and specified. Generates positional relationship data indicating the positional relationship. The positional relationship data specified by the positional relationship specifying means 135 includes the position of the reference position of the display means 139 (for example, the center position of the display surface) in the object coordinate space and the posture (roll angle, pitch angle) of the display means 139 in the object coordinate space. , Yaw angle).

位置関係特定手段135が行う処理は、撮影した画像から、撮影手段と所定の位置関係の装置の位置及び姿勢を特定する既知の処理であるため、その説明を省略する。 Since the process performed by the positional relationship specifying means 135 is a known process for identifying the position and orientation of the device having a predetermined positional relationship with the photographing means from the captured image, the description thereof will be omitted.

位置姿勢特定手段136は、位置関係特定手段135が特定したバックホウ8と表示手段139の位置関係と、受信手段131が端末装置12から受信した位置姿勢データが示すバックホウ8の地球における位置及び姿勢とに基づき、表示手段139がバックホウ8を撮影した時点における表示手段139の地球における位置及び姿勢を継続的に特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。 The position / orientation specifying means 136 includes the positional relationship between the back hou 8 and the display means 139 specified by the positional relationship specifying means 135, and the position and posture of the back hou 8 on the earth indicated by the position / orientation data received by the receiving means 131 from the terminal device 12. Based on the above, the position and orientation of the display means 139 on the earth at the time when the display means 139 takes a picture of the back hoe 8 are continuously specified, and position / orientation data indicating the specified position and attitude is generated.

測定手段137(請求の範囲に記載の第2の測定手段の一例)は、表示手段139の位置と姿勢の変化分を継続的に測定し、測定の結果を示す位置姿勢変化分データを順次、生成する。測定手段137は、主として端末装置13のハードウェアであるタブレット型のコンピュータに内蔵されるモーションセンサにより実現される。モーションセンサは、例えば、3軸加速度センサと、3軸角速度センサを有し、3軸加速度センサにより表示手段139の位置の変化分を継続的に測定し、3軸角速度センサにより表示手段139の姿勢の変化分を継続的に測定する。 The measuring means 137 (an example of the second measuring means described in the claims) continuously measures the change in the position and posture of the display means 139, and sequentially obtains the position / posture change data indicating the measurement result. Generate. The measuring means 137 is realized by a motion sensor built in a tablet-type computer, which is mainly the hardware of the terminal device 13. The motion sensor has, for example, a 3-axis acceleration sensor and a 3-axis angular velocity sensor, and continuously measures the change in the position of the display means 139 by the 3-axis acceleration sensor, and the posture of the display means 139 by the 3-axis angular velocity sensor. The change in is continuously measured.

ところで、認識手段133が3以上の特徴点を認識していない期間中は、位置関係特定手段135はバックホウ8と表示手段139の位置関係を特定できない。そのため、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によっては表示手段139の地球における位置及び姿勢を特定することはできない。そこで、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によって最後に特定した表示手段139の地球における位置及び姿勢に対し、その後に測定手段137が測定した現時点までの表示手段139の位置及び姿勢の変化分を加算して、現時点における表示手段139の地球における位置と姿勢を特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。 By the way, during the period when the recognition means 133 does not recognize three or more feature points, the positional relationship specifying means 135 cannot specify the positional relationship between the backhoe 8 and the display means 139. Therefore, the position / orientation specifying means 136 cannot specify the position and orientation of the display means 139 on the earth by the above-mentioned method during the period when the recognition means 133 does not recognize three or more feature points. Therefore, the position / orientation specifying means 136 subsequently measures the position and orientation of the display means 139 finally identified by the above method on the earth during the period when the recognition means 133 does not recognize three or more feature points. By adding the changes in the position and posture of the display means 139 measured by the means 137 up to the present time, the position and the posture of the display means 139 on the earth at the present time are specified, and the position and attitude data indicating the specified position and the posture are generated. To do.

画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の三次元形状と地球における位置及び姿勢とに基づき、撮影手段132が撮影した画像に、撮影手段132が撮影する実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された施工物9の三次元形状を重畳した表示用画像を継続的に生成し、生成した表示用画像を表す表示用画像データを生成する。なお、施工物9の施工されるべき位置が撮影手段132の撮影範囲に入っていない場合、画像生成手段138は撮影手段132が撮影した画像に対し施工物9の三次元形状を重畳しない。 The image generation means 138 is based on the position and orientation of the display means 139 specified by the position and orientation specifying means 136 on the earth, and the three-dimensional shape of the construction body 9 represented by the second three-dimensional shape data and the position and orientation on the earth. , A work piece 9 constructed in a posture and shape to be constructed at a position to be constructed in a design in a virtual space in which the real space and the coordinate system captured by the photographing means 132 are common to the image captured by the photographing means 132. A display image in which the three-dimensional shapes of the above are superimposed is continuously generated, and display image data representing the generated display image is generated. When the position where the construction object 9 should be constructed is not within the photographing range of the photographing means 132, the image generating means 138 does not superimpose the three-dimensional shape of the construction object 9 on the image photographed by the photographing means 132.

表示手段139は、画像生成手段138が生成した表示用画像データが表す表示用画像を表示する。 The display means 139 displays a display image represented by the display image data generated by the image generation means 138.

図3は、表示手段139により表示される表示用画像を示した図である。図3(A)はバックホウ8の外にいるユーザXが端末装置13を用いてバックホウ8を撮影した場合に表示手段139が表示する表示用画像の例である。図3(B)はバックホウ8の外にいるユーザXが端末装置13を用いて施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。図3(C)はバックホウ8の中にいるユーザXが端末装置13を用いてバックホウ8の窓越しに施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。 FIG. 3 is a diagram showing a display image displayed by the display means 139. FIG. 3A is an example of a display image displayed by the display means 139 when the user X outside the backhoe 8 photographs the backhoe 8 using the terminal device 13. FIG. 3B is an example of a display image displayed by the display means 139 when the user X outside the backhoe 8 photographs the construction object 9 using the terminal device 13. FIG. 3C is an example of a display image displayed by the display means 139 when the user X in the backhoe 8 photographs the construction object 9 through the window of the backhoe 8 using the terminal device 13.

図3(A)の表示用画像には、バックホウ8の外側の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。図3(A)の表示用画像に含まれるバックホウ8の上部旋回体の角隅部に描かれている丸印は、認識手段133により特定された特徴点の位置を示している。 In the display image of FIG. 3A, the image of the outside of the back hoe 8, the numerical value indicating the position and orientation of the photographing means 132 on the earth, and the position and orientation are specified based on the image taken by the photographing means 132. The characters "measurement mode: image" are included to indicate that the position and the posture have been measured, and that the change in the position and the posture measured by the measuring means 137 has not been added. The circles drawn at the corners of the upper swing body of the backhoe 8 included in the display image of FIG. 3A indicate the positions of the feature points specified by the recognition means 133.

図3(B)の表示用画像には、施工物9の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢に、測定手段137により測定された位置及び姿勢の変化分の加算を行って特定された位置及び姿勢であることを示す「測定モード:画像+モーション」という文字が含まれている。また、図3(B)の表示用画像には、施工物9の画像の上に、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。 In the display image of FIG. 3B, the image of the construction object 9, the numerical value indicating the position and posture of the photographing means 132 on the earth, and the position and the posture are specified based on the image taken by the photographing means 132. The position and posture include the characters "measurement mode: image + motion" indicating that the position and posture are specified by adding the changes in the position and posture measured by the measuring means 137. .. Further, in the display image of FIG. 3B, a broken line representing the three-dimensional shape at the time of completion of the design of the construction object 9 is drawn on the image of the construction object 9.

図3(C)の表示用画像には、バックホウ8の内側の画像と、施工物9の実画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。また、図3(C)の表示用画像には、認識手段133により特定された特徴点の位置を示す丸印と、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。 The display image of FIG. 3C includes an image of the inside of the back hoe 8, an actual image of the construction object 9, numerical values indicating the position and orientation of the photographing means 132 on the earth, and the position and orientation of the photographing means 132. It is the position and posture specified based on the image taken by, and includes the characters "Measurement mode: image" indicating that the change in position and posture measured by the measuring means 137 is not added. ing. Further, in the display image of FIG. 3C, a circle indicating the position of the feature point specified by the recognition means 133 and a broken line indicating the three-dimensional shape at the time of completion of the design of the construction object 9 are drawn. ing.

ユーザXは、図3(B)や図3(C)の表示用画像を見ることで、実際の施工物9の三次元形状と施工物9の設計上の竣工時の三次元形状のズレを直感的に把握することができる。従って、ユーザXは工事や検査等の作業を効率的に行うことができる。 By looking at the display images shown in FIGS. 3 (B) and 3 (C), the user X can determine the difference between the actual three-dimensional shape of the work piece 9 and the three-dimensional shape of the work piece 9 at the time of completion in design. It can be grasped intuitively. Therefore, the user X can efficiently perform work such as construction and inspection.

[変形例]
上述の実施形態は本発明の一具体例であって、本発明の技術的思想の範囲内において様々に変形可能である。以下にそれらの変形の例を示す。なお、以下に示す2以上の変形例が適宜組み合わされてもよい。
[Modification example]
The above-described embodiment is a specific example of the present invention, and can be variously modified within the scope of the technical idea of the present invention. Examples of these modifications are shown below. In addition, two or more modified examples shown below may be combined as appropriate.

(1)上述した実施形態においては、端末装置13のハードウェアにタブレット型のコンピュータが用いられる。これに代えて、AR(拡張現実、Augmented Reality)用のHMD(Head Mounted Display)とHMDと無線等で接続されたコンピュータや、コンピュータ内蔵のAR用のHMDが端末装置13のハードウェアとして用いられてもよい。 (1) In the above-described embodiment, a tablet computer is used as the hardware of the terminal device 13. Instead of this, a computer that is wirelessly connected to the HMD (Head Mounted Display) for AR (Augmented Reality) and the HMD, or an HMD for AR built into the computer is used as the hardware of the terminal device 13. You may.

また、AR用のHMDに代えて、MR(複合現実、Mixed Reality)用のHMDが用いられてもよい。MR用のHMDは、透過型のディスプレイを有し、HMDを頭部に装着したユーザは、ディスプレイ越しに肉眼で見る周囲の風景と、ディスプレイに表示される画像とを同時に見ることになる。 Further, instead of the HMD for AR, an HMD for MR (Mixed Reality) may be used. The HMD for MR has a transmissive display, and a user wearing the HMD on the head can simultaneously see the surrounding landscape seen through the display with the naked eye and the image displayed on the display.

図4は、この変形例に係る画像表示システム2の全体構成を示した図である。図1に示した画像表示システム1と比較し、画像表示システム2はタブレット型のコンピュータである端末装置13に代えて、MR用のHMD(コンピュータ内蔵型)であるMR−HMD23を備える。 FIG. 4 is a diagram showing the overall configuration of the image display system 2 according to this modified example. Compared with the image display system 1 shown in FIG. 1, the image display system 2 includes an MR-HMD23 which is an HMD (computer built-in type) for MR instead of the terminal device 13 which is a tablet type computer.

MR−HMD23の機能構成は、図2に示した端末装置13の機能構成と同じであるが、画像生成手段138が行う処理が端末装置13のものと異なる。MR−HMD23の画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の設計上の三次元形状と地球における位置及び姿勢と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、ユーザXの頭部に装着される表示手段139を透過して実空間を見るユーザXに、設計上の施工物9の施工されるべき位置に施工物9の施工されるべき姿勢及び形状で施工物9の三次元形状を重ねて見せるように、実空間と座標系が共通の仮想空間において第2の三次元形状データが表す施工物9の三次元形状を配置した表示用画像を生成する。 The functional configuration of the MR-HMD23 is the same as that of the terminal device 13 shown in FIG. 2, but the processing performed by the image generation means 138 is different from that of the terminal device 13. The image generation means 138 of the MR-HMD23 includes the position and orientation of the display means 139 specified by the position / orientation specifying means 136 on the earth, and the design three-dimensional shape and the earth of the construction 9 represented by the second three-dimensional shape data. Based on the position and orientation in the above and the positional relationship between the photographing means 132 and the display means 139 indicated by the positional relationship data stored in the storage means 130, the display means 139 mounted on the head of the user X is transmitted through the actual display means 139. Coordinates with the real space so that the user X who sees the space can see the three-dimensional shape of the construction object 9 superimposed on the position and the shape of the construction object 9 to be constructed at the position where the construction object 9 should be constructed. A display image is generated in which the three-dimensional shape of the construction object 9 represented by the second three-dimensional shape data is arranged in a virtual space having a common system.

図5は、画像表示システム2においてMR−HMD23を装着しているユーザXの目に見えるものを示した図である。図5(A)はバックホウ8の外にいるMR−HMD23を装着したユーザXがバックホウ8の方を向いた場合にユーザXに見えるものを示した例である。図5(B)はバックホウ8の外にいるMR−HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。図5(C)はバックホウ8の中にいるMR−HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。 FIG. 5 is a view showing what is visible to the user X wearing the MR-HMD23 in the image display system 2. FIG. 5A is an example showing what the user X looks like when the user X wearing the MR-HMD23 outside the backhoe 8 faces the backhoe 8. FIG. 5B is an example showing what the user X looks like when the user X wearing the MR-HMD23 outside the backhoe 8 faces the construction object 9. FIG. 5C is an example showing what the user X in the backhoe 8 can see when the user X wearing the MR-HMD23 faces the work piece 9.

画像表示システム1による場合、例えばユーザXがバックホウ8を用いて施工物9の施工を行う作業者である場合、ユーザXはバックホウ8の操縦室内の見える場所に端末装置13を設置し、実物の施工物9を見ながらバックホウ8を操作して工事を行いながら、時々、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを確認するために、視線を端末装置13の方に移す必要がある。これに対し、画像表示システム2によれば、ユーザXは視線を実物の施工物9から逸らすことなく、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを常時確認することができる。 In the case of the image display system 1, for example, when the user X is a worker who constructs the construction object 9 using the backhoe 8, the user X installs the terminal device 13 in a visible place in the cockpit of the backhoe 8 and actually installs the terminal device 13. While performing construction by operating the backhoe 8 while looking at the construction object 9, sometimes, in order to check how much the three-dimensional shape of the construction object 9 matches the three-dimensional shape at the time of completion of the design, the line of sight is terminal. It is necessary to move to the device 13. On the other hand, according to the image display system 2, the user X does not divert his / her line of sight from the actual construction object 9 and determines how much the three-dimensional shape of the construction object 9 is the three-dimensional shape at the time of completion of the design. You can always check.

(2)上述した実施形態においては、地球におけるバックホウ8の位置及び姿勢は端末装置12により算出される。これに代えて、端末装置13が端末装置12の役割を兼ね備え、端末装置13がGNSSユニット11(1)及びGNSSユニット11(2)からそれらのGNSSユニットの位置を示す位置データを受信し、受信した位置データに基づき、地球におけるバックホウ8の位置及び姿勢を算出してもよい。 (2) In the above-described embodiment, the position and orientation of the backhoe 8 on the earth are calculated by the terminal device 12. Instead, the terminal device 13 also serves as the terminal device 12, and the terminal device 13 receives and receives position data indicating the positions of the GNSS units 11 (1) and the GNSS unit 11 (2). The position and orientation of the backhoe 8 on the earth may be calculated based on the obtained position data.

(3)上述した実施形態においては、工事現場は地上であるものとしたが、工事現場は地上に限られず、水上等であってもよい。例えば、工事現場が水上である場合、バックホウに代えて船舶にGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12を配置すればよい。この場合、ユーザはGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12が配置された船舶を端末装置13で撮影することで、水上の施工物の三次元形状を、その施工物の設計上の竣工時の三次元形状と比較することができる。 (3) In the above-described embodiment, the construction site is assumed to be on the ground, but the construction site is not limited to the ground and may be on the water or the like. For example, when the construction site is on the water, the GNSS unit 11 (1), the GNSS unit 11 (2), and the terminal device 12 may be arranged on the ship instead of the backhoe. In this case, the user photographs the ship on which the GNSS unit 11 (1) and the GNSS unit 11 (2) and the terminal device 12 are arranged by the terminal device 13 to obtain a three-dimensional shape of the work on the water. It can be compared with the three-dimensional shape at the time of completion of the design.

(4)上述した実施形態においては、端末装置12と端末装置13のハードウェアは一般的なコンピュータである。これに代えて、端末装置12と端末装置13の少なくとも一方が、図2に示した構成を備える専用装置として構成されてもよい。 (4) In the above-described embodiment, the hardware of the terminal device 12 and the terminal device 13 is a general computer. Instead, at least one of the terminal device 12 and the terminal device 13 may be configured as a dedicated device having the configuration shown in FIG.

(5)GNSSの方式には様々なものがある。GNSSユニット11(1)及びGNSSユニット11(2)に採用される方式は、本発明において要求される精度が確保される限り、いずれの方式であってもよい。例えば、GNSSユニット11(1)及びGNSSユニット11(2)が、RTK(Real Time Kinematic)−GNSS方式や、D(Differential)−GNSS方式のGNSSユニットであってもよい。 (5) There are various GNSS methods. The method adopted for the GNSS unit 11 (1) and the GNSS unit 11 (2) may be any method as long as the accuracy required in the present invention is ensured. For example, the GNSS unit 11 (1) and the GNSS unit 11 (2) may be RTK (Real Time Kinematic) -GNSS system or D (Differential) -GNSS system GNSS unit.

(6)上述した実施形態において、画像表示システム1はGNSSユニット11(1)及びGNSSユニット11(2)を用いてバックホウ8の位置及び姿勢を特定する。本発明において物体の位置及び姿勢を特定する方法は、2つのGNSSユニットを用いる方法に限られない。例えば、画像表示システム1がGNSSユニット11(1)及びGNSSユニット11(2)に代えて、物体の所定位置に配置されたGNSSユニットと、方位計と、水平面上で直交する2軸の傾斜計とを1つずつ備え、GNSSユニットが測定した位置に基づき物体の位置を特定し、方位計が測定した方位と2軸の傾斜計が測定した傾きとに基づき物体の姿勢を特定してもよい。 (6) In the above-described embodiment, the image display system 1 uses the GNSS unit 11 (1) and the GNSS unit 11 (2) to specify the position and orientation of the backhoe 8. In the present invention, the method of specifying the position and orientation of an object is not limited to the method using two GNSS units. For example, the image display system 1 replaces the GNSS unit 11 (1) and the GNSS unit 11 (2) with a GNSS unit arranged at a predetermined position of an object, an azimuth meter, and a two-axis tilt meter orthogonal to each other on a horizontal plane. The position of the object may be specified based on the position measured by the GNSS unit, and the posture of the object may be specified based on the orientation measured by the azimuth meter and the inclination measured by the two-axis tilt meter. ..

また、上記の変形例において、物体の水平面に対する姿勢が基準位置から実質的に変化しない場合、画像表示システム1は傾斜計を備えなくてもよい。その場合、物体の姿勢を表す値としては、ヨー角として方位計が測定した値が用いられ、ロール角とピッチ角として0度(基準姿勢から変化なし)が用いられる。 Further, in the above modification, when the posture of the object with respect to the horizontal plane does not substantially change from the reference position, the image display system 1 does not have to be provided with an inclinometer. In that case, as the value representing the posture of the object, the value measured by the azimuth meter is used as the yaw angle, and 0 degrees (no change from the reference posture) is used as the roll angle and the pitch angle.

(7)上述した実施形態においては、撮影手段132は一般的な光学カメラ(可視光を感知するイメージセンサ群により二次元画像を生成する撮影手段)である。これに代えて、撮影手段132としてデプスセンサを採用し、撮影手段132が撮影により深度画像を生成してもよい。なお、デプスセンサの方式は、ステレオカメラ方式、Time-of-flight方式、LIDAR方式等のいずれであってもよい。 (7) In the above-described embodiment, the photographing means 132 is a general optical camera (a photographing means that generates a two-dimensional image by a group of image sensors that sense visible light). Instead of this, a depth sensor may be adopted as the photographing means 132, and the photographing means 132 may generate a depth image by photographing. The depth sensor method may be any of a stereo camera method, a time-of-flight method, a LIDAR method, and the like.

この場合、バックホウ8を撮影した撮影手段132はバックホウ8の三次元形状を表す深度画像を生成する。そして、認識手段133は撮影手段132が生成する深度画像が表すバックホウ8の三次元形状から特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。 In this case, the photographing means 132 in which the backhoe 8 is photographed generates a depth image showing the three-dimensional shape of the backhoe 8. Then, the recognition means 133 recognizes the feature point from the three-dimensional shape of the backhoe 8 represented by the depth image generated by the photographing means 132. Then, the corresponding point specifying means 134 may specify the corresponding point corresponding to the feature point recognized by the recognition means 133 from the three-dimensional shape of the backhoe 8 represented by the first three-dimensional shape data.

また、撮影手段132が撮影により二次元画像を生成する場合において、例えば端末装置13が、同じ対象物を異なる方向から撮影した複数の画像から対象物の三次元形状を測定するPhoto to 3Dと呼ばれる既知の技術によりバックホウ8の三次元形状を特定する三次元形状特定手段を備えてもよい。この場合、認識手段133は三次元形状特定手段が特定したバックホウ8の三次元形状の特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。 Further, when the photographing means 132 generates a two-dimensional image by photographing, for example, the terminal device 13 measures the three-dimensional shape of the object from a plurality of images obtained by photographing the same object from different directions, which is called Photo to 3D. A three-dimensional shape specifying means for specifying the three-dimensional shape of the back hoe 8 by a known technique may be provided. In this case, the recognition means 133 recognizes the feature points of the three-dimensional shape of the backhoe 8 specified by the three-dimensional shape specifying means. Then, the corresponding point specifying means 134 may specify the corresponding point corresponding to the feature point recognized by the recognition means 133 from the three-dimensional shape of the backhoe 8 represented by the first three-dimensional shape data.

(8)上述した実施形態において、表示手段139の地球における位置及び姿勢を特定するために撮影手段132により撮影される対象の物体の例として示したバックホウ8は、自走する移動体である。本発明における撮影対象の物体は自走しない移動体や、移動体ではない物体でもよい。例えば、曳舟により曳航される作業台船の位置及び姿勢が取得できる場合、その作業台船が表示手段の位置及び姿勢を特定するための撮影対象として用いられてもよいし、工事中は移動しない建設機械等を撮影対象として用いてもよい。すなわち、特徴点を備え、測定手段により地球における位置及び姿勢が測定される物体であれば、本発明における撮影対象の物体となり得る。 (8) In the above-described embodiment, the backhoe 8 shown as an example of an object to be photographed by the photographing means 132 in order to specify the position and orientation of the display means 139 on the earth is a self-propelled moving body. The object to be photographed in the present invention may be a moving object that does not run on its own or an object that is not a moving object. For example, if the position and orientation of the workbench towed by the towboat can be obtained, the workbench may be used as a photographing target for identifying the position and attitude of the display means, and the workbench does not move during construction. A construction machine or the like may be used as a photographing target. That is, any object having feature points and whose position and posture on the earth can be measured by a measuring means can be an object to be photographed in the present invention.

(9)端末装置13が行う処理をコンピュータに実行させるためのプログラムがインターネット等のネットワークを介して提供されてもよい。また、端末装置13が行う処理をコンピュータに実行させるためのプログラムが持続的にデータを記録する記録媒体に記録された状態で提供されてもよい。 (9) A program for causing a computer to execute a process performed by the terminal device 13 may be provided via a network such as the Internet. Further, a program for causing the computer to execute the process performed by the terminal device 13 may be provided in a state of being recorded on a recording medium for continuously recording data.

1…画像表示システム、2…画像表示システム、8…バックホウ、9…施工物、12…端末装置、13…端末装置、23…MR−HMD、121…記憶手段、122…受信手段、123…位置姿勢算出手段、124…送信手段、130…記憶手段、131…受信手段、132…撮影手段、133…認識手段、134…対応点特定手段、135…位置関係特定手段、136…位置姿勢特定手段、137…測定手段、138…画像生成手段、139…表示手段。 1 ... Image display system, 2 ... Image display system, 8 ... Back ho, 9 ... Construction, 12 ... Terminal device, 13 ... Terminal device, 23 ... MR-HMD, 121 ... Storage means, 122 ... Receiving means, 123 ... Position Posture calculation means, 124 ... Transmission means, 130 ... Storage means, 131 ... Reception means, 132 ... Shooting means, 133 ... Recognition means, 134 ... Correspondence point identification means, 135 ... Positional relationship identification means, 136 ... Position / orientation identification means, 137 ... Measuring means, 138 ... Image generating means, 139 ... Displaying means.

Claims (8)

撮影手段と、
前記撮影手段と所定の位置関係にある表示手段と、
前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、
前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、
前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、
前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、
前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき、前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、
前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、
前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段と
を備え、
前記表示手段は前記表示用画像を表示する
画像表示システム。
Shooting means and
A display means having a predetermined positional relationship with the photographing means,
A measuring means for measuring the position and orientation of an object to be photographed on the earth by the photographing means, and a measuring means.
Positional relationship data indicating the positional relationship between the photographing means and the display means, first three-dimensional shape data representing the three-dimensional shape of the object, the three-dimensional shape in the design of the construction, and the position and orientation on the earth. A storage means for storing the second three-dimensional shape data representing
A recognition means by which the photographing means recognizes three or more feature points of the object from an image obtained by photographing the object.
A corresponding point specifying means for specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the three or more feature points recognized by the recognition means. ,
The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the image obtained by photographing the object, and the positional relationship and the position are specified. A positional relationship specifying means for specifying the positional relationship between the object and the display means based on the positional relationship indicated by the relationship data, and
Based on the positional relationship between the object and the display means specified by the positional relationship specifying means, and the position and posture of the object on the earth measured by the measuring means at the time of photographing the image of the object, the photographing time point. Position and orientation specifying means for specifying the position and orientation of the display means on the earth in
Based on the position and orientation of the display means specified by the position and orientation specifying means on the earth, the design three-dimensional shape of the construction represented by the second three-dimensional shape data, and the position and orientation on the earth. It is equipped with an image generation means for generating a display image showing the three-dimensional shape of the construction object constructed at a design position in a design position in a virtual space in which the real space and the coordinate system are common to be photographed by the photographing means. ,
The display means is an image display system that displays the display image.
前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段を備え、
前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する
請求項1に記載の画像表示システム。
When the measuring means is used as the first measuring means, a second measuring means for continuously measuring the change in the position and posture of the display means is provided.
The position / orientation specifying means includes the position and orientation of the display means on the earth at the specified shooting time, and the change in the position and posture of the display means measured by the second measuring means from the shooting time to the present time. The image display system according to claim 1, wherein the position and orientation of the display means on the earth at the present time are specified based on the above.
前記表示用画像は、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像である
請求項1又は2に記載の画像表示システム。
The image display system according to claim 1 or 2, wherein the display image is an image obtained by superimposing an image representing the design three-dimensional shape of the construction on the image taken by the photographing means.
前記表示手段は、ユーザの頭部に装着される透過型の表示手段であり、
前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である
請求項1又は2に記載の画像表示システム。
The display means is a transparent display means worn on the user's head.
The display image is applied to the user who sees the real space through the display means in a posture and shape to be installed at a design position in a virtual space in which the real space and the coordinate system are common. The image display system according to claim 1 or 2, which is an image in which the three-dimensional shapes of the constructed works are superimposed.
コンピュータに、
撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、
前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、
前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、
前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、
前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、
特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、
特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、
前記表示用画像を前記表示手段に表示させる処理と
を実行させるためのプログラム。
On the computer
Positional relationship data showing a predetermined positional relationship between the photographing means and the display means, first three-dimensional shape data showing the three-dimensional shape of an object whose position and orientation on the earth are measured by the measuring means, and design of the construction And the process of acquiring the second 3D shape data representing the 3D shape of the
A process of acquiring image data representing an image in which the object is photographed by the photographing means and position / orientation data indicating the position and orientation of the object measured by the measuring means at the time of photographing the image.
A process of recognizing three or more feature points of the object from the image represented by the image data,
A process of specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the recognized three or more feature points.
The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the image obtained by photographing the object, and the positional relationship and the position are specified. A process of specifying the positional relationship between the object and the display means based on the positional relationship indicated by the relationship data, and
A process of specifying the position and orientation of the display means on the earth at the time of shooting based on the positional relationship between the specified object and the display means and the position and orientation of the object on the earth indicated by the position and orientation data.
The actual image taken by the photographing means based on the position and orientation of the specified display means on the earth, the design three-dimensional shape of the construction object represented by the second three-dimensional shape data, and the position and orientation on the earth. A process of generating a display image showing the three-dimensional shape of the work constructed at a design position in a design posture in a virtual space having a common space and coordinate system.
A program for executing a process of displaying the display image on the display means.
前記コンピュータに、
前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、
特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理と
を実行させるための請求項5に記載のプログラム。
On the computer
When the measuring means is used as the first measuring means, the position of the display means from the time of shooting to the present time measured by the second measuring means that continuously measures the change in the position and posture of the display means and Processing to acquire position / posture change data indicating the change in posture,
The display at the present time is based on the position and orientation of the display means on the earth at the specified shooting time and the change in the position and posture of the display means from the shooting time to the present time indicated by the position / posture change data. The program according to claim 5, for performing a process of identifying the position and orientation of the means on the earth.
前記コンピュータに、
前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させる
ための請求項5又は6に記載のプログラム。
On the computer
The program according to claim 5 or 6, wherein as the display image, an image obtained by superimposing an image representing a design three-dimensional shape of the construction on the image taken by the photographing means is generated.
前記コンピュータに、
前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させる
ための請求項5又は6に記載のプログラム。
On the computer
As the display image, the user who sees the real space through the transparent display means mounted on the user's head should be constructed in a virtual space in which the real space and the coordinate system are common. The program according to claim 5 or 6, for generating an image in which a three-dimensional shape of the construction piece constructed in a posture and shape to be constructed at a position is superimposed.
JP2019169457A 2019-09-18 2019-09-18 image display system Active JP7303711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169457A JP7303711B2 (en) 2019-09-18 2019-09-18 image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169457A JP7303711B2 (en) 2019-09-18 2019-09-18 image display system

Publications (2)

Publication Number Publication Date
JP2021047611A true JP2021047611A (en) 2021-03-25
JP7303711B2 JP7303711B2 (en) 2023-07-05

Family

ID=74878495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169457A Active JP7303711B2 (en) 2019-09-18 2019-09-18 image display system

Country Status (1)

Country Link
JP (1) JP7303711B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
US20150109509A1 (en) * 2013-10-22 2015-04-23 Topcon Positioning Systems, Inc. Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit
WO2016017253A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
JP2018106661A (en) * 2017-07-03 2018-07-05 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
US20150109509A1 (en) * 2013-10-22 2015-04-23 Topcon Positioning Systems, Inc. Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit
WO2016017253A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
JP2018106661A (en) * 2017-07-03 2018-07-05 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Also Published As

Publication number Publication date
JP7303711B2 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
US7737965B2 (en) Handheld synthetic vision device
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
JP5682060B2 (en) Image composition apparatus, image composition program, and image composition system
EP3244371B1 (en) Augmented image display using a camera and a position and orientation sensor unit
KR20190051704A (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
WO2013069012A1 (en) Method and system for determining position and/or orientation
CN113820735B (en) Determination method of position information, position measurement device, terminal and storage medium
CN102575933A (en) System that generates map image integration database and program that generates map image integration database
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
CN110737009A (en) Method for geospatial positioning and portable positioning device therefor
EP3642694B1 (en) Augmented reality system and method of displaying an augmented reality image
JP2013234946A (en) Target position identification device, target position identification system and target position identification method
CN101556154A (en) Positioning and path map generation system and data acquisition analysis method thereof
CN104978476B (en) Indoor map scene, which is carried out, using smart phone mends the method surveyed
JP7303711B2 (en) image display system
CN109032330A (en) Seamless bridge joint AR device and AR system
US8903163B2 (en) Using gravity measurements within a photogrammetric adjustment
JP2022140903A (en) Surveying device and surveying method using the same
JP6733127B2 (en) Information processing device, information processing method, and program
JP2017125907A (en) Landform display system
Chen et al. Panoramic epipolar image generation for mobile mapping system
US11967035B1 (en) Visualizing area covered by drone camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150