JP2021047611A - Image display system - Google Patents
Image display system Download PDFInfo
- Publication number
- JP2021047611A JP2021047611A JP2019169457A JP2019169457A JP2021047611A JP 2021047611 A JP2021047611 A JP 2021047611A JP 2019169457 A JP2019169457 A JP 2019169457A JP 2019169457 A JP2019169457 A JP 2019169457A JP 2021047611 A JP2021047611 A JP 2021047611A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- orientation
- dimensional shape
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 claims abstract description 91
- 238000013461 design Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、施工物に画像を重ねて表示するための技術に関する。 The present invention relates to a technique for superimposing and displaying an image on a construction object.
実空間の物体に対し、実空間と座標系が共通の仮想空間内の画像を重ねて表示する拡張現実(Augmented Reality)や複合現実(Mixed Reality)のシステムにおいては、液晶ディスプレイ等の表示手段の実空間における位置及び姿勢を正確に特定する必要がある。装置の位置及び姿勢を特定する技術を開示している文献として、例えば特許文献1がある。特許文献1には、実空間中に配置された既知位置の指標をカメラで撮像し、撮像した画像中から指標を検出し、検出した指標の画像における位置からカメラの位置及び姿勢を測定する技術が記載されている(例えば、段落0002)。
In augmented reality (Augmented Reality) and mixed reality (Mixed Reality) systems that superimpose images in a virtual space with a common coordinate system on a real space object, display means such as a liquid crystal display It is necessary to accurately identify the position and orientation in real space. For example,
工事現場において、作業者や検査者が、拡張現実や複合現実の技術により、実空間内の施工物に対し、当該施工物の設計上の三次元形状(竣工時の三次元形状)を重ねて表示した画像を見ることができれば、作業者や検査者は施工作業や施工物の検査作業を効率的に行うことができる。 At the construction site, workers and inspectors superimpose the design three-dimensional shape (three-dimensional shape at the time of completion) on the construction work in the real space by using augmented reality and mixed reality technology. If the displayed image can be seen, the worker or the inspector can efficiently perform the construction work and the inspection work of the construction object.
既述のように、拡張現実や複合現実のシステムにおいては、表示手段の実空間における位置及び姿勢を正確に特定する必要がある。そのための方法として、表示手段と位置関係が変化しない撮影手段により撮影した画像から既知位置の特徴点を認識し、認識したそれらの特徴点の画像における位置に基づき表示手段の位置及び姿勢を特定する方法が知られている。 As described above, in augmented reality and mixed reality systems, it is necessary to accurately specify the position and orientation of the display means in real space. As a method for that purpose, the feature points at known positions are recognized from the image taken by the photographing means whose positional relationship does not change with the display means, and the position and orientation of the display means are specified based on the positions of the recognized feature points in the image. The method is known.
既知位置の特徴点は、自然物(例えば山の山頂など)と人工物(マーカ)に区分される。工事現場には形状等に特徴のある自然物がない場合がある。例えば、工事現場が海上や砂漠などの周囲の風景が単調な場所にある場合、どの方向にも特徴のある自然物が見当たらない。そのような場合、自然物を撮影しても表示手段の位置及び姿勢を特定することはできない。 The feature points at known positions are divided into natural objects (for example, mountain peaks) and man-made objects (markers). There may be no natural objects with distinctive shapes at the construction site. For example, if the construction site is in a place where the surrounding landscape such as the sea or desert is monotonous, no characteristic natural objects can be found in any direction. In such a case, the position and orientation of the display means cannot be specified even if a natural object is photographed.
また、工事現場は一般的に広大であるため、自然物に代え人工物を用いるために工事現場の周囲に特徴点となる多数の人工物(マーカ)を配置するには多大な労力と時間を要し、現実的ではない。 In addition, since the construction site is generally vast, it takes a lot of labor and time to arrange a large number of artificial objects (markers) that are characteristic points around the construction site in order to use artificial objects instead of natural objects. However, it is not realistic.
上記の事情に鑑み、本発明は、周囲の風景が単調な広大な工事現場においても、多数の人工物を配置せずに、実物の施工物に当該施工物の設計上の画像を重ねて表示することを可能とする手段を提供する。 In view of the above circumstances, the present invention superimposes a design image of a construction object on an actual construction object without arranging a large number of artificial objects even in a vast construction site where the surrounding landscape is monotonous. Provide the means by which it is possible to do so.
本発明は、撮影手段と、前記撮影手段と所定の位置関係にある表示手段と、前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段とを備え、前記表示手段は前記表示用画像を表示する画像表示システムを第1の態様として提供する。 The present invention includes a photographing means, a display means having a predetermined positional relationship with the photographing means, a measuring means for measuring the position and orientation of the object to be photographed by the photographing means on the earth, the photographing means and the display means. The positional relationship data indicating the positional relationship of the object, the first three-dimensional shape data representing the three-dimensional shape of the object, the three-dimensional shape in the design of the construction, and the second three-dimensional representing the position and attitude on the earth. A storage means for storing the shape data, a recognition means for the photographing means to recognize three or more feature points of the object from an image obtained by photographing the object, and a three-dimensional shape represented by the first three-dimensional shape data. The corresponding point specifying means for specifying the three or more corresponding points, which are the points corresponding to the three or more feature points recognized by the recognition means, and the positions of the three or more corresponding points in the object. The positional relationship between the object and the photographing means is specified based on the positions of the three or more feature points in the image of the object, and the object and the object and the above are based on the positional relationship and the positional relationship indicated by the positional relationship data. The positional relationship specifying means for specifying the positional relationship of the display means, the positional relationship between the object specified by the positional relationship specifying means and the display means, and the measurement means measured by the measuring means at the time of photographing the image of the object. Based on the position and orientation of the object on the earth, the position and orientation specifying means for specifying the position and orientation of the display means on the earth at the time of shooting, and the position and orientation of the display means specified by the position and orientation specifying means on the earth. Based on the design three-dimensional shape of the construction object represented by the second three-dimensional shape data and the position and orientation on the earth, the design is performed in a virtual space in which the real space and the coordinate system photographed by the photographing means are common. An image generation means for generating a display image representing a three-dimensional shape of the construction object constructed at an upper position in a design posture is provided, and the display means provides an image display system for displaying the display image. It is provided as one aspect.
第1の態様に係る画像表示システムによれば、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the image display system according to the first aspect, even in a vast construction site where the surrounding landscape is monotonous, by photographing a predetermined object with a photographing means, the actual construction object can be made into the actual construction object in the design of the construction object. Images can be overlaid and displayed.
また、本発明は、第1の態様に係る画像表示システムであって、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段を備え、前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する、という構成を第2の態様として提案する。 Further, the present invention is an image display system according to the first aspect, and when the measuring means is used as the first measuring means, a second method of continuously measuring a change in the position and posture of the displaying means. The position and orientation specifying means includes the position and orientation of the display means on the earth at the specified time of shooting, and the display means measured by the second measuring means from the time of shooting to the present time. As the second aspect, we propose a configuration in which the current position and orientation of the display means on the earth are specified based on the changes in the position and the attitude.
第2の態様に係る画像表示システムによれば、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる According to the image display system according to the second aspect, even during a period in which the photographing means is not photographing a predetermined object, the design image of the construction object can be superimposed and displayed on the actual construction object.
また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示用画像は、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像である、という構成を第3の態様として提案する。 Further, the present invention is an image display system according to the first or second aspect, and the display image is an image representing a design three-dimensional shape of the construction object on an image taken by the photographing means. As a third aspect, we propose a configuration in which the image is a superposed image.
第3の態様に係る画像表示システムによれば、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the image display system according to the third aspect, the user who sees the image displayed on the display means has a three-dimensional shape obtained by photographing the actual structure of the current construction, the position of the three-dimensional shape in the design of the construction, and You can intuitively grasp the deviation of the posture.
また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示手段は、ユーザの頭部に装着される透過型の表示手段であり、前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である、という構成を第4の態様として提案する。 Further, the present invention is an image display system according to a first or second aspect, wherein the display means is a transmissive display means worn on a user's head, and the display image is the display means. The user sees the real space through the display means, and the user is in the virtual space where the real space and the coordinate system are common. As a fourth aspect, we propose a configuration in which the original shapes are superimposed and shown as an image.
第4の態様に係る画像表示システムによれば、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the image display system according to the fourth aspect, the user wearing the transmissive display means on the head can see the display means through the display means from various positions and angles. It is possible to intuitively grasp the deviation of the position and posture of the three-dimensional shape in the design of the object.
また、本発明は、コンピュータに、撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、前記表示用画像を前記表示手段に表示させる処理とを実行させるためのプログラムを第5の態様として提供する。 Further, the present invention presents a first three-dimensional object in which a computer is provided with positional relationship data indicating a predetermined positional relationship between a photographing means and a display means, and a three-dimensional shape of an object whose position and orientation on the earth are measured by the measuring means. A process of acquiring shape data, a second three-dimensional shape data representing a design three-dimensional shape of a construction object and a position and orientation on the earth, and image data representing an image of the object taken by the photographing means. And the process of acquiring the position and orientation data indicating the position and orientation of the object on the earth measured by the measuring means at the time of shooting the image, and the three or more feature points of the object from the image represented by the image data. The process of recognizing, the process of specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the recognized three or more feature points, and the above-mentioned The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the photographed image of the object, and the positional relationship and the positional relationship are specified. The process of specifying the positional relationship between the object and the display means based on the positional relationship indicated by the data, the positional relationship between the specified object and the display means, and the position and orientation of the object on the earth indicated by the positional orientation data. Based on the above, the process of specifying the position and orientation of the display means on the earth at the time of shooting, the position and orientation of the specified display means on the earth, and the construction object represented by the second three-dimensional shape data. Based on the design three-dimensional shape and the position and orientation on the earth, the construction object constructed at the design position in the design posture in the virtual space in which the real space and the coordinate system photographed by the photographing means are common. A fifth embodiment provides a program for executing a process of generating a display image representing a three-dimensional shape and a process of displaying the display image on the display means.
第5の態様に係るプログラムによればコンピュータにより、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the program according to the fifth aspect, even in a vast construction site where the surrounding landscape is monotonous, a predetermined object can be photographed by a photographing means to make an actual construction object in the design of the construction object. Images can be overlaid and displayed.
また、本発明は、第5の態様に係るプログラムであって、前記コンピュータに、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理とを実行させるためのプログラムを、第6の態様として提案する。 Further, the present invention is a program according to a fifth aspect, in which, when the measuring means is used as the first measuring means, the computer continuously measures the change in the position and posture of the display means. The process of acquiring the position / orientation change data indicating the change in the position and posture of the display means from the time of shooting to the present time measured by the second measuring means, and the process of acquiring the data of the change in position / orientation at the specified time of shooting on the earth. Based on the position and orientation and the change in the position and orientation of the display means from the time of shooting to the present time indicated by the change in position and orientation data, the process of specifying the position and orientation of the display means on the earth at the present time. A program for executing the above is proposed as a sixth aspect.
第6の態様に係るプログラムによればコンピュータにより、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。 According to the program according to the sixth aspect, the computer can superimpose the design image of the construction object on the actual construction object even during the period when the photographing means is not photographing the predetermined object. ..
また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させるためのプログラムを、第7の態様として提案する。 Further, the present invention is a program according to a fifth or sixth aspect, in which a three-dimensional shape in the design of the construction is applied to the image taken by the photographing means as the display image on the computer. A program for generating an image in which the represented image is superimposed is proposed as a seventh aspect.
第7の態様に係るプログラムによればコンピュータにより、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the program according to the seventh aspect, the user who sees the image displayed on the display means by the computer can see the three-dimensional shape obtained by photographing the actual structure of the current construction and the position of the three-dimensional shape in the design of the construction. You can intuitively grasp the deviation of the posture.
また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させるためのプログラムを、第8の態様として提案する。 Further, the present invention is a program according to a fifth or sixth aspect, in which the computer is transmitted through the transparent display means worn on the user's head as the display image in a real space. An image showing the user superimposing the three-dimensional shape of the construction piece constructed in the posture and shape to be constructed at the design construction position in the virtual space in which the real space and the coordinate system are common. A program for generating is proposed as an eighth aspect.
第8の態様に係るプログラムによればコンピュータにより、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。 According to the program according to the eighth aspect, a user wearing a transparent display means on the head by a computer can see the display means through the display means from various positions and angles. It is possible to intuitively grasp the deviation of the position and posture of the three-dimensional shape in the design of the object.
本発明によれば、周囲の風景が単調な広大な工事現場においても、実物の施工物に、当該施工物の設計上の画像を重ねて表示することができる。 According to the present invention, even in a vast construction site where the surrounding landscape is monotonous, a design image of the construction object can be superimposed and displayed on the actual construction object.
[実施形態]
以下、本発明の一実施形態に係る画像表示システム1を説明する。画像表示システム1は工事現場において作業者、検査者等のユーザが工事により施工される施工物の三次元形状と、その施工物の設計上の三次元形状(竣工時の三次元形状)とのズレを直感的に把握できるようにするシステムである。
[Embodiment]
Hereinafter, the
図1は、画像表示システム1の全体構成を示した図である。なお、図1は、例として、バックホウ8により土砂を用いて四角錐台形状の施工物9を施工する工事において画像表示システム1が用いられる様子を示している。
FIG. 1 is a diagram showing the overall configuration of the
画像表示システム1は、バックホウ8(請求の範囲に記載の撮影手段により撮影される物体の一例)の所定位置に配置されたGNSS(Global Navigation Satellite System)ユニット11(1)及びGNSSユニット11(2)と、バックホウ8内に配置されGNSSユニット11(1)及びGNSSユニット11(2)から出力される位置データに基づきバックホウ8の地球における位置及び姿勢を特定する端末装置12(GNSSユニット11(1)及びGNSSユニット11(2)と共に請求の範囲に記載の第1の測定手段の一例を構成する)と、実物の施工物9を撮影した画像に施工物9の設計上の三次元形状を重畳した画像を表示するために用いられる端末装置13を備える。端末装置12と端末装置13は無線通信を行う。また、端末装置13が表示する画像はユーザXにより閲覧される。ユーザXは、施工物9の工事の作業者、検査者等のいずれであってもよい。
The
GNSSユニット11(1)及びGNSSユニット11(2)は各々、複数の人工衛星から発信される電波を受信し、受信した電波から得られる情報に基づき、自装置の地球における三次元位置を測定する装置である。GNSSユニット11(1)及びGNSSユニット11(2)の各々により測定される位置は、例えば、緯度、経度、高度で表される。GNSSユニット11(1)及びGNSSユニット11(2)は、既知のGNSSユニットであるため、その構成の説明を省略する。 Each of the GNSS unit 11 (1) and the GNSS unit 11 (2) receives radio waves transmitted from a plurality of artificial satellites, and measures the three-dimensional position of its own device on the earth based on the information obtained from the received radio waves. It is a device. The position measured by each of the GNSS unit 11 (1) and the GNSS unit 11 (2) is represented by, for example, latitude, longitude, and altitude. Since the GNSS unit 11 (1) and the GNSS unit 11 (2) are known GNSS units, the description of their configurations will be omitted.
GNSSユニット11(1)及びGNSSユニット11(2)はバックホウ8の上部旋回体の互いに異なる所定位置に配置されている。バックホウ8におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置は、バックホウ8の上部旋回体(クローラの上に配置され、クローラに対し鉛直方向の軸周りに旋回する部分であり、エンジン、燃料タンク、操縦席等を含み、それらに対し位置が変化するブーム、アーム、バケット等は含まない)の所定の基準位置を原点とし、例えば、前方向をX軸正方向、右方向をY軸正方向、上方向をZ軸正方向とする座標空間(以下、「物体座標空間」という)における座標により特定される位置である。地球における上部旋回体の位置及び姿勢が変化しても、GNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置は変化しない。
The GNSS unit 11 (1) and the GNSS unit 11 (2) are arranged at different predetermined positions on the upper swing body of the
以下、特に断ることなく「バックホウ8の位置」という場合、地球における物体座標空間の原点の三次元位置を意味するものとする。
Hereinafter, unless otherwise specified, the term "
GNSSユニット11(1)及びGNSSユニット11(2)の各々は端末装置12と通信接続されている。GNSSユニット11(1)及びGNSSユニット11(2)は継続的に自装置の地球における位置を測定し、測定結果を示す位置データを順次、端末装置12に送信する。
Each of the GNSS unit 11 (1) and the GNSS unit 11 (2) is communicatively connected to the
端末装置12はコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置12のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースを備える一般的なコンピュータである。
The
端末装置13はモーションセンサとカメラが内蔵されたタブレット型のコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置13のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースと、不透過型のタッチディスプレイと、カメラと、モーションセンサを備える一般的なタブレット型のコンピュータである。
The
図2は、端末装置12と端末装置13の機能構成を示した図である。すなわち、端末装置12のハードウェアとして用いられるコンピュータは、端末装置12用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置12の構成を備える装置として機能する。また、端末装置13のハードウェアとして用いられるタブレット型のコンピュータは、端末装置13用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置13の構成を備える装置として機能する。
FIG. 2 is a diagram showing a functional configuration of the
以下に、端末装置12の機能構成を説明する。記憶手段121は、各種データを記憶する。記憶手段121には予め、物体座標空間におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置を示す位置データが記憶されている。
The functional configuration of the
受信手段122は、GNSSユニット11(1)及びGNSSユニット11(2)から継続的に送信される位置データを順次、受信する。受信手段122が受信する位置データは、記憶手段121に予め記憶されている位置データとは異なり、GNSSユニット11(1)及びGNSSユニット11(2)の各々が測定した自装置の地球における三次元位置を示す位置データである。 The receiving means 122 sequentially receives the position data continuously transmitted from the GNSS unit 11 (1) and the GNSS unit 11 (2). The position data received by the receiving means 122 is different from the position data stored in advance in the storage means 121, and is three-dimensional on the earth of the own device measured by each of the GNSS unit 11 (1) and the GNSS unit 11 (2). It is position data indicating a position.
位置姿勢算出手段123は、記憶手段121に予め記憶されている位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置と、受信手段122がGNSSユニット11(1)及びGNSSユニット11(2)から最後に受信した位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の地球における位置とに基づいて、地球におけるバックホウ8の位置及び姿勢を算出する。
The position / orientation calculating means 123 includes the positions of the GNSS unit 11 (1) and the GNSS unit 11 (2) in the object coordinate space indicated by the position data stored in advance in the storage means 121, and the receiving means 122 is the GNSS unit 11 (1). ) And the positions of the GNSS unit 11 (1) and GNSS unit 11 (2) on the earth indicated by the position data last received from the GNSS unit 11 (2), and the position and attitude of the
装置の姿勢とは、装置が基準位置から回転している程度を意味する。姿勢の表現形式としては様々なものがあるが、本実施形態においては、座標空間において装置の基準位置からのX軸時計周りの回転角度(ロール角)、Y軸時計周りの回転角度(ピッチ角)、Z軸時計回りの回転角度(ヨー角)により装置の姿勢が表現されるものとする。地球における装置の姿勢は、例えば、北方向をX軸正方向、東方向をY軸正方向、上方向をZ軸正方向とする座標空間において、X軸時計回りの回転角(ロール角)、Y軸時計回りの回転角(ピッチ角)、Z軸時計回りの回転角(ヨー角)により表現される。 The posture of the device means the degree to which the device is rotated from the reference position. There are various forms of posture expression, but in the present embodiment, the rotation angle around the X-axis clockwise (roll angle) and the rotation angle around the Y-axis clockwise (pitch angle) from the reference position of the device in the coordinate space. ), Z-axis clockwise rotation angle (yaw angle) shall represent the posture of the device. The attitude of the device on the earth is, for example, an X-axis clockwise rotation angle (roll angle) in a coordinate space in which the north direction is the X-axis positive direction, the east direction is the Y-axis positive direction, and the upward direction is the Z-axis positive direction. It is expressed by the Y-axis clockwise rotation angle (pitch angle) and the Z-axis clockwise rotation angle (yaw angle).
送信手段124は、位置姿勢算出手段123により継続的に算出されるバックホウ8の位置及び姿勢を示す位置姿勢データを順次、端末装置13に送信する。
The transmission means 124 sequentially transmits the position / attitude data indicating the position and attitude of the
続いて、端末装置13の機能構成を説明する。記憶手段130(請求の範囲に記載の記憶手段の一例)は、各種データを記憶する。記憶手段130には予め、バックホウ8の上部旋回体の外から見える部分の三次元形状を表す第1の三次元形状データ(特徴点の位置を示す役割を果たす)と、施工物9の設計上の三次元形状と位置及び姿勢とを表す第2の三次元形状データと、後述する撮影手段132と表示手段139の所定の位置関係を示す位置関係データが記憶されている。
Subsequently, the functional configuration of the
第1の三次元形状データは、物体座標空間において変化しないバックホウ8の上部旋回体の三次元形状を表す。第2の三次元形状データは、緯度、経度、高度で表現される座標空間において変化しない施工物9の設計上の竣工時の三次元形状を表す。
The first three-dimensional shape data represents the three-dimensional shape of the upper swing body of the
受信手段131は、端末装置12から継続的に送信される位置姿勢データを順次、受信する。撮影手段132は、端末装置13の周囲の画像を撮影し、撮影した画像を表す画像データを生成する。認識手段133は、撮影手段132が撮影した画像からバックホウ8の上部旋回体の3以上の特徴点を認識する。認識手段133が特徴点を認識する方法は既知の画像認識方法であるため、その説明を省略する。
The receiving means 131 sequentially receives the position / orientation data continuously transmitted from the
対応点特定手段134は、第1の三次元形状データが表す三次元形状上の点であり、認識手段133が認識した3以上の特徴点と対応する点である3以上の対応点を特定する。対応点特定手段134が行う処理は2つの画像間のマッチングを行う既知の画像処理であるため、その説明を省略する。 The corresponding point specifying means 134 is a point on the three-dimensional shape represented by the first three-dimensional shape data, and identifies three or more corresponding points which are points corresponding to the three or more feature points recognized by the recognition means 133. .. Since the process performed by the corresponding point specifying means 134 is a known image process for matching between two images, the description thereof will be omitted.
位置関係特定手段135は、対応点特定手段134が特定した3以上の対応点の物体座標空間における位置と、認識手段133が認識した3以上の特徴点の認識に用いられた画像(バックホウ8を撮影した画像)における位置と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、バックホウ8と表示手段139の位置関係を特定し、特定した位置関係を示す位置関係データを生成する。位置関係特定手段135が特定する位置関係データは、表示手段139の基準位置(例えば表示面の中央位置)の物体座標空間における位置と、表示手段139の物体座標空間における姿勢(ロール角、ピッチ角、ヨー角)を示す。
The positional relationship specifying means 135 uses an image (back ho 8) used for recognizing the positions of the three or more corresponding points specified by the corresponding point specifying means 134 in the object coordinate space and the three or more feature points recognized by the recognition means 133. Based on the position in the captured image) and the positional relationship between the photographing means 132 and the display means 139 indicated by the positional relationship data stored in the storage means 130, the positional relationship between the
位置関係特定手段135が行う処理は、撮影した画像から、撮影手段と所定の位置関係の装置の位置及び姿勢を特定する既知の処理であるため、その説明を省略する。 Since the process performed by the positional relationship specifying means 135 is a known process for identifying the position and orientation of the device having a predetermined positional relationship with the photographing means from the captured image, the description thereof will be omitted.
位置姿勢特定手段136は、位置関係特定手段135が特定したバックホウ8と表示手段139の位置関係と、受信手段131が端末装置12から受信した位置姿勢データが示すバックホウ8の地球における位置及び姿勢とに基づき、表示手段139がバックホウ8を撮影した時点における表示手段139の地球における位置及び姿勢を継続的に特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。
The position / orientation specifying means 136 includes the positional relationship between the
測定手段137(請求の範囲に記載の第2の測定手段の一例)は、表示手段139の位置と姿勢の変化分を継続的に測定し、測定の結果を示す位置姿勢変化分データを順次、生成する。測定手段137は、主として端末装置13のハードウェアであるタブレット型のコンピュータに内蔵されるモーションセンサにより実現される。モーションセンサは、例えば、3軸加速度センサと、3軸角速度センサを有し、3軸加速度センサにより表示手段139の位置の変化分を継続的に測定し、3軸角速度センサにより表示手段139の姿勢の変化分を継続的に測定する。
The measuring means 137 (an example of the second measuring means described in the claims) continuously measures the change in the position and posture of the display means 139, and sequentially obtains the position / posture change data indicating the measurement result. Generate. The measuring means 137 is realized by a motion sensor built in a tablet-type computer, which is mainly the hardware of the
ところで、認識手段133が3以上の特徴点を認識していない期間中は、位置関係特定手段135はバックホウ8と表示手段139の位置関係を特定できない。そのため、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によっては表示手段139の地球における位置及び姿勢を特定することはできない。そこで、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によって最後に特定した表示手段139の地球における位置及び姿勢に対し、その後に測定手段137が測定した現時点までの表示手段139の位置及び姿勢の変化分を加算して、現時点における表示手段139の地球における位置と姿勢を特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。
By the way, during the period when the recognition means 133 does not recognize three or more feature points, the positional relationship specifying means 135 cannot specify the positional relationship between the
画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の三次元形状と地球における位置及び姿勢とに基づき、撮影手段132が撮影した画像に、撮影手段132が撮影する実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された施工物9の三次元形状を重畳した表示用画像を継続的に生成し、生成した表示用画像を表す表示用画像データを生成する。なお、施工物9の施工されるべき位置が撮影手段132の撮影範囲に入っていない場合、画像生成手段138は撮影手段132が撮影した画像に対し施工物9の三次元形状を重畳しない。
The image generation means 138 is based on the position and orientation of the display means 139 specified by the position and orientation specifying means 136 on the earth, and the three-dimensional shape of the
表示手段139は、画像生成手段138が生成した表示用画像データが表す表示用画像を表示する。 The display means 139 displays a display image represented by the display image data generated by the image generation means 138.
図3は、表示手段139により表示される表示用画像を示した図である。図3(A)はバックホウ8の外にいるユーザXが端末装置13を用いてバックホウ8を撮影した場合に表示手段139が表示する表示用画像の例である。図3(B)はバックホウ8の外にいるユーザXが端末装置13を用いて施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。図3(C)はバックホウ8の中にいるユーザXが端末装置13を用いてバックホウ8の窓越しに施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。
FIG. 3 is a diagram showing a display image displayed by the display means 139. FIG. 3A is an example of a display image displayed by the display means 139 when the user X outside the
図3(A)の表示用画像には、バックホウ8の外側の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。図3(A)の表示用画像に含まれるバックホウ8の上部旋回体の角隅部に描かれている丸印は、認識手段133により特定された特徴点の位置を示している。
In the display image of FIG. 3A, the image of the outside of the
図3(B)の表示用画像には、施工物9の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢に、測定手段137により測定された位置及び姿勢の変化分の加算を行って特定された位置及び姿勢であることを示す「測定モード:画像+モーション」という文字が含まれている。また、図3(B)の表示用画像には、施工物9の画像の上に、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。
In the display image of FIG. 3B, the image of the
図3(C)の表示用画像には、バックホウ8の内側の画像と、施工物9の実画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。また、図3(C)の表示用画像には、認識手段133により特定された特徴点の位置を示す丸印と、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。
The display image of FIG. 3C includes an image of the inside of the
ユーザXは、図3(B)や図3(C)の表示用画像を見ることで、実際の施工物9の三次元形状と施工物9の設計上の竣工時の三次元形状のズレを直感的に把握することができる。従って、ユーザXは工事や検査等の作業を効率的に行うことができる。
By looking at the display images shown in FIGS. 3 (B) and 3 (C), the user X can determine the difference between the actual three-dimensional shape of the
[変形例]
上述の実施形態は本発明の一具体例であって、本発明の技術的思想の範囲内において様々に変形可能である。以下にそれらの変形の例を示す。なお、以下に示す2以上の変形例が適宜組み合わされてもよい。
[Modification example]
The above-described embodiment is a specific example of the present invention, and can be variously modified within the scope of the technical idea of the present invention. Examples of these modifications are shown below. In addition, two or more modified examples shown below may be combined as appropriate.
(1)上述した実施形態においては、端末装置13のハードウェアにタブレット型のコンピュータが用いられる。これに代えて、AR(拡張現実、Augmented Reality)用のHMD(Head Mounted Display)とHMDと無線等で接続されたコンピュータや、コンピュータ内蔵のAR用のHMDが端末装置13のハードウェアとして用いられてもよい。
(1) In the above-described embodiment, a tablet computer is used as the hardware of the
また、AR用のHMDに代えて、MR(複合現実、Mixed Reality)用のHMDが用いられてもよい。MR用のHMDは、透過型のディスプレイを有し、HMDを頭部に装着したユーザは、ディスプレイ越しに肉眼で見る周囲の風景と、ディスプレイに表示される画像とを同時に見ることになる。 Further, instead of the HMD for AR, an HMD for MR (Mixed Reality) may be used. The HMD for MR has a transmissive display, and a user wearing the HMD on the head can simultaneously see the surrounding landscape seen through the display with the naked eye and the image displayed on the display.
図4は、この変形例に係る画像表示システム2の全体構成を示した図である。図1に示した画像表示システム1と比較し、画像表示システム2はタブレット型のコンピュータである端末装置13に代えて、MR用のHMD(コンピュータ内蔵型)であるMR−HMD23を備える。
FIG. 4 is a diagram showing the overall configuration of the
MR−HMD23の機能構成は、図2に示した端末装置13の機能構成と同じであるが、画像生成手段138が行う処理が端末装置13のものと異なる。MR−HMD23の画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の設計上の三次元形状と地球における位置及び姿勢と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、ユーザXの頭部に装着される表示手段139を透過して実空間を見るユーザXに、設計上の施工物9の施工されるべき位置に施工物9の施工されるべき姿勢及び形状で施工物9の三次元形状を重ねて見せるように、実空間と座標系が共通の仮想空間において第2の三次元形状データが表す施工物9の三次元形状を配置した表示用画像を生成する。
The functional configuration of the MR-HMD23 is the same as that of the
図5は、画像表示システム2においてMR−HMD23を装着しているユーザXの目に見えるものを示した図である。図5(A)はバックホウ8の外にいるMR−HMD23を装着したユーザXがバックホウ8の方を向いた場合にユーザXに見えるものを示した例である。図5(B)はバックホウ8の外にいるMR−HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。図5(C)はバックホウ8の中にいるMR−HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。
FIG. 5 is a view showing what is visible to the user X wearing the MR-HMD23 in the
画像表示システム1による場合、例えばユーザXがバックホウ8を用いて施工物9の施工を行う作業者である場合、ユーザXはバックホウ8の操縦室内の見える場所に端末装置13を設置し、実物の施工物9を見ながらバックホウ8を操作して工事を行いながら、時々、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを確認するために、視線を端末装置13の方に移す必要がある。これに対し、画像表示システム2によれば、ユーザXは視線を実物の施工物9から逸らすことなく、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを常時確認することができる。
In the case of the
(2)上述した実施形態においては、地球におけるバックホウ8の位置及び姿勢は端末装置12により算出される。これに代えて、端末装置13が端末装置12の役割を兼ね備え、端末装置13がGNSSユニット11(1)及びGNSSユニット11(2)からそれらのGNSSユニットの位置を示す位置データを受信し、受信した位置データに基づき、地球におけるバックホウ8の位置及び姿勢を算出してもよい。
(2) In the above-described embodiment, the position and orientation of the
(3)上述した実施形態においては、工事現場は地上であるものとしたが、工事現場は地上に限られず、水上等であってもよい。例えば、工事現場が水上である場合、バックホウに代えて船舶にGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12を配置すればよい。この場合、ユーザはGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12が配置された船舶を端末装置13で撮影することで、水上の施工物の三次元形状を、その施工物の設計上の竣工時の三次元形状と比較することができる。
(3) In the above-described embodiment, the construction site is assumed to be on the ground, but the construction site is not limited to the ground and may be on the water or the like. For example, when the construction site is on the water, the GNSS unit 11 (1), the GNSS unit 11 (2), and the
(4)上述した実施形態においては、端末装置12と端末装置13のハードウェアは一般的なコンピュータである。これに代えて、端末装置12と端末装置13の少なくとも一方が、図2に示した構成を備える専用装置として構成されてもよい。
(4) In the above-described embodiment, the hardware of the
(5)GNSSの方式には様々なものがある。GNSSユニット11(1)及びGNSSユニット11(2)に採用される方式は、本発明において要求される精度が確保される限り、いずれの方式であってもよい。例えば、GNSSユニット11(1)及びGNSSユニット11(2)が、RTK(Real Time Kinematic)−GNSS方式や、D(Differential)−GNSS方式のGNSSユニットであってもよい。 (5) There are various GNSS methods. The method adopted for the GNSS unit 11 (1) and the GNSS unit 11 (2) may be any method as long as the accuracy required in the present invention is ensured. For example, the GNSS unit 11 (1) and the GNSS unit 11 (2) may be RTK (Real Time Kinematic) -GNSS system or D (Differential) -GNSS system GNSS unit.
(6)上述した実施形態において、画像表示システム1はGNSSユニット11(1)及びGNSSユニット11(2)を用いてバックホウ8の位置及び姿勢を特定する。本発明において物体の位置及び姿勢を特定する方法は、2つのGNSSユニットを用いる方法に限られない。例えば、画像表示システム1がGNSSユニット11(1)及びGNSSユニット11(2)に代えて、物体の所定位置に配置されたGNSSユニットと、方位計と、水平面上で直交する2軸の傾斜計とを1つずつ備え、GNSSユニットが測定した位置に基づき物体の位置を特定し、方位計が測定した方位と2軸の傾斜計が測定した傾きとに基づき物体の姿勢を特定してもよい。
(6) In the above-described embodiment, the
また、上記の変形例において、物体の水平面に対する姿勢が基準位置から実質的に変化しない場合、画像表示システム1は傾斜計を備えなくてもよい。その場合、物体の姿勢を表す値としては、ヨー角として方位計が測定した値が用いられ、ロール角とピッチ角として0度(基準姿勢から変化なし)が用いられる。
Further, in the above modification, when the posture of the object with respect to the horizontal plane does not substantially change from the reference position, the
(7)上述した実施形態においては、撮影手段132は一般的な光学カメラ(可視光を感知するイメージセンサ群により二次元画像を生成する撮影手段)である。これに代えて、撮影手段132としてデプスセンサを採用し、撮影手段132が撮影により深度画像を生成してもよい。なお、デプスセンサの方式は、ステレオカメラ方式、Time-of-flight方式、LIDAR方式等のいずれであってもよい。 (7) In the above-described embodiment, the photographing means 132 is a general optical camera (a photographing means that generates a two-dimensional image by a group of image sensors that sense visible light). Instead of this, a depth sensor may be adopted as the photographing means 132, and the photographing means 132 may generate a depth image by photographing. The depth sensor method may be any of a stereo camera method, a time-of-flight method, a LIDAR method, and the like.
この場合、バックホウ8を撮影した撮影手段132はバックホウ8の三次元形状を表す深度画像を生成する。そして、認識手段133は撮影手段132が生成する深度画像が表すバックホウ8の三次元形状から特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。
In this case, the photographing means 132 in which the
また、撮影手段132が撮影により二次元画像を生成する場合において、例えば端末装置13が、同じ対象物を異なる方向から撮影した複数の画像から対象物の三次元形状を測定するPhoto to 3Dと呼ばれる既知の技術によりバックホウ8の三次元形状を特定する三次元形状特定手段を備えてもよい。この場合、認識手段133は三次元形状特定手段が特定したバックホウ8の三次元形状の特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。
Further, when the photographing means 132 generates a two-dimensional image by photographing, for example, the
(8)上述した実施形態において、表示手段139の地球における位置及び姿勢を特定するために撮影手段132により撮影される対象の物体の例として示したバックホウ8は、自走する移動体である。本発明における撮影対象の物体は自走しない移動体や、移動体ではない物体でもよい。例えば、曳舟により曳航される作業台船の位置及び姿勢が取得できる場合、その作業台船が表示手段の位置及び姿勢を特定するための撮影対象として用いられてもよいし、工事中は移動しない建設機械等を撮影対象として用いてもよい。すなわち、特徴点を備え、測定手段により地球における位置及び姿勢が測定される物体であれば、本発明における撮影対象の物体となり得る。
(8) In the above-described embodiment, the
(9)端末装置13が行う処理をコンピュータに実行させるためのプログラムがインターネット等のネットワークを介して提供されてもよい。また、端末装置13が行う処理をコンピュータに実行させるためのプログラムが持続的にデータを記録する記録媒体に記録された状態で提供されてもよい。
(9) A program for causing a computer to execute a process performed by the
1…画像表示システム、2…画像表示システム、8…バックホウ、9…施工物、12…端末装置、13…端末装置、23…MR−HMD、121…記憶手段、122…受信手段、123…位置姿勢算出手段、124…送信手段、130…記憶手段、131…受信手段、132…撮影手段、133…認識手段、134…対応点特定手段、135…位置関係特定手段、136…位置姿勢特定手段、137…測定手段、138…画像生成手段、139…表示手段。 1 ... Image display system, 2 ... Image display system, 8 ... Back ho, 9 ... Construction, 12 ... Terminal device, 13 ... Terminal device, 23 ... MR-HMD, 121 ... Storage means, 122 ... Receiving means, 123 ... Position Posture calculation means, 124 ... Transmission means, 130 ... Storage means, 131 ... Reception means, 132 ... Shooting means, 133 ... Recognition means, 134 ... Correspondence point identification means, 135 ... Positional relationship identification means, 136 ... Position / orientation identification means, 137 ... Measuring means, 138 ... Image generating means, 139 ... Displaying means.
Claims (8)
前記撮影手段と所定の位置関係にある表示手段と、
前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、
前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、
前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、
前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、
前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき、前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、
前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、
前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段と
を備え、
前記表示手段は前記表示用画像を表示する
画像表示システム。 Shooting means and
A display means having a predetermined positional relationship with the photographing means,
A measuring means for measuring the position and orientation of an object to be photographed on the earth by the photographing means, and a measuring means.
Positional relationship data indicating the positional relationship between the photographing means and the display means, first three-dimensional shape data representing the three-dimensional shape of the object, the three-dimensional shape in the design of the construction, and the position and orientation on the earth. A storage means for storing the second three-dimensional shape data representing
A recognition means by which the photographing means recognizes three or more feature points of the object from an image obtained by photographing the object.
A corresponding point specifying means for specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the three or more feature points recognized by the recognition means. ,
The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the image obtained by photographing the object, and the positional relationship and the position are specified. A positional relationship specifying means for specifying the positional relationship between the object and the display means based on the positional relationship indicated by the relationship data, and
Based on the positional relationship between the object and the display means specified by the positional relationship specifying means, and the position and posture of the object on the earth measured by the measuring means at the time of photographing the image of the object, the photographing time point. Position and orientation specifying means for specifying the position and orientation of the display means on the earth in
Based on the position and orientation of the display means specified by the position and orientation specifying means on the earth, the design three-dimensional shape of the construction represented by the second three-dimensional shape data, and the position and orientation on the earth. It is equipped with an image generation means for generating a display image showing the three-dimensional shape of the construction object constructed at a design position in a design position in a virtual space in which the real space and the coordinate system are common to be photographed by the photographing means. ,
The display means is an image display system that displays the display image.
前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する
請求項1に記載の画像表示システム。 When the measuring means is used as the first measuring means, a second measuring means for continuously measuring the change in the position and posture of the display means is provided.
The position / orientation specifying means includes the position and orientation of the display means on the earth at the specified shooting time, and the change in the position and posture of the display means measured by the second measuring means from the shooting time to the present time. The image display system according to claim 1, wherein the position and orientation of the display means on the earth at the present time are specified based on the above.
請求項1又は2に記載の画像表示システム。 The image display system according to claim 1 or 2, wherein the display image is an image obtained by superimposing an image representing the design three-dimensional shape of the construction on the image taken by the photographing means.
前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である
請求項1又は2に記載の画像表示システム。 The display means is a transparent display means worn on the user's head.
The display image is applied to the user who sees the real space through the display means in a posture and shape to be installed at a design position in a virtual space in which the real space and the coordinate system are common. The image display system according to claim 1 or 2, which is an image in which the three-dimensional shapes of the constructed works are superimposed.
撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、
前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、
前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、
前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、
前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、
特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、
特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、
前記表示用画像を前記表示手段に表示させる処理と
を実行させるためのプログラム。 On the computer
Positional relationship data showing a predetermined positional relationship between the photographing means and the display means, first three-dimensional shape data showing the three-dimensional shape of an object whose position and orientation on the earth are measured by the measuring means, and design of the construction And the process of acquiring the second 3D shape data representing the 3D shape of the
A process of acquiring image data representing an image in which the object is photographed by the photographing means and position / orientation data indicating the position and orientation of the object measured by the measuring means at the time of photographing the image.
A process of recognizing three or more feature points of the object from the image represented by the image data,
A process of specifying three or more corresponding points, which are points on the three-dimensional shape represented by the first three-dimensional shape data and corresponding to the recognized three or more feature points.
The positional relationship between the object and the photographing means is specified based on the positions of the three or more corresponding points in the object and the positions of the three or more feature points in the image obtained by photographing the object, and the positional relationship and the position are specified. A process of specifying the positional relationship between the object and the display means based on the positional relationship indicated by the relationship data, and
A process of specifying the position and orientation of the display means on the earth at the time of shooting based on the positional relationship between the specified object and the display means and the position and orientation of the object on the earth indicated by the position and orientation data.
The actual image taken by the photographing means based on the position and orientation of the specified display means on the earth, the design three-dimensional shape of the construction object represented by the second three-dimensional shape data, and the position and orientation on the earth. A process of generating a display image showing the three-dimensional shape of the work constructed at a design position in a design posture in a virtual space having a common space and coordinate system.
A program for executing a process of displaying the display image on the display means.
前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、
特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理と
を実行させるための請求項5に記載のプログラム。 On the computer
When the measuring means is used as the first measuring means, the position of the display means from the time of shooting to the present time measured by the second measuring means that continuously measures the change in the position and posture of the display means and Processing to acquire position / posture change data indicating the change in posture,
The display at the present time is based on the position and orientation of the display means on the earth at the specified shooting time and the change in the position and posture of the display means from the shooting time to the present time indicated by the position / posture change data. The program according to claim 5, for performing a process of identifying the position and orientation of the means on the earth.
前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させる
ための請求項5又は6に記載のプログラム。 On the computer
The program according to claim 5 or 6, wherein as the display image, an image obtained by superimposing an image representing a design three-dimensional shape of the construction on the image taken by the photographing means is generated.
前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させる
ための請求項5又は6に記載のプログラム。 On the computer
As the display image, the user who sees the real space through the transparent display means mounted on the user's head should be constructed in a virtual space in which the real space and the coordinate system are common. The program according to claim 5 or 6, for generating an image in which a three-dimensional shape of the construction piece constructed in a posture and shape to be constructed at a position is superimposed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169457A JP7303711B2 (en) | 2019-09-18 | 2019-09-18 | image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169457A JP7303711B2 (en) | 2019-09-18 | 2019-09-18 | image display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047611A true JP2021047611A (en) | 2021-03-25 |
JP7303711B2 JP7303711B2 (en) | 2023-07-05 |
Family
ID=74878495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019169457A Active JP7303711B2 (en) | 2019-09-18 | 2019-09-18 | image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7303711B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304268A (en) * | 2007-06-06 | 2008-12-18 | Sony Corp | Information processor, information processing method, and computer program |
US20150109509A1 (en) * | 2013-10-22 | 2015-04-23 | Topcon Positioning Systems, Inc. | Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit |
WO2016017253A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2018106661A (en) * | 2017-07-03 | 2018-07-05 | 株式会社Cygames | Inconsistency detection system, mixed reality system, program, and inconsistency detection method |
-
2019
- 2019-09-18 JP JP2019169457A patent/JP7303711B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304268A (en) * | 2007-06-06 | 2008-12-18 | Sony Corp | Information processor, information processing method, and computer program |
US20150109509A1 (en) * | 2013-10-22 | 2015-04-23 | Topcon Positioning Systems, Inc. | Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit |
WO2016017253A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2018106661A (en) * | 2017-07-03 | 2018-07-05 | 株式会社Cygames | Inconsistency detection system, mixed reality system, program, and inconsistency detection method |
Also Published As
Publication number | Publication date |
---|---|
JP7303711B2 (en) | 2023-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107402000B (en) | Method and system for correlating a display device with respect to a measurement instrument | |
US7737965B2 (en) | Handheld synthetic vision device | |
KR101285360B1 (en) | Point of interest displaying apparatus and method for using augmented reality | |
JP5682060B2 (en) | Image composition apparatus, image composition program, and image composition system | |
EP3244371B1 (en) | Augmented image display using a camera and a position and orientation sensor unit | |
KR20190051704A (en) | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
JP4102324B2 (en) | Surveying data processing system, surveying data processing program, and electronic map display device | |
WO2013069012A1 (en) | Method and system for determining position and/or orientation | |
CN113820735B (en) | Determination method of position information, position measurement device, terminal and storage medium | |
CN102575933A (en) | System that generates map image integration database and program that generates map image integration database | |
KR100822814B1 (en) | Method for overlapping real-time landscape image and gis data | |
CN110737009A (en) | Method for geospatial positioning and portable positioning device therefor | |
EP3642694B1 (en) | Augmented reality system and method of displaying an augmented reality image | |
JP2013234946A (en) | Target position identification device, target position identification system and target position identification method | |
CN101556154A (en) | Positioning and path map generation system and data acquisition analysis method thereof | |
CN104978476B (en) | Indoor map scene, which is carried out, using smart phone mends the method surveyed | |
JP7303711B2 (en) | image display system | |
CN109032330A (en) | Seamless bridge joint AR device and AR system | |
US8903163B2 (en) | Using gravity measurements within a photogrammetric adjustment | |
JP2022140903A (en) | Surveying device and surveying method using the same | |
JP6733127B2 (en) | Information processing device, information processing method, and program | |
JP2017125907A (en) | Landform display system | |
Chen et al. | Panoramic epipolar image generation for mobile mapping system | |
US11967035B1 (en) | Visualizing area covered by drone camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220506 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |