JP5682060B2 - Image composition apparatus, image composition program, and image composition system - Google Patents

Image composition apparatus, image composition program, and image composition system Download PDF

Info

Publication number
JP5682060B2
JP5682060B2 JP2010283292A JP2010283292A JP5682060B2 JP 5682060 B2 JP5682060 B2 JP 5682060B2 JP 2010283292 A JP2010283292 A JP 2010283292A JP 2010283292 A JP2010283292 A JP 2010283292A JP 5682060 B2 JP5682060 B2 JP 5682060B2
Authority
JP
Japan
Prior art keywords
image
space image
virtual space
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010283292A
Other languages
Japanese (ja)
Other versions
JP2012133471A (en
Inventor
幸治 水上
幸治 水上
欽也 田中
欽也 田中
雄介 竹屋
雄介 竹屋
信哉 青木
信哉 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Kogyo Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2010283292A priority Critical patent/JP5682060B2/en
Publication of JP2012133471A publication Critical patent/JP2012133471A/en
Application granted granted Critical
Publication of JP5682060B2 publication Critical patent/JP5682060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本願発明は、現実の空間を撮像した実空間画像に、仮想の画像を重畳して表示する装置、プログラム、及びシステムである。より具体的には、実空間画像に空間モデルに基づいて作成される仮想空間画像を重畳して表示するものであり、実空間画像の遠近感に合わせて仮想空間画像も遠近表示する画像合成装置、画像合成プログラム、及び画像合成システムに関するものである。   The present invention is an apparatus, a program, and a system for displaying a virtual image superimposed on a real space image obtained by imaging a real space. More specifically, an image composition device that superimposes and displays a virtual space image created based on a space model on a real space image, and also displays the virtual space image according to the perspective of the real space image. , An image composition program and an image composition system.

道路には、そのネットワーク性や公共性という特性から、多くの地下埋設物が存在している。道路下の地下埋設物としては、上下水道やガスが代表的であり、近年では電線の地中化も盛んに行われ、さらに情報BOXと呼ばれる光ファイバーケーブルも広く埋設されているところである。図8は、道路下の埋設状況を模式的に示した説明図であり、道路左側に光ファイバーケーブルAが、道路右側に下水管Bが、埋設された状況を示すものである。この図では、光ファイバーケーブルAと下水管Bの平面配置が破線で示され、仮想断面図で断面配置が示されているが、もちろん実際にこのように見ることはできない。   Many underground objects exist on roads due to their network and public characteristics. As underground buried objects under the road, water and sewage and gas are typical, and in recent years, undergrounding of electric wires has been actively performed, and an optical fiber cable called information BOX is also widely buried. FIG. 8 is an explanatory view schematically showing the state of burying under the road, in which the optical fiber cable A is buried on the left side of the road and the sewage pipe B is buried on the right side of the road. In this figure, the planar arrangement of the optical fiber cable A and the sewer pipe B is shown by a broken line, and the sectional arrangement is shown by a virtual sectional view, but of course, it cannot be actually seen in this way.

図10は、道路で現地調査を実施している状況を示した説明図である。この図に示すように、日常において地下埋設物を目視で確認することができない。そのため、どの位置にどのような地下埋設物が存在しているのか、現地で把握することは容易ではない。道路の改良工事や新たな埋設物設置工事など道路を掘削する場合、あらかじめ地下埋設物の位置や種類を確認する必要があるが、現地での目視調査では把握できないので、設計時の資料や管理図面などを収集して調べなければならない。その調査の結果判明した地下埋設物の位置情報(通常は平面座標系で与えられる情報)を基に、現地にて測量を行い、鋲や白線等によるマーカーで明示することになる。図10は、道路上に地下埋設物の平面配置を白線Cで示した説明図である。   FIG. 10 is an explanatory diagram showing a situation where a field survey is being conducted on a road. As shown in this figure, it is not possible to visually confirm the underground objects in daily life. For this reason, it is not easy to ascertain locally what kind of underground objects are present at which position. When excavating roads such as road improvement work and new buried object installation work, it is necessary to confirm the position and type of underground buried objects in advance, but it cannot be grasped by visual inspection at the site. You must collect and examine drawings. Based on the location information of the underground objects found as a result of the survey (usually information given in the plane coordinate system), surveys will be conducted on site, and will be clearly indicated by markers such as ridges or white lines. FIG. 10 is an explanatory diagram showing the planar arrangement of the underground object on the road with a white line C. FIG.

道路下の地下埋設物と同様、建築物の壁面内に収められた配線・配管類についても、現地で目視することはできないので、設計図面などを参考に現地測量を行い、壁面にマーカーで示すことになる。   As with underground buried objects under the road, wiring and piping contained in the wall of the building cannot be observed on site, so field surveys are conducted with reference to design drawings, etc., and markers are shown on the walls. It will be.

これら埋設物とは異なり、現実には存在しないために現地で目視することはできないものもある。例示すれば、土地の境界や村市町村界、未施工の道路やマンションなど計画段階の構造物、土砂災害警戒区域や地すべり指定地などの危険区域、といった人の概念上作られたもの(以下、「概念物」という。)が挙げられる。このような概念物についても、現地での確認が必要となる状況は少なくなく、この場合、先に説明した埋設物と同様、概念物の位置を示す情報(やはり、通常は平面座標系で与えられる情報)に基づいて現地測量を行い、杭や白線等によるマーカーで明示することになる。   Unlike these buried objects, there are some that cannot be seen locally because they do not exist in reality. For example, what was created based on the concept of people such as land boundaries, villages, towns and villages, unstructured roads and condominiums, structures at the planning stage, dangerous areas such as landslide warning areas and landslide designated areas (hereinafter referred to as "Conceptual object"). For such a conceptual object, there are not many situations that require confirmation on site. In this case, information indicating the position of the conceptual object (usually given in a plane coordinate system as well as the embedded object described above). Field survey based on the information, and clearly indicate with markers such as piles and white lines.

このように埋設物や概念物など実際には目視できないもの(以下、「不可視物」という。)を現地で確認するためには、その不可視物に関する資料を収集し、さらに現地で測量する必要がある。不可視物を現地で確認するために費やす労力は、実際に目視できるもの(以下、「可視物」という。)に比べると極めて大きい。   In this way, in order to confirm on-site things that are not actually visible (hereinafter referred to as “invisible objects”), such as buried objects and conceptual objects, it is necessary to collect materials related to the invisible objects and to further survey them locally. is there. The labor required to confirm invisible objects on site is much larger than what can be visually observed (hereinafter referred to as “visible objects”).

一方、昨今では実空間上で仮想空間を体感する技術が、実用化に向けて開発されている。これは、現実の空間にデジタル情報を仮想画像として重ねて表現する技術で、現実世界を拡げるという意味から「拡張現実(Augumented Reality;AR)」と呼ばれている。拡張現実は、人の頭部に装着するディスプレイ(Head Mounted Display; HMD)で体感するものから始まり、現在では携帯電話をはじめとするモニタ付き携帯型コンピュータで表示させるものが主流になりつつある。   On the other hand, recently, a technology for experiencing a virtual space in a real space has been developed for practical use. This is a technique for superimposing and expressing digital information as a virtual image in a real space, and is called “Augmented Reality (AR)” in the sense of expanding the real world. Augmented reality starts with what is felt on a display (Head Mounted Display; HMD) that is worn on a person's head. Currently, what is displayed on a portable computer with a monitor such as a cellular phone is becoming mainstream.

拡張現実に関するハードウェアやソフトウェアは、実用化に向けて着実に進歩しているが、この技術を応用する方法についてはそれほど多く提案されていないのが現状であり、この意味では拡張現実は発展の途上にある技術といえる。拡張現実を応用した技術の提案は今後増加するものと考えられ、特許文献1もそのうちのひとつである。   Hardware and software related to augmented reality are steadily advancing toward practical use, but there are currently not many proposals for how to apply this technology. In this sense, augmented reality has not been developed. It can be said that this technology is on the way. Proposals for technologies applying augmented reality are expected to increase in the future, and Patent Document 1 is one of them.

特開2010−238096JP2010-238096

特許文献1は、カメラ付きの端末機で実空間を撮影しながら連続的に表示(ライブビュー)し、カメラの位置やカメラの方向に応じて仮想画像(この文献では「拡張現実感情報」)を取得し、実空間の撮影画像に重畳表示するものである。そして、カメラを移動させると、その移動速度に追随して適確に仮想画像を表示させることを目的とし、カメラの移動量に閾値を設け、その閾値と移動量とを照らし合わせて仮想画像を変更するか否かを判断するものである。   Patent Document 1 continuously displays (live view) while photographing a real space with a terminal equipped with a camera, and displays virtual images according to the position of the camera and the direction of the camera (in this document, “augmented reality information”). Is acquired and superimposed on the captured image of the real space. Then, when the camera is moved, the virtual image is accurately displayed following the moving speed. A threshold is set for the moving amount of the camera, and the virtual image is compared with the threshold and the moving amount. It is determined whether or not to change.

特許文献1では、カメラの位置やカメラの方向を計測する方法として、カメラ付き端末機に各種のセンサを搭載することとしている。このように拡張現実を実現するにあたってセンサを用いることは一般的となりつつあり、センサによる計測精度を上げる技術、計測時間を短縮する技術、センサ自体を小型化する技術など、センサに関する技術も大きく進歩している。このセンサには、カメラの位置(座標)を計測するものと、カメラの姿勢を計測するものに大きく分けられ、前者ではGPS(Global Positioning System)が代表的であり、後者では地磁気センサなどが例示できる。   In Patent Document 1, as a method of measuring the position of the camera and the direction of the camera, various sensors are mounted on the camera-equipped terminal. In this way, it is becoming more common to use sensors to realize augmented reality, and technologies related to sensors such as technologies for improving measurement accuracy with sensors, technologies for shortening measurement time, and technologies for reducing the size of the sensor itself have greatly advanced. doing. This sensor can be broadly divided into those that measure the position (coordinates) of the camera and those that measure the posture of the camera. The former is representative of GPS (Global Positioning System), and the latter is exemplified by a geomagnetic sensor. it can.

前記したように、埋設物や概念物など実際には目視できない「不可視物」を現地で確認する場合、その不可視物に関する資料を収集する必要があり、さらに現地で測量する必要があり、多くの労力や時間を必要としていた。また、不可視物を現地で表現するには、鋲や杭あるいは白線などのマーカーで表示することとなり、その労力に加え美観的にも好ましものではなかった。   As mentioned above, when confirming “invisible objects” such as buried objects and conceptual objects that cannot actually be seen on the site, it is necessary to collect materials related to the invisible objects, and it is necessary to survey on the site. It required labor and time. In addition, in order to express invisible objects locally, they were displayed with markers such as ridges, stakes, or white lines, which was not preferable in terms of labor and aesthetics.

このような問題を解決するため、特許文献1で示されるように拡張現実を用いることも考えられる。すなわち、現地にてカメラ付き端末機で撮影し、埋設物や概念物を仮想画像化したものを実際の画像に表示させることが考えられる。しかしながら、特許文献1で表示する仮想画像はタグであり、タグに示される情報によって現実以上のものを感得するものである。このような手段では、現地でどこに埋設物が存在しているのか、ということは直感的に認識することはできない。   In order to solve such a problem, it is also possible to use augmented reality as shown in Patent Document 1. That is, it is conceivable to take a picture with a camera-equipped terminal at the site and display a virtual image of an embedded object or a conceptual object on an actual image. However, the virtual image displayed in Patent Document 1 is a tag, and the user can perceive more than reality by the information shown on the tag. With such means, it is not possible to intuitively recognize where the buried objects exist locally.

さらに特許文献1を含め現状の拡張現実では、仮想画像を実空間の画像と重ね合わせる際の位置精度に問題がある。GPSや磁気センサによる計測技術は向上しているものの、その精度はまだ十分ではなく、かつ誤って表示したものを補正する技術も確立されていない。特に、道路下に埋設物がある状態で掘削を行う場合、拡張現実によって表示した仮想画像(ここでは地下埋設物)の表示位置精度が十分でないと、地下埋設物に損傷を与える事故などを引き起こすおそれがある。   Furthermore, in the current augmented reality including Patent Document 1, there is a problem in positional accuracy when a virtual image is superimposed on an image in real space. Although measurement techniques using GPS and magnetic sensors have been improved, the accuracy is not yet sufficient, and a technique for correcting an erroneous display has not been established. In particular, when excavation is performed with a buried object under the road, if the display position accuracy of the virtual image (in this case, the underground object) displayed by augmented reality is not sufficient, an accident may occur that damages the underground object. There is a fear.

本願発明の課題は、前記した問題を解決することであり、資料収集や現地測量などの労力を必要とすることなく、現地にて埋設物や概念物など不可視物を直感的に確認することである。また、実空間の画像と重ね合わせる際、仮想画像の表示位置精度を適切なものとすることも、本願発明の課題の一つである。より具体的には、これらの問題を解決する画像合成装置、画像合成プログラム、及び画像合成システムを提供することが、本願発明の課題である。   The subject of the present invention is to solve the above-mentioned problems, and without inconvenience such as collection of materials and on-site surveying, it is possible to intuitively confirm invisible objects such as buried objects and conceptual objects at the site. is there. Another object of the present invention is to make the display position accuracy of the virtual image appropriate when superimposing the image on the real space. More specifically, it is an object of the present invention to provide an image composition device, an image composition program, and an image composition system that solve these problems.

本願発明の画像合成装置は、現実の空間を撮像した実空間画像に、空間情報を有する空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成装置であって、前記実空間画像を取得する画像取得手段と、画像取得手段の位置及び姿勢を計測する計測手段と、前記空間モデルを記憶する記憶手段と、前記計測手段による計測値と前記空間モデルとに基づいて演算処理を行い、前記表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示手段と、を備えたものである。   An image composition apparatus according to the present invention is an image composition apparatus that superimposes a virtual space image created based on a space model having space information on a real space image obtained by capturing a real space and displays the image on a display screen. Based on the image acquisition means for acquiring the real space image, the measurement means for measuring the position and orientation of the image acquisition means, the storage means for storing the space model, the measurement value by the measurement means and the space model The image creation means for creating the virtual space image so as to become a perspective view displayed in perspective on the display screen, the real space image displayed in perspective, and the virtual space image displayed in perspective And display means for superimposing and displaying on the display screen.

本願発明の画像合成装置は、空間モデルが、目視可能な可視物の空間情報と、目視できない不可視物の空間情報と、を含み、画像作成手段は、前記可視物の仮想空間画像と前記不可視物の仮想空間画像を作成し、さらに、前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御手段を備えたものとすることもできる。   In the image synthesizing apparatus according to the present invention, the spatial model includes spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and the image creating means includes the virtual space image of the visible object and the invisible object. And a display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object.

本願発明の画像合成装置は、同一の目視可能な可視物についての仮想空間画像と実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整手段を、備えたものとすることもできる。   The image composition device of the present invention displays the virtual space image and the real space image when the display positions of the virtual space image and the real space image for the same visible visible object do not match on the display screen. Display position adjusting means for moving the virtual space image so that the positions coincide or substantially coincide with each other on the display screen may be provided.

この場合、表示位置調整手段が、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整することもできる。   In this case, the display position adjusting means automatically extracts the shape feature portion based on the image feature portion of the real space image, and automatically detects the matching portion to be matched with the shape feature portion from the virtual space image of the visible object. In addition, the display position of the virtual space image can be automatically adjusted so that the positions on the display image of the shape feature portion and the collation portion match or substantially match.

本願発明の画像合成装置は、表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。   In the image composition device according to the present invention, the display means displays a figure or / and attribute information relating to a virtual space image, and the display control means displays or hides the figure or / and attribute information. You can also

本願発明の画像合成プログラムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示させる画像合成プログラムであって、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶した記憶手段から、この空間モデルを取得するモデル読み込み機能と、計測により得た画像取得手段の位置及び姿勢を取得する計測値読み込み機能と、前記画像取得手段の位置及び姿勢と前記空間モデルとに基づいて、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成する画像作成機能と、遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示機能と、前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御機能と、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整機能と、をコンピュータに実行させるものである。   The image composition program of the present invention is an image composition program that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen. A model reading function for acquiring this spatial model and the position and orientation of the image acquisition means obtained by measurement are acquired from a storage means storing a spatial model including spatial information of visible objects and spatial information of invisible objects that cannot be viewed. Based on the measurement value reading function, the position and orientation of the image acquisition means, and the space model, the virtual space image of the visible object and the invisible object of the invisible object are displayed in a perspective view displayed on the display screen. An image creation function for creating a virtual space image, the real space image displayed in perspective, and the virtual space image displayed in perspective are superimposed on the display screen. A display function for displaying, a virtual space image for the visible object, and a display control function for selecting or displaying the virtual space image for the invisible object, the virtual space image for the same visible object, and the actual display. When the display position of the space image does not match on the display screen, the virtual space image is moved so that the display position of the virtual space image and the real space image match or substantially match on the display screen. The display position adjustment function is executed by a computer.

本願発明の画像合成プログラムは、表示位置調整機能が、実空間画像のうちの画像の特徴部に基づいて、形状特徴部を抽出する特徴部抽出機能と、前記形状特徴部と照合する照合部分を、可視物の仮想空間画像から検出する照合部分検出機能と、前記形状特徴部と前記照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を調整する位置調整機能と、を備えたものとすることもできる。   In the image composition program of the present invention, the display position adjustment function includes a feature portion extraction function for extracting a shape feature portion based on an image feature portion of a real space image, and a matching portion for matching with the shape feature portion. A matching part detection function for detecting from a virtual space image of a visible object, and a position adjustment for adjusting the display position of the virtual space image so that the positions of the shape feature part and the matching part on the display image match or substantially match It is also possible to provide a function.

本願発明の画像合成プログラムは、表示機能が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御機能が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。   In the image composition program of the present invention, the display function displays a figure or / and attribute information related to a virtual space image, and the display control function displays or hides the figure or / and attribute information. You can also

本願発明の画像合成システムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値がサーバに伝送され、前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成するとともに、これらの仮想空間画像を当該端末機に伝送し、前記仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示され、同一の可視物についての仮想空間画像と実空間画像との表示位置が、前記表示画面上で一致しない場合に、前記端末機が備える表示位置調整手段によって、前記仮想空間画像と前記実空間画像の表示位置が表示画面上で一致又は略一致するように、前記仮想空間画像を移動させ得るものである。   An image composition system of the present invention is an image composition system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space, and displays the image on a display screen. The server includes one or two or more terminals connected to the server via a wireless or wired communication line, and the server includes space information of visible objects that are visible and space information of invisible objects that are not visible. Storage means for storing a model, image creation means for creating the virtual space image so as to become a perspective view displayed on the display screen of the terminal, and communication means, the terminal, Image acquisition means for acquiring a real space image, measurement means for measuring the position and orientation of the image acquisition means, display means for displaying the real space image and the virtual space image on a display screen, and the visible object Display control means for selecting and displaying a virtual space image and a virtual space image of the invisible object, and communication means, and when the terminal user requests the server, the terminal measurement The measurement value by the means is transmitted to a server, and the server, based on the request of the user of the terminal, based on the measurement value of the terminal and the space model, the virtual space image of the visible object and the invisible object And the virtual space image is transmitted to the terminal, and the display screen of the terminal that has received the virtual space image is displayed in perspective with the real space image displayed in perspective. When the display position of the virtual space image and the real space image for the same visible object are displayed in a superimposed manner and the display positions of the virtual space image do not match on the display screen, the display position included in the terminal The adjusting means such that said display position of the virtual space image the real space image matches or nearly matches on the display screen, it is capable to move the virtual space image.

本願発明の画像合成システムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値と、当該端末の画像取得手段による実空間画像と、がサーバに伝送され、前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成し、さらに前記サーバは、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が前記表示画面上で一致しない場合に、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整したうえで、可視物の仮想空間画像と不可視物の仮想空間画像とを前記端末機に伝送し、仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示されるものとすることもできる。   An image composition system of the present invention is an image composition system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space, and displays the image on a display screen. The server includes one or two or more terminals connected to the server via a wireless or wired communication line, and the server includes space information of visible objects that are visible and space information of invisible objects that are not visible. Storage means for storing a model, image creation means for creating the virtual space image so as to become a perspective view displayed on the display screen of the terminal, and communication means, the terminal, Image acquisition means for acquiring a real space image, measurement means for measuring the position and orientation of the image acquisition means, display means for displaying the real space image and the virtual space image on a display screen, and the visible object Display control means for selecting and displaying a virtual space image and a virtual space image of the invisible object, and communication means, and when the terminal user requests the server, the terminal measurement The measured value by the means and the real space image by the image acquisition means of the terminal are transmitted to the server, and the server determines the measured value of the terminal and the space model in response to a request of the user of the terminal. And the server creates a virtual space image of the visible object and a virtual space image of the invisible object, and the server displays the display position of the virtual space image and the real space image for the same visible object in the display. If they do not match on the screen, the shape feature is automatically extracted based on the image feature of the real space image, and the matching portion to be matched with the shape feature is automatically extracted from the virtual space image of the visible object. After detecting and automatically adjusting the display position of the virtual space image so that the position on the display image of the shape feature portion and the matching portion match or substantially match, the virtual space image of the visible object and the virtual space of the invisible object are In the display screen of the terminal that transmits the space image to the terminal and receives the virtual space image, the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed. It can also be.

本願発明の画像合成システムは、表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。   In the image composition system of the present invention, the display means displays a figure or / and attribute information relating to a virtual space image, and the display control means displays or hides the figure or / and attribute information. You can also

本願発明の画像合成装置、画像合成プログラム、及び画像合成システムには、次のような効果がある。
(1)資料収集や現地測量などの労力を要することなく、現地で不可視物を容易に確認することができる。
(2)また、現地で不可視物を表示するためのマーカーを必要としないので、現地の美観を保つことができる。
(3)実空間画像の画像に合わせた遠近感で仮想空間画像を表示するので、極めて直感的に不可視物を把握することができる。
(4)同一の可視物で仮想空間画像と実空間画像の表示位置を合わせることで、不可視物の仮想空間画像の表示位置精度も向上するので、例えば道路下を掘削する場合でも地下埋設物を損傷させることがない。
(5)仮想空間画像に関する図面や属性情報を表示することで、不可視物の存在する位置のほか、例えば地下埋設物の種類や所有者など有用な情報も確認できるので好適である。
The image composition device, the image composition program, and the image composition system of the present invention have the following effects.
(1) Invisible objects can be easily confirmed locally without the need for labor, such as data collection and field surveying.
(2) Moreover, since the marker for displaying an invisible object is not required locally, the local beauty can be maintained.
(3) Since the virtual space image is displayed with a perspective that matches the image of the real space image, it is possible to grasp an invisible object extremely intuitively.
(4) By matching the display position of the virtual space image and the real space image with the same visible object, the display position accuracy of the virtual space image of the invisible object is also improved. For example, even when excavating under the road, There is no damage.
(5) Displaying drawings and attribute information related to a virtual space image is preferable because it can confirm useful information such as the type and owner of an underground object in addition to the position where an invisible object exists.

道路を端末機で撮影している状況を示す説明図。Explanatory drawing which shows the condition which is image | photographing the road with a terminal device. (a)は端末機のモニタ側を示す図、(b)は端末機の背面側(カメラ側)を示す図。(A) is a figure which shows the monitor side of a terminal, (b) is a figure which shows the back side (camera side) of a terminal. (a)は用地境界を線として作成した場合の仮想空間画像を示す図、(b)は用地境界を面として作成した場合の仮想空間画像を示す図。(A) is a figure which shows the virtual space image at the time of creating a site boundary as a line, (b) is a figure which shows the virtual space image at the time of creating the site boundary as a surface. 下水管3Vに関する平面図が表示されたモニタを示す図。The figure which shows the monitor with which the top view regarding the sewer pipe 3V was displayed. カメラで撮影した実空間画像と仮想空間画像(センターラインと下水管)を重畳表示したモニタを示す図。The figure which shows the monitor which superimposed and displayed the real space image and virtual space image (center line and the sewer pipe) which were image | photographed with the camera. 形成要素を指定してモニタ上の仮想空間画像を移動させる方法を説明するための説明図。Explanatory drawing for demonstrating the method of designating a formation element and moving the virtual space image on a monitor. 仮想空間画像を回転移動させる方法を説明するための説明図。Explanatory drawing for demonstrating the method to rotate and move a virtual space image. 道路下の埋設状況を模式的に示した説明図。Explanatory drawing which showed the burial condition under the road typically. 道路で現地調査を実施している状況を示した説明図。Explanatory diagram showing the situation of conducting field surveys on the road. 道路上に地下埋設物の平面配置を白線で示した説明図。Explanatory drawing which showed the planar arrangement | positioning of the underground burying object on the road with the white line.

(実施形態)
本願発明の画像合成装置、画像合成プログラム、及び画像合成システムの一実施形態を図に基づいて以下説明する。
(Embodiment)
One embodiment of an image composition device, an image composition program, and an image composition system of the present invention will be described below with reference to the drawings.

(全体概要)
図1は道路を端末機1で撮影している状況を示す説明図であり、図2(a)は端末機1のモニタ側を示す図であり、(b)は端末機1の背面側(カメラ側)を示す図である。図1に示すように、センターライン2が敷設された道路の下には下水管3が埋設されており、いま端末機1の使用者(以下、「ユーザ」という。)が歩道上から目の前の光景を撮影している。図2(a)(b)に示すように、端末機1にはカメラ1a(画像取得手段)が内蔵されており、端末機1の表面にはモニタ1b(表示画面)が設けられている。なお便宜上、図1では下水管3を破線で表示しているが、もちろんユーザに下水管3は見えていない。
(Overview)
FIG. 1 is an explanatory view showing a situation where a road 1 is photographed with a terminal 1, FIG. 2 (a) is a diagram showing a monitor side of the terminal 1, and FIG. 1 (b) is a back side of the terminal 1 ( It is a figure which shows the camera side. As shown in FIG. 1, a sewage pipe 3 is buried under the road where the center line 2 is laid, and a user of the terminal 1 (hereinafter referred to as “user”) can see from the sidewalk. Shooting the previous sight. As shown in FIGS. 2A and 2B, the terminal 1 has a built-in camera 1 a (image acquisition means), and a monitor 1 b (display screen) is provided on the surface of the terminal 1. For convenience, the sewer pipe 3 is indicated by a broken line in FIG. 1, but the sewer pipe 3 is not visible to the user.

図2(a)に示すように、ユーザが撮影したモニタ1bには実際の空間に存在するもの(以下、「実在物」という。)、すなわち車道、歩道、電柱、建物などを撮影した画像(以下、実在物の画像を「実空間画像」という。)が表示されており、車道のセンターライン2も実空間画像(センターライン2R)として表示されている。もちろん実在物には、ここで例示した車道、歩道、電柱、建物、車道のセンターライン2に限られず、電柱に掛けてある電線類や、構造物内の鉄筋など、実際の空間に存在するあらゆるものが含まれることはいうまでもない。また、後に説明する空間モデルに基づいて作成された仮想上のモデル(以下、「仮想空間モデル」という。)を画像化したもの(以下、仮想空間モデルの画像を「仮想空間画像」という。)も、モニタ1bに表示される。図2(a)では、下水管3の仮想空間モデルを画像化した仮想空間画像(下水管3V)を表示している。なお便宜上、センターラインを実在物として表現する場合は「センターライン2」と数字のみの記号で表し、センターラインを実空間画像として表現する場合は「センターライン2R」とRを添えた記号で表し、後に説明するようにセンターラインを仮想空間画像として表現する場合は「センターライン3V」とVを添えた記号で表すこととする。同様に、下水管を実在物として表現する場合は「下水管3」と表し、下水管を仮想空間画像として表現する場合は「下水管3V」と表す。   As shown in FIG. 2 (a), the monitor 1b taken by the user has an image of what is present in the actual space (hereinafter referred to as "real thing"), that is, a roadway, a sidewalk, a utility pole, a building, etc. Hereinafter, an image of a real thing is referred to as “real space image”), and the center line 2 of the roadway is also displayed as a real space image (center line 2R). Of course, the actual thing is not limited to the centerline 2 of the roadway, the sidewalk, the power pole, the building, and the roadway exemplified here, but all the wires existing in the actual space such as the electric wires hung on the power pole and the reinforcing bars in the structure. It goes without saying that things are included. Also, an image of a virtual model (hereinafter referred to as “virtual space model”) created based on a space model described later (hereinafter, an image of the virtual space model is referred to as “virtual space image”). Is also displayed on the monitor 1b. In Fig.2 (a), the virtual space image (sewer pipe 3V) which imaged the virtual space model of the sewer pipe 3 is displayed. For the sake of convenience, the center line is represented by “centre line 2” and a symbol with only numerals when represented as a real object, and the “center line 2R” and symbol with R added when representing the center line as a real space image. As will be described later, when the center line is represented as a virtual space image, it is represented by a symbol with “center line 3V” and V appended thereto. Similarly, when the sewer pipe is expressed as an actual entity, it is expressed as “sewage pipe 3”, and when the sewer pipe is expressed as a virtual space image, it is expressed as “sewer pipe 3V”.

(端末機)
図2(a)に示す端末機1について説明する。端末機1は少なくとも、カメラ1a(画像取得手段)と、図示しないセンサ(計測手段)と、モニタ1b(表示画面)と、電子計算機(以下、「コンピュータ」という。)を備えている。この端末機1は、人が携帯しやすい小型のものが望ましく、カメラとセンサを内蔵する市販の携帯電話機や携帯型コンピュータを利用することができるが、その他デジタルカメラを改造したもの、あるいは専用に作成されたものを用いることもできる。
(Terminal)
The terminal 1 shown in FIG. 2 (a) will be described. The terminal 1 includes at least a camera 1a (image acquisition means), a sensor (measurement means) (not shown), a monitor 1b (display screen), and an electronic computer (hereinafter referred to as “computer”). The terminal 1 is preferably a small one that can be easily carried by a person, and a commercially available mobile phone or a portable computer with a built-in camera and sensor can be used. The created one can also be used.

端末機1のカメラ1aで撮影される画像はモニタ1bで表示されるが、カメラ1aを向けた方向の光景が常に表示され、カメラ1aの動きにも追随して表示される、いわゆるライブビューで表示される。もちろんシャッターを操作することで静止画として取得することもできる。   An image captured by the camera 1a of the terminal 1 is displayed on the monitor 1b, but a scene in a direction toward the camera 1a is always displayed, and is displayed in accordance with the movement of the camera 1a, so-called live view. Is displayed. Of course, it can also be acquired as a still image by operating the shutter.

端末機1のセンサは、カメラ1a位置情報を計測する位置計測センサと、カメラ1aの姿勢を計測する姿勢計測センサの、大きく2種類に分けられる。   The sensors of the terminal 1 are roughly classified into two types: a position measurement sensor that measures position information of the camera 1a and an attitude measurement sensor that measures the attitude of the camera 1a.

位置計測センサは、カメラ1aの位置座標を取得するもので、ここでいう位置座標とは3次元座標(X,Y,Z)のこと(もちろん、緯度と経度と標高でもよい)を意味する。位置計測センサとしてはGPSが代表的であるが、その他、無線LANのアクセスポイントを利用する測位方法(Place Engineなど)、LEDの高速点滅を信号として伝送する可視光通信を利用した測位方法、室内にGPSを配置して測位するIMES(Indoor Messaging System)、QRコードやビジュアル・マーカー(ARToolKitなどで利用されるマーカー)やRFIDタグなどから位置情報を取得する測位方法、赤外線通信を利用した測位方法など、公知の測位技術を利用することができる。もちろん、屋外用としてGPSを、屋内用として無線LAN方式を併用するなど、種々の測位方法を組み合わせて利用することもできる。   The position measuring sensor acquires the position coordinates of the camera 1a, and the position coordinates here mean three-dimensional coordinates (X, Y, Z) (of course, latitude, longitude, and altitude may be used). GPS is a representative position measurement sensor, but in addition, a positioning method using a wireless LAN access point (such as Place Engine), a positioning method using visible light communication that transmits LED blinking as a signal, indoors Positioning method to acquire position information from IMES (Indoor Messaging System), QR code, visual marker (marker used in ARTToolKit), RFID tag, etc., positioning using infrared communication For example, a known positioning technique can be used. Of course, various positioning methods can be used in combination, such as GPS for outdoor use and a wireless LAN system for indoor use.

姿勢計測センサは、カメラ1aの姿勢を取得するもので、ここでいう姿勢とはカメラ1aの向いている方向であり傾きのことを意味する。より具体的には、水平面の左右軸をX軸、水平面の前後軸をY軸、鉛直軸をZ軸とすると、X軸回りの回転ω(ピッチ)、Y軸回りの回転φ(ロール)、Z軸回りの回転κ(ヨー)が姿勢を決定する要素である。姿勢計測センサとしては、Z軸回りの回転κつまり方位を計測する地磁気センサ(電子コンパス)や、X軸回りの回転ωやY軸回りの回転φを計測する加速度センサが代表的であるが、その他ジャイロセンサなど公知の技術を利用することもできる。電子コンパスと加速度センサの両方を内蔵した、いわゆる6軸センサ内蔵の携帯電話端末も市販されているので、このような端末機を利用すると好適である。   The posture measurement sensor acquires the posture of the camera 1a, and the posture here refers to the direction in which the camera 1a is facing and the tilt. More specifically, if the horizontal axis is the X axis, the horizontal axis is the Y axis, and the vertical axis is the Z axis, the rotation ω (pitch) around the X axis, the rotation φ (roll) around the Y axis, The rotation κ (yaw) around the Z axis is an element that determines the posture. Typical posture measurement sensors include a geomagnetic sensor (electronic compass) that measures rotation κ around the Z axis, that is, an orientation, and an acceleration sensor that measures rotation ω around the X axis and rotation φ around the Y axis. Other known techniques such as a gyro sensor can also be used. Since a mobile phone terminal incorporating a so-called 6-axis sensor and incorporating both an electronic compass and an acceleration sensor is also commercially available, it is preferable to use such a terminal.

(仮想空間画像)
仮想空間画像について説明する。先にも説明したように仮想空間画像とは、空間モデルを演算処理することで作成される仮想空間モデルを、さらに画像化したものである。
(Virtual space image)
The virtual space image will be described. As described above, the virtual space image is a further image of a virtual space model created by processing the space model.

空間モデルとは、地物を地球上の特定の位置、特定の形状や大きさで表現するための空間情報の集合を意味する。なお、ここでいう空間情報とは、座標や緯度経度など地物の位置を表現するための情報のことであり、2次元座標(X,Y)や3次元座標(X,Y,Z)が例示できる。さらに、ここでいう地物とは、空間情報によって表現することのできる物という程度の意味であり、実存する物(実在物)に限定されものではない。例えば、 土地の境界や村市町村界、未施工の道路やマンションなど計画中の構造物、土砂災害警戒区域や地すべり指定地などの危険区域、といった人の概念上作られたもの(概念物)も、空間情報によって特定の位置や特定の形状・大きさを表現することができればすべて地物である。   A spatial model means a set of spatial information for expressing a feature with a specific position, a specific shape and size on the earth. The spatial information here is information for expressing the position of a feature such as coordinates and latitude / longitude, and two-dimensional coordinates (X, Y) and three-dimensional coordinates (X, Y, Z) are used. It can be illustrated. Further, the term “feature” as used herein means a level that can be expressed by spatial information, and is not limited to a real thing (real thing). For example, things created based on human concepts (concepts) such as land boundaries, villages, towns and villages, unstructured roads and condominiums, planned structures such as landslide disaster warning areas and landslide designated areas If a specific position and a specific shape / size can be expressed by spatial information, all are features.

また、実在物は、図1のセンターライン2のように実際に目視できる可視物と、下水管3のように実際には目視できない不可視物とに分けることができるが、可視物、不可視物のいずれも空間情報によって特定の位置や特定の形状・大きさを表現することができるので地物である。すなわち空間モデルは、実在物(可視物と不可視物)や概念物といった地物に関する空間情報の集合である。   In addition, the actual objects can be divided into visible objects that can be visually observed like the center line 2 in FIG. 1 and invisible objects that are not actually visible such as the sewer pipe 3. Any of them is a feature because a specific position, a specific shape and size can be expressed by spatial information. That is, the spatial model is a set of spatial information related to features such as real objects (visible and invisible) and conceptual objects.

空間モデルの一例として、地表面(地物)をモデル化した「数値標高モデル」を挙げることができる。数値標高モデルとは、3次元の点群データにより構成されたモデルであり、DEM(Digital Elevation Model)やDSM(Digital Surface Model)などが知られている。もちろん、空間モデルとしては、3次元の点群データに基づくものに限らず、2次元の点群データから成る平面メッシュのようなものでもよいし、線分を表すための2点の平面座標や、線分を定義する1点の平面座標と方向と長さといった空間情報の集合であってもよい。   As an example of the space model, a “numerical elevation model” in which the ground surface (feature) is modeled can be cited. The digital elevation model is a model composed of three-dimensional point cloud data, and DEM (Digital Elevation Model), DSM (Digital Surface Model), and the like are known. Of course, the spatial model is not limited to the one based on the three-dimensional point cloud data, but may be a plane mesh composed of the two-dimensional point cloud data, the two-point plane coordinates for representing the line segment, Also, it may be a set of spatial information such as the plane coordinates, direction, and length of one point that defines the line segment.

空間モデルは、データベースとしてコンピュータの記憶領域などに記憶される(記憶手段)。この空間モデルのデータベースから必要な空間情報を取得して、所定の演算処理を行い、地物の特定の位置、特定の形状や大きさを求める。ここで求められたものが仮想空間モデルである。なお、前記したとおり地物には実在物(可視物と不可視物)が含まれ、すなわち実在物が仮想空間モデルとして作成される場合があるが、計算によって求めたという意味で「仮想」という語を用いており、たとえ実在物であっても空間モデルから作成されたものは仮想空間モデルと呼ぶ。   The spatial model is stored as a database in a storage area of a computer (storage means). Necessary spatial information is acquired from the database of the spatial model, and predetermined calculation processing is performed to obtain a specific position, a specific shape, and a size of the feature. What is obtained here is a virtual space model. Note that as described above, features include real objects (visible objects and invisible objects), that is, real objects may be created as a virtual space model, but the term “virtual” means that it is obtained by calculation. Even if it is a real thing, what was created from the space model is called a virtual space model.

仮想空間モデルから、端末機1のモニタ1bに表示するための画像、すなわち仮想空間画像が作成される。カメラ1aで撮影している場所の仮想空間画像をモニタ1b上に表示すれば、目視だけでは得られない情報も同時に取得することができるので極めて有益である。このとき仮想空間画像は、モニタ1b上でも実際に存在している位置に表示されることが望ましい。例えば、実際には下水管3は道路左側に埋設されているにもかかわらず、モニタ1b上では下水管3V(仮想空間画像)が車道の右側に表示されたのでは、却って混乱することとなる。   An image to be displayed on the monitor 1b of the terminal 1, that is, a virtual space image is created from the virtual space model. If a virtual space image of a place taken by the camera 1a is displayed on the monitor 1b, information that cannot be obtained only by visual observation can be obtained at the same time, which is extremely useful. At this time, it is desirable that the virtual space image is displayed at a position that actually exists on the monitor 1b. For example, even though the sewage pipe 3 is actually buried on the left side of the road, if the sewage pipe 3V (virtual space image) is displayed on the right side of the roadway on the monitor 1b, it will be confused. .

さらに図2(a)に示すように、モニタ1bに表示される実空間画像は、実際に見た状態、すなわち遠近感を表現した状態で表示されている(以下、遠近感を表現した状態での表示を、「遠近表示」という。)ため、仮想空間画像も遠近表示としなければ誤解を招くおそれがある。仮に、図2(a)で下水管3Vのみモニタ1bの縦枠と平行に表示したとすると、下水管3Vは道路から外れて埋設されたと誤認されることになる。なおこれまでも、実際に撮影した「もの」に関連する情報を、モニタ1b上でその「もの」が表示されている付近にタグで表示することは行われてきたが、タグなど「点」の情報とは異なり、「線」や「面」の地物を実空間画像に表示する場合は、単に位置を合わせるだけでなく、その表示方法にも工夫しなければならない。   Further, as shown in FIG. 2A, the real space image displayed on the monitor 1b is displayed in an actually viewed state, that is, in a state expressing perspective (hereinafter, in a state expressing perspective). Therefore, if the virtual space image is not displayed in the perspective, there is a risk of misunderstanding. If only the sewage pipe 3V is displayed in parallel with the vertical frame of the monitor 1b in FIG. 2A, it is mistaken that the sewage pipe 3V is buried off the road. In the past, information related to actually photographed “things” has been displayed on the monitor 1b in the vicinity where the “thing” is displayed. Unlike the above information, when displaying the feature of “line” or “surface” in the real space image, not only the position but also the display method must be devised.

そこで本願発明では、仮想空間画像についても、実際に撮影すれば表示されるであろう状態でモニタ1bに表示することとしている。つまり図2(a)に示す下水管3V(仮想空間画像)の場合で説明すれば、モニタ1bに表示される実空間画像の中において、実際に埋設されている平面位置に下水管3Vを表示するとともに、実空間画像のように(例えば車道や歩道のように)遠近表示するものである。   Therefore, in the present invention, the virtual space image is also displayed on the monitor 1b in a state that would be displayed if it was actually taken. That is, in the case of the sewage pipe 3V (virtual space image) shown in FIG. 2A, the sewage pipe 3V is displayed at the plane position where it is actually embedded in the real space image displayed on the monitor 1b. At the same time, a perspective view is displayed like a real space image (for example, like a roadway or a sidewalk).

このとき、仮想モデルは実空間における空間情報(座標)しか持たないので、このままではモニタ1b上のどの位置(どの画素)に表示すべきかが不明である。そのため、例えばモニタ1b上で任意の座標系を設定し、仮想空間モデルが持つ実空間座標をモニタ1bの任意座標系に変換するなど、仮想空間モデルをモニタ1b上のどの位置にどのような形状で表現すべきか定める必要がある。   At this time, since the virtual model has only spatial information (coordinates) in the real space, it is unclear at which position (which pixel) the monitor 1b should be displayed. Therefore, for example, an arbitrary coordinate system is set on the monitor 1b, and the real space coordinates of the virtual space model are converted into the arbitrary coordinate system of the monitor 1b. It is necessary to decide whether or not to express it.

また、仮想空間画像を遠近表示させるためには、実空間画像における遠近の状態を把握する必要があり、この遠近状態で設定されるモニタ1b上の任意座標系と実空間での座標系との幾何学的関係を求める必要がある。実空間画像における遠近の状態は、一般に遠近法を使って把握することができる。この遠近法とは、絵画だけでなく設計図やカメラなど平面に表示する様々な分野で利用されている技術であり、近年ではコンピュータグラフィックス(CG)でも多用されている。実空間に存在する3次元のものを、2次元の平面上に立体的に(立体感を感得できるように)表現する手法が遠近法であり、この遠近法によって表現されたものは「透視図」と呼ばれる。例えば図2(a)の実空間画像は、一つの消失点に向けてあらゆる線が収束しているように遠近表示された透視図である。   In addition, in order to display a virtual space image in perspective, it is necessary to grasp the perspective state in the real space image, and between the arbitrary coordinate system on the monitor 1b set in this perspective state and the coordinate system in the real space. It is necessary to obtain a geometric relationship. The perspective state in the real space image can generally be grasped by using the perspective method. This perspective is a technique that is used not only in paintings but also in various fields for displaying on a plane such as a design drawing or a camera. In recent years, it is also widely used in computer graphics (CG). A method of expressing a three-dimensional object existing in real space three-dimensionally (so that a three-dimensional effect can be obtained) on a two-dimensional plane is a perspective method. Called “Figure”. For example, the real space image of FIG. 2A is a perspective view displayed in perspective so that all lines converge toward one vanishing point.

実空間画像で表現された地物は実在物であるから当然実空間の座標を持っており、これら実在物の実空間座標がモニタ1b上でどのように表示されているかを把握することによって、モニタ1b上の任意座標系を定めることができる。これについては、カメラ1aの実空間座標、カメラ1aの姿勢、カメラ1aの仕様(画角や焦点距離など)から光学的に求めることができる。なお、カメラ1aの実空間座標は位置計測センサで計測した3次元座標(X,Y,Z)を用いることができるし、カメラ1aの姿勢は姿勢計測センサで計測した値(ω,φ,κ)を用いることができる。   Since the feature expressed in the real space image is a real thing, it naturally has the coordinates of the real space, and by grasping how the real space coordinates of these real things are displayed on the monitor 1b, An arbitrary coordinate system on the monitor 1b can be determined. This can be optically determined from the real space coordinates of the camera 1a, the attitude of the camera 1a, and the specifications (view angle, focal length, etc.) of the camera 1a. The real space coordinates of the camera 1a can use three-dimensional coordinates (X, Y, Z) measured by the position measurement sensor, and the posture of the camera 1a can be values (ω, φ, κ) measured by the posture measurement sensor. ) Can be used.

実空間画像で表現された実在物の実空間座標に基づいてモニタ1b上の任意座標系を定めると、実空間座標をこの任意座標系で表すことができ、同様に、空間情報を持つ仮想空間モデルもモニタ1b上の任意座標系で表すことができる。このように、仮想空間モデルをモニタ1b上の任意座標系に配置し、モニタ1bに表示するために作成されたものが仮想空間画像である。なお仮想空間画像は、実際には、コンピュータで処理するためのデータで、モニタ1b上における配置情報(どの画素に対応するか)や輝度情報(RGBなど)などのデータから成るものであるが、便宜上、モニタ1bで表示された結果目視できる状態となったものを仮想空間画像と呼ぶ。   When an arbitrary coordinate system on the monitor 1b is determined based on real space coordinates of a real object represented by a real space image, the real space coordinates can be expressed by the arbitrary coordinate system, and similarly, a virtual space having spatial information. The model can also be expressed in an arbitrary coordinate system on the monitor 1b. Thus, the virtual space image is created by arranging the virtual space model in the arbitrary coordinate system on the monitor 1b and displaying it on the monitor 1b. The virtual space image is actually data to be processed by a computer, and is composed of data such as arrangement information (which pixel corresponds to) on the monitor 1b and luminance information (RGB, etc.). For the sake of convenience, an image that is visible as a result of being displayed on the monitor 1b is referred to as a virtual space image.

(モニタでの表示)
モニタ1b上の任意座標系で配置された実空間画像は遠近表示された透視図の状態となっているので、同じく、仮想空間モデルをモニタ1b上の任意座標系に配置した仮想空間画像も遠近表示された透視図となる。これら遠近表示された実空間画像と遠近表示された仮想空間画像をモニタ1bに重畳して表示させると、図2(a)に示すように、仮想空間画像(下水管3V)と車道や歩道との位置関係が直感的に把握できるので極めて有益である。
(Display on monitor)
Since the real space image arranged in the arbitrary coordinate system on the monitor 1b is in a perspective view displayed in perspective, the virtual space image in which the virtual space model is arranged in the arbitrary coordinate system on the monitor 1b is also perspective. It becomes the displayed perspective view. When the perspective-displayed real space image and the perspective-displayed virtual space image are superimposed and displayed on the monitor 1b, as shown in FIG. 2A, the virtual space image (the sewer pipe 3V), the roadway and the sidewalk are displayed. It is extremely useful because the positional relationship between the two can be grasped intuitively.

ユーザが、端末機1の「表示ボタン」を操作するなど、仮想空間画像を表示する旨を端末機1に伝達すると、センサ(位置計測センサ、姿勢計測センサ)による計測値や空間モデルを基に仮想空間画像が作成され、この仮想空間画像がモニタ1bに表示される。仮想空間画像の作成は端末機1が行ってもよいし、端末機1と通信可能なサーバを設け、このサーバで仮想空間画像を作成させ端末機1に配信させてもよい。モニタ1bに表示された仮想空間画像は、次の操作(例えば、次の「表示ボタン」操作)があるまで同じものが表示される。なお、仮想空間画像のモニタ1b表示は、ユーザの操作によるタイミングに限らず、センサが計測値を取得したタイミングで随時自動的に行うようにしてもよい。   When the user communicates to the terminal 1 that a virtual space image is to be displayed, such as by operating the “display button” of the terminal 1, based on the measurement values and the space model by the sensors (position measurement sensor, attitude measurement sensor). A virtual space image is created, and this virtual space image is displayed on the monitor 1b. The creation of the virtual space image may be performed by the terminal 1, or a server capable of communicating with the terminal 1 may be provided, and the virtual space image may be created by this server and distributed to the terminal 1. The virtual space image displayed on the monitor 1b is displayed until the next operation (for example, the next “display button” operation) is performed. Note that the display of the virtual space image on the monitor 1b is not limited to the timing according to the user's operation, and may be automatically performed at any time when the sensor acquires the measurement value.

仮想空間画像は、図2(a)のような実在物を基に作成された下水管3Vに限らず、図3(a)に示すように、用地境界線4Vのように概念物を基に作成することもできる。また、用地境界線に任意の幅(高さ)を持たせることにより、用地境界線を面として、すなわち図3(b)に示す用地境界面5Vとして表示させることもできる。あるいは、空間モデルが道路の断面図を作成することのできる空間情報を備えていれば、図8に示すように道路の一部をあたかも掘削したかのように表示することもできる。このように、実空間画像の遠近表示に合わせた透視図として作成された仮想空間画像を、実空間画像と重畳して表示することができれば、現地にて端末機1をかざすだけで、用地測量を実施することなく用地境界を目視で確認できて、また実際に掘削することなく道路下を目視で確認することができるので、極めて有益である。   The virtual space image is not limited to the sewage pipe 3V created based on the actual object as shown in FIG. 2A, but based on the conceptual object such as the land boundary line 4V as shown in FIG. 3A. It can also be created. Further, by giving the site boundary line an arbitrary width (height), the site boundary line can be displayed as a plane, that is, as the site boundary surface 5V shown in FIG. Alternatively, if the spatial model has spatial information that can create a sectional view of a road, it can be displayed as if a part of the road was excavated as shown in FIG. In this way, if a virtual space image created as a perspective view adapted to the perspective display of the real space image can be displayed superimposed on the real space image, the land surveying can be performed only by holding the terminal 1 at the site. It is extremely useful because the land boundary can be visually confirmed without carrying out the inspection, and the road below can be visually confirmed without actually excavating.

空間モデルは、不可視物や概念物に限らず、可視物についての空間情報を有する場合もある。可視物は、カメラ1aで撮影され、実空間画像としてモニタ1bに表示されるので、空間モデルがこの可視物に関する空間情報を持つ場合、同一の可視物について実空間画像と仮想空間画像の両方がモニタ1bに表示されることとなる。例えば、ある建物を撮影すると、この建物の実空間画像が表示されるが、さらにこの建物の仮想空間画像が重ねて表示されると、その表示は煩雑で分かりにくい。そこで、面(あるいは面を組み合わせた)形状の仮想空間画像については、種々の表示方法を選択できるようにすると好適である。例えば、仮想空間画像にテクスチャを貼り付けて実空間画像にオーバーレイ表示する方法、仮想空間画像を半透明など透過させて表示する方法、面の外郭線のみで表示する方法、あるいは格子線からなるメッシュで表示する方法、などが挙げられる。   The spatial model is not limited to invisible objects and conceptual objects, and may have spatial information about visible objects. Since the visible object is photographed by the camera 1a and displayed on the monitor 1b as a real space image, when the space model has spatial information about the visible object, both the real space image and the virtual space image are the same for the visible object. It will be displayed on the monitor 1b. For example, when a certain building is photographed, a real space image of the building is displayed. However, when a virtual space image of the building is displayed in a superimposed manner, the display is complicated and difficult to understand. Therefore, it is preferable that various display methods can be selected for a virtual space image having a surface (or a combination of surfaces). For example, a method of pasting a texture on a virtual space image and overlaying it on a real space image, a method of displaying a virtual space image through translucency or the like, a method of displaying only the outline of a surface, or a mesh consisting of grid lines The method of displaying with is mentioned.

また、モニタ1b上で実空間画像と重畳表示される仮想空間画像については、選択的に表示させることもできる。具体的には、ユーザが端末機1を操作することで、仮想空間画像の表示状態を選択すれば実空間画像と仮想空間画像がモニタ1b上で重畳表示され、仮想空間画像の非表示状態を選択すればモニタ1b上では実空間画像のみが表示されることとなる。つまり、ユーザの必要に応じて仮想空間画像を表示/非表示とすることができるわけである。   Further, the virtual space image superimposed on the real space image on the monitor 1b can be selectively displayed. Specifically, when the user operates the terminal 1 and selects the display state of the virtual space image, the real space image and the virtual space image are superimposed on the monitor 1b, and the non-display state of the virtual space image is displayed. If selected, only the real space image is displayed on the monitor 1b. That is, the virtual space image can be displayed / hidden as required by the user.

さらに、仮想空間画像を地物ごとに識別できるようにしておけば、地物単位で表示/非表示とすることができる。例えば、モニタ1bに建物(可視物)の実空間画像が表示され、さらにその建物の仮想空間画像と用地境界線の仮想空間画像が表示された状態から、建物の仮想空間画像のみを選択して非表示とすれば、用地境界線という有用な情報は残しつつ建物の把握も容易となる。   Furthermore, if the virtual space image can be identified for each feature, it can be displayed / hidden for each feature. For example, from the state in which a real space image of a building (visible object) is displayed on the monitor 1b and a virtual space image of the building and a virtual space image of a site boundary line are displayed, only the virtual space image of the building is selected. If it is not displayed, it is easy to grasp the building while leaving useful information such as the land boundary line.

なお、一般に空間モデルは地理的に広範囲で構築されているので、モニタ1bで表示する範囲を大きく超えて地物の空間情報を有している。そのため、カメラ1aの実空間座標、カメラ1aの姿勢、カメラ1aの仕様を基に、モニタ1b上の任意座標系を光学的に求める際に、同時に空間モデルのうち仮想空間画像として作成される範囲(つまり描画範囲)が抽出される。もちろんこれは地物単位で抽出することを意味するものではなく、地物の一部がモニタ1bに収まらない場合にこの地物のうちどこまでを描画すべきかを抽出するものである。   In general, since the spatial model is constructed over a wide geographical area, the spatial model has spatial information of the feature that greatly exceeds the range displayed on the monitor 1b. Therefore, when optically obtaining an arbitrary coordinate system on the monitor 1b based on the real space coordinates of the camera 1a, the attitude of the camera 1a, and the specifications of the camera 1a, a range that is simultaneously created as a virtual space image in the space model (That is, the drawing range) is extracted. Of course, this does not mean that extraction is performed in units of features, but what is to be drawn out of this feature when a part of the feature does not fit on the monitor 1b.

地物あるいは場所(位置)と関連付いた他の情報(データ)をデータベースとして備えておけば、モニタ1bに表示される範囲(実空間における範囲)に関連する諸情報を表示することができる。この諸情報としては、例えば下水管3の詳細図や縦断図といった図面、用地の所有者や連絡先などの属性情報、などが挙げられる。図4は、下水管3Vに関する平面図6が表示されたモニタ1bを示す図である。この図に示すように、仮想空間画像(下水管3Vや用地境界線4Vなど)に関する図面や属性情報は、実空間画像や仮想空間画像にオーバーレイ表示とすることもできるし、あるいは別ウィンドウとして表示することもできるし、画面を分割して表示することもできる。また、仮想空間画像に関する図面や属性情報は、モニタ1b上で表示させるか又は非表示とするかを選択できることが望ましい。   If other information (data) associated with a feature or place (position) is provided as a database, various information related to the range (range in real space) displayed on the monitor 1b can be displayed. Examples of the various information include drawings such as detailed views and longitudinal views of the sewer pipe 3, and attribute information such as the owner and contact information of the site. FIG. 4 is a diagram showing the monitor 1b on which the plan view 6 regarding the sewer pipe 3V is displayed. As shown in this figure, the drawing and attribute information related to the virtual space image (such as the sewer pipe 3V and the site boundary line 4V) can be displayed as an overlay on the real space image or the virtual space image, or displayed as a separate window. It can also be displayed, or the screen can be divided and displayed. Moreover, it is desirable that the drawing and the attribute information regarding the virtual space image can be selected to be displayed or not displayed on the monitor 1b.

(仮想空間画像の表示位置調整)
前記したように、仮想空間画像は、空間情報やカメラ1aに関する計測値などに基づいて空間演算処理を行い、モニタ1b上での表示位置が決定される。しかしながら、位置計測センサや姿勢計測センサの計測精度によって、あるいは空間モデルが備える空間情報の位置精度によっては、モニタ1b上の正しい位置に表示されないこともある。不可視物や概念物からなる仮想空間画像だけがモニタ1bに表示されただけでは、その表示位置が正しいか否かは直ちに判断できないが、可視物からなる仮想空間画像をモニタ1bに表示することにより、すなわち同一の可視物について実空間画像と仮想空間画像を同時に表示させることにより、仮想空間画像の表示位置の妥当性を判断することができる。
(Adjusting the display position of the virtual space image)
As described above, the virtual space image is subjected to space calculation processing based on the space information, the measurement value related to the camera 1a, and the like, and the display position on the monitor 1b is determined. However, depending on the measurement accuracy of the position measurement sensor and the posture measurement sensor, or depending on the position accuracy of the spatial information included in the spatial model, the image may not be displayed at the correct position on the monitor 1b. If only the virtual space image made up of invisible objects or conceptual objects is displayed on the monitor 1b, it cannot be immediately determined whether the display position is correct, but by displaying the virtual space image made up of visible objects on the monitor 1b. That is, the validity of the display position of the virtual space image can be determined by simultaneously displaying the real space image and the virtual space image for the same visible object.

図5は、カメラ1aで撮影した実空間画像と、仮想空間画像であるセンターライン2Vと下水管3Vを、重畳表示したモニタ1bを示す図である。この図に示すように、可視物であるセンターライン2の実空間画像(センターライン2R)と仮想空間画像(センターライン2V)を同時に表示させると、両者の「ずれ」からセンターライン2Vの表示位置が正しくないことが直ちに理解できる。   FIG. 5 is a diagram showing a monitor 1b in which a real space image captured by the camera 1a, a center line 2V and a sewer pipe 3V, which are virtual space images, are superimposed and displayed. As shown in this figure, when the real space image (center line 2R) and the virtual space image (center line 2V) of the center line 2 which is a visible object are displayed at the same time, the display position of the center line 2V from the “deviation” between them. Is immediately understandable.

仮想空間画像がモニタ1b上の正しい位置で表示されていないと、地下埋設物や用地境界の正しい位置を把握できない結果となるので、仮想空間画像を正しい位置に調整できる手段を設けることが望ましい。この表示位置調整機能としては、ユーザ操作によって調整する手段と、自動的に調整される手段の二つの手段が挙げられる。以下この二つの手段について、センターライン2に関する実空間画像(センターライン2R)と仮想空間画像(センターライン2V)の位置合わせを例に説明しているが、モニタ1bに表示されたものであればセンターライン2に限らず他のあらゆる地物で位置合わせを行うことができることはいうまでもない。   If the virtual space image is not displayed at the correct position on the monitor 1b, the correct position of the underground buried object and the land boundary cannot be grasped. Therefore, it is desirable to provide means for adjusting the virtual space image to the correct position. As this display position adjustment function, there are two means: a means for adjusting by a user operation and a means for automatically adjusting. Hereinafter, the two means will be described by taking the alignment of the real space image (center line 2R) and the virtual space image (center line 2V) with respect to the center line 2 as long as they are displayed on the monitor 1b. Needless to say, the alignment can be performed not only on the center line 2 but also on any other feature.

ユーザ操作によって調整する手段は、ユーザが画面を確認しながら仮想空間画像を正しい位置に表示させる方法であり、実空間画像を移動させる方法と、仮想空間画像を移動させる方法がある。   The means for adjusting by user operation is a method in which the user displays the virtual space image at a correct position while checking the screen, and there are a method for moving the real space image and a method for moving the virtual space image.

実空間画像を移動させる方法とは、モニタ1bに仮想空間画像を表示させた状態で、ユーザが画面を確認しながら、端末機1を移動させるものである。図5に示すように、実空間画像に対して仮想空間画像が平行移動したように「ずれ」が生じている場合は、端末機1もその姿勢のまま左右上下に移動させる(ユーザ自身が移動してもよい)。図6に示すように、実空間画像に対して仮想空間画像が回転移動したように「ずれ」が生じている場合は、端末機1をその位置のまま姿勢を変えていく。なおここでいう姿勢とは、前記したように3軸回りの回転(ω,φ,κ)のことを意味し、図6の平面内で回転(ロール)させてもよいし、図6内の横軸回りに回転(ピッチ)させてもよいし、図6内の縦軸回りに回転(ヨー)させてもよい。このように端末機1を左右上下に移動させ、又は端末機1の姿勢を変更し、あるいは必要に応じてこれらを組み合わせながら、実空間画像の表示位置を仮想空間画像の表示位置に合わせ、仮想空間画像を正しい位置に表示させる。   The method of moving the real space image is to move the terminal 1 while the user confirms the screen in a state where the virtual space image is displayed on the monitor 1b. As shown in FIG. 5, when a “deviation” occurs as if the virtual space image was translated relative to the real space image, the terminal 1 is also moved left and right and up and down with that posture (the user himself moves) You may). As shown in FIG. 6, when a “deviation” occurs as if the virtual space image is rotated with respect to the real space image, the terminal 1 is changed in its position as it is. Note that the posture here means rotation (ω, φ, κ) around three axes as described above, and it may be rotated (rolled) in the plane of FIG. It may be rotated (pitch) around the horizontal axis or rotated (yaw) around the vertical axis in FIG. In this way, the terminal 1 is moved left and right and up and down, or the attitude of the terminal 1 is changed, or these are combined as necessary, and the display position of the real space image is adjusted to the display position of the virtual space image. Display the aerial image at the correct position.

実空間画像を移動させる方法に対して仮想空間画像を移動させる方法とは、モニタ1bに仮想空間画像を表示させた状態で、ユーザが画面を確認しながら、モニタ1b上で仮想空間画像を移動させるものであり、仮想空間画像を移動させるには種々の方法が挙げられる。なお、仮想空間画像の移動とは、新たな条件で再計算することで仮想空間画像を作成し、これを再表示することである。   The method of moving the virtual space image with respect to the method of moving the real space image is to move the virtual space image on the monitor 1b while the user confirms the screen while the virtual space image is displayed on the monitor 1b. There are various methods for moving the virtual space image. The movement of the virtual space image is to create a virtual space image by recalculation under new conditions and to redisplay it.

仮想空間画像を移動させる第1の方法は、モニタ1b上の仮想空間画像を指やタッチペン等で指定し、そのままドラッグで所定位置まで移動させるものである。例えば、図5では可視物であるセンターライン2について実空間画像(センターライン2R)と仮想空間画像(センターライン2V)が重畳表示されており、両者の「ずれ」から仮想空間画像が正しく表示されていないことが分かる。そこでタッチペンなどを用いて、センターライン2Vを指定し、そのままドラッグによりセンターライン2Rの位置までセンターライン2Vを移動させる。実空間画像であるセンターライン2Rと仮想空間画像であるセンターライン2Vの表示位置が重なれば、仮想空間画像は正しい位置で表示されたと考えることができる。なお、ドラッグに代えてキーボードの矢印キーを利用して仮想空間画像を移動させることもできる。   The first method for moving the virtual space image is to designate the virtual space image on the monitor 1b with a finger or a touch pen and move it to a predetermined position by dragging. For example, in FIG. 5, the real space image (center line 2R) and the virtual space image (center line 2V) are superimposed on the visible center line 2, and the virtual space image is correctly displayed from the “deviation” between the two. I understand that it is not. Therefore, the center line 2V is designated using a touch pen or the like, and the center line 2V is moved to the position of the center line 2R by dragging as it is. If the display positions of the center line 2R that is the real space image and the center line 2V that is the virtual space image overlap, it can be considered that the virtual space image is displayed at the correct position. Note that the virtual space image can be moved using the arrow keys of the keyboard instead of dragging.

仮想空間画像を移動させる第2の方法は、モニタ1b上の仮想空間画像を形成する点、線、面などの要素(以下、「形成要素」という。)と、これに相当する実空間画像の形成要素を指定するものである。例えば図7で説明すると、タッチペンなどを用いてセンターライン2Vの形成要素である2点(Pv1とPv2)を指定し、さらにセンターライン2Rの形成要素である2点(Pr1とPr2)を指定する。このとき、Pv1とPr1が対応し、Pv2とPr2が対応していることが認識されるよう、まずはPv1、Pr1の順で指定し、次にPv2、Pr2の順で指定する。これによって、仮想空間画像が再計算され、モニタ1b上の正しい位置に仮想空間画像が表示される。なお、指定する形成要素は、点に限らず線や面でも構わないし、3点以上の形成要素を指定することもできる。   The second method of moving the virtual space image is to form elements such as points, lines, and surfaces (hereinafter referred to as “forming elements”) that form the virtual space image on the monitor 1b, and the corresponding real space image. Specifies the forming element. For example, referring to FIG. 7, two points (Pv1 and Pv2) that form the center line 2V are designated using a touch pen or the like, and two points (Pr1 and Pr2) that form the center line 2R are designated. . At this time, first, Pv1 and Pr1 are specified in order, and then Pv2 and Pr2 are specified in order to recognize that Pv1 and Pr1 correspond and Pv2 and Pr2 correspond. As a result, the virtual space image is recalculated, and the virtual space image is displayed at the correct position on the monitor 1b. The forming element to be specified is not limited to a point but may be a line or a surface, and three or more forming elements may be specified.

仮想空間画像を移動させる第3の方法は、端末機1の移動や回転によってモニタ1b上の仮想空間画像を移動させるものである。この場合、実空間画像をライブビューの状態から、一旦静止画の状態にする必要がある。例えば図6で説明すると、端末機1の所定操作(例えば、モニタ1b上のボタン操作)を行うことで、実空間画像を静止画状態とし、その状態で、端末機1を左右上下に移動させ、あるいは端末機1の姿勢を変更する(必要に応じてこれらを組み合わせる)。端末機1を左右上下に移動させる方法や、端末機1の姿勢を変更する方法は、前記した「実空間画像を移動させる方法」と同様である。この端末機1の移動量や変更した傾きの量を、端末機1のセンサが計測し、この計測値に基づいて再計算により仮想空間画像が作成され、この仮想空間画像がモニタ1bに表示される。この場合、端末機1の移動や姿勢変更を行った後に、ユーザが操作(例えば、モニタ1b上の「再描画ボタン」操作)することで仮想空間画像を移動させてもよいし、端末機1の移動や姿勢変更に伴いセンサが計測値を取得したタイミングで随時自動的に仮想空間画像を移動させてもよい。この一連の操作を、仮想空間画像が正しい位置に表示されるまで(実空間画像と仮想空間画像の表示位置が合うまで)実施し、実空間画像における仮想空間画像の正しい位置が確認できれば、実空間画像の静止画状態を解除する。   The third method for moving the virtual space image is to move the virtual space image on the monitor 1b by moving or rotating the terminal 1. In this case, it is necessary to temporarily change the real space image from the live view state to the still image state. For example, referring to FIG. 6, by performing a predetermined operation of the terminal 1 (for example, a button operation on the monitor 1b), the real space image is set to a still image state, and in this state, the terminal 1 is moved left and right and up and down. Or, change the attitude of the terminal 1 (combine these as necessary). The method of moving the terminal 1 left and right and up and the method of changing the attitude of the terminal 1 are the same as the above-described “method of moving a real space image”. A sensor of the terminal 1 measures the amount of movement of the terminal 1 and the changed amount of tilt, a virtual space image is created by recalculation based on the measured value, and this virtual space image is displayed on the monitor 1b. The In this case, the virtual space image may be moved by the user's operation (for example, “re-draw button” operation on the monitor 1b) after the terminal 1 is moved or the posture is changed. The virtual space image may be automatically moved as needed at the timing when the sensor acquires the measurement value in accordance with the movement or the posture change. This series of operations is performed until the virtual space image is displayed at the correct position (until the display positions of the real space image and the virtual space image match), and if the correct position of the virtual space image in the real space image can be confirmed, Cancel the still image state of the aerial image.

なお、上記した仮想空間画像を移動させる方法(第1〜第3)は、それぞれ単独で用いることもできるし、2以上を組み合わせて用いることもできる。また、仮想空間画像を移動させる方法(第1〜第3)では、移動させる仮想空間画像(例えばセンターライン2V)に連動して、その他の仮想空間画像(例えば下水管3V)も移動する。これによって、モニタ1b上の仮想空間画像はすべて正しい位置で表示されると考えることができる。   Note that the above-described methods (first to third) for moving the virtual space image can be used alone or in combination of two or more. In the method of moving the virtual space image (first to third), the other virtual space image (for example, the sewer pipe 3V) is also moved in conjunction with the moved virtual space image (for example, the center line 2V). Accordingly, it can be considered that all the virtual space images on the monitor 1b are displayed at the correct positions.

一方、自動的に調整される手段は、コンピュータによって処理される方法である。この場合、コンピュータが実空間画像から画像認識により特徴部を抽出し、さらにこの特徴部の形状や画像に基づいて特徴部の部分的な特徴(形状上の特徴部分や、画像上の特徴部分)を形状特徴部として抽出し、この形状特徴部を基準として仮想空間画像(可視物)を対象にマッチング処理(パターンマッチングなど)を行い、マッチング処理で検出された仮想空間画像と実空間画像の特徴部の位置が合うように、仮想空間画像全体をモニタ1bに表示する。図5に基づいて具体的に説明する。モニタ1bに表示された実空間画像から画像認識によりセンターライン2Rを抽出する。この画像認識は、画像上の輝度(あるいは色相や彩度や明度)の相違から自動判別する手法など、公知の技術を用いて行うことができる。次に、センターライン2Rの外縁(エッジ)からなる形状、あるいはセンターライン2R全体を表示する画像(輝度やRGBなど)を基に形状特徴部を抽出し、この基準となるセンターライン2Rの形状特徴部に照合するもの(センターライン2V)を、モニタ1b上に表示された仮想空間画像(可視物)の中から検出する。なおここで行う照合判断は、完全に一致する場合に限らず、所定の条件(閾値)を満足する場合も含まれる。そしてセンターライン2Rとセンターライン2Vとのモニタ1b上の表示位置の相違から移動量を計算し、この移動量に基づいて仮想空間画像を正しい位置(センターライン2Rとセンターライン2Vが重なる位置)に再表示させる。もちろんこのときも、計算された移動量に基づいて表示位置を変更するのは、センターライン2Vに限らずモニタ1b上のすべて仮想空間画像が対象となる。   On the other hand, the automatically adjusted means is a method processed by a computer. In this case, the computer extracts a feature portion from the real space image by image recognition, and further, a partial feature of the feature portion (a feature portion on the shape or a feature portion on the image) based on the shape or image of the feature portion. Is extracted as a shape feature, matching processing (pattern matching, etc.) is performed on the virtual space image (visible object) with this shape feature as a reference, and the features of the virtual space image and real space image detected by the matching processing The entire virtual space image is displayed on the monitor 1b so that the positions of the parts match. This will be specifically described with reference to FIG. The center line 2R is extracted by image recognition from the real space image displayed on the monitor 1b. This image recognition can be performed using a known technique such as a method of automatically discriminating from a difference in luminance (or hue, saturation, or brightness) on an image. Next, a shape feature portion is extracted based on the shape formed by the outer edge (edge) of the center line 2R or an image (luminance, RGB, etc.) displaying the entire center line 2R, and the shape feature of the center line 2R serving as a reference is extracted. What is collated with the part (center line 2V) is detected from the virtual space image (visible object) displayed on the monitor 1b. Note that the collation determination performed here is not limited to a case where they completely match, but includes a case where a predetermined condition (threshold value) is satisfied. Then, the movement amount is calculated from the difference in display position on the monitor 1b between the center line 2R and the center line 2V, and the virtual space image is set to the correct position (position where the center line 2R and the center line 2V overlap) based on the movement amount. Redisplay. Of course, at this time as well, the display position is changed based on the calculated movement amount, not only for the center line 2V but for all virtual space images on the monitor 1b.

以上説明したように、同一の可視物について実空間画像と仮想空間画像を重畳表示させると、仮想空間画像の表示位置の正誤を判断することができるとともに、その位置を調整することができる。なお、ユーザ操作によって仮想空間画像を正しい表示位置に調整する場合、表示位置調整中は可視物の仮想空間画像を表示しておく必要があるが、表示位置調整後にはその可視物の仮想空間画像を非表示とし(表示制御手段)、その可視物を視認しやすくすることもできる。また、仮想空間画像が正しい表示位置に調整された状態で、実空間画像をライブビューの状態から静止画の状態とすることもできる。これにより、手ぶれ等による画面の見づらさを解消することができる。   As described above, when the real space image and the virtual space image are superimposed and displayed for the same visible object, it is possible to determine whether the display position of the virtual space image is correct and to adjust the position. When adjusting the virtual space image to the correct display position by user operation, it is necessary to display the virtual space image of the visible object during the display position adjustment, but after adjusting the display position, the virtual space image of the visible object is displayed. Is not displayed (display control means), and the visible object can be easily seen. In addition, the real space image can be changed from the live view state to the still image state with the virtual space image adjusted to the correct display position. Thereby, it is possible to eliminate the difficulty in viewing the screen due to camera shake or the like.

(画像合成装置)
本願発明の画像合成装置は、これまで説明した技術を備えたものであり、具体的には、カメラ1a(画像取得手段)とモニタ1b(表示画面)と計測手段(GPSや6軸センサなど)を有する端末機1と、空間モデルとこれを記憶する記憶手段と、空間モデルの空間情報から仮想空間モデルを作成しさらに仮想空間画像を作成する画像作成手段と、仮想空間画像をモニタ1b上の実空間画像に重畳表示する表示手段を備えている。また、仮想空間画像をモニタ1b上で表示とするか非表示とするかを選択する表示制御手段を備えることもできるし、仮想空間画像を正しい位置に表示させる表示位置調整手段(ユーザ操作による調整や、自動調整)を備えることもできる。さらに、表示手段によってモニタ1b上に表示された仮想空間画像に関連する図面や属性情報を表示させることもできるし、表示制御手段によってこれら図面や属性情報の表示/非表示を選択させることもできる。なお、これらの手段が全て収められた端末機1を本願発明の画像合成装置とすることもできるが、記憶手段や画像作成手段については、端末機1とは異なる筺体に収容してもよい。
(Image composition device)
The image synthesizing apparatus according to the present invention has the technology described so far. Specifically, the camera 1a (image acquisition means), the monitor 1b (display screen), and measurement means (GPS, 6-axis sensor, etc.) A terminal 1 having a space model, storage means for storing the space model, image creating means for creating a virtual space model from space information of the space model and further creating a virtual space image, and displaying the virtual space image on the monitor 1b. Display means for superimposing and displaying on the real space image is provided. In addition, display control means for selecting whether to display the virtual space image on the monitor 1b or non-display can be provided, and display position adjusting means for displaying the virtual space image at a correct position (adjustment by user operation) Or automatic adjustment). Furthermore, the drawing means and attribute information related to the virtual space image displayed on the monitor 1b can be displayed by the display means, and display / non-display of these drawings and attribute information can be selected by the display control means. . In addition, although the terminal 1 in which all these means are stored can be used as the image composition apparatus of the present invention, the storage means and the image creation means may be accommodated in a casing different from the terminal 1.

(画像合成プログラム)
本願発明の画像合成プログラムは、これまで説明した技術をコンピュータに実行させるものであり、具体的には、空間モデルのデータベースから所定の空間情報を検索して読み込むモデル読み込み機能と、GPSや6軸センサなど計測手段が計測した値を読み込む計測値読み込み機能と、空間情報や計測値から仮想空間モデルを作成しさらに仮想空間画像を作成する画像作成機能と、仮想空間画像をモニタ1b上の実空間画像に重畳表示させる表示機能を備えている。また、仮想空間画像をモニタ1b上で表示とするか非表示とするかを選択する表示制御機能を備えることもできるし、仮想空間画像を正しい位置に表示させる表示位置調整機能(ユーザ操作による調整や、自動調整)を備えることもできる。
(Image composition program)
The image composition program of the present invention causes a computer to execute the technology described so far. Specifically, a model reading function for retrieving and reading predetermined spatial information from a database of spatial models, GPS and six axes A measurement value reading function for reading a value measured by a measuring means such as a sensor, an image creation function for creating a virtual space model from space information and measurement values, and a virtual space image on the monitor 1b It has a display function to superimpose on the image. It is also possible to provide a display control function for selecting whether the virtual space image is displayed or not displayed on the monitor 1b, and a display position adjustment function (adjustment by user operation) that displays the virtual space image at the correct position. Or automatic adjustment).

表示位置調整機能を自動調整とした場合には、実空間画像から特徴部を抽出するとともにこの特徴部から形状特徴部を抽出する特徴部抽出機能と、この形状特徴部を基準として可視物の仮想空間画像を対象にマッチング処理を行って照合部分を検出する照合部分検出機能と、形状特徴部と照合部分の表示画像上の位置が一致(又は略一致)するように、仮想空間画像の表示位置を調整する位置調整機能と、を備える。   When the display position adjustment function is automatic adjustment, a feature part extraction function that extracts a feature part from a real space image and extracts a shape feature part from the feature part, and a virtual object of a visible object based on the shape feature part. The display position of the virtual space image so that the matching portion detection function that performs matching processing on the spatial image to detect the matching portion and the position of the shape feature portion and the matching portion on the display image match (or substantially match) A position adjusting function for adjusting the position.

さらに、表示機能によってモニタ1b上に表示された仮想空間画像に関連する図面や属性情報を検索して表示させることもできるし、表示制御機能によってこれら図面や属性情報の表示/非表示を選択させることもできる。   Furthermore, it is possible to search and display drawings and attribute information related to the virtual space image displayed on the monitor 1b by the display function, and to select display / non-display of these drawings and attribute information by the display control function. You can also.

なお、ここで説明した機能全てを1つのプログラムとして構成する必要はなく(もちろん1つのプログラムでもよい)、機能を選択してホストコンピュータとクライアントコンピュータに分散配置するなどの形式をとってもよい。   Note that it is not necessary to configure all the functions described here as a single program (of course, a single program may be used), and a form in which functions are selected and distributed to the host computer and the client computer may be used.

(画像合成システム)
本願発明の画像合成システムは、これまで説明した技術を備えたものであり、具体的には、1又は2以上の端末機1とサーバを備えたものである。全ての端末機1はサーバと通信可能に接続されており、その通信回線は有線又は無線が用いられる。
(Image composition system)
The image composition system according to the present invention includes the technology described so far, and specifically includes one or two or more terminals 1 and a server. All the terminals 1 are communicably connected to a server, and the communication line is wired or wireless.

端末機1には、カメラ1a(画像取得手段)と、モニタ1b(表示画面)と、GPSや6軸センサなどの計測手段と、仮想空間画像をモニタ1bに表示させる表示手段と、仮想空間画像の表示/非表示を行う表示制御手段が備えられており、さらにサーバと通信を行うための通信手段が備えられている。   The terminal 1 includes a camera 1a (image acquisition means), a monitor 1b (display screen), measurement means such as GPS and a six-axis sensor, display means for displaying a virtual space image on the monitor 1b, and a virtual space image. Is provided with display control means for displaying / hiding, and further with communication means for communicating with the server.

一方、サーバには、データベースとしての空間モデルとこれを記憶する記憶手段と、画像作成手段と、端末機1と通信を行うための通信手段が備えられている。なお、記憶手段と画像作成手段は、同一のサーバに備えられる必要はなく(もちろん1つのサーバでもよい)、記憶手段はデータベースサーバに備えることとし、画像作成手段はアプリケーションサーバに備えることとするなど、それぞれ別のサーバに備えるようにしてもよい。また、空間モデルを記憶する記憶手段(他の記憶手段でもよい)に、仮想空間画像に関する図又は/及び属性情報を記憶させることもできる。   On the other hand, the server includes a space model as a database, storage means for storing the database, image creation means, and communication means for communicating with the terminal 1. Note that the storage unit and the image creation unit do not need to be provided in the same server (may be one server as a matter of course), the storage unit is provided in the database server, the image creation unit is provided in the application server, and the like. These may be provided in different servers. In addition, a diagram or / and attribute information regarding the virtual space image can be stored in a storage unit (other storage unit) that stores the space model.

仮想空間画像の表示位置を調整する表示位置調整手段は、端末機1に備えることもできるし、サーバに備えることもできるが、ユーザ操作によって調整する場合は端末機1に備え、自動的に調整する場合はサーバに備えることが望ましい。   The display position adjusting means for adjusting the display position of the virtual space image can be provided in the terminal 1 or can be provided in the server. However, when adjusting by a user operation, the display position adjusting means is provided in the terminal 1 and automatically adjusted. If so, it is desirable to have a server.

本願発明の画像合成システムによって、仮想空間画像がモニタ1bに重畳表示されるまでの流れについて説明する。
(1)ユーザが端末機1のカメラ1aによって目の前の光景(実空間)を撮影する。この場合の撮影とは、カメラ1aを所定の方向にかざしてモニタ1bにライブビューを表示させる行為のことであり、必ずしもシャッターを操作することに限られない。
(2)ユーザが撮影すると、これと同時に計測手段によってカメラ1aの位置と姿勢が計測される。
(3)ユーザが、端末機1の通信手段を利用してサーバに仮想空間画像の表示を要求する。この要求手段は、端末機1のキーボードを操作するなど公知の技術を利用できる。
(4)ユーザの要求により、端末機1からサーバに必要な情報が通信回線を介して伝送される。必要な情報とは、要求情報(仮想空間画像を要求する旨)、計測手段で計測されたカメラ1aの位置座標や姿勢(計測値)、が含まれる。必要に応じて、仮想空間画像に関する図又は/及び属性情報を伝送してほしい旨の要求情報も送られる。
(5)端末機1から必要な情報が送られたサーバでは、計測値やカメラ仕様(画角や焦点距離など)に基づいて、当該ユーザの端末機1に表示する描画範囲を計算する。このとき、カメラ仕様については、直接端末機1から伝送させてもよいし、サーバで種々のカメラ仕様を記憶しておき、当該端末機の機種(機種情報は伝送させる)に応じたカメラ仕様を読み込んでもよい。
(6)またサーバでは、空間モデルのデータベースから描画範囲内にある空間情報を検索し、これについて仮想空間モデルを作成する。さらにこの仮想空間モデルを基に、遠近法によって遠近表示される透視図である仮想空間画像を作成する。この一連の処理は、計測値と空間モデルの空間情報に基づいて、画像作成機能によって実行される。
(7)サーバで作成された仮想空間画像は、サーバの通信手段によって端末機1に伝送され、これを端末機1の通信手段で受信すると、表示手段によってモニタ1bに仮想空間画像を表示する。
(8)表示位置調整手段が端末機1に備えられた場合は、端末機1のモニタ1bに表示された後に、ユーザが画面を確認しながら操作を行い、仮想空間画像が正しい表示位置となるよう調整する。一方、表示制御機能がサーバに備えられ、かつこれを自動調整によるものとした場合には、端末機1から実空間画像を伝送させ、この実空間画像からプログラム(特徴部抽出機能)によって特徴部と形状特徴部を抽出するとともに、プログラム(照合部分検出機能)によって仮想空間画像の中から照合部分を検出し、さらにプログラム(位置調整機能)によって仮想空間画像の表示位置を調整し、表示位置が調整された仮想空間画像が端末機1に伝送されてモニタ1bに表示される。
A flow until the virtual space image is superimposed and displayed on the monitor 1b by the image composition system of the present invention will be described.
(1) A user photographs a scene (real space) in front of the user with the camera 1a of the terminal 1. Shooting in this case is an act of displaying the live view on the monitor 1b by holding the camera 1a in a predetermined direction, and is not necessarily limited to operating the shutter.
(2) When the user takes a picture, the position and orientation of the camera 1a are measured by the measuring means at the same time.
(3) The user requests the server to display a virtual space image using the communication means of the terminal 1. This request means can use a known technique such as operating the keyboard of the terminal 1.
(4) Information required for the server is transmitted from the terminal 1 via a communication line in response to a user request. The necessary information includes request information (to request a virtual space image) and the position coordinates and orientation (measurement value) of the camera 1a measured by the measurement means. If necessary, request information indicating that a diagram or / and attribute information regarding the virtual space image is to be transmitted is also sent.
(5) The server to which necessary information is sent from the terminal 1 calculates the drawing range to be displayed on the user's terminal 1 based on the measurement value and camera specifications (view angle, focal length, etc.). At this time, the camera specifications may be transmitted directly from the terminal 1, or various camera specifications are stored in the server, and the camera specifications according to the model of the terminal (model information is transmitted). It may be read.
(6) The server also retrieves spatial information within the drawing range from the spatial model database, and creates a virtual space model for this. Furthermore, based on this virtual space model, a virtual space image which is a perspective view displayed in perspective by a perspective method is created. This series of processing is executed by the image creation function based on the measurement value and the spatial information of the spatial model.
(7) The virtual space image created by the server is transmitted to the terminal 1 by the communication means of the server. When this is received by the communication means of the terminal 1, the virtual space image is displayed on the monitor 1b by the display means.
(8) When the display position adjusting means is provided in the terminal 1, after being displayed on the monitor 1b of the terminal 1, the user performs an operation while checking the screen, and the virtual space image becomes the correct display position. Adjust as follows. On the other hand, when the display control function is provided in the server and is automatically adjusted, a real space image is transmitted from the terminal 1, and a feature portion is obtained from the real space image by a program (feature portion extraction function). And the shape feature part are extracted, the collation part is detected from the virtual space image by the program (collation part detection function), and the display position of the virtual space image is adjusted by the program (position adjustment function). The adjusted virtual space image is transmitted to the terminal 1 and displayed on the monitor 1b.

本願発明の画像合成システムは、道路下の地下埋設物管理、建築物の壁面内に収容された配線・配管類の管理、土地の境界や村市町村界の現地確認、未施工の道路やマンションなど計画中の構造物についての住民説明、土砂災害警戒区域や地すべり指定地などの危険区域の現地確認で利用することができるほか、カーナビゲーション、広告、ゲームなど多岐の用途にわたって応用することができる。   The image composition system of the present invention is the management of underground buried objects under roads, the management of wiring and piping contained in the walls of buildings, the confirmation of land boundaries and the locality of villages, towns and villages, unconstructed roads and apartments, etc. It can be used for explanation of residents about the planned structure, on-site confirmation of dangerous areas such as landslide disaster warning areas and designated landslide areas, and it can be applied to various applications such as car navigation, advertising, and games.

1 端末機
1a カメラ
1b モニタ
2 センターライン
2R (実空間画像の)センターライン
2V (仮想空間画像の)センターライン
3 下水管
3V (仮想空間画像の)下水管
4V (仮想空間画像の)用地境界線
5V (仮想空間画像の)用地境界面
6 下水管に関する平面図
A 光ファイバーケーブル
B 下水管
C (地下埋設物の平面配置を示す)白線
1 terminal 1a camera 1b monitor 2 center line 2R (real space image) center line 2V (virtual space image) center line 3 sewer pipe 3V (virtual space image) sewer pipe 4V (virtual space image) ground boundary 5V Site boundary surface (of virtual space image) 6 Plan view regarding sewer pipe A Optical fiber cable B Sewer pipe C (showing plane arrangement of underground objects) White line

Claims (10)

現実の空間を撮像した実空間画像に、空間情報を有する空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成装置であって、
前記実空間画像を取得する画像取得手段と、
前記画像取得手段の位置及び姿勢を計測する計測手段と、
目視可能な可視物の空間情報と、目視できない不可視物の空間情報と、を含む前記空間モデルを記憶する記憶手段と、
前記計測手段による計測値と前記空間モデルとに基づいて演算処理を行い、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像を作成する画像作成手段と、
遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示手段と、
前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御手段と、を備えたことを特徴とする画像合成装置。
An image synthesizing apparatus that superimposes a virtual space image created based on a space model having space information on a real space image obtained by capturing a real space, and displays the image on a display screen.
Image acquisition means for acquiring the real space image;
Measuring means for measuring the position and orientation of said image acquiring means,
Storage means for storing the spatial model including the visible spatial information of visible objects and the invisible visible spatial information ;
A calculation process is performed based on the measurement value by the measurement unit and the space model, and the virtual space image of the visible object and the virtual space image of the invisible object are obtained so as to be a perspective view displayed on the display screen. Image creation means to create;
Display means for superimposing and displaying the real space image displayed in perspective and the virtual space image displayed in perspective on the display screen;
An image composition apparatus comprising: a display control unit that selectively displays or hides the virtual space image of the visible object and the virtual space image of the invisible object .
請求項1記載の画像合成装置において、
同一の目視可能な可視物についての仮想空間画像と実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整手段を、備えたことを特徴とする画像合成装置。
The image synthesizing apparatus according to claim 1 Symbol placement,
When the display positions of the virtual space image and the real space image for the same visible visible object do not match on the display screen, the display positions of the virtual space image and the real space image match on the display screen. Alternatively, an image synthesizing apparatus comprising display position adjusting means for moving the virtual space image so as to substantially match.
請求項記載の画像合成装置において、
表示位置調整手段が、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整することを特徴とする画像合成装置。
The image composition apparatus according to claim 2 ,
The display position adjusting means automatically extracts the shape feature based on the image feature of the real space image, and automatically detects the matching portion to be matched with the shape feature from the virtual space image of the visible object. An image synthesizing apparatus that automatically adjusts the display position of a virtual space image so that the positions of the feature part and the collation part on the display image match or substantially match.
請求項1乃至請求項のいずれかに記載の画像合成装置において、
表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成装置。
The image composition device according to any one of claims 1 to 3 ,
The display means displays a figure or / and attribute information related to the virtual space image,
An image synthesizing apparatus, wherein the display control means displays or hides the figure and / or attribute information.
現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示させる画像合成プログラムであって、
目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶した記憶手段から、この空間モデルを取得するモデル読み込み機能と、
計測により得た画像取得手段の位置及び姿勢を取得する計測値読み込み機能と、
前記画像取得手段の位置及び姿勢と前記空間モデルとに基づいて、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成する画像作成機能と、
遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示機能と、
前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御機能と、
同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整機能と、をコンピュータに実行させることを特徴とする画像合成プログラム。
An image synthesis program that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A model reading function for acquiring this spatial model from a storage means storing a spatial model including spatial information of visible objects that are visible and spatial information of invisible objects that are not visible;
A measurement value reading function for acquiring the position and orientation of the image acquisition means obtained by measurement;
Based on the position and orientation of the image acquisition means and the space model, a virtual space image of the visible object and a virtual space image of the invisible object are created so that a perspective view is displayed on the display screen. Image creation function,
A display function for superimposing and displaying the real space image displayed in perspective and the virtual space image displayed in perspective on the display screen;
A display control function for selecting and displaying or not displaying the virtual space image of the visible object and the virtual space image of the invisible object;
When the display positions of the virtual space image and the real space image for the same visible object do not match on the display screen, the display positions of the virtual space image and the real space image match or substantially match with each other. As described above, a computer executes a display position adjustment function for moving the virtual space image.
請求項記載の画像合成プログラムにおいて、
表示位置調整機能が、
実空間画像のうちの画像の特徴部に基づいて、形状特徴部を抽出する特徴部抽出機能と、
前記形状特徴部と照合する照合部分を、可視物の仮想空間画像から検出する照合部分検出機能と、
前記形状特徴部と前記照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を調整する位置調整機能と、を備えたことを特徴とする画像合成プログラム。
In the image composition program according to claim 5 ,
The display position adjustment function
A feature extraction function for extracting a shape feature based on a feature of the image in the real space image;
A matching part detection function for detecting a matching part to be matched with the shape feature part from a virtual space image of a visible object;
An image composition program comprising: a position adjustment function for adjusting a display position of a virtual space image so that positions of the shape feature portion and the collation portion on a display image are matched or substantially matched.
請求項又は請求項記載の画像合成プログラムにおいて、
表示機能が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御機能が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成プログラム。
In the image composition program according to claim 5 or 6 ,
The display function displays a figure or / and attribute information related to the virtual space image,
An image composition program, wherein the display control function displays or hides the figure and / or attribute information.
現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、
サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、
前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、
前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、
前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値がサーバに伝送され、
前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成するとともに、これらの仮想空間画像を当該端末機に伝送し、
前記仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示され、
同一の可視物についての仮想空間画像と実空間画像との表示位置が、前記表示画面上で一致しない場合に、前記端末機が備える表示位置調整手段によって、前記仮想空間画像と前記実空間画像の表示位置が表示画面上で一致又は略一致するように、前記仮想空間画像を移動させ得ることを特徴とする画像合成システム。
An image synthesis system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A server, and one or more terminals connected to the server via a wireless or wired communication line,
The server includes a storage unit that stores a spatial model including spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and a perspective view that is displayed in perspective on the display screen of the terminal. Image creating means for creating a virtual space image, and communication means,
The terminal includes an image acquisition unit that acquires the real space image, a measurement unit that measures the position and orientation of the image acquisition unit, and a display unit that displays the real space image and the virtual space image on a display screen. A display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object, and a communication unit.
When the user of the terminal requests the server, the measurement value by the measuring means of the terminal is transmitted to the server,
The server creates a virtual space image of the visible object and a virtual space image of the invisible object based on the measurement value of the terminal and the space model according to a request of the user of the terminal, Transmit these virtual space images to the terminal,
On the display screen of the terminal that has received the virtual space image, the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed,
When the display positions of the virtual space image and the real space image for the same visible object do not match on the display screen, the display position adjustment means provided in the terminal unit causes the virtual space image and the real space image to be displayed. An image composition system, characterized in that the virtual space image can be moved so that the display positions coincide or substantially coincide on the display screen.
現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、
サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、
前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、
前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、
前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値と、当該端末の画像取得手段による実空間画像と、がサーバに伝送され、
前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成し、
さらに前記サーバは、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が前記表示画面上で一致しない場合に、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整したうえで、可視物の仮想空間画像と不可視物の仮想空間画像とを前記端末機に伝送し、
仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示されることを特徴とする画像合成システム。
An image synthesis system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A server, and one or more terminals connected to the server via a wireless or wired communication line,
The server includes a storage unit that stores a spatial model including spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and a perspective view that is displayed in perspective on the display screen of the terminal. Image creating means for creating a virtual space image, and communication means,
The terminal includes an image acquisition unit that acquires the real space image, a measurement unit that measures the position and orientation of the image acquisition unit, and a display unit that displays the real space image and the virtual space image on a display screen. A display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object, and a communication unit.
When the user of the terminal requests the server, the measurement value by the measurement unit of the terminal and the real space image by the image acquisition unit of the terminal are transmitted to the server,
The server creates a virtual space image of the visible object and a virtual space image of the invisible object based on the measurement value of the terminal and the space model according to a request of the user of the terminal,
Furthermore, the server, when the display position of the virtual space image and the real space image for the same visible object do not match on the display screen, the shape feature based on the image feature of the real space image Part is automatically extracted, and a matching part to be matched with the shape feature is automatically detected from the virtual space image of the visible object, so that the position on the display image of the shape feature and the matching part is matched or substantially matched. After automatically adjusting the display position of the spatial image, the virtual space image of the visible object and the virtual space image of the invisible object are transmitted to the terminal,
An image composition system, wherein the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed on a display screen of a terminal that has received the virtual space image.
請求項又は請求項記載の画像合成システムにおいて、
表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成システム。
The image composition system according to claim 8 or 9 ,
The display means displays a figure or / and attribute information related to the virtual space image,
An image composition system, wherein the display control means displays or hides the figure and / or attribute information.
JP2010283292A 2010-12-20 2010-12-20 Image composition apparatus, image composition program, and image composition system Active JP5682060B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010283292A JP5682060B2 (en) 2010-12-20 2010-12-20 Image composition apparatus, image composition program, and image composition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010283292A JP5682060B2 (en) 2010-12-20 2010-12-20 Image composition apparatus, image composition program, and image composition system

Publications (2)

Publication Number Publication Date
JP2012133471A JP2012133471A (en) 2012-07-12
JP5682060B2 true JP5682060B2 (en) 2015-03-11

Family

ID=46649020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010283292A Active JP5682060B2 (en) 2010-12-20 2010-12-20 Image composition apparatus, image composition program, and image composition system

Country Status (1)

Country Link
JP (1) JP5682060B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343443A (en) * 2018-09-28 2019-02-15 广州希华通讯设备有限公司 Excavate machine monitoring recognition methods
US10621742B2 (en) * 2015-12-10 2020-04-14 Siemens Aktiengesellschaft Method for producing a depth map

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5904955B2 (en) * 2013-02-12 2016-04-20 三菱電機株式会社 PORTABLE TERMINAL DEVICE AND INVISIBLE FACILITY LOCATION METHOD USING THE DEVICE
JP5928382B2 (en) * 2013-03-21 2016-06-01 カシオ計算機株式会社 Imaging device, visible light communication control system, output control method, visible light communication control method, and program
JP2014209680A (en) * 2013-04-16 2014-11-06 富士通株式会社 Land boundary display program, method, and terminal device
JP6197405B2 (en) * 2013-06-28 2017-09-20 株式会社リコー Information processing apparatus, information processing system, and information processing program
JP6033209B2 (en) * 2013-12-11 2016-11-30 三菱電機株式会社 Portable terminal device
JP6235327B2 (en) * 2013-12-18 2017-11-22 大成建設株式会社 Construction information management system and construction information management method
JP6448274B2 (en) * 2014-09-29 2019-01-09 三菱電機株式会社 Information display control system and information display control method
JP6449613B2 (en) * 2014-10-10 2019-01-09 東京瓦斯株式会社 Gas supply area surveillance camera system
JP6494413B2 (en) * 2015-05-18 2019-04-03 三菱電機株式会社 Image composition apparatus, image composition method, and image composition program
JP6596291B2 (en) * 2015-10-02 2019-10-23 東京ガスエンジニアリングソリューションズ株式会社 Laying equipment display device
US10540825B2 (en) 2016-05-02 2020-01-21 Sony Interactive Entertainment Inc. Image processing apparatus
JPWO2017191703A1 (en) * 2016-05-02 2018-10-04 株式会社ソニー・インタラクティブエンタテインメント Image processing device
JP6230678B2 (en) * 2016-10-25 2017-11-15 三菱電機株式会社 Terminal device, terminal device program, and invisible object displacement state visualization method
JP6931883B2 (en) * 2017-02-06 2021-09-08 株式会社大林組 Education support system, education support method and education support program
JP2019011564A (en) * 2017-06-29 2019-01-24 鹿島建設株式会社 Field image output system
JP2018018086A (en) * 2017-08-23 2018-02-01 富士通株式会社 Land boundary display program, method, and device
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2020102127A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Buried object visualizing system
JP7346245B2 (en) 2019-10-30 2023-09-19 北陸電気工事株式会社 Construction site recording program
JP6770274B1 (en) * 2019-12-19 2020-10-14 株式会社ガク・アソシエイツ Boundary Visualization System, Boundary Visualization Method, Boundary Visualization Program and Digital Photo Album Creation System
JP6777921B1 (en) * 2019-12-19 2020-10-28 株式会社ガク・アソシエイツ Boundary visualization system, border visualization method, border visualization program and digital photo album creation system
JP7131780B2 (en) * 2019-12-19 2022-09-06 株式会社ガク・アソシエイツ Boundary Visualization System, Boundary Visualization Method, Boundary Visualization Program, and Digital Photo Album Creation System
JP7423389B2 (en) 2020-04-01 2024-01-29 東北電力株式会社 Work support equipment
JP7323689B1 (en) 2022-08-25 2023-08-08 朝日航洋株式会社 Display device, display method, and display program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538263B2 (en) * 1995-08-09 2004-06-14 株式会社日立製作所 Image generation method
JP2004145657A (en) * 2002-10-24 2004-05-20 Space Tag Inc Virtual museum system
JP4253567B2 (en) * 2003-03-28 2009-04-15 オリンパス株式会社 Data authoring processor
JP2004302756A (en) * 2003-03-31 2004-10-28 Hitachi Plant Eng & Constr Co Ltd Cad working drawing checking method and its device
JP2006012042A (en) * 2004-06-29 2006-01-12 Canon Inc Image generating method and device
FR2889761A3 (en) * 2005-08-09 2007-02-16 Total Immersion SYSTEM ALLOWING A USER TO LOCATE A CAMERA IN ORDER TO BE ABLE TO INSERT, QUICKLY IN AN ADJUSTED MANNER, IMAGES OF VIRTUAL ELEMENTS INTO VIDEO IMAGES OF REAL ELEMENTS CAPTURED BY THE CAMERA
JP4527155B2 (en) * 2005-12-28 2010-08-18 富士通株式会社 Navigation information display system, navigation information display method, and program therefor
JP2007228315A (en) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd System for supporting construction work and inspection for structure inside building

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10621742B2 (en) * 2015-12-10 2020-04-14 Siemens Aktiengesellschaft Method for producing a depth map
CN109343443A (en) * 2018-09-28 2019-02-15 广州希华通讯设备有限公司 Excavate machine monitoring recognition methods

Also Published As

Publication number Publication date
JP2012133471A (en) 2012-07-12

Similar Documents

Publication Publication Date Title
JP5682060B2 (en) Image composition apparatus, image composition program, and image composition system
US9619942B2 (en) Coordinate geometry augmented reality process
US11783543B2 (en) Method and system for displaying and navigating an optimal multi-dimensional building model
US20170046877A1 (en) Augmented visualization system for hidden structures
EP2769363B1 (en) Depth cursor and depth measurement in images
US20170337743A1 (en) System and method for referencing a displaying device relative to a surveying instrument
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
KR100822814B1 (en) Method for overlapping real-time landscape image and gis data
KR102264219B1 (en) Method and system for providing mixed reality contents related to underground facilities
US20220138467A1 (en) Augmented reality utility locating and asset management system
Hansen et al. Augmented reality for subsurface utility engineering, revisited
CN104159036A (en) Display method and shooting equipment of image direction information
JP2007122247A (en) Automatic landmark information production method and system
KR20190114696A (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
CN108957507A (en) Fuel gas pipeline leakage method of disposal based on augmented reality
JP4588369B2 (en) Imaging apparatus and imaging method
JP5862865B2 (en) Composite image display device and composite image display program
KR20110068764A (en) System and method for providing object information from aspherical image acquired by omnidirectical camera
CN108955723B (en) Method for calibrating augmented reality municipal pipe network
ES2743529T3 (en) Procedure and system for determining a relationship between a first scene and a second scene
CN108954016A (en) Fuel gas pipeline leakage disposal system based on augmented reality
Böhm et al. Automation in laser scanning for cultural heritage applications
US10185787B1 (en) Tool for accurate onsite model visualization that facilitates environment interaction
Dalla Mura et al. Augmented reality: Fusing the real and synthetic worlds
JP7303711B2 (en) image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141225

R150 Certificate of patent or registration of utility model

Ref document number: 5682060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250