JP5682060B2 - Image composition apparatus, image composition program, and image composition system - Google Patents
Image composition apparatus, image composition program, and image composition system Download PDFInfo
- Publication number
- JP5682060B2 JP5682060B2 JP2010283292A JP2010283292A JP5682060B2 JP 5682060 B2 JP5682060 B2 JP 5682060B2 JP 2010283292 A JP2010283292 A JP 2010283292A JP 2010283292 A JP2010283292 A JP 2010283292A JP 5682060 B2 JP5682060 B2 JP 5682060B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- space image
- virtual space
- display
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title claims description 32
- 238000005259 measurement Methods 0.000 claims description 49
- 238000000034 method Methods 0.000 claims description 42
- 238000004891 communication Methods 0.000 claims description 21
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 description 11
- 239000010865 sewage Substances 0.000 description 11
- 230000003190 augmentative effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 239000013307 optical fiber Substances 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009412 basement excavation Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000009933 burial Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本願発明は、現実の空間を撮像した実空間画像に、仮想の画像を重畳して表示する装置、プログラム、及びシステムである。より具体的には、実空間画像に空間モデルに基づいて作成される仮想空間画像を重畳して表示するものであり、実空間画像の遠近感に合わせて仮想空間画像も遠近表示する画像合成装置、画像合成プログラム、及び画像合成システムに関するものである。 The present invention is an apparatus, a program, and a system for displaying a virtual image superimposed on a real space image obtained by imaging a real space. More specifically, an image composition device that superimposes and displays a virtual space image created based on a space model on a real space image, and also displays the virtual space image according to the perspective of the real space image. , An image composition program and an image composition system.
道路には、そのネットワーク性や公共性という特性から、多くの地下埋設物が存在している。道路下の地下埋設物としては、上下水道やガスが代表的であり、近年では電線の地中化も盛んに行われ、さらに情報BOXと呼ばれる光ファイバーケーブルも広く埋設されているところである。図8は、道路下の埋設状況を模式的に示した説明図であり、道路左側に光ファイバーケーブルAが、道路右側に下水管Bが、埋設された状況を示すものである。この図では、光ファイバーケーブルAと下水管Bの平面配置が破線で示され、仮想断面図で断面配置が示されているが、もちろん実際にこのように見ることはできない。 Many underground objects exist on roads due to their network and public characteristics. As underground buried objects under the road, water and sewage and gas are typical, and in recent years, undergrounding of electric wires has been actively performed, and an optical fiber cable called information BOX is also widely buried. FIG. 8 is an explanatory view schematically showing the state of burying under the road, in which the optical fiber cable A is buried on the left side of the road and the sewage pipe B is buried on the right side of the road. In this figure, the planar arrangement of the optical fiber cable A and the sewer pipe B is shown by a broken line, and the sectional arrangement is shown by a virtual sectional view, but of course, it cannot be actually seen in this way.
図10は、道路で現地調査を実施している状況を示した説明図である。この図に示すように、日常において地下埋設物を目視で確認することができない。そのため、どの位置にどのような地下埋設物が存在しているのか、現地で把握することは容易ではない。道路の改良工事や新たな埋設物設置工事など道路を掘削する場合、あらかじめ地下埋設物の位置や種類を確認する必要があるが、現地での目視調査では把握できないので、設計時の資料や管理図面などを収集して調べなければならない。その調査の結果判明した地下埋設物の位置情報(通常は平面座標系で与えられる情報)を基に、現地にて測量を行い、鋲や白線等によるマーカーで明示することになる。図10は、道路上に地下埋設物の平面配置を白線Cで示した説明図である。 FIG. 10 is an explanatory diagram showing a situation where a field survey is being conducted on a road. As shown in this figure, it is not possible to visually confirm the underground objects in daily life. For this reason, it is not easy to ascertain locally what kind of underground objects are present at which position. When excavating roads such as road improvement work and new buried object installation work, it is necessary to confirm the position and type of underground buried objects in advance, but it cannot be grasped by visual inspection at the site. You must collect and examine drawings. Based on the location information of the underground objects found as a result of the survey (usually information given in the plane coordinate system), surveys will be conducted on site, and will be clearly indicated by markers such as ridges or white lines. FIG. 10 is an explanatory diagram showing the planar arrangement of the underground object on the road with a white line C. FIG.
道路下の地下埋設物と同様、建築物の壁面内に収められた配線・配管類についても、現地で目視することはできないので、設計図面などを参考に現地測量を行い、壁面にマーカーで示すことになる。 As with underground buried objects under the road, wiring and piping contained in the wall of the building cannot be observed on site, so field surveys are conducted with reference to design drawings, etc., and markers are shown on the walls. It will be.
これら埋設物とは異なり、現実には存在しないために現地で目視することはできないものもある。例示すれば、土地の境界や村市町村界、未施工の道路やマンションなど計画段階の構造物、土砂災害警戒区域や地すべり指定地などの危険区域、といった人の概念上作られたもの(以下、「概念物」という。)が挙げられる。このような概念物についても、現地での確認が必要となる状況は少なくなく、この場合、先に説明した埋設物と同様、概念物の位置を示す情報(やはり、通常は平面座標系で与えられる情報)に基づいて現地測量を行い、杭や白線等によるマーカーで明示することになる。 Unlike these buried objects, there are some that cannot be seen locally because they do not exist in reality. For example, what was created based on the concept of people such as land boundaries, villages, towns and villages, unstructured roads and condominiums, structures at the planning stage, dangerous areas such as landslide warning areas and landslide designated areas (hereinafter referred to as "Conceptual object"). For such a conceptual object, there are not many situations that require confirmation on site. In this case, information indicating the position of the conceptual object (usually given in a plane coordinate system as well as the embedded object described above). Field survey based on the information, and clearly indicate with markers such as piles and white lines.
このように埋設物や概念物など実際には目視できないもの(以下、「不可視物」という。)を現地で確認するためには、その不可視物に関する資料を収集し、さらに現地で測量する必要がある。不可視物を現地で確認するために費やす労力は、実際に目視できるもの(以下、「可視物」という。)に比べると極めて大きい。 In this way, in order to confirm on-site things that are not actually visible (hereinafter referred to as “invisible objects”), such as buried objects and conceptual objects, it is necessary to collect materials related to the invisible objects and to further survey them locally. is there. The labor required to confirm invisible objects on site is much larger than what can be visually observed (hereinafter referred to as “visible objects”).
一方、昨今では実空間上で仮想空間を体感する技術が、実用化に向けて開発されている。これは、現実の空間にデジタル情報を仮想画像として重ねて表現する技術で、現実世界を拡げるという意味から「拡張現実(Augumented Reality;AR)」と呼ばれている。拡張現実は、人の頭部に装着するディスプレイ(Head Mounted Display; HMD)で体感するものから始まり、現在では携帯電話をはじめとするモニタ付き携帯型コンピュータで表示させるものが主流になりつつある。 On the other hand, recently, a technology for experiencing a virtual space in a real space has been developed for practical use. This is a technique for superimposing and expressing digital information as a virtual image in a real space, and is called “Augmented Reality (AR)” in the sense of expanding the real world. Augmented reality starts with what is felt on a display (Head Mounted Display; HMD) that is worn on a person's head. Currently, what is displayed on a portable computer with a monitor such as a cellular phone is becoming mainstream.
拡張現実に関するハードウェアやソフトウェアは、実用化に向けて着実に進歩しているが、この技術を応用する方法についてはそれほど多く提案されていないのが現状であり、この意味では拡張現実は発展の途上にある技術といえる。拡張現実を応用した技術の提案は今後増加するものと考えられ、特許文献1もそのうちのひとつである。
Hardware and software related to augmented reality are steadily advancing toward practical use, but there are currently not many proposals for how to apply this technology. In this sense, augmented reality has not been developed. It can be said that this technology is on the way. Proposals for technologies applying augmented reality are expected to increase in the future, and
特許文献1は、カメラ付きの端末機で実空間を撮影しながら連続的に表示(ライブビュー)し、カメラの位置やカメラの方向に応じて仮想画像(この文献では「拡張現実感情報」)を取得し、実空間の撮影画像に重畳表示するものである。そして、カメラを移動させると、その移動速度に追随して適確に仮想画像を表示させることを目的とし、カメラの移動量に閾値を設け、その閾値と移動量とを照らし合わせて仮想画像を変更するか否かを判断するものである。
特許文献1では、カメラの位置やカメラの方向を計測する方法として、カメラ付き端末機に各種のセンサを搭載することとしている。このように拡張現実を実現するにあたってセンサを用いることは一般的となりつつあり、センサによる計測精度を上げる技術、計測時間を短縮する技術、センサ自体を小型化する技術など、センサに関する技術も大きく進歩している。このセンサには、カメラの位置(座標)を計測するものと、カメラの姿勢を計測するものに大きく分けられ、前者ではGPS(Global Positioning System)が代表的であり、後者では地磁気センサなどが例示できる。
In
前記したように、埋設物や概念物など実際には目視できない「不可視物」を現地で確認する場合、その不可視物に関する資料を収集する必要があり、さらに現地で測量する必要があり、多くの労力や時間を必要としていた。また、不可視物を現地で表現するには、鋲や杭あるいは白線などのマーカーで表示することとなり、その労力に加え美観的にも好ましものではなかった。 As mentioned above, when confirming “invisible objects” such as buried objects and conceptual objects that cannot actually be seen on the site, it is necessary to collect materials related to the invisible objects, and it is necessary to survey on the site. It required labor and time. In addition, in order to express invisible objects locally, they were displayed with markers such as ridges, stakes, or white lines, which was not preferable in terms of labor and aesthetics.
このような問題を解決するため、特許文献1で示されるように拡張現実を用いることも考えられる。すなわち、現地にてカメラ付き端末機で撮影し、埋設物や概念物を仮想画像化したものを実際の画像に表示させることが考えられる。しかしながら、特許文献1で表示する仮想画像はタグであり、タグに示される情報によって現実以上のものを感得するものである。このような手段では、現地でどこに埋設物が存在しているのか、ということは直感的に認識することはできない。
In order to solve such a problem, it is also possible to use augmented reality as shown in
さらに特許文献1を含め現状の拡張現実では、仮想画像を実空間の画像と重ね合わせる際の位置精度に問題がある。GPSや磁気センサによる計測技術は向上しているものの、その精度はまだ十分ではなく、かつ誤って表示したものを補正する技術も確立されていない。特に、道路下に埋設物がある状態で掘削を行う場合、拡張現実によって表示した仮想画像(ここでは地下埋設物)の表示位置精度が十分でないと、地下埋設物に損傷を与える事故などを引き起こすおそれがある。
Furthermore, in the current augmented reality including
本願発明の課題は、前記した問題を解決することであり、資料収集や現地測量などの労力を必要とすることなく、現地にて埋設物や概念物など不可視物を直感的に確認することである。また、実空間の画像と重ね合わせる際、仮想画像の表示位置精度を適切なものとすることも、本願発明の課題の一つである。より具体的には、これらの問題を解決する画像合成装置、画像合成プログラム、及び画像合成システムを提供することが、本願発明の課題である。 The subject of the present invention is to solve the above-mentioned problems, and without inconvenience such as collection of materials and on-site surveying, it is possible to intuitively confirm invisible objects such as buried objects and conceptual objects at the site. is there. Another object of the present invention is to make the display position accuracy of the virtual image appropriate when superimposing the image on the real space. More specifically, it is an object of the present invention to provide an image composition device, an image composition program, and an image composition system that solve these problems.
本願発明の画像合成装置は、現実の空間を撮像した実空間画像に、空間情報を有する空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成装置であって、前記実空間画像を取得する画像取得手段と、画像取得手段の位置及び姿勢を計測する計測手段と、前記空間モデルを記憶する記憶手段と、前記計測手段による計測値と前記空間モデルとに基づいて演算処理を行い、前記表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示手段と、を備えたものである。 An image composition apparatus according to the present invention is an image composition apparatus that superimposes a virtual space image created based on a space model having space information on a real space image obtained by capturing a real space and displays the image on a display screen. Based on the image acquisition means for acquiring the real space image, the measurement means for measuring the position and orientation of the image acquisition means, the storage means for storing the space model, the measurement value by the measurement means and the space model The image creation means for creating the virtual space image so as to become a perspective view displayed in perspective on the display screen, the real space image displayed in perspective, and the virtual space image displayed in perspective And display means for superimposing and displaying on the display screen.
本願発明の画像合成装置は、空間モデルが、目視可能な可視物の空間情報と、目視できない不可視物の空間情報と、を含み、画像作成手段は、前記可視物の仮想空間画像と前記不可視物の仮想空間画像を作成し、さらに、前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御手段を備えたものとすることもできる。 In the image synthesizing apparatus according to the present invention, the spatial model includes spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and the image creating means includes the virtual space image of the visible object and the invisible object. And a display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object.
本願発明の画像合成装置は、同一の目視可能な可視物についての仮想空間画像と実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整手段を、備えたものとすることもできる。 The image composition device of the present invention displays the virtual space image and the real space image when the display positions of the virtual space image and the real space image for the same visible visible object do not match on the display screen. Display position adjusting means for moving the virtual space image so that the positions coincide or substantially coincide with each other on the display screen may be provided.
この場合、表示位置調整手段が、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整することもできる。 In this case, the display position adjusting means automatically extracts the shape feature portion based on the image feature portion of the real space image, and automatically detects the matching portion to be matched with the shape feature portion from the virtual space image of the visible object. In addition, the display position of the virtual space image can be automatically adjusted so that the positions on the display image of the shape feature portion and the collation portion match or substantially match.
本願発明の画像合成装置は、表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。 In the image composition device according to the present invention, the display means displays a figure or / and attribute information relating to a virtual space image, and the display control means displays or hides the figure or / and attribute information. You can also
本願発明の画像合成プログラムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示させる画像合成プログラムであって、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶した記憶手段から、この空間モデルを取得するモデル読み込み機能と、計測により得た画像取得手段の位置及び姿勢を取得する計測値読み込み機能と、前記画像取得手段の位置及び姿勢と前記空間モデルとに基づいて、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成する画像作成機能と、遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示機能と、前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御機能と、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整機能と、をコンピュータに実行させるものである。 The image composition program of the present invention is an image composition program that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen. A model reading function for acquiring this spatial model and the position and orientation of the image acquisition means obtained by measurement are acquired from a storage means storing a spatial model including spatial information of visible objects and spatial information of invisible objects that cannot be viewed. Based on the measurement value reading function, the position and orientation of the image acquisition means, and the space model, the virtual space image of the visible object and the invisible object of the invisible object are displayed in a perspective view displayed on the display screen. An image creation function for creating a virtual space image, the real space image displayed in perspective, and the virtual space image displayed in perspective are superimposed on the display screen. A display function for displaying, a virtual space image for the visible object, and a display control function for selecting or displaying the virtual space image for the invisible object, the virtual space image for the same visible object, and the actual display. When the display position of the space image does not match on the display screen, the virtual space image is moved so that the display position of the virtual space image and the real space image match or substantially match on the display screen. The display position adjustment function is executed by a computer.
本願発明の画像合成プログラムは、表示位置調整機能が、実空間画像のうちの画像の特徴部に基づいて、形状特徴部を抽出する特徴部抽出機能と、前記形状特徴部と照合する照合部分を、可視物の仮想空間画像から検出する照合部分検出機能と、前記形状特徴部と前記照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を調整する位置調整機能と、を備えたものとすることもできる。 In the image composition program of the present invention, the display position adjustment function includes a feature portion extraction function for extracting a shape feature portion based on an image feature portion of a real space image, and a matching portion for matching with the shape feature portion. A matching part detection function for detecting from a virtual space image of a visible object, and a position adjustment for adjusting the display position of the virtual space image so that the positions of the shape feature part and the matching part on the display image match or substantially match It is also possible to provide a function.
本願発明の画像合成プログラムは、表示機能が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御機能が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。 In the image composition program of the present invention, the display function displays a figure or / and attribute information related to a virtual space image, and the display control function displays or hides the figure or / and attribute information. You can also
本願発明の画像合成システムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値がサーバに伝送され、前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成するとともに、これらの仮想空間画像を当該端末機に伝送し、前記仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示され、同一の可視物についての仮想空間画像と実空間画像との表示位置が、前記表示画面上で一致しない場合に、前記端末機が備える表示位置調整手段によって、前記仮想空間画像と前記実空間画像の表示位置が表示画面上で一致又は略一致するように、前記仮想空間画像を移動させ得るものである。 An image composition system of the present invention is an image composition system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space, and displays the image on a display screen. The server includes one or two or more terminals connected to the server via a wireless or wired communication line, and the server includes space information of visible objects that are visible and space information of invisible objects that are not visible. Storage means for storing a model, image creation means for creating the virtual space image so as to become a perspective view displayed on the display screen of the terminal, and communication means, the terminal, Image acquisition means for acquiring a real space image, measurement means for measuring the position and orientation of the image acquisition means, display means for displaying the real space image and the virtual space image on a display screen, and the visible object Display control means for selecting and displaying a virtual space image and a virtual space image of the invisible object, and communication means, and when the terminal user requests the server, the terminal measurement The measurement value by the means is transmitted to a server, and the server, based on the request of the user of the terminal, based on the measurement value of the terminal and the space model, the virtual space image of the visible object and the invisible object And the virtual space image is transmitted to the terminal, and the display screen of the terminal that has received the virtual space image is displayed in perspective with the real space image displayed in perspective. When the display position of the virtual space image and the real space image for the same visible object are displayed in a superimposed manner and the display positions of the virtual space image do not match on the display screen, the display position included in the terminal The adjusting means such that said display position of the virtual space image the real space image matches or nearly matches on the display screen, it is capable to move the virtual space image.
本願発明の画像合成システムは、現実の空間を撮像した実空間画像に、空間モデルに基づいて作成される仮想空間画像を、重畳して表示画面に表示する画像合成システムであって、サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値と、当該端末の画像取得手段による実空間画像と、がサーバに伝送され、前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成し、さらに前記サーバは、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が前記表示画面上で一致しない場合に、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整したうえで、可視物の仮想空間画像と不可視物の仮想空間画像とを前記端末機に伝送し、仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示されるものとすることもできる。 An image composition system of the present invention is an image composition system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space, and displays the image on a display screen. The server includes one or two or more terminals connected to the server via a wireless or wired communication line, and the server includes space information of visible objects that are visible and space information of invisible objects that are not visible. Storage means for storing a model, image creation means for creating the virtual space image so as to become a perspective view displayed on the display screen of the terminal, and communication means, the terminal, Image acquisition means for acquiring a real space image, measurement means for measuring the position and orientation of the image acquisition means, display means for displaying the real space image and the virtual space image on a display screen, and the visible object Display control means for selecting and displaying a virtual space image and a virtual space image of the invisible object, and communication means, and when the terminal user requests the server, the terminal measurement The measured value by the means and the real space image by the image acquisition means of the terminal are transmitted to the server, and the server determines the measured value of the terminal and the space model in response to a request of the user of the terminal. And the server creates a virtual space image of the visible object and a virtual space image of the invisible object, and the server displays the display position of the virtual space image and the real space image for the same visible object in the display. If they do not match on the screen, the shape feature is automatically extracted based on the image feature of the real space image, and the matching portion to be matched with the shape feature is automatically extracted from the virtual space image of the visible object. After detecting and automatically adjusting the display position of the virtual space image so that the position on the display image of the shape feature portion and the matching portion match or substantially match, the virtual space image of the visible object and the virtual space of the invisible object are In the display screen of the terminal that transmits the space image to the terminal and receives the virtual space image, the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed. It can also be.
本願発明の画像合成システムは、表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものとすることもできる。 In the image composition system of the present invention, the display means displays a figure or / and attribute information relating to a virtual space image, and the display control means displays or hides the figure or / and attribute information. You can also
本願発明の画像合成装置、画像合成プログラム、及び画像合成システムには、次のような効果がある。
(1)資料収集や現地測量などの労力を要することなく、現地で不可視物を容易に確認することができる。
(2)また、現地で不可視物を表示するためのマーカーを必要としないので、現地の美観を保つことができる。
(3)実空間画像の画像に合わせた遠近感で仮想空間画像を表示するので、極めて直感的に不可視物を把握することができる。
(4)同一の可視物で仮想空間画像と実空間画像の表示位置を合わせることで、不可視物の仮想空間画像の表示位置精度も向上するので、例えば道路下を掘削する場合でも地下埋設物を損傷させることがない。
(5)仮想空間画像に関する図面や属性情報を表示することで、不可視物の存在する位置のほか、例えば地下埋設物の種類や所有者など有用な情報も確認できるので好適である。
The image composition device, the image composition program, and the image composition system of the present invention have the following effects.
(1) Invisible objects can be easily confirmed locally without the need for labor, such as data collection and field surveying.
(2) Moreover, since the marker for displaying an invisible object is not required locally, the local beauty can be maintained.
(3) Since the virtual space image is displayed with a perspective that matches the image of the real space image, it is possible to grasp an invisible object extremely intuitively.
(4) By matching the display position of the virtual space image and the real space image with the same visible object, the display position accuracy of the virtual space image of the invisible object is also improved. For example, even when excavating under the road, There is no damage.
(5) Displaying drawings and attribute information related to a virtual space image is preferable because it can confirm useful information such as the type and owner of an underground object in addition to the position where an invisible object exists.
(実施形態)
本願発明の画像合成装置、画像合成プログラム、及び画像合成システムの一実施形態を図に基づいて以下説明する。
(Embodiment)
One embodiment of an image composition device, an image composition program, and an image composition system of the present invention will be described below with reference to the drawings.
(全体概要)
図1は道路を端末機1で撮影している状況を示す説明図であり、図2(a)は端末機1のモニタ側を示す図であり、(b)は端末機1の背面側(カメラ側)を示す図である。図1に示すように、センターライン2が敷設された道路の下には下水管3が埋設されており、いま端末機1の使用者(以下、「ユーザ」という。)が歩道上から目の前の光景を撮影している。図2(a)(b)に示すように、端末機1にはカメラ1a(画像取得手段)が内蔵されており、端末機1の表面にはモニタ1b(表示画面)が設けられている。なお便宜上、図1では下水管3を破線で表示しているが、もちろんユーザに下水管3は見えていない。
(Overview)
FIG. 1 is an explanatory view showing a situation where a
図2(a)に示すように、ユーザが撮影したモニタ1bには実際の空間に存在するもの(以下、「実在物」という。)、すなわち車道、歩道、電柱、建物などを撮影した画像(以下、実在物の画像を「実空間画像」という。)が表示されており、車道のセンターライン2も実空間画像(センターライン2R)として表示されている。もちろん実在物には、ここで例示した車道、歩道、電柱、建物、車道のセンターライン2に限られず、電柱に掛けてある電線類や、構造物内の鉄筋など、実際の空間に存在するあらゆるものが含まれることはいうまでもない。また、後に説明する空間モデルに基づいて作成された仮想上のモデル(以下、「仮想空間モデル」という。)を画像化したもの(以下、仮想空間モデルの画像を「仮想空間画像」という。)も、モニタ1bに表示される。図2(a)では、下水管3の仮想空間モデルを画像化した仮想空間画像(下水管3V)を表示している。なお便宜上、センターラインを実在物として表現する場合は「センターライン2」と数字のみの記号で表し、センターラインを実空間画像として表現する場合は「センターライン2R」とRを添えた記号で表し、後に説明するようにセンターラインを仮想空間画像として表現する場合は「センターライン3V」とVを添えた記号で表すこととする。同様に、下水管を実在物として表現する場合は「下水管3」と表し、下水管を仮想空間画像として表現する場合は「下水管3V」と表す。
As shown in FIG. 2 (a), the
(端末機)
図2(a)に示す端末機1について説明する。端末機1は少なくとも、カメラ1a(画像取得手段)と、図示しないセンサ(計測手段)と、モニタ1b(表示画面)と、電子計算機(以下、「コンピュータ」という。)を備えている。この端末機1は、人が携帯しやすい小型のものが望ましく、カメラとセンサを内蔵する市販の携帯電話機や携帯型コンピュータを利用することができるが、その他デジタルカメラを改造したもの、あるいは専用に作成されたものを用いることもできる。
(Terminal)
The
端末機1のカメラ1aで撮影される画像はモニタ1bで表示されるが、カメラ1aを向けた方向の光景が常に表示され、カメラ1aの動きにも追随して表示される、いわゆるライブビューで表示される。もちろんシャッターを操作することで静止画として取得することもできる。
An image captured by the camera 1a of the
端末機1のセンサは、カメラ1a位置情報を計測する位置計測センサと、カメラ1aの姿勢を計測する姿勢計測センサの、大きく2種類に分けられる。
The sensors of the
位置計測センサは、カメラ1aの位置座標を取得するもので、ここでいう位置座標とは3次元座標(X,Y,Z)のこと(もちろん、緯度と経度と標高でもよい)を意味する。位置計測センサとしてはGPSが代表的であるが、その他、無線LANのアクセスポイントを利用する測位方法(Place Engineなど)、LEDの高速点滅を信号として伝送する可視光通信を利用した測位方法、室内にGPSを配置して測位するIMES(Indoor Messaging System)、QRコードやビジュアル・マーカー(ARToolKitなどで利用されるマーカー)やRFIDタグなどから位置情報を取得する測位方法、赤外線通信を利用した測位方法など、公知の測位技術を利用することができる。もちろん、屋外用としてGPSを、屋内用として無線LAN方式を併用するなど、種々の測位方法を組み合わせて利用することもできる。 The position measuring sensor acquires the position coordinates of the camera 1a, and the position coordinates here mean three-dimensional coordinates (X, Y, Z) (of course, latitude, longitude, and altitude may be used). GPS is a representative position measurement sensor, but in addition, a positioning method using a wireless LAN access point (such as Place Engine), a positioning method using visible light communication that transmits LED blinking as a signal, indoors Positioning method to acquire position information from IMES (Indoor Messaging System), QR code, visual marker (marker used in ARTToolKit), RFID tag, etc., positioning using infrared communication For example, a known positioning technique can be used. Of course, various positioning methods can be used in combination, such as GPS for outdoor use and a wireless LAN system for indoor use.
姿勢計測センサは、カメラ1aの姿勢を取得するもので、ここでいう姿勢とはカメラ1aの向いている方向であり傾きのことを意味する。より具体的には、水平面の左右軸をX軸、水平面の前後軸をY軸、鉛直軸をZ軸とすると、X軸回りの回転ω(ピッチ)、Y軸回りの回転φ(ロール)、Z軸回りの回転κ(ヨー)が姿勢を決定する要素である。姿勢計測センサとしては、Z軸回りの回転κつまり方位を計測する地磁気センサ(電子コンパス)や、X軸回りの回転ωやY軸回りの回転φを計測する加速度センサが代表的であるが、その他ジャイロセンサなど公知の技術を利用することもできる。電子コンパスと加速度センサの両方を内蔵した、いわゆる6軸センサ内蔵の携帯電話端末も市販されているので、このような端末機を利用すると好適である。 The posture measurement sensor acquires the posture of the camera 1a, and the posture here refers to the direction in which the camera 1a is facing and the tilt. More specifically, if the horizontal axis is the X axis, the horizontal axis is the Y axis, and the vertical axis is the Z axis, the rotation ω (pitch) around the X axis, the rotation φ (roll) around the Y axis, The rotation κ (yaw) around the Z axis is an element that determines the posture. Typical posture measurement sensors include a geomagnetic sensor (electronic compass) that measures rotation κ around the Z axis, that is, an orientation, and an acceleration sensor that measures rotation ω around the X axis and rotation φ around the Y axis. Other known techniques such as a gyro sensor can also be used. Since a mobile phone terminal incorporating a so-called 6-axis sensor and incorporating both an electronic compass and an acceleration sensor is also commercially available, it is preferable to use such a terminal.
(仮想空間画像)
仮想空間画像について説明する。先にも説明したように仮想空間画像とは、空間モデルを演算処理することで作成される仮想空間モデルを、さらに画像化したものである。
(Virtual space image)
The virtual space image will be described. As described above, the virtual space image is a further image of a virtual space model created by processing the space model.
空間モデルとは、地物を地球上の特定の位置、特定の形状や大きさで表現するための空間情報の集合を意味する。なお、ここでいう空間情報とは、座標や緯度経度など地物の位置を表現するための情報のことであり、2次元座標(X,Y)や3次元座標(X,Y,Z)が例示できる。さらに、ここでいう地物とは、空間情報によって表現することのできる物という程度の意味であり、実存する物(実在物)に限定されものではない。例えば、 土地の境界や村市町村界、未施工の道路やマンションなど計画中の構造物、土砂災害警戒区域や地すべり指定地などの危険区域、といった人の概念上作られたもの(概念物)も、空間情報によって特定の位置や特定の形状・大きさを表現することができればすべて地物である。 A spatial model means a set of spatial information for expressing a feature with a specific position, a specific shape and size on the earth. The spatial information here is information for expressing the position of a feature such as coordinates and latitude / longitude, and two-dimensional coordinates (X, Y) and three-dimensional coordinates (X, Y, Z) are used. It can be illustrated. Further, the term “feature” as used herein means a level that can be expressed by spatial information, and is not limited to a real thing (real thing). For example, things created based on human concepts (concepts) such as land boundaries, villages, towns and villages, unstructured roads and condominiums, planned structures such as landslide disaster warning areas and landslide designated areas If a specific position and a specific shape / size can be expressed by spatial information, all are features.
また、実在物は、図1のセンターライン2のように実際に目視できる可視物と、下水管3のように実際には目視できない不可視物とに分けることができるが、可視物、不可視物のいずれも空間情報によって特定の位置や特定の形状・大きさを表現することができるので地物である。すなわち空間モデルは、実在物(可視物と不可視物)や概念物といった地物に関する空間情報の集合である。
In addition, the actual objects can be divided into visible objects that can be visually observed like the center line 2 in FIG. 1 and invisible objects that are not actually visible such as the
空間モデルの一例として、地表面(地物)をモデル化した「数値標高モデル」を挙げることができる。数値標高モデルとは、3次元の点群データにより構成されたモデルであり、DEM(Digital Elevation Model)やDSM(Digital Surface Model)などが知られている。もちろん、空間モデルとしては、3次元の点群データに基づくものに限らず、2次元の点群データから成る平面メッシュのようなものでもよいし、線分を表すための2点の平面座標や、線分を定義する1点の平面座標と方向と長さといった空間情報の集合であってもよい。 As an example of the space model, a “numerical elevation model” in which the ground surface (feature) is modeled can be cited. The digital elevation model is a model composed of three-dimensional point cloud data, and DEM (Digital Elevation Model), DSM (Digital Surface Model), and the like are known. Of course, the spatial model is not limited to the one based on the three-dimensional point cloud data, but may be a plane mesh composed of the two-dimensional point cloud data, the two-point plane coordinates for representing the line segment, Also, it may be a set of spatial information such as the plane coordinates, direction, and length of one point that defines the line segment.
空間モデルは、データベースとしてコンピュータの記憶領域などに記憶される(記憶手段)。この空間モデルのデータベースから必要な空間情報を取得して、所定の演算処理を行い、地物の特定の位置、特定の形状や大きさを求める。ここで求められたものが仮想空間モデルである。なお、前記したとおり地物には実在物(可視物と不可視物)が含まれ、すなわち実在物が仮想空間モデルとして作成される場合があるが、計算によって求めたという意味で「仮想」という語を用いており、たとえ実在物であっても空間モデルから作成されたものは仮想空間モデルと呼ぶ。 The spatial model is stored as a database in a storage area of a computer (storage means). Necessary spatial information is acquired from the database of the spatial model, and predetermined calculation processing is performed to obtain a specific position, a specific shape, and a size of the feature. What is obtained here is a virtual space model. Note that as described above, features include real objects (visible objects and invisible objects), that is, real objects may be created as a virtual space model, but the term “virtual” means that it is obtained by calculation. Even if it is a real thing, what was created from the space model is called a virtual space model.
仮想空間モデルから、端末機1のモニタ1bに表示するための画像、すなわち仮想空間画像が作成される。カメラ1aで撮影している場所の仮想空間画像をモニタ1b上に表示すれば、目視だけでは得られない情報も同時に取得することができるので極めて有益である。このとき仮想空間画像は、モニタ1b上でも実際に存在している位置に表示されることが望ましい。例えば、実際には下水管3は道路左側に埋設されているにもかかわらず、モニタ1b上では下水管3V(仮想空間画像)が車道の右側に表示されたのでは、却って混乱することとなる。
An image to be displayed on the
さらに図2(a)に示すように、モニタ1bに表示される実空間画像は、実際に見た状態、すなわち遠近感を表現した状態で表示されている(以下、遠近感を表現した状態での表示を、「遠近表示」という。)ため、仮想空間画像も遠近表示としなければ誤解を招くおそれがある。仮に、図2(a)で下水管3Vのみモニタ1bの縦枠と平行に表示したとすると、下水管3Vは道路から外れて埋設されたと誤認されることになる。なおこれまでも、実際に撮影した「もの」に関連する情報を、モニタ1b上でその「もの」が表示されている付近にタグで表示することは行われてきたが、タグなど「点」の情報とは異なり、「線」や「面」の地物を実空間画像に表示する場合は、単に位置を合わせるだけでなく、その表示方法にも工夫しなければならない。
Further, as shown in FIG. 2A, the real space image displayed on the
そこで本願発明では、仮想空間画像についても、実際に撮影すれば表示されるであろう状態でモニタ1bに表示することとしている。つまり図2(a)に示す下水管3V(仮想空間画像)の場合で説明すれば、モニタ1bに表示される実空間画像の中において、実際に埋設されている平面位置に下水管3Vを表示するとともに、実空間画像のように(例えば車道や歩道のように)遠近表示するものである。
Therefore, in the present invention, the virtual space image is also displayed on the
このとき、仮想モデルは実空間における空間情報(座標)しか持たないので、このままではモニタ1b上のどの位置(どの画素)に表示すべきかが不明である。そのため、例えばモニタ1b上で任意の座標系を設定し、仮想空間モデルが持つ実空間座標をモニタ1bの任意座標系に変換するなど、仮想空間モデルをモニタ1b上のどの位置にどのような形状で表現すべきか定める必要がある。
At this time, since the virtual model has only spatial information (coordinates) in the real space, it is unclear at which position (which pixel) the
また、仮想空間画像を遠近表示させるためには、実空間画像における遠近の状態を把握する必要があり、この遠近状態で設定されるモニタ1b上の任意座標系と実空間での座標系との幾何学的関係を求める必要がある。実空間画像における遠近の状態は、一般に遠近法を使って把握することができる。この遠近法とは、絵画だけでなく設計図やカメラなど平面に表示する様々な分野で利用されている技術であり、近年ではコンピュータグラフィックス(CG)でも多用されている。実空間に存在する3次元のものを、2次元の平面上に立体的に(立体感を感得できるように)表現する手法が遠近法であり、この遠近法によって表現されたものは「透視図」と呼ばれる。例えば図2(a)の実空間画像は、一つの消失点に向けてあらゆる線が収束しているように遠近表示された透視図である。
In addition, in order to display a virtual space image in perspective, it is necessary to grasp the perspective state in the real space image, and between the arbitrary coordinate system on the
実空間画像で表現された地物は実在物であるから当然実空間の座標を持っており、これら実在物の実空間座標がモニタ1b上でどのように表示されているかを把握することによって、モニタ1b上の任意座標系を定めることができる。これについては、カメラ1aの実空間座標、カメラ1aの姿勢、カメラ1aの仕様(画角や焦点距離など)から光学的に求めることができる。なお、カメラ1aの実空間座標は位置計測センサで計測した3次元座標(X,Y,Z)を用いることができるし、カメラ1aの姿勢は姿勢計測センサで計測した値(ω,φ,κ)を用いることができる。
Since the feature expressed in the real space image is a real thing, it naturally has the coordinates of the real space, and by grasping how the real space coordinates of these real things are displayed on the
実空間画像で表現された実在物の実空間座標に基づいてモニタ1b上の任意座標系を定めると、実空間座標をこの任意座標系で表すことができ、同様に、空間情報を持つ仮想空間モデルもモニタ1b上の任意座標系で表すことができる。このように、仮想空間モデルをモニタ1b上の任意座標系に配置し、モニタ1bに表示するために作成されたものが仮想空間画像である。なお仮想空間画像は、実際には、コンピュータで処理するためのデータで、モニタ1b上における配置情報(どの画素に対応するか)や輝度情報(RGBなど)などのデータから成るものであるが、便宜上、モニタ1bで表示された結果目視できる状態となったものを仮想空間画像と呼ぶ。
When an arbitrary coordinate system on the
(モニタでの表示)
モニタ1b上の任意座標系で配置された実空間画像は遠近表示された透視図の状態となっているので、同じく、仮想空間モデルをモニタ1b上の任意座標系に配置した仮想空間画像も遠近表示された透視図となる。これら遠近表示された実空間画像と遠近表示された仮想空間画像をモニタ1bに重畳して表示させると、図2(a)に示すように、仮想空間画像(下水管3V)と車道や歩道との位置関係が直感的に把握できるので極めて有益である。
(Display on monitor)
Since the real space image arranged in the arbitrary coordinate system on the
ユーザが、端末機1の「表示ボタン」を操作するなど、仮想空間画像を表示する旨を端末機1に伝達すると、センサ(位置計測センサ、姿勢計測センサ)による計測値や空間モデルを基に仮想空間画像が作成され、この仮想空間画像がモニタ1bに表示される。仮想空間画像の作成は端末機1が行ってもよいし、端末機1と通信可能なサーバを設け、このサーバで仮想空間画像を作成させ端末機1に配信させてもよい。モニタ1bに表示された仮想空間画像は、次の操作(例えば、次の「表示ボタン」操作)があるまで同じものが表示される。なお、仮想空間画像のモニタ1b表示は、ユーザの操作によるタイミングに限らず、センサが計測値を取得したタイミングで随時自動的に行うようにしてもよい。
When the user communicates to the
仮想空間画像は、図2(a)のような実在物を基に作成された下水管3Vに限らず、図3(a)に示すように、用地境界線4Vのように概念物を基に作成することもできる。また、用地境界線に任意の幅(高さ)を持たせることにより、用地境界線を面として、すなわち図3(b)に示す用地境界面5Vとして表示させることもできる。あるいは、空間モデルが道路の断面図を作成することのできる空間情報を備えていれば、図8に示すように道路の一部をあたかも掘削したかのように表示することもできる。このように、実空間画像の遠近表示に合わせた透視図として作成された仮想空間画像を、実空間画像と重畳して表示することができれば、現地にて端末機1をかざすだけで、用地測量を実施することなく用地境界を目視で確認できて、また実際に掘削することなく道路下を目視で確認することができるので、極めて有益である。
The virtual space image is not limited to the
空間モデルは、不可視物や概念物に限らず、可視物についての空間情報を有する場合もある。可視物は、カメラ1aで撮影され、実空間画像としてモニタ1bに表示されるので、空間モデルがこの可視物に関する空間情報を持つ場合、同一の可視物について実空間画像と仮想空間画像の両方がモニタ1bに表示されることとなる。例えば、ある建物を撮影すると、この建物の実空間画像が表示されるが、さらにこの建物の仮想空間画像が重ねて表示されると、その表示は煩雑で分かりにくい。そこで、面(あるいは面を組み合わせた)形状の仮想空間画像については、種々の表示方法を選択できるようにすると好適である。例えば、仮想空間画像にテクスチャを貼り付けて実空間画像にオーバーレイ表示する方法、仮想空間画像を半透明など透過させて表示する方法、面の外郭線のみで表示する方法、あるいは格子線からなるメッシュで表示する方法、などが挙げられる。
The spatial model is not limited to invisible objects and conceptual objects, and may have spatial information about visible objects. Since the visible object is photographed by the camera 1a and displayed on the
また、モニタ1b上で実空間画像と重畳表示される仮想空間画像については、選択的に表示させることもできる。具体的には、ユーザが端末機1を操作することで、仮想空間画像の表示状態を選択すれば実空間画像と仮想空間画像がモニタ1b上で重畳表示され、仮想空間画像の非表示状態を選択すればモニタ1b上では実空間画像のみが表示されることとなる。つまり、ユーザの必要に応じて仮想空間画像を表示/非表示とすることができるわけである。
Further, the virtual space image superimposed on the real space image on the
さらに、仮想空間画像を地物ごとに識別できるようにしておけば、地物単位で表示/非表示とすることができる。例えば、モニタ1bに建物(可視物)の実空間画像が表示され、さらにその建物の仮想空間画像と用地境界線の仮想空間画像が表示された状態から、建物の仮想空間画像のみを選択して非表示とすれば、用地境界線という有用な情報は残しつつ建物の把握も容易となる。
Furthermore, if the virtual space image can be identified for each feature, it can be displayed / hidden for each feature. For example, from the state in which a real space image of a building (visible object) is displayed on the
なお、一般に空間モデルは地理的に広範囲で構築されているので、モニタ1bで表示する範囲を大きく超えて地物の空間情報を有している。そのため、カメラ1aの実空間座標、カメラ1aの姿勢、カメラ1aの仕様を基に、モニタ1b上の任意座標系を光学的に求める際に、同時に空間モデルのうち仮想空間画像として作成される範囲(つまり描画範囲)が抽出される。もちろんこれは地物単位で抽出することを意味するものではなく、地物の一部がモニタ1bに収まらない場合にこの地物のうちどこまでを描画すべきかを抽出するものである。
In general, since the spatial model is constructed over a wide geographical area, the spatial model has spatial information of the feature that greatly exceeds the range displayed on the
地物あるいは場所(位置)と関連付いた他の情報(データ)をデータベースとして備えておけば、モニタ1bに表示される範囲(実空間における範囲)に関連する諸情報を表示することができる。この諸情報としては、例えば下水管3の詳細図や縦断図といった図面、用地の所有者や連絡先などの属性情報、などが挙げられる。図4は、下水管3Vに関する平面図6が表示されたモニタ1bを示す図である。この図に示すように、仮想空間画像(下水管3Vや用地境界線4Vなど)に関する図面や属性情報は、実空間画像や仮想空間画像にオーバーレイ表示とすることもできるし、あるいは別ウィンドウとして表示することもできるし、画面を分割して表示することもできる。また、仮想空間画像に関する図面や属性情報は、モニタ1b上で表示させるか又は非表示とするかを選択できることが望ましい。
If other information (data) associated with a feature or place (position) is provided as a database, various information related to the range (range in real space) displayed on the
(仮想空間画像の表示位置調整)
前記したように、仮想空間画像は、空間情報やカメラ1aに関する計測値などに基づいて空間演算処理を行い、モニタ1b上での表示位置が決定される。しかしながら、位置計測センサや姿勢計測センサの計測精度によって、あるいは空間モデルが備える空間情報の位置精度によっては、モニタ1b上の正しい位置に表示されないこともある。不可視物や概念物からなる仮想空間画像だけがモニタ1bに表示されただけでは、その表示位置が正しいか否かは直ちに判断できないが、可視物からなる仮想空間画像をモニタ1bに表示することにより、すなわち同一の可視物について実空間画像と仮想空間画像を同時に表示させることにより、仮想空間画像の表示位置の妥当性を判断することができる。
(Adjusting the display position of the virtual space image)
As described above, the virtual space image is subjected to space calculation processing based on the space information, the measurement value related to the camera 1a, and the like, and the display position on the
図5は、カメラ1aで撮影した実空間画像と、仮想空間画像であるセンターライン2Vと下水管3Vを、重畳表示したモニタ1bを示す図である。この図に示すように、可視物であるセンターライン2の実空間画像(センターライン2R)と仮想空間画像(センターライン2V)を同時に表示させると、両者の「ずれ」からセンターライン2Vの表示位置が正しくないことが直ちに理解できる。
FIG. 5 is a diagram showing a
仮想空間画像がモニタ1b上の正しい位置で表示されていないと、地下埋設物や用地境界の正しい位置を把握できない結果となるので、仮想空間画像を正しい位置に調整できる手段を設けることが望ましい。この表示位置調整機能としては、ユーザ操作によって調整する手段と、自動的に調整される手段の二つの手段が挙げられる。以下この二つの手段について、センターライン2に関する実空間画像(センターライン2R)と仮想空間画像(センターライン2V)の位置合わせを例に説明しているが、モニタ1bに表示されたものであればセンターライン2に限らず他のあらゆる地物で位置合わせを行うことができることはいうまでもない。
If the virtual space image is not displayed at the correct position on the
ユーザ操作によって調整する手段は、ユーザが画面を確認しながら仮想空間画像を正しい位置に表示させる方法であり、実空間画像を移動させる方法と、仮想空間画像を移動させる方法がある。 The means for adjusting by user operation is a method in which the user displays the virtual space image at a correct position while checking the screen, and there are a method for moving the real space image and a method for moving the virtual space image.
実空間画像を移動させる方法とは、モニタ1bに仮想空間画像を表示させた状態で、ユーザが画面を確認しながら、端末機1を移動させるものである。図5に示すように、実空間画像に対して仮想空間画像が平行移動したように「ずれ」が生じている場合は、端末機1もその姿勢のまま左右上下に移動させる(ユーザ自身が移動してもよい)。図6に示すように、実空間画像に対して仮想空間画像が回転移動したように「ずれ」が生じている場合は、端末機1をその位置のまま姿勢を変えていく。なおここでいう姿勢とは、前記したように3軸回りの回転(ω,φ,κ)のことを意味し、図6の平面内で回転(ロール)させてもよいし、図6内の横軸回りに回転(ピッチ)させてもよいし、図6内の縦軸回りに回転(ヨー)させてもよい。このように端末機1を左右上下に移動させ、又は端末機1の姿勢を変更し、あるいは必要に応じてこれらを組み合わせながら、実空間画像の表示位置を仮想空間画像の表示位置に合わせ、仮想空間画像を正しい位置に表示させる。
The method of moving the real space image is to move the
実空間画像を移動させる方法に対して仮想空間画像を移動させる方法とは、モニタ1bに仮想空間画像を表示させた状態で、ユーザが画面を確認しながら、モニタ1b上で仮想空間画像を移動させるものであり、仮想空間画像を移動させるには種々の方法が挙げられる。なお、仮想空間画像の移動とは、新たな条件で再計算することで仮想空間画像を作成し、これを再表示することである。
The method of moving the virtual space image with respect to the method of moving the real space image is to move the virtual space image on the
仮想空間画像を移動させる第1の方法は、モニタ1b上の仮想空間画像を指やタッチペン等で指定し、そのままドラッグで所定位置まで移動させるものである。例えば、図5では可視物であるセンターライン2について実空間画像(センターライン2R)と仮想空間画像(センターライン2V)が重畳表示されており、両者の「ずれ」から仮想空間画像が正しく表示されていないことが分かる。そこでタッチペンなどを用いて、センターライン2Vを指定し、そのままドラッグによりセンターライン2Rの位置までセンターライン2Vを移動させる。実空間画像であるセンターライン2Rと仮想空間画像であるセンターライン2Vの表示位置が重なれば、仮想空間画像は正しい位置で表示されたと考えることができる。なお、ドラッグに代えてキーボードの矢印キーを利用して仮想空間画像を移動させることもできる。
The first method for moving the virtual space image is to designate the virtual space image on the
仮想空間画像を移動させる第2の方法は、モニタ1b上の仮想空間画像を形成する点、線、面などの要素(以下、「形成要素」という。)と、これに相当する実空間画像の形成要素を指定するものである。例えば図7で説明すると、タッチペンなどを用いてセンターライン2Vの形成要素である2点(Pv1とPv2)を指定し、さらにセンターライン2Rの形成要素である2点(Pr1とPr2)を指定する。このとき、Pv1とPr1が対応し、Pv2とPr2が対応していることが認識されるよう、まずはPv1、Pr1の順で指定し、次にPv2、Pr2の順で指定する。これによって、仮想空間画像が再計算され、モニタ1b上の正しい位置に仮想空間画像が表示される。なお、指定する形成要素は、点に限らず線や面でも構わないし、3点以上の形成要素を指定することもできる。
The second method of moving the virtual space image is to form elements such as points, lines, and surfaces (hereinafter referred to as “forming elements”) that form the virtual space image on the
仮想空間画像を移動させる第3の方法は、端末機1の移動や回転によってモニタ1b上の仮想空間画像を移動させるものである。この場合、実空間画像をライブビューの状態から、一旦静止画の状態にする必要がある。例えば図6で説明すると、端末機1の所定操作(例えば、モニタ1b上のボタン操作)を行うことで、実空間画像を静止画状態とし、その状態で、端末機1を左右上下に移動させ、あるいは端末機1の姿勢を変更する(必要に応じてこれらを組み合わせる)。端末機1を左右上下に移動させる方法や、端末機1の姿勢を変更する方法は、前記した「実空間画像を移動させる方法」と同様である。この端末機1の移動量や変更した傾きの量を、端末機1のセンサが計測し、この計測値に基づいて再計算により仮想空間画像が作成され、この仮想空間画像がモニタ1bに表示される。この場合、端末機1の移動や姿勢変更を行った後に、ユーザが操作(例えば、モニタ1b上の「再描画ボタン」操作)することで仮想空間画像を移動させてもよいし、端末機1の移動や姿勢変更に伴いセンサが計測値を取得したタイミングで随時自動的に仮想空間画像を移動させてもよい。この一連の操作を、仮想空間画像が正しい位置に表示されるまで(実空間画像と仮想空間画像の表示位置が合うまで)実施し、実空間画像における仮想空間画像の正しい位置が確認できれば、実空間画像の静止画状態を解除する。
The third method for moving the virtual space image is to move the virtual space image on the
なお、上記した仮想空間画像を移動させる方法(第1〜第3)は、それぞれ単独で用いることもできるし、2以上を組み合わせて用いることもできる。また、仮想空間画像を移動させる方法(第1〜第3)では、移動させる仮想空間画像(例えばセンターライン2V)に連動して、その他の仮想空間画像(例えば下水管3V)も移動する。これによって、モニタ1b上の仮想空間画像はすべて正しい位置で表示されると考えることができる。
Note that the above-described methods (first to third) for moving the virtual space image can be used alone or in combination of two or more. In the method of moving the virtual space image (first to third), the other virtual space image (for example, the
一方、自動的に調整される手段は、コンピュータによって処理される方法である。この場合、コンピュータが実空間画像から画像認識により特徴部を抽出し、さらにこの特徴部の形状や画像に基づいて特徴部の部分的な特徴(形状上の特徴部分や、画像上の特徴部分)を形状特徴部として抽出し、この形状特徴部を基準として仮想空間画像(可視物)を対象にマッチング処理(パターンマッチングなど)を行い、マッチング処理で検出された仮想空間画像と実空間画像の特徴部の位置が合うように、仮想空間画像全体をモニタ1bに表示する。図5に基づいて具体的に説明する。モニタ1bに表示された実空間画像から画像認識によりセンターライン2Rを抽出する。この画像認識は、画像上の輝度(あるいは色相や彩度や明度)の相違から自動判別する手法など、公知の技術を用いて行うことができる。次に、センターライン2Rの外縁(エッジ)からなる形状、あるいはセンターライン2R全体を表示する画像(輝度やRGBなど)を基に形状特徴部を抽出し、この基準となるセンターライン2Rの形状特徴部に照合するもの(センターライン2V)を、モニタ1b上に表示された仮想空間画像(可視物)の中から検出する。なおここで行う照合判断は、完全に一致する場合に限らず、所定の条件(閾値)を満足する場合も含まれる。そしてセンターライン2Rとセンターライン2Vとのモニタ1b上の表示位置の相違から移動量を計算し、この移動量に基づいて仮想空間画像を正しい位置(センターライン2Rとセンターライン2Vが重なる位置)に再表示させる。もちろんこのときも、計算された移動量に基づいて表示位置を変更するのは、センターライン2Vに限らずモニタ1b上のすべて仮想空間画像が対象となる。
On the other hand, the automatically adjusted means is a method processed by a computer. In this case, the computer extracts a feature portion from the real space image by image recognition, and further, a partial feature of the feature portion (a feature portion on the shape or a feature portion on the image) based on the shape or image of the feature portion. Is extracted as a shape feature, matching processing (pattern matching, etc.) is performed on the virtual space image (visible object) with this shape feature as a reference, and the features of the virtual space image and real space image detected by the matching processing The entire virtual space image is displayed on the
以上説明したように、同一の可視物について実空間画像と仮想空間画像を重畳表示させると、仮想空間画像の表示位置の正誤を判断することができるとともに、その位置を調整することができる。なお、ユーザ操作によって仮想空間画像を正しい表示位置に調整する場合、表示位置調整中は可視物の仮想空間画像を表示しておく必要があるが、表示位置調整後にはその可視物の仮想空間画像を非表示とし(表示制御手段)、その可視物を視認しやすくすることもできる。また、仮想空間画像が正しい表示位置に調整された状態で、実空間画像をライブビューの状態から静止画の状態とすることもできる。これにより、手ぶれ等による画面の見づらさを解消することができる。 As described above, when the real space image and the virtual space image are superimposed and displayed for the same visible object, it is possible to determine whether the display position of the virtual space image is correct and to adjust the position. When adjusting the virtual space image to the correct display position by user operation, it is necessary to display the virtual space image of the visible object during the display position adjustment, but after adjusting the display position, the virtual space image of the visible object is displayed. Is not displayed (display control means), and the visible object can be easily seen. In addition, the real space image can be changed from the live view state to the still image state with the virtual space image adjusted to the correct display position. Thereby, it is possible to eliminate the difficulty in viewing the screen due to camera shake or the like.
(画像合成装置)
本願発明の画像合成装置は、これまで説明した技術を備えたものであり、具体的には、カメラ1a(画像取得手段)とモニタ1b(表示画面)と計測手段(GPSや6軸センサなど)を有する端末機1と、空間モデルとこれを記憶する記憶手段と、空間モデルの空間情報から仮想空間モデルを作成しさらに仮想空間画像を作成する画像作成手段と、仮想空間画像をモニタ1b上の実空間画像に重畳表示する表示手段を備えている。また、仮想空間画像をモニタ1b上で表示とするか非表示とするかを選択する表示制御手段を備えることもできるし、仮想空間画像を正しい位置に表示させる表示位置調整手段(ユーザ操作による調整や、自動調整)を備えることもできる。さらに、表示手段によってモニタ1b上に表示された仮想空間画像に関連する図面や属性情報を表示させることもできるし、表示制御手段によってこれら図面や属性情報の表示/非表示を選択させることもできる。なお、これらの手段が全て収められた端末機1を本願発明の画像合成装置とすることもできるが、記憶手段や画像作成手段については、端末機1とは異なる筺体に収容してもよい。
(Image composition device)
The image synthesizing apparatus according to the present invention has the technology described so far. Specifically, the camera 1a (image acquisition means), the
(画像合成プログラム)
本願発明の画像合成プログラムは、これまで説明した技術をコンピュータに実行させるものであり、具体的には、空間モデルのデータベースから所定の空間情報を検索して読み込むモデル読み込み機能と、GPSや6軸センサなど計測手段が計測した値を読み込む計測値読み込み機能と、空間情報や計測値から仮想空間モデルを作成しさらに仮想空間画像を作成する画像作成機能と、仮想空間画像をモニタ1b上の実空間画像に重畳表示させる表示機能を備えている。また、仮想空間画像をモニタ1b上で表示とするか非表示とするかを選択する表示制御機能を備えることもできるし、仮想空間画像を正しい位置に表示させる表示位置調整機能(ユーザ操作による調整や、自動調整)を備えることもできる。
(Image composition program)
The image composition program of the present invention causes a computer to execute the technology described so far. Specifically, a model reading function for retrieving and reading predetermined spatial information from a database of spatial models, GPS and six axes A measurement value reading function for reading a value measured by a measuring means such as a sensor, an image creation function for creating a virtual space model from space information and measurement values, and a virtual space image on the
表示位置調整機能を自動調整とした場合には、実空間画像から特徴部を抽出するとともにこの特徴部から形状特徴部を抽出する特徴部抽出機能と、この形状特徴部を基準として可視物の仮想空間画像を対象にマッチング処理を行って照合部分を検出する照合部分検出機能と、形状特徴部と照合部分の表示画像上の位置が一致(又は略一致)するように、仮想空間画像の表示位置を調整する位置調整機能と、を備える。 When the display position adjustment function is automatic adjustment, a feature part extraction function that extracts a feature part from a real space image and extracts a shape feature part from the feature part, and a virtual object of a visible object based on the shape feature part. The display position of the virtual space image so that the matching portion detection function that performs matching processing on the spatial image to detect the matching portion and the position of the shape feature portion and the matching portion on the display image match (or substantially match) A position adjusting function for adjusting the position.
さらに、表示機能によってモニタ1b上に表示された仮想空間画像に関連する図面や属性情報を検索して表示させることもできるし、表示制御機能によってこれら図面や属性情報の表示/非表示を選択させることもできる。
Furthermore, it is possible to search and display drawings and attribute information related to the virtual space image displayed on the
なお、ここで説明した機能全てを1つのプログラムとして構成する必要はなく(もちろん1つのプログラムでもよい)、機能を選択してホストコンピュータとクライアントコンピュータに分散配置するなどの形式をとってもよい。 Note that it is not necessary to configure all the functions described here as a single program (of course, a single program may be used), and a form in which functions are selected and distributed to the host computer and the client computer may be used.
(画像合成システム)
本願発明の画像合成システムは、これまで説明した技術を備えたものであり、具体的には、1又は2以上の端末機1とサーバを備えたものである。全ての端末機1はサーバと通信可能に接続されており、その通信回線は有線又は無線が用いられる。
(Image composition system)
The image composition system according to the present invention includes the technology described so far, and specifically includes one or two or
端末機1には、カメラ1a(画像取得手段)と、モニタ1b(表示画面)と、GPSや6軸センサなどの計測手段と、仮想空間画像をモニタ1bに表示させる表示手段と、仮想空間画像の表示/非表示を行う表示制御手段が備えられており、さらにサーバと通信を行うための通信手段が備えられている。
The
一方、サーバには、データベースとしての空間モデルとこれを記憶する記憶手段と、画像作成手段と、端末機1と通信を行うための通信手段が備えられている。なお、記憶手段と画像作成手段は、同一のサーバに備えられる必要はなく(もちろん1つのサーバでもよい)、記憶手段はデータベースサーバに備えることとし、画像作成手段はアプリケーションサーバに備えることとするなど、それぞれ別のサーバに備えるようにしてもよい。また、空間モデルを記憶する記憶手段(他の記憶手段でもよい)に、仮想空間画像に関する図又は/及び属性情報を記憶させることもできる。
On the other hand, the server includes a space model as a database, storage means for storing the database, image creation means, and communication means for communicating with the
仮想空間画像の表示位置を調整する表示位置調整手段は、端末機1に備えることもできるし、サーバに備えることもできるが、ユーザ操作によって調整する場合は端末機1に備え、自動的に調整する場合はサーバに備えることが望ましい。
The display position adjusting means for adjusting the display position of the virtual space image can be provided in the
本願発明の画像合成システムによって、仮想空間画像がモニタ1bに重畳表示されるまでの流れについて説明する。
(1)ユーザが端末機1のカメラ1aによって目の前の光景(実空間)を撮影する。この場合の撮影とは、カメラ1aを所定の方向にかざしてモニタ1bにライブビューを表示させる行為のことであり、必ずしもシャッターを操作することに限られない。
(2)ユーザが撮影すると、これと同時に計測手段によってカメラ1aの位置と姿勢が計測される。
(3)ユーザが、端末機1の通信手段を利用してサーバに仮想空間画像の表示を要求する。この要求手段は、端末機1のキーボードを操作するなど公知の技術を利用できる。
(4)ユーザの要求により、端末機1からサーバに必要な情報が通信回線を介して伝送される。必要な情報とは、要求情報(仮想空間画像を要求する旨)、計測手段で計測されたカメラ1aの位置座標や姿勢(計測値)、が含まれる。必要に応じて、仮想空間画像に関する図又は/及び属性情報を伝送してほしい旨の要求情報も送られる。
(5)端末機1から必要な情報が送られたサーバでは、計測値やカメラ仕様(画角や焦点距離など)に基づいて、当該ユーザの端末機1に表示する描画範囲を計算する。このとき、カメラ仕様については、直接端末機1から伝送させてもよいし、サーバで種々のカメラ仕様を記憶しておき、当該端末機の機種(機種情報は伝送させる)に応じたカメラ仕様を読み込んでもよい。
(6)またサーバでは、空間モデルのデータベースから描画範囲内にある空間情報を検索し、これについて仮想空間モデルを作成する。さらにこの仮想空間モデルを基に、遠近法によって遠近表示される透視図である仮想空間画像を作成する。この一連の処理は、計測値と空間モデルの空間情報に基づいて、画像作成機能によって実行される。
(7)サーバで作成された仮想空間画像は、サーバの通信手段によって端末機1に伝送され、これを端末機1の通信手段で受信すると、表示手段によってモニタ1bに仮想空間画像を表示する。
(8)表示位置調整手段が端末機1に備えられた場合は、端末機1のモニタ1bに表示された後に、ユーザが画面を確認しながら操作を行い、仮想空間画像が正しい表示位置となるよう調整する。一方、表示制御機能がサーバに備えられ、かつこれを自動調整によるものとした場合には、端末機1から実空間画像を伝送させ、この実空間画像からプログラム(特徴部抽出機能)によって特徴部と形状特徴部を抽出するとともに、プログラム(照合部分検出機能)によって仮想空間画像の中から照合部分を検出し、さらにプログラム(位置調整機能)によって仮想空間画像の表示位置を調整し、表示位置が調整された仮想空間画像が端末機1に伝送されてモニタ1bに表示される。
A flow until the virtual space image is superimposed and displayed on the
(1) A user photographs a scene (real space) in front of the user with the camera 1a of the
(2) When the user takes a picture, the position and orientation of the camera 1a are measured by the measuring means at the same time.
(3) The user requests the server to display a virtual space image using the communication means of the
(4) Information required for the server is transmitted from the
(5) The server to which necessary information is sent from the
(6) The server also retrieves spatial information within the drawing range from the spatial model database, and creates a virtual space model for this. Furthermore, based on this virtual space model, a virtual space image which is a perspective view displayed in perspective by a perspective method is created. This series of processing is executed by the image creation function based on the measurement value and the spatial information of the spatial model.
(7) The virtual space image created by the server is transmitted to the
(8) When the display position adjusting means is provided in the
本願発明の画像合成システムは、道路下の地下埋設物管理、建築物の壁面内に収容された配線・配管類の管理、土地の境界や村市町村界の現地確認、未施工の道路やマンションなど計画中の構造物についての住民説明、土砂災害警戒区域や地すべり指定地などの危険区域の現地確認で利用することができるほか、カーナビゲーション、広告、ゲームなど多岐の用途にわたって応用することができる。 The image composition system of the present invention is the management of underground buried objects under roads, the management of wiring and piping contained in the walls of buildings, the confirmation of land boundaries and the locality of villages, towns and villages, unconstructed roads and apartments, etc. It can be used for explanation of residents about the planned structure, on-site confirmation of dangerous areas such as landslide disaster warning areas and designated landslide areas, and it can be applied to various applications such as car navigation, advertising, and games.
1 端末機
1a カメラ
1b モニタ
2 センターライン
2R (実空間画像の)センターライン
2V (仮想空間画像の)センターライン
3 下水管
3V (仮想空間画像の)下水管
4V (仮想空間画像の)用地境界線
5V (仮想空間画像の)用地境界面
6 下水管に関する平面図
A 光ファイバーケーブル
B 下水管
C (地下埋設物の平面配置を示す)白線
1
Claims (10)
前記実空間画像を取得する画像取得手段と、
前記画像取得手段の位置及び姿勢を計測する計測手段と、
目視可能な可視物の空間情報と、目視できない不可視物の空間情報と、を含む前記空間モデルを記憶する記憶手段と、
前記計測手段による計測値と前記空間モデルとに基づいて演算処理を行い、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像を作成する画像作成手段と、
遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示手段と、
前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御手段と、を備えたことを特徴とする画像合成装置。 An image synthesizing apparatus that superimposes a virtual space image created based on a space model having space information on a real space image obtained by capturing a real space, and displays the image on a display screen.
Image acquisition means for acquiring the real space image;
Measuring means for measuring the position and orientation of said image acquiring means,
Storage means for storing the spatial model including the visible spatial information of visible objects and the invisible visible spatial information ;
A calculation process is performed based on the measurement value by the measurement unit and the space model, and the virtual space image of the visible object and the virtual space image of the invisible object are obtained so as to be a perspective view displayed on the display screen. Image creation means to create;
Display means for superimposing and displaying the real space image displayed in perspective and the virtual space image displayed in perspective on the display screen;
An image composition apparatus comprising: a display control unit that selectively displays or hides the virtual space image of the visible object and the virtual space image of the invisible object .
同一の目視可能な可視物についての仮想空間画像と実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記表示画面上で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整手段を、備えたことを特徴とする画像合成装置。 The image synthesizing apparatus according to claim 1 Symbol placement,
When the display positions of the virtual space image and the real space image for the same visible visible object do not match on the display screen, the display positions of the virtual space image and the real space image match on the display screen. Alternatively, an image synthesizing apparatus comprising display position adjusting means for moving the virtual space image so as to substantially match.
表示位置調整手段が、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整することを特徴とする画像合成装置。 The image composition apparatus according to claim 2 ,
The display position adjusting means automatically extracts the shape feature based on the image feature of the real space image, and automatically detects the matching portion to be matched with the shape feature from the virtual space image of the visible object. An image synthesizing apparatus that automatically adjusts the display position of a virtual space image so that the positions of the feature part and the collation part on the display image match or substantially match.
表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成装置。 The image composition device according to any one of claims 1 to 3 ,
The display means displays a figure or / and attribute information related to the virtual space image,
An image synthesizing apparatus, wherein the display control means displays or hides the figure and / or attribute information.
目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶した記憶手段から、この空間モデルを取得するモデル読み込み機能と、
計測により得た画像取得手段の位置及び姿勢を取得する計測値読み込み機能と、
前記画像取得手段の位置及び姿勢と前記空間モデルとに基づいて、前記表示画面で遠近表示された透視図となるように、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成する画像作成機能と、
遠近表示された前記実空間画像と、遠近表示された前記仮想空間画像と、を前記表示画面に重畳して表示させる表示機能と、
前記可視物の仮想空間画像と、前記不可視物の仮想空間画像と、を選択して表示又は非表示させる表示制御機能と、
同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が、表示画面上で一致しない場合に、前記仮想空間画像と前記実空間画像の表示位置が前記で一致又は略一致するように、前記仮想空間画像を移動させる表示位置調整機能と、をコンピュータに実行させることを特徴とする画像合成プログラム。 An image synthesis program that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A model reading function for acquiring this spatial model from a storage means storing a spatial model including spatial information of visible objects that are visible and spatial information of invisible objects that are not visible;
A measurement value reading function for acquiring the position and orientation of the image acquisition means obtained by measurement;
Based on the position and orientation of the image acquisition means and the space model, a virtual space image of the visible object and a virtual space image of the invisible object are created so that a perspective view is displayed on the display screen. Image creation function,
A display function for superimposing and displaying the real space image displayed in perspective and the virtual space image displayed in perspective on the display screen;
A display control function for selecting and displaying or not displaying the virtual space image of the visible object and the virtual space image of the invisible object;
When the display positions of the virtual space image and the real space image for the same visible object do not match on the display screen, the display positions of the virtual space image and the real space image match or substantially match with each other. As described above, a computer executes a display position adjustment function for moving the virtual space image.
表示位置調整機能が、
実空間画像のうちの画像の特徴部に基づいて、形状特徴部を抽出する特徴部抽出機能と、
前記形状特徴部と照合する照合部分を、可視物の仮想空間画像から検出する照合部分検出機能と、
前記形状特徴部と前記照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を調整する位置調整機能と、を備えたことを特徴とする画像合成プログラム。 In the image composition program according to claim 5 ,
The display position adjustment function
A feature extraction function for extracting a shape feature based on a feature of the image in the real space image;
A matching part detection function for detecting a matching part to be matched with the shape feature part from a virtual space image of a visible object;
An image composition program comprising: a position adjustment function for adjusting a display position of a virtual space image so that positions of the shape feature portion and the collation portion on a display image are matched or substantially matched.
表示機能が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御機能が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成プログラム。 In the image composition program according to claim 5 or 6 ,
The display function displays a figure or / and attribute information related to the virtual space image,
An image composition program, wherein the display control function displays or hides the figure and / or attribute information.
サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、
前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、
前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、
前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値がサーバに伝送され、
前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成するとともに、これらの仮想空間画像を当該端末機に伝送し、
前記仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示され、
同一の可視物についての仮想空間画像と実空間画像との表示位置が、前記表示画面上で一致しない場合に、前記端末機が備える表示位置調整手段によって、前記仮想空間画像と前記実空間画像の表示位置が表示画面上で一致又は略一致するように、前記仮想空間画像を移動させ得ることを特徴とする画像合成システム。 An image synthesis system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A server, and one or more terminals connected to the server via a wireless or wired communication line,
The server includes a storage unit that stores a spatial model including spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and a perspective view that is displayed in perspective on the display screen of the terminal. Image creating means for creating a virtual space image, and communication means,
The terminal includes an image acquisition unit that acquires the real space image, a measurement unit that measures the position and orientation of the image acquisition unit, and a display unit that displays the real space image and the virtual space image on a display screen. A display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object, and a communication unit.
When the user of the terminal requests the server, the measurement value by the measuring means of the terminal is transmitted to the server,
The server creates a virtual space image of the visible object and a virtual space image of the invisible object based on the measurement value of the terminal and the space model according to a request of the user of the terminal, Transmit these virtual space images to the terminal,
On the display screen of the terminal that has received the virtual space image, the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed,
When the display positions of the virtual space image and the real space image for the same visible object do not match on the display screen, the display position adjustment means provided in the terminal unit causes the virtual space image and the real space image to be displayed. An image composition system, characterized in that the virtual space image can be moved so that the display positions coincide or substantially coincide on the display screen.
サーバと、このサーバと無線又は有線の通信回線で接続される1又は2以上の端末機と、で構成され、
前記サーバは、目視可能な可視物の空間情報と目視できない不可視物の空間情報とを含む空間モデルを記憶する記憶手段と、前記端末機の表示画面で遠近表示された透視図となるように前記仮想空間画像を作成する画像作成手段と、通信手段と、を備え、
前記端末機は、前記実空間画像を取得する画像取得手段と、この画像取得手段の位置及び姿勢を計測する計測手段と、前記実空間画像及び前記仮想空間画像を表示画面に表示させる表示手段と、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを選択して表示又は非表示させる表示制御手段と、通信手段と、を備え、
前記端末機のユーザが前記サーバに要求すると、当該端末機の計測手段による計測値と、当該端末の画像取得手段による実空間画像と、がサーバに伝送され、
前記サーバは、前記端末機のユーザの求めに応じて、当該端末機の計測値と前記空間モデルとに基づき、前記可視物の仮想空間画像と前記不可視物の仮想空間画像とを作成し、
さらに前記サーバは、同一の可視物についての前記仮想空間画像と前記実空間画像との表示位置が前記表示画面上で一致しない場合に、実空間画像のうちの画像の特徴部に基づいて形状特徴部を自動抽出するとともに、この形状特徴部と照合する照合部分を可視物の仮想空間画像から自動検出し、形状特徴部と照合部分の表示画像上の位置が一致又は略一致するように、仮想空間画像の表示位置を自動的に調整したうえで、可視物の仮想空間画像と不可視物の仮想空間画像とを前記端末機に伝送し、
仮想空間画像を受信した端末機の表示画面では、遠近表示された前記実空間画像と遠近表示された前記仮想空間画像とが重畳して表示されることを特徴とする画像合成システム。 An image synthesis system that superimposes a virtual space image created based on a space model on a real space image obtained by capturing a real space and displays the image on a display screen,
A server, and one or more terminals connected to the server via a wireless or wired communication line,
The server includes a storage unit that stores a spatial model including spatial information of a visible object that is visible and spatial information of an invisible object that is not visible, and a perspective view that is displayed in perspective on the display screen of the terminal. Image creating means for creating a virtual space image, and communication means,
The terminal includes an image acquisition unit that acquires the real space image, a measurement unit that measures the position and orientation of the image acquisition unit, and a display unit that displays the real space image and the virtual space image on a display screen. A display control unit that selects and displays or hides the virtual space image of the visible object and the virtual space image of the invisible object, and a communication unit.
When the user of the terminal requests the server, the measurement value by the measurement unit of the terminal and the real space image by the image acquisition unit of the terminal are transmitted to the server,
The server creates a virtual space image of the visible object and a virtual space image of the invisible object based on the measurement value of the terminal and the space model according to a request of the user of the terminal,
Furthermore, the server, when the display position of the virtual space image and the real space image for the same visible object do not match on the display screen, the shape feature based on the image feature of the real space image Part is automatically extracted, and a matching part to be matched with the shape feature is automatically detected from the virtual space image of the visible object, so that the position on the display image of the shape feature and the matching part is matched or substantially matched. After automatically adjusting the display position of the spatial image, the virtual space image of the visible object and the virtual space image of the invisible object are transmitted to the terminal,
An image composition system, wherein the real space image displayed in perspective and the virtual space image displayed in perspective are superimposed and displayed on a display screen of a terminal that has received the virtual space image.
表示手段が、仮想空間画像に関する図又は/及び属性情報を表示するものであり、
表示制御手段が、前記図又は/及び属性情報を、表示又は非表示させるものであることを特徴とする画像合成システム。 The image composition system according to claim 8 or 9 ,
The display means displays a figure or / and attribute information related to the virtual space image,
An image composition system, wherein the display control means displays or hides the figure and / or attribute information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010283292A JP5682060B2 (en) | 2010-12-20 | 2010-12-20 | Image composition apparatus, image composition program, and image composition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010283292A JP5682060B2 (en) | 2010-12-20 | 2010-12-20 | Image composition apparatus, image composition program, and image composition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012133471A JP2012133471A (en) | 2012-07-12 |
JP5682060B2 true JP5682060B2 (en) | 2015-03-11 |
Family
ID=46649020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010283292A Active JP5682060B2 (en) | 2010-12-20 | 2010-12-20 | Image composition apparatus, image composition program, and image composition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5682060B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109343443A (en) * | 2018-09-28 | 2019-02-15 | 广州希华通讯设备有限公司 | Excavate machine monitoring recognition methods |
US10621742B2 (en) * | 2015-12-10 | 2020-04-14 | Siemens Aktiengesellschaft | Method for producing a depth map |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5904955B2 (en) * | 2013-02-12 | 2016-04-20 | 三菱電機株式会社 | PORTABLE TERMINAL DEVICE AND INVISIBLE FACILITY LOCATION METHOD USING THE DEVICE |
JP5928382B2 (en) * | 2013-03-21 | 2016-06-01 | カシオ計算機株式会社 | Imaging device, visible light communication control system, output control method, visible light communication control method, and program |
JP2014209680A (en) * | 2013-04-16 | 2014-11-06 | 富士通株式会社 | Land boundary display program, method, and terminal device |
JP6197405B2 (en) * | 2013-06-28 | 2017-09-20 | 株式会社リコー | Information processing apparatus, information processing system, and information processing program |
JP6033209B2 (en) * | 2013-12-11 | 2016-11-30 | 三菱電機株式会社 | Portable terminal device |
JP6235327B2 (en) * | 2013-12-18 | 2017-11-22 | 大成建設株式会社 | Construction information management system and construction information management method |
JP6448274B2 (en) * | 2014-09-29 | 2019-01-09 | 三菱電機株式会社 | Information display control system and information display control method |
JP6449613B2 (en) * | 2014-10-10 | 2019-01-09 | 東京瓦斯株式会社 | Gas supply area surveillance camera system |
JP6494413B2 (en) * | 2015-05-18 | 2019-04-03 | 三菱電機株式会社 | Image composition apparatus, image composition method, and image composition program |
JP6596291B2 (en) * | 2015-10-02 | 2019-10-23 | 東京ガスエンジニアリングソリューションズ株式会社 | Laying equipment display device |
US10540825B2 (en) | 2016-05-02 | 2020-01-21 | Sony Interactive Entertainment Inc. | Image processing apparatus |
JPWO2017191703A1 (en) * | 2016-05-02 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing device |
JP6230678B2 (en) * | 2016-10-25 | 2017-11-15 | 三菱電機株式会社 | Terminal device, terminal device program, and invisible object displacement state visualization method |
JP6931883B2 (en) * | 2017-02-06 | 2021-09-08 | 株式会社大林組 | Education support system, education support method and education support program |
JP2019011564A (en) * | 2017-06-29 | 2019-01-24 | 鹿島建設株式会社 | Field image output system |
JP2018018086A (en) * | 2017-08-23 | 2018-02-01 | 富士通株式会社 | Land boundary display program, method, and device |
JP6434666B1 (en) * | 2018-02-26 | 2018-12-05 | 京セラ株式会社 | Electronic device, control method and program |
JP2020102127A (en) * | 2018-12-25 | 2020-07-02 | 清水建設株式会社 | Buried object visualizing system |
JP7346245B2 (en) | 2019-10-30 | 2023-09-19 | 北陸電気工事株式会社 | Construction site recording program |
JP6770274B1 (en) * | 2019-12-19 | 2020-10-14 | 株式会社ガク・アソシエイツ | Boundary Visualization System, Boundary Visualization Method, Boundary Visualization Program and Digital Photo Album Creation System |
JP6777921B1 (en) * | 2019-12-19 | 2020-10-28 | 株式会社ガク・アソシエイツ | Boundary visualization system, border visualization method, border visualization program and digital photo album creation system |
JP7131780B2 (en) * | 2019-12-19 | 2022-09-06 | 株式会社ガク・アソシエイツ | Boundary Visualization System, Boundary Visualization Method, Boundary Visualization Program, and Digital Photo Album Creation System |
JP7423389B2 (en) | 2020-04-01 | 2024-01-29 | 東北電力株式会社 | Work support equipment |
JP7323689B1 (en) | 2022-08-25 | 2023-08-08 | 朝日航洋株式会社 | Display device, display method, and display program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3538263B2 (en) * | 1995-08-09 | 2004-06-14 | 株式会社日立製作所 | Image generation method |
JP2004145657A (en) * | 2002-10-24 | 2004-05-20 | Space Tag Inc | Virtual museum system |
JP4253567B2 (en) * | 2003-03-28 | 2009-04-15 | オリンパス株式会社 | Data authoring processor |
JP2004302756A (en) * | 2003-03-31 | 2004-10-28 | Hitachi Plant Eng & Constr Co Ltd | Cad working drawing checking method and its device |
JP2006012042A (en) * | 2004-06-29 | 2006-01-12 | Canon Inc | Image generating method and device |
FR2889761A3 (en) * | 2005-08-09 | 2007-02-16 | Total Immersion | SYSTEM ALLOWING A USER TO LOCATE A CAMERA IN ORDER TO BE ABLE TO INSERT, QUICKLY IN AN ADJUSTED MANNER, IMAGES OF VIRTUAL ELEMENTS INTO VIDEO IMAGES OF REAL ELEMENTS CAPTURED BY THE CAMERA |
JP4527155B2 (en) * | 2005-12-28 | 2010-08-18 | 富士通株式会社 | Navigation information display system, navigation information display method, and program therefor |
JP2007228315A (en) * | 2006-02-24 | 2007-09-06 | Mitsubishi Heavy Ind Ltd | System for supporting construction work and inspection for structure inside building |
-
2010
- 2010-12-20 JP JP2010283292A patent/JP5682060B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10621742B2 (en) * | 2015-12-10 | 2020-04-14 | Siemens Aktiengesellschaft | Method for producing a depth map |
CN109343443A (en) * | 2018-09-28 | 2019-02-15 | 广州希华通讯设备有限公司 | Excavate machine monitoring recognition methods |
Also Published As
Publication number | Publication date |
---|---|
JP2012133471A (en) | 2012-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5682060B2 (en) | Image composition apparatus, image composition program, and image composition system | |
US9619942B2 (en) | Coordinate geometry augmented reality process | |
US11783543B2 (en) | Method and system for displaying and navigating an optimal multi-dimensional building model | |
US20170046877A1 (en) | Augmented visualization system for hidden structures | |
EP2769363B1 (en) | Depth cursor and depth measurement in images | |
US20170337743A1 (en) | System and method for referencing a displaying device relative to a surveying instrument | |
JP4102324B2 (en) | Surveying data processing system, surveying data processing program, and electronic map display device | |
KR100822814B1 (en) | Method for overlapping real-time landscape image and gis data | |
KR102264219B1 (en) | Method and system for providing mixed reality contents related to underground facilities | |
US20220138467A1 (en) | Augmented reality utility locating and asset management system | |
Hansen et al. | Augmented reality for subsurface utility engineering, revisited | |
CN104159036A (en) | Display method and shooting equipment of image direction information | |
JP2007122247A (en) | Automatic landmark information production method and system | |
KR20190114696A (en) | An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof | |
CN108957507A (en) | Fuel gas pipeline leakage method of disposal based on augmented reality | |
JP4588369B2 (en) | Imaging apparatus and imaging method | |
JP5862865B2 (en) | Composite image display device and composite image display program | |
KR20110068764A (en) | System and method for providing object information from aspherical image acquired by omnidirectical camera | |
CN108955723B (en) | Method for calibrating augmented reality municipal pipe network | |
ES2743529T3 (en) | Procedure and system for determining a relationship between a first scene and a second scene | |
CN108954016A (en) | Fuel gas pipeline leakage disposal system based on augmented reality | |
Böhm et al. | Automation in laser scanning for cultural heritage applications | |
US10185787B1 (en) | Tool for accurate onsite model visualization that facilitates environment interaction | |
Dalla Mura et al. | Augmented reality: Fusing the real and synthetic worlds | |
JP7303711B2 (en) | image display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5682060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |