JP6494413B2 - Image composition apparatus, image composition method, and image composition program - Google Patents
Image composition apparatus, image composition method, and image composition program Download PDFInfo
- Publication number
- JP6494413B2 JP6494413B2 JP2015101006A JP2015101006A JP6494413B2 JP 6494413 B2 JP6494413 B2 JP 6494413B2 JP 2015101006 A JP2015101006 A JP 2015101006A JP 2015101006 A JP2015101006 A JP 2015101006A JP 6494413 B2 JP6494413 B2 JP 6494413B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- dimensional
- graphic image
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title claims description 42
- 238000000034 method Methods 0.000 title description 14
- 239000002131 composite material Substances 0.000 claims description 48
- 238000005259 measurement Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000001308 synthesis method Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、複数の画像を合成する技術に関する。 The present invention relates to a technique for combining a plurality of images.
従来から、埋設物等の不可視物の位置を確認できる合成画像を生成する画像合成装置がある。
このような画像合成装置では、現地測量を行わなくても、埋設物が埋設されている位置を三次元グラフィック画像(3Dグラフィック画像と呼ばれる場合もある。)で確認することができる。
2. Description of the Related Art Conventionally, there is an image composition device that generates a composite image that can confirm the position of an invisible object such as an embedded object.
In such an image composition device, the position where the embedded object is embedded can be confirmed with a three-dimensional graphic image (sometimes called a 3D graphic image) without performing on-site surveying.
例えば、特許文献1の画像合成装置は、実空間画像を入力する画像入力手段と、画像入力手段の位置及び姿勢を計測する計測手段と、空間モデルを記憶する記憶手段と、演算処理を行い表示画面において遠近法により表示された透視図となるように三次元グラフィック画像を生成する画像生成手段と、実空間画像と遠近法により表示された三次元グラフィック画像とを表示画面に重畳して表示させる表示手段、により構成されている。
For example, the image synthesizing apparatus disclosed in
特許文献1の画像合成装置は、管路等の埋設物を表す三次元グラフィック画像を実画像に重畳表示することができるが、埋設物が設置された深さに応じて三次元グラフィック画像の表現を変えることができないため、ユーザは管路の深さを直感的には理解できない(理解するのに時間がかかる)という課題があった。
The image synthesizing apparatus disclosed in
この発明は、上記の課題を解決することを主な目的としており、埋設物等の不可視物の深さをユーザが直感的に理解(短時間で理解)できるようにすることを主な目的とする。 The main object of the present invention is to solve the above-mentioned problems, and to make it possible for a user to intuitively understand (understand in a short time) the depth of an invisible object such as an embedded object. To do.
本発明に係る画像合成装置は、
物体を外部から撮影した撮影画像に対し、
前記物体の内部に存在する不可視物を表す三次元グラフィック画像と、
前記物体における前記不可視物に沿った断面を表す三次元グラフィック画像(以下、「断面を表す三次元グラフィック画像」を三次元内部断面画像と記載。)と、
を合成する合成画像生成部を備え、
前記不可視物を表す三次元グラフィック画像は、前記不可視物の存在位置に対応する前記撮影画像内の位置に合成され、
前記三次元内部断面画像は、前記断面が前記三次元グラフィック画像で表される前記不可視物に沿うように合成される。
An image composition apparatus according to the present invention includes:
For images taken from outside,
A three-dimensional graphic image representing an invisible object existing inside the object;
A three-dimensional graphic image representing a cross section of the object along the invisible object (hereinafter referred to as a “three-dimensional internal cross-sectional image”).
A composite image generation unit for combining
The three-dimensional graphic image representing the invisible object is synthesized at a position in the captured image corresponding to the position where the invisible object exists,
The three-dimensional internal cross-sectional image is synthesized so that the cross-section is along the invisible object represented by the three-dimensional graphic image.
本発明によれば、合成画像において不可視物の三次元グラフィック画像の周囲に三次元内部断面画像が配置されるため、ユーザは不可視物の深さを直感的に理解することができる。 According to the present invention, since the three-dimensional internal cross-sectional image is arranged around the three-dimensional graphic image of the invisible object in the synthesized image, the user can intuitively understand the depth of the invisible object.
実施の形態1〜4では、物体を外部から撮影した撮影画像に対し、物体の内部に存在する不可視物を表す三次元グラフィック画像と、物体における不可視物に沿った断面を表す三次元内部断面画像とを合成する合成画像生成部を備え、不可視物を表す三次元グラフィック画像は、不可視物の存在位置に対応する撮影画像内の位置に合成され、三次元内部断面画像は、断面が三次元グラフィック画像で表される不可視物に沿うように合成される画像合成装置を説明する。
不可視物は、物体の内部に存在し、物体の外部からは目視できない物である。
なお、以下の実施の形態1〜4では、不可視物が配管等の埋設物の場合を例として説明を行う。
また、実施の形態1〜4では、不可視物が内在する物体が、埋設物が埋設されている埋設地(道路等の土地)である場合を例として説明を行う。
In the first to fourth embodiments, a three-dimensional graphic image representing an invisible object existing inside the object and a three-dimensional internal cross-sectional image representing a cross section along the invisible object in the object with respect to a captured image obtained by photographing the object from the outside The 3D graphic image representing the invisible object is synthesized at a position in the captured image corresponding to the position where the invisible object exists, and the 3D internal cross-sectional image has a 3D cross section. An image synthesizing device that is synthesized along an invisible object represented by an image will be described.
An invisible object is an object that exists inside the object and cannot be seen from the outside of the object.
In the following first to fourth embodiments, the case where the invisible object is an embedded object such as a pipe will be described as an example.
In the first to fourth embodiments, an example in which the object containing the invisible object is a buried land (land such as a road) where the buried object is buried will be described.
また、図に記載した各構成要素は、本発明を説明するために便宜的に分割したものであり、図に示した分割に限定されない。
また、画像合成装置1の実装形態は、図に示した構成、分割、名称等に限定されない。
In addition, each component described in the figure is divided for convenience of explanation of the present invention, and is not limited to the division shown in the figure.
Further, the mounting form of the
実施の形態1.
***機能構成の説明***
図1は、実施の形態1に係る画像合成装置1の機能構成例を示す。
図1に示すように、画像合成装置1は、撮影装置20及び表示装置30に接続されている。
撮影装置20は、不可視物が配置されている物体の外表面、つまり、埋設物が埋設されている埋設地の地表面の撮影を行う。
表示装置30は、画像合成装置1により生成された合成画像を表示する。
以下、図1を用いて、本実施の形態に係る画像合成装置1の機能構成を説明する。
*** Explanation of functional configuration ***
FIG. 1 shows a functional configuration example of an
As shown in FIG. 1, the
The
The
Hereinafter, the functional configuration of the
図1において、撮影画像取得部2は、撮影装置20から地表面の撮影画像を取得する。
In FIG. 1, the captured
計測部3は、撮影装置20が地表面を撮影した際の撮影装置20の位置及び姿勢を計測する。
The
記憶部4は、空間モデルを記憶する。
空間モデルの詳細は後述する。
The
Details of the space model will be described later.
深度判定部8は、埋設物の存在位置における地表面からの深さを判定する。
The
グラフィック画像生成部5は、演算処理を行い、表示装置30の表示画面において遠近法により表示された透視図となる三次元グラフィック画像を生成する。
より具体的には、グラフィック画像生成部5は、計測部3が計測した撮影装置20の位置及び姿勢を解析して、不可視物たる埋設物の三次元グラフィック画像を生成する。
The graphic image generation unit 5 performs arithmetic processing to generate a three-dimensional graphic image that is a perspective view displayed by the perspective method on the display screen of the
More specifically, the graphic image generation unit 5 analyzes the position and orientation of the
断面画像付加部13は、埋設物の存在位置の地表面からの深さを表す地中の三次元内部断面画像を生成し、埋設物の三次元グラフィック画像の周囲に三次元内部断面画像を付加する。
より具体的には、断面画像付加部13は、埋設物の形状に沿って埋設地の内部がくり抜かれた状態が描画される三次元内部断面画像を、埋設物の三次元グラフィック画像の周囲に付加する。
例えば、埋設物が埋設管のような棒状体であれば、棒状体の長手方向の形状(両側の形状)に沿って埋設地の内部がくり抜かれた状態が描画される三次元内部断面画像を、グラフィック画像生成部5により生成された棒状体の三次元グラフィック画像の周囲に付加する。
なお、断面画像付加部13は、深度判定部8により判定された深さに応じて、埋設物の三次元グラフィック画像に付加する三次元内部断面画像の深さ方向の範囲を調整する。
The cross-sectional
More specifically, the cross-sectional
For example, if the buried object is a rod-like body such as a buried pipe, a three-dimensional internal cross-sectional image in which a state in which the interior of the buried land is hollowed out along the shape in the longitudinal direction of the rod-like body (the shape on both sides) is drawn. Then, it is added around the three-dimensional graphic image of the rod-shaped body generated by the graphic image generation unit 5.
The cross-sectional
合成画像生成部6は、埋設物の三次元グラフィック画像と三次元内部断面画像とを、埋設物の存在位置に対応する撮影画像内の位置に配置して、合成画像を生成する。
このように、合成画像生成部6は、埋設物の三次元グラフィック画像が、地表面を撮影した撮影画像の埋設物の存在位置に対応する画像位置に配置され、埋設物の形状に沿って埋設地の内部がくり抜かれた状態が描画される、三次元内部断面画像が埋設物の三次元グラフィック画像の周囲に配置されている合成画像を生成する。
なお、合成画像生成部6は、深度判定部8により判定された深さに対応する、撮影画像の画像位置に三次元グラフィック画像と三次元内部断面画像とを配置する。
The composite
As described above, the composite
The composite
合成画像出力部14は、合成画像生成部6により生成された合成画像を表示装置30に出力する。
The composite
***ハードウェア構成の説明***
図6は、画像合成装置1のハードウェア構成例を示す。
画像合成装置1は、図6に示すように、演算装置601と記憶装置602と計測装置603がバスで接続されたコンピュータである。
図1の計測部3は、撮影装置20の撮影位置及び姿勢を計測する計測装置603で実現することができる。
図1の記憶部4及び後述の図2の閾値保存部9は、記憶装置602で実現することができる。
記憶装置602は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk
Drive)等である。
図1に示す撮影画像取得部2、グラフィック画像生成部5、合成画像生成部6、深度判定部8、断面画像付加部13、合成画像出力部14、図2に示す閾値取得部10、後述の図3に示す色値調整部11、後述の図4に示す透明度調整部12(以下、これらをまとめて「部」と表記する)は、演算装置601で実現することができる。
演算装置601は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサである。
記憶装置602には、「部」の機能を実現するプログラムが記憶されている。
このプログラムは、演算装置601に読み込まれ、演算装置601によって実行される。
更に、記憶装置602には、OS(Operating System)も記憶されている。
そして、演算装置601は、OSの少なくとも一部を実行しながら、「部」の機能を実現するプログラムを実行する。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、記憶装置602、又は、演算装置601内のレジスタ又はキャッシュメモリに記憶される。
また、「部」を、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路で実現するようにしてもよい。
*** Explanation of hardware configuration ***
FIG. 6 shows a hardware configuration example of the
As shown in FIG. 6, the
The
The
The
Drive) and the like.
A captured
The
The
This program is read into the
Further, the
The
In addition, information, data, signal values, and variable values indicating the result of the processing of “unit” are stored in the
The “unit” may be realized by an electronic circuit such as a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
なお、図6のハードウェア構成は一例であり、例えば複数の演算装置や記憶装置が連携して、以下に説明する処理を実行してもよい。
すなわち、「部」の一部または全部を、ハードウェアとソフトウェアの組合せ、ハードウェアのみ、ソフトウェアのみ、またはこれらの組合せによって構成してもよい。
Note that the hardware configuration in FIG. 6 is an example, and for example, a plurality of arithmetic devices and storage devices may cooperate to execute the processing described below.
That is, a part or all of the “unit” may be configured by a combination of hardware and software, only hardware, only software, or a combination thereof.
***動作の説明***
次に、図7のフローチャートに基づき、画像合成装置1の動作例を説明する。
なお、図7に示す手順は、画像合成方法及び画像合成プログラムの例に相当する。
*** Explanation of operation ***
Next, an operation example of the
The procedure shown in FIG. 7 corresponds to an example of an image composition method and an image composition program.
まず、撮影装置20にて地表面の撮影が行われると、計測部3が、撮影画像取得部2の位置及び姿勢を計測し(S701)、また、撮影画像取得部2が撮影装置20から撮影画像を取得する(S702)。
なお、計測部3による計測結果は、グラフィック画像生成部5に出力される。
また、撮影画像は、合成画像生成部6に出力される。
First, when the ground surface is photographed by the photographing
The measurement result obtained by the
The captured image is output to the composite
次に、グラフィック画像生成部5が、記憶部4から空間モデルを読み込む(S703)。
そして、グラフィック画像生成部5は、空間モデルと計測部3の計測結果(撮影装置20の位置及び姿勢)を入力として演算処理を行い、埋設物の三次元グラフィック画像を生成する(S704)。
グラフィック画像生成部5が生成する三次元グラフィック画像は、表示画面に表示された場合に遠近法により表示された透視図となる画像である。
グラフィック画像生成部5は、生成した三次元グラフィック画像を断面画像付加部13に出力する。
Next, the graphic image generation unit 5 reads a space model from the storage unit 4 (S703).
Then, the graphic image generation unit 5 performs arithmetic processing with the spatial model and the measurement result of the measurement unit 3 (position and orientation of the photographing apparatus 20) as inputs, and generates a three-dimensional graphic image of the embedded object (S704).
The three-dimensional graphic image generated by the graphic image generation unit 5 is an image that becomes a perspective view displayed by a perspective method when displayed on the display screen.
The graphic image generation unit 5 outputs the generated three-dimensional graphic image to the cross-sectional
次に、深度判定部8は、埋設物の存在位置の深さ(深度)を判定する(S705)。
深度判定部8は、空間モデルから埋設物の深度を判定することができる。
深度判定部8は、判定した埋設物の深度を断面画像付加部13と合成画像生成部6に通知する。
Next, the
The
The
断面画像付加部13は、深度判定部8から通知された深度に従った三次元内部断面画像を生成し、グラフィック画像生成部5で生成された三次元グラフィック画像に、生成した三次元内部断面画像を付加する(S706)。
断面画像付加部13は、三次元内部断面画像の深さを、深度判定部8から通知された深度に応じて調整する。
つまり、断面画像付加部13は、深度判定部8から通知された深度までくり抜かれた状態が描画される三次元内部断面画像を生成する。
このため、断面画像付加部13は、埋設物の深度が大きいほど断面画像の深さ方向の範囲を広くし、深度が小さいほど断面画像の深さ方向の範囲を狭くする。
断面画像付加部13は、三次元グラフィック画像と三次元内部断面画像とを合成画像生成部6に出力する。
The cross-sectional
The cross-sectional
That is, the cross-sectional
For this reason, the cross-sectional
The cross-sectional
最後に、合成画像生成部6は、撮影画像取得部2からの撮影画像に、断面画像付加部13からの三次元グラフィック画像と三次元内部断面画像とを重畳して、合成画像を生成する(S707)(合成画像生成ステップ)。
そして、合成画像生成部6は、生成した合成画像を合成画像出力部14に出力する。
合成画像出力部14は、合成画像を表示装置30に出力して、表示させる(合成画像出力ステップ)。
Finally, the composite
Then, the composite
The composite
例えば、合成画像生成部6は、図5に示すような合成画像を生成する。
図5の合成画像では、埋設管が埋設されている道路を撮影した撮影画像に、埋設管の三次元グラフィック画像が重畳され、また、埋設管の延びる方向に沿って埋設地の内部がくり抜かれた状態を描画する三次元内部断面画像が重畳されている。
具体的には、図5では、符号502、503及び504の面に三次元内部断面画像が付加されている。
For example, the composite
In the composite image of FIG. 5, a three-dimensional graphic image of the buried pipe is superimposed on a photographed image obtained by photographing the road where the buried pipe is buried, and the interior of the buried land is cut out along the direction in which the buried pipe extends. A three-dimensional internal cross-sectional image for drawing the state is superimposed.
Specifically, in FIG. 5, three-dimensional internal cross-sectional images are added to the surfaces denoted by
***計測部3について***
ここで、計測部3の詳細を説明する。
前述したように、計測部3は、撮影装置20が地表面を撮影した際の、撮影装置20の位置及び姿勢を計測する。
位置は撮影装置20の3次元空間の位置を表す値である。
値の座標系の例として、緯度、経度、及び標高が挙げられる。
別の例として、平面直角座標系のX値とY値、及び標高でもよい。
もしくは、屋外や屋内のある位置を原点とした座標系でもよい。
位置の計測方法としては、GPS(Global Positioning System)やGLONASS(Global Navigation Satellite System)等の衛星測位システムによる測位が挙げられる。
屋内においてはIMES(Indoor MEssaging System)等の屋内測位システムを使用できる。
姿勢は撮影装置20の3次元空間の姿勢(傾きや方位)を表す値である。
姿勢の値は回転行列や回転ベクトル等によって表される。
姿勢は、加速度センサと地磁気センサによって計測できる。
加速度センサによって重力加速度を計測することで、傾きを算出できる。
また、地磁気センサによって方位を算出できる。
*** About measuring
Here, the detail of the
As described above, the
The position is a value representing the position of the photographing
Examples of coordinate systems for values include latitude, longitude, and elevation.
As another example, the X and Y values of a plane rectangular coordinate system, and the altitude may be used.
Alternatively, a coordinate system with the origin at an outdoor or indoor position may be used.
Examples of the position measurement method include positioning by a satellite positioning system such as GPS (Global Positioning System) or GLONASS (Global Navigation Satellite System).
An indoor positioning system such as IMES (Indoor Messaging System) can be used indoors.
The posture is a value that represents the posture (tilt and orientation) of the photographing
The posture value is represented by a rotation matrix, a rotation vector, or the like.
The posture can be measured by an acceleration sensor and a geomagnetic sensor.
The inclination can be calculated by measuring the gravitational acceleration by the acceleration sensor.
Further, the azimuth can be calculated by a geomagnetic sensor.
***記憶部4について***
記憶部4の詳細を説明する。
記憶部4には、あらかじめ空間モデルのデータを記憶しておく。
空間モデルとは、例えば屋外の埋設管を重畳表示する画像合成装置1の場合、各埋設管の始点位置、終点位置、口径、深度(土被り)等のデータである。
始点位置及び終点位置は、3次元の位置情報である。
座標系は計測部3と同様に、平面位置を表す経緯度やX、Y値、及び高さを表す標高等である。
これらのデータにより、グラフィック画像生成部5は三次元グラフィック画像を生成できる。
なお、埋設物の三次元グラフィック画像の描画を可能にするデータであれば、空間モデルはどのようなデータであってもよい。
*** About
Details of the
The
For example, in the case of the
The start point position and the end point position are three-dimensional position information.
Similar to the
With these data, the graphic image generation unit 5 can generate a three-dimensional graphic image.
Note that the space model may be any data as long as the data enables drawing of a three-dimensional graphic image of the embedded object.
***グラフィック画像生成部5について***
グラフィック画像生成部5の詳細を説明する。
グラフィック画像生成部5は、計測部3による撮影装置20の位置及び姿勢と、記憶部4の空間モデルを使用し、三次元グラフィック画像を生成する。
三次元グラフィック画像の生成方法としては、OpenGL等に代表されるコンピュータにおける三次元グラフィック画像の生成技術を使用できる。
空間モデル内の埋設管の始点位置、終点位置、口径に基づき、三次元グラフィック画像のワールド空間に埋設管をモデリングすることで、埋設管の三次元グラフィック画像を生成できる。
また、三次元グラフィック画像を生成(レンダリング)する際に、三次元グラフィック画像のカメラ位置及び姿勢を、計測部3による位置及び姿勢の値を使用することと、画角を撮影装置20の画角と同じ値に設定することで、撮影装置20の位置及び姿勢で撮影した際の埋設管の三次元グラフィック画像を生成できる。
以上のことから、合成画像生成部6によって、グラフィック画像生成部5で生成された三次元グラフィック画像を撮影画像取得部2で取得した実空間画像(撮影画像)と重畳することで、実際には視認できない埋設管の三次元グラフィック画像を実空間画像(撮影画像)に表示することができる。
*** About the graphic image generator 5 ***
Details of the graphic image generation unit 5 will be described.
The graphic image generation unit 5 generates a three-dimensional graphic image using the position and orientation of the photographing
As a method for generating a three-dimensional graphic image, a three-dimensional graphic image generation technique in a computer represented by OpenGL or the like can be used.
By modeling the buried pipe in the world space of the three-dimensional graphic image based on the start point position, the end point position, and the diameter of the buried pipe in the space model, a three-dimensional graphic image of the buried pipe can be generated.
Further, when generating (rendering) a three-dimensional graphic image, the camera position and posture of the three-dimensional graphic image are used using the position and posture values obtained by the
From the above, the composite
***深度判定部8について***
深度判定部8の詳細を説明する。
深度判定部8は、記憶部4の空間モデルに基づき、埋設管の深度を断面画像付加部13に通知する。
深度は空間モデル内の深度データ(土被り)を使用できる。
なお、空間モデルに深度データが存在しない場合は、深度判定部8は、空間モデルの始点及び終点位置、及び地面の標高データを用いて深度を算出してもよい。
*** About the
Details of the
The
Depth can use depth data (soil cover) in the spatial model.
When there is no depth data in the spatial model, the
***断面画像付加部13について***
断面画像付加部13の詳細を説明する。
断面画像付加部13は、グラフィック画像生成部5が生成した三次元グラフィック画像の周囲に、深度判定部8で判定された深度に対応する三次元内部断面画像を付加する。
具体的には、断面画像付加部13は、図5の符号502、503及び504のように、埋設管の形状に沿って埋設地の内部がくり抜かれたと仮定した状態を描画する擬似的な断面画像を付加する。
なお、くり抜かれた状態に対応する画像を描画しているとユーザが認識できればよく、必ずしもくり抜かれた状態に対応する断面の全てを描画するように構成する必要はなく上記説明の場合に限定されない。
例えば三次元内部断面画像として、埋設管の両側の断面を表す、即ち複数の二次元断面図を描画するようにしてもよい。
図5では、符号502、503及び504の面のみ断面画像が付加され、符号501と符号505の面には断面画像が付加されていない。
このように不可視物の周囲の一部に断面画像が付加されていない箇所があっても、くり抜かれたいずれかの面に断面画像が付加されていれば、不可視物の三次元グラフィック画像の周囲に三次元内部断面画像が付加されているものとする。
なお、断面画像付加部13は、断面画像を付加する位置を、記憶部4による埋設管の位置データを用いて特定する。
また、断面画像付加部13は、断面画像の深度を、深度判定部8から通知される深度を用いて特定する。
また、断面画像には、断面であることが直感的に理解できるように、例えばコンクリートや地層を表すようなテクスチャを使用してもよい。
*** About the cross-section
Details of the cross-sectional
The cross-sectional
Specifically, the cross-sectional
Note that it is only necessary that the user can recognize that the image corresponding to the hollowed out state is being drawn, and it is not always necessary to configure to draw all of the cross section corresponding to the hollowed out state, and the present invention is not limited to the case described above. .
For example, as a three-dimensional internal cross-sectional image, cross sections on both sides of the buried pipe, that is, a plurality of two-dimensional cross-sectional views may be drawn.
In FIG. 5, the cross-sectional images are added only to the surfaces of
In this way, even if there is a part where the cross-sectional image is not added to a part of the periphery of the invisible object, if the cross-sectional image is added to any of the cut out surfaces, the periphery of the invisible object's three-dimensional graphic image It is assumed that a three-dimensional internal cross-sectional image is added to.
The cross-sectional
Further, the cross-sectional
Further, in the cross-sectional image, for example, a texture representing concrete or a stratum may be used so that it can be intuitively understood that it is a cross-section.
***実施の形態の効果の説明***
以上のように、実施の形態1では、埋設物の深度に応じて深さ方向の範囲を変化させた断面画像を付加した三次元グラフィック画像を撮影画像と重畳表示できるため、ユーザが直感的に、従来よりも短時間で埋設物の深さを理解することができる。
実施の形態1に係る画像合成装置1で生成される合成画像の例である図5では、管路の付近に断面図が重畳表示されているため、ユーザが直感的に、従来よりも短時間で管路の深さを理解することができる。
*** Explanation of the effect of the embodiment ***
As described above, in the first embodiment, since a three-dimensional graphic image to which a cross-sectional image in which the range in the depth direction is changed according to the depth of the embedded object can be superimposed and displayed on the captured image, the user can intuitively The depth of the buried object can be understood in a shorter time than conventional.
In FIG. 5, which is an example of a composite image generated by the
なお、上記実施の形態においては、画像合成装置1として撮影装置20及び表示装置30を含まない構成を例に説明したが、上記構成に限定されず、例えば撮影装置20および表示装置30の少なくともいずれかを含む画像合成装置を構成してもよい。
撮影装置20を含む場合、例えば撮影装置20が撮影画像取得部2の機能を含むといった構成が可能である。
表示装置30を含む場合、例えば表示装置30が合成画像出力部14の機能を含むといった構成が可能である。以下の各実施の形態においても同様である。
In the embodiment described above, the
When including the
When the
実施の形態2.
***機能構成の説明***
図2は、実施の形態2に係る画像合成装置1の機能構成例を示す。
図2を用いて、本実施の形態に係る画像合成装置の機能構成を説明する。
*** Explanation of functional configuration ***
FIG. 2 shows a functional configuration example of the
A functional configuration of the image composition apparatus according to the present embodiment will be described with reference to FIG.
図2では、図1と比較して、閾値保存部9と閾値取得部10が追加されている。
また、本実施の形態では、グラフィック画像生成部5と深度判定部8の動作が実施の形態1と異なっている。
図2に示す他の要素は、図1に示したものと同じであるため、説明を省略する。
In FIG. 2, a
In the present embodiment, the operations of the graphic image generation unit 5 and the
The other elements shown in FIG. 2 are the same as those shown in FIG.
閾値取得部10は、ユーザから閾値を取得する。
閾値保存部9は、閾値取得部10がユーザから取得した閾値を記憶する。
そして、閾値保存部9は、記憶している閾値を深度判定部8に出力する。
The
The
Then, the
本実施の形態では、深度判定部8は、埋設物の深度と閾値保存部9に保存されている閾値とを比較し、埋設物の深度が閾値よりも大きい(深い)場合は、グラフィック画像生成部5に埋設物の三次元グラフィック画像のサイズを小さくするよう指示する。
In the present embodiment, the
グラフィック画像生成部5は、深度判定部8から指示があった場合は、埋設物の三次元グラフィック画像のサイズを小さくする。
グラフィック画像生成部5は、埋設物の三次元グラフィック画像を複数のサイズで生成することができ、深度判定部8により判定された深さに応じて、生成する三次元グラフィック画像のサイズを調整する。
グラフィック画像生成部5は、例えば、図5に示す埋設管の三次元グラフィック画像のサイズを調整する。
When receiving an instruction from the
The graphic image generation unit 5 can generate a three-dimensional graphic image of the embedded object in a plurality of sizes, and adjusts the size of the generated three-dimensional graphic image according to the depth determined by the
The graphic image generation unit 5 adjusts the size of the three-dimensional graphic image of the embedded pipe shown in FIG.
***動作の説明***
次に、実施の形態1との差異を中心にして、本実施の形態に係る画像合成装置1の動作を説明する。
なお、以下で説明していない事項は、実施の形態1と同じである。
*** Explanation of operation ***
Next, the operation of the
Note that items not described below are the same as those in the first embodiment.
撮影画像取得部2、計測部3及び記憶部4の動作は実施の形態1と同じであるため、説明を省略する。
Since the operations of the captured
深度判定部8は、閾値保存部9の閾値と埋設物の深度とを比較し、埋設物の深度が閾値よりも大きい場合は、グラフィック画像生成部5に埋設物の三次元グラフィック画像のサイズを既定サイズよりも小さくするよう指示する。
一方、埋設物の深度が閾値以下である場合は、深度判定部8はグラフィック画像生成部5に指示を行わない。
The
On the other hand, when the depth of the embedded object is equal to or less than the threshold value, the
グラフィック画像生成部5は、深度判定部8から指示があった場合は、埋設物の三次元グラフィック画像のサイズを既定サイズよりも小さくする。
埋設物の三次元グラフィック画像の生成方法は、実施の形態1と同じである。
When receiving an instruction from the
The method for generating the three-dimensional graphic image of the embedded object is the same as that in the first embodiment.
断面画像付加部13は、実施の形態1と同様に三次元グラフィック画像に三次元内部断面画像を付加する。
このとき、グラフィック画像生成部5から出力された三次元グラフィック画像のサイズが既定サイズより小さい場合は、グラフィック画像生成部5から出力された三次元グラフィック画像のサイズに合わせて三次元内部断面画像のサイズも小さくする。
The cross-sectional
At this time, if the size of the three-dimensional graphic image output from the graphic image generation unit 5 is smaller than the predetermined size, the three-dimensional internal cross-sectional image is matched with the size of the three-dimensional graphic image output from the graphic image generation unit 5. Reduce the size.
合成画像生成部6及び合成画像出力部14の動作は実施の形態1と同じである。
つまり、合成画像生成部6は、撮影画像に三次元グラフィック画像と三次元内部断面画像を重畳して合成画像を生成し、合成画像出力部14が合成画像を表示装置30に表示させる。
The operations of the composite
That is, the composite
また、閾値保存部9に2以上の閾値を設定してもよい。
例えば、グラフィック画像生成部5がサイズ1、サイズ2、サイズ3という3段階(サイズ1のサイズが最も大きく、サイズ3のサイズが最も小さい)で三次元グラフィック画像のサイズを調整できるのであれば、閾値保存部9に閾値1と閾値2(閾値2の方が深度が大きい)を設定する。
そして、深度判定部8は、埋設物の深度が閾値1よりも小さい(浅い)場合は、グラフィック画像生成部5にサイズ1で三次元グラフィック画像を生成するよう指示する。
また、深度判定部8は、埋設物の深度が閾値1と閾値2の間である場合は、グラフィック画像生成部5にサイズ2で三次元グラフィック画像を生成するよう指示する。
また、深度判定部8は、埋設物の深度が閾値2よりも大きい(深い)場合は、グラフィック画像生成部5にサイズ3で三次元グラフィック画像を生成するよう指示する。
このように、多段階の閾値を設け、深度に応じてグラフィック画像のサイズを多段階で調整するようにしてもよい。
Further, two or more thresholds may be set in the
For example, if the graphic image generation unit 5 can adjust the size of the three-dimensional graphic image in three stages of
Then, when the depth of the embedded object is smaller (shallow) than the
Further, when the depth of the embedded object is between the
The
As described above, a multi-stage threshold value may be provided, and the size of the graphic image may be adjusted in multi-stages according to the depth.
***実施の形態の効果の説明***
以上のように、実施の形態2では、埋設物の深度が大きいほど三次元グラフィック画像のサイズを小さくし、深度が小さいほど三次元グラフィック画像のサイズを大きくして、三次元グラフィック画像を画像重畳して出力することができるので、ユーザが直感的に、従来よりも短時間で埋設物の深さを理解することができる。
*** Explanation of the effect of the embodiment ***
As described above, in
実施の形態3.
***構成の説明***
図3は、実施の形態3に係る画像合成装置1の機能構成例を示す。
図3を用いて、本実施の形態に係る画像合成装置の機能構成を説明する。
*** Explanation of configuration ***
FIG. 3 shows a functional configuration example of the
The functional configuration of the image composition device according to the present embodiment will be described with reference to FIG.
図3では、図2と比較して、色値調整部11が追加されている。
また、本実施の形態では、深度判定部8の動作が実施の形態2と異なっている。
図3に示す他の要素は、図2に示したものと同じであるため、説明を省略する。
In FIG. 3, a color
In the present embodiment, the operation of the
The other elements shown in FIG. 3 are the same as those shown in FIG.
本実施の形態では、深度判定部8は、埋設物の深度と閾値保存部9に保存されている閾値とを比較し、比較結果に基づいて、色値調整部11に三次元グラフィック画像の色値を指示する。
In the present embodiment, the
色値調整部11は、深度判定部8により判定された深さに応じて、三次元グラフィック画像における埋設物の色値を調整する。
具体的には、三次元グラフィック画像における埋設物の色値を深度判定部8から指示された色値にする。
色値調整部11は、例えば、図5に示す埋設管の色値を調整する。
The color
Specifically, the color value of the embedded object in the three-dimensional graphic image is set to the color value instructed from the
For example, the color
***動作の説明***
次に、実施の形態2との差異を中心にして、本実施の形態に係る画像合成装置1の動作を説明する。
以下で説明していない事項は、実施の形態1、2と同じである。
なお、以下では、色値調整部11は、三次元グラフィック画像の色値を、「明るい色」と「暗い色」という2色で調整するものとする。
*** Explanation of operation ***
Next, the operation of the
Matters not described below are the same as those in the first and second embodiments.
In the following, it is assumed that the color
図3の撮影画像取得部2、計測部3、記憶部4、グラフィック画像生成部5、閾値取得部10、閾値保存部9、合成画像生成部6の動作は図2と同じであるため、説明を省略する。
The operations of the captured
深度判定部8は、閾値保存部9の閾値と埋設物の深度とを比較する。
そして、深度判定部8は、例えば埋設物の深度が閾値よりも大きければ三次元グラフィック画像の色を「明るい色」にするよう色値調整部11に指示し、深度が閾値以下であれば、三次元グラフィック画像の色を「暗い色」にするよう色値調整部11に指示する。
色値調整部11は、深度判定部8からの指示に従って、三次元グラフィック画像の色値を調整し、色値が調整された三次元グラフィック画像を断面画像付加部13に出力する。
断面画像付加部13は、色値調整部11により色値が調整された後の三次元グラフィック画像の周囲に三次元内部断面画像を付加する。
The
Then, for example, the
The color
The cross-sectional
なお、本実施の形態でも、実施の形態2の三次元グラフィック画像のサイズと同様に、色値を多段階で調整するようにしてもよい。 Note that in this embodiment as well, the color value may be adjusted in multiple steps, similar to the size of the three-dimensional graphic image in the second embodiment.
***実施の形態の効果の説明***
以上のように、実施の形態3では、埋設物の深度が大きいほど三次元グラフィック画像の色に明るい色を採用し、深度が小さいほど三次元グラフィック画像の色に暗い色を採用する等して、三次元グラフィック画像を画像重畳して出力することができるので、ユーザが直感的に、従来よりも短時間で管路の深さを理解することができる。
*** Explanation of the effect of the embodiment ***
As described above, in
実施の形態4.
***構成の説明***
図4は、実施の形態4に係る画像合成装置1の機能構成例を示す。
図4を用いて、本実施の形態に係る画像合成装置の機能構成を説明する。
*** Explanation of configuration ***
FIG. 4 shows a functional configuration example of the
A functional configuration of the image composition device according to the present embodiment will be described with reference to FIG.
図4では、図3に示した色値調整部11の代わりに透明度調整部12が設けられている。
また、本実施の形態では、深度判定部8の動作が実施の形態3と異なっている。
図4に示す他の要素は、図3に示したものと同じであるため、説明を省略する。
In FIG. 4, a
In the present embodiment, the operation of the
The other elements shown in FIG. 4 are the same as those shown in FIG.
本実施の形態では、深度判定部8は、埋設物の深度と閾値保存部9に保存されている閾値とを比較し、比較結果に基づいて、透明度調整部12に三次元グラフィック画像の透明度を指示する。
In the present embodiment, the
透明度調整部12は、深度判定部8により判定された深さに応じて、三次元グラフィック画像における埋設物の透明度を調整する。
具体的には、三次元グラフィック画像における埋設物の透明度を深度判定部8から指示された透明度にする。
透明度調整部12は、例えば、図5に示す埋設管の透明度を調整する。
The
Specifically, the transparency of the embedded object in the three-dimensional graphic image is set to the transparency instructed from the
For example, the
***動作の説明***
次に、実施の形態3との差異を中心にして、本実施の形態に係る画像合成装置1の動作を説明する。
以下で説明していない事項は、実施の形態1〜3と同じである。
なお、以下では、透明度調整部12は、三次元グラフィック画像の透明度を、「高透明度」と「低透明度」の2つで調整するものとする。
*** Explanation of operation ***
Next, the operation of the
Matters not described below are the same as those in the first to third embodiments.
In the following, it is assumed that the
図4の撮影画像取得部2、計測部3、記憶部4、グラフィック画像生成部5、閾値取得部10、閾値保存部9、合成画像生成部6の動作は図2と同じであるため、説明を省略する。
The operations of the captured
深度判定部8は、閾値保存部9の閾値と埋設物の深度とを比較する。
そして、深度判定部8は、例えば埋設物の深度が閾値よりも大きければ三次元グラフィック画像の透明度を「高透明度」とするよう透明度調整部12に指示し、深度が閾値以下であれば、三次元グラフィック画像の色の透明度を「低透明度」とするよう透明度調整部12に指示する。
透明度調整部12は、深度判定部8からの指示に従って、三次元グラフィック画像の透明度を調整し、透明度が調整された三次元グラフィック画像を断面画像付加部13に出力する。
断面画像付加部13は、透明度調整部12により透明度が調整された後の三次元グラフィック画像の周囲に三次元内部断面画像を付加する。
The
Then, for example, the
The
The cross-sectional
なお、本実施の形態でも、実施の形態2の三次元グラフィック画像のサイズと同様に、透明度を多段階で調整するようにしてもよい。 In the present embodiment, the transparency may be adjusted in multiple steps, similar to the size of the three-dimensional graphic image in the second embodiment.
***実施の形態の効果の説明***
以上のように、実施の形態4では、埋設物の深度が大きいほど三次元グラフィック画像の色の透明度を増やし、深度が小さいほど三次元グラフィック画像の色の透明度を下げて、三次元グラフィック画像を画像重畳して出力することができるので、ユーザが直感的に、短時間で管路の深さを理解できる。
*** Explanation of the effect of the embodiment ***
As described above, in
***その他***
なお、実施の形態1〜4では、不可視物が地中の埋設物である例を説明した。
不可視物は、物体の内部に存在し、物体の外部からは目視できない物であれば、地中の埋設物に限定されない。
不可視物には、地中ではなく、例えば壁中や天井裏等に存在し、外部から視認できない物も含まれる。
不可視物は、管路のみならず、電線や通信ケーブル等でもよい。
なお、不可視物が地中ではなく例えば壁中にある場合は、不可視物の存在位置の深さは、壁の表面から不可視物までの距離である。
*** Others ***
In
The invisible object is not limited to an underground object as long as it is present inside the object and is not visible from the outside of the object.
Invisible objects include objects that are not visible in the ground but are present in, for example, walls and behind the ceiling and cannot be seen from the outside.
The invisible object may be an electric wire or a communication cable as well as a pipeline.
When the invisible object is not in the ground, for example, in the wall, the depth of the position where the invisible object exists is the distance from the wall surface to the invisible object.
以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
As mentioned above, although embodiment of this invention was described, you may implement in combination of 2 or more among these embodiment.
Alternatively, one of these embodiments may be partially implemented.
Alternatively, two or more of these embodiments may be partially combined.
また、上記各実施の形態の図において実線及び矢印でやり取りされる情報等の内容は、装置の内部構成の分割の仕方によってその属性が変わることがある。
また、上記各実施の形態に記載した以外の情報等を含んでいてもよい。
In addition, the attributes of information such as information exchanged with solid lines and arrows in the drawings of the above embodiments may change depending on how the internal configuration of the apparatus is divided.
In addition, information other than those described in the above embodiments may be included.
また、各実施の形態において説明した各種処理は、(1)実質的に等価(または相当する)処理(または動作)に変形して実装する、(2)実質的に等価な複数の処理に分割して実装する、など本発明の課題及び効果の範囲で各種変形が可能である。
さらに、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
In addition, the various processes described in each embodiment are implemented by (1) being transformed into a substantially equivalent (or equivalent) process (or operation) and (2) being divided into a plurality of substantially equivalent processes. Various modifications can be made within the scope of the problems and effects of the present invention, such as mounting.
Furthermore, the present invention is not limited to these embodiments, and various modifications can be made as necessary.
1 画像合成装置、2 撮影画像取得部、3 計測部、4 記憶部、5 グラフィック画像生成部、6 合成画像生成部、8 深度判定部、9 閾値保存部、10 閾値取得部、11 色値調整部、12 透明度調整部、13 断面画像付加部、14 合成画像出力部、20 撮影装置、30 表示装置。
DESCRIPTION OF
Claims (12)
前記不可視物を表す三次元グラフィック画像は、前記不可視物の存在位置に対応する前記撮影画像内の位置に合成され、
前記三次元内部断面画像は、前記断面が前記三次元グラフィック画像で表される前記不可視物から離間した状態で前記不可視物に沿うように合成されることを特徴とする画像合成装置。 Combining a captured image obtained by photographing an object from the outside with a three-dimensional graphic image representing an invisible object existing inside the object and a three-dimensional internal sectional image representing a section along the invisible object in the object With an image generator,
The three-dimensional graphic image representing the invisible object is synthesized at a position in the captured image corresponding to the position where the invisible object exists,
The three-dimensional internal cross-sectional image is synthesized so that the cross-section is along the invisible object in a state of being separated from the invisible object represented by the three-dimensional graphic image.
前記撮影画像を取得する撮影画像取得部と、
前記三次元グラフィック画像を生成するグラフィック画像生成部と、
前記グラフィック画像生成部により生成された前記三次元グラフィック画像の周囲に前記三次元内部断面画像を付加する断面画像付加部とを有し、
前記合成画像生成部は、
前記断面画像付加部により前記三次元内部断面画像が付加された前記三次元グラフィック画像を、前記撮影画像取得部により取得された前記撮影画像の前記不可視物の存在位置に対応する画像位置に配置して、合成画像を生成する請求項1に記載の画像合成装置。 The image composition device further includes:
A captured image acquisition unit for acquiring the captured image;
A graphic image generator for generating the three-dimensional graphic image;
A cross-sectional image adding unit that adds the three-dimensional internal cross-sectional image around the three-dimensional graphic image generated by the graphic image generating unit;
The composite image generation unit
The three-dimensional graphic image to which the three-dimensional internal cross-sectional image is added by the cross-sectional image adding unit is arranged at an image position corresponding to the position where the invisible object is present in the captured image acquired by the captured image acquiring unit. The image composition device according to claim 1, wherein the composite image is generated.
前記不可視物の存在位置の前記物体の外表面からの深さを判定する深度判定部を有し、
前記合成画像生成部は、
前記深度判定部により判定された深さに対応する前記撮影画像の画像位置に前記三次元グラフィック画像と前記三次元内部断面画像とを配置する請求項2に記載の画像合成装置。 The image composition device further includes:
A depth determination unit that determines the depth of the presence position of the invisible object from the outer surface of the object;
The composite image generation unit
The image synthesizing apparatus according to claim 2, wherein the three-dimensional graphic image and the three-dimensional internal cross-sectional image are arranged at an image position of the captured image corresponding to the depth determined by the depth determination unit.
前記深度判定部により判定された深さに応じて、前記三次元グラフィック画像に付加する前記三次元内部断面画像の深さ方向の範囲を調整する請求項3に記載の画像合成装置。 The cross-sectional image adding unit is
The image composition device according to claim 3, wherein a range in a depth direction of the three-dimensional internal cross-sectional image added to the three-dimensional graphic image is adjusted according to the depth determined by the depth determination unit.
前記深度判定部により判定された深さに応じて、生成する前記三次元グラフィック画像のサイズを調整する請求項3に記載の画像合成装置。 The graphic image generator is
The image composition device according to claim 3, wherein a size of the three-dimensional graphic image to be generated is adjusted according to the depth determined by the depth determination unit.
前記深度判定部により判定された深さに応じて、前記グラフィック画像生成部により生成された前記三次元グラフィック画像における前記不可視物の色値を調整する色値調整部を有し、
前記断面画像付加部は、
前記色値調整部により色値が調整された後の前記三次元グラフィック画像の周囲に前記三次元内部断面画像を付加する請求項3に記載の画像合成装置。 The image composition device further includes:
According to the depth determined by the depth determination unit, a color value adjustment unit that adjusts the color value of the invisible object in the three-dimensional graphic image generated by the graphic image generation unit,
The cross-sectional image adding unit is
The image synthesizing apparatus according to claim 3, wherein the three-dimensional internal cross-sectional image is added around the three-dimensional graphic image after the color value is adjusted by the color value adjusting unit.
前記深度判定部により判定された深さに応じて、前記グラフィック画像生成部により生成された前記三次元グラフィック画像における透明度を調整する透明度調整部を有し、
前記断面画像付加部は、
前記透明度調整部により透明度が調整された後の前記三次元グラフィック画像の周囲に前記三次元内部断面画像を付加する請求項3に記載の画像合成装置。 The image composition device further includes:
According to the depth determined by the depth determination unit, a transparency adjustment unit that adjusts the transparency in the three-dimensional graphic image generated by the graphic image generation unit,
The cross-sectional image adding unit is
The image synthesizing device according to claim 3, wherein the three-dimensional internal cross-sectional image is added around the three-dimensional graphic image after the transparency is adjusted by the transparency adjusting unit.
前記不可視物の三次元の位置情報を取得し、取得した前記不可視物の三次元の位置情報から、前記不可視物の存在位置の前記外表面からの深さを判定する請求項3に記載の画像合成装置。 The depth determination unit
The image according to claim 3, wherein the three-dimensional position information of the invisible object is acquired, and the depth from the outer surface of the position where the invisible object exists is determined from the acquired three-dimensional position information of the invisible object. Synthesizer.
撮影装置から前記撮影画像を取得し、
前記画像合成装置は、更に、
前記撮影装置の位置及び姿勢を計測する計測部を有し、
前記グラフィック画像生成部は、
前記計測部により計測された前記撮影画像の撮影時の前記撮影装置の位置及び姿勢を解析して、前記三次元グラフィック画像を生成する請求項2に記載の画像合成装置。 The captured image acquisition unit
Acquiring the captured image from the imaging device;
The image composition device further includes:
Having a measuring unit for measuring the position and orientation of the photographing device;
The graphic image generator is
The image synthesizing apparatus according to claim 2, wherein the three-dimensional graphic image is generated by analyzing the position and orientation of the photographing apparatus at the time of photographing the photographed image measured by the measurement unit.
前記三次元グラフィック画像として、棒状体の三次元グラフィック画像を生成し、
前記断面画像付加部は、
前記棒状体の延びる方向に沿って前記物体の内部がくり抜かれた状態が描画される、前記三次元内部断面画像を、前記棒状体の三次元グラフィック画像の周囲に付加する請求項2に記載の画像合成装置。 The graphic image generator is
As the three-dimensional graphic image, a rod-shaped three-dimensional graphic image is generated,
The cross-sectional image adding unit is
The said 3D internal cross-sectional image by which the state which the inside of the said object was hollowed out along the extending direction of the said rod-shaped body is drawn is added to the circumference | surroundings of the 3D graphic image of the said rod-shaped body. Image composition device.
前記合成画像生成ステップにおいて、
前記不可視物を表す三次元グラフィック画像が、前記不可視物の存在位置に対応する前記撮影画像内の位置に合成され、
前記三次元内部断面画像が、前記断面が前記三次元グラフィック画像で表される前記不可視物から離間した状態で前記不可視物に沿うように合成されることを特徴とする画像合成方法。 A computer, for a captured image obtained by photographing an object from the outside, a three-dimensional graphic image representing an invisible object existing inside the object, and a three-dimensional internal sectional image representing a section along the invisible object in the object A composite image generation step for combining,
In the composite image generation step,
A three-dimensional graphic image representing the invisible object is synthesized at a position in the captured image corresponding to the position where the invisible object exists,
The image synthesis method, wherein the three-dimensional internal cross-sectional image is synthesized so as to follow the invisible object in a state where the cross-section is separated from the invisible object represented by the three-dimensional graphic image.
前記合成画像生成ステップにおいて、
前記不可視物を表す三次元グラフィック画像が、前記不可視物の存在位置に対応する前記撮影画像内の位置に合成され、
前記三次元内部断面画像が、前記断面が前記三次元グラフィック画像で表される前記不可視物から離間した状態で前記不可視物に沿うように合成されることを特徴とする画像合成プログラム。 Combining a captured image obtained by photographing an object from the outside with a three-dimensional graphic image representing an invisible object existing inside the object and a three-dimensional internal sectional image representing a section along the invisible object in the object An image composition program for causing a computer to execute an image generation step,
In the composite image generation step,
A three-dimensional graphic image representing the invisible object is synthesized at a position in the captured image corresponding to the position where the invisible object exists,
An image composition program, wherein the three-dimensional internal cross-sectional image is synthesized so as to follow the invisible object in a state where the cross-section is separated from the invisible object represented by the three-dimensional graphic image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015101006A JP6494413B2 (en) | 2015-05-18 | 2015-05-18 | Image composition apparatus, image composition method, and image composition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015101006A JP6494413B2 (en) | 2015-05-18 | 2015-05-18 | Image composition apparatus, image composition method, and image composition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016218615A JP2016218615A (en) | 2016-12-22 |
JP6494413B2 true JP6494413B2 (en) | 2019-04-03 |
Family
ID=57578444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015101006A Active JP6494413B2 (en) | 2015-05-18 | 2015-05-18 | Image composition apparatus, image composition method, and image composition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6494413B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6692867B2 (en) * | 2018-09-07 | 2020-05-13 | 日本航空株式会社 | System and method for identifying the interior of a structure |
JP6720385B1 (en) * | 2019-02-07 | 2020-07-08 | 株式会社メルカリ | Program, information processing method, and information processing terminal |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094625A (en) * | 1997-07-03 | 2000-07-25 | Trimble Navigation Limited | Augmented vision for survey work and machine control |
JP3653196B2 (en) * | 1998-06-30 | 2005-05-25 | 飛島建設株式会社 | Construction support information system using virtual reality. |
EP2269533B1 (en) * | 2008-03-21 | 2021-05-05 | Atsushi Takahashi | Three-dimensional digital magnifier operation supporting system |
JP2010143520A (en) * | 2008-12-22 | 2010-07-01 | Toshiba Corp | On-board display system and display method |
US9552669B2 (en) * | 2010-09-02 | 2017-01-24 | Underground Imaging Technologies, Llc | System, apparatus, and method for utilizing geographic information systems |
JP5682060B2 (en) * | 2010-12-20 | 2015-03-11 | 国際航業株式会社 | Image composition apparatus, image composition program, and image composition system |
-
2015
- 2015-05-18 JP JP2015101006A patent/JP6494413B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016218615A (en) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107564089B (en) | Three-dimensional image processing method, device, storage medium and computer equipment | |
KR101835434B1 (en) | Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value | |
EP3655928B1 (en) | Soft-occlusion for computer graphics rendering | |
JP6050518B2 (en) | How to represent virtual information in the real environment | |
EP2769181B1 (en) | Reimaging based on depthmap information | |
US9898857B2 (en) | Blending between street view and earth view | |
KR101665399B1 (en) | Object generation apparatus and method of based augmented reality using actual measured | |
US20120105446A1 (en) | Building controllable clairvoyance device in virtual world | |
JP6476657B2 (en) | Image processing apparatus, image processing method, and program | |
JP6090321B2 (en) | Information processing apparatus and program | |
JP5883818B2 (en) | 3D map display system | |
US9691175B2 (en) | 3-D models as a navigable container for 2-D raster images | |
KR20190089683A (en) | Method and system for revising correcting panoramic image | |
US20130127852A1 (en) | Methods for providing 3d building information | |
US20150186559A1 (en) | X-ray vision for buildings | |
JP2006284224A (en) | Method for generating three-dimensional data of geographical features, method for evaluating geographical feature variation, system for evaluating geographical feature variation | |
JP6494413B2 (en) | Image composition apparatus, image composition method, and image composition program | |
US20140354647A1 (en) | Methods and processes for interactive display of three dimensional covariance | |
JP7148229B2 (en) | METHOD FOR CREATING VERTICAL SECTION OF THREE-DIMENSIONAL POINT CLOUD DATA, SURVEY DATA PROCESSING DEVICE, AND SURVEY SYSTEM FOR THE SAME | |
JP2020509505A (en) | Method, apparatus and computer program for providing augmented reality | |
JP4108171B2 (en) | Image synthesizer | |
CN114266854A (en) | Image processing method and device, electronic equipment and readable storage medium | |
US20090213121A1 (en) | Image processing method and apparatus | |
CN108536698B (en) | Web data three-dimensional display method and device | |
JP2008203991A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6494413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |