JP2022081224A - Image generating apparatus and program - Google Patents

Image generating apparatus and program Download PDF

Info

Publication number
JP2022081224A
JP2022081224A JP2020192635A JP2020192635A JP2022081224A JP 2022081224 A JP2022081224 A JP 2022081224A JP 2020192635 A JP2020192635 A JP 2020192635A JP 2020192635 A JP2020192635 A JP 2020192635A JP 2022081224 A JP2022081224 A JP 2022081224A
Authority
JP
Japan
Prior art keywords
image
captured
acquisition unit
rendered
acquires
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020192635A
Other languages
Japanese (ja)
Inventor
宏樹 木村
Hiroki Kimura
コ ナイ アウン
Ko Nai Aung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Studio55
Studio55 Inc
Original Assignee
Studio55
Studio55 Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Studio55, Studio55 Inc filed Critical Studio55
Priority to JP2020192635A priority Critical patent/JP2022081224A/en
Publication of JP2022081224A publication Critical patent/JP2022081224A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide an image generating apparatus and a program therefor which can easily correct a rendering image to fit an entire celestial image.SOLUTION: The present invention is directed to an image generating apparatus 1 for generating a superimposed image by superimposing a rendering image simulating an architecture on a captured image obtained by capturing a scheduled construction site A. The apparatus has an image acquiring unit 11 for acquiring the captured image as an entire celestial image and the rendering image, a capturing position acquiring unit 12 for acquiring a capturing position P including height at which the captured image is captured, a superimposing position determination unit 13 for determining a superimposition position of the captured image and the rendering image based on the acquired capturing position P, an image converting unit 14 for converting the rendering image into the entire celestial image based on the determined superimposition position, and an image generating unit 15 for generating the superimposed image by superimposing the converted rendering image on the captured image.SELECTED DRAWING: Figure 5

Description

本発明は、画像生成装置及びプログラムに関する。 The present invention relates to an image generator and a program.

従来より、建築予定の建築物の外観図を作成することで、完成後のイメージを示すことが実施されている。このように、外観図を示すことは、住宅販売の営業等において有用である。 Conventionally, it has been practiced to show an image after completion by creating an external view of a building to be built. In this way, showing an external view is useful in the business of home sales and the like.

昨今では、外観図として、3Dレンダリング画像(以下、単にレンダリング画像ともいう)を用いて完成後のイメージを示すことも行われている。レンダリング画像を用いることにより、様々な視点から外観を確認することができる。さらに、建築予定地の実写画像に、レンダリング画像を重畳することで、近隣の風景との調和を確認することができる。例えば、建築物の配置予定場所を撮影した撮影画像に、建築物の3次元画像(外観画像9を重畳する建築画像表示兵法が提案されている(例えば、特許文献1参照)。 Nowadays, as an external view, a 3D rendered image (hereinafter, also simply referred to as a rendered image) is used to show an image after completion. By using the rendered image, the appearance can be confirmed from various viewpoints. Furthermore, by superimposing the rendered image on the live-action image of the planned construction site, it is possible to confirm the harmony with the neighboring landscape. For example, there has been proposed a three-dimensional image of a building (a building image display military method in which an external image 9 is superimposed on a photographed image of a planned location of a building (see, for example, Patent Document 1).

特開2014-89697号公報Japanese Unexamined Patent Publication No. 2014-89697

ところで、建築予定地の実写画像を全天球画像にすることで、所定の視点から360度の全方向を確認することができる。一方、レンダリング画像も全天球画像に合わせて補正する必要がある。そこで、全天球画像に合わせてレンダリング画像を容易に補正することができれば好適である。 By the way, by converting the live-action image of the planned construction site into an omnidirectional image, it is possible to confirm all directions of 360 degrees from a predetermined viewpoint. On the other hand, the rendered image also needs to be corrected according to the spherical image. Therefore, it is preferable if the rendered image can be easily corrected according to the spherical image.

本発明は、全天球画像に合わせてレンダリング画像を容易に補正することが可能な画像生成装置及びプログラムを提供することを目的とする。 An object of the present invention is to provide an image generation device and a program capable of easily correcting a rendered image according to a spherical image.

本発明は、建築予定地を撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置であって、全天球画像である前記撮像画像と前記レンダリング画像とを取得する画像取得部と、前記撮像画像を撮像した高さを含む撮像位置を取得する撮像位置取得部と、取得された撮像位置に基づいて、前記撮像画像及び前記レンダリング画像の重畳位置を決定する重畳位置決定部と、決定された重畳位置に基づいて、前記レンダリング画像を全天球画像に変換する画像変換部と、前記撮像画像と変換された前記レンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部と、を備える画像生成装置に関する。 The present invention is an image generation device that superimposes a rendered image imitating a building on an captured image of a planned construction site to generate a superimposed image, and is an all-sky image, the captured image and the rendered image. Based on the image acquisition unit that acquires the image, the imaging position acquisition unit that acquires the imaging position including the height at which the captured image is captured, and the acquired imaging position, the superimposed position of the captured image and the rendered image is determined. A superimposition position determination unit to be determined, an image conversion unit that converts the rendered image into an all-sky image based on the determined superimposition position, and a superimposition position in which the captured image and the converted rendered image are determined. The present invention relates to an image generation device including an image generation unit that superimposes and generates a superposed image.

また、画像生成装置は、前記撮像画像における所定の基準点を取得する基準点取得部と、取得された基準点に対応する、前記レンダリング画像における位置を示す特徴点を取得する特徴点取得部と、取得された前記基準点及び前記特徴点に基づいて、前記撮像位置を推定する推定部と、をさらに備え、前記撮像位置取得部は、推定された前記撮像位置を取得するのが好ましい。 Further, the image generation device includes a reference point acquisition unit that acquires a predetermined reference point in the captured image, and a feature point acquisition unit that acquires a feature point indicating a position in the rendered image corresponding to the acquired reference point. It is preferable that the image pickup position acquisition unit further includes an estimation unit that estimates the image pickup position based on the acquired reference point and the feature point, and the image capture position acquisition unit acquires the estimated image pickup position.

また、画像生成装置は、前記撮像画像における所定の基準点を取得する基準点取得部と、取得された前記基準点の地図上における位置を地点情報として取得する地点情報取得部と、取得された前記基準点及び前記地点情報に基づいて、前記撮像位置を推定する推定部と、をさらに備え、前記撮像位置取得部は、推定された前記撮像位置を取得するのが好ましい。 Further, the image generation device has acquired a reference point acquisition unit that acquires a predetermined reference point in the captured image, and a point information acquisition unit that acquires the acquired position of the reference point on the map as point information. It is preferable that the estimation unit for estimating the image pickup position based on the reference point and the point information is further provided, and the image pickup position acquisition unit acquires the estimated image pickup position.

また、前記画像取得部は、前記撮像画像を含む撮像動画像を取得し、前記画像生成部は、予め設定された前記撮像動画像の時間的な長さに合わせて時間的な長さを調整された、前記レンダリング画像を含むレンダリング動画像を前記撮像動画像に重畳して重畳動画像を生成するのが好ましい。 Further, the image acquisition unit acquires a captured moving image including the captured image, and the image generation unit adjusts the temporal length according to a preset temporal length of the captured moving image. It is preferable to superimpose the rendered moving image including the rendered moving image on the captured moving image to generate a superimposed moving image.

また、本発明は、建築予定地を撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、前記コンピュータを、全天球画像である前記撮像画像と前記レンダリング画像とを取得する画像取得部、前記撮像画像を撮像した高さを含む撮像位置を取得する撮像位置取得部、取得された撮像位置に基づいて、前記撮像画像及び前記レンダリング画像の重畳位置を決定する重畳位置決定部、決定された重畳位置に基づいて、前記レンダリング画像を全天球画像に変換する画像変換部、前記撮像画像と変換された前記レンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部、として機能させるプログラムに関する。 Further, the present invention is a program that causes a computer to function as an image generation device that generates a superimposed image by superimposing a rendered image imitating a building on an captured image of a planned construction site. Based on the image acquisition unit that acquires the captured image and the rendered image, which are celestial sphere images, the imaging position acquisition unit that acquires the imaging position including the height at which the captured image is captured, and the acquired imaging position. A superimposition position determination unit that determines the superimposition position of the captured image and the rendered image, an image conversion unit that converts the rendered image into an all-sky image based on the determined superimposition position, and the rendering converted with the captured image. The present invention relates to a program that functions as an image generation unit that superimposes an image at a determined superimposition position to generate a superimposition image.

本発明によれば、全天球画像に合わせてレンダリング画像を容易に補正することが可能な画像生成装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image generation device and a program capable of easily correcting a rendered image according to a spherical image.

本発明の第1実施形態に係る画像生成装置によって合成される撮像画像の撮像位置と、撮像対象に含まれる建築予定地との関係を示す概略図である。It is a schematic diagram which shows the relationship between the image pickup position of the image capture image synthesized by the image generation apparatus which concerns on 1st Embodiment of this invention, and the planned construction site included in the image pickup object. 第1実施形態の画像生成装置によって重畳される重畳画像を示す概略図である。It is a schematic diagram which shows the superposed image superposed by the image generation apparatus of 1st Embodiment. 第1実施形態の画像生成装置によって合成される撮像画像を示す概略図である。It is a schematic diagram which shows the captured image synthesized by the image generation apparatus of 1st Embodiment. 第1実施形態に係る画像生成装置によって合成されるレンダリング画像を示す概略図である。It is a schematic diagram which shows the rendered image synthesized by the image generation apparatus which concerns on 1st Embodiment. 第1実施形態の画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image generation apparatus of 1st Embodiment. 本発明の第2実施形態に係る画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image generation apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image generation apparatus which concerns on 3rd Embodiment of this invention.

以下、本発明の各実施形態に係る画像生成装置1及びプログラムについて、図1から図7を参照して説明する。
まず、各実施形態に係る画像生成装置1及びプログラムを説明するにあたり、生成される画像(以下、重畳画像ともいう)について、図1から図4を参照して説明する。
Hereinafter, the image generator 1 and the program according to each embodiment of the present invention will be described with reference to FIGS. 1 to 7.
First, in explaining the image generation device 1 and the program according to each embodiment, the generated images (hereinafter, also referred to as superimposed images) will be described with reference to FIGS. 1 to 4.

重畳画像は、例えば、図1及び図2に示すように、撮像位置Pから建築予定地Aを撮像した撮像画像に、建築物を模したレンダリング画像を重畳した画像である。具体的には、重畳画像は、建築予定地Aの実写画像に、建築予定の建築物のレンダリング画像を重畳した画像である。レンダリング画像が実写画像に重ねられることで、建築予定の建築物と、隣の建物等との調和を確認することができる。 The superimposed image is, for example, as shown in FIGS. 1 and 2, an image in which a rendered image imitating a building is superimposed on an captured image obtained by capturing an image of a planned construction site A from an imaging position P. Specifically, the superimposed image is an image in which a rendered image of a building to be built is superimposed on a live-action image of the planned building site A. By superimposing the rendered image on the live-action image, it is possible to confirm the harmony between the building to be built and the adjacent building.

以下の各実施系他では、撮像画像として、図3に示すように、全天球画像が用いられる。これにより、所定の視点から全周を確認することができる。したがって、隣の建物等だけでなく、周囲の環境との調和を確認することができる。 In each of the following implementation systems and others, a spherical image is used as the captured image as shown in FIG. This makes it possible to check the entire circumference from a predetermined viewpoint. Therefore, it is possible to confirm the harmony with the surrounding environment as well as the adjacent building.

一方、レンダリング画像は、例えば、図4に示すような3Dモデルである。レンダリング画像は、例えば、メッシュ及びテクスチャを用いて作製されている。そのため、レンダリング画像は、所定の視点からの全天球画像に重畳可能なように、変換される必要がある。以下の各実施形態に係る画像生成装置1は、高さを含む撮像位置Pに基づいて、レンダリング画像の変換を実施する。これにより、全天球画像に合わせてレンダリング画像を容易に補正することができる。 On the other hand, the rendered image is, for example, a 3D model as shown in FIG. Rendered images are made using, for example, meshes and textures. Therefore, the rendered image needs to be converted so that it can be superimposed on the spherical image from a predetermined viewpoint. The image generation device 1 according to each of the following embodiments performs conversion of the rendered image based on the image pickup position P including the height. As a result, the rendered image can be easily corrected according to the spherical image.

[第1実施形態]
次に、本発明の第1実施形態に係る画像生成装置1及びプログラムについて、図1から図5を参照して説明する。
画像生成装置1は、例えば、撮像画像及びレンダリング画像を取得して重畳する装置である。画像生成装置1は、図5に示すように、画像取得部11と、撮像位置取得部12と、重畳位置決定部13と、画像変換部14と、画像生成部15と、出力部16と、を備える。
[First Embodiment]
Next, the image generation device 1 and the program according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 5.
The image generation device 1 is, for example, a device that acquires and superimposes a captured image and a rendered image. As shown in FIG. 5, the image generation device 1 includes an image acquisition unit 11, an image pickup position acquisition unit 12, a superposition position determination unit 13, an image conversion unit 14, an image generation unit 15, and an output unit 16. To prepare for.

画像取得部11は、例えば、CPUが動作することにより実現される。画像取得部11は、全天球画像である撮像画像とレンダリング画像とを取得する。画像取得部11は、撮像画像として例えば、ユーザによって撮像された全天球画像であり、建築予定地Aを視認可能な撮像位置Pから撮像された全天球画像を取得する。また、画像取得部11は、レンダリング画像として例えば、予め建築物の3Dモデルとして作製された画像を取得する。 The image acquisition unit 11 is realized, for example, by operating the CPU. The image acquisition unit 11 acquires a captured image and a rendered image, which are spherical images. The image acquisition unit 11 acquires, for example, a spherical image captured by the user as a captured image, and acquires a spherical image captured from a visible imaging position P of the planned construction site A. Further, the image acquisition unit 11 acquires, for example, an image previously created as a 3D model of a building as a rendered image.

撮像位置取得部12は、例えば、CPUが動作することにより実現される。撮像位置取得部12は、撮像画像を撮像した高さを含む撮像位置Pを取得する。撮像位置取得部12は、例えば、緯度、経度、及び高さ(高度)を撮像位置Pとして取得する。本実施形態において、撮像位置取得部12は、キーボード等の入力装置(図示せず)を用いて入力される撮像位置Pを取得する。 The image pickup position acquisition unit 12 is realized, for example, by operating the CPU. The imaging position acquisition unit 12 acquires the imaging position P including the height at which the captured image is captured. The imaging position acquisition unit 12 acquires, for example, latitude, longitude, and height (altitude) as the imaging position P. In the present embodiment, the image pickup position acquisition unit 12 acquires an image pickup position P to be input by using an input device (not shown) such as a keyboard.

重畳位置決定部13は、例えば、CPUが動作することにより実現される。重畳位置決定部13は、取得された撮像位置Pに基づいて、撮像画像及びレンダリング画像の重畳位置を決定する。重畳位置決定部13は、例えば、撮像画像に含まれる建築予定地Aの位置について、撮像位置Pを視点とするレンダリング画像の重畳位置として決定する。また、重畳位置決定部13は、建築予定地Aの基準点に対して重畳する、レンダリング画像の特徴点を決定する。重畳位置決定部13は、例えば、建築予定地Aの道路との境界の位置の複数点を基準点として、基準点に対応するレンダリング画像の特徴点を決定する。すなわち、重畳位置決定部13は、レンダリング画像に含まれる道路との境界の位置の複数点のうち、基準点に対応する特徴点を決定する。 The superimposition position determining unit 13 is realized, for example, by operating the CPU. The superimposition position determination unit 13 determines the superimposition position of the captured image and the rendered image based on the acquired image pickup position P. The superimposition position determination unit 13 determines, for example, the position of the planned construction site A included in the captured image as the superimposition position of the rendered image with the image pickup position P as the viewpoint. Further, the superimposition position determination unit 13 determines the feature points of the rendered image to be superimposed on the reference point of the planned construction site A. The superimposition position determination unit 13 determines, for example, the feature points of the rendered image corresponding to the reference points, using a plurality of points at the boundary of the planned construction site A with the road as reference points. That is, the superimposition position determination unit 13 determines the feature points corresponding to the reference points among the plurality of points at the boundaries with the road included in the rendered image.

画像変換部14は、例えば、CPUが動作することにより実現される。画像変換部14は、決定された重畳位置に基づいて、レンダリング画像を全天球画像に変換する。画像変換部14は、例えば、基準点の位置と、特徴点の位置とが重なる位置に配置されるように、撮像位置Pを視点とするレンダリング画像を全天球画像に変換する。 The image conversion unit 14 is realized, for example, by operating the CPU. The image conversion unit 14 converts the rendered image into a spherical image based on the determined superimposed position. The image conversion unit 14 converts, for example, a rendered image with the image pickup position P as a viewpoint into a spherical image so that the position of the reference point and the position of the feature point overlap each other.

画像生成部15は、例えば、CPUが動作することにより実現される。画像生成部15は、撮像画像と変換されたレンダリング画像を決定された重畳位置で重畳して重畳画像を生成する。画像生成部15は、例えば、基準点の位置に特徴点の位置を重ねるようにして、撮像画像と変換されたレンダリング画像とを重畳することによって、重畳画像を生成する。 The image generation unit 15 is realized, for example, by operating the CPU. The image generation unit 15 superimposes the captured image and the converted rendered image at a determined superimposition position to generate a superimposition image. The image generation unit 15 generates a superposed image by superimposing the captured image and the converted rendered image, for example, by superimposing the position of the feature point on the position of the reference point.

出力部16は、例えば、CPUが動作することにより実現される。出力部16は、生成された重畳画像を外部に出力する。出力部16は、例えば、ディスプレイ等の表示装置(図示せず)に重畳画像を表示させる。また、出力部16は、例えば、他の端末等に重畳画像を出力(送信)する。 The output unit 16 is realized, for example, by operating the CPU. The output unit 16 outputs the generated superimposed image to the outside. The output unit 16 displays the superimposed image on a display device (not shown) such as a display, for example. Further, the output unit 16 outputs (transmits) the superimposed image to, for example, another terminal or the like.

次に、本実施形態に係る画像生成装置1の動作を説明する。
まず、画像取得部11は、撮像画像及びレンダリング画像を取得する。次いで、撮像位置取得部12は、撮像画像の撮像位置Pを取得する。次いで、重畳位置決定部13は、撮像画像に対するレンダリング画像の重畳位置を決定する。
Next, the operation of the image generation device 1 according to the present embodiment will be described.
First, the image acquisition unit 11 acquires a captured image and a rendered image. Next, the imaging position acquisition unit 12 acquires the imaging position P of the captured image. Next, the superimposition position determination unit 13 determines the superimposition position of the rendered image with respect to the captured image.

次いで、画像変換部14は、決定された重畳位置に基づいてレンダリング画像を全天球画像に変換する。次いで、画像生成部15は、撮像画像と変換されたレンダリング画像とを重畳して重畳画像を生成する。次いで、出力部16は、生成された重畳画像を出力する。 Next, the image conversion unit 14 converts the rendered image into a spherical image based on the determined superimposed position. Next, the image generation unit 15 superimposes the captured image and the converted rendered image to generate a superimposed image. Next, the output unit 16 outputs the generated superimposed image.

次に、本実施形態に係るプログラムについて説明する。
画像生成装置1に含まれる各構成は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
Next, the program according to this embodiment will be described.
Each configuration included in the image generation device 1 can be realized by hardware, software, or a combination thereof. Here, what is realized by software means that it is realized by a computer reading and executing a program.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、表示プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Programs can be stored and supplied to a computer using various types of non-transitory computer readable medium. Non-temporary computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), optomagnetic recording media (eg, optomagnetic disks), CD-ROMs (Read Only Memory), CD- Includes R, CD-R / W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)). The display program may also be supplied to the computer by various types of transient computer readable medium. Examples of temporary computer readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

以上の本実施形態に係る画像生成装置1及びプログラムによれば、以下の効果を奏する。
(1)建築予定地Aを撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置1であって、全天球画像である撮像画像とレンダリング画像とを取得する画像取得部11と、撮像画像を撮像した高さを含む撮像位置Pを取得する撮像位置取得部12と、取得された撮像位置Pに基づいて、撮像画像及びレンダリング画像の重畳位置を決定する重畳位置決定部13と、決定された重畳位置に基づいて、レンダリング画像を全天球画像に変換する画像変換部14と、撮像画像と変換されたレンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部15と、を備える。
また、建築予定地Aを撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置1としてコンピュータを機能させるプログラムであって、コンピュータを、全天球画像である撮像画像とレンダリング画像とを取得する画像取得部11、撮像画像を撮像した高さを含む撮像位置Pを取得する撮像位置取得部12、取得された撮像位置Pに基づいて、撮像画像及びレンダリング画像の重畳位置を決定する重畳位置決定部13、決定された重畳位置に基づいて、レンダリング画像を全天球画像に変換する画像変換部14、撮像画像と変換されたレンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部15、として機能させる。
これにより、全天球画像に合わせてレンダリング画像を容易に補正することができる。すなわち、撮像画像に合わせてレンダリング画像を容易に補正することができる。したがって、撮像画像及びレンダリング画像を重畳した重畳画像を容易に得ることができる。また、高さを含む撮像位置Pに基づいて撮像画像及びレンダリング画像を重畳するので、より違和感の少ない重畳画像を得ることができる。また、撮像位置の高さの情報を用いて基準点及び特徴点を対応付けるので、緯度経度のみの高さの情報が無い場合に比べ、重畳の精度を向上することができる。
According to the image generation device 1 and the program according to the above embodiment, the following effects are obtained.
(1) An image generation device 1 that superimposes a rendered image imitating a building on an captured image of a planned construction site A to generate a superimposed image, and includes an captured image and a rendered image that are all-sky images. The superimposed position of the captured image and the rendered image is determined based on the image acquisition unit 11 for acquiring the image, the imaging position acquisition unit 12 for acquiring the imaging position P including the height at which the captured image is captured, and the acquired imaging position P. A superimposition position determination unit 13 to be determined, an image conversion unit 14 to convert a rendered image into an all-sky image based on the determined superimposition position, and a superimposition of the captured image and the converted rendered image at the determined superimposition position. An image generation unit 15 for generating a superimposed image is provided.
Further, it is a program that causes a computer to function as an image generation device 1 that generates a superimposed image by superimposing a rendered image imitating a building on an image captured by capturing a planned construction site A, and the computer is used as an all-sky image. Image acquisition unit 11 for acquiring the captured image and the rendered image, the imaging position acquisition unit 12 for acquiring the imaging position P including the height at which the captured image was captured, and the captured image and the captured image based on the acquired imaging position P. The superimposition position determination unit 13 that determines the superimposition position of the rendered image, the image conversion unit 14 that converts the rendered image into an all-sky image based on the determined superimposition position, and the captured image and the converted rendered image are determined. It functions as an image generation unit 15 that superimposes at a superimposing position to generate a superimposing image.
As a result, the rendered image can be easily corrected according to the spherical image. That is, the rendered image can be easily corrected according to the captured image. Therefore, it is possible to easily obtain a superimposed image in which the captured image and the rendered image are superimposed. Further, since the captured image and the rendered image are superimposed based on the imaging position P including the height, it is possible to obtain a superimposed image with less discomfort. Further, since the reference point and the feature point are associated with each other by using the height information of the imaging position, the accuracy of superimposition can be improved as compared with the case where there is no height information of only the latitude and longitude.

[第2実施形態]
次に、本発明の第2実施形態に係る画像生成装置1及びプログラムについて、図6を参照して説明する。第2実施形態の説明にあたって、前述の実施形態と同一の構成要件については同一符号を付し、その説明を省略もしくは簡略化する。第2実施形態に係る画像生成装置1及びプログラムは、基準点及び特徴点を取得するとともに、撮像位置Pを推定するものである。また、第2実施形態に係る画像生成装置1は、撮像位置取得部12が、推定された撮像装置を取得する点で、第1実施形態と異なる。第2実施形態に係る画像生成装置1は、図6に示すように、基準点取得部17と、特徴点取得部18と、推定部19と、をさらに備える。
[Second Embodiment]
Next, the image generator 1 and the program according to the second embodiment of the present invention will be described with reference to FIG. In the description of the second embodiment, the same components as those of the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. The image generation device 1 and the program according to the second embodiment acquire reference points and feature points, and estimate the image pickup position P. Further, the image generation device 1 according to the second embodiment is different from the first embodiment in that the image pickup position acquisition unit 12 acquires the estimated image pickup device. As shown in FIG. 6, the image generation device 1 according to the second embodiment further includes a reference point acquisition unit 17, a feature point acquisition unit 18, and an estimation unit 19.

基準点取得部17は、例えば、CPUが動作することにより実現される。基準点取得部17は、撮像画像における所定の基準点を取得する。基準点取得部17は、例えば、撮像画像のうち、基準点となる位置を取得する。基準点取得部17は、撮像画像の位置の指定を受け付けることにより基準点を取得する。本実施形態において、基準点取得部17は、道路との境界及び隣家の土地との境界の複数点を基準点として取得する。 The reference point acquisition unit 17 is realized, for example, by operating the CPU. The reference point acquisition unit 17 acquires a predetermined reference point in the captured image. The reference point acquisition unit 17 acquires, for example, a position as a reference point in the captured image. The reference point acquisition unit 17 acquires the reference point by accepting the designation of the position of the captured image. In the present embodiment, the reference point acquisition unit 17 acquires a plurality of points at the boundary with the road and the boundary with the land of the neighboring house as reference points.

特徴点取得部18は、例えば、CPUが動作することにより実現される。特徴点取得部18は、取得された基準点に対応する、レンダリング画像における位置を示す特徴点を取得する。特徴点取得部18は、例えば、レンダリング画像の位置の指定を受け付けることにより特徴点を取得する。 The feature point acquisition unit 18 is realized, for example, by operating the CPU. The feature point acquisition unit 18 acquires feature points indicating positions in the rendered image corresponding to the acquired reference points. The feature point acquisition unit 18 acquires feature points, for example, by accepting the designation of the position of the rendered image.

推定部19は、例えば、CPUが動作することにより実現される。推定部19は、取得された基準点及び特徴点に基づいて、撮像位置Pを推定する。推定部19は、例えば、基準点の位置と対応する特徴点の位置とから高さを含む撮像位置Pを推定する。推定部19は、例えば、基準点の位置と対応する特徴点の位置のずれの度合から、撮像位置Pを推定する。 The estimation unit 19 is realized, for example, by operating the CPU. The estimation unit 19 estimates the imaging position P based on the acquired reference points and feature points. The estimation unit 19 estimates the imaging position P including the height from, for example, the position of the reference point and the position of the corresponding feature point. The estimation unit 19 estimates the imaging position P from, for example, the degree of deviation between the position of the reference point and the position of the corresponding feature point.

次に、本実施形態に係る画像生成装置1の動作を説明する。
まず、画像取得部11は、撮像画像及びレンダリング画像を取得する。次いで、基準点取得部17は、基準点を取得する。また、特徴点取得部18は、特徴点を取得する。次いで、推定部19は、取得した基準点及び特徴点から高さを含む撮像位置Pを推定する。撮像位置取得部12は、撮像画像の撮像位置Pを取得する。
Next, the operation of the image generation device 1 according to the present embodiment will be described.
First, the image acquisition unit 11 acquires a captured image and a rendered image. Next, the reference point acquisition unit 17 acquires the reference point. Further, the feature point acquisition unit 18 acquires feature points. Next, the estimation unit 19 estimates the imaging position P including the height from the acquired reference point and feature point. The imaging position acquisition unit 12 acquires the imaging position P of the captured image.

次いで、重畳位置決定部13は、撮像画像に対するレンダリング画像の重畳位置を決定する。次いで、画像変換部14は、決定された重畳位置に基づいてレンダリング画像を全天球画像に変換する。次いで、画像生成部15は、撮像画像と変換されたレンダリング画像とを重畳して重畳画像を生成する。次いで、出力部16は、生成された重畳画像を出力する。 Next, the superimposition position determination unit 13 determines the superimposition position of the rendered image with respect to the captured image. Next, the image conversion unit 14 converts the rendered image into a spherical image based on the determined superimposed position. Next, the image generation unit 15 superimposes the captured image and the converted rendered image to generate a superimposed image. Next, the output unit 16 outputs the generated superimposed image.

以上の本実施形態に係る画像生成装置1及びプログラムによれば、以下の効果を奏する。
(2)画像生成装置1は、撮像画像における所定の基準点を取得する基準点取得部17と、取得された基準点に対応する、レンダリング画像における位置を示す特徴点を取得する特徴点取得部18と、取得された基準点及び特徴点に基づいて、撮像位置Pを推定する推定部19と、をさらに備え、撮像位置取得部12は、推定された撮像位置Pを取得する。これにより、撮像位置Pが取得できない場合であっても、基準点及び特徴点を得ることができれば、撮像位置Pを推定することができる。したがって、撮像画像とレンダリング画像との重畳の違和感を抑制することができる。
According to the image generation device 1 and the program according to the above embodiment, the following effects are obtained.
(2) The image generation device 1 has a reference point acquisition unit 17 that acquires a predetermined reference point in the captured image, and a feature point acquisition unit that acquires a feature point indicating a position in the rendered image corresponding to the acquired reference point. 18 and an estimation unit 19 for estimating the image pickup position P based on the acquired reference points and feature points are further provided, and the image pickup position acquisition unit 12 acquires the estimated image pickup position P. As a result, even if the imaging position P cannot be acquired, the imaging position P can be estimated if the reference point and the feature point can be obtained. Therefore, it is possible to suppress a sense of discomfort in superimposing the captured image and the rendered image.

[第3実施形態]
次に、本発明の第3実施形態に係る画像生成装置1及びプログラムについて、図7を参照して説明する。第3実施形態の説明にあたって、前述の実施形態と同一の構成要件については同一符号を付し、その説明を省略もしくは簡略化する。第3実施形態に係る画像生成装置1及びプログラムは、基準点を取得するとともに、地図上における撮像地点の指定を受け付けることにより、高さを含む撮像位置Pを推定するものである。また、第3実施形態に係る画像生成装置1は、撮像位置取得部12が、推定された撮像装置を取得する点で、第1実施形態と異なる。第3実施形態に係る画像生成装置1は、図7に示すように、地点情報取得部20をさらに備える点で、第2実施形態と異なる。また、第3実施形態に係る画像生成装置1は、特徴点取得部18を備えない点で、第2実施形態と異なる。また、第3実施形態に係る画像生成装置1は、推定部19が、取得された基準点及び地点情報に基づいて、撮像位置Pを推定する点で、第2実施形態と異なる。
[Third Embodiment]
Next, the image generator 1 and the program according to the third embodiment of the present invention will be described with reference to FIG. 7. In the description of the third embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. The image generation device 1 and the program according to the third embodiment estimate the image pickup position P including the height by acquiring the reference point and accepting the designation of the image pickup point on the map. Further, the image generation device 1 according to the third embodiment is different from the first embodiment in that the image pickup position acquisition unit 12 acquires the estimated image pickup device. As shown in FIG. 7, the image generation device 1 according to the third embodiment is different from the second embodiment in that it further includes a point information acquisition unit 20. Further, the image generation device 1 according to the third embodiment is different from the second embodiment in that the feature point acquisition unit 18 is not provided. Further, the image generation device 1 according to the third embodiment is different from the second embodiment in that the estimation unit 19 estimates the imaging position P based on the acquired reference point and point information.

地点情報取得部20は、例えば、CPUが動作することにより実現される。地点情報取得部20は、取得された基準点の地図上における位置を地点情報として取得する。地点情報取得部20は、例えば、撮像画像に含まれるEXIF(Exchangeable image file format)を用いて地点情報を取得する。 The point information acquisition unit 20 is realized, for example, by operating the CPU. The point information acquisition unit 20 acquires the position of the acquired reference point on the map as point information. The point information acquisition unit 20 acquires point information using, for example, EXIF (Exchangeable image file format) included in the captured image.

次に、本実施形態に係る画像生成装置1の動作を説明する。
まず、画像取得部11は、撮像画像及びレンダリング画像を取得する。次いで、基準点取得部17は、基準点を取得する。また、地点情報取得部20は、地点情報を取得する。次いで、推定部19は、取得した基準点及び地点情報から高さを含む撮像位置Pを推定する。撮像位置取得部12は、撮像画像の撮像位置Pを取得する。
Next, the operation of the image generation device 1 according to the present embodiment will be described.
First, the image acquisition unit 11 acquires a captured image and a rendered image. Next, the reference point acquisition unit 17 acquires the reference point. Further, the point information acquisition unit 20 acquires the point information. Next, the estimation unit 19 estimates the imaging position P including the height from the acquired reference point and point information. The imaging position acquisition unit 12 acquires the imaging position P of the captured image.

次いで、重畳位置決定部13は、撮像画像に対するレンダリング画像の重畳位置を決定する。次いで、画像変換部14は、決定された重畳位置に基づいてレンダリング画像を全天球画像に変換する。次いで、画像生成部15は、撮像画像と変換されたレンダリング画像とを重畳して重畳画像を生成する。次いで、出力部16は、生成された重畳画像を出力する。 Next, the superimposition position determination unit 13 determines the superimposition position of the rendered image with respect to the captured image. Next, the image conversion unit 14 converts the rendered image into a spherical image based on the determined superimposed position. Next, the image generation unit 15 superimposes the captured image and the converted rendered image to generate a superimposed image. Next, the output unit 16 outputs the generated superimposed image.

以上の本実施形態に係る画像生成装置1及びプログラムによれば、以下の効果を奏する。
(3)画像生成装置1は、撮像画像における所定の基準点を取得する基準点取得部17と、取得された基準点の地図上における位置を地点情報として取得する地点情報取得部20と、取得された基準点及び地点情報に基づいて、撮像位置Pを推定する推定部19と、をさらに備え、撮像位置取得部12は、推定された撮像位置Pを取得する。これにより、撮像位置Pの高さが取得できない場合であっても、基準点及び地点情報を得ることができれば、撮像位置Pの高さを推定することができる。したがって、撮像画像とレンダリング画像との重畳の違和感を抑制することができる。
According to the image generation device 1 and the program according to the above embodiment, the following effects are obtained.
(3) The image generation device 1 acquires a reference point acquisition unit 17 that acquires a predetermined reference point in a captured image, a point information acquisition unit 20 that acquires the position of the acquired reference point on a map as point information, and an acquisition unit 20. The estimation unit 19 for estimating the image pickup position P based on the reference point and the point information is further provided, and the image pickup position acquisition unit 12 acquires the estimated image pickup position P. As a result, even if the height of the imaging position P cannot be acquired, the height of the imaging position P can be estimated if the reference point and the point information can be obtained. Therefore, it is possible to suppress a sense of discomfort in superimposing the captured image and the rendered image.

以上、本開示の画像生成装置及びプログラムの好ましい各実施形態につき説明したが、本開示は、上述の実施形態に制限されるものではなく、適宜変更が可能である。
例えば、上記実施形態において、撮像位置取得部12は、撮像位置Pを入力装置からの入力により取得するとしたが、これに制限されない。例えば、撮像位置取得部12は、予め撮像位置Pを記憶する撮像位置記憶部(図示せず)から取得してもよい。また、撮像位置取得部12は、外部の端末等から撮像位置Pを取得してもよい。
Although the preferred embodiments of the image generator and the program of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments and can be appropriately modified.
For example, in the above embodiment, the imaging position acquisition unit 12 acquires the imaging position P by input from the input device, but the present invention is not limited to this. For example, the image pickup position acquisition unit 12 may be acquired from an image pickup position storage unit (not shown) that stores the image pickup position P in advance. Further, the image pickup position acquisition unit 12 may acquire the image pickup position P from an external terminal or the like.

また、上記第2又は第3実施形態において、基準点取得部17、特徴点取得部18、及び地点情報取得部20は、入力装置によって入力された基準点、特徴点、又は地点情報を取得してもよい。また、基準点取得部17及び特徴点取得部18は、エッジの位置(空間周波数の大きな位置)から基準点又は特徴点を取得してもよい。 Further, in the second or third embodiment, the reference point acquisition unit 17, the feature point acquisition unit 18, and the point information acquisition unit 20 acquire the reference point, feature point, or point information input by the input device. You may. Further, the reference point acquisition unit 17 and the feature point acquisition unit 18 may acquire the reference point or the feature point from the position of the edge (the position where the spatial frequency is large).

また、上記実施形態において、撮像画像及びレンダリング画像を例として説明したが、撮像画像を含む撮像動画像と、レンダリング画像を含むレンダリング撮像画像とを重畳してもよい。画像取得部11は、撮像画像を含む撮像動画像を取得する。画像生成部15は、予め設定された撮像動画像の時間的な長さに合わせて時間的な長さを調整された、レンダリング画像を含むレンダリング動画像を撮像動画像に重畳して重畳動画像を生成する。ここで、画像生成装置1は、取得した撮像動画像のうち、重畳に用いる時間(例えば、開示時間及び終了時間)を取得する時間取得部(図示せず)をさらに備えてもよい。また、画像生成装置1は、取得された時間に合わせて、レンダリング動画像を調整又は生成するレンダリング動画像生成部(図示せず)をさらに備えてもよい。 Further, in the above embodiment, the captured image and the rendered image have been described as an example, but the captured moving image including the captured image and the rendered captured image including the rendered image may be superimposed. The image acquisition unit 11 acquires a captured moving image including a captured image. The image generation unit 15 superimposes a rendered moving image including a rendered image, whose time length is adjusted according to a preset time length of the captured moving image, on the captured moving image, and superimposes the moving image. To generate. Here, the image generation device 1 may further include a time acquisition unit (not shown) for acquiring the time (for example, disclosure time and end time) used for superimposition among the acquired captured moving images. Further, the image generation device 1 may further include a rendering moving image generation unit (not shown) that adjusts or generates a rendering moving image according to the acquired time.

1 画像生成装置
11 画像取得部
12 撮像位置取得部
13 重畳位置決定部
14 画像変換部
15 画像生成部
17 基準点取得部
18 特徴点取得部
19 推定部
20 地点情報取得部
A 建築予定地
P 撮像位置
1 Image generation device 11 Image acquisition unit 12 Image acquisition position acquisition unit 13 Superimposition position determination unit 14 Image conversion unit 15 Image generation unit 17 Reference point acquisition unit 18 Feature point acquisition unit 19 Estimation unit 20 Point information acquisition unit A Planned construction site P Imaging position

Claims (5)

建築予定地を撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置であって、
全天球画像である前記撮像画像と前記レンダリング画像とを取得する画像取得部と、
前記撮像画像を撮像した高さを含む撮像位置を取得する撮像位置取得部と、
取得された撮像位置に基づいて、前記撮像画像及び前記レンダリング画像の重畳位置を決定する重畳位置決定部と、
決定された重畳位置に基づいて、前記レンダリング画像を全天球画像に変換する画像変換部と、
前記撮像画像と変換された前記レンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部と、
を備える画像生成装置。
It is an image generation device that generates a superimposed image by superimposing a rendered image imitating a building on an captured image of a planned construction site.
An image acquisition unit that acquires the captured image and the rendered image, which are spherical images,
An imaging position acquisition unit that acquires an imaging position including the height at which the captured image is captured, and an imaging position acquisition unit.
A superimposition position determining unit that determines the superimposition position of the captured image and the rendered image based on the acquired image pickup position, and
An image conversion unit that converts the rendered image into an omnidirectional image based on the determined superimposed position, and
An image generation unit that generates a superposed image by superimposing the captured image and the converted rendered image at a determined superimposition position.
An image generator equipped with.
前記撮像画像における所定の基準点を取得する基準点取得部と、
取得された基準点に対応する、前記レンダリング画像における位置を示す特徴点を取得する特徴点取得部と、
取得された前記基準点及び前記特徴点に基づいて、前記撮像位置を推定する推定部と、
をさらに備え、
前記撮像位置取得部は、推定された前記撮像位置を取得する請求項1に記載の画像生成装置。
A reference point acquisition unit that acquires a predetermined reference point in the captured image, and a reference point acquisition unit.
A feature point acquisition unit that acquires a feature point indicating a position in the rendered image corresponding to the acquired reference point, and a feature point acquisition unit.
An estimation unit that estimates the imaging position based on the acquired reference points and feature points, and an estimation unit.
Further prepare
The image generation device according to claim 1, wherein the image pickup position acquisition unit acquires the estimated image pickup position.
前記撮像画像における所定の基準点を取得する基準点取得部と、
取得された前記基準点の地図上における位置を地点情報として取得する地点情報取得部と、
取得された前記基準点及び前記地点情報に基づいて、前記撮像位置を推定する推定部と、
をさらに備え、
前記撮像位置取得部は、推定された前記撮像位置を取得する請求項1に記載の画像生成装置。
A reference point acquisition unit that acquires a predetermined reference point in the captured image, and a reference point acquisition unit.
A point information acquisition unit that acquires the acquired position of the reference point on the map as point information, and
An estimation unit that estimates the imaging position based on the acquired reference point and the point information.
Further prepare
The image generation device according to claim 1, wherein the image pickup position acquisition unit acquires the estimated image pickup position.
前記画像取得部は、前記撮像画像を含む撮像動画像を取得し、
前記画像生成部は、予め設定された前記撮像動画像の時間的な長さに合わせて時間的な長さを調整された、前記レンダリング画像を含むレンダリング動画像を前記撮像動画像に重畳して重畳動画像を生成する請求項1に記載の画像生成装置。
The image acquisition unit acquires a captured moving image including the captured image, and obtains the captured moving image.
The image generation unit superimposes a rendered moving image including the rendered image whose time length is adjusted according to a preset time length of the captured moving image on the captured moving image. The image generation device according to claim 1, which generates a superimposed moving image.
建築予定地を撮像した撮像画像に、建築物を模したレンダリング画像を重畳して重畳画像を生成する画像生成装置としてコンピュータを機能させるプログラムであって、
前記コンピュータを、
全天球画像である前記撮像画像と前記レンダリング画像とを取得する画像取得部、
前記撮像画像を撮像した高さを含む撮像位置を取得する撮像位置取得部、
取得された撮像位置に基づいて、前記撮像画像及び前記レンダリング画像の重畳位置を決定する重畳位置決定部、
決定された重畳位置に基づいて、前記レンダリング画像を全天球画像に変換する画像変換部、
前記撮像画像と変換された前記レンダリング画像を決定された重畳位置で重畳して重畳画像を生成する画像生成部、
として機能させるプログラム。
It is a program that makes a computer function as an image generation device that generates a superimposed image by superimposing a rendered image that imitates a building on an captured image that captures a planned construction site.
The computer
An image acquisition unit that acquires the captured image and the rendered image, which are spherical images.
An imaging position acquisition unit that acquires an imaging position including the height at which the captured image is captured,
A superimposition position determining unit that determines the superimposition position of the captured image and the rendered image based on the acquired image pickup position.
An image conversion unit that converts the rendered image into a spherical image based on the determined superimposed position.
An image generation unit that generates a superposed image by superimposing the captured image and the converted rendered image at a determined superimposition position.
A program that functions as.
JP2020192635A 2020-11-19 2020-11-19 Image generating apparatus and program Pending JP2022081224A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020192635A JP2022081224A (en) 2020-11-19 2020-11-19 Image generating apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192635A JP2022081224A (en) 2020-11-19 2020-11-19 Image generating apparatus and program

Publications (1)

Publication Number Publication Date
JP2022081224A true JP2022081224A (en) 2022-05-31

Family

ID=81799486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192635A Pending JP2022081224A (en) 2020-11-19 2020-11-19 Image generating apparatus and program

Country Status (1)

Country Link
JP (1) JP2022081224A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022103326A (en) * 2018-11-22 2022-07-07 株式会社三洋物産 Game machine
JP2022103325A (en) * 2018-11-22 2022-07-07 株式会社三洋物産 Game machine
JP2022103327A (en) * 2021-02-18 2022-07-07 株式会社三洋物産 Game machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022103326A (en) * 2018-11-22 2022-07-07 株式会社三洋物産 Game machine
JP2022103325A (en) * 2018-11-22 2022-07-07 株式会社三洋物産 Game machine
JP2022103327A (en) * 2021-02-18 2022-07-07 株式会社三洋物産 Game machine

Similar Documents

Publication Publication Date Title
JP2022081224A (en) Image generating apparatus and program
CN113570721B (en) Method and device for reconstructing three-dimensional space model and storage medium
US20200273205A1 (en) Calibration apparatus, calibration system, and calibration method
JP5490040B2 (en) Digital 3D / 360 degree camera system
JP4115117B2 (en) Information processing apparatus and method
JP5093053B2 (en) Electronic camera
KR101827046B1 (en) Mobile device configured to compute 3d models based on motion sensor data
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP2019061558A (en) Image processing device, image processing method and program
CN105005960B (en) Method, device and system for acquiring watermark photo
KR20140112909A (en) Electronic device and method for generating panorama image
JP2012174116A (en) Object display device, object display method and object display program
JP6088260B2 (en) Processing apparatus, processing system, processing method, and program
EP3476115A1 (en) Method and apparatus for rolling shutter compensation
JP6374754B2 (en) Image composition apparatus and program thereof
JP6110780B2 (en) Additional information display system
KR101375649B1 (en) Apparatus and method for generating texture for three dimensional mesh model of target object
JP2016053961A (en) Information processing device, information processing method, and program
KR101313134B1 (en) Apparatus for combing image in surveillance camera system and method thereof
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
EP3871196A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6426594B2 (en) Image processing apparatus, image processing method and image processing program
JP6685814B2 (en) Imaging device and control method thereof
CN111033575A (en) Image processing device, display device, image transmission device, image processing method, control program, and recording medium
JP2008203991A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230613