JPWO2015087368A1 - Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program - Google Patents

Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program Download PDF

Info

Publication number
JPWO2015087368A1
JPWO2015087368A1 JP2015552205A JP2015552205A JPWO2015087368A1 JP WO2015087368 A1 JPWO2015087368 A1 JP WO2015087368A1 JP 2015552205 A JP2015552205 A JP 2015552205A JP 2015552205 A JP2015552205 A JP 2015552205A JP WO2015087368 A1 JPWO2015087368 A1 JP WO2015087368A1
Authority
JP
Japan
Prior art keywords
depth
image
map
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552205A
Other languages
Japanese (ja)
Other versions
JP6344619B2 (en
Inventor
光雄 林
光雄 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2015087368A1 publication Critical patent/JPWO2015087368A1/en
Application granted granted Critical
Publication of JP6344619B2 publication Critical patent/JP6344619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

全方位画像に付随する奥行き情報の編集および生成を容易にするプログラムおよび装置、方法等を提供することを目的とする。第1に、ドローイング深度値を入力する手段と、座標を基にドローイング深度値をドローイング画像の深度マップに描き込む手段と、ドローイング画像を全方位画像へ投影する前に視線情報を基にドローイング画像の深度マップを距離マップに変換する手段とを持つ。第2に、全方位画像をスクリーン画像へ投影した後に視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段と、座標を基にスクリーン画像の深度マップからドローイング深度値を抽出する手段とを持つ。An object of the present invention is to provide a program, an apparatus, a method, and the like that facilitate the editing and generation of depth information associated with an omnidirectional image. First, a means for inputting a drawing depth value, a means for drawing the drawing depth value in the depth map of the drawing image based on the coordinates, and a drawing image based on the line-of-sight information before projecting the drawing image onto the omnidirectional image And means for converting the depth map into a distance map. Second, after projecting an omnidirectional image onto a screen image, means for converting a distance map of the screen image into a depth map based on the line-of-sight information, and means for extracting a drawing depth value from the depth map of the screen image based on the coordinates And have.

Description

本発明は、例えば作画者の全方位を覆う背景に見立てた画像、即ち所謂全方位画像に付随する奥行き情報を編集、生成等する奥行き情報編集装置、奥行き情報編集方法、奥行き情報編集プログラム、及び奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。   The present invention provides, for example, a depth information editing apparatus, a depth information editing method, a depth information editing program, and the like, which edit and generate depth information associated with a so-called omnidirectional image, for example, an image that looks like a background covering the omnidirectional of the creator The present invention relates to a computer-readable recording medium on which a depth information editing program is recorded.

従来、画像の各画素の位置に対する奥行きを表す情報として、深度マップ(Depth map)が用いられている。ここで、「深度マップ」とは、一般には、3次元空間についてカメラ(視点)からの距離情報をグレースケール等で表したものである。   Conventionally, a depth map is used as information representing the depth with respect to the position of each pixel of an image. Here, the “depth map” generally represents distance information from the camera (viewpoint) in a three-dimensional space in gray scale or the like.

換言すれば、深度マップとは、視点から対象点までの深さ(すなわち、視点から視錐台へ向かう垂線を軸とした1次元上の長さ)を表す情報の集合であるといえる。   In other words, the depth map can be said to be a set of information representing the depth from the viewpoint to the target point (that is, a one-dimensional length with the perpendicular line from the viewpoint to the viewing frustum as an axis).

なお、コンピュータグラフィックの分野では、深度マップはZバッファとも称され、3次元オブジェクトの前後関係を判定する用途に用いられている。Zバッファとは、画面全体の深度をまとめて保存しておくメモリ領域ともいえる。   In the field of computer graphics, the depth map is also called a Z buffer, and is used for determining the context of a three-dimensional object. The Z buffer can be said to be a memory area that stores the entire depth of the screen together.

近年では、深度マップは立体感の表現や被写界深度の表現等にも活用されている。   In recent years, depth maps have been used for expressing stereoscopic effects, depth of field, and the like.

ところで、コンピュータグラフィックの分野においては、通常は3次元情報が先に生成されるので、当該3次元情報に基づくことで、2次元画像及び深度マップを生成することができる。   By the way, in the field of computer graphics, usually, three-dimensional information is generated first, so that a two-dimensional image and a depth map can be generated based on the three-dimensional information.

その一方、絵画(drawing)の分野においては、通常は作画を2次元状の画像に対して行うものであり、3次元情報は先に生成されないため、深度マップは別途用意する必要がある。   On the other hand, in the field of drawing, drawing is usually performed on a two-dimensional image, and since three-dimensional information is not generated first, it is necessary to prepare a depth map separately.

国際公開第WO/2012/147303号公報International Publication No. WO / 2012/147303

しかしながら、絵画の分野においては、奥行き情報を容易且つ正確に作成する方法は十分に確立されておらず、その作成には過大な時間を要する。   However, in the field of painting, a method for easily and accurately creating depth information has not been well established, and the creation takes an excessive amount of time.

たとえば、地面や建造物等の奥行きに関する連続的な変化を表現する場合、奥行き情報に基づきグラデーションを用いた表現を行うことになるが、これを手描きによって正確に表現することは困難である。   For example, when expressing a continuous change related to the depth of the ground or a building, an expression using gradation is performed based on the depth information. However, it is difficult to accurately express this by hand drawing.

さらに、深度マップのような一方向に限定した情報は全方位画像に付随する奥行き情報としては適しておらず、たとえば、深度マップにおいては、基準とする軸(視軸等)と直角の方向では深さが常に0となってしまう。   Furthermore, information limited to one direction such as a depth map is not suitable as depth information associated with an omnidirectional image. For example, in a depth map, in a direction perpendicular to a reference axis (such as a visual axis) The depth is always 0.

これらのことから、本出願人による先願である特許文献1に記載の全方位画像編集装置において、ドローイング用画像から全方位画像へ投影(描画)する方法を、奥行き情報の編集の手段としてそのまま用いることは困難である。   Therefore, in the omnidirectional image editing apparatus described in Patent Document 1, which is a prior application by the present applicant, the method of projecting (drawing) from the drawing image to the omnidirectional image is directly used as a means for editing depth information. It is difficult to use.

本発明は、上述した技術的な課題に鑑みてなされたもので、全方位画像に付随する奥行き情報の編集および生成を実現することを目的とする。   The present invention has been made in view of the above-described technical problems, and an object thereof is to realize editing and generation of depth information associated with an omnidirectional image.

本発明の第1の態様に係る奥行き情報編集装置は、ドローイング深度値を入力する手段と、座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段と、視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換する手段と、を備えたことを特徴とする。   The depth information editing apparatus according to the first aspect of the present invention includes: means for inputting a drawing depth value; means for drawing the drawing depth value in a depth map of a drawing image based on coordinates; Means for converting the depth map of the drawing image into a distance map.

本発明の第2の態様に係る奥行き情報編集装置は、ドローイング深度値を入力する手段と、座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段と、前記ドローイング画像を全方位画像へ投影する際に、全方位画像の画素を更新するタイミングで深度値を距離値に変換する手段と、を備えたことを特徴とする。   The depth information editing apparatus according to the second aspect of the present invention includes means for inputting a drawing depth value, means for drawing the drawing depth value in a depth map of a drawing image based on coordinates, and the drawing image in all directions. Means for converting a depth value into a distance value at a timing of updating pixels of an omnidirectional image when projecting onto an image.

本発明の第3の態様に係る奥行き情報編集装置は、視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段と、座標を基に前記スクリーン画像の深度マップからドローイング深度値を抽出する手段と、を備えたことを特徴とする。   The depth information editing apparatus according to the third aspect of the present invention is a means for converting a distance map of a screen image into a depth map based on line-of-sight information, and extracts a drawing depth value from the depth map of the screen image based on coordinates. And means for carrying out the above.

本発明の第4の態様に係る奥行き情報編集装置は、全方位画像をスクリーン画像に投影する際、前記スクリーン画像の画像を更新するタイミングで距離値を深度値に変換する手段と、座標を基に前記スクリーン画像の前記深度値を含む深度マップからドローイング深度値を抽出する手段と、を備えたことを特徴とする。   The depth information editing apparatus according to the fourth aspect of the present invention, when projecting an omnidirectional image on a screen image, converts a distance value into a depth value at a timing of updating the image of the screen image, and coordinates based on the coordinates. And a means for extracting a drawing depth value from a depth map including the depth value of the screen image.

本発明の第5の態様に係る奥行き情報編集装置は、操作入力を行う入力手段と、奥行き情報編集プログラムに基づく所定の動作を行う中央制御手段と、画像の表示を行う表示手段と、を備え、前記中央制御手段は、全方位画像の距離マップを基にした深度マップをスクリーン画像へ描画し、前記入力手段から座標、ボタン及び数値の入力を受け、視線変更入力がなされた場合には、入力情報を基に視線方向、視野角およびシフト量を更新し、深度値抽出入力がなされた場合には、入力情報による座標を基に、スクリーン画像の画素を抽出し、ドローイング深度値として設定し、深度値変更入力がなされた場合には、入力情報による設定値をドローイング深度値として設定し、ドローイング入力がなされた場合には、入力情報による座標、ドローイング深度値およびドローイングパラメータを用いてドローイング画像の画素を更新し、ドローイング画像の深度マップをプレビューとしてスクリーン画像に重畳し、前記表示手段に表示することを特徴とする。   A depth information editing apparatus according to a fifth aspect of the present invention includes an input unit that performs an operation input, a central control unit that performs a predetermined operation based on a depth information editing program, and a display unit that displays an image. The central control means draws a depth map on the screen image based on the distance map of the omnidirectional image, receives coordinates, buttons and numerical values from the input means, and when a line-of-sight change input is made, When the line-of-sight direction, viewing angle, and shift amount are updated based on the input information and depth value extraction is input, the screen image pixels are extracted based on the coordinates based on the input information and set as the drawing depth value. When a depth value change input is made, the setting value based on the input information is set as the drawing depth value. When a drawing input is made, the coordinates and the draw based on the input information are set. Update the pixel drawing image using queuing depth values and the drawing parameters, superimposed on the screen image depth map drawing image as a preview, and displaying on the display means.

本発明のその他の態様では、上記第1乃至第5と同趣旨の奥行き情報編集プログラム、奥行き情報編集方法、奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体として課題を解決する。   In another aspect of the present invention, the problem is solved as a computer-readable recording medium recording a depth information editing program, a depth information editing method, and a depth information editing program having the same meanings as the first to fifth aspects.

本発明によれば、全方位画像に付随する奥行き情報の編集および生成を容易にする奥行き情報編集装置、奥行き情報編集方法、奥行き情報編集プログラム、及び奥行情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することができる。   According to the present invention, a depth information editing apparatus, a depth information editing method, a depth information editing program, and a depth information editing program that make it easy to edit and generate depth information associated with an omnidirectional image. A medium can be provided.

本発明の一実施形態に係る奥行き情報編集装置の構成図である。It is a block diagram of the depth information editing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る奥行き情報編集装置のメインメモリのメモリマップである。It is a memory map of the main memory of the depth information editing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る奥行き情報編集プログラムのデータ入出力関係を示す概念図である。It is a conceptual diagram which shows the data input / output relationship of the depth information editing program which concerns on one Embodiment of this invention. 本発明の一実施形態に係る奥行き情報編集プログラムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the depth information editing program which concerns on one Embodiment of this invention. 図4のステップS13の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of FIG.4 S13 in detail. 全方位画像の画素更新処理を示すフローチャートである。It is a flowchart which shows the pixel update process of an omnidirectional image. 図4のステップS1の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of FIG.4 S1 in detail. スクリーン画像の画素更新処理を示すフローチャートである。It is a flowchart which shows the pixel update process of a screen image. (a)乃至(c)は、深度マップと距離マップとの関係を示す概念図である。(A) thru | or (c) is a conceptual diagram which shows the relationship between a depth map and a distance map. 深度マップと距離マップの相互変換について説明する為の概念図である。It is a conceptual diagram for demonstrating the mutual conversion of a depth map and a distance map. (a)及び(b)は、本発明の一実施形態に係る奥行き情報編集方法にしたがった作業手順の一例を説明するための図である。(A) And (b) is a figure for demonstrating an example of the work procedure according to the depth information editing method which concerns on one Embodiment of this invention.

以下、本発明の奥行き情報編集装置、奥行き情報編集方法、奥行き情報編集プログラム及び奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体に係る好適な実施形態について図面を参照しながら説明する。なお、本発明の奥行き情報編集プログラム等は、以下の記述に限定されるものではなく、本発明の要旨を逸脱しない範囲において、適宜変更可能である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of a depth information editing apparatus, a depth information editing method, a depth information editing program, and a computer-readable recording medium on which a depth information editing program is recorded will be described with reference to the drawings. It should be noted that the depth information editing program of the present invention is not limited to the following description, and can be appropriately changed without departing from the gist of the present invention.

本発明の奥行き情報編集装置等は、少なくとも以下を特徴の一部とするものである。   The depth information editing apparatus or the like of the present invention has at least the following as a part of its features.

即ち、第1に、本発明の実施形態に係る奥行き情報編集装置は、ドローイング深度値を入力する手段と、座標を基にドローイング深度値をドローイング画像の深度マップに描き込む手段と、ドローイング画像を全方位画像へ投影する前に視線情報を基にドローイング画像の深度マップを距離マップに変換する手段と、を備える。ここで、視線情報とは、例えば視野角およびシフト量の情報を含む。但し、これには限定されない。   That is, first, the depth information editing apparatus according to the embodiment of the present invention includes a means for inputting a drawing depth value, a means for drawing the drawing depth value in the depth map of the drawing image based on the coordinates, and a drawing image. Means for converting a depth map of a drawing image into a distance map based on line-of-sight information before projecting onto an omnidirectional image. Here, the line-of-sight information includes, for example, information on the viewing angle and the shift amount. However, it is not limited to this.

第2に、本発明の実施形態に係る奥行き情報編集装置は、全方位画像をスクリーン画像へ投影した後に視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段と、座標を基にスクリーン画像の深度マップからドローイング深度値を抽出する手段と、を備える。ここで、視線情報とは、例えば視野角およびシフト量の情報を含む。但し、これには限定されない。   Second, the depth information editing apparatus according to the embodiment of the present invention includes a unit that converts a distance map of a screen image into a depth map based on line-of-sight information after projecting an omnidirectional image onto the screen image, and a coordinate based on the coordinates. Means for extracting a drawing depth value from a depth map of the screen image. Here, the line-of-sight information includes, for example, information on the viewing angle and the shift amount. However, it is not limited to this.

本発明の第1の効果として、全方位画像において、3次元平面や3次元曲面を表す奥行き情報を容易かつ正確に編集することが可能となる。たとえば、視線方向を真下に向けてドローイングした場合、地面を表す3次元平面としての奥行き情報を作成することができる。そこから視線方向を水平にした場合、奥行き情報は地面の連続した奥行き感の表現として正確なグラデーションが生成される。   As a first effect of the present invention, depth information representing a three-dimensional plane or a three-dimensional curved surface can be easily and accurately edited in an omnidirectional image. For example, when the drawing is performed with the line-of-sight direction directed directly below, depth information as a three-dimensional plane representing the ground can be created. When the line-of-sight direction is made horizontal from there, an accurate gradation is generated from the depth information as an expression of a continuous depth sensation on the ground.

また、本発明の第2の効果として、編集済みの奥行き情報に関係する新たな奥行き情報を容易かつ正確に編集することが可能となる。たとえば、視線方向を水平に向けて、地面の任意の位置から抽出した場合、その深度値を用い、そこから上方に伸びるようなドローイングをすることで、高さのある物体(たとえば、建造物)を表す奥行き情報を作成することができる。   As a second effect of the present invention, new depth information related to edited depth information can be easily and accurately edited. For example, when an object is extracted from an arbitrary position on the ground with the line of sight oriented horizontally, the depth value is used, and a drawing that extends upward from the depth value is used, so that an object with a high height (for example, a building) Can be created.

以下、本発明の一実施形態について詳述する。   Hereinafter, an embodiment of the present invention will be described in detail.

図1には本発明の一実施形態に係る奥行き情報編集装置の構成を示し説明する。   FIG. 1 shows and describes the configuration of a depth information editing apparatus according to an embodiment of the present invention.

この図1に示されるように、奥行き情報編集装置1は、パーソナルコンピュータ10と表示装置20、ポインティング装置30等からなる。   As shown in FIG. 1, the depth information editing apparatus 1 includes a personal computer 10, a display device 20, a pointing device 30, and the like.

尚、奥行き情報編集装置1は、後述する機能を実現する奥行き情報編集プログラムが実装されたコンピュータプログラムプロダクトの一態様に相当する。   The depth information editing apparatus 1 corresponds to an aspect of a computer program product in which a depth information editing program that implements functions to be described later is installed.

パーソナルコンピュータ10は、マルチタスク対応プロセッサ等からなる中央制御部11と、一時記憶装置としてのRAM(Random Access Memory)等からなるメインメモリ12、グラフィックカード等の画像制御部13、入出力制御部14、内蔵不揮発性記憶媒体15、メディア読み書きインターフェイス16を含む。   The personal computer 10 includes a central control unit 11 including a multitasking processor, a main memory 12 including a RAM (Random Access Memory) as a temporary storage device, an image control unit 13 such as a graphic card, and an input / output control unit 14. A built-in nonvolatile storage medium 15 and a media read / write interface 16.

画像制御部13は、ビデオメモリ13aも備えている。ビデオメモリ13aとは、パーソナルコンピュータ10本体のメインメモリ12と同じく、一時的にデータを保存する場所であり、グラフィックカードについているメモリはVRAM(Video RAM)とも称される。画面に3Dグラフィック画像を表示する場合、その際に必要となるデータ量は大きくなる。画像制御部13で処理を終えたデータはビデオメモリ13aに保存されて随時使われていく。ビデオメモリ13aの容量が多いほど、細かい3Dグラフィック画像でも、スムーズに不良もなく表示することができるようになる。尚、昨今ではVRAMの高速化が進み、GDDR(Graphics DDR)と称される高速処理専用のメモリ規格も登場し、3次元グラフィックス描画における莫大なデータの高速転送が実現されている。   The image control unit 13 also includes a video memory 13a. Similar to the main memory 12 of the personal computer 10 main body, the video memory 13a is a place for temporarily storing data, and the memory attached to the graphic card is also referred to as VRAM (Video RAM). When a 3D graphic image is displayed on the screen, the amount of data required at that time increases. The data that has been processed by the image controller 13 is stored in the video memory 13a and used as needed. As the capacity of the video memory 13a is increased, even a fine 3D graphic image can be displayed smoothly and without a defect. In recent years, the speed of VRAM has been increased, and a memory standard dedicated to high-speed processing called GDDR (Graphics DDR) has appeared, and high-speed transfer of enormous data in three-dimensional graphics drawing has been realized.

表示装置20は、液晶ディスプレイ等に代表される、画像を表示することができる装置である。ポインティング装置30は、マウスやタッチパネル、ペンタブレットに代表される、座標入力及び/又はボタン入力が可能な装置である。   The display device 20 is a device that can display an image, such as a liquid crystal display. The pointing device 30 is a device capable of coordinate input and / or button input represented by a mouse, a touch panel, and a pen tablet.

プログラムデータ50や方位画素対応付けデータ42、全方位画像入力データ40はメディア読み書きインターフェイス16を介して入力され、全方位画像出力データ41はメディア読み書きインターフェィス16を介して出力される。   Program data 50, orientation pixel association data 42, and omnidirectional image input data 40 are input via the media read / write interface 16, and omnidirectional image output data 41 is output via the media read / write interface 16.

プログラムデータ50とは、本発明の奥行き情報編集装置を動作可能とするソフトウェアである。後述する奥行き情報編集プログラムのデータ等がこれに該当する。プログラムデータ50は、コンピュータ読み取り可能な記録媒体に記録されていて、当該記録媒体より読み出されるようにしてもよい。   The program data 50 is software that enables the depth information editing apparatus of the present invention to operate. This corresponds to data of a depth information editing program, which will be described later. The program data 50 may be recorded on a computer-readable recording medium and read from the recording medium.

方位画像対応付けデータ42とは、方位と画素の位置を相互に対応付けるテーブル又は関数である。ポリゴンモデルを用いる場合は、ポリゴンモデルデータがこれに相当し、3次元形状のオブジェクトとなる。方位画像対応付けデータ42は、プログラムデータ50に付随してもよいし、外部で定義されたデータを読み込んでもよい。   The azimuth image association data 42 is a table or function that associates azimuths and pixel positions with each other. When a polygon model is used, the polygon model data corresponds to this and becomes a three-dimensional object. The azimuth image association data 42 may accompany the program data 50, or may read externally defined data.

全方位画像入力データ40、全方位画像出力データ41は、ソフトウェアが扱う画像群である。例えばポリゴンモデルを用いる場合はテクスチャ画像群がこれに相当する。入力されたテクスチャ画像群等はメインメモリ12に一時記憶される。   The omnidirectional image input data 40 and the omnidirectional image output data 41 are image groups handled by software. For example, when a polygon model is used, a texture image group corresponds to this. The input texture image group and the like are temporarily stored in the main memory 12.

全方位画像入力データ40及びプログラムデータ50は、コンピュータ10により読み取り可能な不図示の外部の記録媒体から読み込んでもよく、通信ネットワークを介して外部コンピュータから受信し、内蔵不揮発性記憶媒体15に取り込んでもよい。さらに、出力データは、不図示の外部の記録媒体へ書き込んでもよく、通信ネットワークを介して外部コンピュータに送信してもよい。   The omnidirectional image input data 40 and the program data 50 may be read from an external recording medium (not shown) that can be read by the computer 10, received from an external computer via a communication network, and imported to the built-in nonvolatile storage medium 15. Good. Further, the output data may be written on an external recording medium (not shown) or transmitted to an external computer via a communication network.

ここで、図2には、ポリゴンモデルを利用して奥行き情報の編集を行う場合に使用するメインメモリ12のメモリマップの一例を示し説明する。   Here, FIG. 2 shows an example of a memory map of the main memory 12 used when editing depth information using a polygon model.

全方位画像関連情報とは、奥行き情報編集装置における作画者および鑑賞者の全方位を覆う背景(即ち全方位画像)を表すための情報である。図2は特にポリゴンモデルを利用する場合の例である。ポリゴン頂点群は、3次元空間座標(x:水平,y:垂直,z:奥行き)と2次元テクスチャ座標(u:水平,v:垂直)とを持つ。ポリゴン面群は、ポリゴン面が三角形を表わすため、ポリゴン頂点への参照を3つとテクスチャ画像への参照をレイヤー枚数分だけ持つ。ポリゴンモデルは、3次元形状を表わすため、ポリゴン頂点とポリゴン面とをそれぞれ配列として持つことになる。1つのレイヤーが持つテクスチャ画像群の構造がどのレイヤーについても同一である場合、テクスチャ画像への参照はレイヤー内の相対的な参照を1つとしてもよい。   The omnidirectional image related information is information for representing a background (that is, an omnidirectional image) covering the omnidirectional directions of the creator and the viewer in the depth information editing apparatus. FIG. 2 shows an example of using a polygon model. The polygon vertex group has three-dimensional space coordinates (x: horizontal, y: vertical, z: depth) and two-dimensional texture coordinates (u: horizontal, v: vertical). Since the polygon surface represents a triangle, the polygon surface group has three references to the polygon vertices and references to the texture image for the number of layers. Since the polygon model represents a three-dimensional shape, it has polygon vertices and polygon surfaces as arrays. When the structure of the texture image group of one layer is the same for every layer, the reference to the texture image may be one relative reference in the layer.

ポリゴンモデルを利用することはあくまでも一例であり、全方位画像の表示や編集における手段を技術的に制限するものではない。全方位に画素が対応付けられていれば、ポリゴンモデルやテクスチャの概念を用いることも必須ではない。例えば、球面ミラーを用いた全方位カメラ等から得られるような全方位画像に対しての編集も可能となる。   The use of the polygon model is merely an example and does not technically limit the means for displaying and editing the omnidirectional image. If the pixels are associated in all directions, it is not essential to use the concept of polygon model or texture. For example, it is possible to edit an omnidirectional image obtained from an omnidirectional camera using a spherical mirror.

テクスチャ画像、スクリーン画像、ドローイング画像の各画像は、不透明度付きの色(a:アルファ,r:赤,g:緑,b:青)を2次元的な配列として持つ(以下、色情報マップと称する)。「アルファ」とは、不透明度を示している。例としてパーソナルコンピュータは、1つのピクセルの色を24ビット(1色につき8ビット、赤・緑・青の3色で8×3=24ビット)という単位で記録している。赤・緑・青のような値は、それぞれ「濃度値」とも称され、8ビット型では256段階の記録ができる。なお、グレースケール画像のような場合、濃度値は1つ持てばよい。   Each of the texture image, the screen image, and the drawing image has a color with opacity (a: alpha, r: red, g: green, b: blue) as a two-dimensional array (hereinafter referred to as a color information map and Called). “Alpha” indicates opacity. As an example, a personal computer records the color of one pixel in units of 24 bits (8 bits per color, 8 × 3 = 24 bits for three colors of red, green, and blue). Values such as red, green, and blue are also called “density values”, and 256-bit recording is possible with the 8-bit type. In the case of a gray scale image, it is sufficient to have one density value.

アルファ付きPNG(32ビットPNG;32bit Portable Network Graphics)形式では色情報の他に、各ピクセルの不透明度も8ビット型の256段階で記録できる。アルファ値がゼロで完全な透明、255で完全な不透明であることを意味する。なお、画像処理で色を精度良く扱う用途の例として、濃度値が16ビット型の65536段階に拡張された形式や浮動小数点型で表された形式等が用いられる場合もある。   In the PNG with alpha (32-bit PNG: 32-bit Portable Network Graphics) format, in addition to color information, the opacity of each pixel can be recorded in 256 steps of 8-bit type. An alpha value of zero means completely transparent, 255 means completely opaque. As an example of an application for accurately handling colors in image processing, a format in which density values are expanded to 65536 levels of 16-bit type, a format represented by a floating-point type, or the like may be used.

さらに、本発明の実施形態において、テクスチャ画像、スクリーン画像、ドローイング画像の各画像は、不透明度付きの奥行き(a:アルファ,g:濃度値)を2次元的な配列として持つ。そして、本発明の実施形態に係る奥行き情報編集装置等では、奥行き情報について「深度マップ」と「距離マップ」との2種類を扱う。   Furthermore, in the embodiment of the present invention, each of the texture image, the screen image, and the drawing image has a depth (a: alpha, g: density value) with opacity as a two-dimensional array. In the depth information editing apparatus and the like according to the embodiment of the present invention, two types of depth information, “depth map” and “distance map”, are handled.

ここで、「深度マップ」とは、視点から対象点までの深さ(即ち、視点から視錐台へ向かう垂線を軸とした1次元上の長さ)を表す値(以下、深度値という)の集合である。「距離マップ」とは、視点と対象点との直線距離(即ち、3次元上の長さ)を表す値(以下、距離値という)の集合である。深度マップ及び距離マップは、色情報マップと同様、座標により対応画素を指定できるものとする。   Here, the “depth map” is a value representing the depth from the viewpoint to the target point (that is, a one-dimensional length about a perpendicular line from the viewpoint to the viewing frustum) (hereinafter referred to as a depth value). Is a set of The “distance map” is a set of values (hereinafter referred to as distance values) representing a linear distance (that is, a three-dimensional length) between the viewpoint and the target point. In the depth map and the distance map, as in the color information map, it is assumed that the corresponding pixel can be designated by coordinates.

なお、深度値及び距離値は、長さに比例する濃度値としてマップに持たせる代わりに運用の形態によっては長さの逆数を濃度値としてマップに持たせてもよい。たとえば、無限遠に相当する長さを扱いたい一方で、遠くなるにつれて精度が低くなってもよい場合などは、長さの逆数を用いる方が適している。   Note that the depth value and the distance value may be given to the map as density values, instead of the density values proportional to the length, depending on the operation mode. For example, when it is desired to handle a length corresponding to infinity but the accuracy may decrease as the distance increases, it is more appropriate to use the reciprocal of the length.

スクリーン画像とは、全方位画像を座標変換により2次元座標平面上に投影し、表示装置20により作業者に提示する画像である。   A screen image is an image which projects an omnidirectional image on a two-dimensional coordinate plane by coordinate transformation and presents it to the operator by the display device 20.

ドローイングとは、主にポインティング装置30を用いて2次元(平面)の画像に対して図形や線等の描き込みを行う作業である。ドローイング用画像(ドローイング画像)とは、作画者が実際にドローイングを行う対象とする2次元(平面)の画像である。   Drawing is an operation of drawing a figure or a line on a two-dimensional (planar) image mainly using the pointing device 30. An image for drawing (drawing image) is a two-dimensional (planar) image that is a target on which the creator actually draws.

ドローイング用画像は、スクリーン画像とは別の記憶域にあり、スクリーン画像と同じ座標系であり、ドローイング開始前は完全に透明な状態とする。ドローイングを施した箇所は、不透明度を含む濃度値を更新する。これは、即ち作業者がスクリーン画像に重なっている透明な層にドローイングを行うことに等しい。   The drawing image is in a different storage area from the screen image, has the same coordinate system as the screen image, and is completely transparent before drawing starts. The density value including opacity is updated at the location where the drawing has been performed. This is equivalent to the operator drawing on a transparent layer overlying the screen image.

ドローイングパラメータとは、ドローイングの手法および属性を決定するパラメータである。ドローイングの手法は、フリーハンド、直線、矩形、円、画像の貼り付け、等が挙げられる。ドローイングの属性は、線の場合は幅や濃度値、図形の場合は塗りつぶしの模様、等が考えられる。ドローイングのパラメータの種類が多いほど表現方法が多彩となりうる。尚、本願でいう「ドローイング(drawing)」には、一般的な「ペインティング(painting)」も概念上含まれる。   The drawing parameter is a parameter for determining a drawing technique and attributes. Examples of the drawing method include freehand, straight line, rectangle, circle, image pasting, and the like. The drawing attribute may be a width or density value for a line, a filled pattern for a figure, and the like. The more the types of drawing parameters are, the more expression methods can be used. Note that “drawing” in the present application conceptually includes general “painting”.

本実施形態において、テクスチャ画像(すなわち、全方位画像)が持つ奥行き情報は、距離マップとして入出力する。スクリーン画像が持つ奥行き情報は、距離マップとして全方位画像から入力(投影)し、後述する変換を伴い、深度マップとして表示装置20へ出力(表示)する。ドローイング画像が持つ奥行き情報は、深度マップとしてポインティング装置30等の入力装置から入力(描き込み)し、後述する変換を伴い、距離マップとして全方位画像へ出力(投影)する。ただし、スクリーン画像と共に表示装置20へ出力(表示)する際は、深度マップとしてスクリーン画像に合成する。   In the present embodiment, the depth information of the texture image (that is, the omnidirectional image) is input / output as a distance map. The depth information of the screen image is input (projected) from the omnidirectional image as a distance map, and output (displayed) to the display device 20 as a depth map with conversion described later. The depth information of the drawing image is input (drawn) from an input device such as the pointing device 30 as a depth map, and is output (projected) as a distance map to an omnidirectional image with conversion described later. However, when outputting (displaying) together with the screen image to the display device 20, it is combined with the screen image as a depth map.

なお、ドローイング画像はドローイングの内容を全方位画像に反映させるまでの一時的な画像でもあり、必要に応じて用いればよい。例えば、作画においてドローイング終了前に再び視線変更モードに戻る(視線情報を修正する)ことを必要とせず、直ちにドローイング内容の変換および全方位画像への反映をする事を作画ルールとする場合、ドローイング画像を用いない事も可能である。   The drawing image is also a temporary image until the contents of the drawing are reflected in the omnidirectional image, and may be used as necessary. For example, if it is not necessary to return to the line-of-sight change mode (correct the line-of-sight information) again before drawing, and the drawing rule is to immediately convert the drawing content and reflect it in the omnidirectional image. It is also possible not to use an image.

図3には、本発明の一実施形態に係る奥行き情報編集プログラムのデータ入出力関係を概念的に示し説明する。   FIG. 3 conceptually shows and explains the data input / output relationship of the depth information editing program according to an embodiment of the present invention.

同図において、入力装置とは、作業者からの操作を受け付けるポインティング装置30等である。視線情報とは、視線方向(ヨー角、ピッチ角、ロール角)のほか、視野角、水平シフト量、垂直シフト量といった、作業者が全方位画像を観測および編集するための情報を意味している。入力用投影および出力用投影とは、全方位画像に関する入出力を意味している。   In the figure, an input device is a pointing device 30 or the like that receives an operation from an operator. The line-of-sight information means information for the operator to observe and edit an omnidirectional image, such as the viewing direction (yaw angle, pitch angle, roll angle), viewing angle, horizontal shift amount, and vertical shift amount. Yes. The input projection and the output projection mean input / output related to an omnidirectional image.

深度/距離変換とは、ドローイング画像を全方位画像へ投影する前に視線情報を基にドローイング画像の深度マップを距離マップに変換することを意味している。距離/深度変換とは、全方位画像をスクリーン画像へ投影した後にスクリーン画像の距離マップを深度マップに変換することを意味している。   The depth / distance conversion means that the depth map of the drawing image is converted into a distance map based on the line-of-sight information before the drawing image is projected onto the omnidirectional image. Distance / depth conversion means that a distance map of a screen image is converted into a depth map after an omnidirectional image is projected onto the screen image.

深度マップは、特定の方向に限定されるため全方位画像の奥行き情報としては適さないが、ドローイングが直感的で容易になる特長を持つ。たとえば、3次元平面を表したい場合は、その領域を一定の深度値で塗りつぶせばよい。一方、距離マップは、直感的なドローイングには適していないが、特定の方向に限定されない特長を持つ。すなわち、全方位画像の奥行き情報として用いることができる。そして、深度マップと距離マップは相互に変換可能である。変換については後述する。   A depth map is not suitable as depth information for an omnidirectional image because it is limited to a specific direction, but has a feature that drawing is intuitive and easy. For example, when it is desired to represent a three-dimensional plane, the area may be filled with a certain depth value. On the other hand, the distance map is not suitable for intuitive drawing, but has a feature that is not limited to a specific direction. That is, it can be used as depth information of an omnidirectional image. The depth map and the distance map can be converted into each other. The conversion will be described later.

距離マップは、色情報マップと同様、濃度値を含んだ情報であるので、全方位画像への投影および全方位画像からの投影が可能である。また、投影や合成が行われる際に不透明度の影響を受けてもよい。すなわち、ドローイング時に不透明度を制御することで、不要な領域の描き込みの防止や、奥行きの曲面的な表現等が可能となる。   Similar to the color information map, the distance map is information including density values, so that projection onto an omnidirectional image and projection from an omnidirectional image are possible. It may also be affected by opacity when projection or composition is performed. That is, by controlling the opacity at the time of drawing, it is possible to prevent unnecessary areas from being drawn and to express the curved surface of the depth.

以下、図4のフローチャートを参照して、本発明の一実施形態に係る奥行き情報編集プログラムに基づく動作を説明する。この一連の動作の少なくとも一部は、本発明の一実施形態に係る奥行き情報編集方法にも相当する。   The operation based on the depth information editing program according to the embodiment of the present invention will be described below with reference to the flowchart of FIG. At least a part of this series of operations corresponds to a depth information editing method according to an embodiment of the present invention.

この処理は、従来の全方位画像編集プログラムの処理と概ね共通しているが、従来の色情報に相当するものは奥行き情報であり、従来の色情報マップに相当するものは深度マップ及び距離マップである。また、投影に係る処理(即ち、ドローイング画像の「深度マップ」を基にした「距離マップ」を全方位画像へ描画する処理、及び全方位画像の「距離マップ」を基にした「深度マップ」をスクリーン画像へ描画する処理)については、図5,6で後述する変換が用いられる。また、図示していないが、深度マップだけでなく色情報マップについても従来の方法により同一操作で編集できるようにしてもよい。   This processing is generally common to the processing of the conventional omnidirectional image editing program, but what corresponds to the conventional color information is depth information, and what corresponds to the conventional color information map is the depth map and distance map. It is. Further, a process related to projection (that is, a process of drawing a “distance map” based on the “depth map” of the drawing image on the omnidirectional image, and a “depth map” based on the “distance map” of the omnidirectional image. Is converted to a screen image), the conversion described later with reference to FIGS. Although not shown, not only the depth map but also the color information map may be edited by the same operation using a conventional method.

奥行き情報編集装置において、この奥行情報編集プログラムが記録媒体等から読み出され、メインメモリ12に展開され、中央制御部11により実行されると、中央制御部11は、先ず全方位画像の「距離マップ」を基にした「深度マップ」をスクリーン画像へ描画し(ステップS1)、ポインティング装置30等の入力装置から座標、ボタン及び数値の入力を受ける(ステップS2)。   In the depth information editing apparatus, when this depth information editing program is read from a recording medium or the like, loaded in the main memory 12, and executed by the central control unit 11, the central control unit 11 firstly selects the “distance” of the omnidirectional image. A “depth map” based on the “map” is drawn on the screen image (step S1), and coordinates, buttons, and numerical values are input from an input device such as the pointing device 30 (step S2).

続いて、中央制御部11は、ポインティング装置30等の入力装置を介して視線変更入力がなされたか否かを判断し(ステップS3)、視線変更入力がなされた場合には(ステップS3をYESに分岐)、入力情報を基に視線方向、視野角およびシフト量を更新し(ステップS4)、ステップS1に戻る。   Subsequently, the central control unit 11 determines whether or not a line-of-sight change input has been made via an input device such as the pointing device 30 (step S3). If a line-of-sight change input has been made (YES in step S3). (Branch), the line-of-sight direction, viewing angle, and shift amount are updated based on the input information (step S4), and the process returns to step S1.

視線変更入力がなされていない場合には(ステップS3をNOに分岐)、中央制御部11は深度値抽出入力がなされたか否かを判断し(ステップS5)、深度値抽出入力がなされた場合には(ステップS5をYESに分岐)、入力情報による座標を基に、スクリーン画像(深度マップ)の画素(深度値)を抽出し、「ドローイング深度値」として設定し(ステップS6)、次のステップS7に進む。一方、深度値抽出入力がなされていない場合には(ステップS5をNOに分岐)、そのまま次のステップS7に進む。   When the line-of-sight change input has not been made (step S3 branches to NO), the central control unit 11 determines whether or not the depth value extraction input has been made (step S5), and when the depth value extraction input has been made. (Step S5 branches to YES), based on the coordinates of the input information, extract the pixel (depth value) of the screen image (depth map) and set it as the “drawing depth value” (step S6), the next step Proceed to S7. On the other hand, if the depth value extraction input has not been made (step S5 is branched to NO), the process proceeds to the next step S7 as it is.

続いて、中央制御部11は、ポインティング装置30等の入力装置を介して深度値変更入力がなされたか否かを判断し(ステップS7)、深度値変更入力がなされた場合には(ステップS7をYESに分岐)、入力情報による設定値を「ドローイング深度値」として設定し(ステップS8)、次のステップS9に進む。一方、深度値変更入力がなされていない場合には(ステップS7をNOに分岐)、そのまま次のステップS9に進む。   Subsequently, the central control unit 11 determines whether or not a depth value change input has been made via an input device such as the pointing device 30 (step S7). If a depth value change input has been made (step S7). (Branch to YES), the set value by the input information is set as the “drawing depth value” (step S8), and the process proceeds to the next step S9. On the other hand, when the depth value change input has not been made (step S7 is branched to NO), the process directly proceeds to the next step S9.

次いで、中央制御部11は、ドローイング入力がなされたか否かを判断し(ステップS9)、ドローイング入力がなされた場合には(ステップS9をYESに分岐)、入力情報による座標、「ドローイング深度値」、およびドローイングパラメータを用いてドローイング画像の画素を更新し(ステップS10)、ドローイング画像の「深度マップ」をプレビューとしてスクリーン画像に重畳し表示装置20に表示し(ステップS11)、次のステップS12に進む。一方、ドローイング入力がなされていない場合には、そのまま次のステップS12に進む。   Next, the central control unit 11 determines whether or not a drawing input has been made (step S9). If a drawing input has been made (step S9 branches to YES), the coordinates based on the input information, “drawing depth value” And the drawing image pixels are updated using the drawing parameters (step S10), the “depth map” of the drawing image is superimposed on the screen image as a preview and displayed on the display device 20 (step S11), and the next step S12 is performed. move on. On the other hand, if no drawing input has been made, the process proceeds directly to the next step S12.

続いて、中央制御部11は、ドローイングを終了するか否かを判断し(ステップS12)、ドローイングを終了する場合には(ステップS12をYESに分岐)、ドローイング画像の「深度マップ」を基にした「距離マップ」を全方位画像へ描画し(ステップS13)、ステップS1に戻る。一方、ドローイングを終了しない場合には、ステップS2に戻り、上記動作を繰り返すことになる。   Subsequently, the central control unit 11 determines whether or not to end the drawing (step S12). When the drawing ends (step S12 branches to YES), based on the “depth map” of the drawing image. The “distance map” is drawn on the omnidirectional image (step S13), and the process returns to step S1. On the other hand, if the drawing is not finished, the process returns to step S2 and the above operation is repeated.

ドローイング終了とみなす条件としては、ポインティング装置30がマウスであると仮定し、ドラッグ中にマウスのボタンが離されたタイミングとしてもよいし、これに限定することなく、例えばドローイング終了処理を実行するボタン等を用意し、それが押下されたタイミングでドローイング終了としてもよい。   As a condition for determining that the drawing is finished, it is assumed that the pointing device 30 is a mouse, and the timing at which the mouse button is released during dragging may be used. For example, a button for executing a drawing end process is not limited thereto. Or the like may be prepared, and the drawing may be ended when the button is pressed.

尚、図示していないが、プログラムを終了する一般的な方法(例えば、ポインティング装置30がマウスであると仮定し、プログラム終了ボタンをクリック)により、このプログラムを終了可能とし、図4の一連の処理を終了するようにしてもよい。   Although not shown, the program can be terminated by a general method for terminating the program (for example, assuming that the pointing device 30 is a mouse and the program termination button is clicked). You may make it complete | finish a process.

次に、図5のフローチャートを参照して、図4のステップS13で実行される処理について更に詳細に説明する。   Next, the process executed in step S13 of FIG. 4 will be described in more detail with reference to the flowchart of FIG.

ドローイング画像は作画者による直感的な編集が可能なように奥行き情報を深度マップにより扱っているが、全方位画像は視線に依存させないように奥行き情報を距離マップにより扱うことに鑑みて、ステップS13では、深度マップを距離マップに変換する。   In the drawing image, the depth information is handled by the depth map so that the creator can intuitively edit the drawing image. However, in consideration of handling the depth information by the distance map so that the omnidirectional image does not depend on the line of sight, step S13. Then, the depth map is converted into a distance map.

変換はスクリーン座標系にて行うことが容易であるため、変換のタイミングはドローイング画像を全方位画像に投影する前としている。   Since the conversion can be easily performed in the screen coordinate system, the conversion timing is set before the drawing image is projected onto the omnidirectional image.

即ち、ドローイング画像の「深度マップ」を基にした「距離マップ」を全方位画像へ描画する処理では、詳細には、視野角およびシフト量を用いてドローイング画像の「深度マップ」を「距離マップ」に変換し(ステップS21)、視線方向、視野角およびシフト量を用いてドローイング画像の「距離マップ」を全方位画像へ描画し(ステップS22)、ドローイング画像をクリアし(ステップS23)、図4の処理にリターンする。   That is, in the process of drawing the “distance map” based on the “depth map” of the drawing image on the omnidirectional image, in detail, the “depth map” of the drawing image is converted to the “distance map” using the viewing angle and the shift amount. ”(Step S21), the“ distance map ”of the drawing image is drawn on the omnidirectional image using the line-of-sight direction, the viewing angle, and the shift amount (step S22), and the drawing image is cleared (step S23). Return to the process of 4.

ただし、視線情報を基にドローイング画像の深度マップを全方位画像の距離マップに変換する過程は、図5で実行される処理に限定されない。たとえば、ドローイング画像を全方位画像に投影する際、全方位画像の画素を更新するタイミングで「深度値」を「距離値」に変換してもよい。また、その際、変換のタイミングは全方位画像の画素をドローイング画像の画素から算出(すなわち、ドローイング画像を全方位画像に投影する処理の一部に相当)した後でもよい。これは、ドローイング画像を全方位画像に投影する前とした前述の変換タイミングとは計算方法が異なるが、補間(内挿)処理の精度等を向上させることができる。   However, the process of converting the depth map of the drawing image to the distance map of the omnidirectional image based on the line-of-sight information is not limited to the process executed in FIG. For example, when projecting a drawing image onto an omnidirectional image, the “depth value” may be converted into a “distance value” at the timing of updating the pixels of the omnidirectional image. In this case, the conversion timing may be after the pixels of the omnidirectional image are calculated from the pixels of the drawing image (that is, corresponding to a part of the process of projecting the drawing image onto the omnidirectional image). This is different in calculation method from the above-described conversion timing before projecting the drawing image onto the omnidirectional image, but can improve the accuracy of the interpolation (interpolation) processing.

その場合、全方位画像の画素更新処理については、図6に示されるように、全方位画像の画素更新処理に入ると、更新する全方位画像の画素に対応する3次元ベクトルを算出し(ステップS31)、3次元ベクトルの方位と視線情報とに対応するドローイング画像の画素、およびその近傍の画素からそれぞれ不透明度と深度値とを抽出し(ステップS32)、各画素の不透明度および深度値から、1つの不透明度および深度値を補間し(ステップS33)、視野角およびシフト量を用い、補間された深度値から距離値を算出し(ステップS34)、算出された不透明度と距離値を用い、全方位画像の画素を更新し(ステップS35)、図4の処理にリターンする。   In this case, for the omnidirectional image pixel update process, as shown in FIG. 6, when the omnidirectional image pixel update process starts, a three-dimensional vector corresponding to the pixel of the omnidirectional image to be updated is calculated (step S31) Extracting the opacity and the depth value from the drawing image pixel corresponding to the azimuth of the three-dimensional vector and the line-of-sight information, and the neighboring pixels, respectively (step S32), from the opacity and depth value of each pixel One opacity and depth value are interpolated (step S33), a distance value is calculated from the interpolated depth value using the viewing angle and the shift amount (step S34), and the calculated opacity and distance value are used. Then, the pixels of the omnidirectional image are updated (step S35), and the process returns to the process of FIG.

次に、図7のフローチャートを参照して、図4のステップS1で実行される処理について更に詳細に説明する。   Next, the process executed in step S1 of FIG. 4 will be described in more detail with reference to the flowchart of FIG.

全方位画像は視線に依存させないように奥行き情報を距離マップにより扱っているが、スクリーン画像は作画者による直感的な編集が可能なように奥行き情報を深度マップにより扱うことに鑑みて、ステップS1では、距離マップを深度マップに変換する。   While the depth information is handled by the distance map so that the omnidirectional image does not depend on the line of sight, the screen image is processed by the depth map so that the creator can intuitively edit the depth information. Then, a distance map is converted into a depth map.

変換はスクリーン座標系にて行うことが容易であるため、変換のタイミングは全方位画像をスクリーン画像に投影した後としている。   Since the conversion can be easily performed in the screen coordinate system, the conversion timing is after the omnidirectional image is projected onto the screen image.

即ち、全方位画像の「距離マップ」を基にした「深度マップ」をスクリーン画像へ描画する処理では、詳細には、視線方向、視野角およびシフト量を用い、全方位画像の「距離マップ」をスクリーン画像へ描画し(ステップS40)、視野角およびシフト量を用いてスクリーン画像の「距離マップ」を「深度マップ」に変換し(ステップS41)、図4の処理にリターンする。   That is, in the process of drawing the “depth map” on the screen image based on the “distance map” of the omnidirectional image, in detail, the “distance map” of the omnidirectional image is used by using the viewing direction, the viewing angle, and the shift amount. Is drawn on the screen image (step S40), the “distance map” of the screen image is converted into the “depth map” using the viewing angle and the shift amount (step S41), and the process returns to the process of FIG.

ただし、視線情報を基に全方位画像の距離マップをスクリーン画像の深度マップに変換する過程は、図7で実行される処理に限定されない。たとえば、全方位画像をスクリーン画像に投影する際、スクリーン画像の画素を更新するタイミングで「距離値」を「深度値」に変換してもよい。また、その際、変換のタイミングはスクリーン画像の画素を全方位画像の画素から算出(すなわち、全方位画像をスクリーン画像に投影する処理の一部に相当)する前でもよい。これは、全方位画像をスクリーン画像に投影した後とした前述の変換タイミングとは計算方法が異なるが、補間(内挿)処理の精度等を向上させることができる。   However, the process of converting the omnidirectional image distance map to the screen image depth map based on the line-of-sight information is not limited to the process executed in FIG. For example, when projecting an omnidirectional image onto a screen image, the “distance value” may be converted into a “depth value” at the timing of updating the pixels of the screen image. In this case, the conversion timing may be before the pixels of the screen image are calculated from the pixels of the omnidirectional image (that is, corresponding to a part of the process of projecting the omnidirectional image onto the screen image). This is different in calculation method from the above-described conversion timing after the omnidirectional image is projected onto the screen image, but the accuracy of the interpolation (interpolation) process can be improved.

その場合、スクリーン画像の画素更新処理については、図8に示されるように、スクリーン画像の画素更新処理に入ると、更新するスクリーン画像の画素と視線情報とに対応する3次元ベクトルを算出し(ステップS51)、3次元ベクトルの方位に対応する全方位画像の画素、およびその近傍の画素からそれぞれ不透明度と距離値とを抽出し(ステップS52)、視野角およびシフト量を用い、各画素について距離値から深度値を算出し(ステップS53)、各画素の不透明度および深度値から、1つの不透明度および深度値を補間し(ステップS54)、補間された不透明度と深度値とを用いスクリーン画像の画素を更新し(ステップS55)、図4の処理にリターンする。   In this case, as shown in FIG. 8, in the pixel update process of the screen image, when the pixel update process of the screen image starts, a three-dimensional vector corresponding to the pixel of the screen image to be updated and the line-of-sight information is calculated ( (Step S51) The opacity and distance value are extracted from the pixels of the omnidirectional image corresponding to the orientation of the three-dimensional vector and the neighboring pixels (Step S52), and the viewing angle and the shift amount are used for each pixel. A depth value is calculated from the distance value (step S53), one opacity and depth value is interpolated from the opacity and depth values of each pixel (step S54), and the screen is obtained using the interpolated opacity and depth values. The pixel of the image is updated (step S55), and the process returns to the process of FIG.

図9(a)乃至(c)は、深度マップと距離マップの関係を表している。   FIGS. 9A to 9C show the relationship between the depth map and the distance map.

すなわち、図9(a)乃至(c)は、共に3次元空間における視点および画像を真横から見た様子である。概念をわかりやすく図示するために、各マップは1次元配列で表しているが、2次元配列における実施も可能である。   That is, FIGS. 9A to 9C both show the viewpoint and the image in the three-dimensional space viewed from the side. In order to illustrate the concept in an easy-to-understand manner, each map is represented by a one-dimensional array.

図9(a)は、横軸を深度値、縦軸を画像の垂直方向とし、深度マップにおける各画素の深度値を太線で表している。ここでは各画素の深度値を一定としている。   In FIG. 9A, the horizontal axis represents the depth value, the vertical axis represents the vertical direction of the image, and the depth value of each pixel in the depth map is represented by a bold line. Here, the depth value of each pixel is constant.

図9(b)は、横軸を深度値、縦軸を画像の垂直方向とし、図9(a)のグラフにおける深度値について表しているが、太線の長さについては、視線方向における光軸が画像中央で直交する例における各画素の距離値を表している。   FIG. 9B shows the depth value on the horizontal axis and the vertical direction of the image on the vertical axis, and represents the depth value in the graph of FIG. 9A. The length of the thick line represents the optical axis in the line-of-sight direction. Represents the distance value of each pixel in an example in which is orthogonal at the center of the image.

図9(c)は、横軸を距離値、縦軸を画像の垂直方向とし、図9(a)のグラフにおける深度マップを距離マップに変換した場合を表している。   FIG. 9C shows a case where the horizontal axis is the distance value, the vertical axis is the vertical direction of the image, and the depth map in the graph of FIG. 9A is converted into a distance map.

画素の位置が画像中央のときに深度値と距離値が一致し、画素の位置が画像中央から遠くなると深度値に対する距離値の比率が大きくなる。   When the pixel position is at the center of the image, the depth value matches the distance value, and when the pixel position is far from the image center, the ratio of the distance value to the depth value increases.

ここで、図10(a),(b)を参照して、深度マップと距離マップの相互変換について詳細に説明する。図10(a)は3次元空間における視点および画像を真横から見た様子、図10(b)は3次元空間における視点および画像を正面から見た様子を示している。   Here, with reference to FIGS. 10A and 10B, the mutual conversion between the depth map and the distance map will be described in detail. FIG. 10A shows a viewpoint and an image in a three-dimensional space viewed from the side, and FIG. 10B shows a viewpoint and an image in a three-dimensional space viewed from the front.

より具体的には、視野角fovのとき、幅width、高さheightである画像の位置(i,j)に関して、所定の深度値depthValに対応する距離値distanceVal(i,j)は、以下のような計算で求めることができる。
depthBase=(height/2)/tan(fov/2)
distanceBase(i,j)=sqrt((i-width/2)^2+(j-height/2)^2+depthBase^2)
distanceCor(i,j)=distanceBase(i,j)/depthBase
distanceVal(i,j)=depthVal*distanceCor(i,j)
More specifically, the distance value distanceVal (i, j) corresponding to the predetermined depth value depthVal with respect to the position (i, j) of the image having the width width and height height when the viewing angle fov is It can be obtained by such a calculation.
depthBase = (height / 2) / tan (fov / 2)
distanceBase (i, j) = sqrt ((i-width / 2) ^ 2 + (j-height / 2) ^ 2 + depthBase ^ 2)
distanceCor (i, j) = distanceBase (i, j) / depthBase
distanceVal (i, j) = depthVal * distanceCor (i, j)

これにより、ドローイング画像に対して行われる変換、すなわち、深度マップdepthMap(i,j)から距離マップdistanceMap(i,j)への変換は、各画素に対して、以下のように求める。
distanceMap(i,j)=depthMap(i,j)*distanceCor(i,j)
Thereby, the conversion performed on the drawing image, that is, the conversion from the depth map depthMap (i, j) to the distance map distanceMap (i, j) is obtained for each pixel as follows.
distanceMap (i, j) = depthMap (i, j) * distanceCor (i, j)

これとは反対に、スクリーン画像に対して行われる変換、すなわち、距離マップdistanceMap(i,j)から深度マップdepthMap(i,j)への変換は、各画素に対して以下のように求める。
depthMap(i,j)=distanceMap(i,j)/distanceCor(i,j)
On the contrary, the conversion performed on the screen image, that is, the conversion from the distance map distanceMap (i, j) to the depth map depthMap (i, j) is obtained for each pixel as follows.
depthMap (i, j) = distanceMap (i, j) / distanceCor (i, j)

ただし、距離マップの濃度値を長さの逆数とする運用の場合、それぞれの変換は以下のように乗算と除算を入れ替えて求めてもよい。
distanceMap(i,j)=depthMap(i,j)/distanceCor(i,j)
depthMap(i,j)=distanceMap(i,j)*distanceCor(i,j)
However, in the case of operation in which the density value of the distance map is the reciprocal of the length, each conversion may be obtained by switching multiplication and division as follows.
distanceMap (i, j) = depthMap (i, j) / distanceCor (i, j)
depthMap (i, j) = distanceMap (i, j) * distanceCor (i, j)

なお、前述のdistanceBase(i,j)の計算は光軸が画像中央で直交する場合の例を示している。光軸が画像中央でない場合、すなわち、水平シフト量shiftXおよび垂直シフト量shiftYを扱う場合、以下のように求めればよい。
distanceBase(i,j)=sqrt((i-width/2-shiftX)^2+(j-height/2-shiftY)^2+depthBase^2)
The above-described calculation of distanceBase (i, j) shows an example in which the optical axes are orthogonal at the center of the image. When the optical axis is not the center of the image, that is, when the horizontal shift amount shiftX and the vertical shift amount shiftY are handled, the following may be obtained.
distanceBase (i, j) = sqrt ((i-width / 2-shiftX) ^ 2 + (j-height / 2-shiftY) ^ 2 + depthBase ^ 2)

次に、図11(a),(b)には、地面及び建造物における奥行き情報を本発明の奥行き情報編集プログラムに従って作画する手順例を示し説明する。図11(a)は作画の様子を示しており、図11(b)は確認の様子を示している。   Next, FIGS. 11A and 11B show an example of a procedure for drawing depth information on the ground and a building in accordance with the depth information editing program of the present invention. FIG. 11A shows the state of drawing, and FIG. 11B shows the state of confirmation.

図11(a)に示されるように、作画の様子では、ドローイング前とドローイング後において、深度マップをグレースケールで表している。ここでは深度マップの濃度値は長さの逆数とし、濃度値が小さくなる(すなわち、深度値が大きく、遠くなる)につれて白色に近づくように表す。   As shown in FIG. 11A, in the state of drawing, the depth map is represented in gray scale before and after drawing. Here, the density value of the depth map is the reciprocal of the length, and is expressed so as to approach white as the density value decreases (that is, the depth value increases and increases).

ただし、深度マップはグレースケールによる表現に限らず、等値線や色相等による表現でもよい。たとえば、深度マップを色相で表し、且つ色情報マップを明度で表すことにより、深度マップと色情報マップを合成して表示してもよい。この場合、作業者は色情報マップで注目したい位置、及びそれに対応する深度マップでの位置を容易に特定できる。   However, the depth map is not limited to the gray scale expression, but may be an isoline, a hue, or the like. For example, the depth map and the color information map may be combined and displayed by expressing the depth map by hue and the color information map by brightness. In this case, the operator can easily specify the position to be noted on the color information map and the position on the corresponding depth map.

図11(a)の例では、作画者は、地面の表現として真下を向いて円を描き、建造物の表現として正面を向いて矩形を1つ、正面左を向いて矩形を1つ描いたものとする。図形はいずれも一定の深度値で塗りつぶしている。1つ目の作画手順におけるドローイング深度値は、任意の値を適用(たとえば、地面に対する視点の高さを1.00と仮定して適用)している。2つ目、及び3つ目の作画手順におけるドローイング深度値は、スクリーン画像の任意の位置からそれぞれ抽出した深度値を適用している。   In the example of FIG. 11 (a), the painter drew a circle facing down as an expression of the ground, and drawn one rectangle facing the front and one rectangle facing the front left as an expression of the building. Shall. All figures are filled with a certain depth value. An arbitrary value is applied as the drawing depth value in the first drawing procedure (for example, the height of the viewpoint with respect to the ground is assumed to be 1.00). As the drawing depth values in the second and third drawing procedures, depth values extracted from arbitrary positions of the screen image are applied.

図11(b)に示されるように、確認の様子では、地面や建造物に関する奥行き情報が3次元平面として連続的に変化し、それらが正確なグラデーションで生成(表示)されることを表している。   As shown in FIG. 11 (b), the confirmation shows that depth information regarding the ground and the building changes continuously as a three-dimensional plane, and that these are generated (displayed) with an accurate gradation. Yes.

以上詳述したように、本発明の一実施形態によれば、全方位画像において、3次元平面や3次元曲面を表す奥行き情報を容易かつ正確に編集することが可能となる。更に、本発明の一実施形態によれば、編集済みの奥行き情報に関係する新たな奥行き情報を容易かつ正確に編集することが可能となる。   As described above in detail, according to an embodiment of the present invention, depth information representing a three-dimensional plane or a three-dimensional curved surface can be easily and accurately edited in an omnidirectional image. Furthermore, according to an embodiment of the present invention, new depth information related to edited depth information can be edited easily and accurately.

1 奥行き情報編集装置
10 パーソナルコンピュータ
11 中央制御部
12 メインメモリ
13 画像制御部
14 入出力制御部
15 内蔵不揮発性記憶媒体
16 メディア読み書きインターフェイス
20 表示装置
30 ポインティング装置
40 全方位画像入力データ
41 全方位画像出力データ
42 方位画素対応付けデータ
50 プログラムデータ
DESCRIPTION OF SYMBOLS 1 Depth information editing apparatus 10 Personal computer 11 Central control part 12 Main memory 13 Image control part 14 Input / output control part 15 Built-in non-volatile storage medium 16 Media read / write interface 20 Display apparatus 30 Pointing apparatus 40 Omnidirectional image input data 41 Omnidirectional image Output data 42 Orientation pixel association data 50 Program data

Claims (22)

ドローイング深度値を入力する手段と、
座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段と、
視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換する手段と、を備えた
奥行き情報編集装置。
Means for entering a drawing depth value;
Means for drawing the drawing depth value in the depth map of the drawing image based on the coordinates;
A depth information editing apparatus comprising: means for converting the depth map of the drawing image into a distance map based on line-of-sight information.
前記視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換するのは、前記ドローイング画像を全方位画像へ投影する前である
請求項1に記載の奥行き情報編集装置。
The depth information editing apparatus according to claim 1, wherein the depth map of the drawing image is converted into a distance map based on the line-of-sight information before the drawing image is projected onto an omnidirectional image.
ドローイング深度値を入力する手段と、
座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段と、
前記ドローイング画像を全方位画像へ投影する際に、全方位画像の画素を更新するタイミングで深度値を距離値に変換する手段と、を備えた
奥行き情報編集装置。
Means for entering a drawing depth value;
Means for drawing the drawing depth value in the depth map of the drawing image based on the coordinates;
A depth information editing device comprising: a unit that converts a depth value into a distance value at a timing at which pixels of the omnidirectional image are updated when the drawing image is projected onto the omnidirectional image.
前記深度値を距離値に変換するタイミングは、前記全方位画像の画素を前記ドローイング画像の画素から算出した後であること
を特徴とする請求項3に記載の奥行き情報編集装置。
The depth information editing apparatus according to claim 3, wherein the depth value is converted into a distance value after the pixels of the omnidirectional image are calculated from the pixels of the drawing image.
視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段と、
座標を基に前記スクリーン画像の前記深度マップからドローイング深度値を抽出する手段と、を備えた
奥行き情報編集装置。
Means for converting a distance map of a screen image into a depth map based on line-of-sight information;
A depth information editing device comprising: means for extracting a drawing depth value from the depth map of the screen image based on coordinates.
前記視線情報を基にスクリーン画像の距離マップを深度マップに変換するのは、全方位画像をスクリーン画像へ投影した後である
請求項5に記載の奥行き情報編集装置。
The depth information editing apparatus according to claim 5, wherein the distance map of the screen image is converted into the depth map based on the line-of-sight information after the omnidirectional image is projected onto the screen image.
全方位画像をスクリーン画像に投影する際、前記スクリーン画像の画像を更新するタイミングで距離値を深度値に変換する手段と、
座標を基に前記スクリーン画像の前記深度値を含む深度マップからドローイング深度値を抽出する手段と、を備えた
奥行き情報編集装置。
Means for converting a distance value into a depth value at a timing of updating the image of the screen image when projecting an omnidirectional image on the screen image;
Means for extracting a drawing depth value from a depth map including the depth value of the screen image based on coordinates; and a depth information editing apparatus.
前記距離値を深度値に変換するタイミングは、前記スクリーン画像の画素を前記全方位画像の画素から算出する前であること
を特徴とする請求項7に記載の奥行き情報編集装置。
The depth information editing apparatus according to claim 7, wherein the timing for converting the distance value into the depth value is before the pixels of the screen image are calculated from the pixels of the omnidirectional image.
操作入力を行う入力手段と、
奥行き情報編集プログラムに基づく所定の動作を行う中央制御手段と、
画像の表示を行う表示手段と、を備え、
前記中央制御手段は、
全方位画像の距離マップを基にした深度マップをスクリーン画像へ描画し、
前記入力手段から座標、ボタン及び数値の少なくともいずれかの入力を受け、
視線変更入力がなされた場合には、入力情報を基に視線情報を更新し、深度値抽出入力がなされた場合には、入力情報による座標を基に、スクリーン画像の画素を抽出し、前記ドローイング深度値として設定し、深度値変更入力がなされた場合には、入力情報による設定値を前記ドローイング深度値として設定し、
ドローイング入力がなされた場合には、入力情報による座標、前記ドローイング深度値およびドローイングパラメータを用いてドローイング画像の画素を更新し、ドローイング画像の深度マップをプレビューとしてスクリーン画像に重畳して、前記表示手段に表示する
奥行き情報編集装置。
Input means for performing operation input;
Central control means for performing a predetermined operation based on the depth information editing program;
Display means for displaying an image,
The central control means includes
Draw a depth map on the screen image based on the distance map of the omnidirectional image,
Receiving at least one of coordinates, buttons and numerical values from the input means;
When the line-of-sight change input is made, the line-of-sight information is updated based on the input information. When the depth value extraction input is made, the screen image pixels are extracted based on the coordinates based on the input information, and the drawing is performed. When the depth value is changed and the depth value change input is made, the setting value by the input information is set as the drawing depth value,
When a drawing input is made, the coordinates of the input information, the drawing depth value and the drawing parameter are used to update the pixel of the drawing image, the depth map of the drawing image is superimposed on the screen image as a preview, and the display means Depth information editing device to be displayed.
前記中央制御手段は、ドローイングを終了する場合には、前記ドローイング画像の深度マップを基にした距離マップを全方位画像へ描画する
請求項9に記載の奥行き情報編集装置。
The depth information editing apparatus according to claim 9, wherein the central control unit draws a distance map based on a depth map of the drawing image in an omnidirectional image when the drawing ends.
視線情報は、視線方向、視野角およびシフト量の少なくともいずれかの情報を含む
請求項1乃至10のいずれかに記載の奥行き情報編集装置。
The depth information editing device according to any one of claims 1 to 10, wherein the line-of-sight information includes at least one of a line-of-sight direction, a viewing angle, and a shift amount.
コンピュータを、
ドローイング深度値を入力する手段と、
座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段と、
前記ドローイング画像を全方位画像へ投影する前に、視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換する手段と、して機能させるための
奥行き情報編集プログラム。
Computer
Means for entering a drawing depth value;
Means for drawing the drawing depth value in the depth map of the drawing image based on the coordinates;
A depth information editing program for functioning as means for converting the depth map of the drawing image into a distance map based on line-of-sight information before projecting the drawing image onto an omnidirectional image.
コンピュータを、
全方位画像をスクリーン画像へ投影した後に視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段と、
座標を基に前記スクリーン画像の前記深度マップからドローイング深度値を抽出する手段と、して機能させるための
奥行き情報編集プログラム。
Computer
Means for projecting an omnidirectional image onto a screen image and converting a distance map of the screen image into a depth map based on line-of-sight information;
A depth information editing program for functioning as means for extracting a drawing depth value from the depth map of the screen image based on coordinates.
視線情報は、視線方向、視野角およびシフト量の少なくともいずれかの情報を含む
請求項12又は13に記載の奥行き情報編集プログラム。
The depth information editing program according to claim 12 or 13, wherein the line-of-sight information includes at least one of a line-of-sight direction, a viewing angle, and a shift amount.
コンピュータを、
全方位画像の距離マップを基にした深度マップをスクリーン画像へ描画し、
入力装置から座標、ボタン及び数値の少なくともいずれかの入力を受け、
視線変更入力がなされた場合には、入力情報を基に視線方向、視野角およびシフト量を更新し、深度値抽出入力がなされた場合には、入力情報による座標を基に、スクリーン画像の画素を抽出し、前記ドローイング深度値として設定し、深度値変更入力がなされた場合には、入力情報による設定値を前記ドローイング深度値として設定し、
ドローイング入力がなされた場合には、入力情報による座標、前記ドローイング深度値およびドローイングパラメータを用いてドローイング画像の画素を更新し、ドローイング画像の深度マップをプレビューとしてスクリーン画像に重畳して、表示装置に表示する、中央制御手段として機能させるための
奥行き情報編集プログラム。
Computer
Draw a depth map on the screen image based on the distance map of the omnidirectional image,
Receive at least one of coordinates, buttons and numerical values from the input device,
When a line-of-sight change input is made, the line-of-sight direction, the viewing angle and the shift amount are updated based on the input information. When a depth value extraction input is made, the pixel of the screen image is based on the coordinates based on the input information. Is extracted and set as the drawing depth value.When a depth value change input is made, a setting value based on input information is set as the drawing depth value.
When a drawing input is made, the pixel of the drawing image is updated using the coordinates based on the input information, the drawing depth value, and the drawing parameter, and the depth map of the drawing image is superimposed on the screen image as a preview and is displayed on the display device. Depth information editing program to display and function as a central control means.
前記中央制御手段は、ドローイングを終了する場合には、前記ドローイング画像の深度マップを基にした距離マップを全方位画像へ描画する
請求項15に記載の奥行き情報編集プログラム。
The depth information editing program according to claim 15, wherein the central control unit draws a distance map based on a depth map of the drawing image in an omnidirectional image when the drawing ends.
ドローイング深度値を入力するステップと、
座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込むステップと、
前記ドローイング画像を全方位画像へ投影する前に、視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換するステップと、を有する
奥行き情報編集方法。
Entering a drawing depth value;
Drawing the drawing depth value into the depth map of the drawing image based on the coordinates;
Converting the depth map of the drawing image into a distance map based on line-of-sight information before projecting the drawing image onto an omnidirectional image.
全方位画像をスクリーン画像へ投影した後に視線情報を基にスクリーン画像の距離マップを深度マップに変換するステップと、
座標を基に前記スクリーン画像の前記深度マップからドローイング深度値を抽出するステップと、を有する
奥行き情報編集方法。
Transforming the distance map of the screen image into a depth map based on the line-of-sight information after projecting the omnidirectional image onto the screen image;
Extracting a drawing depth value from the depth map of the screen image based on coordinates; and a depth information editing method.
コンピュータを、
ドローイング深度値を入力する手段、
座標を基に前記ドローイング深度値をドローイング画像の深度マップに描き込む手段、
前記ドローイング画像を全方位画像へ投影する前に、視線情報を基に前記ドローイング画像の前記深度マップを距離マップに変換する手段、として機能させるための奥行き情報編集プログラムを記録した
コンピュータ読み取り可能な記録媒体。
Computer
Means for entering the drawing depth value,
Means for drawing the drawing depth value into a depth map of a drawing image based on coordinates;
Before projecting the drawing image onto an omnidirectional image, a computer-readable recording that records a depth information editing program for functioning as means for converting the depth map of the drawing image into a distance map based on line-of-sight information Medium.
コンピュータを、
全方位画像をスクリーン画像へ投影した後に視線情報を基にスクリーン画像の距離マップを深度マップに変換する手段、
座標を基に前記スクリーン画像の前記深度マップからドローイング深度値を抽出する手段、として機能させるための奥行き情報編集プログラムを記録した
コンピュータ読み取り可能な記録媒体。
Computer
Means for converting a distance map of a screen image into a depth map based on line-of-sight information after projecting an omnidirectional image onto the screen image;
A computer-readable recording medium recording a depth information editing program for functioning as a means for extracting a drawing depth value from the depth map of the screen image based on coordinates.
コンピュータを、
全方位画像の距離マップを基にした深度マップをスクリーン画像へ描画し、
入力装置から座標、ボタン及び数値の少なくともいずれかの入力を受け、
視線変更入力がなされた場合には、入力情報を基に視線方向、視野角およびシフト量を更新し、深度値抽出入力がなされた場合には、入力情報による座標を基に、スクリーン画像の画素を抽出し、前記ドローイング深度値として設定し、深度値変更入力がなされた場合には、入力情報による設定値を前記ドローイング深度値として設定し、
ドローイング入力がなされた場合には、入力情報による座標、前記ドローイング深度値およびドローイングパラメータを用いてドローイング画像の画素を更新し、ドローイング画像の深度マップをプレビューとしてスクリーン画像に重畳して、表示装置に表示する、中央制御手段として機能させるための奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体。
Computer
Draw a depth map on the screen image based on the distance map of the omnidirectional image,
Receive at least one of coordinates, buttons and numerical values from the input device,
When a line-of-sight change input is made, the line-of-sight direction, the viewing angle and the shift amount are updated based on the input information. When a depth value extraction input is made, the pixel of the screen image is based on the coordinates based on the input information. Is extracted and set as the drawing depth value.When a depth value change input is made, a setting value based on input information is set as the drawing depth value.
When a drawing input is made, the pixel of the drawing image is updated using the coordinates based on the input information, the drawing depth value, and the drawing parameter, and the depth map of the drawing image is superimposed on the screen image as a preview and is displayed on the display device. A computer-readable recording medium on which a depth information editing program for displaying and functioning as central control means is recorded.
前記中央制御手段は、ドローイングを終了する場合には、前記ドローイング画像の深度マップを基にした距離マップを全方位画像へ描画する
請求項21に記載の奥行き情報編集プログラムを記録したコンピュータ読み取り可能な記録媒体。
The central control means, when finishing drawing, draws a distance map based on a depth map of the drawing image on an omnidirectional image, and the computer can read the depth information editing program according to claim 21. recoding media.
JP2015552205A 2013-12-12 2013-12-12 Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program Active JP6344619B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/007311 WO2015087368A1 (en) 2013-12-12 2013-12-12 Depth information editing device, depth information editing method, depth information editing program, and computer-readable storage means storing depth information editing program

Publications (2)

Publication Number Publication Date
JPWO2015087368A1 true JPWO2015087368A1 (en) 2017-03-16
JP6344619B2 JP6344619B2 (en) 2018-06-20

Family

ID=53370717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552205A Active JP6344619B2 (en) 2013-12-12 2013-12-12 Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program

Country Status (2)

Country Link
JP (1) JP6344619B2 (en)
WO (1) WO2015087368A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147303A1 (en) * 2011-04-25 2012-11-01 Hayashi Mitsuo Omnidirectional image editing program and omnidirectional image editing device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147303A1 (en) * 2011-04-25 2012-11-01 Hayashi Mitsuo Omnidirectional image editing program and omnidirectional image editing device

Also Published As

Publication number Publication date
JP6344619B2 (en) 2018-06-20
WO2015087368A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
JP5896424B2 (en) Omnidirectional image editing program and omnidirectional image editing apparatus
EP3321889A1 (en) Device and method for generating and displaying 3d map
US9202309B2 (en) Methods and apparatus for digital stereo drawing
JP5299173B2 (en) Image processing apparatus, image processing method, and program
US20080246760A1 (en) Method and apparatus for mapping texture onto 3-dimensional object model
CN107886561A (en) Storage scheduling and display methods based on scene of a crime cloud data
US10614633B2 (en) Projecting a two-dimensional image onto a three-dimensional graphical object
US11651556B2 (en) Virtual exhibition space providing method for efficient data management
US11250643B2 (en) Method of providing virtual exhibition space using 2.5-dimensionalization
US20180075880A1 (en) Video generation device, video generation program, and video generation method
JPH06222899A (en) Multiwindow display system
JP6344619B2 (en) Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program
US7064767B2 (en) Image solution processing method, processing apparatus, and program
CN108171784B (en) Rendering method and terminal
KR101227155B1 (en) Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image
CN114820980A (en) Three-dimensional reconstruction method and device, electronic equipment and readable storage medium
WO2020173222A1 (en) Object virtualization processing method and device, electronic device and storage medium
JP2016115148A (en) Information processing apparatus, information processing system, information processing method, and program
JP2020013390A (en) Information processing apparatus, information processing program, and information processing method
JP2000137834A (en) Device and method for generating composite moving picture
JP2013201697A (en) Depth creation support device, depth creation support method, and program
JP2005208867A (en) Three-dimensional computer graphics modeling system
CN112750188B (en) Method and terminal for automatically rendering object
JP2002312810A (en) Device and method for generating composite moving image
JP2002245486A (en) Device, method and program for three-dimensional model generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180509

R150 Certificate of patent or registration of utility model

Ref document number: 6344619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250