JP2015103960A - Method, program and apparatus for specifying image depth - Google Patents

Method, program and apparatus for specifying image depth Download PDF

Info

Publication number
JP2015103960A
JP2015103960A JP2013243018A JP2013243018A JP2015103960A JP 2015103960 A JP2015103960 A JP 2015103960A JP 2013243018 A JP2013243018 A JP 2013243018A JP 2013243018 A JP2013243018 A JP 2013243018A JP 2015103960 A JP2015103960 A JP 2015103960A
Authority
JP
Japan
Prior art keywords
image
depth
input image
user
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013243018A
Other languages
Japanese (ja)
Inventor
浩一 中込
Koichi Nakagome
浩一 中込
松永 和久
Kazuhisa Matsunaga
和久 松永
雅行 広浜
Masayuki Hirohama
雅行 広浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013243018A priority Critical patent/JP2015103960A/en
Publication of JP2015103960A publication Critical patent/JP2015103960A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image depth specification technique for image processing, enabling depth of an image to be more easily specified.SOLUTION: A division degree specification part 101 causes a user to specify a division degree of an input image 120. An image division part 102 divides the input image into a plurality of divided regions by the division degree specified by the user. An image display part 103 displays the divided input image 120. A depth specification part 104 causes the user to specify depth while causing the user to select a divided region on the displayed input image 120. An inclination specification part 105 causes the user to specify a horizontal inclination and a vertical inclination of the displayed input image 120. An image processing part 106 adds the horizontal and vertical inclinations specified by the user and a depth effect corresponding to the depth of the divided region unit specified by the user to the input image 120 and causes the image display part 103 to display the processed input image again.

Description

本発明は、立体感のある画像を扱う画像処理のための画像奥行きの指定方法、プログラム、および装置に関する。   The present invention relates to an image depth designation method, program, and apparatus for image processing that handles a three-dimensional image.

2次元の絵や写真(以下これを「2D画像」と呼ぶ)などから3次元的な立体感のある画像(以下これを「3D画像」と呼ぶ)を生成する技術がある。
3D画像を製作するには大きく2つの方法があり、2台のカメラを用いて右眼画像と左眼画像を同時に撮影する方法と、1台のカメラで撮影された2D画像を後に編集して視差画像を生成する方法がある。本発明は後者の方法に関するものであり、2D3D変換技術に関するものである。
There is a technique for generating a three-dimensional image (hereinafter referred to as “3D image”) from a two-dimensional picture or photograph (hereinafter referred to as “2D image”).
There are two main methods for producing a 3D image. A method for simultaneously capturing a right-eye image and a left-eye image using two cameras, and a later editing of a 2D image captured by one camera. There is a method for generating a parallax image. The present invention relates to the latter method, and to 2D3D conversion technology.

2次元画像から3Dモデルを構築する問題は、コンピュータビジョンの文献で非常に大きな注目を受けてきた。この概要については、Kutulakos等著「A theory of shape by space carving」Intl. Journal of Computer Vision Vol.38:3, pp.199−218,2000に記載されている。   The problem of building 3D models from 2D images has received a great deal of attention in the computer vision literature. For an overview, see “A theory of shape by space carving” Intl. Journal of Computer Vision Vol. 38: 3, pp. 199-218, 2000.

ほとんどの従来技術のコンピュータビジョンの方法は、ユーザがほとんど又はまったく介入することなく、シーンを自動的に復元することに重点を置いてきた。その結果、コンピュータビジョンの方法は、シーンの幾何学的配列および反射率について事前に仮定を行う。これらの仮定は、正しくないことが多い。   Most prior art computer vision methods have focused on automatically restoring the scene with little or no user intervention. As a result, computer vision methods make prior assumptions about scene geometry and reflectivity. These assumptions are often incorrect.

従って2D画像から自動的にユーザの希望する3D画像を生成することは難しいため、ユーザが変換過程を見ながらコンピュータに順次指示を与えていくことが一般的である。   Therefore, since it is difficult to automatically generate a 3D image desired by the user from the 2D image, it is general that the user sequentially gives instructions to the computer while watching the conversion process.

3D画像を生成する際に必要な技術として、セグメント化と奥行き(レイヤー、デプスともいう)がある。   As a technique necessary for generating a 3D image, there are segmentation and depth (also referred to as layer or depth).

3D画像を生成する際のセグメント化には、スーパーピクセルのセグメント化を行う手法がある。スーパーピクセルとは、一般にデジタル画像において、単一のピクセルよりも大きな多角形ピクセルラスタであり、同じ色及び明るさでレンダリングすることができる。スーパーピクセルを3D構築に用いる主な利点は、計算効率の向上であり、スーパーピクセル表現はピクセル表現と比較して必要とされる画像プリミティブの数を大幅に削減する。   For segmentation when generating a 3D image, there is a technique of segmenting superpixels. A superpixel is a polygon pixel raster that is generally larger than a single pixel in a digital image and can be rendered with the same color and brightness. The main advantage of using superpixels for 3D construction is increased computational efficiency, and the superpixel representation significantly reduces the number of image primitives required compared to the pixel representation.

スーパーピクセルのセグメント化を3D画像生成に応用とした例として、クラスタリング目的関数を用いて、画像をスーパーピクセルにセグメント化する技術が知られている(例えば特許文献1に記載の技術)。この目的関数は、2つの構成要素、すなわち、ランダムウォークのエントロピーレート(entropy rate of random walk)と、バランス関数(balancing function)とを含む。エントロピーレートは、コンパクトで一様な(homogeneous)クラスタを形成する一方、バランス関数は、同様のサイズを有するクラスタを生成する。クラスタリングについて、データ点(data point)が頂点に対応し、ペアワイズ類似度(pair−wise similarities)が枝重み(edge weights)に対応するグラフを構築する。マトロイド制約を条件として、目的関数を最大にすることによってグラフを分割する。   As an example in which segmentation of superpixels is applied to 3D image generation, a technique for segmenting an image into superpixels using a clustering objective function is known (for example, a technique described in Patent Document 1). This objective function includes two components: an entropy rate of random walk and a balancing function. The entropy rate forms a compact, homogenous cluster, while the balance function produces clusters with a similar size. For clustering, a graph is constructed in which data points correspond to vertices and pair-wise similarities correspond to edge weights. Divide the graph by maximizing the objective function, subject to matroid constraints.

また、奥行きに関して、以下の技術が知られている(例えば特許文献2に記載の技術)。この技術では、3次元テレビジョン(3DTV)や自由視点映像(FVV)など、新たな映像の応用を促進するために、従来の2D映像と奥行きマップの両方を含む3D映像(3DV)データ・フォーマットを利用して、ユーザ・エンドで追加ビューを描画することができるようにすることができる。このような3DVフォーマットの例としては、2次元(2D)映像とそれに対応する奥行きマップとを含む、2Dプラス・デプス(2D+Z)や、2D+Zと隠蔽(occlusion)映像に隠蔽奥行きを加えたものとを含む、レイヤ・デプス・ビデオ(Layered Depth Video)(LDV)などがある。一般的な態様によれば、3次元映像(3DV)レイヤ間のレイヤ間依存関係構造を示すシンタックス要素が生成される。上記レイヤ間依存関係構造に基づいて、上記3DVレイヤのうちのレイヤから、ピクチャについてのレイヤ間参照が識別される。上記ピクチャは、少なくとも部分的には上記レイヤ間参照に基づいて、符号化される。   Further, regarding the depth, the following technique is known (for example, the technique described in Patent Document 2). This technology uses a conventional 3D video (3DV) data format that includes both 2D video and depth maps to facilitate new video applications such as 3D television (3DTV) and free-viewpoint video (FVV). Can be used to allow additional views to be rendered at the user end. Examples of such a 3DV format include 2D plus depth (2D + Z) including 2D (2D) video and a corresponding depth map, and 2D + Z and occlusion video with concealment depth added. Layered Depth Video (LDV) and the like. According to a general aspect, a syntax element indicating an inter-layer dependency structure between 3D video (3DV) layers is generated. Based on the inter-layer dependency structure, an inter-layer reference for a picture is identified from the layers of the 3DV layers. The picture is encoded based at least in part on the inter-layer reference.

更に奥行き(デプス)に関して、以下の技術が知られている(例えば特許文献3に記載の技術)、この技術は、2D画像から3D画像を生成する際に、製作者の手間を軽減しつつ高品質な3D画像を生成できる技術を提供ことを目的とするものであり、入力画像とデプスモデルをもとに、前記入力画像のデプスマップを生成するステップと、生成されたデプスマップを加工するステップと、前記入力画像、及び加工されたデプスマップをもとに、別視点の画像を生成するステップと、を備える。前記デプスマップを加工するステップは、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに、前記デプスマップのゲインを個別にグラデーション処理する。   Further, regarding the depth (depth), the following technique is known (for example, the technique described in Patent Document 3). This technique reduces the time and effort of the producer when generating a 3D image from a 2D image. An object of the present invention is to provide a technology capable of generating a quality 3D image, a step of generating a depth map of the input image based on the input image and a depth model, and a step of processing the generated depth map And generating an image of another viewpoint based on the input image and the processed depth map. In the step of processing the depth map, the gain of the depth map is individually subjected to gradation processing for each of a plurality of areas in the screen designated by a plurality of mask patterns set externally.

特開2012−234528号公報JP 2012-234528 A 特表2012−525769号公報Special table 2012-525769 gazette 特開2013−156957号公報JP 2013-156957 A

しかしながら、上述の従来技術は、分割度の理論と奥行き(レイヤー構造)の理論を説明しているだけで、具体的なユーザインタフェースは示されていない。   However, the above-described conventional technology only explains the theory of the degree of division and the theory of depth (layer structure), and does not show a specific user interface.

さらに従来は、手動指定にて分割度や奥行きを指定するインタフェースがなかった。   Further, conventionally, there has been no interface for designating the degree of division and depth by manual designation.

本発明は、画像の奥行きを簡単に指定可能とすることを目的とする。   An object of the present invention is to make it possible to easily specify the depth of an image.

態様の一例では、2次元の入力画像から3次元的な出力画像を生成するために入力画像上で奥行きを指定するための方法であって、入力画像を複数の分割領域に分割する画像分割ステップと、その分割された入力画像を表示する画像表示ステップと、表示された入力画像上で、ユーザに分割領域を選択させながら奥行きを指定させる奥行き指定ステップと、をコンピュータに実行させる。   In one example, a method for designating a depth on an input image to generate a three-dimensional output image from the two-dimensional input image, the image dividing step of dividing the input image into a plurality of divided regions And an image display step for displaying the divided input image and a depth designation step for allowing the user to designate a depth while selecting a divided area on the displayed input image.

本発明によれば、画像の奥行きを簡単に指定することが可能となる。   According to the present invention, it is possible to easily specify the depth of an image.

本発明の一実施形態の機能ブロック図である。It is a functional block diagram of one embodiment of the present invention. 本発明の一実施形態を実現可能なコンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the computer which can implement | achieve one Embodiment of this invention. 本発明の一実施形態のユーザインタフェース例を示す図である。It is a figure which shows the example of a user interface of one Embodiment of this invention. 本発明の一実施形態の動作説明図(その1)である。It is operation | movement explanatory drawing (the 1) of one Embodiment of this invention. 本発明の一実施形態の動作説明図(その2)である。It is operation | movement explanatory drawing (the 2) of one Embodiment of this invention. 本発明の一実施形態の動作説明図(その3)である。It is operation | movement explanatory drawing (the 3) of one Embodiment of this invention.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、本発明の一実施形態の機能ブロック図である。本実施形態は、2次元の入力画像120から3次元的な出力画像130を生成するために、入力画像120上で奥行きを指定するための奥行き指定装置100である。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of an embodiment of the present invention. The present embodiment is a depth designation device 100 for designating a depth on an input image 120 in order to generate a three-dimensional output image 130 from the two-dimensional input image 120.

分割度指定部101は、ユーザに入力画像120の分割度を指定させる。   The division degree designation unit 101 allows the user to designate the division degree of the input image 120.

画像分割部102は、ユーザが指定した分割度で入力画像を複数の分割領域に分割する。複数の分割領域は、例えばスーパーピクセルのセグメント化処理によって算出される。   The image dividing unit 102 divides the input image into a plurality of divided regions with a degree of division designated by the user. The plurality of divided regions are calculated by, for example, superpixel segmentation processing.

画像表示部103は、分割された入力画像120を表示する。   The image display unit 103 displays the divided input image 120.

奥行き指定部104は、表示された入力画像120上で、ユーザに分割領域を選択させながら奥行きを指定させる。   The depth designation unit 104 causes the user to designate a depth on the displayed input image 120 while allowing the user to select a divided area.

傾き指定部105は、ユーザに表示された入力画像120に対して、例えば水平方向の傾きと垂直方向の傾きを、例えばスライドバーによって指定させる。   The tilt designation unit 105 causes the input image 120 displayed to the user to designate, for example, a horizontal tilt and a vertical tilt using, for example, a slide bar.

画像加工部106は、入力画像120に、ユーザが指定した傾き、例えば水平方向の傾きと垂直方向の傾きと、ユーザが指定した分割領域単位の奥行きに対応する奥行き効果を付加し、画像表示部103で表示させる。画像加工部106で3D画像130を作成する。本実施形態は、2Dから3D画像を作成する際の画像の奥行きを指定するためのユーザインタフェースの方法を示すものであるので、3D画像の作成方法そのものについては説明を省略している。   The image processing unit 106 adds, to the input image 120, a tilt effect specified by the user, for example, a horizontal tilt and a vertical tilt, and a depth effect corresponding to the depth in units of divided areas specified by the user. 103. A 3D image 130 is created by the image processing unit 106. Since this embodiment shows a user interface method for designating the depth of an image when creating a 3D image from 2D, the description of the 3D image creation method itself is omitted.

図2は、本発明の一実施形態を実現可能なコンピュータのハードウェア構成例を示す図である。   FIG. 2 is a diagram illustrating a hardware configuration example of a computer capable of realizing one embodiment of the present invention.

図2に示されるコンピュータは、CPU201、ROM(Read Only Memory:読出し専用メモリ)202、RAM(Random Access Memory)203、入力装置204、出力装置205、外部記憶装置206、通信インタフェース207、および可搬記録媒体209が挿入される可搬記録媒体駆動装置208を有し、これらがバス210によって相互に接続された構成を有する。同図に示される構成は上記システムを実現できるコンピュータの一例であり、そのようなコンピュータはこの構成に限定されるものではない。   2 includes a CPU 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an input device 204, an output device 205, an external storage device 206, a communication interface 207, and a portable device. A portable recording medium driving device 208 into which the recording medium 209 is inserted is included, and these are connected to each other by a bus 210. The configuration shown in the figure is an example of a computer that can implement the above system, and such a computer is not limited to this configuration.

CPU201は、当該コンピュータ全体の制御を行う。ROM202は、奥行き指定処理プログラムが格納される記憶装置である。RAM203は、上記プログラムの実行、画像データの更新等の際に、上記プログラム又はデータを一時的に格納する読み書き可能メモリである。CUP201は、プログラムをROM202または外部記憶装置407からRAM203に読み出して実行することにより、本実施形態の奥行き指定装置100の全体の制御を行う。   The CPU 201 controls the entire computer. The ROM 202 is a storage device that stores a depth designation processing program. A RAM 203 is a readable / writable memory that temporarily stores the program or data when executing the program or updating image data. The CUP 201 performs overall control of the depth designation device 100 of the present embodiment by reading the program from the ROM 202 or the external storage device 407 to the RAM 203 and executing it.

入力装置204は、ユーザによるキーボードやマウス等による入力操作を検出し、その検出結果をCPU201に通知する。ユーザは、入力装置404を用いて、後述する奥行き指定等を行う。   The input device 204 detects an input operation by a user using a keyboard, a mouse, or the like, and notifies the CPU 201 of the detection result. The user uses the input device 404 to perform depth designation, which will be described later.

出力装置205は、CPU201の制御によって、外部記憶装置206中の入力画像120や出力画像130を、ディスプレイ表示装置や印刷装置に出力する。   The output device 205 outputs the input image 120 and the output image 130 in the external storage device 206 to a display display device and a printing device under the control of the CPU 201.

外部記憶装置206は、例えばハードディスク記憶装置であり、入力画像120や出力画像130、その他各種データの保存に用いられる。   The external storage device 206 is, for example, a hard disk storage device, and is used for storing the input image 120, the output image 130, and other various data.

可搬記録媒体駆動装置208は、光ディスクやSDRAM、コンパクトフラッシュ等の可搬記録媒体209を収容するもので、外部記憶装置206の補助の役割を有する。   The portable recording medium driving device 208 accommodates a portable recording medium 209 such as an optical disk, SDRAM, or compact flash, and has an auxiliary role for the external storage device 206.

通信インタフェース207は、例えばLAN(ローカルエリアネットワーク)又はWAN(ワイドエリアネットワーク)の通信回線を接続するための装置である。   The communication interface 207 is a device for connecting a communication line of, for example, a LAN (local area network) or a WAN (wide area network).

本実施形態によるシステムは、図1の各機能部の機能を搭載したプログラムをCPU201が実行することで実現される。そのプログラムは、例えば外部記憶装置206や可搬記録媒体209に記録して配布してもよく、或いはネットワーク接続装置207によりネットワークから取得できるようにしてもよい。   The system according to the present embodiment is realized by the CPU 201 executing a program in which the functions of the functional units in FIG. 1 are installed. The program may be recorded and distributed in, for example, the external storage device 206 or the portable recording medium 209, or may be acquired from the network by the network connection device 207.

本実施形態における奥行き指定処理の詳細について、図1および図2の構成図と、図3のユーザインタフェースを示す図、および図4から図6の動作説明図に従って、以下に順次説明する。なお、随時図1または図2の各部分を参照するものとする。   Details of the depth designation processing in the present embodiment will be sequentially described below in accordance with the configuration diagram of FIGS. 1 and 2, the diagram showing the user interface of FIG. 3, and the operation explanatory diagrams of FIGS. 4 to 6. It should be noted that each part of FIG. 1 or FIG.

図3は、図2の入力装置204および出力装置205を構成する本実施形態のユーザインタフェース例を示す図である。本実施形態のユーザインタフェースは、画像表示部1、3D画像表示時の水平角を決定するスライドバー2、3D画像表示時の垂直角を決定するスライドバー3、画像の分割度(分割領域数)を指示するスライドバー4、面選択5から構成されている。   FIG. 3 is a diagram showing an example of a user interface according to the present embodiment that constitutes the input device 204 and the output device 205 of FIG. The user interface of the present embodiment includes an image display unit 1, a slide bar 2 that determines a horizontal angle when displaying a 3D image, a slide bar 3 that determines a vertical angle when displaying a 3D image, and the degree of image division (number of divided areas). Is composed of a slide bar 4 and a surface selection 5.

ユーザが3D化をしたい入力画像120を選択した直後の初期状態が、図3である。このとき、画像表示部1には、選択された2D画像である入力画像120が表示されている。   FIG. 3 shows an initial state immediately after the user selects the input image 120 to be converted to 3D. At this time, the input image 120 which is the selected 2D image is displayed on the image display unit 1.

ユーザが、分割度指示バー4を右へ移動させると、CPU201は、画像分割部102の機能処理を実行する。その結果、図4(a)に示されるように、画像表示部1に表示された入力画像120に対して、白い分割線6によって複数に分割された分割領域が表示される。分割度指示バー4において、左端は分割数=1を指定し、右端は分割数=500程度(最終的には1ピクセル単位でもよい)を指定する。画像分割部102による領域分割処理の機能としては、例えば特許文献1に記載のスーパーピクセルのセグメント化処理の手法を用いてよい。スーパーピクセルは個々の画素のRGB画素値等に基づいた分割手法で、個々の画素と比べて大域的な特徴をもつ。あるいは、画像分割部102の機能としては、下記文献に記載のGraph Cuts法を用いて領域分割を行ってもよい。   When the user moves the division degree instruction bar 4 to the right, the CPU 201 executes functional processing of the image dividing unit 102. As a result, as shown in FIG. 4A, a divided region divided into a plurality of white dividing lines 6 is displayed on the input image 120 displayed on the image display unit 1. In the division degree instruction bar 4, the left end designates the number of divisions = 1, and the right end designates the number of divisions = about 500 (which may ultimately be in units of one pixel). As a function of the region division processing by the image dividing unit 102, for example, a superpixel segmentation method described in Patent Document 1 may be used. A super pixel is a division method based on RGB pixel values of individual pixels, and has global features compared to individual pixels. Alternatively, as the function of the image dividing unit 102, region division may be performed using the Graph Cuts method described in the following document.

Y.Boykov and G.Funka−Lea:“Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N−D Images”,Proceedings of “Internation Conference on Computer Vision”,Vancouver,Canada,vol.I,p.105−112,July 2001.   Y. Boykov and G. Funka-Lea: “Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in ND Images”, Proceedings of “Interference Convence CV”. I, p. 105-112, July 2001.

スライドバー2および3は、図1の傾き指定部105の機能を実現する。ユーザが、水平角を決定するスライドバー2を操作すると、CPU201は、図1の画像加工部106の機能処理を実行する。この結果、入力画像120が、斜め左または右から見た状態にされて、図4(b)に例示されるように画像表示部1に表示される。スライドバー2は、中心が傾き角0、片方に移動させるとその移動量に応じて表示画像の傾き角が変化する。図4(b)では、ある程度右に傾けられた状態が表示されている。スライドバー2をより右に動かせば、より右に傾いた画像が表示される。垂直角を決定するスライドバー3は、水平角を決定するスライドバー2と同様に、CPU201が画像加工部106の機能処理を実行することにより、入力画像120が、斜め上または下から見た状態にされて、画像表示部1に表示される入力画像120の垂直傾き角を制御する。この傾きは、水平方向・垂直方向だけでなく、ぐるっと回転させて見えるようにしてもよい。   The slide bars 2 and 3 realize the function of the inclination specifying unit 105 in FIG. When the user operates the slide bar 2 for determining the horizontal angle, the CPU 201 executes functional processing of the image processing unit 106 in FIG. As a result, the input image 120 is viewed obliquely from the left or right and displayed on the image display unit 1 as illustrated in FIG. 4B. When the slide bar 2 is moved to one side with an inclination angle of 0, the inclination angle of the display image changes according to the amount of movement. In FIG. 4B, a state tilted to the right to some extent is displayed. If the slide bar 2 is moved to the right, an image tilted to the right is displayed. Similarly to the slide bar 2 that determines the horizontal angle, the slide bar 3 that determines the vertical angle is a state in which the input image 120 is viewed obliquely from above or below by the CPU 201 executing the function processing of the image processing unit 106. The vertical tilt angle of the input image 120 displayed on the image display unit 1 is controlled. This inclination may be seen not only in the horizontal direction and the vertical direction but also by rotating around.

ユーザが、面選択5で面番号を選択すると、CPU201は、図5(a)に例示されるように、カーソル7を表示する。面選択の番号は、その面に割り当てられる画像の奥行きを決定し、その番号が大きいほど手前側の面、番号が小さいほど奥側の面が指定される。一般に、背景用の画像は奥側、人物等の画像は手前側の面に割り当てられる。カーソル7は、選択された面番号や、分割度指示バー4の状態によって、色や大きさが変化する。例えば、分割数が多いほど細くなり、面番号に対応して異なる色が割り当てられている。図5(a)では、5面が選択可能となっており、面番号3が選択された状態が示されている。この状態におけるカーソル7は、太さが選択された分割数に応じた中間ぐらいの太さ、色は面番号3に割り当てられた灰色で、表示されている。   When the user selects a face number by face selection 5, the CPU 201 displays the cursor 7 as illustrated in FIG. The surface selection number determines the depth of the image assigned to the surface. The larger the number, the closer the front surface, and the smaller the number, the deeper surface is designated. In general, a background image is assigned to the back side, and an image of a person or the like is assigned to the front side. The color and size of the cursor 7 change depending on the selected surface number and the state of the division degree instruction bar 4. For example, the smaller the number of divisions, the smaller the color, and different colors are assigned corresponding to the surface numbers. FIG. 5A shows a state in which five faces can be selected and face number 3 is selected. The cursor 7 in this state is displayed in a middle thickness corresponding to the selected division number and a gray color assigned to the surface number 3.

上述のカーソル7が表示された状態で、ユーザは、マウス等によってカーソル7を分割領域上でドラッグ移動させることができる。カーソル7がドラッグ移動された分割領域には、図5(b)に示されるように、カーソル7の色と同じ色の軌跡が表示される。カーソル7で分割領域を指定することにより、指定された各分割領域の奥行きを等しくする。   In a state where the cursor 7 is displayed, the user can drag the cursor 7 on the divided area with a mouse or the like. In the divided area where the cursor 7 is dragged, a locus of the same color as the color of the cursor 7 is displayed as shown in FIG. By designating divided areas with the cursor 7, the depths of the designated divided areas are made equal.

上述した面選択5のユーザインタフェースとドラッグ可能なカーソル7のユーザインタフェースは、図1の奥行き指定部100の機能を実現する。   The user interface for the surface selection 5 and the user interface for the draggable cursor 7 described above realize the function of the depth designation unit 100 in FIG.

以上のようにして、面選択5で選択された面番号に対応する奥行きで、カーソル7のドラッグ移動により分割領域が指定されると、CPU201は、図1の画像加工部106の機能処理を実行することにより、入力画像120に対して、ユーザが指定した分割領域に対して、ユーザが指定した面番号(奥行き)に対応する奥行き効果を付加し、画像表示部1に表示する。この結果、ユーザが指定した分割領域は、飛び出すように画像表示部1に表示される。図5(b)では、ユーザが、カーソル7を、8の軌跡に従って、人間の顔の付近の分割領域上をドラッグ移動させた状態が示されている。また、飛び出す処理が行われた場合には、軌跡8の左側に立体の断面が表示される。この断面は、カーソル7の色と同じ色で表示されることで、現在選択されている面番号をユーザが把握しやすくできる。これにより、指定された領域を視覚的に目立たせるために斜め方向からの3D画像を表示することができる効果が得られる。   As described above, when the divided area is designated by the drag movement of the cursor 7 at the depth corresponding to the surface number selected by the surface selection 5, the CPU 201 executes the function processing of the image processing unit 106 in FIG. As a result, a depth effect corresponding to the face number (depth) specified by the user is added to the divided area specified by the user to the input image 120 and displayed on the image display unit 1. As a result, the divided area designated by the user is displayed on the image display unit 1 so as to pop out. FIG. 5B shows a state in which the user drags the cursor 7 on the divided area near the human face according to the locus 8. In addition, when the pop-out process is performed, a three-dimensional cross section is displayed on the left side of the locus 8. This cross section is displayed in the same color as the color of the cursor 7 so that the user can easily grasp the currently selected surface number. Thereby, in order to make the designated area visually conspicuous, an effect that a 3D image from an oblique direction can be displayed is obtained.

図6(a)は、面選択5で面番号5が選択され、かつ分割度指示バー4で分割数がより細かく指定された状態が示されている。分割数が細かくなっているので、黒色の矢印で示されるカーソルが、細くなっている。細かい分割領域のドラッグには細いカーソルで微細に、大きい分割領域のドラッグには太いカーソルでおおざっぱに、ドラッグ移動が行いやすいように制御される。第5面の面番号が選択されているので、カーソル色は第5面に割り当てられた色に制御される。図6(b)には、カーソルがドラッグ移動させられた後の状態が示されている。人物の肩部分の黒色の細い軌跡が、カーソルがドラッグ移動された部分である。   FIG. 6A shows a state where the surface number 5 is selected by the surface selection 5 and the number of divisions is specified more finely by the division degree instruction bar 4. Since the number of divisions is fine, the cursor indicated by the black arrow is thin. It is controlled so that it can be easily moved by dragging a fine divided area with a thin cursor, and roughly dragging a large divided area with a thick cursor. Since the surface number of the fifth surface is selected, the cursor color is controlled to the color assigned to the fifth surface. FIG. 6B shows a state after the cursor is dragged. The thin black locus on the shoulder portion of the person is the portion where the cursor has been dragged.

以上の作業をユーザが繰り返すことにより、3D画像を生成することが可能となる。本実施形態では、2次元の表示画面上に3次元風に3D画像を表示させているが、3D画像は実際に奥行きデータを持っているので、これを3Dプリンタ等を用いて物理的に盛り上がりのある3D画像を印刷することができる。   By repeating the above operation, the user can generate a 3D image. In this embodiment, a 3D image is displayed in a 3D style on a 2D display screen. However, since the 3D image actually has depth data, it is physically raised using a 3D printer or the like. It is possible to print 3D images with

以上、大局的、局所的選択がしやすいように、分割度(細かさ)指定ができる点、凹凸状態がわかりやすいように、視点方向の変更(水平角、垂直角)ができる点、ユーザは自信の要求度(仕上がりの細かさ)に応じて、上記機能を用いて3Dマップの生成を行うことができ、要求度を満足するまで繰り返すことができる点について説明した。
これにより、本実施形態では、ユーザが指定した奥行面設定をする毎に、実際に3D画像が作成された状態を逐次表示させることで、ユーザが完成状態をイメージしやすくなり、奥行面設定を簡単に行うことが可能となる。
As described above, the user can be confident that the degree of division (fineness) can be specified so that global and local selection is easy, and the viewpoint direction can be changed (horizontal angle and vertical angle) so that the uneven state can be easily understood. In the above description, the 3D map can be generated using the above function according to the required level (fineness of the finish) and can be repeated until the required level is satisfied.
Thereby, in this embodiment, every time the depth plane setting specified by the user is performed, the state in which the 3D image is actually created is sequentially displayed, so that the user can easily imagine the completed state, and the depth plane setting can be performed. It can be done easily.

以上の各実施形態に関して、更に以下の付記を開示する。
(付記1)
2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するための方法であって、
前記入力画像を複数の分割領域に分割する画像分割ステップと、
当該分割された入力画像を表示する画像表示ステップと、
前記表示された入力画像上で、ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定ステップと、
をコンピュータに実行させるための画像奥行き指定方法。
(付記2)
前記画像分割ステップは、ユーザに前記入力画像の分割度を指定させる分割度指定ステップを含むことを特徴とする付記1記載の画像奥行き指定方法。
(付記3)
前記画像分割ステップにおいて、スーパーピクセルのセグメント化処理を実行することを特徴とする付記1または2記載の画像奥行き指定方法。
(付記4)
前記奥行き指定ステップにおいて、ユーザが奥行きを指定した際に選択した前記分割領域をすべてその奥行きに指定する処理を実行することを特徴とする付記1乃至3いずれかに記載の画像の奥行き指定方法。
(付記5)
ユーザに前記表示された入力画像に対して傾きを指定させる傾き指定ステップと、
前記入力画像に、前記ユーザが指定した傾きと、前記ユーザが指定した前記分割領域単位の奥行きに対応する奥行き効果を付加し、前記画像表示ステップで表示させる画像加工ステップと、
をさらに前記コンピュータに実行させるための付記1乃至3いずれかに記載の画像奥行き指定方法。
(付記6)
前記傾き指定ステップは、水平方向の傾き又は垂直方向の傾きの指定をユーザに行わせることを特徴とする付記5記載の画像奥行き指定方法。
(付記7)
2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するためのプログラムであって、
前記入力画像を複数の分割領域に分割する画像分割ステップと、
当該分割された入力画像を表示する分割画像表示ステップと、
前記表示された入力画像上で、前記ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定ステップと、
をコンピュータに実行させるための画像奥行き指定プログラム。
(付記8)
2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するための装置であって、
前記入力画像を複数の分割領域に分割する画像分割部と、
当該分割された入力画像を表示する分割画像表示部と、
前記表示された入力画像上で、前記ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定部と、
を備えることを特徴とする画像奥行き指定装置。
(付記9)
前記画像分割部は、ユーザに前記入力画像の分割度を指定させる分割度指定部を含むことを特徴とする付記8記載の画像奥行き指定装置。
Regarding the above embodiments, the following additional notes are disclosed.
(Appendix 1)
A method for designating a depth on an input image to generate a three-dimensional output image from a two-dimensional input image,
An image dividing step of dividing the input image into a plurality of divided regions;
An image display step for displaying the divided input image;
A depth specifying step for allowing a user to specify a depth while selecting the divided area on the displayed input image;
Image depth designation method for causing a computer to execute.
(Appendix 2)
The image depth designation method according to claim 1, wherein the image division step includes a division degree designation step for allowing a user to designate a division degree of the input image.
(Appendix 3)
The image depth designation method according to appendix 1 or 2, wherein a superpixel segmentation process is executed in the image dividing step.
(Appendix 4)
The image depth designation method according to any one of appendices 1 to 3, wherein, in the depth designation step, a process of designating all the divided areas selected when the user designates the depth as the depth is executed.
(Appendix 5)
An inclination specifying step for allowing the user to specify an inclination for the displayed input image;
An image processing step of adding to the input image a tilt specified by the user and a depth effect corresponding to the depth of the divided region unit specified by the user, and causing the image to be displayed in the image display step;
The image depth designation method according to any one of appendices 1 to 3, further causing the computer to execute the following.
(Appendix 6)
The image depth designation method according to claim 5, wherein the tilt designation step causes the user to designate a tilt in the horizontal direction or a tilt in the vertical direction.
(Appendix 7)
A program for designating a depth on the input image in order to generate a three-dimensional output image from the two-dimensional input image,
An image dividing step of dividing the input image into a plurality of divided regions;
A split image display step for displaying the split input image;
A depth specifying step for allowing the user to specify a depth while selecting the divided region on the displayed input image;
Depth designation program for causing computer to execute.
(Appendix 8)
An apparatus for designating a depth on the input image to generate a three-dimensional output image from the two-dimensional input image,
An image dividing unit for dividing the input image into a plurality of divided regions;
A divided image display unit for displaying the divided input image;
A depth designation unit that allows the user to designate a depth while selecting the divided area on the displayed input image;
An image depth specifying device comprising:
(Appendix 9)
The image depth designation device according to appendix 8, wherein the image division unit includes a division degree designation unit that allows a user to designate a division degree of the input image.

1 画像表示部
2 水平角を決定するスライドバー
3 垂直角を決定するスライドバー
4 分割度指示バー
5 面選択
6 分割領域の境界線
7 カーソル
8 ドラッグ移動の軌跡
100 画像奥行指定装置
101 分割度指定部
102 画像分割部
103 画像表示部
104 奥行指定部
105 傾き指定部
106 画像加工部
120 入力画像
130 出力画像
201 CPU
202 ROM(リードオンリーメモリ)
203 RAM(ランダムアクセスメモリ)
204 入力装置
205 出力装置
206 外部記憶装置
207 通信インタフェース
208 可搬記録媒体駆動装置
209 可搬記録媒体
210 バス
DESCRIPTION OF SYMBOLS 1 Image display part 2 Slide bar which determines horizontal angle 3 Slide bar which determines vertical angle 4 Divide degree instruction bar 5 Face selection 6 Boundary line of divided area 7 Cursor 8 Trajectory of drag movement 100 Image depth designation device 101 Divide degree designation Unit 102 Image division unit 103 Image display unit 104 Depth designation unit 105 Tilt designation unit 106 Image processing unit 120 Input image 130 Output image 201 CPU
202 ROM (Read Only Memory)
203 RAM (Random Access Memory)
204 Input Device 205 Output Device 206 External Storage Device 207 Communication Interface 208 Portable Recording Medium Drive Device 209 Portable Recording Medium 210 Bus

Claims (9)

2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するための方法であって、
前記入力画像を複数の分割領域に分割する画像分割ステップと、
当該分割された入力画像を表示する画像表示ステップと、
前記表示された入力画像上で、ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定ステップと、
をコンピュータに実行させるための画像奥行き指定方法。
A method for designating a depth on an input image to generate a three-dimensional output image from a two-dimensional input image,
An image dividing step of dividing the input image into a plurality of divided regions;
An image display step for displaying the divided input image;
A depth specifying step for allowing a user to specify a depth while selecting the divided area on the displayed input image;
Image depth designation method for causing a computer to execute.
前記画像分割ステップは、ユーザに前記入力画像の分割度を指定させる分割度指定ステップを含むことを特徴とする請求項1記載の画像奥行き指定方法。   The image depth designation method according to claim 1, wherein the image division step includes a division degree designation step for allowing a user to designate a division degree of the input image. 前記画像分割ステップにおいて、スーパーピクセルのセグメント化処理を実行することを特徴とする請求項1または2記載の画像奥行き指定方法。   3. The image depth designation method according to claim 1, wherein a superpixel segmentation process is executed in the image dividing step. 前記奥行き指定ステップにおいて、ユーザが奥行きを指定した際に選択した前記分割領域をすべてその奥行きに指定する処理を実行することを特徴とする請求項1乃至3いずれかに記載の画像の奥行き指定方法。   The image depth designation method according to any one of claims 1 to 3, wherein in the depth designation step, a process of designating all the divided areas selected when the user designates the depth as the depth is executed. . ユーザに前記表示された入力画像に対して傾きを指定させる傾き指定ステップと、
前記入力画像に、前記ユーザが指定した傾きと、前記ユーザが指定した前記分割領域単位の奥行きに対応する奥行き効果を付加し、前記画像表示ステップで表示させる画像加工ステップと、
をさらに前記コンピュータに実行させるための請求項1乃至3いずれかに記載の画像奥行き指定方法。
An inclination specifying step for allowing the user to specify an inclination for the displayed input image;
An image processing step of adding to the input image a tilt specified by the user and a depth effect corresponding to the depth of the divided region unit specified by the user, and causing the image to be displayed in the image display step;
The image depth designation method according to claim 1, further causing the computer to execute.
前記傾き指定ステップは、水平方向の傾き又は垂直方向の傾きの指定をユーザに行わせることを特徴とする請求項5記載の画像奥行き指定方法。   6. The image depth designation method according to claim 5, wherein the tilt designation step causes the user to designate a tilt in the horizontal direction or a tilt in the vertical direction. 2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するためのプログラムであって、
前記入力画像を複数の分割領域に分割する画像分割ステップと、
当該分割された入力画像を表示する分割画像表示ステップと、
前記表示された入力画像上で、前記ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定ステップと、
をコンピュータに実行させるための画像奥行き指定プログラム。
A program for designating a depth on the input image in order to generate a three-dimensional output image from the two-dimensional input image,
An image dividing step of dividing the input image into a plurality of divided regions;
A split image display step for displaying the split input image;
A depth specifying step for allowing the user to specify a depth while selecting the divided region on the displayed input image;
Depth designation program for causing computer to execute.
2次元の入力画像から3次元的な出力画像を生成するために前記入力画像上で奥行きを指定するための装置であって、
前記入力画像を複数の分割領域に分割する画像分割部と、
当該分割された入力画像を表示する分割画像表示部と、
前記表示された入力画像上で、前記ユーザに前記分割領域を選択させながら奥行きを指定させる奥行き指定部と、
を備えることを特徴とする画像奥行き指定装置。
An apparatus for designating a depth on the input image to generate a three-dimensional output image from the two-dimensional input image,
An image dividing unit for dividing the input image into a plurality of divided regions;
A divided image display unit for displaying the divided input image;
A depth designation unit that allows the user to designate a depth while selecting the divided area on the displayed input image;
An image depth specifying device comprising:
前記画像分割部は、ユーザに前記入力画像の分割度を指定させる分割度指定部を含むことを特徴とする請求項8記載の画像奥行き指定装置。   The image depth designation device according to claim 8, wherein the image division unit includes a division degree designation unit that allows a user to designate a division degree of the input image.
JP2013243018A 2013-11-25 2013-11-25 Method, program and apparatus for specifying image depth Pending JP2015103960A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243018A JP2015103960A (en) 2013-11-25 2013-11-25 Method, program and apparatus for specifying image depth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243018A JP2015103960A (en) 2013-11-25 2013-11-25 Method, program and apparatus for specifying image depth

Publications (1)

Publication Number Publication Date
JP2015103960A true JP2015103960A (en) 2015-06-04

Family

ID=53379344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243018A Pending JP2015103960A (en) 2013-11-25 2013-11-25 Method, program and apparatus for specifying image depth

Country Status (1)

Country Link
JP (1) JP2015103960A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018096775A1 (en) * 2016-11-28 2018-05-31 ソニー株式会社 Image processing device, image processing method, and program
JP2019144633A (en) * 2018-02-16 2019-08-29 全友電腦股▲ふん▼有限公司 Image processing method, and scanning system using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018096775A1 (en) * 2016-11-28 2018-05-31 ソニー株式会社 Image processing device, image processing method, and program
JPWO2018096775A1 (en) * 2016-11-28 2019-10-17 ソニー株式会社 Image processing apparatus, image processing method, and program
US10810776B2 (en) 2016-11-28 2020-10-20 Sony Corporation Image processing device and image processing method
JP2019144633A (en) * 2018-02-16 2019-08-29 全友電腦股▲ふん▼有限公司 Image processing method, and scanning system using the same

Similar Documents

Publication Publication Date Title
US9485497B2 (en) Systems and methods for converting two-dimensional images into three-dimensional images
US8922628B2 (en) System and process for transforming two-dimensional images into three-dimensional images
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
JP6147275B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
CN103426163B (en) System and method for rendering affected pixels
US9113043B1 (en) Multi-perspective stereoscopy from light fields
US8666146B1 (en) Discontinuous warping for 2D-to-3D conversions
US9165401B1 (en) Multi-perspective stereoscopy from light fields
US9041773B2 (en) Conversion of 2-dimensional image data into 3-dimensional image data
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
TWI786157B (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
JP4266233B2 (en) Texture processing device
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
Bleyer et al. Temporally consistent disparity maps from uncalibrated stereo videos
JP6128748B2 (en) Image processing apparatus and method
JP5413263B2 (en) Image generation method
Wang et al. Disparity manipulation for stereo images and video
JP2015103960A (en) Method, program and apparatus for specifying image depth
Liao et al. Depth Map Design and Depth-based Effects With a Single Image.
Thatte et al. A statistical model for disocclusions in depth-based novel view synthesis
Islam et al. Warping-based stereoscopic 3d video retargeting with depth remapping
JP5807569B2 (en) Image processing apparatus, image processing method, and image processing program
KR20120118462A (en) Concave surface modeling in image-based visual hull
JP5887966B2 (en) Image processing apparatus, image processing method, and image processing program
Plath et al. Line-preserving hole-filling for 2d-to-3d conversion