JP2013034084A - Depth creation support device, depth creation support method, and program - Google Patents

Depth creation support device, depth creation support method, and program Download PDF

Info

Publication number
JP2013034084A
JP2013034084A JP2011168920A JP2011168920A JP2013034084A JP 2013034084 A JP2013034084 A JP 2013034084A JP 2011168920 A JP2011168920 A JP 2011168920A JP 2011168920 A JP2011168920 A JP 2011168920A JP 2013034084 A JP2013034084 A JP 2013034084A
Authority
JP
Japan
Prior art keywords
depth
image
frame
depth value
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011168920A
Other languages
Japanese (ja)
Other versions
JP5817300B2 (en
Inventor
Akihiro Sasaki
晃洋 佐々木
Takahiro Matsubara
孝博 松原
Naoki Kawai
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011168920A priority Critical patent/JP5817300B2/en
Publication of JP2013034084A publication Critical patent/JP2013034084A/en
Application granted granted Critical
Publication of JP5817300B2 publication Critical patent/JP5817300B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a depth creation support device or the like which allows accurate and efficient creation of a depth image to be used by a parallax image generating device.SOLUTION: When buttons 21 are depressed, inputted images for creating a depth image are read in. Displayed respectively in a start frame display area 23 and a finish frame display area 24 are mask images of the start frame and the finish frame of a mask selected from a mask-selection pulldown menu 25. In a two-dimensional image display area 28, a preview image of a two-dimensional image is displayed. In a depth setting screen 26, the depth value curves of read masks are displayed. When a frame slider bar 34 and a depth value slider bar 37 are slid, a depth setting frame and a depth value can be changed.

Description

本発明は、奥行き製作支援装置、奥行き製作支援方法、およびプログラムに関し、特に、立体視を実現するための視差画像を生成する視差画像生成装置が利用する奥行き画像を製作する奥行き製作支援装置等に関する。   The present invention relates to a depth production support apparatus, a depth production support method, and a program, and more particularly, to a depth production support apparatus that produces a depth image used by a parallax image generation apparatus that generates a parallax image for realizing stereoscopic vision. .

従来、3次元映像表示システムでは、大別して、2視差方式のものと、3以上の視差を持つ多視差方式のものがある。いずれの方式も、必要な視点数からシーンを見た映像を準備する必要がある。   Conventional three-dimensional video display systems are roughly classified into a two-parallax system and a multi-parallax system having three or more parallaxes. In either method, it is necessary to prepare a video in which the scene is viewed from the required number of viewpoints.

最も直接的な映像の制作方法としては、必要な視差数分のカメラを用意し、同一シーンを所定の間隔に配置された複数のカメラで撮影する方法が考えられる。最近では2視差を直接撮影できるカメラが市販されているが、多視差を直接撮影できるカメラは一般的でない。   The most direct video production method is to prepare cameras for the required number of parallaxes and shoot the same scene with a plurality of cameras arranged at predetermined intervals. Recently, cameras that can directly shoot two parallaxes are commercially available, but cameras that can directly shoot multiple parallaxes are not common.

また、3次元CG(Computer Graphics)画像を作成し、複数のカメラ位置を設定してレンダリングする方法も考えられる。3次元CG画像には奥行き情報が含まれており、3次元画像から多視差方式に対応した視差画像を作成することは可能である。しかし、カメラ位置の数が多い場合、レンダリング回数が多くなり、時間とコストがかかるという問題がある。   A method of creating a three-dimensional CG (Computer Graphics) image and setting a plurality of camera positions for rendering is also conceivable. The three-dimensional CG image includes depth information, and a parallax image corresponding to the multi-parallax method can be created from the three-dimensional image. However, when the number of camera positions is large, there is a problem that the number of renderings increases, which takes time and cost.

さらに、ほとんどの映像はCG画像ではなく実写であり、実写から3次元映像を作成することが求められている。   Furthermore, most videos are not CG images but are real photographs, and it is required to create a three-dimensional video from the real photographs.

実写映像による多視差映像を制作する為に、平面(2D)映像を基にして多視差映像に変換する手法(いわゆる2次元/3次元変換の手法)は、いくつか存在する。   There are several methods (so-called two-dimensional / three-dimensional conversion methods) for converting a multi-parallax image based on a plane (2D) image to produce a multi-parallax image based on a real image.

しかしながら、多視差映像に変換する手法では、奥行き情報がない。そのため全てのシーン(フレーム)において手作業で1枚ずつ奥行き情報を作成する必要が生じ、非常に作業負荷が高かった。   However, there is no depth information in the method of converting to a multi-parallax image. Therefore, it is necessary to create depth information one by one in every scene (frame), and the work load is very high.

そこで、奥行き値を設定するための手法として、例えば、特許文献1には、ユーザ指示に応じてメッシュ形状を変形させ、奥行き値を設定する技術が提案されている。また例えば、非特許文献1には、3次元空間内において、映像の選択部分をユーザが移動・回転させ、奥行き値を設定する技術が提案されている。   Thus, as a method for setting the depth value, for example, Patent Document 1 proposes a technique for changing the mesh shape in accordance with a user instruction and setting the depth value. For example, Non-Patent Document 1 proposes a technique in which a user moves and rotates a selected portion of a video in a three-dimensional space to set a depth value.

特表2010−516155号公報Special table 2010-516155 gazette

Depth Director: A System forAdding Depth to MoviesDepth Director: A System for Adding Depth to Movies

しかしながら、特許文献1に記載の技術は、操作すべき項目が多く、1フレーム分の奥行き情報を設定するための長時間を要し、設定した奥行き値が確認し難いという課題がある。   However, the technique described in Patent Document 1 has a problem that there are many items to be operated, and it takes a long time to set the depth information for one frame, and it is difficult to confirm the set depth value.

これに対し、非特許文献1に記載の技術は、設定方法は簡略化されているものの、異なるフレームにおける奥行き値の比較ができないため、位置関係の矛盾が生じやすいという課題があった。   On the other hand, the technique described in Non-Patent Document 1 has a problem that although the setting method is simplified, the depth values in different frames cannot be compared, so that the positional relationship tends to be inconsistent.

本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、視差画像生成装置が利用する奥行き画像を精度良く、かつ、効率的に製作することを支援する奥行き製作支援装置等を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide depth production support that assists in accurately and efficiently producing a depth image used by a parallax image generation device. It is to provide a device or the like.

前述した目的を達成するために、第1の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像を製作する奥行き製作支援装置であって、元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込手段と、前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示手段と、前記奥行き値曲線表示手段において、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定手段と、前記設定手段において奥行き値が設定された前記フレームの前後の奥行き値を補間する補間手段と、前記補間手段による補間結果に基づいて、前記奥行き画像を作成する奥行き画像作成手段と、を具備することを特徴とする奥行き製作支援装置である。
第1の発明によって、視差画像生成装置が利用する奥行き画像を精度良く、かつ、効率的に製作することが可能となる。
In order to achieve the above-described object, the first invention is a depth production support apparatus for producing a depth image used for generating a parallax image for realizing stereoscopic vision, and for each frame of an original video. On the other hand, reading means for reading a plurality of binarized mask images for identifying a specific subject, and a depth value curve displaying means for displaying a depth value curve indicating a depth value in each frame for each mask image And setting means for setting a depth value of a single frame in the depth value curve of the selected single mask image in the depth value curve display means; and for the frame for which the depth value has been set by the setting means. Interpolating means for interpolating depth values before and after, and depth image creating means for creating the depth image based on the interpolation result by the interpolating means. A depth production support apparatus according to symptoms.
According to the first invention, a depth image used by the parallax image generation device can be accurately and efficiently manufactured.

前記設定手段は、前記奥行き値曲線表示手段において奥行き値を指定するための画面部品である奥行き値指定部品を有し、前記奥行き値指定部品の移動に連動して、前記奥行き値を示す画素値を変えながら、前記奥行き画像のプレビューを表示する奥行き画像表示手段をさらに備える。
これにより、ユーザは、同一フレームにおける被写体間で違和感がないかどうかを容易に確認することができる。
The setting means has a depth value designation component which is a screen component for designating a depth value in the depth value curve display means, and a pixel value indicating the depth value in conjunction with movement of the depth value designation component The image processing apparatus further includes depth image display means for displaying a preview of the depth image while changing.
Thereby, the user can easily confirm whether there is no sense of incongruity between subjects in the same frame.

前記設定手段は、前記奥行き値曲線表示手段において時刻を指定するための画面部品である時刻指定部品を有し、前記奥行き画像表示手段は、前記時刻指定部品の移動に連動して、奥行き画像のフレームを変更する。
これにより、ユーザは、フレーム間で違和感がないかどうかを容易に確認することができる。
The setting means includes a time designation component that is a screen component for designating time in the depth value curve display means, and the depth image display means is configured to display a depth image in conjunction with the movement of the time designation component. Change the frame.
Thereby, the user can easily confirm whether there is no sense of incongruity between frames.

前記時刻指定部品の移動に連動して、映像の時刻を変えながら前記元の映像を表示する映像表示手段をさらに備える。
これにより、ユーザは、奥行き画像の仕上りを容易に確認することができる。
Video display means for displaying the original video while changing the video time in conjunction with the movement of the time designation component is further provided.
Thereby, the user can easily confirm the finish of the depth image.

前記補間手段による補間結果に基づいて、前記元の映像を構成する被写体を識別するラベル値を画素値に置き換えた画像であるラベル画像を作成するラベル画像作成手段をさらに備える。
これにより、奥行き画像と合わせてラベル画像も作成することができる。
The image processing apparatus further includes label image creation means for creating a label image that is an image in which a label value for identifying a subject constituting the original video is replaced with a pixel value based on an interpolation result by the interpolation means.
Thereby, a label image can be created together with the depth image.

いずれか1つのマスク画像に被写体が存在するフレームの範囲を検出し、奥行き値設定範囲の開始フレームおよび終了フレームを決定するマスク範囲検出手段をさらに備える。
これにより、奥行き値の設定が必要なフレームだけを表示手段に表示させることができ、利便性が高まる。
The image processing apparatus further includes a mask range detection unit that detects a range of a frame where the subject exists in any one mask image and determines a start frame and an end frame of the depth value setting range.
As a result, only the frames for which the depth value needs to be set can be displayed on the display means, and convenience is improved.

第2の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像を製作する奥行き製作支援装置の奥行き製作支援方法であって、元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込ステップと、前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示ステップと、前記奥行き値曲線表示ステップにおいて、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定ステップと、前記設定ステップにおいて奥行き値が設定された前記フレームの前後の奥行き値を補間する補間ステップと、前記補間ステップによる補間結果に基づいて、前記奥行き画像を作成する奥行き画像作成ステップと、を含むことを特徴とする。
第2の発明によって、視差画像生成装置が利用する奥行き画像を精度良く、かつ、効率的に製作することが可能となる。
A second invention is a depth production support method of a depth production support apparatus for producing a depth image used for generating a parallax image for realizing stereoscopic vision, and is specified for each frame of the original video A reading step of reading a plurality of binarized mask images to identify a subject, a depth value curve displaying step of displaying a depth value curve indicating a depth value in each frame for each mask image, and the depth A setting step for setting a depth value of a single frame in the depth value curve of the selected single mask image in the value curve display step; and a depth value before and after the frame for which the depth value has been set in the setting step An interpolation step for interpolating the depth image, and a depth image creation step for creating the depth image based on the interpolation result of the interpolation step. Characterized in that it comprises a and.
According to the second invention, it is possible to accurately and efficiently produce a depth image used by the parallax image generating device.

第3の発明は、元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込ステップと、前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示ステップと、前記奥行き値曲線表示ステップにおいて、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定ステップと、前記設定ステップにおいて奥行き値が設定された前記フレームの前後の奥行き値を補間する補間ステップと、前記補間ステップによる補間結果に基づいて、立体視を実現するための視差画像の生成処理に利用する奥行き画像を作成する奥行き画像作成ステップと、を実行させるためのプログラムである。   According to a third aspect of the present invention, a reading step of reading a plurality of binarized mask images for identifying a specific subject for each frame of the original video, and a depth value in each frame for each mask image A depth value curve display step for displaying a depth value curve indicating, and a setting step for setting a depth value of a single frame in a depth value curve of a single mask image selected in the depth value curve display step; An interpolation step for interpolating depth values before and after the frame for which the depth value has been set in the setting step, and a depth used for generating a parallax image for realizing stereoscopic vision based on an interpolation result by the interpolation step A depth image creating step for creating an image.

第3の発明に係るプログラムをコンピュータにインストールすることで、第1の発明に係る奥行き製作支援装置を得ることができる。   The depth production support apparatus according to the first invention can be obtained by installing the program according to the third invention in the computer.

本発明により、視差画像生成装置が利用する奥行き画像を精度良く、かつ、効率的に製作することができる奥行き製作支援装置等を提供することができる。   According to the present invention, it is possible to provide a depth production support device and the like that can accurately and efficiently produce a depth image used by a parallax image generation device.

本発明の実施の形態に係る奥行き製作支援装置のハードウエア構成図である。It is a hardware block diagram of the depth production assistance apparatus which concerns on embodiment of this invention. 奥行き製作支援装置および視差画像生成装置の入出力データを示す図である。It is a figure which shows the input-output data of a depth production assistance apparatus and a parallax image generation apparatus. 2次元画像の一例を示す図である。It is a figure which shows an example of a two-dimensional image. 図3に示した2次元画像に基づいて生成された背景画像の一例を示す図である。It is a figure which shows an example of the background image produced | generated based on the two-dimensional image shown in FIG. マスク画像の一例を示す図である。It is a figure which shows an example of a mask image. 他のマスク画像の一例を示す図である。It is a figure which shows an example of another mask image. 他のマスク画像の一例を示す図である。It is a figure which shows an example of another mask image. 奥行き画像の一例を示す図である。It is a figure which shows an example of a depth image. 入出力画像の対応付けを説明するための図である。It is a figure for demonstrating matching of an input-output image. 奥行き製作支援処理を説明するフローチャートである。It is a flowchart explaining a depth production assistance process. 奥行き製作支援画面の表示例である。It is an example of a display of a depth production assistance screen. 奥行き設定画面を拡大した表示例である。It is the example of a display which expanded the depth setting screen. 奥行き設定画面の他の表示例である。It is another example of a display of a depth setting screen. 奥行き設定画面の他の表示例である。It is another example of a display of a depth setting screen. 奥行き設定画面の他の表示例である。It is another example of a display of a depth setting screen. 奥行き設定画面の他の表示例である。It is another example of a display of a depth setting screen. ラベル画像の作成を説明する図である。It is a figure explaining preparation of a label image.

以下、図面に基づいて、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[本発明の実施の形態]
図1は、本発明の実施の形態に係る奥行き製作支援装置1のハードウエア構成図である。尚、図1のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
[Embodiments of the present invention]
FIG. 1 is a hardware configuration diagram of a depth production support apparatus 1 according to an embodiment of the present invention. Note that the hardware configuration in FIG. 1 is an example, and various configurations can be adopted depending on applications and purposes.

奥行き製作支援装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。   In the depth production support device 1, a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, etc. are connected via a bus 18. Is done.

制御部11は、CPU(Central Processing Unit)、ROM(Read OnlY MemorY)、RAM(Random Access MemorY)等で構成される。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Y Memory Y), a RAM (Random Access Memory Y), and the like.

CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、奥行き製作支援装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、奥行き製作支援装置1のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。   The CPU calls and executes a program stored in the storage unit 12, ROM, recording medium or the like to a work memory area on the RAM, drives and controls each device connected via the bus 18, and the depth production support device 1 The process to be described later is realized. The ROM is a non-volatile memory, and permanently holds a program such as a boot program and BIOS for the depth production support apparatus 1, data, and the like. The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the storage unit 12, ROM, recording medium, and the like, and includes a work area used by the control unit 11 for performing various processes.

記憶部12は、HDD(ハードディスクドライブ)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OS(オペレーティングシステム)に相当する制御プログラムや、後述する処理を奥行き製作支援装置1に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。   The storage unit 12 is an HDD (hard disk drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (operating system), and the like. As for the program, a control program corresponding to an OS (operating system) and an application program for causing the depth production support apparatus 1 to execute processing described later are stored. Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM, read by the CPU, and executed as various means.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。   The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices.

通信制御部14は、通信制御装置、通信ポート等を有し、奥行き製作支援装置1とネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他の装置間との通信制御を行う。ネットワークは、有線、無線を問わない。   The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between the depth production support device 1 and the network, and performs communication control between other devices via the network. . The network may be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、奥行き製作支援装置1に対して、操作指示、動作指示、データ入力等を行うことができる。   The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the depth production support apparatus 1 via the input unit 15.

表示部16は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携して奥行き製作支援装置1のビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。   The display unit 16 includes a display device such as a CRT monitor and a liquid crystal panel, and a logic circuit (such as a video adapter) for realizing the video function of the depth production support device 1 in cooperation with the display device.

周辺機器I/F(インタフェース)部17は、奥行き製作支援装置1に周辺機器を接続させるためのポートであり、周辺機器I/F部17を介して奥行き製作支援装置1は周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−235C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。   The peripheral device I / F (interface) unit 17 is a port for connecting a peripheral device to the depth production support device 1, and the depth production support device 1 communicates data with the peripheral device via the peripheral device I / F unit 17. Send and receive. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-235C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.

バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。   The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図2は、奥行き製作支援装置1および視差画像生成装置2の入出力データを示す図である。図2に示すように、奥行き製作支援装置1は、2次元画像3、背景画像4、マスク画像5、及び奥行き値6を入力データとし、奥行き画像7、およびラベル画像8を出力データとする。視差画像生成装置2は、2次元画像3、奥行き画像7、およびラベル画像8を入力データとし、視差画像9を出力データとする。   FIG. 2 is a diagram illustrating input / output data of the depth production support device 1 and the parallax image generation device 2. As shown in FIG. 2, the depth production support apparatus 1 uses the two-dimensional image 3, the background image 4, the mask image 5, and the depth value 6 as input data, and the depth image 7 and the label image 8 as output data. The parallax image generation device 2 uses the two-dimensional image 3, the depth image 7, and the label image 8 as input data, and uses the parallax image 9 as output data.

2次元画像3、背景画像4、及びマスク画像5は、奥行き製作支援装置1の制御部11が生成しても良いし、メディア入出力部13、通信制御部14等を介して外部から取得しても良い。また、奥行き値6は、奥行き製作支援装置1の入力部15を介して入力しても良いし、予め奥行き値6が定義されたファイルを外部から取得しても良い。   The two-dimensional image 3, the background image 4, and the mask image 5 may be generated by the control unit 11 of the depth production support apparatus 1, or acquired from the outside via the media input / output unit 13, the communication control unit 14, and the like. May be. In addition, the depth value 6 may be input via the input unit 15 of the depth production support apparatus 1 or a file in which the depth value 6 is defined in advance may be acquired from the outside.

2次元画像3は、動画像(平面映像)の1枚分のフレーム画像または静止画像である。動画像(平面映像)には、例えば、単位時間当たり所定のフレーム数(通常、1秒間に30フレーム)のカラー静止画像が含まれており、各画素がRGB各256段階の階調を持つ。   The two-dimensional image 3 is a frame image or a still image for one moving image (planar image). A moving image (planar image) includes, for example, a color still image of a predetermined number of frames per unit time (usually 30 frames per second), and each pixel has 256 gradations of RGB.

背景画像4は、背景の奥行き感を示す画像である。背景画像4は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。   The background image 4 is an image showing a sense of depth in the background. The background image 4 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.

マスク画像5は、特定の被写体を識別するための2値化画像である。マスク画像5は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。   The mask image 5 is a binarized image for identifying a specific subject. The mask image 5 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.

奥行き値6は、被写体の奥行き方向の位置を定義する値である。本発明では、奥行き値6の画素値の範囲を0〜255の256階調として表現する。0が黒、255が白、1〜254がグレー(中間調)に対応する。   The depth value 6 is a value that defines the position of the subject in the depth direction. In the present invention, a range of pixel values having a depth value of 6 is expressed as 256 gradations from 0 to 255. 0 corresponds to black, 255 corresponds to white, and 1 to 254 correspond to gray (halftone).

奥行き製作支援装置1は、2次元画像3、背景画像4、マスク画像5、および奥行き値6に基づいて、奥行き画像7の製作を支援するものであって、特に奥行き値6を設定し、その結果を確認するための画面インターフェース(後述する図11〜図16)に特徴を有するものである。   The depth production support device 1 supports the production of the depth image 7 based on the two-dimensional image 3, the background image 4, the mask image 5, and the depth value 6. In particular, the depth value 6 is set, This is characterized by a screen interface (FIGS. 11 to 16 described later) for confirming the result.

奥行き画像7は、2次元画像3に係るカメラから被写体までの奥行き値を画素値に置き換えた画像である。ここで、カメラとは、視差画像生成装置2の内部処理において定義される仮想的なカメラを意味する。   The depth image 7 is an image in which the depth value from the camera to the subject related to the two-dimensional image 3 is replaced with a pixel value. Here, the camera means a virtual camera defined in the internal processing of the parallax image generation device 2.

奥行き画像7は、例えば、画素値の範囲が0〜255(8ビット)のグレースケールであり、0(黒)が最も奥、255(白)が最も手前を意味する場合が多いが、逆であっても良い。以下では、説明を分かり易くするために、奥行き画像7は、画素値の範囲が0〜255であり、0(黒)が最も奥、255(白)が最も手前を意味するものとする。   The depth image 7 is, for example, a gray scale with a pixel value range of 0 to 255 (8 bits), and 0 (black) is the farthest and 255 (white) is often the foreground. There may be. In the following, in order to make the explanation easy to understand, the depth image 7 has a pixel value range of 0 to 255, 0 (black) being the deepest and 255 (white) being the foremost.

ラベル画像8は、それぞれの2次元画像3に対応付けて、2次元画像3に記録されたシーンを構成する被写体を識別する固有の数値(ラベル値)によって領域分けし、このラベル値を画素値に置き換えた(ラベリングされた)画像である。例えば、背景、建物、及び人物から構成されるシーンにおいて、背景、建物、及び人物に相当するラベル値として、それぞれL0、L1、L2を割り当て、対応する2次元画像3の各画素がどの被写体に属しているかを、L0、L1、L2の画素値に置き換えることによって表現する。   The label image 8 is divided into regions based on unique numerical values (label values) for identifying subjects constituting the scene recorded in the two-dimensional image 3 in association with the two-dimensional images 3, and the label values are converted into pixel values. This is an image replaced (labeled) with. For example, in a scene composed of a background, a building, and a person, L0, L1, and L2 are assigned as label values corresponding to the background, the building, and the person, respectively, and each pixel of the corresponding two-dimensional image 3 is assigned to which subject. Whether it belongs or not is expressed by replacing it with pixel values of L0, L1, and L2.

ラベル画像8は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、本発明のように、奥行き製作支援装置1が自動的に生成してもよい。   The label image 8 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated by the depth production support apparatus 1 as in the present invention.

視差画像9は、立体視を実現するための画像である。本発明の実施の形態では、視差画像9は、特に、両目視差(約60mm〜70mm程度)を利用し、裸眼観察によって立体視を実現するための画像である。   The parallax image 9 is an image for realizing a stereoscopic view. In the embodiment of the present invention, the parallax image 9 is an image for realizing stereoscopic vision by naked-eye observation, particularly using binocular parallax (about 60 mm to 70 mm).

尚、本発明の実施の形態では詳細に述べないが、複数の視差画像9をディスプレイの仕様に合わせて合成し、ディスプレイに表示することによって、裸眼観察による立体視を実現することが可能となる。複数の視差画像9の合成処理については、公知の技術を利用すれば良い。   Although not described in detail in the embodiment of the present invention, a plurality of parallax images 9 are synthesized in accordance with the specifications of the display and displayed on the display, thereby realizing stereoscopic vision by naked eye observation. . A known technique may be used for the synthesis process of the plurality of parallax images 9.

視差画像生成装置2は、2次元画像3、奥行き画像7、およびラベル画像8に基づいて視差画像9を生成するものである。視差画像生成装置2の詳細は、本出願人が先に出願した、特願2010−176864号、および特願2011−55878号に記載されている。   The parallax image generation device 2 generates a parallax image 9 based on the two-dimensional image 3, the depth image 7, and the label image 8. Details of the parallax image generating device 2 are described in Japanese Patent Application Nos. 2010-176864 and 2011-55878, which were previously filed by the present applicant.

次に、図3〜図8を参照して、奥行き製作支援装置1の入出力データの表示例について説明する。   Next, display examples of input / output data of the depth production support apparatus 1 will be described with reference to FIGS.

図3は、2次元画像3の一例を示している。図3の例では、複数人でスポールブールというボール競技をしている動画像の1フレーム分を示している。図4は、図3に示した2次元画像3に基づいて生成された背景画像4の一例を示している。図3および図4は、同一フレームである。なお、背景画像4の奥行き感は、厳密でなくてよい。また背景画像4はなくてもよい。   FIG. 3 shows an example of the two-dimensional image 3. The example of FIG. 3 shows one frame of a moving image in which a plurality of people are playing a ball game called a spall boule. FIG. 4 shows an example of the background image 4 generated based on the two-dimensional image 3 shown in FIG. 3 and 4 are the same frame. Note that the depth of the background image 4 need not be exact. The background image 4 may not be present.

図5は、図3に示した2次元画像3と同一フレームのマスク画像5の一例を示している。図5の例では、球技参加者であるプレー中の人物(特定の被写体)を識別するための2値化画像であり、そのプレー中の人物の画素が白、それ以外の画素が黒にされている。以下、図5のマスク画像5を、適宜、マスクAのマスク画像と称する。   FIG. 5 shows an example of the mask image 5 having the same frame as the two-dimensional image 3 shown in FIG. In the example of FIG. 5, the image is a binarized image for identifying a person playing a ball game participant (a specific subject), and the pixel of the person being played is white and the other pixels are black. ing. Hereinafter, the mask image 5 of FIG. 5 is appropriately referred to as a mask image of the mask A.

図6は、他のマスク画像5の一例を示している。図6の例では、対戦している様子を少し離れて見物している2人の人物(特定の被写体)を識別するための2値化画像であり、その2人の人物の画素が白、それ以外の画素が黒にされている。図6は、図3〜図5、図7とは別フレーム(異なる時刻)である。以下、図6のマスク画像5を、適宜、マスクBのマスク画像と称する。   FIG. 6 shows an example of another mask image 5. In the example of FIG. 6, it is a binarized image for identifying two persons (a specific subject) who are watching a battle a little apart, and the pixels of the two persons are white, The other pixels are black. 6 is a different frame (different time) from FIGS. 3 to 5 and FIG. Hereinafter, the mask image 5 of FIG. 6 is appropriately referred to as a mask image of the mask B.

図7は、他のマスク画像5の一例を示している。図7の例では、対戦相手の人物(特定の被写体)を識別するための2値化画像であり、その対戦相手の人物の画素が白、それ以外の画素が黒にされている。図7は、図3〜図6とは別フレームである。以下、図7のマスク画像5を、適宜、マスクCのマスク画像と称する。   FIG. 7 shows an example of another mask image 5. In the example of FIG. 7, it is a binarized image for identifying the opponent person (specific subject), and the opponent person's pixel is white and the other pixels are black. FIG. 7 is a different frame from FIGS. Hereinafter, the mask image 5 of FIG. 7 is appropriately referred to as a mask image of the mask C.

なお、図3に示す2次元画像3において、マスクBの被写体(見物している2人の人物)の中の1人は、マスクAの被写体(プレー中の人物)に隠れており映っていない。また、マスクCの被写体は、マスクBの被写体よりも右側に位置しており、図3に示す2次元画像3に映っていない。   In the two-dimensional image 3 shown in FIG. 3, one of the subjects of the mask B (two people being seen) is hidden behind the subject of the mask A (the person being played) and is not shown. . The subject of the mask C is located on the right side of the subject of the mask B and is not reflected in the two-dimensional image 3 shown in FIG.

以上のように、奥行き製作支援装置1は、フレームごとに、マスクAのマスク画像(図5)、マスクBのマスク画像(図6)、およびマスクCのマスク画像(図7)を予め用意しておき、それらのマスク画像5と奥行き値6に基づいて、フレームごとに奥行き画像7を製作する。   As described above, the depth production support apparatus 1 prepares the mask image of the mask A (FIG. 5), the mask image of the mask B (FIG. 6), and the mask image of the mask C (FIG. 7) in advance for each frame. A depth image 7 is produced for each frame based on the mask image 5 and the depth value 6.

図8は、奥行き画像7の一例を示している。奥行き画像7は、複数の被写体同士の奥行き方向の相対的な位置関係が、模擬的に定義された画像である。図8は、図3〜図7とは別フレームであり、プレー中の人物がボールを投げる直前のフレームである。図8の例では、一番手前(白の領域)にマスクAの被写体(プレー中の人物)、奥(グレーの領域)にマスクBの被写体(見物している2人の人物)が存在するという奥行き方向の位置関係が定義されている。また、背景画像4の奥行き情報も付加されている。   FIG. 8 shows an example of the depth image 7. The depth image 7 is an image in which a relative positional relationship between a plurality of subjects in the depth direction is defined in a simulated manner. FIG. 8 is a frame different from those shown in FIGS. 3 to 7 and is a frame immediately before the person who is playing throws the ball. In the example of FIG. 8, the subject of the mask A (the person who is playing) is in the foreground (white region), and the subject of the mask B (the two people who are watching) is in the back (gray region). The positional relationship in the depth direction is defined. Further, depth information of the background image 4 is also added.

図9は、奥行き製作支援装置1が扱う入出力画像の対応付けを説明するための図である。   FIG. 9 is a diagram for explaining the association of input / output images handled by the depth production support apparatus 1.

図9に示すように、入力画像群は、フレームごとに、2次元画像、マスクAのマスク画像、マスクBのマスク画像、マスクCのマスク画像、および背景画像の5枚の画像が1組となっている。また出力画像群は、フレームごとに、奥行き画像、およびラベル画像の2枚の画像が1組となっている。例えば、フレーム数が1000枚の場合、2次元画像は1000枚、マスク画像は3000枚、背景画像は1000枚準備され、奥行き画像は1000枚、ラベル画像は1000枚出力されることになる。   As shown in FIG. 9, the input image group includes a set of five images of a two-dimensional image, a mask image of mask A, a mask image of mask B, a mask image of mask C, and a background image for each frame. It has become. The output image group is a set of two images, a depth image and a label image, for each frame. For example, when the number of frames is 1000, 1000 two-dimensional images, 3000 mask images, 1000 background images, 1000 depth images, and 1000 label images are output.

図10は、奥行き製作支援装置1が実行する奥行き製作支援処理を説明するフローチャートである。図10の説明に当たり、図11〜図17を参照し、具体的な操作内容も説明する。   FIG. 10 is a flowchart for explaining the depth production support process executed by the depth production support apparatus 1. In the description of FIG. 10, specific operation contents will also be described with reference to FIGS. 11 to 17.

まず、ユーザは、奥行き製作支援処理を開始するにあたり、図11に示すような奥行き製作支援画面20を表示部16に表示させる。図11の例の場合、奥行き製作支援画面20には、「マスク読み込み」、「ムービー読み込み」、「背景読み込み」のボタン群21、マスク範囲検出チェックボタン22、開始フレーム表示エリア23、終了フレーム表示エリア24、マスク選択プルダウン25、奥行き設定画面26、奥行き画像表示エリア27、2次元画像表示エリア28、および書き出しボタン29が表示されている。   First, when starting the depth production support process, the user displays a depth production support screen 20 as shown in FIG. In the case of the example of FIG. 11, the depth production support screen 20 includes a “mask read”, “movie read”, and “background read” button group 21, a mask range detection check button 22, a start frame display area 23, and an end frame display. An area 24, a mask selection pull-down 25, a depth setting screen 26, a depth image display area 27, a two-dimensional image display area 28, and an export button 29 are displayed.

ボタン群21は、マスク読み込み、ムービー読み込み、背景読み込みを行う場合に操作(押下)される。マスク範囲検出チェックボタン22は、選択されているマスクの被写体が存在するフレームの範囲を検出する場合に操作される。開始フレーム表示エリア23には、検出範囲における開始フレームのマスクが表示され、終了フレーム表示エリア24には、検出範囲における終了フレームのマスクが表示される。マスク選択プルダウン25は、奥行き設定するマスクを選択する場合に操作される。奥行き設定画面26は、マスク選択プルダウン25で選択されたマスクの奥行き値を変更するための設定画面である。   The button group 21 is operated (pressed) when performing mask reading, movie reading, and background reading. The mask range detection check button 22 is operated when detecting a frame range where the subject of the selected mask exists. In the start frame display area 23, a mask of the start frame in the detection range is displayed, and in the end frame display area 24, a mask of the end frame in the detection range is displayed. The mask selection pull-down 25 is operated when selecting a mask for depth setting. The depth setting screen 26 is a setting screen for changing the depth value of the mask selected by the mask selection pull-down 25.

奥行き画像表示エリア27には、読み込まれた複数のマスクに基づいて奥行き方向の位置関係が模擬的に定義された奥行き画像のプレビューが表示される。2次元画像表示エリア28には、読み込まれた2次元画像のプレビューが表示される。書き出しボタン29は、奥行き画像を保存する場合に選択される。   In the depth image display area 27, a preview of a depth image in which the positional relationship in the depth direction is defined in a simulated manner based on a plurality of read masks is displayed. In the two-dimensional image display area 28, a preview of the read two-dimensional image is displayed. The write button 29 is selected when saving a depth image.

図12は、奥行き設定画面26を拡大した表示例である。   FIG. 12 is a display example in which the depth setting screen 26 is enlarged.

図12に示すように、奥行き設定画面26の縦軸は、デプス値(奥行き値)を表し、横軸は、Time(フレーム)を表している。奥行き設定画面26内において、奥行き値曲線31a、31b、31cは、それぞれ、マスクA、マスクB、マスクCの奥行き値を示す曲線であって、初期画面では、3つが重なって表示される。開始位置32は、開始フレームの位置を示し、終了位置33は、終了フレームの位置を示している。   As shown in FIG. 12, the vertical axis of the depth setting screen 26 represents the depth value (depth value), and the horizontal axis represents Time (frame). In the depth setting screen 26, depth value curves 31a, 31b, and 31c are curves indicating the depth values of the mask A, the mask B, and the mask C, respectively, and three are displayed in an overlapping manner on the initial screen. The start position 32 indicates the position of the start frame, and the end position 33 indicates the position of the end frame.

フレームスライダーバー34は、奥行き値を設定するフレームを指定する場合に横方向にスライド(移動)される。番号35は、フレームスライダーバー34によって指定されているフレームの番号を示す。フレーム位置36は、フレームスライダーバー34によって指定されているフレーム方向の位置を示し、初期画面では、開始位置32とフレーム位置36は重なって表示される。奥行き値スライダーバー37は、奥行き値を指定する場合に縦方向にスライドされる。キーフレーム削除ボタン38は、現在選択されているマスクのキーフレーム(変化が定義されているフレーム)を削除する場合に選択される。   The frame slider bar 34 is slid (moved) in the horizontal direction when a frame for setting a depth value is designated. A number 35 indicates a frame number designated by the frame slider bar 34. The frame position 36 indicates the position in the frame direction specified by the frame slider bar 34. On the initial screen, the start position 32 and the frame position 36 are displayed so as to overlap each other. The depth value slider bar 37 is slid in the vertical direction when a depth value is designated. The key frame deletion button 38 is selected when deleting a key frame of a currently selected mask (a frame in which a change is defined).

以上のような奥行き製作支援画面20において、ユーザは、ボタン群21を押下し、奥行き画像を製作するための入力画像群の読み込みを指示する。   On the depth production support screen 20 as described above, the user presses the button group 21 and instructs to read the input image group for producing the depth image.

ステップS1において、奥行き製作支援装置1の制御部11は、ユーザからの指示に基づいて、入力画像群を読み込む。例えば、図9に示したように、フレームごとに、2次元画像、マスクAのマスク画像、マスクBのマスク画像、マスクCのマスク画像、および背景画像の5枚の画像が1組となった入力画像群が読み込まれる。また、ユーザによって、マスク範囲検出チェックボタン22が押下されることで、奥行き値の設定が必要なフレーム範囲が検出される。   In step S1, the control unit 11 of the depth production support apparatus 1 reads an input image group based on an instruction from the user. For example, as shown in FIG. 9, for each frame, a set of five images, that is, a two-dimensional image, a mask image of mask A, a mask image of mask B, a mask image of mask C, and a background image are combined. The input image group is read. Further, when the mask range detection check button 22 is pressed by the user, a frame range that requires setting of a depth value is detected.

これにより、奥行き製作支援画面20において、開始フレーム表示エリア23には、マスク選択プルダウン25で選択されているマスクの開始フレームのマスク画像が表示され、終了フレーム表示エリア24には、マスク選択プルダウン25で選択されているマスクの終了フレームのマスク画像が表示され、2次元画像表示エリア28には、2次元画像のプレビューが表示される。また、奥行き設定画面26には、読み込まれた複数のマスクの奥行き値曲線が表示される。   Thereby, on the depth production support screen 20, the mask image of the start frame of the mask selected by the mask selection pull-down 25 is displayed in the start frame display area 23, and the mask selection pull-down 25 is displayed in the end frame display area 24. The mask image of the end frame of the mask selected in (1) is displayed, and a preview of the two-dimensional image is displayed in the two-dimensional image display area 28. The depth setting screen 26 displays depth value curves of a plurality of read masks.

ステップS2において、奥行き製作支援装置1の制御部11は、ユーザによってマスク選択プルダウンの入力指示があったか否か、つまり、図11のマスク選択プルダウン25で新たにマスクが選択されたか否かを判定し、マスク選択プルダウンの入力指示があったと判定した場合、ステップS3に進む。ステップS3において、奥行き製作支援装置1の制御部11は、ユーザからの入力指示に基づいて奥行き設定するマスクを変更する。   In step S2, the control unit 11 of the depth production support apparatus 1 determines whether or not the user has instructed input of a mask selection pull-down, that is, whether or not a new mask has been selected from the mask selection pull-down 25 of FIG. If it is determined that there is an instruction to input a mask selection pull-down, the process proceeds to step S3. In step S <b> 3, the control unit 11 of the depth production support apparatus 1 changes the depth setting mask based on an input instruction from the user.

奥行き製作支援装置1の制御部11は、ステップS2において、マスク選択プルダウンの入力指示がないと判定した場合、または、ステップS3において、奥行き設定するマスクを変更した後、ステップS4に進む。   The control unit 11 of the depth production support apparatus 1 proceeds to step S4 when it is determined in step S2 that there is no instruction to input a mask selection pull-down, or after changing the depth setting mask in step S3.

ステップS4において、奥行き製作支援装置1の制御部11は、ユーザによってフレームスライダーバーの変更指示があったか否か、つまり、図12のフレームスライダーバー34がスライドされたか否かを判定し、フレームスライダーバーの変更指示があったと判定した場合、ステップS5に進む。   In step S4, the control unit 11 of the depth production support apparatus 1 determines whether or not the user has instructed to change the frame slider bar, that is, whether or not the frame slider bar 34 of FIG. If it is determined that there has been a change instruction, the process proceeds to step S5.

例えば、ユーザは、図12に示す奥行き設定画面26の初期画面において、フレームスライダーバー34を右方向にスライドすることで奥行き設定フレームの変更を行うことができる。   For example, the user can change the depth setting frame by sliding the frame slider bar 34 to the right in the initial screen of the depth setting screen 26 shown in FIG.

図13は、図12に示す奥行き設定画面26の状態から、マスク選択プルダウン25によって単一のマスク(例えば、マスクA)が選択され、フレームスライダーバー34がスライドされた状態を示している。マスク選択プルダウン25によってマスクAが選択されたことにより、開始フレームと終了フレームが、自動的にキーフレーム41a、42aとして設定される。また、フレームスライダーバー34のスライドに連動して、フレーム位置36もスライドされる。このとき、奥行き設定フレームの変更操作に連動して、奥行き画像表示エリア27に複数フレームの奥行き画像のプレビューが連続的に表示されるとともに、2次元画像表示エリア28に複数フレームの2次元画像のプレビューが連続的に表示される。   FIG. 13 shows a state where a single mask (for example, mask A) is selected by the mask selection pull-down 25 from the state of the depth setting screen 26 shown in FIG. 12, and the frame slider bar 34 is slid. When the mask A is selected by the mask selection pull-down 25, the start frame and the end frame are automatically set as the key frames 41a and 42a. The frame position 36 is also slid in conjunction with the slide of the frame slider bar 34. At this time, in conjunction with the change operation of the depth setting frame, a preview of depth images of a plurality of frames is continuously displayed in the depth image display area 27, and a two-dimensional image of the plurality of frames is displayed in the two-dimensional image display area 28. The preview is displayed continuously.

以上のようにして、ユーザは、簡単な操作で、奥行き設定フレームの変更を行うことができる。また、複数フレームの奥行き画像を連続的に表示させることができるため、ユーザは、フレーム間で違和感がないかどうかを容易に確認することができる。さらに、奥行き画像と元映像とを連動させて、複数フレームを連続的に表示させることができるため、奥行き画像の仕上がりを容易に確認することができる。   As described above, the user can change the depth setting frame with a simple operation. Further, since the depth images of a plurality of frames can be continuously displayed, the user can easily confirm whether or not there is a sense of incongruity between the frames. Furthermore, since a plurality of frames can be continuously displayed by linking the depth image and the original image, the finish of the depth image can be easily confirmed.

図10の説明に戻る。ステップS5において、奥行き製作支援装置1の制御部11は、ユーザによる変更指示に基づいて奥行き設定フレームの変更を行う。   Returning to the description of FIG. In step S5, the control unit 11 of the depth production support apparatus 1 changes the depth setting frame based on a change instruction from the user.

奥行き製作支援装置1の制御部11は、ステップS4において、フレームスライダーバーの変更指示がないと判定した場合、または、ステップS5において、奥行き設定フレームを変更した後、ステップS6に進む。   If it is determined in step S4 that there is no frame slider bar change instruction, or the depth setting frame is changed in step S5, the control unit 11 of the depth production support apparatus 1 proceeds to step S6.

ステップS6において、奥行き製作支援装置1の制御部11は、ユーザによって奥行き値スライダーバーの変更指示があったか否か、つまり、図12の奥行き値スライダーバー37がスライドされたか否かを判定し、奥行き値スライダーバーの変更指示があったと判定した場合、ステップS7に進む。   In step S6, the control unit 11 of the depth production support apparatus 1 determines whether or not the user has instructed to change the depth value slider bar, that is, whether or not the depth value slider bar 37 in FIG. If it is determined that there is an instruction to change the value slider bar, the process proceeds to step S7.

例えば、ユーザは、図13に示す奥行き設定画面26において、奥行き値スライダーバー37を上方向にスライドすることで奥行き値の変更を行うことができる。   For example, the user can change the depth value by sliding the depth value slider bar 37 upward on the depth setting screen 26 shown in FIG.

図14は、図13に示す奥行き設定画面26の状態から、奥行き値スライダーバー37がスライドされた状態を示している。奥行き値スライダーバー37のスライドに連動して、奥行き値曲線31aが変形される。具体的には、フレームスライダーバー34によって指定されているフレーム位置34と、奥行き値スライダーバー37によって指定されるデプス値方向の位置の交点(移動点)が上下にスライドされ、その交点の位置を確定すると(例えば、奥行き値スライダーバー37の選択を解除する操作であるマウスの左クリックを離すと)、交点にキーフレーム43aが設定される。このとき、奥行き値の変更操作に連動して、奥行き値を示す画素値を変えながら、奥行き画像表示エリア27に表示される奥行き画像のプレビューも連続的に変化される。   FIG. 14 shows a state in which the depth value slider bar 37 has been slid from the state of the depth setting screen 26 shown in FIG. The depth value curve 31 a is deformed in conjunction with the slide of the depth value slider bar 37. Specifically, the intersection (moving point) of the frame position 34 designated by the frame slider bar 34 and the position in the depth value direction designated by the depth value slider bar 37 is slid up and down, and the position of the intersection is changed. When confirmed (for example, when the left mouse button is released, which is an operation for canceling the selection of the depth value slider bar 37), the key frame 43a is set at the intersection. At this time, the preview of the depth image displayed in the depth image display area 27 is continuously changed while changing the pixel value indicating the depth value in conjunction with the change operation of the depth value.

以上のようにして、ユーザは、簡単な操作で、奥行き値の変更を行うことができる。また、奥行き値を変化させたときに、奥行き画像がどのように変化するのかを連続的に表示させることができるため、ユーザは、同一フレームにおける被写体間で違和感がないかどうかを容易に確認することができる。   As described above, the user can change the depth value with a simple operation. In addition, since it is possible to continuously display how the depth image changes when the depth value is changed, the user can easily confirm whether there is no sense of incongruity between subjects in the same frame. be able to.

図10の説明に戻る。ステップS7において、奥行き製作支援装置1の制御部11は、ユーザによる変更指示に基づいて奥行き値の設定を行う。ステップS8において、奥行き製作支援装置1の制御部11は、ステップS7で設定した奥行き値に基づいて、奥行き値の補間を行う。具体的には、図14に示すキーフレーム43aと、そのキーフレーム43aに隣接するキーフレーム41a、キーフレーム42aとの間が補間される。図14の例では、線形補間を適用しているが、これに限らず、例えば、多項式補間、スプライン補間、ベジェ曲線補間などでもよい。   Returning to the description of FIG. In step S7, the control unit 11 of the depth production support apparatus 1 sets the depth value based on a change instruction from the user. In step S8, the control unit 11 of the depth production support apparatus 1 performs depth value interpolation based on the depth value set in step S7. Specifically, the interpolation is performed between the key frame 43a shown in FIG. 14 and the key frame 41a and the key frame 42a adjacent to the key frame 43a. In the example of FIG. 14, linear interpolation is applied, but the present invention is not limited to this. For example, polynomial interpolation, spline interpolation, Bezier curve interpolation, or the like may be used.

このように、一部のフレームについて奥行き値を設定すれば、他のフレームについては、違和感のない範囲で自動的に補間されるため、全フレームの奥行き値を手作業する手間が省け、作業効率が大幅に良くなる。   In this way, if depth values are set for some frames, other frames are automatically interpolated within a range that does not cause a sense of incongruity. Will be significantly better.

ステップS9において、奥行き製作支援装置1の制御部11は、ステップS8の処理で補間された奥行き値に応じて奥行き方向の位置関係が模擬的に定義された奥行き画像を作成し、奥行き画像表示エリア27に表示させる。   In step S9, the control unit 11 of the depth production support apparatus 1 creates a depth image in which the positional relationship in the depth direction is defined in a simulated manner according to the depth value interpolated in the process of step S8, and the depth image display area 27 is displayed.

奥行き製作支援装置1の制御部11は、ステップS6において、奥行き値スライダーバーの変更指示がないと判定した場合、または、ステップS9において、奥行き画像の作成、表示が行われた後、ステップS10に進む。   If it is determined in step S6 that there is no instruction to change the depth value slider bar, or the depth image is created and displayed in step S9, the control unit 11 of the depth production support apparatus 1 proceeds to step S10. move on.

ステップS10において、奥行き製作支援装置1の制御部11は、書き出しボタンの押下指示があったか否か、つまり、図11の書き出しボタン29が押下されたか否かを判定し、まだ書き出しボタン押下指示がないと判定した場合、ステップS2に戻り、上述した処理を繰り返し実行する。   In step S10, the control unit 11 of the depth production support apparatus 1 determines whether or not there has been an instruction to press the write button, that is, whether or not the write button 29 in FIG. 11 has been pressed. If it is determined, the process returns to step S2, and the above-described processing is repeatedly executed.

例えば、ユーザは、図14に示す奥行き設定画面26において、さらに、フレームスライダーバー34を右方向にスライドすることで奥行き設定フレームの変更を再度行うことができる。   For example, the user can change the depth setting frame again by further sliding the frame slider bar 34 to the right on the depth setting screen 26 shown in FIG.

図15は、図14に示す奥行き設定画面26の状態から、フレームスライダーバー34をスライドさせ、奥行き値スライダーバー37をスライドさせることにより新たにキーフレームを作成した状態を示している。フレームスライダーバー34のスライドに連動して、フレーム位置36もスライドされる。また、奥行き値スライダーバー37のスライドに連動して、新たなキーフレームが作成されたり、キーフレームが移動したりする。   FIG. 15 shows a state in which a key frame is newly created by sliding the frame slider bar 34 and sliding the depth value slider bar 37 from the state of the depth setting screen 26 shown in FIG. In conjunction with the slide of the frame slider bar 34, the frame position 36 is also slid. Also, a new key frame is created or the key frame is moved in conjunction with the slide of the depth value slider bar 37.

具体的には、奥行き値スライダーバー37を動かした際、そのフレームにキーフレームが存在しなければ新たなキーフレームが作成され、キーフレームが存在すればそのキーフレームが移動する。このとき、奥行き設定フレームの変更操作に連動して、奥行き画像表示エリア27に複数フレームの奥行き画像のプレビューが連続的に表示されるとともに、2次元画像表示エリア28に複数フレームの2次元画像のプレビューが連続的に表示される。   Specifically, when the depth value slider bar 37 is moved, if there is no key frame in the frame, a new key frame is created, and if there is a key frame, the key frame moves. At this time, in conjunction with the change operation of the depth setting frame, a preview of depth images of a plurality of frames is continuously displayed in the depth image display area 27 and a two-dimensional image of the plurality of frames is displayed in the two-dimensional image display area 28. The preview is displayed continuously.

以上のようにして、ユーザは、簡単な操作で、奥行き設定フレームと奥行き値の変更を何度も行うことができるため、1つのマスクに対して複数個のキーフレームを設定することが可能である。また、複数フレームの奥行き画像を連続的に表示させたり、奥行き画像と元映像とを連動させて、複数フレームを連続的に表示させたりすることができるため、ユーザは、フレーム間で違和感がないかどうか、奥行き画像の仕上がりを容易に確認することができる。   As described above, since the user can change the depth setting frame and the depth value many times with a simple operation, a plurality of key frames can be set for one mask. is there. In addition, since the depth image of a plurality of frames can be displayed continuously, or the plurality of frames can be displayed continuously by linking the depth image and the original video, the user does not feel uncomfortable between the frames. Whether or not the depth image is finished can be easily confirmed.

また例えば、図15に示す奥行き設定画面26の状態において、ユーザは、マスク選択プルダウン25から別のマスク(例えば、マスクB)を選択し、上述したような奥行き設定フレームと奥行き値の変更を行うこともできる。   Further, for example, in the state of the depth setting screen 26 shown in FIG. 15, the user selects another mask (for example, mask B) from the mask selection pull-down 25 and changes the depth setting frame and the depth value as described above. You can also.

図16は、図15に示す奥行き設定画面26の状態において、マスク選択プルダウン25からマスクBが選択され、奥行き値スライダーバー37がスライドされた状態を示している。マスク選択プルダウン25によってマスクBが選択されたことにより、開始フレームと終了フレームが、自動的にキーフレーム41b、42として設定される。そして、奥行き値スライダーバー37のスライドに連動して、キーフレーム41bが上下にスライドされ、位置確定により、キーフレーム41bの位置が変更される。このとき、奥行き値の変更操作に連動して、奥行き値を示す画素値を変えながら、奥行き画像表示エリア27に表示される奥行き画像のプレビューも連続的に変化される。   FIG. 16 shows a state in which the mask B is selected from the mask selection pull-down 25 and the depth value slider bar 37 is slid in the state of the depth setting screen 26 shown in FIG. When the mask B is selected by the mask selection pull-down 25, the start frame and the end frame are automatically set as the key frames 41b and 42. Then, in conjunction with the slide of the depth value slider bar 37, the key frame 41b is slid up and down, and the position of the key frame 41b is changed by determining the position. At this time, the preview of the depth image displayed in the depth image display area 27 is continuously changed while changing the pixel value indicating the depth value in conjunction with the change operation of the depth value.

以上のようにして、ユーザは、簡単な操作で、別のマスクについても奥行き設定フレームや奥行き値の変更を行うことができる。また、別のマスクについても、奥行き画像がどのように変化するのかを連続的に表示させたり、複数フレームの奥行き画像を連続的に表示させたり、奥行き画像と元映像とを連動させて、複数フレームを連続的に表示させたりすることができるため、ユーザは、同一フレームにおける被写体間で違和感がないかどうか、フレーム間で違和感がないかどうか、奥行き画像の仕上がりを容易に確認することができる。   As described above, the user can change the depth setting frame and the depth value for another mask with a simple operation. Also, for other masks, how the depth image changes can be displayed continuously, multiple frames of depth images can be displayed continuously, and the depth image and the original video can be linked together. Since the frames can be displayed continuously, the user can easily check whether there is no sense of incongruity between subjects in the same frame, whether there is no sense of incongruity between frames, and the depth image finish. .

図10の説明に戻る。ステップS10において、奥行き製作支援装置1の制御部11は、書き出しボタンの押下指示があったと判定した場合、ステップS11に進み、以上のようにして奥行き設定フレームや奥行き値が変更(補間)された奥行き画像7を記憶部12に保存する。ステップS12において、奥行き製作支援装置1の制御部11は、2次元画像3に対応付けてラベル画像8を作成し、記憶部12に保存する。   Returning to the description of FIG. In step S10, when the control unit 11 of the depth production support apparatus 1 determines that there is an instruction to press the write button, the process proceeds to step S11, and the depth setting frame and the depth value are changed (interpolated) as described above. The depth image 7 is stored in the storage unit 12. In step S <b> 12, the control unit 11 of the depth production support apparatus 1 creates a label image 8 in association with the two-dimensional image 3 and stores it in the storage unit 12.

図17は、ラベル画像8の作成を説明する図である。   FIG. 17 is a diagram for explaining the creation of the label image 8.

例えば、図17(a)に示すように、マスク画像5dは、四角の物体の被写体のマスクDであり、マスク画像5eは、円の物体の被写体のマスクEであるとする。上述したような奥行き値の設定により、図17(b)に示すように、マスクDの被写体7dが最も手前(白)、マスクEの被写体7eの被写体が最も奥(黒)となるように奥行き値が設定され、奥行き画像7が生成されたとする。   For example, as shown in FIG. 17A, it is assumed that the mask image 5d is a mask D of a subject of a square object, and the mask image 5e is a mask E of a subject of a circle object. By setting the depth value as described above, as shown in FIG. 17B, the depth is set so that the subject 7d of the mask D is closest (white) and the subject 7e of the mask E is deepest (black). It is assumed that a value is set and a depth image 7 is generated.

図17(c)に示すように、手前の被写体7dに対応するラベルDについては、マスク画像5Dと同様の領域が、ラベルDのラベリング領域8dとしてラベリングされる。   As shown in FIG. 17C, for the label D corresponding to the subject 7d in front, the same area as the mask image 5D is labeled as the labeling area 8d of the label D.

図17(c)に示すように、奥の被写体7eに対応するラベルEについては、マスク画像5eの領域からラベルDとの重複部分を除いた領域(斜線部の領域)が、ラベルEのラベリング領域8eとしてラベリングされる。   As shown in FIG. 17C, for the label E corresponding to the subject 7e in the back, the label E of the label E is an area (a hatched area) obtained by removing the overlapping portion with the label D from the area of the mask image 5e. Labeled as region 8e.

以上のように、ラベル画像8には、他のマスク画像5と重複していない、又は他のマスク画像5よりも手前の被写体については、マスク画像5と同じ領域がラベリングされる(図17のラベルD)。また、ラベル画像8には、他のマスク画像5と重複しており、他のマスク画像5よりも奥の被写体については、マスク画像5の領域から重複部分を除外した領域がラベリングされる(図17のラベルE)。   As described above, the label image 8 is labeled with the same area as the mask image 5 for the subject that does not overlap with the other mask image 5 or is in front of the other mask image 5 (see FIG. 17). Label D). Further, the label image 8 overlaps with the other mask image 5, and for the subject behind the other mask image 5, an area excluding the overlapped portion from the area of the mask image 5 is labeled (FIG. 17 Label E).

[発明の実施の形態における効果]
1.同一被写体の複数フレームに対する奥行き値を互いに比較表示させながら、奥行き値の設定ができるので、フレーム間で違和感のない奥行き値を設定することが可能となる。これにより、ユーザは、フレーム間で違和感がないかどうかを容易に確認することができる。
[Effects of the embodiment of the invention]
1. Since the depth value can be set while the depth values for a plurality of frames of the same subject are displayed in comparison with each other, it is possible to set a depth value that does not feel uncomfortable between frames. Thereby, the user can easily confirm whether there is no sense of incongruity between frames.

2.同一フレームの複数被写体に対する奥行き値を互いに比較表示させながら、奥行き値の設定ができるので、同一フレームにおける被写体間で違和感のない奥行き値を設定することが可能となる。これにより、ユーザは、同一フレームにおける被写体間で違和感がないかどうかを容易に確認することができる。   2. Since the depth value can be set while the depth values for a plurality of subjects in the same frame are displayed in comparison with each other, it is possible to set a depth value that does not feel uncomfortable between subjects in the same frame. Thereby, the user can easily confirm whether there is no sense of incongruity between subjects in the same frame.

3.一部のフレームについて奥行き値を設定すれば、他のフレームについては、装置が違和感のない範囲で自動的に補間するので、全フレームの奥行き値を手作業で設定していた従来と比較して、作業効率が大幅に良くなる。   3. If the depth value is set for some frames, the device automatically interpolates within the range where there is no sense of incongruity for other frames. Compared to the conventional method in which the depth values for all frames are set manually. , Work efficiency will be greatly improved.

4.奥行き画像と元映像を連動させて、複数フレームを連続的に表示させることができるので、奥行き画像の仕上りを容易に確認することができる。   4). Since the depth image and the original image can be linked and a plurality of frames can be continuously displayed, the finish of the depth image can be easily confirmed.

5.奥行き値の設定が必要なフレームだけを表示させることができ、利便性が高まる。   5). Only frames that require setting of the depth value can be displayed, increasing convenience.

以上、添付図面を参照しながら、本発明に係る奥行き製作支援装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the depth production support apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………奥行き製作支援装置
3………2次元画像
4………背景画像
5………マスク画像
6………奥行き値
7………奥行き画像
8………ラベル画像
DESCRIPTION OF SYMBOLS 1 ......... Depth production support device 3 ......... 2D image 4 ......... Background image 5 ......... Mask image 6 ...... Depth value 7 ......... Depth image 8 ... …… Label image

Claims (8)

立体視を実現するための視差画像の生成処理に利用する奥行き画像を製作する奥行き製作支援装置であって、
元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込手段と、
前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示手段と、
前記奥行き値曲線表示手段において、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定手段と、
前記設定手段において奥行き値が設定された前記フレームの前後の奥行き値を補間する補間手段と、
前記補間手段による補間結果に基づいて、前記奥行き画像を作成する奥行き画像作成手段と、
を備えることを特徴とする奥行き製作支援装置。
A depth production support apparatus for producing a depth image used for generating a parallax image for realizing stereoscopic viewing,
Reading means for reading a plurality of binarized mask images for identifying a specific subject for each frame of the original video;
Depth value curve display means for displaying a depth value curve indicating a depth value in each frame for each mask image;
In the depth value curve display means, setting means for setting the depth value of a single frame in the depth value curve of the selected single mask image;
Interpolating means for interpolating depth values before and after the frame for which depth values are set in the setting means;
A depth image creating means for creating the depth image based on an interpolation result by the interpolation means;
A depth production support device characterized by comprising:
前記設定手段は、前記奥行き値曲線表示手段において奥行き値を指定するための画面部品である奥行き値指定部品を有し、
前記奥行き値指定部品の移動に連動して、前記奥行き値を示す画素値を変えながら、前記奥行き画像のプレビューを表示する奥行き画像表示手段をさらに備える
ことを特徴とする請求項1に記載の奥行き製作支援装置。
The setting means has a depth value designation component which is a screen component for designating a depth value in the depth value curve display means,
The depth according to claim 1, further comprising a depth image display unit that displays a preview of the depth image while changing a pixel value indicating the depth value in conjunction with the movement of the depth value designation component. Production support device.
前記設定手段は、前記奥行き値曲線表示手段において時刻を指定するための画面部品である時刻指定部品を有し、
前記奥行き画像表示手段は、前記時刻指定部品の移動に連動して、奥行き画像のフレームを変更する
ことを特徴とする請求項2に記載の奥行き製作支援装置。
The setting means has a time designation component which is a screen component for designating time in the depth value curve display means,
The depth production support apparatus according to claim 2, wherein the depth image display means changes the frame of the depth image in conjunction with the movement of the time designation component.
前記時刻指定部品の移動に連動して、映像の時刻を変えながら前記元の映像を表示する映像表示手段をさらに備える
ことを特徴とする請求項3に記載の奥行き製作支援装置。
The depth production support device according to claim 3, further comprising video display means for displaying the original video while changing the time of the video in conjunction with the movement of the time designation component.
前記補間手段による補間結果に基づいて、前記元の映像を構成する被写体を識別するラベル値を画素値に置き換えた画像であるラベル画像を作成するラベル画像作成手段をさらに備える
ことを特徴とする請求項1に記載の奥行き製作支援装置。
The apparatus further comprises label image creation means for creating a label image that is an image in which a label value for identifying a subject constituting the original video is replaced with a pixel value based on an interpolation result by the interpolation means. Item 10. The depth production support device according to Item 1.
いずれか1つのマスク画像に被写体が存在するフレームの範囲を検出し、奥行き値設定範囲の開始フレームおよび終了フレームを決定するマスク範囲検出手段をさらに備える
ことを特徴とする請求項1に記載の奥行き製作支援装置。
2. The depth according to claim 1, further comprising a mask range detecting unit that detects a range of a frame in which a subject is present in any one mask image and determines a start frame and an end frame of a depth value setting range. Production support device.
立体視を実現するための視差画像の生成処理に利用する奥行き画像を製作する奥行き製作支援装置の奥行き製作支援方法であって、
元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込ステップと、
前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示ステップと、
前記奥行き値曲線表示ステップにおいて、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定ステップと、
前記設定ステップにおいて奥行き値が設定された前記フレームの前後の奥行き値を補間する補間ステップと、
前記補間ステップによる補間結果に基づいて、前記奥行き画像を作成する奥行き画像作成ステップと、
を含むことを特徴とする奥行き製作支援方法。
A depth production support method for a depth production support apparatus for producing a depth image used for generating a parallax image for realizing stereoscopic vision,
A reading step of reading a plurality of mask images binarized to identify a specific subject for each frame of the original video;
A depth value curve display step for displaying a depth value curve indicating a depth value in each frame for each mask image;
In the depth value curve display step, a setting step of setting the depth value of a single frame in the depth value curve of the selected single mask image;
An interpolation step of interpolating the depth values before and after the frame in which the depth value is set in the setting step;
A depth image creating step for creating the depth image based on the interpolation result of the interpolation step;
A depth production support method characterized by comprising:
コンピュータに、
元の映像の各フレームに対して、特定の被写体を識別するために2値化された複数のマスク画像を読み込む読込ステップと、
前記マスク画像毎に、各フレームにおける奥行き値を示す奥行き値曲線を表示する奥行き値曲線表示ステップと、
前記奥行き値曲線表示ステップにおいて、選択された単一のマスク画像の奥行き値曲線における単一のフレームの奥行き値を設定する設定ステップと、
前記設定ステップにおいて奥行き値が設定された前記フレームの前後の奥行き値を補間する補間ステップと、
前記補間ステップによる補間結果に基づいて、立体視を実現するための視差画像の生成処理に利用する奥行き画像を作成する奥行き画像作成ステップと、
を実行させるためのプログラム。
On the computer,
A reading step of reading a plurality of mask images binarized to identify a specific subject for each frame of the original video;
A depth value curve display step for displaying a depth value curve indicating a depth value in each frame for each mask image;
In the depth value curve display step, a setting step of setting the depth value of a single frame in the depth value curve of the selected single mask image;
An interpolation step of interpolating the depth values before and after the frame in which the depth value is set in the setting step;
A depth image creating step for creating a depth image to be used for a process of generating a parallax image for realizing stereoscopic viewing based on the interpolation result of the interpolation step;
A program for running
JP2011168920A 2011-08-02 2011-08-02 Depth production support apparatus, depth production support method, and program Expired - Fee Related JP5817300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011168920A JP5817300B2 (en) 2011-08-02 2011-08-02 Depth production support apparatus, depth production support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011168920A JP5817300B2 (en) 2011-08-02 2011-08-02 Depth production support apparatus, depth production support method, and program

Publications (2)

Publication Number Publication Date
JP2013034084A true JP2013034084A (en) 2013-02-14
JP5817300B2 JP5817300B2 (en) 2015-11-18

Family

ID=47789590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011168920A Expired - Fee Related JP5817300B2 (en) 2011-08-02 2011-08-02 Depth production support apparatus, depth production support method, and program

Country Status (1)

Country Link
JP (1) JP5817300B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5920858B1 (en) * 2015-07-01 2016-05-18 株式会社Live2D Program, information processing apparatus, depth definition method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5920858B1 (en) * 2015-07-01 2016-05-18 株式会社Live2D Program, information processing apparatus, depth definition method, and recording medium
WO2017002483A1 (en) * 2015-07-01 2017-01-05 株式会社Live2D Program, information processing device, depth definition method, and recording medium
US10297036B2 (en) 2015-07-01 2019-05-21 Live2D Inc. Recording medium, information processing apparatus, and depth definition method

Also Published As

Publication number Publication date
JP5817300B2 (en) 2015-11-18

Similar Documents

Publication Publication Date Title
JP6627861B2 (en) Image processing system, image processing method, and program
CN102208115B (en) The technology of three-dimensional view is generated based on 3 d medical images
WO2018188499A1 (en) Image processing method and device, video processing method and device, virtual reality device and storage medium
JP4440067B2 (en) Image processing program for stereoscopic display, image processing apparatus, and stereoscopic display system
US20110157155A1 (en) Layer management system for choreographing stereoscopic depth
JP2010510573A (en) System and method for synthesizing a three-dimensional image
US20020047835A1 (en) Image display apparatus and method of displaying image data
US20090244258A1 (en) Stereoscopic display apparatus, stereoscopic display method, and program
JP2012094111A (en) Image processing device, image processing method and program
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016136699A (en) Information processing apparatus, control method thereof, program, and storage medium
JP2011023902A (en) Image processor and image processing method
JPWO2006049208A1 (en) Image composition apparatus and image composition method
JP5832211B2 (en) Image processing apparatus, image processing method, and program
JP2012094936A (en) Image processor, image processing method, and program
JP6376591B2 (en) Data output device, data output method, and three-dimensional object manufacturing system
JP5857606B2 (en) Depth production support apparatus, depth production support method, and program
JP5817300B2 (en) Depth production support apparatus, depth production support method, and program
KR101632514B1 (en) Method and apparatus for upsampling depth image
JP6182930B2 (en) Depth production support device, depth production method, and program
JP5994320B2 (en) Depth production support apparatus, depth production support method, and program
CN106169187A (en) For the method and apparatus that the object in video is set boundary
JP5980960B2 (en) Video generation device, video generation program, and video generation method
US10553004B2 (en) Method and apparatus for processing image and recording medium storing program therefor
JP5966837B2 (en) Depth production support apparatus, depth production support method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R150 Certificate of patent or registration of utility model

Ref document number: 5817300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees