JP2013031057A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013031057A
JP2013031057A JP2011166627A JP2011166627A JP2013031057A JP 2013031057 A JP2013031057 A JP 2013031057A JP 2011166627 A JP2011166627 A JP 2011166627A JP 2011166627 A JP2011166627 A JP 2011166627A JP 2013031057 A JP2013031057 A JP 2013031057A
Authority
JP
Japan
Prior art keywords
video
parallax
video scene
scene
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011166627A
Other languages
Japanese (ja)
Inventor
Yoshiro Murakami
芳郎 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011166627A priority Critical patent/JP2013031057A/en
Publication of JP2013031057A publication Critical patent/JP2013031057A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to visually recognize video image data switched from 2D video scene to 3D video scene without feeling strangeness while the user is visually recognizing mixed video image data of the 2D video scene and the 3D video scene.SOLUTION: An image processing apparatus comprises a video acquisition section 112 for acquiring mixed video image data of 2D video scene and 3D video scene to be perceived in a three-dimensional state; a switchover detection section 130 for detecting the timing point of a switchover from the 2D video scene to the 3D video scene with the video acquisition section 112; a parallax derivation section 134 for deriving parallaxes at a prescribed condition in the 3D video scene; a target set section 136 for setting a parallax as a target value at a prescribed time after the switchover timing point among parallaxes derived by the parallax derivation section; and a parallax adjustment section 138 for adjusting the 3D video scene to make an absolute value of parallaxes in the 3D video scene gradually increase from a predetermined value to the target value over a predetermined time after the changeover timing point.

Description

本発明は、立体映像を知覚させるための映像データを再生可能な映像処理装置および映像処理方法に関する。   The present invention relates to a video processing apparatus and a video processing method capable of reproducing video data for perceiving a stereoscopic video.

近年、ディスプレイ上に、両眼視差(水平視差)を有する2つの映像を提示し、ユーザに対してあたかも被写体像が立体的に存在するように知覚させる立体映像(3D映像)の技術が脚光を浴びている。かかる技術で用いられる2つの映像は、例えば、異なる光軸(視点)それぞれにおいて撮像された映像である。以下では、このような3D映像に対して、立体的な知覚効果のない映像を2D映像と称する。   In recent years, the technology of stereoscopic video (3D video) that presents two videos having binocular parallax (horizontal parallax) on a display and makes the user perceive that the subject image exists stereoscopically has attracted attention. I'm bathing. Two images used in such a technique are images taken at different optical axes (viewpoints), for example. Hereinafter, an image having no stereoscopic effect is referred to as a 2D image with respect to such a 3D image.

このような映像を放送する場合に、例えば、2D映像を放送しているチャンネルと3D映像を放送しているチャンネルとの切り換え時、視差のない映像から視差のある映像に移行するため、ユーザは、急激な視差の変化に違和感を覚える可能性がある。そこで、チャンネルの切り換え時、時間をかけて順次、視差を変化させて出力する構成が提案されている(例えば、特許文献1)。   When broadcasting such a video, for example, when switching between a channel broadcasting 2D video and a channel broadcasting 3D video, the user transitions from a video with no parallax to a video with parallax. The sudden parallax change may make you feel uncomfortable. Therefore, a configuration has been proposed in which the parallax is changed and output sequentially over time when switching channels (for example, Patent Document 1).

また、放送に限らず、例えば、記憶メディア等から取得した2D映像から3D映像を生成して表示可能な表示装置もある。このような表示装置について、予め設定された視聴時間制限等から、2D映像と3D映像との相互の切り換えタイミングを判定し、2D映像から3D映像への切り換えにおいて、視差が徐々に大きくなるように3D映像を生成して出力する技術が提案されている(例えば、特許文献2)。   In addition to broadcasting, there are display devices that can generate and display 3D video from 2D video acquired from a storage medium or the like, for example. For such a display device, the mutual switching timing between 2D video and 3D video is determined from a preset viewing time limit, etc., so that the parallax gradually increases when switching from 2D video to 3D video. A technique for generating and outputting a 3D video has been proposed (for example, Patent Document 2).

一方、2D映像シーン(2D映像の場面(シーン))と3D映像シーン(3D映像の場面(シーン))とが混在した映像データを生成可能な撮像装置について、2D映像シーンであるか3D映像シーンであるかを示す制御情報を制御信号として出力する技術が提案されている(例えば、特許文献3)。   On the other hand, regarding an imaging apparatus capable of generating video data in which 2D video scenes (2D video scenes (scenes)) and 3D video scenes (3D video scenes (scenes)) are mixed, are 2D video scenes or 3D video scenes? A technique for outputting control information indicating whether or not as a control signal has been proposed (for example, Patent Document 3).

特開平11−164328号公報JP-A-11-164328 特開2004−328566号公報Japanese Patent Laid-Open No. 2004-328566 特開2008−42645号公報JP 2008-42645 A

上述した特許文献3に記載の技術等によって生成された、2D映像シーンと3D映像シーンが混在した映像データをユーザが視聴する場合においても、上述した放送チャンネルの切り換えと同様、2D映像シーンから3D映像シーンへ切り換える際、ユーザは、急激な視差の変化に違和感を覚える可能性がある。   Even when a user views video data including a 2D video scene and a 3D video scene generated by the technique described in Patent Document 3 described above, 3D from a 2D video scene is switched in the same manner as the above-described switching of the broadcast channel. When switching to a video scene, the user may feel uncomfortable with a sudden change in parallax.

そこで本発明は、このような課題に鑑み、ユーザが2D映像シーンおよび3D映像シーンが混在した映像データを視認中、2D映像シーンから3D映像シーンへの切り換えにおいて、違和感なく映像を視認することが可能な映像処理装置および映像処理方法を提供することを目的としている。   Therefore, in view of such problems, the present invention allows a user to visually recognize a video without a sense of incongruity when switching from a 2D video scene to a 3D video scene while the user is viewing video data in which a 2D video scene and a 3D video scene are mixed. It is an object of the present invention to provide a possible video processing apparatus and video processing method.

上記課題を解決するために、本発明の映像処理装置は、2D映像シーン、および、立体的に知覚される3D映像シーンが混在した映像データを取得する映像取得部と、2D映像シーンから3D映像シーンへの切り換え時点を検出する切換検出部と、3D映像シーンにおける所定条件の視差を導出する視差導出部と、視差導出部が導出した視差のうち、切り換え時点から所定時間後の視差を目標値として設定する目標設定部と、切り換え時点から所定時間にわたり、3D映像シーンの視差の絶対値が、所定値から目標値まで漸増するように、3D映像シーンを調整する視差調整部と、を備えることを特徴とする。   In order to solve the above-described problems, a video processing apparatus according to the present invention includes a video acquisition unit that acquires video data including a 2D video scene and a 3D video scene that is perceived stereoscopically, and a 3D video from the 2D video scene. Of the parallax derived from the parallax derived by the parallax deriving unit, the parallax deriving unit for deriving the parallax of the predetermined condition in the 3D video scene, the parallax after the predetermined time from the switching time is the target value And a parallax adjustment unit that adjusts the 3D video scene so that the absolute value of the parallax of the 3D video scene gradually increases from the predetermined value to the target value over a predetermined time from the switching time point. It is characterized by.

上記映像処理装置は、所定の被写体を特定する被写体特定部をさらに備え、視差導出部は、被写体特定部が特定した所定の被写体の視差を導出してもよい。   The video processing apparatus may further include a subject specifying unit that specifies a predetermined subject, and the parallax deriving unit may derive the parallax of the predetermined subject specified by the subject specifying unit.

上記課題を解決するために、本発明の映像処理方法は、2D映像シーン、および、立体的に知覚される3D映像シーンが混在した映像データを取得し、2D映像シーンから3D映像シーンへの切り換え時点を検出し、3D映像シーンにおける所定条件の視差を導出し、導出した視差のうち、切り換え時点から所定時間後の視差を目標値として設定し、切り換え時点から所定時間にわたり、3D映像シーンの視差の絶対値が、所定値から目標値まで漸増するように、3D映像シーンを調整することを特徴とする。   In order to solve the above problems, the video processing method of the present invention acquires 2D video scenes and video data in which 3D video scenes that are perceived stereoscopically are mixed, and switches from 2D video scenes to 3D video scenes. Detect a time point, derive a parallax of a predetermined condition in the 3D video scene, set a parallax after a predetermined time from the switching time point as a target value among the derived parallaxes, and set the parallax of the 3D video scene for a predetermined time from the switching time point The 3D video scene is adjusted so that the absolute value of the value gradually increases from a predetermined value to a target value.

本発明によれば、ユーザが2D映像シーンおよび3D映像シーンが混在した映像データを視認中、2D映像シーンから3D映像シーンへの切り換えにおいて、違和感なく映像を視認することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to visually recognize a video without a sense of incongruity when the user is viewing video data in which a 2D video scene and a 3D video scene are mixed while switching from a 2D video scene to a 3D video scene.

映像処理装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the video processing apparatus. 視差調整処理を説明するための説明図である。It is explanatory drawing for demonstrating a parallax adjustment process. 映像処理方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a video processing method.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(映像処理装置100)
図1は、映像処理装置100の概略的な機能を示した機能ブロック図である。図1中、実線矢印はデータの流れを示し、破線矢印は制御信号の流れを示している。図1に示すように、映像処理装置100は、操作部110と、映像取得部112と、一時記憶部114と、復号部116と、合成部118と、映像出力部120と、中央制御部122とを含んで構成される。
(Video processing apparatus 100)
FIG. 1 is a functional block diagram illustrating schematic functions of the video processing apparatus 100. In FIG. 1, solid arrows indicate the flow of data, and broken arrows indicate the flow of control signals. As shown in FIG. 1, the video processing apparatus 100 includes an operation unit 110, a video acquisition unit 112, a temporary storage unit 114, a decoding unit 116, a synthesis unit 118, a video output unit 120, and a central control unit 122. It is comprised including.

操作部110は、操作キー、十字キー、ジョイスティック等で構成され、ユーザの操作入力を受け付ける。映像取得部112は、例えば、3D/2D撮像装置、DVD、BD(Blu-ray Disc)、不揮発性メモリ、およびデジタルテレビチューナ等から、立体的に知覚される2D映像シーンおよび3D映像シーンが混在した映像データを取得する。   The operation unit 110 includes operation keys, a cross key, a joystick, and the like, and accepts user operation inputs. The video acquisition unit 112 mixes a 3D perceived 2D video scene and a 3D video scene from a 3D / 2D imaging device, a DVD, a BD (Blu-ray Disc), a nonvolatile memory, a digital TV tuner, and the like. Acquired video data.

かかる映像データには、少なくとも2D映像シーンから3D映像シーンへの切り換え時点(以下、3D切換時点と称する)を特定するため、そのシーン(場面)が2D映像シーンであるか3D映像シーンであるかを示す情報である制御情報が含まれている。   In such video data, at least a switching time point from the 2D video scene to the 3D video scene (hereinafter referred to as a 3D switching time point) is specified, so whether the scene (scene) is a 2D video scene or a 3D video scene. Control information, which is information indicating

ここで、3D映像シーンは、両眼視差(水平視差)を有する2つの映像を提示し、ユーザに対してあたかも被写体像が立体的に存在するように知覚させる立体映像(3D映像)のシーンである。かかる2つの映像は、例えば、異なる光軸(視点)それぞれにおいて撮像された映像である。また、本実施形態では、このような立体的な知覚効果のある3D映像シーンに対して、立体的な知覚効果のない映像のシーンを2D映像シーンと称する。   Here, the 3D video scene is a scene of a stereoscopic video (3D video) that presents two videos having binocular parallax (horizontal parallax) and makes the user perceive as if the subject image exists stereoscopically. is there. Such two images are, for example, images taken at different optical axes (viewpoints). In the present embodiment, a video scene without a stereoscopic perception effect is referred to as a 2D video scene with respect to a 3D video scene having a stereoscopic perception effect.

一時記憶部114は、HDD、フラッシュメモリ、RAM等で構成され、映像取得部112が取得した映像データを一時的に保持する。復号部116は、一時記憶部114に保持された映像データを読み出し、復号処理を行う。また、復号部116は、中央制御部122の制御に応じ、映像データが2D映像シーンである場合、復号した映像データを、直接、映像出力部120に出力する。また、映像データが3D映像シーンである場合、復号した両眼視差を有する2つの映像データである映像データ(左眼用映像データおよび右眼用映像データ)を合成部118に出力する。   The temporary storage unit 114 includes an HDD, a flash memory, a RAM, and the like, and temporarily holds the video data acquired by the video acquisition unit 112. The decoding unit 116 reads the video data held in the temporary storage unit 114 and performs a decoding process. In addition, when the video data is a 2D video scene, the decoding unit 116 outputs the decoded video data directly to the video output unit 120 according to the control of the central control unit 122. When the video data is a 3D video scene, video data (left-eye video data and right-eye video data) that is two video data having decoded binocular parallax is output to the synthesis unit 118.

合成部118は、後述する視差調整部138の制御に従い、復号部116が出力した、例えば、サイドバイサイド方式、トップアンドボトム方式、ラインバイライン方式、フレームシーケンシャル方式等の2つの映像データを、表示装置150の立体表示方式に対応する形式に合成する。   The synthesizing unit 118 displays two pieces of video data output from the decoding unit 116, for example, side-by-side method, top-and-bottom method, line-by-line method, frame sequential method, and the like, according to control of the parallax adjustment unit 138 described later. It is synthesized into a format corresponding to 150 stereoscopic display methods.

映像出力部120は、復号部116が出力した2D映像シーンの映像データ、または、視差調整部138が視差を調整した3D映像シーンを含む映像データを表示装置150に出力する。   The video output unit 120 outputs the video data of the 2D video scene output from the decoding unit 116 or the video data including the 3D video scene adjusted by the parallax adjustment unit 138 to the display device 150.

中央制御部122は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、映像処理装置100全体を管理および制御する。また、本実施形態において、中央制御部122は、切換検出部130、被写体特定部132、視差導出部134、目標設定部136、視差調整部138としても機能する。   The central control unit 122 manages and controls the entire video processing apparatus 100 by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing programs, a RAM as a work area, and the like. In the present embodiment, the central control unit 122 also functions as the switching detection unit 130, the subject specifying unit 132, the parallax derivation unit 134, the target setting unit 136, and the parallax adjustment unit 138.

切換検出部130は、復号部116から復号された映像データを取得し、取得した映像データの制御情報に基づいて、3D切換時点を検出する。また、切換検出部130は、映像データに制御情報がない場合、2D映像シーンであるか3D映像シーンであるかを、そのデータ構造の違いから判定し、3D切換時点を検出することもできる。   The switching detection unit 130 acquires the decoded video data from the decoding unit 116, and detects the 3D switching point based on the control information of the acquired video data. In addition, when there is no control information in the video data, the switching detection unit 130 can determine whether the scene is a 2D video scene or a 3D video scene from the difference in the data structure, and can detect the 3D switching time point.

被写体特定部132は、所定の被写体を特定する。被写体特定部132は、例えば、顔検出等によって検出された人物を所定の被写体としてもよい。さらに、複数の人物が検出される場合、例えば、大きく映り込んでいる人物や、視差等から特定される最前面の人物を、所定の被写体としてもよい。かかる被写体の特定、例えば顔検出等は既存の様々な技術を適用可能なため、ここでは詳細な説明を省略する。   The subject specifying unit 132 specifies a predetermined subject. For example, the subject specifying unit 132 may use a person detected by face detection or the like as a predetermined subject. Furthermore, when a plurality of persons are detected, for example, a person who is reflected largely or a foreground person specified by parallax or the like may be set as a predetermined subject. Since various existing techniques can be applied to the identification of the subject, for example, face detection, detailed description is omitted here.

視差導出部134は、3D映像シーンにおける所定条件の視差を導出する。本実施形態において、所定条件の視差は、被写体特定部132が特定した被写体の視差である。すなわち、視差導出部134は、被写体特定部132が特定した所定の被写体の視差を導出することとなる。   The parallax deriving unit 134 derives parallax under a predetermined condition in the 3D video scene. In the present embodiment, the parallax of the predetermined condition is the parallax of the subject specified by the subject specifying unit 132. That is, the parallax deriving unit 134 derives the parallax of the predetermined subject specified by the subject specifying unit 132.

目標設定部136は、視差導出部134が導出した視差のうち、3D切換時点から所定時間(例えば、3秒)後の3D映像シーンにおける所定の被写体の視差を目標値として設定する。   The target setting unit 136 sets a parallax of a predetermined subject in a 3D video scene after a predetermined time (for example, 3 seconds) from the 3D switching time point as a target value among the parallaxes derived by the parallax deriving unit 134.

視差調整部138は、3D切換時点から所定時間にわたり、3D映像シーンにおける所定の被写体の視差の絶対値が、所定値(例えば0)から目標値まで漸増するように3D映像シーンを調整して、合成部118に合成させる。   The parallax adjustment unit 138 adjusts the 3D video scene so that the absolute value of the parallax of the predetermined subject in the 3D video scene gradually increases from a predetermined value (for example, 0) to a target value over a predetermined time from the 3D switching time point, The combining unit 118 performs the combining.

3D映像シーンの映像データに対する視差の絶対値を漸増させる調整について、視差調整部138は、例えば、時間軸に対して視差の絶対値が0から目標値まで線形的に増加させてもよいし、曲線的に増加させてもよいし、段階的に増加させてもよい。   For the adjustment that gradually increases the absolute value of the parallax for the video data of the 3D video scene, the parallax adjustment unit 138 may linearly increase the absolute value of the parallax from 0 to the target value with respect to the time axis, for example, It may be increased in a curve or may be increased in stages.

続いて、視差導出部134による視差導出処理について詳述し、その後、視差調整部138による視差調整処理について詳述する。   Subsequently, the parallax derivation processing by the parallax derivation unit 134 will be described in detail, and then the parallax adjustment processing by the parallax adjustment unit 138 will be described in detail.

(視差導出処理)
視差導出部134は、例えば、復号部116から取得した2つの映像データについて、被写体特定部132が特定した被写体に対しパターンマッチングを実行し、各フレーム(1の映像を構成する時系列に並べられた静止画データであり、立体映像においては左右2つの静止画データをいう。)における視差を導出する。
(Parallax derivation process)
For example, the parallax deriving unit 134 performs pattern matching on the subject specified by the subject specifying unit 132 with respect to the two pieces of video data acquired from the decoding unit 116, and arranges each frame (in time series constituting one video). The parallax in the three-dimensional video is referred to as the left and right still image data.

ただし、3D映像シーンにおいて、視差は水平方向にしか生じないので、視差の方向は単純に正負の符号(+−)で示すことができる。ここでは、例えば、映像処理装置100の表示位置よりユーザ側(飛び出し側)に結像させる方向を正、映像処理装置100の表示位置よりユーザと逆側(奥まる側)に結像される方向を負とする。   However, since the parallax occurs only in the horizontal direction in the 3D video scene, the direction of the parallax can be simply indicated by a positive / negative sign (+ −). Here, for example, the direction in which the image is formed on the user side (protruding side) from the display position of the video processing device 100 is normal, and the direction in which the image is formed on the opposite side (back side) from the display position of the video processing device 100 Is negative.

このようなパターンマッチング処理によって、視差導出部134は、3D映像シーンの映像データの3D切換時点における被写体の視差と、3D切換時点から所定時間後の被写体の視差とを導出する。   By such pattern matching processing, the parallax deriving unit 134 derives the parallax of the subject at the 3D switching time of the video data of the 3D video scene and the parallax of the subject after a predetermined time from the 3D switching time.

ここで、3D切換時点から所定時間後の被写体の視差の導出処理の流れについては、映像データの取得先によって異なる。以下、2種類の取得手段について、それぞれ説明する。   Here, the flow of the process of deriving the parallax of the subject after a predetermined time from the 3D switching time differs depending on the acquisition destination of the video data. Hereinafter, each of the two types of acquisition means will be described.

映像取得部112が、例えば、DVD、BD、不揮発性メモリ等の記憶メディアに記憶された映像データを取得している場合、再生すべき映像データが既に存在するので、切換検出部130は、映像取得部112を介して、映像データに含まれる制御情報をサーチする。そして、切換検出部130は、映像データにおけるすべての3D切換時点を検出する。   For example, when the video acquisition unit 112 acquires video data stored in a storage medium such as a DVD, a BD, or a non-volatile memory, video data to be reproduced already exists. The control information included in the video data is searched via the acquisition unit 112. Then, the switching detection unit 130 detects all 3D switching points in the video data.

映像取得部112は、切換検出部130の制御に従い、切換検出部130が検出した、すべての3D切換時点における3D映像シーンの映像データ、および3D切換時点それぞれにおける所定時間後の3D映像シーンの映像データを取得し一時記憶部114に保持させる。   The video acquisition unit 112, under the control of the switching detection unit 130, detects the video data of the 3D video scene at all 3D switching points detected by the switching detection unit 130, and the video of the 3D video scene after a predetermined time at each 3D switching point. Data is acquired and stored in the temporary storage unit 114.

被写体特定部132は、一時記憶部114に保持された映像データに基づき、3D切換時点それぞれについて、所定の被写体を特定する。視差導出部134は、それぞれの3D切換時点、およびそれぞれの3D切換時点から所定時間後の所定の被写体の視差を導出しておく。目標設定部136は、それぞれの3D切換時点から所定時間後の所定の被写体の視差を、目標値として設定する。   The subject specifying unit 132 specifies a predetermined subject at each 3D switching time point based on the video data held in the temporary storage unit 114. The parallax deriving unit 134 derives the parallax of the predetermined subject after each 3D switching time and a predetermined time after each 3D switching time. The target setting unit 136 sets the parallax of a predetermined subject after a predetermined time from each 3D switching time as a target value.

このとき、3D切換時点において特定された所定の被写体は、3D切換時点から所定時間後の3D映像シーンの映像データにおいても、被写体として映り込んでいることが望ましい。そのため、被写体特定部132は、3D切換時点と、3D切換時点から所定時間後のいずれの映像データにおいても映り込んでいる被写体を優先的に所定の被写体として特定する。   At this time, it is desirable that the predetermined subject specified at the 3D switching time point is reflected as a subject also in the video data of the 3D video scene after a predetermined time from the 3D switching time point. Therefore, the subject specifying unit 132 preferentially specifies a subject that is reflected in any video data after a predetermined time from the 3D switching time and the 3D switching time as a predetermined subject.

本実施形態では、3D切換時点と、3D切換時点から所定時間後のいずれの映像データにおいても映り込んでいる被写体が特定されない場合、視差調整処理は行われないものとする。   In the present embodiment, it is assumed that the parallax adjustment processing is not performed when a subject that is reflected in any video data at a 3D switching time point and a predetermined time after the 3D switching time point is not specified.

このように、記憶メディアから映像データを取得する場合、視差導出部134は、映像データの再生の前に、サーチ処理によって、予め映像データの視差調整に必要な視差を導出しておく。   As described above, when acquiring video data from the storage medium, the parallax deriving unit 134 derives parallax necessary for parallax adjustment of the video data in advance by search processing before reproducing the video data.

また、映像取得部112が、例えば、放送を受信したデジタルテレビチューナから映像データを取得している場合、再生すべき映像データはリアルタイムに取得されるため、一時記憶部114は、所定時間分の映像データを一時的に保持しておく。復号部116は、一時記憶部114から取得した所定時間分遅れた映像データを順次復号する。   For example, when the video acquisition unit 112 acquires video data from a digital TV tuner that has received a broadcast, the video data to be played back is acquired in real time. Temporarily hold video data. The decoding unit 116 sequentially decodes the video data delayed from the temporary storage unit 114 by a predetermined time.

そして、切換検出部130が映像データにおける3D切換時点を検出すると、被写体特定部132は、復号部116に、一時記憶部114に保持された、3D切換時点から所定時間後の映像データを復号させ、その復号した映像データを取得する。そして、被写体特定部132は、3D切換時点および3D切換時点から所定時間後の映像データの3D映像シーンの映像データに基づいて、所定の被写体を特定する。   When the switching detection unit 130 detects the 3D switching point in the video data, the subject specifying unit 132 causes the decoding unit 116 to decode the video data after a predetermined time from the 3D switching point held in the temporary storage unit 114. The decoded video data is acquired. Then, the subject specifying unit 132 specifies a predetermined subject based on the 3D switching time and the video data of the 3D video scene of the video data after a predetermined time from the 3D switching time.

そして、視差導出部134は、3D切換時点、および3D切換時点から所定時間後の所定の被写体の視差を導出する。目標設定部136は、3D切換時点から所定時間後の所定の被写体の視差を、目標値として設定する。   Then, the parallax deriving unit 134 derives the parallax of the predetermined subject after the 3D switching time and a predetermined time after the 3D switching time. The target setting unit 136 sets the parallax of a predetermined subject after a predetermined time from the 3D switching time as a target value.

このように、放送を通じて映像データを取得する場合、所定時間遅れで映像データを再生することで、視差導出部134は、3D切換時点から所定時間後の被写体の視差も導出できる。   Thus, when acquiring video data through broadcasting, the parallax deriving unit 134 can also derive the parallax of the subject after a predetermined time from the 3D switching time by reproducing the video data with a predetermined time delay.

(視差調整処理)
図2は、視差調整処理を説明するための説明図である。図2(a)から図2(d)へと、映像データを1.5秒間隔で抽出したものを時系列に示し、図2(a)は2D映像シーン、図2(b)〜(d)は3D映像シーンの映像データを示し、時間の経過を示す軸(矢印で示す)より左側が視差調整前の映像データ、右側が視差調整後の映像データを示す。
(Parallax adjustment processing)
FIG. 2 is an explanatory diagram for explaining the parallax adjustment processing. FIG. 2A to FIG. 2D show a time series of video data extracted at 1.5 second intervals. FIG. 2A shows a 2D video scene, and FIGS. ) Shows video data of a 3D video scene, the video data before parallax adjustment is shown on the left side of the axis (indicated by arrows) indicating the passage of time, and the video data after parallax adjustment is shown on the right side.

また、図2(b)〜(d)では、3D映像シーンの映像データとして、理解を容易とするため、左眼用映像データと右眼用映像データとが重畳されたものを示す。   2B to 2D, the video data of the 3D video scene is shown by superposing the left-eye video data and the right-eye video data for easy understanding.

図2(a)において、2D映像シーンの映像データは、視差の調整は行われないため、調整前の映像データ160aのみを示す。そして、図2(b)に示す映像データ160bから3D映像シーンに切り換わる。このとき、被写体特定部132は、調整前の映像データ160bから、人物170を所定の被写体として特定する。   In FIG. 2A, the video data of the 2D video scene shows only the video data 160a before the adjustment because the parallax is not adjusted. Then, the video data 160b shown in FIG. 2B is switched to a 3D video scene. At this time, the subject specifying unit 132 specifies the person 170 as a predetermined subject from the video data 160b before adjustment.

視差導出部134は、映像データ160bにおける人物170の視差を導出し、さらに、所定時間(例えば、3秒)後の映像データにおける人物170の視差を導出する。目標設定部136は、後者の視差を目標値として設定する。ここでは、視差導出部134は、図2(d)に示す映像データ160dにおける人物170の視差を導出したものとする。また、理解を容易にするため、人物170の視差は、調整前の映像データ160b、160c、160dにおいて変化しないものとする。   The parallax deriving unit 134 derives the parallax of the person 170 in the video data 160b, and further derives the parallax of the person 170 in the video data after a predetermined time (for example, 3 seconds). The target setting unit 136 sets the latter parallax as a target value. Here, it is assumed that the parallax deriving unit 134 derives the parallax of the person 170 in the video data 160d illustrated in FIG. In order to facilitate understanding, it is assumed that the parallax of the person 170 does not change in the video data 160b, 160c, and 160d before adjustment.

視差調整部138は、図2(b)に示すように、人物170の視差が0となるように、映像データを調整する(映像データ162b参照)。ここでは、視差調整部138は、左眼用映像データ全体と右眼用映像データ全体とを相対的に水平方向にずらす、具体的には、左眼用映像データを右眼用映像データに対して左方向にずらし、人物170を重畳することで視差を調整する。このときのずれ量は、3D切換時点の所定の被写体の視差の大きさと等しくなる。   The parallax adjustment unit 138 adjusts the video data so that the parallax of the person 170 becomes 0 as illustrated in FIG. 2B (see the video data 162b). Here, the parallax adjustment unit 138 relatively shifts the entire left-eye video data and the entire right-eye video data in the horizontal direction. Specifically, the parallax adjustment unit 138 converts the left-eye video data to the right-eye video data. To the left and adjust the parallax by superimposing the person 170. The shift amount at this time is equal to the magnitude of the parallax of the predetermined subject at the time of 3D switching.

このとき、例えば、左眼用映像データと右眼用映像データの水平画素数は、出力する映像データの水平画素数よりも所定数だけ大きいものとする。そして、視差調整の結果、左眼用映像データと右眼用映像データとが重複しない部分が生じても、重複する部分のみで出力する水平画素数分を確保できることとする。   At this time, for example, it is assumed that the number of horizontal pixels of the left-eye video data and the right-eye video data is larger by a predetermined number than the horizontal pixel number of the output video data. As a result of the parallax adjustment, even if there is a portion where the left-eye video data and the right-eye video data do not overlap, it is possible to ensure the number of horizontal pixels to be output only by the overlapping portion.

そして、視差調整部138は、順次、映像データの視差を調整し、3D切換時点から1.5秒後には、図2(c)に示すように、映像データ160cの視差を調整し、人物170の視差の絶対値が目標値の半分となる映像データ162cとする。   Then, the parallax adjustment unit 138 sequentially adjusts the parallax of the video data, and after 1.5 seconds from the 3D switching time, adjusts the parallax of the video data 160c as illustrated in FIG. Video data 162c in which the absolute value of the parallax is half the target value.

こうして、視差調整部138は、順次、映像データの視差を調整し、3D切換時点から3秒後には、図2(d)に示すように、映像データ160dの視差を調整し、人物170の視差の絶対値が予め導出した目標値となる、映像データ162dとする。   In this way, the parallax adjustment unit 138 sequentially adjusts the parallax of the video data, and after 3 seconds from the 3D switching time point, adjusts the parallax of the video data 160d as illustrated in FIG. It is assumed that the video data 162d has an absolute value of a target value derived in advance.

このように、本実施形態の映像処理装置100は、3D切換時点において、予め所定時間後の所定の被写体の視差を導出し、その視差を目標値として徐々に所定の被写体の視差を目標値に近づけるように3D映像データを調整する。そのため、ユーザは、視差の急激な変化に晒されることなく、違和感なく映像を視認することが可能となる。   As described above, the video processing apparatus 100 according to the present embodiment derives the parallax of a predetermined subject after a predetermined time in advance at the time of 3D switching, and gradually sets the parallax of the predetermined subject to the target value using the parallax as a target value. Adjust the 3D video data so that they are closer. Therefore, the user can visually recognize the video without feeling uncomfortable without being exposed to a sudden change in parallax.

また、視差は映像中の被写体毎に異なる。本実施形態では、視差調整部138は、ユーザが注視する可能性が高い、所定の被写体の視差が徐々に変化するように3D映像シーンを調整するため、映像を視認し、所定の被写体を注視したユーザが違和感を覚えてしまう事態をより確実に回避することが可能となる。   Also, the parallax differs for each subject in the video. In the present embodiment, the parallax adjustment unit 138 adjusts the 3D video scene so that the parallax of a predetermined subject that is likely to be watched by the user changes gradually. It is possible to more reliably avoid a situation in which the user who feels uncomfortable feels uncomfortable.

また、図2(b)〜(d)に示すように、視差調整前の映像データ160b、160c、160dでは、背景である塔172は、例えば、視差が0であったとする。この場合、調整後の映像データ162bでは、塔172は、調整前の人物170の視差と同じ絶対値分、視差がついてしまう。そして、塔172は、映像データ162c、162dへと移行するにつれ徐々に視差が0になっていく。   Also, as shown in FIGS. 2B to 2D, in the video data 160b, 160c, and 160d before parallax adjustment, the tower 172 as the background is assumed to have 0 parallax, for example. In this case, in the adjusted video data 162b, the tower 172 has the same parallax as the parallax of the person 170 before the adjustment. Then, as the tower 172 shifts to the video data 162c and 162d, the parallax gradually becomes zero.

このように、塔172については、3D切換時点において、視差の変化が大きい。しかし、ユーザは、所定の被写体である人物170を注視していると想定されるため、人物170に同様の視差の変化があった場合に比べ、違和感を覚え難いといえる。   Thus, regarding the tower 172, the change in parallax is large at the time of 3D switching. However, since it is assumed that the user is gazing at the person 170 as the predetermined subject, it can be said that the user is less likely to feel discomfort than when the person 170 has a similar change in parallax.

以下、上述した映像処理装置100の具体的な処理の流れを図3のフローチャートを用いて説明する。ここでは、放送を通じて映像データを取得する場合の処理を示す。   Hereinafter, a specific processing flow of the video processing apparatus 100 described above will be described with reference to a flowchart of FIG. Here, a process for obtaining video data through broadcasting is shown.

(映像処理方法)
図3は、映像処理方法の処理の流れを示すフローチャートである。図3に示す処理は、映像処理装置100が映像データを取得している間、所定のフレーム周期で繰り返し実行される。
(Video processing method)
FIG. 3 is a flowchart showing the flow of processing of the video processing method. The process shown in FIG. 3 is repeatedly executed at a predetermined frame period while the video processing apparatus 100 acquires video data.

図3に示すように、映像取得部112は、放送を通じて、2D映像シーンおよび立体的に知覚される3D映像シーンが混在した映像データを取得する(S200)。そして、一時記憶部114は、映像データを一時的に保持する(S202)。   As shown in FIG. 3, the video acquisition unit 112 acquires video data in which a 2D video scene and a stereoscopically perceived 3D video scene are mixed through broadcasting (S200). Then, the temporary storage unit 114 temporarily holds the video data (S202).

復号部116は、一時記憶部114に保持された映像データを、保持された最新の映像データよりも所定時間前のものから順次読み出し(S204)、復号する(S206)。切換検出部130は、制御情報に基づいて、復号された映像データが3D映像シーンであるか否かを判定する(S208)。3D映像シーンでない場合(S208におけるNO)、映像データ出力処理ステップS222に処理を移す。   The decoding unit 116 sequentially reads out the video data held in the temporary storage unit 114 from the latest video data held for a predetermined time (S204) and decodes it (S206). The switch detection unit 130 determines whether the decoded video data is a 3D video scene based on the control information (S208). If it is not a 3D video scene (NO in S208), the process proceeds to video data output processing step S222.

3D映像シーンである場合(S208におけるYES)、切換検出部130は、1フレーム前が2D映像シーンであったか否かを判定する(S210)。2D映像シーンでなく1フレーム前もすでに3D映像シーンであった場合(S210におけるNO)、視差調整終了判定処理ステップS220に処理を移す。   When it is a 3D video scene (YES in S208), the switching detection unit 130 determines whether or not the previous frame was a 2D video scene (S210). If it is not a 2D video scene but a 3D video scene one frame before (NO in S210), the process proceeds to a parallax adjustment end determination processing step S220.

1フレーム前が2D映像シーンであった場合(S210におけるYES)、切換検出部130は、3D切換時点を検出したものとみなし、被写体特定部132は、その3D切換時点について、所定の被写体を特定する(S212)。このとき、被写体特定部132は、一時記憶部114に保持された3D切換時点から所定時間後の映像データを復号部116に復号させ、3D切換時点から所定時間後の映像データも参照し、所定の被写体を特定することとする。   If the previous frame was a 2D video scene (YES in S210), the switching detection unit 130 regards that a 3D switching time point has been detected, and the subject specifying unit 132 specifies a predetermined subject for the 3D switching time point. (S212). At this time, the subject specifying unit 132 causes the decoding unit 116 to decode the video data after a predetermined time from the 3D switching time held in the temporary storage unit 114, and also refers to the video data after the predetermined time from the 3D switching time. The subject is identified.

視差導出部134は、3D切換時点の所定の被写体の視差を導出すると共に、3D切換時点から所定時間後の所定の被写体の視差を導出する(S214)。目標設定部136は、視差導出部134が導出した視差のうち、3D切換時点から所定時間後の所定の被写体の視差を、目標値として設定する(S216)。   The parallax deriving unit 134 derives the parallax of the predetermined subject at the time of 3D switching, and derives the parallax of the predetermined subject after a predetermined time from the time of 3D switching (S214). The target setting unit 136 sets, as a target value, the parallax of a predetermined subject that is a predetermined time after the 3D switching time among the parallaxes derived by the parallax deriving unit 134 (S216).

そして、視差調整部138は、3D切換時点から所定時間にわたり、3D映像シーンの視差の絶対値が、所定値である0から目標値まで漸増するように、3D映像シーンを調整して、合成部118に合成させる(S218)。当該フレーム以降、所定時間にわたって3D映像シーンの調整が行われる。   Then, the parallax adjustment unit 138 adjusts the 3D video scene so that the absolute value of the parallax of the 3D video scene gradually increases from 0, which is a predetermined value, to a target value over a predetermined time from the 3D switching time point. 118 is synthesized (S218). After the frame, the 3D video scene is adjusted for a predetermined time.

そのため、切換検出部130が3D切換時点を検出しなかった場合(S210におけるNO)、視差調整部138は、視差調整が終了しているか否かを判定する(S220)。視差調整が終了している場合(S220におけるYES)、映像データ出力処理ステップS222に処理を移す。   Therefore, when the switching detection unit 130 does not detect the 3D switching time (NO in S210), the parallax adjustment unit 138 determines whether or not the parallax adjustment is finished (S220). If the parallax adjustment has been completed (YES in S220), the process proceeds to video data output processing step S222.

まだ視差の調整が終わっていない場合(S220におけるNO)、視差調整部138は、被写体の視差の絶対値が、目標設定処理ステップS216で設定した目標値まで漸増するように、3D映像シーンを調整する(S218)。   If the parallax adjustment has not been completed (NO in S220), the parallax adjustment unit 138 adjusts the 3D video scene so that the absolute value of the parallax of the subject gradually increases to the target value set in the target setting processing step S216. (S218).

そして、映像出力部120は、復号部116が出力した2D映像シーンの映像データ、または、視差調整部138が視差を調整した3D映像シーンを含む映像データを表示装置150に出力する(S222)。   Then, the video output unit 120 outputs the video data of the 2D video scene output from the decoding unit 116 or the video data including the 3D video scene adjusted by the parallax adjustment unit 138 to the display device 150 (S222).

上述した映像処理方法によれば、ユーザが2D映像シーンおよび3D映像シーンが混在した映像データを視認中、3D切換時点において、違和感なく映像を視認することが可能となる。   According to the above-described video processing method, the user can view the video without any sense of incongruity at the time of 3D switching while the user is viewing the video data in which the 2D video scene and the 3D video scene are mixed.

上述した実施形態において、被写体特定部132は、切換検出部130が3D切換時点を検出すると、3D切換時点と3D切換時点から所定時間後の映像データに基づいて、所定の被写体を特定する。しかし、切換検出部130が3D切換時点を検出すると、一時記憶部114に保持された映像データを用いて、3D切換時点から3D切換時点より所定時間後までの、時間幅を有する映像データに基づいて、所定の被写体を特定してもよい。この場合、例えば、所定時間分の映像データについて検出された顔のうち、顔検出の確かさを示すポイント等の平均値や最大値が最も高い顔の人物を、所定の被写体としてもよい。   In the embodiment described above, the subject specifying unit 132 specifies a predetermined subject based on the 3D switching time and the video data after a predetermined time from the 3D switching time when the switching detection unit 130 detects the 3D switching time. However, when the switching detection unit 130 detects the 3D switching time point, it uses the video data held in the temporary storage unit 114 and based on video data having a time width from the 3D switching time point to a predetermined time after the 3D switching time point. Thus, a predetermined subject may be specified. In this case, for example, of the faces detected for video data for a predetermined time, a person having a face with the highest average value or maximum value such as a point indicating the certainty of face detection may be set as the predetermined subject.

また、上述した実施形態では、記憶メディアから映像データを取得する場合、先に映像データ全体に対して、3D切換時点をサーチして検出した。しかし、記憶メディアから映像データを取得する場合も、放送を通じて映像データを取得する場合と同様、映像処理装置100は、所定時間分のバッファを設けて、所定時間後の視差を導出するとしてもよい。   In the above-described embodiment, when acquiring video data from the storage medium, the 3D switching time point is first searched and detected for the entire video data. However, when acquiring video data from a storage medium, the video processing apparatus 100 may derive a parallax after a predetermined time by providing a buffer for a predetermined time as in the case of acquiring video data through broadcasting. .

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

なお、本明細書の映像処理方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step in the video processing method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include parallel or subroutine processing.

本発明は、立体映像を知覚させるための映像データを再生可能な映像処理装置および映像処理方法に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a video processing apparatus and a video processing method that can reproduce video data for perceiving a stereoscopic video.

100 …映像処理装置
112 …映像取得部
120 …映像出力部
130 …切換検出部
132 …被写体特定部
134 …視差導出部
136 …目標設定部
138 …視差調整部
DESCRIPTION OF SYMBOLS 100 ... Video processing apparatus 112 ... Video acquisition part 120 ... Video output part 130 ... Switching detection part 132 ... Subject specific | specification part 134 ... Parallax derivation | leading-out part 136 ... Target setting part 138 ... Parallax adjustment part

Claims (3)

2D映像シーン、および、立体的に知覚される3D映像シーンが混在した映像データを取得する映像取得部と、
前記2D映像シーンから前記3D映像シーンへの切り換え時点を検出する切換検出部と、
前記3D映像シーンにおける所定条件の視差を導出する視差導出部と、
前記視差導出部が導出した前記視差のうち、前記切り換え時点から所定時間後の視差を目標値として設定する目標設定部と、
前記切り換え時点から前記所定時間にわたり、前記3D映像シーンの視差の絶対値が、所定値から前記目標値まで漸増するように、前記3D映像シーンを調整する視差調整部と、
を備えることを特徴とする映像処理装置。
A video acquisition unit that acquires video data in which a 2D video scene and a stereoscopically perceived 3D video scene are mixed;
A switching detection unit for detecting a switching time point from the 2D video scene to the 3D video scene;
A parallax deriving unit for deriving parallax under a predetermined condition in the 3D video scene;
Among the parallaxes derived by the parallax deriving unit, a target setting unit that sets a parallax after a predetermined time from the switching time point as a target value;
A parallax adjustment unit that adjusts the 3D video scene so that the absolute value of the parallax of the 3D video scene gradually increases from a predetermined value to the target value over the predetermined time from the switching time;
A video processing apparatus comprising:
所定の被写体を特定する被写体特定部をさらに備え、
前記視差導出部は、前記被写体特定部が特定した前記所定の被写体の視差を導出することを特徴とする請求項1に記載の映像処理装置。
A subject specifying unit for specifying a predetermined subject;
The video processing apparatus according to claim 1, wherein the parallax deriving unit derives parallax of the predetermined subject specified by the subject specifying unit.
2D映像シーン、および、立体的に知覚される3D映像シーンが混在した映像データを取得し、
前記2D映像シーンから前記3D映像シーンへの切り換え時点を検出し、
前記3D映像シーンにおける所定条件の視差を導出し、
前記導出した視差のうち、前記切り換え時点から所定時間後の視差を目標値として設定し、
前記切り換え時点から前記所定時間にわたり、前記3D映像シーンの視差の絶対値が、所定値から前記目標値まで漸増するように、前記3D映像シーンを調整することを特徴とする映像処理方法。
Obtain video data in which 2D video scenes and 3D video scenes that are perceived stereoscopically are mixed,
Detecting a switching time from the 2D video scene to the 3D video scene;
Deriving a predetermined parallax in the 3D video scene,
Of the derived parallax, set a parallax after a predetermined time from the switching time as a target value,
A video processing method comprising adjusting the 3D video scene so that an absolute value of parallax of the 3D video scene gradually increases from a predetermined value to the target value over a predetermined time from the switching time.
JP2011166627A 2011-07-29 2011-07-29 Image processing apparatus and image processing method Pending JP2013031057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011166627A JP2013031057A (en) 2011-07-29 2011-07-29 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166627A JP2013031057A (en) 2011-07-29 2011-07-29 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013031057A true JP2013031057A (en) 2013-02-07

Family

ID=47787654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166627A Pending JP2013031057A (en) 2011-07-29 2011-07-29 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2013031057A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328566A (en) * 2003-04-28 2004-11-18 Sharp Corp Content display device and content display program
JP2008242833A (en) * 2007-03-27 2008-10-09 National Institute Of Information & Communication Technology Device and program for reconfiguring surface data of three-dimensional human face
JP2010288234A (en) * 2009-06-15 2010-12-24 Sony Corp Receiving device, transmission apparatus, communication system, display control method, program, and data structure
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328566A (en) * 2003-04-28 2004-11-18 Sharp Corp Content display device and content display program
JP2008242833A (en) * 2007-03-27 2008-10-09 National Institute Of Information & Communication Technology Device and program for reconfiguring surface data of three-dimensional human face
JP2010288234A (en) * 2009-06-15 2010-12-24 Sony Corp Receiving device, transmission apparatus, communication system, display control method, program, and data structure
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method

Similar Documents

Publication Publication Date Title
KR100804572B1 (en) 3-d image display unit, 3-d image recording device, 3-d image encoding device, 3-d image decoding device, 3-d image recording method and 3-d image transmitting method
JP4783817B2 (en) Stereoscopic image display device
JP5546633B2 (en) Stereoscopic image reproducing apparatus, stereoscopic image reproducing system, and stereoscopic image reproducing method
JP2004208255A (en) Stereoscopic image display device, recording method, and transmission method
JP5699566B2 (en) Information processing apparatus, information processing method, and program
CA2824829C (en) Method and apparatus for transmitting/receiving a digital broadcasting signal
TW201123844A (en) Image reproducing apparatus
JPWO2011080878A1 (en) Image reproduction device and display device
JP2012119738A (en) Information processing apparatus, information processing method and program
JP4996720B2 (en) Image processing apparatus, image processing program, and image processing method
KR20140041489A (en) Automatic conversion of a stereoscopic image in order to allow a simultaneous stereoscopic and monoscopic display of said image
JP2011130403A (en) Receiver apparatus, transmitter apparatus, communication system, receiver apparatus control method, and program
JP5390016B2 (en) Video processing device
WO2012117703A1 (en) Three-dimensional image processing device, three-dimensional image processing method, spectacles device for viewing three-dimensional image, integrated circuit for three-dimensional image processing device, optical disk playback device, three-dimensional video signal playback device, and three-dimensional video signal display device
JP2004207772A (en) Stereoscopic image display apparatus, recording method, and transmission method
WO2012029293A1 (en) Video processing device, video processing method, computer program and delivery method
JP5390017B2 (en) Video processing device
JP4145122B2 (en) Stereoscopic image display device
JP2011216965A (en) Information processing apparatus, information processing method, reproduction apparatus, reproduction method, and program
JP4713054B2 (en) Stereo image display device, stereo image encoding device, stereo image decoding device, stereo image recording method, and stereo image transmission method
KR101386810B1 (en) Apparatus and method for identifying three-dimensional images
JP2012004994A (en) Sound playback system and sound playback method
US20130266287A1 (en) Reproduction device and reproduction method
JP2013031057A (en) Image processing apparatus and image processing method
JP5899910B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324