JP5715534B2 - Stereoscopic image processing apparatus and image display apparatus - Google Patents

Stereoscopic image processing apparatus and image display apparatus Download PDF

Info

Publication number
JP5715534B2
JP5715534B2 JP2011208405A JP2011208405A JP5715534B2 JP 5715534 B2 JP5715534 B2 JP 5715534B2 JP 2011208405 A JP2011208405 A JP 2011208405A JP 2011208405 A JP2011208405 A JP 2011208405A JP 5715534 B2 JP5715534 B2 JP 5715534B2
Authority
JP
Japan
Prior art keywords
video
input
unit
eye
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011208405A
Other languages
Japanese (ja)
Other versions
JP2013070296A (en
Inventor
秀紀 坂庭
秀紀 坂庭
昌宏 荻野
昌宏 荻野
伸宏 福田
伸宏 福田
長谷川 実
実 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2011208405A priority Critical patent/JP5715534B2/en
Priority to US13/286,414 priority patent/US20120133733A1/en
Priority to CN2011103402370A priority patent/CN102480625A/en
Publication of JP2013070296A publication Critical patent/JP2013070296A/en
Application granted granted Critical
Publication of JP5715534B2 publication Critical patent/JP5715534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、立体映像の色補正技術に関する。 The present invention relates to a color correction technique for stereoscopic video.

立体(3D)映像を作成する場合に、右目から見た映像、左目から見た映像を撮影するためのカメラまたはレンズを2つ用意して、映像を撮影したそれぞれの映像を同時(偏光方式や視差バリアやレンチキュラ方式など)またはタイムシーケンシャル(シャッタ眼鏡方式など)に表示装置に立体映像を表現する方法がある。視差のある左右の映像を右目、左目に見せることにより、視聴者が左右視差を脳で立体化することにより、映像を立体的に見せることができる。この様な立体映像の作成、表示方法において、複数のカメラやレンズの個体差や光の入射量や入射角度などにより、同じ映像を撮影している場合でも、それぞれの映像の色合いや明度などが異なる場合がある。   When creating a stereoscopic (3D) image, prepare two cameras or lenses to capture the image viewed from the right eye and the image viewed from the left eye, and simultaneously capture each image captured (polarization or There is a method of expressing a stereoscopic image on a display device in a parallax barrier, a lenticular system, or the like) or time sequential (shutter glasses system, etc.). By showing the left and right images with parallax to the right and left eyes, the viewer can make the left and right parallax three-dimensional with the brain so that the image can be seen in three dimensions. Even when shooting the same image due to individual differences of multiple cameras and lenses, the amount of incident light and the angle of incidence, etc., in such a stereoscopic image creation and display method, the color and brightness of each image May be different.

このように、左右の映像の色合いや明度などの差がある状態で、左右の眼に映像を見せた場合の現象として、左右像に色ズレが大きいと視野闘争が生じて融合しにくくなる可能性左右像の色ズレは眼精疲労の原因となる可能性がある。   In this way, when there is a difference in the color and brightness of the left and right images, and the image is shown to the left and right eyes, if the left and right images are misaligned, a visual field struggle may occur, making it difficult to fuse There is a possibility that color misalignment between the left and right gender causes eye strain.

立体表示用の左右画像の補正方法として、特許文献1には、左右画像の垂直位置ずれを補正する方法が開示されている。特許文献2には、左眼用映像信号と右眼用映像信号の平均輝度レベルとダイナミックレンジとを一致させる補正方法が開示されている。   As a method for correcting the left and right images for stereoscopic display, Patent Literature 1 discloses a method for correcting the vertical positional deviation between the left and right images. Patent Document 2 discloses a correction method for matching the average luminance level and the dynamic range of the left-eye video signal and the right-eye video signal.

特開2003−61116JP 2003-61116 A 特開平2−58993JP-A-2-58993

しかし、特許文献1や特許文献2に開示される左右映像の補正技術には、左右映像の色ズレに関する補正技術については述べられていない。複数のカメラで撮影した際の、個々のカメラの特性の違いや、それぞれのカメラのピント、フォーカスずれ、ホワイトバランス調整の差異による色ズレが生じる場合がある。その場合、視聴者は、右目、左目に色ズレがある映像を見ることになる。   However, the left and right image correction techniques disclosed in Patent Document 1 and Patent Document 2 do not describe a correction technique related to the color shift of the left and right images. When shooting with a plurality of cameras, color misregistration may occur due to differences in characteristics of individual cameras, differences in focus, focus shift, and white balance adjustment of the respective cameras. In that case, the viewer sees a video with a color shift between the right eye and the left eye.

本発明は上記課題を鑑みてなされたものであり、その目的は、立体映像において、左右の眼に入るそれぞれの映像の色合いをより好適に補正することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to more suitably correct the hue of each image entering the left and right eyes in a stereoscopic image.

上記課題を解決するために、本発明の一実施の態様は、映像が入力される入力部と、入力された映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像についての特徴パラメータを検出する解析部と、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正を行う補正部とを備えるように構成する。   In order to solve the above-described problem, an embodiment of the present invention provides an input unit to which a video is input, and a histogram of a color space for each of the input video including a left-eye video and a right-eye video. And analyzing the color space to reduce the difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit. And a correction unit to be performed.

立体映像において、左右の眼に入るそれぞれの映像の色合いをより好適に補正する。   In a stereoscopic image, the hue of each image entering the left and right eyes is corrected more preferably.

本発明の実施例1に係る立体映像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the stereo image processing apparatus which concerns on Example 1 of this invention. 本発明の実施例1に係る左右映像色補正処理部の一例を示すブロック図である。It is a block diagram which shows an example of the left-right image color correction process part which concerns on Example 1 of this invention. 本発明の実施例1に係る左右映像色補正処理部の左右色補正処理シーケンスを示した例である。It is the example which showed the left-right color correction process sequence of the left-right image color correction process part which concerns on Example 1 of this invention. HSV色空間の説明を示した例である。It is the example which showed description of HSV color space. 本発明の実施例1に係る左右色補正処理部の色相ヒストグラムを示した例である。It is the example which showed the hue histogram of the left-right color correction process part which concerns on Example 1 of this invention. 本発明の実施例1に係る左右色補正処理部の色相ヒストグラムの特徴を示した例である。It is the example which showed the characteristic of the hue histogram of the left-right color correction process part which concerns on Example 1 of this invention. 本発明の実施例2に係る立体映像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the stereo image processing apparatus which concerns on Example 2 of this invention. 本発明の実施例2に係る立体映像処理装置のユーザ操作と左右色補正処理の連動の例を示した図である。It is the figure which showed the example of the interlocking | linkage of the user operation of the stereoscopic video processing apparatus concerning Example 2 of this invention, and a left-right color correction process. 本発明の実施例3に係る立体映像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the stereo image processing apparatus which concerns on Example 3 of this invention. 本発明の実施例3に係る立体映像処理装置のオクルージョン検出時の左右映像イメージを示した例である。It is the example which showed the right-and-left video image at the time of the occlusion detection of the three-dimensional video processing apparatus concerning Example 3 of this invention. 本発明の実施例3に係る立体映像処理装置のオクルージョン検出時の動作シーケンスを示した例である。It is the example which showed the operation | movement sequence at the time of the occlusion detection of the stereo image processing apparatus which concerns on Example 3 of this invention. 本発明の実施例4に係る受信装置の構成例を示す図である。It is a figure which shows the structural example of the receiver which concerns on Example 4 of this invention. 本発明の実施例4に係る受信装置の動作シーケンスの一例である。It is an example of the operation | movement sequence of the receiver which concerns on Example 4 of this invention. 本発明の実施例4に係る受信装置の動作シーケンスの一例である。It is an example of the operation | movement sequence of the receiver which concerns on Example 4 of this invention. 本発明の実施例4に係る受信装置の動作シーケンスの一例である。It is an example of the operation | movement sequence of the receiver which concerns on Example 4 of this invention. 本発明の実施例4に係る受信装置の動作シーケンスの一例である。It is an example of the operation | movement sequence of the receiver which concerns on Example 4 of this invention. 本発明の実施例4に係る受信装置の動作シーケンスの一例である。It is an example of the operation | movement sequence of the receiver which concerns on Example 4 of this invention.

以下、本発明の実施形態を、図面を用いて以下に説明する。   Embodiments of the present invention will be described below with reference to the drawings.

以下、本発明の実施例1について、図1〜図6を参照して説明する。   Hereinafter, Example 1 of the present invention will be described with reference to FIGS.

図1は、本発明の実施例1に係る立体映像処理装置の構成の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of the configuration of the stereoscopic video processing apparatus according to the first embodiment of the present invention.

図1において、100は映像入力I/F、101は映像デコーダ回路、102は立体映像色補正処理部、103は立体映像処理部、104は左右色補正処理部、105は立体表示処理部、106は表示部である。   In FIG. 1, 100 is a video input I / F, 101 is a video decoder circuit, 102 is a stereoscopic video color correction processing unit, 103 is a stereoscopic video processing unit, 104 is a left / right color correction processing unit, 105 is a stereoscopic display processing unit, 106 Is a display part.

映像入力I/F100は、放送や光ディスクなどのプレーヤ装置やゲーム機などから映像や音声、文字などのコンテンツの入力を行うインタフェースである。映像デコーダ回路101は映像のデコード処理などを行い、映像信号を出力する。立体映像色補正処理部102では、Side−by−Side(SBS)方式やTop−and−Bottom(TAB)方式、Frame−Packing(FP)方式や多眼方式などの立体映像が入力された場合に、立体映像処理部103にて、左右のそれぞれの目に対応する映像を分離する映像信号処理を行う。左右色補正処理部104では、左右のそれぞれの目に対応する映像の色の差分が小さくなるように色補正(色空間上の補正)を行う。左右色補正処理部104にて色補正がなされた映像を立体表示処理部105にて、左目用映像L、右目用映像Rを切替えて表示部106に出力し、その切替えタイミングをシャッタ眼鏡に伝送する赤外線信号処理などを行う。偏光眼鏡方式の3D表示部場合には、表示部106に設置された視差バリアに合わせて、L、Rの映像が表示されるように表示画素を調整する処理も行う。裸眼方式の場合には、表示部に設置したレンチキュラレンズなどに合わせた映像信号処理を行う。表示部106は液晶デバイスやOLED(Organic light-emitting diode)、プラズマなどを利用した表示部であり、立体表示処理部105で出力されたL、Rの映像を調整されたタイミングで切替えて表示や、設置された視差バリアに合わせた画素での表示、または設置されたレンチキュラレンズに合わせた画素での表示などを行い、立体表示を行う。   The video input I / F 100 is an interface for inputting content such as video, audio, and characters from a player device such as a broadcast or an optical disc, a game machine, or the like. The video decoder circuit 101 performs video decoding processing and outputs a video signal. The stereoscopic image color correction processing unit 102 receives a stereoscopic image such as a Side-by-Side (SBS) method, a Top-and-Bottom (TAB) method, a Frame-Packing (FP) method, or a multi-view method. Then, the stereoscopic video processing unit 103 performs video signal processing for separating video corresponding to the left and right eyes. The left and right color correction processing unit 104 performs color correction (correction in the color space) so that the difference between the colors of the images corresponding to the left and right eyes becomes small. The stereoscopic correction processing unit 105 switches the left-eye video L and the right-eye video R to the display unit 106 and outputs the switching timing to the shutter glasses. Perform infrared signal processing. In the case of a polarized glasses type 3D display unit, a process of adjusting display pixels so that L and R images are displayed in accordance with the parallax barrier installed in the display unit 106 is also performed. In the case of the naked eye method, video signal processing is performed in accordance with a lenticular lens or the like installed in the display unit. The display unit 106 is a display unit that uses a liquid crystal device, an OLED (Organic light-emitting diode), plasma, or the like. The L and R images output from the stereoscopic display processing unit 105 are switched at the adjusted timing for display or display. 3D display is performed by performing display with pixels according to the installed parallax barrier or display with pixels according to the installed lenticular lens.

次に、立体映像表示時に右目用映像と左目用映像の色の差異を軽減する仕組みを説明する。   Next, a mechanism for reducing the difference in color between the right-eye video and the left-eye video during stereoscopic image display will be described.

図2は、第一の実施形態本発明の実施例1に係るである左右映像色補正処理装置部の詳細な構成の一例を示すブロック図である。 SBS方式やTAB方式、FP方式などの立体表示用の映像は図1の立体映像信号処理部103にて左目用映像201と右目用映像202に分離をしされ、図2の左右映像色補正処理部104へ入力される。例えばSBS方式であれば、映像デコーダ回路101にてデコードされた映像の左半分を左目用映像、右半分を右目用映像として分離する。その後、左右色補正処理部104にて、左右それぞれの映像の色分析を行う。   FIG. 2 is a block diagram showing an example of a detailed configuration of the left and right video color correction processing device section according to the first embodiment of the present invention. Video for stereoscopic display such as SBS, TAB, and FP is separated into a left-eye video 201 and a right-eye video 202 by the stereoscopic video signal processing unit 103 in FIG. Input to the unit 104. For example, in the SBS system, the left half of the video decoded by the video decoder circuit 101 is separated as the left-eye video and the right half is separated as the right-eye video. Thereafter, the left and right color correction processing unit 104 performs color analysis of the left and right images.

図2の左右色補正処理部104において、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204は、左右映像の色空間解析をそれぞれ行う。色相補正処理部205は、例えば左右それぞれのヒストグラムのピークや色相幅、ヒストグラムの重心などの特徴パラメータ(以下、単に「特徴」と記す)を抽出し、その特徴の差分を求める。さらに差分を低減する様に、左右映像の色相をそれぞれ変化させる補正を行う。これにより、色相の差異が少ない左目用映像206と右目用映像207が出力される。   In the left and right color correction processing unit 104 of FIG. 2, an L video hue histogram analysis unit 203 and an R video hue histogram analysis unit 204 perform color space analysis of the left and right videos, respectively. The hue correction processing unit 205 extracts feature parameters (hereinafter simply referred to as “features”) such as the peak and hue width of each of the left and right histograms, and the center of gravity of the histogram, and obtains the difference between the features. Further, correction is performed to change the hues of the left and right images so as to reduce the difference. As a result, a left-eye image 206 and a right-eye image 207 with a small difference in hue are output.

ここで、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204、色相補正処理部205における処理に用いられる色相ヒストグラムについて説明する。   Here, the hue histogram used for processing in the L video hue histogram analysis unit 203, the R video hue histogram analysis unit 204, and the hue correction processing unit 205 will be described.

本実施例では、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204において、左目用映像と右目用映像のそれぞれの色相のヒストグラムを算出する。まず、色相の数値の定義を図4に示す。HSV色空間において円柱の円一周が色相を表し、赤を0度として、黄、緑、青、紫と360度変化する。この色相を横軸にとり、左(または右)目用映像1画面に含まれる色相毎の画素の数を数えてグラフ化した例が、図5に示す色相ヒストグラムである。この色相ヒストグラムの分布を使って、左右映像それぞれの色相の差異を算出する。ヒストグラムの算出と色相補正の詳細については図3を用いて後述する。   In this embodiment, the L video hue histogram analysis unit 203 and the R video hue histogram analysis unit 204 calculate the histograms of the hues of the left-eye video and the right-eye video, respectively. First, the definition of the numerical value of the hue is shown in FIG. In the HSV color space, the circular circle of the cylinder represents the hue, with red being 0 degrees, changing 360 degrees from yellow, green, blue, and purple. The hue histogram shown in FIG. 5 is an example in which the hue is plotted on the horizontal axis and the number of pixels for each hue included in one screen for the left (or right) video is counted and graphed. Using the hue histogram distribution, the difference in hue between the left and right images is calculated. Details of the calculation of the histogram and the hue correction will be described later with reference to FIG.

本例では、HSV色空間の色相でのヒストグラム解析の例を示しているが、色分析としては、例えば、色相(Hue)、彩度(Saturation/Chroma)、明度(Brightness/Lightness/Value)を使ったHSV/HSB色空間に分離して、それぞれのヒストグラム分布などを求めてもよい。これは、色相(Hue)、彩度(Saturation)、輝度(Lightness/Luminance または Intensity)を使ったHLS/HSI色空間や、CIE表色系(RGB、XYZ、xyY、L*u*v*、L*a*b*)やsRGBカラートライアングルなど様々な色空間を表すそれぞれの軸でヒストグラム分布を算出する色分析などでよい。   In this example, an example of histogram analysis in the hue of the HSV color space is shown. As the color analysis, for example, hue (Hue), saturation (Saturation / Chroma), and brightness (Brightness / Lightness / Value) are used. Separated into the used HSV / HSB color space, each histogram distribution or the like may be obtained. This is the HLS / HSI color space using Hue, Saturation, Luminance (Lightness / Luminance or Intensity), CIE color system (RGB, XYZ, xyY, L * u * v *, L * a * b *) and sRGB color triangles may be used for color analysis to calculate a histogram distribution on each axis representing various color spaces.

また、本例においては、HSV色空間の色相、彩度、明度の軸で表現されるヒストグラムの内、色相ヒストグラムを解析し、左右映像のヒストグラム特徴を近づけることで、色空間の差異を低減する。色相のみでなく、彩度や明度もヒストグラム分布を解析して、その特徴の差分量を算出し、この差分量を低減しても良い。この処理は、色相のヒストグラム解析と同時に行っても良いし、または時間的に異なるフレームに対して行っても良い。   In this example, the hue histogram of the histogram expressed by the hue, saturation, and lightness axes of the HSV color space is analyzed, and the difference between the color spaces is reduced by bringing the histogram features of the left and right images closer to each other. . Not only the hue but also the saturation and lightness may be analyzed by analyzing the histogram distribution to calculate the difference amount of the feature, and this difference amount may be reduced. This processing may be performed simultaneously with the histogram analysis of the hue, or may be performed on temporally different frames.

次に、図3は、本発明の実施例1の左右映像色補正処理部104の左右色補正処理シーケンスの例について図3、図5、図6を用いて説明する。   Next, FIG. 3 describes an example of the left and right color correction processing sequence of the left and right video color correction processing unit 104 according to the first embodiment of the present invention with reference to FIGS. 3, 5, and 6.

S300では、左右映像色補正処理部104に左右の映像が入力されて、処理が開始される。S301では、L映像色相ヒストグラム解析部203が左目用映像に含まれる各色相の画素数を集計する。同様にS303では、R映像色相ヒストグラム解析部204が右目用映像に含まれる各色相の画総数を集計する。S302では、L映像色相ヒストグラム解析部203が左目用映像色相ヒストグラムの色相の特徴を検出する。ここで色相の特徴とは、ピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである。図5が左右色補正処理部のL映像色相ヒストグラム解析部203またはR映像色相ヒストグラム解析部204が集計した色相ヒストグラムの例である。例えば、青い空が表現されているような映像であれば、青の色相周辺にヒストグラムが現れ、ピーク色相、ピーク色相周辺の分布の幅、ピーク周辺の重心の色相を検出することで、映像の色相の特徴を判断することができる。同様にS304において、映像色相ヒストグラム解析部204が右目用映像の色相ヒストグラムの特徴を検出する。次に、S305において、色相補正処理部205が、左目用映像の色相の特徴と右目用映像の色相の特徴とを比較する。例えば、ピーク色相位置やピーク度数、ピーク色相周辺分布の幅、ピーク周辺色相分布の重心位置などが、どのくらいずれているのか等を算出して、特徴の差分を数値化する。S306において、色相補正処理部205は、S305で算出したヒストグラム分布の特徴の差分量が、所定の閾値以上だった場合には、色補正をしないと判断する(S307)。S307の判断に加えて、左右映像の色分析の結果、特徴の差分量が大きい場合には、入力が3D映像信号ではないと判断してもよい。この場合、立体映像信号処理部103に対して入力映像を左右映像に分離しない指示をしてもよい(S308)。このとき図1の立体映像処理装置は2Dの映像信号処理を行う。   In S300, the left and right images are input to the left and right image color correction processing unit 104, and the process is started. In S301, the L video hue histogram analysis unit 203 counts the number of pixels of each hue included in the left-eye video. Similarly, in S303, the R video hue histogram analysis unit 204 adds up the total number of images of each hue included in the right eye video. In S <b> 302, the L video hue histogram analysis unit 203 detects the hue characteristics of the left-eye video hue histogram. Here, the characteristics of the hue are the peak hue position, the frequency of the peak hue, the distribution width around the peak hue, the position of the center of gravity of the distribution around the peak hue, or a combination thereof. FIG. 5 is an example of a hue histogram compiled by the L video hue histogram analysis unit 203 or the R video hue histogram analysis unit 204 of the left and right color correction processing unit. For example, if the image shows a blue sky, a histogram appears around the blue hue, and the peak hue, the distribution width around the peak hue, and the hue at the center of gravity around the peak are detected. Hue characteristics can be determined. Similarly, in S304, the video hue histogram analysis unit 204 detects the feature of the hue histogram of the right-eye video. In step S <b> 305, the hue correction processing unit 205 compares the hue characteristics of the left-eye image with the hue characteristics of the right-eye image. For example, how much the peak hue position and the peak frequency, the width of the peak hue peripheral distribution, the center of gravity position of the peak peripheral hue distribution, and the like are calculated, and the difference between the features is digitized. In S306, the hue correction processing unit 205 determines not to perform color correction when the difference amount of the feature of the histogram distribution calculated in S305 is equal to or greater than a predetermined threshold (S307). In addition to the determination in S307, if the difference between the features is large as a result of the color analysis of the left and right images, it may be determined that the input is not a 3D image signal. In this case, an instruction not to separate the input video into left and right videos may be given to the stereoscopic video signal processing unit 103 (S308). At this time, the stereoscopic video processing apparatus of FIG. 1 performs 2D video signal processing.

S308の処理を行う利点を以下に説明する。まず、S307において特徴の差分量が大きい場合には、入力映像が3D映像ではない入力映像信号に対して、立体表示装置の設定で強制的にSBSやTABなどの3Dのように映像を半分に分離して左目用映像と右目用映像を作成して3D表示をしようとしている可能性がある。この場合には、映像が破綻してしまっているので、左右映像の色合わせは必要なく(S307)、さらに、左右映像に分離する必要がない。そこで、立体映像信号処理部103に対して左右映像分離処理をしない制御を指示する(S308)。   The advantage of performing the process of S308 will be described below. First, when the feature difference amount is large in S307, the input video signal is not a 3D video image, and the video image is halved as in 3D such as SBS or TAB by setting the stereoscopic display device. There is a possibility that the left eye image and the right eye image are created separately to be displayed in 3D. In this case, since the video has broken down, it is not necessary to match the colors of the left and right images (S307), and it is not necessary to separate the left and right images. Therefore, it instructs the stereoscopic video signal processing unit 103 not to perform the left and right video separation processing (S308).

立体映像信号処理部103がS308の指示を受けた場合の処理としては、立体映像信号処理部103が、映像デコーダ回路で出力された映像信号をそのまま、左目用映像出力、右目用映像出力として同じ映像を出力し、立体表示処理105が3D表示と同様の表示(左右映像を交互に表示/左右映像をラインバイラインで表示)を行って2D表示を実現してもよい。   When the stereoscopic video signal processing unit 103 receives the instruction in S308, the stereoscopic video signal processing unit 103 uses the video signal output from the video decoder circuit as it is as the left-eye video output and the right-eye video output. The video may be output, and the stereoscopic display process 105 may perform the same display as the 3D display (display the left and right images alternately / display the left and right images in a line-by-line manner) to realize 2D display.

また、立体映像信号処理部103がS308の指示を受けた場合の処理の別の例としては、立体映像色補正処理部102ともに何もせず、映像デコーダ回路101の2Dの出力映像信号をそのまま立体表示部105に送信し、出力映像信号を立体表示部105が表示処理設定を3D表示から2D表示に切換えて表示してもよい。   As another example of processing when the stereoscopic video signal processing unit 103 receives the instruction of S308, the stereoscopic video color correction processing unit 102 does nothing and the 2D output video signal of the video decoder circuit 101 is stereoscopically processed as it is. The stereoscopic display unit 105 may transmit the output video signal to the display unit 105 and display the display processing setting by switching the display processing setting from 3D display to 2D display.

また、S305において、色相のヒストグラム特徴の差分量が大きくても、ある所定の差分である場合には、赤青メガネを利用したアナグリフ方式で映像が入力されていると判断して、色補正はせずにそのまま左右映像を出力する処理を行ってもよい。   In S305, even if the difference between the hue histogram features is large, if the difference is a certain difference, it is determined that the video is input in an anaglyph method using red-blue glasses, and color correction is performed. Alternatively, the process of outputting the left and right images may be performed as is.

また、色相のヒストグラム特徴の差分量が大きい場合には、左右のピントやホワイトバランスが合っていないカメラを2台使って、撮影された映像の可能性もある。この場合は、眼精疲労等を考慮し、立体感はなくなってしまうが、左目用または右目用映像のどちらかのみを選択して、左右同じ映像を出力し、左右の目に見える映像の色ズレを無くす処理をおこなってもよい。   In addition, when the difference amount of the histogram histogram feature is large, there is a possibility that the image is shot using two cameras that are not in focus on the left and right or white balance. In this case, the stereoscopic effect disappears in consideration of eye strain, etc., but only the left-eye or right-eye video is selected, the same left and right video is output, and the left and right visible video colors You may perform the process which eliminates deviation.

また、上述したアナグリフ方式と判定する色分布の左右映像の差異の閾値と、カメラのピントやホワイトバランスの差による色分布の左右映像の差異の閾値は、異なる閾値を有しても良い。すなわち、複数の閾値を設定することにより、差異の大きさに応じてこれらの複数の判断を切換えてもよい。   Further, the threshold value of the difference between the left and right images of the color distribution determined as the anaglyph method and the threshold value of the difference between the left and right images of the color distribution due to the difference of the camera focus and white balance may have different threshold values. That is, by setting a plurality of threshold values, the plurality of determinations may be switched according to the magnitude of the difference.

図6は、S305で算出する、左右色補正処理における左右の装置の色相ヒストグラムの特徴を示した例を示している。であり、色相ピークの色相位置、やピーク色相の度数、ピーク色相周辺の分布幅(ヒストグラム集中範囲)などがヒストグラムの特徴を表している。ここで、さらにヒストグラム度数とヒストグラム集中範囲を利用して、ヒストグラムが集中している部分のヒストグラム重心を算出したりすることができる。図6中には、色相ヒストグラムの特徴を表すために算出する数値の例を示している。例えば、まず、左目用映像と右目用映像のそれぞれの色相のピークを示す色相位置(PL0、PL1、PR0、PR1)、ヒストグラムの各ピーク度数(ΔPL0、ΔPR0、ΔPL1、ΔPR1)を算出する。さらに、ヒストグラムにおいて設定した閾値以上のヒストグラム度数が集中している範囲ΔWL0、ΔWL1、ΔWR0、ΔWR1を算出する。これらをヒストグラムの特徴として利用し、左右映像の特徴の差分量を算出する。以上のように、図3のS306において左右映像の色相の特徴差分量の大きさの判定際に、色相ピークの位置の差である|PL0−PR0|や|PL1−PR1|と所定の閾値を比較してもよい。また、ピーク度数の差である|ΔPL0−ΔPR0|や|ΔPL1−ΔPR1|と所定の閾値を比較してもよい。さらに、ヒストグラム集中範囲の差を判定に用いてもよい。   FIG. 6 shows an example showing the characteristics of the hue histogram of the left and right devices in the left and right color correction processing calculated in S305. The hue position of the hue peak, the frequency of the peak hue, the distribution width around the peak hue (histogram concentration range), and the like represent the characteristics of the histogram. Here, using the histogram frequency and the histogram concentration range, the histogram centroid of the portion where the histogram is concentrated can be calculated. FIG. 6 shows an example of numerical values calculated to represent the characteristics of the hue histogram. For example, first, the hue positions (PL0, PL1, PR0, PR1) indicating the hue peaks of the left-eye video and the right-eye video, and the respective peak frequencies (ΔPL0, ΔPR0, ΔPL1, ΔPR1) of the histogram are calculated. Further, ranges ΔWL0, ΔWL1, ΔWR0, ΔWR1 in which histogram frequencies equal to or higher than the threshold set in the histogram are concentrated are calculated. Using these as the features of the histogram, the difference amount between the features of the left and right images is calculated. As described above, when determining the magnitude of the feature difference amount between the hues of the left and right images in S306 of FIG. 3, | PL0−PR0 | and | PL1−PR1 | You may compare. Alternatively, | ΔPL0−ΔPR0 | or | ΔPL1−ΔPR1 |, which is a difference in peak frequency, may be compared with a predetermined threshold. Further, the difference in the histogram concentration range may be used for the determination.

次に、S309では上記のとおり、S305で算出した特徴の差分量を色相の補正量として決定する。例えば、S305で算出した左目用映像と右目用映像の色相のピークの色相ズレ(PL0−PR0、PL1−PR1;PL0、PR0、PL1、PR1はヒストグラムの各ピーク度数の色相位置)、ピーク度数差分(ΔPL0−ΔPR0、ΔPL1−ΔPR1;ΔPL0、ΔPR0、ΔPL1、ΔPR1はヒストグラムの各ピーク度数)を色相補正量とする。さらに、S309ではヒストグラムにおいて設定した閾値以上のヒストグラム度数が集中している範囲ΔWn(n:整数)を算出し、色相補正の補正範囲とする。   In step S309, as described above, the feature difference amount calculated in step S305 is determined as the hue correction amount. For example, the hue shift of the peak of the hue of the left-eye video and the right-eye video calculated in S305 (PL0-PR0, PL1-PR1; PL0, PR0, PL1, PR1 are hue positions of the respective peak frequencies in the histogram), the peak frequency difference (ΔPL0−ΔPR0, ΔPL1−ΔPR1; ΔPL0, ΔPR0, ΔPL1, and ΔPR1 are the respective peak frequencies of the histogram) is set as the hue correction amount. Furthermore, in S309, a range ΔWn (n: integer) in which histogram frequencies equal to or higher than the threshold set in the histogram are concentrated is calculated as a hue correction range.

S310において、S309で決定した補正量に応じて、左目用映像、右目用映像の色相補正処理を行う。映像の色相補正は少なくとも一方の映像に対して行えばよい。例えば、右目用映像のピーク色相PR0の周辺ΔWL0の範囲を|PL0−PR0|だけ色相を右方向にずらし、PR1の周辺ΔWL1の範囲を|PL1−PR1|だけ色相を左方向にずらすような色相補正を行う。このように、補正範囲をΔWL0やΔWL1に制限し、その範囲にある色相の画素を補正することで、補正の精度を上げるとともに、補正による弊害を少なくすることができる。   In S310, the hue correction processing for the left-eye video and the right-eye video is performed according to the correction amount determined in S309. The hue correction of the video may be performed on at least one video. For example, a hue that shifts the hue around the peak hue PR0 of the right-eye image PR0 to the right by | PL0−PR0 | and a hue that shifts the hue around the ΔΔ1 around PR1 by | PL1-PR1 | to the left. Make corrections. In this way, by limiting the correction range to ΔWL0 and ΔWL1 and correcting the pixels of the hue in the range, it is possible to increase the accuracy of the correction and reduce the adverse effects of the correction.

さらに、ΔWL0、ΔWL1それぞれの範囲内の画素を補正し、ピーク度数や周辺の色相の度数を合わせる処理を行ってもよい。   Furthermore, it is possible to correct the pixels within the respective ranges of ΔWL0 and ΔWL1 and perform processing for adjusting the peak frequency and the frequency of surrounding hues.

このような色相補正によって左右映像のヒストグラム分布の特徴を近づける際は、右目用映像のヒストグラム分布の特徴を変化させて、左目用映像のヒストグラム分布の特徴に近づけても良い。また、左目用映像の特徴を変化させて、右目用映像の特徴に近づけても良い。または、左目用映像のヒストグラム分布の特徴と右目用映像のヒストグラム分布の特徴の平均を取り、左右映像の両方を算出した平均のヒストグラム分布の特徴に近づけても良い。   When the characteristics of the histogram distribution of the left and right images are approximated by such hue correction, the characteristics of the histogram distribution of the right eye image may be changed to approximate the characteristics of the histogram distribution of the left eye image. Further, the feature of the left-eye video may be changed to be close to the feature of the right-eye video. Alternatively, the histogram distribution feature of the left-eye video and the histogram distribution feature of the right-eye video may be averaged and approximated to the average histogram distribution feature obtained by calculating both the left and right videos.

また、本処理は、毎フレーム行っても良いし、数フレーム毎に行っても良い。数フレーム毎に行う場合には、数フレームの間は同じ色相補正を行うことで、処理負荷を低減できる。   Further, this process may be performed every frame or every several frames. When it is performed every several frames, the processing load can be reduced by performing the same hue correction for several frames.

以上説明した処理により、左右の映像の色相のズレ量を定量化し、ズレ量に応じた左右映像の色相のヒストグラムの近似が可能となる。   Through the processing described above, the amount of hue shift between the left and right images can be quantified, and the hue histogram of the left and right images can be approximated according to the amount of shift.

なお、上述の例では色相の補正例を説明したが、他の色空間をについて、左右映像の色の特徴の差異量に応じた左右映像の色補正を行ってもよい。   Although the example of correcting the hue has been described in the above-described example, the color correction of the left and right images may be performed according to the amount of difference in the color characteristics of the left and right images in another color space.

なお、左目用映像と右目用映像とのうちいずれの映像を補正対象にするかについては、処理部に後に入力される映像を補正対象としてもよい。この場合、先入力映像をラインメモリに格納し、先入力映像のヒストグラム分布の特徴を先に解析し、当該解析結果を利用して、後入力映像の色相を先入力映像の解析結果に応じて色相補正する方が、処理高速化の観点で利点がある。例えば、Frame Packing方式などにおいて、左目用映像が先に伝送される場合には、左目用の映像のヒストグラム分布の特徴の解析結果を利用して、右目用映像の色相を左目用映像のヒストグラム分布の特徴に合わせることが望ましい。また、SBS方式、TAB方式においても受信した映像が左目用映像からラインメモリに納められる場合も同様である。   Note that regarding which of the left-eye video and the right-eye video is to be corrected, a video that is input later to the processing unit may be the correction target. In this case, the pre-input video is stored in the line memory, the characteristics of the histogram distribution of the pre-input video are analyzed first, and the hue of the post-input video is determined according to the analysis result of the pre-input video using the analysis result. The hue correction is advantageous from the viewpoint of speeding up the processing. For example, in the case of the Frame Packing method, when the left-eye video is transmitted first, the analysis result of the histogram distribution feature of the left-eye video is used to change the hue of the right-eye video to the histogram distribution of the left-eye video. It is desirable to match the characteristics of The same applies to the case where the received video is stored in the line memory from the left-eye video in the SBS system and the TAB system.

処理高速化の例としては、Frame Packing方式の場合は、先に入力される一方の目の映像(例えば、左目用映像)のヒストグラム分布の特徴の解析をし、後から入力される他方の目の映像(例えば、右目用映像)に対し右目用映像の色補正処理を行う。このとき、先に入力された左目用映像のヒストグラム解析結果を利用して、1ラインもしくは数ラインずつ右目用映像のヒストグラム分布の特徴が解析でき次第、リアルタイムに後から入力される右目用映像の色補正処理が可能となる。後から入力される映像(右目用映像)のヒストグラム解析結果を先に入力される映像(左目用映像)の色補正に適用する場合は、1フレーム表示処理が遅れることになるので、先に入力される映像(左目用映像)の結果を利用して後から入力される映像(右目用映像)の色補正を行う方が高速である。TAB方式においても、同様に左目用映像のヒストグラム解析を先にしておくことで、その結果を利用して、右目用映像を1ライン毎に補正していくことが可能となる。SBS方式の場合には、1ラインもしくは数ラインメモリ上に左右映像が両方入力されるため、左右同時な処理が可能となる。高速な処理が可能であれば、左から画素をカウントすると先に左目用映像のヒストグラム結果が得られるため、その結果に合わせて後半でカウントしていく画素の色補正をリアルタイムに補正できるので、高速化ができる。TAB方式においても、同様に先に入力された左目用映像のヒストグラム解析を先にしておくことで、その結果を利用して、後に入力される右目用映像を1ライン毎に補正していくことが可能となる。   As an example of speeding up the processing, in the case of the Frame Packing method, the characteristics of the histogram distribution of the image of one eye that is input first (for example, the image for the left eye) are analyzed, and the other eye that is input later is analyzed. The color correction processing of the right-eye video is performed on the video (for example, the right-eye video). At this time, as soon as the characteristics of the histogram distribution of the right-eye video can be analyzed one line or several lines at a time by using the histogram analysis result of the left-eye video inputted earlier, the right-eye video inputted later in real time can be analyzed. Color correction processing is possible. When applying the histogram analysis result of the video (right-eye video) that is input later to the color correction of the video (left-eye video) that is input first, the one-frame display process is delayed, so input first It is faster to correct the color of the video (right-eye video) input later using the result of the video (left-eye video). Similarly, in the TAB method, the histogram analysis of the left-eye video is performed in advance, and the result can be used to correct the right-eye video for each line. In the case of the SBS system, both the left and right images are input on one line or several lines of memory, so that it is possible to process both left and right simultaneously. If high-speed processing is possible, counting the pixels from the left will obtain the histogram result of the left-eye video first, so you can correct the color correction of the pixels counted in the second half according to the result in real time, Speed up is possible. Similarly, in the TAB method, the histogram analysis of the left-eye video input first is performed first, and the right-eye video input later is corrected for each line using the result. Is possible.

なお、図1において、映像入力I/F100から立体表示処理部105までを一体として立体映像処理装置を構成し、表示部106を有する別体の表示装置と接続してもよく、映像入力I/F100から表示部106までを一体として立体表示装置を構成してもよい。   In FIG. 1, the video input I / F 100 to the stereoscopic display processing unit 105 may be integrated to form a stereoscopic video processing device and connected to a separate display device having the display unit 106. A stereoscopic display device may be configured by integrating F100 to the display unit 106.

以下、本発明の実施例2について、図7、図8を参照して説明する。 図7は、本発明の実施例2に係る立体映像処理装置の構成の一例を示すブロック図である。   A second embodiment of the present invention will be described below with reference to FIGS. FIG. 7 is a block diagram illustrating an example of the configuration of the stereoscopic video processing apparatus according to the second embodiment of the present invention.

図7に示す構成は、図1の構成にユーザの操作を入力するインタフェースであるユーザI/F(インタフェース)700を追加した構成である。本ユーザI/Fを搭載することで、ユーザが3D視聴を選択したことを検知してから、左右色補正処理を実施することが可能となる。   The configuration shown in FIG. 7 is a configuration in which a user I / F (interface) 700 that is an interface for inputting a user operation is added to the configuration of FIG. By installing this user I / F, it is possible to perform the left and right color correction processing after detecting that the user has selected 3D viewing.

図8にユーザ操作と左右色補正処理の連動の例を示す。表示装置106は、まずは、放送やネットからSBS方式で受信した3D映像信号は、表示例800のように表示する。また、TAB方式で受信した3D映像信号は、表示例801の様に表示する。次に、リモコン802から、2Dから3Dへの切替え指示信号が送信された場合、ユーザI/F700が当該切換え指示信号を受信する。ユーザI/F700が切換え指示信号の受信を立体映像色補正処理部102に伝達して、立体映像色補正処理部102が、そのタイミングで左右色補正処理を開始し、3D表示時には左右色補正がなされた映像を見ることができる。逆の動作も同様で、3D表示時には左右色補正がなされているが、リモコン802からの指示信号により、2D表示に切替えたタイミングで立体映像色補正処理部102の左右色補正処理を終了する制御を行う。   FIG. 8 shows an example of the linkage between the user operation and the left and right color correction processing. First, the display device 106 displays a 3D video signal received from the broadcast or the network by the SBS method as in a display example 800. Further, the 3D video signal received by the TAB method is displayed as in a display example 801. Next, when a switching instruction signal from 2D to 3D is transmitted from the remote controller 802, the user I / F 700 receives the switching instruction signal. The user I / F 700 transmits the reception of the switching instruction signal to the stereoscopic video color correction processing unit 102, and the stereoscopic video color correction processing unit 102 starts the right and left color correction processing at that timing. You can see the images made. The reverse operation is the same, and right and left color correction is performed at the time of 3D display, but control to end the left and right color correction processing of the stereoscopic video color correction processing unit 102 at the timing of switching to 2D display by an instruction signal from the remote controller 802. I do.

これにより、ユーザが3D視聴を行う状態か否かを容易に判別することが可能となり、実施例の図3のS306のような判断処理が不要となる。   Accordingly, it is possible to easily determine whether or not the user is in a state of performing 3D viewing, and the determination process as in S306 of FIG. 3 in the embodiment is not necessary.

表示例8900や表示例8901などの2D表示時には、ピントやフォーカス、ホワイトバランスなどが調整されていない2台のカメラを利用して撮影した映像を表示装置で視聴する際に、左右の色ズレ等がないかを確認することもできる。ユーザが3D表示に切替えたタイミングでは、左右色補正を行い、良好な表示特性を提供できる。   During 2D display such as display example 8900 and display example 8901, when viewing images taken using two cameras whose focus, focus, white balance, etc. are not adjusted on the display device, left and right color misalignment, etc. You can also check if there is any. At the timing when the user switches to 3D display, right and left color correction is performed, and good display characteristics can be provided.

また、(1)左目用映像の色分布を補正して、右目用映像の色分布に合わせるのか、(2)右目用映像の色分布を補正して、左目用映像の色分布に合わせるのか、または、(3)左右映像の色分布の特徴の平均に左右映像の色分布を合わせるのかをリモコン802とユーザI/F700を介して、ユーザが選択できるようにしても良い。   Also, (1) whether the color distribution of the left-eye video is corrected to match the color distribution of the right-eye video, or (2) whether the color distribution of the right-eye video is corrected to match the color distribution of the left-eye video, Alternatively, (3) the user may be able to select via the remote controller 802 and the user I / F 700 whether to match the color distribution of the left and right images to the average of the color distribution characteristics of the left and right images.

また、ユーザI/Fに替えて人感センサを搭載しても良い。例えば人体の体の熱から出る赤外線センサによる人検知やカメラによる人検知や動き検知などにより、視聴範囲に人の存在を検知するセンサを搭載する場合には、センサにより装置近くに人が居ると判断した場合にのみ左右色補正を行い、人が居ない場合には左右色補正をしないことも可能である。このとき、人が居るという条件に加えて、3D表示設定がされていることを条件に加えても良い。このような処理により視聴者が不在の場合には、左右色補正処理を省略することが可能となり、処理負荷を低減することができる。   A human sensor may be mounted instead of the user I / F. For example, when a sensor that detects the presence of a person is installed in the viewing range by detecting a person using an infrared sensor that generates heat from the human body, detecting a person using a camera, or detecting a motion, It is also possible to perform left / right color correction only when it is determined, and not to perform left / right color correction when there is no person. At this time, in addition to the condition that there is a person, it may be added to the condition that 3D display setting is made. When the viewer is absent by such processing, the left and right color correction processing can be omitted, and the processing load can be reduced.

以下、本発明の実施例3について、図9〜図11を用いて説明する。   Hereinafter, Example 3 of the present invention will be described with reference to FIGS.

図9は、本発明の実施例3に係る立体表示制御装置の構成の一例を示すブロック図である。   FIG. 9 is a block diagram illustrating an example of the configuration of the stereoscopic display control apparatus according to the third embodiment of the present invention.

図9に示す構成は、図1の構成に、オクルージョン検出部を追加した構成である。オクルージョン検出部は、図10に示すような、一方の目(視点)では見えずに、他方の目(視点)では見えるような物体を検出する。このオクルージョンの領域は、一方の目の映像のみに存在し、他方の目の映像には存在しない。よって、左右映像の色差分として算出されてしまうと、色相補性の誤差成分となり、悪影響を生じる恐れがある。そこで、本実施例では、オクルージョン領域を検出して、その領域を補正範囲から外し、他の部分に弊害をもたらせないようにヒストグラム分析にも利用しないようにする。なお、オクルージョン検出は、映像内のオブジェクト検出や、左右色差分の領域を検出することなどで実現する。   The configuration shown in FIG. 9 is a configuration in which an occlusion detection unit is added to the configuration of FIG. The occlusion detection unit detects an object that cannot be seen by one eye (viewpoint) but can be seen by the other eye (viewpoint) as shown in FIG. This occlusion area exists only in the image of one eye and does not exist in the image of the other eye. Therefore, if it is calculated as the color difference between the left and right images, it becomes an error component of color complementarity and there is a risk of adverse effects. Therefore, in the present embodiment, an occlusion area is detected, and the area is excluded from the correction range and is not used for histogram analysis so as not to cause adverse effects on other portions. The occlusion detection is realized by detecting an object in the video or detecting a left / right color difference area.

ここで、図10は、本発明の第3の実施例に係るオクルージョン検出部におけるオクルージョン検出処理時の左右映像イメージを示した例である。色の異なる立方体1000と球1001が少しずれて置いてあった場合に、左目では立方体しか見えず、右目では立方体と球の両方が見えている状況を示している。これを、両目に対応する2つのカメラを使って撮影した場合には、左目用映像1002、右目用映像1003が撮影されることとなる。   Here, FIG. 10 is an example showing left and right video images during occlusion detection processing in the occlusion detection unit according to the third embodiment of the present invention. When the cube 1000 and the sphere 1001 having different colors are slightly shifted from each other, only the cube is visible with the left eye, and both the cube and the sphere are visible with the right eye. When this is shot using two cameras corresponding to both eyes, a left-eye video 1002 and a right-eye video 1003 are shot.

これが、立体映像処理装置に入力され、左右映像の色相などのヒストグラム解析を行うと、左目用映像には無い球の色の領域が右目用映像には存在するので、ヒストグラム特徴の差分量が大きく検出されることとなる。しかし、これは色相の相違ではなく、もともとの映像の撮像対象が異なるのであり、カメラのピントやホワイトバランスの違いによる左右色差分ではないことがわかる。   When this is input to the 3D image processing device and the histogram analysis of the hues of the left and right images is performed, a sphere color region that does not exist in the left eye image exists in the right eye image. Will be detected. However, this is not a difference in hue but an original image pickup target is different, and it can be seen that this is not a left-right color difference due to a difference in camera focus or white balance.

図11は、本発明の第3の実施例に係る立体映像処理装置のオクルージョン検出の動作シーケンスを示した例である。   FIG. 11 shows an example of an occlusion detection operation sequence of the stereoscopic video processing apparatus according to the third embodiment of the present invention.

S1100から処理を開始し、S1101において、左右映像内のオクルージョン領域を検出する。そして、S1102において、オクルージョン領域をヒストグラム解析の対象外とする。次に、S1103において、オクルージョン領域は、左右色補正領域から外す。図11の動作は、例えば、オクルージョン検出部900において、左右色補正処理部104の処理と連動して行えばよい。このとき、オクルージョン領域をヒストグラム解析対象外とするためには、図11のS1101は、図3のS301、S302の前に行う必要がある。また、図11のS1102では、図3のS301、S302と連動して、S301、S302のヒストグラムの集計処理からオクルージョン領域の数の部分を除外する。また、図11のS1103では、図3のS309と連動して、S309の補正範囲からオクルージョン領域を除外する。   The process starts from S1100, and in S1101, an occlusion area in the left and right video is detected. In step S1102, the occlusion area is excluded from histogram analysis. Next, in S1103, the occlusion area is removed from the left and right color correction areas. The operation of FIG. 11 may be performed in conjunction with the processing of the left and right color correction processing unit 104 in the occlusion detection unit 900, for example. At this time, in order to exclude the occlusion area from the histogram analysis target, S1101 in FIG. 11 needs to be performed before S301 and S302 in FIG. Further, in S1102 of FIG. 11, in conjunction with S301 and S302 of FIG. 3, the number of occlusion areas is excluded from the histogram aggregation processing of S301 and S302. In S1103 in FIG. 11, the occlusion area is excluded from the correction range in S309 in conjunction with S309 in FIG.

以上の処理により、オクルージョン領域の色に影響されることなく、オクルージョン領域以外の左右映像色補正をおこなうことが可能となる。さらには、一方の目にしか関係のないオクルージョン領域内の色は補正が不要となるメリットがある。   Through the above processing, it is possible to perform the left and right video color corrections outside the occlusion area without being affected by the color of the occlusion area. Furthermore, there is a merit that correction is not necessary for colors in the occlusion area that are relevant only to one eye.

以下、本発明の実施例4を説明する。   Embodiment 4 of the present invention will be described below.

図12は、実施例4に係る受信装置の構成例を示す図である。図12において、図1または図7に記載の要素と同一の符号の要素については、上述した各実施例の要素と同一である。よって、これらの構成、動作については説明を省略し、相違する構成または動作について以下に説明する。   FIG. 12 is a diagram illustrating a configuration example of a receiving apparatus according to the fourth embodiment. In FIG. 12, elements having the same reference numerals as those shown in FIG. 1 or FIG. 7 are the same as those of the above-described embodiments. Therefore, description of these configurations and operations will be omitted, and different configurations or operations will be described below.

アンテナ1200において、無線放送波(衛星、地上)、またはケーブルなどの有線放送伝送網を介して放送信号を受信し、チューナ1201において、特定の周波数を選局し復調、誤り訂正処理、などを行う。放送信号がスクランブルされている場合はデスクランブラ1202において、スクランブル信号を復号する。以上の処理により、多重化信号が復元され、多重分離部1203に入力される。多重分離部1203では、MPEG2―TS(Transport Stream)などの形式に多重化されている信号を、映像ES(Elementary Stream)、音声ES、番組情報などの信号に分離する。ESとは、圧縮・符号化された画像・音声データのそれぞれのことである。映像復号部1204は、映像ESを映像信号に復号し、左右色補正部102に出力する。左右色補正部102では、制御部1210の制御により色補正を行う。色補正の内容は上述の各実施例に記載したとおりである。左右色補正部102から出力された映像は、3D映像を3D表示する場合は立体表示処理部105の立体表示処理を経て表示装置105にて3D表示される。2D映像を2D表示する場合は、立体表示処理部105の立体表示処理を行わず表示装置105にて2D表示される。3D映像を2D表示する場合は立体表示処理部105にて3D映像に含まれる一視点の映像(例えば、SBS方式であれば、左目用映像または右目用映像のいずれか一方の映像)を2D映像として出力し表示装置105にて2D表示すればよい。2D映像を3D表示する場合は立体表示処理部105にて、2D映像を3D映像に変換する2D3D映像変換処理を行って、3D映像として出力し表示装置105にて3D表示すればよい。2D/3D変換処理方法としては、様々な方法が知られているので、いずれかの方法の2D/3D変換処理機能を立体表示処理部105に実装しておけばよい。立体表示処理部105の立体表示処理は、制御部1210が制御する。音声復号部1207は音声ESを音声信号に復号し、スピーカ1208に出力または音声出力として外部に出力する。ネットワーク1205は、インターネットやインフラのネットワーク群である。ネットワークI/F1206は、ネットワークを介して情報を送受信し、インターネットと受信装置間で各種情報およびMPEG2―TSなどを送受信する。多重分離部1203に入力される映像や音声は、チューナ1201を介して受信装置に入力されてもよく、ネットワークI/F1206を介して受信装置に入力されてもよい。   The antenna 1200 receives a broadcast signal via a radio broadcast wave (satellite, terrestrial) or a wired broadcast transmission network such as a cable, and a tuner 1201 selects a specific frequency and performs demodulation, error correction processing, and the like. . If the broadcast signal is scrambled, the descrambler 1202 decodes the scrambled signal. Through the above processing, the multiplexed signal is restored and input to the demultiplexing unit 1203. The demultiplexing unit 1203 demultiplexes signals multiplexed in a format such as MPEG2-TS (Transport Stream) into signals such as video ES (Elementary Stream), audio ES, and program information. An ES is each of compressed and encoded image / sound data. The video decoding unit 1204 decodes the video ES into a video signal and outputs it to the left and right color correction unit 102. The left and right color correction unit 102 performs color correction under the control of the control unit 1210. The contents of the color correction are as described in the above embodiments. The video output from the left and right color correction unit 102 is displayed in 3D on the display device 105 through the stereoscopic display processing of the stereoscopic display processing unit 105 when 3D video is displayed in 3D. When 2D video is displayed in 2D, the 3D display processing unit 105 does not perform the 3D display process, and the 2D display is performed on the display device 105. When 2D display of 3D video is performed, the stereoscopic display processing unit 105 converts the video of one viewpoint included in the 3D video (for example, in the case of the SBS system, either left-eye video or right-eye video) into 2D video. And 2D display on the display device 105. When 2D video is displayed in 3D, the stereoscopic display processing unit 105 may perform 2D3D video conversion processing for converting 2D video into 3D video, output the 3D video, and display the 3D video on the display device 105. Since various methods are known as 2D / 3D conversion processing methods, the 2D / 3D conversion processing function of any method may be mounted in the stereoscopic display processing unit 105. The control unit 1210 controls the 3D display processing of the 3D display processing unit 105. The audio decoding unit 1207 decodes the audio ES into an audio signal and outputs it to the speaker 1208 as an output or as an audio output. A network 1205 is a network group of the Internet and infrastructure. The network I / F 1206 transmits / receives information via the network, and transmits / receives various information, MPEG2-TS, and the like between the Internet and the receiving device. Video and audio input to the demultiplexing unit 1203 may be input to the receiving device via the tuner 1201 or may be input to the receiving device via the network I / F 1206.

2D/3D判定部1209においては、アンテナ1200やネットワークI/F1206から受信した情報に含まれる3D/2D識別情報(3D映像コンテンツか否かを示す情報)や3D方式識別情報(SBS、TAB、Frame Packingなど3D映像の方式を示す情報)を利用して、映像が3D映像であるか2D映像であるかを判定する。   In the 2D / 3D determination unit 1209, 3D / 2D identification information (information indicating whether the content is 3D video content) or 3D system identification information (SBS, TAB, Frame) included in information received from the antenna 1200 or the network I / F 1206. It is determined whether the video is 3D video or 2D video by using 3D video system information such as Packing).

3D/2D識別情報や3D方式識別情報の伝送方法は、様々に考えられる。例えば、MPEG2―TS(Transport Stream)に含まれ、多重分離部1203で分離される番組情報(番組特定情報と番組配列情報)に格納する方法が考えられる。番組特定情報(PSI:Program Specific Information)は、所要の番組を選択するために必要な情報で、映像の符号化情報、音声の符号化情報、番組の構成を含む。番組配列情報(SI:Service Information)は、番組選択の利便性のために規定された各種情報であり、MPEG−2システム規格のPSI 情報も含まれ、番組名、放送日時、番組内容など、番組に関する情報が記載されるEIT(Event Information Table)、編成チャンネル名、放送事業者名など、編成チャンネル(サービス)に関する情報が記載されるSDT(Service Description Table)などがある。これらPSIやSIで規定された記述子または新たに追加した記述子に3D/2D識別情報を格納すればよい。これらの記述子に3D/2D識別情報や3D方式識別情報を格納することにより、番組単位での3D番組コンテンツか否かの識別や、サービス単位での3D番組用サービスか否かの識別が可能となる。   There are various methods for transmitting 3D / 2D identification information and 3D system identification information. For example, a method of storing in program information (program specifying information and program arrangement information) included in MPEG2-TS (Transport Stream) and separated by the demultiplexing unit 1203 is conceivable. Program specific information (PSI) is information necessary for selecting a required program, and includes video coding information, audio coding information, and program configuration. Program sequence information (SI: Service Information) is various information defined for the convenience of program selection, and includes PSI information of the MPEG-2 system standard, including program name, broadcast date and time, program content, etc. For example, there is an EIT (Event Information Table) in which information related to information is described, an SDT (Service Description Table) in which information related to an organized channel (service) is described, such as an organized channel name and a broadcaster name. The 3D / 2D identification information may be stored in a descriptor defined by these PSI or SI or a newly added descriptor. By storing 3D / 2D identification information and 3D system identification information in these descriptors, it is possible to identify whether or not the content is 3D program content in units of programs and whether or not the service is for 3D programs in units of services. It becomes.

また、映像を符号化する段階で映像ESに3D/2D識別情報を付加するように構成してもよい。例えば、映像符号化方式がMPEG2方式である場合には、Picture header、Picture Coding Extensionに続くユーザデータ領域に上記の3D/2D識別情報や3D方式識別情報を含めて符号化を行えばよい。この場合、映像復号部1204にて、映像のフレーム(ピクチャー)単位で3D識別フラグが認識でき、3D映像ストリームの途中に2D映像が挿入された場合なども識別が可能になる。   Further, 3D / 2D identification information may be added to the video ES at the stage of encoding the video. For example, when the video encoding method is the MPEG2 method, encoding may be performed by including the 3D / 2D identification information and the 3D method identification information in the user data area following the Picture header and Picture Coding Extension. In this case, the video decoding unit 1204 can recognize the 3D identification flag in units of video frames (pictures), and can also identify when a 2D video is inserted in the middle of the 3D video stream.

2D/3D判定部1209は、上述のとおり、分離部1203や映像復号部1204で分離または抽出した3D/2D識別情報や3D方式識別情報を用いて映像が3D映像であるか2D映像であるかを判定する。2D/3D判定部1209の判定結果に応じて、制御部1210は、左右色補正部102における色補正の制御を行う。   As described above, the 2D / 3D determination unit 1209 uses the 3D / 2D identification information and the 3D system identification information separated or extracted by the separation unit 1203 and the video decoding unit 1204 to determine whether the video is a 3D video or a 2D video. Determine. In accordance with the determination result of the 2D / 3D determination unit 1209, the control unit 1210 controls color correction in the left and right color correction unit 102.

ここで、2D/3D判定部1209および制御部1210の動作シーケンスの一例を図13に示す。まず判定処理を開始する(S1300)。受信した3D/2D識別情報が3D映像を示している場合(S1301)には、2D/3D判定部1209は、入力映像が3D映像であると判定し(S1302)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1303)。受信した3D/2D識別情報が2D映像を示している場合(S1301)には、2D/3D判定部1209は、入力映像が2D映像であると判定し(S1304)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1305)。これにより、3D表示装置で映像視聴時などでは、受信情報に含まれる3D情報を元に、自動的に左右映像の色補正をすることが可能となる。   Here, an example of an operation sequence of the 2D / 3D determination unit 1209 and the control unit 1210 is shown in FIG. First, the determination process is started (S1300). When the received 3D / 2D identification information indicates 3D video (S1301), the 2D / 3D determination unit 1209 determines that the input video is 3D video (S1302), and the control unit 1210 corrects the left and right colors. The unit 102 is controlled to perform color correction processing of the left and right images (S1303). When the received 3D / 2D identification information indicates 2D video (S1301), the 2D / 3D determination unit 1209 determines that the input video is 2D video (S1304), and the control unit 1210 corrects the left and right colors. The unit 102 is controlled not to perform the color correction processing of the left and right images (S1305). As a result, when viewing a video on the 3D display device, the left and right video can be automatically color corrected based on the 3D information included in the received information.

2D/3D判定部1209および制御部1210の動作シーケンスの他の一例を図14に示す。図14は、図13の動作シーケンスに、受信信号に処理対象番組の3D/2D識別情報が受信信号に含まれていない場合の判定も追加したものである。まず判定処理を開始する(S1400)。受信信号に処理対象番組の3D/2D識別情報が含まれていない場合(S1401)には、2D/3D判定部1209は処理対象番組が2D映像番組であると判定し(S1405)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1406)。受信信号に処理対象番組の3D/2D識別情報が含まれている場合(S1401)には、S1402に移行する。受信信号に含まれる処理対象番組の3D/2D識別情報が3D映像を示している場合(S1402)には、2D/3D判定部1209は処理対象番組が3D映像番組であると判定し(S1403)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1404)。受信信号に含まれる処理対象番組の3D/2D識別情報が2D映像を示している場合(S1402)には、2D/3D判定部1209が処理対象番組が2D映像番組であると判定し(S1405)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1406)。これにより、送信側が意図せず3D/2D識別情報が受信信号から欠落した場合であっても、受信装置の色補正により不適当な表示を行うことを防止することができる。   Another example of the operation sequence of the 2D / 3D determination unit 1209 and the control unit 1210 is shown in FIG. FIG. 14 is obtained by adding determination to the operation sequence of FIG. 13 when the received signal does not include the 3D / 2D identification information of the processing target program in the received signal. First, the determination process is started (S1400). When the 3D / 2D identification information of the processing target program is not included in the received signal (S1401), the 2D / 3D determination unit 1209 determines that the processing target program is a 2D video program (S1405), and the control unit 1210 Controls the left and right color correction unit 102 not to perform the color correction processing of the left and right images (S1406). If 3D / 2D identification information of the processing target program is included in the received signal (S1401), the process proceeds to S1402. When the 3D / 2D identification information of the processing target program included in the received signal indicates 3D video (S1402), the 2D / 3D determination unit 1209 determines that the processing target program is a 3D video program (S1403). The control unit 1210 controls the left and right color correction unit 102 to perform color correction processing of the left and right images (S1404). When the 3D / 2D identification information of the processing target program included in the received signal indicates 2D video (S1402), the 2D / 3D determination unit 1209 determines that the processing target program is a 2D video program (S1405). The control unit 1210 performs control so that the left and right color correction unit 102 does not perform color correction processing of the left and right images (S1406). Accordingly, even when 3D / 2D identification information is missing from the received signal without intention of the transmitting side, it is possible to prevent inappropriate display due to color correction of the receiving device.

2D/3D判定部1209および制御部1210の動作シーケンスの他の一例を図15に示す。図15は、SBS、TAB、Frame Packingなど3D映像の方式を示す情報である3D方式識別情報を用いて2D/3D判定部1209が判定を行うものである。まず判定処理を開始する(S1500)。受信信号に処理対象番組についての3D方式識別情報が含まれている場合(S1501)には、2D/3D判定部1209は、入力映像が3D映像であると判定し(S1502)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1503)。受信信号に処理対象番組についての3D方式識別情報が含まれていない場合(S1501)には、2D/3D判定部1209は、入力映像が2D映像であると判定し(S1504)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1505)。これにより、3D映像の方式(フォーマット)を示す情報である3D方式識別情報の有無に応じて、左右映像の色補正処理の要否を制御することが可能となる。   Another example of the operation sequence of the 2D / 3D determination unit 1209 and the control unit 1210 is shown in FIG. FIG. 15 is a diagram in which the 2D / 3D determination unit 1209 performs determination using 3D system identification information that is information indicating a 3D video system, such as SBS, TAB, and Frame Packing. First, the determination process is started (S1500). When the received signal includes 3D system identification information about the processing target program (S1501), the 2D / 3D determination unit 1209 determines that the input video is a 3D video (S1502), and the control unit 1210 The left and right color correction unit 102 is controlled to perform color correction processing of the left and right images (S1503). When the received signal does not include 3D system identification information about the program to be processed (S1501), the 2D / 3D determination unit 1209 determines that the input video is a 2D video (S1504), and the control unit 1210 The left and right color correction unit 102 is controlled not to perform color correction processing of the left and right images (S1505). This makes it possible to control the necessity of color correction processing for the left and right videos according to the presence or absence of 3D system identification information that is information indicating the 3D video system (format).

本発明の左右映像の色補正処理を開始や停止をするタイミングは、上述の方法などにより、3Dもしくは2Dを識別できたタイミングで良く、識別する方法は上述のいずれでも良い。   The timing for starting and stopping the color correction processing of the left and right images of the present invention may be the timing at which 3D or 2D can be identified by the above-described method, and any of the above-described identifying methods may be used.

また、2D/3D判定部1209の判定結果とユーザI/F700から入力されるのユーザ操作信号と組合せて、制御部1210が処理を決定する構成としてもよい。例えば、上記2D/3D判定部1209により3D映像であると判定した場合であっても、ユーザI/F700を介して3D表示指示を受け付けるまでは、3D表示処理、左右色補正処理をしない処理にしても良い。この場合の、2D/3D判定部1209、ユーザI/F700、制御部1210の動作シーケンスの一例を図16を用いて説明する。まず判定処理を開始する(S1600)。2D/3D判定部1209は3D映像であるか否かを判定する(S1601)。ここで、S1601における2D/3D判定部1209の判定処理は、上述の図13、図14、図15のうちの2D/3D判定部1209の判定処理のいずれを用いてもよい。また、その他の判定処理でもかまわない。2D/3D判定部1209が入力映像は2D映像であると判定した場合(S1601)、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1604)。S1604では、2D映像が2D表示されることとなる。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1601)、S1602に移行する。ここで、ユーザI/F700を介してユーザからの3D表示指示信号が未だ入力されていない場合(S1602)、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1604)。S1604では、3D映像が2D表示されることとなるが、このとき、3D映像中の一方の映像を2D表示してもよいし、例えば、SBS、TABなどの2D画像の1画面に複数視点が格納される方式の3D映像では、そのまま複数視点が格納される画面を2D映像として表示してもよい。ユーザI/F700を介してユーザからの3D表示指示信号が既に入力された場合(S1602)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105で立体表示のための映像処理をおこなうように制御する(S1603)。S1603では、3D映像が3D表示されることとなる。以上の動作により、ユーザの3D表示の意図が確認できるまでは左右色補正部102における左右映像の色補正処理を省略することができ、ユーザの3D表示の意図が確認できたあとは、左右色ズレが少ない安全な3D映像を視聴できる。なお、受信信号に、SBS、TAB、FramePackingなどの3Dフォーマットを示す3D方式識別情報が含まれる場合には、ユーザが3D表示の操作をした場合に、当該識別情報が示すフォーマットに適した左右映像の色補正処理を行えばよい。   Further, the control unit 1210 may be configured to determine the process in combination with the determination result of the 2D / 3D determination unit 1209 and the user operation signal input from the user I / F 700. For example, even if the 2D / 3D determination unit 1209 determines that the image is 3D video, the 3D display process and the left / right color correction process are not performed until a 3D display instruction is received via the user I / F 700. May be. An example of the operation sequence of the 2D / 3D determination unit 1209, the user I / F 700, and the control unit 1210 in this case will be described with reference to FIG. First, the determination process is started (S1600). The 2D / 3D determination unit 1209 determines whether or not the image is 3D video (S1601). Here, the determination process of the 2D / 3D determination unit 1209 in S1601 may use any of the determination processes of the 2D / 3D determination unit 1209 in FIG. 13, FIG. 14, and FIG. Further, other determination processes may be used. When the 2D / 3D determination unit 1209 determines that the input video is a 2D video (S1601), the control unit 1210 performs control so that the left and right color correction unit 102 does not perform the color correction processing of the left and right videos, and the stereoscopic video processing. The unit 105 performs control so as not to perform video processing for stereoscopic display (S1604). In S1604, 2D video is displayed in 2D. When the 2D / 3D determination unit 1209 determines that the input video is a 3D video (S1601), the process proceeds to S1602. Here, when the 3D display instruction signal from the user has not yet been input via the user I / F 700 (S1602), the control unit 1210 does not perform the left / right color correction processing in the left / right color correction unit 102. Control is performed so that the stereoscopic video processing unit 105 does not perform video processing for stereoscopic display (S1604). In S1604, 3D video is displayed in 2D. At this time, one video in the 3D video may be displayed in 2D. For example, a plurality of viewpoints may be displayed on one screen of 2D images such as SBS and TAB. In the stored 3D video, a screen storing a plurality of viewpoints may be displayed as 2D video as it is. When a 3D display instruction signal from the user has already been input via the user I / F 700 (S1602), the control unit 1210 controls the left and right color correction unit 102 to perform color correction processing of the left and right images, and the stereoscopic image The processing unit 105 performs control so as to perform video processing for stereoscopic display (S1603). In S1603, 3D video is displayed in 3D. By the above operation, the right and left color correction processing in the left and right color correction unit 102 can be omitted until the user's intention of 3D display can be confirmed. You can watch safe 3D video with little gap. When the received signal includes 3D format identification information indicating a 3D format such as SBS, TAB, or FramePacking, when the user performs a 3D display operation, right and left images suitable for the format indicated by the identification information are displayed. The color correction process may be performed.

また、ユーザI/F700を介して3D表示を指示する情報が入力されても、映像が2Dと識別される場合には、左右色補正処理は行わないようにしてもよい。この場合の、2D/3D判定部1209、ユーザI/F700、制御部1210の動作シーケンスの一例を図17を用いて説明する。まず判定処理を開始する(S1700)。ユーザI/F700を介してユーザからの3D表示指示信号が入力された場合(S1701)、S1702に移行する。2D/3D判定部1209は入力映像が3D映像であるか否かを判定する(S1702)。ここで、S1702における2D/3D判定部1209の判定処理は、上述の図13、図14、図15のうちの2D/3D判定部1209の判定処理のいずれを用いてもよい。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1702)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105で立体表示のための映像処理をおこなうように制御する(S1703)。S1703では、3D映像が3D表示されることとなる。ここで、S1702にて、2D/3D判定部1209が入力映像は2D映像であると判定した場合(S1702)、S1704に移行する。S1704では二通りの制御例が考えられる。第1の制御例は、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する例である。この場合、2D映像が2D表示される。第2の制御例は、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で2D映像を3D映像に変換する2D/3D変換処理を行うように制御する例である。この場合、2D映像が3D映像に変換されて3D表示される。なお、第1の制御例と第2の制御例のいずれを行うかは、立体表示装置の実装において適宜選択すればよい。また、メニュー設定で第1の制御例と第2の制御例をユーザが予め選択設定できるように構成してもよい。次に、S1701において、ユーザI/F700を介してユーザからの2D表示指示信号が入力された場合、S1705に移行する。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1705)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105において3D映像中の一視点の映像を2D映像として出力するように制御する(S1706)。S1706では、3D映像中の一視点の映像が2D表示されることとなる。S1705において、2D/3D判定部1209が入力映像は2D映像であると判定した場合、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1707)。S1707では、2D映像が2D表示されることとなる。以上説明した動作により、映像の2D/3Dの識別とユーザ操作信号に応じた、左右色補正処理のOn/Offと2D3D表示処理とをより好適に行うことができる。   Even if information instructing 3D display is input via the user I / F 700, if the video is identified as 2D, the right and left color correction processing may not be performed. An example of the operation sequence of the 2D / 3D determination unit 1209, the user I / F 700, and the control unit 1210 in this case will be described with reference to FIG. First, the determination process is started (S1700). When a 3D display instruction signal is input from the user via the user I / F 700 (S1701), the process proceeds to S1702. The 2D / 3D determination unit 1209 determines whether the input video is a 3D video (S1702). Here, the determination process of the 2D / 3D determination unit 1209 in S1702 may use any of the determination processes of the 2D / 3D determination unit 1209 in FIG. 13, FIG. 14, and FIG. When the 2D / 3D determination unit 1209 determines that the input video is a 3D video (S1702), the control unit 1210 controls the left and right color correction unit 102 to perform color correction processing of the left and right videos, and the stereoscopic video processing unit In step S 1703, control is performed so that video processing for stereoscopic display is performed in 105. In S1703, 3D video is displayed in 3D. If the 2D / 3D determination unit 1209 determines in step S1702 that the input video is a 2D video (S1702), the process proceeds to step S1704. In S1704, two control examples can be considered. In the first control example, the control unit 1210 performs control so that the left and right color correction unit 102 does not perform color correction processing of the left and right images, and the stereoscopic video processing unit 105 does not perform video processing for stereoscopic display. It is an example to control. In this case, 2D video is displayed in 2D. In the second control example, the control unit 1210 performs control so that the left and right color correction unit 102 does not perform color correction processing of the left and right images, and the 3D image processing unit 105 converts 2D video into 3D video. It is an example which controls to perform processing. In this case, 2D video is converted into 3D video and displayed in 3D. Note that whether to perform the first control example or the second control example may be appropriately selected in the implementation of the stereoscopic display device. Moreover, you may comprise so that a user can select and set beforehand the 1st control example and the 2nd control example by menu setting. Next, when a 2D display instruction signal is input from the user via the user I / F 700 in S1701, the process proceeds to S1705. When the 2D / 3D determination unit 1209 determines that the input video is a 3D video (S1705), the control unit 1210 controls the left and right color correction unit 102 to perform color correction processing of the left and right videos, and the stereoscopic video processing unit In step S1706, control is performed so that one viewpoint video in 3D video is output as 2D video in 105. In S1706, the video of one viewpoint in the 3D video is displayed in 2D. If the 2D / 3D determination unit 1209 determines in step S1705 that the input video is a 2D video, the control unit 1210 performs control so that the left and right color correction unit 102 does not perform the color correction processing of the left and right videos, and the stereoscopic video processing. The unit 105 performs control so as not to perform video processing for stereoscopic display (S1707). In S1707, 2D video is displayed in 2D. By the operation described above, the left / right color correction processing On / Off and the 2D3D display processing according to the 2D / 3D identification of the video and the user operation signal can be more suitably performed.

以上説明した各実施例において、3D表示方式が液晶シャッタ方式、偏光メガネ方式、裸眼方式のいずれの場合でも同様な処理が可能である。   In each of the embodiments described above, the same processing is possible regardless of whether the 3D display method is a liquid crystal shutter method, a polarized glasses method, or a naked eye method.

また、立体表示制御装置で動作するプログラムは、立体表示制御装置内に実装してあっても良いし、記録媒体に記録して提供するようにしても良いし、ネットワークを介してダウンロードして提供するようにしても良い。   In addition, the program that operates on the stereoscopic display control apparatus may be installed in the stereoscopic display control apparatus, may be recorded on a recording medium and provided, or may be downloaded and provided via a network. You may make it do.

なお、以上説明した各実施例では色相の解析例、補正例を説明した。しかしながら、これらの解析、補正の適用は色相に限られない。彩度、明度、輝度などの他の色空間について、左右映像の色の特徴の差異量に応じた左右映像の色補正を行ってもよい。または、色相、彩度、明度、輝度などの複数の色空間のうちの複数の色空間に対する解析、補正をあわせておこなってもよい。   In each of the embodiments described above, an example of hue analysis and an example of correction have been described. However, application of these analyzes and corrections is not limited to hue. For other color spaces such as saturation, lightness, and luminance, color correction of the left and right images may be performed according to the amount of difference in color characteristics between the left and right images. Alternatively, analysis and correction for a plurality of color spaces among a plurality of color spaces such as hue, saturation, brightness, and luminance may be performed together.

100 映像入力I/F部
101 映像デコーダ回路部
102 立体映像色補正処理部
103 立体映像信号処理部
104 左右色補正処理部
105 立体表示処理部
106 表示装置部
201 左目用映像(入力)
202 右目用映像(入力)
203 左目用映像色相ヒストグラム解析
204 右目用映像色相ヒストグラム解析
205 色補正処理
206 左目用映像(出力)
207 右目用映像(出力)
400 HSV色空間
500 色相ヒストグラム
600 左目用映像の色相ヒストグラム
601 右目用映像の色相ヒストグラム
700 ユーザI/F部
800 SBS表示映像(2D表示時)
801 TAB表示映像(2D表示時)
802 リモコン
803 3D表示映像
900 オクルージョン検出部
1000 立方体(被写体)
1001 球(被写体)
1002 左目用映像
1003 右目用映像
1200 アンテナ
1201 チューナ
1202 デスクランブラ
1203 多重分離部
1204 映像復号部
1205 ネットワーク
1206 2D/3D判定部
1207 音声復号部
1208 スピーカ
1209 ネットワークI /F
1210 制御部
100 video input I / F unit 101 video decoder circuit unit 102 stereoscopic video color correction processing unit 103 stereoscopic video signal processing unit 104 left and right color correction processing unit 105 stereoscopic display processing unit 106 display device unit 201 left-eye video (input)
202 Right-eye video (input)
203 Left-eye image hue histogram analysis 204 Right-eye image hue histogram analysis 205 Color correction process 206 Left-eye image (output)
207 Right-eye video (output)
400 HSV Color Space 500 Hue Histogram 600 Hue Histogram 601 of Left Eye Video Hue Histogram 700 of Right Eye Video User I / F Unit 800 SBS Display Video (during 2D Display)
801 TAB display image (2D display)
802 Remote control 803 3D display image 900 Occlusion detection unit 1000 Cube (subject)
1001 Sphere (subject)
1002 Left-eye video 1003 Right-eye video 1200 Antenna 1201 Tuner 1202 Descrambler 1203 Demultiplexer 1204 Video decoder 1205 Network 1206 2D / 3D determination unit 1207 Audio decoder 1208 Speaker 1209 Network I / F
1210 Control unit

Claims (10)

放送または通信を介して映像が入力される入力部と、
放送または通信を介して前記入力部に入力された映像について、2D映像か3D映像かを判定するための識別情報を取得し2D映像/3D映像判定処理を行う判定部と、
ユーザインタフェースと、
入力された3D映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像について、色空間のヒストグラムのピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである特徴パラメータを検出する解析部と、
前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正処理を行う補正部と
を備え
前記補正部の処理状態には、
前記判定部により、前記入力部に入力された映像が2D映像であると判定された場合に前記補正部による色空間上の補正処理を行わない第1の状態と、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されており、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下の場合に前記補正部による色空間上の補正処理を行う第2の状態と、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていない場合に、前記補正部による色空間上の補正処理を行なわない第3の状態とがある
ことを特徴とする立体映像処理装置。
An input unit through which video is input via broadcast or communication ;
A determination unit that acquires identification information for determining whether the video is input to the input unit via broadcast or communication, whether it is 2D video or 3D video, and performs 2D video / 3D video determination processing;
A user interface;
When the input 3D image includes a left-eye image and a right-eye image, a color space histogram is generated for each image, and for each image , the peak hue position of the color space histogram, the frequency of the peak hue, and the peak hue An analysis unit that detects a feature parameter that is a peripheral distribution width, a position of the center of gravity of a peak hue peripheral distribution, or a combination thereof ;
A correction unit that performs correction processing on a color space that reduces a difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit ;
Equipped with a,
The processing state of the correction unit includes
A first state in which correction processing on the color space by the correction unit is not performed when the determination unit determines that the video input to the input unit is a 2D video;
The determination unit determines that the video input to the input unit is a 3D video, an instruction to display 3D video through the user interface is input, and the left eye detected by the analysis unit is input. A second state in which correction processing on the color space by the correction unit is performed when the difference between the video feature parameter and the right eye video feature parameter is equal to or less than a predetermined threshold;
When the determination unit determines that the video input to the input unit is a 3D video and an instruction for 3D display of the 3D video is not input via the user interface, There is a third state in which no correction processing is performed .
請求項1に記載の立体映像処理装置であって、
前記補正部の処理状態には、さらに、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていても、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値より大きい場合には、前記補正部による色空間上の補正処理を行わない第4の状態があることを特徴とする立体映像処理装置。
The stereoscopic image processing apparatus according to claim 1,
The processing state of the correction unit further includes:
The determination unit determines that the video input to the input unit is a 3D video, and the left eye detected by the analysis unit is detected even if an instruction to display 3D video through the user interface is input. When the difference between the feature parameter of the image for use and the feature parameter of the feature image for the right eye is greater than a predetermined threshold, there is a fourth state in which the correction processing on the color space by the correction unit is not performed. Stereoscopic image processing device.
請求項に記載の立体映像処理装置であって、
前記第3の状態のあとに前記ユーザインタフェースに2D表示から3D表示への切り替え指示が入力された場合に、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下であれば、前記補正部が前記色空間上の補正処理を開始することを特徴とする立体映像処理装置。
The stereoscopic image processing apparatus according to claim 1 ,
When the switching instruction from 2D display to 3D display is input to the user interface after the third state, the feature parameter of the left-eye video and the feature parameter of the right-eye video detected by the analysis unit If the difference is equal to or smaller than a predetermined threshold, the correction unit starts the correction process on the color space .
請求項に記載の立体映像処理装置であって、
前記第3の状態のあとに前記ユーザインタフェースに3D表示から2D表示への切り替え指示が入力された場合に、前記補正部が前記色空間上の補正処理を終了することを特徴とする立体映像処理装置。
The stereoscopic image processing apparatus according to claim 1 ,
3D image processing , wherein when the switching instruction from 3D display to 2D display is input to the user interface after the third state, the correction unit ends the correction processing on the color space. apparatus.
請求項1に記載の立体映像処理装置であって、
オクルージョン検出部を備え、
前記オクルージョン検出部は、入力された映像含まれる左目用映像と右目用映像とにおいて、一方の視点では見えずに他方の視点では見える物体が存在するオクルージョン領域を検出し、
前記解析部は、前記オクルージョン領域については、前記色空間のヒストグラムの生成処理において除外し、
前記補正部は、前記オクルージョン領域については、色空間上の補正の対象から除外することを特徴とする立体映像処理装置。
The stereoscopic image processing apparatus according to claim 1,
With an occlusion detector,
The occlusion detection unit detects an occlusion region in which an object that is not visible at one viewpoint and visible at the other viewpoint exists in the left-eye video and the right-eye video included in the input video,
The analysis unit excludes the occlusion area in the histogram generation process of the color space,
The stereoscopic image processing apparatus , wherein the correction unit excludes the occlusion area from correction targets in a color space .
放送または通信を介して映像が入力される入力部と、An input unit through which video is input via broadcast or communication;
放送または通信を介して前記入力部に入力された映像について、2D映像か3D映像かを判定するための識別情報を取得し2D映像/3D映像判定処理を行う判定部と、A determination unit that acquires identification information for determining whether the video is input to the input unit via broadcast or communication, whether it is 2D video or 3D video, and performs 2D video / 3D video determination processing;
ユーザインタフェースと、A user interface;
入力された3D映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像について、色空間のヒストグラムのピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである特徴パラメータを検出する解析部と、When the input 3D image includes a left-eye image and a right-eye image, a color space histogram is generated for each image, and for each image, the peak hue position of the color space histogram, the frequency of the peak hue, and the peak hue An analysis unit that detects a feature parameter that is a peripheral distribution width, a position of the center of gravity of a peak hue peripheral distribution, or a combination thereof;
前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正処理を行う補正部と、A correction unit that performs correction processing on a color space that reduces a difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit;
前記補正部において前記色空間上の補正処理を行った映像を表示可能な表示部と、A display unit capable of displaying an image subjected to correction processing on the color space in the correction unit;
を備え、With
前記補正部の処理状態には、The processing state of the correction unit includes
前記判定部により、前記入力部に入力された映像が2D映像であると判定された場合に前記補正部による色空間上の補正処理を行わない第1の状態と、A first state in which correction processing on the color space by the correction unit is not performed when the determination unit determines that the video input to the input unit is a 2D video;
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されており、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下の場合に前記補正部による色空間上の補正処理を行う第2の状態と、The determination unit determines that the video input to the input unit is a 3D video, an instruction to display 3D video through the user interface is input, and the left eye detected by the analysis unit is input. A second state in which correction processing on the color space by the correction unit is performed when the difference between the video feature parameter and the right eye video feature parameter is equal to or less than a predetermined threshold;
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていない場合に、前記補正部による色空間上の補正処理を行なわない第3の状態とがあるWhen the determination unit determines that the video input to the input unit is a 3D video and an instruction for 3D display of the 3D video is not input via the user interface, There is a third state where no correction processing is performed
ことを特徴とする映像表示装置。A video display device characterized by that.
請求項6に記載の映像表示装置であって、The video display device according to claim 6,
前記補正部の処理状態には、さらに、The processing state of the correction unit further includes:
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていても、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値より大きい場合には、前記補正部による色空間上の補正処理を行わない第4の状態があることを特徴とする映像表示装置。The determination unit determines that the video input to the input unit is a 3D video, and the left eye detected by the analysis unit is detected even if an instruction to display 3D video through the user interface is input. When the difference between the feature parameter of the image for use and the feature parameter of the feature image for the right eye is greater than a predetermined threshold, there is a fourth state in which the correction processing on the color space by the correction unit is not performed. Video display device.
請求項6に記載の映像表示装置であって、The video display device according to claim 6,
前記第3の状態のあとに前記ユーザインタフェースに2D表示から3D表示への切り替え指示が入力された場合に、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下であれば、前記補正部が前記色空間上の補正処理を開始することを特徴とする映像表示装置。When the switching instruction from 2D display to 3D display is input to the user interface after the third state, the feature parameter of the left-eye video and the feature parameter of the right-eye video detected by the analysis unit If the difference is equal to or less than a predetermined threshold, the correction unit starts the correction process on the color space.
請求項6に記載の映像表示装置であって、The video display device according to claim 6,
前記第3の状態のあとに前記ユーザインタフェースに3D表示から2D表示への切り替え指示が入力された場合に、前記補正部が前記色空間上の補正処理を終了することを特徴とする映像表示装置。The video display device, wherein when the switching instruction from 3D display to 2D display is input to the user interface after the third state, the correction unit ends the correction processing on the color space. .
請求項6に記載の映像表示装置であって、The video display device according to claim 6,
オクルージョン検出部を備え、With an occlusion detector,
前記オクルージョン検出部は、入力された映像含まれる左目用映像と右目用映像とにおいて、一方の視点では見えずに他方の視点では見える物体が存在するオクルージョン領域を検出し、The occlusion detection unit detects an occlusion region in which an object that is not visible at one viewpoint and visible at the other viewpoint exists in the left-eye video and the right-eye video included in the input video,
前記解析部は、前記オクルージョン領域については、前記色空間のヒストグラムの生成処理において除外し、The analysis unit excludes the occlusion area in the histogram generation process of the color space,
前記補正部は、前記オクルージョン領域については、色空間上の補正の対象から除外することを特徴とする映像表示装置。The video display device, wherein the correction unit excludes the occlusion area from correction targets in a color space.
JP2011208405A 2010-11-26 2011-09-26 Stereoscopic image processing apparatus and image display apparatus Active JP5715534B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011208405A JP5715534B2 (en) 2011-09-26 2011-09-26 Stereoscopic image processing apparatus and image display apparatus
US13/286,414 US20120133733A1 (en) 2010-11-26 2011-11-01 Three-dimensional video image processing device, three-dimensional display device, three-dimensional video image processing method and receiving device
CN2011103402370A CN102480625A (en) 2010-11-26 2011-11-01 Three-dimensional video image processing device, three-dimensional display device and receiving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011208405A JP5715534B2 (en) 2011-09-26 2011-09-26 Stereoscopic image processing apparatus and image display apparatus

Publications (2)

Publication Number Publication Date
JP2013070296A JP2013070296A (en) 2013-04-18
JP5715534B2 true JP5715534B2 (en) 2015-05-07

Family

ID=48475461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011208405A Active JP5715534B2 (en) 2010-11-26 2011-09-26 Stereoscopic image processing apparatus and image display apparatus

Country Status (1)

Country Link
JP (1) JP5715534B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127703A (en) * 1997-06-30 1999-01-29 Canon Inc Display device and its control method
JP3608715B2 (en) * 1998-08-31 2005-01-12 日立ソフトウエアエンジニアリング株式会社 Image composition apparatus and image composition method
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor
JP3789794B2 (en) * 2001-09-26 2006-06-28 三洋電機株式会社 Stereoscopic image processing method, apparatus, and system
JP2005231488A (en) * 2004-02-19 2005-09-02 Seiko Epson Corp Diving mask, control method for display device for diving mask, control program and recording medium
KR100739764B1 (en) * 2005-11-28 2007-07-13 삼성전자주식회사 Apparatus and method for processing 3 dimensional video signal
JP4958302B2 (en) * 2007-12-12 2012-06-20 独立行政法人情報通信研究機構 Multi-viewpoint image depth value extraction apparatus, method and program thereof
WO2010021373A1 (en) * 2008-08-22 2010-02-25 ソニー株式会社 Image display device, control method and computer program
JP2011059658A (en) * 2009-08-11 2011-03-24 Sony Corp Display device, display method, and computer program
JP5696783B2 (en) * 2011-05-09 2015-04-08 コニカミノルタ株式会社 Image processing device

Also Published As

Publication number Publication date
JP2013070296A (en) 2013-04-18

Similar Documents

Publication Publication Date Title
KR100828358B1 (en) Method and apparatus for converting display mode of video, and computer readable medium thereof
US20120133733A1 (en) Three-dimensional video image processing device, three-dimensional display device, three-dimensional video image processing method and receiving device
US8963995B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
US9578304B2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
US9860511B2 (en) Transmitting apparatus, transmitting method, and receiving apparatus
US9693082B2 (en) Method and device for transmitting/receiving digital broadcast signal
US9338430B2 (en) Encoding device, encoding method, decoding device, and decoding method
JP2010081001A (en) 2d compatible 3d display device and 3d viewing device
CA2860750A1 (en) Encoding device and encoding method, and decoding device and decoding method
US9549167B2 (en) Data structure, image processing apparatus and method, and program
US20130002821A1 (en) Video processing device
US9578300B2 (en) Method and apparatus for processing edge violation phenomenon in multi-view 3DTV service
JP2019083504A (en) Hardware system for inputting stereoscopic image in flat panel
MX2012004580A (en) 3d-image-data transmission device, 3d-image-data transmission method, 3d-image-data reception device, and 3d-image-data reception method.
JP5715534B2 (en) Stereoscopic image processing apparatus and image display apparatus
KR100940209B1 (en) Method and apparatus for converting display mode of video, and computer readable medium thereof
JP5455876B2 (en) 3D image processing device, 3D display device, and 3D image processing method
GB2480999A (en) 3D display with automatic switching between 2D and 3D display modes
KR20120020306A (en) Apparatus and method for displaying of stereo scope images
KR20120056647A (en) Method and apparatus for transmitting 3-dimensional caption, method and apparatus for displaying 3-dimensional caption
KR20120010803A (en) Apparatus and method for controlling a stereo-scopic image dispaly device
KR20110021508A (en) Broadcasting system of 3-d hdtv signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150313

R150 Certificate of patent or registration of utility model

Ref document number: 5715534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250