JP5715534B2 - Stereoscopic image processing apparatus and image display apparatus - Google Patents
Stereoscopic image processing apparatus and image display apparatus Download PDFInfo
- Publication number
- JP5715534B2 JP5715534B2 JP2011208405A JP2011208405A JP5715534B2 JP 5715534 B2 JP5715534 B2 JP 5715534B2 JP 2011208405 A JP2011208405 A JP 2011208405A JP 2011208405 A JP2011208405 A JP 2011208405A JP 5715534 B2 JP5715534 B2 JP 5715534B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- input
- unit
- eye
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 claims description 159
- 238000000034 method Methods 0.000 claims description 76
- 238000004458 analytical method Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 12
- 230000005484 gravity Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims 4
- 238000010586 diagram Methods 0.000 description 10
- 239000003086 colorant Substances 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 238000012856 packing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、立体映像の色補正技術に関する。 The present invention relates to a color correction technique for stereoscopic video.
立体(3D)映像を作成する場合に、右目から見た映像、左目から見た映像を撮影するためのカメラまたはレンズを2つ用意して、映像を撮影したそれぞれの映像を同時(偏光方式や視差バリアやレンチキュラ方式など)またはタイムシーケンシャル(シャッタ眼鏡方式など)に表示装置に立体映像を表現する方法がある。視差のある左右の映像を右目、左目に見せることにより、視聴者が左右視差を脳で立体化することにより、映像を立体的に見せることができる。この様な立体映像の作成、表示方法において、複数のカメラやレンズの個体差や光の入射量や入射角度などにより、同じ映像を撮影している場合でも、それぞれの映像の色合いや明度などが異なる場合がある。 When creating a stereoscopic (3D) image, prepare two cameras or lenses to capture the image viewed from the right eye and the image viewed from the left eye, and simultaneously capture each image captured (polarization or There is a method of expressing a stereoscopic image on a display device in a parallax barrier, a lenticular system, or the like) or time sequential (shutter glasses system, etc.). By showing the left and right images with parallax to the right and left eyes, the viewer can make the left and right parallax three-dimensional with the brain so that the image can be seen in three dimensions. Even when shooting the same image due to individual differences of multiple cameras and lenses, the amount of incident light and the angle of incidence, etc., in such a stereoscopic image creation and display method, the color and brightness of each image May be different.
このように、左右の映像の色合いや明度などの差がある状態で、左右の眼に映像を見せた場合の現象として、左右像に色ズレが大きいと視野闘争が生じて融合しにくくなる可能性左右像の色ズレは眼精疲労の原因となる可能性がある。 In this way, when there is a difference in the color and brightness of the left and right images, and the image is shown to the left and right eyes, if the left and right images are misaligned, a visual field struggle may occur, making it difficult to fuse There is a possibility that color misalignment between the left and right gender causes eye strain.
立体表示用の左右画像の補正方法として、特許文献1には、左右画像の垂直位置ずれを補正する方法が開示されている。特許文献2には、左眼用映像信号と右眼用映像信号の平均輝度レベルとダイナミックレンジとを一致させる補正方法が開示されている。
As a method for correcting the left and right images for stereoscopic display,
しかし、特許文献1や特許文献2に開示される左右映像の補正技術には、左右映像の色ズレに関する補正技術については述べられていない。複数のカメラで撮影した際の、個々のカメラの特性の違いや、それぞれのカメラのピント、フォーカスずれ、ホワイトバランス調整の差異による色ズレが生じる場合がある。その場合、視聴者は、右目、左目に色ズレがある映像を見ることになる。
However, the left and right image correction techniques disclosed in
本発明は上記課題を鑑みてなされたものであり、その目的は、立体映像において、左右の眼に入るそれぞれの映像の色合いをより好適に補正することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to more suitably correct the hue of each image entering the left and right eyes in a stereoscopic image.
上記課題を解決するために、本発明の一実施の態様は、映像が入力される入力部と、入力された映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像についての特徴パラメータを検出する解析部と、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正を行う補正部とを備えるように構成する。 In order to solve the above-described problem, an embodiment of the present invention provides an input unit to which a video is input, and a histogram of a color space for each of the input video including a left-eye video and a right-eye video. And analyzing the color space to reduce the difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit. And a correction unit to be performed.
立体映像において、左右の眼に入るそれぞれの映像の色合いをより好適に補正する。 In a stereoscopic image, the hue of each image entering the left and right eyes is corrected more preferably.
以下、本発明の実施形態を、図面を用いて以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.
以下、本発明の実施例1について、図1〜図6を参照して説明する。 Hereinafter, Example 1 of the present invention will be described with reference to FIGS.
図1は、本発明の実施例1に係る立体映像処理装置の構成の一例を示すブロック図である。 FIG. 1 is a block diagram illustrating an example of the configuration of the stereoscopic video processing apparatus according to the first embodiment of the present invention.
図1において、100は映像入力I/F、101は映像デコーダ回路、102は立体映像色補正処理部、103は立体映像処理部、104は左右色補正処理部、105は立体表示処理部、106は表示部である。 In FIG. 1, 100 is a video input I / F, 101 is a video decoder circuit, 102 is a stereoscopic video color correction processing unit, 103 is a stereoscopic video processing unit, 104 is a left / right color correction processing unit, 105 is a stereoscopic display processing unit, 106 Is a display part.
映像入力I/F100は、放送や光ディスクなどのプレーヤ装置やゲーム機などから映像や音声、文字などのコンテンツの入力を行うインタフェースである。映像デコーダ回路101は映像のデコード処理などを行い、映像信号を出力する。立体映像色補正処理部102では、Side−by−Side(SBS)方式やTop−and−Bottom(TAB)方式、Frame−Packing(FP)方式や多眼方式などの立体映像が入力された場合に、立体映像処理部103にて、左右のそれぞれの目に対応する映像を分離する映像信号処理を行う。左右色補正処理部104では、左右のそれぞれの目に対応する映像の色の差分が小さくなるように色補正(色空間上の補正)を行う。左右色補正処理部104にて色補正がなされた映像を立体表示処理部105にて、左目用映像L、右目用映像Rを切替えて表示部106に出力し、その切替えタイミングをシャッタ眼鏡に伝送する赤外線信号処理などを行う。偏光眼鏡方式の3D表示部場合には、表示部106に設置された視差バリアに合わせて、L、Rの映像が表示されるように表示画素を調整する処理も行う。裸眼方式の場合には、表示部に設置したレンチキュラレンズなどに合わせた映像信号処理を行う。表示部106は液晶デバイスやOLED(Organic light-emitting diode)、プラズマなどを利用した表示部であり、立体表示処理部105で出力されたL、Rの映像を調整されたタイミングで切替えて表示や、設置された視差バリアに合わせた画素での表示、または設置されたレンチキュラレンズに合わせた画素での表示などを行い、立体表示を行う。
The video input I / F 100 is an interface for inputting content such as video, audio, and characters from a player device such as a broadcast or an optical disc, a game machine, or the like. The video decoder circuit 101 performs video decoding processing and outputs a video signal. The stereoscopic image color
次に、立体映像表示時に右目用映像と左目用映像の色の差異を軽減する仕組みを説明する。 Next, a mechanism for reducing the difference in color between the right-eye video and the left-eye video during stereoscopic image display will be described.
図2は、第一の実施形態本発明の実施例1に係るである左右映像色補正処理装置部の詳細な構成の一例を示すブロック図である。 SBS方式やTAB方式、FP方式などの立体表示用の映像は図1の立体映像信号処理部103にて左目用映像201と右目用映像202に分離をしされ、図2の左右映像色補正処理部104へ入力される。例えばSBS方式であれば、映像デコーダ回路101にてデコードされた映像の左半分を左目用映像、右半分を右目用映像として分離する。その後、左右色補正処理部104にて、左右それぞれの映像の色分析を行う。
FIG. 2 is a block diagram showing an example of a detailed configuration of the left and right video color correction processing device section according to the first embodiment of the present invention. Video for stereoscopic display such as SBS, TAB, and FP is separated into a left-eye video 201 and a right-
図2の左右色補正処理部104において、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204は、左右映像の色空間解析をそれぞれ行う。色相補正処理部205は、例えば左右それぞれのヒストグラムのピークや色相幅、ヒストグラムの重心などの特徴パラメータ(以下、単に「特徴」と記す)を抽出し、その特徴の差分を求める。さらに差分を低減する様に、左右映像の色相をそれぞれ変化させる補正を行う。これにより、色相の差異が少ない左目用映像206と右目用映像207が出力される。
In the left and right color
ここで、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204、色相補正処理部205における処理に用いられる色相ヒストグラムについて説明する。
Here, the hue histogram used for processing in the L video hue
本実施例では、L映像色相ヒストグラム解析部203、R映像色相ヒストグラム解析部204において、左目用映像と右目用映像のそれぞれの色相のヒストグラムを算出する。まず、色相の数値の定義を図4に示す。HSV色空間において円柱の円一周が色相を表し、赤を0度として、黄、緑、青、紫と360度変化する。この色相を横軸にとり、左(または右)目用映像1画面に含まれる色相毎の画素の数を数えてグラフ化した例が、図5に示す色相ヒストグラムである。この色相ヒストグラムの分布を使って、左右映像それぞれの色相の差異を算出する。ヒストグラムの算出と色相補正の詳細については図3を用いて後述する。
In this embodiment, the L video hue
本例では、HSV色空間の色相でのヒストグラム解析の例を示しているが、色分析としては、例えば、色相(Hue)、彩度(Saturation/Chroma)、明度(Brightness/Lightness/Value)を使ったHSV/HSB色空間に分離して、それぞれのヒストグラム分布などを求めてもよい。これは、色相(Hue)、彩度(Saturation)、輝度(Lightness/Luminance または Intensity)を使ったHLS/HSI色空間や、CIE表色系(RGB、XYZ、xyY、L*u*v*、L*a*b*)やsRGBカラートライアングルなど様々な色空間を表すそれぞれの軸でヒストグラム分布を算出する色分析などでよい。 In this example, an example of histogram analysis in the hue of the HSV color space is shown. As the color analysis, for example, hue (Hue), saturation (Saturation / Chroma), and brightness (Brightness / Lightness / Value) are used. Separated into the used HSV / HSB color space, each histogram distribution or the like may be obtained. This is the HLS / HSI color space using Hue, Saturation, Luminance (Lightness / Luminance or Intensity), CIE color system (RGB, XYZ, xyY, L * u * v *, L * a * b *) and sRGB color triangles may be used for color analysis to calculate a histogram distribution on each axis representing various color spaces.
また、本例においては、HSV色空間の色相、彩度、明度の軸で表現されるヒストグラムの内、色相ヒストグラムを解析し、左右映像のヒストグラム特徴を近づけることで、色空間の差異を低減する。色相のみでなく、彩度や明度もヒストグラム分布を解析して、その特徴の差分量を算出し、この差分量を低減しても良い。この処理は、色相のヒストグラム解析と同時に行っても良いし、または時間的に異なるフレームに対して行っても良い。 In this example, the hue histogram of the histogram expressed by the hue, saturation, and lightness axes of the HSV color space is analyzed, and the difference between the color spaces is reduced by bringing the histogram features of the left and right images closer to each other. . Not only the hue but also the saturation and lightness may be analyzed by analyzing the histogram distribution to calculate the difference amount of the feature, and this difference amount may be reduced. This processing may be performed simultaneously with the histogram analysis of the hue, or may be performed on temporally different frames.
次に、図3は、本発明の実施例1の左右映像色補正処理部104の左右色補正処理シーケンスの例について図3、図5、図6を用いて説明する。
Next, FIG. 3 describes an example of the left and right color correction processing sequence of the left and right video color
S300では、左右映像色補正処理部104に左右の映像が入力されて、処理が開始される。S301では、L映像色相ヒストグラム解析部203が左目用映像に含まれる各色相の画素数を集計する。同様にS303では、R映像色相ヒストグラム解析部204が右目用映像に含まれる各色相の画総数を集計する。S302では、L映像色相ヒストグラム解析部203が左目用映像色相ヒストグラムの色相の特徴を検出する。ここで色相の特徴とは、ピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである。図5が左右色補正処理部のL映像色相ヒストグラム解析部203またはR映像色相ヒストグラム解析部204が集計した色相ヒストグラムの例である。例えば、青い空が表現されているような映像であれば、青の色相周辺にヒストグラムが現れ、ピーク色相、ピーク色相周辺の分布の幅、ピーク周辺の重心の色相を検出することで、映像の色相の特徴を判断することができる。同様にS304において、映像色相ヒストグラム解析部204が右目用映像の色相ヒストグラムの特徴を検出する。次に、S305において、色相補正処理部205が、左目用映像の色相の特徴と右目用映像の色相の特徴とを比較する。例えば、ピーク色相位置やピーク度数、ピーク色相周辺分布の幅、ピーク周辺色相分布の重心位置などが、どのくらいずれているのか等を算出して、特徴の差分を数値化する。S306において、色相補正処理部205は、S305で算出したヒストグラム分布の特徴の差分量が、所定の閾値以上だった場合には、色補正をしないと判断する(S307)。S307の判断に加えて、左右映像の色分析の結果、特徴の差分量が大きい場合には、入力が3D映像信号ではないと判断してもよい。この場合、立体映像信号処理部103に対して入力映像を左右映像に分離しない指示をしてもよい(S308)。このとき図1の立体映像処理装置は2Dの映像信号処理を行う。
In S300, the left and right images are input to the left and right image color
S308の処理を行う利点を以下に説明する。まず、S307において特徴の差分量が大きい場合には、入力映像が3D映像ではない入力映像信号に対して、立体表示装置の設定で強制的にSBSやTABなどの3Dのように映像を半分に分離して左目用映像と右目用映像を作成して3D表示をしようとしている可能性がある。この場合には、映像が破綻してしまっているので、左右映像の色合わせは必要なく(S307)、さらに、左右映像に分離する必要がない。そこで、立体映像信号処理部103に対して左右映像分離処理をしない制御を指示する(S308)。
The advantage of performing the process of S308 will be described below. First, when the feature difference amount is large in S307, the input video signal is not a 3D video image, and the video image is halved as in 3D such as SBS or TAB by setting the stereoscopic display device. There is a possibility that the left eye image and the right eye image are created separately to be displayed in 3D. In this case, since the video has broken down, it is not necessary to match the colors of the left and right images (S307), and it is not necessary to separate the left and right images. Therefore, it instructs the stereoscopic video
立体映像信号処理部103がS308の指示を受けた場合の処理としては、立体映像信号処理部103が、映像デコーダ回路で出力された映像信号をそのまま、左目用映像出力、右目用映像出力として同じ映像を出力し、立体表示処理105が3D表示と同様の表示(左右映像を交互に表示/左右映像をラインバイラインで表示)を行って2D表示を実現してもよい。
When the stereoscopic video
また、立体映像信号処理部103がS308の指示を受けた場合の処理の別の例としては、立体映像色補正処理部102ともに何もせず、映像デコーダ回路101の2Dの出力映像信号をそのまま立体表示部105に送信し、出力映像信号を立体表示部105が表示処理設定を3D表示から2D表示に切換えて表示してもよい。
As another example of processing when the stereoscopic video
また、S305において、色相のヒストグラム特徴の差分量が大きくても、ある所定の差分である場合には、赤青メガネを利用したアナグリフ方式で映像が入力されていると判断して、色補正はせずにそのまま左右映像を出力する処理を行ってもよい。 In S305, even if the difference between the hue histogram features is large, if the difference is a certain difference, it is determined that the video is input in an anaglyph method using red-blue glasses, and color correction is performed. Alternatively, the process of outputting the left and right images may be performed as is.
また、色相のヒストグラム特徴の差分量が大きい場合には、左右のピントやホワイトバランスが合っていないカメラを2台使って、撮影された映像の可能性もある。この場合は、眼精疲労等を考慮し、立体感はなくなってしまうが、左目用または右目用映像のどちらかのみを選択して、左右同じ映像を出力し、左右の目に見える映像の色ズレを無くす処理をおこなってもよい。 In addition, when the difference amount of the histogram histogram feature is large, there is a possibility that the image is shot using two cameras that are not in focus on the left and right or white balance. In this case, the stereoscopic effect disappears in consideration of eye strain, etc., but only the left-eye or right-eye video is selected, the same left and right video is output, and the left and right visible video colors You may perform the process which eliminates deviation.
また、上述したアナグリフ方式と判定する色分布の左右映像の差異の閾値と、カメラのピントやホワイトバランスの差による色分布の左右映像の差異の閾値は、異なる閾値を有しても良い。すなわち、複数の閾値を設定することにより、差異の大きさに応じてこれらの複数の判断を切換えてもよい。 Further, the threshold value of the difference between the left and right images of the color distribution determined as the anaglyph method and the threshold value of the difference between the left and right images of the color distribution due to the difference of the camera focus and white balance may have different threshold values. That is, by setting a plurality of threshold values, the plurality of determinations may be switched according to the magnitude of the difference.
図6は、S305で算出する、左右色補正処理における左右の装置の色相ヒストグラムの特徴を示した例を示している。であり、色相ピークの色相位置、やピーク色相の度数、ピーク色相周辺の分布幅(ヒストグラム集中範囲)などがヒストグラムの特徴を表している。ここで、さらにヒストグラム度数とヒストグラム集中範囲を利用して、ヒストグラムが集中している部分のヒストグラム重心を算出したりすることができる。図6中には、色相ヒストグラムの特徴を表すために算出する数値の例を示している。例えば、まず、左目用映像と右目用映像のそれぞれの色相のピークを示す色相位置(PL0、PL1、PR0、PR1)、ヒストグラムの各ピーク度数(ΔPL0、ΔPR0、ΔPL1、ΔPR1)を算出する。さらに、ヒストグラムにおいて設定した閾値以上のヒストグラム度数が集中している範囲ΔWL0、ΔWL1、ΔWR0、ΔWR1を算出する。これらをヒストグラムの特徴として利用し、左右映像の特徴の差分量を算出する。以上のように、図3のS306において左右映像の色相の特徴差分量の大きさの判定際に、色相ピークの位置の差である|PL0−PR0|や|PL1−PR1|と所定の閾値を比較してもよい。また、ピーク度数の差である|ΔPL0−ΔPR0|や|ΔPL1−ΔPR1|と所定の閾値を比較してもよい。さらに、ヒストグラム集中範囲の差を判定に用いてもよい。 FIG. 6 shows an example showing the characteristics of the hue histogram of the left and right devices in the left and right color correction processing calculated in S305. The hue position of the hue peak, the frequency of the peak hue, the distribution width around the peak hue (histogram concentration range), and the like represent the characteristics of the histogram. Here, using the histogram frequency and the histogram concentration range, the histogram centroid of the portion where the histogram is concentrated can be calculated. FIG. 6 shows an example of numerical values calculated to represent the characteristics of the hue histogram. For example, first, the hue positions (PL0, PL1, PR0, PR1) indicating the hue peaks of the left-eye video and the right-eye video, and the respective peak frequencies (ΔPL0, ΔPR0, ΔPL1, ΔPR1) of the histogram are calculated. Further, ranges ΔWL0, ΔWL1, ΔWR0, ΔWR1 in which histogram frequencies equal to or higher than the threshold set in the histogram are concentrated are calculated. Using these as the features of the histogram, the difference amount between the features of the left and right images is calculated. As described above, when determining the magnitude of the feature difference amount between the hues of the left and right images in S306 of FIG. 3, | PL0−PR0 | and | PL1−PR1 | You may compare. Alternatively, | ΔPL0−ΔPR0 | or | ΔPL1−ΔPR1 |, which is a difference in peak frequency, may be compared with a predetermined threshold. Further, the difference in the histogram concentration range may be used for the determination.
次に、S309では上記のとおり、S305で算出した特徴の差分量を色相の補正量として決定する。例えば、S305で算出した左目用映像と右目用映像の色相のピークの色相ズレ(PL0−PR0、PL1−PR1;PL0、PR0、PL1、PR1はヒストグラムの各ピーク度数の色相位置)、ピーク度数差分(ΔPL0−ΔPR0、ΔPL1−ΔPR1;ΔPL0、ΔPR0、ΔPL1、ΔPR1はヒストグラムの各ピーク度数)を色相補正量とする。さらに、S309ではヒストグラムにおいて設定した閾値以上のヒストグラム度数が集中している範囲ΔWn(n:整数)を算出し、色相補正の補正範囲とする。 In step S309, as described above, the feature difference amount calculated in step S305 is determined as the hue correction amount. For example, the hue shift of the peak of the hue of the left-eye video and the right-eye video calculated in S305 (PL0-PR0, PL1-PR1; PL0, PR0, PL1, PR1 are hue positions of the respective peak frequencies in the histogram), the peak frequency difference (ΔPL0−ΔPR0, ΔPL1−ΔPR1; ΔPL0, ΔPR0, ΔPL1, and ΔPR1 are the respective peak frequencies of the histogram) is set as the hue correction amount. Furthermore, in S309, a range ΔWn (n: integer) in which histogram frequencies equal to or higher than the threshold set in the histogram are concentrated is calculated as a hue correction range.
S310において、S309で決定した補正量に応じて、左目用映像、右目用映像の色相補正処理を行う。映像の色相補正は少なくとも一方の映像に対して行えばよい。例えば、右目用映像のピーク色相PR0の周辺ΔWL0の範囲を|PL0−PR0|だけ色相を右方向にずらし、PR1の周辺ΔWL1の範囲を|PL1−PR1|だけ色相を左方向にずらすような色相補正を行う。このように、補正範囲をΔWL0やΔWL1に制限し、その範囲にある色相の画素を補正することで、補正の精度を上げるとともに、補正による弊害を少なくすることができる。 In S310, the hue correction processing for the left-eye video and the right-eye video is performed according to the correction amount determined in S309. The hue correction of the video may be performed on at least one video. For example, a hue that shifts the hue around the peak hue PR0 of the right-eye image PR0 to the right by | PL0−PR0 | and a hue that shifts the hue around the ΔΔ1 around PR1 by | PL1-PR1 | to the left. Make corrections. In this way, by limiting the correction range to ΔWL0 and ΔWL1 and correcting the pixels of the hue in the range, it is possible to increase the accuracy of the correction and reduce the adverse effects of the correction.
さらに、ΔWL0、ΔWL1それぞれの範囲内の画素を補正し、ピーク度数や周辺の色相の度数を合わせる処理を行ってもよい。 Furthermore, it is possible to correct the pixels within the respective ranges of ΔWL0 and ΔWL1 and perform processing for adjusting the peak frequency and the frequency of surrounding hues.
このような色相補正によって左右映像のヒストグラム分布の特徴を近づける際は、右目用映像のヒストグラム分布の特徴を変化させて、左目用映像のヒストグラム分布の特徴に近づけても良い。また、左目用映像の特徴を変化させて、右目用映像の特徴に近づけても良い。または、左目用映像のヒストグラム分布の特徴と右目用映像のヒストグラム分布の特徴の平均を取り、左右映像の両方を算出した平均のヒストグラム分布の特徴に近づけても良い。 When the characteristics of the histogram distribution of the left and right images are approximated by such hue correction, the characteristics of the histogram distribution of the right eye image may be changed to approximate the characteristics of the histogram distribution of the left eye image. Further, the feature of the left-eye video may be changed to be close to the feature of the right-eye video. Alternatively, the histogram distribution feature of the left-eye video and the histogram distribution feature of the right-eye video may be averaged and approximated to the average histogram distribution feature obtained by calculating both the left and right videos.
また、本処理は、毎フレーム行っても良いし、数フレーム毎に行っても良い。数フレーム毎に行う場合には、数フレームの間は同じ色相補正を行うことで、処理負荷を低減できる。 Further, this process may be performed every frame or every several frames. When it is performed every several frames, the processing load can be reduced by performing the same hue correction for several frames.
以上説明した処理により、左右の映像の色相のズレ量を定量化し、ズレ量に応じた左右映像の色相のヒストグラムの近似が可能となる。 Through the processing described above, the amount of hue shift between the left and right images can be quantified, and the hue histogram of the left and right images can be approximated according to the amount of shift.
なお、上述の例では色相の補正例を説明したが、他の色空間をについて、左右映像の色の特徴の差異量に応じた左右映像の色補正を行ってもよい。 Although the example of correcting the hue has been described in the above-described example, the color correction of the left and right images may be performed according to the amount of difference in the color characteristics of the left and right images in another color space.
なお、左目用映像と右目用映像とのうちいずれの映像を補正対象にするかについては、処理部に後に入力される映像を補正対象としてもよい。この場合、先入力映像をラインメモリに格納し、先入力映像のヒストグラム分布の特徴を先に解析し、当該解析結果を利用して、後入力映像の色相を先入力映像の解析結果に応じて色相補正する方が、処理高速化の観点で利点がある。例えば、Frame Packing方式などにおいて、左目用映像が先に伝送される場合には、左目用の映像のヒストグラム分布の特徴の解析結果を利用して、右目用映像の色相を左目用映像のヒストグラム分布の特徴に合わせることが望ましい。また、SBS方式、TAB方式においても受信した映像が左目用映像からラインメモリに納められる場合も同様である。 Note that regarding which of the left-eye video and the right-eye video is to be corrected, a video that is input later to the processing unit may be the correction target. In this case, the pre-input video is stored in the line memory, the characteristics of the histogram distribution of the pre-input video are analyzed first, and the hue of the post-input video is determined according to the analysis result of the pre-input video using the analysis result. The hue correction is advantageous from the viewpoint of speeding up the processing. For example, in the case of the Frame Packing method, when the left-eye video is transmitted first, the analysis result of the histogram distribution feature of the left-eye video is used to change the hue of the right-eye video to the histogram distribution of the left-eye video. It is desirable to match the characteristics of The same applies to the case where the received video is stored in the line memory from the left-eye video in the SBS system and the TAB system.
処理高速化の例としては、Frame Packing方式の場合は、先に入力される一方の目の映像(例えば、左目用映像)のヒストグラム分布の特徴の解析をし、後から入力される他方の目の映像(例えば、右目用映像)に対し右目用映像の色補正処理を行う。このとき、先に入力された左目用映像のヒストグラム解析結果を利用して、1ラインもしくは数ラインずつ右目用映像のヒストグラム分布の特徴が解析でき次第、リアルタイムに後から入力される右目用映像の色補正処理が可能となる。後から入力される映像(右目用映像)のヒストグラム解析結果を先に入力される映像(左目用映像)の色補正に適用する場合は、1フレーム表示処理が遅れることになるので、先に入力される映像(左目用映像)の結果を利用して後から入力される映像(右目用映像)の色補正を行う方が高速である。TAB方式においても、同様に左目用映像のヒストグラム解析を先にしておくことで、その結果を利用して、右目用映像を1ライン毎に補正していくことが可能となる。SBS方式の場合には、1ラインもしくは数ラインメモリ上に左右映像が両方入力されるため、左右同時な処理が可能となる。高速な処理が可能であれば、左から画素をカウントすると先に左目用映像のヒストグラム結果が得られるため、その結果に合わせて後半でカウントしていく画素の色補正をリアルタイムに補正できるので、高速化ができる。TAB方式においても、同様に先に入力された左目用映像のヒストグラム解析を先にしておくことで、その結果を利用して、後に入力される右目用映像を1ライン毎に補正していくことが可能となる。 As an example of speeding up the processing, in the case of the Frame Packing method, the characteristics of the histogram distribution of the image of one eye that is input first (for example, the image for the left eye) are analyzed, and the other eye that is input later is analyzed. The color correction processing of the right-eye video is performed on the video (for example, the right-eye video). At this time, as soon as the characteristics of the histogram distribution of the right-eye video can be analyzed one line or several lines at a time by using the histogram analysis result of the left-eye video inputted earlier, the right-eye video inputted later in real time can be analyzed. Color correction processing is possible. When applying the histogram analysis result of the video (right-eye video) that is input later to the color correction of the video (left-eye video) that is input first, the one-frame display process is delayed, so input first It is faster to correct the color of the video (right-eye video) input later using the result of the video (left-eye video). Similarly, in the TAB method, the histogram analysis of the left-eye video is performed in advance, and the result can be used to correct the right-eye video for each line. In the case of the SBS system, both the left and right images are input on one line or several lines of memory, so that it is possible to process both left and right simultaneously. If high-speed processing is possible, counting the pixels from the left will obtain the histogram result of the left-eye video first, so you can correct the color correction of the pixels counted in the second half according to the result in real time, Speed up is possible. Similarly, in the TAB method, the histogram analysis of the left-eye video input first is performed first, and the right-eye video input later is corrected for each line using the result. Is possible.
なお、図1において、映像入力I/F100から立体表示処理部105までを一体として立体映像処理装置を構成し、表示部106を有する別体の表示装置と接続してもよく、映像入力I/F100から表示部106までを一体として立体表示装置を構成してもよい。
In FIG. 1, the video input I /
以下、本発明の実施例2について、図7、図8を参照して説明する。 図7は、本発明の実施例2に係る立体映像処理装置の構成の一例を示すブロック図である。 A second embodiment of the present invention will be described below with reference to FIGS. FIG. 7 is a block diagram illustrating an example of the configuration of the stereoscopic video processing apparatus according to the second embodiment of the present invention.
図7に示す構成は、図1の構成にユーザの操作を入力するインタフェースであるユーザI/F(インタフェース)700を追加した構成である。本ユーザI/Fを搭載することで、ユーザが3D視聴を選択したことを検知してから、左右色補正処理を実施することが可能となる。 The configuration shown in FIG. 7 is a configuration in which a user I / F (interface) 700 that is an interface for inputting a user operation is added to the configuration of FIG. By installing this user I / F, it is possible to perform the left and right color correction processing after detecting that the user has selected 3D viewing.
図8にユーザ操作と左右色補正処理の連動の例を示す。表示装置106は、まずは、放送やネットからSBS方式で受信した3D映像信号は、表示例800のように表示する。また、TAB方式で受信した3D映像信号は、表示例801の様に表示する。次に、リモコン802から、2Dから3Dへの切替え指示信号が送信された場合、ユーザI/F700が当該切換え指示信号を受信する。ユーザI/F700が切換え指示信号の受信を立体映像色補正処理部102に伝達して、立体映像色補正処理部102が、そのタイミングで左右色補正処理を開始し、3D表示時には左右色補正がなされた映像を見ることができる。逆の動作も同様で、3D表示時には左右色補正がなされているが、リモコン802からの指示信号により、2D表示に切替えたタイミングで立体映像色補正処理部102の左右色補正処理を終了する制御を行う。
FIG. 8 shows an example of the linkage between the user operation and the left and right color correction processing. First, the
これにより、ユーザが3D視聴を行う状態か否かを容易に判別することが可能となり、実施例の図3のS306のような判断処理が不要となる。 Accordingly, it is possible to easily determine whether or not the user is in a state of performing 3D viewing, and the determination process as in S306 of FIG. 3 in the embodiment is not necessary.
表示例8900や表示例8901などの2D表示時には、ピントやフォーカス、ホワイトバランスなどが調整されていない2台のカメラを利用して撮影した映像を表示装置で視聴する際に、左右の色ズレ等がないかを確認することもできる。ユーザが3D表示に切替えたタイミングでは、左右色補正を行い、良好な表示特性を提供できる。 During 2D display such as display example 8900 and display example 8901, when viewing images taken using two cameras whose focus, focus, white balance, etc. are not adjusted on the display device, left and right color misalignment, etc. You can also check if there is any. At the timing when the user switches to 3D display, right and left color correction is performed, and good display characteristics can be provided.
また、(1)左目用映像の色分布を補正して、右目用映像の色分布に合わせるのか、(2)右目用映像の色分布を補正して、左目用映像の色分布に合わせるのか、または、(3)左右映像の色分布の特徴の平均に左右映像の色分布を合わせるのかをリモコン802とユーザI/F700を介して、ユーザが選択できるようにしても良い。
Also, (1) whether the color distribution of the left-eye video is corrected to match the color distribution of the right-eye video, or (2) whether the color distribution of the right-eye video is corrected to match the color distribution of the left-eye video, Alternatively, (3) the user may be able to select via the remote controller 802 and the user I /
また、ユーザI/Fに替えて人感センサを搭載しても良い。例えば人体の体の熱から出る赤外線センサによる人検知やカメラによる人検知や動き検知などにより、視聴範囲に人の存在を検知するセンサを搭載する場合には、センサにより装置近くに人が居ると判断した場合にのみ左右色補正を行い、人が居ない場合には左右色補正をしないことも可能である。このとき、人が居るという条件に加えて、3D表示設定がされていることを条件に加えても良い。このような処理により視聴者が不在の場合には、左右色補正処理を省略することが可能となり、処理負荷を低減することができる。 A human sensor may be mounted instead of the user I / F. For example, when a sensor that detects the presence of a person is installed in the viewing range by detecting a person using an infrared sensor that generates heat from the human body, detecting a person using a camera, or detecting a motion, It is also possible to perform left / right color correction only when it is determined, and not to perform left / right color correction when there is no person. At this time, in addition to the condition that there is a person, it may be added to the condition that 3D display setting is made. When the viewer is absent by such processing, the left and right color correction processing can be omitted, and the processing load can be reduced.
以下、本発明の実施例3について、図9〜図11を用いて説明する。 Hereinafter, Example 3 of the present invention will be described with reference to FIGS.
図9は、本発明の実施例3に係る立体表示制御装置の構成の一例を示すブロック図である。 FIG. 9 is a block diagram illustrating an example of the configuration of the stereoscopic display control apparatus according to the third embodiment of the present invention.
図9に示す構成は、図1の構成に、オクルージョン検出部を追加した構成である。オクルージョン検出部は、図10に示すような、一方の目(視点)では見えずに、他方の目(視点)では見えるような物体を検出する。このオクルージョンの領域は、一方の目の映像のみに存在し、他方の目の映像には存在しない。よって、左右映像の色差分として算出されてしまうと、色相補性の誤差成分となり、悪影響を生じる恐れがある。そこで、本実施例では、オクルージョン領域を検出して、その領域を補正範囲から外し、他の部分に弊害をもたらせないようにヒストグラム分析にも利用しないようにする。なお、オクルージョン検出は、映像内のオブジェクト検出や、左右色差分の領域を検出することなどで実現する。 The configuration shown in FIG. 9 is a configuration in which an occlusion detection unit is added to the configuration of FIG. The occlusion detection unit detects an object that cannot be seen by one eye (viewpoint) but can be seen by the other eye (viewpoint) as shown in FIG. This occlusion area exists only in the image of one eye and does not exist in the image of the other eye. Therefore, if it is calculated as the color difference between the left and right images, it becomes an error component of color complementarity and there is a risk of adverse effects. Therefore, in the present embodiment, an occlusion area is detected, and the area is excluded from the correction range and is not used for histogram analysis so as not to cause adverse effects on other portions. The occlusion detection is realized by detecting an object in the video or detecting a left / right color difference area.
ここで、図10は、本発明の第3の実施例に係るオクルージョン検出部におけるオクルージョン検出処理時の左右映像イメージを示した例である。色の異なる立方体1000と球1001が少しずれて置いてあった場合に、左目では立方体しか見えず、右目では立方体と球の両方が見えている状況を示している。これを、両目に対応する2つのカメラを使って撮影した場合には、左目用映像1002、右目用映像1003が撮影されることとなる。
Here, FIG. 10 is an example showing left and right video images during occlusion detection processing in the occlusion detection unit according to the third embodiment of the present invention. When the
これが、立体映像処理装置に入力され、左右映像の色相などのヒストグラム解析を行うと、左目用映像には無い球の色の領域が右目用映像には存在するので、ヒストグラム特徴の差分量が大きく検出されることとなる。しかし、これは色相の相違ではなく、もともとの映像の撮像対象が異なるのであり、カメラのピントやホワイトバランスの違いによる左右色差分ではないことがわかる。 When this is input to the 3D image processing device and the histogram analysis of the hues of the left and right images is performed, a sphere color region that does not exist in the left eye image exists in the right eye image. Will be detected. However, this is not a difference in hue but an original image pickup target is different, and it can be seen that this is not a left-right color difference due to a difference in camera focus or white balance.
図11は、本発明の第3の実施例に係る立体映像処理装置のオクルージョン検出の動作シーケンスを示した例である。 FIG. 11 shows an example of an occlusion detection operation sequence of the stereoscopic video processing apparatus according to the third embodiment of the present invention.
S1100から処理を開始し、S1101において、左右映像内のオクルージョン領域を検出する。そして、S1102において、オクルージョン領域をヒストグラム解析の対象外とする。次に、S1103において、オクルージョン領域は、左右色補正領域から外す。図11の動作は、例えば、オクルージョン検出部900において、左右色補正処理部104の処理と連動して行えばよい。このとき、オクルージョン領域をヒストグラム解析対象外とするためには、図11のS1101は、図3のS301、S302の前に行う必要がある。また、図11のS1102では、図3のS301、S302と連動して、S301、S302のヒストグラムの集計処理からオクルージョン領域の数の部分を除外する。また、図11のS1103では、図3のS309と連動して、S309の補正範囲からオクルージョン領域を除外する。
The process starts from S1100, and in S1101, an occlusion area in the left and right video is detected. In step S1102, the occlusion area is excluded from histogram analysis. Next, in S1103, the occlusion area is removed from the left and right color correction areas. The operation of FIG. 11 may be performed in conjunction with the processing of the left and right color
以上の処理により、オクルージョン領域の色に影響されることなく、オクルージョン領域以外の左右映像色補正をおこなうことが可能となる。さらには、一方の目にしか関係のないオクルージョン領域内の色は補正が不要となるメリットがある。 Through the above processing, it is possible to perform the left and right video color corrections outside the occlusion area without being affected by the color of the occlusion area. Furthermore, there is a merit that correction is not necessary for colors in the occlusion area that are relevant only to one eye.
以下、本発明の実施例4を説明する。 Embodiment 4 of the present invention will be described below.
図12は、実施例4に係る受信装置の構成例を示す図である。図12において、図1または図7に記載の要素と同一の符号の要素については、上述した各実施例の要素と同一である。よって、これらの構成、動作については説明を省略し、相違する構成または動作について以下に説明する。 FIG. 12 is a diagram illustrating a configuration example of a receiving apparatus according to the fourth embodiment. In FIG. 12, elements having the same reference numerals as those shown in FIG. 1 or FIG. 7 are the same as those of the above-described embodiments. Therefore, description of these configurations and operations will be omitted, and different configurations or operations will be described below.
アンテナ1200において、無線放送波(衛星、地上)、またはケーブルなどの有線放送伝送網を介して放送信号を受信し、チューナ1201において、特定の周波数を選局し復調、誤り訂正処理、などを行う。放送信号がスクランブルされている場合はデスクランブラ1202において、スクランブル信号を復号する。以上の処理により、多重化信号が復元され、多重分離部1203に入力される。多重分離部1203では、MPEG2―TS(Transport Stream)などの形式に多重化されている信号を、映像ES(Elementary Stream)、音声ES、番組情報などの信号に分離する。ESとは、圧縮・符号化された画像・音声データのそれぞれのことである。映像復号部1204は、映像ESを映像信号に復号し、左右色補正部102に出力する。左右色補正部102では、制御部1210の制御により色補正を行う。色補正の内容は上述の各実施例に記載したとおりである。左右色補正部102から出力された映像は、3D映像を3D表示する場合は立体表示処理部105の立体表示処理を経て表示装置105にて3D表示される。2D映像を2D表示する場合は、立体表示処理部105の立体表示処理を行わず表示装置105にて2D表示される。3D映像を2D表示する場合は立体表示処理部105にて3D映像に含まれる一視点の映像(例えば、SBS方式であれば、左目用映像または右目用映像のいずれか一方の映像)を2D映像として出力し表示装置105にて2D表示すればよい。2D映像を3D表示する場合は立体表示処理部105にて、2D映像を3D映像に変換する2D3D映像変換処理を行って、3D映像として出力し表示装置105にて3D表示すればよい。2D/3D変換処理方法としては、様々な方法が知られているので、いずれかの方法の2D/3D変換処理機能を立体表示処理部105に実装しておけばよい。立体表示処理部105の立体表示処理は、制御部1210が制御する。音声復号部1207は音声ESを音声信号に復号し、スピーカ1208に出力または音声出力として外部に出力する。ネットワーク1205は、インターネットやインフラのネットワーク群である。ネットワークI/F1206は、ネットワークを介して情報を送受信し、インターネットと受信装置間で各種情報およびMPEG2―TSなどを送受信する。多重分離部1203に入力される映像や音声は、チューナ1201を介して受信装置に入力されてもよく、ネットワークI/F1206を介して受信装置に入力されてもよい。
The
2D/3D判定部1209においては、アンテナ1200やネットワークI/F1206から受信した情報に含まれる3D/2D識別情報(3D映像コンテンツか否かを示す情報)や3D方式識別情報(SBS、TAB、Frame Packingなど3D映像の方式を示す情報)を利用して、映像が3D映像であるか2D映像であるかを判定する。
In the 2D /
3D/2D識別情報や3D方式識別情報の伝送方法は、様々に考えられる。例えば、MPEG2―TS(Transport Stream)に含まれ、多重分離部1203で分離される番組情報(番組特定情報と番組配列情報)に格納する方法が考えられる。番組特定情報(PSI:Program Specific Information)は、所要の番組を選択するために必要な情報で、映像の符号化情報、音声の符号化情報、番組の構成を含む。番組配列情報(SI:Service Information)は、番組選択の利便性のために規定された各種情報であり、MPEG−2システム規格のPSI 情報も含まれ、番組名、放送日時、番組内容など、番組に関する情報が記載されるEIT(Event Information Table)、編成チャンネル名、放送事業者名など、編成チャンネル(サービス)に関する情報が記載されるSDT(Service Description Table)などがある。これらPSIやSIで規定された記述子または新たに追加した記述子に3D/2D識別情報を格納すればよい。これらの記述子に3D/2D識別情報や3D方式識別情報を格納することにより、番組単位での3D番組コンテンツか否かの識別や、サービス単位での3D番組用サービスか否かの識別が可能となる。
There are various methods for transmitting 3D / 2D identification information and 3D system identification information. For example, a method of storing in program information (program specifying information and program arrangement information) included in MPEG2-TS (Transport Stream) and separated by the
また、映像を符号化する段階で映像ESに3D/2D識別情報を付加するように構成してもよい。例えば、映像符号化方式がMPEG2方式である場合には、Picture header、Picture Coding Extensionに続くユーザデータ領域に上記の3D/2D識別情報や3D方式識別情報を含めて符号化を行えばよい。この場合、映像復号部1204にて、映像のフレーム(ピクチャー)単位で3D識別フラグが認識でき、3D映像ストリームの途中に2D映像が挿入された場合なども識別が可能になる。
Further, 3D / 2D identification information may be added to the video ES at the stage of encoding the video. For example, when the video encoding method is the MPEG2 method, encoding may be performed by including the 3D / 2D identification information and the 3D method identification information in the user data area following the Picture header and Picture Coding Extension. In this case, the
2D/3D判定部1209は、上述のとおり、分離部1203や映像復号部1204で分離または抽出した3D/2D識別情報や3D方式識別情報を用いて映像が3D映像であるか2D映像であるかを判定する。2D/3D判定部1209の判定結果に応じて、制御部1210は、左右色補正部102における色補正の制御を行う。
As described above, the 2D /
ここで、2D/3D判定部1209および制御部1210の動作シーケンスの一例を図13に示す。まず判定処理を開始する(S1300)。受信した3D/2D識別情報が3D映像を示している場合(S1301)には、2D/3D判定部1209は、入力映像が3D映像であると判定し(S1302)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1303)。受信した3D/2D識別情報が2D映像を示している場合(S1301)には、2D/3D判定部1209は、入力映像が2D映像であると判定し(S1304)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1305)。これにより、3D表示装置で映像視聴時などでは、受信情報に含まれる3D情報を元に、自動的に左右映像の色補正をすることが可能となる。
Here, an example of an operation sequence of the 2D /
2D/3D判定部1209および制御部1210の動作シーケンスの他の一例を図14に示す。図14は、図13の動作シーケンスに、受信信号に処理対象番組の3D/2D識別情報が受信信号に含まれていない場合の判定も追加したものである。まず判定処理を開始する(S1400)。受信信号に処理対象番組の3D/2D識別情報が含まれていない場合(S1401)には、2D/3D判定部1209は処理対象番組が2D映像番組であると判定し(S1405)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1406)。受信信号に処理対象番組の3D/2D識別情報が含まれている場合(S1401)には、S1402に移行する。受信信号に含まれる処理対象番組の3D/2D識別情報が3D映像を示している場合(S1402)には、2D/3D判定部1209は処理対象番組が3D映像番組であると判定し(S1403)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1404)。受信信号に含まれる処理対象番組の3D/2D識別情報が2D映像を示している場合(S1402)には、2D/3D判定部1209が処理対象番組が2D映像番組であると判定し(S1405)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1406)。これにより、送信側が意図せず3D/2D識別情報が受信信号から欠落した場合であっても、受信装置の色補正により不適当な表示を行うことを防止することができる。
Another example of the operation sequence of the 2D /
2D/3D判定部1209および制御部1210の動作シーケンスの他の一例を図15に示す。図15は、SBS、TAB、Frame Packingなど3D映像の方式を示す情報である3D方式識別情報を用いて2D/3D判定部1209が判定を行うものである。まず判定処理を開始する(S1500)。受信信号に処理対象番組についての3D方式識別情報が含まれている場合(S1501)には、2D/3D判定部1209は、入力映像が3D映像であると判定し(S1502)、制御部1210が左右色補正部102において左右映像の色補正処理を行うように制御する(S1503)。受信信号に処理対象番組についての3D方式識別情報が含まれていない場合(S1501)には、2D/3D判定部1209は、入力映像が2D映像であると判定し(S1504)、制御部1210が左右色補正部102において左右映像の色補正処理を行わないように制御する(S1505)。これにより、3D映像の方式(フォーマット)を示す情報である3D方式識別情報の有無に応じて、左右映像の色補正処理の要否を制御することが可能となる。
Another example of the operation sequence of the 2D /
本発明の左右映像の色補正処理を開始や停止をするタイミングは、上述の方法などにより、3Dもしくは2Dを識別できたタイミングで良く、識別する方法は上述のいずれでも良い。 The timing for starting and stopping the color correction processing of the left and right images of the present invention may be the timing at which 3D or 2D can be identified by the above-described method, and any of the above-described identifying methods may be used.
また、2D/3D判定部1209の判定結果とユーザI/F700から入力されるのユーザ操作信号と組合せて、制御部1210が処理を決定する構成としてもよい。例えば、上記2D/3D判定部1209により3D映像であると判定した場合であっても、ユーザI/F700を介して3D表示指示を受け付けるまでは、3D表示処理、左右色補正処理をしない処理にしても良い。この場合の、2D/3D判定部1209、ユーザI/F700、制御部1210の動作シーケンスの一例を図16を用いて説明する。まず判定処理を開始する(S1600)。2D/3D判定部1209は3D映像であるか否かを判定する(S1601)。ここで、S1601における2D/3D判定部1209の判定処理は、上述の図13、図14、図15のうちの2D/3D判定部1209の判定処理のいずれを用いてもよい。また、その他の判定処理でもかまわない。2D/3D判定部1209が入力映像は2D映像であると判定した場合(S1601)、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1604)。S1604では、2D映像が2D表示されることとなる。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1601)、S1602に移行する。ここで、ユーザI/F700を介してユーザからの3D表示指示信号が未だ入力されていない場合(S1602)、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1604)。S1604では、3D映像が2D表示されることとなるが、このとき、3D映像中の一方の映像を2D表示してもよいし、例えば、SBS、TABなどの2D画像の1画面に複数視点が格納される方式の3D映像では、そのまま複数視点が格納される画面を2D映像として表示してもよい。ユーザI/F700を介してユーザからの3D表示指示信号が既に入力された場合(S1602)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105で立体表示のための映像処理をおこなうように制御する(S1603)。S1603では、3D映像が3D表示されることとなる。以上の動作により、ユーザの3D表示の意図が確認できるまでは左右色補正部102における左右映像の色補正処理を省略することができ、ユーザの3D表示の意図が確認できたあとは、左右色ズレが少ない安全な3D映像を視聴できる。なお、受信信号に、SBS、TAB、FramePackingなどの3Dフォーマットを示す3D方式識別情報が含まれる場合には、ユーザが3D表示の操作をした場合に、当該識別情報が示すフォーマットに適した左右映像の色補正処理を行えばよい。
Further, the
また、ユーザI/F700を介して3D表示を指示する情報が入力されても、映像が2Dと識別される場合には、左右色補正処理は行わないようにしてもよい。この場合の、2D/3D判定部1209、ユーザI/F700、制御部1210の動作シーケンスの一例を図17を用いて説明する。まず判定処理を開始する(S1700)。ユーザI/F700を介してユーザからの3D表示指示信号が入力された場合(S1701)、S1702に移行する。2D/3D判定部1209は入力映像が3D映像であるか否かを判定する(S1702)。ここで、S1702における2D/3D判定部1209の判定処理は、上述の図13、図14、図15のうちの2D/3D判定部1209の判定処理のいずれを用いてもよい。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1702)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105で立体表示のための映像処理をおこなうように制御する(S1703)。S1703では、3D映像が3D表示されることとなる。ここで、S1702にて、2D/3D判定部1209が入力映像は2D映像であると判定した場合(S1702)、S1704に移行する。S1704では二通りの制御例が考えられる。第1の制御例は、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する例である。この場合、2D映像が2D表示される。第2の制御例は、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で2D映像を3D映像に変換する2D/3D変換処理を行うように制御する例である。この場合、2D映像が3D映像に変換されて3D表示される。なお、第1の制御例と第2の制御例のいずれを行うかは、立体表示装置の実装において適宜選択すればよい。また、メニュー設定で第1の制御例と第2の制御例をユーザが予め選択設定できるように構成してもよい。次に、S1701において、ユーザI/F700を介してユーザからの2D表示指示信号が入力された場合、S1705に移行する。2D/3D判定部1209が入力映像は3D映像であると判定した場合(S1705)、制御部1210は、左右色補正部102において左右映像の色補正処理を行なうように制御し、立体映像処理部105において3D映像中の一視点の映像を2D映像として出力するように制御する(S1706)。S1706では、3D映像中の一視点の映像が2D表示されることとなる。S1705において、2D/3D判定部1209が入力映像は2D映像であると判定した場合、制御部1210は、左右色補正部102において左右映像の色補正処理を行わないように制御し、立体映像処理部105で立体表示のための映像処理をおこなわないように制御する(S1707)。S1707では、2D映像が2D表示されることとなる。以上説明した動作により、映像の2D/3Dの識別とユーザ操作信号に応じた、左右色補正処理のOn/Offと2D3D表示処理とをより好適に行うことができる。
Even if information instructing 3D display is input via the user I /
以上説明した各実施例において、3D表示方式が液晶シャッタ方式、偏光メガネ方式、裸眼方式のいずれの場合でも同様な処理が可能である。 In each of the embodiments described above, the same processing is possible regardless of whether the 3D display method is a liquid crystal shutter method, a polarized glasses method, or a naked eye method.
また、立体表示制御装置で動作するプログラムは、立体表示制御装置内に実装してあっても良いし、記録媒体に記録して提供するようにしても良いし、ネットワークを介してダウンロードして提供するようにしても良い。 In addition, the program that operates on the stereoscopic display control apparatus may be installed in the stereoscopic display control apparatus, may be recorded on a recording medium and provided, or may be downloaded and provided via a network. You may make it do.
なお、以上説明した各実施例では色相の解析例、補正例を説明した。しかしながら、これらの解析、補正の適用は色相に限られない。彩度、明度、輝度などの他の色空間について、左右映像の色の特徴の差異量に応じた左右映像の色補正を行ってもよい。または、色相、彩度、明度、輝度などの複数の色空間のうちの複数の色空間に対する解析、補正をあわせておこなってもよい。 In each of the embodiments described above, an example of hue analysis and an example of correction have been described. However, application of these analyzes and corrections is not limited to hue. For other color spaces such as saturation, lightness, and luminance, color correction of the left and right images may be performed according to the amount of difference in color characteristics between the left and right images. Alternatively, analysis and correction for a plurality of color spaces among a plurality of color spaces such as hue, saturation, brightness, and luminance may be performed together.
100 映像入力I/F部
101 映像デコーダ回路部
102 立体映像色補正処理部
103 立体映像信号処理部
104 左右色補正処理部
105 立体表示処理部
106 表示装置部
201 左目用映像(入力)
202 右目用映像(入力)
203 左目用映像色相ヒストグラム解析
204 右目用映像色相ヒストグラム解析
205 色補正処理
206 左目用映像(出力)
207 右目用映像(出力)
400 HSV色空間
500 色相ヒストグラム
600 左目用映像の色相ヒストグラム
601 右目用映像の色相ヒストグラム
700 ユーザI/F部
800 SBS表示映像(2D表示時)
801 TAB表示映像(2D表示時)
802 リモコン
803 3D表示映像
900 オクルージョン検出部
1000 立方体(被写体)
1001 球(被写体)
1002 左目用映像
1003 右目用映像
1200 アンテナ
1201 チューナ
1202 デスクランブラ
1203 多重分離部
1204 映像復号部
1205 ネットワーク
1206 2D/3D判定部
1207 音声復号部
1208 スピーカ
1209 ネットワークI /F
1210 制御部
100 video input I / F unit 101 video
202 Right-eye video (input)
203 Left-eye image hue histogram analysis 204 Right-eye image
207 Right-eye video (output)
400
801 TAB display image (2D display)
802 Remote control 803
1001 Sphere (subject)
1002 Left-
1210 Control unit
Claims (10)
放送または通信を介して前記入力部に入力された映像について、2D映像か3D映像かを判定するための識別情報を取得し2D映像/3D映像判定処理を行う判定部と、
ユーザインタフェースと、
入力された3D映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像について、色空間のヒストグラムのピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである特徴パラメータを検出する解析部と、
前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正処理を行う補正部と、
を備え、
前記補正部の処理状態には、
前記判定部により、前記入力部に入力された映像が2D映像であると判定された場合に前記補正部による色空間上の補正処理を行わない第1の状態と、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されており、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下の場合に前記補正部による色空間上の補正処理を行う第2の状態と、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていない場合に、前記補正部による色空間上の補正処理を行なわない第3の状態とがある
ことを特徴とする立体映像処理装置。 An input unit through which video is input via broadcast or communication ;
A determination unit that acquires identification information for determining whether the video is input to the input unit via broadcast or communication, whether it is 2D video or 3D video, and performs 2D video / 3D video determination processing;
A user interface;
When the input 3D image includes a left-eye image and a right-eye image, a color space histogram is generated for each image, and for each image , the peak hue position of the color space histogram, the frequency of the peak hue, and the peak hue An analysis unit that detects a feature parameter that is a peripheral distribution width, a position of the center of gravity of a peak hue peripheral distribution, or a combination thereof ;
A correction unit that performs correction processing on a color space that reduces a difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit ;
Equipped with a,
The processing state of the correction unit includes
A first state in which correction processing on the color space by the correction unit is not performed when the determination unit determines that the video input to the input unit is a 2D video;
The determination unit determines that the video input to the input unit is a 3D video, an instruction to display 3D video through the user interface is input, and the left eye detected by the analysis unit is input. A second state in which correction processing on the color space by the correction unit is performed when the difference between the video feature parameter and the right eye video feature parameter is equal to or less than a predetermined threshold;
When the determination unit determines that the video input to the input unit is a 3D video and an instruction for 3D display of the 3D video is not input via the user interface, There is a third state in which no correction processing is performed .
前記補正部の処理状態には、さらに、
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていても、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値より大きい場合には、前記補正部による色空間上の補正処理を行わない第4の状態があることを特徴とする立体映像処理装置。 The stereoscopic image processing apparatus according to claim 1,
The processing state of the correction unit further includes:
The determination unit determines that the video input to the input unit is a 3D video, and the left eye detected by the analysis unit is detected even if an instruction to display 3D video through the user interface is input. When the difference between the feature parameter of the image for use and the feature parameter of the feature image for the right eye is greater than a predetermined threshold, there is a fourth state in which the correction processing on the color space by the correction unit is not performed. Stereoscopic image processing device.
前記第3の状態のあとに前記ユーザインタフェースに2D表示から3D表示への切り替え指示が入力された場合に、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下であれば、前記補正部が前記色空間上の補正処理を開始することを特徴とする立体映像処理装置。 The stereoscopic image processing apparatus according to claim 1 ,
When the switching instruction from 2D display to 3D display is input to the user interface after the third state, the feature parameter of the left-eye video and the feature parameter of the right-eye video detected by the analysis unit If the difference is equal to or smaller than a predetermined threshold, the correction unit starts the correction process on the color space .
前記第3の状態のあとに前記ユーザインタフェースに3D表示から2D表示への切り替え指示が入力された場合に、前記補正部が前記色空間上の補正処理を終了することを特徴とする立体映像処理装置。 The stereoscopic image processing apparatus according to claim 1 ,
3D image processing , wherein when the switching instruction from 3D display to 2D display is input to the user interface after the third state, the correction unit ends the correction processing on the color space. apparatus.
オクルージョン検出部を備え、
前記オクルージョン検出部は、入力された映像含まれる左目用映像と右目用映像とにおいて、一方の視点では見えずに他方の視点では見える物体が存在するオクルージョン領域を検出し、
前記解析部は、前記オクルージョン領域については、前記色空間のヒストグラムの生成処理において除外し、
前記補正部は、前記オクルージョン領域については、色空間上の補正の対象から除外することを特徴とする立体映像処理装置。 The stereoscopic image processing apparatus according to claim 1,
With an occlusion detector,
The occlusion detection unit detects an occlusion region in which an object that is not visible at one viewpoint and visible at the other viewpoint exists in the left-eye video and the right-eye video included in the input video,
The analysis unit excludes the occlusion area in the histogram generation process of the color space,
The stereoscopic image processing apparatus , wherein the correction unit excludes the occlusion area from correction targets in a color space .
放送または通信を介して前記入力部に入力された映像について、2D映像か3D映像かを判定するための識別情報を取得し2D映像/3D映像判定処理を行う判定部と、A determination unit that acquires identification information for determining whether the video is input to the input unit via broadcast or communication, whether it is 2D video or 3D video, and performs 2D video / 3D video determination processing;
ユーザインタフェースと、A user interface;
入力された3D映像に左目用映像と右目用映像とが含まれる場合にそれぞれについて色空間のヒストグラムを生成してそれぞれの映像について、色空間のヒストグラムのピーク色相位置、ピーク色相の度数、ピーク色相周辺の分布幅、ピーク色相周辺分布の重心の位置、またはこれらの組合せである特徴パラメータを検出する解析部と、When the input 3D image includes a left-eye image and a right-eye image, a color space histogram is generated for each image, and for each image, the peak hue position of the color space histogram, the frequency of the peak hue, and the peak hue An analysis unit that detects a feature parameter that is a peripheral distribution width, a position of the center of gravity of a peak hue peripheral distribution, or a combination thereof;
前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像特徴パラメータとの差分を低減する色空間上の補正処理を行う補正部と、A correction unit that performs correction processing on a color space that reduces a difference between the feature parameter of the left-eye video and the right-eye video feature parameter detected by the analysis unit;
前記補正部において前記色空間上の補正処理を行った映像を表示可能な表示部と、A display unit capable of displaying an image subjected to correction processing on the color space in the correction unit;
を備え、With
前記補正部の処理状態には、The processing state of the correction unit includes
前記判定部により、前記入力部に入力された映像が2D映像であると判定された場合に前記補正部による色空間上の補正処理を行わない第1の状態と、A first state in which correction processing on the color space by the correction unit is not performed when the determination unit determines that the video input to the input unit is a 2D video;
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されており、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下の場合に前記補正部による色空間上の補正処理を行う第2の状態と、The determination unit determines that the video input to the input unit is a 3D video, an instruction to display 3D video through the user interface is input, and the left eye detected by the analysis unit is input. A second state in which correction processing on the color space by the correction unit is performed when the difference between the video feature parameter and the right eye video feature parameter is equal to or less than a predetermined threshold;
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていない場合に、前記補正部による色空間上の補正処理を行なわない第3の状態とがあるWhen the determination unit determines that the video input to the input unit is a 3D video and an instruction for 3D display of the 3D video is not input via the user interface, There is a third state where no correction processing is performed
ことを特徴とする映像表示装置。A video display device characterized by that.
前記補正部の処理状態には、さらに、The processing state of the correction unit further includes:
前記判定部により、前記入力部に入力された映像が3D映像であると判定され、前記ユーザインタフェースを介して3D映像を3D表示する指示が入力されていても、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値より大きい場合には、前記補正部による色空間上の補正処理を行わない第4の状態があることを特徴とする映像表示装置。The determination unit determines that the video input to the input unit is a 3D video, and the left eye detected by the analysis unit is detected even if an instruction to display 3D video through the user interface is input. When the difference between the feature parameter of the image for use and the feature parameter of the feature image for the right eye is greater than a predetermined threshold, there is a fourth state in which the correction processing on the color space by the correction unit is not performed. Video display device.
前記第3の状態のあとに前記ユーザインタフェースに2D表示から3D表示への切り替え指示が入力された場合に、前記解析部で検出した前記左目用映像の特徴パラメータと前記右目用映像の特徴パラメータとの差分が所定の閾値以下であれば、前記補正部が前記色空間上の補正処理を開始することを特徴とする映像表示装置。When the switching instruction from 2D display to 3D display is input to the user interface after the third state, the feature parameter of the left-eye video and the feature parameter of the right-eye video detected by the analysis unit If the difference is equal to or less than a predetermined threshold, the correction unit starts the correction process on the color space.
前記第3の状態のあとに前記ユーザインタフェースに3D表示から2D表示への切り替え指示が入力された場合に、前記補正部が前記色空間上の補正処理を終了することを特徴とする映像表示装置。The video display device, wherein when the switching instruction from 3D display to 2D display is input to the user interface after the third state, the correction unit ends the correction processing on the color space. .
オクルージョン検出部を備え、With an occlusion detector,
前記オクルージョン検出部は、入力された映像含まれる左目用映像と右目用映像とにおいて、一方の視点では見えずに他方の視点では見える物体が存在するオクルージョン領域を検出し、The occlusion detection unit detects an occlusion region in which an object that is not visible at one viewpoint and visible at the other viewpoint exists in the left-eye video and the right-eye video included in the input video,
前記解析部は、前記オクルージョン領域については、前記色空間のヒストグラムの生成処理において除外し、The analysis unit excludes the occlusion area in the histogram generation process of the color space,
前記補正部は、前記オクルージョン領域については、色空間上の補正の対象から除外することを特徴とする映像表示装置。The video display device, wherein the correction unit excludes the occlusion area from correction targets in a color space.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011208405A JP5715534B2 (en) | 2011-09-26 | 2011-09-26 | Stereoscopic image processing apparatus and image display apparatus |
US13/286,414 US20120133733A1 (en) | 2010-11-26 | 2011-11-01 | Three-dimensional video image processing device, three-dimensional display device, three-dimensional video image processing method and receiving device |
CN2011103402370A CN102480625A (en) | 2010-11-26 | 2011-11-01 | Three-dimensional video image processing device, three-dimensional display device and receiving device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011208405A JP5715534B2 (en) | 2011-09-26 | 2011-09-26 | Stereoscopic image processing apparatus and image display apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013070296A JP2013070296A (en) | 2013-04-18 |
JP5715534B2 true JP5715534B2 (en) | 2015-05-07 |
Family
ID=48475461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011208405A Active JP5715534B2 (en) | 2010-11-26 | 2011-09-26 | Stereoscopic image processing apparatus and image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5715534B2 (en) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127703A (en) * | 1997-06-30 | 1999-01-29 | Canon Inc | Display device and its control method |
JP3608715B2 (en) * | 1998-08-31 | 2005-01-12 | 日立ソフトウエアエンジニアリング株式会社 | Image composition apparatus and image composition method |
JP2001014457A (en) * | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | Image processor |
JP3789794B2 (en) * | 2001-09-26 | 2006-06-28 | 三洋電機株式会社 | Stereoscopic image processing method, apparatus, and system |
JP2005231488A (en) * | 2004-02-19 | 2005-09-02 | Seiko Epson Corp | Diving mask, control method for display device for diving mask, control program and recording medium |
KR100739764B1 (en) * | 2005-11-28 | 2007-07-13 | 삼성전자주식회사 | Apparatus and method for processing 3 dimensional video signal |
JP4958302B2 (en) * | 2007-12-12 | 2012-06-20 | 独立行政法人情報通信研究機構 | Multi-viewpoint image depth value extraction apparatus, method and program thereof |
WO2010021373A1 (en) * | 2008-08-22 | 2010-02-25 | ソニー株式会社 | Image display device, control method and computer program |
JP2011059658A (en) * | 2009-08-11 | 2011-03-24 | Sony Corp | Display device, display method, and computer program |
JP5696783B2 (en) * | 2011-05-09 | 2015-04-08 | コニカミノルタ株式会社 | Image processing device |
-
2011
- 2011-09-26 JP JP2011208405A patent/JP5715534B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013070296A (en) | 2013-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100828358B1 (en) | Method and apparatus for converting display mode of video, and computer readable medium thereof | |
US20120133733A1 (en) | Three-dimensional video image processing device, three-dimensional display device, three-dimensional video image processing method and receiving device | |
US8963995B2 (en) | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method | |
US9578304B2 (en) | Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle | |
US9860511B2 (en) | Transmitting apparatus, transmitting method, and receiving apparatus | |
US9693082B2 (en) | Method and device for transmitting/receiving digital broadcast signal | |
US9338430B2 (en) | Encoding device, encoding method, decoding device, and decoding method | |
JP2010081001A (en) | 2d compatible 3d display device and 3d viewing device | |
CA2860750A1 (en) | Encoding device and encoding method, and decoding device and decoding method | |
US9549167B2 (en) | Data structure, image processing apparatus and method, and program | |
US20130002821A1 (en) | Video processing device | |
US9578300B2 (en) | Method and apparatus for processing edge violation phenomenon in multi-view 3DTV service | |
JP2019083504A (en) | Hardware system for inputting stereoscopic image in flat panel | |
MX2012004580A (en) | 3d-image-data transmission device, 3d-image-data transmission method, 3d-image-data reception device, and 3d-image-data reception method. | |
JP5715534B2 (en) | Stereoscopic image processing apparatus and image display apparatus | |
KR100940209B1 (en) | Method and apparatus for converting display mode of video, and computer readable medium thereof | |
JP5455876B2 (en) | 3D image processing device, 3D display device, and 3D image processing method | |
GB2480999A (en) | 3D display with automatic switching between 2D and 3D display modes | |
KR20120020306A (en) | Apparatus and method for displaying of stereo scope images | |
KR20120056647A (en) | Method and apparatus for transmitting 3-dimensional caption, method and apparatus for displaying 3-dimensional caption | |
KR20120010803A (en) | Apparatus and method for controlling a stereo-scopic image dispaly device | |
KR20110021508A (en) | Broadcasting system of 3-d hdtv signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140212 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140310 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140826 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5715534 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |