JP5528162B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5528162B2
JP5528162B2 JP2010049438A JP2010049438A JP5528162B2 JP 5528162 B2 JP5528162 B2 JP 5528162B2 JP 2010049438 A JP2010049438 A JP 2010049438A JP 2010049438 A JP2010049438 A JP 2010049438A JP 5528162 B2 JP5528162 B2 JP 5528162B2
Authority
JP
Japan
Prior art keywords
parallax
eye image
adjustment amount
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010049438A
Other languages
Japanese (ja)
Other versions
JP2011188108A (en
JP2011188108A5 (en
Inventor
幸治 岡崎
悟崇 奥田
聡 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010049438A priority Critical patent/JP5528162B2/en
Publication of JP2011188108A publication Critical patent/JP2011188108A/en
Publication of JP2011188108A5 publication Critical patent/JP2011188108A5/ja
Application granted granted Critical
Publication of JP5528162B2 publication Critical patent/JP5528162B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、立体映像をなす対となる左眼用画像および右眼用画像を処理する画像処理装置、立体画像表示装置および画像処理方法に関する。   The present invention relates to an image processing device, a stereoscopic image display device, and an image processing method for processing a left-eye image and a right-eye image that form a pair of stereoscopic images.

近年、観察者が擬似的に奥行き感を得るための立体画像表示技術として、両眼視差を利用した立体画像表示技術が多く提案されている。この技術は、3次元空間を左眼で見た映像と右眼で見た映像とを、それぞれ観察者の左眼、右眼に見せることによって、擬似的に奥行き感を誘発する技術である。   In recent years, many stereoscopic image display techniques using binocular parallax have been proposed as stereoscopic image display techniques for an observer to obtain a pseudo-depth feeling. This technology is a technology for inducing a sense of depth in a pseudo manner by displaying an image viewed in the three-dimensional space with the left eye and an image viewed with the right eye to the left eye and the right eye of the observer, respectively.

観察者の左右眼にそれぞれ対応した映像を見せるための技術として、様々な方式が提案されている。たとえば、左眼用画像と右眼用画像とを時間的に交互に切り替えてディスプレイに表示すると同時に、画像が切り替わるタイミングに同期して左右それぞれの視界を閉じる眼鏡を用いて左右の視界を時間的に分離する方式が提案されている。また、ディスプレイの前面にディスプレイに表示された画像の表示角を制限するバリアやレンズを用いることで左右眼それぞれに分離して左眼用画像と右眼用画像を見せる方式が提案されている。   Various techniques have been proposed as techniques for showing images corresponding to the left and right eyes of the observer. For example, the left-eye image and the right-eye image are displayed alternately on the left eye image and the right eye image at the same time, and at the same time, the left and right fields of view are temporally switched using glasses that close the left and right fields of view in synchronization with the image switching timing. A method of separating them is proposed. In addition, a method has been proposed in which a left eye image and a right eye image are displayed separately for each of the left and right eyes by using a barrier or a lens that limits the display angle of the image displayed on the display in front of the display.

このような立体画像表示装置では、観察者は、注視している物体が飛び出した点に眼の輻輳角を合わせながら、ディスプレイ表面にピントを合わせるため、不自然にものを見ることになる。このため、飛び出し量が大きすぎると眼の疲れを誘発するという問題点がある。また、観察者とディスプレイの表示面との距離や観察者の個人差によって、観察者にとって好適な奥行き感が異なる。   In such a stereoscopic image display apparatus, the observer focuses on the display surface while adjusting the convergence angle of the eye to the point at which the object being watched has popped out, and thus unnaturally sees the object. For this reason, there is a problem that eye fatigue is induced when the pop-out amount is too large. Moreover, the depth feeling suitable for the observer varies depending on the distance between the observer and the display surface of the display and the individual differences of the observer.

このような問題に対し、下記特許文献1では、立体画像表示時間が所定時間を越えた場合に、立体映像の視差を変更することによって観察者の眼を保護する技術が開示されている。   In order to solve such a problem, Patent Document 1 below discloses a technique for protecting an observer's eyes by changing the parallax of a stereoscopic image when the stereoscopic image display time exceeds a predetermined time.

また、観察者とディスプレイの表示面との距離により奥行き間が異なる問題に対応するため、下記特許文献2では、観察者の頭の位置を検出し、検出した頭の位置に応じて遮光部の移動制御を行うことによって観察者にとって最適な立体視を行わせる技術が開示されている。   Further, in order to deal with the problem that the depth varies depending on the distance between the observer and the display surface of the display, in Patent Document 2 below, the position of the observer's head is detected, and the light shielding portion of the light shielding unit is detected according to the detected head position. There is disclosed a technique for performing optimal stereoscopic viewing for an observer by performing movement control.

特開2008−306739号公報JP 2008-306739 A 特開2002−305759号公報JP 2002-305759 A

しかしながら、上記特許文献1に記載の技術では、画像データ全体の水平方向の相対位置を変更することによって視差を小さくして観察者の眼を保護する。そのため、画面全体の立体感を増すまたは減らすという変更ができない、という問題があった。また、入力画像にディスプレイ面より手前に表示される画素とディスプレイ面より奥に表示される画素が混在する場合、画像データ全体の視差の絶対値を小さくすることができず、観察者の眼を適切に保護することができない、という問題があった。   However, in the technique described in Patent Document 1, parallax is reduced by changing the horizontal relative position of the entire image data to protect the eyes of the observer. For this reason, there has been a problem that it is impossible to change to increase or decrease the stereoscopic effect of the entire screen. Also, if the input image contains both pixels that are displayed in front of the display surface and pixels that are displayed in the back of the display surface, the absolute value of the parallax of the entire image data cannot be reduced, There was a problem that it could not be properly protected.

また、上記特許文献2に記載の技術では、観察者の頭の位置を検出し、検出した頭の位置に応じて遮光部の移動制御を行う。そのため、観察者の頭の位置に応じた精度の高い光学系の制御が必要とされ、装置のコストが増大する、という問題があった。   In the technique described in Patent Document 2, the position of the observer's head is detected, and movement control of the light shielding unit is performed according to the detected head position. Therefore, there is a problem that the control of the optical system with high accuracy according to the position of the observer's head is required, and the cost of the apparatus increases.

本発明は、上記に鑑みてなされたものであって、観察者の眼を保護するともに、コストの増大を抑え、観察者とディスプレイ表面との距離や観察者の個人差によらない好適な奥行き感を生じさせる立体画像を生成することができる画像処理装置、立体画像表示装置および画像処理方法を得ることを目的とする。   The present invention has been made in view of the above, and protects the eyes of an observer, suppresses an increase in cost, and is suitable for a depth that does not depend on the distance between the observer and the display surface or on individual differences between observers. It is an object of the present invention to obtain an image processing apparatus, a stereoscopic image display apparatus, and an image processing method that can generate a stereoscopic image that gives a feeling of feeling.

上述した課題を解決し、目的を達成するために、本発明は、立体画像を視認させるための対となる左眼用画像と右眼用画像とをフレームごとに各々を複数のブロックに分割し、前記ブロックごとに前記左眼用画像と前記右眼用画像との水平方向のシフト量ごとに前記左眼用画像と前記右眼用画像との類似度を検出する類似度検出手段と、前記類似度に基づいて、前記ブロックごとの視差をブロック内視差として求める視差算出手段と、同一フレーム内の前記ブロックに対応する前記ブロック内視差に基づいて、当該フレーム内の視差であるフレーム内視差を算出するフレーム内視差算出手段と、前記フレーム内視差に基づいて、視差の調整量である視差調整量を算出する視差調整量算出手段と、前記視差調整量、前記左眼用画像および前記右眼用画像に基づいて、前記左眼用画像および前記右眼用画像の視差を前記視差調整量分だけ調整した調整後左眼用画像および調整後右眼用画像を生成する画像生成手段と、を備え、前記視差調整量算出手段は、前記視差調整量を前記フレーム内視差に所定の係数を乗算した値として算出することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention divides a left-eye image and a right-eye image that are paired for visually recognizing a stereoscopic image into a plurality of blocks for each frame. Similarity detecting means for detecting the degree of similarity between the left eye image and the right eye image for each horizontal shift amount between the left eye image and the right eye image for each block; Based on the degree of similarity, a parallax calculation means for obtaining the parallax for each block as an intra-block parallax, and an intra-frame parallax that is a parallax within the frame based on the intra-block parallax corresponding to the block within the same frame Intra-frame parallax calculation means for calculating, parallax adjustment amount calculation means for calculating a parallax adjustment amount that is a parallax adjustment amount based on the intra-frame parallax, the parallax adjustment amount, the left-eye image, and the right eye Image generating means for generating an adjusted left-eye image and an adjusted right-eye image obtained by adjusting the parallax between the left-eye image and the right-eye image by the parallax adjustment amount based on the image for use. wherein the parallax adjustment amount calculation means, characterized that you calculate the parallax adjustment amount as a value obtained by multiplying a predetermined coefficient to the frame parallax.

本発明によれば、観察者の眼を保護するともに、コストの増大を抑え、観察者とディスプレイ表面との距離や観察者の個人差によらない好適な奥行き感を生じさせる立体画像を生成することができる、視差算出および視差調整量算出負荷を、画素単位で演算する場合と比して低減することができる、という効果を奏する。   According to the present invention, a stereoscopic image that protects the eyes of an observer, suppresses an increase in cost, and generates a suitable depth feeling that does not depend on the distance between the observer and the display surface or individual differences between observers is generated. Thus, it is possible to reduce the parallax calculation and the parallax adjustment amount calculation load, which can be reduced as compared with the case where the calculation is performed in units of pixels.

図1は、本発明にかかる立体画像表示装置の機能構成例を示す図である。FIG. 1 is a diagram illustrating a functional configuration example of a stereoscopic image display apparatus according to the present invention. 図2は、対となる立体画像である左眼用画像と右眼用画像の視差と観察者が感じる奥行き感の関係を示す図である。FIG. 2 is a diagram illustrating a relationship between parallax between a left-eye image and a right-eye image that are a pair of stereoscopic images and a sense of depth felt by an observer. 図3は、ブロック内の入力左眼用画像データと入力右眼用画像データの階調と水平位置の関係の一例を表す図である。FIG. 3 is a diagram illustrating an example of the relationship between the gray level and the horizontal position of the input left-eye image data and the input right-eye image data in the block. 図4は、相互相関情報と視差情報の関係の一例を示す図である。FIG. 4 is a diagram illustrating an example of a relationship between cross-correlation information and disparity information. 図5は、フレーム内視差情報と視差調整量の関係を示す図である。FIG. 5 is a diagram illustrating the relationship between the intra-frame parallax information and the parallax adjustment amount. 図6は、視差調整量算出部の別の動作例によるフレーム内視差情報と視差調整量の関係を示す図である。FIG. 6 is a diagram illustrating a relationship between the intra-frame parallax information and the parallax adjustment amount according to another operation example of the parallax adjustment amount calculation unit. 図7は、視差調整量と奥行き感の変化の関係の一例を示す図である。FIG. 7 is a diagram illustrating an example of the relationship between the parallax adjustment amount and the change in the feeling of depth.

以下に、本発明にかかる画像処理装置、立体画像表示装置および画像処理方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Embodiments of an image processing apparatus, a stereoscopic image display apparatus, and an image processing method according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

実施の形態.
図1は、本発明にかかる立体画像表示装置の機能構成例を示す図である。図1に示すように、本実施の形態の立体画像表示装置は、相互相関検出部1と、視差算出部2と、フレーム内視差算出部3と、視差調整量算出部4と、画像生成部5と、表示部6と、を備える。なお、本実施の形態では、表示部6を備えた立体画像表示装置を例に説明を行なうが、相互相関検出部1と、視差算出部2と、フレーム内視差算出部3と、視差調整量算出部4と、画像生成部5と、を備える画像処理装置を構成し、この画像処理装置に本実施の形態の動作を適用してもよい。この場合、画像処理装置は、入力した立体画像を補正し、補正後の画像(画像生成部5の出力)を出力する。
Embodiment.
FIG. 1 is a diagram illustrating a functional configuration example of a stereoscopic image display apparatus according to the present invention. As shown in FIG. 1, the stereoscopic image display apparatus according to the present embodiment includes a cross-correlation detection unit 1, a parallax calculation unit 2, an intra-frame parallax calculation unit 3, a parallax adjustment amount calculation unit 4, and an image generation unit. 5 and a display unit 6. In the present embodiment, a stereoscopic image display device including the display unit 6 will be described as an example. However, the cross-correlation detection unit 1, the parallax calculation unit 2, the intra-frame parallax calculation unit 3, and the parallax adjustment amount An image processing apparatus including the calculation unit 4 and the image generation unit 5 may be configured, and the operation of the present embodiment may be applied to the image processing apparatus. In this case, the image processing apparatus corrects the input stereoscopic image and outputs a corrected image (output of the image generation unit 5).

本実施の形態の立体画像表示装置には、立体画像表示のために生成された入力左眼用画像データDa1と入力右眼用画像データDb1が入力される。入力左眼用画像データDa1と入力右眼用画像データDb1は、擬似的に奥行き感を得るために生成された対となる立体画像である。入力左眼用画像データDa1は、観察者が左眼で見るための画像として生成され、入力右眼用画像データDb1は、観察者が右眼で見るための画像として生成されている。観察者は、入力左眼用画像データDa1を左眼で、入力右眼用画像データDb1を右眼で、それぞれ観察することにより、奥行き感のある立体画像として認識する。なお、入力左眼用画像データDa1および入力右眼用画像データDb1の生成方法については、左右眼の視差に基づいて生成される方法であればどのような生成方法で生成されてもよい。   The stereoscopic image display apparatus according to the present embodiment receives input left-eye image data Da1 and input right-eye image data Db1 generated for stereoscopic image display. The input left-eye image data Da1 and the input right-eye image data Db1 are a pair of stereoscopic images generated to obtain a pseudo depth. The input left-eye image data Da1 is generated as an image for the observer to see with the left eye, and the input right-eye image data Db1 is generated as an image for the observer to see with the right eye. The observer recognizes the stereoscopic image with a sense of depth by observing the input left-eye image data Da1 with the left eye and the input right-eye image data Db1 with the right eye. The generation method of the input left-eye image data Da1 and the input right-eye image data Db1 may be generated by any generation method as long as the generation method is based on the parallax of the left and right eyes.

相互相関検出部1は、入力左眼用画像データDa1と入力右眼用画像データDb1に基づいて1フレームを有限個に分割したブロック単位で相互相関を検出して、当該ブロックでの相互相関情報T1を出力する。視差算出部2は、相互相関情報T1に基づいて視差を算出して、算出結果を視差情報T2として出力する。フレーム内視差算出部3は、視差情報T2に基づいて当該フレームに対する視差を1つ算出して、算出結果をフレーム内視差情報T3として出力する。   The cross-correlation detection unit 1 detects cross-correlation in units of blocks obtained by dividing one frame into a finite number based on the input left-eye image data Da1 and the input right-eye image data Db1, and cross-correlation information in the block Output T1. The parallax calculation unit 2 calculates the parallax based on the cross-correlation information T1, and outputs the calculation result as the parallax information T2. The intra-frame parallax calculation unit 3 calculates one parallax for the frame based on the parallax information T2, and outputs the calculation result as intra-frame parallax information T3.

視差調整量算出部4は、観察者が感じる飛び出し量を調整するための情報である視差調整情報Sとフレーム内視差情報T3とに基づいて視差調整量T4を算出して出力する。画像生成部5は、入力左眼用画像データDa1、入力右眼用画像データDb1および視差調整量T4に基づいて、調整左眼用画像データDa2と調整右眼用画像データDb2を生成し出力する。表示部6は、調整左眼用画像データDa2と調整右眼用画像データDb2に基づいて表示動作を行う。   The parallax adjustment amount calculation unit 4 calculates and outputs the parallax adjustment amount T4 based on the parallax adjustment information S and the intra-frame parallax information T3 that are information for adjusting the pop-out amount felt by the observer. The image generation unit 5 generates and outputs adjusted left-eye image data Da2 and adjusted right-eye image data Db2 based on the input left-eye image data Da1, the input right-eye image data Db1, and the parallax adjustment amount T4. . The display unit 6 performs a display operation based on the adjusted left-eye image data Da2 and the adjusted right-eye image data Db2.

つぎに、相互相関検出部1の詳細な動作を説明する。図2は、対となる立体画像である左眼用画像と右眼用画像の視差と観察者が感じる奥行き感の関係を示す図である。左眼用画像は観察者の左眼のみに、右眼用画像は観察者の右眼のみに見えるように制御されているとする。   Next, the detailed operation of the cross correlation detection unit 1 will be described. FIG. 2 is a diagram illustrating a relationship between parallax between a left-eye image and a right-eye image that are a pair of stereoscopic images and a sense of depth felt by an observer. It is assumed that the image for the left eye is controlled to be visible only to the left eye of the observer, and the image for the right eye is controlled to be visible only to the right eye of the observer.

図2には、ディスプレイ面7上に表示された左眼用画像の画素として画素P1l,P2lが、右眼用画像の画素として画素P1r,P2rが図示されている。ディスプレイ面7上に表示された画素P1lと画素P1rは同一の物体を表示した画素とし、また画素P2lと画素P2rは、同一の物体を表示した画素とする。観察者8には、図2の(a)の場合は、画素P1lおよび画素P1rに対応する物体が空間中の点F1に存在するように見える。また、図2の(b)の場合は、画素P2lおよび画素P2rに対応する物体が点F2に存在するように見える。   FIG. 2 illustrates pixels P1l and P2l as pixels of the image for the left eye displayed on the display surface 7, and pixels P1r and P2r as pixels of the image for the right eye. The pixel P1l and the pixel P1r displayed on the display surface 7 are pixels that display the same object, and the pixel P2l and the pixel P2r are pixels that display the same object. In the case of FIG. 2A, the observer 8 seems to have an object corresponding to the pixel P1l and the pixel P1r at the point F1 in the space. In the case of FIG. 2B, it appears that an object corresponding to the pixel P2l and the pixel P2r exists at the point F2.

同じ物体を表示した場合の、左眼用画像の画素の水平座標と右眼用画像の画素の水平座標との差分が視差である。図2の(a)では、視差d1=X(P1l)−X(P1r)と表すことができ、図2の(b)では、視差d2=X(P2l)−X(P2r)と表すことができる。なお、X(z)は、画素zの水平座標を表す。   The difference between the horizontal coordinate of the pixel of the image for the left eye and the horizontal coordinate of the pixel of the image for the right eye when the same object is displayed is parallax. 2A, it can be expressed as parallax d1 = X (P1l) −X (P1r), and in FIG. 2B, it can be expressed as parallax d2 = X (P2l) −X (P2r). it can. X (z) represents the horizontal coordinate of the pixel z.

図2の(a)では、視差d1は正の値となる。この場合、観察者8は、注視している画素(画素P1lと画素P1r)はディスプレイ面より手前の点F1の位置に存在するように感じられる。逆に、図2の(b)では、視差d2は負の値となる。この場合、観察者が注視している画素(画素P2lと画素P2r)はディスプレイ面より奥の点F2の位置に存在するように感じられる。このように、ここでは、視差は符号付きの値とし、視差が正となる画素はディスプレイ面より手前に、視差が負となる画素はディスプレイ面より奥に表示されることを意味する。   In FIG. 2A, the parallax d1 is a positive value. In this case, the observer 8 feels that the pixel being watched (pixel P1l and pixel P1r) exists at the position of the point F1 in front of the display surface. Conversely, in FIG. 2B, the parallax d2 is a negative value. In this case, it is felt that the pixels (pixel P2l and pixel P2r) that the viewer is gazing at exist at the position of the point F2 deeper than the display surface. Thus, here, the parallax is a signed value, which means that pixels with a positive parallax are displayed in front of the display surface, and pixels with a negative parallax are displayed in the back of the display surface.

相互相関検出部1は、入力左眼用画像データDa1と入力右眼用画像データDb1を、1フレームを有限個に分割したブロック単位に分割して相互相関を検出する。ブロックに分割する際、ブロック内で視差が検出できるように、ブロックの水平幅を想定される視差よりも十分(例えば5倍程度以上)に大きくする必要がある。照合されない部分が発生しないように、想定される視差以上の水平幅のブロックの端部分が重複する(隣接するブロックのどちらにも含まれる)ように、ブロックを分割することが望ましい。   The cross-correlation detection unit 1 detects the cross-correlation by dividing the input left-eye image data Da1 and the input right-eye image data Db1 into block units obtained by dividing one frame into a finite number. When dividing into blocks, it is necessary to make the horizontal width of the block sufficiently larger (for example, about 5 times or more) than the assumed parallax so that the parallax can be detected in the block. It is desirable to divide the blocks so that the end portions of the blocks having a horizontal width equal to or greater than the assumed parallax overlap (included in both adjacent blocks) so that no unmatched portion occurs.

図3は、ブロック内の入力左眼用画像データDa1と入力右眼用画像データDb1の階調と水平位置の関係の一例を表す図である。図3は、1フレーム内の1ラインを複数のブロックに分割した例を示している。図3では、横軸はブロック内での水平位置を表している。また、縦軸は、図3の(a)では入力左眼用画像データDa1の階調を、図3の(b)では入力右眼用画像データDb1の階調を、それぞれ表している。   FIG. 3 is a diagram illustrating an example of the relationship between the gray level and the horizontal position of the input left-eye image data Da1 and the input right-eye image data Db1 in the block. FIG. 3 shows an example in which one line in one frame is divided into a plurality of blocks. In FIG. 3, the horizontal axis represents the horizontal position within the block. The vertical axis represents the gradation of the input left-eye image data Da1 in FIG. 3A and the gradation of the input right-eye image data Db1 in FIG.

図3の(a)と図3の(b)の波形を比較すると、図3の(b)の波形を右にシフトすると図3の(a)と似た波形となる位置がある。同一物体の画像を左眼用画像と右眼用画像データの階調は類似することから、図3の(b)の波形を図3の(a)の波形に最も似ている状態までシフトしたときのシフト量が当該ブロックでの視差を表すと考えることができる。   Comparing the waveforms of FIG. 3A and FIG. 3B, there is a position where when the waveform of FIG. 3B is shifted to the right, a waveform similar to that of FIG. Since the gradation of the left eye image and right eye image data of the same object image is similar, the waveform of FIG. 3B is shifted to a state most similar to the waveform of FIG. It can be considered that the amount of shift at that time represents the parallax in the block.

本実施の形態の相互相関検出部1は、どの程度シフトするとどの程度似た波形になるか、つまりシフト量(画素単位)とブロック内での入力左眼用画像データDa1と入力右眼用画像データDb1の類似度との関係を検出する類似度検出手段である。具体的には、類似度として、たとえば、ブロック単位に分割された入力左眼用画像データDa1と入力右眼用画像データDb1の相互相関関数Rxy[m]を、高速フーリエ変換と逆変換を利用して求める。なお、ここでは、1ラインを複数のブロックに分割する場合を例に説明する。なお、ここでは、1ラインを複数のブロックに分割する場合を例に説明する。   The cross-correlation detection unit 1 according to the present embodiment shows how similar the waveform is when shifted, that is, the shift amount (pixel unit), the input left-eye image data Da1 in the block, and the input right-eye image. It is a similarity detection means for detecting the relationship with the similarity of the data Db1. Specifically, as the similarity, for example, the cross-correlation function Rxy [m] of the input left-eye image data Da1 and the input right-eye image data Db1 divided into blocks is used, and fast Fourier transform and inverse transform are used. And ask. Here, a case where one line is divided into a plurality of blocks will be described as an example. Here, a case where one line is divided into a plurality of blocks will be described as an example.

ここで、mはシフト数(画素単位のシフト量)を示し、Mはブロック内の想定される視差に対応する水平方向の画素数(最大シフト数)を示し、Lはブロック単位に分割された入力左眼用画像データDa1のデータの個数(ブロック単位に分割された入力右眼用画像データDb1のデータの個数も同数)を示し、NはM+L以上となる2のべき乗数を示し、0≦n≦(N−1)とし、x[n]は、ブロック単位に分割された入力左眼用画像データDa1のデータ列とし、y[n]は、ブロック単位に分割された入力右眼用画像データDb1のデータ列とする。また、X[n]=FFT[x[n]](FFT[z]は、zの高速フーリエ変換を表す)、Y[n]=FFT[y[n]]である。また、X[n]*は、X[n]の複素共役を示し、IFFT[z]は、zの逆高速フーリエ変換を表す。   Here, m indicates the number of shifts (shift amount in pixel units), M indicates the number of pixels in the horizontal direction (maximum shift number) corresponding to the assumed parallax in the block, and L is divided in block units. Indicates the number of input left-eye image data Da1 (the number of input right-eye image data Db1 divided in units of blocks is the same), N indicates a power of 2 that is greater than or equal to M + L, and 0 ≦ n ≦ (N−1), x [n] is a data string of input left-eye image data Da1 divided into blocks, and y [n] is an input right-eye image divided into blocks. A data string of the data Db1 is assumed. Further, X [n] = FFT [x [n]] (FFT [z] represents fast Fourier transform of z), Y [n] = FFT [y [n]]. X [n] * represents a complex conjugate of X [n], and IFFT [z] represents an inverse fast Fourier transform of z.

相互相関関数Rxy[m]は、以下の式(1)により求める。なお、Rxy[m]は、逆フーリエ変換により求まったデータ列の前からm個目のデータを意味する。
Rxy[m]=
(IFFT[(X[n]*)・Y[n]])/N、0≦m≦M、M+L≦N …(1)
The cross correlation function Rxy [m] is obtained by the following equation (1). Rxy [m] means the m-th data from the front of the data string obtained by the inverse Fourier transform.
Rxy [m] =
(IFFT [(X [n] *) · Y [n]]) / N, 0 ≦ m ≦ M, M + L ≦ N (1)

式(1)に基づいて相互相関関数Rxy[m]を算出する手順の一例を説明する。相互相関検出部1は、まず、ブロック単位に分割された入力左眼用画像データDa1のデータ列x[n]と入力右眼用画像データDb1のデータ列y[n]とをそれぞれNポイント(次数N)で高速フーリエ変換し、X[n]およびY[n]を得る。なお、Nポイントのデータ列にするために、x[n]およびy[n]は、入力左眼用画像データDa1および入力右眼用画像データDb1のデータの足りない点(各々N−L点分)の値についてはたとえば0とする。   An example of a procedure for calculating the cross-correlation function Rxy [m] based on Expression (1) will be described. First, the cross-correlation detection unit 1 divides the data sequence x [n] of the input left-eye image data Da1 and the data sequence y [n] of the input right-eye image data Db1 divided into blocks into N points ( Fast Fourier transform with order N) to obtain X [n] and Y [n]. In order to obtain an N-point data string, x [n] and y [n] are the points where the data of the input left-eye image data Da1 and the input right-eye image data Db1 are insufficient (each NL points). The value of (minute) is set to 0, for example.

そして、X[n]の複素共役を求め、X[n]の複素共役とY[n]をデータ点ごとに乗算した後、乗算結果に対して逆高速フーリエ変換を行う。そして、最後に逆高速フーリエ変換結果をデータ数Nで割ることにより相互相関関数Rxy[m]を求める。このようにして、0≦m≦M(得られるデータの点数はN個であるが有意なのはMまで)のmに対応するRxy[m]を求める。また、X[n]とY[n]の複素共役をデータ点ごとに乗算したものを、同様に処理して、反対方向のシフトに対する相互相関関数Ryx[m]を求める。求めたRxy[m]とRyx[m]を相互相関情報T1として出力する。ここでは、シフト量mごとの類似度の相対的な大きさを利用するので、式(1)においてNで割らなかったり、式(1)の結果に単調増加関数または単調減少関数を適用して求めたりした値を、シフト量mの類似度としてもよい。   Then, the complex conjugate of X [n] is obtained, and the complex conjugate of X [n] and Y [n] are multiplied for each data point, and then the inverse fast Fourier transform is performed on the multiplication result. Finally, the cross correlation function Rxy [m] is obtained by dividing the inverse fast Fourier transform result by the number N of data. In this way, Rxy [m] corresponding to m of 0 ≦ m ≦ M (the number of obtained data points is N but is significant up to M) is obtained. Further, a product obtained by multiplying the complex conjugate of X [n] and Y [n] for each data point is processed in the same manner to obtain a cross-correlation function Ryx [m] for the shift in the opposite direction. The obtained Rxy [m] and Ryx [m] are output as cross-correlation information T1. Here, since the relative magnitude of the similarity for each shift amount m is used, it is not divided by N in Equation (1), or a monotonically increasing function or a monotonically decreasing function is applied to the result of Equation (1). The obtained value may be used as the similarity of the shift amount m.

なお、図2で示したように、ディスプレイ面7の手前に物体があるよう視認させる場合と、ディスプレイ面7の背面に物体があるよう視認させる場合とで、入力右眼用画像データDb1を基準とした入力左眼用画像データDa1のシフトの方向が異なる。したがって、どちらかの方向をシフト数の正の方向とし、シフト数については符号により方向を区別できるようにする。   As shown in FIG. 2, the input right-eye image data Db1 is used as a reference in cases where the object is viewed in front of the display surface 7 and in the case where the object is visually recognized as being behind the display surface 7. The input left-eye image data Da1 has a different shift direction. Therefore, either direction is set as a positive direction of the shift number, and the direction of the shift number can be distinguished by a sign.

また、ここでは、高速フーリエ変換や逆高速フーリエ変換を使って類似度として相互相関情報T1を求めたが、類似度を求める方法は、これに限定されない。たとえば、入力右眼用画像データDb1と入力右眼用画像データDb1の一方をmだけシフトさせ、シフトさせない方とシフトさせた方とのデータごとの差分を求め、差分の合計をシフト数ごとに求める等、別の方法によりシフト数ごとの類似度を求めるようにしてもよい。   Here, the cross-correlation information T1 is obtained as the similarity using the fast Fourier transform or the inverse fast Fourier transform, but the method for obtaining the similarity is not limited to this. For example, one of the input right-eye image data Db1 and the input right-eye image data Db1 is shifted by m, and a difference for each data between the non-shifted and the shifted one is obtained, and the total difference is calculated for each shift number. The similarity for each number of shifts may be obtained by another method such as obtaining.

なお、以上の例では、1ラインを複数のブロックに分割して水平のみの1次元のデータ列としたが、ブロック内で視差が検出できるようにブロックの水平幅を想定される最大視差よりも十分に大きくとりさえすれば、水平垂直の2次元でブロック化してもよい。その場合、たとえばブロック内でラインごとに上記と同様にシフト数ごとの相互相関関数を求め、シフト数ごとに、ブロック内の全ラインの相互相関関数を加算した結果を相互相関情報T1とする。または、同一の水平方向の座標の画素ごとに、垂直方向について階調の平均値を求め、この平均値について相互相関関数を求めるようにしてもよい。水平垂直の2次元でブロック化した場合の相互相関情報T1の求め方は、これらに限らず、シフト数に応じて画像の類似度が評価できる方法であればどのような方法で求めてもよい。   In the above example, one line is divided into a plurality of blocks to form a horizontal one-dimensional data string. However, the horizontal width of the block is assumed to be larger than the maximum parallax that can be detected so that the parallax can be detected within the block. As long as it is sufficiently large, it may be blocked in two dimensions, horizontal and vertical. In this case, for example, a cross-correlation function for each shift number is obtained for each line in the block in the same manner as described above, and a result obtained by adding the cross-correlation functions for all lines in the block for each shift number is used as cross-correlation information T1. Alternatively, for each pixel having the same horizontal coordinate, an average value of gradations may be obtained in the vertical direction, and a cross-correlation function may be obtained for this average value. The method of obtaining the cross-correlation information T1 in the case of horizontally and vertically two-dimensionally blocking is not limited to these, and any method may be used as long as the image similarity can be evaluated according to the number of shifts. .

また、ブロック内で垂直方向にも相互相関係数を求める場合には、垂直方向の視差にも対応できる。カメラ等で撮影した画像には、意図せず微妙に垂直方向にもずれることがあり、垂直方向の視差も求めることで検出精度を上げられる可能性がある。   Further, when obtaining the cross-correlation coefficient in the vertical direction within the block, it is possible to deal with the parallax in the vertical direction. An image photographed by a camera or the like may unintentionally shift slightly in the vertical direction, and the detection accuracy may be improved by obtaining vertical parallax.

このように相互相関検出部1は、ブロック単位で当該ブロックの相互相関情報T1を検出することにより、1ブロック分の処理をまとめて行うことが可能なため、動画像圧縮などで動きベクトルを求める際などにも使われる画素単位でブロックマッチング等を行って相互相関情報を検出する場合と比較して、1/10程度以下と大幅に計算量を削減することができる。   As described above, the cross-correlation detection unit 1 detects the cross-correlation information T1 of the block in units of blocks, and thus can perform processing for one block at a time. Therefore, the motion vector is obtained by moving image compression or the like. Compared with the case where cross-correlation information is detected by performing block matching or the like in units of pixels that are also used at the time, the amount of calculation can be significantly reduced to about 1/10 or less.

つぎに、視差算出部2の動作を説明する。視差算出部2は、相互相関情報T1に基づいて視差を算出して、視差情報T2を出力する。図4は、相互相関情報T1と視差情報T2の関係の一例を示す図である。図4では、横軸にシフト数を示し、縦軸に相互相関情報を示している。図4に示すように、相互相関情報T1の値が最大になるシフト数、すなわち当該ブロックの入力左眼用画像データDa1と入力右眼用画像データDb1の相互相関が最も強いシフト数が存在する。このシフト数が視差に対応する。したがって、視差算出部2は、相互相関情報T1の値が最大になるシフト数を当該ブロックの入力左眼用画像データDa1と入力右眼用画像データDb1の視差とし、視差情報T2として出力する。   Next, the operation of the parallax calculation unit 2 will be described. The parallax calculation unit 2 calculates the parallax based on the cross-correlation information T1, and outputs the parallax information T2. FIG. 4 is a diagram illustrating an example of the relationship between the cross-correlation information T1 and the parallax information T2. In FIG. 4, the horizontal axis indicates the number of shifts, and the vertical axis indicates cross-correlation information. As shown in FIG. 4, there is a shift number that maximizes the value of the cross-correlation information T1, that is, a shift number that has the strongest cross-correlation between the input left-eye image data Da1 and the input right-eye image data Db1 of the block. . This shift number corresponds to the parallax. Accordingly, the parallax calculation unit 2 sets the shift number that maximizes the value of the cross-correlation information T1 as the parallax between the input left-eye image data Da1 and the input right-eye image data Db1 of the block, and outputs the parallax information T2.

また、上述のように、シフト数は、入力左眼用画像データDa1の画素を基準とすると入力右眼用画像データDb1の対応する画素の水平方向の位置によって、正または負の値となるが、視差についても同様に符号を持った値として求める。   As described above, the shift number is a positive or negative value depending on the horizontal position of the corresponding pixel of the input right-eye image data Db1 when the pixel of the input left-eye image data Da1 is used as a reference. Similarly, the parallax is obtained as a value having a sign.

視差算出部2では、当該ブロックの視差情報T2を決定するために、当該ブロックの入力左眼用画像データDa1と入力右眼用画像データDb1間の相互相関が最も強くなるときのシフト数を選択する。したがって、視差を求める演算が、1ブロックにつき1度で済むため、画素ごとに視差情報を算出する場合と比較して計算量を大幅に削減できる。さらに、相互相関が最も強くなるときのシフト数を当該ブロックの視差情報T2とすることで、画素ごとに視差情報を求めた場合との差を小さくすることができる。   The parallax calculation unit 2 selects the number of shifts when the cross-correlation between the input left-eye image data Da1 and the input right-eye image data Db1 of the block is the strongest in order to determine the parallax information T2 of the block. To do. Therefore, since the calculation for obtaining the parallax only needs to be performed once per block, the amount of calculation can be greatly reduced as compared with the case of calculating the parallax information for each pixel. Furthermore, by setting the number of shifts when the cross-correlation is the strongest as the disparity information T2 of the block, the difference from the case where the disparity information is obtained for each pixel can be reduced.

つぎに、フレーム内視差算出部3の動作を説明する。フレーム内視差算出部3は、ブロックごとに出力される視差情報T2に基づいて、当該フレームに含まれるブロックの視差情報T2の中から最大となる視差情報T2を、当該フレームに対応する視差であるフレーム内視差情報T3として求め出力する。なお、本実施の形態では、当該フレームに含まれるブロックの視差情報T2の中で最大の視差情報をフレーム内視差情報T3としたがこれに限らず、フレーム内視差情報T3の求め方は、例えば、当該フレームに含まれるブロックの視差情報の平均を算出して当該フレームのフレーム内視差情報T3とする等、ブロック単位の視差情報T2に基づいて当該フレームのフレーム内視差情報T3を1つ決定する方法であればどのような方法でもよい。   Next, the operation of the intra-frame parallax calculation unit 3 will be described. Based on the disparity information T2 output for each block, the intra-parallax calculation unit 3 uses the disparity information T2 that is the maximum among the disparity information T2 of the blocks included in the frame as the disparity corresponding to the frame. Obtained and output as intra-frame disparity information T3. In the present embodiment, the maximum disparity information among the disparity information T2 of the block included in the frame is the intra-frame disparity information T3. However, the present invention is not limited to this. One intra-parallax information T3 of the frame is determined based on the parallax information T2 in units of blocks, such as calculating the average of the parallax information of the blocks included in the frame to obtain the intra-frame parallax information T3 of the frame. Any method can be used.

フレーム内視差算出部3では、当該フレームに含まれるブロックの視差情報T2の中で最大の視差情報をフレーム内視差情報T3とする。したがって、1フレームにつき1つの視差情報のみを出力すればよいので、画素ごとに視差情報を算出して出力する場合と比較して、1フレーム分の視差情報を大幅に削減することができる。さらに、観察者にとって影響の大きい立体映像の飛び出し量を抑制する上で重要な要素となる、当該フレーム内で最大の視差情報を当該フレームの視差情報として出力することができる。   In the intra-frame parallax calculation unit 3, the maximum parallax information among the parallax information T2 of the blocks included in the frame is set as the intra-frame parallax information T3. Therefore, since only one piece of parallax information needs to be output per frame, the amount of parallax information for one frame can be greatly reduced as compared with the case where the parallax information is calculated and output for each pixel. Furthermore, it is possible to output the maximum parallax information in the frame, which is an important factor in suppressing the pop-up amount of the stereoscopic video that has a great influence on the observer, as the parallax information of the frame.

つぎに、視差調整量算出部4の動作の一例について説明する。視差調整量算出部4は、視差調整情報Sおよびフレーム内視差情報T3に基づいて視差調整量T4を算出して出力する。視差調整情報Sは、視差調整係数Saで構成される。視差調整量算出部4は、フレーム内視差情報T3に視差調整係数Saを乗算することにより、視差調整量T4を算出する。   Next, an example of the operation of the parallax adjustment amount calculation unit 4 will be described. The parallax adjustment amount calculation unit 4 calculates and outputs the parallax adjustment amount T4 based on the parallax adjustment information S and the intra-frame parallax information T3. The parallax adjustment information S includes a parallax adjustment coefficient Sa. The parallax adjustment amount calculation unit 4 calculates the parallax adjustment amount T4 by multiplying the intra-frame parallax information T3 by the parallax adjustment coefficient Sa.

図5は、フレーム内視差情報T3と視差調整量T4の関係を示す図である。図5では、横軸はフレーム内視差情報T3を、縦軸は視差調整量T4をそれぞれ示している。視差調整係数Saは、図5に示した直線の傾きを決定する値である。視差調整係数Saは正の値とし、視差調整係数Saの値が大きければ、フレーム内視差情報T3によって視差調整量T4が大きく変化し、視差調整係数Saの値が小さければ、視差調整量T4は控えめに変化する。視差調整量T4は、後述の画像生成部5の視差調整の処理により、観察者が観測する飛び出し量を制限するために用いる調整量である。例えば、観察者が実際の絵を見ながら自分にとって見やすい飛び出し量に調整する手段を設けるなどして、観察者が飛び出し量が大きすぎると感じる場合、不快に感じない程度にまで視差を減少させるような値になるように視差調整係数Saを大きくすることで視差調整量T4が大きくなり、飛び出し量をより抑えることができる。例えば、視差が25画素までなら不快に思わず、想定される最大視差が50画素だとする。その場合には、50画素のフレーム内視差情報T3が25画素の視差になるように、すなわち視差調整量T4が25(=50−25)画素になるように、視差調整係数Sa=T4/T3=25/50=0.5と設定する。   FIG. 5 is a diagram illustrating a relationship between the intra-frame parallax information T3 and the parallax adjustment amount T4. In FIG. 5, the horizontal axis indicates the intra-frame parallax information T3, and the vertical axis indicates the parallax adjustment amount T4. The parallax adjustment coefficient Sa is a value that determines the slope of the straight line shown in FIG. The parallax adjustment coefficient Sa is a positive value. If the value of the parallax adjustment coefficient Sa is large, the parallax adjustment amount T4 changes greatly according to the intra-frame parallax information T3, and if the value of the parallax adjustment coefficient Sa is small, the parallax adjustment amount T4 is Change modestly. The parallax adjustment amount T4 is an adjustment amount used to limit the amount of pop-up observed by the observer by the parallax adjustment processing of the image generation unit 5 described later. For example, if the observer feels that the pop-out amount is too large by providing a means for adjusting the pop-out amount that is easy for the observer to see while viewing the actual picture, the parallax should be reduced to such an extent that it does not feel uncomfortable. By increasing the parallax adjustment coefficient Sa so as to be a large value, the parallax adjustment amount T4 increases, and the pop-out amount can be further suppressed. For example, if the parallax is up to 25 pixels, it is not uncomfortable and the assumed maximum parallax is 50 pixels. In this case, the parallax adjustment coefficient Sa = T4 / T3 so that the intra-frame parallax information T3 of 50 pixels becomes 25 parallaxes, that is, the parallax adjustment amount T4 becomes 25 (= 50−25) pixels. = 25/50 = 0.5.

このように、フレーム内視差情報T3と視差調整量T4とを比例させ、視差調整係数Saによってその傾きを調整できるようにすることで、フレーム内視差が大きいときにはより多く飛び出し量抑制効果が大きくなるように調整し、そうでないときには飛び出し量の抑制効果を小さく抑えることができる。また、その抑止効果の効き具合は調整係数で制御できるため、観察者に好適な飛び出し量に調整することができる。   As described above, the intra-frame parallax information T3 and the parallax adjustment amount T4 are proportional to each other, and the inclination thereof can be adjusted by the parallax adjustment coefficient Sa, so that the effect of suppressing the pop-out amount becomes larger when the intra-frame parallax is large. If not, the effect of suppressing the pop-out amount can be reduced. Moreover, since the effectiveness of the deterrent effect can be controlled by the adjustment coefficient, it can be adjusted to a pop-out amount suitable for the observer.

なお、ここでは、飛び出し量を抑えるために、視差を小さくするための値として視差調整量T4を算出したが、逆に飛び出し量を増やしたい場合にも適用できる。この場合、たとえば、視差調整量T4が負の値の場合には、画像生成部5が視差を増やすように視差調整するようにしておき、視差調整係数Saの値を負の値にする方法等が考えられる。   Here, in order to suppress the pop-out amount, the parallax adjustment amount T4 is calculated as a value for reducing the parallax, but it can also be applied to increase the pop-out amount. In this case, for example, when the parallax adjustment amount T4 is a negative value, the image generating unit 5 performs parallax adjustment so as to increase the parallax, and the parallax adjustment coefficient Sa is set to a negative value. Can be considered.

つぎに、視差調整量算出部4の別の動作例について説明する。図6は、視差調整量算出部4の別な動作例によるフレーム内視差情報T3と視差調整量T4の関係を示す図である。この動作例では、視差調整情報Sは、視差調整係数Saと視差調整閾値Sbとで構成される。視差調整係数Saは、上述の例と同様に、フレーム内視差情報T3と視差調整量T4の関係を示す直線の傾きを表す。視差調整閾値Sbは、視差調整量T4に制約を与えるための値であり、フレーム内視差情報T3が視差調整閾値Sb以下の場合は、図6に示すように視差調整量T4を0にする。これにより、フレーム内視差情報T3が視差調整閾値Sb以下の場合は、画像生成部5での視差調整を行わないようにすることができる。視差調整閾値Sbも、観察者が実際の絵を見ながら自分にとって見やすい画像が得られるように、観察者が画像を見ながら調整して設定する。飛び出し量が大きくならないことを重視する場合には、視差調整閾値Sbを小さく設定する。オリジナルの画像を優先し過大な飛び出しだけを抑制する場合には、視差調整閾値Sbを大きく設定する。フレーム内視差情報T3が視差調整閾値Sbをまたいで変化する場合には、飛び出し量が不連続に変化しないように視差調整量T4を適当な時間遅れ動作を持たせて変化させることが望ましい。   Next, another operation example of the parallax adjustment amount calculation unit 4 will be described. FIG. 6 is a diagram illustrating a relationship between the intra-frame parallax information T3 and the parallax adjustment amount T4 according to another operation example of the parallax adjustment amount calculation unit 4. In this operation example, the parallax adjustment information S includes a parallax adjustment coefficient Sa and a parallax adjustment threshold Sb. The parallax adjustment coefficient Sa represents the slope of a straight line indicating the relationship between the intra-frame parallax information T3 and the parallax adjustment amount T4, as in the above example. The parallax adjustment threshold Sb is a value for constraining the parallax adjustment amount T4. When the intra-frame parallax information T3 is equal to or less than the parallax adjustment threshold Sb, the parallax adjustment amount T4 is set to 0 as illustrated in FIG. Thereby, when the intra-frame parallax information T3 is equal to or smaller than the parallax adjustment threshold Sb, the parallax adjustment in the image generation unit 5 can be prevented from being performed. The parallax adjustment threshold Sb is also adjusted and set while the viewer looks at the image so that the viewer can obtain an image that is easy to see while viewing the actual picture. When emphasizing that the pop-out amount does not increase, the parallax adjustment threshold value Sb is set small. In the case where priority is given to the original image and only excessive pop-up is suppressed, the parallax adjustment threshold value Sb is set large. When the intra-parallax information T3 changes across the parallax adjustment threshold Sb, it is desirable to change the parallax adjustment amount T4 with an appropriate time delay operation so that the pop-out amount does not change discontinuously.

このように、視差調整係数Saと視差調整閾値Sbを用いることで、観察者にとって飛び出し量が所定の大きさより大きい場合に視差調整を行い、そうでない場合は視差調整を行わないという処理が可能になる。したがって、入力映像信号に設定してあった視差をなるべく損なうことなく、かつ、観察者の眼に負担のないよう好適な飛び出し量に調整することが可能となる。   Thus, by using the parallax adjustment coefficient Sa and the parallax adjustment threshold value Sb, it is possible for the observer to perform the parallax adjustment when the pop-out amount is larger than the predetermined size, and not to perform the parallax adjustment otherwise. Become. Therefore, it is possible to adjust the amount of projection to a suitable amount so as not to impair the parallax set in the input video signal as much as possible and to avoid a burden on the observer's eyes.

つぎに、画像生成部5の動作を説明する。画像生成部5は、視差調整量算出部4から出力された視差調整量T4に基づいて、左眼用画像と右眼用画像のどちらかまたは両方を平行移動して、視差調整量T4だけ視差が変化した新たな左眼用画像と右眼用画像を生成することにより、視差調整を行なう。通常のTVなどでは、オーバースキャンによる画面に表示されない領域があるので、画像を平行移動しても端部に表示すべき画像が存在しないということは無い。画像データをすべて画面に表示する場合には、左眼用画像および右眼用画像を少し拡大して、左眼用画像と右眼用画像のどちらかまたは両方を視差が視差調整量T4だけ変化するように平行移動するなどすればよい。   Next, the operation of the image generation unit 5 will be described. Based on the parallax adjustment amount T4 output from the parallax adjustment amount calculation unit 4, the image generation unit 5 translates either or both of the left-eye image and the right-eye image, and parallaxes by the parallax adjustment amount T4. The parallax adjustment is performed by generating a new left-eye image and right-eye image in which is changed. In a normal TV or the like, there is an area that is not displayed on the screen due to overscan. Therefore, there is no case where there is no image to be displayed at the end even if the image is translated. When all the image data is displayed on the screen, the left-eye image and the right-eye image are slightly enlarged, and either or both of the left-eye image and the right-eye image change in parallax by the parallax adjustment amount T4. For example, it may be translated.

図7は、視差調整量と奥行き感の変化の関係の一例を示す図である。図7の(a)は図2の(a)と同様である。図7の(b)は、画像生成部5によって調整された後のスクリーン上に示される画素と観察者が感じる物体の位置を示している。画像生成部5による視差調整前の画像の画素P1l,P1rに対応する画素が、それぞれ画素P1l´,画素P1r´となる。図7の(b)では、視差d1は、画像生成部5によってd1・Saだけ減少するように視差調整が実施され視差d1´となる。   FIG. 7 is a diagram illustrating an example of the relationship between the parallax adjustment amount and the change in the feeling of depth. FIG. 7A is the same as FIG. 2A. FIG. 7B shows the positions of the pixels felt on the screen after being adjusted by the image generator 5 and the object felt by the observer. Pixels corresponding to the pixels P1l and P1r of the image before the parallax adjustment by the image generation unit 5 are the pixel P1l ′ and the pixel P1r ′, respectively. In FIG. 7B, the parallax d1 is adjusted to parallax so that the parallax d1 is reduced by d1 · Sa by the image generation unit 5 to become parallax d1 ′.

図7は、視差調整量と奥行き感の変化の関係の一例を示す図である。図7の(a)は図2の(a)と同様である。図7の(b)は、画像生成部5によって調整された後のスクリーン上に示される画素と観察者が感じる物体の位置を示している。画像生成部5による視差調整前の画像の画素P1l,P1rに対応する画素が、それぞれ画素P1l´,画素P1r´となる。図7の(b)では、視差d1は、画像生成部5によって視差調整が実施され視差d1´となる。   FIG. 7 is a diagram illustrating an example of the relationship between the parallax adjustment amount and the change in the feeling of depth. FIG. 7A is the same as FIG. 2A. FIG. 7B shows the positions of the pixels felt on the screen after being adjusted by the image generator 5 and the object felt by the observer. Pixels corresponding to the pixels P1l and P1r of the image before the parallax adjustment by the image generation unit 5 are the pixel P1l ′ and the pixel P1r ′, respectively. In FIG. 7B, the parallax d1 is adjusted to parallax by the image generation unit 5 to become parallax d1 ′.

図7の(b)に示すように、画像生成部5が、視差調整量T4に基づいて左眼用画像と右眼用画像を変更することによって、観察者8には空間中の点F1´に画素P1l´および画素P1r´に対応する物体があるように感じられる。すなわち、図7の(a)に比べ、ΔFだけ物体が奥に移動したように感じられる。したがって、観察者8にとっての物体の飛び出し量が低減する。   As illustrated in FIG. 7B, the image generation unit 5 changes the left-eye image and the right-eye image based on the parallax adjustment amount T <b> 4, so that the observer 8 can obtain a point F <b> 1 ′ in the space. It seems that there is an object corresponding to the pixel P1l ′ and the pixel P1r ′. That is, compared to FIG. 7A, it can be felt that the object has moved to the back by ΔF. Accordingly, the amount of object popping out for the observer 8 is reduced.

このように、画像生成部5は、視差調整量T4、入力左眼用画像Da1および入力右眼用画像Db1に基づいて、視差調整後の左眼用画像である調整左眼用画像Da2と視差調整後の右眼用画像である調整右眼用画像Db2を生成し出力する。   As described above, the image generation unit 5 adjusts the parallax adjustment image T2 for the left eye and the parallax that is the image for the left eye after the parallax adjustment based on the parallax adjustment amount T4, the input left-eye image Da1, and the input right-eye image Db1. An adjusted right-eye image Db2 that is an adjusted right-eye image is generated and output.

つぎに、表示部6の動作を説明する。表示部6は、調整左眼用画像データDa2と調整右眼用画像データDb2を、それぞれ左眼用画像と右眼用画像として表示する。立体表示を行なうための表示部6の表示方式としては、たとえば、空間的に異なる座標に左眼用画像と右眼用画像を表示する方式や、時間的に異なるフレームに左眼用画像と右眼用画像を表示する方式などがあるが、方式に限定はなくどのような方式を用いてもよい。   Next, the operation of the display unit 6 will be described. The display unit 6 displays the adjusted left-eye image data Da2 and the adjusted right-eye image data Db2 as a left-eye image and a right-eye image, respectively. As a display method of the display unit 6 for performing stereoscopic display, for example, a method of displaying a left-eye image and a right-eye image at spatially different coordinates, or a left-eye image and a right image in temporally different frames. There are methods for displaying an image for the eye, but the method is not limited and any method may be used.

このように、本実施の形態では、対となる入力左眼用画像と入力右眼用画像を、1フレームを有限個に分割したブロック単位で算出した後、当該フレームに対するフレーム内視差を1つ算出し、1フレーム単位で視差調整情報およびフレーム内視差に基づいて入力左眼用画像と入力右眼用画像から視差を変更した新たな左眼用画像と右眼用画像を生成するようにした。そのため、観察者とディスプレイ表面との距離や観察者の個人差によらず、過度な飛び出し量による眼の負担を軽減し、観察者にとって最適な奥行き感の立体画像を表示することができるとともに、視差算出および視差調整量算出負荷を、画素単位で演算する場合と比して低減することができる。また、精度の高い光学系の制御を必要とせず、コストの増大を引き起こさずに、画面全体の奥行き感を増加させる、または減少させることができる。   As described above, in the present embodiment, the input left-eye image and the input right-eye image that are paired are calculated in units of blocks obtained by dividing one frame into a finite number of frames, and then one intra-frame parallax for the frame is obtained. The new left-eye image and right-eye image in which the parallax is changed from the input left-eye image and the input right-eye image based on the parallax adjustment information and the intra-frame parallax are calculated for each frame. . Therefore, regardless of the distance between the observer and the display surface and the individual differences between the observers, it is possible to reduce the burden on the eyes due to the excessive amount of protrusion, and to display a stereoscopic image with a sense of depth optimal for the observer, The parallax calculation and parallax adjustment amount calculation load can be reduced as compared with the case of calculating in units of pixels. In addition, it is possible to increase or decrease the sense of depth of the entire screen without requiring control of an optical system with high accuracy and without causing an increase in cost.

以上のように、本発明にかかる画像処理装置、立体画像表示装置および画像処理方法は、立体映像をなす対となる左眼用画像および右眼用画像を処理する画像処理装置に有用であり、特に、立体映像の観察者の眼の負担を低減した画像を生成する画像処理装置に適している。   As described above, the image processing device, the stereoscopic image display device, and the image processing method according to the present invention are useful for an image processing device that processes a left-eye image and a right-eye image that form a pair of stereoscopic images. In particular, it is suitable for an image processing apparatus that generates an image with reduced burden on the eyes of an observer of a stereoscopic video.

1 相互相関検出部
2 視差算出部
3 フレーム内視差算出部
4 視差調整量算出部
5 画像生成部
6 表示部
7 ディスプレイ面
8 観察者
Da1 入力左眼用画像データ
Db1 入力右眼用画像データ
Da2 調整左眼用画像
Db2 調整右眼用画像
P1l,P1r,P1l´,P1r´,P2l,P2r 画素
T1 相互相関情報
T2 視差情報
T3 フレーム内視差情報
T4 視差調整量
S 視差調整情報
Sa 視差調整係数
Sb 視差調整閾値
DESCRIPTION OF SYMBOLS 1 Cross correlation detection part 2 Parallax calculation part 3 In-frame parallax calculation part 4 Parallax adjustment amount calculation part 5 Image generation part 6 Display part 7 Display surface 8 Observer Da1 Input left-eye image data Db1 Input right-eye image data Da2 Adjustment Left eye image Db2 Adjusted right eye image P1l, P1r, P1l ′, P1r ′, P2l, P2r Pixel T1 Cross correlation information T2 Disparity information T3 Intraframe disparity information T4 Disparity adjustment amount S Disparity adjustment information Sa Disparity adjustment coefficient Sb Disparity Adjustment threshold

Claims (7)

立体画像を視認させるための対となる左眼用画像と右眼用画像とをフレームごとに各々を複数のブロックに分割し、前記ブロックごとに前記左眼用画像と前記右眼用画像との水平方向のシフト量ごとに前記左眼用画像と前記右眼用画像との類似度を検出する類似度検出手段と、
前記類似度に基づいて、前記ブロックごとの視差をブロック内視差として求める視差算出手段と、
同一フレーム内の前記ブロックに対応する前記ブロック内視差に基づいて、当該フレーム内の視差であるフレーム内視差を算出するフレーム内視差算出手段と、
前記フレーム内視差に基づいて、視差の調整量である視差調整量を算出する視差調整量算出手段と、
前記視差調整量、前記左眼用画像および前記右眼用画像に基づいて、前記左眼用画像および前記右眼用画像の視差を前記視差調整量分だけ調整した調整後左眼用画像および調整後右眼用画像を生成する画像生成手段と、
を備え
前記視差調整量算出手段は、前記視差調整量を前記フレーム内視差に所定の係数を乗算した値として算出することを特徴とする画像処理装置。
A left-eye image and a right-eye image that form a pair for visually recognizing a stereoscopic image are divided into a plurality of blocks for each frame, and the left-eye image and the right-eye image are divided for each block. Similarity detection means for detecting the similarity between the left-eye image and the right-eye image for each horizontal shift amount;
A parallax calculating means for obtaining a parallax for each block as an intra-block parallax based on the similarity;
An intra-frame parallax calculating means for calculating an intra-frame parallax, which is a parallax within the frame, based on the intra-block parallax corresponding to the block within the same frame;
Parallax adjustment amount calculating means for calculating a parallax adjustment amount that is an adjustment amount of parallax based on the intra-parallax;
Based on the parallax adjustment amount, the left-eye image, and the right-eye image, the adjusted left-eye image and adjustment after adjusting the parallax between the left-eye image and the right-eye image by the parallax adjustment amount Image generating means for generating an image for the rear right eye;
Equipped with a,
The parallax adjustment amount calculating means, the image processing apparatus characterized that you calculate the parallax adjustment amount as a value obtained by multiplying a predetermined coefficient to the frame parallax.
前記類似度検出手段は、前記類似度を、前記ブロック内の前記左眼用画像の水平方向のデータ列と前記右眼用画像の水平方向のデータ列との相互相関関数を用いて算出する、
ことを特徴とする請求項1に記載の画像処理装置。
The similarity detection means calculates the similarity using a cross-correlation function between a horizontal data sequence of the left-eye image and a horizontal data sequence of the right-eye image in the block;
The image processing apparatus according to claim 1.
前記ブロックごとのシフト量mの前記類似度を、前記ブロック内の前記左眼用画像の水平方向のデータ列と前記ブロック内の前記右眼用画像の水平方向のデータ列とをそれぞれ、データ列の個数Lと想定する最大シフト数M(>m)との和以上になる2のべき乗数N(>=M+L)を次数として高速フーリエ変換して、高速フーリエ変換により得られた2個のデータ列を、データ点ごとに一方の複素共役をとり同じ位置にある他方と乗算して新たなデータ列を生成し、生成したデータ列を次数Nの逆フーリエ変換して得られたデータ列のm個目のデータから求める
ことを特徴とする請求項1に記載の画像処理装置。
The degree of similarity of the shift amount m for each block is represented by a data sequence in the horizontal direction of the left eye image in the block and a horizontal data sequence of the right eye image in the block, respectively. Data obtained by fast Fourier transform by performing a fast Fourier transform using a power of 2 N (> = M + L) that is equal to or greater than the sum of the number L of L and the assumed maximum shift number M (> m). The sequence is multiplied by one complex conjugate for each data point and multiplied by the other at the same position to generate a new data sequence, and m of the data sequence obtained by performing inverse Fourier transform of the order N on the generated data sequence The image processing apparatus according to claim 1, wherein the image processing apparatus is obtained from individual data.
前記視差算出手段は、前記類似度が最大となる前記シフト量を、前記ブロック内視差とする、
ことを特徴とする請求項1、2または3に記載の画像処理装置。
The parallax calculation means sets the shift amount that maximizes the similarity as the intra-block parallax.
The image processing apparatus according to claim 1, 2, or 3.
前記フレーム内視差算出手段は、同一フレーム内の前記ブロックに対応する前記ブロック内視差のうちの最大値を前記フレーム内視差とする、
ことを特徴とする請求項1〜4のいずれか1つに記載の画像処理装置。
The intra-frame parallax calculation means sets the maximum value of the intra-block parallax corresponding to the block in the same frame as the intra-frame parallax,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記視差調整量算出手段は、前記視差調整量が所定のしきい値以下の場合は前記視差調整量を0とし、前記視差調整量が所定のしきい値を超える場合に前記視差調整量を前記フレーム内視差に所定の係数を乗算した値として算出する、
ことを特徴とする請求項1〜5のいずれか1つに記載の画像処理装置。
The parallax adjustment amount calculation means sets the parallax adjustment amount to 0 when the parallax adjustment amount is equal to or less than a predetermined threshold, and sets the parallax adjustment amount when the parallax adjustment amount exceeds a predetermined threshold. Calculated by multiplying the intra-frame parallax by a predetermined coefficient,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
立体画像を視認させるための対となる左眼用画像と右眼用画像とをフレームごとに各々を複数のブロックに分割し、前記ブロックごとに前記左眼用画像と前記右眼用画像との水平方向のシフト量ごとに前記左眼用画像と前記右眼用画像との類似度を検出する類似度検出ステップと、
前記類似度に基づいて、前記ブロックごとの視差をブロック内視差として求める視差算出ステップと、
同一フレーム内の前記ブロックに対応する前記ブロック内視差に基づいて、当該フレーム内の視差であるフレーム内視差を算出するフレーム内視差算出ステップと、
前記フレーム内視差に基づいて、視差の調整量である視差調整量を算出する視差調整量算出ステップと、
前記視差調整量、前記左眼用画像および前記右眼用画像に基づいて、前記左眼用画像および前記右眼用画像の視差を前記視差調整量分だけ調整した調整後左眼用画像および調整後右眼用画像を生成する画像生成ステップと、
を含み、
前記視差調整量算出ステップでは、前記視差調整量を前記フレーム内視差に所定の係数を乗算した値として算出することを特徴とする画像処理方法。
A left-eye image and a right-eye image that form a pair for visually recognizing a stereoscopic image are divided into a plurality of blocks for each frame, and the left-eye image and the right-eye image are divided for each block. A similarity detection step of detecting a similarity between the left-eye image and the right-eye image for each horizontal shift amount;
A parallax calculation step of obtaining a parallax for each block as an intra-block parallax based on the similarity;
An intra-frame parallax calculation step of calculating an intra-frame parallax, which is a parallax within the frame, based on the intra-block parallax corresponding to the block within the same frame;
A parallax adjustment amount calculating step of calculating a parallax adjustment amount that is an adjustment amount of parallax based on the intra-frame parallax;
Based on the parallax adjustment amount, the left-eye image, and the right-eye image, the adjusted left-eye image and adjustment after adjusting the parallax between the left-eye image and the right-eye image by the parallax adjustment amount An image generation step for generating an image for the rear right eye;
Only including,
In the parallax adjustment amount calculating step, the parallax adjustment amount is calculated as a value obtained by multiplying the intra-frame parallax by a predetermined coefficient .
JP2010049438A 2010-03-05 2010-03-05 Image processing apparatus and image processing method Expired - Fee Related JP5528162B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010049438A JP5528162B2 (en) 2010-03-05 2010-03-05 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010049438A JP5528162B2 (en) 2010-03-05 2010-03-05 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2011188108A JP2011188108A (en) 2011-09-22
JP2011188108A5 JP2011188108A5 (en) 2013-02-28
JP5528162B2 true JP5528162B2 (en) 2014-06-25

Family

ID=44793894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010049438A Expired - Fee Related JP5528162B2 (en) 2010-03-05 2010-03-05 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5528162B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5911325B2 (en) * 2012-02-08 2016-04-27 三菱電機株式会社 Stereoscopic image processing apparatus and stereoscopic image display apparatus
CN108417171A (en) * 2017-02-10 2018-08-17 宏碁股份有限公司 Display device and its display parameters method of adjustment
CN111460864B (en) * 2019-01-22 2023-10-17 天津大学青岛海洋技术研究院 Animal disease detection method based on image recognition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2848291B2 (en) * 1995-08-24 1999-01-20 松下電器産業株式会社 3D TV device
JP2002223458A (en) * 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> Stereoscopic video image generator
JP2004104425A (en) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> Method, device and program for measuring parallax distribution
KR100667810B1 (en) * 2005-08-31 2007-01-11 삼성전자주식회사 Apparatus for controlling depth of 3d picture and method therefor
JP2008089410A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Three-dimensional information acquisition system, three-dimensional information acquisition method, and program

Also Published As

Publication number Publication date
JP2011188108A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
JP5522404B2 (en) Image processing method, image processing apparatus, and program
TWI508519B (en) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
EP1967016B1 (en) 3d image display method and apparatus
US8831338B2 (en) Image processor, image display apparatus, and image taking apparatus
JP2011035712A (en) Image processing device, image processing method and stereoscopic image display device
JP5545036B2 (en) Image processing apparatus, image processing method, and image display apparatus
JP2014045473A (en) Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method
JP5002702B2 (en) Parallax image generation device, stereoscopic video display device, and parallax image generation method
WO2012029371A1 (en) Three-dimensional image generating method, three-dimensional image generating apparatus, and display apparatus provided with same
TW201215096A (en) Image display device, image display viewing system and image display method
KR20120075829A (en) Apparatus and method for rendering subpixel adaptively
JP2011176541A (en) Three-dimensional video processing apparatus and method, and program thereof
US20130293533A1 (en) Image processing apparatus and image processing method
US20120229600A1 (en) Image display method and apparatus thereof
JP5528162B2 (en) Image processing apparatus and image processing method
JP5304758B2 (en) Multi-viewpoint image creation apparatus, multi-viewpoint image creation method, and multi-viewpoint image display system
Watanabe et al. A full-HD super-multiview display based on adaptive time-division multiplexing parallax barrier
KR101172507B1 (en) Apparatus and Method for Providing 3D Image Adjusted by Viewpoint
JP6017144B2 (en) Image processing apparatus and method, program, and recording medium
JP2018191191A (en) Stereoscopic video generation device
JP5402070B2 (en) Image presentation system, image processing apparatus, program, and image presentation method
JP2015149547A (en) Image processing method, image processing apparatus, and electronic apparatus
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
JP5911325B2 (en) Stereoscopic image processing apparatus and stereoscopic image display apparatus
JP2011223126A (en) Three-dimensional video display apparatus and three-dimensional video display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140415

R150 Certificate of patent or registration of utility model

Ref document number: 5528162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees