JP4852169B2 - Three-dimensional display device, method and program - Google Patents

Three-dimensional display device, method and program Download PDF

Info

Publication number
JP4852169B2
JP4852169B2 JP2010259886A JP2010259886A JP4852169B2 JP 4852169 B2 JP4852169 B2 JP 4852169B2 JP 2010259886 A JP2010259886 A JP 2010259886A JP 2010259886 A JP2010259886 A JP 2010259886A JP 4852169 B2 JP4852169 B2 JP 4852169B2
Authority
JP
Japan
Prior art keywords
dimensional
distance information
images
image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010259886A
Other languages
Japanese (ja)
Other versions
JP2011096263A (en
Inventor
英二 石山
宏一 矢作
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010259886A priority Critical patent/JP4852169B2/en
Publication of JP2011096263A publication Critical patent/JP2011096263A/en
Application granted granted Critical
Publication of JP4852169B2 publication Critical patent/JP4852169B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、複数の画像を立体視可能なように3次元表示する3次元表示装置および方法並びに3次元表示方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to a three-dimensional display device and method for three-dimensionally displaying a plurality of images so as to be stereoscopically viewed, and a program for causing a computer to execute the three-dimensional display method.

複数の画像を組み合わせて3次元表示することにより、視差を利用して立体視できることが知られている。このような立体視は、同一の被写体を異なる位置から複数のカメラを用いて撮影することにより複数の画像を取得し、複数の画像に含まれる被写体の視差を利用して複数の画像を3次元表示することにより行うことができる。   It is known that stereoscopic viewing can be performed using parallax by combining a plurality of images and displaying them three-dimensionally. In such a stereoscopic view, a plurality of images are acquired by photographing the same subject from different positions using a plurality of cameras, and the plurality of images are three-dimensionally obtained using the parallax of the subjects included in the plurality of images. This can be done by displaying.

具体的には、裸眼平行法により立体視を実現する方式の場合、複数の画像を並べて配置して3次元表示を行うことができる。また、複数の画像の色を例えば赤と青のように異ならせて重ね合わせたり、複数の画像の偏光方向を異ならせて重ね合わせることにより、複数の画像を合成して3次元表示を行うことができる。この場合赤青メガネや偏光メガネ等の画像分離メガネを用いて、3次元表示された画像を目の自動焦点機能により融合視することにより、立体視を行うことができる(アナグリフ方式、偏光フィルタ方式)。   Specifically, in the case of a method for realizing stereoscopic vision by the naked eye parallel method, a plurality of images can be arranged side by side to perform three-dimensional display. In addition, a plurality of images are overlapped with different colors such as red and blue, or a plurality of images are overlapped with different polarization directions, and a plurality of images are combined to perform three-dimensional display. Can do. In this case, stereoscopic viewing can be performed by using image separation glasses such as red-blue glasses and polarizing glasses to fuse the three-dimensionally displayed image with the auto-focus function of the eyes (an anaglyph method, a polarizing filter method). ).

また、偏光メガネ等を使用しなくても、パララックスバリア方式およびレンチキュラー方式のように、複数の画像を立体視可能な3次元表示モニタに表示して立体視することも可能である。この場合、複数の画像を垂直方向に短冊状に切り取って交互に配置することにより3次元表示が行われる。また、画像分離メガネを使用したり、光学素子を液晶に貼ることで左右の画像の光線方向を変えながら、左右の画像を交互に表示することにより、3次元表示を行う方式も提案されている(スキャンバックライト方式)。   Further, it is also possible to display a plurality of images on a three-dimensional display monitor that can be stereoscopically viewed and stereoscopically viewed without using polarized glasses or the like, as in the parallax barrier method and the lenticular method. In this case, three-dimensional display is performed by cutting a plurality of images into strips in the vertical direction and arranging them alternately. In addition, a method of performing three-dimensional display by alternately displaying the left and right images while changing the light beam direction of the left and right images by using image separation glasses or attaching an optical element to the liquid crystal has been proposed. (Scan backlight method).

また、上述したような3次元表示を行うための撮影を行う、複数の撮影部を有する複眼カメラが提案されている。このような複眼カメラは3次元表示モニタを備え、複数の撮影部が取得した画像から3次元表示用の3次元画像を生成し、生成した3次元画像を3次元表示モニタに3次元表示することができる。   In addition, a compound eye camera having a plurality of photographing units that performs photographing for performing the three-dimensional display as described above has been proposed. Such a compound eye camera is provided with a 3D display monitor, generates a 3D image for 3D display from images acquired by a plurality of imaging units, and displays the generated 3D image on the 3D display monitor. Can do.

また、このような複眼カメラにおいては、カメラの設定を行うためのメニュー、撮影時におけるF値およびシャッタ速度等の撮影条件、撮影枚数および撮影日時等の文字、手ぶれ防止、フラッシュのオン/オフおよび人物モード等を表すためのアイコン、並びに絵文字等のオブジェクトを表示する必要がある。撮影者はこのようなオブジェクトを確認することにより、撮影日時、撮影枚数および撮影時の撮影条件等を認識することができる。   Further, in such a compound eye camera, a menu for setting the camera, shooting conditions such as F value and shutter speed at the time of shooting, characters such as the number of shots and shooting date, camera shake prevention, flash on / off, It is necessary to display an icon for representing a person mode or the like and an object such as a pictograph. By confirming such an object, the photographer can recognize the shooting date and time, the number of shots, the shooting conditions at the time of shooting, and the like.

ここで、3次元表示中にこのようなオブジェクトを表示するに際し、複数の画像のそれぞれに、視差を有するようにオブジェクトを配置して3次元表示すれば、画像のみならずオブジェクトも立体視することができる。ここで、画像に表示されるオブジェクトに奥行き情報をあらかじめ付与しておき、指定したオブジェクトの奥行き情報を他のオブジェクトの奥行き情報と比較し、指定したオブジェクトが他のオブジェクトよりも手前に表示されるように、指定したオブジェクトの奥行き情報を変更する手法が提案されている(特許文献1参照)。また、2次元表示された複数のオブジェクトのうち、指定されたオブジェクトを3次元表示する際に、指定されたオブジェクトが他のオブジェクトと重ならないように、指定されたオブジェクトおよびこれと重なりそうなオブジェクトの位置、サイズおよび視差量を変更する手法が提案されている(特許文献2参照)。   Here, when displaying such an object during three-dimensional display, if the object is arranged so as to have parallax in each of a plurality of images and displayed three-dimensionally, not only the image but also the object is stereoscopically viewed. Can do. Here, depth information is given in advance to the object displayed in the image, the depth information of the specified object is compared with the depth information of the other object, and the specified object is displayed in front of the other object. As described above, a method for changing the depth information of a designated object has been proposed (see Patent Document 1). In addition, when a specified object is three-dimensionally displayed among a plurality of objects displayed two-dimensionally, the specified object and an object that is likely to overlap with the other object so that the specified object does not overlap with another object A method for changing the position, size, and amount of parallax has been proposed (see Patent Document 2).

特開2005−65162号公報JP-A-2005-65162 特開2005−122501号公報Japanese Patent Laid-Open No. 2005-122501

ところで、3次元表示された3次元画像にオブジェクトを表示する際には、オブジェクトがあらかじめ定められた立体感を有するように3次元表示される。しかしながら、3次元表示された3次元画像に含まれるある部分の立体感がオブジェクトの立体感より大きい場合、オブジェクトがその部分と重なるため、オブジェクトがその部分にめり込んでいるように見えることとなる。とくに、オブジェクトが文字のみからなるものであったり、オブジェクトの背景が半透明または透明のものである場合、オブジェクトが3次元画像のある部分と重なっていると、手前にある部分よりも奥にオブジェクトが存在するように見えるにも拘わらず、その部分が透けて見えるという非常に不自然な見え方となってしまう。   By the way, when an object is displayed on a three-dimensional image displayed three-dimensionally, the object is displayed three-dimensionally so as to have a predetermined stereoscopic effect. However, when the stereoscopic effect of a certain part included in the three-dimensional image displayed in three dimensions is larger than the stereoscopic effect of the object, the object overlaps with that part, so that the object appears to be embedded in that part. In particular, if the object consists only of characters, or the background of the object is translucent or transparent, if the object overlaps a certain part of the 3D image, the object is located behind the part in the foreground. Even though it appears to exist, it becomes a very unnatural way of seeing through that part.

ここで、特許文献1に記載された手法は、3次元画像とオブジェクトの両方にあらかじめ距離情報が付与されているため、3次元表示するための画像に距離情報が付与されていない場合には、オブジェクトの立体感をどう変更してよいか分からない。また、特許文献2に記載された手法は、画像に含まれる一部のオブジェクトを3次元表示する場合におけるオブジェクト同士の重なりを解消するものであり、画像全体が3次元表示される場合には適用できない。   Here, since the distance information is previously given to both the three-dimensional image and the object in the method described in Patent Document 1, when the distance information is not given to the image for three-dimensional display, I do not know how to change the three-dimensionality of the object. Further, the technique described in Patent Document 2 is to eliminate overlapping of objects when a part of objects included in an image is displayed in 3D, and is applied when the entire image is displayed in 3D. Can not.

本発明は上記事情に鑑みなされたものであり、3次元表示中にオブジェクトを表示するに際し、3次元画像とオブジェクトとが重なることによる違和感がないようにオブジェクトを表示することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to display an object so that there is no sense of incongruity due to the overlap of the 3D image and the object when the object is displayed during 3D display.

本発明による3次元表示装置は、被写体を異なる視点から見た、視差を有する複数の画像を取得する画像取得手段と、
前記複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を含む各種表示、すなわち前記3次元画像の3次元表示を少なくとも行う表示手段と、
前記3次元画像の距離情報を算出する距離情報算出手段とを備え、
前記3次元処理手段は、前記3次元表示時における前記オブジェクトと前記3次元画像との重なりを解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更する手段であることを特徴とするものである。
A three-dimensional display device according to the present invention includes an image acquisition unit that acquires a plurality of images having parallax when a subject is viewed from different viewpoints;
3D processing means for performing 3D processing for 3D display on the plurality of images and performing the 3D processing on an object displayed superimposed on the 3D image displayed in 3D ,
Various displays including a three-dimensional display of the three-dimensional image, that is, display means for performing at least a three-dimensional display of the three-dimensional image;
Distance information calculating means for calculating distance information of the three-dimensional image,
The three-dimensional processing means is configured to make the object relative to the three-dimensional image relative to the three-dimensional image based on the distance information so as to eliminate the overlap between the object and the three-dimensional image during the three-dimensional display. It is a means for changing the general position.

ここで、複数の画像に対する3次元処理とオブジェクトに対する3次元処理とは同時に行ってもよく、それぞれ別個に行うようにしてもよい。すなわち、複数の画像にオブジェクトを重ね合わせてから、複数の画像およびオブジェクトに対して同時に3次元処理を行ってもよく、複数の画像およびオブジェクトのそれぞれに対して別個に3次元処理を行った後に、3次元処理された画像にオブジェクトを重ね合わせるようにしてもよい。   Here, the three-dimensional processing for the plurality of images and the three-dimensional processing for the object may be performed simultaneously or separately. That is, after superimposing an object on a plurality of images, three-dimensional processing may be performed on the plurality of images and objects simultaneously, or after performing three-dimensional processing on each of the plurality of images and objects separately. An object may be overlaid on the three-dimensionally processed image.

「3次元空間上の位置」とは、3次元表示された画像を立体視した場合における奥行き方向の位置のみならず、奥行き方向に直交する2次元方向における位置をも含む。   The “position in the three-dimensional space” includes not only a position in the depth direction when a three-dimensionally displayed image is stereoscopically viewed, but also a position in a two-dimensional direction orthogonal to the depth direction.

なお、本発明による3次元表示装置においては、前記距離情報算出手段を、前記複数の画像のうちの基準となる基準画像において、前記オブジェクトが表示される基準領域内の各画素について、前記距離情報を算出する手段とし、
前記3次元処理手段を、前記基準領域内の距離情報に基づいて、前記3次元画像に対して手前側の位置に前記オブジェクトが3次元表示されるよう、前記オブジェクトの前記3次元画像に対する前記3次元空間上における奥行き方向の相対的な位置を変更する手段としてもよい。
In the three-dimensional display device according to the present invention, the distance information calculation unit may be configured to use the distance information for each pixel in a reference area where the object is displayed in a reference image serving as a reference among the plurality of images. As a means to calculate
The 3D processing unit is configured to display the 3D image of the object on the 3D image so that the object is displayed in 3D at a position on the near side of the 3D image based on distance information in the reference area. It is good also as a means to change the relative position of the depth direction on a dimensional space.

また、本発明による3次元撮影装置においては、前記距離情報算出手段を、前記複数の画像間における互いに対応する対応点の視差を前記距離情報として算出する手段としてもよい。   In the three-dimensional imaging apparatus according to the present invention, the distance information calculation unit may be a unit that calculates parallaxes of corresponding points corresponding to each other between the plurality of images as the distance information.

この場合、前記距離情報算出手段を、前記複数の画像における特徴部分を抽出し、該特徴部分から前記対応点の視差を算出する手段としてもよい。   In this case, the distance information calculation unit may be a unit that extracts a feature portion in the plurality of images and calculates a parallax of the corresponding point from the feature portion.

また、本発明による3次元撮影装置においては、前記複数の画像が撮影により取得されたものである場合において、前記距離情報算出手段を、前記複数の画像を取得した場合の撮影条件に基づいて、前記距離情報を算出する手段としてもよい。   Further, in the three-dimensional imaging apparatus according to the present invention, when the plurality of images are acquired by imaging, the distance information calculating unit is configured to acquire the plurality of images based on imaging conditions when the plurality of images are acquired. It may be a means for calculating the distance information.

また、本発明による3次元撮影装置においては、前記3次元処理手段を、前記基準領域内において算出された前記対応点の視差のうち、最大視差以上の視差を有するよう、前記オブジェクトに対して前記3次元処理を行う手段としてもよい。   In the three-dimensional imaging device according to the present invention, the three-dimensional processing unit may be configured to have the parallax with respect to the object such that the parallax of the corresponding points calculated in the reference region is greater than or equal to a maximum parallax. It is good also as a means to perform a three-dimensional process.

また、本発明による3次元撮影装置においては、前記3次元処理手段を、前記オブジェクトが所定の視差を有するように前記オブジェクトに対して前記3次元処理を行う場合、前記基準領域内において算出された前記対応点の視差のうち、最大視差が前記所定の視差以下の視差となるよう、前記複数の画像に対して前記3次元処理を行う手段としてもよい。   In the three-dimensional imaging apparatus according to the present invention, the three-dimensional processing unit is calculated in the reference region when the three-dimensional processing is performed on the object so that the object has a predetermined parallax. The three-dimensional processing may be performed on the plurality of images so that the maximum parallax among the parallaxes of the corresponding points is equal to or smaller than the predetermined parallax.

また、本発明による3次元撮影装置においては、前記3次元処理手段を、前記距離情報に基づいて、前記3次元画像との重なりを解消する位置に前記オブジェクトが表示されるよう、前記3次元空間における奥行き方向と直交する方向に前記オブジェクトの位置を変更する手段としてもよい。   In the three-dimensional imaging apparatus according to the present invention, the three-dimensional processing unit may be configured so that the object is displayed at a position where the overlap with the three-dimensional image is eliminated based on the distance information. It is good also as a means to change the position of the said object in the direction orthogonal to the depth direction.

また、本発明による3次元撮影装置においては、前記距離情報算出手段を、前記複数の画像間における互いに対応する対応点の視差を前記距離情報として算出する手段としてもよい。   In the three-dimensional imaging apparatus according to the present invention, the distance information calculation unit may be a unit that calculates parallaxes of corresponding points corresponding to each other between the plurality of images as the distance information.

この場合、前記距離情報算出手段を、前記複数の画像における特徴部分を抽出し、該特徴部分から前記対応点の視差を算出する手段としてもよい。   In this case, the distance information calculation unit may be a unit that extracts a feature portion in the plurality of images and calculates a parallax of the corresponding point from the feature portion.

また、本発明による3次元撮影装置においては、前記画像取得手段を、被写体を異なる視点から撮影することにより前記複数の画像を取得する複数の撮影手段としてもよい。   In the three-dimensional imaging apparatus according to the present invention, the image acquisition unit may be a plurality of imaging units that acquire the plurality of images by imaging a subject from different viewpoints.

また、本発明による3次元撮影装置においては、所定時間間隔にて、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段をさらに備えるようにしてもよい。   In the three-dimensional imaging apparatus according to the present invention, the distance information calculation means and the three-dimensional processing are performed so that the distance information is calculated and the plurality of images and the object are three-dimensionally processed at predetermined time intervals. Control means for controlling the means may be further provided.

また、本発明による3次元撮影装置においては、前記撮影手段の光学系が駆動された場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段をさらに備えるものとしてもよい。   In the three-dimensional imaging apparatus according to the present invention, when the optical system of the imaging unit is driven, the distance information is calculated so that the calculation of the distance information and the three-dimensional processing of the plurality of images and the object are performed. Control means for controlling the calculation means and the three-dimensional processing means may be further provided.

また、本発明による3次元撮影装置においては、所定時間間隔にて、前記被写体を撮影するよう前記撮影手段を制御する撮影制御手段と、
前記所定時間間隔にて、前記撮影手段が取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出する評価値算出手段とをさらに備えるものとし、
前記評価値が所定のしきい値を超えて変化した場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段をさらに備えるものとしてもよい。
In the three-dimensional imaging apparatus according to the present invention, an imaging control unit that controls the imaging unit to image the subject at predetermined time intervals;
Evaluation value calculation means for calculating an evaluation value including at least one evaluation value of luminance and high frequency components of the image acquired by the photographing means at the predetermined time interval;
The distance information calculating means and the three-dimensional processing means so as to perform the calculation of the distance information and the three-dimensional processing of the plurality of images and the object when the evaluation value changes beyond a predetermined threshold value. Control means for controlling the above may be further provided.

本発明による3次元撮影方法は、被写体を異なる視点から見た、視差を有する複数の画像を取得する画像取得手段と、
前記複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段とを備えた3次元表示装置における3次元表示方法であって、
前記3次元画像の距離情報を算出し、
前記3次元表示時における前記オブジェクトと前記3次元画像との重なりを解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更することを特徴とするものである。
The three-dimensional imaging method according to the present invention includes an image acquisition unit that acquires a plurality of images having parallax when the subject is viewed from different viewpoints;
3D processing means for performing 3D processing for 3D display on the plurality of images and performing the 3D processing on an object displayed superimposed on the 3D image displayed in 3D ,
A three-dimensional display method in a three-dimensional display device comprising display means for performing at least three-dimensional display of the three-dimensional image,
Calculating distance information of the three-dimensional image;
Changing the relative position of the object in the three-dimensional space with respect to the three-dimensional image based on the distance information so as to eliminate the overlap between the object and the three-dimensional image during the three-dimensional display. It is characterized by.

なお、本発明による3次元表示方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the three-dimensional display method by this invention.

本発明による他の3次元表示装置は、被写体を異なる視点から見た、視差を有する複数の画像を取得する画像取得手段と、
前記複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段と、
前記3次元画像の距離情報を算出する距離情報算出手段とを備え、
前記3次元処理手段は、前記3次元表示時における前記オブジェクトの一部または全部が、前記3次元画像に隠されるべき位置関係にある状態を解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更する手段であることを特徴とするものである。
Another three-dimensional display device according to the present invention includes: an image acquisition unit that acquires a plurality of images having parallax when the subject is viewed from different viewpoints;
3D processing means for performing 3D processing for 3D display on the plurality of images and performing the 3D processing on an object displayed superimposed on the 3D image displayed in 3D ,
Display means for performing at least three-dimensional display of the three-dimensional image;
Distance information calculating means for calculating distance information of the three-dimensional image,
Based on the distance information, the three-dimensional processing means is configured to eliminate the state where a part or all of the object at the time of the three-dimensional display is in a positional relationship to be hidden in the three-dimensional image. It is a means to change the relative position in the three-dimensional space with respect to the said three-dimensional image.

本発明によれば、3次元表示される3次元画像の距離情報を算出し、3次元表示時におけるオブジェクトと3次元画像との重なりを解消するように、算出した距離情報に基づいてオブジェクトの3次元画像に対する3次元空間上の相対的な位置を変更するようにしたものである。このため、3次元表示された3次元画像の距離情報が未知であっても、3次元画像と重ならないようにオブジェクトを3次元表示することができる。   According to the present invention, the distance information of the three-dimensional image displayed in three dimensions is calculated, and the object 3 is displayed based on the calculated distance information so as to eliminate the overlap between the object and the three-dimensional image at the time of three-dimensional display. The relative position on the three-dimensional space with respect to the three-dimensional image is changed. For this reason, even if the distance information of the three-dimensional image displayed three-dimensionally is unknown, the object can be three-dimensionally displayed so as not to overlap with the three-dimensional image.

また、複数の画像のうちの基準となる基準画像において、オブジェクトが表示される基準領域内の各画素について距離情報を算出し、基準領域内の距離情報に基づいて、3次元画像に対して手前側の位置にオブジェクトが3次元表示されるよう、オブジェクトの3次元画像に対する3次元空間上における奥行き方向の相対的な位置を変更することにより、3次元画像の手前側において3次元画像と重ならないようにオブジェクトを3次元表示することができる。   In addition, in the reference image serving as a reference among the plurality of images, distance information is calculated for each pixel in the reference region where the object is displayed, and the front side of the three-dimensional image is calculated based on the distance information in the reference region. By changing the relative position in the depth direction in the three-dimensional space with respect to the three-dimensional image of the object so that the object is three-dimensionally displayed at the side position, the three-dimensional image does not overlap with the front side of the three-dimensional image. Thus, the object can be displayed in three dimensions.

また、複数の画像間における互いに対応する対応点の視差を距離情報として算出することにより、複数の画像の対応点における距離を正確に算出することができる。   Also, by calculating the parallax of corresponding points corresponding to each other between a plurality of images as distance information, the distances at the corresponding points of the plurality of images can be accurately calculated.

この場合、複数の画像における特徴部分を抽出し、特徴部分から対応点の視差を算出することにより、少ない演算量にて距離情報を算出することができるため、処理時間を短縮することができる。   In this case, by extracting feature portions from a plurality of images and calculating the parallax of the corresponding points from the feature portions, the distance information can be calculated with a small amount of computation, so the processing time can be shortened.

また、複数の画像が撮影により取得されたものである場合において、複数の画像を取得した場合の撮影条件に基づいて距離情報を算出することにより、対応点に基づいて距離情報を算出する場合と比較して、少ない演算量にて距離情報を算出することができるため、処理時間を短縮することができる。   Further, in the case where a plurality of images are acquired by shooting, the distance information is calculated based on the corresponding points by calculating the distance information based on the shooting conditions when the plurality of images are acquired, and In comparison, the distance information can be calculated with a small amount of calculation, so that the processing time can be shortened.

また、距離情報に基づいて、3次元画像との重なりを解消する位置にオブジェクトが表示されるよう、3次元空間における奥行き方向と直交する方向にオブジェクトの位置を変更することにより、3次元画像およびオブジェクトの立体感を変更することなく、3次元画像と重ならないようにオブジェクトを表示することができる。   Further, based on the distance information, by changing the position of the object in a direction orthogonal to the depth direction in the three-dimensional space so that the object is displayed at a position where the overlap with the three-dimensional image is eliminated, the three-dimensional image and The object can be displayed without overlapping the three-dimensional image without changing the stereoscopic effect of the object.

また、所定時間間隔にて、距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行うことにより、撮影中の被写体が移動して3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにオブジェクトを表示することができる。   In addition, by calculating distance information and performing three-dimensional processing of a plurality of images and objects at a predetermined time interval, the stereoscopic effect of the three-dimensional image displayed in a three-dimensional manner is changed by moving the subject being photographed. Even in such a case, the object can be displayed so as not to overlap with the three-dimensional image.

また、撮影手段の光学系が駆動された場合に、距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行うことにより、ズームおよびフォーカス位置が変更することにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにオブジェクトを3次元表示することができる。   In addition, when the optical system of the photographing unit is driven, the distance information is calculated, and the three-dimensional processing of a plurality of images and objects is performed, so that the zoom and focus positions are changed, so that the three-dimensional display is performed. Even when the stereoscopic effect of the three-dimensional image is changed, the object can be three-dimensionally displayed so as not to overlap with the three-dimensional image.

また、所定時間間隔にて、撮影手段が取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出し、評価値が所定のしきい値を超えて変化した場合に、距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行うことにより、撮影する画像の明るさおよび/または焦点位置が変化することにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにオブジェクトを表示することができる。   In addition, when an evaluation value including at least one evaluation value of luminance and high-frequency component of the image acquired by the photographing unit is calculated at a predetermined time interval, and the evaluation value changes beyond a predetermined threshold, the distance By calculating information and performing three-dimensional processing of a plurality of images and objects, the brightness and / or focal position of the image to be captured changes, and the stereoscopic effect of the three-dimensional image displayed in three dimensions is changed. Even in such a case, the object can be displayed so as not to overlap with the three-dimensional image.

本発明の第1の実施形態による3次元表示装置を適用した複眼カメラの内部構成を示す概略ブロック図1 is a schematic block diagram showing an internal configuration of a compound eye camera to which a three-dimensional display device according to a first embodiment of the present invention is applied. 撮影部の構成を示す図Diagram showing the configuration of the shooting unit メニューに対する3次元処理を説明するための図(その1)Diagram for explaining 3D processing for menu (Part 1) 視差の算出を説明するための図Diagram for explaining the calculation of parallax 第1および第2の画像の例を示す図The figure which shows the example of the 1st and 2nd image 図5に示す画像の立体感を示す図The figure which shows the three-dimensional effect of the image shown in FIG. 図5に示す画像にメニューを表示した場合の立体感を示す図The figure which shows the three-dimensional effect at the time of displaying a menu on the image shown in FIG. 基準領域の配置を説明するための図Diagram for explaining the arrangement of the reference area 基準領域内の距離分布を示す図Diagram showing distance distribution in the reference area メニューに対する3次元処理を説明するための図(その2)Diagram for explaining 3D processing for menu (2) メニューの視差を大きくすることによる3次元処理を説明するための図The figure for demonstrating the three-dimensional process by enlarging the parallax of a menu 第1および第2の画像の視差を小さくすることによる3次元処理を説明するための図The figure for demonstrating the three-dimensional process by making the parallax of a 1st and 2nd image small 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. オブジェクトが表示された状態を示す図A diagram showing the state in which an object is displayed 基準領域内の画像からエッジが抽出された状態を示す図The figure which shows the state from which the edge was extracted from the image in a reference | standard area | region 基準領域内の画像から顔領域が抽出された状態を示す図The figure which shows the state from which the face area was extracted from the image in a reference | standard area | region 第2の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 2nd Embodiment. 第3の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 3rd Embodiment 第4の実施形態において算出した3次元画像上の距離分布を示す図The figure which shows the distance distribution on the three-dimensional image calculated in 4th Embodiment

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による3次元表示装置を適用した複眼カメラの内部構成を示す概略ブロック図である。図1に示すように第1の実施形態による複眼カメラ1は、2つの撮影部21A,21B、撮影制御部22、画像処理部23、圧縮/伸長処理部24、フレームメモリ25、メディア制御部26、内部メモリ27、および表示制御部28を備える。なお、撮影部21A,21Bは、所定の基線長および輻輳角を持って被写体を撮影可能なように配置されている。また、撮影部21A,21Bの垂直方向の位置は同一であるものとする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing an internal configuration of a compound eye camera to which a three-dimensional display device according to a first embodiment of the present invention is applied. As shown in FIG. 1, the compound-eye camera 1 according to the first embodiment includes two photographing units 21A and 21B, a photographing control unit 22, an image processing unit 23, a compression / decompression processing unit 24, a frame memory 25, and a media control unit 26. An internal memory 27 and a display control unit 28. The photographing units 21A and 21B are arranged so as to photograph a subject with a predetermined baseline length and convergence angle. The vertical positions of the photographing units 21A and 21B are the same.

図2は撮影部21A,21Bの構成を示す図である。図2に示すように、撮影部21A,21Bは、フォーカスレンズ10A,10B、ズームレンズ11A,11B、絞り12A,12B、シャッタ13A,13B、CCD14A,14B、アナログフロントエンド(AFE)15A,15BおよびA/D変換部16A,16Bをそれぞれ備える。また、撮影部21A,21Bは、フォーカスレンズ10A,10Bを駆動するフォーカスレンズ駆動部17A,17Bおよびズームレンズ11A,11Bを駆動するズームレンズ駆動部18A,18Bを備える。   FIG. 2 is a diagram illustrating the configuration of the photographing units 21A and 21B. As shown in FIG. 2, the photographing units 21A and 21B include focus lenses 10A and 10B, zoom lenses 11A and 11B, diaphragms 12A and 12B, shutters 13A and 13B, CCDs 14A and 14B, analog front ends (AFE) 15A and 15B, and A / D converters 16A and 16B are provided. The photographing units 21A and 21B include focus lens driving units 17A and 17B that drive the focus lenses 10A and 10B and zoom lens driving units 18A and 18B that drive the zoom lenses 11A and 11B.

フォーカスレンズ10A,10Bは被写体に焦点を合わせるためものであり、モータとモータドライバとからなるフォーカスレンズ駆動部17A,17Bによって光軸方向に移動可能である。フォーカスレンズ駆動部17A,17Bは、後述する撮影制御部22が行うAF処理により得られる合焦データに基づいてフォーカスレンズ10A,10Bの移動を制御する。   The focus lenses 10A and 10B are for focusing on a subject, and can be moved in the optical axis direction by focus lens driving units 17A and 17B including a motor and a motor driver. The focus lens driving units 17A and 17B control the movement of the focus lenses 10A and 10B based on focusing data obtained by AF processing performed by the imaging control unit 22 described later.

ズームレンズ11A,11Bは、ズーム機能を実現するためのものであり、モータとモータドライバとからなるズームレンズ駆動部18A,18Bによって光軸方向に移動可能である。ズームレンズ駆動部18A,18Bは入力部34に含まれるズームレバーを操作することによりCPU33において得られるズームデータに基づいて、ズームレンズ11A,11Bの移動を制御する。   The zoom lenses 11A and 11B are for realizing a zoom function, and can be moved in the optical axis direction by zoom lens driving units 18A and 18B including a motor and a motor driver. The zoom lens driving units 18A and 18B control the movement of the zoom lenses 11A and 11B based on the zoom data obtained by the CPU 33 by operating the zoom lever included in the input unit 34.

絞り12A,12Bは、撮影制御部22が行うAE処理により得られる絞り値データに基づいて、不図示の絞り駆動部により絞り径の調整が行われる。   The apertures 12A and 12B are adjusted in aperture diameter by an aperture drive unit (not shown) based on aperture value data obtained by AE processing performed by the imaging control unit 22.

シャッタ13A,13Bはメカニカルシャッタであり、不図示のシャッタ駆動部により、AE処理により得られるシャッタスピードに応じて駆動される。   The shutters 13A and 13B are mechanical shutters, and are driven by a shutter driving unit (not shown) according to the shutter speed obtained by the AE process.

CCD14A,14Bは、多数の受光素子を2次元的に配列した光電面を有しており、被写体光がこの光電面に結像して光電変換されてアナログ撮影信号が取得される。また、CCD14A,14Bの前面にはR,G,B各色のフィルタが規則的に配列されたカラーフィルタが配設されている。   The CCDs 14A and 14B have a photoelectric surface in which a large number of light receiving elements are two-dimensionally arranged, and subject light is imaged on the photoelectric surface and subjected to photoelectric conversion to obtain an analog photographing signal. In addition, color filters in which R, G, and B color filters are regularly arranged are arranged on the front surfaces of the CCDs 14A and 14B.

AFE15A,15Bは、CCD14A,14Bから出力されるアナログ撮影信号に対して、アナログ撮影信号のノイズを除去する処理、およびアナログ撮影信号のゲインを調節する処理(以下アナログ処理とする)を施す。   The AFEs 15A and 15B perform processing for removing noise of the analog photographing signal and processing for adjusting the gain of the analog photographing signal (hereinafter referred to as analog processing) for the analog photographing signals output from the CCDs 14A and 14B.

A/D変換部16A,16Bは、AFE15A,15Bによりアナログ処理が施されたアナログ撮影信号をデジタル信号に変換する。なお、撮影部21Aにより取得されるデジタルの画像データにより表される画像を第1の画像G1、撮影部21Bにより取得される画像データにより表される画像を第2の画像G2とする。   The A / D converters 16A and 16B convert the analog photographing signals subjected to the analog processing by the AFEs 15A and 15B into digital signals. Note that an image represented by digital image data acquired by the photographing unit 21A is a first image G1, and an image represented by image data acquired by the photographing unit 21B is a second image G2.

撮影制御部22は、不図示のAF処理部およびAE処理部からなる。AF処理部は入力部34に含まれるレリーズボタンの半押し操作により撮影部21A,21Bが取得したプレ画像に基づいて合焦領域を決定するとともにレンズ10A,10Bの焦点位置を決定し、撮影部21A,21Bに出力する。AE処理部は、プレ画像の明るさを輝度評価値として算出し、輝度評価値に基づいて絞り値とシャッタ速度とを決定し、撮影部21A,21Bに出力する。   The imaging control unit 22 includes an AF processing unit and an AE processing unit (not shown). The AF processing unit determines the focusing area based on the pre-images acquired by the imaging units 21A and 21B by half-pressing the release button included in the input unit 34, and determines the focal positions of the lenses 10A and 10B. Output to 21A and 21B. The AE processing unit calculates the brightness of the pre-image as the luminance evaluation value, determines the aperture value and the shutter speed based on the luminance evaluation value, and outputs them to the imaging units 21A and 21B.

ここで、AF処理による焦点位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するパッシブ方式が考えられる。より具体的には、プレ画像を複数のAF領域に分割し、各AF領域内の画像に対してハイパスフィルタによるフィルタリング処理を施して、AF領域毎に高周波成分の評価値であるAF評価値を算出し、最も評価が高い、すなわちフィルタによる出力値が最も高いAF領域を合焦領域として検出する。   Here, as a focus position detection method by AF processing, for example, a passive method that detects a focus position using a feature that the contrast of an image is high when a desired subject is in focus can be considered. . More specifically, the pre-image is divided into a plurality of AF areas, and the image in each AF area is subjected to a filtering process using a high-pass filter, and an AF evaluation value that is an evaluation value of a high-frequency component is obtained for each AF area. The AF area having the highest evaluation, that is, the highest output value from the filter is detected as the in-focus area.

また、撮影制御部22は、レリーズボタンの全押し操作により、撮影部21A,21Bに対して第1および第2の画像G1,G2の本画像を取得させる本撮影の指示を行う。なお、レリーズボタンが操作される前は、撮影制御部22は、撮影部21Aに対して撮影範囲を確認させるための、本画像よりも画素数が少ないスルー画像を、所定時間間隔(例えば1/30秒間隔)にて順次取得させる指示を行う。   In addition, the shooting control unit 22 instructs the shooting units 21A and 21B to perform main shooting for acquiring the main images of the first and second images G1 and G2 by fully pressing the release button. Before the release button is operated, the shooting control unit 22 displays a through image having a smaller number of pixels than the main image for causing the shooting unit 21A to check the shooting range at a predetermined time interval (for example, 1 / Instruct to sequentially obtain at intervals of 30 seconds).

画像処理部23は、撮影部21A,21Bが取得した第1および第2の画像G1,G2のデジタルの画像データに対して、ホワイトバランスを調整する処理、階調補正、シャープネス補正、および色補正等の画像処理を施す。なお、画像処理部23における処理後の第1および第2の画像についても、処理前の参照符号G1,G2を用いるものとする。   The image processing unit 23 adjusts white balance, gradation correction, sharpness correction, and color correction on the digital image data of the first and second images G1 and G2 acquired by the imaging units 21A and 21B. Etc. are applied. It should be noted that reference numerals G1 and G2 before processing are also used for the first and second images after processing in the image processing unit 23.

圧縮/伸長処理部24は、画像処理部23によって処理が施され、後述するように3次元表示のために第1および第2の画像G1,G2の本画像から生成された3次元表示用画像を表す画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、3次元表示を行うための3次元画像ファイルを生成する。この3次元画像ファイルは、第1および第2の画像G1,G2の画像データおよび3次元表示用画像の画像データを含むものとなる。また、この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付与される。   The compression / decompression processing unit 24 is processed by the image processing unit 23, and a three-dimensional display image generated from the main images of the first and second images G1 and G2 for three-dimensional display as will be described later. Is compressed in a compression format such as JPEG, and a three-dimensional image file for three-dimensional display is generated. The three-dimensional image file includes image data of the first and second images G1 and G2 and image data of a three-dimensional display image. In addition, a tag in which incidental information such as shooting date and time is stored is assigned to the image file based on the Exif format or the like.

フレームメモリ25は、撮影部21A,21Bが取得した第1および第2の画像G1,G2を表す画像データに対して、前述の画像処理部23が行う処理を含む各種処理を行う際に使用する作業用メモリである。   The frame memory 25 is used when various processes including the process performed by the image processing unit 23 described above are performed on the image data representing the first and second images G1 and G2 acquired by the imaging units 21A and 21B. This is a working memory.

メディア制御部26は、記録メディア29にアクセスして3次元画像ファイル等の書き込みと読み込みの制御を行う。   The media control unit 26 accesses the recording medium 29 and controls writing and reading of a 3D image file or the like.

内部メモリ27は、撮影部21A,21Bの基線長および輻輳角、複眼カメラ1において設定される各種定数、並びにCPU33が実行するプログラム等を記憶する。また、後述するようにメニューを3次元表示する際に、第1の画像G1にメニューを配置するための基準領域の位置の情報、およびメニューに与える視差D0の情報も記憶する。なお、視差D0はあらかじめ所定の値に設定されている。   The internal memory 27 stores baseline lengths and convergence angles of the imaging units 21A and 21B, various constants set in the compound-eye camera 1, a program executed by the CPU 33, and the like. Further, as will be described later, when the menu is three-dimensionally displayed, information on the position of the reference region for arranging the menu in the first image G1 and information on the parallax D0 given to the menu are also stored. Note that the parallax D0 is set to a predetermined value in advance.

表示制御部28は、撮影時においてフレームメモリ25に格納された第1および第2の画像G1,G2をモニタ20に2次元表示させたり、記録メディア29に記録されている第1および第2の画像G1,G2をモニタ20に2次元表示させたりする。また、表示制御部28は、後述するように3次元処理が行われた第1および第2の画像G1,G2をモニタ20に3次元表示したり、記録メディア29に記録されている3次元画像をモニタ20に3次元表示することも可能である。なお、2次元表示と3次元表示との切り替えは自動で行ってもよく、後述する入力部34を用いての撮影者からの指示により行ってもよい。ここで、3次元表示が行われている場合、レリーズボタンが押下されるまでは、第1および第2の画像G1,G2のスルー画像がモニタ20に3次元表示される。   The display control unit 28 two-dimensionally displays the first and second images G1 and G2 stored in the frame memory 25 at the time of shooting on the monitor 20 or the first and second images recorded on the recording medium 29. The images G1 and G2 are displayed two-dimensionally on the monitor 20. In addition, the display control unit 28 displays the first and second images G1 and G2 that have been subjected to the three-dimensional processing as described later on the monitor 20 in a three-dimensional manner or the three-dimensional image recorded in the recording medium 29. Can also be displayed three-dimensionally on the monitor 20. Note that switching between the two-dimensional display and the three-dimensional display may be automatically performed, or may be performed by an instruction from the photographer using the input unit 34 described later. Here, when the three-dimensional display is performed, the through images of the first and second images G1 and G2 are three-dimensionally displayed on the monitor 20 until the release button is pressed.

なお、表示モードが3次元表示に切り替えられた場合には、後述するように第1および第2の画像G1,G2の双方が表示に用いられ、2次元表示に切り替えられた場合は第1および第2の画像G1,G2のいずれか一方が表示に用いられる。本実施形態においては、第1の画像G1を2次元表示に用いるものとする。   When the display mode is switched to the three-dimensional display, both the first and second images G1 and G2 are used for display as described later, and when the display mode is switched to the two-dimensional display, the first and second images are used. One of the second images G1 and G2 is used for display. In the present embodiment, the first image G1 is used for two-dimensional display.

また、本実施形態による複眼カメラ1は3次元処理部30を備える。3次元処理部30は、第1および第2の画像G1,G2をモニタ20に3次元表示させるために、第1および第2の画像G1,G2に3次元処理を行う。ここで、本実施形態における3次元表示としては、公知の任意の方式を用いることができる。例えば、第1および第2の画像G1,G2を並べて表示して裸眼平行法により立体視を行う方式、またはモニタ20にレンチキュラーレンズを貼り付け、モニタ20の表示面の所定位置に画像G1,G2を表示することにより、左右の目に第1および第2の画像G1,G2を入射させて3次元表示を実現するレンチキュラー方式を用いることができる。さらに、モニタ20のバックライトの光路を光学的に左右の目に対応するように交互に分離し、モニタ20の表示面に第1および第2の画像G1,G2をバックライトの左右への分離にあわせて交互に表示することにより、3次元表示を実現するスキャンバックライト方式等を用いることができる。   Further, the compound eye camera 1 according to the present embodiment includes a three-dimensional processing unit 30. The three-dimensional processing unit 30 performs three-dimensional processing on the first and second images G1 and G2 in order to display the first and second images G1 and G2 on the monitor 20 in three dimensions. Here, as the three-dimensional display in the present embodiment, any known method can be used. For example, the first and second images G1, G2 are displayed side by side and stereoscopically viewed by the naked eye parallel method, or a lenticular lens is attached to the monitor 20, and the images G1, G2 are placed at predetermined positions on the display surface of the monitor 20. By displaying the lenticular method, it is possible to use a lenticular method in which the first and second images G1 and G2 are incident on the left and right eyes to realize three-dimensional display. Further, the optical path of the backlight of the monitor 20 is optically separated so as to correspond to the left and right eyes, and the first and second images G1 and G2 are separated on the display surface of the monitor 20 to the left and right of the backlight. By alternately displaying in accordance with the above, it is possible to use a scan backlight system that realizes three-dimensional display.

なお、モニタ20は3次元処理部30が行う3次元処理の方式に応じた加工がなされている。例えば、3次元表示の方式がレンチキュラー方式の場合には、モニタ20の表示面にレンチキュラーレンズが取り付けられており、スキャンバックライト方式の場合には、左右の画像の光線方向を変えるための光学素子がモニタ20の表示面に取り付けられている。   The monitor 20 is processed according to the method of three-dimensional processing performed by the three-dimensional processing unit 30. For example, when the three-dimensional display method is the lenticular method, a lenticular lens is attached to the display surface of the monitor 20, and when the scan backlight method is used, an optical element for changing the light beam direction of the left and right images. Is attached to the display surface of the monitor 20.

また、3次元処理部30は、複眼カメラ1に対して各種指示を行うためのメニューをモニタ20に3次元表示するための3次元処理を行う。図3はメニューに対する3次元処理を説明するための図である。なお、ここでは、説明のため第1および第2の画像G1,G2の内容は省略している。図3に示すように、3次元処理部30は、第1および第2の画像G1,G2のそれぞれに対して、メニューM1およびメニューM2を視差D0を有するように重ねて3次元処理を行う。これにより、第1および第2の画像G1,G2およびメニューM1,M2の双方を3次元表示することができる。ここで、視差D0は、メニューが所望とする立体感となるようにするためにあらかじめ定められた値に設定されているが、第1および第2の画像G1,G2上のメニューM1,M2を表示する領域における立体感に応じて変更される。この変更の処理については後述する。   The three-dimensional processing unit 30 performs a three-dimensional process for three-dimensionally displaying a menu for giving various instructions to the compound eye camera 1 on the monitor 20. FIG. 3 is a diagram for explaining a three-dimensional process for a menu. Here, the contents of the first and second images G1 and G2 are omitted for explanation. As illustrated in FIG. 3, the three-dimensional processing unit 30 performs a three-dimensional process on the first and second images G1 and G2 by overlapping the menu M1 and the menu M2 so as to have the parallax D0. Thereby, both the first and second images G1, G2 and the menus M1, M2 can be displayed three-dimensionally. Here, the parallax D0 is set to a predetermined value so that the menu has a desired stereoscopic effect, but the menus M1 and M2 on the first and second images G1 and G2 are displayed. It is changed according to the stereoscopic effect in the display area. This change process will be described later.

また、本実施形態による複眼カメラ1は、距離情報算出部31を備える。距離情報算出部31は、第1の画像G1上のメニューM1を配置する基準領域B1内の各画素について、第2の画像G2との対応点を求め、対応点間の視差を各画素の距離情報として算出する。図4は視差の算出を説明するための図である。図4に示すように第1の画像G1において左下隅を原点とした座標系を設定した場合、基準領域B1はx方向においてx0〜x1の範囲に存在する。距離情報算出部31は、基準領域B1内の各画素について、第2の画像G2上において設定した探索範囲S0内においてブロックマッチングを行うことにより対応点を求める。なお、あらかじめ許容する視差の最大値をRmax、許容する視差の最小値をRminとすると、探索範囲S0のx方向の範囲は、第2の画像G2上におけるx0−Rmax〜x1−Rminの範囲となる。また、図4においては許容する視差の最小値を0としている。   In addition, the compound eye camera 1 according to the present embodiment includes a distance information calculation unit 31. The distance information calculation unit 31 obtains a corresponding point with the second image G2 for each pixel in the reference region B1 in which the menu M1 on the first image G1 is arranged, and calculates the parallax between the corresponding points as the distance between the pixels. Calculate as information. FIG. 4 is a diagram for explaining the parallax calculation. As shown in FIG. 4, when a coordinate system with the lower left corner as the origin is set in the first image G1, the reference region B1 exists in the range of x0 to x1 in the x direction. The distance information calculation unit 31 obtains corresponding points for each pixel in the reference area B1 by performing block matching within the search range S0 set on the second image G2. If the maximum allowable parallax value is Rmax and the minimum allowable parallax value is Rmin, the x-direction range of the search range S0 is the range of x0-Rmax to x1-Rmin on the second image G2. Become. In FIG. 4, the minimum allowable parallax value is 0.

ここで、撮影部21A,21Bの垂直方向の位置は同一であるため、距離情報算出部31は、基準領域B1内の各画素について、各画素を中心とした所定サイズのブロックを設定し、探索範囲S0内においてブロックを許容される視差の範囲でx方向にのみ移動しながら相関値を算出し、最も大きい相関となる相関値を得た探索範囲S0上の画素を、対象の画素の対応点として求めるようブロックマッチングを行うものである。   Here, since the vertical positions of the photographing units 21A and 21B are the same, the distance information calculation unit 31 sets a block of a predetermined size centered on each pixel for each pixel in the reference region B1, and searches for it. The correlation value is calculated while moving the block only in the x direction within the allowable parallax range within the range S0, and the pixel on the search range S0 that has obtained the correlation value having the largest correlation is determined as the corresponding point of the target pixel. Block matching is performed as follows.

なお、相関は下記の式(1)により算出すればよい。なお、式(1)において、dは許容される視差であり、視差dをRmin〜Rmaxの範囲で変更しつつ、基準領域B1および探索範囲S0内の画素(x,y)を中心とするサイズがw×wのブロックを用いて、差の絶対値を算出することによるブロックマッチングを行って相関値SADを算出するものである。ここで、式(1)を用いた場合、相関値SADが最小となるdが、画素(x,y)についての視差となる。   The correlation may be calculated by the following equation (1). In Expression (1), d is an allowable parallax, and the size centered on the pixel (x, y) in the reference area B1 and the search range S0 while changing the parallax d in the range of Rmin to Rmax. The correlation value SAD is calculated by performing block matching by calculating the absolute value of the difference using a block of w × w. Here, when Expression (1) is used, d that minimizes the correlation value SAD is the parallax for the pixel (x, y).

なお、下記の式(2)により、差の二乗による相関値SSDを算出してもよい。ここで、式(2)を用いた場合、相関値SSDが最小となるdが、画素(x,y)についての視差となる。また、下記の式(3)により相関値CORを算出してもよい。ここで、式(3)により相関値CORを算出した場合、相関値CORが最大となるdが、画素(x,y)についての視差となる。

Figure 0004852169
Note that the correlation value SSD by the square of the difference may be calculated by the following equation (2). Here, when Expression (2) is used, d that minimizes the correlation value SSD is the parallax for the pixel (x, y). Further, the correlation value COR may be calculated by the following equation (3). Here, when the correlation value COR is calculated by the expression (3), d that maximizes the correlation value COR is the parallax for the pixel (x, y).
Figure 0004852169

ここで、第1および第2の画像G1,G2が図5に示すように山を背景として、互いに前後する位置にいる二人の人物P1,P2を含む画像であるとすると、第1および第2の画像G1,G2を3次元表示した場合の山、人物P1および人物P2の奥行き方向(すなわちz方向)の位置関係は、図6に示すように、人物P2が最も手前にあり、背景である山と人物P2との間に人物P1が存在するものとなる。なお、図6および以降の説明において、3次元表示した場合の3次元空間におけるz方向の原点は、例えば撮影部21A,21BのCCD14A,14Bの撮像面の位置とする。   Here, assuming that the first and second images G1 and G2 are images including two persons P1 and P2 that are in front of and behind each other with a mountain as a background, as shown in FIG. When the two images G1 and G2 are three-dimensionally displayed, the positional relationship between the mountains, the person P1, and the person P2 in the depth direction (that is, the z direction) is as follows. The person P1 exists between a certain mountain and the person P2. In FIG. 6 and the following description, the origin in the z direction in the three-dimensional space when three-dimensional display is performed is, for example, the position of the imaging surface of the CCDs 14A and 14B of the photographing units 21A and 21B.

このような第1および第2の画像G1,G2に、図3に示すようにメニューM1,M2を重ねて3次元表示した場合、3次元表示されたメニューが奥行き方向においてz0の位置に表示されるようにメニューM1,M2の視差D0が設定されているとすると、立体視を行った場合に図7に示すように人物P1,P2の間にメニューが存在することとなる。この場合、とくにメニューM0が半透明または透明の背景を有するものであったり、文字のみからなるもの(すなわち文字のフォントにのみ画素値を有し、それ以外には画素値を有さないもの)であると、手前側に見える人物P2よりもメニューM0が奥側に見えるにも拘わらず、メニューM0が人物P2から透けて見えるという非常に不自然な見え方となってしまう。   When the menus M1 and M2 are overlaid on the first and second images G1 and G2 as shown in FIG. 3 and displayed three-dimensionally, the three-dimensional menu is displayed at the position z0 in the depth direction. Assuming that the parallax D0 of the menus M1 and M2 is set, the menu exists between the persons P1 and P2 as shown in FIG. In this case, in particular, the menu M0 has a semi-transparent or transparent background, or consists only of characters (that is, only has a pixel value in the font of the character, and has no pixel value in the others). If this is the case, the menu M0 can be seen through the person P2 even though the menu M0 is visible behind the person P2 that appears on the front side.

ここで、上述したように距離情報算出部31は、基準領域B1における各画素における視差を距離情報として算出するものである。このため、算出した視差を用いることにより、図8に示すように第1の画像G1の基準領域B1にメニューM1が配置される場合、図9に示すように基準領域B1内の視差分布、すなわち距離分布を求めることができる。なお、図9は背景となる山が奥側にあり、人物P1,P2の順で立体感が大きくなっている。また、図9はy軸に直交するあるxz平面での距離分布を示している。   Here, as described above, the distance information calculation unit 31 calculates the parallax at each pixel in the reference region B1 as the distance information. Therefore, by using the calculated parallax, when the menu M1 is arranged in the reference area B1 of the first image G1 as shown in FIG. 8, the parallax distribution in the reference area B1 as shown in FIG. Distance distribution can be obtained. In FIG. 9, the background mountain is on the back side, and the stereoscopic effect increases in the order of the persons P1 and P2. FIG. 9 shows a distance distribution in a certain xz plane orthogonal to the y-axis.

このため、3次元処理部30は、距離情報算出部31が算出した距離情報に基づいて、基準領域B1内の画素の距離分布を求め、距離分布における最も立体感が大きい画素について算出した視差よりも大きい視差を有するように、メニューM1,M2の3次元処理を行う。なお、図9に示すように距離分布が求められた場合、最も大きい立体感を有する画素は、人物P2における点O1に対応する画素となる。ここで、基準領域B1内の画素について算出した視差のうち、点O1における視差が最も大きくなる。したがって、点O1における視差を最大視差Dmaxとすると、3次元処理部30は、図10に示すように、メニューM1,M2が点O1に対応する最大視差Dmaxよりも、大きい視差Dbを有するように、メニューM1,M2を第1および第2の画像G1,G2に重ねて配置する3次元処理を行う。なお、視差Dbは最大視差Dmaxにあらかじめ定められた値を加算することにより算出する。また、Db=Dmaxとなるようにしてもよい。このようにメニューM1,M2に対して3次元処理を行うことにより、第1および第2の画像G1,G2およびメニューM1,M2を3次元表示した場合、図11に示すように奥行き方向においてz0の位置よりも手前、さらには最も手前に見える人物P2の手前の位置z1にメニューM0が立体視されることとなる。   Therefore, the three-dimensional processing unit 30 obtains the distance distribution of the pixels in the reference area B1 based on the distance information calculated by the distance information calculation unit 31, and uses the parallax calculated for the pixel having the largest stereoscopic effect in the distance distribution. 3D processing of the menus M1 and M2 is performed so as to have a large parallax. When the distance distribution is obtained as shown in FIG. 9, the pixel having the largest stereoscopic effect is the pixel corresponding to the point O1 in the person P2. Here, among the parallaxes calculated for the pixels in the reference region B1, the parallax at the point O1 is the largest. Therefore, assuming that the parallax at the point O1 is the maximum parallax Dmax, the three-dimensional processing unit 30 causes the menus M1 and M2 to have a larger parallax Db than the maximum parallax Dmax corresponding to the point O1, as shown in FIG. Then, a three-dimensional process is performed in which the menus M1 and M2 are arranged so as to overlap the first and second images G1 and G2. The parallax Db is calculated by adding a predetermined value to the maximum parallax Dmax. Further, Db = Dmax may be satisfied. When the first and second images G1 and G2 and the menus M1 and M2 are displayed three-dimensionally by performing the three-dimensional processing on the menus M1 and M2 as described above, z0 in the depth direction as shown in FIG. The menu M0 is stereoscopically viewed at a position z1 in front of the position P1 and in front of the person P2 that is most visible.

なお、メニューM1,M2の視差を変更するのみならず、第1および第2の画像G1,G2の視差を変更することにより、3次元表示時において人物P2よりもメニューM0が手前に立体視されるようにすることも可能である。ここで、第1および第2の画像G1,G2の視差を小さくすれば3次元画像の立体感が小さくなる。このため、メニューM1,M2についてはあらかじめ定められた視差D0を変更することなく、人物P2における点O1に対応する画素の最大視差Dmaxが、D0よりもあらかじめ定められた値分小さい視差となるように、第1および第2の画像G1,G2の全体の視差を小さくした3次元処理を行うようにすればよい。なお、Dmax=D0となるようにしてもよい。これにより、図12に示すように、3次元表示時においてメニューM0が表示されている位置z0よりも人物P2が後側に立体視されるようにすることができる。なお、視差を小さくする3次元処理は、第1および第2の画像G1,G2の水平方向の位置をずらすことによるものであってもよく、第1および第2の画像G1,G2をモーフィングにより加工することによるものであってもよい。   Note that not only the parallax of the menus M1 and M2 but also the parallax of the first and second images G1 and G2 are changed so that the menu M0 is stereoscopically viewed in front of the person P2 during three-dimensional display. It is also possible to do so. Here, if the parallax between the first and second images G1, G2 is reduced, the stereoscopic effect of the three-dimensional image is reduced. For this reason, without changing the predetermined parallax D0 for the menus M1 and M2, the maximum parallax Dmax of the pixel corresponding to the point O1 in the person P2 is a parallax smaller by a predetermined value than D0. In addition, a three-dimensional process in which the overall parallax of the first and second images G1 and G2 is reduced may be performed. Note that Dmax = D0 may be satisfied. Accordingly, as shown in FIG. 12, the person P2 can be stereoscopically viewed rearward from the position z0 where the menu M0 is displayed during the three-dimensional display. Note that the three-dimensional processing for reducing the parallax may be performed by shifting the horizontal positions of the first and second images G1 and G2, and the first and second images G1 and G2 are obtained by morphing. It may be by processing.

また、メニューM1,M2の視差および第1および第2の画像G1,G2の視差の双方を変更することにより、3次元表示時においてメニューM0よりも人物P2が後側に立体視されるようにすることも可能である。   Further, by changing both the parallax of the menus M1 and M2 and the parallax of the first and second images G1 and G2, the person P2 is stereoscopically viewed rearward from the menu M0 during the three-dimensional display. It is also possible to do.

CPU33は、レリーズボタン等を含む入力部34からの信号に応じて複眼カメラ1の各部を制御する。   The CPU 33 controls each part of the compound eye camera 1 according to a signal from the input part 34 including a release button and the like.

データバス35は、複眼カメラ1を構成する各部およびCPU33に接続されており、複眼カメラ1における各種データおよび各種情報のやり取りを行う。   The data bus 35 is connected to each part constituting the compound eye camera 1 and the CPU 33, and exchanges various data and various information in the compound eye camera 1.

なお、被写体の撮影時においては、被写体が移動したり複眼カメラ1を移動して撮影位置を変更することがあるため、被写体の距離感は常時変化する。このため、本実施形態においては、あらかじめ定められた所定時間間隔にて、メニューM0の立体感を変更する処理を行うものとする。このため、CPU33にはタイマー36が接続されている。   Note that when photographing a subject, the subject may move or the compound eye camera 1 may be moved to change the photographing position, so the sense of distance of the subject always changes. For this reason, in this embodiment, the process which changes the three-dimensional effect of the menu M0 shall be performed at predetermined time intervals. For this reason, a timer 36 is connected to the CPU 33.

次いで、第1の実施形態において行われる処理について説明する。図13は第1の実施形態において行われる処理を示すフローチャートである。なお、複眼カメラ1のモニタ20には、撮影部21A,21Bが取得した第1および第2の画像G1,G2に3次元処理部30が3次元処理を行うことにより、第1および第2の画像G1,G2のスルー画像が3次元表示されているものとする。また、本発明はメニューを表示する場合における処理に特徴を有するため、以降はスルー画像表示中におけるメニュー表示の指示が行われた場合の処理についてのみ説明する。   Next, processing performed in the first embodiment will be described. FIG. 13 is a flowchart showing processing performed in the first embodiment. Note that the monitor 20 of the compound eye camera 1 has the first and second images obtained by the three-dimensional processing unit 30 performing three-dimensional processing on the first and second images G1 and G2 acquired by the photographing units 21A and 21B. It is assumed that the through images of the images G1 and G2 are displayed three-dimensionally. In addition, since the present invention has a feature in processing when displaying a menu, only processing when an instruction to display a menu during through image display will be described.

CPU33は撮影者によりメニュー表示の指示がなされたか否かを監視しており(ステップST1)、ステップST1が肯定されると、第1の画像G1におけるメニューM1を表示する基準位置B1および現在の視差Drの情報を取得する(ステップST2)。なお、現在の視差Drの初期値はD0である。そして、距離情報算出部31が、第1の画像G1に基準領域B1を設定し(ステップST3)、基準領域B1内の各画素の視差を距離情報として算出する(ステップST4)。   The CPU 33 monitors whether or not an instruction for menu display has been given by the photographer (step ST1). If step ST1 is affirmed, the reference position B1 for displaying the menu M1 in the first image G1 and the current parallax are displayed. Information on Dr is acquired (step ST2). Note that the initial value of the current parallax Dr is D0. Then, the distance information calculation unit 31 sets the reference area B1 in the first image G1 (step ST3), and calculates the parallax of each pixel in the reference area B1 as distance information (step ST4).

次いで、3次元処理部30が、算出した距離情報の視差のうち、最も立体感が大きい部分の視差に対応する最大視差Dmaxを取得し(ステップST5)、最大視差DmaxがメニューM1,M2の現在の視差Drよりも大きいか否かを判定する(ステップST6)。ステップST6が肯定されると、3次元処理部30は、メニューM1,M2の現在の視差Drを最大視差Dmaxよりも大きい視差Dbに変更し(ステップST7)、視差Dbを有するようにメニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置し(ステップST8)、第1および第2の画像G1,G2並びにメニューM1,M2に対して3次元処理を行う(ステップST9)。そして表示制御部28が、メニューM0が重畳された3次元画像をモニタ20に3次元表示する(ステップST10)。なお、ステップST6が否定されると、ステップST8の処理に進み、現在の視差Drを有するように、メニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置して3次元処理を行う。   Next, the three-dimensional processing unit 30 acquires the maximum parallax Dmax corresponding to the parallax with the largest stereoscopic effect among the calculated parallaxes of the distance information (step ST5), and the maximum parallax Dmax is the current of the menus M1 and M2. It is determined whether it is larger than the parallax Dr (step ST6). When step ST6 is affirmed, the three-dimensional processing unit 30 changes the current parallax Dr of the menus M1 and M2 to the parallax Db larger than the maximum parallax Dmax (step ST7), and the menu M1, M1 so as to have the parallax Db. M2 is arranged on each of the first and second images G1 and G2 (step ST8), and three-dimensional processing is performed on the first and second images G1 and G2 and the menus M1 and M2 (step ST9). Then, the display control unit 28 three-dimensionally displays the three-dimensional image on which the menu M0 is superimposed on the monitor 20 (step ST10). If step ST6 is negative, the process proceeds to step ST8, where the menus M1 and M2 are arranged in the first and second images G1 and G2, respectively, so as to have the current parallax Dr. Do.

次いで、CPU33がタイマー36によるカウントを開始し、3次元表示を行ってから所定時間経過したか否かの監視を開始する(ステップST11)。ステップST11が肯定されるとステップST2に戻り、ステップST2以降の処理を繰り返す。   Next, the CPU 33 starts counting by the timer 36 and starts monitoring whether or not a predetermined time has elapsed since the three-dimensional display was performed (step ST11). If step ST11 is affirmed, the process returns to step ST2, and the processes after step ST2 are repeated.

このように、本実施形態においては、基準領域B1内の各画素の距離情報を算出し、基準領域内の距離情報に基づいて、第1および第2の画像G1,G2の3次元画像に対して手前側の位置にメニューM0が表示されるよう、メニューM0の3次元画像に対する3次元空間上における奥行き方向の相対的な位置を変更するようにしたため、3次元画像の手前側において3次元画像と重ならないようにメニューM0を3次元表示することができる。   As described above, in the present embodiment, the distance information of each pixel in the reference region B1 is calculated, and the three-dimensional images of the first and second images G1 and G2 are calculated based on the distance information in the reference region. The relative position in the depth direction in the three-dimensional space with respect to the three-dimensional image of the menu M0 is changed so that the menu M0 is displayed at the front side position. The menu M0 can be displayed three-dimensionally so as not to overlap.

また、所定時間間隔にて、距離情報の算出、並びに第1、第2の画像およびメニューM1,M2の3次元処理を行うようにしたため、メニューM0を表示して、メニューM0の内容を選択している間に撮影中の被写体が移動したり、撮影位置を移動したりすることにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにメニューM0を3次元表示することができる。   In addition, since the calculation of distance information and the three-dimensional processing of the first and second images and the menus M1 and M2 are performed at predetermined time intervals, the menu M0 is displayed and the contents of the menu M0 are selected. Even if the stereoscopic effect of the three-dimensional image displayed in three dimensions is changed by moving the subject being photographed or moving the photographing position while the image is being photographed, it does not overlap with the three-dimensional image. Thus, the menu M0 can be displayed three-dimensionally.

ここで、撮影時においては、図14に示すようにフラッシュの発光を示すアイコン、今までの撮影枚数、F値およびシャッタ速度、並びに撮影日を表す文字等のメニュー以外のオブジェクトが常時表示されるが、このようなオブジェクトについても3次元処理を行って3次元表示することが可能である。本実施形態においては、所定時間間隔にて、距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行っているため、撮影中の被写体が移動したり、撮影位置を移動したりすることにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにオブジェクトを3次元表示することができる。   Here, at the time of shooting, as shown in FIG. 14, icons other than the menu such as the icon indicating flash emission, the number of shots taken so far, the F value and the shutter speed, and characters indicating the shooting date are always displayed. However, such an object can also be displayed three-dimensionally by performing a three-dimensional process. In the present embodiment, the calculation of distance information and the three-dimensional processing of a plurality of images and objects are performed at predetermined time intervals, so that the subject being shot moves or the shooting position moves. Thus, even when the stereoscopic effect of the three-dimensional image displayed in three dimensions is changed, the object can be three-dimensionally displayed so as not to overlap with the three-dimensional image.

なお、上記第1の実施形態においては、基準領域B1内のすべての画素について視差を算出しているが、基準領域B1内の画像における特徴部分を抽出し、特徴部分に対応する画素についてのみ視差を算出するようにしてもよい。ここで、特徴部分としては、画像に含まれるエッジ、あらかじめ定められた顔等の特定被写体を用いることができる。   In the first embodiment, the parallax is calculated for all the pixels in the reference area B1, but the feature part in the image in the reference area B1 is extracted, and the parallax is obtained only for the pixel corresponding to the feature part. May be calculated. Here, as the characteristic part, a specific subject such as an edge or a predetermined face included in the image can be used.

図15は基準領域内の画像からエッジが抽出された状態を示す図、図16は基準領域内の画像から顔領域が抽出された状態を示す図である。なお、図15においては抽出されたエッジを太線で示している。図15に示すように、基準領域B1内のエッジに対応する画素数は、基準領域B1内のすべての画素数よりも少ない。また、図16に示すように、基準領域B1内の矩形で囲んだ顔領域内の画素数も、基準領域B1内のすべての画素数よりも少ない。したがって、基準領域B1内の画像における特徴部分を抽出し、特徴部分に対応する画素についてのみ視差を算出することにより、演算量を低減することができるため、処理の高速化を図ることができる。   FIG. 15 is a diagram illustrating a state in which an edge is extracted from an image in the reference region, and FIG. 16 is a diagram illustrating a state in which a face region is extracted from an image in the reference region. In FIG. 15, the extracted edge is indicated by a thick line. As shown in FIG. 15, the number of pixels corresponding to the edge in the reference area B1 is smaller than the total number of pixels in the reference area B1. Further, as shown in FIG. 16, the number of pixels in the face area surrounded by the rectangle in the reference area B1 is also smaller than the total number of pixels in the reference area B1. Therefore, the feature amount in the image in the reference region B1 is extracted, and the parallax is calculated only for the pixel corresponding to the feature portion, so that the amount of calculation can be reduced, and the processing speed can be increased.

また、エッジおよび顔等の特定被写体は、画像中に含まれる主要な被写体に含まれるものであることが多く、撮影時には最もカメラに近い位置に存在する場合が多い。このため、特徴部分の視差を算出することにより、基準領域B1内に含まれる最も立体感が大きい画素を求めることができる。   In addition, specific subjects such as edges and faces are often included in main subjects included in the image, and are often located closest to the camera at the time of shooting. For this reason, by calculating the parallax of the characteristic portion, it is possible to obtain the pixel having the largest stereoscopic effect that is included in the reference region B1.

したがって、基準領域B1内に含まれる最も立体感が大きい画素の最大視差Dmaxよりも大きい視差Drとなるように、メニューM1,M2に3次元処理を行うことにより、3次元画像の手前側において3次元画像と重ならないようにメニューM0を3次元表示することができる。   Accordingly, the three-dimensional processing is performed on the menus M1 and M2 so that the parallax Dr is larger than the maximum parallax Dmax of the pixel having the largest stereoscopic effect included in the reference region B1, so that 3 The menu M0 can be displayed three-dimensionally so as not to overlap with the three-dimensional image.

一方、第1および第2の画像G1,G2を取得した際の、撮影部21A,21Bにおける焦点距離、絞り値、フォーカス位置、許容錯乱円から、下記の式(4)、(5)により被写界深度の手前側、奥側の距離を算出することができる。なお、焦点距離、絞り値、フォーカス位置は、フォーカスレンズ駆動部17A,17B、不図示の絞り駆動部、およびズームレンズ駆動部18A,18Bの撮影時における設定値から求めることができる。また、あらかじめ内部メモリ27に記憶された許容錯乱円は、CCD14A,14Bの仕様から求めることができる。

Figure 0004852169
On the other hand, from the focal length, the aperture value, the focus position, and the allowable circle of confusion in the photographing units 21A and 21B when the first and second images G1 and G2 are acquired, the following equations (4) and (5) are used. The distance between the near side and the far side of the depth of field can be calculated. The focal length, the aperture value, and the focus position can be obtained from the set values at the time of shooting of the focus lens driving units 17A and 17B, the aperture driving unit (not shown), and the zoom lens driving units 18A and 18B. The permissible circle of confusion stored in advance in the internal memory 27 can be obtained from the specifications of the CCDs 14A and 14B.
Figure 0004852169

但し、Lnear:被写界深度の手前側の距離、Lfar:被写界深度の奥側の距離、f:焦点距離、F:絞り値、L:フォーカス位置、δ:許容錯乱円直径である。 Here, Lnear: distance on the near side of the depth of field, Lfar: distance on the far side of the depth of field, f: focal length, F: aperture value, L: focus position, and δ: allowable circle of confusion.

これにより、基準領域B1内における被写体は、算出した被写界深度の手前側、奥側の距離の範囲内にあることが分かる。したがって、被写界深度の手前側の距離Lminから、下記の式(6)により、基準領域B1内に含まれる最も立体感が大きい画素における視差Dmaxを算出することができる。よって、視差Dmaxよりも大きい視差となるように、メニューM1,M2に3次元処理を行うことにより、3次元画像の手前側において3次元画像と重ならないようにメニューM0を3次元表示することができる。   Thereby, it can be seen that the subject in the reference area B1 is within the distance range on the near side and the far side of the calculated depth of field. Therefore, from the distance Lmin on the near side of the depth of field, the parallax Dmax in the pixel having the largest stereoscopic effect included in the reference region B1 can be calculated by the following equation (6). Therefore, the menu M0 can be displayed three-dimensionally so as not to overlap the three-dimensional image on the front side of the three-dimensional image by performing three-dimensional processing on the menus M1, M2 so that the parallax is larger than the parallax Dmax. it can.

視差Dmax=基線長K×焦点距離f/距離Lmin (6)
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態による3次元表示装置を適用した複眼カメラの構成は、第1の実施形態による3次元表示装置を適用した複眼カメラの構成と同一であり、行われる処理のみが異なるため、ここでは構成についての詳細な説明は省略する。上記第1の実施形態においては、所定時間間隔にて距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行っているが、第2の実施形態においては、撮影部21A,21Bの光学系、すなわちフォーカスレンズ10A,10Bおよびズームレンズ11A,11Bが駆動された場合に、距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行うようにした点が第1の実施形態と異なる。
Parallax Dmax = base length K × focal length f / distance Lmin (6)
Next, a second embodiment of the present invention will be described. The configuration of the compound eye camera to which the 3D display device according to the second embodiment is applied is the same as that of the compound eye camera to which the 3D display device according to the first embodiment is applied, and only the processing to be performed is different. Here, detailed description of the configuration is omitted. In the first embodiment, distance information is calculated at a predetermined time interval, and a plurality of images and objects are three-dimensionally processed. In the second embodiment, the optical components of the photographing units 21A and 21B are used. When the system, that is, the focus lenses 10A and 10B and the zoom lenses 11A and 11B are driven, the calculation of distance information and the three-dimensional processing of a plurality of images and objects are different from the first embodiment. .

次いで、第2の実施形態において行われる処理について説明する。図17は第2の実施形態において行われる処理を示すフローチャートである。CPU33は撮影者によりメニュー表示の指示がなされたか否かを監視しており(ステップST21)、ステップST21が肯定されると、第1の画像G1におけるメニューM1を表示する基準位置B1および現在の視差Drの情報を取得する(ステップST22)。なお、現在の視差Drの初期値はD0である。そして、距離情報算出部31が、第1の画像G1に基準領域B1を設定し(ステップST23)、基準領域B1内の各画素の視差を距離情報として算出する(ステップST24)。   Next, processing performed in the second embodiment will be described. FIG. 17 is a flowchart showing processing performed in the second embodiment. The CPU 33 monitors whether or not the photographer has instructed the menu display (step ST21). If step ST21 is affirmed, the reference position B1 for displaying the menu M1 in the first image G1 and the current parallax are displayed. Information on Dr is acquired (step ST22). Note that the initial value of the current parallax Dr is D0. Then, the distance information calculation unit 31 sets the reference area B1 in the first image G1 (step ST23), and calculates the parallax of each pixel in the reference area B1 as distance information (step ST24).

次いで、3次元処理部30が、算出した距離情報の視差のうち、最も立体感が大きい部分の視差に対応する最大視差Dmaxを取得し(ステップST25)、最大視差DmaxがメニューM1,M2の現在の視差Drよりも大きいか否かを判定する(ステップST26)。ステップST26が肯定されると、3次元処理部30は、メニューM1,M2の現在の視差Drを最大視差Dmaxよりも大きい視差Dbに変更し(ステップST27)、視差Dbを有するようにメニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置し(ステップST28)、第1および第2の画像G1,G2並びにメニューM1,M2に対して3次元処理を行う(ステップST29)。そして表示制御部28が、メニューM0が重畳された3次元画像をモニタ20に3次元表示する(ステップST30)。なお、ステップST26が否定されると、ステップST28の処理に進み、現在の視差Drを有するように、メニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置して3次元処理を行う。   Next, the three-dimensional processing unit 30 acquires the maximum parallax Dmax corresponding to the parallax with the largest stereoscopic effect among the calculated parallaxes of the distance information (step ST25), and the maximum parallax Dmax is the current of the menus M1 and M2. It is determined whether it is larger than the parallax Dr (step ST26). When step ST26 is affirmed, the three-dimensional processing unit 30 changes the current parallax Dr of the menus M1 and M2 to the parallax Db larger than the maximum parallax Dmax (step ST27), and the menu M1, M1 so as to have the parallax Db. M2 is arranged in each of the first and second images G1 and G2 (step ST28), and three-dimensional processing is performed on the first and second images G1 and G2 and the menus M1 and M2 (step ST29). Then, the display control unit 28 three-dimensionally displays the three-dimensional image on which the menu M0 is superimposed on the monitor 20 (step ST30). If step ST26 is negative, the process proceeds to step ST28, and the menus M1 and M2 are arranged on the first and second images G1 and G2, respectively, so as to have the current parallax Dr. Do.

次いで、CPU33が、撮影部21A,21Bの光学系が駆動されたか否かの監視を開始する(ステップST31)。ステップST31が肯定されるとステップST22に戻り、ステップST22以降の処理を繰り返す。   Next, the CPU 33 starts monitoring whether or not the optical system of the photographing units 21A and 21B has been driven (step ST31). When step ST31 is affirmed, the process returns to step ST22, and the processes after step ST22 are repeated.

このように、第2の実施形態においては、撮影部21A,21Bの光学系、すなわちフォーカスレンズ10A,10Bおよびズームレンズ11A,11Bが駆動された場合に、距離情報の算出、並びに第1、第2の画像G1,G2およびメニューM1,M2の3次元処理を行うようにしたため、撮影部21A,21Bのズーム位置およびフォーカス位置が変更することにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにメニューM0を3次元表示することができる。   Thus, in the second embodiment, when the optical systems of the photographing units 21A and 21B, that is, the focus lenses 10A and 10B and the zoom lenses 11A and 11B are driven, the distance information is calculated, and the first and first Since the three-dimensional processing of the two images G1 and G2 and the menus M1 and M2 is performed, the stereoscopic effect of the three-dimensional image displayed in three dimensions can be obtained by changing the zoom position and the focus position of the photographing units 21A and 21B. Even if it is changed, the menu M0 can be displayed three-dimensionally so as not to overlap the three-dimensional image.

次いで、本発明の第3の実施形態について説明する。なお、第3の実施形態による3次元表示装置を適用した複眼カメラの構成は、第1の実施形態による3次元表示装置を適用した複眼カメラの構成と同一であり、行われる処理のみが異なるため、ここでは構成についての詳細な説明は省略する。上記第1の実施形態においては、所定時間間隔にて距離情報の算出、並びに複数の画像およびオブジェクトの3次元処理を行っているが、第3の実施形態においては、撮影制御部22において、第1および第2の画像G1,G2のスルー画像が取得される毎に、輝度評価値およびAF評価値を算出し、輝度評価値およびAF評価値の少なくとも一方が変化した場合に、距離情報の算出、並びに第1、第2の画像G1およびメニューM1,M2の3次元処理を行うようにした点が第1の実施形態と異なる。   Next, a third embodiment of the present invention will be described. The configuration of the compound eye camera to which the 3D display device according to the third embodiment is applied is the same as that of the compound eye camera to which the 3D display device according to the first embodiment is applied, and only the processing to be performed is different. Here, detailed description of the configuration is omitted. In the first embodiment, calculation of distance information and three-dimensional processing of a plurality of images and objects are performed at predetermined time intervals. However, in the third embodiment, the shooting control unit 22 The luminance evaluation value and the AF evaluation value are calculated every time the through images of the first and second images G1 and G2 are acquired, and the distance information is calculated when at least one of the luminance evaluation value and the AF evaluation value changes. In addition, the third embodiment is different from the first embodiment in that three-dimensional processing of the first and second images G1 and menus M1 and M2 is performed.

次いで、第3の実施形態において行われる処理について説明する。図18は第3の実施形態において行われる処理を示すフローチャートである。CPU33は撮影者によりメニュー表示の指示がなされたか否かを監視しており(ステップST41)、ステップST41が肯定されると、撮影制御部22が、現在取得されている第1および第2の画像G1,G2のスルー画像から輝度評価値およびAF評価値を算出する(評価値算出、ステップST42)。次いで、CPU33が、第1の画像G1におけるメニューM1を表示する基準位置B1および現在の視差Drの情報を取得する(ステップST43)。なお、現在の視差Drの初期値はD0である。そして、距離情報算出部31が、第1の画像G1に基準領域B1を設定し(ステップST44)、基準領域B1内の各画素の視差を距離情報として算出する(ステップST45)。   Next, processing performed in the third embodiment will be described. FIG. 18 is a flowchart showing processing performed in the third embodiment. The CPU 33 monitors whether or not an instruction to display a menu has been given by the photographer (step ST41). When step ST41 is affirmed, the shooting control unit 22 first and second images that are currently acquired are displayed. A luminance evaluation value and an AF evaluation value are calculated from the through images of G1 and G2 (evaluation value calculation, step ST42). Next, the CPU 33 acquires information on the reference position B1 for displaying the menu M1 in the first image G1 and the current parallax Dr (step ST43). Note that the initial value of the current parallax Dr is D0. Then, the distance information calculation unit 31 sets the reference area B1 in the first image G1 (step ST44), and calculates the parallax of each pixel in the reference area B1 as distance information (step ST45).

次いで、3次元処理部30が、算出した距離情報の視差のうち、最も立体感が大きい部分の視差に対応する最大視差Dmaxを取得し(ステップST46)、最大視差DmaxがメニューM1,M2の現在の視差Drよりも大きいか否かを判定する(ステップST47)。ステップST47が肯定されると、3次元処理部30は、メニューM1,M2の現在の視差Drを最大視差Dmaxよりも大きい視差Dbに変更し(ステップST48)、視差Dbを有するようにメニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置し(ステップST49)、第1および第2の画像G1,G2並びにメニューM1,M2に対して3次元処理を行う(ステップST50)。そして表示制御部28が、メニューM0が重畳された3次元画像をモニタ20に3次元表示する(ステップST51)。なお、ステップST47が否定されると、ステップST49の処理に進み、現在の視差Drを有するように、メニューM1,M2を第1および第2の画像G1,G2にそれぞれ配置して3次元処理を行う。   Next, the three-dimensional processing unit 30 acquires the maximum parallax Dmax corresponding to the parallax with the largest stereoscopic effect among the calculated parallaxes of the distance information (step ST46), and the maximum parallax Dmax is the current of the menus M1 and M2. It is determined whether or not the parallax is larger than (step ST47). If step ST47 is affirmed, the three-dimensional processing unit 30 changes the current parallax Dr of the menus M1 and M2 to the parallax Db larger than the maximum parallax Dmax (step ST48), and the menu M1, M1 so as to have the parallax Db. M2 is arranged in each of the first and second images G1 and G2 (step ST49), and three-dimensional processing is performed on the first and second images G1 and G2 and the menus M1 and M2 (step ST50). Then, the display control unit 28 three-dimensionally displays the three-dimensional image on which the menu M0 is superimposed on the monitor 20 (step ST51). If step ST47 is negative, the process proceeds to step ST49, and the menus M1 and M2 are arranged in the first and second images G1 and G2, respectively, so as to have the current parallax Dr. Do.

次いで、撮影制御部22が、現在取得されている第1および第2の画像G1,G2のスルー画像から輝度評価値およびAF評価値を算出し(評価値算出、ステップST52)、CPU33が、輝度評価値およびAF評価値の少なくとも一方が所定のしきい値を超えて変化したか否かを判定する(ステップST53)。ステップST53が否定されるとステップST52の処理に戻る。ステップST53が肯定されるとステップST43に戻り、ステップST43以降の処理を繰り返す。   Next, the imaging control unit 22 calculates a luminance evaluation value and an AF evaluation value from the through images of the first and second images G1 and G2 that are currently acquired (evaluation value calculation, step ST52), and the CPU 33 determines the luminance. It is determined whether at least one of the evaluation value and the AF evaluation value has changed beyond a predetermined threshold (step ST53). If step ST53 is negative, the processing returns to step ST52. When step ST53 is affirmed, the process returns to step ST43, and the processes after step ST43 are repeated.

このように、第3の実施形態においては、輝度評価値およびAF評価値の少なくとも一方が所定のしきい値を超えて変化した場合に、距離情報の算出、並びに第1、第2の画像G1,G2およびメニューM1,M2の3次元処理を行うようにしたため、撮影する画像の明るさおよび/または焦点位置が変化することにより、3次元表示される3次元画像の立体感が変更された場合であっても、3次元画像と重ならないようにオブジェクトを表示することができる。   As described above, in the third embodiment, when at least one of the luminance evaluation value and the AF evaluation value changes beyond a predetermined threshold, the distance information is calculated, and the first and second images G1 are calculated. , G2 and menus M1 and M2 are three-dimensionally processed, and the stereoscopic effect of the three-dimensional image displayed in three dimensions is changed by changing the brightness and / or focus position of the image to be captured. Even so, the object can be displayed so as not to overlap the three-dimensional image.

なお、上記第3の実施形態においては、輝度評価値およびAF評価値の少なくとも一方を評価値として算出しているが、これ以外の評価値、例えば画像の色等を用いるようにしてもよい。   In the third embodiment, at least one of the luminance evaluation value and the AF evaluation value is calculated as the evaluation value. However, other evaluation values such as the color of the image may be used.

また、上記第1から第3の実施形態においては、基準領域B1内における最も立体感が大きい画素の視差Dmaxよりも大きい視差Dbを有するようにメニューM1,M2に3次元処理を行っているが、メニューM0の立体感を変更することなく、メニューM0の奥行き方向に垂直な2次元方向における位置を変更することにより、メニューM1,M2に対して3次元処理を行うようにしてもよい。以下、これを第4の実施形態として説明する。なお、第2の実施形態による3次元表示装置を適用した複眼カメラの構成は、第1の実施形態による3次元表示装置を適用した複眼カメラの構成と同一であり、行われる処理のみが異なるため、ここでは構成についての詳細な説明は省略する。   In the first to third embodiments, the menus M1 and M2 are subjected to three-dimensional processing so that the parallax Db is larger than the parallax Dmax of the pixel having the largest stereoscopic effect in the reference area B1. The three-dimensional processing may be performed on the menus M1 and M2 by changing the position of the menu M0 in the two-dimensional direction perpendicular to the depth direction without changing the stereoscopic effect of the menu M0. Hereinafter, this will be described as a fourth embodiment. The configuration of the compound eye camera to which the 3D display device according to the second embodiment is applied is the same as that of the compound eye camera to which the 3D display device according to the first embodiment is applied, and only the processing to be performed is different. Here, detailed description of the configuration is omitted.

第4の実施形態においては、距離情報算出部31は、第1の画像G1内のすべての画素における視差を距離情報として算出する。図19は第4の実施形態において算出された3次元画像上の距離分布を示す図である。なお、図19はy軸に直交するあるxz平面での距離分布を示している。第1および第2の画像G1,G2におけるあらかじめ定められた基準位置に所定の視差を持って第1および第2の画像G1,G2を配置した場合、3次元画像におけるある部分P0の立体感がメニューM0の立体感よりも大きいと、図19に示すように部分P0とメニューM0とが重なってしまう。このため、第4の実施形態においては、3次元処理部30は、立体感がメニューM0の立体感よりも小さい部分にメニューM0が表示されるように、視差を変更することなく、メニューM1,M2の配置位置を変更する。例えば、図19に示すように、部分P0の右側にメニューM0が3次元表示されるように、メニューM1,M2の配置位置を変更する。   In the fourth embodiment, the distance information calculation unit 31 calculates the parallax of all the pixels in the first image G1 as distance information. FIG. 19 is a diagram showing the distance distribution on the three-dimensional image calculated in the fourth embodiment. FIG. 19 shows a distance distribution in an xz plane orthogonal to the y-axis. When the first and second images G1 and G2 are arranged with predetermined parallax at predetermined reference positions in the first and second images G1 and G2, the stereoscopic effect of a certain portion P0 in the three-dimensional image is obtained. If it is larger than the stereoscopic effect of the menu M0, the portion P0 and the menu M0 overlap as shown in FIG. For this reason, in the fourth embodiment, the three-dimensional processing unit 30 does not change the parallax so that the menu M0 is displayed in a portion where the stereoscopic effect is smaller than the stereoscopic effect of the menu M0. The arrangement position of M2 is changed. For example, as shown in FIG. 19, the arrangement positions of the menus M1 and M2 are changed so that the menu M0 is three-dimensionally displayed on the right side of the portion P0.

このように、3次元画像と重ならない位置にメニューM0が表示されるよう、第1および第2の画像G1,G2上におけるメニューM1,M2の配置位置を変更することにより、3次元画像およびメニューM0の立体感を変更することなく、3次元画像と重ならないようにメニューM0を表示することができる。   In this way, by changing the arrangement positions of the menus M1 and M2 on the first and second images G1 and G2 so that the menu M0 is displayed at a position that does not overlap with the three-dimensional image, the three-dimensional image and the menu are displayed. The menu M0 can be displayed so as not to overlap the three-dimensional image without changing the stereoscopic effect of M0.

なお、上記第1から第4の実施形態においては、複眼カメラ1に2つの撮影部21A,21Bを設け、2つの画像G1,G2を用いて3次元表示を行っているが、3以上の撮影部を設け、3以上の画像を用いて3次元表示を行う場合にも本発明を適用することができる。   In the first to fourth embodiments, the two-eye camera 1 is provided with the two photographing units 21A and 21B to perform the three-dimensional display using the two images G1 and G2. However, three or more photographings are performed. The present invention can also be applied to a case where a unit is provided and three-dimensional display is performed using three or more images.

また、上記第1から第4の実施形態においては、本発明による3次元表示装置を複眼カメラ1に適用しているが、表示制御部28,3次元処理部30、距離情報算出部31およびモニタ20を備えた3次元表示装置を単独で提供するようにしてもよい。この場合、同一の被写体を異なる複数の位置において撮影することにより取得した複数の画像が3次元表示装置に入力され、上記第1から第4の実施形態と同様に、画像とともにメニューM0が3次元表示される。この場合、装置に画像を入力するためのインターフェースが画像取得手段に対応する。   In the first to fourth embodiments, the three-dimensional display device according to the present invention is applied to the compound-eye camera 1, but the display control unit 28, the three-dimensional processing unit 30, the distance information calculation unit 31, and the monitor The three-dimensional display device having 20 may be provided alone. In this case, a plurality of images acquired by photographing the same subject at a plurality of different positions are input to the three-dimensional display device, and the menu M0 is displayed together with the images in the same manner as in the first to fourth embodiments. Is displayed. In this case, an interface for inputting an image to the apparatus corresponds to the image acquisition means.

以上、本発明の実施形態について説明したが、コンピュータを、上記の表示制御部28、3次元処理部30および距離情報算出部31に対応する手段として機能させ、図12,17,18に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。   As described above, the embodiments of the present invention have been described. As shown in FIGS. 12, 17, and 18, the computer functions as a unit corresponding to the display control unit 28, the three-dimensional processing unit 30, and the distance information calculation unit 31. A program for performing a simple process is also one embodiment of the present invention. A computer-readable recording medium in which such a program is recorded is also one embodiment of the present invention.

1 複眼カメラ
21A,21B 撮影部
22 撮影制御部
28 表示制御部
30 3次元処理部
31 距離情報算出部
DESCRIPTION OF SYMBOLS 1 Compound eye camera 21A, 21B Image pick-up part 22 Image pick-up control part 28 Display control part 30 Three-dimensional processing part 31 Distance information calculation part

Claims (15)

所定時間間隔にて被写体を異なる視点から撮影することにより取得した、該被写体を異なる視点から見た、視差を有する複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段と、
前記3次元画像の距離情報を算出する距離情報算出手段と、
前記所定時間間隔にて取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出する評価値算出手段と、
前記評価値が所定のしきい値を超えて変化した場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段とを備え、
前記3次元処理手段は、前記3次元表示時における前記オブジェクトと前記3次元画像との重なりを解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更する手段であることを特徴とする3次元表示装置。
3D processing for three-dimensional display is performed on a plurality of images having parallax obtained by photographing the subject from different viewpoints at predetermined time intervals and viewing the subject from different viewpoints. Three-dimensional processing means for performing the three-dimensional processing on an object displayed in a three-dimensionally displayed three-dimensional image;
Display means for performing at least three-dimensional display of the three-dimensional image;
Distance information calculating means for calculating distance information of the three-dimensional image;
Evaluation value calculation means for calculating an evaluation value including at least one evaluation value of luminance and high frequency components of the image acquired at the predetermined time interval;
The distance information calculating means and the three-dimensional processing means so as to perform the calculation of the distance information and the three-dimensional processing of the plurality of images and the object when the evaluation value changes beyond a predetermined threshold value. Control means for controlling
The three-dimensional processing means is configured to make the object relative to the three-dimensional image relative to the three-dimensional image based on the distance information so as to eliminate the overlap between the object and the three-dimensional image during the three-dimensional display. A three-dimensional display device characterized by being means for changing a specific position.
前記距離情報算出手段は、前記複数の画像のうちの基準となる基準画像において、前記オブジェクトが表示される基準領域内の各画素について、前記距離情報を算出する手段であり、
前記3次元処理手段は、前記基準領域内の距離情報に基づいて、前記3次元画像に対して手前側の位置に前記オブジェクトが3次元表示されるよう、前記オブジェクトの前記3次元画像に対する前記3次元空間上における奥行き方向の相対的な位置を変更する手段であることを特徴とする請求項1記載の3次元表示装置。
The distance information calculating means is means for calculating the distance information for each pixel in a reference area where the object is displayed in a reference image serving as a reference among the plurality of images.
The three-dimensional processing means is configured to display the three-dimensional image of the object on the three-dimensional image so that the object is three-dimensionally displayed at a position on the near side of the three-dimensional image based on distance information in the reference region. 2. The three-dimensional display device according to claim 1, wherein the three-dimensional display device is a means for changing a relative position in the depth direction in a three-dimensional space.
前記距離情報算出手段は、前記複数の画像間における互いに対応する対応点の視差を前記距離情報として算出する手段であることを特徴とする請求項1または2記載の3次元表示装置。   The three-dimensional display device according to claim 1, wherein the distance information calculation unit is a unit that calculates a parallax of corresponding points corresponding to each other between the plurality of images as the distance information. 前記距離情報算出手段は、前記複数の画像における特徴部分を抽出し、該特徴部分から前記対応点の視差を算出する手段であることを特徴とする請求項3記載の3次元表示装置。   4. The three-dimensional display device according to claim 3, wherein the distance information calculation unit is a unit that extracts a feature portion in the plurality of images and calculates a parallax of the corresponding point from the feature portion. 前記距離情報算出手段は、前記複数の画像を取得した場合の撮影条件に基づいて、前記対応点の視差を算出する手段であることを特徴とする請求項3記載の3次元表示装置。   The three-dimensional display device according to claim 3, wherein the distance information calculation unit is a unit that calculates a parallax of the corresponding point based on a shooting condition when the plurality of images are acquired. 前記距離情報算出手段は、前記撮影条件から被写界深度の手前側の距離を算出し、該手前側の距離、前記撮影時の基線長および焦点距離から、前記対応点の最大視差を算出する手段であることを特徴とする請求項5記載の3次元表示装置。   The distance information calculation means calculates a distance on the near side of the depth of field from the shooting condition, and calculates a maximum parallax of the corresponding point from the distance on the near side, the base length and the focal length at the time of shooting. 6. The three-dimensional display device according to claim 5, wherein the three-dimensional display device is means. 前記3次元処理手段は、前記基準領域内において算出された前記対応点の視差のうち、最大視差以上の視差を有するよう、前記オブジェクトに対して前記3次元処理を行う手段であることを特徴とする請求項3から6のいずれか1項記載の3次元表示装置。   The three-dimensional processing means is means for performing the three-dimensional processing on the object so as to have a parallax greater than or equal to a maximum parallax among the parallaxes of the corresponding points calculated in the reference region. The three-dimensional display device according to any one of claims 3 to 6. 前記3次元処理手段は、前記オブジェクトが所定の視差を有するように前記オブジェクトに対して前記3次元処理を行う場合、前記基準領域内において算出された前記対応点の視差のうち、最大視差が前記所定の視差以下の視差となるよう、前記複数の画像に対して前記3次元処理を行う手段であることを特徴とする請求項3から6のいずれか1項記載の3次元表示装置。   When the three-dimensional processing means performs the three-dimensional processing on the object so that the object has a predetermined parallax, the maximum parallax among the parallaxes of the corresponding points calculated in the reference region is The three-dimensional display device according to claim 3, wherein the three-dimensional display device is a unit that performs the three-dimensional processing on the plurality of images so that the parallax is equal to or less than a predetermined parallax. 前記3次元処理手段は、前記距離情報に基づいて、前記3次元画像との重なりを解消する位置に前記オブジェクトが表示されるよう、前記3次元空間における奥行き方向と直交する方向に前記オブジェクトの位置を変更する手段であることを特徴とする請求項1記載の3次元表示装置。   The three-dimensional processing means is configured to position the object in a direction orthogonal to the depth direction in the three-dimensional space so that the object is displayed at a position where the overlap with the three-dimensional image is eliminated based on the distance information. The three-dimensional display device according to claim 1, wherein the three-dimensional display device is a means for changing. 前記距離情報算出手段は、前記複数の画像間における互いに対応する対応点の視差を前記距離情報として算出する手段であることを特徴とする請求項9記載の3次元表示装置。   The three-dimensional display device according to claim 9, wherein the distance information calculation unit is a unit that calculates parallax of corresponding points corresponding to each other between the plurality of images as the distance information. 前記距離情報算出手段は、前記複数の画像における特徴部分を抽出し、該特徴部分から前記対応点の視差を算出する手段であることを特徴とする請求項10記載の3次元表示装置。   The three-dimensional display device according to claim 10, wherein the distance information calculation unit is a unit that extracts a feature portion in the plurality of images and calculates a parallax of the corresponding point from the feature portion. 前記所定時間間隔にて、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段をさらに備えたことを特徴とする請求項1から11のいずれか1項項記載の3次元表示装置。   Control means for controlling the distance information calculation means and the three-dimensional processing means so as to perform the calculation of the distance information and the three-dimensional processing of the plurality of images and the objects at the predetermined time interval. The three-dimensional display device according to claim 1, wherein: 所定時間間隔にて被写体を異なる視点から撮影することにより取得した、該被写体を異なる視点から見た、視差を有する複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段とを備えた3次元表示装置における3次元表示方法であって、
前記3次元画像の距離情報を算出するステップと、
前記3次元表示時における前記オブジェクトと前記3次元画像との重なりを解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更するステップと、
前記所定時間間隔にて取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出するステップと、
前記評価値が所定のしきい値を超えて変化した場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うステップとを有することを特徴とする3次元表示方法。
3D processing for three-dimensional display is performed on a plurality of images having parallax obtained by photographing the subject from different viewpoints at predetermined time intervals and viewing the subject from different viewpoints. Three-dimensional processing means for performing the three-dimensional processing on an object displayed in a three-dimensionally displayed three-dimensional image;
A three-dimensional display method in a three-dimensional display device comprising display means for performing at least three-dimensional display of the three-dimensional image,
Calculating distance information of the three-dimensional image;
Changing the relative position of the object in the three-dimensional space with respect to the three-dimensional image based on the distance information so as to eliminate the overlap between the object and the three-dimensional image during the three-dimensional display. When,
Calculating an evaluation value including an evaluation value of at least one of luminance and high-frequency component of the image acquired at the predetermined time interval;
And a step of calculating the distance information and performing a three-dimensional process on the plurality of images and the object when the evaluation value changes beyond a predetermined threshold value. .
所定時間間隔にて被写体を異なる視点から撮影することにより取得した、該被写体を異なる視点から見た、視差を有する複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段とを備えた3次元表示装置における3次元表示方法をコンピュータに実行させるためのプログラムであって、
前記3次元画像の距離情報を算出する手順と、
前記3次元表示時における前記オブジェクトと前記3次元画像との重なりを解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更する手順と、
前記所定時間間隔にて取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出する手順と、
前記評価値が所定のしきい値を超えて変化した場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行う手順とをコンピュータに実行させるためのプログラム。
3D processing for three-dimensional display is performed on a plurality of images having parallax obtained by photographing the subject from different viewpoints at predetermined time intervals and viewing the subject from different viewpoints. Three-dimensional processing means for performing the three-dimensional processing on an object displayed in a three-dimensionally displayed three-dimensional image;
A program for causing a computer to execute a three-dimensional display method in a three-dimensional display device provided with display means for performing at least three-dimensional display of the three-dimensional image,
A procedure for calculating distance information of the three-dimensional image;
A procedure for changing a relative position of the object in the three-dimensional space with respect to the three-dimensional image based on the distance information so as to eliminate an overlap between the object and the three-dimensional image at the time of the three-dimensional display. When,
A procedure for calculating an evaluation value including an evaluation value of at least one of luminance and high-frequency component of the image acquired at the predetermined time interval;
A program for causing a computer to execute calculation of the distance information and a procedure of performing three-dimensional processing of the plurality of images and the object when the evaluation value changes beyond a predetermined threshold value.
所定時間間隔にて被写体を異なる視点から撮影することにより取得した、該被写体を異なる視点から見た、視差を有する複数の画像に対して3次元表示のための3次元処理を行うとともに、前記3次元表示された3次元画像に重ねて表示されるオブジェクトに対して前記3次元処理を行う3次元処理手段と、
前記3次元画像の3次元表示を少なくとも行う表示手段と、
前記3次元画像の距離情報を算出する距離情報算出手段と、
前記所定時間間隔にて取得した画像の輝度および高周波成分の少なくとも一方の評価値を含む評価値を算出する評価値算出手段と、
前記評価値が所定のしきい値を超えて変化した場合に、前記距離情報の算出、並びに前記複数の画像および前記オブジェクトの3次元処理を行うよう、前記距離情報算出手段および前記3次元処理手段を制御する制御手段とを備え、
前記3次元処理手段は、前記3次元表示時における前記オブジェクトの一部または全部が、前記3次元画像に隠されるべき位置関係にある状態を解消するように、前記距離情報に基づいて、前記オブジェクトの前記3次元画像に対する3次元空間上の相対的な位置を変更する手段であることを特徴とする3次元表示装置。
3D processing for three-dimensional display is performed on a plurality of images having parallax obtained by photographing the subject from different viewpoints at predetermined time intervals and viewing the subject from different viewpoints. Three-dimensional processing means for performing the three-dimensional processing on an object displayed in a three-dimensionally displayed three-dimensional image;
Display means for performing at least three-dimensional display of the three-dimensional image;
Distance information calculating means for calculating distance information of the three-dimensional image;
Evaluation value calculation means for calculating an evaluation value including at least one evaluation value of luminance and high frequency components of the image acquired at the predetermined time interval;
The distance information calculating means and the three-dimensional processing means so as to perform the calculation of the distance information and the three-dimensional processing of the plurality of images and the object when the evaluation value changes beyond a predetermined threshold value. Control means for controlling
Based on the distance information, the three-dimensional processing means is configured to eliminate the state where a part or all of the object at the time of the three-dimensional display is in a positional relationship to be hidden in the three-dimensional image. A three-dimensional display device characterized by being means for changing a relative position in a three-dimensional space with respect to the three-dimensional image.
JP2010259886A 2010-11-22 2010-11-22 Three-dimensional display device, method and program Expired - Fee Related JP4852169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010259886A JP4852169B2 (en) 2010-11-22 2010-11-22 Three-dimensional display device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010259886A JP4852169B2 (en) 2010-11-22 2010-11-22 Three-dimensional display device, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008253795A Division JP4637942B2 (en) 2008-09-30 2008-09-30 Three-dimensional display device, method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011231240A Division JP5385354B2 (en) 2011-10-21 2011-10-21 Three-dimensional display device, method and program

Publications (2)

Publication Number Publication Date
JP2011096263A JP2011096263A (en) 2011-05-12
JP4852169B2 true JP4852169B2 (en) 2012-01-11

Family

ID=44113030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010259886A Expired - Fee Related JP4852169B2 (en) 2010-11-22 2010-11-22 Three-dimensional display device, method and program

Country Status (1)

Country Link
JP (1) JP4852169B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150030235A1 (en) * 2012-02-27 2015-01-29 Sony Corporation Image processing device, image processing method, and computer program
JP2013236172A (en) * 2012-05-07 2013-11-21 Samsung Techwin Co Ltd Parallax detection device and parallax detection method
JP2014049890A (en) * 2012-08-30 2014-03-17 Nikon Corp Imaging apparatus, imaging method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264633A (en) * 1994-03-24 1995-10-13 Sanyo Electric Co Ltd Stereoscopic video camera
JP4307212B2 (en) * 2003-10-17 2009-08-05 シャープ株式会社 Display data editing device, display device, display data editing method, program, and recording medium
JP2006325165A (en) * 2005-05-20 2006-11-30 Excellead Technology:Kk Device, program and method for generating telop

Also Published As

Publication number Publication date
JP2011096263A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP4637942B2 (en) Three-dimensional display device, method and program
JP4625515B2 (en) Three-dimensional imaging apparatus, method, and program
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
EP2340649B1 (en) Three-dimensional display device and method as well as program
JP5295426B2 (en) Compound eye imaging apparatus, parallax adjustment method and program thereof
JP4895312B2 (en) Three-dimensional display device, method and program
JP2010068182A (en) Three-dimensional imaging device, method, and program
JP5214547B2 (en) Image display apparatus and method, and program
JP4852169B2 (en) Three-dimensional display device, method and program
JP5049231B2 (en) Three-dimensional display device, method and program
JP5385354B2 (en) Three-dimensional display device, method and program
JP2006013609A (en) Multi-viewpoint stereoscopic image photographing device
JP2012015777A (en) Image processing apparatus, method, and program for stereoscopic view display, and image display apparatus
JP5351878B2 (en) Stereoscopic image display apparatus and method, and program
JP4847500B2 (en) Three-dimensional display device, method and program
WO2012001958A1 (en) Image processing device, method and program
JP4881470B2 (en) Three-dimensional display device, method and program
JP5409481B2 (en) Compound eye photographing apparatus and program
JP5165742B2 (en) Three-dimensional imaging apparatus, method, and program

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111021

R150 Certificate of patent or registration of utility model

Ref document number: 4852169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees