JP2005130309A - Stereoscopic vision image processing device, stereoscopic vision image display method, and computer program - Google Patents

Stereoscopic vision image processing device, stereoscopic vision image display method, and computer program Download PDF

Info

Publication number
JP2005130309A
JP2005130309A JP2003365345A JP2003365345A JP2005130309A JP 2005130309 A JP2005130309 A JP 2005130309A JP 2003365345 A JP2003365345 A JP 2003365345A JP 2003365345 A JP2003365345 A JP 2003365345A JP 2005130309 A JP2005130309 A JP 2005130309A
Authority
JP
Japan
Prior art keywords
image
viewpoint
stereoscopic
degrees
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003365345A
Other languages
Japanese (ja)
Other versions
JP4403378B2 (en
Inventor
Hidehiko Sekizawa
英彦 關澤
Akishi Sato
晶司 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003365345A priority Critical patent/JP4403378B2/en
Publication of JP2005130309A publication Critical patent/JP2005130309A/en
Application granted granted Critical
Publication of JP4403378B2 publication Critical patent/JP4403378B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic vision image processing device, a stereoscopic vision image displaying method, and a computer program for stereoscopically displaying images resulting from subjecting them to rotation, or rotation and mirror inverted for displaying each visual point image. <P>SOLUTION: The stereoscopic image processor for displaying a plurality of visual point images having mutual parallax makes a plurality of the visual point images rotated and manages the plurality of visual point images together with image control information, with respect to the plurality of visual point images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は立体視画像を生成することが可能な立体画像処理装置,立体視画像表示方法,およびコンピュータプログラムに関する。   The present invention relates to a stereoscopic image processing apparatus capable of generating a stereoscopic image, a stereoscopic image display method, and a computer program.

従来から,左右の眼の視差を利用した2枚の静止画像等を撮影し,それらを左右それぞれの眼で観察することができるように表示することにより,立体的な画像を得られる画像処理装置の存在が知られている(例えば,特許文献1参照)。なお,本願発明に関連する技術文献情報には,次のものがある。   Conventionally, an image processing apparatus capable of obtaining a three-dimensional image by photographing two still images using parallax between the left and right eyes and displaying them so that they can be observed by the left and right eyes. Is known (see, for example, Patent Document 1). The technical literature information related to the present invention includes the following.

特開平11−39508号公報。JP-A-11-39508.

しかしながら,画像処理装置において,左眼からの視点による左視点画像(L画像)と,右眼からの視点による右視点画像(R画像)との双方の向きまたは角度等が相対的に異なる場合,または角度が相対的に同じでもL画像とR画像の両画像の向きである天地が正反対である場合など,L画像とR画像とを合成しても立体感のある適当な立体画像を得ることが出来ない。   However, in the image processing device, when the left viewpoint image (L image) based on the viewpoint from the left eye and the right viewpoint image (R image) based on the viewpoint from the right eye are relatively different, Or, even if the angles are relatively the same, when the top and bottom of the L image and the R image are in opposite directions, an appropriate 3D image can be obtained even if the L image and the R image are combined. I can't.

上記L画像とR画像との相対的な向きまたは角度等が異なる場合,またはL画像とR画像の両画像の向きが正反対である場合等を解決し,立体的な画像を得るために,相互の画像の向きを合わせる仕組みが備えられていない場合が多かった。   In order to solve the case where the relative directions or angles of the L image and the R image are different, or the directions of both the L image and the R image are opposite to each other, In many cases, there was no mechanism for aligning the orientation of images.

本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,立体視用の視点画像を効率的に管理し,上記各視点画像を回転等することで,効率的に立体視画像を表示することが可能な,新規かつ改良された立体画像処理装置,立体視画像表示方法,およびコンピュータプログラムを提供することである。   The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to efficiently manage stereoscopic viewpoint images and efficiently rotate stereoscopic images by rotating the respective viewpoint images. A novel and improved stereoscopic image processing apparatus, a stereoscopic image display method, and a computer program capable of displaying a visual image are provided.

上記課題を解決するため,本発明の第1の観点によれば,少なくとも相互に視差を有する複数の視点画像を合成して立体視画像を表示する立体視画像処理装置が提供される。上記立体画像処理装置は,前記視点が異なる複数の視点画像のうち少なくとも一つを回転させ,該複数の視点画像とともに,該複数の視点画像に関する画像制御情報とを管理することを特徴としている。   In order to solve the above problems, according to a first aspect of the present invention, there is provided a stereoscopic image processing apparatus that displays a stereoscopic image by synthesizing at least a plurality of viewpoint images having parallax with each other. The stereoscopic image processing apparatus is characterized in that at least one of a plurality of viewpoint images having different viewpoints is rotated and image control information related to the plurality of viewpoint images is managed together with the plurality of viewpoint images.

本発明によれば,立体画像処理装置は,複数の視点画像のうち少なくとも一つを回転するとともに,上記複数の視点画像と当該複数の視点画像に関連する画像制御情報を管理する。かかる構成により,立体視画像を生成するのに必要な視点画像を全て一体的に管理することが可能となり,立体視画像を生成する際に必要な視点画像に関連する画像制御情報を用いることで,効率的に立体視画像を生成し,表示することができる。なお,立体視画像は,立体的に表示可能な画像の総称である。   According to the present invention, the stereoscopic image processing apparatus rotates at least one of the plurality of viewpoint images and manages the plurality of viewpoint images and image control information related to the plurality of viewpoint images. With such a configuration, it is possible to integrally manage all viewpoint images necessary for generating a stereoscopic image, and by using image control information related to the viewpoint image necessary for generating a stereoscopic image. , It is possible to efficiently generate and display a stereoscopic image. Note that the stereoscopic image is a generic name for images that can be displayed stereoscopically.

画像制御情報には,複数の視点画像が回転した回転角度情報が少なくとも含まれるように構成することができる。かかる構成により,回転した視点画像を元の状態に戻す際,効率的に戻すことができる。   The image control information can be configured to include at least rotation angle information obtained by rotating a plurality of viewpoint images. With this configuration, when the rotated viewpoint image is returned to the original state, it can be efficiently returned.

複数の視点画像は,相互に視差を有する右視点画像と左視点画像であるように構成することができる。   The plurality of viewpoint images can be configured to be a right viewpoint image and a left viewpoint image having parallax with each other.

立体視画像装置は,右視点画像と左視点画像とを90度単位で回転させるように構成することができる。かかる構成により,90度単位で各視点画像がずれていても,各視点画像を回転することで,画像の向きを一致させることができ,立体感のある立体視画像を迅速に生成することができる。   The stereoscopic image device can be configured to rotate the right viewpoint image and the left viewpoint image in units of 90 degrees. With this configuration, even if each viewpoint image is shifted by 90 degrees, the orientation of the images can be matched by rotating each viewpoint image, and a stereoscopic image with a stereoscopic effect can be quickly generated. it can.

立体視画像装置は,右視点画像と左視点画像とを回転及び/又はミラー反転させるように構成することができる。   The stereoscopic image device can be configured to rotate and / or mirror invert the right viewpoint image and the left viewpoint image.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像処理装置が提供される。上記立体視画像処理装置は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転装置と;第1回転結合画像の上下方向が横長画面の横方向に合わせるように上記回転方向とは逆方向に90度または270度回転させて第2回転結合画像を得る第2回転装置と;第2回転結合画像を上下に合成して立体視画像を得る合成装置とを備えたことを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above-described problem, there is provided a stereoscopic image processing apparatus that combines and displays a right viewpoint image and a left viewpoint image having parallax with each other in a stereoscopic image. The The stereoscopic image processing device includes: a first rotation device that obtains a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees; and the vertical direction of the first rotation combined image; A second rotation device for obtaining a second rotation combined image by rotating 90 degrees or 270 degrees in the opposite direction to the rotation direction so as to match the horizontal direction of the horizontally long screen; and combining the second rotation combined image vertically And a synthesizing device for obtaining a stereoscopic image.

さらに,上記課題を解決するための本発明の別の観点によれば,コンピュータをして,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像処理装置として機能させるコンピュータプログラムが提供される。上記コンピュータプログラムは,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転手段と;第1回転結合画像の上下方向が横長画面の横方向に合わせるように同方向とは逆方向に90度または270度回転させて第2回転結合画像を得る第2回転手段と;第2回転結合画像を上下に合成して立体視画像を得る合成手段とを備えたことを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above-described problem, a stereoscopic image is displayed by combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image by a computer. A computer program that functions as a processing device is provided. The computer program includes first rotation means for obtaining a first rotation combined image by rotating the right viewpoint image and the left viewpoint image by 90 degrees or 270 degrees in the same direction, respectively; A second rotation means for obtaining a second rotation combined image by rotating 90 degrees or 270 degrees in the opposite direction to the horizontal direction so as to match the horizontal direction; And a synthesizing means to obtain.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示方法が提供される。上記立体視画像表示方法は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;第1回転結合画像の上下方向が横長画面の横方向に合わせるように上記方向とは逆方向に,該第1回転結合画像を90度または270度回転させて第2回転結合画像を得る第2回転工程と;第2回転結合画像を上下に合成して立体視画像を得る合成工程とを備えたことを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above problems, there is provided a stereoscopic image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image. The The stereoscopic image display method includes a first rotation step of obtaining a first rotation combined image by rotating the right viewpoint image and the left viewpoint image by 90 degrees or 270 degrees in the same direction, respectively; and the vertical direction of the first rotation combined image; A second rotation step of obtaining a second rotation combination image by rotating the first rotation combination image by 90 degrees or 270 degrees in a direction opposite to the above direction so as to match the horizontal direction of the horizontally long screen; And a synthesis step of obtaining a stereoscopic image by synthesizing the images vertically.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示方法が提供される。上記立体視画像表示方法は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;横長の画面を90度または270度回転させて縦長の画面を構成する画面回転工程と;縦長画面の縦方向を該第1回転結合画像の上下方向に合わせるように第1回転結合画像を合成して立体視画像を得る合成工程とから成ることを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above problems, there is provided a stereoscopic image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image. The The stereoscopic image display method includes a first rotation step of obtaining a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees, respectively; A screen rotation step for forming a vertically long screen by rotating the image and a composition step for combining the first rotation combined image so as to match the vertical direction of the vertical screen with the vertical direction of the first rotation combined image to obtain a stereoscopic image It is characterized by consisting of.

回転装置は,右視点画像と左視点画像とを同方向に90度単位で回転させるように構成してもよい。かかる構成により,90度単位でお互いの角度がずれていても,立体的に適正に表示可能な立体画像を生成することができる。   The rotation device may be configured to rotate the right viewpoint image and the left viewpoint image in the same direction by 90 degrees. With this configuration, it is possible to generate a stereoscopic image that can be appropriately displayed stereoscopically even if the angles are shifted by 90 degrees.

右視点画像と左視点画像とは上下方向に2分の1に圧縮されているように構成してもよい。   The right viewpoint image and the left viewpoint image may be configured to be compressed in half in the vertical direction.

回転装置は,右視点画像と左視点画像とを回転またはミラー反転のうち少なくとも一方を実行させるように構成してもよい。かかる構成により,右視点画像と左視点画像とが回転及び/又はミラー反転により双方の向きや,配置がずれていても,適正に表示可能な立体画像を生成することができる。   The rotation device may be configured to execute at least one of rotation and mirror inversion of the right viewpoint image and the left viewpoint image. With such a configuration, even when the right viewpoint image and the left viewpoint image are rotated and / or mirror-inverted so that both directions and arrangements thereof are misaligned, a stereoscopic image that can be properly displayed can be generated.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する画像表示装置が提供される。上記画像表示装置は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転装置と,回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得る第2回転装置と,第2回転結合画像を上下に合成して立体画像を得る合成装置とを備えたことを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above-described problem, an image display device is provided that combines a right viewpoint image and a left viewpoint image having parallax with each other and displays them in a stereoscopic image. The image display device includes a first rotation device that obtains a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees, respectively, and the rotation combined image in the vertical direction of the vertically long screen. A second rotating device that further rotates 90 degrees or 270 degrees in the same direction so as to match the vertical direction to obtain a second rotationally combined image, and a combining device that combines the second rotationally combined image up and down to obtain a stereoscopic image It is characterized by having prepared.

また,上記課題を解決するための本発明の別の観点によれば,コンピュータをして,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する画像表示装置として機能させるコンピュータプログラムが提供される。上記コンピュータプログラムは,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得て,回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得て,第2回転結合画像を上下に合成して立体画像を得ることを特徴としている。   Further, according to another aspect of the present invention for solving the above-described problem, as an image display device that displays a composite image of a right viewpoint image and a left viewpoint image having parallax with each other by a computer. A computer program for functioning is provided. The computer program rotates the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image, and aligns the rotation combined image with the vertical direction of the vertically long screen. Furthermore, the second rotation combined image is obtained by further rotating 90 degrees or 270 degrees in the same direction, and a stereoscopic image is obtained by combining the second rotation combined image vertically.

また,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する画像表示方法が提供される。上記画像表示方法は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と,第1回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得る第2回転工程と,第2回転結合画像を上下に合成して立体画像を得る合成工程とから成ることを特徴としている。   According to another aspect of the present invention for solving the above problem, an image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying them in a stereoscopic image is provided. The image display method includes a first rotation step of obtaining a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees, respectively, and the first rotation combination image in a vertical screen. A second rotation step of obtaining a second rotation combined image by rotating 90 degrees or 270 degrees in the same direction so as to match the direction in the vertical direction, and a combining step of combining the second rotation combined image up and down to obtain a stereoscopic image It is characterized by consisting of.

上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する画像表示方法が提供される。上記画像表示方法は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と,横長の画面を90度または270度回転させて縦長の画面を構成する画面回転工程と,第1回転結合画像を縦長画面の縦方向を上下方向に合わせるように上下に合成して立体画像を得る合成工程とから成ることを特徴としている。   According to another aspect of the present invention for solving the above-described problem, an image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying them in a stereoscopic image is provided. The image display method includes a first rotation step of rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image, and rotating the landscape screen by 90 degrees or 270 degrees. And a screen rotation step for forming a vertically long screen, and a combining step for obtaining a stereoscopic image by combining the first rotation combined image vertically so that the vertical direction of the vertically long screen matches the vertical direction. .

また,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する立体視画像処理装置が提供される。上記立体視画像処理装置は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転装置と;回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得る第2回転装置と;第2回転結合画像を上下に合成して立体視画像を得る合成装置とを備えたことを特徴としている。   According to another aspect of the present invention for solving the above-described problem, there is provided a stereoscopic image processing apparatus that combines a right viewpoint image and a left viewpoint image having parallax with each other and displays the stereoscopic image. . The stereoscopic image processing apparatus includes a first rotation device that obtains a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees, respectively; A second rotating device for obtaining a second rotation combined image by rotating 90 degrees or 270 degrees in the same direction so as to align the direction with the vertical direction; and combining the second rotation combined image up and down to obtain a stereoscopic image And a device.

さらに,上記課題を解決するための本発明の別の観点によれば,コンピュータをして,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示装置として機能させるコンピュータプログラムが提供される。上記コンピュータプログラムは,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得て;回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得て;第2回転結合画像を上下に合成して立体画像を得ることを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above-described problem, a stereoscopic image is displayed by combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image by a computer. A computer program that functions as a display device is provided. The computer program rotates the right viewpoint image and the left viewpoint image by 90 degrees or 270 degrees in the same direction to obtain a first rotation combined image; the rotation combined image is adjusted so that the vertical direction of the portrait screen is aligned with the vertical direction. Further, the second rotated combined image is obtained by rotating 90 degrees or 270 degrees in the same direction; the second rotated combined image is synthesized vertically to obtain a stereoscopic image.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示方法が提供される。右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;第1回転結合画像を縦長画面の縦方向を上下方向に合わせるようにさらに同方向に90度または270度回転させて第2回転結合画像を得る第2回転工程と;第2回転結合画像を上下に合成して立体視画像を得る合成工程とから成ることを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above problems, there is provided a stereoscopic image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image. The A first rotation step of rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image; and matching the first rotation combined image with the vertical direction of the vertically long screen And a second rotation step of obtaining a second rotation combined image by further rotating 90 degrees or 270 degrees in the same direction; and a combining step of combining the second rotation combined image up and down to obtain a stereoscopic image. It is a feature.

さらに,上記課題を解決するための本発明の別の観点によれば,相互に視差を有する右視点画像と左視点画像とを立体画像に合成して表示する立体視画像表示方法が提供される。上記立体視画像表示方法は,右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;横長の画面を90度または270度回転させて縦長の画面を構成する画面回転工程と;第1回転結合画像を縦長画面の縦方向を上下方向に合わせるように上下に合成して立体視画像を得る合成工程とから成ることを特徴としている。   Furthermore, according to another aspect of the present invention for solving the above-described problem, there is provided a stereoscopic image display method for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image. . The stereoscopic image display method includes a first rotation step of obtaining a first rotation combined image by rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees, respectively; A screen rotation step for rotating the image to form a vertically long screen; and a combining step for obtaining a stereoscopic image by combining the first rotation combined image vertically so that the vertical direction of the vertically long screen matches the vertical direction. It is a feature.

以上説明したように,本発明によれば,各視点画像を回転またはミラー反転することで,各視点画像の画像の向きを相互に合わせることが可能となり,立体感のある立体画像を得ることができる。したがって,撮像された画像を無駄なく効率的に使用できる。   As described above, according to the present invention, by rotating or mirror-inverting each viewpoint image, the directions of the images of each viewpoint image can be adjusted to each other, and a stereoscopic image having a stereoscopic effect can be obtained. it can. Therefore, the captured image can be used efficiently without waste.

以下,本発明の好適な実施の形態について,添付図面を参照しながら詳細に説明する。なお,以下の説明及び添付図面において,略同一の機能及び構成を有する構成要素については,同一符号を付することにより,重複説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, components having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description is omitted.

人間などの左右の眼がそれぞれ取得する網膜像の空間的ずれ(両眼視差)を利用して,2次元の画像を立体的に視認させる方法(以下,立体視の方法。)が多数存在する。なお,視差について,特に記載がない場合,水平方向における視差を示すものとする。   There are a number of methods for stereoscopically viewing a two-dimensional image (hereinafter referred to as “stereoscopic viewing method”) using the spatial shift (binocular parallax) between retinal images acquired by the left and right eyes of a human or the like. . In addition, when there is no description about parallax, it shall show the parallax in a horizontal direction.

立体視の方法としては,特殊なメガネを利用するアナグリフ方式,カラーアナグリフ方式,偏光フィルタ方式,時分割立体テレビジョン方式等と,特殊なメガネを利用しないレンチキュラ方式等が知られている。   As a method of stereoscopic viewing, an anaglyph method using special glasses, a color anaglyph method, a polarizing filter method, a time-division stereoscopic television method, and a lenticular method not using special glasses are known.

上述したさまざまな立体視の方法を実現するためには,左眼用の左視点画像(L画像。)と,右眼用の右視点画像(R画像。)を取得する必要がある。L画像とR画像を取得するためには,同一の被写体に対して,カメラの位置を,例えば人の両眼の間隔だけ移動して2回撮影する方法等が最も容易である。   In order to realize the various stereoscopic viewing methods described above, it is necessary to acquire a left viewpoint image (L image) for the left eye and a right viewpoint image (R image) for the right eye. In order to acquire the L image and the R image, the easiest method is to move the position of the camera by, for example, the distance between both eyes of the person and photograph the same subject twice.

また,1回の撮影でL画像とR画像を取得する方法として,例えば,図1および図2に示すように,ミラーなどから構成される光学アダプタ105を,撮像装置100のレンズ103の外側に取り付ける方法が知られている。なお,上記撮像装置100は,例えば,デジタルカメラなどを例示することができる。   Further, as a method for acquiring the L image and the R image by one shooting, for example, as shown in FIGS. A method of attaching is known. The imaging apparatus 100 can be exemplified by a digital camera, for example.

図2は,光学アダプタ105の構造を模式的に表している。単一の採光窓から入射される右眼用の光学像は,ミラー121によってミラー122に向けて反射され,ミラー122によって撮影レンズ103に向けて反射された後,撮影レンズ103によって集光される。単一の採光窓から入射される左眼用の光学像は,ミラー121およびミラー122によって反射されることなく,撮影レンズ103によって集光される。   FIG. 2 schematically shows the structure of the optical adapter 105. The optical image for the right eye that enters from a single daylighting window is reflected by the mirror 121 toward the mirror 122, reflected by the mirror 122 toward the photographing lens 103, and then collected by the photographing lens 103. . The optical image for the left eye that enters from the single daylighting window is collected by the photographing lens 103 without being reflected by the mirror 121 and the mirror 122.

光学アダプタ105を介して入射された光学像は,左眼からの視点の領域および右眼からの視点の領域からなる視差画像として撮影される。この左眼用の領域(左眼用の画像)がL画像として利用され,右眼用の領域(右眼用の画像)がR画像として利用される。なお,各視点画像のセットを視差画像とし,視点画像が複数存在すれば足りるため,必ずしも両隣に一体的に構成する必要はない。   The optical image incident through the optical adapter 105 is photographed as a parallax image including a viewpoint area from the left eye and a viewpoint area from the right eye. This left-eye area (left-eye image) is used as an L image, and the right-eye area (right-eye image) is used as an R image. In addition, since it is sufficient if the set of viewpoint images is a parallax image and there are a plurality of viewpoint images, it is not always necessary to configure them integrally on both sides.

次に,図3に示すように,各視点画像からなる視差画像を合成して得る立体視用の立体画像(立体視画像,3D画像)を表示させる方法として,例えば,図4に示すような偏光フィルタ方式がある。   Next, as shown in FIG. 3, as a method of displaying a stereoscopic image (stereoscopic image, 3D image) obtained by synthesizing parallax images made up of the respective viewpoint images, for example, as shown in FIG. There is a polarization filter system.

図4に示すように,偏光フィルタ方式は,R画像を投影するための右眼用プロジェクタ141と,L画像を投影するための左眼用プロジェクタ142と,L画像およびR画像の光を反射するスクリーン143と,偏光メガネ144とから構成される。なお,3D(three−Dimensional:3次元)画像は,立体的に視認可能な立体視画像のことである。   As shown in FIG. 4, the polarization filter method reflects the right eye projector 141 for projecting the R image, the left eye projector 142 for projecting the L image, and the light of the L image and the R image. The screen 143 and the polarizing glasses 144 are included. Note that a 3D (three-dimensional) image is a stereoscopic image that can be viewed stereoscopically.

右眼用プロジェクタ141は,垂直方向に偏光フィルタを備えている。左眼用プロジェクタ142は,水平方向に偏光フィルタを備えている。したがって,右眼用プロジェクタ141から出力されるR画像の光は,図4に示す水平方向の矢印の光が出力される。左眼用プロジェクタ142から出力されるL画像の光は,図4に示す垂直方向の矢印の光が出力される。   The right-eye projector 141 includes a polarizing filter in the vertical direction. The left-eye projector 142 includes a polarizing filter in the horizontal direction. Therefore, the light of the R image output from the right-eye projector 141 is the light of the horizontal arrow shown in FIG. The light of the L image output from the left-eye projector 142 is the light of the arrow in the vertical direction shown in FIG.

次に,スクリーン143上では垂直方向の直線偏光によって投影されたL画像と,水平方向の直線偏光によって投影されたR画像とが重ね合わさることで,立体視画像が生成される。   Next, on the screen 143, the L image projected by the linearly polarized light in the vertical direction and the R image projected by the linearly polarized light in the horizontal direction are overlapped to generate a stereoscopic image.

そして,左側に水平方向の直線偏光フィルタ,右側に垂直方向の直線偏光フィルタが配置された偏光メガネ144を用いることにより,スクリーン143により反射された上記立体視画像のうち,右眼用プロジェクタ141から投影されたR画像は,右側の直線偏光フィルタにしか通過されず,左眼用プロジェクタ142から出力されたL画像は,左側の直線偏光フィルタにしか通過されない。   Then, by using polarizing glasses 144 in which a horizontal linear polarizing filter is arranged on the left side and a vertical linear polarizing filter is arranged on the right side, the right eye projector 141 out of the stereoscopic image reflected by the screen 143 is used. The projected R image only passes through the right linear polarizing filter, and the L image output from the left-eye projector 142 passes only through the left linear polarizing filter.

したがって,偏光メガネ144から上記スクリーン143上の立体視画像を見ると,例えば,撮影された建造物などが飛び出して見えるなど,画像を立体的に見ることができる。   Therefore, when the stereoscopic image on the screen 143 is viewed from the polarizing glasses 144, the image can be viewed stereoscopically, for example, a photographed building appears to pop out.

図4に示すスクリーン143に立体視画像を生成する場合の他に,例えば,パソコン(Personal Computer:PC),コンピュータ装置によって立体視画像を生成し,表示する場合も可能である。次に,本実施の形態にかかるコンピュータ装置によって立体視画像が生成される場合を,図5〜図8を参照しながら説明する。   In addition to the case where a stereoscopic image is generated on the screen 143 shown in FIG. 4, for example, a stereoscopic image may be generated and displayed by a personal computer (PC) or a computer device. Next, a case where a stereoscopic image is generated by the computer device according to the present embodiment will be described with reference to FIGS.

上記説明したように,図2に示すミラー121およびミラー122により反射されることで,視差画像が生成される。上記視差画像は,図2に示すようにL画像とR画像とから構成されている。   As described above, a parallax image is generated by being reflected by the mirror 121 and the mirror 122 shown in FIG. The parallax image is composed of an L image and an R image as shown in FIG.

次に,図5を参照しながら,本実施の形態にかかる立体画像処理装置に適用されるコンピュータ装置について説明する。図5は,本実施の形態にかかるコンピュータ装置の概略的な構成を示す説明図である。   Next, a computer apparatus applied to the stereoscopic image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 5 is an explanatory diagram showing a schematic configuration of the computer apparatus according to the present embodiment.

コンピュータ装置150は,少なくとも中央演算処理部(CPU),記憶部を少なくとも備える情報処理装置であり,一般的にはコンピュータ装置であるが,携帯端末,PDA(Personal Digital Assistant),ノート型パーソナルコンピュータ,またはデスクトップ型パーソナルコンピュータなどの情報処理装置も含まれる。   The computer device 150 is an information processing device including at least a central processing unit (CPU) and a storage unit, and is generally a computer device, but is a portable terminal, a PDA (Personal Digital Assistant), a notebook personal computer, An information processing apparatus such as a desktop personal computer is also included.

図5に示すように,コンピュータ装置150には,立体視画像を生成するコンピュータ装置150と,表示された立体視画像を見るときにユーザが使用する偏光メガネ171と,立体視画像を表示する立体視表示部140と,上記立体視表示部140の表示面外側に配置するライン偏光板172とが,さらに備えられる。   As shown in FIG. 5, the computer device 150 includes a computer device 150 that generates a stereoscopic image, polarized glasses 171 that a user uses when viewing the displayed stereoscopic image, and a stereoscopic that displays the stereoscopic image. A visual display unit 140 and a line polarizing plate 172 disposed outside the display surface of the stereoscopic display unit 140 are further provided.

偏光メガネ171は,コンピュータ装置150に装着された支持棒170により,コンピュータ装置150のキーボード付近の上方空間に位置するように支持されている。   The polarized glasses 171 are supported by a support bar 170 attached to the computer apparatus 150 so as to be positioned in an upper space near the keyboard of the computer apparatus 150.

次に,生成されたL画像およびR画像の視差画像は,図6に示すように,次式(1)に従って,L画像とR画像とが合成され,図7に示すような立体視画像が生成される。なお,偶数ライン,奇数ラインは,コンピュータ装置150に備わる立体視表示部140などに構成される水平方向の列のことである。   Next, as shown in FIG. 6, the generated parallax images of the L image and the R image are combined with the L image and the R image according to the following equation (1), and a stereoscopic image as shown in FIG. Generated. The even lines and odd lines are horizontal columns configured in the stereoscopic display unit 140 provided in the computer device 150.

例えば,表示部がUXGA(Ultra eXtended Graphics Array)の場合,式(1)に示すように,水平方向のラインのうち,最上端を0番ラインとすると,0番ラインは,偶数ラインであり,次に1番ラインは,奇数ラインであり,…,以降最下端ライン(1599番ライン)まで続く。   For example, when the display unit is UXGA (Ultra etended Graphics Array), as shown in Expression (1), if the top end is the 0th line among the horizontal lines, the 0th line is an even line, Next, the first line is an odd-numbered line, and so on, and continues to the lowermost line (1599 line).

偶数ライン
1×(L画像の画素)+0×(R画像の画素)=(立体視画像の画素)
奇数ライン
0×(L画像の画素)+1×(R画像の画素)=(立体視画像の画素)
・・・式(1)
Even line 1 × (L image pixel) + 0 × (R image pixel) = (stereoscopic image pixel)
Odd line 0 × (L image pixel) + 1 × (R image pixel) = (stereoscopic image pixel)
... Formula (1)

図7に示すように,0番ラインから順に,水平方向の1ラインごとにL画像,R画像を合成することにより,L画像およびR画像が1ラインごと交互に合成された立体視画像が生成される。生成された立体視画像は,例えば,コンピュータ装置に備わる立体視表示部140などに表示される。   As shown in FIG. 7, the L image and the R image are synthesized for each horizontal line sequentially from the 0th line, thereby generating a stereoscopic image in which the L image and the R image are alternately synthesized for each line. Is done. The generated stereoscopic image is displayed on, for example, the stereoscopic display unit 140 provided in the computer device.

図8に示すように,ユーザは,立体視表示部140に表示された立体視画像を,偏光メガネ171を介して見ることになる。なお,立体視表示部140には,予めライン偏光板172を備えている。   As shown in FIG. 8, the user views the stereoscopic image displayed on the stereoscopic display unit 140 through the polarized glasses 171. The stereoscopic display unit 140 includes a line polarizing plate 172 in advance.

上記ライン偏光板172は,水平方向のラインを複数有している。ライン偏光板172の複数ラインのうち,最上端から順に,偶数ラインには,垂直方向の偏光板を備え,奇数ラインには,水平方向の偏光板を備える。   The line polarizing plate 172 has a plurality of horizontal lines. Among the plurality of lines of the line polarizing plate 172, in order from the uppermost end, the even-numbered line includes a vertical polarizing plate, and the odd-numbered line includes a horizontal polarizing plate.

また,偏光メガネ171の右側には,水平方向の偏光フィルタを備え,左側には,垂直方向の偏光フィルタを備える。したがって,ライン偏光板172を通過したL画像の光またはR画像の光のうち,偏光メガネ171の左側は,奇数ラインからなるL画像の光だけが通過し,右側は,奇数ラインからなるR画像の光だけが通過する。すなわち,ユーザは,立体視画像を立体的に視聴することができる。   The right side of the polarizing glasses 171 includes a horizontal polarizing filter, and the left side includes a vertical polarizing filter. Therefore, of the L image light or the R image light that has passed through the line polarizing plate 172, only the L image light consisting of odd lines passes through the left side of the polarizing glasses 171 and the R image consisting of odd lines passes through the right side. Only the light passes through. That is, the user can view the stereoscopic image stereoscopically.

(立体画像処理装置)
ここで,図9を参照しながら,本実施の形態にかかる立体画像処理装置について説明する。図9は,本実施の形態にかかる立体画像処理装置の概略的な構成を示すブロック図である。
(Stereoscopic image processing device)
Here, the stereoscopic image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing a schematic configuration of the stereoscopic image processing apparatus according to the present embodiment.

なお,本実施の形態にかかる合成部131は,例えば,本発明にかかる回転装置又は第1回転装置等に該当する。また,本実施の形態にかかる画像分離部138は,例えば,本発明にかかる回転装置又は第2回転装置等に該当する。また,本実施の形態にかかる画像変換部139は,例えば,本発明にかかる合成装置等に該当する。   The combining unit 131 according to the present embodiment corresponds to, for example, the rotating device or the first rotating device according to the present invention. In addition, the image separation unit 138 according to the present embodiment corresponds to, for example, the rotating device or the second rotating device according to the present invention. Further, the image conversion unit 139 according to the present embodiment corresponds to, for example, a synthesis device according to the present invention.

図9に示すように,立体的に視認することが可能な立体視画像を生成する立体画像処理装置は,撮像部101と,画像エンコード部132と,画像制御情報生成部133と,データ多重化部134と,記録媒体135と,データ分離部136と,画像デコード部137と,画像分離部138と,画像変換部139と,立体視表示部140とから構成される。   As shown in FIG. 9, a stereoscopic image processing apparatus that generates a stereoscopic image that can be viewed stereoscopically includes an imaging unit 101, an image encoding unit 132, an image control information generation unit 133, and data multiplexing. The unit 134, the recording medium 135, the data separation unit 136, the image decoding unit 137, the image separation unit 138, the image conversion unit 139, and the stereoscopic display unit 140 are configured.

撮像部101は,被写体を撮像する撮像素子(CCD)130−1および撮像素子130−2と,合成部131とを備える。なお,撮像素子130−1と撮像素子130−2とを,一体化して,一組の撮像素子130から構成することも実施可能である。上記の場合,光学アダプタ105等を備えることで可能となる。   The imaging unit 101 includes an imaging device (CCD) 130-1 and an imaging device 130-2 that image a subject, and a combining unit 131. Note that the image sensor 130-1 and the image sensor 130-2 may be integrated to form a set of the image sensor 130. In the above case, it is possible to provide the optical adapter 105 or the like.

撮像素子130−1により撮像された左眼からの視点の画像(L画像。)と,撮像素子130−1により撮像された右眼からの視点の画像(R画像。)とが,合成部131に伝送される。なお,図9に示す立体画像処理装置は,2視点の場合を例に挙げて説明するが,かかる例に限定されず,複数の視点の場合であっても実施可能である。   The image of the viewpoint from the left eye (L image) captured by the image sensor 130-1 and the image of the viewpoint from the right eye (R image) captured by the image sensor 130-1 are combined by the combining unit 131. Is transmitted. Note that the stereoscopic image processing apparatus shown in FIG. 9 is described by taking the case of two viewpoints as an example, but is not limited to such an example, and can be implemented even in the case of a plurality of viewpoints.

合成部131は,伝送された各視点画像(L画像,R画像)を回転等するとともに,合成し,結合画像を生成する。さらに合成部131は,生成された結合画像は,記録媒体135又はメモリ(図示せず。)に記録されるよう指示する。なお,図9に示す結合画像は,L画像とR画像とが左右に隣り合わせとなっているが,かかる例に限定されず,例えば,L画像とR画像とが上下に隣り合わせの場合であってもよい。上記結合画像については,後述する。   The synthesizing unit 131 rotates the transmitted viewpoint images (L image, R image) and synthesizes them to generate a combined image. Further, the synthesis unit 131 instructs the generated combined image to be recorded on the recording medium 135 or a memory (not shown). The combined image shown in FIG. 9 is such that the L image and the R image are adjacent to each other on the left and right, but is not limited to such an example. For example, the L image and the R image are adjacent to each other vertically. Also good. The combined image will be described later.

上記結合画像は,画像エンコード部132によりエンコードされる。上記エンコードは,例えば,JPEG(Joint Photographic Experts Group)形式などが例示される。   The combined image is encoded by the image encoding unit 132. Examples of the encoding include a JPEG (Joint Photographic Experts Group) format.

画像制御情報生成部133は,上記結合画像から立体視画像に変換等するためのタグ情報(以下,画像制御情報。)を生成する。画像制御情報は,撮像部101の撮像時の露出,日時,フラッシュの有無などの撮像情報,または立体視表示部140に適当な立体視画像を生成するための情報等が含まれる。例えば,表示画面上の1ラインごとに左右画像(L画像,R画像)を表示するための情報などが例示される。   The image control information generation unit 133 generates tag information (hereinafter referred to as image control information) for converting the combined image into a stereoscopic image. The image control information includes imaging information such as exposure, date and time, presence / absence of flash, etc. at the time of imaging of the imaging unit 101, information for generating an appropriate stereoscopic image on the stereoscopic display unit 140, and the like. For example, information for displaying left and right images (L image, R image) for each line on the display screen is exemplified.

データ多重化部134は,画像エンコード部132から伝送される結合画像と,画像制御情報生成部133から伝送される画像制御情報とを多重化する。多重化された結合画像および画像制御情報は,記録媒体135に記録される。   The data multiplexing unit 134 multiplexes the combined image transmitted from the image encoding unit 132 and the image control information transmitted from the image control information generating unit 133. The multiplexed combined image and image control information are recorded on the recording medium 135.

記録媒体135は,データを読書き可能な記憶デバイスであり,例えば,HDD装置(ハードディスクドライブ装置),CD−RW(ReWritable),DVD−RAM(DVD−Random Access Memory),EEPROM(Electrically Erasable Programmable Read Only Memory),またはメモリスティック(登録商標)などが例示される。   The recording medium 135 is a storage device capable of reading and writing data. For example, an HDD device (hard disk drive device), a CD-RW (ReWriteable), a DVD-RAM (DVD-Random Access Memory), an EEPROM (Electrically Erasable Programmable Read). For example, an only memory) or a memory stick (registered trademark) is exemplified.

データ分離部136は,記録媒体135に記録された結合画像および画像制御情報をそれぞれ取得する。データ分離部136は,取得した結合画像を画像デコード部137に伝送し,画像制御情報を画像分離部138に伝送する。なお,結合画像データおよび画像制御情報は,記録媒体135の所定の場所(フォルダなど。)に記録されている。   The data separation unit 136 acquires the combined image and the image control information recorded on the recording medium 135, respectively. The data separation unit 136 transmits the acquired combined image to the image decoding unit 137 and transmits image control information to the image separation unit 138. The combined image data and the image control information are recorded in a predetermined location (such as a folder) of the recording medium 135.

なお,本実施の形態にかかるデータ分離部136は,記録媒体135から結合画像および画像制御情報を取得する場合を例に挙げて説明したが,結合画像と画像制御情報がリンクされていれば,かかる例に限定されず,例えば,記録先のフォルダが別々の場合や,結合画像と画像制御情報が別々に記録され,ネットワーク上のサーバ等から別々に取得する場合等であっても実施可能である。   Note that the data separation unit 136 according to the present embodiment has been described by taking as an example the case of acquiring the combined image and the image control information from the recording medium 135, but if the combined image and the image control information are linked, The present invention is not limited to this example. For example, the present invention can be implemented even when recording folders are different, or when combined images and image control information are recorded separately and acquired separately from a server on a network. is there.

画像デコード部137は,予めエンコードされた結合画像データをデコードし,画像分離部138に伝送する。   The image decoding unit 137 decodes the pre-encoded combined image data and transmits it to the image separation unit 138.

画像分離部138は,データ分離部136から伝送された画像制御情報に基づき,画像制御情報に指定された結合画像を取得し,各視点の画像(L画像,R画像)に分離する。なお,L画像とR画像に分離する際,結合画像のL画像とR画像の有効領域を切り出し,所定角度回転してもよい。分離した結果,L画像とR画像の画像の向きが同じになるようにする。   The image separation unit 138 acquires the combined image specified in the image control information based on the image control information transmitted from the data separation unit 136, and separates it into images of each viewpoint (L image, R image). Note that when separating into an L image and an R image, an effective area of the L image and the R image of the combined image may be cut out and rotated by a predetermined angle. As a result of the separation, the orientations of the L image and the R image are made to be the same.

画像変換部139は,画像分離部138から伝送されたL画像,R画像とを,上記説明した通り,重ね合わせ等することにより,立体視画像に変換する。なお,画像制御情報に切出領域などが指定された場合,画像変換部139は,切出処理等して,立体視画像に変換する。なお,切出領域については,後述する。   The image conversion unit 139 converts the L image and the R image transmitted from the image separation unit 138 into a stereoscopic image by superimposing or the like as described above. Note that when a cutout area or the like is specified in the image control information, the image conversion unit 139 converts the image into a stereoscopic image by a cutout process or the like. The cutout area will be described later.

立体視表示部140は,画像変換部139により合成された立体視画像を表示する。立体視表示部140は,後程説明するコンピュータ装置に備わるディスプレイなどの表示部,または投影してスクリーンに表示するプロジェクタ装置などが例示される。   The stereoscopic display unit 140 displays the stereoscopic image synthesized by the image conversion unit 139. The stereoscopic display unit 140 is exemplified by a display unit such as a display provided in a computer device, which will be described later, or a projector device that projects and displays on a screen.

なお,本実施の形態にかかる立体視表示部140は,立体視画像を表示する場合に限られず,例えば,2Dである静止画像,動画像などの表示,さらには音声の出力等をする場合,または立体視表示部140の代わりにプリントアウト手段を備え,アナグリフ方式の立体視画像を紙などの媒体に出力する等の場合であっても実施可能である。   Note that the stereoscopic display unit 140 according to the present embodiment is not limited to displaying a stereoscopic image. For example, when displaying a 2D still image, a moving image, or outputting a sound, Alternatively, the present invention can be implemented even when a printout unit is provided instead of the stereoscopic display unit 140 and an anaglyph stereoscopic image is output to a medium such as paper.

さらに,図10を参照しながら,図9に示す本実施の形態にかかる立体画像処理装置の変形例について説明する。図10は,図9に示す立体画像処理装置の変形例である。以下,図9に示す立体画像処理装置との相違点について説明する。   Furthermore, a modification of the stereoscopic image processing apparatus according to the present embodiment shown in FIG. 9 will be described with reference to FIG. FIG. 10 is a modification of the stereoscopic image processing apparatus shown in FIG. Hereinafter, differences from the stereoscopic image processing apparatus shown in FIG. 9 will be described.

図10に示すように,立体画像処理装置は,図9に示す立体画像処理装置と比べて,1つの撮像装置100が備わる点で異なる。さらに,撮像装置100は,光学アダプタ105を備えている点でも異なる。   As shown in FIG. 10, the stereoscopic image processing apparatus is different from the stereoscopic image processing apparatus shown in FIG. 9 in that one imaging apparatus 100 is provided. Furthermore, the imaging apparatus 100 is different in that an optical adapter 105 is provided.

したがって,光学アダプタ105を備えた撮像装置100は,1回の撮影(シャッター)で,左眼用の視点画像と右眼用の視点画像を撮像し,上記2視点画像からなる結合画像データを生成することができる。   Therefore, the imaging apparatus 100 including the optical adapter 105 captures the left-eye viewpoint image and the right-eye viewpoint image in one shooting (shutter), and generates combined image data including the two viewpoint images. can do.

(撮像装置100)
次に,本実施の形態にかかる撮像装置100について説明すると,撮像装置100は,少なくともレンズ103と撮像素子130を備え,上記レンズ103には,さらに光学アダプタ105が装着可能となっている。また,図9に示すように,撮像装置100は,撮像部101内に備わってもよく,撮像装置100は,合成部131を備えている場合でもよい。
(Imaging device 100)
Next, the imaging apparatus 100 according to the present embodiment will be described. The imaging apparatus 100 includes at least a lens 103 and an imaging element 130, and an optical adapter 105 can be further attached to the lens 103. As illustrated in FIG. 9, the imaging device 100 may be provided in the imaging unit 101, and the imaging device 100 may include a combining unit 131.

また,本実施の形態にかかる画像エンコード部132,画像制御情報生成部133,データ多重化部134,および記録媒体135は,撮像装置100に備わらない場合を例に挙げて説明したが,かかる例に限定されず,例えば,画像エンコード部132,画像制御情報生成部133,データ多重化部134,もしくは記録媒体135等のうちいずれか1つまたは任意の組合せが撮像装置100に備わる場合であっても実施可能である。   Further, although the image encoding unit 132, the image control information generation unit 133, the data multiplexing unit 134, and the recording medium 135 according to the present embodiment have been described as an example, the imaging apparatus 100 is not provided. For example, the imaging apparatus 100 includes any one or any combination of the image encoding unit 132, the image control information generation unit 133, the data multiplexing unit 134, the recording medium 135, and the like. However, it can be implemented.

(コンピュータ装置150)
図5に示すコンピュータ装置150は,図9に示す立体画像処理装置に構成するデータ分離部136,画像デコード部137,画像分離部138,画像変換部139,および立体視表示部140を備える。なお,コンピュータ装置150は,画像エンコード部132,画像制御情報生成部133,データ多重下部134,記録媒体135をさらに備える場合でもよい。
(Computer device 150)
A computer apparatus 150 shown in FIG. 5 includes a data separation unit 136, an image decoding unit 137, an image separation unit 138, an image conversion unit 139, and a stereoscopic display unit 140 that are included in the stereoscopic image processing apparatus shown in FIG. The computer device 150 may further include an image encoding unit 132, an image control information generation unit 133, a data multiplexing lower part 134, and a recording medium 135.

コンピュータ装置150は,図1に示す光学アダプタ105が装着された撮像装置100によって撮影された結合画像データを取込む。または,コンピュータ装置150は,光学アダプタ105が装着されていない状態で撮影された画像データなどを取り込む。なお,本実施の形態にかかる撮像装置100は,例えば,ディジタルスチルカメラ,ディジタルビデオカメラなどが例示される。   The computer device 150 takes in the combined image data photographed by the imaging device 100 with the optical adapter 105 shown in FIG. Alternatively, the computer device 150 captures image data captured without the optical adapter 105 attached. Examples of the imaging apparatus 100 according to the present embodiment include a digital still camera and a digital video camera.

さらに,コンピュータ装置150は,取込んだ結合画像データまたは連続的に撮影された2枚の画像データから立体視画像データを生成する。生成された立体視画像データは,立体視画像として立体視表示部140に表示される。   Further, the computer device 150 generates stereoscopic image data from the captured combined image data or two pieces of image data that are continuously captured. The generated stereoscopic image data is displayed on the stereoscopic display unit 140 as a stereoscopic image.

なお,撮像装置100からコンピュータ装置150に取り込まれる結合画像等の画像データには,画像制御情報生成部133により生成された画像制御情報が付与されている。   Note that image control information generated by the image control information generation unit 133 is added to image data such as a combined image captured from the imaging apparatus 100 to the computer apparatus 150.

(立体視画像ファイル)
次に,図11を参照しながら,本実施の形態にかかる立体視画像ファイルについて説明する。図11は,本実施の形態にかかる立体視画像ファイルのデータ構造の概略を示す説明図である。
(Stereoscopic image file)
Next, the stereoscopic image file according to the present embodiment will be described with reference to FIG. FIG. 11 is an explanatory diagram showing an outline of the data structure of the stereoscopic image file according to the present embodiment.

図11に示すように,立体視画像ファイルは,例えば,ファイル名が“ファイル1.jpg”など,拡張子が“.jpg”のJPEG形式の圧縮データファイルである。   As shown in FIG. 11, the stereoscopic image file is a JPEG format compressed data file having an extension of “.jpg”, such as a file name “file 1.jpg”.

また,立体視画像ファイルは,DCF(Design rule for Camera File system)規格に準拠して記録し,これにアプリケーション・マーカセグメント(APP1)を挿入する。   In addition, the stereoscopic image file is recorded in accordance with a DCF (Design rule for Camera File system) standard, and an application marker segment (APP1) is inserted therein.

APP1は,立体視画像ファイルの始まりを示すSOI(Start Of Image)マーカの直後に配置される。   APP1 is arranged immediately after an SOI (Start Of Image) marker indicating the start of a stereoscopic image file.

さらに,APP1の直後には,結合画像データが配置され,最後に立体視画像ファイルの終了を示すEOI(End Of Image)が配置される。なお,結合画像については,後程説明する。   Further, immediately after APP1, combined image data is arranged, and finally an EOI (End Of Image) indicating the end of the stereoscopic image file is arranged. The combined image will be described later.

上記APP1の領域には,図11に示すように,Exif(Exchangeable image file format)の識別情報,および付属情報本体(Tiff header,IFD0,IFD1)から構成される。これら全てを含むAPP1の大きさは,JPEGの規格により64kByteを越えてはならない。   As shown in FIG. 11, the APP1 area includes identification information of Exif (Exchangeable image file format) and an attached information main body (Tiff header, IFD 0, IFD 1). The size of APP1 including all of these must not exceed 64 kBytes according to the JPEG standard.

付属情報は,File Header(Tiff header)を含むTiffの構造をとり,最大二つのIFD(IFD0(0th IFD),IFD1(1st IFD))を記録できる。なお,IFDは,“Image File Directory”の略である。   The attached information has a Tiff structure including a file header (Tiff header), and can record a maximum of two IFDs (IFD0 (0th IFD) and IFD1 (1st IFD)). Note that IFD is an abbreviation of “Image File Directory”.

IFD0は,圧縮されている画像(主画像)または立体視画像(3D画像)などに関する付属情報を記録する。図11に示すように,IFD0領域には,Exif IFDのポインタが入るExifポインタ部と,GPS IFDのポインタが入るGPSポインタ部と,3D IFDのポインタが入る3Dポインタ部とが配置される。   The IFD0 records attached information related to a compressed image (main image) or a stereoscopic image (3D image). As shown in FIG. 11, in the IFD0 area, an Exif pointer section into which an Exif IFD pointer enters, a GPS pointer section into which a GPS IFD pointer enters, and a 3D pointer section into which a 3D IFD pointer enters.

さらに,IFD0領域には,各ポインタ部の後に,Exif IFDと,Exif IFD Valueと,GPS IFDと,GPS IFD Valueと,3D IFDと,3D IFD Valueとが配置される。   In the IFD0 area, an Exif IFD, an Exif IFD Value, a GPS IFD, a GPS IFD Value, a 3D IFD, and a 3D IFD Value are arranged after each pointer portion.

Exif IFDおよびExif IFD Valueには,画像データの特性,構造,ユーザ情報,撮影条件,もしくは日時等に関連するタグまたはタグ値が記録される。例えば,ユーザコメントのためのタグ“UserComment”タグ,露出時間を示すためのタグ“ExposureTime”,フラッシュの有無を示すためのタグ“Flash”タグなどが例示される。   In the Exif IFD and the Exif IFD Value, tags or tag values related to image data characteristics, structure, user information, shooting conditions, or date / time are recorded. For example, a tag “UserComment” tag for a user comment, a tag “ExposureTime” for indicating an exposure time, a tag “Flash” tag for indicating the presence or absence of a flash, and the like are exemplified.

GPS IFDおよびGPS IFD Valueには,GPS(global positioning system)に関するタグまたはタグ値が記録される領域である。例えば,緯度を示すタグ“GPSLatitude”,高度を示すタグ“GPSAltitude”などが例示される。   The GPS IFD and the GPS IFD Value are areas in which tags or tag values related to GPS (global positioning system) are recorded. For example, a tag “GPSLatitude” indicating latitude, a tag “GPSAltitude” indicating altitude, and the like are exemplified.

上記3D IFDおよび3D IFD Valueに,3D画像である立体視画像に変換するための処理等を制御する画像制御情報に関するタグまたはタグ値(Value)が記録される。なお,画像制御情報については,後程詳述する。また,本実施の形態にかかる結合画像ファイルについても,立体視画像ファイルとほぼ同様のデータ構造である。   In the 3D IFD and 3D IFD Value, a tag or tag value (Value) related to image control information for controlling processing for converting to a stereoscopic image that is a 3D image is recorded. The image control information will be described in detail later. Also, the combined image file according to the present embodiment has almost the same data structure as the stereoscopic image file.

なお,本実施の形態にかかる立体視画像ファイルのデータ構造は,かかる例に限定されず,他のデータ構造である場合であっても実施することが可能である。例えば,立体視画像用ファイルのデータ構造がJPEGデータからなる場合,各JPEGデータには,JPEGヘッダと圧縮画像データとEOI(End Of Image)とが含まれる場合でもよい。上記JPEGヘッダには,SOI(Start Of Image)や色管理情報等の付属情報が存在する。また,視点画像データの視点番号などの視点情報は,例えば,各々のJPEGヘッダに存在させることもできる。視点が異なる複数の視点画像は,ファイルヘッダとそれに続く複数のJPGEデータとその全体の終わりを示すファイルエンド情報とすることができる。全体に対するヘッダを存在させない場合(結合画像の場合)には,視点情報が,JPEGヘッダ内(アプリケーションマーカー/IFD)に格納される。   Note that the data structure of the stereoscopic image file according to the present embodiment is not limited to such an example, and the data structure can be implemented even if it is another data structure. For example, when the data structure of the stereoscopic image file is composed of JPEG data, each JPEG data may include a JPEG header, compressed image data, and EOI (End Of Image). The JPEG header includes attached information such as SOI (Start Of Image) and color management information. Further, viewpoint information such as the viewpoint number of the viewpoint image data may be present in each JPEG header, for example. A plurality of viewpoint images having different viewpoints can be file end information indicating a file header, a plurality of subsequent JPG data, and the end of the whole. When the header for the entire image does not exist (in the case of a combined image), the viewpoint information is stored in the JPEG header (application marker / IFD).

(画像情報)
本実施の形態にかかる立体視画像ファイルは,少なくとも撮影または記録等により生成される主画像となる視点画像データと,画像制御情報とから構成されている。なお,視点画像データ,画像制御情報については,DCF規格に規定されている。
(Image information)
The stereoscopic image file according to the present embodiment includes at least viewpoint image data serving as a main image generated by shooting or recording, and image control information. The viewpoint image data and the image control information are defined in the DCF standard.

(画像フォーマット)
次に,図12を参照しながら,本実施の形態にかかる結合画像データについて説明する。図12は,本実施の形態にかかる結合画像データの概略的な構成を示す説明図である。
(Image format)
Next, the combined image data according to the present embodiment will be described with reference to FIG. FIG. 12 is an explanatory diagram showing a schematic configuration of combined image data according to the present embodiment.

図12(a)および図12(b)に示すように,本実施の形態にかかる視差画像データは,左眼用の視点画像(L画像),右眼用の視点画像(R画像)とから構成されている。なお,L画像およびR画像は,各視点において撮像された視点画像である。静止画像である上記視点画像から3Dの立体視画像に合成される。   As shown in FIGS. 12A and 12B, the parallax image data according to the present embodiment is obtained from a left eye viewpoint image (L image) and a right eye viewpoint image (R image). It is configured. Note that the L image and the R image are viewpoint images captured at each viewpoint. The viewpoint image, which is a still image, is synthesized into a 3D stereoscopic image.

上記結合画像データは,1つの画像に,L画像データおよびR画像データが一体となるように構成される画像データである。したがって,結合画像データは,視差画像データと比べて,複数の視点画像から構成されている点では共通するが,特に各視点画像が別個・独立していない点で,視差画像データとは,大きく異なる。結合画像のL画像およびR画像は,結合され,一体化されている。   The combined image data is image data configured such that L image data and R image data are integrated into one image. Therefore, compared to the parallax image data, the combined image data is common in that it is composed of a plurality of viewpoint images, but the parallax image data is largely different from the parallax image data particularly in that each viewpoint image is not separate or independent. Different. The L image and the R image of the combined image are combined and integrated.

図12(a)に示す結合画像350−1は,水平方向,左右にL画像とR画像とが両隣に並ぶように構成される。また,図12(b)に示す結合画像350−2は,垂直方向,上下にL画像とR画像とが一体的に結合されている。   A combined image 350-1 shown in FIG. 12A is configured such that an L image and an R image are arranged side by side in the horizontal direction and on the left and right. Also, in the combined image 350-2 shown in FIG. 12B, the L image and the R image are integrally combined vertically in the vertical direction.

なお,本実施の形態にかかる結合画像は,2視点である場合を例に挙げて説明したが,かかる例に限定されず,複数視点から撮影した画像を一枚の結合画像に結合して記録する場合であっても実施可能である。   The combined image according to the present embodiment has been described by taking the case of two viewpoints as an example. However, the combined image is not limited to such an example, and images captured from a plurality of viewpoints are combined and recorded into a single combined image. Even if it is, it can be implemented.

また,図12(c)に示すように,垂直方向上下に結合された上記結合画像350−2の他に,全部で合計4つのパターンの結合画像(350−3,350−4,350−5,350−6)が存在する。   Further, as shown in FIG. 12C, in addition to the combined image 350-2 combined vertically in the vertical direction, a total of four combined images (350-3, 350-4, 350-5) are combined. , 350-6).

図12(c)に示す結合画像(350−3,350−4,350−5,350−6)は,垂直方向上下に結合された上記結合画像350−2の配置形式から,上下の画像を一体化した状態で,左右に倒すことで配置されている(時計方向右回りに90度回転,または時計方向左回り90度回転。)。   A combined image (350-3, 350-4, 350-5, 350-6) shown in FIG. 12C is obtained by converting the upper and lower images from the arrangement form of the combined image 350-2 combined vertically in the vertical direction. In an integrated state, it is arranged by tilting it to the left or right (90 ° clockwise rotation or 90 ° clockwise rotation).

結合画像(350−3,350−4,350−5,350−6)は,図12(b)に示す結合画像350−2よりも,特にアスペクト比が3:4等のディスプレイに結合画像を表示する際,収まりがよく,1画面内に表示することが出来る。   The combined image (350-3, 350-4, 350-5, 350-6) is displayed on the display having an aspect ratio of 3: 4, in particular, than the combined image 350-2 shown in FIG. When displaying, it fits well and can be displayed in one screen.

また,上記結合画像(350−3,350−4,350−5,350−6)は,立体視画像に合成等するための画像制御情報とともに記録媒体135に記録されているため,ネットワーク等を介して,結合画像と画像制御情報を配信することが容易にできる。   Further, the combined image (350-3, 350-4, 350-5, 350-6) is recorded on the recording medium 135 together with image control information for synthesizing the stereoscopic image. Thus, it is possible to easily distribute the combined image and the image control information.

なお,結合画像(350−3,350−4,350−5,350−6)と画像制御情報が相互にリンクされていれば記録方法については,限定されない。例えば,同一ファイル内に結合画像と画像制御情報を記録する場合や,ネットワークに接続された別々のサーバに結合画像と画像制御情報が別々に記録される場合等でも実施可能である。   Note that the recording method is not limited as long as the combined image (350-3, 350-4, 350-5, 350-6) and the image control information are linked to each other. For example, the present invention can be implemented even when the combined image and the image control information are recorded in the same file, or when the combined image and the image control information are separately recorded on different servers connected to the network.

また,結合画像(350−3,350−4,350−5,350−6)を水平方向に圧縮することで,結合画像から立体視画像に合成し,表示する際には,回転して元に戻した状態の画像の垂直成分のみが圧縮された状態となるので,水平方向の画質を劣化させることなく立体視画像を表示することができる。   In addition, by compressing the combined image (350-3, 350-4, 350-5, 350-6) in the horizontal direction, the combined image is combined with the stereoscopic image and displayed when rotated. Since only the vertical component of the image in the restored state is compressed, a stereoscopic image can be displayed without degrading the image quality in the horizontal direction.

結合画像(350−3,350−4,350−5,350−6)のうち,どの配置パターンで保存するかについては,2種の指定パターンがある。1つ目のパターンは,各結合画像(350−3,350−4,350−5,350−6)のそれぞれについて,“1”,“2”,“3”,“4”などのIDを付与することで配置パターンを指定するパターンである。   Of the combined images (350-3, 350-4, 350-5, 350-6), there are two types of designated patterns as to which arrangement pattern is stored. The first pattern is an ID such as “1”, “2”, “3”, “4”, etc. for each of the combined images (350-3, 350-4, 350-5, 350-6). It is a pattern that designates an arrangement pattern by giving.

2つ目のパターンは,結合画像(350−3,350−4,350−5,350−6)のうち,まず結合画像(350−3,350−5)または結合画像(350−4,350−6)のどちらであるかを指定し,さらに右視点画像(R画像)が右側であるのか左側に配置されるのかを指定するパターンである。詳細については後述する。   In the second pattern, the combined image (350-3, 350-4, 350-5, 350-6) is first combined image (350-3, 350-5) or combined image (350-4, 350). −6) and a pattern for designating whether the right viewpoint image (R image) is arranged on the right side or the left side. Details will be described later.

結合画像350−3は,図12(b)に示す結合画像350−2を左側に倒した状態の画像である。さらに結合画像350−3は,図12(c)に示すように,左側にR画像,右側にL画像が配置された構成の画像である。また,左側のR画像と右側のL画像とともに,画像の向き(天地)は,上側が水平左方向であり,下側が水平右方向である。   The combined image 350-3 is an image in a state where the combined image 350-2 illustrated in FIG. Furthermore, the combined image 350-3 is an image having a configuration in which an R image is arranged on the left side and an L image is arranged on the right side, as shown in FIG. In addition to the left R image and the right L image, the image orientation (top and bottom) is the horizontal left direction on the upper side and the horizontal right direction on the lower side.

結合画像350−4は,図12(b)に示す結合画像350−2を左側に倒した状態での画像である。さらに結合画像350−4は,図12(c)に示すように,左側にL画像,右側にR画像が配置された構成の画像である。また,左側のL画像と右側のR画像とともに,画像の向き(天地)は,上側(天井側)が水平右方向であり,下側(地面側)が水平左方向である。   The combined image 350-4 is an image in a state where the combined image 350-2 shown in FIG. Further, as shown in FIG. 12C, the combined image 350-4 is an image having a configuration in which an L image is arranged on the left side and an R image is arranged on the right side. In addition to the left L image and the right R image, the image orientation (top and bottom) is the horizontal right direction on the upper side (ceiling side) and the horizontal left direction on the lower side (ground side).

結合画像350−5は,結合画像350−3の状態から,画像の向きはそのままにして,L画像とR画像を左右入替えた状態の画像となっており,結合画像350−6は,結合画像350−4の状態から,画像の向きはそのままにして,L画像とR画像を左右入替えた状態の画像となっている。   The combined image 350-5 is an image in which the L image and the R image are switched left and right from the state of the combined image 350-3, with the orientation of the image unchanged, and the combined image 350-6 is a combined image. From the state of 350-4, the image is in the state in which the L image and the R image are interchanged with the left and right being left unchanged.

図12(c)に示す結合画像(350−3,350−4,350−5,350−6)は,各視点画像であるR画像,L画像の画枠を,例えば縦×横が2×3等のワイド画像にしても,1画面内に左右並べて表示することが可能であり,さらにR画像とL画像をそれぞれ90度回転することで,合成後の立体視画像もワイドな画像に表示される。以下,特に明記されない場合,結合画像は,図12(c)に示す画像のいずれかを示すものとする。   In the combined image (350-3, 350-4, 350-5, 350-6) shown in FIG. 12C, the image frames of the R image and the L image that are the respective viewpoint images, for example, 2 × vertical × horizontal Even a wide image such as 3 can be displayed side by side in one screen, and the R image and L image can be rotated by 90 degrees to display the combined stereoscopic image in a wide image. Is done. Hereinafter, unless otherwise specified, the combined image indicates any one of the images shown in FIG.

(複数視点の視点画像)
ここで,図13を参照しながら,本実施の形態にかかる複数の視点から撮像した場合の視点画像について説明する。図13は,本実施の形態にかかる複数の視点から撮像した場合の視点画像の概略的な構成を示す説明図である。
(Multi-viewpoint images)
Here, with reference to FIG. 13, a viewpoint image in the case of imaging from a plurality of viewpoints according to the present embodiment will be described. FIG. 13 is an explanatory diagram illustrating a schematic configuration of a viewpoint image when captured from a plurality of viewpoints according to the present embodiment.

図13(a)に示すように,被写体230に対して複数台の撮像装置100(100−1,100−2,100−3,…,100−6)が配置されている。撮像装置100を識別するために,各撮像装置100に対して視点位置が付される。   As shown in FIG. 13A, a plurality of imaging devices 100 (100-1, 100-2, 100-3,..., 100-6) are arranged for the subject 230. In order to identify the imaging device 100, a viewpoint position is attached to each imaging device 100.

なお,本実施の形態にかかる撮像装置100(100−1,100−2,100−3,…,100−6)は,6つの視点から撮影するために,配置される場合を例に挙げて説明するが,1又は2以上の撮像装置100が配置される限り,かかる例に限定されない。   Note that the imaging apparatus 100 (100-1, 100-2, 100-3,..., 100-6) according to the present embodiment is taken as an example when it is arranged for shooting from six viewpoints. As will be described, the present invention is not limited to this example as long as one or more imaging devices 100 are arranged.

上記視点位置は,図13(a)に示すように,水平方向(x),垂直方向(y)の(x,y)座標に基づき,撮像装置100−1である左上から順にA,A,A,…と表わされる。例えば,Aは,座標で表わすと,(水平方向座標,垂直方向座標)=(1,0)などとなる。 As shown in FIG. 13A, the viewpoint position is based on the (x, y) coordinates in the horizontal direction (x) and the vertical direction (y) in order from the upper left, which is the imaging device 100-1, A 1 , A 2 , A 3 ,... For example, when A 1 is expressed by coordinates, (horizontal direction coordinates, vertical direction coordinates) = (1, 0).

したがって,撮像装置100から撮像された視点画像に各視点の視点位置が付加されることで,どの視点から撮像された視点画像であるか,識別することが可能となる。   Therefore, by adding the viewpoint position of each viewpoint to the viewpoint image captured from the imaging device 100, it is possible to identify from which viewpoint the viewpoint image is captured.

例えば,撮像装置100の視点位置が“A”の場合,図13(b)に示すように,撮像装置100により撮像された視点画像の視点位置も“A”である。 For example, when the viewpoint position of the imaging apparatus 100 is “A 1 ”, the viewpoint position of the viewpoint image captured by the imaging apparatus 100 is also “A 1 ” as illustrated in FIG.

したがって,撮像装置100の画像制御情報生成部133は,画像制御情報を生成し,上記画像制御情報における所定のタグのフィールドに,上記視点位置“A”(1,0)を設定する。上記視点位置にかかる所定のタグについては後述する。 Therefore, the image control information generation unit 133 of the imaging apparatus 100 generates image control information, and sets the viewpoint position “A 1 ” (1, 0) in a field of a predetermined tag in the image control information. The predetermined tag relating to the viewpoint position will be described later.

(画像制御情報)
本実施の形態にかかる結合画像データから立体視画像データに合成し,表示するためには,上記説明したように,タグ情報としての画像制御情報を例えば,ハードディスク,記録媒体などに記録する必要がある。
(Image control information)
In order to synthesize and display stereoscopic image data from the combined image data according to the present embodiment, it is necessary to record image control information as tag information on, for example, a hard disk or a recording medium as described above. is there.

次に,本実施の形態にかかる画像制御情報に関するタグについて説明する。本実施の形態にかかるタグには,3D画像であることを示す“3Dタグ”,上記画像制御情報のサイズを示す“画像制御情報サイズタグ”,3D画像のサイズを示す“3D画像サイズタグ”,使用者が任意のデータを管理等できる“使用者データ領域タグ(ApplicationData)”,データ構成種別を管理するための“データ構成種別タグ”,または上記画像制御情報のバージョンを示す“画像制御情報バージョンタグ”が存在する。画像制御情報に含まれるタグを用いることによって,適当な立体視画像を生成したり,編集したり様々な処理を施すことができる。   Next, tags related to image control information according to the present embodiment will be described. The tag according to the present embodiment includes a “3D tag” indicating a 3D image, an “image control information size tag” indicating the size of the image control information, and a “3D image size tag” indicating the size of the 3D image. "User data area tag (ApplicationData)" that allows the user to manage arbitrary data, "Data configuration type tag" for managing the data configuration type, or "Image control information indicating the version of the image control information" Version tag "exists. By using a tag included in the image control information, an appropriate stereoscopic image can be generated, edited, and subjected to various processes.

また,さらに本実施の形態にかかる画像制御情報にかかるタグには,例えば図13に示した“A”〜“B”の視点位置を示すためのタグ(視点位置タグ),3D画像が結合画像であるか否かを示す“結合画像タグ”,3D画像の回転状況等を示す“回転タグ”,3D画像から所定領域切り出された切出領域の水平方向のサイズを示す“切出サイズタグX(CropSizeX)”,3D画像から所定領域切り出された切出領域の垂直方向のサイズを示す“切出サイズタグY(CropSizeY)”,3D画像における切出領域の水平方向のオフセットを示す“切出オフセットタグX(CropOffsetX)”,または3D画像における切出領域の垂直方向のオフセットを示す“切出オフセットタグY(CropOffsetY)”が存在する。なお,“CropOffsetX”,“CropOffsetY”は,複数の視点から3D画像がなる場合,各視点のオフセットを示す。なお,上記回転タグには,例えば,回転角度情報など,視点画像が回転した角度等が設定される。 Further, the tags related to the image control information according to the present embodiment include, for example, tags (viewpoint position tags) for indicating viewpoint positions “A 1 ” to “B 3 ” shown in FIG. 13 and 3D images. “Combined image tag” indicating whether the image is a combined image, “Rotation tag” indicating the rotation status of the 3D image, etc., “Cutout size” indicating the horizontal size of a cut-out area cut out from the 3D image "Tag X (CropSizeX)", "Cut size tag Y (CropSizeY)" indicating the vertical size of a cut-out area cut out from the 3D image, and "Horizontal offset of the cut-out area in the 3D image""Cutoff offset tag X (CropOffsetX)" or "Cutoff offset tag Y (CropOffsetY)" indicating the vertical offset of the cutout region in the 3D image ”Exists. Note that “CropOffsetX” and “CropOffsetY” indicate the offset of each viewpoint when a 3D image is formed from a plurality of viewpoints. The rotation tag is set with, for example, an angle at which the viewpoint image is rotated, such as rotation angle information.

また,さらに本実施の形態にかかる画像制御情報にかかるタグには,3D画像における有効領域の水平方向のサイズを示す“有効サイズタグX(ValidSizeX)”,3D画像における有効領域の垂直方向のサイズを示す“有効サイズタグY(ValidSizeY)”,3D画像における有効領域の水平方向のオフセットを示す“有効オフセットタグX(ValidOffsetX)”,または3D画像における有効領域の垂直方向のオフセットを示す“有効オフセットタグY(ValidOffsetY)”が存在する。なお,“有効オフセットタグX”,“有効オフセットタグY”は,複数の視点から3D画像がなる場合,各視点のオフセットを示す。   Further, the tag relating to the image control information according to the present embodiment includes “effective size tag X (ValidSizeX)” indicating the horizontal size of the effective area in the 3D image, and the vertical size of the effective area in the 3D image. "Effective size tag Y (ValidSizeY)" indicating "effective offset tag X (ValidOffsetX)" indicating the horizontal offset of the effective area in the 3D image, or "effective offset indicating the vertical offset of the effective area in the 3D image" A tag Y (ValidOffsetY) "exists. Note that “effective offset tag X” and “effective offset tag Y” indicate the offset of each viewpoint when a 3D image is formed from a plurality of viewpoints.

また,さらに本実施の形態にかかる画像制御情報にかかるタグには,3D画像(立体視画像)を表示可能な立体視表示部140に,適正なサイズの立体視画像を表示するためのタグである“想定表示サイズタグ”,または立体視画像の注目参照点を示すための“リマークポイントタグ”などが存在する。   Furthermore, the tag relating to the image control information according to the present embodiment is a tag for displaying a stereoscopic image of an appropriate size on the stereoscopic display unit 140 capable of displaying a 3D image (stereoscopic image). There is a certain “assumed display size tag” or a “remark point tag” for indicating a target reference point of a stereoscopic image.

例えば,上記“回転タグ”は,3バイトからなる。なお,“回転タグ”は,結合画像における各視点画像の回転角,左右ミラー反転の有無を示し,0〜7のいずれかの値が設定される。0〜7の値に応じて回転角,ミラーの有無が決定する。   For example, the “rotation tag” consists of 3 bytes. The “rotation tag” indicates the rotation angle of each viewpoint image in the combined image, the presence / absence of left / right mirror inversion, and a value of 0 to 7 is set. The rotation angle and presence / absence of the mirror are determined according to the values of 0 to 7.

また,“CropOffsetX”は,各視点6バイトからなるタグである。したがって,例えば2視点の場合は,12バイトとなる。なお,“CropOffsetX”は,切出領域の水平方向のオフセットを示す。切出領域の水平方向のオフセットは,水平方向の切出領域の開始位置(始点)を示す。   “CropOffsetX” is a tag consisting of 6 bytes for each viewpoint. Therefore, for example, in the case of two viewpoints, it is 12 bytes. “CropOffsetX” indicates the horizontal offset of the cut-out area. The horizontal offset of the cutout area indicates the start position (start point) of the horizontal cutout area.

“CropOffsetY”は,各視点6バイトからなるタグである。したがって,例えば2視点の場合は,12バイトとなる。なお,“CropOffsetY”は,切出領域の垂直方向のオフセットを示す。各視点の画像の上下ずれ補正量も含み,ずれ量が不明の場合は,上記“CropOffsetY”には,“0”の値が設定される。切出領域の垂直方向のオフセットは,垂直方向の切出領域の開始位置(始点)を示す。切出領域の垂直/水平方向のオフセットが定まることにより,切出領域の開始位置が定まる。   “CropOffsetY” is a tag consisting of 6 bytes for each viewpoint. Therefore, for example, in the case of two viewpoints, it is 12 bytes. “CropOffsetY” indicates a vertical offset of the cutout area. Including the vertical shift correction amount of the image of each viewpoint, and when the shift amount is unknown, the value “0” is set in the “CropOffsetY”. The vertical offset of the cutout area indicates the start position (start point) of the vertical cutout area. By determining the vertical / horizontal offset of the cutout area, the start position of the cutout area is determined.

“ValidSizeX”は,各視点6バイトのタグである。なお,“ValidSizeX”は,結合画像から3D画像に変換することが可能な領域を示す有効領域の水平方向のサイズである。   “ValidSizeX” is a 6-byte tag for each viewpoint. Note that “ValidSizeX” is the horizontal size of an effective area indicating an area that can be converted from a combined image to a 3D image.

“ValidSizeY”は,各視点6バイトのタグである。なお,“ValidSizeY”は,有効領域の垂直方向のサイズである。   “ValidSizeY” is a 6-byte tag for each viewpoint. “ValidSizeY” is the vertical size of the effective area.

“ValidOffsetX”は,各視点6バイトのタグである。例えば,3視点の場合は,18バイトである。なお,“ValidOffsetX”は,有効領域の水平方向のオフセットである。有効領域の水平方向のオフセットは,水平方向の有効領域の開始位置(始点)を示す。   “ValidOffsetX” is a 6-byte tag for each viewpoint. For example, in the case of 3 viewpoints, it is 18 bytes. Note that “ValidOffsetX” is an offset in the horizontal direction of the effective area. The horizontal offset of the effective area indicates the start position (start point) of the effective area in the horizontal direction.

“ValidOffsetY”は,各視点6バイトのタグである。例えば,3視点の場合は,18バイトである。なお,“ValidOffsetY”は,有効領域の垂直方向のオフセットである。有効領域の垂直方向のオフセットは,垂直方向の有効領域の開始位置(始点)を示す。   “ValidOffsetY” is a 6-byte tag for each viewpoint. For example, in the case of 3 viewpoints, it is 18 bytes. “ValidOffsetY” is an offset in the vertical direction of the effective area. The vertical offset of the effective area indicates the start position (start point) of the effective area in the vertical direction.

“想定表示サイズタグ”は,4バイトのタグである。なお, “想定表示サイズタグ”のタグのフィールドには,例えば,立体視表示部140の種類と大きさが設定される。立体視表示部140の大きさは,本実施の形態ではインチ(inch)により表されるが,係る例に限定されない。   The “assumed display size tag” is a 4-byte tag. For example, the type and size of the stereoscopic display unit 140 are set in the tag field of “assumed display size tag”. The size of the stereoscopic display unit 140 is expressed by inches in the present embodiment, but is not limited to such an example.

“リマークポイントタグ”は,6バイトのタグである。なお,“Remarkpoint”は,立体視画像の注目点を示すためのタグである。   The “remark point tag” is a 6-byte tag. Note that “Remarkpoint” is a tag for indicating a point of interest in a stereoscopic image.

立体視表示部140に立体視画像を表示する場合,立体視表示部140の中心点には,参照注目点に該当する立体視画像が表示される。したがって,立体視表示部140の中心点と,立体視画像の注目点とは一致する。   When displaying a stereoscopic image on the stereoscopic display unit 140, a stereoscopic image corresponding to the reference attention point is displayed at the center point of the stereoscopic display unit 140. Therefore, the center point of the stereoscopic display unit 140 matches the attention point of the stereoscopic image.

“リマークポイント”のタグから注目点が設定されることにより,例えば,立体視画像の大きさよりも立体表示部140が小さい場合,立体視画像全体を表示することはできないが,立体視画像を少なくとも部分的に視認することが可能となる。   By setting the point of interest from the “remark point” tag, for example, when the stereoscopic display unit 140 is smaller than the size of the stereoscopic image, the entire stereoscopic image cannot be displayed, but at least the stereoscopic image is displayed. It becomes possible to partially visually recognize.

(メタファイル形式による画像制御情報)
次に,本実施の形態にかかる画像制御情報生成部133はXML(eXtensible Markup Language)形式などのメタファイルである付帯情報を生成すると,直接,記録媒体135は,上記付帯情報を,多重化された画像ファイルとは別ファイルとして記録するようにしてもよい。
(Image control information in metafile format)
Next, when the image control information generation unit 133 according to the present embodiment generates auxiliary information that is a metafile such as an XML (extensible Markup Language) format, the recording medium 135 directly multiplexes the auxiliary information. The image file may be recorded as a separate file.

次に,本実施の形態にかかる立体画像処理装置における各種機能の説明をする。   Next, various functions in the stereoscopic image processing apparatus according to the present embodiment will be described.

(結合画像における視点画像の配置)
まず,図14を参照しながら,本実施の形態における視点画像の配置について説明する。図14は,本実施の形態における視点画像の配置の概略的な構成を示す説明図である。
(Arrangement of viewpoint images in combined images)
First, the arrangement of viewpoint images in the present embodiment will be described with reference to FIG. FIG. 14 is an explanatory diagram showing a schematic configuration of the viewpoint image arrangement in the present embodiment.

(平行配置)
視点画像の配置には,2つの配置がある。図14(a)に示すように,右眼用の画像(以下,R画像)が右側で,左眼用の画像(以下,L画像)が左側である一般的な配置の場合を,平行配置とする。したがって,平行配置の結合画像は,ユーザの左右の眼から見える視点と同じ配置である。なお,上記平行配置による結合画像を,いわゆる平行法によって見た場合,結合画像を立体的に見ることができる。平行法とは,対象より遠いところに眼の焦点を合わせたまま,手前にある対象を見る方法である。
(Parallel arrangement)
There are two arrangements of viewpoint images. As shown in FIG. 14A, a parallel arrangement is used in a general arrangement in which an image for the right eye (hereinafter referred to as an R image) is on the right side and an image for the left eye (hereinafter referred to as an L image) is on the left side. And Therefore, the combined image of the parallel arrangement is the same arrangement as the viewpoint seen from the left and right eyes of the user. In addition, when the combined image by the parallel arrangement is viewed by a so-called parallel method, the combined image can be viewed stereoscopically. The parallel method is a method of looking at an object in front while keeping the eye focused at a position far from the object.

(交差配置)
次に,図14(b)に示すように,L画像が右側で,R画像が左側である場合,つまり逆転層が生じ,平行配置と比べ左右反転したような配置の場合を,交差配置とする。なお,交差配置または平行配置は,結合画像タグに,右視点画像(R画像)が左右のうちどちら側であるかを設定することで,交差配置または平行配置のどちらであるかを指定することができる。
(Intersection arrangement)
Next, as shown in FIG. 14 (b), when the L image is on the right side and the R image is on the left side, that is, when the inversion layer is generated and the arrangement is reversed left and right compared to the parallel arrangement, To do. In addition, in the cross arrangement or the parallel arrangement, it is specified in the combined image tag whether the right viewpoint image (R image) is the left or right side, thereby specifying the cross arrangement or the parallel arrangement. Can do.

上記交差配置の視差画像は,いわゆる交差法による方法で,裸眼で立体視が可能な視差画像である。本実施の形態にかかる光学アダプタ105を装着した撮像装置100の撮像により生成される視差画像は,交差配置の視差画像である。交差法とは,対象とするものよりも手前で眼の焦点を合わせた上で,対象を見る方法である。   The parallax image with the crossing arrangement is a parallax image that can be stereoscopically viewed with the naked eye by a so-called crossing method. The parallax image generated by imaging of the imaging apparatus 100 equipped with the optical adapter 105 according to the present embodiment is a parallax image in an intersection arrangement. The intersection method is a method of viewing an object after focusing on the eyes before the object.

結合画像から立体視画像に変換する際に,平行配置の画像であると仮定した場合,右側がR画像であるため,正常な立体視画像に変換することが可能であるが,交差配置であった場合では,右側がL画像であるため,正常な立体視画像に変換することができない。したがって,交差配置の場合,左側がR画像であることを指定する必要がある。なお,視差画像の平行配置と交差配置とは,上述した結合画像タグにより,画像配置を変換することが可能であるが,詳細は後述する。   When converting from a combined image to a stereoscopic image, it is possible to convert to a normal stereoscopic image because the right side is an R image because it is assumed that the image is a parallel image. In this case, since the right side is an L image, it cannot be converted into a normal stereoscopic image. Therefore, in the case of an intersection arrangement, it is necessary to specify that the left side is an R image. Note that the parallel arrangement and the cross arrangement of the parallax images can be converted by the above-described combined image tag, but details will be described later.

(視点画像の画像処理方法)
次に,図15を参照しながら,本実施の形態にかかる視点画像の画像処理方法について説明する。図15は,本実施の形態にかかる視点画像の画像処理方法の概略を示すフローチャートである。
(Viewpoint image processing method)
Next, the viewpoint image processing method according to the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing an outline of the viewpoint image processing method according to the present embodiment.

まず,予め撮像装置100に,平行配置の結合画像データを生成するのか,もしくは交差配置の結合画像データを生成するのか少なくとも設定する。設定する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。なお,平行配置または交差配置のどちらか一方のみが予め決まっている場合,設定する必要はない。   First, it is set in advance in the imaging apparatus 100 whether to generate combined image data in parallel arrangement or combined image data in cross arrangement. In the case of setting, the setting is made on a GUI screen or the like displayed on a display unit (not shown) of the imaging apparatus 100. In addition, when only one of the parallel arrangement and the cross arrangement is determined in advance, it is not necessary to set.

次に,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,設定された平行配置または交差配置に従い,結合画像データを生成する。   Next, when a subject is imaged by the imaging device 100, the synthesis unit 131 of the imaging unit 101 generates combined image data from the viewpoint image data transmitted from the imaging device 130 according to the set parallel arrangement or intersection arrangement. To do.

また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“結合画像タグ”のタグのフィールドに,平行配置または交差配置を示す値を設定する。   In addition, the image control information generation unit 133 generates image control information for the generated combined image data, and sets a value indicating the parallel arrangement or the intersection arrangement in the “combined image tag” tag field of the image control information. To do.

上記“結合画像タグ”のタグのフィールドに設定される値は,例えば,“平行配置”である場合は,“0”であり,“交差配置”である場合は,“1”の2値のいずれかである。つまり右視点画像が右側であれば,平行配置となり,右視点画像が左側であれば交差配置となる。なお,本実施の形態にかかる“結合画像タグ”のタグのフィールドに設定される値は,かかる例に限定されず,他のいかなる値が設定される場合であってもよい。   The value set in the tag field of the “combined image tag” is, for example, “0” in the case of “parallel arrangement”, and “1” in the case of “cross arrangement”. Either. That is, if the right viewpoint image is on the right side, it is parallel arrangement, and if the right viewpoint image is on the left side, it is cross arrangement. The value set in the tag field of the “combined image tag” according to the present embodiment is not limited to this example, and any other value may be set.

次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

ここで,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   Here, the computer device 150 reads the combined image data and the image control information from the recording medium 135. Next, the data separation unit 136 of the computer device 150 separates the combined image data into image control information.

画像分離部138は,L画像データとR画像データとに分離時,画像制御情報の“結合画像タグ”に設定された値に基づき,デコードされた結合画像データのうちどちらが,R画像データであるかを認識する。   When separating into L image data and R image data, the image separation unit 138 is based on the value set in the “combined image tag” of the image control information, and which of the decoded combined image data is the R image data. Recognize.

“結合画像タグ”に設定された値が“0”である場合,画像分離部138は,右側の画像データをR画像データであると認識し,“1”である場合,画像分離部138は,交差配置になるよう上記双方の視点画像を左右反転処理し,左側の画像データをR画像データであると認識する。   When the value set in the “combined image tag” is “0”, the image separation unit 138 recognizes the right side image data as R image data, and when it is “1”, the image separation unit 138 The left and right viewpoint images are reversed so that they are arranged in an intersecting manner, and the left image data is recognized as R image data.

認識されたR画像データおよびL画像データは,画像分離部138により,画像変換部139に伝送される。画像変換部139は,上記R画像データと,L画像データとを配置し,立体視画像データを生成する。   The recognized R image data and L image data are transmitted to the image conversion unit 139 by the image separation unit 138. The image conversion unit 139 arranges the R image data and the L image data, and generates stereoscopic image data.

上記R画像データと,L画像データとが配置された立体視画像データは,立体視表示部140により表示される(S600)。以上から,本実施の形態にかかる視点画像の画像処理が終了する。   The stereoscopic image data in which the R image data and the L image data are arranged is displayed by the stereoscopic display unit 140 (S600). From the above, the image processing of the viewpoint image according to the present embodiment is completed.

なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを左右反転させ,再度,立体視画像データを生成することができる。   As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are reversed left and right from the GUI screen 220 displayed on the stereoscopic display unit 140 of the computer device 150. The stereoscopic image data can be generated again.

図16に示すように,GUI画面220は,立体視画像が表示されるメインエリア222と,ペイント画像224とから構成されている。メインエリア222には,生成された立体視画像データの立体視画像が表示される。   As shown in FIG. 16, the GUI screen 220 includes a main area 222 where a stereoscopic image is displayed and a paint image 224. In the main area 222, a stereoscopic image of the generated stereoscopic image data is displayed.

「LR置換」ボタンが,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下されると,画像分離部138は,画像制御情報の“結合画像タグ”に設定された値を反転する。例えば,“0”(平行配置)の場合は,“1”(交差配置)に更新する。   When the “LR replacement” button is pressed by an input unit (not shown) such as a mouse provided in the computer apparatus 150, the image separation unit 138 sets the value set in the “combined image tag” of the image control information. Invert. For example, in the case of “0” (parallel arrangement), it is updated to “1” (intersection arrangement).

画像分離部138は,変更した画像制御情報の“結合画像タグ”に設定された値に基づき,結合画像データのうちどちらがR画像データであるかを認識し,認識されたL画像データおよびR画像データを画像変換部139に伝送する。   The image separation unit 138 recognizes which of the combined image data is R image data based on the value set in the “combined image tag” of the changed image control information, and recognizes the recognized L image data and R image data. Data is transmitted to the image conversion unit 139.

伝送されたL画像データおよびR画像データは,画像変換部139により配置され,立体視画像データが生成される。L画像データおよびR画像データが配置された立体視画像データは,立体視表示部140に表示される。   The transmitted L image data and R image data are arranged by the image conversion unit 139, and stereoscopic image data is generated. The stereoscopic image data in which the L image data and the R image data are arranged is displayed on the stereoscopic display unit 140.

なお,上記画像変換部139は,例えば図14に示すようなL画像とR画像とからなる視差画像データを,そのまま立体視表示部140に伝送し,立体視表示部140は,上記視差画像データを表示する場合であっても実施可能である。立体視表示部140に表示される視差画像を,平行法または交差法等により見つめることで,各方法によって立体感の異なる立体的な画像を視認することができる。   For example, the image conversion unit 139 transmits parallax image data including an L image and an R image as illustrated in FIG. 14 to the stereoscopic display unit 140 as it is, and the stereoscopic display unit 140 transmits the parallax image data. It is possible to implement even when displaying. By staring at the parallax image displayed on the stereoscopic display unit 140 by the parallel method or the intersection method, a stereoscopic image having a different stereoscopic effect can be visually recognized by each method.

(視点画像の回転,ミラー反転)
次に,図17〜図20を参照しながら,本実施の形態における各視点画像の回転またはミラー反転について説明する。図17,図18,図19,図20は,本実施の形態における視点画像の配置の概略的な構成を示す説明図である。
(Rotation of viewpoint image, mirror inversion)
Next, rotation of each viewpoint image or mirror inversion in the present embodiment will be described with reference to FIGS. 17, 18, 19, and 20 are explanatory views showing a schematic configuration of the arrangement of viewpoint images in the present embodiment.

なお,図17〜図20に示す視点画像は,いずれもA=(0,0),A=(0,1)からなる2視点の画像で,交差配置の場合であるが,かかる例に限定されず,複数視点(A,A,…)の画像で,平行配置等の場合であっても実施可能である。 Note that the viewpoint images shown in FIGS. 17 to 20 are two viewpoint images each having A 1 = (0, 0) and A 2 = (0, 1), and are in the case of an intersection arrangement. The present invention is not limited to this, and the present invention can be implemented even in the case of parallel arrangement or the like with images of a plurality of viewpoints (A 1 , A 2 ,...).

(回転角度0度)
図17(a)に示すように,各視点の視点画像とも回転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されない。したがって,回転前後の結合画像の視点画像は,変化せず,同じである。
(Rotation angle 0 degree)
As shown in FIG. 17 (a), when the viewpoint image of each viewpoint has a rotation angle of 0 degrees, the viewpoint images (right-eye image and left-eye image) of each viewpoint are not rotated. Accordingly, the viewpoint images of the combined images before and after the rotation are the same without changing.

(回転角度右90度)
次に,図17(b)に示すように,各視点(A,A)の視点画像とも回転角度右90度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,90度回転する。
(Rotation angle right 90 degrees)
Next, as shown in FIG. 17B, when the viewpoint images of the respective viewpoints (A 1 , A 2 ) have a rotation angle of 90 degrees to the right, the viewpoint images of the respective viewpoints (right eye images, left eye images) Image) is rotated 90 degrees clockwise from the position of each viewpoint image shown in FIG.

(回転角度右180度)
次に,図17(c)に示すように,各視点(A,A)の視点画像とも回転角度右180度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,180度回転する。
(Rotation angle right 180 degrees)
Next, as shown in FIG. 17C, when the viewpoint images of the respective viewpoints (A 1 , A 2 ) have a rotation angle of 180 degrees to the right, the respective viewpoint images (right-eye image, left-eye image) Is rotated 180 degrees clockwise from the position of each viewpoint image shown in FIG.

(回転角度右270度)
次に,図17(d)に示すように,各視点(A,A)の視点画像とも回転角度右270度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,270度回転する。
(Rotation angle right 270 degrees)
Next, as shown in FIG. 17D, when the viewpoint images of the respective viewpoints (A 1 , A 2 ) have a rotation angle of 270 degrees to the right, the respective viewpoint images (right-eye image, left-eye image) Is rotated 270 degrees clockwise from the position of each viewpoint image shown in FIG.

以上から,各視点の視点画像が適当な角度に回転した場合であっても,いずれの視点画像とも同じ角度だけ回転しているため,回転後の視点画像でも,立体的に視認可能な立体視画像を容易に生成することが可能である。   From the above, even when the viewpoint image of each viewpoint is rotated to an appropriate angle, all the viewpoint images are rotated by the same angle, so that even the rotated viewpoint image can be viewed stereoscopically. Images can be easily generated.

なお,本実施の形態にかかる視点画像の回転は,各視点の視点画像が個別に回転する場合でも実施可能である。ここで,図18を参照しながら,各視点の視点画像を回転する場合について説明する。   Note that the rotation of the viewpoint image according to the present embodiment can be performed even when the viewpoint image of each viewpoint is rotated individually. Here, a case where the viewpoint image of each viewpoint is rotated will be described with reference to FIG.

(A,Aともに回転角度0度)
上記説明の通り,図18(a)に示すように,各視点の視点画像とも回転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されない。したがって,回転前後の各視点画像は,変化せず,同じである。
(Both A 1 and A 2 have a rotation angle of 0 degree)
As described above, as shown in FIG. 18 (a), when the viewpoint image of each viewpoint has a rotation angle of 0 degrees, the viewpoint images of each viewpoint (the image for the right eye and the image for the left eye) are not rotated. Therefore, the viewpoint images before and after the rotation do not change and are the same.

(Aが回転角度右90度)
次に,図18(b)に示すように,各視点(A,A)のうちAの視点画像のみが,回転角度右90度の場合,Aの視点画像(左眼用の画像)は,図18(a)に示すAの視点画像の位置から,時計回りに,90度回転する。
(A 2 rotation angle 90 degrees clockwise)
Next, as shown in FIG. 18 (b), only the viewpoint image A 2 of each viewpoint (A 1, A 2) is the case of the rotation angle 90 degrees to the right, the viewpoint image A 2 (for the left eye image) from the position of the viewpoint image a 2 shown in FIG. 18 (a), the clockwise rotation 90 degrees.

(Aが回転角度右180度)
次に,図18(c)に示すように,各視点(A,A)のうちAの視点画像のみが,回転角度右180度の場合,Aの視点画像(左眼用の画像)は,図18(a)に示すAの視点画像の位置から,時計回りに,180度回転する。
(A 2 rotation angle right 180 degrees)
Next, as shown in FIG. 18 (c), only the viewpoint image A 2 of each viewpoint (A 1, A 2) is, when the rotational angle of the right 180 °, the viewpoint image A 2 (for the left eye image) from the position of the viewpoint image a 2 shown in FIG. 18 (a), in a clockwise direction, to rotate 180 degrees.

(Aが回転角度右90度,Aが回転角度右180度)
次に,図18(d)に示すように,各視点(A,A)のうちAの視点画像が回転角度右90度であり,Aの視点画像が回転角度右180度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図18(a)に示すAおよびAの視点画像の位置から,Aの視点画像は,時計回りに,90度回転し,Aの視点画像は,時計回りに,180度回転する。
(A 1 is the rotation angle 90 degrees clockwise, A 2 is the rotation angle right 180 degrees)
Next, as shown in FIG. 18D, among the viewpoints (A 1 , A 2 ), the viewpoint image of A 1 has a rotation angle of 90 degrees to the right, and the viewpoint image of A 2 has a rotation angle of 180 degrees to the right. If, respective viewpoint images (image for the right eye, the image for the left eye) from the position of the viewpoint images a 1 and a 2 shown in FIG. 18 (a), the viewpoint image a 1 is clockwise, rotated 90 degrees, the viewpoint image a 2 is clockwise rotated 180 degrees.

次に,図19を参照しながら,本実施の形態にかかる回転およびミラー反転について説明する。   Next, rotation and mirror inversion according to the present embodiment will be described with reference to FIG.

(回転角度0度およびミラー反転)
図19(a)に示すように,各視点の視点画像とも回転およびミラー反転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されないが,垂直方向に対して,右眼用の画像と左眼用の画像とが接する上下方向の垂直軸に対して,それぞれミラー反転する。なお,本実施の形態にかかるミラー反転は,各視点の視点画像(右眼用の画像,左眼用の画像)のうちいずれかを,垂直軸に対して,ミラー反転する場合であっても実施可能である。詳細は後述する。
(Rotation angle 0 degree and mirror inversion)
As shown in FIG. 19A, when the viewpoint image of each viewpoint is rotated and the mirror inversion angle is 0 degree, the viewpoint images of each viewpoint (the image for the right eye and the image for the left eye) are not rotated. The mirror is inverted with respect to the vertical axis in the vertical direction where the image for the right eye and the image for the left eye are in contact with each other. The mirror inversion according to the present embodiment is performed even when one of the viewpoint images (right-eye image and left-eye image) of each viewpoint is mirror-inverted with respect to the vertical axis. It can be implemented. Details will be described later.

(回転角度右90度およびミラー反転)
次に,図19(b)に示すように,各視点の視点画像とも回転角度右90度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,90度回転する。さらに各視点画像が右90度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像がそれぞれミラー反転する。
(Rotation angle right 90 degrees and mirror inversion)
Next, as shown in FIG. 19B, in the case where the viewpoint image of each viewpoint has a rotation angle of 90 degrees to the right and mirror inversion, each viewpoint image (right eye image, left eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 90 degrees in the clockwise direction. Further, from the state in which each viewpoint image is rotated 90 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.

(回転角度右180度およびミラー反転)
次に,図19(c)に示すように,各視点の視点画像とも回転角度右180度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,180度回転する。さらに,各視点画像が右180度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像がそれぞれミラー反転する。
(Rotation angle right 180 degrees and mirror inversion)
Next, as shown in FIG. 19C, in the case where the viewpoint image of each viewpoint has a rotation angle of 180 degrees and mirror inversion, each viewpoint image (right-eye image, left-eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 180 degrees in the clockwise direction. Further, from the state where each viewpoint image is rotated 180 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.

(回転角度右270度およびミラー反転)
次に,図19(d)に示すように,各視点の視点画像とも回転角度右270度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,270度回転する。さらに,各視点画像が右270度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像が,それぞれミラー反転する。
(Rotation angle right 270 degrees and mirror inversion)
Next, as shown in FIG. 19D, in the case where the viewpoint image of each viewpoint has a rotation angle of 270 degrees to the right and mirror inversion, each viewpoint image (right eye image, left eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 270 degrees in the clockwise direction. Further, from the state in which each viewpoint image is rotated 270 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.

以上から,各視点の視点画像が適当な角度に回転およびミラー反転した場合であっても,いずれの視点画像とも同じ角度だけ回転およびミラー反転しているため,各視点の視点画像から立体的に視認可能な立体視画像を容易に生成することが可能である。   From the above, even if the viewpoint image of each viewpoint is rotated and mirror-reversed to an appropriate angle, since each viewpoint image is rotated and mirror-inverted by the same angle, the viewpoint image of each viewpoint is stereoscopically viewed. It is possible to easily generate a visually observable stereoscopic image.

なお,本実施の形態にかかる視点画像の回転およびミラー反転は,各視点の視点画像が個別に回転およびミラー反転してもよい。ここで,図20を参照しながら,各視点の視点画像を回転およびミラー反転する場合について説明する。   Note that the viewpoint image rotation and mirror inversion according to the present embodiment may be performed by rotating and mirror-inverting the viewpoint image of each viewpoint individually. Here, the case where the viewpoint image of each viewpoint is rotated and mirror-reversed will be described with reference to FIG.

(回転角度0度)
図20(a)に示すように,上記説明の通り,各視点の視点画像とも回転角度0度およびミラー反転なしの場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転およびミラー反転されない。したがって,回転およびミラー反転前後の各視点画像は,変化せず,同じである。
(Rotation angle 0 degree)
As shown in FIG. 20A, as described above, when the viewpoint image of each viewpoint has a rotation angle of 0 degrees and no mirror inversion, the viewpoint images of each viewpoint (right-eye image, left-eye image) Neither rotated nor mirror reversed. Therefore, the viewpoint images before and after rotation and mirror inversion are the same without changing.

(Aが回転角度右90度およびミラー反転)
次に,図20(b)に示すように,各視点(A,A)のうちAの視点画像のみが,回転角度右90度およびミラー反転の場合,Aの視点画像(左眼用の画像)は,図20(a)に示すAの視点画像の位置から,まず時計回りに,90度回転する。さらに,Aの視点画像が右90度回転した状態から,上下方向の垂直軸に対して,Aの視点画像のみが,ミラー反転する。
(A 2 rotation angle 90 degrees clockwise and mirrored)
Next, as shown in FIG. 20 (b), only the viewpoint image A 2 of each viewpoint (A 1, A 2) is the case of the rotation angle 90 degrees to the right and mirrored, the viewpoint image A 2 (Left image for the eye) from the position of the viewpoint image a 2 shown in FIG. 20 (a), first, clockwise, to rotate 90 degrees. Furthermore, from the state where the viewpoint image A 2 is rotated clockwise 90 degrees, with respect to the vertical direction of the vertical axis, only the viewpoint image A 2 is, to mirrored.

(Aが回転角度右180度およびミラー反転)
次に,図20(c)に示すように,各視点(A,A)のうちAの視点画像のみが,回転角度右180度およびミラー反転の場合,Aの視点画像(左眼用の画像)は,図20(a)に示すAの視点画像の位置から,まず時計回りに,180度回転する。さらに,Aの視点画像が右180度回転した状態から,上下方向の垂直軸に対して,Aの視点画像のみが,ミラー反転する。
(A 2 rotation angle right 180 degrees and the mirror inversion)
Next, as shown in FIG. 20 (c), only the viewpoint image A 2 of each viewpoint (A 1, A 2) is, when the rotational angle of the right 180 ° and mirrored, the viewpoint image A 2 (Left image for the eye) from the position of the viewpoint image a 2 shown in FIG. 20 (a), first, clockwise, to rotate 180 degrees. Furthermore, from the state where the viewpoint image A 2 is rotated right 180 degrees, with respect to the vertical direction of the vertical axis, only the viewpoint image A 2 is, to mirrored.

(Aが回転角度右90度およびミラー反転,Aが回転角度右180度およびミラー反転)
次に,図20(d)に示すように,各視点(A,A)のうちAの視点画像が回転角度右90度およびミラー反転であり,Aの視点画像が回転角度右180度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図20(a)に示すAおよびAの視点画像の位置から,Aの視点画像は,時計回りに,90度回転し,Aの視点画像は,時計回りに,180度回転する。さらに,Aの視点画像が右90度回転した状態から,上下方向の垂直軸に対して,Aの視点画像がミラー反転し,Aの視点画像が右180度回転した状態から,上下方向の垂直軸に対して,Aの視点画像がミラー反転する。
(A 1 is the rotation angle 90 degrees clockwise and mirrored, A 2 is the rotation angle right 180 degrees and the mirror inversion)
Next, as shown in FIG. 20D, among the viewpoints (A 1 , A 2 ), the viewpoint image of A 1 has a rotation angle of 90 degrees right and mirror inversion, and the viewpoint image of A 2 has a rotation angle of right for 180 and mirrored, (image for the right eye, the image for the left eye) each viewpoint image, the position of the viewpoint images a 1 and a 2 shown in FIG. 20 (a), a 1 viewpoint image is clockwise rotated 90 degrees, the viewpoint image a 2 is clockwise rotated 180 degrees. Furthermore, from the state where the viewpoint image A 1 is rotated clockwise 90 degrees, with respect to the vertical direction of the vertical axis, from a state where the viewpoint image A 1 is mirrored, the viewpoint image A 2 is rotated right 180 degrees, vertical directions with respect to a vertical axis, the viewpoint image a 2 is mirrored.

次に,図21を参照しながら,本実施の形態にかかる結合画像の記録処理について説明する。図21は,本実施の形態にかかる結合画像の記録処理の概略を示すフローチャートである。   Next, the combined image recording process according to the present embodiment will be described with reference to FIG. FIG. 21 is a flowchart showing an outline of the combined image recording process according to the present embodiment.

図21に示すように,まず,撮像装置100により被写体が撮影される(S650)。撮影直後の撮像素子130から伝送される視点画像データを,撮像部101の合成部131は,予め撮像装置100に設定された環境情報により結合画像データに変換する。なお,結合画像データに変換せず,例えば図13に示すような単に視点画像データに変換し,後ほどコンピュータ装置150等により結合画像データに変換する場合でもよい。   As shown in FIG. 21, first, a subject is photographed by the imaging device 100 (S650). The synthesizing unit 131 of the imaging unit 101 converts the viewpoint image data transmitted from the imaging element 130 immediately after shooting into combined image data according to environment information set in the imaging device 100 in advance. For example, the image data may not be converted into combined image data, but simply converted into viewpoint image data as shown in FIG.

次に,結合画像データに変換するため,合成部131は,撮像直後の視点画像データのうち必要な画像領域だけを切り出す(S651)。切り出し処理については,後ほど説明するが,必要な画像領域は,アダプタなどの特性により予め有効領域が定まっている場合,または予め環境情報に領域が設定されている場合などを例示することができる。   Next, in order to convert into combined image data, the composition unit 131 cuts out only a necessary image area from the viewpoint image data immediately after imaging (S651). Although the clipping process will be described later, the necessary image area can be exemplified when the effective area is determined in advance by the characteristics of the adapter or the like, or when the area is set in the environment information in advance.

次に,左右の視点画像から必要な画像領域が切り出されると(S651),上記説明したように,結合画像データの配置パターンを設定する(S652)。上記配置パターンの設定は,例えば,予め撮像装置100のGUIが表示される表示部(図示せず。)を介して環境情報として配置パターンを設定する場合,撮影するたびに配置パターンを設定する場合などを例示することができる。   Next, when necessary image regions are cut out from the left and right viewpoint images (S651), as described above, the arrangement pattern of the combined image data is set (S652). For example, when the arrangement pattern is set as environment information via a display unit (not shown) on which the GUI of the imaging apparatus 100 is displayed in advance, the arrangement pattern is set every time shooting is performed. Etc. can be illustrated.

ここで,図22を参照しながら,配置パターンの設定について説明する。図22に示すように,結合画像データに変換するための環境情報設定画面は,右視点画像を左右のどちら側に配置するのかを指定する指定領域654と,双方の視点画像がどちら向きに倒れた状態であるかを指定する指定領域655とから構成される。なお,図22は,本実施の形態にかかる環境情報設定画面の概略的な構成を示す説明図である。   Here, setting of the arrangement pattern will be described with reference to FIG. As shown in FIG. 22, the environment information setting screen for converting into combined image data includes a designation area 654 for designating which side the right viewpoint image is arranged on the left and right sides, and both viewpoint images are tilted in which direction. And a designated area 655 for designating whether or not the current state has been reached. FIG. 22 is an explanatory diagram showing a schematic configuration of the environment information setting screen according to the present embodiment.

指定領域654および指定領域655の各々の領域に表示されたラジオ・ボタンを入力部(図示せず。)により選択することで,結合画像データの配置パターンが設定される。なお,本実施の形態にかかる環境情報設定画面は,撮像装置100の表示部に表示される場合を例に挙げて説明したが,かかる例に限定されず,例えば,環境情報設定画面は,コンピュータ装置150等に表示される場合等でもよい。上記の場合,図16に示す「回転」ボタンが押下された場合,上記環境情報設定画面が表示され,結合画像データに変換される。また,本実施の形態にかかる結合画像は,2視点だが,かかる例に限定されず,複数の視点の場合でもよい。また,上記ラジオ・ボタンの他に,マークをし,選択可能であれば,かかる例に限定されず,例えば,チェックボックスなどの場合でもよい。   By selecting a radio button displayed in each of the designated area 654 and the designated area 655 with an input unit (not shown), the arrangement pattern of the combined image data is set. Note that the environment information setting screen according to the present embodiment has been described by taking an example in which the environment information setting screen is displayed on the display unit of the imaging apparatus 100. However, the environment information setting screen is not limited to such an example. It may be displayed on the device 150 or the like. In the above case, when the “rotate” button shown in FIG. 16 is pressed, the environment information setting screen is displayed and converted into combined image data. Further, the combined image according to the present embodiment has two viewpoints, but is not limited to such an example, and may be a plurality of viewpoints. In addition to the above radio buttons, if the mark can be selected and selected, the present invention is not limited to this example. For example, a check box may be used.

上記配置パターン設定(S652)後,合成部131は,各視点画像のL画像データ(左眼用の画像)およびR画像データ(右眼用の画像)を,設定された配置パターンに従い回転等し,一体化し,結合画像データを生成する。なお,結合画像データはL画像データとR画像データとが,図12(c)に示す結合画像350のうちいずれかの配置形式で,一体化されている。   After the arrangement pattern setting (S652), the composition unit 131 rotates the L image data (left eye image) and the R image data (right eye image) of each viewpoint image according to the set arrangement pattern. , Integrate and generate combined image data. Note that in the combined image data, the L image data and the R image data are integrated in any arrangement form of the combined image 350 shown in FIG.

さらに,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,ミラー反転および回転の種類を示す値を設定する。なお上記“回転タグ”については,後述する。   Further, the image control information generation unit 133 generates image control information for the generated combined image data, and sets a value indicating the type of mirror inversion and rotation in the tag field of the “rotation tag” of the image control information. To do. The “rotation tag” will be described later.

次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録されると(S653),本実施の形態にかかる結合画像の記録方法の一連の処理が終了する。   Next, when the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135 (S653), a series of processing of the combined image recording method according to the present embodiment is performed. finish.

結合画像および当該結合画像の画像制御情報とを記録媒体135に記録し,管理することにより,上記結合画像と画像制御情報とから立体視画像を容易に自動的に生成し,表示することができる。さらに,結合画像と画像制御情報をネットワークを介して,配信することができ,別のコンピュータ装置150等で,立体視画像を表示することができる。   By recording and managing the combined image and the image control information of the combined image on the recording medium 135, a stereoscopic image can be easily automatically generated and displayed from the combined image and the image control information. . Furthermore, the combined image and the image control information can be distributed via the network, and the stereoscopic image can be displayed on another computer device 150 or the like.

次に,図23を参照しながら,本実施の形態にかかる立体視画像を表示する立体視画像表示処理について説明する。図23は,本実施の形態にかかる立体視画像表示処理の概略を示すフローチャートである。   Next, a stereoscopic image display process for displaying a stereoscopic image according to the present embodiment will be described with reference to FIG. FIG. 23 is a flowchart showing an outline of the stereoscopic image display processing according to the present embodiment.

図23に示すように,まず,コンピュータ装置150は,入力部(図示せず。)からの指示に従い,記録媒体135に記録された上記結合画像データおよび画像制御情報を読み込む。   As shown in FIG. 23, first, the computer device 150 reads the combined image data and the image control information recorded on the recording medium 135 in accordance with an instruction from an input unit (not shown).

次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   Next, the data separation unit 136 of the computer device 150 separates the combined image data into image control information.

次に,図23に示すように,画像分離部138は,デコードされた結合画像データをL画像データとR画像データとに分離する前に,まず必要な画像領域を切り出す(S656)。なお,画像分離部138は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識しておく。   Next, as shown in FIG. 23, the image separation unit 138 first cuts out a necessary image area before separating the decoded combined image data into L image data and R image data (S656). The image separation unit 138 recognizes which side of the combined image is the right viewpoint image based on the value of the combined image tag set in the image control information.

次に,図23に示すように,立体視表示部140に表示させるため,画像分離部138は,画像制御情報の“回転タグ”のフィールドの最下位桁から数えて,2バイト目から3バイト目に設定された値(“1”または“3”)に基づき,元の位置に戻すため,各視点画像データ(L画像データ,R画像データ)全体を一体として,全体回転角度右90度または右270度に,全体回転する(S657)。全体回転は,各視点画像データ個別に回転するのではなく,各視点画像データを一組とする結合画像データ全体を回転することである。したがって,上下に横長のL画像データとR画像データとが重なっていることになる。なお,結合画像の記録処理時に回転した角度が回転角度右90度の場合は,回転角度右270度となり,結合画像の記録処理時に回転した角度が回転角度右270度の場合は,回転角度右90度となる。   Next, as shown in FIG. 23, for display on the stereoscopic display unit 140, the image separation unit 138 counts from the 2nd byte to 3 bytes from the least significant digit of the “rotation tag” field of the image control information. Based on the value set to the eyes (“1” or “3”), the entire viewpoint image data (L image data, R image data) is integrated as a whole, and the entire rotation angle is 90 degrees to the right. The entire rotation is made 270 degrees to the right (S657). The entire rotation is not to rotate each viewpoint image data individually but to rotate the entire combined image data including each viewpoint image data as a set. Therefore, the horizontally long L image data and the R image data overlap vertically. If the angle rotated during the combined image recording process is 90 degrees to the right, the rotation angle is 270 degrees to the right. If the angle rotated during the combined image recording process is 270 degrees to the right, the rotation angle is right. 90 degrees.

例えば,図12(c)に示す結合画像のうち結合画像350−3の場合,結合画像350−3全体を時計回りに90度回転することで,結合画像350−3は,上下にR画像とL画像とが配置する状態となる。   For example, in the case of the combined image 350-3 among the combined images shown in FIG. 12C, by rotating the entire combined image 350-3 90 degrees clockwise, the combined image 350-3 is The L image is placed.

なお,上記全体回転の他にも,例えば,各視点画像データを90度または右270度回転し,その後,双方の視点画像データが上下に位置するように,配列処理する等の場合でもよい。   In addition to the overall rotation described above, for example, the viewpoint image data may be rotated 90 degrees or 270 degrees to the right, and then array processing may be performed so that both viewpoint image data are positioned vertically.

上記回転処理(S657)が行われると,画像分離部138は,結合画像データに構成するR画像データとL画像データとを分離し,上記L画像データとR画像データとをそれぞれ画像変換部139に伝送する。   When the rotation process (S657) is performed, the image separation unit 138 separates the R image data and the L image data included in the combined image data, and the image conversion unit 139 separates the L image data and the R image data, respectively. Transmit to.

画像変換部139は,上記説明の通り,画像分離部138から伝送されたR画像データおよびL画像データとを適当に重ね合わせ処理等をすることで,立体視画像データに合成する(S658)。なお,画像変換部139は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。   As described above, the image conversion unit 139 appropriately combines the R image data and L image data transmitted from the image separation unit 138 with each other to synthesize the stereoscopic image data (S658). The image conversion unit 139 recognizes which side of the combined image is the right viewpoint image based on the value of the combined image tag set in the image control information.

したがって,立体視表示部140のアスペクトと適応するような比率の立体視画像データが,立体視表示部140に表示される(S659)。   Therefore, the stereoscopic image data having a ratio that matches the aspect of the stereoscopic display unit 140 is displayed on the stereoscopic display unit 140 (S659).

なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを回転または回転およびミラー反転させて,再度,立体視画像データを生成することができる。   As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are rotated or rotated from the GUI screen 220 displayed on the stereoscopic display unit 140 of the computer apparatus 150. Then, the mirror image can be reversed to generate stereoscopic image data again.

図16に示すように,GUI画面220の「回転」ボタンを,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下し,所定の回転角度またはミラー反転の有無を選択すると,画像分離部138は,画像制御情報の“回転タグ”のフィールドに設定された値を変更する。例えば,“0”(回転角度0度)から,“5”(回転角度右90度およびミラー反転)などに更新する。   As shown in FIG. 16, when a “rotate” button on the GUI screen 220 is pressed by an input unit (not shown) such as a mouse provided in the computer device 150 and a predetermined rotation angle or mirror inversion is selected, The image separation unit 138 changes the value set in the “rotation tag” field of the image control information. For example, the value is updated from “0” (rotation angle 0 degree) to “5” (rotation angle right 90 degrees and mirror inversion).

さらに,図22に示すように,上記「回転」ボタンの押下の際,表示される環境情報画面に,所定事項を入力すると,結合画像の配置パターンを変更することができる。   Furthermore, as shown in FIG. 22, when a predetermined item is input to the displayed environment information screen when the “rotate” button is pressed, the arrangement pattern of the combined image can be changed.

次に,図24を参照しながら,本実施の形態にかかる立体視画像の画像表示方法について説明する。図24は,本実施の形態にかかる立体視画像の画像表示処理の概略を示すフローチャートである。   Next, a stereoscopic image display method according to the present embodiment will be described with reference to FIG. FIG. 24 is a flowchart showing an outline of a stereoscopic image display process according to the present embodiment.

まず,予め撮像装置100に,各視点画像データを回転する種類を選択する。選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。   First, a type for rotating each viewpoint image data is selected in advance in the imaging apparatus 100. When selecting, it sets with the GUI screen etc. which are displayed on the display part (not shown) of the imaging device 100. FIG.

例えば,GUI画面には,例えば,視点画像ごとに“0(回転0度)”,“1(回転右90度)”,“2(回転右180度)”,“3(回転右270度)”,“4(回転0度,ミラー反転)”,“5(回転角度右90度およびミラー反転)”,“6(回転角度右180度およびミラー反転)”,“7(回転角度右270度およびミラー反転)”等と表示される。なお,予め回転角度が設定されており,選択することができない場合,選択する必要はない。   For example, on the GUI screen, for example, “0 (rotation 0 degree)”, “1 (rotation right 90 degrees)”, “2 (rotation right 180 degrees)”, “3 (rotation right 270 degrees) for each viewpoint image. "4" (rotation angle right 90 degrees and mirror inversion) "" 6 "(rotation angle right 180 degrees and mirror inversion)" "7" (rotation angle right 270 degrees) And mirror inversion) ”or the like. If the rotation angle is set in advance and cannot be selected, it is not necessary to select it.

次に,図24に示すように,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,結合画像タグで設定された平行配置または交差配置に従い,配置する。   Next, as illustrated in FIG. 24, when the subject is imaged by the imaging device 100, the synthesis unit 131 of the imaging unit 101 converts the viewpoint image data transmitted from the imaging element 130 to the parallel image set by the combined image tag. Arrange according to the arrangement or crossing arrangement.

さらに,記録媒体135に記憶された視点画像データから立体視画像を効率よく生成するため,合成部131により,視点画像データを時計回り90度または270度それぞれ回転する第1回転工程が行われる(S601)。   Further, in order to efficiently generate a stereoscopic image from the viewpoint image data stored in the recording medium 135, the synthesis unit 131 performs a first rotation step of rotating the viewpoint image data by 90 degrees or 270 degrees clockwise ( S601).

上記第1回転工程(S601)後,合成部131は,各視点画像のL画像データ(左眼用の画像)およびR画像データ(右眼用の画像)を一体化し,第1結合画像データを生成する。なお,第1結合画像データはL画像データとR画像データとが一体化され,記録媒体135に画像制御情報と共に,記録されている。   After the first rotation step (S601), the synthesizer 131 integrates the L image data (left eye image) and the R image data (right eye image) of each viewpoint image, and converts the first combined image data. Generate. In the first combined image data, L image data and R image data are integrated and recorded on the recording medium 135 together with image control information.

また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,ミラー反転および回転の種類を示す値を設定する。   Further, the image control information generation unit 133 generates image control information for the generated combined image data, and sets a value indicating the type of mirror inversion and rotation in the tag field of “rotation tag” of the image control information. To do.

ここで,図25を参照しながら,“回転タグ”のタグのフィールドに設定される値について説明する。図25は,本実施の形態にかかる“回転タグ”のタグのフィールドに設定される値の概略を示す説明図である。   Here, the values set in the tag field of “Rotation tag” will be described with reference to FIG. FIG. 25 is an explanatory diagram showing an outline of values set in the tag field of the “rotation tag” according to the present embodiment.

上記“回転タグ”は,各視点画像に対して設定可能であり,“回転タグ”のタグのバイト数は,5バイトである。上記5バイトのうち,最下位桁から数えて1バイト目までの1バイトには,視点位置(A,A,A,…)のうち,水平方向の視点位置(水平方向座標)を表わす値が設定され,次に最下位桁から数えて,1バイト目から2バイト目までの1バイトには,視点位置(A,A,A,…)のうち,垂直方向の視点位置(垂直方向座標)を表わす値が設定され,最下位桁から数えて2バイト目から3バイト目までの1バイトには,回転,回転およびミラー反転の種類を表す値が設定される。なお,上記バイトの構成に限らない。 The “rotation tag” can be set for each viewpoint image, and the number of bytes of the tag of the “rotation tag” is 5 bytes. Of the above 5 bytes, one byte from the least significant digit to the first byte has a horizontal viewpoint position (horizontal coordinate) among the viewpoint positions (A 1 , A 2 , A 3 ,...). The value to be expressed is set, and then the vertical viewpoint of the viewpoint positions (A 1 , A 2 , A 3 ,...) Is included in 1 byte from the 1st byte to the 2nd byte, counting from the least significant digit. A value representing the position (vertical coordinate) is set, and a value representing the type of rotation, rotation, and mirror inversion is set in one byte from the second byte to the third byte counted from the least significant digit. The configuration is not limited to the above byte.

図25に示すように,上記最下位桁から数えて2バイト目から3バイト目までの1バイトに設定される値は,7種類の値から構成されている。上記1バイトに該当するビット列は,1ビット目から,順に8ビット目まで続いている。なお,初期設定値は,“0”とする。なお,本実施の形態にかかる回転または回転およびミラー反転の種類を表す値は,7種類の値である場合を例に挙げて説明したが,1又は2以上の種類からなる値からなる場合であれば,かかる例に限定されない。   As shown in FIG. 25, the value set in one byte from the second byte to the third byte counted from the least significant digit is composed of seven types of values. The bit string corresponding to the 1 byte continues from the 1st bit to the 8th bit in order. The initial setting value is “0”. Note that the values representing the types of rotation or rotation and mirror inversion according to the present embodiment have been described by taking the case of seven types of values as an example, but in the case of consisting of one or more types of values. If there is, it is not limited to such an example.

図25に示すように,1ビット目および2ビット目に“0”または“1”の値が設定されることにより,回転の種類の値を表わしている。例えば,1ビット目に“0”が設定され,2ビット目に“1”が設定された場合,回転の種類の値は,“2”となり,回転角度右180度の回転となる。   As shown in FIG. 25, a value of “0” or “1” is set in the first bit and the second bit, thereby representing the value of the type of rotation. For example, when “0” is set in the first bit and “1” is set in the second bit, the value of the rotation type is “2”, and the rotation angle is 180 degrees to the right.

次に,3ビット目は,ミラー反転の有無を表わしている。3ビット目に“0”が設定された場合,ミラー反転は“無し”であり,“1”が設定された場合,ミラー反転は“有り”である。   Next, the third bit indicates the presence or absence of mirror inversion. When “0” is set in the third bit, mirror inversion is “none”, and when “1” is set, mirror inversion is “present”.

なお,上記最下位桁から1バイト目まで(水平方向視点位置),および1バイト目から2バイト目まで(垂直方向視点位置)がいずれも“−1”の場合(−1,−1),2バイト目から3バイト目に設定される回転種類の値は,全視点画像に対して有効であるとする。例えば,視点位置が“A”,“A”,“A”からなる3視点の場合で,全視点画像に対して,回転角度右90度およびミラー反転の場合,“回転タグ”の最下位桁から各1バイトごとに“(5,−1,−1)”を設定することにより,一回の設定で,3視点の視点画像全てに対して,回転またはミラー反転することができる。“(−1,−1)”を設定しない場合は,“(5,0,0)”,“(5,0,1)”,および“(5,0,2)”などと,3回の設定が必要となる。 When the least significant digit to the first byte (horizontal viewpoint position) and the first byte to the second byte (vertical viewpoint position) are both “−1” (−1, −1), It is assumed that the rotation type value set from the second byte to the third byte is valid for all viewpoint images. For example, in the case where the viewpoint position is three viewpoints consisting of “A 1 ”, “A 2 ”, and “A 3 ”, and the rotation angle is 90 degrees to the right and the mirror is inverted with respect to all viewpoint images, the “rotation tag” By setting "(5, -1, -1)" for each byte from the least significant digit, it is possible to rotate or mirror invert all three viewpoint images in one setting. . If “(−1, −1)” is not set, “(5, 0, 0)”, “(5, 0, 1)”, “(5, 0, 2)”, etc. Setting is required.

なお,図25に示すように,4ビット目から8ビット目はいずれも“0”が設定されているが,かかる例に限定されず,例えば,4ビット目に各視点画像全体を回転する“全体回転”を示す値を設定する場合などであってもよい。   As shown in FIG. 25, “0” is set for all of the 4th to 8th bits. However, the present invention is not limited to this example. For example, the entire viewpoint image is rotated to the 4th bit. For example, a value indicating “total rotation” may be set.

したがって,各視点画像全てに回転または回転およびミラー反転する場合,画像制御情報生成部133は,効率的に画像制御情報の“回転タグ”のタグのフィールドに値を設定することができる。   Therefore, when rotating or rotating and mirror-inverting all the viewpoint images, the image control information generating unit 133 can efficiently set a value in the tag field of the “rotation tag” of the image control information.

なお,本実施の形態にかかる画像表示処理においては,上記“回転タグ”には,回転角度右90度(回転タグの2バイト目から3バイト目に設定される値“1”。)または回転角度右270度(回転タグの2バイト目から3バイト目に設定される値“3”。)の値が設定される。   In the image display processing according to the present embodiment, the “rotation tag” has a rotation angle of 90 degrees to the right (a value “1” set in the second to third bytes of the rotation tag) or rotation. A value of 270 degrees to the right (a value “3” set in the second to third bytes of the rotation tag) is set.

次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

次に,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。   Next, the computer device 150 reads the combined image data and the image control information from the recording medium 135.

コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   The data separation unit 136 of the computer device 150 separates the combined image data into image control information.

画像分離部138は,デコードされた結合画像データをL画像データとR画像データとに分離する。なお,上記分離処理は,後述の切出処理などが例示される。なお,画像分離部138は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。   The image separation unit 138 separates the decoded combined image data into L image data and R image data. The separation process is exemplified by a cutting process described later. The image separation unit 138 recognizes which side of the combined image is the right viewpoint image based on the value of the combined image tag set in the image control information.

次に,図24に示すように,立体視表示部140に表示させるため,画像分離部138は,画像制御情報の“回転タグ”のフィールドの最下位桁から数えて,2バイト目から3バイト目に設定された値(“1”または“3”)から,各視点画像データ(L画像データ,R画像データ)全体を一体として,全体回転角度右90度または右270度に,全体回転する第2回転工程が行われる(S603)。全体回転は,各視点画像データ個別に回転するのではなく,各視点画像データを一組とする第2結合画像データ全体を回転することである。したがって,第1回転工程(S601)前の元の状態となり,図12(b)に示すような,上下に横長のL画像データとR画像データとが重なっていることになる。   Next, as shown in FIG. 24, in order to display on the stereoscopic display unit 140, the image separation unit 138 counts from the second byte to 3 bytes from the least significant digit of the “rotation tag” field of the image control information. From the value set to the eyes (“1” or “3”), the entire viewpoint image data (L image data, R image data) is rotated as a whole at an overall rotation angle of 90 degrees to the right or 270 degrees to the right. A second rotation process is performed (S603). The whole rotation is not to rotate each viewpoint image data individually but to rotate the entire second combined image data including each viewpoint image data as a set. Accordingly, the original state before the first rotation step (S601) is obtained, and the horizontally long L image data and the R image data overlap each other as shown in FIG.

上記第2回転工程(S603)が行われると,上記L画像データとR画像データとの組からなる第2結合画像データが,画像分離部138により,画像変換部139に伝送される。   When the second rotation step (S603) is performed, the second combined image data including the set of the L image data and the R image data is transmitted to the image conversion unit 139 by the image separation unit 138.

画像変換部139は,上下に並んだ上記第2結合画像データに含まれるL画像データとR画像データとを合成し(S604),立体視画像データを生成する。   The image conversion unit 139 combines the L image data and the R image data included in the second combined image data lined up and down (S604), and generates stereoscopic image data.

したがって,立体視表示部140のアスペクトと適応するような比率の立体視画像データが,立体視表示部140に表示される。なお,画像変換部139は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。   Therefore, stereoscopic image data having a ratio that matches the aspect of the stereoscopic display unit 140 is displayed on the stereoscopic display unit 140. The image conversion unit 139 recognizes which side of the combined image is the right viewpoint image based on the value of the combined image tag set in the image control information.

なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを回転または回転およびミラー反転させて,再度,立体視画像データを生成することができる。   As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are rotated or rotated from the GUI screen 220 displayed on the stereoscopic display unit 140 of the computer apparatus 150. Then, the mirror image can be reversed to generate stereoscopic image data again.

図16に示すように,GUI画面220の「回転」ボタンを,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下し,所定の回転角度またはミラー反転の有無を選択すると,画像分離部138は,画像制御情報の“回転タグ”のフィールドに設定された値を変更する。例えば,“0”(回転角度0度)から,“5”(回転角度右90度およびミラー反転)などに更新する。   As shown in FIG. 16, when a “rotate” button on the GUI screen 220 is pressed by an input unit (not shown) such as a mouse provided in the computer device 150 and a predetermined rotation angle or mirror inversion is selected, The image separation unit 138 changes the value set in the “rotation tag” field of the image control information. For example, the value is updated from “0” (rotation angle 0 degree) to “5” (rotation angle right 90 degrees and mirror inversion).

画像分離部138は,変更後の画像制御情報の“回転タグ”のフィールドに設定された値に基づき,第2結合画像データを全体回転する(S603)。   The image separation unit 138 rotates the second combined image data as a whole based on the value set in the “rotation tag” field of the changed image control information (S603).

画像変換部139は,L画像データおよびR画像データを合成し(S604),立体視画像データを生成することにより,立体視画像データは,立体視表示部140に表示される。   The image conversion unit 139 combines the L image data and the R image data (S604), and generates stereoscopic image data, whereby the stereoscopic image data is displayed on the stereoscopic display unit 140.

したがって,回転角度0度であるにもかかわらず,回転角度右270度として認識され,立体視画像データに変換された場合であっても,適当な立体視画像データを生成することが可能となる。   Therefore, even when the rotation angle is 0 degrees, even when the rotation angle is recognized as 270 degrees right and converted into stereoscopic image data, appropriate stereoscopic image data can be generated. .

また,図26を参照しながら,本実施の形態にかかる立体視画像の画像表示方法の変形例について説明する。図26は,本実施の形態にかかる立体視画像の画像表示処理の変形例の概略を示すフローチャートである。なお,図24を参照しながら,説明した本実施の形態にかかる立体視画像の画像表示方法との差異点について特に詳述する。   A modification of the stereoscopic image display method according to the present embodiment will be described with reference to FIG. FIG. 26 is a flowchart illustrating an outline of a modified example of the image display process of the stereoscopic image according to the present embodiment. The difference from the stereoscopic image display method according to the present embodiment described above will be particularly described in detail with reference to FIG.

まず,予め撮像装置100に,各視点画像データを回転する種類を選択する。選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。   First, a type for rotating each viewpoint image data is selected in advance in the imaging apparatus 100. When selecting, it sets with the GUI screen etc. which are displayed on the display part (not shown) of the imaging device 100. FIG.

次に,図26に示すように,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,設定された平行配置または交差配置に従い,配置する。   Next, as illustrated in FIG. 26, when the subject is imaged by the imaging apparatus 100, the synthesis unit 131 of the imaging unit 101 converts the viewpoint image data transmitted from the imaging element 130 to the set parallel arrangement or cross arrangement. Arrange according to.

さらに,合成部131により,90度または270度それぞれ同方向に回転する第1回転工程が行われる(S606)。   Further, the synthesis unit 131 performs a first rotation process of rotating in the same direction by 90 degrees or 270 degrees (S606).

上記第1回転工程(S606)後,合成部131は,L画像データおよびR画像データを一体化し,第1結合画像データを得る。なお,第1結合画像データはL画像データとR画像データとが一体化されている。L画像データとR画像データとのアスペクトは縦長の画像となっている。   After the first rotation step (S606), the synthesis unit 131 integrates the L image data and the R image data to obtain first combined image data. In the first combined image data, L image data and R image data are integrated. The aspect ratio of the L image data and the R image data is a vertically long image.

また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,回転およびミラー反転または回転の種類を示す値を設定する。   Further, the image control information generation unit 133 generates image control information for the generated combined image data, and a value indicating the type of rotation and mirror inversion or rotation in the tag field of “rotation tag” of the image control information. Set.

なお,本実施の形態にかかる画像表示処理においては,上記“回転タグ”のフィールドには,各視点位置と回転角度右90度(“1”)または回転角度右270度(“3”)の値が設定される。   In the image display processing according to the present embodiment, the field of the “rotation tag” includes each viewpoint position and a rotation angle right of 90 degrees (“1”) or a rotation angle of right 270 degrees (“3”). Value is set.

次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

また,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。   Further, the computer device 150 reads the combined image data and the image control information from the recording medium 135.

コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   The data separation unit 136 of the computer device 150 separates the combined image data into image control information.

画像分離部138は,デコードされた上記第1結合画像データをL画像データとR画像データとに分離する。なお,上記分離処理は,後述の切出処理などが例示される。   The image separation unit 138 separates the decoded first combined image data into L image data and R image data. The separation process is exemplified by a cutting process described later.

次に,図26に示すように,立体視表示部140の画面を回転角度右90度または右270度に回転する画面回転工程が行われる(S608)。回転前の立体視表示部140には,L画像データとR画像データは左右に縦長に表示された状態であり,回転により,立体視表示部140には,縦長のL画像データとR画像データとが左右に表示された状態となる。   Next, as shown in FIG. 26, a screen rotation process is performed in which the screen of the stereoscopic display unit 140 is rotated by 90 degrees to the right or 270 degrees to the right (S608). In the stereoscopic display unit 140 before rotation, the L image data and the R image data are vertically displayed on the left and right, and by the rotation, the stereoscopic display unit 140 displays the vertical L image data and the R image data. Are displayed on the left and right.

上記画面回転工程(S608)が行われると,上記L画像データとR画像データとが,画像分離部138により,画像変換部139に伝送される。   When the screen rotation step (S608) is performed, the L image data and the R image data are transmitted to the image conversion unit 139 by the image separation unit 138.

画像変換部139は,左右に並んだ縦長のL画像データとR画像データとを合成し(S610),立体視画像データを生成する。   The image conversion unit 139 combines the vertically long L image data and the R image data arranged side by side (S610), and generates stereoscopic image data.

したがって,立体視表示部140の縦長画面のアスペクトと適応するような比率の縦長の立体視画像データが,立体視表示部140に表示される。なお,立体視表示部140は,4枚ミラーなどのアダプタを装着したプロジェクタなどの場合でもよい。   Accordingly, the stereoscopic image data having a ratio that matches the aspect of the vertically long screen of the stereoscopic display unit 140 is displayed on the stereoscopic display unit 140. The stereoscopic display unit 140 may be a projector equipped with an adapter such as a four-mirror.

なお,本実施の形態にかかる視点画像の回転は2視点である場合を例に挙げて説明したが,かかる例に限定されず,複数の視点である場合であっても実施可能である。   Note that the rotation of the viewpoint image according to the present embodiment has been described by taking the case of two viewpoints as an example, but is not limited to such an example, and can be performed even when there are a plurality of viewpoints.

したがって,立体視表示部140は,立体視表示部140の画面を90度または270度回転するだけで,R画像データとL画像データとを合成することで,横長ワイドの立体視画像を表示することができる。   Therefore, the stereoscopic display unit 140 displays a horizontally wide stereoscopic image by synthesizing the R image data and the L image data only by rotating the screen of the stereoscopic display unit 140 by 90 degrees or 270 degrees. be able to.

(アダプタ型番情報)
次に,本実施の形態にかかるアダプタ型番情報について説明する。本実施の形態にかかるアダプタ型番情報は,光学アダプタ105の光学情報を識別するための情報である。なお,アダプタ型番情報は,例えば,複数存在する画像制御情報のタグのうち,“使用者データ領域タグ”等のタグのフィールドに記録される。
(Adapter model number information)
Next, adapter model number information according to the present embodiment will be described. The adapter model number information according to the present embodiment is information for identifying optical information of the optical adapter 105. The adapter model number information is recorded, for example, in a tag field such as “user data area tag” among a plurality of image control information tags.

図2に示すように,光学アダプタ105は,例えば,ミラー121およびミラー122を備える2枚ミラーのアダプタを例示することができる。矢印“右”方向の視点から入射される光は,ミラー121およびミラー122によって反射され,R画像として視差画像が生成される。   As shown in FIG. 2, the optical adapter 105 can be exemplified by a two-mirror adapter including a mirror 121 and a mirror 122, for example. Light incident from the viewpoint in the direction of the arrow “right” is reflected by the mirror 121 and the mirror 122, and a parallax image is generated as an R image.

また,図2に示す,矢印“左”方向の視点から入射される光は,ミラー121およびミラー122によって反射されず,そのままスルーし,L画像として視差画像が生成される。   Also, the light incident from the viewpoint in the direction of the arrow “left” shown in FIG. 2 is not reflected by the mirror 121 and the mirror 122 but passes through as it is, and a parallax image is generated as an L image.

ミラー121およびミラー122によって反射されて生成されるR画像は,L画像と比較して,例えば,画質(輝度,彩度,解像度等)が劣化している。また,R画像の周辺部(上辺部,下辺部,および左辺部)は,中心部に比較して輝度が低下している。また,R画像は,本来,矩形である画像が台形に歪んだものとなる。   The R image generated by being reflected by the mirror 121 and the mirror 122 has deteriorated image quality (luminance, saturation, resolution, etc.), for example, as compared with the L image. In addition, the luminance of the peripheral part (upper side part, lower side part, and left side part) of the R image is lower than that of the central part. Also, the R image is a rectangular image that is distorted into a trapezoid.

上記輝度,彩度,解像度,または台形の歪みは,光学アダプタ105固有であるため,立体視画像に変換する際に,R画像を補正するための補正量は予め決まっている。   Since the luminance, saturation, resolution, or trapezoidal distortion is unique to the optical adapter 105, a correction amount for correcting the R image is determined in advance when converting to a stereoscopic image.

したがって,コンピュータ装置150は,光学情報として輝度,彩度,解像度,または台形の歪みなどの補正情報を,各光学アダプタ105のアダプタ型番情報と一対一対応するように,記憶部(図示せず)記憶することで,適正な立体視画像に変換することができる。なお,上記補正情報は,光学アダプタ105ごとに補正内容を示す補正内容情報として記憶される。補正内容情報については,後述する。   Accordingly, the computer device 150 stores a storage unit (not shown) so that correction information such as luminance, saturation, resolution, or trapezoidal distortion as optical information has a one-to-one correspondence with adapter model number information of each optical adapter 105. By storing, it can be converted into an appropriate stereoscopic image. The correction information is stored as correction content information indicating the correction content for each optical adapter 105. The correction content information will be described later.

また,本実施の形態にかかる光学アダプタ105は,ミラー121およびミラー122を備えた2枚ミラーアダプタであるが,かかる例に限定されず,図28に示すように,4枚ミラーアダプタ,山形プリズムアダプタ,アナモルフィックレンズアダプタ,バリアングルプリズムアダプタ(VAPアダプタ)などを例示することができる。   The optical adapter 105 according to the present embodiment is a two-mirror adapter provided with a mirror 121 and a mirror 122, but is not limited to this example, and as shown in FIG. 28, a four-mirror adapter, an angle prism Examples include an adapter, an anamorphic lens adapter, a vari-angle prism adapter (VAP adapter), and the like.

本実施の形態にかかるアダプタ型番情報は,光学アダプタ105の種類等に応じて異なる。以下,図28を参照しながら,2枚ミラーアダプタ以外の光学アダプタ105について説明する。   The adapter model number information according to the present embodiment varies depending on the type of the optical adapter 105 and the like. Hereinafter, the optical adapter 105 other than the two-mirror adapter will be described with reference to FIG.

図28(a)に示す光学アダプタ105−1は,ミラー551−1,ミラー551−2,ミラー551−3,およびミラー551−4を備える4枚ミラーアダプタである。   An optical adapter 105-1 shown in FIG. 28A is a four-mirror adapter including mirrors 551-1, mirror 551-2, mirror 551-3, and mirror 551-4.

上記光学アダプタ105−1を撮像装置100に備えることで,1回の撮影(シャッター)で2視点からなる視点画像を撮ることができる。例えば,左眼用のL画像と,右眼用のR画像などのように,一度に2視点画像を撮ることができる。   By providing the optical adapter 105-1 in the imaging apparatus 100, it is possible to take a viewpoint image consisting of two viewpoints by one shooting (shutter). For example, two viewpoint images can be taken at a time, such as an L image for the left eye and an R image for the right eye.

なお,本実施の形態にかかる光学アダプタ105−1は,上記説明したミラー121およびミラー122を備えた2枚ミラーアダプタの場合と同様に,台形歪み等が発生する。   In the optical adapter 105-1 according to the present embodiment, trapezoidal distortion or the like occurs as in the case of the two-mirror adapter provided with the mirror 121 and the mirror 122 described above.

したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪みを無くす等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み等の補正量は光学アダプタ105−1固有である。   Therefore, for example, when converting from left-eye and right-eye viewpoint images to stereoscopic images, it is necessary to perform correction such as eliminating the trapezoidal distortion of the viewpoint images in advance and then convert to stereoscopic images. Note that the correction amount for the trapezoidal distortion is unique to the optical adapter 105-1.

なお,上記光学アダプタ105−1に関する補正は,光学アダプタ105ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。   The correction relating to the optical adapter 105-1 is stored as correction content information indicating the correction content for each optical adapter 105. The correction content information will be described later.

次に,図28(b)に示す光学アダプタ105−2は,山形プリズムアダプタである。上記山形プリズムアダプタからなる光学アダプタ105−2を撮像装置100に備えることで,4枚ミラーアダプタ等と同様に,1回の撮影(シャッター)で,例えば2視点画像等を撮ることができる。   Next, the optical adapter 105-2 shown in FIG. 28B is a chevron prism adapter. By providing the imaging apparatus 100 with the optical adapter 105-2 including the angle prism adapter, it is possible to take, for example, a two-viewpoint image or the like by one shooting (shutter) as in the case of the four-mirror adapter or the like.

なお,本実施の形態にかかる光学アダプタ105−2は,1つの山形プリズムアダプタから構成される場合を例に挙げて説明するが,かかる例に限定されず,例えば,光学アダプタ105−2は,複数の山形プリズムアダプタから構成される場合であっても実施可能である。   The optical adapter 105-2 according to the present embodiment will be described by taking as an example a case where it is composed of one angle prism adapter, but is not limited to such an example. Even if it is comprised from a several angle prism adapter, it can implement.

なお,本実施の形態にかかる光学アダプタ105−2は,上記説明した2枚ミラーアダプタ,4枚ミラーアダプタの場合と同様に,台形歪み,色収差等が発生する。   In the optical adapter 105-2 according to the present embodiment, trapezoidal distortion, chromatic aberration, and the like are generated as in the case of the two-mirror adapter and the four-mirror adapter described above.

したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪みを除く補正,及び色収差等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み及び色収差等の補正量は光学アダプタ105−2固有である。また,本実施の形態にかかる色収差の補正については,例えば,色が滲んでいる個所については黒く塗りつぶすなどの補正を例示することができる。   Therefore, for example, when converting the left-eye and right-eye viewpoint images into stereoscopic images, the viewpoint images are corrected in advance to remove the trapezoidal distortion and the chromatic aberration, and then converted into stereoscopic images. There is a need. It should be noted that the correction amount of the trapezoidal distortion and chromatic aberration is unique to the optical adapter 105-2. Further, with regard to correction of chromatic aberration according to the present embodiment, for example, correction of blackening a portion where a color is blurred can be exemplified.

上記光学アダプタ105−2に関する補正は,光学アダプタ105ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。   The correction relating to the optical adapter 105-2 is stored as correction content information indicating the correction content for each optical adapter 105. The correction content information will be described later.

図28(c)に示す光学アダプタ105−3は,ミラー(図示せず。)およびアナモルフィックレンズを備えるアナモルフィックレンズアダプタである。なお,上記アナモルフィックレンズは,縦横の2方向にそれぞれ焦点距離の異なる光軸を持つレンズであり,光学的に画像の縦横比率(アスペクト比)を変倍することができる。   An optical adapter 105-3 shown in FIG. 28C is an anamorphic lens adapter including a mirror (not shown) and an anamorphic lens. The anamorphic lens is a lens having optical axes with different focal lengths in two vertical and horizontal directions, and can optically change the aspect ratio of the image.

したがって,上記光学アダプタ105−3には,上記アナモルフィックレンズと,ミラー(図示せず。)から構成されているため,光学アダプタ105−3を撮像装置100に備えることで,1回の撮影(シャッター)で,例えば2視点からなるアスペクト比が変倍された視点画像を撮ることができる。   Therefore, since the optical adapter 105-3 includes the anamorphic lens and a mirror (not shown), the optical adapter 105-3 is provided in the imaging apparatus 100, so that one imaging can be performed. With (Shutter), it is possible to take a viewpoint image in which the aspect ratio of two viewpoints is changed.

なお,本実施の形態にかかるアスペクト比の変倍は,例えば,3:4を9対16に変倍するが,かかる例に限定されず,倍率が2倍程度弱であれば,その他いかなる倍率であってもアスペクト比を変倍することは実施可能である。   The aspect ratio scaling according to the present embodiment is, for example, from 3: 4 to 9:16, but is not limited to this example, and any other magnification is acceptable as long as the magnification is less than about 2 times. Even so, it is possible to change the aspect ratio.

なお,本実施の形態にかかる光学アダプタ105−3は,上記説明したミラー2枚ミラーアダプタ,4枚ミラーアダプタ等の場合と同様に,台形歪み等が発生する。   In the optical adapter 105-3 according to the present embodiment, trapezoidal distortion or the like occurs as in the case of the above-described two-mirror mirror adapter, four-mirror adapter, or the like.

したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪み等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み等の補正量は光学アダプタ105−3固有である。   Therefore, for example, when converting the left-eye and right-eye viewpoint images into stereoscopic images, it is necessary to correct the viewpoint images in advance, such as trapezoidal distortion, before converting them into stereoscopic images. Note that the correction amount of the trapezoidal distortion and the like is unique to the optical adapter 105-3.

また,左眼用および右眼用の視点画像のアスペクト比が変倍されているため,必要に応じて,上記2視点画像から立体視画像に変換する際に,上記アスペクト比を補正する必要がある。なお,上記アスペクト比の変倍は,アナモルフィックレンズごとに予め固有のものである。   Further, since the aspect ratios of the left-eye and right-eye viewpoint images are scaled, it is necessary to correct the aspect ratio when converting from the two-viewpoint images to the stereoscopic images as necessary. is there. Note that the change in aspect ratio is specific to each anamorphic lens.

なお,上記光学アダプタ105−3に関する補正は,光学アダプタ105のアダプタ型番ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。   The correction related to the optical adapter 105-3 is stored as correction content information indicating the correction content for each adapter model number of the optical adapter 105. The correction content information will be described later.

次に,本実施の形態にかかるアダプタ型番情報の設定方法について説明する。   Next, a method for setting adapter model number information according to the present embodiment will be described.

まず,予め装置撮像装置100に装着するアダプタ型番の種類を選択する。アダプタ型番を選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面221により設定する。   First, the type of adapter model number to be attached to the apparatus imaging apparatus 100 is selected in advance. When the adapter model number is selected, the adapter model number is set on the GUI screen 221 displayed on the display unit (not shown) of the imaging apparatus 100.

図27に示すように,GUI画面221には,“1番”〜“6番”からなる各アダプタ型番名と,アダプタ型番を選択するためのアダプタ選択部223と,「選択」ボタンとが表示される。   As shown in FIG. 27, on the GUI screen 221, each adapter model name consisting of “No. 1” to “No. 6”, an adapter selection unit 223 for selecting an adapter model number, and a “select” button are displayed. Is done.

なお,図27に示す“1番”のアダプタ型番は,“MONY FS_Adaptor 1.0”であり,上記“1番”のアダプタは,4枚ミラーアダプタである。また,“2番”のアダプタ型番は,“MONY FS_Adaptor 2.0”であり,上記“1番”のアダプタは,山形プリズムアダプタである。   The adapter model number “No. 1” shown in FIG. 27 is “MONY FS_Adaptor 1.0”, and the “No. 1” adapter is a four-mirror adapter. The adapter number of “No. 2” is “MONY FS_Adaptor 2.0”, and the “No. 1” adapter is an angle prism adapter.

さらに,図27に示す“3番”のアダプタ型番は,“MONY FS_Adaptor 3.0”であり,上記“3番”のアダプタは,2枚ミラーアダプタである。“4番”のアダプタ型番は,“MONY FS_Adaptor 4.0”であり,上記“4番”のアダプタは,4枚ミラーとアナモルフィックレンズとが備わるアダプタである。   Further, the adapter model number “No. 3” shown in FIG. 27 is “MONY FS_Adaptor 3.0”, and the “No. 3” adapter is a two-mirror adapter. The adapter model number “No. 4” is “MONY FS_Adaptor 4.0”, and the “No. 4” adapter is an adapter provided with a four-mirror and an anamorphic lens.

“5番”のアダプタ型番は,“MONY FS_Adaptor 5.0”であり,上記“5番”のアダプタは,山形プリズムとアナモルフィックレンズとが備わるアダプタである。   The adapter model number of “No. 5” is “MONY FS_Adaptor 5.0”, and the “No. 5” adapter is an adapter provided with an angle prism and an anamorphic lens.

“6番”のアダプタ型番は,“MONY FS_Adaptor 6.0”であり,上記“6番”のアダプタは,2枚ミラーとアナモルフィックレンズとが備わるアダプタである。   The adapter number of “No. 6” is “MONY FS_Adaptor 6.0”, and the “No. 6” adapter is an adapter provided with two mirrors and an anamorphic lens.

次に,表示されたアダプタ型番名の中から,ジョグダイヤルなどの入力部により,撮像装置100に装着された光学アダプタ105のアダプタ型番が選択されると,アダプタ選択部223は,上記選択されたアダプタ型番が設定されたアダプタ型番情報を生成する。なお,上記アダプタ型番情報は,撮像装置100の記憶部(図示せず。)等に一時的に記憶される。   Next, when the adapter model number of the optical adapter 105 attached to the imaging apparatus 100 is selected from the displayed adapter model name names by an input unit such as a jog dial, the adapter selection unit 223 displays the selected adapter. The adapter model number information in which the model number is set is generated. Note that the adapter model number information is temporarily stored in a storage unit (not shown) of the imaging apparatus 100 or the like.

次に,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。   Next, when the subject is imaged by the imaging device 100, the synthesis unit 131 of the imaging unit 101 synthesizes the viewpoint image data (L image data and R image data) transmitted from the imaging device 130, and combines the combined image data. Generate.

また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,一時記憶された上記アダプタ型番情報を,画像制御情報の“使用者データ領域タグ”のタグのフィールドに設定する。   Further, the image control information generation unit 133 generates image control information for the generated combined image data, and temporarily stores the adapter model number information in the tag field of the “user data area tag” of the image control information. Set to.

なお,画像制御情報生成部133は,上記“使用者データ領域タグ”のタグのフィールドに,上記アダプタ型番情報を設定する前に,“使用者データ領域サイズタグ”のタグのフィールドに,上記アダプタ型番情報のデータサイズ(バイト長)等を設定する。   The image control information generation unit 133 sets the adapter field in the tag field of the “user data area size tag” before setting the adapter model number information in the tag field of the “user data area tag”. Set the data size (byte length) etc. of the model number information.

図27に示す“2番”のアダプタ型番名が選択された場合,アダプタ型番情報には,“MONY FS_Adaptor 1.0”が設定されている。上記アダプタ型番情報が,“使用者データ領域タグ”のタグのフィールドに設定される。   When the adapter model name “No. 2” shown in FIG. 27 is selected, “MONY FS_Adaptor 1.0” is set in the adapter model number information. The adapter model number information is set in the tag field of “user data area tag”.

なお,上記“使用者データ領域タグ”のタグのフィールドにアダプタ型番情報を設定する場合,予めアダプタ型番情報の設定の有無を示す“使用者データ領域サイズタグ”等のタグのフィールドに,例えば,設定する旨を示す“1”が格納される。設定しない場合,“0”が格納される。   When the adapter model number information is set in the tag field of the “user data area tag”, the tag field such as “user data area size tag” indicating the presence / absence of setting of the adapter model number information in advance, for example, “1” indicating the setting is stored. If not set, “0” is stored.

次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   The computer device 150 reads the combined image data and the image control information from the recording medium 135. Next, the data separation unit 136 of the computer device 150 separates the combined image data into image control information.

画像分離部138は,画像制御情報の“使用者データ領域タグ”のフィールドに設定されたアダプタ型番情報を取得し,上記アダプタ型番情報に基づき,記憶部(図示せず。)から上記アダプタ型番情報と一意的に定まる補正内容情報(図示せず。)を取得する。   The image separation unit 138 acquires the adapter model number information set in the “user data area tag” field of the image control information, and based on the adapter model number information, the adapter model number information from the storage unit (not shown). Correction content information (not shown) that is uniquely determined as follows.

上記補正内容情報は,アダプタ型番ごとに行われる補正内容が指示されている情報である。例えば,アダプタ型番が“MONY FS_Adaptor 1.0”である場合の補正内容情報は,台形歪みを除去する補正,R画像データの輝度のレベルを所定レベル下げる補正,およびR画像データの彩度のレベルを所定レベル上げる補正等である。上記補正内容情報は,アダプタ型番ごとに固有の情報である。   The correction content information is information indicating the content of correction performed for each adapter model number. For example, when the adapter model number is “MONY FS_Adaptor 1.0”, correction content information includes correction for removing trapezoidal distortion, correction for lowering the luminance level of R image data by a predetermined level, and saturation level of R image data. For example, correction for raising the level to a predetermined level. The correction content information is information unique to each adapter model number.

画像分離部138は,補正内容情報に基づき,デコードされた結合画像データの各視点画像データ(L画像データまたはR画像データ)を補正する。なお,アダプタ型番に係る補正内容情報が存在しない場合,何も補正せずに,画像変換部139に伝送する。なお,画像分離部138,画像変換部139は,画像制御情報のうち結合画像タグに設定された値に基づき,結合画像の右視点画像がどちらであるかを認識している。   The image separation unit 138 corrects each viewpoint image data (L image data or R image data) of the decoded combined image data based on the correction content information. If there is no correction content information related to the adapter model number, it is transmitted to the image conversion unit 139 without any correction. Note that the image separation unit 138 and the image conversion unit 139 recognize which is the right viewpoint image of the combined image based on the value set in the combined image tag in the image control information.

画像分離部138から伝送されたR画像データおよびL画像データは,画像変換部139により,立体視画像データに変換される。   The R image data and the L image data transmitted from the image separation unit 138 are converted into stereoscopic image data by the image conversion unit 139.

なお,補正内容情報に基づき補正された立体視画像データが生成された後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面(図示せず。)を介して,R画像データまたはL画像データを補正し,再度,立体視画像データを生成することも実施可能である。   Even after the stereoscopic image data corrected based on the correction content information is generated, the R is displayed via a GUI screen (not shown) displayed on the stereoscopic display unit 140 of the computer device 150. It is also possible to correct the image data or the L image data and generate the stereoscopic image data again.

(ペイント画像データ,階層情報)
次に,本実施の形態にかかるペイント画像データおよび階層情報について説明する。本実施の形態にかかるペイント画像データは,例えば,文字,図形,記号,またはフレームなどから構成される静止画像データである。
(Paint image data, hierarchical information)
Next, the paint image data and hierarchy information according to this embodiment will be described. The paint image data according to the present embodiment is still image data including, for example, characters, figures, symbols, or frames.

上記ペイント画像データがフレーム画像である場合,当該フレーム画像データは,例えば,視点画像の縁部,または視点画像の枠(フレーム)周辺の画像などを示す。   When the paint image data is a frame image, the frame image data indicates, for example, an edge of the viewpoint image or an image around a frame (frame) of the viewpoint image.

なお,本実施の形態にかかるペイント画像データのうち,文字,図形,記号,またはフレームなどから構成される静止画像データは,平面表示である2D画像または立体表示である3D画像のどちらの場合でもよい。   Note that, among the paint image data according to the present embodiment, still image data composed of characters, figures, symbols, frames, or the like is either a 2D image that is a flat display or a 3D image that is a stereoscopic display. Good.

また,本実施の形態にかかるペイント画像データは,静止画像データである場合を例に挙げて説明したが,かかる例に限定されず,例えば,ペイント画像データは,アニメーション等の動画像データである場合でも実施可能である。   In addition, the case where the paint image data according to the present embodiment is still image data has been described as an example. However, the present invention is not limited to this example. For example, the paint image data is moving image data such as animation. Even if it is possible.

本実施の形態にかかる階層情報は,文字,図形,記号,またはフレームなどの上記ペイント画像ごとに設定することが可能である。また,視点画像全体に対して階層情報を設定することも可能である。   The hierarchical information according to the present embodiment can be set for each paint image such as a character, a figure, a symbol, or a frame. It is also possible to set hierarchical information for the entire viewpoint image.

ペイント画像データを立体視画像データに重畳させる場合,まず,画像制御情報の“データ構成種別タグ”のタグのフィールドに,ペイント画像データが存在する旨の値を設定する必要がある。   When the paint image data is superimposed on the stereoscopic image data, first, a value indicating that the paint image data exists must be set in the tag field of the “data configuration type tag” of the image control information.

“データ構成種別タグ”は,撮像装置100の合成部131が生成するデータ種別を示す。データの種別毎に,立体視画像ファイル内部にデータが存在するか否かを示す。データ種別は,例えば,視差画像データ(結合画像データ),またはペイント画像データ等が存在する。なお,立体視画像ファイル外部にリンクするようにしてペイント画像データが存在する場合であってもよい。   The “data configuration type tag” indicates a data type generated by the combining unit 131 of the imaging apparatus 100. For each data type, it indicates whether or not the data exists in the stereoscopic image file. The data type includes, for example, parallax image data (combined image data) or paint image data. The paint image data may exist so as to be linked to the outside of the stereoscopic image file.

“データ構成種別タグ”のタグのフィールドは,1バイトであり,上記1バイト(8ビット)のうち,最下位ビット(bit0)は,視差画像データまたは結合画像データの存在の有無を示す。   The tag field of “data structure type tag” is 1 byte, and the least significant bit (bit 0) of the 1 byte (8 bits) indicates the presence / absence of parallax image data or combined image data.

上記最下位ビットに,“0”が設定された場合,視差画像データまたは結合画像データは存在しない。“1”が設定された場合,視差画像データまたは結合画像データは存在する。   When “0” is set in the least significant bit, there is no parallax image data or combined image data. When “1” is set, parallax image data or combined image data exists.

次に,上記最下位ビットの次桁のビット(bit1)は,ペイント画像データの存在の有無を示す。上記bit1に,“0”が設定された場合,ペイント画像データは存在しない。“1”が設定された場合,ペイント画像データは存在する。   Next, the bit (bit1) next to the least significant bit indicates whether paint image data exists. When “0” is set in the bit 1, there is no paint image data. When “1” is set, paint image data exists.

なお,上記1バイトのうち残りの6ビットは,予約ビットであり,データ種別が追加された場合,必要に応じて,値が設定される。追加されない場合,初期値の“0”が各ビット(bit2〜bit7)に設定されている。   The remaining 6 bits of the 1 byte are reserved bits, and values are set as necessary when a data type is added. When not added, the initial value “0” is set in each bit (bit 2 to bit 7).

また,本実施の形態にかかるbit2〜bit7は,予約ビットである場合を例に挙げて説明したが,かかる例に限定されず,例えば,bit2にはペイント画像データのうち2Dの文字の有無を示す値が設定され,bit3には3Dの文字の有無を示す値が設定され,bit4には2Dの図形の有無を示す値が設定され,bit5には3Dの図形の有無を示す値が設定され,bit6には2Dの枠の有無を示す値が設定され,bit7には3Dの枠の有無を示す値が設定される等の場合であってもよい。   Further, although the case where bit2 to bit7 according to the present embodiment are reserved bits has been described as an example, the present invention is not limited to this example. For example, bit2 indicates whether or not 2D characters are included in the paint image data. A value indicating the presence or absence of a 3D character is set in bit3, a value indicating the presence or absence of a 2D figure is set in bit4, and a value indicating the presence or absence of a 3D figure is set in bit5 , Bit6 may be set to a value indicating the presence or absence of a 2D frame, and bit7 may be set to a value indicating the presence or absence of a 3D frame.

また,ペイント画像データは,画像の奥行きを示す階層情報を付属している。なお,ペイントデータの階層情報を、ペイントデータの左右方向オフセット値として管理することも可能である。上記階層情報は,複数のペイント画像データが存在する場合,例えば,ペイント画像データの重なり具合を相対的に管理する等の情報である。   In addition, the paint image data is attached with hierarchical information indicating the depth of the image. It is also possible to manage the hierarchy information of the paint data as the left-right direction offset value of the paint data. The hierarchical information is information such as relatively managing the degree of overlap of the paint image data when there are a plurality of paint image data.

階層情報は,レベル1,レベル2,レベル3,…とレベルが増加するにつれて階層が下になる。レベル1の階層が一番上の階層となる。したがって,レベル1の階層情報は,レベル2の階層情報よりも階層が上となる。   In the hierarchy information, the hierarchy becomes lower as the level increases, such as level 1, level 2, level 3,. The level 1 hierarchy is the top hierarchy. Therefore, the level 1 hierarchy information is higher than the level 2 hierarchy information.

例えば,階層情報がレベル1の“A”の文字からなるペイント画像データと,階層情報がレベル2の“B”の文字からなるペイント画像データが重なり合う場合,“A”のペイント画像データの階層情報の方が,階層が上のため,“A”および“B”の重なり合う部分は,“A”のペイント画像データが表示される。   For example, if the paint image data composed of the characters “A” of the level 1 and the paint image data composed of the characters “B” of the level 2 overlap, the layer information of the paint image data “A”. Since “A” and “B” overlap each other, “A” paint image data is displayed.

また,図16に示すように,GUI画面220に表示される「ペイント入力」ボタンが押下されると,上記ペイント画像データを生成し,ペイント画像224,ペイント画像225,またはメインエリア222に表示される立体視画像のフレームのペイント画像(“☆”等のような星印でハッチングされたフレーム。)等を表示することができる。   Also, as shown in FIG. 16, when the “paint input” button displayed on the GUI screen 220 is pressed, the paint image data is generated and displayed in the paint image 224, the paint image 225, or the main area 222. A painted image of a frame of a stereoscopic image (a frame hatched with a star mark such as “☆”) or the like can be displayed.

メインエリア222には,メインエリア222に表示されている立体視画像に重畳して,任意の文字または記号等からなるペイント画像が表示される。「ペイント入力」ボタンの押下され,適当な文字または記号等が指定されると,指定された文字等のペイント画像が,立体的に視認されるように立体視画像に重畳される。   In the main area 222, a paint image made up of an arbitrary character or symbol or the like is displayed so as to be superimposed on the stereoscopic image displayed in the main area 222. When the “paint input” button is pressed and an appropriate character or symbol or the like is designated, the paint image of the designated character or the like is superimposed on the stereoscopic image so as to be viewed stereoscopically.

したがって,図29に示すように,「ペイント入力」ボタンが押下されると,画像変換部139は,ペイント画像データを生成し,立体視画像データにペイント画像データを嵌め込む嵌込工程が行われる(S612)。なお,メインエリア222に表示されるペイント画像は,マウスのドラッグ・アンド・ドロップ等により,任意の位置に移動することができる。図29は,本実施の形態にかかる画像処理方法の概略を示すフローチャートである。   Therefore, as shown in FIG. 29, when the “paint input” button is pressed, the image conversion unit 139 generates paint image data and performs a fitting step of fitting the paint image data into the stereoscopic image data. (S612). The paint image displayed in the main area 222 can be moved to an arbitrary position by dragging and dropping the mouse. FIG. 29 is a flowchart showing an outline of the image processing method according to the present embodiment.

また,ペイント画像224−1の階層は,ペイント画像224−2の階層よりも下であるため,重なり合う部分は,ペイント画像224−2が表示されている。上記ペイント画像224−1をマウスのクリック等で選択し,GUI画面220に表示された「近く」ボタンを押下することにより,ペイント画像224−1の階層情報に設定されたレベルが上がる。   Further, since the hierarchy of the paint image 224-1 is lower than the hierarchy of the paint image 224-2, the paint image 224-2 is displayed in the overlapping portion. The level set in the hierarchical information of the paint image 224-1 is raised by selecting the paint image 224-1 by clicking the mouse and pressing the “near” button displayed on the GUI screen 220.

ペイント画像224−1の階層のレベルが上がると,ペイント画像224−2との重なり部分は,ペイント画像224−1が表示される。また,ペイント画像224−1が選択された状態で,「近く」ボタンが押下されると,ペイント画像224−1が,遠近感が近づく画像になる。なお,階層情報の階層のレベルを下げ,ペイント画像224を立体視したときの遠近感を遠ざける場合には,「遠く」ボタン143が,押下される。   When the level of the hierarchy of the paint image 224-1 is increased, the paint image 224-1 is displayed at the overlapping portion with the paint image 224-2. Further, when the “near” button is pressed in a state where the paint image 224-1 is selected, the paint image 224-1 becomes an image in which the sense of perspective approaches. It should be noted that the “far” button 143 is pressed when the level of the hierarchy information is lowered and the perspective when the paint image 224 is stereoscopically viewed is reduced.

さらに,右眼用の視点画像および左眼用の視点画像におけるオブジェクトの配置と,上記階層情報とを関連付けることで,図16に示すように,立体視画像のオブジェクトの配置に関連付けられた階層情報に応じて,吹き出しのようにペイント画像225を,インデックスとして表示することもできる。   Furthermore, as shown in FIG. 16, the hierarchical information associated with the arrangement of the objects in the stereoscopic image is obtained by associating the arrangement of the objects in the viewpoint image for the right eye and the viewpoint image for the left eye with the hierarchical information. Accordingly, the paint image 225 can be displayed as an index like a balloon.

上記ペイント画像225は,ポップアップ形式に立体視画像におけるオブジェクトを指し示すペイント画像データである。例えば,図16に示すペイント画像225−1には,オブジェクト“やしの木”の文字等のインデックスが表示され,ペイントインデックス画像225−2には,オブジェクト“ヨット”の文字等のインデックスが立体的に飛び出すように表示される。   The paint image 225 is paint image data indicating an object in the stereoscopic image in a pop-up format. For example, the paint image 225-1 shown in FIG. 16 displays an index such as characters of the object “palm tree”, and the paint index image 225-2 includes an index such as characters of the object “yacht” in three dimensions. Appear to jump out.

上記ペイント画像225は,立体視画像における適当なオブジェクトを,入力部によりクリックすることで,オブジェクトを選択すると,ペイント画像225が,表示される。なお,ペイント画像225の立体的に飛び出す具合は,表示されるペイント画像225に付属する階層情報に基づいて,表示される。   The paint image 225 is displayed when the object is selected by clicking an appropriate object in the stereoscopic image with the input unit. Note that the degree of three-dimensional pop-up of the paint image 225 is displayed based on the hierarchical information attached to the displayed paint image 225.

ここで,上記ペイント画像225に付属する階層情報に階層のレベルが設定されていない場合,上記説明のように,“近く”ボタンまたは“遠く”ボタンをクリックなどにより選択することで,適当な階層のレベルが階層情報に設定される。   Here, when the level of the hierarchy is not set in the hierarchy information attached to the paint image 225, an appropriate hierarchy can be selected by clicking the “near” button or the “far” button as described above. Level is set in the hierarchy information.

なお,本実施の形態にかかる階層情報の設定は,L画像とR画像の視点画像における対応点での色差等に基づき算出される値から,階層のレベルを設定してもよい。   In the setting of the hierarchy information according to the present embodiment, the level of the hierarchy may be set from a value calculated based on a color difference at corresponding points in the viewpoint images of the L image and the R image.

また,ペイント画像225の枠内には“やしの木”などの文字が入力,または“やしの木”の図形などが貼り付けられる。なお,予めオブジェクトに対応する文字または図形などがオブジェクトテーブル(図示せず。)等に定義することで,オブジェクトをクリックするだけで,自動的にペイント画像225の枠内にオブジェクトテーブルで対応付けられた文字又は図形などが設定される場合でもよい。なお,オブジェクトテーブルは,撮像装置100またはコンピュータ装置150に備わる記憶部(図示せず。)等に記憶される。   In the frame of the paint image 225, characters such as “palm tree” are input, or a figure such as “palm tree” is pasted. Note that characters or graphics corresponding to the object are defined in advance in an object table (not shown) or the like, and can be automatically associated with the frame of the paint image 225 in the object table simply by clicking the object. It may be the case that a character or a figure is set. The object table is stored in a storage unit (not shown) provided in the imaging apparatus 100 or the computer apparatus 150.

なお,本実施の形態にかかるペイント画像225には,“ヨット”または“やしの木”などの文字が表示される場合を,例に挙げて説明したが,かかる例に限定されず,例えば,ペイント画像225には,“ヨット”または“やしの木”などの図形が表示される場合であっても実施可能である。   Although the case where characters such as “yacht” or “palm tree” are displayed in the paint image 225 according to the present embodiment has been described as an example, the present invention is not limited to this example. The paint image 225 can be implemented even when a graphic such as “yacht” or “palm tree” is displayed.

また,上記ペイント画像225−1とペイント画像225−2は,オブジェクトの配置に関連付けられた階層情報に応じて,ペイント画像225が立体的に飛び出す度合いが異なる。   Further, the paint image 225-1 and the paint image 225-2 differ in the degree to which the paint image 225 projects three-dimensionally according to the hierarchical information associated with the object arrangement.

ペイント画像225−1のオブジェクトは,“やしの木”で,ペイントインデックス画像225−2のオブジェクトは,“ヨット”のため,立体視画像における双方のオブジェクトの配置関係では,上記“やしの木”のオブジェクトの方が手前に位置している。   Since the object of the paint image 225-1 is “palm tree” and the object of the paint index image 225-2 is “yacht”, in the arrangement relationship of both objects in the stereoscopic image, the above “palm tree” The “tree” object is in front.

つまり,上記“やしの木”のオブジェクトに対応するペイント画像225−1の階層情報の方が,“ヨット”のオブジェクトに対応するペイント画像225−2の階層情報ようりも,レベルが低く,階層は上である。   In other words, the level of the hierarchical information of the paint image 225-1 corresponding to the “palm tree” object is lower than the level of the hierarchical information of the paint image 225-2 corresponding to the “yacht” object. The hierarchy is up.

したがって,上記“やしの木”にかかるペイント画像225−1の方が,上記“ヨット”にかかるペイント画像225−2よりも手前に立体的に飛び出すように(飛び出す度合いが高い。),表示される。なお,かかる例に限定されず,ペイント画像225は,平面的に表示される場合であってもよい。平面的に表示する際,階層情報における階層が上である程ペイント画像225の表示を大きくする場合等でもよい。   Therefore, the display is such that the paint image 225-1 on the “palm tree” pops out in front of the paint image 225-2 on the “yacht” (the degree of popping out is higher). Is done. Note that the present invention is not limited to this example, and the paint image 225 may be displayed in a planar manner. When displaying in a plane, the display of the paint image 225 may be enlarged as the hierarchy in the hierarchy information is higher.

遠くに配置されたオブジェクトについては遠くに,近くに配置されたオブジェクトについては近くに,階層情報に応じてペイント画像225が表示されることで,オブジェクトとペイント画像225の対応関係の認識を一層深め,立体視画像に構成されるオブジェクトの視認性が高まる。   The paint image 225 is displayed according to the hierarchical information, and the recognition of the correspondence between the object and the paint image 225 is further deepened by displaying the paint image 225 according to the hierarchical information. , Visibility of an object configured in a stereoscopic image is increased.

また,ペイント画像225が平面的な2D画像の場合よりも,3D画像の方が,表示可能な領域が3次元と広く,画像が立体的に表示されるため,視認性が高まる。   In addition, since the 3D image has a wider displayable area in three dimensions and the image is displayed three-dimensionally than the case where the paint image 225 is a planar 2D image, visibility is improved.

また,本実施の形態にかかる立体視画像内のオブジェクトに対応付けられた階層情報に基づき,ペイント画像225の立体的な飛び出し度合いが定まる場合を例に挙げて説明したが,かかる例に限定されず,上記階層情報に基づき,3D音声などのように,音源の3次元の奥行きが定まる場合であっても実施可能である。   In addition, the case where the stereoscopic pop-up degree of the paint image 225 is determined based on the hierarchical information associated with the object in the stereoscopic image according to the present embodiment has been described as an example, but is limited to this example. However, the present invention can be implemented even when the three-dimensional depth of the sound source is determined based on the hierarchical information, such as 3D sound.

したがって,オブジェクトを入力部によるクリック等で選択すると,上記オブジェクトと対応するペイント画像225に付属する階層情報に基づき,オブジェクトの3次元における位置が定まり,オブジェクトの位置する方向から臨場感のある音声が発生する。なお,音声は立体視表示部140に備わるスピーカーを介して出力される。   Therefore, when an object is selected by clicking or the like using the input unit, the three-dimensional position of the object is determined based on the hierarchical information attached to the paint image 225 corresponding to the object. Occur. Note that the sound is output via a speaker provided in the stereoscopic display unit 140.

(視点画像データの切出し)
次に,本実施の形態にかかる視点画像データの切出について説明する。本実施の形態にかかる視点画像データの切出には,(1)切出画像領域の設定による切出と,(2)有効領域の設定による切出とが存在する。
(Cut out viewpoint image data)
Next, extraction of viewpoint image data according to the present embodiment will be described. Cutting out viewpoint image data according to the present embodiment includes (1) cutting out by setting a cutting image area and (2) cutting out by setting an effective area.

(切出画像領域)
上記(1)切出画像領域の大きさ,位置,オフセット値などは,上記説明の画像制御情報の“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに格納される。
(Cut image area)
(1) The size, position, offset value, and the like of the cut-out image area are stored in the “CropSizeX”, “CropSizeY”, “CropOffsetX”, and “CropOffsetY” tag fields of the image control information described above. .

“CropSizeX”及び“CropSizeY”のタグは,切出画像領域のサイズ(水平方向(X),垂直方向(Y))を示す。“CropOffsetX”及び“CropOffsetY”のタグは,各切出画像領域のオフセット(水平方向(X),垂直方向(Y))を示す。   The tags “CropSizeX” and “CropSizeY” indicate the size (horizontal direction (X), vertical direction (Y)) of the clipped image area. The tags “CropOffsetX” and “CropOffsetY” indicate the offset (horizontal direction (X), vertical direction (Y)) of each clipped image area.

図30に示すように,“CropSizeX”及び“CropSizeY”のタグのバイト長は,それぞれ4バイトであり,CropOffsetX”及び“CropOffsetY”のタグのバイト長は,それぞれ6バイトである。   As shown in FIG. 30, the byte lengths of the “CropSizeX” and “CropSizeY” tags are 4 bytes, respectively, and the byte lengths of the “CropOffsetX” and “CropOffsetY” tags are each 6 bytes.

また,“CropSizeX”,“CropSizeY”のフィールドに設定可能な領域サイズは,1〜4294967295(dot)である。また,“CropOffsetX”,“CropOffsetY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向の視点位置のX座標が設定され,2バイト目には,垂直方向の視点位置のY座標が設定され,3バイト目〜6バイト目には,オフセットの値が設定される。なお,“CropOffsetY”には各視点画像の垂直方向のずれの補正量を含めるが,ずれの補正量が不明の場合には,上記オフセットの値は“0”となる。   The area size that can be set in the fields “CropSizeX” and “CropSizeY” is 1 to 4294967295 (dot). In addition, the value set in the “CropOffsetX” and “CropOffsetY” tag fields is set to the X coordinate of the horizontal viewpoint position in the first byte of the least significant digit in the above field, and in the second byte. The Y coordinate of the viewpoint position in the vertical direction is set, and the offset value is set in the third to sixth bytes. Note that “CropOffsetY” includes the correction amount of the vertical shift of each viewpoint image. If the correction amount of shift is unknown, the offset value is “0”.

上記切出画像領域の設定により,撮像装置100の撮像により生成される各視点の視点画像データのうち,立体視画像として表示する個所を指定することを可能とする。視点画像から立体視画像として表示する個所を指定することを,画像の切出し,とする。指定された切出の領域を切出画像領域とする。   By setting the cut-out image area, it is possible to designate a portion to be displayed as a stereoscopic image among the viewpoint image data of each viewpoint generated by the imaging of the imaging device 100. Designating a portion to be displayed as a stereoscopic image from the viewpoint image is referred to as image clipping. The specified cutout area is set as a cutout image area.

なお,本実施の形態にかかる切出画像領域を除く,それ以外の結合画像領域については,例えば,そのまま記憶される場合,または切出画像領域を指定後,切出画像領域以外の結合画像領域については,記憶せず,削除してしまう場合等でもよい。   Note that, with respect to the other combined image areas excluding the cutout image area according to the present embodiment, for example, when stored as it is or after specifying the cutout image area, the combined image area other than the cutout image area is used. May be deleted without memorizing.

ここで,図31を参照しながら,本実施の形態にかかる切出画像領域について説明する。図31は,本実施の形態にかかる切出画像領域の概略的な構成を示す説明図である。なお,図31に示す視差画像は,2視点画像(L画像,R画像)からなる平行配置の結合画像である場合を例に挙げて説明するが,かかる例に限定されない。   Here, the cutout image region according to the present embodiment will be described with reference to FIG. FIG. 31 is an explanatory diagram showing a schematic configuration of a cut-out image area according to the present embodiment. Note that the parallax image illustrated in FIG. 31 is described as an example of a combined image of two-viewpoint images (L image, R image) arranged in parallel, but is not limited to such an example.

図31に示すように,グレー色でハッチングされた領域で表される切出画像領域は,左上の位置の座標および画像サイズで指定される。左上の位置の座標は,図31に示す“×”のマークに該当する。   As shown in FIG. 31, the cut-out image area represented by the area hatched in gray is designated by the coordinates of the upper left position and the image size. The coordinates of the upper left position correspond to the mark “x” shown in FIG.

なお,図31に示す右側の切出画像領域(R画像)の左右両サイドには,破線部で表された領域(マージン領域)が存在する。L画像およびR画像の切出画像領域から立体視画像を生成する際,水平方向の視差が必要なため,切出画像領域を水平方向にずらす。   Note that there are regions (margin regions) represented by broken lines on both the left and right sides of the right cut image region (R image) shown in FIG. When generating a stereoscopic image from the cut image areas of the L image and the R image, since the horizontal parallax is necessary, the cut image area is shifted in the horizontal direction.

上記の場合,切出後の切出画像領域以外の領域には画像が存在しないため,マージン領域を用いることで,立体視画像の両サイドも適切な立体視画像を生成することができる。通常,マージン領域が無い場合,両サイドの画像が存在しないため,その周辺は黒色等になってしまう   In the above case, there is no image in the area other than the cut-out image area after the cut-out, and therefore, by using the margin area, an appropriate stereoscopic image can be generated on both sides of the stereoscopic image. Normally, if there is no margin area, there will be no images on both sides, so the surrounding area will be black, etc.

切出画像領域は,各視点の視点画像データごとに指定するため,各オフセット(“CropOffset”)の値を設定するフィールドは,視点の数だけ存在するが,各切出画像領域のサイズは同じであるため,サイズ(“CropSize”)を設定するためのフィールドは,共通して1つずつ存在する。   Since the clipped image area is specified for each viewpoint image data of each viewpoint, there are as many fields for setting the value of each offset (“CropOffset”) as the number of viewpoints, but the size of each clipped image area is the same. Therefore, one field for setting the size (“CropSize”) exists in common.

なお,オフセット値の設定をする際,“CropOffsetX”,“CropOffsetY”のフィールドのうち上記1バイト目の水平方向の視点位置のX座標,2バイト目の垂直方向の視点位置のY座標に,“(−1,−1)”と指定することにより,複数の視点画像が存在する場合,3バイト目に設定される値は,全視点画像に対するオフセット値となる。上記一括指定により,視点位置の設定処理の効率化を図れる。例えば,最初の“CropOffsetX”,“CropOffsetY”の視点位置を“(−1,−1)”とすれば一括指定となる場合等を例示することができる。   When setting the offset value, in the “CropOffsetX” and “CropOffsetY” fields, the X coordinate of the horizontal viewpoint position of the first byte and the Y coordinate of the vertical viewpoint position of the second byte are set to “ By specifying (-1, -1) ", when there are a plurality of viewpoint images, the value set in the third byte is an offset value for all viewpoint images. By the above batch designation, the viewpoint position setting process can be made more efficient. For example, when the viewpoint position of the first “CropOffsetX” and “CropOffsetY” is set to “(−1, −1)”, it is possible to exemplify a case where batch designation is performed.

したがって,上記水平方向視点位置および垂直方向視点位置“(X,Y)”に,“(−1,−1)”と指定することにより,オフセットの一括指定が可能になる。   Therefore, by specifying “(−1, −1)” for the horizontal viewpoint position and the vertical viewpoint position “(X, Y)”, it is possible to specify offsets collectively.

ここで,例えば複数視点(4×4視点)の16視点画像のうち,視点位置が“(2,3)”の水平方向のオフセット値だけを,“8”で,残りの15視点からの視点画像の水平方向のオフセット値は,“10”に設定する場合について説明する。   Here, for example, among 16 viewpoint images of a plurality of viewpoints (4 × 4 viewpoints), only the horizontal offset value whose viewpoint position is “(2, 3)” is “8” and viewpoints from the remaining 15 viewpoints. A case where the horizontal offset value of the image is set to “10” will be described.

上記の場合,“CropOffsetX”のフィールドには,(1バイト目,2バイト目,3バイト目)のように設定されるとすると,まず15視点の視点画像のオフセットとして,水平方向のオフセットは,(−1,−1,10)と一度にセットでき,残りの視点位置“(2,3)”の水平方向のオフセットは,“(2,3,8)”とすれば済む。   In the above case, if the “CropOffsetX” field is set as (1st byte, 2nd byte, 3rd byte), as the offset of the viewpoint image of 15 viewpoints, the horizontal offset is (-1, 1, 10) can be set at one time, and the horizontal offset of the remaining viewpoint position “(2, 3)” may be “(2, 3, 8)”.

また,切出画像領域が指定されることにより,切出された各視点画像データによる視差画像データ(結合画像データ)から立体視画像データが生成されると,例えば,テレ撮影された被写体(オブジェクト)など,切り出される位置により,立体感の強い(飛び出し度合いの大きい)立体視画像が立体視表示部140に表示される場合があるが,例えば,警告画面(図示せず。)を表示することで,オフセットを調整させることで,視差の平均化を行い,立体感のバランスをとる,または立体感を弱めることにより,眼精疲労を抑えることができる。   In addition, when stereoscopic image data is generated from parallax image data (combined image data) based on each cut-out viewpoint image data by designating a cut-out image area, for example, a telephoto-captured object (object )) Or the like, a stereoscopic image with a strong stereoscopic effect (high pop-out degree) may be displayed on the stereoscopic display unit 140. For example, a warning screen (not shown) is displayed. Thus, by adjusting the offset, parallax can be averaged to balance the three-dimensional effect or weaken the three-dimensional effect, thereby reducing eye strain.

なお,図31に示す“CropOffsetX”(x1,x2)は,切出領域の水平方向のオフセットを示し,“CropOffsetY”(y1,y2)は,切出領域の垂直方向のオフセットを示し,“CropSizeX”(L)は,結合画像のうち切出領域として所定領域を切り出すための水平方向の長さ(サイズ)を示し,“CropSizeY”(H)は,結合画像のうち切出領域として所定領域を切り出すための垂直方向の長さ(サイズ)を示す。   Note that “CropOffsetX” (x1, x2) shown in FIG. 31 indicates the horizontal offset of the cutout region, “CropOffsetY” (y1, y2) indicates the vertical offset of the cutout region, and “CropSizeX”. “(L) indicates a horizontal length (size) for cutting out a predetermined area as a cut-out area of the combined image, and“ CropSizeY ”(H) indicates a predetermined area as a cut-out area of the combined image. Indicates the length (size) in the vertical direction for cutting out.

次に,本実施の形態にかかる切出画像領域の切出処理について説明する。   Next, the cut-out process of the cut-out image area according to the present embodiment will be described.

まず,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。   First, when a subject is imaged by the imaging apparatus 100, the synthesis unit 131 of the imaging unit 101 synthesizes viewpoint image data (L image data and R image data) transmitted from the imaging element 130 to generate combined image data. To do.

次に,画像エンコード部132は,合成部131から伝送された結合画像データをエンコードし,上記エンコード処理とともに画像制御情報生成部133は,画像制御情報を生成する。エンコード及び生成処理終了後,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the image encoding unit 132 encodes the combined image data transmitted from the synthesizing unit 131, and the image control information generating unit 133 generates image control information together with the encoding process. After the encoding and generating process is completed, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

コンピュータ装置150は,記録媒体135から,指定された結合画像データおよび画像制御情報を読み込むと,データ分離部136は,結合画像データと,画像制御情報とに分離し,画像デコード部137および画像分離部138それぞれに伝送する。   When the computer device 150 reads the designated combined image data and image control information from the recording medium 135, the data separation unit 136 separates the combined image data and the image control information into the image decoding unit 137 and the image separation unit. It transmits to each part 138.

デコードされた結合画像データと,画像制御情報とが,画像分離部138に伝送されると,図32に示すように,コンピュータ装置150の立体視表示部140に,切出画像領域を設定するための編集画面300が表示される。   When the decoded combined image data and the image control information are transmitted to the image separation unit 138, as shown in FIG. 32, in order to set a cut-out image region in the stereoscopic display unit 140 of the computer apparatus 150. The editing screen 300 is displayed.

編集画面300のメインエリア222内に,視点画像とともに切出画像領域を示す矩形302−1が表示される。上記矩形302−1の大きさは,マウスのドラッグなどにより変更することが可能である。なお,矩形302−1の大きさおよび位置が上記切出画像領域となる。   In the main area 222 of the editing screen 300, a rectangle 302-1 indicating the cut-out image area is displayed together with the viewpoint image. The size of the rectangle 302-1 can be changed by dragging the mouse. Note that the size and position of the rectangle 302-1 is the cut-out image area.

また,上記矩形302−1は,マウスのドラッグ・アンド・ドロップなどにより,移動することが可能である。なお,本実施の形態にかかる編集画面300は,視点画像の表示が1視点ずつ画像表示される場合を例に挙げて説明するが,かかる例に限定されず,複数視点の視点画像を同時に表示する場合であっても実施可能である。さらに,矩形302−1,または矩形302−2を切り出すとき,その矩形の範囲内で奥行きオフセット量を自動的に調整し,オフセット量を最適化して画像制御情報に保存することができ,保存後,上記視点画像を読み出して表示する際に画像制御情報からオフセット量を参照することができる。また,例えば,上記画像制御情報に保存されるオフセット量に応じて,画像を切出したり,リマークポイントが設定された領域の立体視画像を保存されたオフセット量に応じて,拡大/縮小表示したり,上記オフセット,切出し,リマークポイントを連携して使用することもできる。   The rectangle 302-1 can be moved by dragging and dropping the mouse. The editing screen 300 according to the present embodiment will be described by taking an example in which viewpoint images are displayed one by one. However, the editing screen 300 is not limited to this example, and multiple viewpoint images are displayed simultaneously. Even if it is, it can be implemented. Further, when the rectangle 302-1 or the rectangle 302-2 is cut out, the depth offset amount is automatically adjusted within the range of the rectangle, and the offset amount can be optimized and stored in the image control information. , When the viewpoint image is read and displayed, the offset amount can be referred to from the image control information. In addition, for example, an image is cut out according to the offset amount stored in the image control information, or a stereoscopic image of an area where a remark point is set is enlarged / reduced according to the stored offset amount. The offset, cutout, and remark points can be used in cooperation.

図32に示す「クロップ決定」ボタンがマウスなどのクリックにより押下されると,画像分離部138は,矩形302−1の大きさ及び位置に基づき,“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに設定する値を求め,上記各タグに値を設定する。   When the “Crop determination” button shown in FIG. 32 is clicked by clicking with a mouse or the like, the image separation unit 138 selects “CropSizeX”, “CropSizeY”, “CropOffsetX”, “CropOffsetX”, And a value to be set in the tag field of “CropOffsetY” is obtained, and a value is set in each tag.

設定後,さらに画像分離部138は,結合画像データにおける各視点画像データ(L画像,R画像)を,上記求められた値(切出画像領域)に従って,切り出す。切り出されたL画像データ,R画像データは,画像変換部139に伝送されて,立体視画像データに変換される。   After the setting, the image separation unit 138 further cuts out each viewpoint image data (L image, R image) in the combined image data according to the obtained value (cutout image region). The cut out L image data and R image data are transmitted to the image conversion unit 139 and converted into stereoscopic image data.

上記各タグのフィールドに切出画像領域の値をそれぞれ設定することで,再度L画像データおよびR画像データから切出画像領域を決定後,立体視画像データに変換する際に,上記各タグに設定された値を読み取ることで,迅速的,効率的に切出画像領域の決定をすることができる。   By setting the value of the clipped image area in the field of each tag, the clipped image area is determined again from the L image data and the R image data, and then converted into stereoscopic image data. By reading the set value, it is possible to quickly and efficiently determine the cut-out image area.

なお,画像変換部139により,L画像データおよびR画像データから立体視画像データに変換される際,上記切り出されたL画像データおよびR画像データを,立体視表示部140の画面寸法(サイズ)に適合するよう,それぞれ拡大(リサイズ)し,立体視画像データに変換する。   Note that when the image conversion unit 139 converts the L image data and the R image data into the stereoscopic image data, the cut-out L image data and R image data are converted into a screen size (size) of the stereoscopic display unit 140. Each is enlarged (resized) so as to conform to, and converted into stereoscopic image data.

また,L画像データ,R画像データが,画像変換部139により拡大された際に,L画像データと,R画像データとの視差が,例えば,所定の閾値を超えた場合,または視差の平均値等を超えた場合,上記説明の警告画面(図示せず。)が表示される。   Further, when the L image data and the R image data are enlarged by the image conversion unit 139, for example, when the parallax between the L image data and the R image data exceeds a predetermined threshold, or the average value of the parallax Etc., a warning screen (not shown) described above is displayed.

さらに,画像変換部139は,閾値の範囲内に視差が小さくなるよう,オフセット調整を行う。例えば,なお,本実施の形態にかかるL画像データと,R画像データとの視差は,上下方向の視差,または左右方向の視差などが例示される。   Further, the image conversion unit 139 performs offset adjustment so that the parallax is reduced within the threshold range. For example, the parallax between the L image data and the R image data according to the present embodiment is exemplified by vertical parallax or horizontal parallax.

さらに,本実施の形態にかかる切出画像領域の切出処理の変形例について説明する。   Furthermore, a modified example of the cutout process of the cutout image area according to the present embodiment will be described.

立体視画像のうち,特に遠方にある,奥行きのある被写体等を切り出して,立体視表示部140に表示する場合,表示される立体視画像は立体感のある被写体が多く表示されるため,ユーザには非常に見づらく,眼精疲労を及ぼしやすい。   When a subject having a depth, for example, located far away from a stereoscopic image is cut out and displayed on the stereoscopic display unit 140, the displayed stereoscopic image includes many stereoscopic subjects. It is very difficult to see and tends to cause eye strain.

図32に示すように,編集画面300に表示された立体視画像に矩形302−2が,マウス等の入力部により設定されている。矩形302−2は,奥行きのあるヨットおよび背景の空を切出画像領域としている。   As shown in FIG. 32, a rectangle 302-2 is set in the stereoscopic image displayed on the editing screen 300 by an input unit such as a mouse. A rectangle 302-2 has a yacht with depth and a sky in the background as a cut-out image area.

次に,図32に示す「クリップ決定」ボタンがマウス等のクリックにより押下されると,矩形302−2の大きさ及び位置に基づき,“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに設定する値を求め,上記各タグに値を設定する。   Next, when the “Clip Determination” button shown in FIG. 32 is clicked by clicking with the mouse or the like, “CropSizeX”, “CropSizeY”, “CropOffsetX”, and “CropOffsetY” are based on the size and position of the rectangle 302-2. The value to be set in the tag field of “” is obtained, and the value is set in each tag.

設定後,さらに画像分離部138は,結合画像データにおける各視点画像データ(L画像,R画像)を,上記求められた値(切出画像領域)に従って,切り出す。切り出されたL画像データ,R画像データは,画像変換部139に伝送される。   After the setting, the image separation unit 138 further cuts out each viewpoint image data (L image, R image) in the combined image data according to the obtained value (cutout image region). The cut out L image data and R image data are transmitted to the image conversion unit 139.

画像変換部139では,伝送されたL画像データ,R画像データを対応点マッチングすることで,最小の視差量を例えば“0”などに変換し,最大の視差量が眼間距離である65mmを超えないように,視差を調整する。なお,視差が眼間距離の65mmを超えると,3D表示が破綻し,立体感のある画像を表示することができない。なお,対応点マッチングする場合には,予め対応点マッチングする旨の確認画面が立体視表示部140に表示される。   The image conversion unit 139 converts the minimum amount of parallax into, for example, “0” by matching the transmitted L image data and R image data with corresponding points, and the maximum amount of parallax is 65 mm which is the interocular distance. Adjust the parallax so that it does not exceed. Note that if the parallax exceeds the interocular distance of 65 mm, the 3D display fails and a stereoscopic image cannot be displayed. When matching corresponding points, a confirmation screen for matching corresponding points is displayed on the stereoscopic display unit 140 in advance.

調整後,画像変換部139は,L画像データ,R画像データを立体視画像データに合成し,立体視表示部140に表示する。表示される立体視画像には,少なくとも最小の視差が“0”であるので,立体感のある画像領域と,立体感が抑えられた画像領域とが含まれているため,メリハリのある視認性の高い立体視画像となる。したがって,上記立体視画像の回転による微調整等の編集処理が迅速に行われる。従来ではユーザは,切出後の立体視画像を視認することが容易でない場合が多く,編集処理等に支障をきたしていた。   After the adjustment, the image conversion unit 139 combines the L image data and the R image data with the stereoscopic image data and displays it on the stereoscopic display unit 140. Since the displayed stereoscopic image has at least a minimum parallax of “0”, it includes an image area with a stereoscopic effect and an image area with a reduced stereoscopic effect. A stereoscopic image with high image quality. Therefore, editing processing such as fine adjustment by rotating the stereoscopic image is quickly performed. Conventionally, it is often difficult for a user to visually recognize a stereoscopic image after being cut out, which hinders editing processing and the like.

上記対応点マッチングでは,まず上記R画像データおよびL画像データに含まれる対応点の抽出が行われる。上記対応点の抽出は,ユーザが抽出または自動的に抽出される場合のどちらの場合でもよい。なお,抽出される対応点は,例えば3個所であるが,かかる例に限定されない。   In the corresponding point matching, first, corresponding points included in the R image data and L image data are extracted. The corresponding points may be extracted either when the user is extracted or automatically extracted. The corresponding points to be extracted are, for example, three places, but are not limited to this example.

また,対応点は,同一被写体としてL画像とR画像とで対応する一致点である。つまり,対応点はL画像とR画像の全てに存在する必要がある。なお,上記対応点は,2視点の場合に限定されず,複数の視点画像の場合でもよい。   Corresponding points are coincident points corresponding to the same subject in the L image and the R image. That is, the corresponding point needs to exist in all of the L image and the R image. The corresponding points are not limited to the case of two viewpoints, and may be a plurality of viewpoint images.

対応点の具体例として,例えば,2視点の場合,被写体がコップである場合,L画像に撮影されたコップとR画像に撮影されたコップとが,撮影位置,角度,大きさ,各画像全体のうちコップの占める範囲などがほぼ同程度に一致する点を対応点とする。   As a specific example of the corresponding points, for example, in the case of two viewpoints, when the subject is a cup, the cup photographed in the L image and the cup photographed in the R image represent the photographing position, angle, size, and the entire image. Of these, a point where the range occupied by the cup coincides with the same degree is taken as the corresponding point.

なお,対応点を抽出する際には,各視点画像のコントラストを上げる,または各視点画像を二値化することで,適当な対応点を効率的に抽出することができる。なお,画像の二値化は,例えば視点画像の各画素の輝度(明るさ)に対して1又は2以上の閾値を設け,閾値以下ならば“0”(黒),閾値より大きければ“1”(白)等とすることである。   When extracting corresponding points, it is possible to efficiently extract appropriate corresponding points by increasing the contrast of each viewpoint image or binarizing each viewpoint image. For binarization of images, for example, a threshold value of 1 or 2 or more is set for the luminance (brightness) of each pixel of the viewpoint image. If the threshold value is less than the threshold value, “0” (black) is set. "(White)".

対応点が抽出されると,視点画像ごとに該当する対応点同士を結び,対応点間の距離を求める。さらに求められた対応点間の距離それぞれの差分をとることで視差量が求められる。例えば,2視点の場合,L画像とR画像に3個所ずつ対応点が抽出され,L画像とR画像で該当する対応点同士が結ばれ,3つの対応点間の距離(A,B,C)が求められる。次に,求められた3つの対応点間の距離に基づき,相互に差分(A−B,A−C,B−C)の絶対値をとることで,それぞれの視差量が求められる。なお,対応点の抽出は,視点画像のうち奥行のある遠方周辺部について行われるが,かかる例に限定されない。   When the corresponding points are extracted, the corresponding corresponding points are connected for each viewpoint image, and the distance between the corresponding points is obtained. Furthermore, the amount of parallax is calculated | required by taking the difference of each distance between the calculated | required corresponding points. For example, in the case of two viewpoints, three corresponding points are extracted from the L image and the R image, the corresponding points are connected in the L image and the R image, and the distances (A, B, C between the three corresponding points are connected. ) Is required. Next, each parallax amount is obtained by taking the absolute value of the difference (AB, AC, BC) based on the distance between the three corresponding points thus obtained. In addition, although extraction of a corresponding point is performed about the far periphery part with a depth among viewpoint images, it is not limited to this example.

次に,求められた視差量の中から,最小の視差量を選択し,当該最小視差量が0mmであるか否かを確認する。最小視差量が0mmでない場合,最小視差量が0mmになるように各視点画像の表示サイズ等が調整される。なお,視差量の調整前,立体感のある画像が多い旨の警告が立体視表示部140に表示される。   Next, the minimum parallax amount is selected from the obtained parallax amounts, and it is confirmed whether or not the minimum parallax amount is 0 mm. When the minimum amount of parallax is not 0 mm, the display size of each viewpoint image is adjusted so that the minimum amount of parallax is 0 mm. Note that a warning that there are many stereoscopic images is displayed on the stereoscopic display unit 140 before the parallax amount is adjusted.

上記最小視差量が0mmに調整後,そのまま立体視画像を表示してもよいが,かかる例に限定されず,さらに求められた視差量の中から,最大の視差量を選択し,当該最大視差量が眼間距離の65mmを超えているか否かを確認してもよい。最大視差量が65mmを超えていない場合,切出画像領域の上記最大視差量が決定する。   The stereoscopic image may be displayed as it is after the minimum parallax amount is adjusted to 0 mm. However, the present invention is not limited to this example, and the maximum parallax amount is selected from the obtained parallax amounts. It may be confirmed whether or not the amount exceeds the interocular distance of 65 mm. When the maximum parallax amount does not exceed 65 mm, the maximum parallax amount of the cut-out image area is determined.

また,最大視差量が65mmを超えた場合,最大視差量が65mmよりも小さくなるように各視点画像の表示サイズ,画像左右シフト量等が調整され,最大視差量が決定する。また表示サイズも決定される。なお,上記調整する前に最大視差量が65mmを超えて立体視画像を表示できない旨の警告が立体視表示部140に表示される。   Further, when the maximum parallax amount exceeds 65 mm, the display size of each viewpoint image, the image left-right shift amount, and the like are adjusted so that the maximum parallax amount is smaller than 65 mm, and the maximum parallax amount is determined. The display size is also determined. Before the adjustment, a warning that the maximum parallax amount exceeds 65 mm and a stereoscopic image cannot be displayed is displayed on the stereoscopic display unit 140.

上記切出画像領域の視差が調整されると,切出画像領域の立体視画像が立体視表示部140に表示される。   When the parallax of the clipped image area is adjusted, a stereoscopic image of the clipped image area is displayed on the stereoscopic display unit 140.

なお,本実施の形態にかかる切出画像領域の切出処理の変形例と同様に,リマークポイント(参照注目点)を設定し,拡大表示等する場合においても,対応点マッチングや,視差の調整後,立体視画像が表示される場合であっても実施可能である。なお,警告等も画面に表示される。   As in the modification example of the cutout process of the cutout image area according to the present embodiment, even when a remark point (reference attention point) is set and enlarged display is performed, corresponding point matching or parallax adjustment is performed. Later, even if a stereoscopic image is displayed, it can be implemented. A warning or the like is also displayed on the screen.

(有効領域)
次に,上記(2)有効領域の大きさ,位置,およびオフセット値などは,上記説明の画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに,設定される。
(Effective area)
Next, (2) the size, position, offset value, etc. of the effective area are set in the tag fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” in the image control information described above. Is done.

“ValidSizeX”,“ValidSizeY”は,有効領域のサイズ(水平方向(X),垂直方向(Y))を示す。“ValidOffsetX”,“ValidOffsetY”は,各有効領域とのオフセット(水平方向(X),垂直方向(Y))を示す。   “ValidSizeX” and “ValidSizeY” indicate the size of the effective area (horizontal direction (X), vertical direction (Y)). “ValidOffsetX” and “ValidOffsetY” indicate offsets (horizontal direction (X), vertical direction (Y)) with respect to each effective area.

図33に示すように,“ValidSizeX”,“ValidSizeY”は,それぞれ6バイトであり,“ValidOffsetX”,“ValidOffsetY”は,それぞれ6バイトである。   As shown in FIG. 33, “ValidSizeX” and “ValidSizeY” are each 6 bytes, and “ValidOffsetX” and “ValidOffsetY” are each 6 bytes.

また,“ValidSizeX”,“ValidSizeY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向視点位置のX座標が設定され,2バイト目には,垂直方向視点位置のY座標が設定され,3バイト目〜6バイト目には,オフセットの値が設定される。   In addition, the value set in the fields of the tags “ValidSizeX” and “ValidSizeY” is set such that the X coordinate of the horizontal viewpoint position is set in the first byte of the least significant digit in the above field, and the second byte contains , The Y coordinate of the vertical viewpoint position is set, and an offset value is set in the third to sixth bytes.

また,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向視点位置のX座標が設定され,2バイト目には,垂直方向視点位置のY座標が設定され,3バイト目〜6バイト目には,上記視点位置とのオフセットの値が設定される。   In addition, the value set in the fields of the tags “ValidOffsetX” and “ValidOffsetY” is set such that the X coordinate of the horizontal viewpoint position is set in the first byte of the least significant digit and the second byte in the field. , The Y coordinate of the vertical viewpoint position is set, and the offset value to the viewpoint position is set in the third to sixth bytes.

例えば,光学アダプタ105を備える撮像装置100による撮像など,3D撮影した各視点画像は,光学アダプタ105等の影響により,端の部分は立体視画像として適さない場合がある。上記端の部分の領域は,光学アダプタ105の種類によって異なる。したがって,上記有効領域の設定により,立体視画像として有効な領域の範囲を指定することを可能とする。   For example, each viewpoint image captured in 3D, such as imaging by the imaging device 100 including the optical adapter 105, may not be suitable as a stereoscopic image due to the influence of the optical adapter 105 or the like. The region of the end portion varies depending on the type of the optical adapter 105. Therefore, by setting the effective area, it is possible to specify a range of an effective area as a stereoscopic image.

ここで,図34を参照しながら,本実施の形態にかかる有効領域について説明する。図34は,本実施の形態にかかる有効領域の概略的な構成を示す説明図である。なお,図34に示す結合画像は,2視点画像(L画像,R画像)からなる平行配置である場合を例に挙げて説明するが,かかる例に限定されず,結合画像が交差配置である場合でもよい。   Here, the effective region according to the present embodiment will be described with reference to FIG. FIG. 34 is an explanatory diagram showing a schematic configuration of an effective area according to the present embodiment. Note that the combined image shown in FIG. 34 is described as an example of a parallel arrangement of two viewpoint images (L image, R image), but is not limited to such an example, and the combined image is in an intersecting arrangement. It may be the case.

図34に示すように,グレー色のハッチングで表される有効領域の大きさ,位置,オフセット値等は,左上の位置の座標および画像サイズを基準として指定される。左上の位置の座標は,図34に示す“×”のマークに該当する。なお,基準とする位置は,左上の位置に限定されず,他の適当な位置であってもよい。   As shown in FIG. 34, the size, position, offset value, and the like of the effective area represented by gray hatching are specified based on the coordinates of the upper left position and the image size. The coordinates of the upper left position correspond to the mark “x” shown in FIG. The reference position is not limited to the upper left position, and may be another appropriate position.

各オフセットの値は,視点画像ごとに指定する必要があり,有効領域のサイズの値についても,各視点画像において有効領域が異なる場合があり,視点画像ごとに設定する。なお,切出画像領域が有効領域からはみ出した場合の,はみ出し部分の処理は,コンピュータ装置150などの画像処理装置等に依存する。   The value of each offset needs to be specified for each viewpoint image, and the effective area size value may be different for each viewpoint image, and is set for each viewpoint image. Note that the processing of the protruding portion when the cut-out image region protrudes from the effective region depends on the image processing device such as the computer device 150.

なお,図34に示す“x1”はL画像の“ValidOffsetX”のタグのフィールドに設定され,“x2”はR画像の“ValidOffsetX”のタグのフィールドに設定され,“y1”はL画像の“ValidOffsetY”のタグのフィールドに設定され,“y2”はR画像の“ValidOffsetY”のタグのフィールドに設定され,“L1”はL画像の“ValidSizeX”のタグのフィールドに設定され,“L2”はR画像の“ValidSizeX”のタグのフィールドに設定され,“H1”はL画像の“ValidSizeY”のタグのフィールドに設定され,“H2”はR画像の“ValidSizeY”のタグのフィールドに設定される。   Note that “x1” shown in FIG. 34 is set in the “ValidOffsetX” tag field of the L image, “x2” is set in the “ValidOffsetX” tag field of the R image, and “y1” is “L1” of the “L” image. “ValidOffsetY” is set in the tag field, “y2” is set in the “ValidOffsetY” tag field of the R image, “L1” is set in the “ValidSizeX” tag field of the L image, and “L2” is The tag field of “ValidSizeX” of the R image is set, “H1” is set to the tag field of “ValidSizeY” of the L image, and “H2” is set to the tag field of “ValidSizeY” of the R image. .

図31に示す上記“ValidOffsetX”(x1,x2)は,R画像,L画像の有効領域における左上頂点から水平方向のオフセットを示し,“ValidOffsetY”(y1,y2)は,R画像,L画像の有効領域における左上頂点から垂直方向のオフセットを示し,“ValidSizeX”(L1,L2)は,L画像又はR画像の有効領域の水平方向の長さ(サイズ)を示し,“ValidSizeY”(H1,H2)は,L画像又はR画像の有効領域の垂直方向の長さ(サイズ)を示す。   “ValidOffsetX” (x1, x2) shown in FIG. 31 indicates a horizontal offset from the upper left vertex in the effective area of the R image and L image, and “ValidOffsetY” (y1, y2) indicates the R image and L image. An offset in the vertical direction from the upper left vertex in the effective area is indicated. “ValidSizeX” (L1, L2) indicates a horizontal length (size) of the effective area of the L image or the R image, and “ValidSizeY” (H1, H2). ) Indicates the length (size) of the effective area of the L image or R image in the vertical direction.

次に,本実施の形態にかかる有効領域の切出処理について説明する。   Next, the effective area extraction processing according to the present embodiment will be described.

まず,予め撮像装置100に装着するアダプタ型番の種類を選択する。アダプタ型番を選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面221から設定する。なお,アダプタ型番の種類の選択は,本実施の形態にかかるアダプタ型番情報における説明と,ほぼ同様であるため詳細な説明は省略する。   First, the type of adapter model number to be attached to the imaging apparatus 100 is selected in advance. When the adapter model number is selected, it is set from the GUI screen 221 displayed on the display unit (not shown) of the imaging apparatus 100. Note that the selection of the adapter model number type is almost the same as the description in the adapter model number information according to the present embodiment, and thus detailed description thereof is omitted.

図27に示すように,GUI画面221には,“1番”〜“4番”からなる各アダプタ型番名と,アダプタ型番を選択するためのアダプタ選択部223と,「選択」ボタンとが表示される。   As shown in FIG. 27, on the GUI screen 221, each adapter model name consisting of “No. 1” to “No. 4”, an adapter selection unit 223 for selecting an adapter model number, and a “select” button are displayed. Is done.

次に,表示されたアダプタ型番名の中から,撮像装置100に装着する光学アダプタ105のアダプタ型番名を,入力部であるジョグダイヤルなどにより選択し,「選択」ボタンを押下すると,アダプタ選択部223は,アダプタ型番名が設定されたアダプタ型番情報を生成する。なお,上記アダプタ型番情報は,撮像装置100の記憶部(図示せず。)等に記憶される。   Next, the adapter model name of the optical adapter 105 to be mounted on the imaging apparatus 100 is selected from the displayed adapter model names using the jog dial or the like as the input unit, and when the “select” button is pressed, the adapter selection unit 223 is selected. Generates adapter model number information in which the adapter model name is set. Note that the adapter model number information is stored in a storage unit (not shown) of the imaging apparatus 100 or the like.

次に,撮像装置100を用いて被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。   Next, when the subject is imaged using the imaging device 100, the synthesis unit 131 of the imaging unit 101 synthesizes the viewpoint image data (L image data and R image data) transmitted from the imaging element 130, and combines the combined images. Generate data.

また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,撮像装置100の記憶部に記憶されたアダプタ型番情報を,画像制御情報の“使用者データ領域タグ”のタグのフィールドに設定する。   Further, the image control information generation unit 133 generates image control information for the generated combined image data, and uses the adapter model number information stored in the storage unit of the imaging apparatus 100 as the “user data area tag” of the image control information. Set in the tag field.

さらに,画像制御情報生成部133は,記憶部に記憶された上記光学アダプタ105のアダプタ型番情報に基づき,立体視画像として適さない端の部分が除かれた有効領域情報を生成する。   Further, the image control information generation unit 133 generates effective area information from which end portions that are not suitable as stereoscopic images are removed based on the adapter model number information of the optical adapter 105 stored in the storage unit.

次に,画像制御情報生成部133は,有効領域情報を,上記画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに設定する。   Next, the image control information generation unit 133 sets the effective area information in the tag fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” of the image control information.

なお,画像制御情報生成部133は,上記有効領域情報を,アダプタ型番情報に基づき生成したが,かかる例に限定されず,予め有効領域設定のGUI画面を介して,入力部により有効領域情報を定める場合であっても,実施可能である。   The image control information generation unit 133 generates the effective area information based on the adapter model number information. However, the image control information generation unit 133 is not limited to the example, and the effective area information is preliminarily input by the input unit via the effective area setting GUI screen. Even if it is stipulated, it can be implemented.

次に,画像エンコード部132は,合成部131から伝送された結合画像データをエンコードし,上記エンコード処理と共に画像制御情報生成部133は,画像制御情報を生成する。エンコード及び生成処理終了後,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, the image encoding unit 132 encodes the combined image data transmitted from the synthesizing unit 131, and the image control information generating unit 133 generates image control information together with the encoding process. After the encoding and generating process is completed, the combined image data and the image control information are multiplexed by the data multiplexing unit 134 and recorded on the recording medium 135.

コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。   The computer device 150 reads the combined image data and the image control information from the recording medium 135.

次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。   Next, the data separation unit 136 of the computer device 150 separates the combined image data into image control information.

次に,画像分離部138は,画像デコード部137によりデコードされた結合画像データと,画像制御情報とを受信する。   Next, the image separation unit 138 receives the combined image data decoded by the image decoding unit 137 and the image control information.

画像分離部138は,画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,および“ValidOffsetY”のタグのフィールドに設定された値(有効領域情報)に基づき,図34に示すように,結合画像領域のうち有効領域に該当する領域を,切り出す。   As shown in FIG. 34, the image separation unit 138 is based on the values (effective area information) set in the tag fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” of the image control information. An area corresponding to the effective area is cut out from the combined image area.

なお,上記画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のフィールドに値(有効領域情報)が設定されていなかった場合,画像分離部138は,実際の画像領域である視点画像データ全体を,画像変換部139に伝送する。   If a value (effective area information) is not set in the fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” of the image control information, the image separation unit 138 uses the actual image area. The entire certain viewpoint image data is transmitted to the image conversion unit 139.

画像変換部139は,画像分離部138から伝送された各視点画像データ(L画像データ,R画像データ)から,立体視画像データに変換する。したがって,立体視表示部140に立体視画像が表示される。   The image conversion unit 139 converts each viewpoint image data (L image data, R image data) transmitted from the image separation unit 138 into stereoscopic image data. Therefore, a stereoscopic image is displayed on the stereoscopic display unit 140.

なお,切り出された有効領域は,撮像装置100に装着した光学アダプタ105のアダプタ型番情報によって定まる。したがって画像分離部138は,アダプタ型番情報に基づき決定した有効領域に応じて,適当にL画像データとR画像データとのオフセットを調整することができる。   Note that the cut out effective area is determined by the adapter model number information of the optical adapter 105 attached to the imaging apparatus 100. Therefore, the image separation unit 138 can appropriately adjust the offset between the L image data and the R image data in accordance with the effective area determined based on the adapter model number information.

(参照注目点)
また,切出領域または有効領域を指定する他に,視点画像データにおいて,立体視画像を表示する際の中心となる注視点に関する注視点(参照注目点,リマークポイント)情報を,上記説明の画像制御情報に含まれる“リマークポイントタグ”のタグに設定することができる。
(Reference attention point)
In addition to designating a cutout area or an effective area, in the viewpoint image data, gazing point (reference attention point, remark point) information related to the gazing point that is the center when displaying a stereoscopic image is displayed in the image described above. It can be set to a “remark point tag” tag included in the control information.

立体視画像の中心を,必ずしも立体視表示部140の中心に配置して表示する場合のみに限られず,予め視点画像データの“リマークポイント”のタグのフィールドに立体表示部140の中心となる点(参照注目点)を設定することができる。特に,例えば携帯端末,PDAなど立体表示部140のサイズが立体視画像データのサイズよりも小さい場合に,ユーザに注視させたい部分を参照注目点に設定することで,視認性の高い立体視画像を表示することができる。   The center of the stereoscopic display unit 140 is not necessarily limited to the case where the center of the stereoscopic image is arranged and displayed at the center of the stereoscopic display unit 140. (Reference attention point) can be set. In particular, when the size of the stereoscopic display unit 140 such as a portable terminal or a PDA is smaller than the size of the stereoscopic image data, a stereoscopic image with high visibility is set by setting a portion to be watched by the user as a reference attention point. Can be displayed.

参照注目点は,水平方向をx軸とし,垂直方向をy軸とする“(x,y)”で表わされ,図31,図34に示す有効領域または切出画像領域内に設定可能である。“リマークポイントタグ”のタグのフィールドは,6バイトからなり,最下位桁の1バイト目から3バイト目は,参照注目点のx座標を示し,4バイト目から6バイト目は,参照注目点のy座標を示す。   The reference attention point is represented by “(x, y)” in which the horizontal direction is the x-axis and the vertical direction is the y-axis, and can be set in the effective area or the cut-out image area shown in FIGS. is there. The tag field of “remark point tag” consists of 6 bytes, the 1st to 3rd bytes of the least significant digit indicate the x coordinate of the reference attention point, and the 4th to 6th bytes are the reference attention point. Indicates the y coordinate.

次に,本実施の形態にかかる参照注目点の設定処理について説明する。   Next, reference attention point setting processing according to the present embodiment will be described.

まず,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を結合し,結合画像データを生成する。   First, when a subject is imaged by the imaging apparatus 100, the synthesis unit 131 of the imaging unit 101 combines viewpoint image data (L image data and R image data) transmitted from the imaging element 130 to generate combined image data. To do.

次に,画像エンコード部132は上記結合画像データをエンコードし,画像制御情報生成部133が上記結合画像データに対応する画像制御情報を生成すると,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。   Next, when the image encoding unit 132 encodes the combined image data and the image control information generation unit 133 generates image control information corresponding to the combined image data, the combined image data and the image control information are converted into a data multiplexing unit. Multiplexed by 134 and recorded on the recording medium 135.

コンピュータ装置150は,記録媒体135から,指定された結合画像データおよび画像制御情報を読み込む。次に,データ分離部136は,結合画像データと,画像制御情報とに分離し,画像デコード部137および画像分離部138それぞれに伝送する。   The computer device 150 reads the designated combined image data and image control information from the recording medium 135. Next, the data separation unit 136 separates the combined image data and the image control information, and transmits them to the image decoding unit 137 and the image separation unit 138, respectively.

デコードされた結合画像データと,画像制御情報とが,画像分離部138に伝送されると,図35に示すように,コンピュータ装置150の立体視表示部140に,参照注目点を設定するための編集画面320が表示される。   When the decoded combined image data and the image control information are transmitted to the image separation unit 138, as shown in FIG. 35, a reference attention point is set in the stereoscopic display unit 140 of the computer apparatus 150. An edit screen 320 is displayed.

編集画面320のメインエリア222内には,各視点画像から立体視画像に変換する際の参照注目点を示すマーク303が表示される。また,上記マーク303は,マウスのドラッグ・アンド・ドロップなどにより,移動することが可能である。なお,本実施の形態にかかる参照注目点は,各視点画像ともに同一である場合を例に挙げて説明するが,かかる例に限定されず,参照注目点が各視点の視点画像間で相違する場合であっても実施可能である。なお,相違する場合は,例えば,複数の注目参照点のうちいずれか一つを選択する選択処理をする必要がある。   In the main area 222 of the editing screen 320, a mark 303 indicating a reference attention point when converting each viewpoint image into a stereoscopic image is displayed. The mark 303 can be moved by dragging and dropping the mouse. Note that the reference attention point according to the present embodiment will be described using an example in which each viewpoint image is the same, but the reference attention point is not limited to this example, and the reference attention point is different between the viewpoint images of each viewpoint. Even if it is a case, it can be implemented. If they are different, for example, it is necessary to perform selection processing for selecting any one of a plurality of attention reference points.

図35(a)に示す参照注目点を設定する「リマークポイント決定」ボタンがマウスのクリックなどにより押下されると,画像分離部138は,結合画像データに対する画像制御情報の“リマークポイントタグ”のタグのフィールドに,上記マーク303の参照注目点“(x,y)”の値を設定する。   When the “remark point determination” button for setting the reference attention point shown in FIG. 35A is pressed by clicking the mouse or the like, the image separation unit 138 sets the “remark point tag” of the image control information for the combined image data. The value of the reference attention point “(x, y)” of the mark 303 is set in the tag field.

設定後,画像分離部138は,結合画像データを,L画像データと,R画像データとに分離する。分離されたL画像データ,R画像データは,画像変換部139に伝送されて,立体視画像データに変換される。なお,分離する際,例えば,切出画像領域が設定された場合,画像分離部138は,L画像データおよびR画像データの切出処理等も行う。   After the setting, the image separation unit 138 separates the combined image data into L image data and R image data. The separated L image data and R image data are transmitted to the image conversion unit 139 and converted into stereoscopic image data. Note that when separating, for example, when a cut image area is set, the image separation unit 138 also performs L image data and R image data cut processing, and the like.

画像変換部139は,上記立体視画像データに変換する際に,“リマークポイントタグ”に設定された参照注目点に従い,上記参照注目点が,立体視表示部140の中央部に位置するように,L画像データおよびR画像データを移動する。また,立体視表示部140の画面サイズに適応するよう,画像変換部139は,L画像データおよびR画像データを拡大し,立体視画像データに変換する。したがって,図35(b)に示すように,参照注目点が立体視表示部140の中央に位置した,拡大された立体視画像が表示される。   When converting to the stereoscopic image data, the image conversion unit 139 follows the reference attention point set in the “remark point tag” so that the reference attention point is located at the center of the stereoscopic display unit 140. , L image data and R image data are moved. In addition, the image conversion unit 139 enlarges the L image data and the R image data and converts them into stereoscopic image data so as to adapt to the screen size of the stereoscopic display unit 140. Therefore, as shown in FIG. 35B, an enlarged stereoscopic image in which the reference attention point is located at the center of the stereoscopic display unit 140 is displayed.

さらに,画像変換部139は,上記立体視画像データを拡大表示する際に,“リマークポイントタグ”に設定された参照注目点と,参照注目点を中心とした視点画像の一部領域のオフセット位置に基づき,一部領域の立体視画像を拡大表示することもできる。なお,オフセット位置は立体視画像の奥行きの前後関係を調整することができる。オフセット位置の調整は,例えば2視点の場合,R画像,L画像を重ね合わせて立体視表示する際に,上下位置調整,左右シフト量(飛び出し量に相当。)を調整することでもある。例えば,図32を参照しながら説明すると,一部領域である矩形302−2は船の立体視画像であるが,上記船の画像は,矩形302−1の人物の立体視画像よりも後方に位置している。したがって,船の画像の方が奥の方にあるため,上記矩形302−2に表示された“船”に参照注目点としてマーク303を設定し,拡大表示する場合,画像変換部139は,上記矩形302−2の船の画像が前の方に表示されるように,オフセット位置を調整し,当該矩形302−2の船の立体視画像を拡大表示する。これにより,図32に示す“人物”よりも奥の方に表示された“船”の画像を拡大表示した際に,一回の拡大処理で矩形302−1に表示された人物の立体視画像と同等な程度,前方に立体的に表示されるため,視認しやすい。逆に,マーク303を矩形302−1の領域に表示された人物に設定すると,もともと前方に位置し,表示されているため,オフセット位置の調整量は,少なく拡大表示される。   Further, when the stereoscopic image data is enlarged and displayed, the image conversion unit 139 offsets the reference attention point set in the “remark point tag” and the partial area of the viewpoint image centered on the reference attention point. Based on the above, a stereoscopic image of a partial region can be enlarged and displayed. Note that the offset position can adjust the front-rear relationship of the depth of the stereoscopic image. For example, in the case of two viewpoints, the offset position is adjusted by adjusting the vertical position and the horizontal shift amount (corresponding to the pop-out amount) when the R image and the L image are superimposed and displayed stereoscopically. For example, referring to FIG. 32, the rectangle 302-2 which is a partial region is a stereoscopic image of the ship, but the image of the ship is behind the stereoscopic image of the person of the rectangle 302-1. positioned. Therefore, since the image of the ship is in the back, when the mark 303 is set as the reference attention point in the “ship” displayed in the rectangle 302-2 and enlarged display is performed, the image conversion unit 139 The offset position is adjusted so that the image of the ship of the rectangle 302-2 is displayed in the front, and the stereoscopic image of the ship of the rectangle 302-2 is enlarged and displayed. Thus, when the “ship” image displayed in the back of the “person” shown in FIG. 32 is enlarged, the stereoscopic image of the person displayed in the rectangle 302-1 by one enlargement process. Because it is displayed three-dimensionally in front, it is easy to see. On the contrary, when the mark 303 is set to a person displayed in the area of the rectangle 302-1, since the mark 303 is originally located and displayed in front, the offset position adjustment amount is displayed with a small amount.

上記参照注目点が“リマークポイントタグ”のタグのフィールドに設定されることで,図35(b)に示す立体視画像から,さらに参照注目点を中心として立体視画像を拡大する等の場合,改めて拡大する中心点を定義,または参照注目点を設定しなくても,注目点を中心に立体視画像を迅速に拡大することが可能となる。   When the reference attention point is set in the tag field of “remark point tag”, the stereoscopic image shown in FIG. 35B is further enlarged around the reference attention point. Even if the center point to be enlarged again is not defined or the reference attention point is not set, the stereoscopic image can be rapidly enlarged around the attention point.

なお,上記参照注目点を中心として立体視画像を拡大する場合,編集画面320は,警告画面(図示せず。)に切替わり,“立体視が困難になる可能性があります”等の警告メッセージが表示される。   When the stereoscopic image is enlarged around the reference attention point, the editing screen 320 is switched to a warning screen (not shown), and a warning message such as “There is a possibility that stereoscopic viewing may be difficult” is displayed. Is displayed.

上記警告画面が表示されるのは,立体視画像の拡大により視差が大きくなるため,立体的に視認することが難しくなるためである。また,視差の拡大により眼精疲労が促進されるためである。   The warning screen is displayed because the parallax increases due to the enlargement of the stereoscopic image, so that it is difficult to visually recognize the stereoscopic image. Moreover, it is because eye strain is promoted by expansion of parallax.

なお,本実施の形態にかかる参照注目点は,立体視画像を拡大する際の中心点である場合を例に挙げて説明したが,かかる場合に限定されず,例えば,参照注目点は,立体視画像を縮小する際の中心点である場合等であってもよい。   The reference attention point according to the present embodiment has been described by taking as an example a case where the reference attention point is a center point when a stereoscopic image is enlarged. However, the reference attention point is not limited to such a case. For example, it may be the center point when the visual image is reduced.

また,本実施の形態にかかる参照注目点は,上記説明したように,本実施の形態にかかる切出画像領域の切出処理の変形例と同様に,リマークポイント(参照注目点)を設定し,拡大表示等する場合においても,対応点マッチングや,視差の調整後,立体視画像を表示する場合であっても実施可能である。なお,警告等も画面に表示する。   Further, as described above, the remark point (reference remark point) is set as the reference remark point according to the present embodiment, as in the modified example of the cut-out processing of the cut-out image area according to the present embodiment. Even in the case of enlarging display or the like, the present invention can be implemented even when displaying a stereoscopic image after matching corresponding points or adjusting parallax. A warning or the like is also displayed on the screen.

以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例を想定し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, this invention is not limited to this example. It is obvious for a person skilled in the art that various changes or modifications can be envisaged within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.

上記実施形態においては,2視点画像の場合を例にあげて説明したが,本発明はかかる例に限定されない。例えば,3以上の複数視点画像の場合であっても実施することができる。   In the above embodiment, the case of a two-viewpoint image has been described as an example, but the present invention is not limited to such an example. For example, the present invention can be implemented even in the case of three or more multi-viewpoint images.

本発明は立体視画像を生成することが可能な立体画像処理装置,立体視画像表示方法,コンピュータプログラム等に適用可能である。   The present invention is applicable to a stereoscopic image processing apparatus capable of generating a stereoscopic image, a stereoscopic image display method, a computer program, and the like.

図1は,本実施の形態にかかる光学アダプタを装着した撮像装置の概略的構成を示す説明図である。FIG. 1 is an explanatory diagram showing a schematic configuration of an imaging apparatus equipped with the optical adapter according to the present embodiment. 図2は,図1の光学アダプタの構成例を示す説明図である。FIG. 2 is an explanatory diagram showing a configuration example of the optical adapter of FIG. 図3は,本実施の形態にかかる光学アダプタを装着した撮像装置によって撮影される視差画像を示す説明図である。FIG. 3 is an explanatory diagram illustrating a parallax image captured by an imaging apparatus equipped with the optical adapter according to the present embodiment. 図4は,本実施の形態にかかるプロジェクタによる立体画像表示の概略的な構成を示す説明図である。FIG. 4 is an explanatory diagram showing a schematic configuration of stereoscopic image display by the projector according to the present embodiment. 図5は,本実施の形態にかかるコンピュータ装置の概略的な構成を示す説明図である。FIG. 5 is an explanatory diagram showing a schematic configuration of the computer apparatus according to the present embodiment. 図6は,本実施の形態にかかるL画像とR画像を合成して立体視画像生成する処理を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining processing for generating a stereoscopic image by combining the L image and the R image according to the present embodiment. 図7は,本実施の形態にかかる立体視画像を示す説明図である。FIG. 7 is an explanatory diagram showing a stereoscopic image according to the present embodiment. 図8は,本実施の形態にかかる立体視画像を立体的に視認する概要を説明するための図である。FIG. 8 is a diagram for explaining an overview of stereoscopically viewing a stereoscopic image according to the present embodiment. 図9は,本実施の形態にかかる立体画像処理装置の概略的な構成を示すブロック図である。FIG. 9 is a block diagram showing a schematic configuration of the stereoscopic image processing apparatus according to the present embodiment. 図10は,図10に示す立体画像処理装置の変形例である。FIG. 10 is a modification of the stereoscopic image processing apparatus shown in FIG. 図11は,本実施の形態にかかる立体視画像ファイルのデータ構造の概略を示す説明図である。FIG. 11 is an explanatory diagram showing an outline of the data structure of the stereoscopic image file according to the present embodiment. 図12は,本実施の形態にかかる結合画像データの概略的な構成を示す説明図である。FIG. 12 is an explanatory diagram showing a schematic configuration of combined image data according to the present embodiment. 図13は,本実施の形態にかかる複数の視点から撮像した場合の視点画像の概略的な構成を示す説明図である。FIG. 13 is an explanatory diagram illustrating a schematic configuration of a viewpoint image when captured from a plurality of viewpoints according to the present embodiment. 図14は,本実施の形態における視点画像の配置の概略的な構成を示す説明図である。FIG. 14 is an explanatory diagram showing a schematic configuration of the viewpoint image arrangement in the present embodiment. 図15は,本実施の形態にかかる視点画像の画像処理方法の概略を示すフローチャートである。FIG. 15 is a flowchart showing an outline of the viewpoint image processing method according to the present embodiment. 図16は,本実施の形態における表示画面の概略的な構成例を示す説明図である。FIG. 16 is an explanatory diagram showing a schematic configuration example of the display screen in the present embodiment. 図17は,本実施の形態における視点画像の一律回転配置の概略的な構成を示す説明図である。FIG. 17 is an explanatory diagram showing a schematic configuration of uniform rotation arrangement of viewpoint images in the present embodiment. 図18は,本実施の形態における視点画像の個別回転配置の概略的な構成を示す説明図である。FIG. 18 is an explanatory diagram showing a schematic configuration of the individual rotational arrangement of viewpoint images in the present embodiment. 図19は,本実施の形態における視点画像の一律回転およびミラー反転配置の概略的な構成を示す説明図である。FIG. 19 is an explanatory diagram showing a schematic configuration of uniform rotation of the viewpoint image and mirror inversion arrangement in the present embodiment. 図20は,本実施の形態における視点画像の個別回転およびミラー反転配置の概略的な構成を示す説明図である。FIG. 20 is an explanatory diagram showing a schematic configuration of viewpoint image individual rotation and mirror inversion arrangement in the present embodiment. 図21は,本実施の形態にかかる結合画像の記録処理の概略を示すフローチャートである。FIG. 21 is a flowchart showing an outline of the combined image recording process according to the present embodiment. 図22は,本実施の形態にかかる環境情報設定画面の概略的な構成を示す説明図である。FIG. 22 is an explanatory diagram showing a schematic configuration of the environment information setting screen according to the present embodiment. 図23は,本実施の形態にかかる立体視画像の表示処理の概略を示すフローチャートである。FIG. 23 is a flowchart showing an outline of a stereoscopic image display process according to the present embodiment. 図24は,本実施の形態にかかる立体視画像の画像表示処理の概略を示すフローチャートである。FIG. 24 is a flowchart showing an outline of a stereoscopic image display process according to the present embodiment. 図25は,本実施の形態にかかる“PictureRotateNM”のタグのフィールドに設定される値の概略を示す説明図である。FIG. 25 is an explanatory diagram showing an outline of values set in the “Picture Rotate NM” tag field according to the present embodiment. 図26は,本実施の形態にかかる立体視画像の画像表示処理の変形例の概略を示すフローチャートである。FIG. 26 is a flowchart illustrating an outline of a modified example of the image display process of the stereoscopic image according to the present embodiment. 図27は,本実施の形態にかかる表示画面例の概略的な構成を示す説明図である。FIG. 27 is an explanatory diagram showing a schematic configuration of a display screen example according to the present embodiment. 図28は,本実施の形態にかかる光学アダプタの概略的な構成を示す説明図である。FIG. 28 is an explanatory diagram showing a schematic configuration of the optical adapter according to the present embodiment. 図29は,本実施の形態にかかる画像処理方法の概略を示すフローチャートである。FIG. 29 is a flowchart showing an outline of the image processing method according to the present embodiment. 図30は,本実施の形態にかかる“CropSize”または“CropOffset”のタグのフィールドに設定される値の概略を示す説明図である。FIG. 30 is an explanatory diagram showing an outline of values set in the “CropSize” or “CropOffset” tag field according to the present embodiment. 図31は,本実施の形態にかかる切出画像領域の概略的な構成を示す説明図である。FIG. 31 is an explanatory diagram showing a schematic configuration of a cut-out image area according to the present embodiment. 図32は,本実施の形態にかかる表示画面例の概略的な構成を示す説明図である。FIG. 32 is an explanatory diagram showing a schematic configuration of a display screen example according to the present embodiment. 図33は,本実施の形態にかかる“ValidSize”または“ValidOffset”のタグのフィールドに設定される値の概略を示す説明図である。FIG. 33 is an explanatory diagram showing an outline of values set in the field of the “ValidSize” or “ValidOffset” tag according to the present embodiment. 図34は,本実施の形態にかかる有効領域の概略的な構成を示す説明図である。FIG. 34 is an explanatory diagram showing a schematic configuration of an effective area according to the present embodiment. 図35は,本実施の形態にかかる表示画面例の概略的な構成を示す説明図である。FIG. 35 is an explanatory diagram showing a schematic configuration of a display screen example according to the present embodiment.

符号の説明Explanation of symbols

101 :撮像部
131 :合成部
132 :画像エンコード部
133 :画像制御情報生成部
134 :データ多重化部
135 :記録媒体
136 :データ分離部
137 :画像デコード部
138 :画像分離部
139 :画像変換部
140 :立体視表示部
DESCRIPTION OF SYMBOLS 101: Imaging part 131: Synthesis | combination part 132: Image encoding part 133: Image control information generation part 134: Data multiplexing part 135: Recording medium 136: Data separation part 137: Image decoding part 138: Image separation part 139: Image conversion part 140: Stereoscopic display unit

Claims (9)

少なくとも相互に視差を有する複数の視点画像を合成して立体視画像を表示する立体視画像処理装置であって:
前記視点が異なる複数の視点画像のうち少なくとも一つを回転させ,該複数の視点画像とともに,該複数の視点画像に関する画像制御情報とを管理することを特徴とする,立体視画像処理装置。
A stereoscopic image processing apparatus that displays a stereoscopic image by combining a plurality of viewpoint images having at least parallax with each other:
A stereoscopic image processing apparatus, comprising: rotating at least one of a plurality of viewpoint images having different viewpoints, and managing image control information related to the plurality of viewpoint images together with the plurality of viewpoint images.
前記画像制御情報には,前記複数の視点画像が回転した回転角度情報が少なくとも含まれることを特徴とする,請求項1に記載の立体視画像処理装置。 The stereoscopic image processing apparatus according to claim 1, wherein the image control information includes at least rotation angle information obtained by rotating the plurality of viewpoint images. 前記複数の視点画像は,相互に視差を有する右視点画像と左視点画像であることを特徴とする,請求項1に記載の立体視画像処理装置。 The stereoscopic image processing apparatus according to claim 1, wherein the plurality of viewpoint images are a right viewpoint image and a left viewpoint image having parallax with each other. 前記立体視画像装置は,前記右視点画像と左視点画像とを同方向に90度単位で回転させることを特徴とする,請求項3に記載の立体画像処理装置。 The stereoscopic image processing apparatus according to claim 3, wherein the stereoscopic image device rotates the right viewpoint image and the left viewpoint image in the same direction in units of 90 degrees. 前記立体視画像装置は,前記右視点画像と左視点画像とを回転及び/又はミラー反転させることを特徴とする,請求項3に記載の立体画像処理装置。 The stereoscopic image processing apparatus according to claim 3, wherein the stereoscopic image device rotates and / or mirror-inverts the right viewpoint image and the left viewpoint image. 相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像処理装置であって:
右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転装置と;
前記第1回転結合画像の上下方向が横長画面の横方向に合わせるように前記同方向とは逆方向に90度または270度回転させて第2回転結合画像を得る第2回転装置と;
前記第2回転結合画像を上下に合成して立体視画像を得る合成装置と;
を備えたことを特徴とする,立体視画像処理装置。
A stereoscopic image processing apparatus for combining a right viewpoint image and a left viewpoint image having parallax with each other and displaying the stereoscopic image:
A first rotation device that rotates the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image;
A second rotation device for obtaining a second rotation combined image by rotating 90 degrees or 270 degrees in the opposite direction to the same direction so that the vertical direction of the first rotation combined image is aligned with the horizontal direction of the horizontally long screen;
A synthesizing apparatus that obtains a stereoscopic image by vertically synthesizing the second rotationally combined image;
A stereoscopic image processing apparatus comprising:
コンピュータをして,相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像処理装置として機能させるコンピュータプログラムであって:
右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転手段と;
前記第1回転結合画像の上下方向が横長画面の横方向に合わせるように90度または270度回転させて第2回転結合画像を得る第2回転手段と;
前記第2回転結合画像を上下に合成して立体視画像を得る合成手段と;
を備えたことを特徴とする,立体視画像処理装置。
A computer program that causes a computer to function as a stereoscopic image processing apparatus that combines a right viewpoint image and a left viewpoint image having parallax with each other and displays a stereoscopic image:
First rotating means for rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image;
Second rotating means for obtaining a second rotated combined image by rotating 90 degrees or 270 degrees so that the vertical direction of the first rotated combined image is aligned with the horizontal direction of the horizontally long screen;
Combining means for combining the second rotationally combined image up and down to obtain a stereoscopic image;
A stereoscopic image processing apparatus comprising:
相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示方法であって:
右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;
前記第1回転結合画像の上下方向が横長画面の横方向に合わせるように該第1回転結合画像を90度または270度回転させて第2回転結合画像を得る第2回転工程と;
前記第2回転結合画像を上下に合成して立体視画像を得る合成工程と;
を備えたことを特徴とする,立体視画像処理装置。
A stereoscopic image display method in which a right viewpoint image and a left viewpoint image having parallax with each other are combined with a stereoscopic image and displayed:
A first rotation step of rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image;
A second rotation step of obtaining the second rotation combined image by rotating the first rotation combined image by 90 degrees or 270 degrees so that the vertical direction of the first rotation combined image is aligned with the horizontal direction of the horizontally long screen;
Combining the second rotationally combined image up and down to obtain a stereoscopic image;
A stereoscopic image processing apparatus comprising:
相互に視差を有する右視点画像と左視点画像とを立体視画像に合成して表示する立体視画像表示方法であって:
右視点画像と左視点画像とをそれぞれ同方向に90度または270度回転させて第1回転結合画像を得る第1回転工程と;
横長の画面を90度または270度回転させて縦長の画面を構成する画面回転工程と;
前記縦長画面の縦方向を該第1回転結合画像の上下方向に合わせるように前記第1回転結合画像を合成して立体視画像を得る合成工程と;
から成ることを特徴とする,立体視画像表示方法。
A stereoscopic image display method in which a right viewpoint image and a left viewpoint image having parallax with each other are combined with a stereoscopic image and displayed:
A first rotation step of rotating the right viewpoint image and the left viewpoint image in the same direction by 90 degrees or 270 degrees to obtain a first rotation combined image;
A screen rotation step of rotating a horizontally long screen by 90 degrees or 270 degrees to form a vertically long screen;
Synthesizing the first rotation combined image to obtain a stereoscopic image so that the vertical direction of the vertically long screen matches the vertical direction of the first rotation combined image;
A stereoscopic image display method comprising:
JP2003365345A 2003-10-24 2003-10-24 Stereoscopic image processing apparatus, stereoscopic image display method, and computer program Expired - Fee Related JP4403378B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003365345A JP4403378B2 (en) 2003-10-24 2003-10-24 Stereoscopic image processing apparatus, stereoscopic image display method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003365345A JP4403378B2 (en) 2003-10-24 2003-10-24 Stereoscopic image processing apparatus, stereoscopic image display method, and computer program

Publications (2)

Publication Number Publication Date
JP2005130309A true JP2005130309A (en) 2005-05-19
JP4403378B2 JP4403378B2 (en) 2010-01-27

Family

ID=34644033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003365345A Expired - Fee Related JP4403378B2 (en) 2003-10-24 2003-10-24 Stereoscopic image processing apparatus, stereoscopic image display method, and computer program

Country Status (1)

Country Link
JP (1) JP4403378B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151983A (en) * 2005-12-08 2007-06-21 Kowa Co Method and apparatus for processing ocular fundus image
US11016579B2 (en) 2006-12-28 2021-05-25 D3D Technologies, Inc. Method and apparatus for 3D viewing of images on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151983A (en) * 2005-12-08 2007-06-21 Kowa Co Method and apparatus for processing ocular fundus image
US11016579B2 (en) 2006-12-28 2021-05-25 D3D Technologies, Inc. Method and apparatus for 3D viewing of images on a head display unit
US11036311B2 (en) 2006-12-28 2021-06-15 D3D Technologies, Inc. Method and apparatus for 3D viewing of images on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US11520415B2 (en) 2006-12-28 2022-12-06 D3D Technologies, Inc. Interactive 3D cursor for use in medical imaging

Also Published As

Publication number Publication date
JP4403378B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4490074B2 (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, stereoscopic image providing method, and stereoscopic image processing system
JP4483261B2 (en) Stereoscopic image processing device
US6944328B2 (en) Method and apparatus of generating three dimensional image data having one file structure and recording the image data on a recording medium, and recording medium for storing the three dimensional image data having one file structure
US7889196B2 (en) 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program
JP4750835B2 (en) Digital camera and image processing method
US8373745B2 (en) Image processing apparatus, image display apparatus, image apparatus, and image processing method
JP4620271B2 (en) Image processing method
JP4442190B2 (en) Stereoscopic image processing device
JPWO2007116549A1 (en) Image processing device
JP2009044496A (en) Photographing field angle calculation apparatus
JPH1127703A (en) Display device and its control method
JP4525049B2 (en) Stereoscopic image processing apparatus and stereoscopic image generation method
JP5407962B2 (en) Stereoscopic image processing apparatus and stereoscopic image generation method
JP4254478B2 (en) Stereoscopic image processing device
WO2010041450A1 (en) Image processing apparatus and method, and image reproducing apparatus, method and program
JP4403378B2 (en) Stereoscopic image processing apparatus, stereoscopic image display method, and computer program
JP2008252493A (en) File generating method and device, and stereoscopic image display control method and device
JP2006211386A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP4619412B2 (en) Stereoscopic image recording / playback system
JP4255753B2 (en) Stereoscopic image management apparatus and method, and program
JP2005130312A (en) Stereoscopic vision image processing device, computer program, and parallax correction method
JP2005128896A (en) Stereoscopic image processor, stereoscopic image processing method, and computer program
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP5367747B2 (en) Imaging apparatus, imaging method, and imaging system
WO2013058359A1 (en) Image file generation device, image file reading device, image file generation method, image file reading method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees