JP2008167310A - Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program - Google Patents

Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program Download PDF

Info

Publication number
JP2008167310A
JP2008167310A JP2006356356A JP2006356356A JP2008167310A JP 2008167310 A JP2008167310 A JP 2008167310A JP 2006356356 A JP2006356356 A JP 2006356356A JP 2006356356 A JP2006356356 A JP 2006356356A JP 2008167310 A JP2008167310 A JP 2008167310A
Authority
JP
Japan
Prior art keywords
gazing point
image
image processing
changing
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006356356A
Other languages
Japanese (ja)
Inventor
Masato Enokido
理人 榎戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DEEDRIVE KK
Original Assignee
DEEDRIVE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DEEDRIVE KK filed Critical DEEDRIVE KK
Priority to JP2006356356A priority Critical patent/JP2008167310A/en
Publication of JP2008167310A publication Critical patent/JP2008167310A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a naked eye stereoscopic vision image processing method, device, and recording medium recording an operation program which can adjust a depth of a stereoscopic image after imaging for a more natural depth. <P>SOLUTION: A naked eye stereoscopic vision image processing device supplying multiple parallax images supplied from an imaging device (camera) 3 to a stereo image display device (display) 5 which enables a stereoscopic vision has a regarding point assigning means assigning a regarding point to the multiple parallax images, and a regarding point position change means of a regarding point changing pointer PP etc. which changes a depth position of the regarding point assigned by the regarding point assigning means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、立体画像の奥行き感を調節し違和感の無い裸眼立体視を可能とする裸眼立体視画像処理方法および装置ならびに演算プログラムを記録した記録媒体に関する。   The present invention relates to an autostereoscopic image processing method and apparatus that adjusts the sense of depth of a stereoscopic image and enables autostereoscopic viewing without a sense of incongruity, and a recording medium on which an arithmetic program is recorded.

近年、裸眼で画像を立体視可能とする技術が種々、提供されるようになってきている。また、最近では、漠然とした立体視映像では無く、自然な裸眼立体視映像を提供しようとする試みを提案するものも見られる。   In recent years, various techniques for enabling stereoscopic viewing of images with the naked eye have been provided. Recently, there have been some proposals that try to provide natural autostereoscopic images instead of vague stereoscopic images.

例えば、特許文献1に記載の技術にあっては、課題として、視差分割方式において、視点を微妙にずらして視差を生じさせた2枚の2次元画像を「交差法」や「平行法」によって1枚の立体画像として認識させようとする際に、人間の個々の個人差により立体視映像を享受できない場合が想定されている。   For example, in the technique described in Patent Document 1, as a problem, in the parallax division method, two two-dimensional images in which parallax is generated by slightly shifting the viewpoint are obtained by “intersection method” or “parallel method”. When attempting to recognize as a single stereoscopic image, a case where a stereoscopic video cannot be enjoyed due to individual differences among humans is assumed.

特許文献1に記載の技術は、このように極めて不自然な映像、つまり微妙にずれた2枚の画像が交互に合成された映像としてか認識できない場合の不具合を少しでも軽減しようとするものである。   The technique described in Patent Document 1 is intended to alleviate the problem when it is not possible to recognize such an extremely unnatural image, that is, an image obtained by alternately synthesizing two slightly shifted images. is there.

例えば特許文献1の実施例4に記載の技術にあっては、視差分割方式の「交差法」において、その視線の交差ポイントを算出し、ユーザに対して表示画面上で交差ポイントを位置を知らせる機能を備える。   For example, in the technique described in Example 4 of Patent Document 1, in the “intersection method” of the parallax division method, the intersection point of the line of sight is calculated, and the position of the intersection point is notified to the user on the display screen. It has a function.

つまり、この特許文献1の実施例4に記載の技術は、視線の交差ポイントを知らせることにより、個人差による立体視映像の享受可否を解消しようとするものである。
特開2005−318421号
In other words, the technique described in Example 4 of Patent Document 1 attempts to eliminate whether or not to enjoy a stereoscopic video image due to individual differences by notifying the intersection point of line of sight.
JP 2005-318421 A

上述したように、従来の立体視映像表示装置では、特定の方式、例えば視差分割方式の「交差法」における課題を解決するに過ぎないものであり、裸眼立体視画像表示におけるより自然な奥行き感で立体視が可能な視差画像を提供するものはなかった。また、カメラから得られる視差画像に対する処理は、通常はカメラの光軸変更等、撮像前または撮像時に設定あるいは処理されるものであるという認識が一般的であることから、撮像後に視差の調整等の処理を行うことは全く想定されていなかった。   As described above, the conventional stereoscopic video display device only solves the problem in a specific method, for example, the “intersection method” of the parallax division method, and has a more natural depth feeling in autostereoscopic image display. No parallax image that can be viewed stereoscopically is available. In addition, since it is generally recognized that processing for parallax images obtained from a camera is usually set or processed before or during imaging, such as changing the optical axis of a camera, adjustment of parallax after imaging, etc. It was not assumed at all to perform the process.

本発明は、このような技術的課題に鑑みてなされたもので、その目的は、撮影後に立体画像の奥行き位置を制御し、より自然な奥行き感の立体画像情報を提供することができる裸眼立体視画像処理方法および装置ならびに演算プログラムを記録した記録媒体を提供することにある。   The present invention has been made in view of such a technical problem, and an object of the present invention is to control a depth position of a stereoscopic image after shooting and provide a stereoscopic image information with a more natural depth feeling. An object of the present invention is to provide a visual image processing method and apparatus and a recording medium on which an arithmetic program is recorded.

上記の課題を解決するために、請求項1に記載の裸眼立体視画像処理方法は、画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理方法であって、前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与することを要旨とする。   In order to solve the above-described problem, the autostereoscopic image processing method according to claim 1 supplies the multi-parallax image supplied from the image supply unit to a stereoscopic image display device that enables stereoscopic viewing with the naked eye. The point is that the point of interest is given to an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image.

請求項1の裸眼立体視画像処理方法によれば、撮影後には変更できなかった立体画像の奥行き感を撮影後に制御し、より自然な奥行き感の立体画像情報を提供することが可能となる。   According to the autostereoscopic image processing method of claim 1, it is possible to control the sense of depth of a stereoscopic image that could not be changed after photographing, and to provide stereoscopic image information with a more natural sense of depth.

請求項2に記載の裸眼立体視画像処理方法は、それぞれの光軸が平行となるように設置される複数のカメラにより構成される画像供給手段から供給される多視差画像を処理して、裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理方法であって、前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与する注視点付与工程と、この注視点付与工程で付与された注視点の奥行き位置を変更する注視点位置変更工程とを備えることを要旨とする。   The autostereoscopic image processing method according to claim 2 processes a multi-parallax image supplied from an image supply unit including a plurality of cameras installed so that optical axes thereof are parallel to each other, thereby A method for processing an autostereoscopic image when supplying to a stereoscopic image display device that enables stereoscopic viewing at a point of view, which adds a gazing point to an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image. The gist of the present invention is to include a process and a gaze point position changing step for changing the depth position of the gaze point given in the gaze point giving step.

請求項2の裸眼立体視画像処理装置によれば、撮影後には変更できなかった立体画像の奥行き感を撮影後に制御し、より自然な奥行き感の立体画像情報を提供することが可能となる。   According to the autostereoscopic image processing apparatus of the second aspect, it is possible to provide a more natural stereoscopic image information by controlling the depth feeling of the stereoscopic image that could not be changed after the imaging, after the imaging.

請求項3に記載の裸眼立体視画像処理装置は、画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理装置であって、前記多視差画像から得られる立体画像に対し設定される注視点の奥行き位置を任意の奥行き位置に変更する注視点位置変更手段を備えることを要旨とする。   The autostereoscopic image processing apparatus according to claim 3 is an autostereoscopic image processing apparatus for supplying a multi-parallax image supplied from an image supply unit to a stereoscopic image display apparatus that enables stereoscopic viewing with the naked eye. The gist of the invention is to include gaze point position changing means for changing the depth position of the gazing point set for the stereoscopic image obtained from the multi-parallax image to an arbitrary depth position.

請求項4に記載の裸眼立体視画像処理装置は、画像供給手段から供給される多視差画像を処理し、裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理装置であって、前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与する注視点付与手段と、この注視点付与手段で付与された注視点の奥行き位置を変更する注視点位置変更手段とを備えることを要旨とする。   The autostereoscopic image processing apparatus according to claim 4 processes a multi-parallax image supplied from an image supply unit and supplies the autostereoscopic image to a stereoscopic image display apparatus that enables stereoscopic viewing with the naked eye. A processing apparatus, a gazing point giving unit that gives a gazing point to an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image, and a gazing point that is given by the gazing point giving unit. The gist of the present invention is to provide viewpoint position changing means.

請求項5に記載の裸眼立体視画像処理装置は、前記請求項3又は4のいずれかに記載の画像供給手段が、それぞれの光軸が平行となるように設置される複数の撮像手段により構成されることを要旨とする。   The autostereoscopic image processing apparatus according to claim 5 is configured such that the image supply unit according to any one of claims 3 and 4 includes a plurality of imaging units installed so that respective optical axes are parallel to each other. The gist is that

請求項6に記載の裸眼立体視画像処理装置は、前記請求項5記載の任意の奥行き位置に注視点を付与する処理または前記注視点の奥行き位置を変更する処理が、前記画像供給手段を構成する各カメラの光軸を当該注視点に擬似的に傾けたときの注視点位置の横方向の移動量を計算し、この移動量を前記多視差画像に反映することを要旨とする。   The autostereoscopic image processing apparatus according to claim 6, wherein the process of giving a gazing point to an arbitrary depth position according to claim 5 or the process of changing the depth position of the gazing point constitutes the image supply unit. The gist is to calculate the lateral movement amount of the position of the gazing point when the optical axis of each camera to be artificially tilted to the gazing point and reflect this movement amount in the multi-parallax image.

請求項7に記載の裸眼立体視画像処理装置は、前記請求項3乃至6のいずれかに記載の注視点位置変更手段が、立体画像表示装置の画面に、常態でまたは操作時に一時的に表示される注視点変更用ポインタで示された奥行き位置に注視点位置を変更することを要旨とする。   The autostereoscopic image processing apparatus according to claim 7, wherein the gazing point position changing unit according to any of claims 3 to 6 is temporarily displayed on the screen of the stereoscopic image display apparatus in a normal state or during operation. The gist is to change the position of the gazing point to the depth position indicated by the gazing point changing pointer.

請求項8に記載の裸眼立体視画像処理装置は、前記請求項3乃至6のいずれかに記載の注視点位置変更手段が、立体画像表示装置の画面に画面縦方向に、常態でまたは操作時に一時的に表示される注視点変更用カーソルを移動して示された奥行き位置に注視点位置を変更することを要旨とする。   The autostereoscopic image processing apparatus according to claim 8 is characterized in that the gazing point position changing means according to any one of claims 3 to 6 has a screen vertical direction on the screen of the stereoscopic image display apparatus in a normal state or during operation. The gist is to change the position of the point of gaze to the depth position indicated by moving the cursor for changing the point of gaze that is temporarily displayed.

請求項9に記載の裸眼立体視画像処理装置は、前記請求項3乃至6のいずれかに記載の注視点位置変更手段が、前記立体画像表示装置の画面に表示される注視点変更用カーソル位置から水平に注視点変更用注視点表示ラインを表示することを要旨とする。   The autostereoscopic image processing apparatus according to claim 9, wherein the gazing point position changing unit according to any one of claims 3 to 6 is a gazing point changing cursor position displayed on the screen of the stereoscopic image display apparatus. The gist is to display the gazing point display line for changing the gazing point horizontally.

請求項10に記載の裸眼立体視画像処理装置は、前記請求項3乃至6のいずれかに記載の注視点位置変更手段が、立体画像表示装置の画面に、常態でまたは操作時に一時的に表示される注視点変更用数値入力ウィンドウに入力される数値に対応する奥行き位置に注視点位置を変更することを要旨とする。   The autostereoscopic image processing apparatus according to claim 10, wherein the gazing point position changing unit according to any of claims 3 to 6 is temporarily displayed on a screen of the stereoscopic image display apparatus in a normal state or during operation. The gist of the invention is to change the position of the gazing point to the depth position corresponding to the numerical value input in the numerical value input window for changing the gazing point.

請求項11に記載の裸眼立体視画像処理装置は、前記請求項3乃至6のいずれかに記載の注視点位置変更手段が、前記注視点変更用数値入力ウィンドウに入力される数値に対応する奥行き位置に水平に注視点変更用注視点表示ラインを表示することを要旨とする。   The autostereoscopic image processing apparatus according to claim 11 is a depth corresponding to a numerical value input by the gaze point position changing unit according to any of claims 3 to 6 to the numerical value input window for changing the gaze point. The gist is to display a gazing point display line for changing the gazing point horizontally at the position.

請求項12に記載の裸眼立体視画像処理演算プログラムは、画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理演算プログラムであって、前記多視差画像に注視点を付与する注視点付与処理と、この注視点付与処理で付与された注視点の奥行き位置を変更する注視点位置変更処理とを含み、これらの処理をコンピュータに実行させることを要旨とする。   The autostereoscopic image processing calculation program according to claim 12 is an autostereoscopic image processing calculation operation for supplying a multi-parallax image supplied from an image supply unit to a stereoscopic image display device that enables stereoscopic viewing with the naked eye. A program that includes a gazing point giving process for giving a gazing point to the multi-parallax image, and a gazing point position changing process for changing the depth position of the gazing point given in the gazing point giving process. The gist of this is to make the computer execute.

請求項13に記載のコンピュータ読み取り可能な記録媒体は、請求項12に記載の裸眼立体視画像処理演算プログラムを記録したことを要旨とする。   The gist of a computer-readable recording medium according to a thirteenth aspect is that the autostereoscopic image processing arithmetic program according to the twelfth aspect is recorded.

本発明の裸眼立体視画像処理方法および装置ならびに演算プログラムを記録した記録媒体によれば、従来、撮影後には変更できなかった立体画像の奥行き感を撮影後に制御し、より自然な奥行き感の立体画像情報を提供することができる。   According to the autostereoscopic image processing method and apparatus of the present invention and the recording medium on which the arithmetic program is recorded, the depth feeling of the stereoscopic image that could not be changed after the photographing is controlled after the photographing so that a stereoscopic with a more natural depth sensation is achieved. Image information can be provided.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明に係る立体視画像処理装置を含む裸眼立体視画像処理システム全体の構成を示すブロック図である。   FIG. 1 is a block diagram showing the overall configuration of an autostereoscopic image processing system including a stereoscopic image processing apparatus according to the present invention.

図1を参照するに、立体画像処理装置1は画像供給手段としての撮像装置(カメラ)3と立体画像表示装置(ディスプレイ)5との間に設けられる。   Referring to FIG. 1, a stereoscopic image processing apparatus 1 is provided between an imaging apparatus (camera) 3 and a stereoscopic image display apparatus (display) 5 as image supply means.

撮像装置3は、本実施形態では光軸が平行となる向きに固定された7台のデジタルカメラ若しくは1台の筐体中に7つのCCD(1つのCCDを7台分と区分する場合を含む)が設けられたカメラにより構成され、7カメラ分の非圧縮フルHDハイビジョン画像を多視差画像として立体画像処理装置1に供給する。なお、本実施の形態においては、複数のカメラ等からなる撮像装置3を例にして説明するが、画像供給手段としては放送、通信回線を介して供給されるもの、記録媒体等を介して供給されるもの、また画像としてはコンピュータグラフィックス(Computer Graphics;CG)等の任意の画像を供給するものが含まれることは言うまでもない。   In this embodiment, the imaging device 3 includes seven digital cameras fixed in a direction in which the optical axes are parallel to each other or seven CCDs in one housing (including the case where one CCD is divided into seven CCDs). ), And supplies uncompressed full HD high-definition images for seven cameras to the stereoscopic image processing apparatus 1 as multi-parallax images. In the present embodiment, the image pickup apparatus 3 including a plurality of cameras and the like will be described as an example. However, as an image supply unit, an image supply unit is supplied via broadcasting or a communication line, or supplied via a recording medium. Needless to say, what is provided and what supplies arbitrary images such as computer graphics (CG) are included as images.

立体画像処理装置1は、後述するように、この供給された多視差画像を裸眼立体視が可能なように画像処理を施し、立体画像表示装置5に出力する。   As will be described later, the stereoscopic image processing apparatus 1 performs image processing on the supplied multi-parallax image so as to enable autostereoscopic viewing, and outputs the processed image to the stereoscopic image display apparatus 5.

立体画像表示装置5は立体画像処理装置1から供給された処理画像を裸眼立体視が可能な画像として表示する。立体画像表示装置5には、多視差画像をソースとして生成できる立体画像が表示できる全てのディスプレイが含まれ、例えば、2眼式の表示方式では、アナグリフ方式、シャッターグラス方式、偏向レンズ方式、レンチキュラー方式が含まれ、多眼式の表示方式ではレンチキュラー方式、マイクロレンズアレイ方式(フライアイレンズ方式)、パララックスバリア方式などが含まれる。また、必要視差数が足りない場合は各カメラ間を補間し、必要視差数を補うことにより立体視が可能となる。   The stereoscopic image display device 5 displays the processed image supplied from the stereoscopic image processing device 1 as an image capable of autostereoscopic viewing. The stereoscopic image display device 5 includes all displays capable of displaying a stereoscopic image that can be generated using a multi-parallax image as a source. For example, in a binocular display method, an anaglyph method, a shutter glass method, a deflection lens method, a lenticular A multi-lens display method includes a lenticular method, a micro lens array method (fly eye lens method), a parallax barrier method, and the like. Further, when the required number of parallaxes is insufficient, a stereoscopic view is possible by interpolating between the cameras and compensating for the required number of parallaxes.

次に、立体画像処理装置1の構成を詳細に説明する。   Next, the configuration of the stereoscopic image processing apparatus 1 will be described in detail.

ディスクストレージ装置11はハードディスクドライブ(HDD)等で構成される大容量の記憶媒体であり、撮像装置3から取得した7台分のカメラ(以下、7カメラ分と略記することもある)からの非圧縮フルHDハイビジョン画像、あるいはを記録するための装置である。DVDやMO(光磁気ディスク)等のディスクタイプの外、半導体を用いたフラッシュメモリタイプのものを利用することにより、より高速なアクセス・スピードを確保するようにしても良い。   The disk storage device 11 is a large-capacity storage medium composed of a hard disk drive (HDD) or the like, and is a non-storage device from seven cameras (hereinafter also abbreviated as seven cameras) acquired from the imaging device 3. This is an apparatus for recording a compressed full HD high-definition image. In addition to a disk type such as DVD or MO (magneto-optical disk), a flash memory type using a semiconductor may be used to secure a higher access speed.

データ圧縮解凍装置13は、例えばディスクストレージ装置11に記録・蓄積された多視差画像(本実施形態では7カメラ分の視差画像)を一つのファイルにまとめる処理をソフトウェア若しくは専用チップによりリアルタイムに行う。   The data compression / decompression device 13 performs, in real time, software or a dedicated chip to process, for example, multi-parallax images (in this embodiment, parallax images for seven cameras) recorded and accumulated in the disk storage device 11 into one file.

このデータ圧縮解凍装置13は、現状の7カメラ分の非圧縮フルHDハイビジョン(フルスペックハイビジョン)画像を圧縮して扱いやすくするために設けられる。具体的には、非圧縮でのフルHDハイビジョン画像7枚のデータ量は435.4MB/秒になるため、現在のパソコン(PC)における最大転送レートに対応するファイルサイズまで圧縮しておく。これにより制御領域の確保やデータへのアクセスタイムの短縮、さらには記録媒体への記録が容易となる。   The data compression / decompression device 13 is provided to compress and easily handle uncompressed full HD high-definition (full-spec high-definition) images for the current seven cameras. Specifically, since the data amount of seven full HD high-definition images without compression is 435.4 MB / second, the file size corresponding to the maximum transfer rate in the current personal computer (PC) is compressed. This makes it easy to secure the control area, shorten the access time to the data, and further record on the recording medium.

立体画像編集装置15は、母体となる既存のソフトウェアに対し補助的な「立体画像編集・合成プログラム」を搭載し、既存の編集、合成システムと同じ感覚で立体画像の編集、合成を行う。このとき立体画像編集装置15は、後述するアルゴリズムにより、立体画像を生成する際カメラの間隔(視差)を変化させることで立体感(奥行き感)を変化させる等の処理を行う。   The stereoscopic image editing device 15 is equipped with an auxiliary “stereoscopic image editing / synthesizing program” for the existing software as a base, and edits and synthesizes a stereoscopic image with the same feeling as an existing editing / synthesizing system. At this time, the stereoscopic image editing device 15 performs processing such as changing the stereoscopic effect (depth feeling) by changing the interval (parallax) of the cameras when generating a stereoscopic image by an algorithm described later.

データ変換装置17は、多視差の画像情報から立体像表示装置にリアルタイムで表示する画像変換を行う。   The data conversion device 17 performs image conversion to be displayed on the stereoscopic image display device in real time from multi-parallax image information.

次に図2乃至図8を参照して、本実施形態における裸眼立体視画像処理システムでの注視点の変更処理について説明する。   Next, with reference to FIG. 2 to FIG. 8, a gaze point changing process in the autostereoscopic image processing system in the present embodiment will be described.

図2は本実施形態における撮像条件の前提条件を示すものであり、便宜的に被写体Tとカメラ及びそれぞれのカメラで撮像された画像内容を3組として示している(本実施形態では本来7カメラ分の視差画像を得るため7組が必要である)。   FIG. 2 shows the preconditions of the imaging conditions in the present embodiment. For convenience, the subject T, the camera, and the image content captured by each camera are shown as three sets (in this embodiment, originally seven cameras). 7 sets are needed to get a minute parallax image).

図2では、被写体Tとして、カメラ側からみて右側かつ遠方にある右側被写体TRと、中央かつ中間距離にある中央被写体TCと、左側かつより近距離にある左側被写体TLと、撮像装置3としての3台のカメラC0、C1、C2が示される。なお、3台のカメラC0、C1、C2は等間隔に配置され、またそれぞれの光軸は平行である。   In FIG. 2, as the subject T, the right subject TR on the right side and far from the camera side, the central subject TC at the center and intermediate distance, the left subject TL on the left side and closer, and the imaging device 3 as the subject T Three cameras C0, C1, C2 are shown. The three cameras C0, C1, C2 are arranged at equal intervals, and their optical axes are parallel.

さらに各カメラC0、C1、C2で撮像された画像I0、I1、I2が視差画像としてそれぞれのカメラC0、C1、C2に対応して示されている。例えば、カメラC1で被写体Tを撮像して得られた画像I1には、右側から右側被写体TRの撮像画像である右側被写体画像(TR)と、中央被写体TCの撮像画像である中央被写体画像(TC)と、左側被写体TLの撮像画像である左側被写体画像(TL)が示されている。また画像I0、I1、I2とを比較すると、カメラC0、C1、C2毎に視差が生じた画像となっていることが示されている。   Furthermore, images I0, I1, and I2 captured by the cameras C0, C1, and C2 are shown as parallax images corresponding to the cameras C0, C1, and C2, respectively. For example, an image I1 obtained by imaging the subject T with the camera C1 includes a right subject image (TR) that is a captured image of the right subject TR from the right side and a central subject image (TC) that is an image captured of the central subject TC. ) And a left subject image (TL) that is a captured image of the left subject TL. Further, comparing the images I0, I1, and I2 shows that the images have parallax for each of the cameras C0, C1, and C2.

次に図3、4を参照して、注視点と擬似的な注視点操作により自然な奥行き感が得られることについて説明する。   Next, with reference to FIGS. 3 and 4, it will be described that a natural sense of depth can be obtained by a gaze point and a pseudo gaze point operation.

図3、4の(a)にはカメラC0、C1、C2で撮像された画像I0、I1、I2と注視点(点線で示す)との関係が示され、図3、4の(b)にはユーザUが立体画像表示装置5の表示画面(図中ILで示すディスプレイ面)を介して右側被写体TR、中央被写体TC、及び左側被写体TLを眺めている様子がそれぞれ模式的に示される。   FIGS. 3 and 4 (a) show the relationship between the images I0, I1 and I2 captured by the cameras C0, C1 and C2 and the gazing point (shown by dotted lines), and FIGS. 3 and 4 (b). 4 schematically shows a state in which the user U is looking at the right subject TR, the central subject TC, and the left subject TL via the display screen of the stereoscopic image display device 5 (display surface indicated by IL in the figure).

さらに図3、4(b)にはユーザUが自然な奥行き感の立体画像と感じる領域である「適切な立体表示領域」が点線で示される。つまり表示画面ILは、「適切な立体表示領域」の前後中心にあり、注視点でもある。なお、ここではユーザUが注視する場合、点であることから注視点としているが、現実的には感覚的には面であり、そのため図3、4(b)では、その横断面を示す線で注視点が示されている。   Further, in FIG. 3 and FIG. 4B, “appropriate stereoscopic display area”, which is an area that the user U feels as a stereoscopic image with a natural sense of depth, is indicated by dotted lines. That is, the display screen IL is in the center of the front and rear of the “appropriate stereoscopic display area”, and is also a gaze point. Here, when the user U gazes, it is a gaze point because it is a point, but in reality, it is a surface in terms of sensation. Therefore, in FIG. 3 and FIG. The point of interest is shown in

図3(b)を参照するに、左側被写体TLに注視点をもってきた場合(図3(a)を参照)、ユーザUにとって右側被写体TRが「適切な立体表示領域」の領域外にあることから、全体として不自然な奥行き感の立体画像と感じることになる。   Referring to FIG. 3B, when the left subject TL has a gazing point (see FIG. 3A), the right subject TR is outside the “appropriate stereoscopic display area” for the user U. As a whole, it feels like a stereoscopic image with an unnatural depth.

そこで、図4(b)に示すように中央被写体TCに注視点を持ってくる(図4(a)を参照)。この場合、手前側にも、奥行き側にも自然な奥行き感のある立体画像として認識されることになる。   Therefore, as shown in FIG. 4B, the gaze point is brought to the central subject TC (see FIG. 4A). In this case, both the front side and the depth side are recognized as a stereoscopic image having a natural sense of depth.

次に、図5、6、7を参照してトリミング領域について説明する。   Next, the trimming area will be described with reference to FIGS.

図5では、カメラCの光軸を45度づつずらして撮影し、3枚の画像(A1、A2、A3)を得、これら3枚の画像(A1、A2、A3)を繋ぎ合わして1枚の連続した画像とする様子を示す。また、図6ではカメラCを左から右に振りながら撮影した場合を示す。この場合にも連続した画像が得られ、逆には単にパンしたときと同じ効果の画像(A4、A5)が得られる。   In FIG. 5, the optical axis of camera C is shifted 45 degrees, and three images (A1, A2, A3) are obtained. These three images (A1, A2, A3) are joined together to obtain one image. It shows a state of making a continuous image. FIG. 6 shows a case where the camera C is photographed while swinging from left to right. Even in this case, continuous images are obtained, and conversely, images (A4, A5) having the same effect as when simply panning are obtained.

次に図7を参照するに、図7ではカメラC1、C2の光軸が平行になるように設置し撮像した様子を点線で、カメラC1、C2の光軸が注視点Aで一致するように設置し撮像した様子を2点鎖線で示す。このどちらの場合も図5、6と同様に連続した画像が得られる。   Next, referring to FIG. 7, in FIG. 7, the camera C <b> 1 and C <b> 2 are arranged so that their optical axes are parallel to each other, and the state of imaging is indicated by a dotted line, and the optical axes of the cameras C <b> 1 and C < A state of installation and imaging is shown by a two-dot chain line. In either case, a continuous image is obtained as in FIGS.

今回、発明者らの実験で、2点鎖線で示す場合には注視点の存在により自然な立体画像が得られ、一方、点線で示す平行な光軸の場合には、注視点が存在しないため裸眼立体視した場合には、奥行き感に違和感のある画像となることが判った。このような場合、トリミングによって注視点を与えているような効果を作り出すことができる。   In this experiment, a natural stereoscopic image is obtained due to the presence of a gazing point in the case of a two-dot chain line, while there is no gazing point in the case of a parallel optical axis indicated by a dotted line. It was found that an image with a sense of incongruity in the depth was obtained when the autostereoscopic viewing was performed. In such a case, it is possible to create an effect that gives a gazing point by trimming.

次に、図8を参照して擬似的な注視点操作について説明する。この擬似的な注視点操作は、図5、6、7で説明したように平行光軸で撮影した画像、すなわち注視点の存在しない画像に対して、任意の位置に注視点を与え、これにより、より違和感のない立体画像を提供することを可能とすると共に、任意の位置に与えられる注視点を適宜、最適位置に変更することで(注視点操作)、さらに自然な奥行き感のある立体画像を提供することを可能にしている。   Next, a pseudo gaze point operation will be described with reference to FIG. In this pseudo gazing point operation, as described with reference to FIGS. 5, 6, and 7, an gazing point is given to an arbitrary position with respect to an image photographed with a parallel optical axis, that is, an image without a gazing point. Therefore, it is possible to provide a stereoscopic image without a sense of incongruity, and by appropriately changing the gazing point given to an arbitrary position to an optimal position (gaze point operation), a stereoscopic image with a more natural depth feeling It is possible to provide.

また従来、撮影後には変更できなかった表示奥行き位置のコントロールを、立体画像製作者が立体画像表示時に擬似的に注視点操作を行うことにより、、撮影後もしくはCG 製作後に表示された立体画像の奥行き情報を維持した状態で、表示奥行き位置を前後させ、見やすい立体画像を表示、作成できるようにするものである。   Conventionally, the control of the display depth position that could not be changed after shooting is performed by the stereoscopic image producer by performing a pseudo gaze point operation when displaying the stereoscopic image, so that the stereoscopic image displayed after shooting or after CG production is displayed. In the state where the depth information is maintained, the display depth position is moved back and forth so that an easily viewable stereoscopic image can be displayed and created.

図8において、7台のカメラC0、C1、C2、C3、C4、C5、C6は等間隔(カメラ間隔d)になるように配置される。また7台のうちの中央のカメラC0の撮像面Bと注視点Aとの距離を注視点距離Dとする。この図3では説明のために各カメラC0、C1、C2、C3、C4、C5、C6は注視点Aの方向を向いており、それぞれの傾き角をθ0、θ1、θ2、θ3、θ4、θ5、θ6とする。逆に言えば、各カメラC0、C1、C2、C3、C4、C5、C6の光軸を平行にした場合の、各光軸の注視点との傾きとなる。   In FIG. 8, seven cameras C0, C1, C2, C3, C4, C5, and C6 are arranged at equal intervals (camera interval d). A distance between the imaging surface B of the central camera C0 and the gazing point A among the seven cameras is set as a gazing point distance D. In FIG. 3, the cameras C0, C1, C2, C3, C4, C5, and C6 are directed in the direction of the gazing point A, and the inclination angles thereof are θ0, θ1, θ2, θ3, θ4, and θ5 for the sake of explanation. , Θ6. In other words, the inclination of each optical axis with respect to the gazing point when the optical axes of the cameras C0, C1, C2, C3, C4, C5, and C6 are made parallel.

このように配置した例において、等間隔で平行に配置した撮像装置上で得られた画像に対して(但し、atan=arctan)、
atan(カメラ間隔)÷( 注視距離)=(傾き角)
(画像サイズ(横))÷( 画角)÷θ=(移動するピクセル数(横方向))
という式により、各画像の配置X 座標を決定し、各画像それぞれ決定した位置に配置、合成を行う。合成方法は各裸眼立体ディスプレイに伴い変化する。合成された立体画像に「表示奥行き位置情報」が付加され、擬似的に注視点操作を行った結果、各ディスプレイ表示時に立体画像の「表示奥行き位置」を前後に変更でき、結果、見やすい立体画像を確認しながら生成できる。
In an example arranged in this way, for an image obtained on an imaging device arranged in parallel at equal intervals (where atan = arctan),
atan (camera interval) ÷ (gazing distance) = (tilt angle)
(Image size (horizontal)) ÷ (angle of view) ÷ θ = (number of pixels to move (horizontal direction))
The arrangement X coordinate of each image is determined by the following formula, and each image is arranged and synthesized at the determined position. The composition method changes with each autostereoscopic display. As a result of adding “display depth position information” to the synthesized stereoscopic image and performing a pseudo gaze point operation, the “display depth position” of the stereoscopic image can be changed back and forth when displaying each display, resulting in an easily viewable stereoscopic image Can be generated while checking.

次に、立体画像の奥行き表示位置変更方法について説明する。   Next, a method for changing the depth display position of a stereoscopic image will be described.

まず、ステップS11において、均等な間隔dでかつ光軸が平行となるように配置された撮像装置3の7台のカメラCにより、7個の視点から撮影された7つの画像を得る。この7つの画像は、ディスクストレージ装置11の図示しないHDDに撮像装置3の7台カメラCの毎に設けられた(設定された)7つのフォルダにそれぞれ一時的に保存される。この保存された画像は、保存性・取扱性を高めるためにデータ圧縮解凍装置13Aで圧縮され、解凍され、立体画像編集装置15に出力される。   First, in step S11, seven images taken from seven viewpoints are obtained by the seven cameras C of the imaging device 3 arranged so that the optical axes are parallel with an equal interval d. The seven images are temporarily stored in seven folders (set) provided for each of the seven cameras C of the imaging device 3 in the HDD (not shown) of the disk storage device 11. The stored image is compressed and decompressed by the data compression / decompression device 13 </ b> A in order to improve storability and handling, and is output to the stereoscopic image editing device 15.

次に、ステップS13において、立体画像編集装置15は、撮影時もしくはCG製作時に使用したカメラ情報を画像移動量算出プログラムに入力、実行し、各画像の横移動量を算出する。   Next, in step S13, the stereoscopic image editing apparatus 15 inputs and executes camera information used at the time of shooting or CG production to the image movement amount calculation program, and calculates the lateral movement amount of each image.

各画像をディスクストレージ装置11から、データ圧縮解凍装置13Aを介して立体画像編集装置15に読み込み、その演算部が演算を行う。入力するカメラ情報としては、
カメラ間隔(距離)単位:mm
レンズのmm数;f
撮像素子の横幅(CCD、CMOS、フィルムなど)単位:mm
撮影した画像のサイズ(横)単位:ピクセル数
撮影に使用したカメラの数(視点数)単位:台
擬似的に与えたい注視点距離 単位:mm
がある。またCPUが行う演算としては、このカメラ情報を入力し後述するステップS23の式を計算する。計算後、各カメラから得た画像の移動量が分かるので、それに伴い各画像の表示位置を横方向に移動させる。
Each image is read from the disk storage device 11 to the stereoscopic image editing device 15 via the data compression / decompression device 13A, and the calculation unit performs the calculation. As camera information to be input,
Camera interval (distance) unit: mm
Mm of lens; f
Image sensor width (CCD, CMOS, film, etc.) Unit: mm
Size of captured image (horizontal) Unit: Number of pixels Number of cameras used for photographing (number of viewpoints) Unit: Gaze point distance to be given in a simulated manner Unit: mm
There is. Further, as an operation performed by the CPU, this camera information is input and an equation in step S23 described later is calculated. After the calculation, the amount of movement of the image obtained from each camera is known, and accordingly, the display position of each image is moved in the horizontal direction.

次に、ステップS15において、算出した画像移動量に伴い、各画像を移動し、各立体画像表示装置に合わせた合成方法で多視点画像の合成を行う。このPCに読み込まれた画像を、一時的にメモリに記録し、CPUが画像の合成を行う。   Next, in step S15, each image is moved in accordance with the calculated image movement amount, and a multi-viewpoint image is synthesized by a synthesis method suitable for each stereoscopic image display device. The image read into this PC is temporarily recorded in the memory, and the CPU synthesizes the image.

さらにステップS17において、画像合成後、各立体画像表示装置に表示する。CPUが演算した結果(各立体画像表示装置にあわせた合成方法で合成した結果)をGPUを通して各表示装置に転送し、各立体画像表示装置に表示する。   Further, in step S17, the images are displayed on each stereoscopic image display device after being synthesized. The result calculated by the CPU (the result of synthesis by a synthesis method suitable for each stereoscopic image display device) is transferred to each display device through the GPU and displayed on each stereoscopic image display device.

ステップS19においては、立体画像表示時に見にくい場合、任意に注視距離の変更を行い、表示奥行き位置を変更する。ステップS15と同じく、PCに読み込まれた画像を、一時的にメモリに記録し、再度CPUが画像の合成を行う。   In step S19, if it is difficult to see at the time of stereoscopic image display, the gaze distance is arbitrarily changed, and the display depth position is changed. As in step S15, the image read into the PC is temporarily recorded in the memory, and the CPU again combines the images.

さらにステップS21において、各立体画像表示装置に自然な立体画像を表示する。ステップS17と同じく、CPUが演算した結果(各立体画像表示装置にあわせた合成方法で合成した結果)をGPUを通して各表示装置に転送し、各立体画像表示装置に表示する。   In step S21, a natural stereoscopic image is displayed on each stereoscopic image display device. As in step S17, the result calculated by the CPU (the result synthesized by the synthesis method adapted to each stereoscopic image display device) is transferred to each display device through the GPU and displayed on each stereoscopic image display device.

なお、以上の作業をフレーム毎(日本国内での通常のビデオ、テレビなどでは29.97fps)に連続して上記の作業を繰り返すことで、動画に対応する。   Note that the above work is repeated for each frame (ordinary video in Japan, 29.97 fps for televisions, etc.) and the above work is repeated to support moving images.

次に、画像の横移動算出プログラムについて説明する。   Next, an image lateral movement calculation program will be described.

まず、ステップS23においては、下記の入力を行う。   First, in step S23, the following input is performed.

・立体画像合成に使用する各画像の幅を入力(印刷物の場合はmmなど、モニタなどへの表示用にはピクセル数など出力先によって単位を変更)
・撮影時もしくはCG製作時に使用したカメラの撮像素子サイズwを入力(縦、もしくは対角線の長さ)
・撮影時もしくはCG製作時に使用したカメラのレンズmm数fを入力
・撮影時もしくはCG製作時に使用したカメラ間隔dを入力
・撮影時もしくはCG製作時に使用したカメラの数(n=7)を入力
・擬似的に与える注視距離を入力
続いて、ステップS25において、撮影時に使用したカメラの画角(θ)を算出する。
・ Enter the width of each image to be used for 3D image composition (for printing, mm, etc., for display on a monitor etc., change the unit depending on the output destination such as the number of pixels)
・ Enter the image sensor size w of the camera used during shooting or CG production (length of the vertical or diagonal line)
・ Enter the camera lens number f used during shooting or CG production ・ Enter the camera distance d used during shooting or CG production ・ Enter the number of cameras used during shooting or CG production (n = 7) -Entering a pseudo gaze distance Subsequently, in step S25, the angle of view (θ) of the camera used at the time of photographing is calculated.

{atan((w/2)÷f)}×2=θ
ステップS27では、平行、また均等な間隔に並べられたカメラから、擬似的に注視点を設けるため、カメラの光軸の角度θを算出する。
{Atan ((w / 2) ÷ f)} × 2 = θ
In step S27, the angle θ of the optical axis of the camera is calculated in order to provide a pseudo gaze point from cameras arranged in parallel or at equal intervals.

{(d×(n−1))/2}+d×((左からm台目のカメラ)−1)=L
{atan(L)}÷D=θ
但し、
d;カメラ間隔
n;カメラ台数
D;注視距離
θ;カメラの傾き角
L;原点からカメラmまでの距離
またステップS29では、撮影した各画像の横移動量を各画像ごとに算出する。
{(D × (n−1)) / 2} + d × ((mth camera from the left) −1) = L
{Atan (L)} ÷ D = θ
However,
d; camera interval n; number of cameras D; gaze distance θ; camera tilt angle L; distance from the origin to camera m In step S29, the lateral movement amount of each captured image is calculated for each image.

{(画角)÷θ}/(画像の横方向サイズ)=(画像の横方向移動量)
これにより撮影時に使用したカメラの台数分、横移動量を算出する。
{(Angle of view) ÷ θ} / (horizontal size of image) = (horizontal movement of image)
Thus, the lateral movement amount is calculated for the number of cameras used at the time of shooting.

次に、図9,10,11を参照して、注視点の変更操作について説明する。   Next, the gaze point changing operation will be described with reference to FIGS.

まず、図9を参照するに、立体画像表示装置5の表示画面5aには、裸眼立体視可能な右側被写体立体画像I(TR)、中央被写体画像I(TC)、左側被写体画像I(TL)が表示されているものとする。また(+)は注視点変更用ポインタPPである。   First, referring to FIG. 9, the display screen 5 a of the stereoscopic image display device 5 includes a right subject stereoscopic image I (TR), a center subject image I (TC), and a left subject image I (TL) that can be viewed with the naked eye. Is displayed. Further, (+) is a gazing point changing pointer PP.

ここでユーザUが 立体画像表示装置5の表示画面5a上の裸眼立体視可能な被写体立体画像I(右側被写体立体画像I(TR)、中央被写体画像I(TC)、左側被写体画像I(TL)を含む画面全体)を眺めて、立体視に不自然さを覚えたものとする。   Here, the user U can view the stereoscopic image of the subject stereoscopic image I (right subject stereoscopic image I (TR), central subject image I (TC), left subject image I (TL) on the display screen 5a of the stereoscopic image display device 5. Suppose that the user sees the entire screen including the image and feels unnaturalness in the stereoscopic view.

そこでユーザUは、マウスの右クリック等により、注視点変更モードに表示画面5aを切り換え、表示画面5a上に注視点変更用ポインタPPを表示させる。次に、マウスを用いて注視点変更用ポインタPPを移動し、違和感の無い、自然な立体視が出来る位置に注視点変更用ポインタPPを配置する。   Therefore, the user U switches the display screen 5a to the gazing point change mode by right-clicking the mouse or the like, and displays the gazing point changing pointer PP on the display screen 5a. Next, the gazing point changing pointer PP is moved using the mouse, and the gazing point changing pointer PP is arranged at a position where there is no sense of incongruity and natural stereoscopic viewing is possible.

図9では、注視点変更用ポインタPPは中央被写体画像I(TC)上に配置され、これにより注視点位置は中央被写体画像I(TC)位置に移動される。この注視点の移動処理はリアルタイムに行われるため、ユーザUは表示画面5a上で立体視の効果を確認しながら、注視点の変更をおこなうことができる。   In FIG. 9, the gazing point changing pointer PP is arranged on the central subject image I (TC), and thereby the gazing point position is moved to the central subject image I (TC) position. Since the gazing point movement process is performed in real time, the user U can change the gazing point while confirming the stereoscopic effect on the display screen 5a.

なお、このとき注視点変更用ポインタPPの位置は、特に被写体画像I(T)上にある必要は無く、例えば右側被写体立体画像I(TR)、中央被写体画像I(TC)との間に設定しても構わない。この場合、対象となる被写体が無くなることがあるが、その場合には右側被写体立体画像I(TR)と中央被写体画像I(TC)との間の中間距離等の位置に応じた比率の位置に設定すれば良い。   At this time, the position of the gazing point changing pointer PP need not be on the subject image I (T), and is set between the right subject stereoscopic image I (TR) and the central subject image I (TC), for example. It doesn't matter. In this case, there may be no subject subject. In this case, the subject is positioned at a ratio corresponding to a position such as an intermediate distance between the right subject stereoscopic image I (TR) and the central subject image I (TC). Set it.

次に、図10を参照して他の注視点の変更操作例について説明する。   Next, another example of changing the point of gaze will be described with reference to FIG.

この図10に示す例では、図9に示した注視点変更用ポインタPPに替えて、注視点変更用カーソルPCを用いて注視点を変更するようにしている。   In the example shown in FIG. 10, the gazing point is changed using the gazing point changing cursor PC instead of the gazing point changing pointer PP shown in FIG.

ユーザ操作は図9に示す例と同様に、表示画面5b上に注視点変更用カーソルPCを表示させ、この注視点変更用カーソルPCをマウスで画面上下方向に移動する。これにより立体視の効果が変更されるので、ユーザUは被写体画像I(T)の立体視が自然と感じる位置に注視点変更用カーソルPCを移動する。これにより注視点位置は、例えば中央被写体画像I(TC)位置に移動される。   As in the example shown in FIG. 9, the user operation causes the gazing point changing cursor PC to be displayed on the display screen 5b, and the gazing point changing cursor PC is moved up and down with the mouse. As a result, the stereoscopic effect is changed, and the user U moves the gazing point changing cursor PC to a position where the stereoscopic vision of the subject image I (T) feels natural. Thereby, the gazing point position is moved to, for example, the center subject image I (TC) position.

この注視点の移動処理はリアルタイムに行われるため、ユーザUは表示画面5b上で立体視の効果を確認しながら、注視点の変更をおこなうことができる。   Since the gazing point movement process is performed in real time, the user U can change the gazing point while confirming the stereoscopic effect on the display screen 5b.

また、この注視点変更用カーソルPCの上下方向の移動に連動して移動する注視点変更用注視点表示ラインPLを表示させるようにしてもよい。この注視点変更用注視点表示ラインPLの表示により、ユーザUは視覚的に注視点位置を知ることができ、注視点の変更がより容易となる。   Further, the gazing point changing gazing point display line PL that moves in conjunction with the vertical movement of the gazing point changing cursor PC may be displayed. By displaying this gazing point changing gazing point display line PL, the user U can visually know the position of the gazing point, and the gazing point can be changed more easily.

なお、この注視点変更用注視点表示ラインPLの表示位置は、必ずしも注視点変更用カーソルPCと画面上下方向の同位置にある必要はない。これは表示画面5b上に表示される画像内容により、当然のことであり、また注視点変更用カーソルPCのカーソル有効長を画面最大に確保するためにも有効である。   It should be noted that the display position of the gazing point changing gazing point display line PL is not necessarily at the same position as the gazing point changing cursor PC in the vertical direction of the screen. This is natural according to the image content displayed on the display screen 5b, and is also effective for securing the maximum effective cursor length of the gazing point changing cursor PC.

次に、図10を参照して他の注視点の変更操作例について説明する。   Next, another example of changing the point of gaze will be described with reference to FIG.

この図11に示す例では、図9に示した注視点変更用ポインタPPに替えて、注視点変更用数値入力ウィンドウPWを用いて注視点を変更するようにしている。   In the example shown in FIG. 11, the gazing point is changed using the gazing point changing numerical input window PW instead of the gazing point changing pointer PP shown in FIG.

ユーザ操作は図9に示す例と同様にして、表示画面5c上に注視点変更用数値入力ウィンドウPWを表示させ、この注視点変更用数値入力ウィンドウPWに任意の数値を手入力もしくはプルダウンによる数値表示を選択することで行う。これにより立体視の効果が変更されるので、ユーザUは被写体画像I(T)の立体視が自然と感じる数値となるまで注視点変更用数値入力ウィンドウPWを操作入力する。これにより注視点位置は、例えば中央被写体画像I(TC)位置に移動される。   As in the example shown in FIG. 9, the user operation causes the gaze point changing numerical value input window PW to be displayed on the display screen 5 c, and an arbitrary numerical value is manually input or a numerical value by pull-down in the gaze point changing numerical value input window PW. This is done by selecting the display. As a result, the effect of stereoscopic vision is changed, so that the user U operates and inputs the gaze point changing numerical value input window PW until the stereoscopic image of the subject image I (T) has a natural value. Thereby, the gazing point position is moved to, for example, the center subject image I (TC) position.

この注視点の移動処理はリアルタイムに行われるため、ユーザUは表示画面5c上で立体視の効果を確認しながら、注視点の変更をおこなうことができる。   Since the gazing point movement process is performed in real time, the user U can change the gazing point while confirming the stereoscopic effect on the display screen 5c.

また、この注視点変更用数値入力ウィンドウPWに入力された数値に連動して移動する注視点変更用注視点表示ラインPLを表示させるようにしてもよい。この注視点変更用注視点表示ラインPLの表示により、ユーザUは視覚的に注視点位置を知ることができ、注視点の変更がより容易となる。   In addition, a gazing point changing gazing point display line PL that moves in conjunction with a numerical value input in the gazing point changing numerical value input window PW may be displayed. By displaying this gazing point changing gazing point display line PL, the user U can visually know the position of the gazing point, and the gazing point can be changed more easily.

上述してきたように、本実施形態によれば、裸眼立体視画像による映像を視聴している際に、ユーザ自らがより自然な奥行き感の立体画像となるように、裸眼立体視画像を視覚的に確認しながら変更することが可能となる。   As described above, according to the present embodiment, when viewing a video based on an autostereoscopic image, the autostereoscopic image is visually displayed so that the user himself / herself becomes a more natural 3D image. It is possible to change while confirming.

本発明の実施形態に係る裸眼立体視画像処理演算は、プログラム化しコンピュータ読取り可能な記録媒体に保存しても良い。そして、裸眼立体視画像処理を行う際は、この記録媒体をコンピュータシステムにより構成される立体画像処理装置1に読み込ませ、立体画像処理装置1内のメモリ等の記憶部にプログラムを格納し、裸眼立体視画像処理演算プログラムを演算装置で実行することにより、本発明の裸眼立体視画像処理演算システムおよびその方法を実現することができる。ここで、記録媒体とは、例えば、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープなどのプログラムを記録することができるようなコンピュータ読み取り可能な記録媒体等が含まれる。   The autostereoscopic image processing calculation according to the embodiment of the present invention may be programmed and stored in a computer-readable recording medium. When performing autostereoscopic image processing, the recording medium is read into the stereo image processing apparatus 1 configured by a computer system, and the program is stored in a storage unit such as a memory in the stereo image processing apparatus 1 to By executing the stereoscopic image processing calculation program on the calculation device, the autostereoscopic image processing calculation system and method of the present invention can be realized. Here, the recording medium includes, for example, a computer-readable recording medium capable of recording a program such as a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, and a magnetic tape.

本発明の裸眼立体視画像処理装置を含むシステム全体の構成を示すブロック図である。It is a block diagram which shows the structure of the whole system containing the autostereoscopic image processing apparatus of this invention. 被写体とカメラ及びそれぞれのカメラで撮像された画像内容を示す図である。It is a figure which shows the content of the image imaged with the to-be-photographed object, the camera, and each camera. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更処理について説明する図である。It is a figure explaining the change process of a gaze point. 注視点の変更方法について説明する図である。It is a figure explaining the change method of a gaze point. 注視点の変更方法について説明する図である。It is a figure explaining the change method of a gaze point. 注視点の変更方法について説明する図である。It is a figure explaining the change method of a gaze point.

符号の説明Explanation of symbols

1…立体画像処理装置
3…撮像装置(カメラ)
5…立体画像表示装置(ディスプレイ)
11…ディスクストレージ装置
13…データ圧縮解凍装置
15…立体画像編集装置
17…データ変換装置
A…注視点
B…撮像面
C…カメラ
D…注視点距離
d…カメラ間隔
I…表示画像
PP…注視点変更用ポインタ
PC…注視点変更用カーソル
PL…注視点変更用注視点表示ライン
PW…注視点変更用数値入力ウィンドウ
T…被写体
TR…右側被写体
TC…中央被写体
TL…左側被写体
(T)…被写体画像
(TR)…右側被写体画像
(TC)…中央被写体画像
(TL)…左側被写体画像
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional image processing apparatus 3 ... Imaging device (camera)
5 ... Stereoscopic image display device (display)
DESCRIPTION OF SYMBOLS 11 ... Disk storage apparatus 13 ... Data compression / decompression apparatus 15 ... Stereoscopic image editing apparatus 17 ... Data conversion apparatus A ... Gaze point B ... Imaging surface C ... Camera D ... Gaze point distance d ... Camera interval I ... Display image PP ... Gaze point Change pointer PC ... gazing point changing cursor PL ... gazing point changing gazing point display line PW ... gazing point changing numerical value input window T ... subject TR ... right subject TC ... center subject TL ... left subject (T) ... subject image (TR) ... right subject image (TC) ... center subject image (TL) ... left subject image

Claims (13)

画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理方法であって、
前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与することを特徴とする裸眼立体視画像処理方法。
An autostereoscopic image processing method for supplying a multi-parallax image supplied from an image supply means to a stereoscopic image display device that enables stereoscopic viewing with the naked eye,
An autostereoscopic image processing method, characterized in that a gazing point is given to an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image.
それぞれの光軸が平行となるように設置される複数のカメラにより構成される画像供給手段から供給される多視差画像を処理して、裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理方法であって、
前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与する注視点付与工程と、
この注視点付与工程で付与された注視点の奥行き位置を変更する注視点位置変更工程と
を備えることを特徴とする裸眼立体視画像処理方法。
Process multi-parallax images supplied from image supply means composed of a plurality of cameras installed so that their optical axes are parallel to each other and supply them to a stereoscopic image display device that enables stereoscopic viewing with the naked eye A method for processing an autostereoscopic image when
A gazing point providing step of providing a gazing point at an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image;
An autostereoscopic image processing method comprising: a gazing point position changing step of changing a depth position of a gazing point given in the gazing point giving step.
画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理装置であって、
前記多視差画像から得られる立体画像に対し設定される注視点の奥行き位置を任意の奥行き位置に変更する注視点位置変更手段を備えることを特徴とする裸眼立体視画像処理装置。
An autostereoscopic image processing apparatus for supplying a multi-parallax image supplied from an image supply means to a stereoscopic image display apparatus that enables stereoscopic viewing with the naked eye,
An autostereoscopic image processing apparatus comprising gaze point position changing means for changing a gaze point depth position set for a stereoscopic image obtained from the multi-parallax image to an arbitrary depth position.
画像供給手段から供給される多視差画像を処理し、裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理装置であって、
前記多視差画像から得られる立体画像の任意の奥行き位置に注視点を付与する注視点付与手段と、
この注視点付与手段で付与された注視点の奥行き位置を変更する注視点位置変更手段と
を備えることを特徴とする裸眼立体視画像処理装置。
An autostereoscopic image processing apparatus for processing a multi-parallax image supplied from an image supply means and supplying the stereoscopic image display apparatus that enables stereoscopic viewing with the naked eye,
Gazing point giving means for giving a gazing point to an arbitrary depth position of a stereoscopic image obtained from the multi-parallax image;
An autostereoscopic image processing apparatus comprising: a gazing point position changing unit that changes a depth position of the gazing point given by the gazing point giving unit.
前記画像供給手段は、それぞれの光軸が平行となるように設置される複数の撮像手段により構成されることを特徴とする請求項3又は4のいずれかに記載の裸眼立体視画像処理装置。 5. The autostereoscopic image processing apparatus according to claim 3, wherein the image supply unit includes a plurality of imaging units installed so that optical axes thereof are parallel to each other. 6. 前記任意の奥行き位置に注視点を付与する処理または前記注視点の奥行き位置を変更する処理は、
前記画像供給手段を構成する各カメラの光軸を当該注視点に擬似的に傾けたときの注視点位置の横方向の移動量を計算し、この移動量を前記多視差画像に反映することを特徴とする請求項5記載の裸眼立体視画像処理装置。
The process of giving a gazing point to the arbitrary depth position or the process of changing the depth position of the gazing point,
Calculating a lateral movement amount of the gazing point position when the optical axis of each camera constituting the image supply unit is artificially tilted to the gazing point, and reflecting the movement amount in the multi-parallax image. The autostereoscopic image processing apparatus according to claim 5, wherein:
前記注視点位置変更手段は、立体画像表示装置の画面に、常態でまたは操作時に一時的に表示される注視点変更用ポインタで示された奥行き位置に注視点位置を変更することを特徴とする請求項3乃至6のいずれかに記載の裸眼立体視画像処理装置。   The gazing point position changing means changes the gazing point position to a depth position indicated by a gazing point changing pointer that is temporarily displayed on a screen of a stereoscopic image display device in a normal state or during operation. The autostereoscopic image processing apparatus according to claim 3. 前記注視点位置変更手段は、立体画像表示装置の画面に画面縦方向に、常態でまたは操作時に一時的に表示される注視点変更用カーソルを移動して示された奥行き位置に注視点位置を変更することを特徴とする請求項3乃至6のいずれかに記載の裸眼立体視画像処理装置。   The gazing point position changing means moves the gazing point position to the depth position indicated by moving the gazing point changing cursor displayed on the screen of the stereoscopic image display device in the vertical direction in a normal state or temporarily during operation. The autostereoscopic image processing device according to claim 3, wherein the autostereoscopic image processing device is changed. 前記注視点位置変更手段は、前記立体画像表示装置の画面に表示される注視点変更用カーソル位置から水平に注視点変更用注視点表示ラインを表示することを特徴とする請求項3乃至6のいずれかに記載の裸眼立体視画像処理装置。   7. The gazing point changing gazing point display line is horizontally displayed from a gazing point changing cursor position displayed on the screen of the stereoscopic image display device. The autostereoscopic image processing apparatus according to any one of the above. 前記注視点位置変更手段は、立体画像表示装置の画面に、常態でまたは操作時に一時的に表示される注視点変更用数値入力ウィンドウに入力される数値に対応する奥行き位置に注視点位置を変更することを特徴とする請求項3乃至6のいずれかに記載の裸眼立体視画像処理装置。   The gazing point position changing means changes the gazing point position to a depth position corresponding to a numerical value input in a numerical value input window for changing the gazing point temporarily displayed on the screen of the stereoscopic image display device during normal operation or operation. The autostereoscopic image processing apparatus according to claim 3, wherein the autostereoscopic image processing apparatus is a naked eye stereoscopic image processing apparatus. 前記注視点位置変更手段は、前記注視点変更用数値入力ウィンドウに入力される数値に対応する奥行き位置に水平に注視点変更用注視点表示ラインを表示することを特徴とする請求項3乃至6のいずれかに記載の裸眼立体視画像処理装置。   The gazing point position changing means displays a gazing point changing gazing point display line horizontally at a depth position corresponding to a numerical value input in the gazing point changing numerical value input window. The autostereoscopic image processing apparatus according to any one of the above. 画像供給手段から供給される多視差画像を裸眼での立体視を可能とする立体画像表示装置に供給するときの裸眼立体視画像処理演算プログラムであって、
前記多視差画像に注視点を付与する注視点付与処理と、
この注視点付与処理で付与された注視点の奥行き位置を変更する注視点位置変
更処理とを含み、
これらの処理をコンピュータに実行させることを特徴とする裸眼立体視画像処理演算プログラム。
An autostereoscopic image processing calculation program for supplying a multi-parallax image supplied from an image supply means to a stereoscopic image display device that enables stereoscopic viewing with the naked eye,
A gazing point giving process for giving a gazing point to the multi-parallax image;
A gazing point position changing process for changing the depth position of the gazing point given in the gazing point giving process,
An autostereoscopic image processing calculation program for causing a computer to execute these processes.
請求項12に記載の裸眼立体視画像処理演算プログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the autostereoscopic image processing calculation program according to claim 12 is recorded.
JP2006356356A 2006-12-28 2006-12-28 Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program Pending JP2008167310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006356356A JP2008167310A (en) 2006-12-28 2006-12-28 Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006356356A JP2008167310A (en) 2006-12-28 2006-12-28 Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program

Publications (1)

Publication Number Publication Date
JP2008167310A true JP2008167310A (en) 2008-07-17

Family

ID=39696110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006356356A Pending JP2008167310A (en) 2006-12-28 2006-12-28 Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program

Country Status (1)

Country Link
JP (1) JP2008167310A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086630A1 (en) * 2010-01-13 2011-07-21 パナソニック株式会社 Image pickup device, image pickup method, program, and integrated circuit
WO2012002018A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic image playback device, parallax adjustment method of same, parallax adjustment program, and image capture device
US8275196B2 (en) 2010-12-21 2012-09-25 Kabushiki Kaisha Toshiba Image processing device and image processing method
US9774840B2 (en) 2010-12-14 2017-09-26 Kabushiki Kaisha Toshiba Stereoscopic video signal processing apparatus and method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086630A1 (en) * 2010-01-13 2011-07-21 パナソニック株式会社 Image pickup device, image pickup method, program, and integrated circuit
JPWO2011086630A1 (en) * 2010-01-13 2013-05-16 パナソニック株式会社 Imaging apparatus, imaging method, program, and integrated circuit
WO2012002018A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic image playback device, parallax adjustment method of same, parallax adjustment program, and image capture device
CN102959974A (en) * 2010-06-30 2013-03-06 富士胶片株式会社 Stereoscopic image playback device, parallax adjustment method of same, parallax adjustment program, and image capture device
JP5420075B2 (en) * 2010-06-30 2014-02-19 富士フイルム株式会社 Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
CN102959974B (en) * 2010-06-30 2015-07-29 富士胶片株式会社 Stereoscopic image reproducing device, its disparity adjustment method and camera
US9456197B2 (en) 2010-06-30 2016-09-27 Fujifilm Corporation 3D image reproduction apparatus, and parallax adjustment method of the same, non-transitory computer-readable storage medium and image capture device
US9774840B2 (en) 2010-12-14 2017-09-26 Kabushiki Kaisha Toshiba Stereoscopic video signal processing apparatus and method thereof
US8275196B2 (en) 2010-12-21 2012-09-25 Kabushiki Kaisha Toshiba Image processing device and image processing method

Similar Documents

Publication Publication Date Title
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
JP4251952B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
KR101313740B1 (en) OSMU( One Source Multi Use)-type Stereoscopic Camera and Method of Making Stereoscopic Video Content thereof
JP4925354B2 (en) Image processing apparatus, image display apparatus, imaging apparatus, and image processing method
US20090244258A1 (en) Stereoscopic display apparatus, stereoscopic display method, and program
JP2005073013A (en) Device and method for stereo image display, program for making computer execute the method, and recording medium recording the program
US9210407B2 (en) Image processing apparatus and method, and program
JP2011090400A (en) Image display device, method, and program
JP6126820B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
EP2696588B1 (en) Three-dimensional image output device and method of outputting three-dimensional image
JP2007048293A (en) 3d graphic data processor, stereoscopic image display device and method for driving stereoscopic image display device
JP2010226500A (en) Device and method for displaying stereoscopic image
JP2005109568A (en) Video display and program
WO2013108285A1 (en) Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method
KR101992767B1 (en) Method and apparatus for scalable multiplexing in three-dimension display
JP2006310936A (en) System for generating video image viewed at optional viewpoint
US20120001906A1 (en) Methods and systems for 3d animation
JP2010171628A (en) Image processing device, program, image processing method, recording method, and recording medium
JP2008167310A (en) Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program
US20120163700A1 (en) Image processing device and image processing method
CN113475080A (en) Image processing apparatus, image generation method, and image processing method
JP4475201B2 (en) Stereoscopic image display device and stereoscopic image display device system
JP2012134885A (en) Image processing system and image processing method
KR101192121B1 (en) Method and apparatus for generating anaglyph image using binocular disparity and depth information
KR101433082B1 (en) Video conversing and reproducing method to provide medium feeling of two-dimensional video and three-dimensional video