JP2006211383A - Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method - Google Patents

Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method Download PDF

Info

Publication number
JP2006211383A
JP2006211383A JP2005021743A JP2005021743A JP2006211383A JP 2006211383 A JP2006211383 A JP 2006211383A JP 2005021743 A JP2005021743 A JP 2005021743A JP 2005021743 A JP2005021743 A JP 2005021743A JP 2006211383 A JP2006211383 A JP 2006211383A
Authority
JP
Japan
Prior art keywords
image
stereoscopic image
frequency characteristic
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005021743A
Other languages
Japanese (ja)
Inventor
Hideyuki Kobayashi
英幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005021743A priority Critical patent/JP2006211383A/en
Publication of JP2006211383A publication Critical patent/JP2006211383A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic image processing apparatus for outputting a natural stereoscopic image of which the viewer hardly gets tired by composing a plurality of stereoscopic images. <P>SOLUTION: An image processing section 40 for receiving a plurality of stereoscopic images from an image input section 30 analyzes a change in frequency characteristics with respect to depth directions of the stereoscopic images, adjusts a degree of a change in frequency characteristics with respect to the depth direction of other stereoscopic image information on the basis of stereoscopic image information selected by an operation section 20 or the like, and thereafter composes the stereoscopic images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、立体画像処理装置、立体画像表示装置、及び立体画像生成方法に関する。   The present invention relates to a stereoscopic image processing device, a stereoscopic image display device, and a stereoscopic image generation method.

近年、観察者が上下左右に移動して表示部の画像を見た際に立体的に視認することができる3次元立体画像を表示する表示パネルなどの立体画像表示装置が市場に普及しつつある。この3次元立体画像の表示に関する技術は、様々なものが開発されており、具体的には、インテグラルフォトグラフィ(Integral Photography:以下、「IP」という)方式、またはそれと技術的に関連が深い光線再生法を用いる方式が知られている。   In recent years, stereoscopic image display devices such as a display panel that displays a three-dimensional stereoscopic image that can be viewed three-dimensionally when an observer moves up, down, left, and right to view an image on a display unit are becoming popular in the market. . Various technologies relating to the display of this three-dimensional stereoscopic image have been developed. Specifically, the integral photography (hereinafter referred to as “IP”) method or a technology closely related thereto is deeply developed. A method using a light beam reproduction method is known.

上述の方式による立体画像は、主に視差違いの画像群と複数の微小透孔がアレイ状に設けられた微小透孔アレイとから構成され、視差違いの画像群からの像が観察者の両目に対して視差のある像として映るように微小透孔アレイが配置されることで実現される。   A stereoscopic image by the above-described method is mainly composed of a group of images with different parallax and a micro-hole array in which a plurality of micro-holes are arranged in an array, and images from the group of images with different parallax are the eyes of the observer. This is realized by arranging the micro-hole array so that an image with parallax is projected.

ここで、IP方式における立体画像の作成及び表示例を図1を参照して説明する。立体画像の作成(撮影)は、一般にステレオ多眼方式と呼ばれる、被写体、微小透孔アレイ、及び映像記録部からなる撮像系で当該映像記録部に映像を記録して行われる。映像記録部は、微小透孔アレイの各微小透孔に対応する撮像領域に分割されている。各微小透孔と対応する撮像領域は、各々がカメラを構成し、それぞれの領域に微小な映像が記録される。
記録された立体画像の再生(表示)は、観察者から見て当該微小透孔アレイの後ろに設けられた映像表示部に、上記映像記録部に記録された微小な画像を元にして微小透孔アレイに対して点対称に反転する変換処理を施された映像が映し出されて行われる。
Here, an example of creating and displaying a stereoscopic image in the IP system will be described with reference to FIG. The creation (photographing) of a stereoscopic image is performed by recording a video in the video recording unit with an imaging system that is generally called a stereo multi-view system, which includes a subject, a micro-hole array, and a video recording unit. The video recording unit is divided into imaging regions corresponding to the micro through holes of the micro through hole array. The imaging areas corresponding to the respective micro through holes each constitute a camera, and a minute video is recorded in each area.
The recorded three-dimensional image is reproduced (displayed) on the video display unit provided behind the microscopic aperture array as viewed from the observer based on the microscopic image recorded on the video recording unit. This is performed by displaying an image that has been subjected to a conversion process in which the hole array is inverted in a point-symmetric manner.

なお、立体画像の作成には、上述したステレオ多眼方式で撮影して作成する方法の他に、コンピュータのデータ上で仮想の立体被写体を想定し、当該仮想の立体被写体からの光線がステレオ多眼方式と同等の条件で映像記録部に記録された場合を演算し、印刷して作成するコンピュータグラフィックス(以下、「CG」という)による方法もある。   In addition to the above-described method of shooting and creating with the stereo multi-view method, a stereoscopic image is created by assuming a virtual stereoscopic subject on computer data, and light rays from the virtual stereoscopic subject are stereo-multiple. There is also a method based on computer graphics (hereinafter referred to as “CG”) which is calculated and printed when recorded in the video recording unit under the same conditions as the eye system.

上述したステレオ多眼方式により撮像して作成された立体画像とCGにより作成された立体画像は、それぞれにおいて長所と短所がある。例えば、撮像による場合は、質感に優れるという長所があるが撮影の工数が増えるという欠点がある。逆にCGによる場合は、汎用性に優れるという長所があるが質感が劣るという欠点がある。このため、立体画像を例えば街頭広告として利用する場合などは、それぞれの利点を生かすために二つ以上の画像と合成することが一般的である。   A stereoscopic image created by imaging using the stereo multi-view method described above and a stereoscopic image created by CG have advantages and disadvantages, respectively. For example, in the case of imaging, there is an advantage that the texture is excellent, but there is a drawback that the number of imaging steps increases. Conversely, CG has the advantage of being excellent in versatility, but has the disadvantage of poor texture. For this reason, when using a three-dimensional image as a street advertisement, for example, it is common to combine two or more images in order to take advantage of each advantage.

例えば、特許文献1には、上述した方法で作成された立体画像を合成する際に、立体画像の視認性を良くするとともに遠近感のある自然な立体感を持たせる技術が提案されている。
特開2001−223877
For example, Patent Document 1 proposes a technique for improving the visibility of a three-dimensional image and providing a natural three-dimensional effect with a sense of perspective when synthesizing a three-dimensional image created by the above-described method.
JP2001-223877

しかしながら、撮像された画像とCGにより作成された画像を合成する場合は、奥行方向における互いの画像の周波数特性が異なるため、明らかに合成したと分かる違和感のある仕上がりとなってしまった。例えば、IP方式を利用して街頭広告を作成する際に、ステレオ多眼方式で撮像された商品の画像とCGで作成された周りの画像とを合成した場合は、一般的に商品の画像よりもCGで作成された画像の方が高コントラストで周波数特性が高くなる。このため、商品の画像よりも周りの画像が目立ってしまい、街頭広告として利用するには問題があった。
また、IP方式などの立体画像では、注視点距離の前後が一番見易い奥行設定で画像が生成される。しかし、素直に原画像どおりの奥行設定を行なった場合は、逆に疲労しやすいという欠点があり、更なる開発が望まれていた。
However, when the captured image and the image created by the CG are combined, the frequency characteristics of the images in the depth direction are different from each other. For example, when a street advertisement is created using the IP method, a product image captured by the stereo multi-view method and a surrounding image created by the CG are generally combined with a product image. Also, an image created by CG has higher contrast and higher frequency characteristics. For this reason, the surrounding image is more conspicuous than the product image, and there is a problem in using it as a street advertisement.
Also, in a stereoscopic image such as the IP method, an image is generated with a depth setting that is most easily visible before and after the gaze point distance. However, when the depth is set according to the original image, there is a disadvantage that fatigue tends to occur, and further development is desired.

そこで、本発明は、複数の立体画像を合成して自然で観察者が見ていて疲れにくい立体画像を出力する立体画像処理装置の提供を課題とするものである。   Therefore, an object of the present invention is to provide a stereoscopic image processing apparatus that synthesizes a plurality of stereoscopic images and outputs a stereoscopic image that is natural and that the observer sees and is not tired.

上記課題を解決するために、請求項1に記載の発明は、複数の立体画像情報を取得する立体画像取得手段と、前記複数の立体画像情報ごとに当該立体画像の奥行方向における画像の周波数特性の変化の度合を周波数特性情報として取得する周波数特性取得手段と、前記複数の立体画像情報のうち、いずれか一の立体画像情報の前記取得された周波数特性情報に応じて他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整する周波数特性調整手段と、前記いずれか一の立体画像情報と前記周波数特性調整後の他の立体画像情報とを合成する立体画像合成手段と、を備えたことを特徴とする。
更に、請求項4に記載の発明は、請求項1に記載の立体画像を生成する立体画像生成方法である。
In order to solve the above-described problem, the invention according to claim 1 is characterized in that a stereoscopic image acquisition unit that acquires a plurality of stereoscopic image information and a frequency characteristic of an image in the depth direction of the stereoscopic image for each of the plurality of stereoscopic image information. Frequency characteristic acquisition means for acquiring the degree of change as frequency characteristic information, and other stereoscopic image information according to the acquired frequency characteristic information of any one of the plurality of stereoscopic image information. A frequency characteristic adjusting unit that adjusts the degree of change in the frequency characteristic with respect to the depth direction; and a three-dimensional image synthesizing unit that synthesizes any one of the three-dimensional image information and the other three-dimensional image information after the frequency characteristic adjustment. It is characterized by that.
Further, the invention described in claim 4 is a stereoscopic image generating method for generating the stereoscopic image described in claim 1.

請求項2に記載の発明は、前記周波数特性調整手段は、前記いずれか一の立体画像情報の奥行方向における注視点距離に応じて他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整することを特徴とする。   According to a second aspect of the present invention, the frequency characteristic adjusting means determines the degree of change of the frequency characteristic in the depth direction of the other stereoscopic image information in accordance with the gaze point distance in the depth direction of any one of the stereoscopic image information. It is characterized by adjusting.

請求項3に記載の発明は、前記請求項1又は2に記載の立体画像処理装置と、光源から観察者の間に、前記合成された立体情報に基づいた視差違いの画像群を表示する表示部と、複数の微小透孔がアレイ状に配置されて前記表示部の画像を観察者の両目に視差違いの像として映す微小透孔アレイと、を配置して立体像を観察者に表示する立体画像表示手段と、を備えたことを特徴とする立体画像表示装置である。   According to a third aspect of the present invention, there is provided a display for displaying a group of images with different parallax based on the synthesized three-dimensional information between the stereoscopic image processing apparatus according to the first or second aspect and an observer from a light source. A three-dimensional image is displayed to the viewer by arranging a portion and a plurality of micro-holes arranged in an array so that the image of the display portion is displayed as an image with different parallax between the eyes of the viewer And a stereoscopic image display means.

請求項1、4に記載の発明によれば、複数の立体画像を合成して1つの立体画像を得る場合に、いずれか一の立体画像情報を元に他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整する構成であるため、より自然な立体画像を得ることができる。   According to the first and fourth aspects of the present invention, when one stereoscopic image is obtained by synthesizing a plurality of stereoscopic images, the frequency related to the depth direction of the other stereoscopic image information based on any one of the stereoscopic image information. Since the configuration is such that the degree of change in characteristics is adjusted, a more natural stereoscopic image can be obtained.

請求項2に記載の発明によれば、いずれか一の立体画像情報の注視点距離に応じて他の立体画像情報の周波数特性の変化の度合いを調整する構成であるため、注視点距離の画像がより見易く、観察者が疲れにくい立体画像を得ることができる。   According to the second aspect of the present invention, since the degree of change in the frequency characteristic of the other stereoscopic image information is adjusted in accordance with the gazing point distance of any one of the stereoscopic image information, the gazing point distance image Therefore, it is possible to obtain a stereoscopic image that is easier to see and less tiring for the observer.

請求項3に記載の発明によれば、複数の立体画像情報を合成し、例えばIP方式により、自然で観察者が見ていて疲れにくい立体像を提供することができる。   According to the third aspect of the present invention, a plurality of stereoscopic image information can be synthesized, and a stereoscopic image that is natural and difficult for an observer to see can be provided by, for example, the IP method.

[第1の実施の形態]
以下、図面を参照して、本発明に係る立体画像処理装置の実施の形態について説明する。なお、この発明はこの実施の形態に限定されるものではない。また、この発明の実施の形態は、発明の最も好ましい形態を示すものであり、この発明の用語はこれに限定されない。
[First Embodiment]
Embodiments of a stereoscopic image processing apparatus according to the present invention will be described below with reference to the drawings. The present invention is not limited to this embodiment. The embodiment of the present invention shows the most preferable mode of the present invention, and the terminology of the present invention is not limited to this.

図1は、画像処理装置1の機能的構成を模式的に示した図である。画像処理装置1は、図1に示すように、制御部10、操作部20、画像入力部30、画像処理部40、記憶部50、画像出力部60、及び通信部70を備える。   FIG. 1 is a diagram schematically illustrating a functional configuration of the image processing apparatus 1. As illustrated in FIG. 1, the image processing apparatus 1 includes a control unit 10, an operation unit 20, an image input unit 30, an image processing unit 40, a storage unit 50, an image output unit 60, and a communication unit 70.

制御部10は、特に図示しないCPU(Central Processing Unit)、内部RAM(Random Access Memory)、ROM(Read Only Memory)を備える。制御部10は、制御全体を司るCPUにおいて、内部RAMの所定領域を作業領域としてROMに記憶されている各種制御プログラムに従い、各部に制御信号を送って画像処理装置1の動作全般を統括制御する。   The control unit 10 includes a CPU (Central Processing Unit), an internal RAM (Random Access Memory), and a ROM (Read Only Memory) not shown. The control unit 10 controls the overall operation of the image processing apparatus 1 by sending a control signal to each unit in accordance with various control programs stored in the ROM using a predetermined area of the internal RAM as a work area in the CPU that controls the entire control. .

操作部20は、カーソルキー、数字入力キー、機能キーなどの各種キーを備えたキーボードや、マウス・タブレット等のポインティングデバイスなどから構成され、押下されたキーの押下信号や、前記ポインティングデバイスの位置信号を制御部10へ出力する。画像処理装置1は、利用者からの操作指示を操作部20で受け付けることで、立体画像の編集作業を円滑に行うことができる。   The operation unit 20 includes a keyboard having various keys such as cursor keys, numeric input keys, and function keys, a pointing device such as a mouse / tablet, and the like. The signal is output to the control unit 10. The image processing apparatus 1 can smoothly perform a stereoscopic image editing operation by receiving an operation instruction from a user through the operation unit 20.

立体画像取得手段としての画像入力部30は、ステレオ多眼画像301、3DCGレンダリング画像302を入力するスキャナや映像入力インターフェイスなどであり、入力された立体画像情報を画像処理部40に出力する。なお、ステレオ多眼画像301、3DCGレンダリング画像302の入力は、画像入力部30からの入力以外に、後述する記憶部50による記録媒体や、通信部70による他の情報機器からであってよい。   The image input unit 30 as a stereoscopic image acquisition unit is a scanner, a video input interface, or the like that inputs the stereo multiview image 301 or the 3DCG rendering image 302, and outputs the input stereoscopic image information to the image processing unit 40. In addition to the input from the image input unit 30, the stereo multi-view image 301 and the 3DCG rendering image 302 may be input from a recording medium by the storage unit 50 described later or another information device by the communication unit 70.

画像処理部40は、第1の画像解析部401、第2の画像解析部402、画像調整部403、及び画像合成部404を備え、画像入力部30から入力された複数の立体画像情報を合成して画像出力部60へ出力する。   The image processing unit 40 includes a first image analysis unit 401, a second image analysis unit 402, an image adjustment unit 403, and an image synthesis unit 404, and synthesizes a plurality of stereoscopic image information input from the image input unit 30. And output to the image output unit 60.

周波数特性取得手段としての第1の画像解析部401、第2の画像解析部402は、画像入力部30から入力されるステレオ多眼画像301、3DCGレンダリング画像302の立体画像情報(画像信号)を受け取り、当該立体画像情報に付加された画像の奥行方向における周波数特性に関する情報を含む撮影条件やレンダリング作成条件などのデータを解析データ蓄積部501に保存し、その信号のデータ書式に従い必要に応じて圧縮符号の復元・色信号の表現方法の変換などを行ない、画像処理の演算に適したデータ形式に変換した画像信号を画像調整部403に送る。   A first image analysis unit 401 and a second image analysis unit 402 serving as frequency characteristic acquisition units receive stereoscopic image information (image signals) of the stereo multiview image 301 and the 3DCG rendering image 302 input from the image input unit 30. Received and stored data such as shooting conditions and rendering creation conditions including information about frequency characteristics in the depth direction of the image added to the stereoscopic image information in the analysis data storage unit 501, and according to the data format of the signal as necessary The compression code is restored, the color signal expression method is converted, and the like, and the image signal converted into a data format suitable for the image processing operation is sent to the image adjustment unit 403.

また、第1の画像解析部401、第2の画像解析部402は、上記撮影条件やレンダリング作成条件において後述する画像合成時に必要な周波数特性に関する情報が不足している場合に、画像情報の各ピクセルにおける画面に平行な平面上の位置だけでなく奥行情報とその奥行における同一平面上の周波数特性を解析し、得られたデータを解析データ蓄積部501に保存する。なお、上述した周波数特性に関する情報は、第1の画像解析部401、第2の画像解析部402から取得する構成以外に、操作部20から直接入力される構成や、記憶部50に予め格納された周波数特性に関するテーブル情報を参照する構成であって良い。   In addition, the first image analysis unit 401 and the second image analysis unit 402 each of the image information when the information regarding the frequency characteristics necessary at the time of image composition to be described later is insufficient in the shooting conditions and the rendering creation conditions. Not only the position of the pixel on the plane parallel to the screen but also the depth information and the frequency characteristics on the same plane at the depth are analyzed, and the obtained data is stored in the analysis data storage unit 501. In addition to the configuration acquired from the first image analysis unit 401 and the second image analysis unit 402, the information related to the frequency characteristics described above is stored in advance in the configuration directly input from the operation unit 20 or the storage unit 50. Alternatively, the table information related to the frequency characteristics may be referred to.

周波数特性調整手段としての画像調整部403は、第1の画像変換部403a及び周波数特性変換部403bを備え、第1の画像解析部401、第2の画像解析部402から入力される画像信号と、解析データ蓄積部501に格納された立体画像の奥行方向における周波数特性に関するデータとにより、本発明に係る画像処理を施して画像合成部404に出力する。   The image adjustment unit 403 serving as a frequency characteristic adjustment unit includes a first image conversion unit 403a and a frequency characteristic conversion unit 403b. The image signal input from the first image analysis unit 401 and the second image analysis unit 402 and Then, the image processing according to the present invention is performed on the basis of the data on the frequency characteristics in the depth direction of the stereoscopic image stored in the analysis data storage unit 501 and output to the image composition unit 404.

第1の画像変換部403a、周波数特性変換部403bは、第1の画像解析部401、第2の画像解析部402から受け取った画像信号に対して、例えば画像のグレーバランス調整、濃度調整、階調コントロール、画像の超低周波輝度成分の階調を圧縮するハイパートーン処理、粒子を抑制しながらシャープネスを強調するハイパーシャープネス処理等の出力画像の画質向上のための画像処理を第1の画像変換部403aで行ない、後述する周波数特性変換処理を周波数特性変換部403bで行なう。   The first image conversion unit 403a and the frequency characteristic conversion unit 403b perform, for example, image gray balance adjustment, density adjustment, and gradation on the image signals received from the first image analysis unit 401 and the second image analysis unit 402. Image processing for improving the image quality of output images, such as tone control, hypertone processing that compresses the gradation of the ultra-low frequency luminance component of the image, and hyper sharpness processing that enhances sharpness while suppressing particles The frequency characteristic conversion processing described later is performed by the frequency characteristic conversion unit 403b.

また、第1の画像変換部403a、周波数特性変換部403bは、画調を意図的に変更する画像処理(例えば人物を細身に仕上げたり、しわ除去等をさせるための画像処理)を実行する構成であってもよい。また、第1の画像変換部403aへの画像信号の入力は、必ずしも第1の画像解析部401、第2の画像解析部402から受け取る必要はなく、例えば画像入力部30、記憶部50、通信部70から受け取る構成であっても良い。また、第1の画像変換部403a、周波数特性変換部403bは、本発明の効果を妨げない範囲であれば、種々の変換処理の前に周波数特性変換処理を行なうこともでき、構成の順序は逆であってもよい。   Further, the first image conversion unit 403a and the frequency characteristic conversion unit 403b are configured to execute image processing for intentionally changing the image tone (for example, image processing for finishing a person thin or wrinkle removal). It may be. The input of the image signal to the first image conversion unit 403a is not necessarily received from the first image analysis unit 401 and the second image analysis unit 402. For example, the image input unit 30, the storage unit 50, the communication The structure received from the part 70 may be sufficient. Further, the first image conversion unit 403a and the frequency characteristic conversion unit 403b can perform the frequency characteristic conversion process before various conversion processes as long as the effects of the present invention are not hindered. The reverse may be possible.

立体画像合成手段としての画像合成部404は、前記画像調整部403から送られてくる画像信号による変換処理後の複数の立体画像情報を合成し、1つの立体画像としての立体画像情報(画像信号)を画像出力部60に出力する、後述する画像合成処理を行なう。   An image composition unit 404 as a three-dimensional image composition unit synthesizes a plurality of pieces of stereo image information after conversion processing using the image signal sent from the image adjustment unit 403, and creates three-dimensional image information (image signal) as one stereo image. ) Is output to the image output unit 60, and image synthesis processing described later is performed.

記憶部50は、上述した第1の画像解析部401、第2の画像解析部402で解析されたデータを格納する解析データ蓄積部501、画像調整部403の処理に必要なデータを格納するデータ蓄積部502を備える。また、記憶部50は、制御部10による制御処理時に使用される各種設定データやプログラムなどを格納するとともに、記憶部50で格納されるデータを後述する画像データ書込部606に送り、各種記録媒体に格納する構成である。具体的には、記憶部50は、電気的に消去及び書き換えが可能な不揮発メモリであるEEPROM(Electrically Erasable and Programmable ROM)などで構成され、制御部10の指示によりアドレスを指定して入力されたデータの格納や、逆にアドレスを指定されることでそのアドレスに格納されたデータを制御部10に出力する。   The storage unit 50 stores data necessary for the processing of the image adjustment unit 403 and the analysis data storage unit 501 that stores the data analyzed by the first image analysis unit 401 and the second image analysis unit 402 described above. A storage unit 502 is provided. In addition, the storage unit 50 stores various setting data and programs used during control processing by the control unit 10, and sends data stored in the storage unit 50 to an image data writing unit 606 described later to perform various recordings. It is the structure stored in a medium. Specifically, the storage unit 50 is configured by an EEPROM (Electrically Erasable and Programmable ROM) which is an electrically erasable and rewritable nonvolatile memory, and is input with an address specified by the control unit 10. When data is stored or, conversely, an address is designated, the data stored at the address is output to the control unit 10.

画像出力部60は、CRT固有処理部601、CRT602、プリンタ固有処理部603、プリンタ604、画像データ書式作成部605、及び画像データ書込部606を備え、CRT602に表示、又はプリンタ604に出力することにより作成される表示パネルなどにより、観察者の眼に立体画像として表示する。また、画像出力部60は、画像データ書式作成部605により所定のデータ形式に変換して画像データ書込部606に出力することで記録媒体への書込み、又は通信部70へ出力することで他の情報機器への送信を行なう。   The image output unit 60 includes a CRT specific processing unit 601, a CRT 602, a printer specific processing unit 603, a printer 604, an image data format creation unit 605, and an image data writing unit 606, and displays them on the CRT 602 or outputs them to the printer 604. The image is displayed as a three-dimensional image on the observer's eyes using a display panel or the like. In addition, the image output unit 60 converts the data into a predetermined data format by the image data format creation unit 605 and outputs it to the image data writing unit 606 to write to the recording medium or to the communication unit 70 to output the other data. To other information devices.

CRT固有処理部601では、画像処理部40から受け取った画像信号に対して、必要に応じて画像数変更・カラーマッチング等の処理を行ない、制御部10からの制御情報等の表示に必要な情報と合成した表示用の信号をCRT602に送出する。これにより、適宜画像作成の状況を得て、操作部20から必要な修正も行うことができる。なお、CRT602は、LCD(Liquid Crystal Display)等であって良く、特に限定しない。   The CRT specific processing unit 601 performs processing such as changing the number of images and color matching as necessary on the image signal received from the image processing unit 40, and information necessary for displaying control information from the control unit 10 The display signal combined with the above is sent to the CRT 602. As a result, it is possible to obtain the situation of image creation as appropriate and make necessary corrections from the operation unit 20. The CRT 602 may be an LCD (Liquid Crystal Display) or the like, and is not particularly limited.

また、CRT602は、利用者が眼前に装着可能な液晶シャッター付き眼鏡を備える構成でも良い。この場合は、視差の付いた2枚の画像を交互に高速で切り換えて画面上に表示し、液晶シャッターを用いることで、利用者の右眼に右眼用の画像、左眼に左眼用の画像を表示する。   Further, the CRT 602 may be configured to include glasses with a liquid crystal shutter that can be worn in front of the user. In this case, two images with parallax are alternately switched at high speed and displayed on the screen, and by using a liquid crystal shutter, the right eye image for the user's right eye and the left eye for the left eye The image of is displayed.

プリンタ固有処理部603では、必要に応じてプリンタ604に固有の校正処理・カラーマッチング・画素数変更等を行ない、プリンタ604に画像信号を送出する。プリンタ604は、大判インクジェットプリンタやハロゲン化銀感光材料による現像装置である。なお、より好適には、接続するプリンタ604の機種ごとに専用のプリンタ固有処理部603を設け、適正な校正処理を行なう構成が望ましい。   A printer specific processing unit 603 performs calibration processing, color matching, pixel number change, etc. specific to the printer 604 as necessary, and sends an image signal to the printer 604. The printer 604 is a developing device using a large-format ink jet printer or a silver halide photosensitive material. More preferably, a configuration in which a dedicated printer specific processing unit 603 is provided for each model of the printer 604 to be connected to perform proper calibration processing is desirable.

画像データ書式作成部605では、画像処理部40から受け取った画像信号に対して、必要に応じてJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットへの変換を行ない、画像データ書込部606や通信部70に画像信号を転送する。画像データ書込部606は、マルチメディアカード、メモリースティック(登録商標)、MD(Mini Disk:登録商標)、CD−R、DVD−RAM等の各種記録媒体に書込み可能な構成である。   The image data format creation unit 605 converts the image signal received from the image processing unit 40 to JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), Exif (Exchangeable Image File Format) or the like as necessary. Conversion into various general-purpose image formats represented is performed, and image signals are transferred to the image data writing unit 606 and the communication unit 70. The image data writing unit 606 can be written on various recording media such as a multimedia card, a memory stick (registered trademark), an MD (Mini Disk: registered trademark), a CD-R, and a DVD-RAM.

通信部70は、LAN回線、Bluetooth無線通信など各種通信方式により外部にある他の情報機器と有線又は無線でデータ通信可能な通信回路である。   The communication unit 70 is a communication circuit capable of data communication with other information devices externally by various communication methods such as a LAN line and Bluetooth wireless communication.

なお、上述の図1で説明した画像処理部40の内部構成やCRT固有処理部601、プリンタ固有処理部603、画像データ書式作成部605などの各部は、本発明における機能の理解を助ける為に設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば単一のCPUにおけるソフトウエア処理の種類の区分として実現されて良い。   It should be noted that the internal configuration of the image processing unit 40 described above with reference to FIG. 1, the CRT specific processing unit 601, the printer specific processing unit 603, the image data format creation unit 605, and the like are provided to assist in understanding the functions of the present invention. It is not necessary to be realized as a physically independent device, but may be realized as a type of software processing in a single CPU, for example.

本発明の画像作成(画像処理)は、ステレオ多眼画像や3DCGのデータを受け取り、第1の画像解析部401、第2の画像解析部402で上記撮影条件、レンダリング作成条件や、多視点画像のピクセル毎の位置情報として画面に平行な平面上の位置だけでなく、奥行方向とその奥行における同一平面上の周波数特性を解析し、その情報を解析データ蓄積部501に送る。そしてこれらの入力から得られた奥行情報と画像情報を画像調整部403で受け取り、本発明の画像処理である周波数特性変換を周波数特性変換部403bで行なう。その後、画像合成部404で、これらの処理の画像に着いて視点毎の画像で各入力手段から得られた画像の合成を行なう。その後、例えばプリンタに出力する場合は、プリンタ固有処理部603でプリンタに固有の処理を施し、本発明の効果を得る。   The image creation (image processing) of the present invention receives stereo multi-view images and 3DCG data, and the first image analysis unit 401 and the second image analysis unit 402 use the above shooting conditions, rendering creation conditions, and multi-viewpoint images. As the position information for each pixel, not only the position on the plane parallel to the screen but also the frequency characteristics on the same plane in the depth direction and the depth are analyzed, and the information is sent to the analysis data storage unit 501. The depth information and the image information obtained from these inputs are received by the image adjustment unit 403, and the frequency characteristic conversion which is the image processing of the present invention is performed by the frequency characteristic conversion unit 403b. Thereafter, the image composition unit 404 synthesizes the images obtained from the respective input means with the image for each viewpoint by arriving at the image of these processes. Thereafter, for example, when outputting to a printer, the printer-specific processing unit 603 performs processing specific to the printer to obtain the effects of the present invention.

上述したように、画像処理装置1は、最終的に立体画像を表示する表示パネルなどの表示装置を作成するが、合成の元となる画像の入力は3DCGのみ、ステレオ多眼画像のみ、または3つ以上であってよい。また、画像の出力は、写真感光材料を用いる方式に限らず、インクジェット方式、電子写真方式、感熱方式、昇華方式のプリント装置であって良い。   As described above, the image processing apparatus 1 creates a display device such as a display panel that finally displays a three-dimensional image. However, only 3DCG, only a stereo multiview image, or 3 can be input as an image to be combined. There may be more than one. The output of the image is not limited to a method using a photographic photosensitive material, and may be an ink jet method, an electrophotographic method, a thermal method, or a sublimation type printing apparatus.

次に、制御部10が画像処理部40を制御して行なう、ステレオ多眼画像とCGレンダリング画像(3DCG)を合成して出力する画像処理について、図2、図3を参照して説明する。図2は、画像処理の主な工程を示すフローチャートであり、図3(a)は、ステレオ多眼画像取得処理を示すフローチャートであり、図3(b)は、CGレンダリング画像取得処理を示すフローチャートである。   Next, image processing performed by the control unit 10 by controlling the image processing unit 40 to output a combined multi-eye image and a CG rendering image (3DCG) will be described with reference to FIGS. 2 and 3. 2 is a flowchart showing main steps of image processing, FIG. 3A is a flowchart showing stereo multi-view image acquisition processing, and FIG. 3B is a flowchart showing CG rendering image acquisition processing. It is.

先ず、制御部10は、画像入力部30から入力されたステレオ多眼画像を解析するステレオ多眼画像取得処理をおこなう(ステップS11)。画像入力部30からの画像データの入力によりステレオ多眼画像所得処理が開始されると、立体画像入力工程としてのステップS111により撮像されたステレオ多眼画像が画像データとして取り込まれ、そのステレオ多眼画像の歪み補正が行なわれ(ステップS112)、画像上における対応点の抽出が行なわれる(ステップS113)。対応点の抽出は、自動で行っても良いし、初めの数点を操作部20からの入力により指定して行なった後に必要に応じて自動で行なうなど、半自動で行っても良い。この場合は、1画像中の主要部(例えば人物の顔に相当する領域(顔領域))の抽出や、各種の画像特徴量の演算等の処理から成る画像データの解析を併用して行なってもかまわない。   First, the control unit 10 performs a stereo multi-view image acquisition process for analyzing the stereo multi-view image input from the image input unit 30 (step S11). When the stereo multi-view image income process is started by inputting image data from the image input unit 30, the stereo multi-view image captured in step S111 as a stereo image input process is captured as image data, and the stereo multi-view image is obtained. Image distortion correction is performed (step S112), and corresponding points on the image are extracted (step S113). The extraction of the corresponding points may be performed automatically, or may be performed semi-automatically, for example, by automatically specifying the first few points by input from the operation unit 20 and then automatically as necessary. In this case, analysis of image data including processing such as extraction of main parts (for example, an area corresponding to a human face (face area)) in one image and calculation of various image feature amounts is performed. It doesn't matter.

ステップS113の後、特徴点の差分から三角測量法等の計算手法を用いて視差量が算出され(ステップS114)、同様の計算手法を用いて、各原画像のピクセルについて、画面に平行な平面上の位置(x、y)及び奥行の座標(z)が算出される(ステップS115)。   After step S113, the parallax amount is calculated from the difference between the feature points using a calculation method such as triangulation (step S114), and a plane parallel to the screen is obtained for each original image pixel using the same calculation method. The upper position (x, y) and the depth coordinate (z) are calculated (step S115).

ステップS115の後、周波数特性取得工程としてのステップS116により、奥行の座標ごとにおける周波数特性が算出される。本発明では、奥行方向における立体画像の最前面と最後面での周波数特性を求め、整合するように周波数特性の変化の度合を合わせる処理を行なう構成でも良いが、好ましくは、奥行方向での周波数特性の変化の度合から奥行方向における周波数特性の関数を最小二乗法などを用いて算出してそれを用いて周波数特性の変化を合わせる処理を行なう。   After step S115, a frequency characteristic for each depth coordinate is calculated in step S116 as a frequency characteristic acquisition step. In the present invention, it is possible to obtain a frequency characteristic at the forefront surface and the rearmost surface of the stereoscopic image in the depth direction, and to perform processing for adjusting the degree of change of the frequency characteristic so as to match, but preferably the frequency in the depth direction A function of the frequency characteristic in the depth direction is calculated from the degree of change of the characteristic using the least square method or the like, and processing for matching the change of the frequency characteristic is performed using the function.

ステップS116の後、視差量、x、y、zを用い、原画像から、必要に応じて視点を補間する画像を作成する(ステップS117)。たたし、本発明においては、ステレオ多眼撮影をする際に3DCGと同じ視点数、視差量で撮影した画像で3DCGと合成する際や、ステレオ多眼撮影での同じ視点数、視差量で撮影した複数のシーンでの画像を合成する際には、視点補間をせずとも本発明を実施することができ、視差量が異なった場合においても、視点数が同じである場合はこのステップは省略できる。   After step S116, using the parallax amounts, x, y, and z, an image for interpolating the viewpoint as necessary is created from the original image (step S117). However, in the present invention, when stereo multi-view shooting is performed, an image shot with the same number of viewpoints and parallax amount as 3DCG is combined with 3DCG, or with the same number of viewpoints and parallax amount in stereo multi-view shooting. When synthesizing images of a plurality of captured scenes, the present invention can be implemented without performing viewpoint interpolation, and this step is performed when the number of viewpoints is the same even when the amount of parallax is different. Can be omitted.

ここで、視点補間の画像を得る処理について、具体的に説明する。先ず、得られた多眼ステレオ画像の基準となる基準視点画像を設定する。その基準視点画像に対し、他の画像データの位置ずれ量を求め、撮影時の複数のカメラと被写体との距離や、その奥行方向の分布に応じて水平方向のずれ量が異なるために起こる台形歪みや各々の画像データでの画像位置の調整を行なう。そして、比較対の画像データ内において、ほとんどの領域で被写体の同一部分が入るように左右画像データの位置ずれ量をテンプレートマッチングにより求める。   Here, the process of obtaining the viewpoint interpolation image will be specifically described. First, a reference viewpoint image serving as a reference for the obtained multi-view stereo image is set. For the reference viewpoint image, the amount of misalignment of other image data is calculated, and the amount of misalignment in the horizontal direction varies depending on the distance between multiple cameras and the subject at the time of shooting and the distribution in the depth direction. Distortion and image position adjustment for each image data are performed. Then, the amount of positional deviation of the left and right image data is obtained by template matching so that the same portion of the subject is included in almost all areas in the image data of the comparison pair.

続いて、所定の矩形領域の画像データを切り出して、テンプレート画像を作成する。そして、画像の同じ矩形領域の画像データ(RGB等のデータ)との画素値の差分和を水平/垂直それぞれの方向に所定の移動量分だけ計算し、最も画素値の差分和の小さい時の移動量をその位置ずれ量とする。この様にした後にステップS113での画像対の画像間で同一な被写体部分を点対点の対応として表す対応点を抽出する。対応点の抽出は、各点に対してテンプレートマッチングを適用して対応する点をそれぞれ求める。画像サイズが大きい場合は処理時間に膨大になることから、必要な抽出点数で行なうこともできる。   Subsequently, image data of a predetermined rectangular area is cut out to create a template image. Then, the difference sum of the pixel values from the image data (RGB data, etc.) of the same rectangular area of the image is calculated by a predetermined amount of movement in each of the horizontal and vertical directions, and when the difference sum of the pixel values is the smallest Let the amount of movement be the amount of displacement. After doing so, corresponding points representing the same subject portion as point-to-point correspondence between the images of the image pair in step S113 are extracted. Corresponding points are extracted by applying template matching to each point to find corresponding points. If the image size is large, the processing time becomes enormous, so that it can be performed with the required number of extraction points.

対応点の位置は、テンプレートマッチングを行ない、特徴点の差分和のうちで最も小さい位置に決定される。但し、対応点位置での差分和の値から、対応点抽出の処理の信頼度が低いと予め与えられた閾値を元に判定された場合は、その点に関しては未対応という情報を与える。   The position of the corresponding point is determined by performing template matching and the smallest position among the difference sum of the feature points. However, if it is determined based on a threshold value given in advance that the reliability of the corresponding point extraction process is low from the value of the difference sum at the corresponding point position, information indicating that the point is not supported is given.

以上の処理を繰り返して、多視点ステレオ画像対の対応点を画像領域にわたり複数求める。また対応点の抽出により差から直接求められるものもあるが、未対応の点や、元々対応点の探索を行なわなかった点に対しても、精度を高める為に視差を補間により求めて補足してもよい。   The above processing is repeated to obtain a plurality of corresponding points of the multi-viewpoint stereo image pair over the image area. In addition, some points can be obtained directly from the difference by extracting the corresponding points. However, in order to improve the accuracy of the uncorresponding points and the points that were not originally searched for the corresponding points, they are supplemented by obtaining the parallax. May be.

続いて、これまで求まった視差から元々対応点を求めていない点に対しても、求める視差に対する近傍の4つの視差から補間により視差を求める。視差の補間方法は、対応点位置ごとの点数等による加重平均で算出することもできる。以上の処理により、画像の全画素に対して視差量を求めることができる。   Subsequently, the parallax is obtained by interpolation from the four neighboring parallaxes with respect to the obtained parallax even for the point for which the corresponding point has not been obtained from the parallax obtained so far. The parallax interpolation method can also be calculated by a weighted average based on the number of points for each corresponding point position. Through the above processing, the amount of parallax can be obtained for all the pixels of the image.

上記の各視差量の解析データを用いて多視点画像の視点補間を行なう場合の方法を例として挙げる。ここで生成する画像は、各視点での画像サイズは視点画像数とプリントする時の解像度とサイズで決まり、プリンタの解像度をa(dpi:dot per inch)、印刷サイズをSX、SYインチとすると、プリントする画像サイズは、x=a×SX、y=a×SYのそれぞれの画素が必要である。   A method in the case of performing viewpoint interpolation of a multi-viewpoint image using the above-described parallax amount analysis data will be described as an example. The image size generated here is determined by the number of viewpoint images and the resolution and size at the time of printing, the printer resolution is a (dpi: dot per inch), and the print size is SX and SY inches. The image size to be printed requires pixels of x = a × SX and y = a × SY.

視点画像数Nは、微小透孔領域のピッチ、fインチに合わせて、N=a×fとなるように整数を求める。例えば、プリンタの解像度400dpi、微小透孔領域の板のピッチ1/20inchの場合には、N=14の水平方向、垂直方向の計256の視点画像数が望ましい。このとき、各視点の画像のサイズは、水平(H)、垂直(V)方向で、H=x/N、V=y/Nとなる。実際には、H、Vが整数になるようにプリントサイズを決める。   The viewpoint image number N is determined to be an integer such that N = a × f in accordance with the pitch of the minute through hole region, f inch. For example, when the resolution of the printer is 400 dpi and the pitch of the micro-hole region plate is 1/20 inch, a total of 256 viewpoint images in the horizontal and vertical directions of N = 14 is desirable. At this time, the size of the image at each viewpoint is H = x / N and V = y / N in the horizontal (H) and vertical (V) directions. Actually, the print size is determined so that H and V are integers.

生成する画像の視点位置は、所定の視差量が発生するように決定する。視差量が小さくなり過ぎると、立体像を観察する際の立体感が損なわれる。また、視差量が大きすぎると、観察する立体像が不鮮明になる。また、安定した立体像を観察するために各視点での画像は基準視点となる画像の視点位置を中心として、等間隔且つ対称に並ぶように視点位置を決める。   The viewpoint position of the image to be generated is determined so that a predetermined amount of parallax is generated. If the amount of parallax becomes too small, the stereoscopic effect when observing a stereoscopic image is impaired. If the amount of parallax is too large, the stereoscopic image to be observed becomes unclear. Further, in order to observe a stable stereoscopic image, the viewpoint positions are determined so that the images at the respective viewpoints are arranged symmetrically at equal intervals around the viewpoint position of the image serving as the reference viewpoint.

補間視点画像を生成する方法について説明する。補間して作成する新規視点画像は、求めようとする視差量di、または視点に当る画像を内挿できる最近傍の対となる左右にあたる画像を選択する。例えば左側の最近傍視点に当たる画像で水平方向の視点補間を例示して説明する。各画素をマッピングする新規視点画像中の位置(xi、yi)を、左画像の画素位置(xL、yL)、右画像の画素位置(xR、yR)、視差量dL、dRとして、xi=xL+(di−dL)/|(dL−dR)|で求める(yiも同様にして求める)。ここにおいて、(di−dL)が負の場合は右側のシフト量を示唆する。また、新規視点画像と原画像が異なる場合には、上記数値に視点画像サイズ/原画像サイズの比を掛けて求める。そして、左画像の画素位置(xL、yL)での画素信号値を新規視点画像の(xi、yi)の位置に記録する。この処理を左画像の全画素について繰り返す。   A method for generating an interpolated viewpoint image will be described. As a new viewpoint image created by interpolation, a parallax amount di to be obtained or an image corresponding to the left and right of the nearest pair capable of interpolating the image corresponding to the viewpoint is selected. For example, horizontal viewpoint interpolation will be described with reference to an image corresponding to the left nearest viewpoint. Assuming that the position (xi, yi) in the new viewpoint image for mapping each pixel is the pixel position (xL, yL) of the left image, the pixel position (xR, yR) of the right image, and the parallax amounts dL, dR, xi = xL + (Di-dL) / | (dL-dR) | is obtained (yi is obtained in the same manner). Here, when (di-dL) is negative, it indicates the shift amount on the right side. When the new viewpoint image and the original image are different, the above numerical value is multiplied by the ratio of the viewpoint image size / original image size. Then, the pixel signal value at the pixel position (xL, yL) of the left image is recorded at the position (xi, yi) of the new viewpoint image. This process is repeated for all pixels of the left image.

次に、新規視点画像の画素のうち、左画像から画素が割り当てられなかった画素に対しては、同様の視差量から内挿で右側から見つける処理や、求める画素の近傍隣接画素を探索して平均値を割り当てるなどの穴埋め処理を行なう。他の方法としては、生成した新規視点画素の隣接画像を用いて推定することもできる。   Next, among the pixels of the new viewpoint image, for the pixels to which no pixel is assigned from the left image, processing for finding from the right side by interpolation from the same amount of parallax, or searching for neighboring pixels adjacent to the desired pixel Perform hole filling such as assigning average values. As another method, it is also possible to estimate using the adjacent image of the generated new viewpoint pixel.

上述した方法により、全画素有効な新規視点画像が生成される。この処理を視点数分繰り返し行なうことで、視点画像を補間する。更に詳細には、左右近傍だけでなく、更に複数の視点画像のデータを用いて求めても良い。   By the method described above, a new viewpoint image in which all pixels are valid is generated. By repeating this process for the number of viewpoints, the viewpoint image is interpolated. More specifically, it may be obtained using data of a plurality of viewpoint images as well as near the left and right.

次に、ステップS11の後に行なわれる3DCGを取り込むためのCGレンダリング画像取得処理(ステップS12)について説明する。先ず、制御部10は、レンダリングされた複数の視点画像データを取り込む(ステップS121)。なお、ステレオ多眼画像と合成する場合における3DCGの取り込みは、前述したステップS111〜S117の各処理を行なう構成でも良いが、レンダリングを行なう際にステレオ多眼画像と同じ視点数、視差量でレンダリングを行ない、同様な多視点画像データを得るようにしてステップS12に示す処理を行なう方が、作業工数が少なく、品質の向上が見込まれるためにより好適である。
なお、本実施の形態では、ステレオ多眼画像と3DCGの両方を取り込む構成としたが、取り込む画像に合わせて、ステップS11、ステップS12が選択され、いずれか一方だけを取り込む構成であっても良い。
Next, a CG rendering image acquisition process (step S12) for capturing 3DCG performed after step S11 will be described. First, the control unit 10 takes in a plurality of rendered viewpoint image data (step S121). Note that 3DCG capture when combining with a stereo multi-view image may be configured to perform each of the above-described steps S111 to S117. And performing the processing shown in step S12 so as to obtain similar multi-viewpoint image data is more preferable because the number of work steps is small and the improvement in quality is expected.
In the present embodiment, the stereo multi-view image and 3DCG are both captured. However, Step S11 and Step S12 are selected according to the captured image, and only one of the images may be captured. .

ステップS121の後、レンダリング条件からの算出、又は特徴点の差分から三角測量法等の計算手法を用いて視差量が算出され(ステップS122)、原画像のピクセルについて画面に平行な位置及び奥行の座標が算出された後、(ステップS123)奥行方向の座標ごとにおける画像の周波数特性が算出される(ステップS124)。なお、ステップS124における算出処理は、上述したステップS116と同様に、最小二乗法などを用いて奥行方向における周波数特性の関数を求める構成であってよい。   After step S121, the parallax amount is calculated using a calculation method such as a triangulation method or the like from a rendering condition or a feature point difference (step S122). After the coordinates are calculated (step S123), the frequency characteristics of the image for each coordinate in the depth direction are calculated (step S124). Note that the calculation process in step S124 may be configured to obtain a function of frequency characteristics in the depth direction using a least square method or the like, similar to step S116 described above.

ステップS11、S12で複数の立体画像情報の入力、つまり、ステレオ多眼画像と3DCGとが入力された後、変換する目標となる奥行方向における周波数特性の関係がいずれか一の立体画像情報を元にしたものに決定される(ステップS13)。   After input of a plurality of stereoscopic image information in Steps S11 and S12, that is, a stereo multiview image and 3DCG are input, the relationship between the frequency characteristics in the depth direction that is the target to be converted is based on any one of the stereoscopic image information. (Step S13).

ステップS13におけるいずれか一の立体画像情報の決定は、ステレオ多眼画像又は3DCGのいずれかに予め決定する構成でも良いが、操作部20から選択する構成でも良い。また、操作部20から与えられる、奥行方向における周波数特性との関係や、奥行方向における周波数特性を変化させる度合などを目標にする構成や、予め記憶部50に格納された周波数特性変換テーブルを用いる構成でもよい。   The determination of any one of the three-dimensional image information in step S13 may be determined in advance as either a stereo multi-view image or 3DCG, or may be selected from the operation unit 20. In addition, a configuration that targets the relationship with the frequency characteristics in the depth direction, the degree to which the frequency characteristics in the depth direction are changed, and the frequency characteristic conversion table stored in advance in the storage unit 50 are used. It may be configured.

ステップS13の後、色変換などの第1の画像変換処理が本発明の効果を損なわない範囲で行なわれ(ステップS14)、周波数特性調整工程としてのステップS15により、上述した変換する目標となる奥行方向における周波数特性との関係に基づいて、上述したステップS117、S124で得られた解析情報を解析データ蓄積部501から読み出して、各視点での画像に対して、ピクセル毎に周波数特性の変換処理が行なわれる。   After step S13, a first image conversion process such as color conversion is performed within a range that does not impair the effects of the present invention (step S14), and the depth to be converted as described above is obtained in step S15 as the frequency characteristic adjustment step. Based on the relationship with the frequency characteristic in the direction, the analysis information obtained in steps S117 and S124 described above is read from the analysis data storage unit 501, and the frequency characteristic conversion process is performed for each pixel on the image at each viewpoint. Is done.

ここで、ステップS15における周波数特性変換について、図8〜図9を参照して説明する。図8(a)は、3DCGによる家の画像を例示する図であり、図8(b)は、ステレオ多眼で撮像された風景画像を例示する図であり、図8(c)は、上述した図8(a)、(b)の画像を合成した場合の画像を例示する図である。また、図9は、図8(a)、(b)に示した画像についての奥行方向における周波数特性の関係を注視点である奥行位置Z2に応じて補正することを示したグラフである。   Here, the frequency characteristic conversion in step S15 will be described with reference to FIGS. FIG. 8A is a diagram illustrating an image of a house by 3DCG, FIG. 8B is a diagram illustrating a landscape image captured with stereo multi-view, and FIG. It is a figure which illustrates the image at the time of synthesize | combining the image of Fig.8 (a), (b). FIG. 9 is a graph showing that the relationship between the frequency characteristics in the depth direction for the images shown in FIGS. 8A and 8B is corrected according to the depth position Z2 as the point of sight.

例えば、ステップS13において変換する目標となる奥行方向における周波数特性の関係が風景画像を元にすると決定された場合は、ステップS15において、図8(b)における奥行方向の周波数特性の変化と一致する様に図8(a)の画像に対して周波数特性変換が行なわれる。例えば、3DCG画像が奥行方向に3〜5mの距離位置に設定され、風景画像がピント位置10m〜無限遠で所定の周波数特性OTF(Optical Transfer Function)又はMTF(Modulaton Transfer Function)である撮像装置で撮像された画像である場合、3DCG画像が風景画像における3〜5m位置と同等のボケ具合に変換される。このため、図8(c)に示したように画像を合成した場合は、風景画像で描かれた画像に合わせて3DCG画像が違和感なく合成される。   For example, if it is determined in step S13 that the relationship between the frequency characteristics in the depth direction to be converted is based on a landscape image, in step S15, the frequency characteristics change in the depth direction in FIG. 8B. Similarly, frequency characteristic conversion is performed on the image of FIG. For example, in an imaging apparatus in which a 3DCG image is set at a distance position of 3 to 5 m in the depth direction, and a landscape image has a predetermined frequency characteristic OTF (Optical Transfer Function) or MTF (Modulaton Transfer Function) at a focus position of 10 m to infinity. In the case of a captured image, the 3DCG image is converted into a degree of blur equivalent to the 3 to 5 m position in the landscape image. For this reason, when the images are combined as shown in FIG. 8C, the 3DCG image is combined with the image drawn as the landscape image without a sense of incongruity.

この時の周波数特性の変換は、図9の変換直線A(Z=Za)に示すように、処理前の奥行方向と処理後の奥行方向との距離が一致するように変換される。つまり、処理前における奥行位置Z1〜Z3は、一点鎖線又は二点鎖線で示されたとおり、処理後の奥行方向の距離が保たれて線形に変換される。   The conversion of the frequency characteristic at this time is performed so that the distance between the depth direction before the processing and the depth direction after the processing matches as shown by the conversion straight line A (Z = Za) in FIG. That is, the depth positions Z1 to Z3 before the processing are converted into a linear shape while maintaining the distance in the depth direction after the processing, as indicated by the one-dot chain line or the two-dot chain line.

しかし、立体画像の注視点が奥行位置Z2である場合は、図9の変換曲線Bに示すように、注視点の奥行位置Z2が奥行位置Z21で奥行方向の距離が一致し、奥行位置Z1が奥行位置Z11、奥行位置Z3が奥行位置Z31へ、注視点方向にシフトするように、注視点である奥行位置Z2を変曲点とする所定の変換曲線(変換式)に基づいて奥行方向の距離が変換される構成であって良い。
なお、変換曲線Bは、例えばIP方式における、微小透孔アレイと映像表示部又は映像記録部との距離や、映像表示部に表示する画像の解像度などの諸条件により予め定められた変換式である。
However, when the gazing point of the stereoscopic image is the depth position Z2, as shown in the conversion curve B of FIG. 9, the depth position Z2 of the gazing point is the depth position Z21 and the distances in the depth direction match, and the depth position Z1 is The distance in the depth direction based on a predetermined conversion curve (conversion formula) with the depth position Z2 being the gazing point as an inflection point so that the depth position Z11 and the depth position Z3 shift to the depth position Z31. May be configured to be converted.
The conversion curve B is a conversion formula determined in advance by various conditions such as the distance between the micro-hole array and the video display unit or the video recording unit, and the resolution of the image displayed on the video display unit in the IP system, for example. is there.

また、立体画像の注視点が奥行位置Z2である場合は、奥行方向の距離を変換する構成だけでなく、上述した変換曲線Bに基づいて奥行方向における周波数特性の変化の度合を調整する構成であってよい。つまり、周波数特性の変換時における奥行方向を、注視点である奥行位置Z2を中心に奥行Zから奥行Zaに換算して扱う構成である。このため、周波数特性の変換は、注視点を中心に高コントラストの幅が広がるように行なわれる。   In addition, when the gazing point of the stereoscopic image is the depth position Z2, not only a configuration that converts the distance in the depth direction but also a configuration that adjusts the degree of change in the frequency characteristic in the depth direction based on the conversion curve B described above. It may be. That is, the depth direction at the time of the conversion of the frequency characteristics is handled by converting the depth Z to the depth Za around the depth position Z2 that is the gazing point. For this reason, the conversion of the frequency characteristics is performed so that the width of the high contrast spreads around the gazing point.

このように、注視点距離に応じて、奥行方向の距離の縮小や周波数特性の変化の度合を調整する構成では、立体画像の注視点に奥行方向が縮小され、注視点距離を中心に画像を見易く(高コントラストに)変換するため、例えばIP方式など微小透孔を用いた立体画像表示装置での視点ジャンプが目立ちにくくなり、観察者がより見易い(疲労しにくい)立体画像を表示することができる。   In this way, in the configuration in which the distance in the depth direction is reduced or the degree of change in frequency characteristics is adjusted according to the gaze point distance, the depth direction is reduced to the gaze point of the stereoscopic image, and the image is centered on the gaze point distance. Since the conversion is easy to see (to high contrast), for example, a viewpoint jump in a stereoscopic image display device using a minute through-hole such as an IP method becomes inconspicuous, and a stereoscopic image that is easy to see (not fatigued) can be displayed. it can.

ステップS15の後、立体画像合成工程としてのステップS16により、各視点毎に画像合成が行なわれ、処理後の画像データが画像データ書込部606又はデータ蓄積部502に格納されて(ステップS17)、終了する。なお、ステップS16において画像を合成する際に、特に強調表示する対象が画像中にない場合は、各シーンで最前面となる画素を用い、それ以外の他のシーンでの対応視点の対応画素を塗りつぶす。逆に、強調表示する対象が操作部20などにより指定された場合は、テンプレートマッチングを行う等での判断を加えて指示されたもので、他のシーンでの対応視点の対応画素を塗りつぶすことで、所望の合成画像を得ることができる。   After step S15, image synthesis is performed for each viewpoint in step S16 as a stereoscopic image synthesis process, and the processed image data is stored in the image data writing unit 606 or the data storage unit 502 (step S17). ,finish. Note that when the image is combined in step S16, if there is no object to be highlighted in the image, the foreground pixel is used in each scene, and the corresponding pixel of the corresponding viewpoint in other scenes is used. Fill. On the contrary, when the target to be highlighted is designated by the operation unit 20 or the like, it is instructed by performing judgment such as performing template matching, and the corresponding pixels of the corresponding viewpoints in other scenes are painted out. A desired composite image can be obtained.

次に、上述した画像処理装置1を用いて作成される、IP画像により観察者に立体像を表示する表示パネルなどの立体画像表示装置について、図5〜図7を参照して説明する。図5は、本発明の立体画像表示装置の製造方法を示す工程原理図であり、図6は、当該立体画像表示装置におけるIP画像の作成を説明する原理図であり、図7は、立体画像表示装置の構成概略図である。   Next, a stereoscopic image display device such as a display panel that displays a stereoscopic image to an observer using an IP image, which is created using the above-described image processing device 1, will be described with reference to FIGS. FIG. 5 is a process principle diagram showing a method for manufacturing a stereoscopic image display device according to the present invention, FIG. 6 is a principle diagram illustrating creation of an IP image in the stereoscopic image display device, and FIG. 7 is a stereoscopic image. 1 is a schematic configuration diagram of a display device.

入力工程101は前述したステップS11、S12の処理であり、多視点画像データ化工程102はステップS13〜S17の各処理である。この工程により、ステレオ多眼画像又は3DCG形状の3Dデータ入力などによる複数の立体画像情報が入力され、いずれか一の立体画像情報や操作部20から入力される指示データを元に周波数特性変換処理後に合成されて、処理後の立体画像情報としてデータ蓄積部502に記憶される。   The input process 101 is the process of steps S11 and S12 described above, and the multi-viewpoint image data conversion process 102 is each process of steps S13 to S17. Through this process, a plurality of stereoscopic image information by a stereo multi-view image or 3DCG-shaped 3D data input is input, and frequency characteristic conversion processing is performed based on any one of the stereoscopic image information and instruction data input from the operation unit 20. It is synthesized later and stored in the data storage unit 502 as processed stereoscopic image information.

IP画像処理工程103では、データ蓄積部502に記憶された処理後の立体画像情報に基づいて視点違いの画像群から一枚のIP画像が作成される。例えば、1視点が180×180画素からなる画像を縦32視点×横32視点=1024視点分を集め、一つのピンホール(やレンズ)から観察される各視点の画像をピンホールに対応する位置に集めて、一枚のIP用画像が作成される。具体的には、図6に示すように、元画の1画面サイズが180×180画像、視点数が上下32・左右32の場合において、1024枚の視点違いの画像群110から1枚のIP用画像111が作成される。そして、図6で示された工程が、IP画像処理工程103となる。   In the IP image processing step 103, a single IP image is created from an image group with different viewpoints based on the processed stereoscopic image information stored in the data storage unit 502. For example, the image of one viewpoint having 180 × 180 pixels is collected for 32 vertical viewpoints × 32 horizontal viewpoints = 1024 viewpoints, and the image of each viewpoint observed from one pinhole (or lens) is a position corresponding to the pinhole. A single IP image is created. Specifically, as shown in FIG. 6, when one screen size of the original image is 180 × 180 images and the number of viewpoints is 32 in the upper and lower directions and 32 in the left and right, one IP address is generated from the 1024 image groups 110 with different viewpoints. A work image 111 is created. The process shown in FIG. 6 is the IP image processing process 103.

IP画像出力工程104では、プリンタ604によりIP用画像111がプラスチックフィルム支持体(好ましくは透過型支持体)上にハロゲン化銀写真感光材料などの感光材料で画像形成される。   In the IP image output step 104, the printer 604 forms an image for IP 111 on a plastic film support (preferably a transmissive support) with a light-sensitive material such as a silver halide photographic light-sensitive material.

感光材料としては、次のものが包含される。
先ず、ハロゲン化銀カラー写真感光材料が挙げられる。この感光材料としては光透過性支持体、もしくは反射支持体の上に互いに吸収波長領域の異なる少なくとも3種の感光性層を有するものであれば、公知のいずれのものであってもよいが、光透過性支持体上に画像形成される透過光観察型のハロゲン化銀カラー写真感光材料であることが好ましい。
Examples of the photosensitive material include the following.
First, a silver halide color photographic light-sensitive material is exemplified. As the photosensitive material, any known material may be used as long as it has at least three kinds of photosensitive layers having different absorption wavelength regions from each other on a light transmissive support or a reflective support. It is preferably a transmitted light observation type silver halide color photographic light-sensitive material on which an image is formed on a light-transmitting support.

また、ハロゲン化銀カラー写真感光材料は、撮影用のカラーネガフィルム、カラーポジフィルムであってもよく、プリント用の印画紙やディスプレイ用の透過印画フィルムのいずれであってもよい。本発明の用いることの出来るハロゲン化銀感光材料の好ましい様態の一つは、大判サイズのカラーポジフィルムである。また別の様態は、透過型ディスプレイ作成用のカラーフィルムであり、特にデジタル露光に適したディスプレイフィルムが好ましい。   The silver halide color photographic light-sensitive material may be a color negative film for photography or a color positive film, and may be either a printing paper for printing or a transmission printing film for display. One preferred embodiment of the silver halide light-sensitive material that can be used in the present invention is a large-size color positive film. Another aspect is a color film for creating a transmissive display, and a display film suitable for digital exposure is particularly preferable.

3D表示化工程105では、微小透孔領域であるピンホール(銀塩感光材料や印刷で形成されたもの)やフライアイレンズ(印刷や成型形成されたもの)と、IP画像出力工程104で形成されたIP用画像とが(適宜スペーサーを介して)合体されることで、立体像を観察者の眼に表示する。   In the 3D display process 105, a pinhole (silver salt photosensitive material or one formed by printing) or a fly-eye lens (printed or molded) that is a minute through hole region, and an IP image output process 104 are formed. The three-dimensional image is displayed on the viewer's eyes by combining the IP image (via an appropriate spacer).

立体画像表示装置は、立体像を観察者に表示する立体画像表示手段として、図7に示すように、上側透明シート114aには微小透孔アレイ113が、下側透明シート114cにはIP用画像111が、それぞれ予め画像処理装置1によりプリントされ、2枚の透明シートの間隔を一定に保つため、間に中間透明板114bが挿入されている。またIP用画像111を照らすため、その下に光源112が置かれている。   As shown in FIG. 7, the stereoscopic image display device is a stereoscopic image display means for displaying a stereoscopic image to an observer. As shown in FIG. 7, the upper transparent sheet 114a has a micro-hole array 113 and the lower transparent sheet 114c has an IP image. 111 are respectively printed by the image processing apparatus 1 in advance, and an intermediate transparent plate 114b is inserted between them in order to keep the interval between the two transparent sheets constant. In order to illuminate the IP image 111, a light source 112 is placed thereunder.

観察者Hは、微小透孔アレイ113を通過してきた光を見る。その際、右目に入る光が、IP用画像111の点Qから出たのか、それとも3次元物体上のSから出たのか区別できない。同様に左目に入る光が、IP用画像111の点Rから出たのか、それとも仮想の3次元物体上のSから出たのか区別できない。従って、両眼視差により、あたかも点Sに物体があるように見える、というものである。尚、微小透孔アレイ113は、図3において、IP画像であるIP用画像111とその位置が交換されてもよいし、光源112は、透過光でなく、反射光を利用するのであれば、観察者H側にあってもよい。この様にIP画像を用いた立体画像表示装置は、手軽に立体画像を得られ、また銀塩写真プリンタを使用すると立体感が向上する利点が見られる。   The observer H looks at the light that has passed through the micro-hole array 113. At that time, it cannot be distinguished whether the light entering the right eye has come out from the point Q of the IP image 111 or from S on the three-dimensional object. Similarly, it cannot be distinguished whether the light entering the left eye has come out from the point R of the IP image 111 or from S on the virtual three-dimensional object. Therefore, the binocular parallax makes it appear as if there is an object at the point S. 3, the position of the micro-hole array 113 may be exchanged with the IP image 111, which is an IP image in FIG. 3, and if the light source 112 uses reflected light instead of transmitted light, It may be on the observer H side. In this way, the stereoscopic image display device using the IP image can easily obtain a stereoscopic image, and when a silver salt photographic printer is used, there is an advantage that the stereoscopic effect is improved.

以上のように、画像処理装置1は、入力される複数の立体画像情報に対していずれか一の立体画像情報に応じた周波数特性変換処理をして合成することで、自然で優れた質感を持つ立体画像を出力することができる。また、画像処理装置1を用いて立体画像表示装置を作成することにより、より自然で優れた質感を持ち、観察者が見易い立体像を表示する立体画像表示装置を提供することができる。   As described above, the image processing apparatus 1 combines a plurality of input stereoscopic image information by performing frequency characteristic conversion processing according to any one of the stereoscopic image information, thereby combining a natural and excellent texture. A stereoscopic image can be output. In addition, by creating a stereoscopic image display device using the image processing device 1, it is possible to provide a stereoscopic image display device that displays a stereoscopic image that has a more natural and excellent texture and is easy for an observer to see.

なお、本発明は、発明の趣旨を逸脱しない範囲で自由に変更、改良が可能である。例えば、立体画像表示装置は、電気的に開口位置を変更可能な液晶シャッターによりマスク位置を変動可能な微小透孔アレイ113と、2コマの立体像が描かれたIP用画像111とにより、複数コマのよる擬似動画を表示する構成であって良い。   The present invention can be freely changed and improved without departing from the spirit of the invention. For example, the stereoscopic image display device includes a plurality of micro-hole arrays 113 whose mask positions can be changed by liquid crystal shutters whose opening positions can be electrically changed, and a plurality of IP images 111 on which two-dimensional stereoscopic images are drawn. It may be configured to display a pseudo moving image with frames.

インテグラルフォトグラフィ(IP)方式による立体画像の撮像及び表示の原理を示す原理図である。It is a principle figure which shows the principle of the imaging and display of a stereo image by an integral photography (IP) system. 本発明における画像処理装置1の機能的構成を模式的に示した図である。It is the figure which showed typically the functional structure of the image processing apparatus 1 in this invention. 本発明における画像処理を示すフローチャートである。It is a flowchart which shows the image processing in this invention. (a)は、ステレオ多眼取得処理を示すフローチャートであり、(b)は、CGレンダリング画像取得処理を示すフローチャートである。(A) is a flowchart which shows a stereo multiview acquisition process, (b) is a flowchart which shows a CG rendering image acquisition process. 本発明における立体画像表示装置の製造方法を示す工程原理図である。It is a process principle figure which shows the manufacturing method of the stereo image display apparatus in this invention. IP画像の作成を説明する原理図である。It is a principle figure explaining preparation of an IP image. 立体画像表示装置の構成概略図である。1 is a schematic configuration diagram of a stereoscopic image display device. (a)は、3DCGによる家の画像を例示する図であり、(b)は、ステレオ多眼で撮像された風景画像を例示する図であり、(c)は、図8(a)と図8(c)の画像を合成した場合の画像を例示する図である。(A) is a figure which illustrates the image of the house by 3DCG, (b) is a figure which illustrates the landscape image imaged with the stereo multiview, (c) is a figure with Fig.8 (a), and FIG. It is a figure which illustrates the image at the time of synthesize | combining the image of 8 (c). 図8(a)、(b)に示した画像についての奥行方向における周波数特性の関係を注視点である奥行位置Z2に応じて補正することを示したグラフ。The graph which showed correcting the relationship of the frequency characteristic in the depth direction about the image shown to Fig.8 (a), (b) according to the depth position Z2 which is a gazing point.

符号の説明Explanation of symbols

1 画像処理装置
10 制御部
20 操作部
30 画像入力部
40 画像処理部
50 記憶部
60 画像出力部
70 通信部
101 入力工程
102 多視点画像データ化工程
103 IP画像処理工程
104 IP画像出力工程
105 3D表示化工程
110 視点違いの画像群
110a 取り込み画像
111 IP用画像
112 光源
113 微小透孔アレイ
114a 上側透明シート
114b 中間透明板
114c 下側透明シート
301 ステレオ多眼画像
302 3DCGレンダリング画像
401 第1の画像解析部
402 第2の画像解析部
403 画像調整部
403a 第1の画像変換部
403b 周波数特性変換部
404 画像合成部
501 解析データ蓄積部
502 データ蓄積部
601 CRT固有処理部
602 CRT
603 プリンタ固有処理部
604 プリンタ
605 画像データ書式作成部
606 画像データ書込部
A 変換直線
B 変換曲線
H 観察者
Z、Za 奥行
Z1〜3、Z11、Z21、Z31 奥行位置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Control part 20 Operation part 30 Image input part 40 Image processing part 50 Storage part 60 Image output part 70 Communication part 101 Input process 102 Multiview image data conversion process 103 IP image processing process 104 IP image output process 105 3D Display process 110 Image group 110a with different viewpoints Captured image 111 IP image 112 Light source 113 Microperforation array 114a Upper transparent sheet 114b Intermediate transparent plate 114c Lower transparent sheet 301 Stereo multi-view image 302 3DCG rendering image 401 First image Analysis unit 402 Second image analysis unit 403 Image adjustment unit 403a First image conversion unit 403b Frequency characteristic conversion unit 404 Image composition unit 501 Analysis data storage unit 502 Data storage unit 601 CRT specific processing unit 602 CRT
603 Printer specific processing unit 604 Printer 605 Image data format creation unit 606 Image data writing unit A Conversion line B Conversion curve H Observer Z, Za Depth Z1-3, Z11, Z21, Z31 Depth position

Claims (4)

複数の立体画像情報を取得する立体画像取得手段と、
前記複数の立体画像情報ごとに当該立体画像の奥行方向における画像の周波数特性の変化の度合を周波数特性情報として取得する周波数特性取得手段と、
前記複数の立体画像情報のうち、いずれか一の立体画像情報の前記取得された周波数特性情報に応じて他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整する周波数特性調整手段と、
前記いずれか一の立体画像情報と前記周波数特性調整後の他の立体画像情報とを合成する立体画像合成手段と、
を備えたことを特徴とする立体画像処理装置。
Stereoscopic image acquisition means for acquiring a plurality of stereoscopic image information;
Frequency characteristic acquisition means for acquiring, as frequency characteristic information, the degree of change in the frequency characteristic of the image in the depth direction of the stereoscopic image for each of the plurality of stereoscopic image information;
A frequency characteristic adjusting unit that adjusts the degree of change of the frequency characteristic related to the depth direction of other stereoscopic image information according to the acquired frequency characteristic information of any one of the plurality of stereoscopic image information; ,
Stereoscopic image synthesis means for synthesizing any one of the stereoscopic image information and the other stereoscopic image information after the frequency characteristic adjustment;
A stereoscopic image processing apparatus comprising:
前記周波数特性調整手段は、前記いずれか一の立体画像情報の奥行方向における注視点距離に応じて他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整することを特徴とする請求項1に記載の立体画像処理装置。   The frequency characteristic adjusting means adjusts the degree of change of the frequency characteristic in the depth direction of the other stereoscopic image information according to the gaze point distance in the depth direction of the one of the stereoscopic image information. The stereoscopic image processing apparatus according to 1. 前記請求項1又は2に記載の立体画像処理装置と、
光源から観察者の間に、前記合成された立体情報に基づいた視差違いの画像群を表示する表示部と、複数の微小透孔がアレイ状に配置されて前記表示部の画像を観察者の両目に視差違いの像として映す微小透孔アレイと、を配置して立体像を観察者に表示する立体画像表示手段と、
を備えたことを特徴とする立体画像表示装置。
The stereoscopic image processing apparatus according to claim 1 or 2,
A display unit that displays a group of images with different parallaxes based on the combined three-dimensional information between a light source and an observer, and a plurality of minute through holes are arranged in an array so that the image on the display unit A three-dimensional image display means for displaying a stereoscopic image to an observer by arranging a micro-hole array that reflects both parallax images as parallax images;
A stereoscopic image display device comprising:
複数の立体画像情報を取得する立体画像取得工程と、
前記複数の立体画像情報ごとに当該立体画像の奥行方向における画像の周波数特性の変化の度合を周波数特性情報として取得する周波数特性取得工程と、
前記複数の立体画像情報のうち、いずれか一の立体画像情報の前記取得された周波数特性情報に応じて他の立体画像情報の奥行方向に関する周波数特性の変化の度合を調整する周波数特性調整工程と、
前記いずれか一の立体画像情報と前記周波数特性調整後の他の立体画像情報とを合成する立体画像合成工程と、
を含むことを特徴とする立体画像生成方法。
A stereoscopic image acquisition step of acquiring a plurality of stereoscopic image information;
A frequency characteristic acquisition step of acquiring, as frequency characteristic information, the degree of change in the frequency characteristic of the image in the depth direction of the stereoscopic image for each of the plurality of stereoscopic image information;
A frequency characteristic adjustment step of adjusting the degree of change in the frequency characteristic regarding the depth direction of the other stereoscopic image information according to the acquired frequency characteristic information of any one of the plurality of stereoscopic image information; ,
A stereoscopic image combining step of combining any one of the stereoscopic image information and the other stereoscopic image information after the frequency characteristic adjustment;
3D image generation method characterized by including.
JP2005021743A 2005-01-28 2005-01-28 Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method Pending JP2006211383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005021743A JP2006211383A (en) 2005-01-28 2005-01-28 Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005021743A JP2006211383A (en) 2005-01-28 2005-01-28 Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method

Publications (1)

Publication Number Publication Date
JP2006211383A true JP2006211383A (en) 2006-08-10

Family

ID=36967736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005021743A Pending JP2006211383A (en) 2005-01-28 2005-01-28 Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method

Country Status (1)

Country Link
JP (1) JP2006211383A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013993A (en) * 2009-07-03 2011-01-20 Fujifilm Corp Image display apparatus and method, as well as program
JP2012010084A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver
CN109870820A (en) * 2019-03-26 2019-06-11 成都工业学院 Pin hole reflection mirror array integration imaging augmented reality device and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013993A (en) * 2009-07-03 2011-01-20 Fujifilm Corp Image display apparatus and method, as well as program
US8648953B2 (en) 2009-07-03 2014-02-11 Fujifilm Corporation Image display apparatus and method, as well as program
JP2012010084A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver
CN109870820A (en) * 2019-03-26 2019-06-11 成都工业学院 Pin hole reflection mirror array integration imaging augmented reality device and method
CN109870820B (en) * 2019-03-26 2023-10-17 成都工业学院 Pinhole reflector array integrated imaging augmented reality device and method

Similar Documents

Publication Publication Date Title
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP6021541B2 (en) Image processing apparatus and method
US7295699B2 (en) Image processing system, program, information storage medium, and image processing method
US7983477B2 (en) Method and apparatus for generating a stereoscopic image
JP2003209858A (en) Stereoscopic image generating method and recording medium
EP2381691B1 (en) Method and apparatus for processing three-dimensional images
US8243123B1 (en) Three-dimensional camera adjunct
US20100085423A1 (en) Stereoscopic imaging
JP2006107213A (en) Stereoscopic image printing system
US20160227184A1 (en) Digital multi-dimensional image photon platform system and methods of use
JP2009031797A (en) 2d-3d convertible display method and device having background of integral image
JP2006115198A (en) Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
JP2012186755A (en) Image processing device, image processing method, and program
JP2010226500A (en) Device and method for displaying stereoscopic image
JP5214547B2 (en) Image display apparatus and method, and program
JP2006211386A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
CA2540538C (en) Stereoscopic imaging
JP5060231B2 (en) Image generating method, stereoscopic printed matter, manufacturing method and program
JP2013223008A (en) Image processing device and method
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP6166985B2 (en) Image generating apparatus and image generating program
JP4901409B2 (en) Method and apparatus for creating three-dimensional image
JP4129786B2 (en) Image processing apparatus and method, recording medium, and program
JP2004207780A (en) Photo taking apparatus
JP2016131297A (en) Stereoscopic image generation device, stereoscopic image generation method and program