JP2003346188A - Stereoscopic imaging system - Google Patents

Stereoscopic imaging system

Info

Publication number
JP2003346188A
JP2003346188A JP2002152541A JP2002152541A JP2003346188A JP 2003346188 A JP2003346188 A JP 2003346188A JP 2002152541 A JP2002152541 A JP 2002152541A JP 2002152541 A JP2002152541 A JP 2002152541A JP 2003346188 A JP2003346188 A JP 2003346188A
Authority
JP
Japan
Prior art keywords
image
subject
dimensional
dimensional image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002152541A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002152541A priority Critical patent/JP2003346188A/en
Publication of JP2003346188A publication Critical patent/JP2003346188A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic imaging system capable of observing a stereoscopic image of an object. <P>SOLUTION: This system is constituted from an image acquisition means for acquiring an object image by superimposing and displaying frame data for expressing the object contour together with the object image when photographic the object, an image processing means for acquiring an object region from the frame data of the object, extracting a parallax map for expressing a depth distribution of the object from the object region, generating a multi- viewpoint image sequence of the object from a plurality of viewpoints from the object image and the parallax map, and synthesizing a three-dimensional image so that pixels on the same coordinate of each image of the multi- viewpoint image sequence are arrayed as adjacent pixels following a viewpoint array of the image, and an output means for outputting the three-dimensional image. An optical member having a periodic structure is overlapped on the outputted three-dimensional image, to thereby enable to observe the stereoscopic image of the object. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラにより取得
した画像から3次元画像を生成し、レンチキュラ板等を
3次元画像に重ね合わせることにより立体像を観察する
ことが可能な立体画像形成システムに関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image forming system capable of generating a three-dimensional image from an image acquired by a camera, and observing the three-dimensional image by superimposing a lenticular plate or the like on the three-dimensional image. Things.

【0002】[0002]

【従来の技術】従来、立体画像を形成する方法として
は、インテグラルフォトグラフィやレンチキュラ板3次
元画像が知られている(大越孝敬:"三次元画像工学",
産業図書,1972)。
2. Description of the Related Art Conventionally, as a method of forming a three-dimensional image, integral photography and a lenticular plate three-dimensional image are known (Takataka Ohkoshi: "Three-dimensional image engineering",
Industrial Books, 1972).

【0003】しかしながら、このような従来の立体画像
の形成方法は写真的方法によるものであり、例えば、レ
ンチキュラ板3次元画像は、被写体を多くの視点から撮
影した画像を取得し、これらの画像をレンチキュラ板を
介して1つの写真乾板に焼き付けるものであり、以下に
示す〜の問題点がある。
[0003] However, such a conventional method of forming a three-dimensional image is based on a photographic method. For example, a lenticular plate three-dimensional image is obtained by acquiring images obtained by photographing a subject from many viewpoints, and converting these images. It is printed on one photographic dry plate via a lenticular plate, and has the following problems (1) to (5).

【0004】被写体の多視点からの画像を必要とする
ため、多眼式カメラ等撮影装置が大掛かりなものとな
る。
[0004] Since an image of a subject from multiple viewpoints is required, a photographing apparatus such as a multi-eye camera becomes large-scale.

【0005】同様に立体画像形成に関しても、焼き付
け装置が大掛かりなものとなる。
[0005] Similarly, for the formation of a three-dimensional image, the printing apparatus becomes large-scale.

【0006】以上のような装置を用いても、撮影や焼
付けに調整や熟練を要する。
[0006] Even with the above-described apparatus, adjustment and skill are required for photographing and printing.

【0007】以上の点を克服するため、本出願人は、カ
メラに立体写真アダプタを装着して左右2つの視点のス
テレオ画像を撮影し、ステレオ画像から電子的補間によ
り多視点画像を得、立体画像を形成する方法を提案し
た。
In order to overcome the above problems, the present applicant attaches a three-dimensional photograph adapter to a camera, shoots a stereo image from two viewpoints on the left and right, obtains a multi-view image from the stereo image by electronic interpolation, and obtains a three-dimensional image. A method of forming an image was proposed.

【0008】又、本出願人は、画像中の背景から被写体
領域を切り出し、背景に対して切出した被写体領域がレ
ンチキュラ板を重ね合わせて見たときに手前に飛び出し
て見えるように1枚の画像から多視点画像を得て、立体
画像を形成する方法を提案した。
Further, the present applicant cuts out a subject region from the background in the image, and makes one image so that the subject region cut out with respect to the background appears to jump out to the front when the lenticular plate is superimposed and viewed. A method for obtaining a multi-viewpoint image from a 3D image and forming a stereoscopic image was proposed.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記従
来例では、画像中の背景から被写体領域を切り出す必要
があり、この手作業を省略したいという要望がある。
又、カメラで撮影した画像を一旦画面に表示し、ユーザ
が被写体領域を指定するインターフェースを必要とす
る。
However, in the above-mentioned conventional example, it is necessary to cut out the subject area from the background in the image, and there is a demand to omit this manual operation.
In addition, an image which is taken by a camera is once displayed on a screen, and a user needs an interface for designating a subject area.

【0010】従って、本発明の目的は、特殊な撮影を行
わず、1枚の画像から多視点画像を得て、多視点画像を
合成して立体画像として印刷し、レンチキュラ板等の光
学部材を重ね合わせることにより被写体の立体像を観察
できる立体画像形成システムを提供することにある。
Accordingly, an object of the present invention is to obtain a multi-viewpoint image from one image without special photographing, synthesize the multi-viewpoint image and print it as a three-dimensional image, and use an optical member such as a lenticular plate. An object of the present invention is to provide a three-dimensional image forming system capable of observing a three-dimensional image of a subject by superimposing.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、被写体を撮影する際に、前記被写体の画
像とともに被写体の輪郭を表すフレームデータを重畳し
て表示し、被写体画像を取得する画像取得手段と、前記
被写体のフレームデータから被写体領域を取得し、前記
被写体領域から被写体の奥行き分布を表す視差マップを
抽出し、前記被写体画像と前記視差マップとから複数視
点からの被写体の多視点画像シーケンスを生成し、前記
多視点画像シーケンスの各画像の同一座標の画素を画像
の視点配列に従い隣接画素として配列するように三次元
画像を合成する画像処理手段と、前記三次元画像を出力
する出力手段とから構成され、前記出力された三次元画
像に周期的構造を持つ光学部材を重ね合わせることによ
り被写体の立体像を観察できるようにしたことを特徴と
する。
In order to achieve the above object, according to the present invention, when a subject is photographed, frame data representing the contour of the subject is superimposed and displayed together with the image of the subject to obtain the subject image. Image acquisition means for acquiring a subject area from the frame data of the subject, extracting a parallax map representing the depth distribution of the subject from the subject area, and calculating a number of subjects from a plurality of viewpoints from the subject image and the parallax map. Image processing means for generating a viewpoint image sequence, synthesizing a three-dimensional image such that pixels at the same coordinates of each image of the multi-view image sequence are arranged as adjacent pixels in accordance with the viewpoint arrangement of the images, and outputting the three-dimensional image A three-dimensional image of a subject by superimposing an optical member having a periodic structure on the output three-dimensional image. Characterized in that to allow observation.

【0012】[0012]

【発明の実施の形態】以下に本発明の実施の形態を添付
図面に基づいて説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0013】<実施の形態1>本発明の実施の形態1に
係る立体画像形成システムの構成を図1に示す。
<First Embodiment> FIG. 1 shows the configuration of a three-dimensional image forming system according to a first embodiment of the present invention.

【0014】図1において、1はデジタルカメラ、2は
プリンタ、3はCF(CompactFlash )カード等の記録
媒体である。又、101は撮影レンズとCCD等の画像
センサより成る撮像手段、102はカメラの撮影モード
を設定するモード設定手段、103は撮像手段で取得し
た被写体像を処理して画像データを形成する画像処理手
段、104は画像データを記録媒体3に記録する記録手
段、105は撮影中の画像及び記録した画像を表示する
液晶ディスプレイ等の表示手段、106は被写体のフレ
ームデータを予め記憶している記憶手段、201は記録
媒体3から画像データを読み込む画像取得手段、202
は記録媒体3から画像データの付帯情報を読み込み、解
析するモード解析手段、203は被写体のフレームデー
タから被写体の奥行き分布を表す視差マップを抽出する
視差マップ抽出手段、204は被写体画像と視差マップ
から三次元画像を合成する三次元画像合成手段、205
は印刷手段である。
In FIG. 1, reference numeral 1 denotes a digital camera, 2 denotes a printer, and 3 denotes a recording medium such as a CF (Compact Flash) card. Reference numeral 101 denotes an imaging unit including a photographic lens and an image sensor such as a CCD; 102, a mode setting unit for setting a photographic mode of the camera; 103, an image processing unit that processes a subject image acquired by the imaging unit to form image data A recording means 104 for recording image data on the recording medium 3; a display means 105 such as a liquid crystal display for displaying an image being photographed and the recorded image; and a storage means 106 for storing frame data of a subject in advance. , 201 are image acquisition means for reading image data from the recording medium 3, 202
Is a mode analysis unit that reads and analyzes supplementary information of image data from the recording medium 3, 203 is a parallax map extraction unit that extracts a parallax map representing the depth distribution of the subject from frame data of the subject, and 204 is a parallax map from the subject image and the parallax map. Three-dimensional image synthesizing means for synthesizing a three-dimensional image, 205
Is a printing means.

【0015】先ず、撮影においては、ユーザは不図示の
電源スイッチをONにした後、モード設定手段102に
より、カメラの撮影モードを立体モードに設定する。カ
メラは立体モードに設定されると、撮像手段101を通
して取得した画像データから画像処理手段103で表示
用画像を生成し、表示手段105に出力し、更に、10
6に記憶されている立体モード用の被写体のフレームデ
ータを表示手段105に重畳して表示する。このときの
表示手段における表示の一例を図2(a)に示す。
First, in photographing, after the user turns on a power switch (not shown), the mode setting means 102 sets the photographing mode of the camera to the stereoscopic mode. When the camera is set to the stereoscopic mode, an image for display is generated by the image processing unit 103 from the image data acquired through the imaging unit 101, and output to the display unit 105.
6 is superimposed and displayed on the display means 105. FIG. 2A shows an example of the display on the display means at this time.

【0016】図2中、太線Aは被写体のフレームデータ
を示す。ユーザは表示手段105に表示された画像を見
て、撮影する被写体が表示されたフレームに合うように
図2(b)に示すようにカメラの構図を決め、不図示の
シャッターボタンを押し、撮影を行う。図2の例ではユ
ーザはカメラを縦位置に構え、被写体がほぼ中央にくる
ように構図を決める。
In FIG. 2, a thick line A indicates frame data of a subject. The user looks at the image displayed on the display unit 105, determines the composition of the camera as shown in FIG. 2B so that the subject to be shot matches the displayed frame, and presses a shutter button (not shown) to shoot the image. I do. In the example of FIG. 2, the user holds the camera in a vertical position, and determines the composition such that the subject is substantially at the center.

【0017】シャッターボタンが押されると、カメラは
撮像手段101で取得した画像データから画像処理手段
103により色、明るさの処理等が行われ、更に記録手
段104で所定の画像形式に合うようにモード設定手段
で設定された撮影モード、被写体のフレームデータと共
に画像データを形成し、記録媒体3に記録される。この
とき、立体モード撮影時におけるデジタルカメラのピン
ト合わせ、露出等の処理は、被写体フレーム内での測距
値、測光値に重点的に合わせた制御を行った方が、被写
体に最適な画像を取得できる。
When the shutter button is pressed, the camera performs color and brightness processing and the like by the image processing means 103 from the image data obtained by the imaging means 101, and furthermore, makes the recording means 104 conform to a predetermined image format. Image data is formed together with the shooting mode set by the mode setting means and frame data of the subject, and is recorded on the recording medium 3. At this time, when performing processing such as focusing and exposure of the digital camera during stereoscopic mode shooting, it is better to perform control that focuses on the distance measurement value and photometry value in the subject frame to obtain the optimal image for the subject. Can be obtained.

【0018】又、立体画像を観察する際に、画像全体に
ピントが合っている方が立体感が得られ易いので、被写
体深度をできるだけ深くするように絞り、シャッタース
ピードの露出制御を行った方が良い。
When observing a three-dimensional image, it is easier to obtain a three-dimensional effect when the entire image is in focus. Is good.

【0019】図3は記録媒体3に記録される画像データ
の画像形式の一例である。
FIG. 3 shows an example of the image format of the image data recorded on the recording medium 3.

【0020】301は撮影モードを表し、カメラのモー
ド設定手段102で設定可能な各撮影モードに対応し
て、例えば所定の整数値が割り当てられる。302は被
写体のフレームデータを表し、被写体の画像内での領域
が特定できるように被写体フレームを輪郭形状を量子化
したベクトル配列データとその画像中の位置が記録され
る。300は画像情報を表すデータで、画像処理手段1
03から出力された画像データをJPEG形式等で圧縮
したものである。被写体フレームのデータは線図形の折
線近似表現に使われるチェーンコード等の符号を用いて
も良い。
Reference numeral 301 denotes a photographing mode. For example, a predetermined integer value is assigned to each photographing mode which can be set by the mode setting means 102 of the camera. Reference numeral 302 denotes frame data of the subject, in which vector array data obtained by quantizing the contour shape of the subject frame and the position in the image are recorded so that an area of the subject in the image can be specified. Reference numeral 300 denotes data representing image information.
03 is compressed in JPEG format or the like. The data of the subject frame may use a code such as a chain code used for approximating a broken line of a line figure.

【0021】次に、撮影した画像を記録した記録媒体3
をプリンタ2に装着すると、画像取得手段201は、カ
メラ1の記録手段104で圧縮された画像データ300
を解凍し、RGB3チャンネルの2次元配列データやビ
ットマップに変換する。このとき、記録媒体3に複数の
画像データが記録されている場合には、不図示の画像選
択ボタンにより所望の画像を選択する。
Next, the recording medium 3 on which the photographed image is recorded
Is attached to the printer 2, the image acquisition unit 201 outputs the image data 300 compressed by the recording unit 104 of the camera 1.
Is decompressed and converted into two-dimensional array data or a bitmap of three RGB channels. At this time, if a plurality of image data are recorded on the recording medium 3, a desired image is selected by an image selection button (not shown).

【0022】又、画像と共に記録された撮影モード30
1、被写体フレーム302のデータをモード解析手段2
02に出力する。モード解析手段202では、先ず撮影
モード301を読み、立体モードかどうかを確認する。
立体モードの場合には、以下に説明する三次元画像形成
のための処理を行うが、それ以外のモードの場合には、
各モードにおける所定の処理に従い、プリンタ2は画像
を印刷する。
The photographing mode 30 recorded together with the image
1. Mode analysis means 2 for data of subject frame 302
02 is output. The mode analyzing means 202 first reads the photographing mode 301 and checks whether the mode is the stereoscopic mode.
In the case of the three-dimensional mode, a process for forming a three-dimensional image described below is performed.
The printer 2 prints an image according to a predetermined process in each mode.

【0023】又、モード解析手段202は立体モードの
場合には、被写体フレーム302を読み、視差マップ抽
出手段203に出力する。視差マップ抽出手段203
は、被写体フレームから被写体の視差マップを生成す
る。三次元画像合成手段204は、画像データと被写体
の視差マップとから被写体の多視点画像を生成し、三次
元画像を合成して印刷手段205に出力する。印刷手段
205は3次元画像の印刷を行う。
In the case of the three-dimensional mode, the mode analyzing means 202 reads the subject frame 302 and outputs it to the parallax map extracting means 203. Parallax map extraction means 203
Generates a parallax map of the subject from the subject frame. The three-dimensional image combining unit 204 generates a multi-viewpoint image of the subject from the image data and the parallax map of the subject, combines the three-dimensional image, and outputs the combined image to the printing unit 205. The printing unit 205 prints a three-dimensional image.

【0024】以下、視差マップ生成手段203と三次元
画像合成手段204の処理について説明する。
The processing of the parallax map generating means 203 and the three-dimensional image synthesizing means 204 will be described below.

【0025】視差マップ抽出手段203は、先ず、被写
体フレームから被写体領域のデータを作成する。図4に
被写体領域の例を示す。被写体領域のデータは、例えば
フレーム内の被写体領域が1、外が0の画像データと同
じサイズの2値の2次元データである。又、必ずしも画
像データが被写体フレームに合せて撮影されているとは
限らないので、画像データからSobel オペレータ等によ
り予めエッジ画像を抽出し、被写体フレームを所定の範
囲内でエッジ強度の強い位置にずらした被写体領域デー
タを作成するようにしても良い。
First, the parallax map extracting means 203 creates data of a subject area from a subject frame. FIG. 4 shows an example of the subject area. The data of the subject area is, for example, binary two-dimensional data having the same size as the image data in which the subject area in the frame is 1 and the outside is 0. Also, since the image data is not always captured in accordance with the subject frame, an edge image is extracted from the image data in advance by a Sobel operator or the like, and the subject frame is shifted to a position having a high edge strength within a predetermined range. May be created.

【0026】次に、被写体領域から視差マップを生成す
る。視差マップは画像データの2次元上の各画素に対応
した被写体を2つの視点で見たときのずれ量を表すもの
である。2値の被写体領域データに所定のサイズの2次
元平均値フィルタを作用させて、2次元実数配列データ
を生成し、視差マップとする。平均値フィルタの処理に
より、指定した被写体の輪郭がぼけて、被写体が衝立状
ではなく、背景から徐々に飛び出してくるような効果が
期待できる。
Next, a parallax map is generated from the subject area. The parallax map indicates the amount of shift when the subject corresponding to each two-dimensional pixel of the image data is viewed from two viewpoints. A two-dimensional average value filter of a predetermined size is applied to the binary object region data to generate two-dimensional real number array data, which is used as a parallax map. By the processing of the average value filter, an effect can be expected in which the contour of the designated subject is blurred, and the subject is not in the form of a partition but gradually jumps out of the background.

【0027】2次元平均値フィルタのサイズが大きい
と、立体感がより滑らかになるが、ユーザが指定した被
写体領域の輪郭がぼけ、形成される立体画像にユーザの
意思が忠実に反映されなくなる。又、2次元平均値フィ
ルタのサイズが小さいと、ユーザの意思はより忠実に反
映されるが、被写体が衝立に近づく。2次元平均値フィ
ルタのサイズとしては、画像サイズの5〜10%程度が
望ましい。
If the size of the two-dimensional average filter is large, the three-dimensional effect becomes smoother, but the outline of the subject area specified by the user is blurred, and the user's intention is not faithfully reflected on the formed three-dimensional image. When the size of the two-dimensional average filter is small, the intention of the user is more faithfully reflected, but the subject approaches the screen. The size of the two-dimensional average filter is preferably about 5 to 10% of the image size.

【0028】又、画像データのサイズが大きいとフィル
タ処理の計算量が大きくなるので、予め所定の倍率で被
写体領域のデータを縮小してフィルタ処理を行い、その
後、元のサイズに視差マップを拡大するようにしても良
い。
If the size of the image data is large, the amount of calculation for the filtering process increases. Therefore, the filtering process is performed by reducing the data of the subject area at a predetermined magnification in advance, and then the parallax map is enlarged to the original size. You may do it.

【0029】又、指定した被写体領域の輪郭から経験的
に望ましい三次元形状を得る方法として、輪郭形状を多
角形に置き換え、多角形の骨格を推定して骨格を構成す
る各頂点の高さを多角形の境界からの距離に応じて決め
ることにより、三次元形状を擬似的に得る方法があ
る("Teddy:A Sketching Interface for 3D Freeform D
esign",T.Igarashi, S.Matsuoka, H.Tanaka, SIGGRAPH9
9 Conference Proceedings )。この方法によれば、領
域の幅に応じて、幅が広い部分は太い断面、狭い部分は
細い断面を仮定した三次元形状が得られる。
As a method for obtaining a empirically desirable three-dimensional shape from the contour of the designated subject area, the contour shape is replaced with a polygon, the skeleton of the polygon is estimated, and the height of each vertex constituting the skeleton is determined. There is a method of obtaining a three-dimensional shape in a pseudo manner by determining according to the distance from the boundary of the polygon ("Teddy: A Sketching Interface for 3D Freeform D
esign ", T. Igarashi, S. Matsuoka, H. Tanaka, SIGGRAPH9
9 Conference Proceedings). According to this method, according to the width of the region, a three-dimensional shape can be obtained on the assumption that a wide portion has a thick cross section and a narrow portion has a thin cross section.

【0030】被写体領域から視差マップを得る方法とし
て、上記方法を応用しても良い。即ち、先ずモード解析
手段202により得られた被写体フレームを多角形に近
似する。近似された多角形データから上記方法で3次元
形状を得、その三次元形状を所定の2つの視点で透視投
影変換を行って各画素に対応した画素位置のずれ量とし
て画像の視差マップを求めることができる。又、簡易的
には、求まった三次元形状の高さデータに比例して視差
量を決めても良い。
As a method of obtaining a parallax map from a subject area, the above method may be applied. That is, first, the subject frame obtained by the mode analysis unit 202 is approximated to a polygon. A three-dimensional shape is obtained from the approximated polygon data by the above-described method, and the three-dimensional shape is subjected to perspective projection transformation from two predetermined viewpoints, thereby obtaining a disparity map of an image as a shift amount of a pixel position corresponding to each pixel. be able to. Further, for simplicity, the amount of parallax may be determined in proportion to the height data of the obtained three-dimensional shape.

【0031】三次元画像合成手段204は、先ず、画像
データと被写体の視差マップとから被写体の多視点画像
を生成する。ここで生成する画像は3次元ストライプ画
像を構成する多視点画像であり、それぞれの画像サイズ
は画像数と印刷する解像度、大きさに依存する。印刷手
段6の解像度をRPdpi (dot per inch)、印刷サイズ
をXP×YPinchとすると、印刷する画像のサイズはX
(=RP×XP)×Y(=RP×YP)画素となる。
The three-dimensional image synthesizing means 204 first generates a multi-viewpoint image of the subject from the image data and the parallax map of the subject. The image generated here is a multi-view image forming a three-dimensional stripe image, and the size of each image depends on the number of images, the resolution and size of printing. If the resolution of the printing means 6 is RPdpi (dot per inch) and the print size is XP × YPinch, the size of the image to be printed is X
(= RP × XP) × Y (= RP × YP) pixels.

【0032】画像数Nはレンチキュラ板のピッチRLin
chに合わせて、N=RP×RLとなるよう決める。Nは
整数なので、実際にはRP×RLに近い整数を画像数と
する。例えば、プリンタの解像度600dpi、レンチキュラ
板のピッチ1/50.8inchの場合には、N=12像が望まし
い。このとき、各視点の画像のサイズはH(=X/N)
×V(=Y)となる。ここで、実際にはH,Vが整数に
なるように印刷サイズを決める。例えば、H=200 、V
=1800画素ならX=2400、Y=1800画素となり、印刷サ
イズは4 ×3inch となる(実際にはレンチキュラ板のピ
ッチと画像周期を合わせる必要があるので多少サイズが
変わる)。
The number N of images is the pitch RLin of the lenticular plate.
It is determined that N = RP × RL according to the channel. Since N is an integer, the number of images is actually an integer close to RP × RL. For example, when the resolution of the printer is 600 dpi and the pitch of the lenticular plate is 1 / 50.8 inch, N = 12 images is desirable. At this time, the size of the image at each viewpoint is H (= X / N)
× V (= Y). Here, the print size is actually determined so that H and V are integers. For example, H = 200, V
In the case of = 1800 pixels, X = 2400 and Y = 1800 pixels, and the print size is 4 × 3 inches (actually, the size is slightly changed because it is necessary to match the pitch of the lenticular plate with the image period).

【0033】生成する画像は取得した画像データを視差
マップを用いて変形することにより生成する。例えば、
画像のサイズが、h(=800 )×v(=600 )画素の場
合、水平方向の画素数はH、垂直方向の画素数はvに合
わせて、200 ×600 画素の画像を生成する。これは、印
刷に必要な各画像の垂直方向の画素数は水平方向の画素
数に比べて著しく大きく、視差を用いていきなり大きい
サイズの画像を生成すると処理時間が掛かるためであ
る。
The generated image is generated by deforming the obtained image data using a parallax map. For example,
When the size of the image is h (= 800) × v (= 600) pixels, an image of 200 × 600 pixels is generated in accordance with H in the horizontal direction and v in the vertical direction. This is because the number of pixels in the vertical direction of each image required for printing is significantly larger than the number of pixels in the horizontal direction, and it takes a long time to generate an image of a large size using parallax.

【0034】生成する画像の視点位置は、所定の視差量
が発生するように決定する。視差量が小さくなり過ぎる
と立体像を観察する際の立体感が損なわれる。逆に、視
差量が大きくなり過ぎると隣接する画像とのクロストー
クにより観察する立体像が不鮮明になる。
The viewpoint position of the generated image is determined so that a predetermined amount of parallax is generated. If the parallax amount is too small, the stereoscopic effect when observing a stereoscopic image is impaired. Conversely, if the amount of parallax becomes too large, a stereoscopic image to be observed becomes unclear due to crosstalk with an adjacent image.

【0035】又、各視点が等間隔に並ぶように視点位置
を決める。これは、画像シーケンスの視点位置が等間隔
に並ぶことで安定した立体像を観察するためである。
又、遠近被写体の浮き出し、沈み込みの量を所定の比率
になるよう調整する。視差マップ生成手段203で求め
た視差マップから、カメラ1から最も近い被写体位置に
相当する視差と最も遠い被写体位置に相当する視差を求
める。
Further, the viewpoint positions are determined so that the viewpoints are arranged at equal intervals. This is for observing a stable stereoscopic image by arranging the viewpoint positions of the image sequence at equal intervals.
In addition, the amounts of embossing and sinking of the distant subject are adjusted to have a predetermined ratio. From the parallax map obtained by the parallax map generation means 203, a parallax corresponding to the subject position closest to the camera 1 and a parallax corresponding to the farthest subject position are obtained.

【0036】本実施の形態では、視差マップは0から1
の実数値となるので、最も近い被写体位置に相当する視
差は0、最も遠い被写体位置に相当する視差は1であ
る。そして、最も近い被写体が所定の観察位置において
観察時に印刷面から所定の距離だけ手前に観察され、最
も遠い被写体が印刷面から所定の距離だけ奥に観察され
るように視点位置を決める。このとき、実際に画像生成
に用いるパラメータは、多視点画像を構成する左右両端
の画像対の視差に対する各画像の比率r、遠近の視差調
整量shであり、これは視点位置に対応する。例えば、
比率r=0の場合は左端の画像を示し、比率r=1の場
合は右端の画像を示す。
In this embodiment, the disparity map is 0 to 1
Therefore, the parallax corresponding to the closest subject position is 0, and the parallax corresponding to the farthest subject position is 1. Then, the viewpoint position is determined such that the closest subject is observed at a predetermined observation position at a predetermined distance from the printing surface at the time of observation, and the farthest object is observed at a predetermined distance from the printing surface at the back. At this time, the parameters actually used for image generation are the ratio r of each image to the parallax of the image pair at the left and right ends forming the multi-viewpoint image, and the parallax adjustment amount sh for perspective, which corresponds to the viewpoint position. For example,
When the ratio r = 0, the leftmost image is shown, and when the ratio r = 1, the rightmost image is shown.

【0037】以下、各視点画像を生成する方法について
説明する。
Hereinafter, a method of generating each viewpoint image will be described.

【0038】先ず、新規視点画像の生成を画像取得手段
201で取得した入力画像の画素を用いてフォワードマ
ッピングにより生成する。即ち、先ず入力画像の各画素
をマッピングする新規視点画像中の位置(xN,yN)
を入力画像の画素位置(x,y)での視差d、視点位置
を表す比率r、入力画像のサイズと新規視点画像のサイ
ズより、式1により求める。
First, a new viewpoint image is generated by forward mapping using the pixels of the input image acquired by the image acquiring means 201. That is, first, the position (xN, yN) in the new viewpoint image to which each pixel of the input image is mapped.
From the parallax d at the pixel position (x, y) of the input image, the ratio r representing the viewpoint position, the size of the input image, and the size of the new viewpoint image.

【0039】 xN =H/h×(x+r×(d−sh))、yN =y …(式1) そして、左画像の画素位置(x,y)での画素を新規視
点画像の(xN ,yN)の位置にコピーする。この処
理を左画像の全画素について繰り返す。次に、新規視点
画像の画素のうち、左画像から画素が割り当てられなか
った画素に対して穴埋め処理を行う。穴埋め処理は求め
る画素から所定距離だけ離れた有効な画素を探索し、そ
の画素値の距離をパラメータとした加重平均値を割り当
てる。有効な画素がないときは、探索する範囲を広げ
て、探索を繰り返す。
XN = H / h × (x + r × (d−sh)), yN = y (Equation 1) Then, the pixel at the pixel position (x, y) of the left image is represented by (xN, yN). This process is repeated for all pixels of the left image. Next, among the pixels of the new viewpoint image, a filling process is performed on pixels to which no pixels are assigned from the left image. The filling process searches for an effective pixel that is a predetermined distance away from the pixel to be obtained, and assigns a weighted average using the distance of the pixel value as a parameter. If there is no valid pixel, the search range is expanded and the search is repeated.

【0040】以上の処理で全画素有効な新規視点画像が
生成される。この処理を視点数分繰り返して、多視点画
像シーケンスとする。
With the above processing, a new viewpoint image valid for all pixels is generated. This process is repeated for the number of viewpoints to obtain a multi-viewpoint image sequence.

【0041】次に、多視点画像シーケンスから3次元ス
トライプ画像を合成する。このとき、多視点画像シーケ
ンスの各画像の同一座標の画素を画像の視点配列に従い
隣接画素として配列するように三次元画像を合成する。
j番目視点の画素値をPjmn(但し、m、nはそれぞ
れ水平、垂直方向の画素配列のインデックス)としたと
き、j番目の画像データは以下のような二次元配列とし
て表される。
Next, a three-dimensional stripe image is synthesized from the multi-viewpoint image sequence. At this time, the three-dimensional image is synthesized such that pixels at the same coordinates of each image in the multi-view image sequence are arranged as adjacent pixels according to the viewpoint arrangement of the images.
When the pixel value of the j-th viewpoint is Pjmn (where m and n are the indexes of the pixel array in the horizontal and vertical directions, respectively), the j-th image data is represented as the following two-dimensional array.

【0042】 合成はそれぞれの視点の画像を垂直方向に1ラインごと
に短冊状に分解し、視点位置の逆順に視点数分だけ合成
する。従って、合成後の画像は、以下に示すようなスト
ライプ画像となる。
[0042] The composition is performed by decomposing the images of the viewpoints into strips in the vertical direction for each line, and composing the images in the reverse order of the viewpoint positions for the number of viewpoints. Therefore, the combined image is a stripe image as shown below.

【0043】 但し、視点1が左端、Nが右端の画像を表す。ここで、
視点位置の配列順を逆にするのはレンチキュラ板により
観察する際、レンチキュラの1ピッチ内で画像が左右逆
に観察されるためである。この三次元ストライプ画像は
元の多視点画像がH×vのサイズのN視点画像である場
合、X(=N×H)×vのサイズとなる。
[0043] However, viewpoint 1 represents the left end image and N represents the right end image. here,
The reason why the arrangement order of the viewpoint positions is reversed is that, when observing with a lenticular plate, the image is observed left and right within one pitch of the lenticular. This three-dimensional stripe image has a size of X (= N × H) × v when the original multi-view image is an N-view image of H × v size.

【0044】次に、この三次元ストライプ画像に対し
て、レンチキュラ板とピッチを合わせる。1ピッチにR
Pdpi の画素がN画素分あるので、1ピッチN/RPin
chとなるが、レンチキュラ板のピッチがRLinchなので
画像を水平方向にRL×RP/N倍してピッチを合わせ
る。
Next, the pitch of the three-dimensional stripe image is matched with that of the lenticular plate. R for one pitch
Since there are N pixels of Pdpi, one pitch N / RPin
Since the pitch of the lenticular plate is RLinch, the pitch is adjusted by multiplying the image by RL × RP / N in the horizontal direction.

【0045】又、垂直方向の画素数は、そのとき(RL
×RP/N)×Y画素となる必要があるので、垂直方向
に(RL×RP×Y)/(N×v)倍して倍率を合わせ
る。従って、三次元ストライプ画像に以上のような水
平、垂直方向に変倍処理を行い、印刷用の画像データと
する。変倍の処理は、例えば双線形補間等により行う。
尚、三次元画像合成手段204における処理は、本出願
人が提案した特願2001−232697で開示した処
理途中で多視点画像を生成しないで三次元画像を視差マ
ップを用いて入力画像から直接合成するようにする方法
や、特願2001−232698で開示した三次元画像
を分割して合成し印刷手段に順次出力する方法を用いて
も良い。
Also, the number of pixels in the vertical direction is (RL
× RP / N) × Y pixels are required, so the magnification is adjusted by multiplying (RL × RP × Y) / (N × v) in the vertical direction. Therefore, the three-dimensional stripe image is subjected to the above-described horizontal and vertical scaling processes to obtain print image data. The scaling process is performed by, for example, bilinear interpolation.
The processing in the three-dimensional image synthesizing means 204 is performed by directly synthesizing a three-dimensional image from an input image using a disparity map without generating a multi-viewpoint image during the processing disclosed in Japanese Patent Application No. 2001-232697 proposed by the present applicant. Or a method of dividing a three-dimensional image disclosed in Japanese Patent Application No. 2001-232698, combining the divided three-dimensional images, and sequentially outputting the divided three-dimensional images to a printing unit.

【0046】以上の構成により、印刷した画像にレンチ
キュラ板を重ね合わせると撮影時、カメラの表示手段に
フレーム内に表示された被写体像が手前に飛び出した立
体像が観察できる。
With the above arrangement, when the lenticular plate is superimposed on the printed image, a stereoscopic image in which the subject image displayed in the frame on the display means of the camera jumps out to the front can be observed during photographing.

【0047】又、以上説明したように、本実施の形態で
は、特殊な撮影を行わないでカメラで撮影した画像から
立体画像の印刷を自動的に行うことができる。
Further, as described above, in the present embodiment, it is possible to automatically print a three-dimensional image from an image shot by a camera without performing special shooting.

【0048】<実施の形態2>本実施の形態では、カメ
ラの撮影情報として被写体距離情報を利用する。即ち、
図1に示したデジタルカメラは撮像手段101、モード
設定手段102、画像処理手段103、記録手段10
4、表示手段105、記憶手段106の他に不図示の測
距手段を備える。そして、撮影時に図5に示すような画
面を所定の分割領域(図では4×6の領域)に分けた各
領域に対応する被写体の距離を測定し、被写体距離情報
を得る。この被写体の距離情報は撮影時には主に撮影レ
ンズのピント合わせに使われる。画像を記録するときに
は、記録手段104で所定の画像形式に合うようにモー
ド設定手段で設定された撮影モード、被写体のフレーム
データ、画像データと共に被写体距離が記録媒体3に記
録される。
<Embodiment 2> In this embodiment, subject distance information is used as photographing information of a camera. That is,
The digital camera shown in FIG. 1 includes an imaging unit 101, a mode setting unit 102, an image processing unit 103, and a recording unit 10.
4. In addition to the display means 105 and the storage means 106, a distance measuring means (not shown) is provided. Then, at the time of photographing, the distance of the subject corresponding to each area obtained by dividing the screen shown in FIG. 5 into a predetermined divided area (4 × 6 area in the figure) is measured, and the subject distance information is obtained. This distance information of the subject is mainly used for focusing of the photographing lens at the time of photographing. When an image is recorded, the recording mode is set in the recording unit 104 by the mode setting unit so as to conform to the predetermined image format, the subject frame data and the image data, and the subject distance is recorded on the recording medium 3.

【0049】図6は本実施の形態での記録媒体3に記録
される画像データの画像形式の一例である。300は画
像情報、301は撮影モード、302は被写体のフレー
ムデータであり、303は被写体距離を表し、例えば画
像分割数、各領域での被写体距離のデータが記録され
る。
FIG. 6 shows an example of the image format of the image data recorded on the recording medium 3 in this embodiment. Reference numeral 300 denotes image information, 301 denotes a shooting mode, 302 denotes frame data of a subject, and 303 denotes a subject distance. For example, data of the number of image divisions and the subject distance in each area are recorded.

【0050】本実施の形態では、プリンタの視差マップ
抽出手段203において被写体距離の情報を利用して、
撮影した被写体の距離の分布を反映した視差マップを抽
出する。記録した画像に対するプリンタの処理は、被写
体情報を利用する以外は本発明の実施の形態1に準ずる
ので、以下、共通する処理の詳細の説明については割愛
する。
In this embodiment, the parallax map extracting means 203 of the printer uses the information on the subject distance,
A parallax map reflecting the distribution of the distance of the photographed subject is extracted. The processing of the recorded image by the printer is the same as that of the first embodiment of the present invention except that the subject information is used. Therefore, a detailed description of the common processing will be omitted.

【0051】先ず、撮影した画像を記録した記録媒体3
をプリンタ2に装着すると、画像取得手段201は、カ
メラ1の記録手段104で圧縮された画像データ300
を解凍し、RGB3チャンネルの2次元配列データやビ
ットマップに変換する。又、画像と共に記録された撮影
モード301、被写体フレーム302、被写体距離30
3のデータをモード解析手段202に出力する。モード
解析手段202では、先ず撮影モード301を読み、立
体モードかどうかを確認する。そして、モード解析手段
202は被写体フレーム302、被写体距離303を読
み、視差マップ抽出手段203に出力する。
First, the recording medium 3 on which the photographed image is recorded
Is attached to the printer 2, the image acquisition unit 201 outputs the image data 300 compressed by the recording unit 104 of the camera 1.
Is decompressed and converted into two-dimensional array data or a bitmap of three RGB channels. Also, a shooting mode 301, a subject frame 302, and a subject distance 30 recorded together with the image.
3 is output to the mode analysis means 202. The mode analyzing means 202 first reads the photographing mode 301 and checks whether the mode is the stereoscopic mode. Then, the mode analysis unit 202 reads the subject frame 302 and the subject distance 303 and outputs them to the parallax map extraction unit 203.

【0052】視差マップ抽出手段203は、被写体フレ
ーム、被写体距離から、被写体の視差マップを生成す
る。三次元画像合成手段204は、画像データと被写体
の視差マップとから被写体の多視点画像を生成し、三次
元画像を合成して印刷手段205に出力する。印刷手段
205は3次元画像の印刷を行う。
The parallax map extracting means 203 generates a parallax map of the subject from the subject frame and the subject distance. The three-dimensional image combining unit 204 generates a multi-viewpoint image of the subject from the image data and the parallax map of the subject, combines the three-dimensional image, and outputs the combined image to the printing unit 205. The printing unit 205 prints a three-dimensional image.

【0053】以下、視差マップ生成手段203の処理に
ついて説明する。
Hereinafter, the processing of the parallax map generating means 203 will be described.

【0054】視差マップ抽出手段203は、先ず、被写
体フレームから、被写体領域のデータを作成する。
The parallax map extracting means 203 first creates data of a subject area from a subject frame.

【0055】次に、被写体領域から視差マップを生成す
る。このとき、被写体フレーム内の領域と被写体フレー
ム外の領域で被写体距離の情報を用いて別々に視差の分
布を近似する。例えば、被写体フレームの内外の各領域
の距離の分布をそれぞれ二次形式のモデルとして近似す
る。即ち、画像中の画素座標を(x,y)、その位置で
の被写体距離をz(x,y)とするとき、被写体の距離
の分布を z(x,y)=k0+k1・x+k2・y +k3・xy+k4・x2 +k5・y2 …(式2) で近似する。即ち、被写体フレーム内外の各領域におい
て、その領域に属する被写体距離情報である(x,y,
z)の組から各領域でパラメータk0、k1、k2、k
3、k4、k5を例えば最小二乗法によりそれぞれ求め
る。このとき、(x,y)の値は画面を4×6に分割さ
れた各領域の中心座標とする。そして、各被写体領域ご
とに近似したモデルから画像中の各画素位置での視差分
布を求める。尚、このとき求める視差は、(式2)で求
めた各画素の距離zの逆数を0から1の範囲で正規化し
たものである。
Next, a parallax map is generated from the subject area. At this time, the distribution of parallax is separately approximated using the information on the subject distance in the region inside the subject frame and the region outside the subject frame. For example, the distribution of the distances of the respective regions inside and outside the subject frame is approximated as a quadratic model. That is, when the pixel coordinates in the image are (x, y) and the subject distance at that position is z (x, y), the distribution of the subject distance is represented by z (x, y) = k0 + k1.x + k2.y + k3. Xy + k4 · x2 + k5 · y2 (Expression 2) That is, in each area inside and outside the object frame, the object distance information (x, y,
parameters k0, k1, k2, k in each region from the set z)
3, k4, and k5 are obtained by, for example, the least squares method. At this time, the value of (x, y) is the center coordinate of each area obtained by dividing the screen into 4 × 6. Then, a parallax distribution at each pixel position in the image is obtained from a model approximated for each subject region. The parallax obtained at this time is obtained by normalizing the reciprocal of the distance z of each pixel obtained by (Equation 2) in the range of 0 to 1.

【0056】図7に求めた視差分布の例を示す。図で暗
い部分が手前、明るい部分が奥を表す。そして、得られ
た視差の分布に所定のサイズの二次元平均値フィルタを
作用させて、二次元実数配列データを生成し、視差マッ
プとする。
FIG. 7 shows an example of the obtained parallax distribution. In the figure, the dark part represents the foreground, and the bright part represents the back. Then, a two-dimensional average filter having a predetermined size is applied to the obtained parallax distribution to generate two-dimensional real number array data, which is used as a parallax map.

【0057】本実施の形態では、カメラで撮影した被写
体の画像の部分領域ごとの距離情報を記録媒体を通して
プリンタの処理部分に出力し、視差マップ抽出に用いる
ようにしたので、被写体フレームのみを利用するよりも
詳細に被写体の距離情報を反映した視差マップを抽出す
ることができ、その結果、より被写体の距離分布を忠実
に反映した三次元画像を合成、印刷でき、レンチキュラ
板を重ね合わせるとよりリアルな立体像が観察できる。
In this embodiment, the distance information for each partial area of the image of the object photographed by the camera is output to the processing part of the printer through the recording medium and used for the parallax map extraction, so that only the object frame is used. It is possible to extract a parallax map that reflects the distance information of the subject in more detail than it does, and as a result, it is possible to synthesize and print a three-dimensional image that more faithfully reflects the distance distribution of the subject, and to superimpose the lenticular plate Real stereoscopic images can be observed.

【0058】以上の実施の形態において、デジタルカメ
ラで撮影し、記録媒体に記録した画像、フレームデータ
等を直接プリンタで取得、処理するような構成で説明し
たが、例えば、記録媒体に記録した画像、フレームデー
タ等を汎用のPC(PersonalComputer)でアプリケーシ
ョンソフトを介して、取得、処理し、三次元画像を合成
し、プリンタに出力するような構成にしても良い。
In the above embodiment, the description has been made of a configuration in which images, frame data, and the like, which are captured by a digital camera and recorded on a recording medium, are directly obtained and processed by a printer. , Frame data and the like may be obtained and processed by a general-purpose PC (Personal Computer) via application software, a three-dimensional image may be synthesized, and output to a printer.

【0059】又、以上の実施の形態では、レンチキュラ
板3次元画像の方式を用いた立体画像形成システムにつ
いて説明したが、インテグラルフォトグラフィやバリア
方式を用いた立体画像形成システムにも適用できる。
又、立体画像の最終出力をプリンタからの印刷として説
明したが、液晶ディスプレイ等の表示手段にレンチキュ
ラ板が取り付けられた所謂眼鏡なしディスプレイへの立
体画像の表示にも適用できる。
In the above embodiment, a three-dimensional image forming system using a lenticular plate three-dimensional image system has been described. However, the present invention can be applied to a three-dimensional image forming system using integral photography or a barrier system.
Although the final output of the three-dimensional image has been described as printing from a printer, the present invention can be applied to the display of a three-dimensional image on a so-called glassesless display in which a lenticular plate is attached to display means such as a liquid crystal display.

【0060】[0060]

【発明の効果】以上の説明で明らかなように、本発明に
よれば、特殊な撮影を行わず、1枚の画像から多視点画
像を得て多視点画像を合成して立体画像として印刷し、
レンチキュラ板等の光学部材を重ね合わせることによ
り、被写体の立体像を観察できる立体画像形成システム
を提供することができる。又、その際、カメラの被写体
フレームデータを用いるので被写体領域を指定する等の
操作を必要としない。更に、カメラで得た被写体の距離
情報を用いることにより、よりリアルな被写体の立体像
を観察可能とする。
As is apparent from the above description, according to the present invention, a multi-viewpoint image is obtained from one image without special photographing, and the multi-viewpoint image is synthesized and printed as a stereoscopic image. ,
By superposing optical members such as lenticular plates, a stereoscopic image forming system capable of observing a stereoscopic image of a subject can be provided. In this case, since the subject frame data of the camera is used, an operation such as designating a subject area is not required. Further, by using the distance information of the subject obtained by the camera, a more realistic three-dimensional image of the subject can be observed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に係る立体画像形成シス
テムの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a stereoscopic image forming system according to Embodiment 1 of the present invention.

【図2】立体モードでのカメラの表示手段の表示例を示
す図である。
FIG. 2 is a diagram illustrating a display example of a display unit of a camera in a stereoscopic mode.

【図3】本発明の実施の形態1に係る立体画像形成シス
テムの画像データの画像形式を示す図である。
FIG. 3 is a diagram showing an image format of image data of the stereoscopic image forming system according to the first embodiment of the present invention.

【図4】本発明の実施の形態1に係る立体画像形成シス
テムの視差マップ抽出手段における被写体領域のデータ
を示す図である。
FIG. 4 is a diagram illustrating data of a subject area in a parallax map extraction unit of the stereoscopic image forming system according to the first embodiment of the present invention.

【図5】本発明の実施の形態2に係る立体画像形成シス
テムのカメラの被写体距離測定における画面分割を示す
図である。
FIG. 5 is a diagram showing screen division in subject distance measurement by a camera of the stereoscopic image forming system according to Embodiment 2 of the present invention.

【図6】本発明の実施の形態2に係る立体画像形成シス
テムの画像データの画像形式を示す図である。
FIG. 6 is a diagram illustrating an image format of image data of the stereoscopic image forming system according to the second embodiment of the present invention.

【図7】本発明の実施の形態2に係る立体画像形成シス
テムの視差マップ抽出手段における視差分布を示す図で
ある。
FIG. 7 is a diagram illustrating a parallax distribution in a parallax map extracting unit of the stereoscopic image forming system according to the second embodiment of the present invention.

【符号の説明】 1 デジタルカメラ 2 プリンタ 3 記録媒体 101 撮像手段 102 モード設定手段 103 画像処理手段 104 記録手段 105 表示手段 106 記憶手段 201 画像取得手段 202 モード解析手段 203 視差マップ抽出手段 204 三次元画像合成手段 205 印刷手段[Explanation of symbols] 1 Digital camera 2 Printer 3 Recording medium 101 imaging means 102 Mode setting means 103 Image processing means 104 recording means 105 display means 106 storage means 201 Image acquisition means 202 Mode analysis means 203 Parallax map extraction means 204 Three-dimensional image synthesis means 205 printing means

フロントページの続き Fターム(参考) 2H059 AB02 AB04 AB11 5B050 AA09 BA04 DA02 DA04 EA03 EA13 EA15 EA19 FA01 FA05 FA06 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB13 CB16 CC01 CD12 CE06 CE08 DA07 DA08 DB03 DC32 5C061 AA06 AA07 AB11 Continuation of front page    F-term (reference) 2H059 AB02 AB04 AB11                 5B050 AA09 BA04 DA02 DA04 EA03                       EA13 EA15 EA19 FA01 FA05                       FA06                 5B057 AA11 BA02 CA01 CA08 CA12                       CA16 CB01 CB08 CB13 CB16                       CC01 CD12 CE06 CE08 DA07                       DA08 DB03 DC32                 5C061 AA06 AA07 AB11

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮影する際に、前記被写体の画
像とともに被写体の輪郭を表すフレームデータを重畳し
て表示し、被写体画像を取得する画像取得手段と、前記
被写体のフレームデータから被写体領域を取得し、前記
被写体領域から被写体の奥行き分布を表す視差マップを
抽出し、前記被写体画像と前記視差マップとから複数視
点からの被写体の多視点画像シーケンスを生成し、前記
多視点画像シーケンスの各画像の同一座標の画素を画像
の視点配列に従い隣接画素として配列するように三次元
画像を合成する画像処理手段と、前記三次元画像を出力
する出力手段とから構成され、前記出力された三次元画
像に周期的構造を持つ光学部材を重ね合わせることによ
り被写体の立体像を観察できるようにしたことを特徴と
する立体画像形成システム。
1. An image acquiring means for superimposing and displaying frame data representing an outline of a subject together with an image of the subject when photographing the subject, and acquiring a subject image from the frame data of the subject. Acquiring and extracting a parallax map representing the depth distribution of the subject from the subject area, generating a multi-viewpoint image sequence of the subject from a plurality of viewpoints from the subject image and the parallax map, each image of the multi-viewpoint image sequence Image processing means for synthesizing a three-dimensional image so that pixels having the same coordinates are arranged as adjacent pixels according to the viewpoint arrangement of the image, and output means for outputting the three-dimensional image, and the output three-dimensional image A three-dimensional image forming system characterized in that a three-dimensional image of a subject can be observed by superimposing optical members having a periodic structure on the other side. Stem.
【請求項2】 前記画像取得手段は、記録媒体に前記被
写体画像とともに前記フレームデータを記録し、前記画
像処理手段は、前記記録媒体を介して前記被写体画像と
フレームデータを取得することを特徴とする請求項1記
載の立体画像形成システム。
2. The image acquisition unit records the frame data together with the subject image on a recording medium, and the image processing unit acquires the subject image and frame data via the recording medium. The three-dimensional image forming system according to claim 1.
【請求項3】 前記画像取得手段は、前記被写体の距離
情報を取得し、前記画像処理手段は、前記被写体の距離
情報と前記被写体領域から被写体の奥行き分布を表す視
差マップを抽出することを特徴とする請求項1又は2記
載の立体画像形成システム。
3. The image acquisition unit acquires distance information of the subject, and the image processing unit extracts a parallax map representing a depth distribution of the subject from the distance information of the subject and the subject region. The stereoscopic image forming system according to claim 1 or 2, wherein
【請求項4】 前記画像取得手段は、記録媒体に前記被
写体画像とともに前記被写体の距離情報を記録し、前記
画像処理手段は、前記記録媒体を介して前記被写体画像
と被写体の距離情報を取得することを特徴とする請求項
3記載の立体画像形成システム。
4. The image acquiring means records distance information of the subject together with the subject image on a recording medium, and the image processing means acquires distance information of the subject image and the subject via the recording medium. 4. The three-dimensional image forming system according to claim 3, wherein:
【請求項5】 前記出力手段は、印刷手段であることを
特徴とする請求項1〜4の何れかに記載の立体画像形成
システム。
5. The three-dimensional image forming system according to claim 1, wherein said output unit is a printing unit.
【請求項6】 前記光学部材は、レンチキュラ板である
ことを特徴とする請求項1〜5の何れかに記載の立体画
像形成システム。
6. The three-dimensional image forming system according to claim 1, wherein the optical member is a lenticular plate.
JP2002152541A 2002-05-27 2002-05-27 Stereoscopic imaging system Pending JP2003346188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002152541A JP2003346188A (en) 2002-05-27 2002-05-27 Stereoscopic imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002152541A JP2003346188A (en) 2002-05-27 2002-05-27 Stereoscopic imaging system

Publications (1)

Publication Number Publication Date
JP2003346188A true JP2003346188A (en) 2003-12-05

Family

ID=29769848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002152541A Pending JP2003346188A (en) 2002-05-27 2002-05-27 Stereoscopic imaging system

Country Status (1)

Country Link
JP (1) JP2003346188A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107242A (en) * 2004-10-07 2006-04-20 Matsushita Electric Ind Co Ltd Integral photography image forming method
JP2006119843A (en) * 2004-10-20 2006-05-11 Olympus Corp Image forming method, and apparatus thereof
JP2008067093A (en) * 2006-09-07 2008-03-21 Nikon Corp Camera system, image processor, and image processing program
JP2008103820A (en) * 2006-10-17 2008-05-01 Sharp Corp Stereoscopic image processing apparatus
US7466359B2 (en) 2004-04-05 2008-12-16 Hitachi Kokusai Electric Inc. Image-pickup apparatus and method having distance measuring function
JP2012147160A (en) * 2011-01-11 2012-08-02 Nec Personal Computers Ltd Three-dimensional image processing apparatus
JP2013005289A (en) * 2011-06-17 2013-01-07 Sony Corp Image processing device and method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466359B2 (en) 2004-04-05 2008-12-16 Hitachi Kokusai Electric Inc. Image-pickup apparatus and method having distance measuring function
JP2006107242A (en) * 2004-10-07 2006-04-20 Matsushita Electric Ind Co Ltd Integral photography image forming method
JP4645142B2 (en) * 2004-10-07 2011-03-09 パナソニック株式会社 Integral photography image generation method
JP2006119843A (en) * 2004-10-20 2006-05-11 Olympus Corp Image forming method, and apparatus thereof
JP2008067093A (en) * 2006-09-07 2008-03-21 Nikon Corp Camera system, image processor, and image processing program
JP2008103820A (en) * 2006-10-17 2008-05-01 Sharp Corp Stereoscopic image processing apparatus
JP2012147160A (en) * 2011-01-11 2012-08-02 Nec Personal Computers Ltd Three-dimensional image processing apparatus
JP2013005289A (en) * 2011-06-17 2013-01-07 Sony Corp Image processing device and method and program

Similar Documents

Publication Publication Date Title
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
CN111023970B (en) Multi-mode three-dimensional scanning method and system
US7113634B2 (en) Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
US9992473B2 (en) Digital multi-dimensional image photon platform system and methods of use
JP3720747B2 (en) Image forming system, image forming apparatus, and image forming method
CN109118581B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP2006113807A (en) Image processor and image processing program for multi-eye-point image
JP2003209858A (en) Stereoscopic image generating method and recording medium
JPWO2008050904A1 (en) High resolution virtual focal plane image generation method
JP2014056466A (en) Image processing device and method
CN108154514A (en) Image processing method, device and equipment
JP4708619B2 (en) Stereoscopic image forming system and stereoscopic image forming method
JP2006115198A (en) Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
JP2008276301A (en) Image processing apparatus, method and program
JP2005165614A (en) Device and method for synthesizing picture
RU2440615C2 (en) Image generating method and apparatus, image generating program and machine-readable medium storing said program
JP2003346188A (en) Stereoscopic imaging system
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
JP2006211386A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
KR100837776B1 (en) Apparatus and Method for Converting 2D Images to 3D Object
CN102612837B (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
CN114283236A (en) Method, device and storage medium for oral cavity scanning by using smart phone