JP2003284094A - Stereoscopic image processing method and apparatus therefor - Google Patents

Stereoscopic image processing method and apparatus therefor

Info

Publication number
JP2003284094A
JP2003284094A JP2002087496A JP2002087496A JP2003284094A JP 2003284094 A JP2003284094 A JP 2003284094A JP 2002087496 A JP2002087496 A JP 2002087496A JP 2002087496 A JP2002087496 A JP 2002087496A JP 2003284094 A JP2003284094 A JP 2003284094A
Authority
JP
Japan
Prior art keywords
parallax
image
stereoscopic
stereoscopic image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002087496A
Other languages
Japanese (ja)
Other versions
JP3702243B2 (en
Inventor
Takeshi Masutani
健 増谷
Goro Hamagishi
五郎 濱岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2002087496A priority Critical patent/JP3702243B2/en
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to EP11161295.8A priority patent/EP2357838B1/en
Priority to KR1020047015105A priority patent/KR100812905B1/en
Priority to EP11161340A priority patent/EP2387248A3/en
Priority to EP11161320A priority patent/EP2357840A3/en
Priority to EP11161269A priority patent/EP2362670B1/en
Priority to EP03715473A priority patent/EP1489857B1/en
Priority to CN038071592A priority patent/CN1643939B/en
Priority to EP11161284A priority patent/EP2357837A3/en
Priority to EP11161329.5A priority patent/EP2357841B1/en
Priority to EP11161315A priority patent/EP2357839A3/en
Priority to EP20110161281 priority patent/EP2357836B1/en
Priority to EP20110161303 priority patent/EP2381691B1/en
Priority to EP11161274A priority patent/EP2357835A3/en
Priority to PCT/JP2003/003791 priority patent/WO2003081921A1/en
Publication of JP2003284094A publication Critical patent/JP2003284094A/en
Priority to US10/949,528 priority patent/US8369607B2/en
Application granted granted Critical
Publication of JP3702243B2 publication Critical patent/JP3702243B2/en
Priority to US12/976,262 priority patent/US8131064B2/en
Priority to US12/986,509 priority patent/US8417024B2/en
Priority to US12/986,453 priority patent/US8254668B2/en
Priority to US12/986,530 priority patent/US8577128B2/en
Priority to US12/986,491 priority patent/US8879824B2/en
Priority to US12/986,551 priority patent/US8724886B2/en
Priority to US12/986,471 priority patent/US8577127B2/en
Priority to US13/088,752 priority patent/US8472702B2/en
Priority to US13/283,361 priority patent/US8559703B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that optimum programming is difficult in stereoscopically displaying with various types of display devices because of a difference in suitable parallax and this causes a heavy drag on wider use of a stereoscopic image. <P>SOLUTION: A stereoscopic sense adjusting unit 112 displays a stereoscopic image for a user. When a displayed object comes within a limit parallax, the user responds to the unit 112. A parallax control unit 114 generates a parallax image so that the suitable parallax can be attained in the succeeding stereoscopic display, according to the obtained suitable parallax information. The control of parallax is realized by optimally setting a camera parameter retroactive to three-dimensional data. A function for realizing the suitable parallax is provided in a library format. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は立体画像処理技
術、とくに、視差画像をもとに立体画像を生成または表
示する方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic image processing technique, and more particularly to a method and apparatus for generating or displaying a stereoscopic image based on a parallax image.

【0002】[0002]

【従来の技術】近年、ネットワークインフラの未整備が
問題視されてきたが、ブロードバンドへの移行期を迎
え、むしろ、広い帯域を有効活用するコンテンツの種類
や数の少なさが目立ち始めている。映像はいつの時代で
も、もっとも重要な表現手段であったが、いままでの取
り組みの多くは表示品質やデータ圧縮率の改善に関する
ものであり、それらに比べると、表現の可能性自体を広
げる技術的な取り組みは、後手にまわっている感があ
る。
2. Description of the Related Art In recent years, the inadequacy of network infrastructure has been regarded as a problem, but at the time of transition to broadband, the number of types and the number of contents that effectively utilize a wide band are becoming conspicuous. Video has always been the most important means of expression, but most of the efforts so far have involved improving display quality and data compression ratios, and compared to these, technical possibilities that expand the possibilities of expression. There is a feeling that such efforts are falling behind.

【0003】そうした中で、立体映像表示(以下、単に
立体表示という)は、以前からいろいろ研究され、劇場
用途や特殊な表示装置を利用する、ある程度限られた市
場で実用化されてきた。今後は、より臨場感の溢れるコ
ンテンツの提供を目指してこの方面の研究開発が加速
し、個人ユーザが家庭でも立体表示を楽しむ時代が来る
ものと思われる。
Under such circumstances, stereoscopic image display (hereinafter, simply referred to as stereoscopic display) has been variously studied, and has been put to practical use in a limited market which uses theaters and special display devices. In the future, R & D in this direction will accelerate in order to provide more realistic content, and it is expected that individual users will enjoy stereoscopic display at home.

【0004】[0004]

【発明が解決しようとする課題】そうした流れの中にあ
って、立体表示には以前よりいくつかの課題が指摘され
ている。たとえば、立体感を創生する原因となる視差の
適正化が難しい。もともと、本当に三次元のオブジェク
トを映し出しているのではなく、その映像を左右両目に
対して画素単位でずらして投じているのであり、その人
工的な立体感に自然な感じをもたせるのは容易ではな
い。
In such a flow, some problems have been pointed out in stereoscopic display from before. For example, it is difficult to optimize the parallax that causes a stereoscopic effect. Originally, it does not really project a three-dimensional object, but it projects the image by shifting it to the left and right eyes in pixel units, so it is not easy to give that artificial three-dimensional effect a natural feeling. Absent.

【0005】また、視差の付けすぎも問題になることが
あり、立体映像の観察者(以下、単にユーザともいう)
によっては、軽い不快感を訴える場合がある。もちろん
これには、立体表示だけではなく、表示されているシー
ンと自己の周囲の状況ないし感覚が一致しないなど、種
々の要因がある。しかし、経験則からいえば、そうした
問題は視差が大きすぎる、換言すれば、立体感が強すぎ
る場合に観察されやすい。
Further, too much parallax may be a problem, and an observer of a stereoscopic image (hereinafter, also simply referred to as a user).
Some people may complain of mild discomfort. Of course, this is not limited to stereoscopic display, and there are various factors such as the situation in which the displayed scene does not match the situation or sense of one's surroundings. However, as a rule of thumb, such a problem is apt to be observed when the parallax is too large, in other words, when the stereoscopic effect is too strong.

【0006】以上は人間の生理上のはなしであるが、そ
れとは別に、立体映像のコンテンツやアプリケーション
の普及を阻む技術要因がある。立体視は視差によって実
現するが、仮に視差を左右画像の画素のずれ量で表現し
ても、表示装置のハードウエアの差違により、同じ立体
映像が適切に立体視できる場合とそうでない場合があ
る。遠方を表現する視差が眼間距離を超えてしまうと、
理論的に立体視ができない。今日のように、表示装置の
解像度やスクリーンサイズがPC(パーソナルコンピュ
ータ)、テレビジョン受像機、携帯機器など多様化する
中、いろいろなハードウエアを考えて立体表示のために
最適なコンテンツを作るのは難題であり、あるいは、そ
のための方法論が与えられていないというほうがより正
確である。
Although the above is the physiological story of human beings, there are other technical factors that prevent the spread of stereoscopic video contents and applications. Although stereoscopic vision is realized by parallax, even if parallax is represented by the amount of pixel shift between the left and right images, there are cases where the same stereoscopic image can be appropriately stereoscopically viewed due to differences in the hardware of the display device. . When the parallax that expresses the distance exceeds the inter-eye distance,
Theoretically, stereoscopic vision is not possible. As the resolutions and screen sizes of display devices are diversifying such as PCs (personal computers), television receivers, and portable devices like today, various hardware is considered to create optimal content for stereoscopic display. Is more difficult, or more accurate, if no methodology is given for it.

【0007】また仮に、その方法論が与えられたとして
も、それを一般のプログラマが理解し、コンテンツおよ
びアプリケーションの作成に利用することを期待するの
は難しいであろう。
Further, even if the methodology is given, it would be difficult for a general programmer to understand it and expect it to be used for creating contents and applications.

【0008】本発明はこうした背景に鑑みてなされたも
のであり、その目的は、人の生理に適合しやすい立体画
像を生成または表示することにある。別の目的は、表示
対象画像や表示装置が変わってもユーザに適切な立体画
像を生成または表示することにある。さらに別の目的
は、立体表示がなされているときに、簡単な操作でその
立体感を調整することにある。さらに別の目的は、適切
な立体表示が可能なコンテンツまたはアプリケーション
づくりに際し、プログラマの負担を軽減することにあ
る。さらに別の目的は、適切な立体表示を実現する技術
をビジネスのモデルとして提供することにある。
The present invention has been made in view of such a background, and an object thereof is to generate or display a stereoscopic image which is easily adapted to human physiology. Another object is to generate or display a stereoscopic image suitable for the user even if the display target image or the display device changes. Still another object is to adjust the stereoscopic effect by a simple operation when the stereoscopic display is performed. Yet another object is to reduce the burden on the programmer when creating a content or an application that can display appropriately in three dimensions. Still another object is to provide a technology for realizing an appropriate stereoscopic display as a business model.

【0009】[0009]

【課題を解決するための手段】本発明の基礎をなす発明
者の知見は、適正視差をいったん表示装置のハードウエ
アやユーザと表示装置の距離などの要素(以下、これら
を統括的に「ハードウエア」と表現する)から切り離す
ことにある。すなわち、適正視差の表現を後述のカメラ
間隔と光軸交差位置で一般化することにより、いったん
ハードウエアに依存しない汎用的な形で記述する。「ハ
ードウエアに依存しない」とは、表示装置に固有のハー
ドウエア情報の読み出しが原則的に不要という意味であ
り、この汎用的な記述がなされれば、あとはその適正視
差に基づいて視差画像を生成または調整すれば、所望の
立体表示が実現する。
DISCLOSURE OF THE INVENTION The knowledge of the inventor, which is the basis of the present invention, is that the proper parallax is determined by once determining factors such as the hardware of the display device and the distance between the user and the display device (hereinafter, these are collectively referred to as “hardware”). Wear it ”). That is, the expression of the proper parallax is generalized by the camera interval and the optical axis crossing position, which will be described later, and then described in a general-purpose form that does not depend on hardware. "Independent of hardware" means that it is basically unnecessary to read out the hardware information peculiar to the display device. If this general-purpose description is made, the rest of the parallax image will be based on the proper parallax. Is generated or adjusted, a desired stereoscopic display is realized.

【0010】適正視差の取得、および画像の立体表示の
際にその適正視差を実現する制御をライブラリで提供す
ることにより、一般のプログラマはこのライブラリを呼
び出せば複雑な立体視の原理やプログラミングを意識せ
ず適正な立体表示が実現する。
By providing a control for obtaining the proper parallax and realizing the proper parallax at the time of stereoscopic display of an image with a library, a general programmer can call the library and be aware of complicated stereoscopic principles and programming. Proper stereoscopic display is realized without doing.

【0011】本発明のいろいろな態様のうち、第1グル
ープは、ユーザの応答をもとに適正視差を取得する技術
を基本とする。この技術は、ユーザによる視差の「初期
設定」に利用でき、いちど適正視差が装置内に取得され
れば、以降、別の画像の表示の際にもその適正視差が実
現される。ただし、この技術は初期設定にとどまらず、
ユーザが適宜表示中の画像の視差を調整する「手動調
整」にも利用される。以下、第1グループに関する。
Of the various aspects of the present invention, the first group is based on the technique of acquiring the proper parallax based on the response of the user. This technique can be used for the “initial setting” of the parallax by the user, and once the proper parallax is acquired in the device, the proper parallax is realized even when another image is displayed thereafter. However, this technology is not limited to the initial settings,
It is also used for "manual adjustment" in which the user appropriately adjusts the parallax of the image being displayed. The first group will be described below.

【0012】本発明は、立体画像処理装置に関し、異な
る視差に対応する複数の視点画像をもとに表示された立
体画像に対するユーザの応答を取得する指示取得部と、
取得された応答をもとに、そのユーザに関する適正視差
を特定する視差特定部とを含む。
The present invention relates to a stereoscopic image processing apparatus, and an instruction acquisition unit for acquiring a user's response to a stereoscopic image displayed based on a plurality of viewpoint images corresponding to different parallaxes.
A parallax specifying unit that specifies an appropriate parallax for the user based on the acquired response.

【0013】指示取得部は、たとえばGUI(グラフィ
カルユーザインタフェイス、以下同様)として提供さ
れ、まず視点画像間の視差を変えながら表示する。ユー
ザは自分が好む立体感になったとき、ボタン操作などに
よってその旨を入力する。
The instruction acquisition unit is provided as, for example, a GUI (graphical user interface, the same applies below), and first displays while changing the parallax between viewpoint images. When the user obtains the stereoscopic effect he / she likes, he / she inputs it by operating the buttons.

【0014】「立体画像」とは立体感をもって表示され
た画像であり、そのデータの実体は、複数の画像に視差
をもたせた「視差画像」である。視差画像は一般に複数
の二次元画像の集合である。視差画像を構成する各画像
は、それぞれが対応する視点を有する「視点画像」であ
る。つまり、複数の視点画像によって視差画像が構成さ
れ、それを表示すると立体画像として表示される。立体
画像の表示を単に「立体表示」ともいう。
A "stereoscopic image" is an image displayed with a stereoscopic effect, and the substance of the data is a "parallax image" in which a plurality of images have parallax. A parallax image is generally a set of two-dimensional images. Each image forming the parallax image is a “viewpoint image” having a corresponding viewpoint. That is, a parallax image is composed of a plurality of viewpoint images, and when it is displayed, it is displayed as a stereoscopic image. Displaying a stereoscopic image is also simply referred to as “stereoscopic display”.

【0015】「視差」とは、立体感を生むためのパラメ
ータであり、いろいろな定義が可能だが、一例として視
点画像間の同じ点を表す画素のシフト量で表現できる。
以下、本明細書では、とくに断らない限り、その定義に
したがう。
The "parallax" is a parameter for producing a stereoscopic effect and can be defined in various ways, but as an example, it can be expressed by the shift amount of pixels representing the same point between viewpoint images.
Hereinafter, in the present specification, the definition will be used unless otherwise specified.

【0016】適正視差は範囲指定してもよい。その場
合、その範囲の両端を「限界視差」と呼ぶことにする。
「適正視差の特定」は、後述の近置オブジェクトの視差
として許容できる最大値で行ってもよい。
The proper parallax may be specified in a range. In that case, both ends of the range will be called “limit parallax”.
The “identification of the appropriate parallax” may be performed with the maximum value that is allowable as the parallax of the near object described later.

【0017】本発明の立体画像処理装置はさらに、特定
された適正視差が別の画像の表示の際にも実現されるよ
う処理を施す視差制御部を含んでもよい。別の画像が三
次元データを起点として生成される立体画像であると
き、視差制御部は前記の適正視差にしたがってその立体
画像を生成する複数の視点を決定してもよい。より具体
的には、複数の視点間の距離とそれらの視点からオブジ
ェクトを見込む光軸の交差位置を決定してもよい。これ
らの処理の一例は、後述のカメラ配置決定部によってな
される。これらの処理をリアルタイムにすれば、常に最
適な立体表示が実現する。
The stereoscopic image processing apparatus of the present invention may further include a parallax control unit for performing processing so that the specified proper parallax is realized even when another image is displayed. When another image is a stereoscopic image generated by using three-dimensional data as a starting point, the parallax control unit may determine a plurality of viewpoints for generating the stereoscopic image according to the appropriate parallax. More specifically, the distance between a plurality of viewpoints and the intersection position of the optical axes that see the object from those viewpoints may be determined. An example of these processes is performed by the camera placement determination unit described later. If these processes are performed in real time, optimal stereoscopic display is always realized.

【0018】視差制御部は、表示の対象となる所定の基
本三次元空間について適正視差が実現するよう制御して
もよい。この処理の一例は、後述の投影処理部によって
なされる。
The parallax control unit may perform control so that proper parallax is realized in a predetermined basic three-dimensional space to be displayed. An example of this processing is performed by the projection processing unit described later.

【0019】視差制御部は、三次元空間において最も近
置されるオブジェクトの座標と最も遠置されるオブジェ
クトの座標について前記適正視差が実現するよう制御し
てもよい。この処理の一例は、後述の投影処理部によっ
てなされる。オブジェクトは静的でもよい。
The parallax control unit may perform control so that the proper parallax is realized with respect to the coordinates of the object located closest in the three-dimensional space and the coordinates of the object located farthest away. An example of this processing is performed by the projection processing unit described later. The object may be static.

【0020】「近置」は複数の視点にそれぞれ置かれた
カメラの視線、すなわち光軸の交差位置(以下、「光軸
交差位置」という)にある面(以下、「光軸交差面」と
いう)より前に立体視されるような視差がつけられてい
る状態を指す。「遠置」は逆に光軸交差面よりうしろに
立体視されるような視差がつけられている状態を指す。
近置オブジェクトの視差が大きくなるほどユーザに近づ
いて感知され、遠置オブジェクトの視差が大きくなるほ
どユーザから遠ざかって見える。すなわち、特に断らな
いかぎり、視差は近置、遠置で正負が反転せず、ともに
非負の値として定義し、光軸交差面において近置視差、
遠置視差ともにゼロとする。
"Close-up" means a line of sight of a camera placed at each of a plurality of viewpoints, that is, a plane at an optical axis intersection position (hereinafter referred to as "optical axis intersection position") (hereinafter referred to as "optical axis intersection plane"). ) Refers to a state where the parallax is stereoscopically seen before. On the contrary, “distant position” refers to a state in which parallax is provided so that a stereoscopic view can be seen behind the optical axis intersecting plane.
The closer the parallax of the near object is, the closer the user is perceived, and the farther the parallax of the far object is, the farther the user is from the user. That is, unless otherwise specified, the parallax is defined as a non-negative value in which positive and negative are not inverted in the near position and the far position, and the near position parallax at the optical axis crossing plane,
The distance parallax is zero.

【0021】表示されるオブジェクトや空間のうち、視
差のない部分について、光軸交差面は表示装置のスクリ
ーン面に一致する。なぜなら、視差がつけられていない
画素は、左右両眼から見込む視線がちょうどスクリーン
面内の同じ位置に到達し、すなわち、そこで交差するた
めである。
In a portion having no parallax in the displayed object or space, the optical axis intersecting surface coincides with the screen surface of the display device. This is because, in pixels with no parallax, the lines of sight seen from both the left and right eyes have just reached the same position on the screen surface, that is, intersected there.

【0022】前記の別の画像がすでに視差が与えられて
いる複数の二次元画像である場合、視差制御部は適正視
差にしたがってそれら複数の二次元画像の水平方向のシ
フト量を定めてもよい。この態様では、立体表示のため
の入力が三次元データを起点として高い自由度をもって
生成されるのではなく、すでに生成されている視差画像
であり、視差は固定されている。この場合、もとの三次
元空間、あるいは実際に撮影された実空間に戻ってカメ
ラ位置を変更して再描画、あるいは再撮影する処理がで
きない。そのため、視差画像を構成する視点画像、また
はそれらに含まれる画素を水平へシフトして視差を調整
する。
When the other image is a plurality of two-dimensional images to which parallax has already been given, the parallax control unit may determine the horizontal shift amount of the plurality of two-dimensional images according to the proper parallax. . In this aspect, the input for stereoscopic display is not generated with a high degree of freedom starting from the three-dimensional data, but is a generated parallax image, and the parallax is fixed. In this case, it is not possible to return to the original three-dimensional space or the real space actually photographed and change the camera position to redraw or re-photograph. Therefore, the parallax is adjusted by horizontally shifting the viewpoint images forming the parallax images or the pixels included in the viewpoint images.

【0023】前記の別の画像はデプス情報が与えられて
いる平面画像(以下これを「デプス情報付画像」ともい
う)の場合、視差制御部は適正視差にしたがってそのデ
プスを調整してもよい。この処理の一例は、後述の第3
の立体画像処理装置の二次元画像生成部によってなされ
る。
In the case where the other image is a plane image to which depth information is given (hereinafter also referred to as “image with depth information”), the parallax control unit may adjust the depth according to the proper parallax. . An example of this processing is the third described below.
The two-dimensional image generation unit of the three-dimensional image processing device.

【0024】この立体画像処理装置は、適正視差を記録
する視差保持部をさらに含み、視差制御部は、所定のタ
イミング、例えばこの装置の起動時や、この装置が有す
る立体画像処理機能またはその一部が起動されたときな
どにおいて適正視差を読み込み、その値を初期値として
処理を施してもよい。すなわち、「起動」はハードウエ
ア的な意味でもソフトウエア的な意味でもよい。この態
様によれば、ユーザがいちど適正視差を決めれば、以
降、立体感調整のための自動処理が実現する。これは
「適正視差の初期設定」とでもよぶ機能である。
The stereoscopic image processing apparatus further includes a parallax holding section for recording the proper parallax, and the parallax control section has a predetermined timing, for example, when the apparatus is activated, or the stereoscopic image processing function of the apparatus or one of the functions. The proper parallax may be read when the unit is activated, and the value may be used as an initial value for processing. That is, "start" may have either a hardware meaning or a software meaning. According to this aspect, once the user determines the proper parallax, the automatic process for adjusting the stereoscopic effect is realized thereafter. This is a function called “initial setting of appropriate parallax”.

【0025】本発明の別の態様は、立体画像処理方法に
関し、異なる視差による複数の立体画像をユーザに表示
するステップと、表示された立体画像に対するユーザの
応答をもとにそのユーザに関する適正視差を特定するス
テップとを含む。
Another aspect of the present invention relates to a stereoscopic image processing method, which is a step of displaying a plurality of stereoscopic images with different parallax to a user, and an appropriate parallax for the user based on the user's response to the displayed stereoscopic image. And a step of identifying

【0026】本発明のさらに別の態様も立体画像処理方
法に関し、ユーザに依存する適正視差を取得するステッ
プと、取得した適正視差が実現されるよう、表示前に画
像に処理を加えるステップとを含む。ここで「取得」は
積極的に特定する処理であってもよいし、前記の視差保
持部等から読み込む処理であってもよい。
Still another aspect of the present invention also relates to a stereoscopic image processing method, which comprises a step of acquiring a proper parallax depending on a user, and a step of processing an image before display so that the obtained proper parallax is realized. Including. Here, the “acquisition” may be a process of positively specifying or a process of reading from the parallax holding unit or the like.

【0027】これら各ステップを立体表示用ライブラリ
の機能として実装し、複数のプログラムからこのライブ
ラリの機能を関数として呼出可能に構成すれば、プログ
ラマがいちいち立体表示装置のハードウエアを考慮して
プログラムを記述する必要がなくなり、効果的である。
If each of these steps is implemented as a function of a stereoscopic display library and the functions of this library can be called as a function from a plurality of programs, the programmer considers the hardware of the stereoscopic display device and executes the program. It is effective because there is no need to describe it.

【0028】本発明の第2グループは、ユーザの指示を
もとに視差を調整する技術を基本とする。この技術は、
ユーザによる視差の「手動調整」に利用でき、ユーザは
適宜表示中の画像の立体感を変更できる。ただし、この
技術は手動調整にとどまらず、ある画像を立体表示する
際、前述の適正視差を読み込み、その画像の視差を自動
調整する際にも利用できる。第1グループの自動調整と
の違いは、第2グループの自動調整が二次元の視差画像
またはデプス情報付画像に対して作用する点であり、三
次元データまで遡って視差を変更する場合は第1グルー
プの技術を利用する。以下、第2グループに関する。
The second group of the present invention is based on a technique of adjusting parallax based on a user's instruction. This technology
It can be used for “manual adjustment” of parallax by the user, and the user can appropriately change the stereoscopic effect of the image being displayed. However, this technique is not limited to manual adjustment, and can also be used when stereoscopically displaying a certain image, reading the appropriate parallax described above, and automatically adjusting the parallax of the image. The difference from the automatic adjustment of the first group is that the automatic adjustment of the second group acts on a two-dimensional parallax image or an image with depth information, and when changing the parallax retrospectively to three-dimensional data, Use one group of technologies. Hereinafter, the second group will be described.

【0029】本発明のある態様は立体画像処理装置に関
し、複数の視点画像から表示された立体画像に対するユ
ーザの指示を取得する指示取得部と、取得された指示に
したがい、前記複数の視点画像間の視差量を変化させる
視差制御部とを含む。この処理の一例は後述の図45に
示され、「手動調整」の典型例である。ユーザの指示
は、たとえばボタン操作など、簡単なGUIで提供すれ
ば利便性が高い。
An aspect of the present invention relates to a stereoscopic image processing apparatus, which includes an instruction acquisition unit for acquiring a user's instruction for a stereoscopic image displayed from a plurality of viewpoint images, and an inter-view image between the plurality of viewpoint images according to the acquired instruction. And a parallax control unit that changes the parallax amount. An example of this processing is shown in FIG. 45, which will be described later, and is a typical example of “manual adjustment”. It is convenient if the user's instruction is provided by a simple GUI such as button operation.

【0030】本発明の別の態様も立体画像処理装置に関
し、複数の視点画像から立体画像を表示するときに生じ
る第1の視差量を検出する視差量検出部と、第1の視差
量が、ユーザの許容視差量である第2の視差量の範囲に
入るよう前記複数の視点画像間の視差量を変化させる視
差制御部とを含む。これは「自動調整」の典型例であ
り、第2の視差量として前述の適正視差が利用できる。
この処理の一例は、後述の図46に示される。
Another aspect of the present invention also relates to a stereoscopic image processing apparatus, wherein a parallax amount detecting section for detecting a first parallax amount generated when displaying a stereoscopic image from a plurality of viewpoint images, and a first parallax amount are And a parallax control unit that changes the parallax amount between the plurality of viewpoint images so as to fall within the range of the second parallax amount that is the allowable parallax amount of the user. This is a typical example of “automatic adjustment”, and the above-mentioned appropriate parallax can be used as the second parallax amount.
An example of this processing is shown in FIG. 46 described later.

【0031】視差量検出部は第1の視差量の最大値を検
出し、視差制御部は、その最大値が第2の視差量の最大
値を超えないよう複数の視点画像間の視差量を変化させ
てもよい。視差の付きすぎによる過度な立体感を避ける
ため、視差量の最大値、すなわち限界視差を守る意図で
ある。ここでいう最大値は、近置側の最大値と考えても
よい。
The parallax amount detection unit detects the maximum value of the first parallax amount, and the parallax control unit determines the parallax amount between a plurality of viewpoint images so that the maximum value does not exceed the maximum value of the second parallax amount. You may change it. In order to avoid excessive stereoscopic effect due to too much parallax, the maximum value of the parallax amount, that is, the limit parallax is intended to be protected. The maximum value here may be considered as the maximum value on the near side.

【0032】視差量検出部は、複数の視点画像間で対応
点マッチングを計算して第1の視差量を検出したり、ま
たは複数の視点画像のいずれかのヘッダに予め記録され
た第1の視差量を検出してもよい。これらの処理の一例
は後述の図47に示される。
The parallax amount detector detects the first parallax amount by calculating corresponding point matching between a plurality of viewpoint images, or the first parallax amount recorded in the header of one of the plurality of viewpoint images in advance. The amount of parallax may be detected. An example of these processes is shown in FIG. 47 described later.

【0033】視差制御部は、複数の視点画像の合成位置
をシフトすることにより複数の視点画像間の視差量を変
化させてもよい。これは図45〜47に共通である。合
成位置のシフトは、画素または画像全体を単位とする水
平または垂直方向のシフトである。入力がデプス情報付
画像の場合、視差制御部は、デプス情報を調整して視差
量を変化させてもよい。
The parallax control unit may change the parallax amount between the plurality of viewpoint images by shifting the composite position of the plurality of viewpoint images. This is common to FIGS. The shift of the combining position is a shift in the horizontal or vertical direction in units of pixels or the entire image. When the input is an image with depth information, the parallax control unit may adjust the depth information to change the parallax amount.

【0034】本発明の別の態様は立体画像処理方法に関
し、複数の視点画像をもとに表示された立体画像に対す
るユーザの指示を取得するステップと、その指示にした
がい、前記複数の視点画像間の視差量を変化させるステ
ップとを含む。
Another aspect of the present invention relates to a stereoscopic image processing method, which comprises a step of acquiring a user's instruction for a stereoscopic image displayed based on a plurality of viewpoint images, and, according to the instruction, a method of interposing the plurality of viewpoint images. And changing the amount of parallax.

【0035】本発明のさらに別の態様も立体画像処理方
法に関し、複数の視点画像から立体画像を表示するとき
に生じる第1の視差量を検出するステップと、第1の視
差量が、ユーザの許容視差量である第2の視差量の範囲
に入るよう複数の視点画像間の視差量を変化させるステ
ップとを含む。
Still another aspect of the present invention also relates to a stereoscopic image processing method, wherein the step of detecting a first parallax amount occurring when a stereoscopic image is displayed from a plurality of viewpoint images, and the first parallax amount being the user's Changing the amount of parallax between the plurality of viewpoint images so that the amount of parallax falls within the range of the second amount of parallax that is the allowable amount of parallax.

【0036】これら各ステップを立体表示用ライブラリ
の機能として実装し、複数のプログラムからこのライブ
ラリの機能を関数として呼出可能に構成してもよい。
Each of these steps may be implemented as a function of the stereoscopic display library so that the functions of this library can be called as a function from a plurality of programs.

【0037】本発明の第3グループは、画像内位置に基
づいて視差を補正する技術を基本とする。この「自動補
正」は立体表示に対するユーザの違和感または拒絶感を
軽減するよう作用し、第1、第2グループの技術と併用
できる。一般に、立体表示の際、画像端部に近いほど複
数の視点画像がずれて観察されたり、違和感を産みやす
いなど、技術上または生理上の問題点が指摘される。第
3グループでは、画像端に近い部分で視差を減らし、ま
たはオブジェクトが近置側から遠置側へ移動するよう視
差を調整するなどの処理により、この問題の軽減を図
る。以下、第3グループに関する。
The third group of the present invention is based on the technique of correcting parallax based on the position in the image. This "automatic correction" acts to reduce the user's discomfort or rejection of stereoscopic display, and can be used in combination with the techniques of the first and second groups. Generally, in stereoscopic display, technical or physiological problems are pointed out, such that a plurality of viewpoint images are observed to be displaced as they are closer to the edge of the image, and a sense of discomfort is easily generated. In the third group, this problem is mitigated by reducing the parallax near the image edge or adjusting the parallax so that the object moves from the near side to the far side. The third group will be described below.

【0038】本発明のある態様は立体画像処理装置に関
し、立体画像を表示するための複数の視点画像間の視差
を補正する視差制御部と、視差制御部がその処理の際に
参照すべき補正マップを保持するマップ保持部とを含
み、この補正マップは、視差が視点画像内の位置に基づ
いて補正されるよう記述されている。補正マップには、
視差補正マップ、距離感補正マップなどがある。
One embodiment of the present invention relates to a stereoscopic image processing apparatus, and a parallax control unit for correcting parallax between a plurality of viewpoint images for displaying a stereoscopic image, and a correction to be referred to by the parallax control unit in its processing. The correction map is described so that the parallax is corrected based on the position in the viewpoint image. In the correction map,
There are a parallax correction map and a sense of distance correction map.

【0039】視差制御部は、例えば複数の視点画像の周
辺部において視差を小さくするか、またはオブジェクト
がユーザからより遠くに感知されるよう視差を変化させ
る。視差制御部は、複数の視点画像のいずれかに選択的
に処理を施すことによって視差を変化させてもよい。
The parallax control unit reduces the parallax in the peripheral portion of a plurality of viewpoint images, for example, or changes the parallax so that the object is sensed farther from the user. The parallax control unit may change the parallax by selectively processing any of the plurality of viewpoint images.

【0040】複数の視点画像は三次元データから生成さ
れるもの、すなわち、三次元空間まで戻って視点画像を
生成できる場合には、視差制御部は複数の視点画像の生
成にあたって、カメラパラメータを制御して視差を変化
させてもよい。カメラパラメータとして、左右カメラの
間隔、カメラからオブジェクトを見込む角度、または光
軸交差位置などがある。
When the plurality of viewpoint images are generated from three-dimensional data, that is, when the viewpoint images can be generated by returning to the three-dimensional space, the parallax control unit controls the camera parameters when generating the plurality of viewpoint images. Then, the parallax may be changed. The camera parameters include the distance between the left and right cameras, the angle at which the object is viewed from the camera, or the optical axis intersection position.

【0041】同様に、複数の視点画像が三次元データか
ら生成される場合、視差制御部は複数の視点画像の生成
にあたって、三次元空間自体を例えばワールド座標系に
おいて歪ませることにより視差を変化させてもよい。一
方、複数の視点画像がデプス情報付画像から生成される
場合、視差制御部はそのデプス情報を操作することによ
って視差を変化させてもよい。
Similarly, when a plurality of viewpoint images are generated from three-dimensional data, the parallax control unit distorts the three-dimensional space itself in, for example, the world coordinate system to change the parallax when generating the plurality of viewpoint images. May be. On the other hand, when a plurality of viewpoint images are generated from the image with depth information, the parallax control unit may change the parallax by operating the depth information.

【0042】本発明の別の態様は立体画像処理方法に関
し、立体画像を表示するための複数の視点画像を取得す
るステップと、取得された前記複数の視点画像間の視差
をそれら視点画像内の位置に基づいて変化させるステッ
プとを含む。これらのステップを立体表示用ライブラリ
の機能として実装し、複数のプログラムからこのライブ
ラリの機能を関数として呼出可能に構成してもよい。
Another aspect of the present invention relates to a stereoscopic image processing method, which comprises a step of acquiring a plurality of viewpoint images for displaying a stereoscopic image and a parallax between the acquired viewpoint images in the viewpoint images. Changing based on position. These steps may be implemented as the functions of the stereoscopic display library, and the functions of this library may be called as functions from a plurality of programs.

【0043】本発明の第4グループは、第1〜第3グル
ープおよびその関連機能をソフトウエアライブラリとし
て提供し、プログラマおよびユーザの負担を軽減し、立
体画像表示アプリケーションの普及を促進する技術に関
する。以下、第4グループに関する。
The fourth group of the present invention relates to a technique for providing the first to third groups and their related functions as a software library to reduce the burden on programmers and users and to promote the spread of stereoscopic image display applications. The fourth group will be described below.

【0044】本発明のある態様は立体画像処理方法に関
し、立体画像表示に関連する情報をメモリ上に保持し、
その保持された情報を複数の異なるプログラム間で共有
し、それらのプログラムのいずれかが立体画像を表示す
る際、保持された情報を参照して出力すべき画像の状態
を決定する。画像の状態の例は、視差画像にどの程度の
視差が与えられているか、その程度である。
An aspect of the present invention relates to a stereoscopic image processing method, which holds information related to stereoscopic image display in a memory,
The held information is shared among a plurality of different programs, and when any of these programs displays a stereoscopic image, the held information is referred to determine the state of the image to be output. An example of the state of the image is how much parallax is given to the parallax image and its degree.

【0045】「保持された情報」は、立体画像表示装置
に入力される画像のフォーマット、視点画像の表示順
序、視点画像間の視差量のいずれかの情報を含んでもよ
い。また、保持された情報の共有に加え、立体画像表示
固有の処理を複数のプログラムで共有してもよい。「立
体画像表示固有の処理」の一例は、保持された情報を決
定するための処理である。別の例は、適正視差を決定す
るためのグラフィカルユーザインタフェイスに関する処
理、適正視差状態の実現を支援する視差調整用画面の表
示処理、ユーザの頭位置を検出して追跡する処理、立体
表示装置を調整するための画像を表示する処理などであ
る。
The "held information" may include information on any one of the format of images input to the stereoscopic image display device, the display order of viewpoint images, and the amount of parallax between viewpoint images. Further, in addition to sharing the held information, a process unique to stereoscopic image display may be shared by a plurality of programs. An example of the “processing unique to stereoscopic image display” is processing for determining retained information. Another example is a process related to a graphical user interface for determining a proper parallax, a process for displaying a parallax adjustment screen that supports realization of a proper parallax state, a process for detecting and tracking a user's head position, and a stereoscopic display device. And a process of displaying an image for adjusting.

【0046】本発明の別の態様は、立体画像処理装置に
関し、立体表示画像の立体感を調整するためのグラフィ
カルユーザインタフェイスをユーザに提供する立体感調
整部と、ユーザによる立体感の調整の結果判明する限界
視差を守る形で視差画像を生成する視差制御部とを含
む。
Another aspect of the present invention relates to a stereoscopic image processing apparatus, which includes a stereoscopic effect adjusting unit for providing a user with a graphical user interface for adjusting the stereoscopic effect of a stereoscopic display image, and a stereoscopic effect adjustment by the user. And a parallax control unit that generates a parallax image in a manner that protects the marginal parallax that is found as a result.

【0047】この装置はさらに、立体画像表示を適正化
するために参照すべき情報を取得する情報検出部と、取
得された情報にしたがって前記視差制御部で生成された
視差画像のフォーマットを変換する変換部とを含んでも
よい。
This device further converts the format of the parallax image generated by the parallax control unit according to the information detection unit that acquires information to be referred to in order to optimize the stereoscopic image display and the acquired information. The conversion unit may be included.

【0048】視差制御部は、三次元データに基づき、カ
メラパラメータを制御して、限界視差を守りつつ視差画
像を生成してもよいし、デプス情報付画像のデプスを制
御して視差画像を生成してもよいし、視差のある複数の
二次元画像の水平方向のシフト量を定めた後、視差画像
を生成してもよい。
The parallax control unit may control the camera parameter based on the three-dimensional data to generate the parallax image while keeping the limit parallax, or control the depth of the image with depth information to generate the parallax image. Alternatively, the parallax image may be generated after determining the horizontal shift amount of the plurality of two-dimensional images having parallax.

【0049】本発明の第5グループは、以上の立体画像
処理技術またはその関連技術を用いたひとつのアプリケ
ーション、またはビジネスモデルに関する。第4グルー
プのソフトウエアライブラリが利用可能である。以下、
第5グループに関する。
The fifth group of the present invention relates to one application or business model using the above stereoscopic image processing technique or its related technique. A fourth group of software libraries is available. Less than,
Regarding the fifth group.

【0050】本発明のある態様は立体画像処理方法に関
し、視差画像を立体表示するための適正視差をいったん
表示装置のハードウエアに依存しない表現形式へ変換
し、この表現形式による適正視差を異なる表示装置間で
流通する。
An aspect of the present invention relates to a stereoscopic image processing method, wherein the appropriate parallax for stereoscopically displaying a parallax image is once converted into an expression format that does not depend on the hardware of the display device, and the appropriate parallax according to this expression format is displayed differently. Distributed between devices.

【0051】本発明の別の態様も立体画像処理方法に関
し、第1の表示装置にて取得されたユーザの適正視差を
第2の表示装置に読み込むステップと、第2の表示装置
にて前記適正視差にしたがって視差画像間の視差を調整
するステップと、第2の表示装置から調整後の視差画像
を出力するステップとを含む。例えば、第1の表示装置
がユーザの通常利用する装置、第2の表示装置が別の個
所に設けられた装置である。
Another aspect of the present invention also relates to a stereoscopic image processing method, which comprises the step of reading the proper parallax of the user acquired by the first display device into the second display device, and the step of reading the proper parallax by the second display device. The method includes adjusting the parallax between the parallax images according to the parallax, and outputting the adjusted parallax image from the second display device. For example, the first display device is a device that the user normally uses, and the second display device is a device that is provided at another location.

【0052】本発明の別の態様は、立体画像処理装置に
関し、ネットワークを介して接続された第1の表示装
置、第2の表示装置およびサーバを含み、第1の表示装
置は、当該装置にて取得されたユーザの適正視差情報を
サーバに送信し、サーバは適正視差情報を受信してこれ
をユーザと関連づけて記録し、ユーザが第2の表示装置
にて画像データの出力を要求したとき、当該装置はサー
バからそのユーザの適正視差情報を読み出して視差を調
整したのち視差画像を出力する。
Another aspect of the present invention relates to a stereoscopic image processing apparatus, which includes a first display device, a second display device, and a server connected via a network, and the first display device corresponds to the device. When the proper parallax information of the user acquired by the above is transmitted to the server, the server receives the proper parallax information and records it in association with the user, and when the user requests output of image data on the second display device. The device reads out the appropriate parallax information of the user from the server, adjusts the parallax, and then outputs the parallax image.

【0053】なお、以上の構成要素の任意の組合せ、本
発明の表現を方法、装置、システム、記録媒体、コンピ
ュータプログラムなどの間で変換したものもまた、本発
明の態様として有効である。
It is to be noted that any combination of the above constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a recording medium, a computer program and the like are also effective as an aspect of the present invention.

【0054】[0054]

【発明の実施の形態】図1はユーザ10、スクリーン1
2、立体表示される再生オブジェクト14の位置関係を
示す。ユーザ10の眼間距離がE、ユーザ10とスクリ
ーン12の距離がD、表示されたときの再生オブジェク
ト14の幅がWである。再生オブジェクト14は立体表
示されているため、スクリーン12よりも近くに感知さ
れる画素、すなわち近置される画素と、スクリーン12
よりも遠くに感知される画素、すなわち遠置される画素
を有する。視差が付けられていない画素はスクリーン1
2上でちょうど両目から同じ位置に見えるため、スクリ
ーン12上に感知される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT FIG. 1 shows a user 10 and a screen 1.
2. Shows the positional relationship of the three-dimensionally displayed reproduction object 14. The eye distance of the user 10 is E, the distance between the user 10 and the screen 12 is D, and the width of the reproduction object 14 when displayed is W. Since the reproduction object 14 is stereoscopically displayed, the pixels that are sensed closer to the screen 12, that is, the pixels that are closer to the screen, and the screen 12 are displayed.
Pixels that are sensed further away, i.e., pixels that are farther away. Pixels without parallax are screen 1
It is perceived on the screen 12 as it looks exactly the same on both eyes from both eyes.

【0055】図2は、図1の理想的な表示を生成するた
めの撮影系を示す。二台のカメラ22、24の間隔をE
とし、それらから現実のオブジェクト20を見たときの
光軸交差位置までの距離(これを光軸交差距離という)
をDとし、スクリーン12と同じ幅を見込む画角で、幅
が現実にWであるオブジェクト20を撮影すれば、ふた
つのカメラから視差画像が得られる。これを図1のスク
リーン12へ表示すれば、図1の理想状態が実現する。
FIG. 2 shows a photographing system for generating the ideal display of FIG. Set the distance between the two cameras 22 and 24 to E
And the distance from them to the optical axis crossing position when the real object 20 is viewed (this is called the optical axis crossing distance)
Is D, and a parallax image can be obtained from the two cameras if the object 20 having the same width as the screen 12 and the actual width W is photographed. When this is displayed on the screen 12 of FIG. 1, the ideal state of FIG. 1 is realized.

【0056】図3、図4は、それぞれ図2の位置関係を
A倍(A<1)、B倍(B>1)した状態を示す。これ
らの位置関係で得られた視差画像でも、図1の理想状態
が実現する。すなわち、理想的な立体表示の基本は、
W:D:Eを一定にすることからはじまる。この関係が
視差の付け方の基礎にもなる。
FIGS. 3 and 4 show a state in which the positional relationship of FIG. 2 is multiplied by A (A <1) and B (B> 1). The ideal state of FIG. 1 is also realized with the parallax image obtained by these positional relationships. That is, the basics of an ideal stereoscopic display are
It begins with making W: D: E constant. This relationship is also the basis of how to add parallax.

【0057】図5から図10は、実施の形態においてオ
ブジェクト20の三次元データをもとに立体表示がなさ
れるまでの処理の大筋を示す。図5はモデル座標系、す
なわち、個々の三次元オブジェクト20がもっている座
標空間である。この空間で、オブジェクト20をモデリ
ングしたときの座標を与える。通常はオブジェクト20
の中心に原点をもってくる。
FIG. 5 to FIG. 10 show the outline of processing until stereoscopic display based on the three-dimensional data of the object 20 in the embodiment. FIG. 5 shows a model coordinate system, that is, a coordinate space that each three-dimensional object 20 has. Coordinates when the object 20 is modeled are given in this space. Usually object 20
Bring the origin to the center of.

【0058】図6はワールド座標系を示す。ワールド空
間は、オブジェクト20や床、壁を配置してシーンが形
成される広い空間である。図5のモデリングと図6のワ
ールド座標系の確定までを「三次元データの構築」と認
識できる。
FIG. 6 shows the world coordinate system. The world space is a large space in which a scene is formed by arranging objects 20, floors, and walls. The modeling of FIG. 5 and the determination of the world coordinate system of FIG. 6 can be recognized as “construction of three-dimensional data”.

【0059】図7はカメラ座標系を示す。ワールド座標
系の任意の位置から任意の方向に任意の画角でカメラ2
2を据えることにより、カメラ座標系への変換が行われ
る。カメラの位置、方向、画角がカメラパラメータであ
る。立体表示の場合は、ふたつのカメラについてパラメ
ータを定めるため、カメラ間隔と光軸交差位置も決め
る。また、ふたつのカメラの中点を原点にするために、
原点移動も行われる。
FIG. 7 shows the camera coordinate system. Camera 2 at any angle of view in any direction from any position in the world coordinate system
By setting 2, the conversion to the camera coordinate system is performed. The camera position, direction, and angle of view are camera parameters. In the case of stereoscopic display, parameters are set for two cameras, so the camera interval and optical axis crossing position are also set. Also, in order to make the middle point of the two cameras the origin,
The origin is also moved.

【0060】図8、図9は透視座標系を示す。まず図8
のように、表示すべき空間を前方投影面30と後方投影
面32でクリッピングする。後述するように、実施の形
態のひとつの特徴は、近置最大視差点のある面を前方投
影面30とし、遠置最大視差点のある面を後方投影面3
2にすることにある。クリッピングの後、このビューボ
リュームを図9のように直方体へ変換する。図8と図9
の処理を投影処理ともよぶ。
8 and 9 show a perspective coordinate system. First, FIG.
As described above, the space to be displayed is clipped by the front projection plane 30 and the rear projection plane 32. As will be described later, one feature of the embodiment is that the surface with the maximum disparity point in the near position is the front projection surface 30, and the surface with the maximum disparity point in the distance is the rear projection surface 3.
There is to be 2. After clipping, this view volume is converted into a rectangular parallelepiped as shown in FIG. 8 and 9
This process is also called a projection process.

【0061】図10はスクリーン座標系を示す。立体表
示の場合、複数のカメラそれぞれからの画像をそれぞれ
スクリーンのもっている座標系へ変換し、複数の二次元
画像、すなわち視差画像を生成する。
FIG. 10 shows the screen coordinate system. In the case of stereoscopic display, images from each of a plurality of cameras are converted into coordinate systems having screens, and a plurality of two-dimensional images, that is, parallax images are generated.

【0062】図11、図12、図13は、それぞれ一部
が異なる立体画像処理装置100の構成を示す。以下、
便宜上、それらの立体画像処理装置100をそれぞれ第
1、第2、第3の立体画像処理装置100ともよぶ。こ
れらの立体画像処理装置100は、装置内に一体に組み
込むことも可能であるが、ここでは図の複雑を避けて3
つに分けている。第1の立体画像処理装置100は描画
すべきオブジェクトと空間が三次元データの段階から入
手できる場合に効果的であり、したがって、主な入力を
三次元データとする。第2の立体画像処理装置100は
すでに視差が与えられている複数の二次元画像、すなわ
ち既存の視差画像の視差調整に効果的であり、したがっ
て、二次元の視差画像を入力する。第3の立体画像処理
装置100はデプス情報付画像のデプス情報を操作して
適正視差を実現するものであり、したがって、主に入力
をデプス情報付画像とする。これら3通りの入力を総称
して「オリジナルデータ」と表記している。
FIG. 11, FIG. 12 and FIG. 13 show the configuration of a stereoscopic image processing apparatus 100, which is partially different. Less than,
For the sake of convenience, those stereoscopic image processing apparatuses 100 are also referred to as first, second, and third stereoscopic image processing apparatuses 100, respectively. These three-dimensional image processing apparatus 100 can be integrated into the apparatus, but here, the complexity of the figure is avoided and
It is divided into two. The first stereoscopic image processing apparatus 100 is effective when the object and space to be drawn can be obtained from the stage of three-dimensional data, and therefore the main input is three-dimensional data. The second stereoscopic image processing apparatus 100 is effective for parallax adjustment of a plurality of two-dimensional images to which parallax has already been given, that is, existing parallax images, and thus inputs two-dimensional parallax images. The third stereoscopic image processing apparatus 100 operates the depth information of the image with depth information to realize proper parallax, and therefore the input is mainly the image with depth information. These three types of inputs are collectively referred to as “original data”.

【0063】第1〜第3の立体画像処理装置100を一
体化して実装する場合、それらの前処理部として「画像
形式判定部」を設け、三次元データ、視差画像、デプス
情報付画像を判定した後、第1〜第3の立体画像処理装
置100のうち最適なものを起動する構成としてもよ
い。
When the first to third stereoscopic image processing devices 100 are integrally mounted, an "image format determination unit" is provided as a preprocessing unit for determining the three-dimensional data, parallax image, and image with depth information. After that, the most suitable one of the first to third stereoscopic image processing apparatuses 100 may be activated.

【0064】第1の立体画像処理装置100は、立体表
示に対する立体感を設定するうえで、「初期設定」およ
び「自動調整」の機能をもつ。ユーザは立体表示された
画像に対し、自分の適正視差を範囲指定すると、これが
システムで取得され、以降、別の立体画像の表示の際、
予めこの適正視差が実現するよう変換処理が施されて表
示される。したがって、第1の立体画像処理装置100
により、ユーザは原則として一回だけ設定手続を経れ
ば、以降、自分に合った立体表示を楽しむことができ
る。
The first stereoscopic image processing apparatus 100 has the functions of "initial setting" and "automatic adjustment" in setting the stereoscopic effect for stereoscopic display. When the user specifies the appropriate parallax range for the stereoscopically displayed image, this is acquired by the system, and thereafter, when another stereoscopic image is displayed,
A conversion process is performed in advance so that this proper parallax is realized and the result is displayed. Therefore, the first stereoscopic image processing apparatus 100
Thus, as a general rule, the user can enjoy the stereoscopic display suitable for himself after the setting procedure is performed only once.

【0065】第1の立体画像処理装置100はさらに、
画像の周辺部の視差を人工的に緩和する「視差補正」と
いう副機能をもつ。既述のごとく、画像端部に近づくに
したがって複数の視点画像のずれが「二重像」として認
識されやすくなる。これはパララックスバリアや表示装
置のスクリーンの反りなど機構誤差が主因である。そこ
で、画像の周辺部で、1)近置視差と遠置視差をともに
減らす、2)近置視差を減らし遠置視差はそのままにす
る、3)近置視差、遠置視差を問わず、全体に遠置視差
のほうへシフトする、など、いろいろな方法を実施す
る。なお、この「視差補正」機能は第3の立体画像処理
装置100にも存在するが、入力データの違いにより、
処理は異なる。
The first stereoscopic image processing apparatus 100 further includes
It has a sub-function called "parallax correction" that artificially relaxes the parallax in the peripheral area of the image. As described above, the shifts of the plurality of viewpoint images are more likely to be recognized as “double images” as the image ends are approached. This is mainly due to mechanical errors such as the parallax barrier and the warp of the screen of the display device. Therefore, in the peripheral part of the image, 1) reduce both the near parallax and the far parallax, 2) reduce the near parallax and leave the far parallax unchanged, and 3) the entire parallax regardless of the near parallax and the far parallax. Various methods are implemented, such as shifting to the far parallax. Note that this “parallax correction” function also exists in the third stereoscopic image processing apparatus 100, but due to the difference in input data,
Processing is different.

【0066】第1の立体画像処理装置100は、立体表
示した画像に対するユーザからの応答をもとに立体感を
調整する立体感調整部112と、立体感調整部112で
特定された適正視差を保存する視差情報保持部120
と、視差情報保持部120から適正視差を読みだし、オ
リジナルデータから適正視差を有する視差画像を生成す
る視差制御部114と、表示装置のハードウエア情報を
取得し、また立体表示の方式を取得する機能を有する情
報取得部118と、情報取得部118で取得した情報を
もとに、視差制御部114で生成された視差画像の形式
を変更するフォーマット変換部116を含む。オリジナ
ルデータを単に三次元データとよぶが、厳密にはワール
ド座標系で記述されたオブジェクトおよび空間のデータ
がこれに当たる。
The first stereoscopic image processing apparatus 100 adjusts the stereoscopic effect based on the user's response to the stereoscopically displayed image to adjust the stereoscopic effect, and the appropriate parallax specified by the stereoscopic effect adjusting unit 112. Parallax information holding unit 120 to be saved
Then, the proper parallax is read from the parallax information holding unit 120, the parallax control unit 114 that generates the parallax image having the proper parallax from the original data, the hardware information of the display device, and the stereoscopic display method are obtained. An information acquisition unit 118 having a function and a format conversion unit 116 for changing the format of the parallax image generated by the parallax control unit 114 based on the information acquired by the information acquisition unit 118 are included. Original data is simply called three-dimensional data, but strictly speaking, it corresponds to object and space data described in the world coordinate system.

【0067】情報取得部118で取得する情報の例とし
て、立体表示の視点数、空間分割または時間分割等の立
体表示装置の方式、シャッタめがねの利用があるか否
か、多眼式の場合における視点画像の並び方、視差画像
の中に視差が反転する視点画像の並びがあるか否か、ヘ
ッドトラッキングの結果などがある。なお、ヘッドトラ
ッキングの結果だけは例外的に図示しない経路を経て直
接カメラ配置決定部132へ入力され、そこで処理され
る。
As an example of the information acquired by the information acquisition unit 118, the number of viewpoints for stereoscopic display, the system of the stereoscopic display device such as space division or time division, whether or not the shutter glasses are used, and the case of the multiview system It includes the way of arranging the viewpoint images, whether or not the viewpoint images in which the parallax is reversed exists in the parallax image, and the result of head tracking. Note that only the result of head tracking is exceptionally directly input to the camera placement determination unit 132 via a route (not shown) and processed there.

【0068】以上の構成は、ハードウエア的には、任意
のコンピュータのCPU、メモリ、その他のLSIで実
現でき、ソフトウエア的にはGUI機能、視差制御機能
その他の機能をもつプログラムなどによって実現される
が、ここではそれらの連携によって実現される機能ブロ
ックを描いている。したがって、これらの機能ブロック
がハードウエアのみ、ソフトウエアのみ、またはそれら
の組合せによっていろいろな形で実現できることは、当
業者には理解されるところであり、以降の構成について
もその事情は同様である。
The above configuration can be realized in terms of hardware by a CPU, memory, or other LSI of an arbitrary computer, and can be realized in terms of software by a program having a GUI function, a parallax control function, or other functions. However, here, the functional blocks realized by those collaborations are drawn. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof, and the same applies to the subsequent configurations.

【0069】立体感調整部112は指示取得部122と
視差特定部124を有する。指示取得部122は、立体
表示された画像に対してユーザが適正視差の範囲を指定
したとき、これを取得する。視差特定部124は、その
範囲をもとに、ユーザがこの表示装置を用いたときの適
正視差を特定する。適正視差は、表示装置のハードウエ
アに依存しない表現形式で表される。適正視差を実現す
ることにより、ユーザの生理に適合した立体視が可能に
なる。
The stereoscopic effect adjustment unit 112 has an instruction acquisition unit 122 and a parallax identification unit 124. The instruction acquisition unit 122 acquires the appropriate parallax range when the user specifies the range of the appropriate parallax with respect to the stereoscopically displayed image. The parallax identifying unit 124 identifies the appropriate parallax when the user uses this display device based on the range. The proper parallax is represented in a representation format that does not depend on the hardware of the display device. Realizing the proper parallax enables stereoscopic viewing that is suitable for the user's physiology.

【0070】視差制御部114は、まずカメラパラメー
タを仮設定するカメラ仮配置部130と、適正視差にし
たがって仮設定されたカメラパラメータを修正するカメ
ラ配置決定部132と、カメラパラメータが決まったと
き、複数のカメラの中点を原点とすべく原点移動処理を
行う原点移動部134と、前述の投影処理を行う投影処
理部138と、投影処理後、スクリーン座標系への変換
処理を行って視差画像を生成する二次元画像生成部14
2とを含む。また、必要な応じて画像周辺部の視差を緩
和するために空間歪み変換(以下単に歪変換ともいう)
を行う歪処理部136がカメラ仮配置部130とカメラ
配置決定部132の間に設けられている。歪処理部13
6は補正マップ保持部140から後述の補正マップを読
み出して利用する。
The parallax control unit 114 firstly determines the camera parameters by temporarily setting the camera temporary placement unit 130 that temporarily sets the camera parameters, the camera placement determination unit 132 that corrects the camera parameters that are temporarily set according to the appropriate parallax, and the camera parameters. An origin moving unit 134 that performs an origin moving process to set the middle point of a plurality of cameras as an origin, a projection processing unit 138 that performs the above-described projection process, and a parallax image by performing a conversion process to a screen coordinate system after the projection process. 2D image generation unit 14 for generating
Including 2 and. In addition, spatial distortion conversion (hereinafter also simply referred to as distortion conversion) in order to reduce parallax in the peripheral area of the image as necessary.
A distortion processing unit 136 for performing the above is provided between the temporary camera placement unit 130 and the camera placement determination unit 132. Distortion processing unit 13
Reference numeral 6 reads out and uses a correction map described later from the correction map holding unit 140.

【0071】なお、立体表示のために表示装置を調整す
る必要があれば、そのための図示しないGUIを追加し
てもよい。このGUIで、表示されている視差画像全体
を上下左右へ微小シフトして最適表示位置を確定するな
どの処理をなしてもよい。
If it is necessary to adjust the display device for stereoscopic display, a GUI (not shown) for that purpose may be added. With this GUI, the entire displayed parallax image may be finely shifted vertically and horizontally to determine the optimum display position.

【0072】図12の第2の立体画像処理装置100
は、複数の視差画像を入力とする。これを単に入力画像
ともよぶ。第2の立体画像処理装置100は、さきに第
1の立体画像処理装置100で取得された適正視差を読
み込み、入力画像の視差を調整して適正視差の範囲へ収
め、出力する。その意味で、第2の立体画像処理装置1
00は視差の「自動調整」機能を有する。ただし、それ
だけでなく、実際に立体表示が行われている際にユーザ
が立体感を変更したいとき、GUI機能を提供し、ユー
ザの指示にしたがって視差を変更する「手動調整」機能
もあわせもつ。
Second stereoscopic image processing apparatus 100 in FIG.
Takes a plurality of parallax images as input. This is also called an input image. The second three-dimensional image processing apparatus 100 reads the proper parallax previously acquired by the first three-dimensional image processing apparatus 100, adjusts the parallax of the input image to fit within the proper parallax range, and outputs the parallax. In that sense, the second stereoscopic image processing apparatus 1
00 has a function of “automatic adjustment” of parallax. However, in addition to that, when the user wants to change the stereoscopic effect while the stereoscopic display is actually performed, the GUI function is provided, and the “manual adjustment” function for changing the parallax according to the user's instruction is also provided.

【0073】すでに生成済みの視差画像の視差は通常変
更できるものではないが、第2の立体画像処理装置10
0によれば、視差画像を構成する視点画像の合成位置を
シフトすることで十分に実用に耐えるレベルで立体感が
変更できる。第2の立体画像処理装置100は、入力デ
ータが三次元データまで遡れない状況においても良好な
立体感調整機能を発揮する。以下、第1の立体画像処理
装置100との相違点を中心に述べる。
The parallax of the parallax image that has already been generated cannot normally be changed, but the second stereoscopic image processing apparatus 10
According to 0, the stereoscopic effect can be changed at a level that can be sufficiently put to practical use by shifting the combining position of the viewpoint images forming the parallax image. The second stereoscopic image processing apparatus 100 exerts a good stereoscopic effect adjusting function even in a situation where the input data cannot be traced back to the three-dimensional data. Hereinafter, differences from the first stereoscopic image processing apparatus 100 will be mainly described.

【0074】立体感調整部112は手動調整に利用され
る。指示取得部122は例えばスクリーンで「+n」
「−n」などの数値入力を実現し、その値が視差の変更
量として視差特定部124で特定される。数値と指示さ
れる立体感の関係にはいくとおりか考えられる。たとえ
ば、「+n」は立体感を強める指示、「−n」は弱める
指示で、nが大きくなるほど立体感に対する変更量が大
きいとしてもよい。また、「+n」は全体に近置方向へ
オブジェクトを移動する指示、「−n」は全体に遠置方
向へオブジェクトを移動する指示としてもよい。別の方
法として、nの値は指定せず、単に「+」と「−」のボ
タンのみ表示し、これをクリックするたびに視差が変更
される構成としてもよい。
The stereoscopic effect adjusting unit 112 is used for manual adjustment. The instruction acquisition unit 122 displays “+ n” on the screen, for example.
Numerical value input such as "-n" is realized, and the value is specified by the parallax specifying unit 124 as the parallax change amount. There are several possible relationships between the numerical values and the instructed three-dimensional effect. For example, “+ n” may be an instruction to strengthen the stereoscopic effect, and “−n” may be an instruction to weaken the stereoscopic effect. Further, “+ n” may be an instruction to move the object in the near direction to the whole, and “−n” may be an instruction to move the object in the far direction to the whole. Alternatively, the value of n may not be specified, and only the "+" and "-" buttons may be displayed, and the parallax may be changed each time the button is clicked.

【0075】第2の立体画像処理装置100は、視差量
検出部150と視差制御部152を有する。入力画像が
複数の視差画像の場合、視差量検出部150はそれらの
視差画像のヘッダ領域を検査し、画素数の形で記述され
た視差量、とくに近置最大視差画素数と遠置最大視差画
素数があればこれを取得する。視差量が記述されていな
ければ、マッチング部158がブロックマッチングなど
既知の手法を利用して視差画像間で対応点を検出するこ
とにより視差量を特定する。マッチング部158は画像
の中央部など重要領域だけに処理を施してもよいし、最
も重要な近置最大視差画素数に絞って検出してもよい。
検出された視差量は画素数の形で視差制御部152へ送
られる。
The second stereoscopic image processing apparatus 100 has a parallax amount detector 150 and a parallax controller 152. When the input image is a plurality of parallax images, the parallax amount detection unit 150 inspects the header areas of those parallax images, and the parallax amount described in the form of the number of pixels, in particular, the maximum parallax pixel and the maximum parallax distance. If there is a pixel count, this is acquired. If the amount of parallax is not described, the matching unit 158 identifies the amount of parallax by detecting corresponding points between parallax images using a known method such as block matching. The matching unit 158 may perform processing only on an important area such as the central portion of the image, or may detect only the most important close-up maximum parallax pixel number.
The detected amount of parallax is sent to the parallax control unit 152 in the form of the number of pixels.

【0076】視差制御部152の位置シフト部160
は、視点画像間の視差量が適正視差になるよう視差画像
を構成する視点画像の合成位置を水平方向へシフトす
る。シフトは、視点画像のいずれかについて行えばよ
い。位置シフト部160は別の動作モードも有し、ユー
ザが立体感調整部112を介して視差の増加または減少
を指示したとき、単純にこの指示にしたがって画像合成
位置を変更する。すなわち、位置シフト部160は適正
視差への自動調整機能と、ユーザによる手動調整機能の
ふたつを有する。
Position shift section 160 of parallax control section 152
Shifts the combined position of the viewpoint images forming the parallax images in the horizontal direction so that the parallax amount between the viewpoint images becomes an appropriate parallax. The shift may be performed on any of the viewpoint images. The position shift unit 160 also has another operation mode, and when the user gives an instruction to increase or decrease the parallax via the stereoscopic effect adjustment unit 112, the image shift position is simply changed according to this instruction. That is, the position shift unit 160 has two functions, an automatic adjustment function for proper parallax and a manual adjustment function by the user.

【0077】視差書込部164は、前述の視差量検出部
150のため、または別の用途のために、視差画像を構
成する複数の視点画像のいずれかのヘッダ領域に視差量
を画素数で書き込む。画像端調整部168は、位置シフ
ト部160によるシフトによって画像端に生じた画素の
欠落を埋める。
The parallax writing unit 164 uses the parallax amount as the number of pixels in the header area of any of a plurality of viewpoint images forming the parallax image for the above-described parallax amount detecting unit 150 or for another purpose. Write. The image edge adjustment unit 168 fills in the pixel loss that occurs at the image edge due to the shift by the position shift unit 160.

【0078】図13の第3の立体画像処理装置100
は、デプス情報付画像を入力とする。第3の立体画像処
理装置100は、適正視差が実現するようデプスを調整
する。また、前述の「視差補正」機能をもつ。視差制御
部170の歪処理部174は、補正マップ保持部176
に保存された補正マップにしたがい、後述の要領で歪変
換を実施する。歪変換後のデプス情報と画像は二次元画
像生成部178へ入力され、ここで視差画像が生成され
る。この二次元画像生成部178は、第1の立体画像処
理装置100の二次元画像生成部142とは異なり、こ
こで適正視差が考慮される。デプス情報付画像も画像と
しては二次元であるため、二次元画像生成部178は、
図示しないが内部に第2の立体画像処理装置100の位
置シフト部160に似た機能をもち、デプス情報にした
がって画像内の画素を水平方向にずらし、立体感を生成
する。このとき、後述の処理により、適正視差が実現さ
れる。
Third stereoscopic image processing apparatus 100 of FIG.
Takes an image with depth information as input. The third stereoscopic image processing apparatus 100 adjusts the depth so that the proper parallax is realized. It also has the above-mentioned “parallax correction” function. The distortion processing unit 174 of the parallax control unit 170 includes a correction map holding unit 176.
According to the correction map stored in, the distortion conversion is performed as described later. The depth information and the image after the distortion conversion are input to the two-dimensional image generation unit 178, where the parallax image is generated. The two-dimensional image generation unit 178 is different from the two-dimensional image generation unit 142 of the first stereoscopic image processing device 100, and the proper parallax is considered here. Since the image with depth information is also two-dimensional as an image, the two-dimensional image generation unit 178
Although not shown, it has a function similar to the position shift unit 160 of the second stereoscopic image processing apparatus 100, and shifts the pixels in the image in the horizontal direction according to the depth information to generate a stereoscopic effect. At this time, proper parallax is realized by the processing described below.

【0079】以上の構成における各立体画像処理装置1
00の各部の処理動作とその原理は以下のとおりであ
る。図14(a)、図14(b)は、第1の立体画像処
理装置100の立体感調整部112による適正視差の特
定のプロセスにおいてそれぞれ表示された左眼画像20
0、右眼画像202を示す。それぞれの画像には5個の
黒丸が表示されており、上にいくほど近置かつ大きな視
差、下へいくほど遠置かつ大きな視差が付けられてい
る。
Each stereoscopic image processing apparatus 1 having the above configuration
The processing operation of each unit of 00 and its principle are as follows. FIGS. 14A and 14B show the left-eye image 20 displayed in the process of identifying the proper parallax by the stereoscopic effect adjusting unit 112 of the first stereoscopic image processing apparatus 100.
0, the right eye image 202 is shown. Five black circles are displayed in each image, and the closer to the top and the greater the parallax, the lower toward the far the greater parallax.

【0080】図15はこれら5個の黒丸を表示したと
き、ユーザ10に感知される距離感を模式的に示す。ユ
ーザ10はこれら5個の距離感の範囲を「適正」と応答
しており、この応答を指示取得部122が取得する。同
図では、視差が異なる5個の黒丸が同時に、または順に
表示され、許容できる視差であるか否かをユーザ10が
入力していく。一方、図16では表示自体は1個の黒丸
で行うが、その視差を連続的に変更し、ユーザ10が遠
置と近置それぞれの方向において許容する限界にきたと
き、応答する。応答は通常のキー操作、マウス操作、音
声による入力等、それ自体は既知の技術を利用すればよ
い。
FIG. 15 schematically shows the sense of distance perceived by the user 10 when these five black circles are displayed. The user 10 responds that the range of these five senses of distance is “appropriate”, and the instruction acquisition unit 122 acquires this response. In the figure, five black circles with different parallaxes are displayed simultaneously or in sequence, and the user 10 inputs whether or not the parallax is acceptable. On the other hand, in FIG. 16, the display itself is performed by one black circle, but the parallax is continuously changed, and a response is given when the user 10 reaches the limit allowed in each of the far position and the near position. For the response, a known key operation such as normal key operation, mouse operation, or voice input may be used.

【0081】図15、図16のいずれの場合でも、指示
取得部122は適正視差を範囲として取得でき、その近
置側および遠置側の限界視差が決まる。近置最大視差
は、自分に最も近い位置に見える点に許す近さに対応す
る視差、遠置最大視差は、自分から最も遠い位置に見え
る点に許す遠さに対応する視差である。ただし、一般に
はユーザの生理上の問題から近置最大視差をケアすべき
ことが多く、以下、近置最大視差のみを限界視差とよぶ
場合もある。
In both cases of FIG. 15 and FIG. 16, the instruction acquisition unit 122 can acquire the appropriate parallax as a range, and the limit parallax on the near side and the far side is determined. The maximum parallax is the parallax corresponding to the closeness allowed to the point that is closest to the user, and the maximum far parallax is the parallax corresponding to the distance allowed to the point that is the farthest from the user. However, in general, it is often necessary to care for the maximal parallax due to the physiological problem of the user, and hereinafter, only the maximal parallax may be referred to as the marginal parallax.

【0082】図17は、立体表示される画像が三次元デ
ータから取り出される場合において、実際に2視点の視
差を調整する原理を示す。まず、ユーザが決めた限界視
差を仮配置されたカメラの見込み角に変換する。角度表
現をとることにより、表示装置のハードウエアから独立
した汎用表現になる。同図のごとく、近置と遠置の限界
視差は画素数でM、Nとあらわすことができ、カメラの
画角θが表示画面の水平画素数Lに相当するので、限界
視差画素数の見込み角である、近置最大見込み角φと遠
置最大見込み角ψがθ、M、N、Lであらわされる。
FIG. 17 shows the principle of actually adjusting the parallax between two viewpoints when a stereoscopically displayed image is extracted from three-dimensional data. First, the marginal parallax determined by the user is converted into the view angle of the temporarily arranged camera. The angle expression provides a general-purpose expression independent of the display device hardware. As shown in the figure, the limit parallax between the near position and the far position can be represented by M and N in terms of the number of pixels, and the angle of view θ of the camera corresponds to the number of horizontal pixels L of the display screen. The angles, the near maximum prospective angle φ and the farthest maximum prospective angle ψ, which are angles, are represented by θ, M, N, and L.

【0083】 tan(φ/2)=Mtan(θ/2)/L tan(ψ/2)=Ntan(θ/2)/L 次にこの情報を3次元空間内での2視点画像の取り出し
に適用する。図18のように、まず基本表現空間T(そ
の奥行きもTと表記)を決める。ここでは、基本表現空
間Tはオブジェクトの配置に対する制限から決めるとす
る。基本表現空間Tの前面である前方投影面30からカ
メラ配置面、すなわち視点面208までの距離をSとす
る。TやSはユーザが指定できる。視点は2つあり、こ
れらの光軸交差面210の視点面208からの距離をD
とする。光軸交差面210と前方投影面30までの距離
をAとする。
Tan (φ / 2) = Mtan (θ / 2) / L tan (ψ / 2) = Ntan (θ / 2) / L Next, this information is used to extract a two-viewpoint image in a three-dimensional space. Apply. As shown in FIG. 18, first, a basic expression space T (its depth is also expressed as T) is determined. Here, it is assumed that the basic expression space T is determined based on the restrictions on the arrangement of objects. Let S be the distance from the front projection plane 30, which is the front surface of the basic expression space T, to the camera arrangement plane, that is, the viewpoint plane 208. The user can specify T and S. There are two viewpoints, and the distance of the optical axis intersection plane 210 from the viewpoint plane 208 is D
And A is the distance between the optical axis intersecting surface 210 and the front projection surface 30.

【0084】つぎに、基本表現空間T内での近置および
遠置の限界視差をそれぞれP、Qとすると、 E:S=P:A E:S+T=Q:T−A が成立する。Eは視点間距離である。いま、視差の付け
られていない画素である点Gは両カメラからの光軸K2
が光軸交差面210上で交差する位置にあり、光軸交差
面210がスクリーン面の位置となる。近置最大視差P
を生む光線K1は前方投影面30上で交差し、遠置最大
視差Qを生む光線K3は後方投影面32上で交差する。
Next, assuming that the parallaxes of the near position and the far position in the basic expression space T are P and Q, respectively, E: S = P: A E: S + T = Q: TA E is the distance between viewpoints. Now, the point G, which is a pixel with no parallax, is the optical axis K2 from both cameras.
Are intersecting with each other on the optical axis intersecting surface 210, and the optical axis intersecting surface 210 is the position of the screen surface. Maximum parallax P
The light ray K1 that produces the light beam intersects on the front projection plane 30, and the light ray K3 that produces the maximum distant parallax Q intersects on the rear projection plane 32.

【0085】PとQは、図19のようにφ、ψを用い
て、 P=2(S+A)tan(φ/2) Q=2(S+A)tan(ψ/2) で表され、結果として、 E=2(S+A)tan(θ/2)・(SM+SN+T
N)/(LT) A=STM/(SM+SN+TN) が得られる。いま、SとTは既知であるから、こうして
A及びEが自動的に決まり、したがって光軸交差距離D
とカメラ間距離Eが自動的に決まり、カメラパラメータ
が確定する。カメラ配置決定部132はこれらのパラメ
ータにしたがってカメラの配置を決定すれば、以降投影
処理部138、二次元画像生成部142の処理を各カメ
ラからの画像に対して独立してなすことにより、適正視
差をもった視差画像が生成および出力できる。以上のご
とく、EとAはハードウエアの情報を含んでおらず、ハ
ードウエアに依存しない表現形式が実現される。
P and Q are represented by P = 2 (S + A) tan (φ / 2) Q = 2 (S + A) tan (ψ / 2) using φ and ψ as shown in FIG. , E = 2 (S + A) tan (θ / 2) · (SM + SN + T
N) / (LT) A = STM / (SM + SN + TN) is obtained. Now that S and T are known, A and E are automatically determined in this way, and therefore the optical axis crossing distance D
And the inter-camera distance E is automatically determined, and the camera parameters are fixed. If the camera placement determination unit 132 determines the placement of the cameras according to these parameters, the projection processing unit 138 and the two-dimensional image generation unit 142 perform the processing independently for the images from the respective cameras, so that the proper processing is performed. A parallax image having parallax can be generated and output. As described above, E and A do not include hardware information, and a hardware-independent expression format is realized.

【0086】以降、別の画像を立体表示する際にもこの
AまたはDとEを守るようカメラを配置すれば、自動的
に適正視差が実現できる。適正視差の特定から理想的な
立体表示までのプロセスはすべて自動化できるため、こ
の機能をソフトウエアライブラリとして提供すれば、コ
ンテンツやアプリケーションを作成するプログラマは立
体表示のためのプログラミングを意識する必要がない。
また、L、M、Nを画素数で表すと、Lは表示範囲を示
すので、全画面による表示であるか、画面の一部による
表示であるかをLで指示することができる。Lもハード
ウエアに依存しないパラメータである。
After that, if a camera is arranged so as to protect A or D and E even when another image is stereoscopically displayed, proper parallax can be automatically realized. The process from specifying the proper parallax to the ideal 3D display can be automated, so if this function is provided as a software library, programmers who create contents and applications do not need to be aware of programming for 3D display. .
Further, when L, M, and N are represented by the number of pixels, L indicates a display range, and therefore L can indicate whether the display is a full screen or a part of the screen. L is also a parameter that does not depend on hardware.

【0087】図20は4台のカメラ22、24、26、
28による4眼式のカメラ配置を示す。正確には、第1
のカメラ22と第2のカメラ24の間など、隣接するカ
メラ間で適正視差になるよう前述のAとEを決めていく
べきだが、簡易的な処理としては、より中央に近い第2
のカメラ24と第3のカメラ26の間で決めたAおよび
Eを他のカメラ間に流用してもほぼ同様の効果が得られ
る。
FIG. 20 shows four cameras 22, 24, 26,
28 shows a four-lens camera arrangement by 28. To be exact, the first
The above-mentioned A and E should be determined so that the parallax between adjacent cameras such as between the second camera 22 and the second camera 24 is close to the center.
Even if A and E determined between the camera 24 and the third camera 26 are used for other cameras, almost the same effect can be obtained.

【0088】なお、Tはオブジェクトの配置に対する制
限としたが、基本的な三次元空間の大きさとしてプログ
ラムにより決められていてもよい。この場合、プログラ
ム全体を通して必ずこの基本表現空間T内にのみオブジ
ェクトを配置することもできるし、効果的な表示のため
に、ときどき故意にこの空間を飛び出すようにオブジェ
クトに視差を与えてもよい。
Although T is a limitation on the arrangement of objects, it may be determined by a program as the size of the basic three-dimensional space. In this case, it is possible to arrange the object only in this basic expression space T throughout the program, or for the purpose of effective display, sometimes the object is given a parallax so as to intentionally jump out of this space.

【0089】別の例として、三次元空間におけるオブジ
ェクトのうち最も近置されるものと最も遠置されるもの
の座標に対してTを決定してもよく、これを実時間で行
えば、必ず基本表現空間Tにオブジェクトが配置でき
る。オブジェクトをつねに基本表現空間Tに入れること
の例外として、「一定時間の位置の平均が基本表現空間
T内にあればよい」という緩和条件で運用すれば、短時
間の例外を作ることもできる。さらに、基本表現空間T
を定めるオブジェクトを静的なものに限ってもよく、こ
の場合、動的なオブジェクトが基本表現空間Tからはみ
出す例外的な動作を与えることができる。さらに別の例
として、すでにオブジェクトを配置した空間を基本表現
空間の幅Tのサイズに縮める変換を行ってもよいし、既
述の操作と組み合わせてもよい。
As another example, T may be determined with respect to the coordinates of the object located closest and the object located farthest in the three-dimensional space. Objects can be placed in the expression space T. As an exception to always putting an object in the basic expression space T, a short-time exception can also be made by operating under the relaxation condition that "the average of positions for a certain period of time needs to be in the basic expression space T". Furthermore, the basic expression space T
The object that defines s may be limited to a static object, and in this case, a dynamic object can give an exceptional operation that extends out of the basic expression space T. As still another example, the space in which the objects are already arranged may be reduced to the size of the width T of the basic expression space, or may be combined with the above-described operation.

【0090】なお、第1の立体画像処理装置100の立
体感調整部112がユーザに表示する画像として、二重
像がでやすいものにすれば、限界視差は小さめに定ま
り、他の画像を表示したときの二重像の出現頻度を低下
させることができる。二重像が出やすい画像として、オ
ブジェクトと背景との色や明るさが対照的なものが知ら
れており、限界視差を特定する段階、すなわち初期設定
の際にはそうした画像を利用すればよい。
If the stereoscopic effect adjusting unit 112 of the first stereoscopic image processing apparatus 100 displays a double image as an image to be displayed to the user, the marginal parallax is set to a small value and another image is displayed. It is possible to reduce the frequency of appearance of double images when doing. It is known that an image in which the double image is likely to appear has contrasting colors and brightness between an object and a background, and such an image may be used at the stage of specifying the parallax, that is, at the time of initial setting. .

【0091】図21から図36までは、第1の立体画像
処理装置100の歪処理部136による処理とその原理
を示す。図21は第1の立体画像処理装置100の補正
マップ保持部140に格納された補正マップの一例を概
念的に示す。このマップは直接視差を補正するもので、
その全体がそのまま視差画像に対応しており、周辺部に
いくにしたがって小視差になる。図22はこの補正マッ
プにしたがって歪処理部136がカメラ配置を決め、そ
れを受けたカメラ配置決定部132によるカメラパラメ
ータの操作の結果生じる視差の変化を示す。ふたつのカ
メラの左右視点位置から正面方向を見るときは「通常視
差」が付けられ、一方、正面から大きく外れた方向を見
るときは「小視差」が付けられる。実際には、周辺にい
くにしたがって、カメラ配置決定部132はカメラ間隔
を近づけていく。
21 to 36 show processing by the distortion processing unit 136 of the first stereoscopic image processing apparatus 100 and its principle. FIG. 21 conceptually shows an example of the correction map stored in the correction map holding unit 140 of the first stereoscopic image processing apparatus 100. This map directly corrects parallax,
The whole corresponds to the parallax image as it is, and the parallax becomes smaller toward the periphery. FIG. 22 shows a change in parallax as a result of the camera arrangement determined by the distortion processing unit 136 according to this correction map and the camera arrangement determination unit 132 receiving the camera arrangement having received the operation. "Normal parallax" is attached when looking in the front direction from the left and right viewpoint positions of the two cameras, while "small parallax" is attached when looking in a direction largely deviated from the front. In reality, the camera arrangement determination unit 132 makes the camera interval closer as it goes to the periphery.

【0092】図23はカメラ配置決定部132が歪処理
部136の指示にしたがってカメラの配置を変えて視差
を変える別の例を示す。ここでは、ふたつのカメラのう
ち、左側のカメラのみを移動させながら、画像周辺に向
かうにしたがって「通常視差」→「中視差」→「小視
差」と視差が変化している。この方法のほうが図22に
比べて計算コストが低い。
FIG. 23 shows another example in which the camera placement determining unit 132 changes the placement of cameras according to an instruction from the distortion processing unit 136 to change parallax. Here, of the two cameras, while moving only the left camera, the parallax changes as “normal parallax” → “medium parallax” → “small parallax” toward the periphery of the image. This method has a lower calculation cost than that of FIG.

【0093】図24は補正マップの別の例を示す。この
マップも視差を変更するもので、画像の中央付近は通常
視差のまま触れず、それ以外の視差補正領域において視
差を徐々に小さくする。図25はカメラ配置決定部13
2がこのマップにしたがって変化させるカメラ位置を示
す。カメラの方向が正面から大きく外れたとき、はじめ
て左カメラの位置が右カメラへ寄り、「小視差」が付け
られている。
FIG. 24 shows another example of the correction map. This map also changes the parallax, and the normal parallax is not touched near the center of the image, and the parallax is gradually reduced in other parallax correction areas. FIG. 25 shows the camera placement determining unit 13.
2 indicates the camera position which is changed according to this map. When the direction of the camera deviates significantly from the front, the position of the left camera shifts to the right camera for the first time, and "small parallax" is added.

【0094】図26は補正マップの別の例を概念的に示
す。このマップは視点からオブジェクトまでの距離感を
補正するもので、それを実現するために、カメラ配置決
定部132がふたつのカメラの光軸交差距離を調整す
る。画像周辺に行くにしたがって光軸交差距離を小さく
すれば、オブジェクトは相対的に遠置方向へ奥まって見
えるため、とくに近置視差を小さくする意味で目的を達
する。光軸交差距離を小さくするために、カメラ配置決
定部132はカメラの光軸方向を変えればよく、いずれ
か一方のカメラの向きを変えればよい。図27は、図2
6のマップによって二次元画像を生成するときの光軸交
差位置、または光軸交差面210の変化を示す。画像周
辺ほど光軸交差面210がカメラに寄る。
FIG. 26 conceptually shows another example of the correction map. This map corrects the sense of distance from the viewpoint to the object, and in order to realize it, the camera placement determination unit 132 adjusts the optical axis intersection distance of the two cameras. If the optical axis crossing distance is made smaller toward the periphery of the image, the object appears to be relatively deep in the distant direction, so that the object is achieved especially in the sense of reducing the near parallax. In order to reduce the optical axis crossing distance, the camera placement determining unit 132 may change the optical axis direction of the camera, and may change the direction of either one of the cameras. 27 is the same as FIG.
6 shows changes in the optical axis crossing position or the optical axis crossing surface 210 when a two-dimensional image is generated by the map of FIG. The optical axis crossing plane 210 is closer to the camera in the vicinity of the image.

【0095】図28は距離感に関する別の補正マップ、
図29は図28のマップにしたがってカメラ配置決定部
132が歪処理部136の指示にしたがって光軸交差面
210を変化させる様子を示す。この例では、画像中央
領域では補正をせずにオブジェクトを通常位置に配置
し、画像周辺領域でオブジェクトの位置を補正する。そ
の目的のために、図29において画像中央付近では光軸
交差面210に変化はなく、ある点を超えてから光軸交
差面210がカメラへ寄ってくる。図29では、左カメ
ラだけ向きをかえて対応している。
FIG. 28 shows another correction map relating to the sense of distance.
FIG. 29 shows how the camera placement determination unit 132 changes the optical axis intersection plane 210 according to the instruction from the distortion processing unit 136 according to the map of FIG. In this example, the object is arranged at the normal position without correction in the central area of the image, and the position of the object is corrected in the peripheral area of the image. For that purpose, in FIG. 29, the optical axis intersection plane 210 does not change near the center of the image, and the optical axis intersection plane 210 approaches the camera after passing a certain point. In FIG. 29, only the left camera is changed in direction.

【0096】図30(a)〜(f)は歪処理部136に
よる別の歪変換を示す。いままでの例と違い、カメラ位
置を変えるのではなく、カメラ座標系で三次元空間自体
を直接歪ませる。図30(a)〜(f)において、長方
形領域はもとの空間の上面図、斜線領域は変換後の空間
の上面図を示す。例えば、図30(a)のもとの空間の
点Uは、変換後点Vに移る。これはこの点が遠置方向へ
移動されたことを意味する。図30(a)では、空間は
周辺部へ向かうほど奥行き方向について矢印の方向に押
しつぶされ、近置の場合も遠置の場合も、同図の点Wの
ごとく、一定の距離感に近い距離感をもたされる。その
結果、画像周辺部では距離感が揃い、特別に近置される
オブジェクトもなくなり、二重像の問題を解決するとと
もに、ユーザの生理に適合しやすい表現となる。
FIGS. 30A to 30F show another distortion conversion by the distortion processing unit 136. Unlike the previous examples, instead of changing the camera position, the 3D space itself is distorted directly in the camera coordinate system. 30A to 30F, the rectangular area shows a top view of the original space, and the hatched area shows a top view of the space after conversion. For example, the point U in the original space of FIG. 30A moves to the point V after conversion. This means that this point has been moved in the distant direction. In FIG. 30 (a), the space is crushed toward the peripheral portion in the direction of the arrow in the depth direction, and in both the near position and the far position, the distance is close to a certain sense of distance, like the point W in the figure. It gives a feeling. As a result, the sense of distance is uniform in the peripheral area of the image, and no specially placed object is eliminated. This solves the problem of double images and provides an expression that is easily adapted to the user's physiology.

【0097】図30(b)、図30(c)、図30
(d)、図30(e)はいずれも画像周辺部で距離感を
一定値に近づける変換の変形例を示し、図30(f)は
すべての点を遠置方向へ変換する例を示している。
30 (b), 30 (c), 30
(D) and FIG. 30 (e) each show a modified example of conversion that brings the sense of distance close to a constant value in the image peripheral portion, and FIG. 30 (f) shows an example of conversion of all points in the distant direction. There is.

【0098】図31は、図30(a)の変換を実現する
ための原理を示す。直方体空間228は、第1のカメラ
22と第2のカメラ24の投影処理が行われる空間を含
む。第1のカメラ22のビューボリュームは、そのカメ
ラの画角と前方投影面230および後方投影面232で
定まり、第2のカメラ24のそれは、そのカメラの画角
と前方投影面234および後方投影面236で定まる。
歪処理部136はこの直方体空間228に歪変換を施
す。原点は直方体空間228の中心とする。多眼式の場
合はカメラが増えるだけで変換原理は同じである。
FIG. 31 shows the principle for realizing the conversion of FIG. 30 (a). The rectangular parallelepiped space 228 includes a space in which the projection processing of the first camera 22 and the second camera 24 is performed. The view volume of the first camera 22 is determined by the angle of view of the camera and the front projection plane 230 and the rear projection plane 232, and that of the second camera 24 is the view angle of the camera and the front projection plane 234 and the rear projection plane 232. Determined by 236.
The distortion processing unit 136 applies distortion conversion to the rectangular parallelepiped space 228. The origin is the center of the rectangular parallelepiped space 228. In the case of the multi-view type, the conversion principle is the same except that the number of cameras is increased.

【0099】図32は歪変換の一例で、Z方向の縮小変
換を採用している。実際には空間内の個々のオブジェク
トに対して処理を行う。図33はこの変換を視差補正マ
ップになぞらえて表現したもので、Y軸上が通常視差で
あり、Xの絶対値が増えるほど視差が小さくなり、X=
±Aが視差なしとなる。ここではZ方向のみの縮小変換
なので、変換式は以下のとおりである。
FIG. 32 shows an example of distortion conversion, which employs reduction conversion in the Z direction. Actually, the processing is performed for each object in the space. FIG. 33 represents this conversion by comparing it to a parallax correction map. The normal parallax is on the Y axis, and the parallax becomes smaller as the absolute value of X increases, and X =
± A means no parallax. Here, the conversion formula is as follows, since the conversion is the reduction conversion only in the Z direction.

【0100】[0100]

【数1】 変換を図34で説明する。まず、X≧0かつZ≧0の範
囲を考える。点(X0,Y0,Z0)が縮小処理により
点(X0,Y0,Z1)に移動したとき、縮小率Sz
は、 Sz=Z1/Z0 =CE/CD である。Cの座標は(X0,Y0,0)でDの座標は
(X0,Y0,B)である。
[Equation 1] The conversion will be described with reference to FIG. First, consider the range of X ≧ 0 and Z ≧ 0. When the point (X0, Y0, Z0) is moved to the point (X0, Y0, Z1) by the reduction processing, the reduction ratio Sz
Is Sz = Z1 / Z0 = CE / CD. The coordinates of C are (X0, Y0, 0) and the coordinates of D are (X0, Y0, B).

【0101】Eは直線と平面の交点であり、座標を(X
0,Y0,Z2)とすると、Z2は下のように求めるこ
とができる。
E is the intersection of a straight line and a plane, and its coordinates are (X
0, Y0, Z2), Z2 can be obtained as below.

【0102】Z=B−X×B/A (平面) X=X0,Y=Y0 (直線) Z2=B−X0×B/A したがって、 Sz=CE/CD =(B−X0×B/A)/B =1−X0/A Xに対して一般に、 Sz=1−X/A となる。XとZの他の範囲についても同様の計算を行う
と、以下の結果が得られ、変換が検証できる。
Z = B−X × B / A (plane) X = X0, Y = Y0 (straight line) Z2 = B−X0 × B / A Therefore, Sz = CE / CD = (B−X0 × B / A) ) / B = 1-X0 / A For X, generally, Sz = 1-X / A. When the same calculation is performed for other ranges of X and Z, the following results are obtained and the conversion can be verified.

【0103】X≧0のとき、Sz=1−X/A X<0のとき、Sz=1+X/A 図35は歪変換の別の例を示す。より厳密にはカメラか
ら放射状に撮影が行われることを考慮し、X軸、Y軸方
向の縮小処理も組み合わせている。ここでは、ふたつの
カメラの中心をカメラ位置の代表として変換を行う。変
換式は以下の通りである。
When X ≧ 0, Sz = 1−X / A When X <0, Sz = 1 + X / A FIG. 35 shows another example of distortion conversion. Strictly speaking, in consideration of the radial photographing from the camera, the reduction processing in the X-axis and Y-axis directions is also combined. Here, the conversion is performed with the center of the two cameras as a representative of the camera positions. The conversion formula is as follows.

【0104】[0104]

【数2】 図36はこの変換を検証する。ここでも、X≧0かつZ
≧0の範囲を考える。点(X0,Y0,Z0)が縮小処
理により点(X1,Y1,Z1)に移動したとき、縮小
率Sx、Sy、Szは、 Sx=(X1−X2)/(X0−X2) =(X4−X2)/(X3−X2) Sy=(Y1−Y2)/(Y0−Y2) =(Y4−Y2)/(Y3−Y2) Sz=(Z1−Z2)/(Z0−Z2) =(Z4−Z2)/(Z3−Z2) となる。Eは平面と直線の交点なので、前述と同様S
x、Sy、Szを求めることができる。
[Equation 2] FIG. 36 verifies this conversion. Again, X ≧ 0 and Z
Consider the range of ≧ 0. When the point (X0, Y0, Z0) is moved to the point (X1, Y1, Z1) by the reduction process, the reduction ratios Sx, Sy, Sz are Sx = (X1-X2) / (X0-X2) = (X4 -X2) / (X3-X2) Sy = (Y1-Y2) / (Y0-Y2) = (Y4-Y2) / (Y3-Y2) Sz = (Z1-Z2) / (Z0-Z2) = (Z4 -Z2) / (Z3-Z2). Since E is the intersection of a plane and a straight line, S is the same as above.
x, Sy, and Sz can be calculated.

【0105】なお、以上のように変換後の空間を平面の
集合で表すと、面同士の接線を境に処理が変化し、場合
により違和感が生じうる。その場合は曲面で接続する
か、曲面だけで空間を構成してもよい。計算は曲面と直
線の交点Eを求めるものに変わるだけである。
When the space after conversion is represented by a set of planes as described above, the processing changes at the boundary between the tangents of the planes, which may cause discomfort. In that case, the surfaces may be connected by curved surfaces, or the space may be formed only by curved surfaces. The calculation is only changed to obtain the intersection E of the curved surface and the straight line.

【0106】また、以上の例では、縮小率は同一直線C
D上では同じとなるが、重み付けを行ってもよい。例え
ばSx、Sy、Szに、カメラからの距離Lに対する重
み付け関数G(L)をかければよい。
In the above example, the reduction ratio is the same straight line C.
Although it is the same on D, weighting may be performed. For example, a weighting function G (L) for the distance L from the camera may be applied to Sx, Sy, and Sz.

【0107】図37から図40までは、第3の立体画像
処理装置100の歪処理部174による処理とその原理
を示す。図37は第3の立体画像処理装置100に入力
されたデプス情報付画像のデプスマップを示し、ここで
はデプスの範囲がK1〜K2の値をもつとする。ここで
は近置のデプスを正、遠置のデプスを負で表す。
37 to 40 show processing by the distortion processing unit 174 of the third stereoscopic image processing apparatus 100 and its principle. FIG. 37 shows a depth map of the image with depth information input to the third stereoscopic image processing apparatus 100, and here it is assumed that the depth range has values K1 to K2. Here, the depth in the near position is expressed as positive, and the depth in the far position is expressed as negative.

【0108】図38は元のデプス範囲240と変換後の
デプス範囲242の関係を示す。デプスは画像周辺部に
行くにしたがって一定値に近づく。歪処理部174はこ
の補正にしたがうようデプスマップを変換する。垂直方
向に視差をもたせる場合も同様である。この変換もZ方
向の縮小のみなので、以下の式で表現できる。
FIG. 38 shows the relationship between the original depth range 240 and the converted depth range 242. The depth approaches a certain value as it goes to the periphery of the image. The distortion processing unit 174 converts the depth map according to this correction. The same applies to the case of providing parallax in the vertical direction. Since this conversion is also only reduction in the Z direction, it can be expressed by the following formula.

【0109】[0109]

【数3】 なお、SzはXの値により場合分けされ、 X≧0のとき、Sz=1−2X/L X<0のとき、Sz=1+2X/L となる。以上の変換により、図39に示す新たな要素を
もつ新たなデプスマップが生成される。
[Equation 3] Note that Sz is divided into cases according to the value of X, and when X ≧ 0, Sz = 1−2X / L, and when X <0, Sz = 1 + 2X / L. By the above conversion, a new depth map having new elements shown in FIG. 39 is generated.

【0110】図40はデプスマップに対する別の歪変換
の原理を示す。空間は、より厳密にはユーザ10から放
射状に観察されるので、X軸、Y軸方向の縮小処理も組
み合わせている。ここでは、眼間中心を観察位置として
いる。具体的な処理は図36の場合と同じ式になる。な
お、もともとのデプスマップはZ値しか持たないが、こ
の計算を行う場合はX値とY値も保持することになる。
Z値はX方向あるいはY方向の画素シフト量に変換され
るが、X値とY値はそれらに対するオフセット値として
保持すればよい。
FIG. 40 shows another principle of distortion conversion for the depth map. More precisely, the space is observed radially by the user 10, so the reduction processing in the X-axis and Y-axis directions is also combined. Here, the center between the eyes is the observation position. The specific processing is the same as in the case of FIG. Although the original depth map has only Z values, X values and Y values are also held when this calculation is performed.
The Z value is converted into the pixel shift amount in the X direction or the Y direction, and the X value and the Y value may be held as offset values for them.

【0111】いずれにしても、歪処理部174で変換さ
れたデプスマップともとの画像は二次元画像生成部17
8へ入力され、ここで適正視差になるよう水平方向にシ
フトした合成処理が行われる。その詳細は後述する。
In any case, the depth map and the original image converted by the distortion processing unit 174 are the two-dimensional image generation unit 17
8 is input, and the synthesizing process is performed here by shifting in the horizontal direction so as to obtain an appropriate parallax. The details will be described later.

【0112】図41〜図51は、第2の立体画像処理装
置100の位置シフト部160、およびその延長と把握
できる第3の立体画像処理装置100の二次元画像生成
部178の処理を示す。図41は位置シフト部160に
よるふたつの視差画像の合成位置のシフト原理を示す。
同図のごとく、初期状態では右眼画像Rと左眼画像Lの
位置は一致している。しかし、同図上部のごとく左眼画
像Lを相対的に右へシフトすると、近置点の視差は増加
し、遠置点の視差は減少する。逆に、同図下部のごとく
左眼画像Lを相対的に左へシフトすると、近置点の視差
は減少し、遠置点の視差は増加する。
41 to 51 show the processing of the position shift section 160 of the second stereoscopic image processing apparatus 100 and the two-dimensional image generation section 178 of the third stereoscopic image processing apparatus 100 that can be grasped as an extension thereof. FIG. 41 shows the principle of shifting the combined position of two parallax images by the position shift unit 160.
As shown in the figure, the positions of the right-eye image R and the left-eye image L match in the initial state. However, when the left-eye image L is relatively shifted to the right as in the upper part of the figure, the parallax at the near position increases and the parallax at the far position decreases. On the contrary, when the left-eye image L is relatively shifted to the left as shown in the lower part of the figure, the parallax at the near point decreases and the parallax at the far point increases.

【0113】以上が視差画像のシフトによる視差調整の
本質である。画像のシフトは一方であってもよいし、両
方を互いに逆方向にシフトしてもよい。またこの原理か
ら、立体表示方式は、メガネ方式やメガネなし方式を問
わず、視差を利用している全ての方式に適用できること
がわかる。多視点映像や垂直方向の視差に対しても同様
の処理が可能である。
The essence of parallax adjustment by shifting the parallax image has been described above. The image may be shifted in one direction, or both may be shifted in the opposite directions. Further, from this principle, it is understood that the stereoscopic display method can be applied to all methods that use parallax, regardless of the glasses method or the method without glasses. Similar processing can be performed on multi-view images and vertical parallax.

【0114】図42はシフト処理を画素レベルで示す。
左眼画像200と右眼画像202には、ともに第1四角
形250と第2四角形252が写っている。第1四角形
250には近置視差がついており、その視差量を正数で
あらわすと、「6画素」となる。これに対し第2四角形
252は遠置視差がついており、その視差量を負数であ
らわすと、「−6画素」となる。ここで、この視差量を
それぞれF2、F1とする。
FIG. 42 shows the shift processing at the pixel level.
A first quadrangle 250 and a second quadrangle 252 are both shown in the left-eye image 200 and the right-eye image 202. The first quadrangle 250 has a near parallax, and when the parallax amount is represented by a positive number, it is “6 pixels”. On the other hand, the second quadrangle 252 has a distant parallax, and when the parallax amount is represented by a negative number, it is “−6 pixels”. Here, the parallax amounts are F2 and F1, respectively.

【0115】一方、ユーザが保有する表示装置の適正視
差がJ1〜J2であることが分かったとする。位置シフ
ト部160は両画像の合成開始位置を互いに(J2−F
2)画素シフトさせる。図43はそのシフトの終了後の
状態で、いま、F1=−6、F2=6であり、また、J
1=−5、J2=4であったとすると、合成開始位置は
互いに−2画素、つまり遠置方向に全体がシフトする方
向にずらされることになる。最終的な視差量は図43の
ごとく、E1=−8、E2=4となり、少なくとも近置
方向に関して限界視差内に収まる。一般に遠置方向と比
較して、近置方向の二重像の方が違和感が強いとされ、
かつ被写体は近置方向に配置された状態で撮影されるこ
とが多いので、基本的に近置方向の視差を限界内に収め
ることが望ましい。以下に処理例を示す。
On the other hand, it is assumed that the proper parallax of the display device owned by the user is found to be J1 to J2. The position shift unit 160 sets the combining start positions of both images to each other (J2-F
2) Pixel shift. FIG. 43 shows the state after the end of the shift, where F1 = -6 and F2 = 6, and J
If 1 = −5 and J2 = 4, the combining start positions are shifted by −2 pixels from each other, that is, in the direction in which the whole is shifted in the distance direction. As shown in FIG. 43, the final parallax amounts are E1 = -8 and E2 = 4, and are within the parallax at least in the near direction. It is generally said that the double image in the near direction is more uncomfortable than the far direction,
In addition, since the subject is often photographed in a state of being arranged in the close-up direction, it is basically desirable to keep the parallax in the close-up direction within the limit. A processing example is shown below.

【0116】1.近置点が限界視差外で、遠置点が限界
視差内の場合は、近置点を限界視差点にシフトする。た
だし、遠置点の視差が眼間距離に到達すれば処理をやめ
る。 2.近置点が限界視差外で、遠置点が限界視差外の場合
は、近置点を限界視差点にシフトする。ただし、遠置点
の視差が眼間距離に到達すれば処理をやめる。 3.近置点も遠置点も限界視差内の場合は処理しない。 4.近置点が限界視差内で、遠置点が限界視差外の場合
は、遠置点を限界視差点にシフトするが、処理の途中で
近置点が限界視差点に到達すれば処理をやめる。
1. When the near position is outside the limit parallax and the far position is within the limit parallax, the near position is shifted to the limit parallax point. However, if the parallax of the distant point reaches the interocular distance, the processing is stopped. 2. When the near position is outside the limit parallax and the far position is outside the limit parallax, the near position is shifted to the limit parallax point. However, if the parallax of the distant point reaches the interocular distance, the processing is stopped. 3. If both the near point and the far point are within the limit parallax, they are not processed. 4. When the near point is within the limit parallax and the far point is outside the limit parallax, the far point is shifted to the limit parallax point, but if the near point reaches the limit parallax point during the processing, the processing is stopped. .

【0117】図44は合成位置のシフトによる画像端の
欠落を示す。ここでは左眼画像200と右眼画像202
のシフト量が1画素であり、左眼画像200の右端と右
眼画像202の左端にそれぞれ1画素幅の欠落部分26
0が生じる。画像端調整部168はこのとき、図44の
ように画像端の画素列を複製して水平画素数を補償す
る。
FIG. 44 shows the loss of the image edge due to the shift of the combining position. Here, the left eye image 200 and the right eye image 202
Has a shift amount of 1 pixel, and a missing portion 26 having a width of 1 pixel at each of the right end of the left-eye image 200 and the left end of the right-eye image 202
0 occurs. At this time, the image edge adjusting unit 168 duplicates the pixel row at the image edge as shown in FIG. 44 to compensate for the number of horizontal pixels.

【0118】これ以外の方法として、欠落部分260は
黒または白など特定の色で表示してもよいし、非表示に
してもよい。さらに初期画像のサイズと同じになるよう
に切り出しや付け加え処理を施してもよい。また、予め
初期画像のサイズを実際の表示サイズより大きくしてお
き、欠落部分260が表示に影響しないよう配慮しても
よい。
As another method, the missing portion 260 may be displayed in a specific color such as black or white, or may be hidden. Further, clipping or adding processing may be performed so that the size becomes the same as the size of the initial image. Further, the size of the initial image may be made larger than the actual display size in advance so that the missing portion 260 does not affect the display.

【0119】図45は第2の立体画像処理装置100に
よる視差の手動調整の流れである。同図のごとく、まず
視差画像として左右画像が人手で作成され(S10)、
これがネットワークその他のルートで配布される(S1
2)。これを第2の立体画像処理装置100が受け取り
(S14)、この図の例では、まずはそのままシフトな
しの通常の状態で画像を合成して表示する(S16)。
すなわち、ここでは適正視差がまだ取得されていない場
合や位置シフト部160を動作させていない場合を考え
ている。つづいて、立体表示された視差画像に対してユ
ーザが立体感調整部112を介して視差の調整を指示
し、これを位置シフト部160が「手動調整モード」で
受け、画像合成位置を調整して表示する(S18)。な
お、S10とS12は画像クリエータの手続270、S
14以降は第2の立体画像処理装置100の手続272
である。また、図示しないが、このシフト量をヘッダに
記録し、次回から参照して合成すれば、再調整の手間が
省ける。
FIG. 45 shows the flow of manual adjustment of parallax by the second stereoscopic image processing apparatus 100. As shown in the figure, first, the left and right images are manually created as parallax images (S10),
This is distributed through the network and other routes (S1
2). The second three-dimensional image processing apparatus 100 receives this (S14), and in the example of this figure, first, the images are combined and displayed in the normal state without shift (S16).
That is, here, it is considered that the proper parallax has not yet been acquired or the position shift unit 160 has not been operated. Subsequently, the user instructs parallax adjustment on the stereoscopically displayed parallax image via the stereoscopic effect adjusting unit 112, and the position shift unit 160 receives the instruction in the “manual adjustment mode” to adjust the image combining position. Is displayed (S18). The steps S10 and S12 are steps 270 and S of the image creator.
From 14 onward, the procedure 272 of the second stereoscopic image processing apparatus 100.
Is. Further, although not shown, if this shift amount is recorded in the header and is referred to from the next time and synthesized, the labor of readjustment can be saved.

【0120】図46は第2の立体画像処理装置100に
よる自動調整の流れを示す。画像クリエータの手続27
0である、左右画像の生成(S30)、画像配布(S3
2)は図45と同じである。また、第2の立体画像処理
装置100の手続272のうち、画像受取(S34)も
同様である。つぎに、視差量検出部150のマッチング
部158によって視差画像間に予め付けられている視
差、とくに最大視差を検出し(S36)、一方、視差情
報保持部120から適正視差、とくに限界視差を取得す
る(S38)。この後、位置シフト部160が前述の処
理によって限界視差を満たすよう画像の合成位置をシフ
トし(S40)、視差書込部164、画像端調整部16
8、フォーマット変換部116による処理を経て立体表
示される(S42)。
FIG. 46 shows the flow of automatic adjustment by the second stereoscopic image processing apparatus 100. Image Creator Procedure 27
Left and right image generation (S30) and image distribution (S3)
2) is the same as FIG. 45. Further, in the procedure 272 of the second stereoscopic image processing apparatus 100, the image reception (S34) is also the same. Next, the matching unit 158 of the parallax amount detection unit 150 detects the parallax attached in advance between parallax images, particularly the maximum parallax (S36), while obtaining the proper parallax, particularly the parallax from the parallax information holding unit 120. Yes (S38). After that, the position shift unit 160 shifts the composite position of the images so as to satisfy the limit parallax by the above-described processing (S40), and the parallax writing unit 164 and the image edge adjusting unit 16 are performed.
8. The stereoscopic display is performed through the processing by the format conversion unit 116 (S42).

【0121】図47は、第2の立体画像処理装置100
によるさらに別の自動調整の流れを示す。画像クリエー
タの手続270で左右画像の生成(S50)した後、こ
の時点で最大視差を検出して(S52)視差画像のいず
れかの視点画像のヘッダへ記録しておく(S54)。こ
の検出は対応点マッチングで実施してもよいが、クリエ
ータが手作業で視差画像を生成したときは、その編集過
程で当然に既知であるため、これを記録すればよい。こ
の後、画像を配布する(S56)。
FIG. 47 shows a second stereoscopic image processing apparatus 100.
3 shows another flow of automatic adjustment by. After the left and right images are generated (S50) in the procedure 270 of the image creator, the maximum parallax is detected at this point (S52) and recorded in the header of any viewpoint image of the parallax images (S54). This detection may be performed by corresponding point matching, but when the creator manually generates the parallax image, it is naturally known in the editing process, and therefore it may be recorded. Then, the image is distributed (S56).

【0122】一方、第2の立体画像処理装置100の手
続272のうち、画像受取(S58)は図46と同様で
ある。つぎに、視差量検出部150のヘッダ検査部15
6によって前述の最大視差をヘッダから読み出す(S6
0)。一方、視差情報保持部120から限界視差を取得
し(S62)、以下の処理S64、S66は図46の処
理S40、S42とそれぞれ同じである。この方法によ
れば、最大視差を計算する必要がない。また、画像全体
に適切な立体感を実現できる。さらに、シフト量はヘッ
ダに記録できるため、原画像自体を損なうおそれがな
い。なお、図示しないが、図46でも検出された最大視
差をヘッダに記録すれば、つぎからは図47の手続にし
たがって処理することができる。
On the other hand, in the procedure 272 of the second stereoscopic image processing apparatus 100, image reception (S58) is the same as that in FIG. Next, the header inspection unit 15 of the parallax amount detection unit 150.
The maximum parallax described above is read from the header according to S6 (S6).
0). On the other hand, the limit parallax is acquired from the parallax information holding unit 120 (S62), and the following processes S64 and S66 are the same as the processes S40 and S42 of FIG. 46, respectively. According to this method, it is not necessary to calculate the maximum parallax. Further, it is possible to realize an appropriate stereoscopic effect on the entire image. Furthermore, since the shift amount can be recorded in the header, there is no risk of damaging the original image itself. Although not shown, if the maximum parallax detected in FIG. 46 is also recorded in the header, the process can be performed in accordance with the procedure of FIG. 47.

【0123】なお、多眼式でも同様の処理が可能で、そ
れぞれ隣り合う視点画像間の視差量に対して同様の処理
を行えばよい。ただし、実際にはそれら複数の視点画像
間の視差のうちの最大の視差によって全視点画像間の
「最大視差」とみなし、合成位置のシフト量を決めても
よい。
The same processing can be performed in the multi-view system, and the same processing may be performed for the parallax amount between adjacent viewpoint images. However, in actuality, the maximum parallax among the parallaxes between the plurality of viewpoint images may be regarded as the “maximum parallax” between all viewpoint images, and the shift amount of the combined position may be determined.

【0124】ヘッダ情報は多視点画像の少なくともひと
つにあればよいとしたが、多視点画像が1枚の画像に合
成されている場合はその画像のヘッダを利用すればよ
い。
The header information is required to be present in at least one of the multi-view images, but if the multi-view images are combined into one image, the header of that image may be used.

【0125】さらに、すでに合成済みの画像が配布され
る場合もあるが、その場合はいちど逆変換処理で画像を
分離し、合成位置シフト量を計算して再合成するか、そ
れと結果が同じになるよう画素の並べ替え処理を行えば
よい。
Further, there is a case where an image which has already been combined is distributed, but in that case, the image is separated by the inverse transform processing once and the combined position shift amount is calculated and recombined, or the same result is obtained. The pixels may be rearranged so that

【0126】図48〜図51は、合成位置のシフトをデ
プス情報付画像について行う処理を示す。これは第3の
立体画像処理装置100の二次元画像生成部178にて
行われる。図48、図49はそれぞれデプス情報付画像
を構成する平面画像204とデプスマップである。ここ
では近置デプスを正、遠置デプスを負で表している。オ
ブジェクトとして第1四角形250、第2四角形25
2、第3四角形254が存在し、第1四角形250はデ
プス「4」、第2四角形252は「2」、第3四角形2
54は「−4」である。第1四角形250は最近置点、
第2四角形252は中間近置点、第3四角形254が最
遠置点にある。
48 to 51 show a process of shifting the composite position for an image with depth information. This is performed by the two-dimensional image generation unit 178 of the third stereoscopic image processing device 100. FIG. 48 and FIG. 49 are a plane image 204 and a depth map that form an image with depth information, respectively. Here, the near depth is expressed as positive and the far depth is expressed as negative. First quadrilateral 250 and second quadrilateral 25 as objects
2 and a third quadrangle 254 exist, the first quadrangle 250 is depth “4”, the second quadrangle 252 is “2”, the third quadrangle 2
54 is "-4". The first square 250 is the nearest point,
The second quadrangle 252 is at the intermediate proximity point, and the third quadrangle 254 is at the farthest point.

【0127】二次元画像生成部178は、もとの平面画
像204を基礎として、まず、各画素をデプスマップの
値分だけシフトさせる処理を行い、他方の視点画像を生
成する。基準を左眼画像とすると、もとの平面画像20
4はそのまま左眼画像となる。第1四角形250を左に
4画素、第2四角形252を左に2画素、第3四角形2
54を右に4画素シフトし、図50のごとく、右眼画像
202が作成される。画像端調整部168は、オブジェ
クトの移動による画素情報の欠落部分260を視差が
「0」である、背景と判断される近接画素によって埋め
る。
The two-dimensional image generation unit 178 first performs a process of shifting each pixel by the value of the depth map based on the original plane image 204, and generates the other viewpoint image. If the reference is the left-eye image, the original planar image 20
4 becomes the left-eye image as it is. The first quadrangle 250 has 4 pixels on the left, the second quadrangle 252 has 2 pixels on the left, and the third quadrangle 2
54 is shifted to the right by 4 pixels, and the right-eye image 202 is created as shown in FIG. The image edge adjusting unit 168 fills the missing portion 260 of the pixel information due to the movement of the object with the adjacent pixels which have the parallax of “0” and which are determined to be the background.

【0128】つづいて二次元画像生成部178は、適正
視差を満たすデプスを計算する。デプスの範囲をK1〜
K2とし、各画素のデプス値をGxyとすると、デプス
マップは図37においてHxyをGxyへ変更した形に
なる。また、ユーザが保有する表示装置の適正視差がJ
1〜J2であることが分かったとする。この場合、その
デプスマップにおいて、各画素のデプス値Gは以下のよ
うに変換され、新しいデプス値Fxyが得られる。
Subsequently, the two-dimensional image generator 178 calculates the depth satisfying the proper parallax. Depth range K1
When K2 is set and the depth value of each pixel is set to Gxy, the depth map has a form in which Hxy is changed to Gxy in FIG. In addition, the proper parallax of the display device owned by the user is J
Suppose it is found to be 1 to J2. In this case, in the depth map, the depth value G of each pixel is converted as follows, and a new depth value Fxy is obtained.

【0129】Fxy=J1+(Gxy−K1)×(J2
−J1)/(K2−K1) 前述の例では、K1=−4、K2=4であり、また、J
1=−3、J2=2であったとすると、この変換式によ
り、図49のデプスマップは図51のデプスマップへ変
換される。すなわち、「4」は「2」へ、「2」は
「1」へ、「−4」は「−3」へそれぞれ変換される。
K1とK2の間の中間値は、J1とJ2の間に変換され
る。例えば第2四角形252はGxy=2で、Fxy=
0.75となる。Fxyが整数にならない場合は、四捨
五入や近置視差が小さくなるような処理を施せばよい。
Fxy = J1 + (Gxy-K1) × (J2
-J1) / (K2-K1) In the above example, K1 = -4, K2 = 4, and J
Assuming that 1 = −3 and J2 = 2, the depth map of FIG. 49 is converted to the depth map of FIG. 51 by this conversion formula. That is, "4" is converted into "2", "2" is converted into "1", and "-4" is converted into "-3".
The intermediate value between K1 and K2 is transformed between J1 and J2. For example, the second quadrangle 252 has Gxy = 2 and Fxy =
It becomes 0.75. If Fxy is not an integer, it may be rounded off or processed to reduce the parallax.

【0130】なお、上述の変換式は線形変換の例である
が、さらにGxyに対する重み付け関数F(Gxy)を
かけたり、その他いろいろな非線形変換も考えられる。
また、もとの平面画像204から、オブジェクトを互い
に逆方向にシフトして新たに左右画像を生成することも
できる。多眼式の場合は同様の処理を複数回行い、多視
点画像を生成すればよい。
Although the above-mentioned conversion formula is an example of linear conversion, a weighting function F (Gxy) for Gxy may be further applied and various other non-linear conversions may be considered.
It is also possible to shift the objects in the opposite directions from the original plane image 204 to newly generate left and right images. In the case of the multi-view system, the same process may be performed multiple times to generate a multi-view image.

【0131】以上が実施の形態に係る立体画像処理装置
100の構成および動作である。立体画像処理装置10
0は装置として説明したが、これはハードウエアとソフ
トウエアの組合せでもよく、ソフトウエアのみでも構成
できる。その場合、立体画像処理装置100の任意の部
分をライブラリ化して各種プログラムから呼びだし可能
にすると利便性が高い。プログラマは立体表示の知識が
必要となる部分のプログラミングをスキップできる。ユ
ーザにとっては、ソフトウエアやコンテンツによらず、
立体表示に関する操作、すなわちGUIが共通になり、
設定した情報は他のソフトウエアでも共有できるため再
設定の手間が省ける。
The above is the configuration and operation of the stereoscopic image processing apparatus 100 according to the embodiment. Stereoscopic image processing apparatus 10
Although 0 is described as a device, this may be a combination of hardware and software, or can be configured by software only. In that case, it is convenient if an arbitrary part of the stereoscopic image processing apparatus 100 is made into a library so that it can be called from various programs. The programmer can skip programming that requires knowledge of stereoscopic display. For users, regardless of software or content,
Operations related to stereoscopic display, that is, GUI becomes common,
Since the set information can be shared with other software, the trouble of re-setting can be saved.

【0132】なお、立体表示に関する処理ではなく、情
報を複数のプログラム間で共有するだけでも有用であ
る。各種プログラムはその情報を参照して画像の状態を
決定できる。共有される情報の例は、前述の立体画像処
理装置100の情報取得部118で取得される情報であ
る。この情報を図示しない記録部または補正マップ保持
部140などに保持しておけばよい。
Note that it is also useful to share information among a plurality of programs rather than the processing relating to stereoscopic display. Various programs can determine the state of the image by referring to the information. An example of the shared information is the information acquired by the information acquisition unit 118 of the stereoscopic image processing apparatus 100 described above. This information may be held in a recording unit (not shown), the correction map holding unit 140, or the like.

【0133】図52〜図54は、以上の立体画像処理装
置100をライブラリとして利用する一例を示す。図5
2は立体表示ライブラリ300の用途を示す。立体表示
ライブラリ300は複数のプログラムA302、プログ
ラムB304、プログラムC306などから関数を呼び
出す形で参照される。パラメータファイル318には前
述の情報のほか、ユーザの適正視差などが格納されてい
る。立体表示ライブラリ300はAPI(アプリケーシ
ョンプログラムインタフェイス)310を介して複数の
装置A312、装置B314、装置C316などで利用
される。
52 to 54 show an example in which the stereoscopic image processing apparatus 100 described above is used as a library. Figure 5
Reference numeral 2 indicates the usage of the stereoscopic display library 300. The stereoscopic display library 300 is referred to by calling a function from a plurality of programs A302, programs B304, programs C306, and the like. In addition to the above-mentioned information, the parameter file 318 stores the proper parallax of the user. The stereoscopic display library 300 is used by a plurality of devices A312, B314, C316, etc. via an API (application program interface) 310.

【0134】プログラムA302等の例として、ゲー
ム、いわゆるWeb3Dと呼ばれる三次元アプリケーシ
ョン、三次元デスクトップ画面、三次元地図、二次元画
像である視差画像のビュア、デプス情報付画像などのビ
ュアが考えられる。ゲームの中でも、当然ながら座標の
使い方が違うものがあるが、立体表示ライブラリ300
はそれにも対応できる。
As an example of the program A302 and the like, a game, a so-called Web3D three-dimensional application, a three-dimensional desktop screen, a three-dimensional map, a viewer of a parallax image which is a two-dimensional image, a viewer with depth information, and the like can be considered. Of course, some games use different coordinates, but the stereoscopic display library 300
Can handle that.

【0135】一方、装置A312等の例として、2眼や
多眼のパララックスバリア式、シャッタめがね方式、偏
光めがね方式など、視差を利用する任意の立体表示装置
である。
On the other hand, an example of the device A312 or the like is an arbitrary stereoscopic display device utilizing parallax, such as a twin-lens or multi-lens parallax barrier system, a shutter glasses system, and a polarization glasses system.

【0136】図53は三次元データソフト402に立体
表示ライブラリ300が組み込まれた例を示す。三次元
データソフト402はプログラム本体404と、そのた
めに適正視差を実現する立体表示ライブラリ300と、
撮影指示処理部406を備える。プログラム本体404
はユーザインタフェイス410を介してユーザと連絡す
る。撮影指示処理部406は、ユーザの指示にしたがっ
て、プログラム本体404の動作中の所定の場面を仮想
的にカメラ撮影する。撮影された画像は画像記録装置4
12に記録される。また、立体表示装置408へ出力さ
れる。
FIG. 53 shows an example in which the stereoscopic display library 300 is incorporated in the three-dimensional data software 402. The three-dimensional data software 402 is a program body 404, and a stereoscopic display library 300 that realizes proper parallax therefor,
A shooting instruction processing unit 406 is provided. Program body 404
Contacts the user via the user interface 410. The shooting instruction processing unit 406 virtually shoots a predetermined scene during operation of the program body 404 according to a user instruction. The captured image is the image recording device 4
12 is recorded. Further, it is output to the stereoscopic display device 408.

【0137】たとえば三次元データソフト402がゲー
ムソフトであるとする。その場合、ユーザはゲーム中は
立体表示ライブラリ300によって適切な立体感を体験
しながらゲームを実行できる。ゲーム中、ユーザが記録
に残したい場合、たとえば、対戦型戦闘ゲームで完全勝
利をおさめたとき、ユーザインタフェイス410を介し
て撮影指示処理部406へ指示を出し、その場面を記録
する。その際、立体表示ライブラリ300を利用し、後
に立体表示装置408で再生したときに適正視差となる
よう視差画像が生成され、これが画像記録装置412の
電子アルバム等へ記録される。なお、記録を視差画像と
いう二次元画像で行うことにより、プログラム本体40
4の有する三次元データ自体は流出せず、著作権保護の
面にも配慮することができる。
For example, assume that the three-dimensional data software 402 is game software. In that case, the user can play the game while experiencing an appropriate stereoscopic effect by the stereoscopic display library 300 during the game. During the game, if the user wants to keep a record, for example, when he or she completes a victory in a battle-type battle game, an instruction is given to the shooting instruction processing unit 406 via the user interface 410 and the scene is recorded. At this time, the stereoscopic display library 300 is used to generate a parallax image so as to have an appropriate parallax when reproduced on the stereoscopic display device 408 later, and this is recorded in an electronic album or the like of the image recording device 412. Note that the program body 40 can be recorded by recording a two-dimensional image called a parallax image.
The three-dimensional data itself possessed by 4 does not leak, and it is possible to consider copyright protection.

【0138】図54は、図53の三次元データソフト4
02をネットワーク利用型のシステム430へ組み込ん
だ例を示す。ゲーム機432は図示しないネットワーク
を介し、サーバ436と、ユーザ端末434に接続され
る。ゲーム機432は、いわゆるアーケードゲーム用
で、通信部442、三次元データソフト402およびゲ
ームをローカルに表示する立体表示装置440を備え
る。三次元データソフト402は図53のものである。
三次元データソフト402から立体表示装置440へ表
示される視差画像は立体表示装置440について予め最
適設定されている。三次元データソフト402による視
差の調整は、後述のように通信部442を介してユーザ
へ画像を送信する際に利用される。ここで利用する表示
装置は、視差を調整して立体画像を生成する機能を備え
ていればよく、必ずしも立体表示ができる装置でなくて
もよい。
FIG. 54 shows the three-dimensional data software 4 of FIG.
An example in which 02 is incorporated into a network utilization type system 430 is shown. The game machine 432 is connected to the server 436 and the user terminal 434 via a network (not shown). The game machine 432 is for so-called arcade games, and includes a communication unit 442, three-dimensional data software 402, and a stereoscopic display device 440 that locally displays the game. The three-dimensional data software 402 is shown in FIG.
The parallax image displayed on the stereoscopic display device 440 from the three-dimensional data software 402 is optimally set in advance for the stereoscopic display device 440. The adjustment of parallax by the three-dimensional data software 402 is used when transmitting an image to the user via the communication unit 442 as described later. The display device used here only needs to have a function of adjusting the parallax to generate a stereoscopic image, and is not necessarily a device capable of stereoscopic display.

【0139】ユーザ端末434は、通信部454、立体
画像を見るためのビュアプログラム452および立体画
像をローカルに表示する任意のサイズおよびタイプの立
体表示装置450を備える。ビュアプログラム452に
は立体画像処理装置100が実装されている。
The user terminal 434 includes a communication unit 454, a viewer program 452 for viewing a stereoscopic image, and a stereoscopic display device 450 of any size and type for locally displaying the stereoscopic image. The stereo image processing apparatus 100 is installed in the viewer program 452.

【0140】サーバ436は、通信部460、ゲームに
関連してユーザが仮想的に撮影した画像を記録する画像
保持部462、およびユーザの適正視差情報、ユーザの
メールアドレスその他の個人情報などをユーザと対応づ
けて記録するユーザ情報保持部464を備える。サーバ
436は例えばゲームの公式サイトとして機能し、ゲー
ム実行中にユーザが気に入った場面や名勝負の動画また
は静止画を記録する。立体表示は動画、静止画のいずれ
でも可能である。
The server 436 stores information such as the communication unit 460, the image holding unit 462 for recording images virtually taken by the user in relation to the game, the proper parallax information of the user, the user's mail address and other personal information. And a user information holding unit 464 for recording in association with The server 436 functions as, for example, an official website of the game, and records a scene that the user liked during the game execution, a moving image or a still image of a famous game. Stereoscopic display is possible with both moving images and still images.

【0141】以上の構成における画像撮影の一例は以下
の要領で行われる。ユーザは予めユーザ端末434の立
体表示装置450で立体表示を行い、立体画像処理装置
100の機能をもとに適正視差を取得し、これを通信部
454を介してサーバ436へ通知し、ユーザ情報保持
部464へ格納してもらう。この適正視差は、ユーザの
保有する立体表示装置450のハードウエアに関係のな
い汎用的な記述になっている。
An example of image capturing with the above configuration is performed as follows. The user performs stereoscopic display on the stereoscopic display device 450 of the user terminal 434 in advance, acquires the proper parallax based on the function of the stereoscopic image processing device 100, and notifies the server 436 via the communication unit 454 of the user information. The data is stored in the holding unit 464. This proper parallax is a general-purpose description irrelevant to the hardware of the stereoscopic display device 450 owned by the user.

【0142】ユーザは任意のタイミングでゲーム機43
2によってゲームをする。その間、立体表示装置440
には最初に設定されていた視差、またはユーザが手動調
整した視差による立体表示がなされる。ゲームのプレイ
中、またはリプレイ中、ユーザが画像の記録を希望する
と、ゲーム機432の三次元データソフト402に内蔵
された立体表示ライブラリ300が、ふたつの通信部4
42、460を介してサーバ436のユーザ情報保持部
464からこのユーザの適正視差を取得し、それに合わ
せて視差画像を生成し、再びふたつの通信部442、4
60を介して画像保持部462へ仮想的に撮影された画
像に関する視差画像を格納する。ユーザは自宅へ帰った
のち、この視差画像をユーザ端末434へダウンロード
すれば、所望の立体感で立体表示ができる。その際も、
ビュアプログラム452のもつ立体画像処理装置100
により、視差の手動調整は可能である。
The user can use the game machine 43 at any timing.
Play a game with 2. Meanwhile, the stereoscopic display device 440
The stereoscopic display is performed using the parallax initially set or the parallax manually adjusted by the user. When the user desires to record an image during the game play or replay, the stereoscopic display library 300 built in the three-dimensional data software 402 of the game machine 432 causes the two communication units 4 to operate.
42 and 460, the proper parallax of the user is acquired from the user information holding unit 464 of the server 436, a parallax image is generated in accordance with the proper parallax, and the two communication units 442 and 4 are again provided.
The parallax image regarding the virtually captured image is stored in the image holding unit 462 via 60. After returning to home, the user can download this parallax image to the user terminal 434 to perform stereoscopic display with a desired stereoscopic effect. In that case,
Stereo image processing apparatus 100 included in viewer program 452
This allows manual adjustment of parallax.

【0143】以上、この応用例によれば、本来、表示装
置のハードウエアごと、ユーザごとに設定しなければな
らない立体感に関するプログラミングが立体画像処理装
置100および立体表示ライブラリ300に集約されて
おり、ゲームソフトのプログラマは立体表示に関する複
雑な要件を一切気にする必要がない。これはゲームソフ
トに限らず、立体表示を利用する任意のソフトウエアに
ついても同様であり、立体表示を利用するコンテンツや
アプリケーションの開発の制約を解消する。したがっ
て、これらの普及を飛躍的に促進することができる。
As described above, according to this application example, the programming relating to the stereoscopic effect, which should originally be set for each hardware of the display device and for each user, is concentrated in the stereoscopic image processing device 100 and the stereoscopic display library 300. The game software programmer does not have to worry about the complicated requirements for stereoscopic display. This applies not only to game software but also to any software that uses stereoscopic display, and eliminates restrictions on the development of contents and applications that use stereoscopic display. Therefore, the spread of these can be dramatically promoted.

【0144】とくに、もともと三次元のCGデータが存
在するゲームその他のアプリケーションの場合、従来は
的確な立体表示をコーディングすることが困難であるこ
とも大きな原因となって、せっかく三次元データをもち
ながら、それを立体表示に利用しなかったことも多い。
実施の形態に係る立体画像処理装置100または立体表
示ライブラリ300によれば、そうした弊害を除去で
き、立体表示アプリケーションの充実化に寄与すること
ができる。
In particular, in the case of games and other applications in which three-dimensional CG data originally exists, it has been difficult to code an accurate three-dimensional display in the past, which is a major cause. , I often did not use it for stereoscopic display.
The stereoscopic image processing apparatus 100 or the stereoscopic display library 300 according to the embodiment can eliminate such an adverse effect and contribute to the enhancement of the stereoscopic display application.

【0145】なお、図54ではユーザの適正視差をサー
バ436に登録したが、ユーザはその情報を記録したI
Cカードなどを持参してゲーム機432を利用してもよ
い。このカードに、このゲームに関する得点や気に入っ
た画像を記録してもよい。
Although the user's proper parallax is registered in the server 436 in FIG. 54, the user records the information I
You may use the game machine 432 by bringing a C card or the like. You may record scores and favorite images related to this game on this card.

【0146】以上、本発明を実施の形態をもとに説明し
た。この実施の形態は例示であり、それらの各構成要素
や各処理プロセスの組合せにいろいろな変形例が可能な
こと、またそうした変形例も本発明の範囲にあることは
当業者に理解されるところである。以下、そうした例を
挙げる。
The present invention has been described above based on the embodiments. It should be understood by those skilled in the art that this embodiment is merely an example, and that various modifications can be made to the combinations of the respective constituent elements and the respective processing processes, and that such modifications are also within the scope of the present invention. is there. Below, such an example is given.

【0147】第1の立体画像処理装置100は、三次元
データを入力することにより、高い精度で処理が可能で
ある。しかし、三次元データをいったんデプス情報付画
像へ落とし、これに対して第3の立体画像処理装置10
0を利用して視差画像を生成してもよい。場合により、
そのほうが計算コストが低いことがある。同じように複
数の視点画像を入力する際も、高精度の対応点マッチン
グを用いてデプスマップを作ることも可能で、このよう
にしてデプス情報付画像へ落とし、これに対して第3の
立体画像処理装置100を利用して視差画像を生成して
もよい。
The first stereoscopic image processing apparatus 100 can process with high accuracy by inputting three-dimensional data. However, once the three-dimensional data is dropped into the image with depth information, the third stereoscopic image processing device 10
Parallax images may be generated using 0. In some cases
The calculation cost may be lower. Similarly, when inputting multiple viewpoint images, it is also possible to create a depth map by using high-precision corresponding point matching. A parallax image may be generated using the image processing device 100.

【0148】第1の立体画像処理装置100において、
カメラ仮配置部130を立体画像処理装置100の構成
としたが、これは立体画像処理装置100の前処理であ
ってもよい。カメラの仮配置までは、適正視差に関係な
く処理できるためである。同様に、第1、第2、第3の
立体画像処理装置100を構成する任意の処理ユニット
を立体画像処理装置100の外部へ出すことも可能であ
り、立体画像処理装置100の構成の自由度の高さは当
業者に理解されるところである。
In the first stereoscopic image processing apparatus 100,
Although the temporary camera placement unit 130 has the configuration of the stereoscopic image processing apparatus 100, this may be pre-processing of the stereoscopic image processing apparatus 100. This is because the temporary placement of the cameras can be processed regardless of the proper parallax. Similarly, any processing unit constituting the first, second, and third stereoscopic image processing apparatus 100 can be output to the outside of the stereoscopic image processing apparatus 100, and the degree of freedom of the configuration of the stereoscopic image processing apparatus 100 can be increased. The height of will be understood by those skilled in the art.

【0149】実施の形態では、視差の制御を水平方向に
行う場合を説明したが、同様の処理は垂直方向について
も実施できる。
In the embodiment, the case where the parallax control is performed in the horizontal direction has been described, but the same processing can be performed in the vertical direction.

【0150】立体表示ライブラリ300や立体画像処理
装置100の動作中は、文字データを拡大処理するユニ
ットを設けてもよい。たとえば水平2視点による視差画
像の場合、ユーザの目に見える画像の水平解像度は1/
2になる。その結果、文字の可読性が低下しうるので、
水平方向へ2倍に文字を引き延ばす処理が有効である。
垂直方向にも視差がある場合、同様に垂直方向へ文字を
引き延ばすことも有用である。
A unit for enlarging character data may be provided during operation of the stereoscopic display library 300 and the stereoscopic image processing apparatus 100. For example, in the case of a parallax image from two horizontal viewpoints, the horizontal resolution of the image visible to the user is 1 /
It becomes 2. As a result, the readability of the characters may decrease,
It is effective to double the characters in the horizontal direction.
If there is parallax in the vertical direction as well, it is also useful to stretch the characters in the vertical direction.

【0151】立体表示ライブラリ300や立体画像処理
装置100の動作中は、表示している画像に「3D」な
どの文字やマークを入れる「動作中表示部」を設けても
よい。その場合、ユーザは視差の調整が可能な画像であ
るか否かを知ることができる。
When the stereoscopic display library 300 or the stereoscopic image processing apparatus 100 is in operation, an “in-operation display section” may be provided to put characters or marks such as “3D” on the displayed image. In that case, the user can know whether the image has parallax adjustable.

【0152】立体表示/通常表示の切替ユニットを設け
てもよい。このユニットはGUIを含み、ユーザが所定
のボタンをクリックすると、表示が立体表示から通常の
二次元表示に切り替わり、その反対も可能な構成とすれ
ば便利である。
A stereoscopic display / normal display switching unit may be provided. This unit includes a GUI, and when the user clicks a predetermined button, the display is switched from a stereoscopic display to a normal two-dimensional display, and vice versa.

【0153】情報取得部118は必ずしもユーザ入力に
より情報を取得するのではなく、プラグアンドプレイな
どの機能により自動的に取得できる情報があってもよ
い。
The information acquisition unit 118 does not necessarily acquire information by user input, but may have information that can be automatically acquired by a function such as plug and play.

【0154】実施の形態では、EとAを導出する方法を
とったが、これらを固定し、他のパラメータを導出する
方法であってもよく、変数の指定は自由である。
In the embodiment, the method of deriving E and A is adopted, but a method of fixing these and deriving other parameters may be used, and the variables can be freely specified.

【0155】[0155]

【発明の効果】本発明によれば、以下のような効果があ
る。 1.人の生理に適合しやすい立体画像を生成または表示
できる。 2.表示対象画像が変わってもユーザに適切な立体画像
を生成または表示できる。 3.簡単な操作で立体表示の立体感を調整できる。 4.適切な立体表示が可能なコンテンツまたはアプリケ
ーションづくりに際し、プログラマの負担を軽減でき
る。 5.立体表示を最適化しようとするユーザの手間が軽減
される。 6.通常、プラグアンドプレイ機能の対象にならない立
体感調整やヘッドトラッキング情報を容易に実現でき、
後付のパララックスバリアのように、原理上プラグアン
ドプレイができない装置についても同様である。
The present invention has the following effects. 1. It is possible to generate or display a stereoscopic image that is suitable for human physiology. 2. Even if the display target image changes, a stereoscopic image suitable for the user can be generated or displayed. 3. You can adjust the stereoscopic effect of stereoscopic display with a simple operation. 4. The burden on the programmer can be reduced when creating content or applications that can display appropriately in three dimensions. 5. The user's labor to optimize the stereoscopic display is reduced. 6. Normally, you can easily realize stereoscopic adjustment and head tracking information that are not subject to the plug and play function.
The same applies to a device that cannot be plug and play in principle, such as a post-parallax barrier.

【図面の簡単な説明】[Brief description of drawings]

【図1】 理想的な立体視ができているユーザ、スクリ
ーン、再生オブジェクト14の位置関係を示す図であ
る。
FIG. 1 is a diagram showing a positional relationship among a user, a screen, and a reproduction object 14 who are able to achieve an ideal stereoscopic view.

【図2】 図1の状態を実現する撮影系の例を示す図で
ある。
FIG. 2 is a diagram showing an example of an imaging system that realizes the state of FIG.

【図3】 図1の状態を実現する撮影系の別の例を示す
図である。
FIG. 3 is a diagram showing another example of an imaging system that realizes the state of FIG.

【図4】 図1の状態を実現する撮影系の別の例を示す
図である。
FIG. 4 is a diagram showing another example of an imaging system that realizes the state of FIG.

【図5】 第1の立体画像処理装置に利用するモデル座
標系を示す図である。
FIG. 5 is a diagram showing a model coordinate system used in the first stereoscopic image processing apparatus.

【図6】 第1の立体画像処理装置に利用するワールド
座標系を示す図である。
FIG. 6 is a diagram showing a world coordinate system used in the first stereoscopic image processing apparatus.

【図7】 第1の立体画像処理装置に利用するカメラ座
標系を示す図である。
FIG. 7 is a diagram showing a camera coordinate system used in the first stereoscopic image processing apparatus.

【図8】 第1の立体画像処理装置に利用するビューボ
リュームを示す図である。
FIG. 8 is a diagram showing a view volume used in the first stereoscopic image processing apparatus.

【図9】 図8のボリュームの透視変換後の座標系を示
す図である。
9 is a diagram showing a coordinate system after perspective transformation of the volume of FIG.

【図10】 第1の立体画像処理装置に利用するスクリ
ーン座標系を示す図である。
FIG. 10 is a diagram showing a screen coordinate system used in the first stereoscopic image processing apparatus.

【図11】 第1の立体画像処理装置の構成図である。FIG. 11 is a configuration diagram of a first stereoscopic image processing apparatus.

【図12】 第2の立体画像処理装置の構成図である。FIG. 12 is a configuration diagram of a second stereoscopic image processing apparatus.

【図13】 第3の立体画像処理装置の構成図である。FIG. 13 is a configuration diagram of a third stereoscopic image processing apparatus.

【図14】 図14(a)、図14(b)は、それぞ
れ、第1の立体画像処理装置の立体感調整部によって表
示される左眼画像と右眼画像を示す図である。
14 (a) and 14 (b) are diagrams showing a left-eye image and a right-eye image displayed by a stereoscopic effect adjusting unit of the first stereoscopic image processing apparatus, respectively.

【図15】 第1の立体画像処理装置の立体感調整部に
よって表示される、異なる視差をもつ複数のオブジェク
トを示す図である。
FIG. 15 is a diagram showing a plurality of objects having different parallaxes displayed by the stereoscopic effect adjusting unit of the first stereoscopic image processing apparatus.

【図16】 第1の立体画像処理装置の立体感調整部に
よって表示される、視差が変化するオブジェクトを示す
図である。
[Fig. 16] Fig. 16 is a diagram illustrating an object in which parallax changes, which is displayed by the stereoscopic effect adjusting unit of the first stereoscopic image processing device.

【図17】 適正視差が実現される際のカメラ画角、画
像サイズ、視差の関係を示す図である。
[Fig. 17] Fig. 17 is a diagram illustrating a relationship among a camera view angle, an image size, and parallax when proper parallax is realized.

【図18】 図17の状態を実現する撮影系の位置関係
を示す図である。
FIG. 18 is a diagram showing the positional relationship of the imaging system that realizes the state of FIG.

【図19】 図17の状態を実現する撮影系の位置関係
を示す図である。
FIG. 19 is a diagram showing the positional relationship of the imaging system that realizes the state of FIG.

【図20】 多視点画像を適正視差で生成する際のカメ
ラ配置を示す図である。
[Fig. 20] Fig. 20 is a diagram illustrating a camera arrangement when a multi-view image is generated with proper parallax.

【図21】 第1の立体画像処理装置の歪処理部が利用
する視差補正マップを示す図である。
FIG. 21 is a diagram illustrating a parallax correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.

【図22】 図21の視差補正マップにしたがって視差
画像を生成する際のカメラ視点を示す図である。
22 is a diagram illustrating a camera viewpoint when generating a parallax image according to the parallax correction map of FIG. 21. FIG.

【図23】 図21の視差補正マップにしたがって視差
画像を生成する際の別のカメラ視点を示す図である。
23 is a diagram showing another camera viewpoint when generating a parallax image according to the parallax correction map of FIG. 21. FIG.

【図24】 第1の立体画像処理装置の歪処理部が利用
する視差補正マップを示す図である。
[Fig. 24] Fig. 24 is a diagram illustrating a parallax correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.

【図25】 図24の視差補正マップにしたがって視差
画像を生成する際のカメラ視点を示す図である。
25 is a diagram illustrating a camera viewpoint when generating a parallax image according to the parallax correction map in FIG. 24.

【図26】 第1の立体画像処理装置の歪処理部が利用
する距離感補正マップを示す図である。
FIG. 26 is a diagram showing a sense of distance correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.

【図27】 図26の距離感補正マップにしたがって視
差画像を生成する際のカメラ視点を示す図である。
27 is a diagram showing a camera viewpoint when generating a parallax image according to the distance correction map of FIG. 26. FIG.

【図28】 第1の立体画像処理装置の歪処理部が利用
する別の距離感補正マップを示す図である。
FIG. 28 is a diagram showing another distance feeling correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.

【図29】 図28の距離感補正マップにしたがって視
差画像を生成する際のカメラ視点を示す図である。
29 is a diagram illustrating a camera viewpoint when generating a parallax image according to the distance perception correction map of FIG. 28.

【図30】 図30(a)、図30(b)、図30
(c)、図30(d)、図30(e)、図30(f)
は、いずれも第1の立体画像処理装置の歪処理部が三次
元空間に処理を施した結果得られる視差分布の上面図で
ある。
FIG. 30 (a), FIG. 30 (b), FIG.
(C), FIG. 30 (d), FIG. 30 (e), FIG. 30 (f)
3A is a top view of a parallax distribution obtained as a result of the distortion processing unit of the first stereoscopic image processing apparatus performing processing on a three-dimensional space.

【図31】 第1の立体画像処理装置の歪処理部による
処理の原理を示す図である。
FIG. 31 is a diagram illustrating a principle of processing by a distortion processing unit of the first stereoscopic image processing apparatus.

【図32】 図31の処理を具体的に示す図である。FIG. 32 is a diagram specifically showing the process of FIG. 31.

【図33】 図31の処理を具体的に示す図である。FIG. 33 is a diagram specifically showing the process of FIG. 31.

【図34】 図31の処理を具体的に示す図である。FIG. 34 is a diagram specifically showing the process of FIG. 31.

【図35】 第1の立体画像処理装置の歪処理部による
処理の別の例を示す図である。
[Fig. 35] Fig. 35 is a diagram illustrating another example of processing by the distortion processing unit of the first stereoscopic image processing apparatus.

【図36】 図35の処理を具体的に示す図である。FIG. 36 is a diagram specifically showing the process of FIG. 35.

【図37】 デプスマップを示す図である。FIG. 37 is a diagram showing a depth map.

【図38】 第3の立体画像処理装置の歪処理部による
処理の例を示す図である。
[Fig. 38] Fig. 38 is a diagram illustrating an example of processing performed by a distortion processing unit of the third stereoscopic image processing apparatus.

【図39】 第3の立体画像処理装置の歪処理部による
処理によって生成されたデプスマップを示す図である。
[Fig. 39] Fig. 39 is a diagram illustrating a depth map generated by the processing by the distortion processing unit of the third stereoscopic image processing apparatus.

【図40】 第3の立体画像処理装置の歪処理部による
処理の別の例を示す図である。
[Fig. 40] Fig. 40 is a diagram illustrating another example of processing by the distortion processing unit of the third stereoscopic image processing apparatus.

【図41】 第2の立体画像処理装置の二次元画像生成
部による処理の例を示す図である。
FIG. 41 is a diagram illustrating an example of processing performed by a two-dimensional image generation unit of the second stereoscopic image processing device.

【図42】 視差画像の例を示す図である。[Fig. 42] Fig. 42 is a diagram illustrating an example of a parallax image.

【図43】 第2の立体画像処理装置の二次元画像生成
部によって合成位置がシフトされた視差画像を示す図で
ある。
[Fig. 43] Fig. 43 is a diagram illustrating a parallax image of which the synthesis position has been shifted by the two-dimensional image generation unit of the second stereoscopic image processing device.

【図44】 第2の立体画像処理装置の画像端調整部の
処理を示す図である。
[Fig. 44] Fig. 44 is a diagram illustrating processing of the image edge adjustment unit of the second stereoscopic image processing apparatus.

【図45】 第2の立体画像処理装置の処理を示す図で
ある。
[Fig. 45] Fig. 45 is a diagram illustrating processing of the second stereoscopic image processing apparatus.

【図46】 第2の立体画像処理装置の別の処理を示す
図である。
FIG. 46 is a diagram illustrating another process of the second stereoscopic image processing device.

【図47】 第2の立体画像処理装置の別の処理を示す
図である。
FIG. 47 is a diagram showing another process of the second stereoscopic image processing device.

【図48】 デプスマップが付加された平面画像を示す
図である。
[Fig. 48] Fig. 48 is a diagram illustrating a planar image to which a depth map is added.

【図49】 デプスマップを示す図である。FIG. 49 is a diagram showing a depth map.

【図50】 第2の立体画像処理装置の二次元画像生成
部でデプスマップをもとに視差画像を生成する様子を示
す図である。
[Fig. 50] Fig. 50 is a diagram illustrating a manner in which a two-dimensional image generation unit of the second stereoscopic image processing apparatus generates a parallax image based on a depth map.

【図51】 第2の立体画像処理装置の二次元画像生成
部で補正されたデプスマップを示す図である。
[Fig. 51] Fig. 51 is a diagram illustrating a depth map corrected by a two-dimensional image generation unit of the second stereoscopic image processing device.

【図52】 実施の形態に係る立体画像処理装置をライ
ブラリ化して利用する様子を示す図である。
FIG. 52 is a diagram showing how a stereoscopic image processing apparatus according to an embodiment is used as a library.

【図53】 立体表示ライブラリを三次元データソフト
に組み込んだ構成図である。
[Fig. 53] Fig. 53 is a configuration diagram in which a stereoscopic display library is incorporated in three-dimensional data software.

【図54】 立体表示ライブラリをネットワーク利用型
のシステムで利用する様子を示す図である。
FIG. 54 is a diagram showing how a stereoscopic display library is used in a network-based system.

【符号の説明】 10 ユーザ、 12 スクリーン、 14 再生オブ
ジェクト、 20 現実のオブジェクト、 22,2
4,26,28 カメラ、 30 前方投影面、32
後方投影面、 100 立体画像処理装置、 112
立体感調整部、114,152,170 視差制御部、
116 フォーマット変換部、 118 情報取得
部、 122 指示取得部、 124 視差特定部、
132カメラ配置決定部、 136,174 歪処理
部、 140,176 補正マップ保持部、 142
二次元画像生成部、 150 視差量検出部、 156
ヘッダ検査部、 158 マッチング部、 160 位
置シフト部、 164視差書込部、 168 画像端調
整部、 178 二次元画像生成部、 210光軸交差
面、 300 立体表示ライブラリ、 402 三次元
データソフト、 406 撮影指示処理部、 430
ネットワーク利用型のシステム、 432 ゲーム機、
434 ユーザ端末、 436 サーバ、 452
ビュアプログラム。
[Explanation of Codes] 10 User, 12 Screen, 14 Playback Object, 20 Real Object, 22, 2
4, 26, 28 camera, 30 front projection plane, 32
Rear projection plane, 100 stereoscopic image processing device, 112
Stereoscopic effect adjustment unit, 114, 152, 170 parallax control unit,
116 format conversion unit, 118 information acquisition unit, 122 instruction acquisition unit, 124 parallax identification unit,
132 camera placement determination unit, 136, 174 distortion processing unit, 140, 176 correction map holding unit, 142
Two-dimensional image generation unit, 150 Parallax amount detection unit, 156
Header inspection unit, 158 matching unit, 160 position shift unit, 164 parallax writing unit, 168 image edge adjustment unit, 178 two-dimensional image generation unit, 210 optical axis crossing plane, 300 stereoscopic display library, 402 three-dimensional data software, 406 Shooting instruction processing unit, 430
Network-based system, 432 game consoles,
434 user terminal, 436 server, 452
Viewer program.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA08 BA09 BA11 CA07 EA13 EA19 EA24 FA02 FA06 5C061 AB02 AB04 AB08 AB12 AB14   ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 BA08 BA09 BA11 CA07 EA13                       EA19 EA24 FA02 FA06                 5C061 AB02 AB04 AB08 AB12 AB14

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 立体画像を表示するための複数の視点画
像間の視差を補正する視差制御部と、 前記視差制御部がその処理の際に参照すべき補正マップ
を保持するマップ保持部と、 を含み、前記補正マップは、前記視差が視点画像内の位
置に基づいて補正されるよう記述されていることを特徴
とする立体画像処理装置。
1. A parallax control unit that corrects parallax between a plurality of viewpoint images for displaying a stereoscopic image, and a map holding unit that holds a correction map to be referred to by the parallax control unit during the processing. The stereoscopic image processing apparatus according to claim 1, wherein the correction map is described such that the parallax is corrected based on a position in a viewpoint image.
【請求項2】 前記視差制御部は、前記複数の視点画像
の周辺部において視差を小さくし、または、オブジェク
トがユーザからより遠くに感知されるよう前記視差を変
化させることを特徴とする請求項1に記載の装置。
2. The parallax control unit reduces the parallax in a peripheral portion of the plurality of viewpoint images, or changes the parallax so that an object is sensed farther from a user. 1. The device according to 1.
【請求項3】 前記視差制御部は、前記複数の視点画像
のいずれかに選択的に処理を施すことによって前記視差
を変化させることを特徴とする請求項1または2に記載
の装置。
3. The apparatus according to claim 1, wherein the parallax control unit changes the parallax by selectively performing processing on any of the plurality of viewpoint images.
【請求項4】 前記複数の視点画像は三次元データを起
点として生成されるものであり、前記視差制御部は前記
複数の視点画像の生成にあたって、カメラパラメータを
制御して前記視差を変化させることを特徴とする請求項
1〜3のいずれかに記載の装置。
4. The plurality of viewpoint images are generated from three-dimensional data as a starting point, and the parallax control unit controls a camera parameter to change the parallax when generating the plurality of viewpoint images. The device according to any one of claims 1 to 3, characterized in that:
【請求項5】 前記複数の視点画像は三次元データを起
点として生成されるものであり、前記視差制御部は前記
複数の視点画像の生成にあたって、三次元空間自体を歪
ませることにより前記視差を変化させることを特徴とす
る請求項1または2に記載の装置。
5. The plurality of viewpoint images are generated from three-dimensional data as a starting point, and the parallax control unit distorts the parallax by distorting the three-dimensional space itself when generating the plurality of viewpoint images. Device according to claim 1 or 2, characterized in that it is varied.
【請求項6】 前記複数の視点画像は、デプス情報が与
えられている平面画像から生成されるものであり、前記
視差制御部はそのデプス情報を操作することによって前
記視差を変化させることを特徴とする請求項1または2
に記載の装置。
6. The plurality of viewpoint images are generated from a plane image to which depth information is given, and the parallax control unit changes the parallax by operating the depth information. Claim 1 or 2
The device according to.
【請求項7】 立体画像を表示するための複数の視点画
像を取得するステップと、 取得された前記複数の視点画像間の視差をそれら視点画
像内の位置に基づいて変化させるステップと、 を含むことを特徴とする立体画像処理方法。
7. A step of acquiring a plurality of viewpoint images for displaying a stereoscopic image, and a step of changing a parallax between the acquired viewpoint images based on a position in the viewpoint images. A stereoscopic image processing method characterized by the above.
【請求項8】 前記の各ステップを立体表示用ライブラ
リの機能として実装し、複数のプログラムからこのライ
ブラリの機能を関数として呼出可能に構成したことを特
徴とする請求項7に記載の方法。
8. The method according to claim 7, wherein each of the steps is implemented as a function of a stereoscopic display library, and the function of the library can be called as a function from a plurality of programs.
【請求項9】 立体画像を表示するための複数の視点画
像を取得するステップと、 取得された前記複数の視点画像間の視差をそれら視点画
像内の位置に基づいて変化させるステップと、 をコンピュータに実行せしめることを特徴とするコンピ
ュータプログラム。
9. A computer comprising: a step of acquiring a plurality of viewpoint images for displaying a stereoscopic image; and a step of changing a parallax between the acquired viewpoint images based on a position within the viewpoint images. A computer program characterized by being executed by.
JP2002087496A 2002-03-27 2002-03-27 Stereoscopic image processing method and apparatus Expired - Fee Related JP3702243B2 (en)

Priority Applications (25)

Application Number Priority Date Filing Date Title
JP2002087496A JP3702243B2 (en) 2002-03-27 2002-03-27 Stereoscopic image processing method and apparatus
EP20110161303 EP2381691B1 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161274A EP2357835A3 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161320A EP2357840A3 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
KR1020047015105A KR100812905B1 (en) 2002-03-27 2003-03-27 3-dimensional image processing method and device
EP03715473A EP1489857B1 (en) 2002-03-27 2003-03-27 3-dimensional image processing method and device
CN038071592A CN1643939B (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161284A EP2357837A3 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161329.5A EP2357841B1 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161315A EP2357839A3 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP20110161281 EP2357836B1 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161269A EP2362670B1 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
EP11161295.8A EP2357838B1 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
PCT/JP2003/003791 WO2003081921A1 (en) 2002-03-27 2003-03-27 3-dimensional image processing method and device
EP11161340A EP2387248A3 (en) 2002-03-27 2003-03-27 Method and apparatus for processing three-dimensional images
US10/949,528 US8369607B2 (en) 2002-03-27 2004-09-27 Method and apparatus for processing three-dimensional images
US12/976,262 US8131064B2 (en) 2002-03-27 2010-12-22 Method and apparatus for processing three-dimensional images
US12/986,530 US8577128B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,551 US8724886B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,509 US8417024B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,453 US8254668B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,471 US8577127B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,491 US8879824B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US13/088,752 US8472702B2 (en) 2002-03-27 2011-04-18 Method and apparatus for processing three-dimensional images
US13/283,361 US8559703B2 (en) 2002-03-27 2011-10-27 Method and apparatus for processing three-dimensional images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002087496A JP3702243B2 (en) 2002-03-27 2002-03-27 Stereoscopic image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2003284094A true JP2003284094A (en) 2003-10-03
JP3702243B2 JP3702243B2 (en) 2005-10-05

Family

ID=29233666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002087496A Expired - Fee Related JP3702243B2 (en) 2002-03-27 2002-03-27 Stereoscopic image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3702243B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image
JP2011024636A (en) * 2009-07-21 2011-02-10 Konami Digital Entertainment Co Ltd Video game device and method for controlling switching of display mode
JP2011024635A (en) * 2009-07-21 2011-02-10 Konami Digital Entertainment Co Ltd Video game device and game image display control method
JP2011253554A (en) * 2011-08-02 2011-12-15 Td Vision Corporation S.A. De C.V. Three-dimensional video game system
WO2012014489A1 (en) * 2010-07-28 2012-02-02 パナソニック株式会社 Video image signal processor and video image signal processing method
US8531452B2 (en) 2009-07-21 2013-09-10 Konami Digital Entertainment Co., Ltd. Video game machine, gaming image display control method and display mode switching control method
JPWO2021038789A1 (en) * 2019-08-29 2021-03-04

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image
JP2011024636A (en) * 2009-07-21 2011-02-10 Konami Digital Entertainment Co Ltd Video game device and method for controlling switching of display mode
JP2011024635A (en) * 2009-07-21 2011-02-10 Konami Digital Entertainment Co Ltd Video game device and game image display control method
US8531452B2 (en) 2009-07-21 2013-09-10 Konami Digital Entertainment Co., Ltd. Video game machine, gaming image display control method and display mode switching control method
WO2012014489A1 (en) * 2010-07-28 2012-02-02 パナソニック株式会社 Video image signal processor and video image signal processing method
JP2011253554A (en) * 2011-08-02 2011-12-15 Td Vision Corporation S.A. De C.V. Three-dimensional video game system
JPWO2021038789A1 (en) * 2019-08-29 2021-03-04
JP7375022B2 (en) 2019-08-29 2023-11-07 オリンパス株式会社 Image processing device operating method, control device, and endoscope system

Also Published As

Publication number Publication date
JP3702243B2 (en) 2005-10-05

Similar Documents

Publication Publication Date Title
JP2003284093A (en) Stereoscopic image processing method and apparatus therefor
EP2357836B1 (en) Method and apparatus for processing three-dimensional images
US8559703B2 (en) Method and apparatus for processing three-dimensional images
JP2004221700A (en) Stereoscopic image processing method and apparatus
JP3749227B2 (en) Stereoscopic image processing method and apparatus
JP3857988B2 (en) Stereoscopic image processing method and apparatus
JP2003284095A (en) Stereoscopic image processing method and apparatus therefor
JP2004221699A (en) Stereoscopic image processing method and apparatus
JP4118146B2 (en) Stereoscopic image processing device
JP3702243B2 (en) Stereoscopic image processing method and apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080722

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090722

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090722

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100722

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100722

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110722

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120722

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120722

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130722

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees