JPH09200803A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method

Info

Publication number
JPH09200803A
JPH09200803A JP8027415A JP2741596A JPH09200803A JP H09200803 A JPH09200803 A JP H09200803A JP 8027415 A JP8027415 A JP 8027415A JP 2741596 A JP2741596 A JP 2741596A JP H09200803 A JPH09200803 A JP H09200803A
Authority
JP
Japan
Prior art keywords
image
corresponding point
viewpoint
data
point locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8027415A
Other languages
Japanese (ja)
Inventor
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8027415A priority Critical patent/JPH09200803A/en
Publication of JPH09200803A publication Critical patent/JPH09200803A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To observe an image stereoscopically from a moved position when a position of eyes of the observer is moved in each direction including forward/ backward directions. SOLUTION: A hierarchical data generating section 15 converts multi-visual point image data from an input multi-visual point image data storage section into multi-visual point image data with different resolution to generate hierarchical data. Then a corresponding point locus discrimination section 11 detects parametric data based on a locus coefficient outputted from a locus coefficient control section 12, a threshold level outputted from a discrimination dual threshold level control section 14 and depth information stored in a detected depth arrangement storage section 15 as already detected information. On the other hand, a hierarchical data selection section 17 selects hierarchical data based on a machine power of a CPU or the like, executes interpolation processing of the corresponding point locus based on the parametric data in response to the selected hierarchical data and the visual point position and a stereoscopic image is displayed on a display screen 8 via an image display section 21.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、視点の異なる複数
の画像を入力し、観察者の現在の目の位置に応じた視点
位置を有する画像を出力する画像処理装置及び画像処理
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for inputting a plurality of images having different viewpoints and outputting an image having a viewpoint position corresponding to the current eye position of an observer.

【0002】[0002]

【従来の技術】従来、複数の視点から見た画像を立体表
示する画像処理装置として、ステレオディスプレイやレ
ンチキュラディスプレイ等が知られている。
2. Description of the Related Art Conventionally, a stereo display, a lenticular display or the like has been known as an image processing apparatus for stereoscopically displaying an image viewed from a plurality of viewpoints.

【0003】ステレオディスプレイは、2台のカメラか
ら得られる画像を交互に高速に切り替えて表示される。
観察者は、この切り替えに同期するシャッタメガネや偏
光メガネを使用することにより、映像を立体的に観察す
ることができる。
The stereo display alternately displays images obtained from two cameras at high speed.
The observer can stereoscopically observe the image by using the shutter glasses and the polarized glasses that are synchronized with this switching.

【0004】また、レンチキュラディスプレイは、例え
ば4台のカメラからの画像をそれぞれ画素単位に並べ替
え、前面にレンチキュラシートを張り付けることによ
り、4視点の映像を立体的に観察することができる。
Further, in the lenticular display, for example, images from four cameras are rearranged in pixel units and a lenticular sheet is attached to the front surface so that four-viewpoint images can be stereoscopically observed.

【0005】[0005]

【発明が解決しようとしている課題】しかしながら、上
記従来のステレオディスプレイでは、画像の撮影時にお
けるカメラの撮影方向の立体像しか観察することができ
ないという欠点があった。すなわち、従来のステレオデ
ィスプレイは、一般に2台のカメラを固定して被写体を
撮影するため、観察者が視点(眼の位置)を移動しても
見える画像は同じであり、この結果、観察者側での視点
移動を映像に反映することができず、臨場感に欠けると
いう問題点があった。
However, the conventional stereo display described above has a drawback in that only a stereoscopic image in the shooting direction of the camera can be observed when shooting an image. That is, in a conventional stereo display, two cameras are generally fixed and an object is photographed. Therefore, the image that can be seen is the same even if the observer moves the viewpoint (eye position). As a result, the observer side There was a problem that it was not possible to reflect the movement of the viewpoint in the image in the image, and the sense of realism was lacking.

【0006】また、上記レンチキュラディスプレイで
は、観察者の視点の左右方向の移動には対応できるもの
の、複数のカメラのいずれかの画像を飛び飛びに見ると
いうものであって、連続的な視点移動には対応できない
うえに、前後方向への視点を移動させることはできない
という問題点があった。
Further, although the lenticular display is capable of coping with the movement of the observer's viewpoint in the left-right direction, it is intended to see one of the images of a plurality of cameras in an intermittent manner, and to continuously move the viewpoint. There was a problem that the viewpoint could not be moved in the front-back direction in addition to being unable to handle it.

【0007】すなわち、前後方向への視点移動に関して
は、従来は、コンピュータ・グラフィックスで作成され
た画像を基にして立体視する場合には行われているが、
コンピュータ・グラフィックスは画像としては単純であ
り、しかも画像内の点に対応する3次元空間内での座標
値が全て明らかになっている特殊な状況下で立体視を実
現したものであり、カメラで撮影した画像を立体視する
場合についての前後方向への視点移動は、現在のところ
検討されていないというのが実情である。
That is, the viewpoint movement in the front-rear direction is conventionally performed when stereoscopic viewing is performed based on an image created by computer graphics.
Computer graphics is a simple image, and realizes stereoscopic vision in a special situation in which all coordinate values in a three-dimensional space corresponding to points in the image are known. The fact is that the viewpoint movement in the front-back direction in the case of stereoscopically viewing the image captured in 1. is not currently considered.

【0008】本発明は、上記事情に鑑みてなされたもの
で、カメラ等の撮像装置で画像を撮影した場合であって
も観察者の眼の位置が前後方向を含む各方向へ移動した
場合に、その移動した位置から立体的に画像を観察する
ことができる画像処理装置及び画像処理方法を提供する
ことを目的とする。
The present invention has been made in view of the above circumstances. Even when an image is taken by an image pickup device such as a camera, when the position of the observer's eyes moves in each direction including the front-back direction. An object of the present invention is to provide an image processing device and an image processing method capable of stereoscopically observing an image from the moved position.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に本発明の画像処理装置は、視点に応じた画像を生成す
るための画像処理装置において、それぞれ異なる複数の
位置を視点とする多視点画像データを保持する多視点画
像データ保持手段と、該多視点画像データ保持手段が保
持する多視点画像データを異なる解像度の多視点画像デ
ータに変換する階層データ生成手段と、該階層データ生
成手段により生成された複数の多視点画像データにおい
てそれぞれの多視点画像中の画像間で相互に対応する対
応点を規定する係数を順次検出する対応点軌跡検出手段
と、前記対応点軌跡係数から画像生成に使用する演算処
理手段に応じた階層データに対応する対応点軌跡係数デ
ータを選択する階層データ選択手段と、選択された対応
点軌跡係数データを入力するデータ入力手段と、観察者
の視点位置を入力する視点位置入力手段と、観察者の視
点位置に応じて前記対応点軌跡係数データから画像を生
成する対応点軌跡内挿手段と、生成された画像を表示す
る画像表示手段を有することを特徴としている。
In order to achieve the above object, an image processing apparatus of the present invention is an image processing apparatus for generating an image according to a viewpoint, and is a multi-viewpoint having a plurality of different positions as viewpoints. A multi-view image data holding unit that holds image data, a hierarchical data generation unit that converts the multi-view image data held by the multi-view image data holding unit into multi-view image data of different resolutions, and the hierarchical data generation unit. In a plurality of generated multi-viewpoint image data, corresponding point locus detection means for sequentially detecting coefficients that define corresponding points that correspond to each other in each multi-viewpoint image, and image generation from the corresponding point locus coefficients. Hierarchical data selection means for selecting corresponding point locus coefficient data corresponding to hierarchical data corresponding to the arithmetic processing means used, and selected corresponding point locus coefficient data Data input means for inputting, viewpoint position input means for inputting the viewpoint position of the observer, corresponding point trajectory interpolation means for generating an image from the corresponding point trajectory coefficient data according to the observer viewpoint position, and It is characterized by having an image display means for displaying the displayed image.

【0010】また、本発明の画像処理方法は、視点に応
じた画像を生成するための画像処理方法において、それ
ぞれ異なる複数の位置を視点とする多視点画像データを
保持する多視点画像データ保持工程と、該多視点画像デ
ータ保持工程が保持する多視点画像データを異なる解像
度の多視点画像データに変換する階層データ生成工程
と、該階層データ生成工程により生成された複数の多視
点画像データにおいてそれぞれの多視点画像中の画像間
で相互に対応する対応点を規定する係数を順次検出する
対応点軌跡検出工程と、前記対応点軌跡係数から画像生
成に使用する演算処理手段に応じた階層データに対応す
る対応点軌跡係数データを選択する階層データ選択工程
と、選択された対応点軌跡係数データを入力するデータ
入力工程と、観察者の視点位置を入力する視点位置入力
工程と、観察者の視点位置に応じて前記対応点軌跡係数
データから画像を生成する対応点軌跡内挿工程と、生成
された画像を表示する画像表示工程とを含むことを特徴
としている。
Further, the image processing method of the present invention is an image processing method for generating an image according to a viewpoint, which is a multi-view image data holding step of holding multi-view image data having a plurality of different positions as viewpoints. A hierarchical data generation step of converting multi-viewpoint image data held by the multi-viewpoint image data holding step into multi-viewpoint image data of different resolutions, and a plurality of multi-viewpoint image data generated by the hierarchical data generation step. Corresponding point locus detection step of sequentially detecting coefficients that define corresponding points that correspond to each other in images in the multi-viewpoint image, and from the corresponding point locus coefficient to hierarchical data according to the arithmetic processing means used for image generation. Hierarchical data selection step of selecting corresponding corresponding point locus coefficient data, data input step of inputting selected corresponding point locus coefficient data, and observer A viewpoint position input step of inputting a viewpoint position, a corresponding point trajectory interpolation step of generating an image from the corresponding point trajectory coefficient data according to the viewpoint position of the observer, and an image display step of displaying the generated image. It is characterized by including.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づき説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は本発明に係る画像処理装置の一実施
の形態を模式的に示した斜視図であって、該画像処理装
置は、水平方向に並設されて被写体1を撮影する複数の
多眼カメラ2…と、該多眼カメラ2…から出力される多
視点画像中の画素間で相互に対応する対応点を検出する
対応点軌跡検出部3と、該対応点軌跡検出部3から出力
されるパラメトリックデータ(対応点軌跡係数)を格納
するディスク等の蓄積メディア4と、利用者の眼の位置
を検出する視点検出器5が付設された眼鏡6と、パラメ
トリックデータ及び視点検出器5の検出結果に基づいて
適宜対応点軌跡を内挿し眼の位置から目視できる画像を
生成するオンデマンド内挿表示部7と、該オンデマンド
内挿表示部7により作成された画像を表示する表示スク
リーン8とから構成されている。
FIG. 1 is a perspective view schematically showing an embodiment of an image processing apparatus according to the present invention. The image processing apparatuses are arranged in parallel in a horizontal direction to photograph a subject 1. From the multi-lens cameras 2, ..., Corresponding point locus detection unit 3 that detects corresponding points that correspond to each other between pixels in the multi-viewpoint images output from the multi-lens cameras 2 ,. A storage medium 4 such as a disk for storing output parametric data (corresponding point trajectory coefficient), eyeglasses 6 provided with a viewpoint detector 5 for detecting the position of the user's eye, parametric data and a viewpoint detector 5 An on-demand interpolation display unit 7 for appropriately interpolating a locus of corresponding points based on the detection result of A to generate an image visible from the position of the eye, and a display screen for displaying the image created by the on-demand interpolation display unit 7. 8 and It is.

【0013】このようにシステム構成された画像処理装
置においては、対応点軌跡検出部3が、入力多視点画像
を受け取り、パラメトリックデータを蓄積メディア4に
出力する。オンデマンド内挿表示部7は蓄積メディア4
からパラメトリックデータを受け取り、利用者の視点位
置の変化に応じて表示スクリーン8に画像を表示する。
ここで、パラメトリックデータは、任意の視点表示に必
要十分な情報を含んでおり、しかもそのデータ量は、考
えられ得る視点移動に対応した画像のすべてを保持する
場合に比べて極めて小さいデータ量とされ、機器に必要
なメモリ量が少なくなるように構成されている。
In the image processing apparatus having such a system configuration, the corresponding point locus detection unit 3 receives the input multi-viewpoint image and outputs the parametric data to the storage medium 4. On-demand interpolation display unit 7 is storage medium 4
The parametric data is received from and the image is displayed on the display screen 8 according to the change of the viewpoint position of the user.
Here, the parametric data includes information necessary and sufficient for arbitrary viewpoint display, and its data amount is extremely small compared to the case where all the images corresponding to possible viewpoint movements are held. In addition, the device is configured so that the amount of memory required for the device is reduced.

【0014】図2は上記画像処理装置の内部詳細を示す
ブロック構成図である。
FIG. 2 is a block diagram showing the internal details of the image processing apparatus.

【0015】すなわち、上記対応点軌跡検出部3は、多
眼カメラ2により撮影された被写体1の画像を保持する
入力多視点画像保持部9と、該入力多視点画像保持部9
に保持された多視点画像から異なる解像度の多視点画像
を生成する階層データ生成部10と、該階層データ生成
部10で生成された多視点画像中で、撮影された輝点の
像の直線状の軌跡を判定する対応点軌跡判定部11と、
該対応点軌跡判定部11が検出する直線状の対応点軌跡
係数を制御する軌跡係数制御部12と、対応点軌跡判定
部11が検出した対応点軌跡係数および軌跡の濃淡値を
記憶する検出軌跡記憶部13と、対応点軌跡判定部11
の対応点軌跡判定に用いる2個の可変閾値(閾値A、閾
値B)を制御する判定二重閾値制御部14と、対応点軌
跡判定部11が検出した対応点軌跡の画像中での位置情
報と奥行き情報を保持する検出奥行き配列保持部15
と、検出軌跡記憶部13に記憶された対応点軌跡係数を
出力するデータ出力部16とを有している。
That is, the corresponding point locus detection section 3 holds an input multi-viewpoint image holding section 9 for holding an image of the subject 1 photographed by the multi-view camera 2, and the input multi-viewpoint image holding section 9.
A hierarchical data generation unit 10 that generates a multi-viewpoint image having different resolutions from the multi-viewpoint image stored in the multi-viewpoint image, and a linear shape of an image of a bright spot captured in the multi-viewpoint image generated by the hierarchical data generation unit 10. A corresponding point locus determination unit 11 that determines the locus of
A locus coefficient control unit 12 that controls the linear corresponding point locus coefficient detected by the corresponding point locus determination unit 11, and a detected locus that stores the corresponding point locus coefficient detected by the corresponding point locus determination unit 11 and the gray value of the locus. Storage unit 13 and corresponding point locus determination unit 11
Position information in the image of the determination dual threshold value control unit 14 that controls two variable thresholds (threshold A and threshold B) used for the determination of the corresponding point locus, and the corresponding point locus detected by the corresponding point locus determination unit 11. And the detected depth array holding unit 15 that holds the depth information
And a data output unit 16 for outputting the corresponding point locus coefficient stored in the detected locus storage unit 13.

【0016】また、オンデマンド内挿表示部7は、蓄積
メディア4に格納されたパラメトリックデータの中から
いずれの階層データを入力するかを決定する階層データ
選択部17と、該階層データ選択部17の選択結果に基
づいて蓄積メディア4から所望の階層データを入力する
データ入力部18と、視点位置に基づいてデータ入力部
18の対応点軌跡を内挿することにより当該視点(眼の
位置)から見える画像を生成する対応点軌跡内挿部19
と、視点検出器5により検出された視点位置を入力する
視点位置入力部20と、表示スクリーン8へ画像を表示
する画像表示部21とを有している。
The on-demand interpolation display unit 7 determines the hierarchical data to be input from the parametric data stored in the storage medium 4, and the hierarchical data selection unit 17. From the viewpoint (eye position) by interpolating the data input unit 18 for inputting desired hierarchical data from the storage medium 4 based on the selection result of No. 1 and the corresponding point locus of the data input unit 18 based on the viewpoint position. Corresponding point trajectory interpolation unit 19 for generating a visible image
And a viewpoint position input unit 20 for inputting the viewpoint position detected by the viewpoint detector 5, and an image display unit 21 for displaying an image on the display screen 8.

【0017】次に、上記対応点軌跡検出部3の動作を説
明する。
Next, the operation of the corresponding point locus detection unit 3 will be described.

【0018】まず、入力多視点画像保持部9で水平方向
に並設された多眼カメラ2…を介して多数の視点から撮
影した画像を保持し、次いで、階層データ生成部10は
前記入力多視点画像保持部9に保持された画像に基づい
て解像度の異なる複数の多視点画像の組を生成する。
First, the input multi-view image holding unit 9 holds images taken from a large number of viewpoints through the multi-view cameras 2 arranged side by side in the horizontal direction. A set of multiple multi-view images with different resolutions is generated based on the images held in the viewpoint image holding unit 9.

【0019】解像度が異なる多視点画像は、図3(a)
に示すように、画像サイズがN×Mであるn枚(nは2
以上の整数)の入力多視点画像がある場合、例えば、サ
ブサンプリング時に折り返し歪みが出ないように、これ
らの画像をフィルタリングし、1:Sにサブサンプリン
グすることにより得られる。すなわち、解像度の異なる
複数の多視点画像の組とは、図3(b)に示すように、
Sを、例えば、S=2、4、8、16、・・・とした時
に得られる多視点画像の組のことであって、このとき各
画像のサイズは(N/S)×(M/S)となる。そして
これらの複数の多視点画像が階層データとなって以下の
処理を行う。
Multi-view images with different resolutions are shown in FIG.
As shown in FIG. 3, n pieces of image size N × M (n is 2
When there are input multi-viewpoint images of the above integers), these images are obtained by filtering these images and subsampling them to 1: S so that aliasing distortion does not occur during subsampling. That is, a set of a plurality of multi-view images with different resolutions is, as shown in FIG.
S is, for example, a set of multi-view images obtained when S = 2, 4, 8, 16, ..., At this time, the size of each image is (N / S) × (M / S). Then, the plurality of multi-view images become hierarchical data and the following processing is performed.

【0020】まず、最も解像度の低い多視点画像におい
て、軌跡係数制御部12は、被写空間中の仮想的な輝点
を順次想定し、その輝点が階層データ生成部10で生成
された多視点画像中で成す軌跡係数を算出する。対応点
軌跡判定部11は軌跡係数制御部12の軌跡係数が示す
軌跡について該軌跡が入力多視点画像保持部9の入力画
像中に存在するかどうか判定する。このとき、判定二重
閾値制御部14は後述するように対応点軌跡判定部11
の判定条件を順次制御する。そして、対応点軌跡判定部
11は検出した対応点軌跡係数を検出軌跡記憶部13に
記憶すると同時に、検出した対応点軌跡の、画像中での
位置情報や奥行き情報等を検出奥行き配列保持部15に
記憶し、後述する軌跡判定時に使用する。対応点軌跡判
定部11の処理が終了すると、データ出力部16は検出
軌跡記憶部13に記憶された対応点軌跡係数をパラメト
リックデータとして出力し蓄積メディア4に格納する。
First, in the multi-view image with the lowest resolution, the trajectory coefficient control unit 12 sequentially assumes virtual bright points in the subject space, and the bright points are generated by the hierarchical data generation unit 10. The trajectory coefficient formed in the viewpoint image is calculated. The corresponding point locus determination unit 11 determines whether or not the locus indicated by the locus coefficient of the locus coefficient control unit 12 exists in the input image of the input multi-viewpoint image holding unit 9. At this time, the determination double-threshold control unit 14 causes the corresponding point trajectory determination unit 11 to operate as described later.
The judgment conditions of are sequentially controlled. Then, the corresponding point locus determination unit 11 stores the detected corresponding point locus coefficient in the detected locus storage unit 13, and at the same time, detects the position information, depth information, and the like of the detected corresponding point locus in the image. It is stored in and used at the time of locus determination described later. When the processing of the corresponding point locus determination unit 11 is completed, the data output unit 16 outputs the corresponding point locus coefficient stored in the detected locus storage unit 13 as parametric data and stores it in the storage medium 4.

【0021】次に、2番目に解像度の低い多視点画像に
おいて、同様の処理を行い、データ出力部16から当該
階層データに対応するパラメトリックデータが出力され
る。このように順次解像度の低い多視点画像から解像度
の高い多視点画像について、同様の処理がなされ、再
び、データ出力部16からこの階層データに対応するパ
ラメトリックデータが出力される。つまり、m階層の階
層データを有する場合は、上記処理をm回繰り返すこと
になり、これにより、各階層データに対応したパラメト
リックデータが生成され、蓄積メディア4に格納され
る。
Next, similar processing is performed on the multi-viewpoint image having the second lowest resolution, and the data output unit 16 outputs the parametric data corresponding to the hierarchical data. In this way, the same processing is performed on the multi-viewpoint image with a lower resolution to the multi-viewpoint image with a higher resolution, and the parametric data corresponding to this hierarchical data is output from the data output unit 16 again. That is, in the case of having m hierarchical data, the above process is repeated m times, whereby parametric data corresponding to each hierarchical data is generated and stored in the storage medium 4.

【0022】次に、上記対応点軌跡判定部11の動作を
詳説する。対応点軌跡判定部11は、図4(a)に示す
ように、階層データ生成部10より出力される画像につ
いて、或る水平ライン22…に着目し、該水平ライン2
2…のエピポーラ・プレーン画像(EPI) を作成す
る。すなわち、複数の多眼カメラ2…の各々視点から撮
影された画像について、或る水平ライン22…を共通ラ
インとして集めて視点順に並べ、図4(b)に示すよう
に、横軸が画像水平表示位置からなり、縦軸が視点位置
からなるEPIを作成する。ここで、入力多視点画像保
持部9の入力画像が水平方向に並設された多眼カメラ2
…から撮影された画像であることから、ある輝点の像の
軌跡はこのEPI上で直線となり、上述した軌跡係数は
直線の位置と傾きとの組で構成される。また、直線の傾
きは、カメラから輝点までの奥行き距離が長いほど、垂
直に近くなり、奥行き距離が短いほど水平になる。さら
に、斯かる直線軌跡の検出処理においては、手前にある
輝点の直線軌跡が、奥にある輝点の直線軌跡を覆い隠す
現象が生じうるが、かかる現象は検出画素がオクルージ
ョン関係にあるといわれている。
Next, the operation of the corresponding point locus determination section 11 will be described in detail. As shown in FIG. 4A, the corresponding point locus determination unit 11 pays attention to a certain horizontal line 22 ... In the image output from the hierarchical data generation unit 10,
2. Create epipolar plane image (EPI) of 2 ... That is, with respect to the images taken from the respective viewpoints of the plurality of multi-lens cameras 2, a certain horizontal line 22 is collected as a common line and arranged in the order of the viewpoints, and as shown in FIG. An EPI including the display position and the vertical axis representing the viewpoint position is created. Here, the multi-view camera 2 in which the input images of the input multi-view image holding unit 9 are arranged in parallel in the horizontal direction
Since it is an image taken from ..., The locus of the image of a certain bright spot becomes a straight line on this EPI, and the above-mentioned locus coefficient is composed of a set of the position and the inclination of the straight line. Further, the inclination of the straight line becomes closer to vertical as the depth distance from the camera to the bright spot becomes longer, and becomes horizontal as the depth distance becomes shorter. Further, in such a straight line locus detection process, a phenomenon may occur in which the straight line locus of the bright spot in the foreground obscures the straight line locus of the bright spot in the back. It is said.

【0023】以上より、対応点軌跡判定部11で行うべ
き対応点軌跡の判定処理はEPI上で直線軌跡か否かを
判定することと等価なものとなり、本実施の形態では対
応点軌跡は直線軌跡か否かを判定することにより行われ
る。
From the above, the corresponding point locus determination processing to be performed by the corresponding point locus determination unit 11 is equivalent to determining whether or not it is a straight line locus on EPI, and in the present embodiment, the corresponding point locus is a straight line. It is performed by determining whether or not it is a locus.

【0024】図5は対応点軌跡判定部11の判定手順を
示すフローチャートである。すなわち、軌跡係数制御部
12は、軌跡係数(直線の位置と直線の傾き)について
考えられる全てをの軌跡係数を順次想定し、算出する
と、対応点軌跡判定部11は、まずステップS1で、算
出された直線上に対応するEPI上で、未処理の画素が
存在するかどうかを検索し、未処理の画素が存在しない
場合は後述するステップS6に進む一方、未処理の画素
が存在する場合は、ステップS2に進み、直線判定処理
を行う。
FIG. 5 is a flowchart showing the determination procedure of the corresponding point locus determination unit 11. That is, the trajectory coefficient control unit 12 sequentially assumes and calculates all possible trajectory coefficients for the trajectory coefficient (the position of the straight line and the inclination of the straight line), and then the corresponding point trajectory determination unit 11 first calculates in step S1. On the EPI corresponding to the straight line, whether or not there is an unprocessed pixel is searched, and if there is no unprocessed pixel, the process proceeds to step S6 described later, while if there is an unprocessed pixel, , And proceeds to step S2 to perform straight line determination processing.

【0025】以下、該直線判定処理について詳述する。The straight line determination processing will be described in detail below.

【0026】図6は直線上の各点毎に直線軌跡か否かの
判定条件を示す図であって、直線上の全ての画素につい
て各点毎に後述する3つの条件を判定し、有効画素が少
なくとも2以上存在する場合は直線軌跡と判別する。
FIG. 6 is a diagram showing the conditions for determining whether or not the trajectory is a straight line for each point on the straight line. For all the pixels on the straight line, the following three conditions are determined for each point, and the effective pixel is determined. If there are at least two or more, it is determined to be a linear locus.

【0027】ここで、3つの条件とは、 (1)色条件として画素間の濃淡値の差分値が閾値以下
か否かを判定する第1の条件 (2)当該画素が既に別の直線軌跡の一部として検出済
の画素か否かを判定する第2の条件 (3)第2の条件により検出済画素と判定された場合
に、それがオクルージョン関係にあるか否かを判定する
第3の条件をいう。
Here, the three conditions are (1) a first condition as a color condition for determining whether or not a difference in gray value between pixels is less than or equal to a threshold value (2) the pixel is already another linear locus Condition for determining whether or not it is a detected pixel as a part of (3) If it is determined as a detected pixel according to the second condition, a third condition for determining whether or not it has an occlusion relationship I mean the condition.

【0028】すなわち、第1の条件により、濃淡値の差
分値が閾値以下のときは画素の色は同一色であると判断
して直線軌跡と判定し、有効画素としてカウントする一
方、濃淡値の差分値が閾値以上のときは画素の色は異な
る色を呈していると考えられるため、不適切画素と判断
し原則として直線軌跡ではないと判定する。
That is, according to the first condition, when the difference value of the gray value is less than or equal to the threshold value, it is determined that the color of the pixel is the same color, it is determined as a straight line locus, and is counted as an effective pixel, while the gray value of the gray value is determined. When the difference value is equal to or more than the threshold value, it is considered that the pixel colors are different colors, so it is determined that the pixel is an inappropriate pixel, and in principle it is determined that the trajectory is not a straight line locus.

【0029】また、第2の条件で検出済画素と判定され
たときは検出奥行き配列保持部15に記憶されている奥
行き情報、すなわち直線の傾きと現在検出しようとして
いる直線の傾きの大きさを比較する。そして、直線軌跡
は手前から順次検出されるので、今検出しようとしてい
る直線の傾きが検出奥行き配列保持部15に記憶されて
いる直線の傾きより大きい場合はオクルージョン関係に
あると判断し、逆に小さい場合はオクルージョン関係に
ないと判断する。そして、検出済であるにもかかわら
ず、オクルージョン関係にない場合は、第1の条件の判
定結果の如何にかかわらず不適切画素として処理し直線
軌跡の存在を否定する。またオクルージョン関係にある
場合は、濃淡値の差分値が閾値以下の場合は勿論、濃淡
値が閾値以上の場合であっても、オクルージョンにより
直線軌跡が隠れているため同一色ではないと判断されて
も当該画素は直線軌跡上にあると判断してスキップし次
の画素の処理に移る。
When it is determined that the pixel has been detected under the second condition, the depth information stored in the detected depth array holding unit 15, that is, the inclination of the straight line and the magnitude of the inclination of the straight line to be detected at present are determined. Compare. Then, since the straight line loci are sequentially detected from the front side, if the slope of the straight line to be detected now is larger than the slope of the straight line stored in the detected depth array holding unit 15, it is determined that there is an occlusion relationship, and conversely. If it is small, it is judged that there is no occlusion relationship. Then, if the occlusion relation is not found despite the detection, it is processed as an inappropriate pixel regardless of the determination result of the first condition, and the existence of the linear locus is denied. Also, in the case of an occlusion relationship, it is determined that the difference is not the same color when the difference value of the gray value is less than or equal to the threshold value, and even when the gray value is greater than or equal to the threshold value because the linear locus is hidden by occlusion. Also, the pixel concerned is judged to be on a straight line locus and is skipped to move to the processing of the next pixel.

【0030】ここで、閾値は可変制御され、判定二重閾
値制御部14により制御される。すなわち、閾値として
は、未検出の画素のときの閾値Aが濃淡値の差分値の判
別値とされ、画素がオクルージョン関係にあるときは閾
値Bが濃淡値の差分値の判別値とされる。閾値A及び閾
値Bは、具体的には図7に示すように、各点が直線軌跡
上にあるか否かを判定する繰返しループに応じて可変と
されている。すなわち、繰返しループにおいて、まず、
閾値Bを初期値に固定した状態を維持しつつ閾値Aを繰
返しループが繰り返される毎に徐々に大きくして対応点
軌跡判定部11の判定処理を繰り返す。そして、閾値A
が所定上限値に到達したときは、該閾値Aを前記所定上
限値に固定し、閾値Bを徐々に大きくして判定処理を繰
り返し、閾値Bも前記所定上限値に到達したときに判定
処理を終了する。すなわち、直線軌跡を判定する場合は
当初は未検出の画素について処理を行うこととなるが、
その場合は閾値Aでもって第1の条件である色条件を判
別し、その後オクルージョン関係が生じたときは閾値B
でもって色条件を判別する。
Here, the threshold value is variably controlled and is controlled by the determination double threshold value controller 14. That is, as the threshold value, the threshold value A for an undetected pixel is used as the discriminant value for the difference value of the grayscale values, and the threshold value B is used as the discriminant value for the difference value of the grayscale values when the pixels are in the occlusion relationship. Specifically, as shown in FIG. 7, the threshold A and the threshold B are variable according to a repeating loop for determining whether or not each point is on a straight line locus. That is, in an iterative loop, first,
While maintaining the state where the threshold value B is fixed to the initial value, the threshold value A is gradually increased each time the loop is repeated, and the determination processing of the corresponding point trajectory determination unit 11 is repeated. And the threshold A
When the threshold value reaches the predetermined upper limit value, the threshold value A is fixed to the predetermined upper limit value, the threshold value B is gradually increased, and the determination process is repeated. When the threshold value B also reaches the predetermined upper limit value, the determination process is performed. finish. That is, when determining a straight line locus, initially, processing is performed for undetected pixels.
In that case, the first condition, that is, the color condition is discriminated by the threshold value A, and when the occlusion relationship occurs thereafter, the threshold value B is determined.
Therefore, the color condition is determined.

【0031】このように2個の閾値(閾値A、閾値B)
を使用して直線軌跡の判定をしているのは、閾値Aのみ
を使用して直線判定を行った場合、上限値近傍で直線判
定の検出制度が悪化するからであり、このように異なる
2個の閾値(閾値A、閾値B)を使用することにより、
検出精度の向上を図ることができる。
Thus, two thresholds (threshold A, threshold B)
The reason why the straight line locus is determined using is that the detection accuracy of the straight line determination deteriorates near the upper limit value when the straight line determination is performed using only the threshold value A. By using a number of thresholds (threshold A, threshold B),
Detection accuracy can be improved.

【0032】そして、ステップS3では直線判定処理に
より、直線軌跡と判定されたか否かを判別し、その答が
否定(No)のときは直線軌跡ではないと判別してステ
ップS6に進む。一方、その答が肯定(Yes)のとき
は直線軌跡であると判別してステップS4に進み、検出
奥行き配列保持部15に直線の傾き(奥行き情報)とし
て記録し、続くステップS5で、軌跡係数(直線の位置
と傾き)及び対応点の濃淡値情報(例えば対応点の濃淡
値の平均値)をパラメトリックデータとして検出軌跡記
憶部13に記憶する。尚、前記検出奥行き配列保持部1
5に記憶された直線の傾きにより直線判定の対象となっ
ている現画素が既に別の直線軌跡として検出済の画素か
否かを判定する際の資料となる。続くステップS6では
軌跡係数制御部12から出力された全ての軌跡係数(直
線の位置及び直線の傾き)に対して上述した直線判定処
理等の処理が終了したか否かを判別し、その答が否定
(No)のときはステップS1に戻って上述の処理を繰
り返す一方、その答が肯定(Yes)のときはステップ
S7に進み、判定二重閾値制御部14に可変制御される
全ての閾値(閾値A又は閾値B)に対して上述の処理が
終了したか否かを判別する。すなわち、閾値は上述した
ように繰返しループの回数に応じて適宜可変制御されて
おり(図7参照)、これら可変とされた閾値(閾値A又
は閾値B)の全ての値に対して処理が終了したか否かを
判別する。そして、その答が否定(No)のときはステ
ップS1に戻って上述の処理を繰り返す一方、その答が
肯定(Yes)のときは処理を終了する。
Then, in step S3, it is determined by the straight line determination process whether or not it is determined to be a straight line locus, and if the answer is negative (No), it is determined that it is not a straight line locus and the process proceeds to step S6. On the other hand, when the answer is affirmative (Yes), it is determined that the trajectory is a linear trajectory, the process proceeds to step S4, the inclination of the line (depth information) is recorded in the detected depth array holding unit 15, and the trajectory coefficient is determined in step S5. The (straight line position and inclination) and the grayscale value information of the corresponding points (for example, the average value of the grayscale values of the corresponding points) are stored in the detection locus storage unit 13 as parametric data. In addition, the detection depth array holding unit 1
It becomes a material for determining whether or not the current pixel which is the target of the straight line determination based on the inclination of the straight line stored in 5 has already been detected as another straight line trajectory. In a succeeding step S6, it is determined whether or not the above-described straight line determination processing and the like have been completed for all the locus coefficients (the position of the straight line and the inclination of the straight line) output from the locus coefficient control unit 12, and the answer is When the answer is affirmative (Yes), the process returns to step S1 to repeat the above-described processing, whereas when the answer is affirmative (Yes), the process proceeds to step S7, and all thresholds (variably controlled by the determination double threshold controller 14 ( For the threshold A or the threshold B), it is determined whether or not the above processing is completed. That is, the threshold value is appropriately variably controlled in accordance with the number of times of the iterative loop as described above (see FIG. 7), and the processing ends for all values of these variable threshold values (threshold value A or threshold value B). It is determined whether or not. Then, when the answer is negative (No), the process returns to step S1 and the above-described processing is repeated, while when the answer is affirmative (Yes), the processing is ended.

【0033】そして、これにより、データ出力部16に
よって出力されるパラメトリックデータは、各水平ライ
ン毎に検出された直線状軌跡の本数分の、直線の位置、
傾き及び濃淡値情報の組となる。
As a result, the parametric data output by the data output unit 16 includes the positions of straight lines corresponding to the number of linear loci detected for each horizontal line,
It becomes a set of inclination and gray value information.

【0034】次に、オンデマンド内挿表示部7の動作を
説明する。階層データ選択部17は、使用している計算
機のCPUの処理速度やRAMの容量などから入力する
階層データを決定する。データ入力部18は階層データ
選択部17の決定に従って所望の階層データに対応する
蓄積メディア4を入力して対応点軌跡内挿部19へ送
る。表示スクリーン8を観察している利用者が頭の位置
を変えて視点(眼の位置)を移動させると、視点検出器
5の信号が変化する。視点位置入力部20は、この変化
を受けて、視点位置を対応点軌跡内挿部19へ送る。対
応点軌跡内挿部19は視点位置を受けると、視点移動に
対応した新たな画像の生成を行い、画像表示部21へ画
像を送る。
Next, the operation of the on-demand interpolation display section 7 will be described. The hierarchical data selection unit 17 determines the hierarchical data to be input from the processing speed of the CPU and the capacity of RAM of the computer being used. The data input unit 18 inputs the storage medium 4 corresponding to the desired hierarchical data according to the determination of the hierarchical data selection unit 17 and sends it to the corresponding point locus interpolation unit 19. When the user observing the display screen 8 changes the position of the head and moves the viewpoint (eye position), the signal of the viewpoint detector 5 changes. In response to this change, the viewpoint position input unit 20 sends the viewpoint position to the corresponding point trajectory interpolation unit 19. Upon receiving the viewpoint position, the corresponding point trajectory interpolation unit 19 generates a new image corresponding to the movement of the viewpoint and sends the image to the image display unit 21.

【0035】該対応点軌跡内挿部19は、具体的には、
視点位置入力部20を介して視点検出器5からの左右方
向の視点位置を得る。パラメトリックデータの各水平ラ
インのすべての対応点軌跡について、輝点の画像中の水
平方向の表示位置を算出し、その表示位置に輝点の濃淡
値を描画して視点位置に対応した1枚の画像を作成す
る。
The corresponding point locus interpolation unit 19 is specifically
The viewpoint position in the horizontal direction from the viewpoint detector 5 is obtained via the viewpoint position input unit 20. For all corresponding point trajectories of each horizontal line of parametric data, the horizontal display position in the image of the bright spot is calculated, and the gray value of the bright spot is drawn at the display position to create a single sheet corresponding to the viewpoint position. Create an image.

【0036】ここで、ある水平ライン中のある輝点の水
平方向の表示位置をx、対応点軌跡の直線位置をx0、
直線傾きをk、視点位置をXとすると、表示位置は数式
(1)により算出される。
Here, the horizontal display position of a bright point in a horizontal line is x, the linear position of the corresponding point locus is x0,
When the straight line inclination is k and the viewpoint position is X, the display position is calculated by the mathematical expression (1).

【0037】x = x0+k・X …(1) このようにして視点位置Xに対応した表示位置xを算出
して新たな画像を生成し、画像表示部21に画像を送
り、該画像表示部21は表示スクリーン8に画像を表示
する。
X = x0 + k · X (1) In this way, the display position x corresponding to the viewpoint position X is calculated to generate a new image, and the image is sent to the image display unit 21. Displays an image on the display screen 8.

【0038】このように本第1の実施の形態において
は、階層データ選択部17の決定に従って、CPUの処
理速度やRAMの記憶容量等マシンパワーに応じた画像
サイズのパラメトリックデータを入力し対応点軌跡内挿
部19に送っているので、マシンパワーが不足するため
に視点移動時の画像生成が間に合わないという事態が生
じるのを回避することができ、観察者は快適に視点を移
動させながら画像を観察できる。すなわち、本第1の実
施の形態では、異なる解像度の多視点画像の組の夫々に
対して独立に補間処理を行ったデータを階層データとし
て保持しているため、再生するマシンパワーが低い時は
低解像度の階層データを使用し、高い時は、高解像度の
階層データを使用することにより、マシンパワーが異な
っても、同等の操作感(視点の追従性等)を得ることが
できる。
As described above, according to the first embodiment, according to the determination of the hierarchical data selection unit 17, parametric data of the image size corresponding to the machine power such as the processing speed of the CPU and the storage capacity of the RAM is input and the corresponding points are input. Since it is sent to the trajectory interpolator 19, it is possible to avoid a situation in which the image generation at the time of moving the viewpoint is not in time due to insufficient machine power, and the observer can comfortably move the viewpoint while moving the image. Can be observed. That is, in the first embodiment, since the data obtained by independently performing the interpolation processing on each of the sets of multi-viewpoint images having different resolutions is held as hierarchical data, when the machine power to be reproduced is low, By using the low-resolution hierarchical data and when using the high-resolution hierarchical data, it is possible to obtain the same operational feeling (tracking ability of the viewpoint, etc.) even if the machine power is different.

【0039】さらに、画像を再生する際、任意視点表示
に必要十分な被写体のパラメトリックデータがあればよ
く、そのデータ量は考えられうる視点移動に対応した画
像を全て保持する場合に比べ、極めて小さい記憶容量で
済み、したがって装置に搭載されるメモリ容量も少なく
て済む。
Further, when the image is reproduced, it is sufficient that there is sufficient parametric data of the subject for the arbitrary viewpoint display, and the amount of the data is extremely small as compared with the case where all the images corresponding to the possible viewpoint movement are held. The storage capacity is sufficient, and therefore the memory capacity installed in the device is small.

【0040】さらに、上記第1の実施の形態において、
表示スクリーン8および画像表示部21に、レンチキュ
ラ方式やメガネ方式などの両眼立体視が可能な立体表示
スクリーン及び立体画像表示部を使用し、かつ、視点位
置入力部20が左右夫々の眼の位置に対応する視点パラ
メータを算出し、該視点パラメータに対応して対応点軌
跡内挿部19が左右夫々の眼に目視されるための画像を
生成することにより、前後左右に視点移動可能な両眼立
体表示装置としての画像処理装置を得ることもできる。
Further, in the above-mentioned first embodiment,
The display screen 8 and the image display unit 21 use a stereoscopic display screen and a stereoscopic image display unit capable of binocular stereoscopic vision such as a lenticular system and a glasses system, and the viewpoint position input unit 20 uses the left and right eye positions. By calculating a viewpoint parameter corresponding to the eye point and generating an image for the corresponding point locus interpolating unit 19 to be viewed by the left and right eyes corresponding to the viewpoint parameter, both eyes capable of moving the viewpoint forward, backward, leftward and rightward. It is also possible to obtain an image processing device as a stereoscopic display device.

【0041】図8は上記前後左右に視点移動可能な画像
処理装置として本発明を適用した場合における対応点軌
跡内挿部19の内挿処理を説明するための図である(第
2の実施の形態)。
FIG. 8 is a diagram for explaining the interpolation processing of the corresponding point locus interpolation unit 19 when the present invention is applied as the image processing apparatus capable of moving the viewpoint forward, backward, leftward and rightward (second embodiment). Form).

【0042】図中、横軸(X軸)は視点からの水平方向
の位置を示し、縦軸(Z軸)は視点からの奥行き方向の
位置を示している。
In the figure, the horizontal axis (X axis) represents the position in the horizontal direction from the viewpoint, and the vertical axis (Z axis) represents the position in the depth direction from the viewpoint.

【0043】31は或る特定された輝点(X1、Z
1)、32は移動後の輝点(X1+X、Z1+Z)、3
3は視点から焦点距離fの位置にある撮像面を示してい
る。輝点31の像が視点からの水平方向距離がx0だけ
離間した撮像面上に投影され、移動後の像が視点からの
水平方向距離がxだけ離間した撮像面上に投影されると
した場合、視点がある方向へ移動することは、逆方向へ
輝点31が移動することと等価であり、この原理を利用
して、輝点31が輝点32に移動した場合の移動後の像
の水平方向の表示位置xを求める。
Reference numeral 31 denotes a certain specified bright point (X1, Z
1) and 32 are bright points (X1 + X, Z1 + Z) after movement, 3
Reference numeral 3 denotes an image pickup surface located at a focal length f from the viewpoint. When it is assumed that the image of the bright spot 31 is projected on the image pickup surface whose horizontal distance from the viewpoint is x0, and the image after movement is projected on the image pickup surface whose horizontal distance from the viewpoint is x. , Moving the viewpoint in a certain direction is equivalent to moving the bright spot 31 in the opposite direction, and using this principle, when the bright spot 31 moves to the bright spot 32, The horizontal display position x is obtained.

【0044】すなわち、画素ピッチをpとすると、図8
より数式(2)、数式(3)式が成立し、かかる数式
(2)、数式(3)から数式(4)に示すように表示位
置xが算出される。
That is, assuming that the pixel pitch is p, FIG.
As a result, the expressions (2) and (3) are established, and the display position x is calculated from the expressions (2) and (3) as shown in the expression (4).

【0045】 X1/Z1=(p・x0)/f …(2) (X1+X)/(Z1+Z)=(p・x)/f …(3) x = (x0+ k・X)/(1+a・k・Z) …(4) ここで、aは数式(5)で定義される定数であり、直線
傾きkは数式(6)で示される。
X1 / Z1 = (p · x0) / f (2) (X1 + X) / (Z1 + Z) = (p · x) / f (3) x = (x0 + k · X) / (1 + a ·) k · Z) (4) Here, a is a constant defined by the mathematical expression (5), and the linear slope k is expressed by the mathematical expression (6).

【0046】 a=f/p …(5) k=f/(p・Z1) …(6) このように上記数式(4)により、視点移動に対応し
た、移動後の表示位置xを算出することができ、移動後
の像の位置を求めることができる。
A = f / p (5) k = f / (p · Z1) (6) In this way, the display position x after the movement corresponding to the viewpoint movement is calculated by the mathematical expression (4). Therefore, the position of the image after movement can be obtained.

【0047】すなわち、視点検出器5が左右前後の視点
位置を対応点軌跡内挿部19に送り、対応点軌跡内挿部
19が、パラメトリックデータの各水平ラインのすべて
の対応点軌跡について数式(4)により表示位置xを算
出することにより、前後左右の視点移動に対応した画像
を生成することができる。
That is, the viewpoint detector 5 sends the left, right, front and rear viewpoint positions to the corresponding point locus interpolating section 19, and the corresponding point locus interpolating section 19 formulas for all the corresponding point loci of each horizontal line of parametric data. By calculating the display position x according to 4), it is possible to generate an image corresponding to the front, rear, left, and right viewpoint movements.

【0048】本第2の実施の形態においては、入力画像
に上下方向の視差がないため、前後の視点移動に対して
生成される画像には上下方向の歪みが生じるが、被写体
までの距離に応じて、画像の表示時に上下方向に対して
拡大縮小変換を行っで該歪みを補正することにより、か
かる歪みに対処することができる。
In the second embodiment, since there is no vertical parallax in the input image, vertical distortion occurs in the image generated with respect to the forward and backward viewpoint movement, but the distance to the subject is increased. Accordingly, when the image is displayed, the distortion can be corrected by performing the scaling conversion in the vertical direction to correct the distortion.

【0049】次に、第3の実施の形態として上記第2の
実施の形態の処理を高速に行う場合を示す。
Next, a case where the processing of the second embodiment is executed at high speed will be described as the third embodiment.

【0050】まず、第2の実施の形態において、数式
(4)は数式(7)の如く変形することができる。
First, in the second embodiment, the equation (4) can be transformed into the equation (7).

【0051】 x=((x0/k)+X)/((1/k) +(a・Z)) = (x′+X)/(k′+Z′) …(7) ここで、x′、k′、Z′は数式(8)〜数式(10)
で表される。
X = ((x0 / k) + X) / ((1 / k) + (a · Z)) = (x ′ + X) / (k ′ + Z ′) (7) where x ′, k ′ and Z ′ are equations (8) to (10)
It is represented by

【0052】x′=x0/k …(8) k′=1/k …(9) Z′=a・Z …(10) x′およびk′は視点位置に依存しないため、あらかじ
め計算しておくことができる。また、Z′は対応点軌跡
に依存しないため、視点位置の変化に対して1回だけ計
算すればよく、数式(4)のように一々演算する手間を
省略することができ、高速演算処理を行うことが可能と
なる。
X ′ = x0 / k (8) k ′ = 1 / k (9) Z ′ = a · Z (10) Since x ′ and k ′ do not depend on the viewpoint position, they are calculated in advance. Can be set. Further, since Z ′ does not depend on the corresponding point locus, it suffices to calculate only once for changes in the viewpoint position, and the time and effort for calculating one by one as in Expression (4) can be omitted, and high-speed calculation processing can be performed. It becomes possible to do.

【0053】図9は第3の実施の形態の画像処理装置の
対応点軌跡内挿部19における高速計算処理のフローチ
ャートである。
FIG. 9 is a flowchart of the high speed calculation processing in the corresponding point locus interpolation unit 19 of the image processing apparatus according to the third embodiment.

【0054】対応点軌跡内挿部19は、まずステップS
11及びステップS12において、すべての対応点軌跡
係数について、それぞれx′及びk′を数式(8)及び
数式(9)に基づいて算出する。次にステップS13で
視点位置を視点位置入力部20から取得し、続くステッ
プS14で視点位置が変化するごとに1回だけ、数式
(10)に基づきZ′を計算する。そして、各水平ライ
ンのすべての対応点軌跡係数について、ステップ15で
数式(7)に基づき輝点の表示位置を算出し、ステップ
16で輝点の濃淡値を描画し、続くステップS6で水平
ライン毎にすべての対応点軌跡について処理を終了した
か否かを判別する。そして、その答が否定(No)のと
きはステップS15に戻る一方、その答が肯定(Ye
s)のときはステップS18に進み、視点位置、すなわ
ち観察者の眼の位置が変化した場合の全ての視点位置に
ついて処理を終了したか否かを判別し、その答が否定
(No)のときはステップS14に戻って視点検出器5
を介して新たな視点位置を取得し処理を続行する一方、
その答が肯定(Yes)のときは処理を終了する。
The corresponding point locus interpolation unit 19 first determines in step S
In step 11 and step S12, x'and k'are calculated for all corresponding point locus coefficients based on equations (8) and (9), respectively. Next, in step S13, the viewpoint position is acquired from the viewpoint position input unit 20, and in the subsequent step S14, Z'is calculated based on the formula (10) only once each time the viewpoint position changes. Then, with respect to all the corresponding point locus coefficients of each horizontal line, the display position of the bright spot is calculated in step 15 based on the mathematical expression (7), the gray value of the bright spot is drawn in step 16, and the horizontal line is drawn in step S6. It is determined whether or not the processing has been completed for all corresponding point trajectories. When the answer is negative (No), the process returns to step S15, while the answer is affirmative (Yes).
In the case of s), the process proceeds to step S18, and it is determined whether or not the processing is completed for all viewpoint positions when the viewpoint position, that is, the position of the eyes of the observer has changed, and when the answer is negative (No) Returns to step S14 and the viewpoint detector 5
While acquiring a new viewpoint position via and continuing the process,
If the answer is affirmative (Yes), the process ends.

【0055】以上の処理により、本第3の実施の形態で
は対応軌跡内挿処理を高速に行うことができ、よりスム
ーズな視点移動が可能になる。
With the above processing, in the third embodiment, the corresponding trajectory interpolation processing can be performed at high speed, and a smoother viewpoint movement is possible.

【0056】次に、第4の実施の形態として前後上下左
右に視点移動可能な画像処理装置について説明する。
Next, as a fourth embodiment, an image processing apparatus capable of moving the viewpoint forward, backward, upward, downward, leftward and rightward will be described.

【0057】図10は第4の実施の形態の画像処理装置
を模式的に示した斜視図であって、複数の多眼カメラ2
…が上下左右方向に平面上に配設されている。
FIG. 10 is a perspective view schematically showing the image processing apparatus according to the fourth embodiment, in which a plurality of multi-lens cameras 2 are used.
Are arranged on a plane in the vertical and horizontal directions.

【0058】本第4の実施の形態では、入力多視点画像
保持部9の入力画像は、左右上下にXY平面上に並んだ
視点から撮影された画像である。このため、ある輝点の
像の軌跡は、入力多視点画像保持部9の多視点画像がな
す4次元画像空間中の平面となる。したがって、対応点
軌跡判定部11の対応点軌跡判定処理は、この入力4次
元画像空間中の平面判定処理に等しい。この平面は、視
点の位置の座標を(X, Y)、軌跡上の輝点の位置座標
を(x, y)、軌跡の位置座標を(x0, y0)とする
と数式(11)で表される。
In the fourth embodiment, the input image of the input multi-view image holding unit 9 is an image taken from viewpoints arranged on the XY plane in the left, right, up and down directions. Therefore, the locus of the image of a certain bright spot becomes a plane in the four-dimensional image space formed by the multi-viewpoint images of the input multi-viewpoint image holding unit 9. Therefore, the corresponding point locus determination process of the corresponding point locus determination unit 11 is equal to the plane determination process in the input four-dimensional image space. This plane is expressed by equation (11), where the position coordinates of the viewpoint are (X, Y), the position coordinates of the bright points on the locus are (x, y), and the position coordinates of the locus are (x0, y0). It

【0059】 (x, y)=((x0+k・X), (y0+k・Y)) …(11) 軌跡係数制御部12の算出する軌跡係数は平面の位置と
傾きを示す(x0, y0, k)の3つの係数の組とな
る。対応点軌跡判定部11は、軌跡係数制御部12及び
判定二重閾値制御部14により順次制御され、画像空間
中で平面状軌跡を判定し、検出した平面の係数を検出軌
跡記憶部13に記憶する。データ出力部16によって出
力されるパラメトリックデータは、検出された平面状軌
跡の枚数分の、係数の組みである。
(X, y) = ((x0 + k · X), (y0 + k · Y)) (11) The trajectory coefficient calculated by the trajectory coefficient control unit 12 indicates the position and the inclination of the plane (x0, y0, k). ) Is a set of three coefficients. The corresponding point trajectory determination unit 11 is sequentially controlled by the trajectory coefficient control unit 12 and the determination double threshold control unit 14, determines a planar trajectory in the image space, and stores the detected plane coefficient in the detection trajectory storage unit 13. To do. The parametric data output by the data output unit 16 is a set of coefficients corresponding to the number of detected planar trajectories.

【0060】本第4の実施の形態においては、XY平面
上の表示位置(x,y)は数式(7)を変形して、数式
(12)の如く表される。
In the fourth embodiment, the display position (x, y) on the XY plane is expressed by Expression (12) by modifying Expression (7).

【0061】 (x, y)=( (x′+X)/(k′+Z′),y′+Y) …(12) ここで、y′は数式(13)で表される。(X, y) = ((x ′ + X) / (k ′ + Z ′), y ′ + Y) (12) Here, y ′ is represented by Formula (13).

【0062】y′=y0/k …(13) 図11は本第4の実施の形態における対応点軌跡内挿部
19の処理手順を示すフローチャートである。
Y '= y0 / k (13) FIG. 11 is a flowchart showing the processing procedure of the corresponding point locus interpolation unit 19 in the fourth embodiment.

【0063】対応点軌跡内挿部19は、まずステップS
21及びステップS22において、すべての対応点軌跡
係数について、それぞれx′、y′及びk′を数式
(8)、数式(13)及び数式(9)に基づいて算出す
る。次にステップS23で視点位置を視点位置入力部2
0から取得し、続くステップS24で視点位置が変化す
るごとに1回だけ、数式(10)に基づきZ′を算出す
る。そして、ステップ25で数式(7)に基づき輝点の
表示位置を算出し、ステップ26で輝点の濃淡値を描画
し、続くステップS27ですべての対応点軌跡について
処理を終了したか否かを判別する。ここで、全ての対応
点軌跡における処理は、各水平ライン及び各垂直ライン
を連立させて解析することにより行う。そして、その答
が否定(No)のときはステップS25に戻る一方、そ
の答が肯定(Yes)のときはステップS28に進み、
視点位置の変化について全て処理を終了したか否かを判
別し、その答が否定(No)のときはステップS24に
戻って新たな視点位置を取得し処理を続行する一方、そ
の答が肯定(Yes)のときは処理を終了する。
The corresponding point locus interpolating section 19 first determines in step S
In step 21 and step S22, x ', y', and k'are calculated for all corresponding point locus coefficients based on equations (8), (13), and (9). Next, in step S23, the viewpoint position is input to the viewpoint position input unit 2
Then, Z ′ is calculated based on the equation (10) only once each time the viewpoint position changes in step S24. Then, in step 25, the display position of the bright spot is calculated based on the mathematical expression (7), in step 26, the gray value of the bright spot is drawn, and in step S27, it is determined whether or not the processing has been completed for all corresponding point loci. Determine. Here, the processing on all the corresponding point loci is performed by simultaneously analyzing each horizontal line and each vertical line. When the answer is negative (No), the process returns to step S25, while when the answer is affirmative (Yes), the process proceeds to step S28.
It is determined whether or not the processing has been completed for all changes in the viewpoint position, and if the answer is negative (No), the process returns to step S24 to acquire a new viewpoint position and continue the processing, while the answer is affirmative (No. In the case of Yes), the processing ends.

【0064】本第4の実施の形態では、入力画像が上下
方向の視差を持つため、第2の実施の形態、及び第3の
実施の形態で生じるような上下方向の画像の歪みが生じ
ることもなくなる。
In the fourth embodiment, since the input image has a vertical parallax, the vertical image distortion that occurs in the second and third embodiments may occur. Also disappears.

【0065】本実施の形態では、計算機のCPUの処理
速度やRAMの記憶容量に応じて階層データを入力する
ようにしていたが、これを以下のようにすれば、より高
画質な画像を生成できるようになる。
In this embodiment, the hierarchical data is input according to the processing speed of the CPU of the computer and the storage capacity of the RAM. However, if this is performed as described below, a higher quality image is generated. become able to.

【0066】まず、すべての階層のパラメトリックデー
タを蓄積メディア4から読み込む。そして、観察者の視
点移動速度と計算機パワーとの兼ね合いから、画像生成
に使用する最適な階層データをパラメトリックデータか
ら選択し、画像生成・表示する。観察者が視点を移動さ
せない時、例えば、1秒以上同じ視点位置で観察してい
た場合は、その部分をより詳しく見たいと解釈し、より
解像度の高い階層データを使用して画像生成・表示す
る。さらに、観察者が視点位置を変えない時間を計測
し、一定時間毎に使用する階層データの解像度を上げて
ゆくようにすることも可能である。
First, the parametric data of all layers are read from the storage medium 4. Then, the optimum hierarchical data used for image generation is selected from the parametric data in view of the balance between the observer's viewpoint moving speed and the computer power, and the image is generated and displayed. When the observer does not move the viewpoint, for example, when observing at the same viewpoint position for 1 second or longer, it is interpreted that the user wants to see that part in more detail, and image generation / display using higher resolution hierarchical data. To do. Furthermore, it is also possible to measure the time during which the observer does not change the viewpoint position and increase the resolution of the hierarchical data used at regular intervals.

【0067】また、人間の視覚特性により、高速に移動
している時は、物体を明確に識別することはできない。
従って、観察者が視点移動を始めた時は、そのスピード
に応じて画像生成負荷の軽い低解像度の階層データを画
像生成に使用しても、観察者はあまり画質の低下を感じ
ないので、そのスピードに応じて負荷の軽い低解像度の
階層データを画像生成に利用する。
Also, due to human visual characteristics, it is not possible to clearly identify an object when moving at high speed.
Therefore, when the observer starts moving the viewpoint, even if the low-resolution hierarchical data with a light image generation load is used for image generation according to the speed, the observer does not feel much deterioration in image quality. Low-resolution hierarchical data with a light load depending on speed is used for image generation.

【0068】以上により、計算機パワーが低くても、視
点移動速度に応じて適当な階層データを利用し画像を生
成する事で、より高画質な画像を観察者に提示可能とな
る。また、上記各実施の形態では、あらかじめ撮影され
た多視点画像が入力多視点画像保持部9に保持されてい
る構成としたが、これを、多視点画像を実時間で取り込
むことのできる多眼テレビカメラに置き換えることによ
り、実時間の任意視点画像撮影・表示システムとなる。
As described above, even if the computer power is low, it is possible to present a higher quality image to the observer by generating an image using appropriate hierarchical data according to the viewpoint moving speed. Moreover, in each of the above-described embodiments, the multi-viewpoint image captured in advance is held in the input multi-viewpoint image holding unit 9. However, this is a multi-viewpoint that can capture the multi-viewpoint image in real time. By replacing it with a TV camera, it becomes a real-time arbitrary viewpoint image capturing / display system.

【0069】さらに、パラメトリックデータを通信デー
タとして遠隔端末間でデータの授受を行う場合は、実時
間の任意視点画像通信システムとなる。
Further, when data is exchanged between remote terminals using parametric data as communication data, a real-time arbitrary viewpoint image communication system is used.

【0070】なお、本発明は単体の画像処理装置に適用
しても良いし、多視点テレビ、多視点テレビ電話端末や
多視点テレビ会議システムのようなシステム機器に適用
しても良いし、コンピュータや他の画像処理装置と組み
合わせた複合装置にも適用できる。
The present invention may be applied to a single image processing apparatus, to a system device such as a multi-view television, a multi-view video telephone terminal or a multi-view video conference system, or a computer. Also, it can be applied to a composite device combined with another image processing device.

【0071】[0071]

【発明の効果】以上説明したように本発明は、観察者の
目の位置を検出し、観察者から見える画像を複数枚の画
像から再構成することにより、観察者の視点が移動した
場合にそれに対応した画像をスムーズに出力することが
でき、また、装置に必要な記憶容量も、考えられうる視
点移動に対応した画像をすべて保持する場合に比べて、
極めて少なくて済む。
As described above, the present invention detects the position of the eyes of the observer and reconstructs the image seen by the observer from a plurality of images, so that the viewpoint of the observer moves. Images corresponding to it can be output smoothly, and the storage capacity required for the device is larger than that in the case where all images corresponding to possible viewpoint movement are held.
Very few.

【0072】また、入力多視点画像を解像度の異なる多
視点画像へ変換し、複数の解像度の多視点画像データに
対して画像生成を可能としたので、使用する計算機のパ
ワーに応じて対応点軌跡係数を選択して使用することに
より、視点移動時の画像生成時間が短縮されて反応が早
くなり、快適な観察が可能となる。
Further, since the input multi-viewpoint images are converted into multi-viewpoint images having different resolutions and the images can be generated with respect to the multi-viewpoint image data of a plurality of resolutions, the corresponding point locus is determined according to the power of the computer used. By selecting and using the coefficient, the image generation time when the viewpoint is moved is shortened, the reaction becomes faster, and comfortable observation becomes possible.

【0073】さらに、本発明によれば、従来では対応で
きなかった前後方向への視点移動も可能となる。
Furthermore, according to the present invention, it is possible to move the viewpoint in the front-rear direction, which was not possible in the past.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置の一実施の形態を模
式的に示した斜視図である。
FIG. 1 is a perspective view schematically showing an embodiment of an image processing apparatus according to the present invention.

【図2】上記画像処理装置の内部詳細を示すブロック構
成図である。
FIG. 2 is a block diagram showing internal details of the image processing apparatus.

【図3】解像度の異なる多視点画像の組を示す図であ
る。
FIG. 3 is a diagram showing a set of multi-view images having different resolutions.

【図4】エピポーラ・プレーン画像、対応点軌跡及び軌
跡係数の説明を示す図である。
FIG. 4 is a diagram illustrating an epipolar plane image, a corresponding point trajectory, and a trajectory coefficient.

【図5】対応点軌跡判定部の処理手順を示すフローチャ
ートである。
FIG. 5 is a flowchart showing a processing procedure of a corresponding point locus determination unit.

【図6】直線判定処理の判定条件を示す図である。FIG. 6 is a diagram showing a determination condition of a straight line determination process.

【図7】判定二重閾値制御部の二重閾値制御シーケンス
を示す図である。
FIG. 7 is a diagram showing a double threshold control sequence of a determination double threshold control unit.

【図8】第2の実施の形態における対応点軌跡内挿部の
処理手順を説明するための説明図である。
FIG. 8 is an explanatory diagram illustrating a processing procedure of a corresponding point trajectory interpolation unit according to the second embodiment.

【図9】第3の実施の形態の対応点軌跡内挿部の処理手
順を示すフローチャートである。
FIG. 9 is a flowchart illustrating a processing procedure of a corresponding point trajectory interpolation unit according to the third embodiment.

【図10】第4の実施の形態を模式的に示した斜視図で
ある。
FIG. 10 is a perspective view schematically showing a fourth embodiment.

【図11】第4の実施の形態の対応点軌跡内挿部の処理
手順を示すフローチャートである。
FIG. 11 is a flowchart showing a processing procedure of a corresponding point locus interpolation unit according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

9 入力多視点画像保持部 10 階層データ生成部 11 対応点軌跡判定部 12 軌跡係数制御部 13 検出軌跡記憶部 14 判定二重閾値制御部(基準値制御手段) 15 検出奥行き配列保持部 16 データ出力部 17 階層データ選択部 18 データ入力部 19 対応点軌跡内挿部 20 視点位置入力部 21 画像表示部 9 Input multi-view image holding unit 10 Hierarchical data generation unit 11 Corresponding point locus determination unit 12 Locus coefficient control unit 13 Detection locus storage unit 14 Judgment double threshold value control unit (reference value control means) 15 Detection depth array holding unit 16 Data output Part 17 Hierarchical data selection part 18 Data input part 19 Corresponding point locus interpolation part 20 Viewpoint position input part 21 Image display part

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 視点に応じた画像を生成するための画像
処理装置において、それぞれ異なる複数の位置を視点と
する多視点画像データを保持する多視点画像データ保持
手段と、該多視点画像データ保持手段が保持する多視点
画像データを異なる解像度の多視点画像データに変換す
る階層データ生成手段と、該階層データ生成手段により
生成された複数の多視点画像データにおいてそれぞれの
多視点画像中の画像間で相互に対応する対応点を規定す
る係数を順次検出する対応点軌跡検出手段と、前記対応
点軌跡係数から画像生成に使用する演算処理手段に応じ
た階層データに対応する対応点軌跡係数データを選択す
る階層データ選択手段と、選択された対応点軌跡係数デ
ータを入力するデータ入力手段と、観察者の視点位置を
入力する視点位置入力手段と、観察者の視点位置に応じ
て前記対応点軌跡係数データから画像を生成する対応点
軌跡内挿手段と、生成された画像を表示する画像表示手
段を有することを特徴とする画像処理装置。
1. An image processing apparatus for generating an image according to a viewpoint, a multi-view image data holding means for holding multi-view image data having a plurality of different positions as viewpoints, and the multi-view image data holding. Hierarchical data generation means for converting the multi-viewpoint image data held by the means into multi-viewpoint image data of different resolutions, and between the images in the respective multi-viewpoint images in the plurality of multi-viewpoint image data generated by the hierarchical data generation means. Corresponding point locus detecting means for sequentially detecting coefficients defining corresponding points corresponding to each other, and corresponding point locus coefficient data corresponding to hierarchical data corresponding to the arithmetic processing means used for image generation from the corresponding point locus coefficients. Hierarchical data selection means, data input means for inputting selected corresponding point locus coefficient data, and viewpoint position input for inputting the observer's viewpoint position Image processing, including force means, corresponding point locus interpolation means for generating an image from the corresponding point locus coefficient data according to the viewpoint position of the observer, and image display means for displaying the generated image. apparatus.
【請求項2】 前記階層データ生成手段は、前記多視点
画像データの各々について、解像度の異なる複数の画像
を生成することを特徴とする請求項1に記載の画像処理
装置。
2. The image processing apparatus according to claim 1, wherein the hierarchical data generation means generates a plurality of images having different resolutions for each of the multi-viewpoint image data.
【請求項3】 前記階層データ選択手段は、前記演算処
理手段の処理速度及び該演算処理手段に内蔵された記憶
手段の記憶容量のうちの少なくともいずれか一方に応じ
て、対応点軌跡データ中の階層データを選択することを
特徴とする請求項1又は請求項2記載の画像処理装置。
3. The hierarchical data selection means selects the corresponding point locus data from the corresponding point locus data according to at least one of a processing speed of the arithmetic processing means and a storage capacity of a storage means built in the arithmetic processing means. The image processing apparatus according to claim 1, wherein hierarchical data is selected.
【請求項4】 前記対応点軌跡検出手段は、前記多視点
画像データのエピポーラ・プレーン画像上での対応点軌
跡である直線を規定する対応点軌跡係数を検出すること
を特徴とする請求項1乃至請求項3のいずれかに記載の
画像処理装置。
4. The corresponding point locus detection means detects a corresponding point locus coefficient that defines a straight line that is a corresponding point locus on the epipolar plane image of the multi-viewpoint image data. The image processing apparatus according to claim 3.
【請求項5】 前記対応点軌跡検出手段は、前記多視点
画像データの対応点軌跡である平面を規定する対応点軌
跡係数を検出することを特徴とする請求項1乃至請求項
4のいずれかに記載の画像処理装置。
5. The corresponding point locus detecting means detects a corresponding point locus coefficient that defines a plane that is a corresponding point locus of the multi-viewpoint image data. The image processing device according to item 1.
【請求項6】 前記対応点軌跡検出手段は、対応点の検
出基準となる基準値を可変制御することを特徴とする請
求項1乃至請求項5のいずれかに記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the corresponding point locus detecting means variably controls a reference value serving as a reference for detecting the corresponding points.
【請求項7】 視点に応じた画像を生成するための画像
処理方法において、それぞれ異なる複数の位置を視点と
する多視点画像データを保持する多視点画像データ保持
工程と、該多視点画像データ保持工程が保持する多視点
画像データを異なる解像度の多視点画像データに変換す
る階層データ生成工程と、該階層データ生成工程により
生成された複数の多視点画像データにおいてそれぞれの
多視点画像中の画像間で相互に対応する対応点を規定す
る係数を順次検出する対応点軌跡検出工程と、前記対応
点軌跡係数から画像生成に使用する演算処理手段に応じ
た階層データに対応する対応点軌跡係数データを選択す
る階層データ選択工程と、選択された対応点軌跡係数デ
ータを入力するデータ入力工程と、観察者の視点位置を
入力する視点位置入力工程と、観察者の視点位置に応じ
て前記対応点軌跡係数データから画像を生成する対応点
軌跡内挿工程と、生成された画像を表示する画像表示工
程とを含むことを特徴とする画像処理方法。
7. An image processing method for generating an image according to a viewpoint, a multi-viewpoint image data holding step of holding multi-viewpoint image data having a plurality of different positions as viewpoints, and the multi-viewpoint image data holding Hierarchical data generation step of converting multi-viewpoint image data held by a step into multi-viewpoint image data of different resolutions, and between images in respective multi-viewpoint images in a plurality of multi-viewpoint image data generated by the hierarchical data generation step. Corresponding point locus detection step of sequentially detecting coefficients defining corresponding points corresponding to each other, and corresponding point locus coefficient data corresponding to hierarchical data corresponding to the arithmetic processing means used for image generation from the corresponding point locus coefficients. Hierarchical data selection process to select, data input process to input selected corresponding point locus coefficient data, viewpoint position input to input observer's viewpoint position An image characterized by including a force step, a corresponding point locus interpolation step of generating an image from the corresponding point locus coefficient data according to the viewpoint position of the observer, and an image display step of displaying the generated image. Processing method.
【請求項8】 前記階層データ生成工程は、前記多視点
画像データの各々について、解像度の異なる複数の画像
を生成することを特徴とする請求項7記載の画像処理方
法。
8. The image processing method according to claim 7, wherein the hierarchical data generating step generates a plurality of images having different resolutions for each of the multi-viewpoint image data.
【請求項9】 前記階層データ選択工程は、前記演算処
理手段の処理速度及び該演算処理手段に内蔵された記憶
手段の記憶容量のうちの少なくともいずれか一方に応じ
て、対応点軌跡データ中の階層データを選択することを
特徴とする請求項7又は請求項8記載の画像処理方法。
9. The hierarchical data selecting step is performed in accordance with at least one of a processing speed of the arithmetic processing means and a storage capacity of a storage means incorporated in the arithmetic processing means, in the corresponding point locus data. 9. The image processing method according to claim 7, wherein hierarchical data is selected.
【請求項10】 前記対応点軌跡検出工程は、前記多視
点画像データのエピポーラ・プレーン画像上での対応点
軌跡である直線を規定する対応点軌跡係数を検出するこ
とを特徴とする請求項7乃至請求項9のいずれかに記載
の画像処理方法。
10. The corresponding point locus detecting step detects a corresponding point locus coefficient that defines a straight line that is a corresponding point locus on the epipolar plane image of the multi-viewpoint image data. The image processing method according to claim 9.
【請求項11】 前記対応点軌跡検出工程は、前記多視
点画像データの対応点軌跡である平面を規定する対応点
軌跡係数を検出することを特徴とする請求項7乃至請求
項10のいずれかに記載の画像処理方法。
11. The corresponding point locus detecting step detects a corresponding point locus coefficient that defines a plane which is a corresponding point locus of the multi-viewpoint image data. The image processing method described in.
【請求項12】 前記対応点軌跡検出工程は、対応点の
検出基準となる基準値を可変制御することを特徴とする
請求項7乃至請求項11のいずれかに記載の画像処理方
法。
12. The image processing method according to claim 7, wherein the corresponding point locus detecting step variably controls a reference value serving as a reference for detecting the corresponding points.
JP8027415A 1996-01-23 1996-01-23 Image processing unit and image processing method Pending JPH09200803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8027415A JPH09200803A (en) 1996-01-23 1996-01-23 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8027415A JPH09200803A (en) 1996-01-23 1996-01-23 Image processing unit and image processing method

Publications (1)

Publication Number Publication Date
JPH09200803A true JPH09200803A (en) 1997-07-31

Family

ID=12220471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8027415A Pending JPH09200803A (en) 1996-01-23 1996-01-23 Image processing unit and image processing method

Country Status (1)

Country Link
JP (1) JPH09200803A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249772A (en) * 1998-02-26 1999-09-17 Dainippon Printing Co Ltd Virtual environment presenting device
US6778944B2 (en) 2001-09-10 2004-08-17 Jeol Ltd. Method and system for managing data
JP2007507781A (en) * 2003-09-30 2007-03-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion control for image rendering
JP2009238117A (en) * 2008-03-28 2009-10-15 Toshiba Corp Multi-parallax image generation device and method
WO2011161848A1 (en) * 2010-06-24 2011-12-29 株式会社ソニー・コンピュータエンタテインメント Image processing device, content preparation supporting device, method of processing image, method of supporting content preparation, and data structures of image file
JP2014072747A (en) * 2012-09-28 2014-04-21 Dainippon Printing Co Ltd Stereoscopic display device and stereoscopic display system
JP2014071870A (en) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image composition device, virtual viewpoint image composition method, and virtual viewpoint image composition program
CN111667508A (en) * 2020-06-10 2020-09-15 北京爱笔科技有限公司 Detection method and related device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249772A (en) * 1998-02-26 1999-09-17 Dainippon Printing Co Ltd Virtual environment presenting device
US6778944B2 (en) 2001-09-10 2004-08-17 Jeol Ltd. Method and system for managing data
JP2007507781A (en) * 2003-09-30 2007-03-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion control for image rendering
JP2009238117A (en) * 2008-03-28 2009-10-15 Toshiba Corp Multi-parallax image generation device and method
WO2011161848A1 (en) * 2010-06-24 2011-12-29 株式会社ソニー・コンピュータエンタテインメント Image processing device, content preparation supporting device, method of processing image, method of supporting content preparation, and data structures of image file
JP2012008803A (en) * 2010-06-24 2012-01-12 Sony Computer Entertainment Inc Image processing device, content creation supporting device, image processing method, content creation supporting method, and data structure of image file
US8531488B2 (en) 2010-06-24 2013-09-10 Sony Corporation Image processing apparatus and method, content creating support apparatus and method and data structure of image file with speed map to determine speed of viewpoint change
JP2014072747A (en) * 2012-09-28 2014-04-21 Dainippon Printing Co Ltd Stereoscopic display device and stereoscopic display system
JP2014071870A (en) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image composition device, virtual viewpoint image composition method, and virtual viewpoint image composition program
CN111667508A (en) * 2020-06-10 2020-09-15 北京爱笔科技有限公司 Detection method and related device
CN111667508B (en) * 2020-06-10 2023-10-24 北京爱笔科技有限公司 Detection method and related device

Similar Documents

Publication Publication Date Title
EP2357838B1 (en) Method and apparatus for processing three-dimensional images
US6233004B1 (en) Image processing method and apparatus
US8577128B2 (en) Method and apparatus for processing three-dimensional images
EP0637815B1 (en) Image processing method and image processing apparatus
US6353457B2 (en) Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
JP3728160B2 (en) Depth image measuring apparatus and method, and mixed reality presentation system
US5764236A (en) Image data processing apparatus and image reproduction apparatus
JP2005295004A (en) Stereoscopic image processing method and apparatus thereof
JP3032414B2 (en) Image processing method and image processing apparatus
JP3096612B2 (en) Time-division stereoscopic video signal detection method, time-division stereoscopic video signal detection device, and stereoscopic video display device
JPH09200803A (en) Image processing unit and image processing method
JP3054312B2 (en) Image processing apparatus and method
JPH09288735A (en) Image processor
JP3091627B2 (en) Method and apparatus for converting a two-dimensional image into a three-dimensional image
JP3357754B2 (en) Pseudo-stereo image generation method and pseudo-stereo image generation device
JPH07296139A (en) Method and device for processing image
JPH0421187A (en) Stereoscopic image display device