JP2006039770A - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JP2006039770A
JP2006039770A JP2004216320A JP2004216320A JP2006039770A JP 2006039770 A JP2006039770 A JP 2006039770A JP 2004216320 A JP2004216320 A JP 2004216320A JP 2004216320 A JP2004216320 A JP 2004216320A JP 2006039770 A JP2006039770 A JP 2006039770A
Authority
JP
Japan
Prior art keywords
image
matching
pixel
virtual viewpoint
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004216320A
Other languages
Japanese (ja)
Other versions
JP4586447B2 (en
Inventor
Kenichiro Oi
堅一郎 多井
Ikoku Go
偉国 呉
Takayuki Ashigahara
隆之 芦ヶ原
Koichi Uchide
浩一 打出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004216320A priority Critical patent/JP4586447B2/en
Publication of JP2006039770A publication Critical patent/JP2006039770A/en
Application granted granted Critical
Publication of JP4586447B2 publication Critical patent/JP4586447B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce irregularities in an image that may occur while a virtual image is generated, when generating an image (hereinafter referred to as the virtual image) at a virtual visual point as a virtual visual point, between respective images acquired by photographing a subject from mutually different visual points by at least two or more cameras. <P>SOLUTION: In an image acquired by at least two cameras 11a, 12a, each correspondence result of each pixel is obtained by two matching means 28, 29 for obtaining corresponding relation of each mutually different pixel, the presence of irregularities in the image is verified from the comparison of each correspondence by an information generation part 33, and an appropriate composite image is generated by a virtual visual point image generation part 30 based on the verification result, so that the irregularities in a virtual visual point image are reduced. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、送受信する画像を撮像してこれを仮想カメラにより撮像した結果得られる仮想視点画像に再構成する画像処理装置及び方法、プログラムに関する。   The present invention is applied to a video conference system or a video phone system, for example, and relates to an image processing apparatus, method, and program for capturing an image to be transmitted and received and reconstructing it into a virtual viewpoint image obtained as a result of capturing the image with a virtual camera.

テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所で相手の表示像を視認し、遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の画像処理装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。   As represented by a video phone system, a video conference system, and the like, a system has been proposed in which a plurality of users visually recognize a display image of the other party at a location apart from each other and perform remote dialogue. In such a system, a display image of the other party is displayed on the display, and a user who visually recognizes the display is imaged as a subject to be photographed, and the obtained image signal is transmitted through a network such as a public line or a dedicated line. By transmitting to the image processing apparatus, it is possible to give both users a sense of reality.

従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。   In a conventional video conference system, a user who visually recognizes the display image of the other party displayed near the center of the display is captured by the camera at the top of the display, so that the image of the user facing down is displayed on the other party's display. Will be displayed. For this reason, there is a problem in that the users who actually view the display are interacted with each other in a state where their lines of sight are inconsistent, giving a sense of discomfort to each other.

理想的には、相手の表示像が写し出される箇所にカメラを設置すれば、ユーザは自然とカメラ目線となるため、双方のユーザの視線を一致させた状態で対話を実現することができる。しかし、相手の表示像の上にカメラを設置すると非常に目障りになる問題がある。   Ideally, if the camera is installed at a location where the display image of the other party is projected, the user naturally looks at the camera, so that the conversation can be realized with the eyes of both users matched. However, if a camera is installed on the display image of the other party, there is a problem that becomes very obtrusive.

このような視線不一致に関する問題点を解決すべく、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献1参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現させている。   In order to solve the problem related to the line-of-sight mismatch, three-dimensional information of the subject is extracted based on input images taken by a plurality of cameras arranged on both sides of the display, and the extracted three-dimensional information and the receiver's There has been proposed an image processing apparatus that reconstructs an output image of a subject in accordance with information on a viewpoint position and displays the image on a display on the other side (see, for example, Patent Document 1). In this image processing apparatus, by synthesizing a virtual viewpoint camera image centered on the screen using an epipolar plane image generated from a plurality of camera images arranged on a straight line, the user's line of sight is made coincident and a sense of presence is realized. We realize high communication.

上記装置の他に、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影し、得られた画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献2参照。)も提案されている。   In addition to the above devices, in order to match each other's line of sight in a video conference, an image communication device that captures images with two cameras installed on the left and right of the screen and generates three-dimensional position information based on the obtained images ( For example, see Patent Document 2).

ところで、ユーザを被写体として異なる視点から撮像することにより得られる画像Ps1,Ps2間において、図17に示すように、繰り返しパターン(例えば、チェック柄)や、輝度変化が殆ど生じないいわゆる非特徴点(例えば単一色の壁)において対応付けが困難であった。   By the way, between the images Ps1 and Ps2 obtained by imaging the user from different viewpoints as shown in FIG. 17, as shown in FIG. 17, a repetitive pattern (for example, a check pattern) or a so-called non-characteristic point that hardly changes in luminance ( For example, it is difficult to make a correspondence in a single color wall).

また、異なる視点から撮像することにより得られる画像Ps1,Ps2では、被写体からカメラに至るまでの距離に基づく視差により、例えば図17に示す頬や耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。オクリュージョン領域では、上記視差により、一方の画像Ps1に表示されている対象物の対応点が他方の画像Ps2において隠れているため、対応付けを行う場合に不都合が生じる問題があった。   In addition, in the images Ps1 and Ps2 obtained by imaging from different viewpoints, for example, the contents displayed on the cheeks and ears shown in FIG. 17 differ depending on the parallax from the subject to the camera. . Hereinafter, such a region is referred to as an occlusion region. In the occlusion area, due to the parallax, the corresponding point of the object displayed in one image Ps1 is hidden in the other image Ps2, and thus there is a problem that inconvenience occurs when performing the association.

また、異なる視点から撮像することにより得られる画像Ps1,Ps2は、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域において、輝度成分,色成分につき格差が生じ、対応付けに間違いが起こるため、対応付けに基づいて生成する仮想視点画像が乱れてしまうという問題点があった。   In addition, images Ps1 and Ps2 obtained by imaging from different viewpoints are, for example, in regions where brightness varies depending on the viewing direction, such as a window portion, or in regions where specular reflection occurs, such as a user's nose portion. However, there is a problem that a difference occurs between the luminance component and the color component and an error occurs in the association, so that the virtual viewpoint image generated based on the association is disturbed.

以上の改善策とは別の方法として、被写体を適切な位置・姿勢へ誘導させ、適切な映像を取得することを目的とした画像通信端末装置のユーザインタフェースが提案されている(例えば、特許文献3参照。)。このユーザインタフェースでは、カメラシステムからの被写体の位置や姿勢を検出した結果を用いて、当該被写体としてのユーザがカメラに対して接近し過ぎていてカメラフレームから逸脱している場合には、ユーザに適切な指示を与えることにより実写映像の改善を図る。しかしながら、この従来における画像通信端末装置では、実写映像を想定した環境下においてカメラフレーム内に被写体が収まるようにするという観点においては有効であるものの、仮想視点画像生成時は乱れの要因が被写体以外の物体(背景等)の特徴にあることが多いため、有効であるとはいい難い。さらに、複雑な背景と前景との奥行き・オクルージョンに配慮しながら被写体の適切な位置・姿勢を誘導させることは非常に困難である。   As a method different from the above improvement measures, a user interface of an image communication terminal device for guiding a subject to an appropriate position / posture and acquiring an appropriate video has been proposed (for example, Patent Documents). 3). In this user interface, if the user as the subject is too close to the camera and deviates from the camera frame using the result of detecting the position and orientation of the subject from the camera system, the user interface Improve live-action video by giving appropriate instructions. However, although this conventional image communication terminal device is effective in terms of ensuring that the subject fits within the camera frame under an environment that assumes a live-action video, the disturbance factor is not the subject when generating the virtual viewpoint image. It is difficult to say that it is effective because there are many features of the object (background, etc.). Furthermore, it is very difficult to guide the appropriate position and orientation of the subject while taking into account the depth and occlusion between the complex background and the foreground.

特開2001−52177号公報JP 2001-52177 A 特開2002−300602号公報JP 2002-300602 A 特開平8−251561号公報JP-A-8-251561

そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、各カメラから得られる画像から作成される仮想視点画像の乱れを自動的に効率的かつ高精度に除去することが可能な画像処理装置及び方法、プログラムを提供することにある。   Accordingly, the present invention has been devised in view of the above-described problems, and the object of the present invention is to automatically and efficiently prevent disturbance of a virtual viewpoint image created from an image obtained from each camera. An object of the present invention is to provide an image processing apparatus, method, and program that can be accurately removed.

本発明を適用した画像処理装置は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、画素毎に対応関係を求める第1のマッチング手段と、上記第1のマッチング手段と異なる手法に基づき画素毎に対応関係を求める第2のマッチング手段と、上記第1のマッチング手段により求められた対応関係と、上記第2のマッチング手段により求められた対応関係とを上記画素毎に比較するとともに、仮想的な視点である仮想視点からの画像を得るために設定する仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を、当該比較結果に基づいて生成する情報生成手段と、上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から、上記情報生成手段により生成された上記仮想視点の相対位置情報に基づいて、上記仮想視点における仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備える。   In order to solve the above-described problem, an image processing apparatus to which the present invention is applied has a correspondence relationship for each pixel between each image obtained by imaging a subject from different viewpoints by at least two cameras. A first matching means to be obtained; a second matching means for obtaining a correspondence relationship for each pixel based on a technique different from the first matching means; a correspondence relationship obtained by the first matching means; And a relative positional relationship for each camera with a virtual viewpoint set to obtain an image from a virtual viewpoint that is a virtual viewpoint. Information generating means for generating the relative position information shown based on the comparison result, and the first matching means and / or the second matching means Based on the relative position information of the virtual viewpoint generated by the information generation means from the positions and luminance components of the pixels associated with each other, the positions of the pixels constituting the virtual viewpoint image at the virtual viewpoint and the luminance components thereof Image generating means for obtaining

本発明を適用した画像処理装置は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチング手段と、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチング手段と、 上記第1のマッチング手段により求められた対応関係と、上記第2のマッチング手段により求められた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成手段と、上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から上記情報生成手段により生成された相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備え、上記第1のマッチング手段は上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める。   In order to solve the above-described problem, an image processing apparatus to which the present invention is applied is related to the subject among images obtained by capturing subjects from different viewpoints by at least two cameras. A first matching unit that obtains a correspondence relationship for each pixel on the same horizontal line, and a block in which a plurality of pixels are two-dimensionally arranged are cut out for each image, and luminance components between the cut out blocks are calculated. A second matching means for sequentially calculating a sum of absolute differences and obtaining a correspondence for each pixel based on a set of blocks having the smallest calculated sum of absolute differences; and a correspondence obtained by the first matching means And the correspondence obtained by the second matching means for each pixel, and set to obtain an image from a certain viewpoint Information generating means for generating relative position information indicating the relative positional relationship between the virtual viewpoint and each of the cameras based on the comparison result, and the first matching means and / or the second matching means. Image generation for determining the position and luminance component of a pixel constituting the virtual viewpoint image to be generated by the virtual viewpoint based on the relative position information generated by the information generation means from the position and luminance component of the associated pixel The first matching means identifies the similarity by comparing the luminance component and the color component for each pixel position for which the correspondence is determined, and identifies the parallax between the images of the subject, The correspondence is determined according to the identified similarity and parallax.

本発明を適用した画像処理方法は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、 上記第1のマッチングステップにおいて求めた対応関係と、上記第2のマッチングステップにおいて求めた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成ステップと、上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める。   In order to solve the above-described problems, an image processing method to which the present invention is applied is related to the subject between the images obtained by capturing the subject from different viewpoints by at least two cameras. A first matching step for obtaining a correspondence relationship for each pixel on the same horizontal line, and a block in which a plurality of pixels are two-dimensionally arranged are cut out for each image, and luminance components between the cut out blocks are calculated. A second matching step for sequentially calculating a sum of absolute differences, and obtaining a correspondence for each pixel based on a set of blocks having the smallest calculated sum of absolute differences; and a correspondence obtained in the first matching step In addition, the correspondence obtained in the second matching step is compared for each pixel, and an image from a certain viewpoint is obtained. An information generating step for generating relative position information indicating a relative positional relationship with respect to each of the cameras with a virtual viewpoint set for the purpose based on the comparison result, and the first matching step and / or the second matching An image for obtaining the position of the pixel constituting the virtual viewpoint image to be generated by the virtual viewpoint and the luminance component thereof based on the relative position information generated by the information generation step from the position and luminance component of the pixels associated with each other in the step The first matching step identifies the similarity by comparing the luminance component and the color component for each pixel position for which the correspondence relationship is obtained, and the parallax between the images of the subject. And the correspondence is determined according to the identified similarity and parallax.

本発明を適用したプログラムは、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、 上記第1のマッチングステップにおいて求めた対応関係と、上記第2のマッチングステップにおいて求めた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成ステップと、上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めることをコンピュータに実行させる。   In order to solve the above-described problem, the program to which the present invention is applied is identical to each other while relating to the subject among the images obtained by capturing the subject from different viewpoints by at least two cameras. A first matching step for obtaining a correspondence relationship for each pixel on the horizontal line, and a block in which a plurality of pixels are two-dimensionally arranged are cut out for each image, and the luminance component difference between the cut out blocks is absolute A second matching step for sequentially calculating a sum of values, and obtaining a correspondence relationship for each pixel based on a set of blocks in which the calculated sum of absolute differences is minimized; a correspondence relationship obtained in the first matching step; The correspondence obtained in the second matching step is compared for each pixel and an image from a certain viewpoint is obtained. An information generation step for generating relative position information indicating a relative positional relationship with respect to each of the cameras with a virtual viewpoint set for the purpose based on the comparison result, and the first matching step and / or the second matching An image for obtaining the position of the pixel constituting the virtual viewpoint image to be generated by the virtual viewpoint and the luminance component thereof based on the relative position information generated by the information generation step from the position and luminance component of the pixels associated with each other in the step The first matching step identifies the similarity by comparing the luminance component and the color component for each pixel position for which the correspondence relationship is obtained, and the parallax between the images of the subject. And calculating the correspondence according to the identified similarity and parallax. Make it run.

本発明では、当該比較結果より、生成すべき仮想視点画像につき乱れが生じることが確認された場合には、仮想視点位置を各カメラへ近づけていくことにより、視差のエラーによる画像の乱れが生じない仮想視点画像をユーザに表示させることができる。これにより、相手側のユーザに対して、乱れのある画像を生成することを防ぐことができ、違和感を与えることがなくなる。特に本発明では、仮想視点画像の作成時における乱れを自動的に除去することができることから、各ユーザがカメラとの関係において適切な位置へ移動するための配慮が軽減される。また、仮想視点画像の乱れを除去することにより、仮想視点画像における画質そのものを向上させることも可能となる。   In the present invention, when it is confirmed from the comparison result that the virtual viewpoint image to be generated is disturbed, the image is disturbed due to a parallax error by bringing the virtual viewpoint position closer to each camera. A virtual viewpoint image that is not present can be displayed to the user. As a result, it is possible to prevent the other user from generating a distorted image and not to give an uncomfortable feeling. In particular, in the present invention, since the disturbance at the time of creating the virtual viewpoint image can be automatically removed, consideration for moving each user to an appropriate position in relation to the camera is reduced. Further, by removing the disturbance of the virtual viewpoint image, the image quality itself in the virtual viewpoint image can be improved.

以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。   In the communication system 1 to which the present invention is applied, for example, as shown in FIG. 1, a user a at a point A and a user b at a point B are remotely interacting with each other while viewing a display image of the other party from a distant place. System.

A地点には、撮影対象としてのユーザaを互いに異なる視点から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する画像処理装置2aが配設されている。   At the point A, a camera 11a and a camera 12a that capture the user a as a subject to be photographed from different viewpoints, and a display 5a for displaying an image of the user b captured at the point B side to the user a, An image processing apparatus 2a is provided that generates a virtual viewpoint image Ima based on the images Pa1 and Pa2 captured by the cameras 11a and 12a and transmits the virtual viewpoint image Ima to the point B via the network 7.

B地点には、撮影対象としてのユーザbを互いに異なる視点から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する画像処理装置2bが配設されている。   At the point B, a camera 11b and a camera 12b that capture images of the user b as a photographing target from different viewpoints, and a display 5b for displaying an image of the user a captured at the point A side to the user b, An image processing device 2b that generates a virtual viewpoint image Imb based on the images Pb1 and Pb2 captured by the cameras 11b and 12b and transmits the image to the point A via the network 7 is disposed.

なお、この画像処理装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。   The virtual viewpoint images Ima and Imb generated by the image processing apparatuses 2a and 2b are images picked up by a virtual camera virtually installed near the center of the display 5a or 5b on which the display image of the other party is projected. It corresponds to.

カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。   The cameras 11a and 11b are respectively installed on the left side of the displays 5a and 5b when viewed from the users a and b, and the cameras 12a and 12b are respectively installed on the right side of the display when viewed from the users a and b. It becomes. The cameras 11 and 12 are installed with the shooting direction and the shooting angle of view being fixed, but these may be freely changed based on information input from the users a and b. By the way, in this communication system 1, description will be given by taking as an example a case where an imaging target is imaged by two cameras installed in accordance with the user's line of sight.

ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。   The displays 5a and 5b display images based on the virtual viewpoint images Imb and Ima supplied from the counterpart point via the network 7 via a liquid crystal display surface, for example. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Imb and Ima to create an image to be displayed to the user.

画像処理装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの画像処理装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、画像処理装置2a,2bの構成については後において詳細に説明をする。   The image processing apparatuses 2a and 2b are usually constituted by electronic devices such as a personal computer (PC). These image processing apparatuses 2a and 2b have a function of communicating with each other via the network 7, and transmit images and sounds in response to requests from the other party. The configuration of the image processing apparatuses 2a and 2b will be described in detail later.

ネットワーク7は、例えば画像処理装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、画像処理装置2による要求を受けて、自身に格納してある所定の情報を送信する。   The network 7 includes information such as an Internet network connected to the image processing apparatus 2 via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables two-way transmission / reception. Incidentally, when the communication system 1 is operated in a certain narrow area, the network 7 may be configured by a LAN (Local Area Network). Further, when transmitting moving images, the network 7 is continuously transmitted from one channel having moving images including, for example, MPEG (Moving Picture Experts Group) data, based on the Internet protocol (IP). . In addition, when transmitting a still image, the image is transmitted at regular intervals from a channel different from the channel for transmitting a moving image. Note that a network server (not shown) may be connected to the network 7. This network server (not shown) manages, for example, Internet information, receives a request from the image processing apparatus 2, and transmits predetermined information stored in itself.

次に、画像処理装置2の構成について、画像処理装置2aを例にとり説明をする。画像処理装置2aは、図2に示すように、接続されたカメラ11a,12aより画像Pa1,Pa2が供給されるブロックマッチング部28並びにDPマッチング部29と、これらブロックマッチング部28並びにDPマッチング部29にそれぞれ接続されてなる情報生成部33と、情報生成部33に接続されてなる仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを相手側の端末装置2bへ送信するための出力制御部31とを備えている。   Next, the configuration of the image processing apparatus 2 will be described using the image processing apparatus 2a as an example. As shown in FIG. 2, the image processing apparatus 2a includes a block matching unit 28 and a DP matching unit 29 to which images Pa1 and Pa2 are supplied from the connected cameras 11a and 12a, and these block matching unit 28 and DP matching unit 29. The virtual viewpoint image Ima generated by the virtual viewpoint image generation unit 30 connected to the information generation unit 33, the virtual viewpoint image generation unit 30 connected to the information generation unit 33, and the counterpart terminal device 2b. And an output control unit 31 for transmitting to.

ブロックマッチング部28には、各カメラ11a,12aによって撮像された画像Pa1,Pa2がそれぞれ供給される。このブロックマッチング部28は、いわゆるブロックマッチング法に基づいて、複数の画素を2次元的に配列させたブロックを各画像Pa1,Pa2につき切り出し、切り出したブロック間で輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロック間で画素毎に対応関係を求める。   The block matching unit 28 is supplied with images Pa1 and Pa2 captured by the cameras 11a and 12a, respectively. The block matching unit 28 cuts out a block in which a plurality of pixels are two-dimensionally arranged for each image Pa1, Pa2 based on a so-called block matching method, and sequentially calculates the sum of absolute differences of luminance components between the cut out blocks. A calculation is performed, and a correspondence relationship is obtained for each pixel between blocks in which the calculated sum of absolute differences is minimum.

DPマッチング部29は、各カメラ11a,12aによって撮像された画像Pa1,Pa2がそれぞれ供給される。このDPマッチング部29は、これら画像Pa1,Pa2を構成する各画素位置につき対応関係を求める。   The DP matching unit 29 is supplied with images Pa1 and Pa2 captured by the cameras 11a and 12a, respectively. The DP matching unit 29 obtains a correspondence relationship for each pixel position constituting the images Pa1 and Pa2.

ちなみに、このDPマッチング部29における対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を画像Pa1,Pa2間で抽出して対応をとるようにする。例えば図3に示すように、画像Pa1のエピポーラ線L1上にある画素P11の対応点については、画像Pa2のエピポーラ線L1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、画像Pa1,Pa2を構成する全ての画素に対して実行してもよい。   Incidentally, the association in the DP matching unit 29 is performed by extracting the pixel position and the luminance component at the same location constituting the face of the user a between the images Pa1 and Pa2. For example, as shown in FIG. 3, the corresponding point of the pixel P11 on the epipolar line L1 of the image Pa1 is present on the epipolar line L1 ′ of the image Pa2, and by searching on that L1 ′, A similar pixel position P11 ′ can be detected as a corresponding point. Incidentally, the matching unit 29 may be executed only for the part where the feature is extracted for this association, or may be executed for all the pixels constituting the images Pa1 and Pa2.

情報生成部33は、ブロックマッチング部28により求められた対応関係と、DPマッチング部29により求められた対応関係とを画素毎に比較する。情報生成部33は、仮想的に設置される仮想カメラにおける光学中心の各カメラ11a,12aに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する。   The information generation unit 33 compares the correspondence obtained by the block matching unit 28 with the correspondence obtained by the DP matching unit 29 for each pixel. The information generation unit 33 generates relative position information indicating a relative positional relationship between the optical centers of the virtually installed virtual cameras with respect to the cameras 11a and 12a based on the comparison result.

仮想視点画像生成部30は、情報生成部33から通知される相対位置情報が通知される。またこの仮想視点画像生成部30は、情報生成部33からブロックマッチング部28及び/又はDPマッチング部29により互いに対応付けされた画素位置並びにその輝度成分が通知される。この仮想視点画像生成部30は、情報生成部33により生成された相対位置情報に基づいて、仮想カメラにより生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ送信する。   The virtual viewpoint image generation unit 30 is notified of the relative position information notified from the information generation unit 33. In addition, the virtual viewpoint image generation unit 30 is notified of the pixel positions and the luminance components associated with each other by the block matching unit 28 and / or the DP matching unit 29 from the information generation unit 33. Based on the relative position information generated by the information generation unit 33, the virtual viewpoint image generation unit 30 obtains a pixel position and a luminance component thereof constituting the virtual viewpoint image Ima to be generated by the virtual camera. The virtual viewpoint image generation unit 30 transmits a virtual viewpoint image Ima configured by the obtained pixel position and its luminance component to the output control unit 31.

出力制御部31は、送信された仮想視点画像Imaを、ネットワーク7を介して画像処理装置2bへ送信するように制御する。かかる場合において、この出力制御部31は、カメラ11a,12aにより生成された画像Pa1,Pa2を単独で画像処理装置2bへ送信するように制御してもよい。   The output control unit 31 performs control so that the transmitted virtual viewpoint image Ima is transmitted to the image processing device 2b via the network 7. In such a case, the output control unit 31 may perform control so that the images Pa1 and Pa2 generated by the cameras 11a and 12a are independently transmitted to the image processing apparatus 2b.

次に、この画像処理装置2aにおける具体的な動作につき説明をする。   Next, specific operations in the image processing apparatus 2a will be described.

撮影対象としてのユーザaは、カメラ11a,12aにより互いに異なる角度から撮影される。その結果、カメラ11a,12aにより生成される画像Pa1,Pa2上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2は、DPマッチング部29において撮影対象と関連させつつ、画素位置毎に対応付けされる。   A user a as a subject to be photographed is photographed from different angles by the cameras 11a and 12a. As a result, the line of sight of the user a on the images Pa1 and Pa2 generated by the cameras 11a and 12a, the face orientation, and the like are different from each other. Such images Pa1 and Pa2 are associated with each pixel position while being associated with the imaging target in the DP matching unit 29.

これら画像Pa1とPa2につき、このDPマッチング部29において対応付けを行う場合において、例えば図4(a)に示すように、被写体としてのユーザaがそれぞれ写し出された画像Pa1におけるエピポーラ線L1上の画素と、画像Pa2におけるエピポーラ線L1’上の画素とを対応付けする場合に、エピポーラ線L1上の特徴点の点R1を左から順に{a1,a2,a3,a4,a5}とし、またエピポーラ線L1’の特徴点の点R2を左から順に{b1,b2,b3,b4,b5}とする。ここで、互いのエピポーラ線L1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。   When the DP matching unit 29 associates the images Pa1 and Pa2, for example, as shown in FIG. 4A, pixels on the epipolar line L1 in the image Pa1 in which the user a as the subject is respectively projected. And the pixel on the epipolar line L1 ′ in the image Pa2 are associated with the point R1 of the feature point on the epipolar line L1 in order from the left {a1, a2, a3, a4, a5}, and the epipolar line The point R2 of the feature point of L1 ′ is {b1, b2, b3, b4, b5} in order from the left. Here, when the feature points R1 and R2 on the epipolar lines L1 and L1 ′ are associated with each other in relation to the subject, first, the feature point on L1 ′ corresponds to a1 and corresponds 1: 1. However, b2 corresponds to the feature points on L1 ′ corresponding to the feature points a2 and a3 constituting the right ear of the user “a”, and corresponds to 2: 1. Similarly, b3 and b4 correspond to the feature points on L1 'with respect to the feature point a4 constituting the left ear of the user a, and correspond to 1: 2. Note that b5 corresponds to the feature point on L1 'with respect to a5, and corresponds to 1: 1.

このように、異なる視点から撮像することにより得られる画像Pa1,Pa2では、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の画像に表示されている被写体の対応点が他方の画像にて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。   As described above, in the images Pa1 and Pa2 obtained by imaging from different viewpoints, the content displayed in the ear portion of the user a and the like varies depending on the parallax based on the distance from the subject to the camera. Hereinafter, such a region is referred to as an occlusion region. In such an occlusion area, the corresponding point of the subject displayed in one image is hidden in the other image due to the parallax, and therefore, {(a1, b1), (a2, b2) as in the conventional case. ), (A3, b3), (a4, b4), (a5, b5)}, an error occurs.

このため、本発明を適用した画像処理装置2aにおけるDPマッチング部29では、かかる視差を識別することにより、図4(a)に示される画像の特徴点の点列R1,R2を、結果的に図4(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。   For this reason, the DP matching unit 29 in the image processing apparatus 2a to which the present invention is applied recognizes such parallax, and as a result, the point sequences R1 and R2 of the feature points of the image shown in FIG. Corresponding to {(a1, b1), (a2, b2), (a3, b2), (a4, b3), (a4, b4), (a5, b5)} as shown in FIG. To be controlled.

具体的には、各画像Pa1,Pa2におけるエピポーラ線上にある全ての画素につき、図4(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。   Specifically, dynamic association using dynamic programming (DP: shortest path search) as shown in FIG. 4C is performed for all pixels on the epipolar lines in the images Pa1 and Pa2.

この図4(c)におけるx軸にエピポーラ線L1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をエピポーラ線L1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図4(b)に示される対応関係をこのグラフにあてはめると、図4(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。   In FIG. 4C, the point sequence R1 {a1, a2, a3, a4, a5} of the feature points on the epipolar line L1 is arranged on the x axis, and the feature points on the epipolar line L1 ′ are arranged on the y axis. When the column R2 {b1, b2, b3, b4, b5} is applied and the correspondence shown in FIG. 4B is applied to this graph, the path indicated by the bold line shown in FIG. 4C is taken. become. Hereinafter, a straight line connecting corresponding points indicated by bold lines is referred to as an optimum route.

この最適経路において右上に線形増加する場合には、エピポーラ線L1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。右上に線形増加する最適経路の例として、エピポーラ線L1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。   When linearly increasing to the upper right in this optimal path, when the epipolar lines L1 and L1 ′ are correlated by shifting from left to right, the feature points are sequentially shifted by 1: 1 to correspond. Is shown. As an example of the optimal path linearly increasing in the upper right, the feature points (a2, b2) are accurately handled by shifting each one from the left to the right from the feature points (a1, b1) on the epipolar lines L1, L1 ′. Can be attached.

また、この最適経路において水平方向にシフトする場合には、画像Pa1,Pa2間において視差が生じた結果、画像Pa1において示されている特徴点が画像Pa2において隠れてしまったことを示唆している。かかる場合には、画像Pa2上にある1の特徴点に対して、画像Pa1上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。   Further, when shifting in the horizontal direction in this optimum path, it is suggested that the feature point shown in the image Pa1 is hidden in the image Pa2 as a result of the occurrence of parallax between the images Pa1 and Pa2. . In such a case, a plurality of feature points on the image Pa1 are associated with one feature point on the image Pa2. As an example of the optimal path shifted in the horizontal direction, b2 indicating the right ear of the user a at the feature points (a2, b2) on the epipolar lines L1, L1 ′ further corresponds to a3 due to the above-described parallax. Is maintained as it is, and a3 is associated with it.

また、この最適経路において垂直方向へシフトする場合には、画像Pa1,Pa2間において視差が生じた結果、画像Pa2において示されている特徴点が画像Pa1において隠れてしまったことを示唆している。かかる場合には、画像Pa1上にある1の特徴点に対して、画像Pa2上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。   Further, when shifting in the vertical direction in this optimum path, it is suggested that the feature point shown in the image Pa2 is hidden in the image Pa1 as a result of the parallax between the images Pa1 and Pa2. . In such a case, a plurality of feature points on the image Pa2 are associated with one feature point on the image Pa1. As an example of the optimum path shifted in the vertical direction, a4 indicating the left ear of the user a at the feature points (a4, b3) on the epipolar lines L1, L1 ′ further corresponds to b4 due to the above-described parallax. B4 is associated with this while maintaining the above.

DPマッチング部29は、これら対応付けを、互いの画像Pa1,Pa2を構成する全てを構成する、或いは一部を構成するエピポーラ線L1,L1’間において実行する。そしてエピポーラ線L1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。   The DP matching unit 29 executes these associations between the epipolar lines L1 and L1 'that constitute all or part of the images Pa1 and Pa2. Then, by obtaining the above-described optimum path for each of the epipolar lines L1, L1 ', the feature points are associated with each other between the point sequences R1, R2.

図5は、エピポーラ線L1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示している。   FIG. 5 shows a case where an optimum path to an arbitrary feature point (x, y) on the epipolar lines L1 and L1 'is obtained.

この特徴点(x,y)に至る最適経路は、特徴点(x−1,y−1)から左から右へそれぞれ一つずつシフトさせることにより図5に示されるグラフにおいて右上に線形増加し、或いは特徴点(x−1,y)においてyをそのまま維持しつつ水平方向に1シフトさせることにより図5に示されるグラフにおいて特徴点(x−1,y)から水平方向へ移動する。さらに、この特徴点(x,y)に至る最適経路は、特徴点(x,y−1)においてxをそのまま維持しつつ垂直方向へ1シフトさせることにより図5に示されるグラフにおいて特徴点(x,y−1)から垂直方向へ移動することになる。   The optimum path to the feature point (x, y) is linearly increased to the upper right in the graph shown in FIG. 5 by shifting the feature point (x-1, y-1) one by one from the left to the right. Alternatively, the feature point (x-1, y) is shifted from the feature point (x-1, y) in the horizontal direction in the graph shown in FIG. Further, the optimum path to the feature point (x, y) is shifted by one shift in the vertical direction while maintaining x as it is at the feature point (x, y-1). It moves from x, y-1) in the vertical direction.

即ち、特徴点(x,y)を通る最適経路は、図5に示すグラフにおいて、その左,左下,下に位置する特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかを経ることになる。DPマッチング部29は、何れの特徴点(x−1,y),(x−1,y−1),(x,y−1)を経て特徴点(x,y)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。   That is, the optimum path passing through the feature point (x, y) is the feature point (x-1, y), (x-1, y-1) located at the left, lower left, and lower in the graph shown in FIG. , (X, y-1). The DP matching unit 29 determines which feature point (x-1, y), (x-1, y-1), (x, y-1) to reach the feature point (x, y) as follows. This is determined by sequentially obtaining the functions described in (1).

DPマッチング部29は、以下に示すマッチングコスト関数d(x,y)と、動的なオクリュージョンコスト関数dx(x,y),dy(x,y)を求め、求めた各関数に応じて上述した最適経路を求める。マッチングコスト関数d(x,y)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数であり、またオクリュージョンコスト関数dx(x,y)は、画像Pa1の画像Pa2に対する被写体画像の隠れ度合いを示す関数であり、またオクリュージョンコスト関数dy(x,y)は、画像Pa2の画像Pa1に対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx(x,y),dy(x,y)は、被写体の各画像間における視差が反映される形となる。   The DP matching unit 29 obtains a matching cost function d (x, y) and a dynamic occlusion cost function dx (x, y), dy (x, y) shown below, and responds to the obtained functions. To obtain the above-mentioned optimum route. The matching cost function d (x, y) is a function indicating the similarity between the luminance component and the color component between the pixel positions for which the correspondence relationship is obtained, and the occlusion cost function dx (x, y) is the image Pa1. The occlusion cost function dy (x, y) is a function indicating the degree of hiding of the subject image relative to the image Pa1 of the image Pa2. These occlusion cost functions dx (x, y) and dy (x, y) are in a form that reflects the parallax between the images of the subject.

例えば図6に示すように一方のカメラ11aの視点C1のみから撮像することができる点wが他方のカメラ12aの視点C2からは撮像することができない場合に、被写体像の隠れ度合いが大きくなる。かかる場合には、オクリュージョンコスト関数dx(x,y),dy(x,y)が大きくなり、またかかる点wを含む領域は、オクリュージョン領域となる。   For example, as shown in FIG. 6, when the point w that can be imaged only from the viewpoint C1 of one camera 11a cannot be imaged from the viewpoint C2 of the other camera 12a, the degree of hiding of the subject image increases. In such a case, the occlusion cost function dx (x, y), dy (x, y) becomes large, and the region including the point w is an occlusion region.

次にマッチングコスト関数d(x,y)を求める方法につき説明をする。   Next, a method for obtaining the matching cost function d (x, y) will be described.

d(x,y)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
(s,t)=α×dY(s,t)+(1−α)dC(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する画像Pa1、画像Pa2における画素位置を表している。またkは、画像Pa1、画像Pa2の何行目に該当するかを示している(つまりk=y)。この式(1)においてdY(s,t)は、画像Pa1と画像Pa2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dY(s,t)=|Y1(s,t)−Y2(s,t)|・・・・・(2)
また、この式(1)においてdC(s,t)は、画像Pa1と画像Pa2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dC(s,t)=|C1(s,t)−C2(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるd(s,t)につき、輝度成分の差分絶対値dY(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるd(s,t)につき、色成分の差分絶対値dC(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
For d (x, y), it is determined which of the luminance component or color component to be compared is to be weighted. This weighting is performed based on the following formula (1) using a weighting coefficient α.
d k (s, t) = α × dY k (s, t) + (1−α) dC k (s, t) (1)
Here, (s, t) represents the pixel position in the image Pa1 and the image Pa2 corresponding to the feature point (x, y). In addition, k indicates which line in the image Pa1 and the image Pa2 corresponds (that is, k = y). In this equation (1), dY k (s, t) represents the absolute value of the difference in luminance component between the coordinates (s, t) between the image Pa1 and the image Pa2, and is defined by the following equation (2).
dY k (s, t) = | Y1 k (s, t) −Y2 k (s, t) | (2)
Further, in this equation (1), dC k (s, t) represents the absolute difference value of the color component between the image Pa1 and the image Pa2, and is defined by the following equation (3).
dC k (s, t) = | C1 k (s, t) −C2 k (s, t) | (3)
That is, by setting α higher in the above equation (1), the component of the luminance component difference absolute value dY k (s, t) can be more reflected in the obtained d k (s, t). Further, by setting α to be smaller in the above formula (1), the component of the color component difference absolute value dC k (s, t) can be more reflected in the obtained d k (s, t). Incidentally, for α, an average value of the matching cost of the color component and the matching cost of the luminance component may be assigned.

d(x,y)は、(1)式により求められるd(s,t)に基づいて、更に以下の(4)式により求められる。
d(x,y)=(Σd(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、エピポーラ線の上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきエピポーラ線の上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
d (x, y) is further obtained by the following equation (4) based on d k (s, t) obtained by equation (1).
d (x, y) = (Σd k (s, t)) / 2K k = −K,..., K−1
.... (4)
This equation (4) means that d (x, y) can be obtained by taking an average with each pixel located above and below the epipolar line. By this equation (4), it is possible to reflect the correlation with each pixel located above and below the epipolar line for the obtained d (x, y). As a result, it is possible to greatly improve the association accuracy.

即ち、上述の方法により求められるマッチングコストd(x,y)は、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、画像Pa2と画像Pa1の画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x,y)により、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。   That is, the matching cost d (x, y) obtained by the above method increases as the absolute value of the difference between the luminance component or the color component at the pixel position (s, t) between the image Pa1 and the image Pa2 increases. In other words, it increases as the difference in luminance component or color component at the pixel position (s, t) between the image Pa2 and the image Pa1 increases, and decreases as they are similar. That is, it is possible to identify the luminance component or the similarity of the color component at the pixel position (s, t) of the image Pa1 and the image Pa2 by the matching cost d (x, y).

次にオクリュージョンコスト関数dx(x,y),dy(x,y)を求める方法につき説明をする。   Next, a method for obtaining the occlusion cost function dx (x, y), dy (x, y) will be described.

これら各オクリュージョンコスト関数dx(x,y),dy(x,y)は、情報生成部33におより生成される視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、DPマッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。かかる場合において、DPマッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を上げることにより対応する。   Each of these occlusion cost functions dx (x, y), dy (x, y) is generated based on the disparity information generated by the information generating unit 33. As the distance from the cameras 11a and 12a to the user a as the subject decreases (as the parallax increases), the probability of occurrence of an occlusion area increases. In such a case, the DP matching unit 29 responds by lowering the occlusion cost function dx (x, y), dy (x, y). On the other hand, as the distance from the cameras 11a and 12a to the user a as the subject becomes longer (as the parallax becomes smaller), the probability of occurrence of an occlusion area decreases. In such a case, the DP matching unit 29 responds by increasing the occlusion cost function dx (x, y), dy (x, y).

各オクリュージョンコスト関数dx(x,y),dy(x,y)は、以下の式(5)、(6)に基づいて求めることができる。
dx(x,y)=β×dp(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×dp(x,y)+T1・・・・・・・・(6)
ここで、dp(x,y)は、上記取得される視差情報に支配され、視差がより大きくなるにつれて減少し、また視差がより小さくなるにつれて増加する。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
Each occlusion cost function dx (x, y), dy (x, y) can be obtained based on the following equations (5) and (6).
dx (x, y) = β × dp (x, y) + T0 (5)
dy (x, y) = γ × dp (x, y) + T1 (6)
Here, dp (x, y) is dominated by the acquired parallax information, and decreases as the parallax becomes larger, and increases as the parallax becomes smaller. β and γ represent the rate of change of dp (x, y), and can be obtained experimentally in advance. T0 and T1 are initial occlusion cost constants, which can also be obtained experimentally in advance.

DPマッチング部29は、これら各関数dx(x,y),d(x,y),dy(x,y)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x−1,y),C(x−1,y−1),C(x,y−1)を加算し、総コストk1,k2,k3を算出する。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
DPマッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
The DP matching unit 29 calculates these functions dx (x, y), d (x, y), and dy (x, y), and then accumulates them based on the following formulas (7) to (9). Matching costs C (x−1, y), C (x−1, y−1), and C (x, y−1) are added to calculate total costs k1, k2, and k3.
k1 = C (x-1, y) + dx (x, y) (7)
k2 = C (x-1, y-1) + d (x, y) (8)
k3 = C (x, y-1) + dy (x, y) (9)
Here, C (x-1, y), C (x-1, y-1), and C (x, y-1) are characteristic points (x-1, y) and (x-1, y-, respectively). 1) The accumulated matching cost obtained in (x, y-1) is shown. Incidentally, as the accumulated matching cost C (x, y) at the feature point (x, y), the smallest one among the obtained k1, k2, and k3 is assigned as shown in the following equation (10).
C (x, y) = min {k1, k2, k3} (10)
The DP matching unit 29 obtains the optimum route by selecting the smallest one of the obtained total costs k1, k2, and k3.

ここで、k1が最小となる場合には、視差が大きくなることにより、画像Pa1において示されている特徴点が画像Pa2において遮蔽されたことを意味している。かかる場合には、図5矢印J1に示すように特徴点(x−1,y)から水平方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。   Here, when k1 is the minimum, it means that the feature point shown in the image Pa1 is shielded in the image Pa2 by increasing the parallax. In such a case, the optimum path is obtained so as to reach the feature point (x, y) by shifting in the horizontal direction from the feature point (x-1, y) as shown by the arrow J1 in FIG.

またk3が最小となる場合には、視差が大きくなることにより、画像Pa2において示されている特徴点が画像Pa1において遮蔽されたことを意味している。かかる場合には、図5矢印J3に示すように、特徴点(x,y−1)から垂直方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。   Further, when k3 is the minimum, it means that the feature point shown in the image Pa2 is shielded in the image Pa1 by increasing the parallax. In such a case, as shown by an arrow J3 in FIG. 5, an optimum route is obtained so as to reach the feature point (x, y) by shifting the feature point (x, y-1) in the vertical direction. .

更に、k2が最小となる場合には、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことを意味している。かかる場合には、図5矢印J2に示すように特徴点(x−1,y−1)から水平、垂直方向に一つずつシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。   Furthermore, when k2 is minimized, it means that the similarity of the luminance component or the color component at the pixel position (s, t) between the image Pa1 and the image Pa2 is high. In such a case, as shown by the arrow J2 in FIG. 5, the optimum path is reached from the feature point (x-1, y-1) to the feature point (x, y) by shifting one by one in the horizontal and vertical directions. Will be required.

図7(b)は、図7(a)に示される画像Pa1と画像Pa2におけるエピポーラ線L1,L1’上にある各特徴点の画素成分(輝度又は色成分)の対応関係を示している。   FIG. 7B shows a correspondence relationship between pixel components (luminance or color components) of each feature point on the epipolar lines L1 and L1 ′ in the image Pa1 and the image Pa2 shown in FIG.

この図7(a)に示す画像Pa1において、ユーザaの両側に示される壁の凹部L2,L3、並びに画像Pa2において、ユーザaの両側に示される壁の凹部L2’,L3’は、図7(b)において画素成分の差分としてライン状に明確に現れている。同様に、ユーザaを構成する画素成分については、図7(b)の中心付近において画素成分の差分として明確に現れている。   In the image Pa1 shown in FIG. 7A, the wall recesses L2 and L3 shown on both sides of the user a and the wall recesses L2 ′ and L3 ′ shown on both sides of the user a in the image Pa2 are shown in FIG. In (b), it appears clearly as a line difference as a difference between pixel components. Similarly, pixel components constituting the user a clearly appear as pixel component differences near the center of FIG.

この図7(b)において、最適経路が、エピポーラ線L1,L1’上にある各特徴点において同一の画素成分の交点を通過している場合には、k2が最小となる結果、当該画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことが優先されたことを意味している。これに対して、最適経路が、エピポーラ線L1,L1’上にある各特徴点において同一の画素成分の交点以外を通過している場合には、k1又はk3が最小となる結果、視差により何れかの画像Pa1,Pa2が遮蔽されたことを意味している。   In FIG. 7B, when the optimum path passes through the intersection of the same pixel component at each feature point on the epipolar lines L1 and L1 ′, k2 is minimized, and as a result, the pixel position This means that priority is given to a high similarity between the luminance component or the color component in (s, t). On the other hand, when the optimum path passes through the feature points on the epipolar lines L1 and L1 ′ other than the intersection of the same pixel component, k1 or k3 is minimized, and as a result, the disparity is This means that the images Pa1 and Pa2 are shielded.

このようにして特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかから特徴点(x,y)に至るまでの最適経路が求められることになる。この最適経路が求められるということは、輝度成分及び色成分の類似度と、画像Pa1,Pa2間の視差に応じて最適な対応関係が求められていることを意味しており、上記(10)式より得られるC(x,y)についても、画素位置毎に対応関係を求める上での最適な累積マッチングコストとして定義されることになる。これら累積マッチングコストC(x,y)を、上記グラフにおいて上、右上、右に位置する特徴点に至るまでの最適経路を求める際に累積的に参酌することができるため、対応付けの精度をより向上させることができる。   In this way, an optimum path from any one of the feature points (x-1, y), (x-1, y-1), (x, y-1) to the feature point (x, y) is obtained. Will be. The determination of the optimum path means that an optimum correspondence is determined according to the similarity between the luminance component and the color component and the parallax between the images Pa1 and Pa2. C (x, y) obtained from the equation is also defined as the optimum cumulative matching cost for obtaining the correspondence for each pixel position. These accumulated matching costs C (x, y) can be cumulatively taken into account when obtaining the optimum route to the feature points located on the upper, upper right, and right in the above graph. It can be improved further.

また、DPマッチング部29では、各関数dx(x,y),d(x,y),dy(x,y)を全く異なるコンセプトに基づいて算出するため、得られた総コストk1,k2,k3を式(10)に基づいて単純に比較する場合に、撮影環境や被写体に応じて誤差が生じる場合もある。かかる場合には、式(5),(6)におけるβ,γ,T0,T1を撮影環境や被写体に応じて予め最適化しておくことにより、各関数dx(x,y),d(x,y),dy(x,y)間の格差を解消することができる。   Further, since the DP matching unit 29 calculates each function dx (x, y), d (x, y), dy (x, y) based on a completely different concept, the total cost k1, k2, When k3 is simply compared based on Expression (10), an error may occur depending on the shooting environment and the subject. In such a case, β, γ, T0, and T1 in equations (5) and (6) are optimized in advance according to the shooting environment and the subject, so that each function dx (x, y), d (x, The disparity between y) and dy (x, y) can be eliminated.

このように本発明を適用した画像処理装置2aにおけるDPマッチング部29では、上記各画像Pa1,Pa2間における対応関係を求める際に、識別した類似度及び視差のうち何れを優先させるか決定し、類似度を優先させる場合には、水平ライン上にある同一画素位置間において対応付け、視差を優先させる場合には、一の画素位置に対し同一の水平ライン上にある複数の画素位置を対応付ける。これにより、オクリュージョン領域が存在する場合においてもより正確な対応付けを行うことができる。また、上述の手法に基づいて対応付けを行うことにより、例えば両目部分等の繰り返しパターンや、輝度変化が殆ど生じないいわゆる非特徴点(例えば壁の部分)においても対応付けの精度を向上させることができる。更に、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域においても、輝度成分,色成分の格差に支配されることが少なく、比較的に容易に対応付けを行うことができる。   As described above, the DP matching unit 29 in the image processing apparatus 2a to which the present invention is applied determines which of the identified similarity and parallax should be prioritized when obtaining the correspondence between the images Pa1 and Pa2. When giving priority to similarity, the same pixel positions on the horizontal line are associated with each other. When giving priority to parallax, a plurality of pixel positions on the same horizontal line are associated with one pixel position. As a result, even when the occlusion area exists, more accurate association can be performed. Further, by performing the association based on the above-described method, for example, the accuracy of the association can be improved even in a repetitive pattern such as a part of both eyes or a so-called non-feature point (for example, a wall portion) that hardly changes in luminance. Can do. Furthermore, even in areas where brightness varies depending on the viewing direction, such as the window part, and in areas where specular reflection occurs, such as the user's nose part, it may be dominated by the difference in luminance and color components. There are few, and it can be matched comparatively easily.

なお、本発明を適用した画像処理装置2aにおけるDPマッチング部29では、あくまで上記類似度と上記視差を識別し、識別した類似度及び視差に応じて上記対応関係が求められていれば、上述の効果を得ることができることは勿論である。   In the DP matching unit 29 in the image processing apparatus 2a to which the present invention is applied, the similarity and the parallax are identified to the last, and if the correspondence is obtained according to the identified similarity and parallax, Of course, the effect can be obtained.

このDPマッチング部29において上記対応関係を求めるステップを図8中のステップS11とする。ちなみに、このステップS11と並行してブロックマッチング部28においてブロックマッチング法に基づく対応関係が求められるが(ステップS12)、かかる対応関係に基づいてカメラ11a,12aにおける視差のヒストグラムを作成し、マッチング結果に対する画像の乱れの有無を検証する。   The step of obtaining the correspondence in the DP matching unit 29 is referred to as step S11 in FIG. Incidentally, in parallel with this step S11, the block matching unit 28 obtains a correspondence relationship based on the block matching method (step S12). Based on this correspondence relationship, a parallax histogram in the cameras 11a and 12a is created, and the matching result is obtained. Verify the presence or absence of image disturbance for.

このステップS12において、図9(a)に示すようにマッチング結果において差分絶対値和が小さくなる結果、互いにマッチングする頻度が高くなる複数のピークが存在する場合には、例えば、図9(b)に示すようにユーザaの顔と手がカメラ11a,12aに対して互いに異なる距離にあることを意味している。   In this step S12, as shown in FIG. 9A, when the sum of absolute differences in the matching result becomes small, and there are a plurality of peaks whose matching frequency increases, for example, FIG. 9B This means that the face and hand of the user a are at different distances from the cameras 11a and 12a.

一般的に、ユーザの顔Uと手Vが図10(a)に示すように、カメラ11a,12aに対してほぼ同一の距離上にある場合には、例えばカメラ11aの視点C1からユーザaの顔Uと手Vを撮像した結果得られる顔の画像U’と手の画像V’の各位置に対して、カメラ12aの視点C2から撮像した結果得られる顔の画像U”と手の画像V”の各位置は順に整列することになる。即ち、顔Uと手Vとの間で視差が生じることが無いことから、マッチングの精度を確保でき、ひいては生成する仮想視点画像Imaの乱れを抑えることが可能となる。   In general, when the user's face U and hand V are at substantially the same distance from the cameras 11a and 12a, as shown in FIG. For each position of the face image U ′ and the hand image V ′ obtained as a result of imaging the face U and the hand V, the face image U ″ and the hand image V obtained as a result of imaging from the viewpoint C2 of the camera 12a. Each position of "" will be arranged in order. That is, since no parallax occurs between the face U and the hand V, it is possible to ensure matching accuracy and to suppress disturbance of the generated virtual viewpoint image Ima.

これに対して、例えば図10(b)に示すように、ユーザの顔Aと手Vがカメラ11a,12aに対して互いに異なる距離にある場合には、例えばカメラ11aの視点C1からユーザaの顔Uと手Vを撮像した結果得られる顔の画像U’と手の画像V’の各位置に対して、カメラ12aの視点C2から撮像した結果得られる顔の画像U”と手の画像V”の各位置は互いに逆転してしまうことになる。即ち、顔Uと手Vとの間で視差の逆転が生じる結果、マッチングの精度を確保することができず、ひいては生成する仮想視点画像Imaが乱れてしまう危険性が生じる。   On the other hand, for example, as shown in FIG. 10 (b), when the user's face A and hand V are at different distances from the cameras 11a and 12a, for example, the user a For each position of the face image U ′ and the hand image V ′ obtained as a result of imaging the face U and the hand V, the face image U ″ and the hand image V obtained as a result of imaging from the viewpoint C2 of the camera 12a. Each position of "" will be reversed. That is, as a result of the reversal of parallax between the face U and the hand V, matching accuracy cannot be ensured, and as a result, there is a risk that the generated virtual viewpoint image Ima is disturbed.

このため、ステップS13では、例えば図11に示す手順に基づいてマッチング頻度のピークを介してこれらの視差の逆転が起きているか否かにつきより効率よく識別する。   For this reason, in step S13, for example, based on the procedure shown in FIG. 11, it is more efficiently identified whether or not these parallax inversions occur via the peak of the matching frequency.

ステップS12におけるマッチング結果の検証を行うステップS13の詳細を図11に示す。この図11では、先ずステップS21においてかかるピークが2つ以上存在するか否か判別する。その結果、マッチング頻度のピークが2つ以上存在する場合にはステップS22へ移行し、当該ピークが一つのみ存在する場合には、ステップS25へ移行する。   Details of step S13 for verifying the matching result in step S12 are shown in FIG. In FIG. 11, it is first determined in step S21 whether or not there are two or more such peaks. As a result, when there are two or more peaks of matching frequency, the process proceeds to step S22, and when only one peak exists, the process proceeds to step S25.

またステップS22へ移行した場合には、かかる2つ以上のピークの間隔が所定の閾値を超えているか否かを識別する。その結果、ピークの間隔が所定の閾値を超えている場合には、ピーク間隔は十分広いものであることを識別してステップS23へ移行し、それ以外の場合にはステップS25へ移行する。一般にオクリュージョンが発生しやすい状況というのは、図9(a)に示すような視差のヒストグラムにおいて離れた位置に異なる複数のピークが出ている場合が多いため、これを検出することにより、映像が乱れやすさを識別することが可能となる。   When the process proceeds to step S22, it is identified whether or not the interval between the two or more peaks exceeds a predetermined threshold value. As a result, when the peak interval exceeds a predetermined threshold, it is identified that the peak interval is sufficiently wide, and the process proceeds to step S23. Otherwise, the process proceeds to step S25. In general, the situation in which occlusion is likely to occur is that a plurality of different peaks often appear at distant positions in the parallax histogram as shown in FIG. 9 (a). It becomes possible to identify how easily the image is disturbed.

またステップS23へ移行した場合には、2つのピーク近傍の画素数は相当量あるか否か検出する。この相当量あるか否かの判別は、ステップS22と同様に画素数が閾値を超えているか否かに基づいて判別するようにしてもよい。画素数が相当量あるものと判別された場合には、ステップS24へ移行し、それ以外の場合にはステップS25へ移行する。   When the process proceeds to step S23, it is detected whether or not the number of pixels near the two peaks is considerable. The determination of whether or not there is a substantial amount may be performed based on whether or not the number of pixels exceeds a threshold value, as in step S22. If it is determined that the number of pixels is considerable, the process proceeds to step S24, and otherwise, the process proceeds to step S25.

ステップS24では、被写体につき視差が逆転しているため、生成すべき仮想視点画像Imaが乱れる可能性がある旨を判別する。かかる判別がなされた場合にはステップS13からステップS14へ移行することになる。   In step S24, since the parallax is reversed for each subject, it is determined that the virtual viewpoint image Ima to be generated may be disturbed. If such a determination is made, the process proceeds from step S13 to step S14.

これに対してステップS25へ移行した場合には、被写体につき視差が生じていないため、生成すべき仮想視点画像Imaが乱れる可能性がない旨を判別する。かかる判別がなされた場合にはステップS13からステップS17へ移行することになる。   On the other hand, when the process proceeds to step S25, it is determined that there is no possibility that the virtual viewpoint image Ima to be generated is disturbed because there is no parallax for the subject. If such a determination is made, the process proceeds from step S13 to step S17.

ステップS14においては、ステップS11におけるDPマッチング部29により得られる対応関係と、ステップS12におけるブロックマッチング部28により得られる対応関係とを比較する。   In step S14, the correspondence obtained by the DP matching unit 29 in step S11 is compared with the correspondence obtained by the block matching unit 28 in step S12.

このステップS14においては、図12に示す手順に基づいてこれら対応関係を比較する。先ずこの図12におけるステップS31において、視差が異なる画素の数を計測するためのカウンタCounterを初期化する。次にステップS32へ移行し、画像Pa1並びに画像Pa2を構成する全ての画素に対して、以下に説明する処理を実行する。   In step S14, these correspondences are compared based on the procedure shown in FIG. First, in step S31 in FIG. 12, a counter Counter for measuring the number of pixels having different parallaxes is initialized. Next, the process proceeds to step S32, and the processing described below is executed for all the pixels constituting the image Pa1 and the image Pa2.

ステップS33において、ステップS12においてブロックマッチング法に基づき得られた視差D1と、ステップS11におけるDPによるマッチングに基づき得られた視差D2の差分をとる。ちなみに、これら視差D1は、それぞれブロックマッチング部28により得られる対応関係に基づくものであり、また視差D2は、DPマッチング部29により得られる対応関係に基づくものである。このステップS33では、これら視差D1と視差D2との差分絶対値(=|D1−D2|)が閾値Thrを超えているか否かを識別する。その結果、かかる差分絶対値が閾値Thrを超えている場合には、ステップS34へ移行する。これに対して、差分絶対値が閾値Thr以下の場合には、ステップS35へ移行する。   In step S33, the difference between the parallax D1 obtained based on the block matching method in step S12 and the parallax D2 obtained based on the DP matching in step S11 is taken. Incidentally, the parallax D1 is based on the correspondence obtained by the block matching unit 28, and the parallax D2 is based on the correspondence obtained by the DP matching unit 29. In this step S33, it is identified whether or not the difference absolute value (= | D1-D2 |) between the parallax D1 and the parallax D2 exceeds the threshold value Thr. As a result, when the difference absolute value exceeds the threshold Thr, the process proceeds to step S34. On the other hand, when the difference absolute value is equal to or smaller than the threshold Thr, the process proceeds to step S35.

ステップS34に移行した場合には、カウンタCounterの値に1を加算し、ステップS35へ移行する。   When the process proceeds to step S34, 1 is added to the value of the counter Counter, and the process proceeds to step S35.

ステップS35へ移行した場合には、画像Pa1並びに画像Pa2を構成する全ての画素に対して、上述した処理を実行したか否か確認する。その結果、全ての画素につき上述した処理を実行した場合には、ステップS36へ移行する。これに対して、全ての画素につき上述した処理の実行を終了させていない場合には、再びステップS32へ移行し、残りの画素につき処理を繰り返す。その結果、カウンタCounterには、差分絶対値が閾値Thrを超える画素数の分だけカウントされることになる。   When the process proceeds to step S <b> 35, it is confirmed whether or not the above-described processing has been executed for all the pixels constituting the image Pa <b> 1 and the image Pa <b> 2. As a result, when the above-described processing is executed for all pixels, the process proceeds to step S36. On the other hand, if the execution of the above-described processing has not been completed for all the pixels, the process proceeds to step S32 again, and the processing is repeated for the remaining pixels. As a result, the counter Counter counts the number of pixels whose difference absolute value exceeds the threshold Thr.

即ち、差分絶対値が閾値Thrを超えているか否かにつき、画像Pa1並びに画像Pa2を構成する全ての画素に対して実行することができる。これにより、差分絶対値が閾値Thrを超える画素数を識別することができる。ちなみにかかる画素数は、ブロックマッチング部28により得られる対応関係と、DPマッチング部29により得られる対応関係との間でズレがある全ての画素数に相当する。また、かかる画素は、生成すべき仮想視点画像Imaにつき視差による画像の乱れを誘発する可能性のあるものであるため、これらが画像全体のうちどの程度の割合を占めているかを以下のステップS36において判別する。   That is, it can be performed for all the pixels constituting the image Pa1 and the image Pa2 as to whether or not the absolute difference value exceeds the threshold Thr. Thereby, the number of pixels whose difference absolute value exceeds the threshold value Thr can be identified. Incidentally, the number of pixels is equivalent to the total number of pixels having a difference between the correspondence obtained by the block matching unit 28 and the correspondence obtained by the DP matching unit 29. In addition, since such pixels may induce image disturbance due to parallax for the virtual viewpoint image Ima to be generated, the following step S36 indicates how much of these pixels occupy the entire image. Determine in.

ステップS36では、カウンタCounterが閾値Rを超えているか否か判別する。なお、この閾値Rを、画像の乱れを誘発するために必要となる最低限の画素数に応じて予め最適化しておく。これにより、実際に識別した閾値Thrを超える画素の数が画像の乱れを誘発するか否かを判別することが可能となる。このステップS36において、カウンタCounterが閾値Rを超えている場合には、ステップS37へ移行し、画像の乱れが検出されることを判別することになる。これに対して、このステップS36において、カウンタCounterが閾値R以下の場合には、ステップS38へ移行し、画像の乱れがないことを判別することになる。   In step S36, it is determined whether or not the counter Counter exceeds a threshold value R. The threshold value R is optimized in advance according to the minimum number of pixels necessary for inducing image disturbance. Thereby, it becomes possible to determine whether or not the number of pixels exceeding the actually identified threshold value Thr induces image distortion. In step S36, if the counter Counter exceeds the threshold value R, the process proceeds to step S37, and it is determined that image disturbance is detected. On the other hand, if the counter Counter is equal to or smaller than the threshold value R in step S36, the process proceeds to step S38 and it is determined that there is no image disturbance.

再び図8の説明に戻る。ステップS14において各対応関係が比較された結果、画像の乱れが検出されて上述のステップS37へ到達した場合には、ステップS15からステップS16へ移行する。これに対して、画像の乱れが検出されず上述のステップS38へ移行した場合には、ステップS15を経てステップS17へ移行することになる。   Returning to the description of FIG. As a result of comparing the correspondences in step S14, when the disturbance of the image is detected and the above-described step S37 is reached, the process proceeds from step S15 to step S16. On the other hand, if the image distortion is not detected and the process proceeds to step S38, the process proceeds to step S17 via step S15.

ステップS17へ移行した場合には、ユーザaにおけるカメラ11a、カメラ12aからの距離を識別する。その結果、かかるユーザaがカメラ11a、カメラ12aにより接近している場合には、視差による画像の乱れが生じる可能性があるものとしてステップS18へ移行する。ちなみに、このユーザaにおける各カメラ11a、12aからの距離は、ステップS12において求められた対応関係に基づく視差のヒストグラムを利用し、かかる距離が所定の閾値に対して大きいか否かに応じて判断するようにしてもよい。これに対して、ユーザaがカメラ11a、カメラ12aから離れている場合には、視差による画像の乱れが生じる可能性がないものとしてステップS19へ移行する。   When the process proceeds to step S17, the distances from the camera 11a and the camera 12a in the user a are identified. As a result, when the user a is closer to the camera 11a and the camera 12a, the process proceeds to step S18 on the assumption that the image may be disturbed due to parallax. Incidentally, the distance from the cameras 11a and 12a for the user a is determined according to whether or not the distance is larger than a predetermined threshold by using a parallax histogram based on the correspondence obtained in step S12. You may make it do. On the other hand, when the user a is away from the camera 11a and the camera 12a, it is assumed that there is no possibility of image disturbance due to parallax, and the process proceeds to step S19.

なお、ステップS16、S18、S19に移行した場合には、仮想視点画像生成部30において仮想視点画像Imaを生成する際に、後述するような修正処理を施す。   When the process proceeds to steps S16, S18, and S19, the virtual viewpoint image generation unit 30 performs a correction process as described later when the virtual viewpoint image Ima is generated.

先ず、この仮想視点画像生成部30による仮想視点画像Imaの作成方法につき説明する。   First, a method of creating the virtual viewpoint image Ima by the virtual viewpoint image generation unit 30 will be described.

仮想視点画像生成部30では、上述の如くDPマッチング部29において求められた対応関係、並びにブロックマッチング部28において求められた対応関係に基づいて、仮想視点画像Imaを生成する。例えばDPマッチング部29において、画像Pa1における画素位置P11に対して、画像Pa2における画素位置P11’がその対応点として特定されていた場合に、かかる画素位置P11の座標を図13に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。仮想視点画像生成部31は、かかる画素位置P11、P11’に対応する仮想視点画像Ima上の画素位置の座標(xt,yt)を、相対位置情報としてのm(≦1)に基づいて以下の式(11)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
The virtual viewpoint image generation unit 30 generates the virtual viewpoint image Ima based on the correspondence obtained by the DP matching unit 29 and the correspondence obtained by the block matching unit 28 as described above. For example, in the DP matching unit 29, when the pixel position P11 ′ in the image Pa2 is specified as the corresponding point with respect to the pixel position P11 in the image Pa1, the coordinates of the pixel position P11 are as shown in FIG. x1, y1) and the coordinates of the pixel position P11 ′ are (x2, y2). The virtual viewpoint image generation unit 31 uses the coordinates (xt, yt) of the pixel position on the virtual viewpoint image Ima corresponding to the pixel positions P11 and P11 ′ as follows based on m (≦ 1) as the relative position information. It can be determined by equation (11).
(Xt, yt) = (1−m) × (x1, y1) + m × (x2, y2) (11)
When the luminance components at the pixel positions P11 and P11 ′ are J11 and J11 ′, respectively, the luminance component Pt at the pixel position Ph on the virtual viewpoint image Ima can be determined by the following equation (12).

Pt=(1−m)×J11+m×J11’ ・・・(12)
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。なおmは、図14に示すように仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
Pt = (1−m) × J11 + m × J11 ′ (12)
As described above, the virtual viewpoint image generation unit 31 can determine the coordinates of each pixel constituting the virtual viewpoint image Ima and its luminance component according to m as the relative position information. As shown in FIG. 14, m decreases as the virtual viewpoint in the virtual camera approaches the camera 11a, and increases as the virtual viewpoint approaches the camera 12a.

このため、式(11)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。   Therefore, the coordinates (xt, yt) determined based on Expression (11) approach the coordinates (x1, y1) of the pixel position P11 as the virtual viewpoint approaches the camera 11a, and the virtual viewpoint approaches the camera 12a. As a result, it approaches the coordinates (x2, y2) of the pixel position P12. That is, since the coordinates (xt, yt) can be freely determined according to the position of the virtual camera, the position of the user a displayed on the virtual viewpoint image Ima can be freely changed.

また、式(12)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ima上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。   In addition, the luminance component Pt determined based on Expression (12) approaches the luminance component J11 at the pixel position P11 as the virtual viewpoint approaches the camera 11a, and the luminance component at the pixel position P11 ′ as the virtual viewpoint approaches the camera 12a. It will approach J11 '. That is, the pixels constituting the user a on the virtual viewpoint image Ima can be brought close to the luminance component J11 or the luminance component J11 'according to the position of the virtual camera.

特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、画像Pa1上にある画素位置P11と、これに対応する画像Pa2上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想支点画像Imaは、上述したDPマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。   In particular, since the shooting directions of the camera 11a and the camera 12a are different from each other, the luminance component is different between the pixel position P11 on the image Pa1 and the corresponding pixel position P11 'on the image Pa2. Depending on the position of the virtual camera by linearly increasing or decreasing the luminance component Pt according to m as the relative position information so that one of the different luminance components is the minimum value and the other is the maximum value. Thus, it is possible to determine the luminance component of the pixels constituting the user a displayed on the virtual viewpoint image Ima. In addition, since the generated virtual fulcrum image Ima is generated based on the relationship associated in the DP matching unit 29 described above, it is possible to further reduce image quality degradation of the obtained image.

上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像Imaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた画像Pa1,Pa2に対して、常時正面を向いている状態となる。   By sequentially determining the coordinates (xt, yt) and the luminance component Pt at the pixel position Ph as described above, the generated virtual viewpoint image Ima has the line-of-sight direction of the displayed user a, the face direction, etc. The different images Pa1, Pa2 are always facing the front.

生成された仮想視点画像Imaは、出力制御部31による制御の下、ネットワーク7へ送出される。そして相手側の画像処理装置2bへ送信された仮想視点画像Imaは、画像処理装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Imb上のユーザbを視認しつつ対話をすることになるが、正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。   The generated virtual viewpoint image Ima is sent to the network 7 under the control of the output control unit 31. Then, the virtual viewpoint image Ima transmitted to the image processing device 2b on the other side is displayed on the display 5b under the control of the image processing device 2b. The user b interacts while visually recognizing the user a on the virtual viewpoint image Ima displayed on the display 5b. However, since the user a's face and line-of-sight direction are facing the front, It is possible to enjoy a feeling of visually recognizing an image taken by a virtual camera installed near the center. Similarly, the user a interacts while viewing the user b on the virtual viewpoint image Imb displayed on the display 5a. However, the user b facing the front can be visually recognized. That is, in this communication system 1, visual communication in which the line of sight is always matched between users who are interacting can be realized, and a more realistic and realistic remote dialog can be realized.

特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5
の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
In particular, in the communication system 1, at least two cameras 11 and 12 are connected to the display 5.
It is sufficient to dispose them on both sides, and it is not necessary to extract the three-dimensional information of the subject each time, so that there is an advantage that the entire system is not complicated.

また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。   Further, in the communication system 1, it is not necessary to use a special device such as a half mirror, a hologram screen, or a projector, and a simple and inexpensive system can be configured.

なお、本発明を適用した通信システム1においては、画像に乱れが生ずるものと判別された結果、ステップS16に移行した場合には、仮想視点画像Imaを生成する際に、以下に示す修正処理を施す。   In the communication system 1 to which the present invention is applied, when it is determined that the image is disturbed and the process proceeds to step S16, the following correction process is performed when the virtual viewpoint image Ima is generated. Apply.

先ず仮想カメラの初期位置が図14における相対位置情報mが0.5で表される位置にあると仮定する。このとき仮想視点画像Imaの前フレームにおける仮想カメラの位置αpが0より大きい場合には、仮想視点画像Imaの現フレームにおける仮想カメラの位置αcを、以下の(13)式に基づいて算出する。
αc=Max{(αp−Vc_Step)、0}・・・・・・・・・・(13)
ここでVc_Stepは、仮想カメラの視点を初期位置からカメラ11a、またはカメラ12aの視点へシフトさせる際のステップ幅を意味する。このステップ幅を前フレームにおける仮想カメラの位置αpから差し引いた位置(αp−Vc_Step)は、ステップ幅Vc_Stepの分だけカメラ11aへ近づいた視点位置となる。かかる(αp−Vc_Step)と、0のうち何れが大きいかを判別する。その結果、(αp−Vc_Step)が大きい場合には、(13)式に基づいて現フレームにおける視点位置αcを(αp−Vc_Step)とする。
First, it is assumed that the initial position of the virtual camera is at a position where the relative position information m in FIG. 14 is represented by 0.5. At this time, if the position αp of the virtual camera in the previous frame of the virtual viewpoint image Ima is larger than 0, the position αc of the virtual camera in the current frame of the virtual viewpoint image Ima is calculated based on the following equation (13).
αc = Max {(αp−Vc_Step), 0} (13)
Here, Vc_Step means a step width when shifting the viewpoint of the virtual camera from the initial position to the viewpoint of the camera 11a or the camera 12a. The position (αp−Vc_Step) obtained by subtracting the step width from the virtual camera position αp in the previous frame becomes the viewpoint position approaching the camera 11a by the step width Vc_Step. It is determined which of (αp−Vc_Step) and 0 is larger. As a result, when (αp−Vc_Step) is large, the viewpoint position αc in the current frame is set to (αp−Vc_Step) based on the equation (13).

次のフレームに移った場合においても当該次のフレームを現フレームとした場合には、前フレームでは、ステップ幅Vc_Stepの分だけカメラ11aへ近づいた視点位置とされているため、さらにステップ幅Vc_Stepの分だけ差し引いた位置と、0のうち何れが大きいか判別されることになる。即ち、フレームが後方へ移るにつれて、仮想カメラの視点位置は、ステップ幅Vc_Stepだけカメラ11aへ徐々に近づくことになる。そして最終的に仮想カメラの視点位置は、カメラ11aの視点位置と同等になる。   Even when moving to the next frame, if the next frame is the current frame, the previous frame is set to the viewpoint position that is closer to the camera 11a by the step width Vc_Step, and therefore the step width Vc_Step is further increased. It is determined which of the position subtracted by the minute and 0 is greater. That is, as the frame moves backward, the viewpoint position of the virtual camera gradually approaches the camera 11a by the step width Vc_Step. Finally, the viewpoint position of the virtual camera becomes equivalent to the viewpoint position of the camera 11a.

即ち、ステップS16に移行することにより、生成すべき仮想視点画像Imaにつき乱れが生じることが確認された場合には、仮想カメラの視点位置をステップ幅Vc_Step毎にカメラ11aへ近づけていくことにより、視差による画像の乱れが生じないカメラ11aによる視点の画像をユーザに表示させることができる。これにより、相手側のユーザbに対して、乱れのある画像を表示させることを防ぐことができ、違和感を与えることがなくなる。特にこの通信システム1では、仮想視点画像Imaの作成時における乱れを自動的に除去することができることから、各ユーザがカメラ11a,12aとの関係において適切な位置へ移動する必要もなくなる。また、仮想視点画像Imaの乱れを除去することにより、かかる画像における画質そのものを向上させることも可能となる。   That is, when it is confirmed that the virtual viewpoint image Ima to be generated is disturbed by moving to step S16, the viewpoint position of the virtual camera is brought closer to the camera 11a for each step width Vc_Step. It is possible to display a viewpoint image from the camera 11a that does not cause image disturbance due to parallax to the user. As a result, it is possible to prevent the other party user b from displaying a distorted image and not to give a sense of incongruity. In particular, in the communication system 1, since the disturbance at the time of creating the virtual viewpoint image Ima can be automatically removed, it is not necessary for each user to move to an appropriate position in relation to the cameras 11a and 12a. Also, by removing the disturbance of the virtual viewpoint image Ima, it is possible to improve the image quality itself of the image.

なお、ステップ幅Vc_Stepは、撮影環境に応じてできるだけスムーズに視点位置を変更すべく、ユーザ側で自由に設定できるようにしてもよい。また、仮想カメラの視点位置をカメラ11aに近づけていく場合に限定されるものではなく、ステップ幅Vc_Step毎にカメラ12aの視点へ近づけていくようにしてもよい。このとき仮想カメラの視点位置をカメラ11a、カメラ12aの何れに近づけていくかについては、例えばオクリュージョンの原因となるユーザの手Vの位置がカメラ11a側にある場合には、カメラ11aへ仮想視点を近づけ、手Vの位置がカメラ12a側にある場合には、カメラ12aへ仮想視点を近づけるようにしてもよい。
なお、仮想カメラの視点位置をカメラ11aの視点に合わせた後、画像の乱れが検出されず上述のステップS19へ移行するようになった場合には、αp<0.5であるときに以下の(14)式に基づいて仮想カメラの視点位置を元に戻すようにしてもよい。
αc=Min{(αp+Vc_Step)、α0}・・・・・・・・・・(14)
この(14)式に示すように、フレームが後方へ移るにつれて仮想カメラの視点位置はステップ幅Vc_Step毎にα0へ近づいていくことになる。そして最終的に元の仮想視点位置α0へ戻ることになる。
Note that the step width Vc_Step may be set freely on the user side in order to change the viewpoint position as smoothly as possible according to the shooting environment. Also, the viewpoint position of the virtual camera is not limited to approaching the camera 11a, but may be approached to the viewpoint of the camera 12a for each step width Vc_Step. At this time, as to whether the viewpoint position of the virtual camera is closer to the camera 11a or the camera 12a, for example, when the position of the user's hand V causing the occlusion is on the camera 11a side, go to the camera 11a. When the virtual viewpoint is brought closer and the position of the hand V is on the camera 12a side, the virtual viewpoint may be brought closer to the camera 12a.
When the viewpoint of the virtual camera is set to the viewpoint of the camera 11a and the image transition is not detected and the process proceeds to step S19 described above, when αp <0.5, the following is performed. You may make it return the viewpoint position of a virtual camera based on (14) Formula.
αc = Min {(αp + Vc_Step), α0} (14)
As shown in equation (14), as the frame moves backward, the viewpoint position of the virtual camera approaches α0 for each step width Vc_Step. Finally, the original virtual viewpoint position α0 is returned.

なお、本発明を適用した画像処理装置2は、上述した実施の形態に限定されるものではない。例えば図15に示すようにステップS14における上記対応関係の比較結果に応じた情報をユーザに通知する通知部101を実装した画像処理装置110として適用してもよい。この図15において上述した図2に示す画像処理装置2と同一の構成要素、部材については、同一の番号を付して説明を省略する。   The image processing apparatus 2 to which the present invention is applied is not limited to the above-described embodiment. For example, as shown in FIG. 15, the image processing apparatus 110 may be applied as a notification unit 101 that notifies the user of information corresponding to the comparison result of the correspondence relationship in step S <b> 14. In FIG. 15, the same components and members as those of the image processing apparatus 2 shown in FIG. 2 described above are denoted by the same reference numerals and description thereof is omitted.

この通知部101は、情報生成部33に接続されてなり、上述した対応関係の比較結果が送られてきた場合には、これに応じた適切な情報をユーザに対して通知する。
例えば、ブロックマッチング部28によるオクリュージョンの検出結果より、ユーザaの位置がカメラ11a,12aに対して接近し過ぎている旨を識別した場合には、その旨を映像又は音声等によりユーザaに通知する。かかる通知を受けたユーザaは自身の位置がカメラ11a,12aに接近し過ぎている旨を認識し、後方へ移動する。その結果、視差の逆転を防ぐことができ、相手側のユーザbに対して違和感のある仮想視点画像Imaが送信されることを防止することが可能となる。
またユーザaがより前方にある場合に限定されるものではなく、乱れのない仮想視点画像Imaを作成する観点において、カメラ11a,12aに対するユーザaの位置を視差のない適切な位置へ誘導させるためのメッセージを出力するようにしてもよい。
さらに、ユーザaを適切な位置へ誘導させる場合に限定されるものではなく、ステップS11やステップS12における対応付け結果に基づいた情報であればいかなるものを通知するようにしてもよい。
The notification unit 101 is connected to the information generation unit 33, and when the comparison result of the correspondence described above is sent, notifies the user of appropriate information according to the comparison result.
For example, when it is identified from the occlusion detection result by the block matching unit 28 that the position of the user a is too close to the cameras 11a and 12a, the fact that the user a Notify Receiving such notification, the user a recognizes that his / her position is too close to the cameras 11a and 12a, and moves backward. As a result, the reversal of parallax can be prevented, and it is possible to prevent the virtual viewpoint image Ima having an uncomfortable feeling from being transmitted to the user b on the other side.
In addition, the present invention is not limited to the case where the user a is in front of the camera. In order to guide the position of the user a with respect to the cameras 11a and 12a to an appropriate position without parallax from the viewpoint of creating a virtual viewpoint image Ima that is not disturbed. May be output.
Further, the present invention is not limited to guiding the user a to an appropriate position, and any information may be notified as long as the information is based on the association result in step S11 or step S12.

図16は、このような通知部101を設ける場合における動作手順を示している。各カメラ11a,12aにより撮像された各画像Pa1,Pa2において、視差のズレの原因となる被写体(ユーザaの手等)が含まれる場合には、何ら修正処理がなされていないまま仮想視点位置α0において仮想視点画像Imaを作成すると、ステップS31に示すような画像の乱れが生じてしまう。   FIG. 16 shows an operation procedure when such a notification unit 101 is provided. When each of the images Pa1 and Pa2 captured by the cameras 11a and 12a includes a subject (such as a user a's hand) that causes a shift in parallax, the virtual viewpoint position α0 without any correction processing being performed. If the virtual viewpoint image Ima is created in step S31, the image is disturbed as shown in step S31.

かかる場合には、ステップS32へ移行して、通知部101を介してユーザにエラー通知をし、例えば“前に出すぎています”等のメッセージを出力することにより、視差が生じない位置への移動を促すとともに、仮想視点をカメラ11a又はカメラ12aの視点へ移動させることにより、画像の乱れを抑制した仮想視点画像Imaを作成し、これを相手側の画像処理装置2へ送信する。これにより、ユーザaが後方へ移動するまで、かかる視点位置を移動させた仮想視点画像Imaを送信し続け、ユーザaが後方に移動した後、再び仮想視点位置α0における仮想視点画像Imaを作成することも可能となり、ひいては、相手側ユーザに対して乱れのない仮想視点画像Imaを送信し続けることも可能となり、より自然なコミュニケーションを実現することが可能となる。   In such a case, the process proceeds to step S32, an error notification is sent to the user via the notification unit 101, and a message such as “Too far out” is output, for example, to a position where no parallax occurs. A virtual viewpoint image Ima in which image disturbance is suppressed is created by urging the movement and moving the virtual viewpoint to the viewpoint of the camera 11a or the camera 12a, and this is transmitted to the image processing apparatus 2 on the other side. Thereby, until the user a moves backward, the virtual viewpoint image Ima in which the viewpoint position is moved is continuously transmitted, and after the user a moves backward, the virtual viewpoint image Ima at the virtual viewpoint position α0 is created again. As a result, it is possible to continue to transmit the virtual viewpoint image Ima without any disturbance to the other user, and more natural communication can be realized.

特に仮想視点画像を出力し続けたい場合において、通信システム1が適切な手段をユーザに対して提示し得ることから、従来法と比較して仮想視点画像が出力される可能性が高くなる。   In particular, when it is desired to continue outputting the virtual viewpoint image, the communication system 1 can present appropriate means to the user, so that the possibility that the virtual viewpoint image is output is higher than in the conventional method.

なお、本発明は上述した実施の形態に限定されるものではなく、DPマッチング部29における対応付け方法並びに、ブロックマッチング部28における対応付け方法は、互いに異なるものであればいかなる方法であってもよい。   The present invention is not limited to the above-described embodiment, and the association method in the DP matching unit 29 and the association method in the block matching unit 28 may be any methods as long as they are different from each other. Good.

本発明を適用した通信システムの概略を示す図である。It is a figure which shows the outline of the communication system to which this invention is applied. 画像処理装置の構成につき説明するための図である。It is a figure for demonstrating per structure of an image processing apparatus. マッチング部における対応付けにつき説明するための図である。It is a figure for demonstrating about the matching in a matching part. DPを利用した対応付けにつき説明するための図である。It is a figure for demonstrating about the correlation using DP. エピポーラ線L1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示す図である。It is a figure shown about the case where the optimal path | route to the arbitrary feature points (x, y) on epipolar line L1, L1 'is calculated | required. 画像Pa1と画像Pa2との間で生じるオクリュージョンにつき説明するための図である。It is a figure for demonstrating the occlusion which arises between the image Pa1 and the image Pa2. 画像Pa1と画像Pa2におけるエピポーラ線L1,L1’上にある各特徴点の画素成分(輝度又は色成分)の対応関係を示す図である。It is a figure which shows the correspondence of the pixel component (luminance or color component) of each feature point on the epipolar lines L1 and L1 'in the image Pa1 and the image Pa2. 画像処理装置における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in an image processing apparatus. カメラからの距離に対するマッチングの頻度を示す図である。It is a figure which shows the frequency of matching with respect to the distance from a camera. カメラに対するユーザの顔と手の位置に応じた視差の逆転現象につき説明するための図である。It is a figure for demonstrating the inversion phenomenon of the parallax according to the position of the user's face and hand with respect to a camera. マッチング頻度のピークを介してこれらの視差の逆転が起きているか否かにつき識別するフローチャートである。It is a flowchart which discriminate | determines whether these parallax inversion has occurred via the peak of matching frequency. DPマッチングとブロックマッチングとにより求めた対応関係を比較する手順を示すフローチャートである。It is a flowchart which shows the procedure which compares the correspondence calculated | required by DP matching and block matching. 仮想視点画像を作成する方法につき説明するための図である。It is a figure for demonstrating about the method of producing a virtual viewpoint image. 仮想視点位置を修正する方法につき示す図である。It is a figure shown about the method of correcting a virtual viewpoint position. 通知部を備えた画像処理装置の構成につき説明するための図である。It is a figure for demonstrating per structure of the image processing apparatus provided with the notification part. 通知部を設ける場合における動作手順を示す図である。It is a figure which shows the operation | movement procedure in the case of providing a notification part. 従来技術の問題点について説明するための図である。It is a figure for demonstrating the problem of a prior art.

符号の説明Explanation of symbols

1 通信システム、2 画像処理装置、5 ディスプレイ、7 ネットワーク、11,12 カメラ、28 ブロックマッチング、29 DPマッチング部、30 仮想視点画像生成部、31 出力制御部、33 情報生成部
DESCRIPTION OF SYMBOLS 1 Communication system, 2 Image processing apparatus, 5 Display, 7 Network, 11,12 Camera, 28 Block matching, 29 DP matching part, 30 Virtual viewpoint image generation part, 31 Output control part, 33 Information generation part

Claims (14)

少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、画素毎に対応関係を求める第1のマッチング手段と、
上記第1のマッチング手段と異なる手法に基づき画素毎に対応関係を求める第2のマッチング手段と、
上記第1のマッチング手段により求められた対応関係と、上記第2のマッチング手段により求められた対応関係とを上記画素毎に比較するとともに、仮想的な視点である仮想視点からの画像を得るために設定する仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を、当該比較結果に基づいて生成する情報生成手段と、
上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から、上記情報生成手段により生成された上記仮想視点の相対位置情報に基づいて、上記仮想視点における仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備えること
を特徴とする画像処理装置。
First matching means for obtaining a correspondence relationship for each pixel between each image obtained by imaging a subject from different viewpoints by at least two cameras;
Second matching means for obtaining a correspondence relationship for each pixel based on a method different from the first matching means;
To compare the correspondence obtained by the first matching means with the correspondence obtained by the second matching means for each pixel and to obtain an image from a virtual viewpoint that is a virtual viewpoint. Information generating means for generating relative position information indicating a relative positional relationship with respect to each of the cameras with the virtual viewpoint to be set based on the comparison result;
The virtual viewpoint based on the relative position information of the virtual viewpoint generated by the information generating means from the positions and luminance components of the pixels associated with each other by the first matching means and / or the second matching means. An image processing apparatus comprising: an image generation means for obtaining a position of a pixel constituting a virtual viewpoint image and a luminance component thereof.
少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチング手段と、
複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチング手段と、
上記第1のマッチング手段により求められた対応関係と、上記第2のマッチング手段により求められた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成手段と、
上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から上記情報生成手段により生成された相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備え、
上記第1のマッチング手段は上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めること
を特徴とする画像処理装置。
First matching that obtains a correspondence relationship for each pixel on the same horizontal line while being related to the subject between the images obtained by imaging the subject from different viewpoints by at least two cameras. Means,
A set of blocks in which a block in which a plurality of pixels are two-dimensionally arranged is cut out for each of the above images, the sum of absolute differences of luminance components between the cut out blocks is sequentially calculated, and the calculated sum of absolute differences is minimized. A second matching means for obtaining a correspondence relationship for each pixel based on:
A virtual viewpoint that is set to obtain an image from a certain viewpoint while comparing the correspondence obtained by the first matching means and the correspondence obtained by the second matching means for each pixel. Information generating means for generating relative position information indicating a relative positional relationship with respect to each of the cameras based on the comparison result;
The virtual to be generated from the virtual viewpoint based on the relative position information generated by the information generating unit from the position and luminance component of the pixels associated with each other by the first matching unit and / or the second matching unit. Image generation means for obtaining the position of the pixel constituting the viewpoint image and its luminance component;
The first matching means identifies the similarity by comparing the luminance component and the color component for each pixel position for which the correspondence relationship is obtained, identifies the parallax between the images of the subject, and identifies the identified similarity An image processing apparatus characterized by obtaining the correspondence relationship according to the degree and parallax.
上記情報生成手段は、上記仮想視点の上記各カメラに対する相対的な位置関係がフレーム単位で連続的に変化するように上記相対位置情報を生成すること
を特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the information generation unit generates the relative position information so that a relative positional relationship of the virtual viewpoint with respect to the cameras continuously changes in units of frames. .
上記情報生成手段は、上記第1のマッチング手段により求められた対応関係に基づく視差と上記第2のマッチング手段により求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に上記仮想視点が上記カメラのいずれかへ段階的に近づくように上記相対位置情報を生成すること
を特徴とする請求項3記載の画像処理装置。
The information generation means obtains an absolute difference value between the disparity based on the correspondence obtained by the first matching means and the disparity based on the correspondence obtained by the second matching means for each pixel. The relative position information is determined so that the virtual viewpoint approaches the one of the cameras stepwise when the difference absolute value exceeds the first threshold and the determined number exceeds the second threshold. The image processing apparatus according to claim 3, wherein:
上記情報生成手段は、上記判別した個数が第2の閾値未満の場合,上記仮想視点が上記各カメラ間の中間位置へ段階的に近づけるように上記相対位置情報を生成すること
を特徴とする請求項4記載の画像処理装置。
The information generation means generates the relative position information so that the virtual viewpoint approaches stepwise to an intermediate position between the cameras when the determined number is less than a second threshold. Item 5. The image processing apparatus according to Item 4.
上記第2のマッチング手段は、上記被写体の上記各カメラに対する幾何学的な位置関係に基づく視差を識別し、
上記情報生成手段は、さらに上記第2のマッチング手段により識別された視差に基づいて、上記相対位置情報を生成すること
を特徴とする請求項2記載の画像処理装置。
The second matching means identifies a parallax based on a geometric positional relationship of the subject with respect to each of the cameras;
The image processing apparatus according to claim 2, wherein the information generation unit further generates the relative position information based on the parallax identified by the second matching unit.
上記情報生成手段による上記比較結果に応じて所定の情報をユーザに通知する通知手段をさらに備えること
を特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, further comprising notification means for notifying a user of predetermined information according to the comparison result by the information generation means.
上記マッチング手段は、上記各画像間における対応関係を求める際に、上記識別した類似度及び視差のうちいずれを優先させるか決定し、類似度を優先させる場合には
上記水平ライン上にある同一画素位置間において対応付けを行い、視差を優先させる場合には対応させる画素の位置に対し同一の水平ライン上にある複数の画素位置を対応付けること
を特徴とする請求項2記載の画像処理装置。
The matching unit determines which of the identified similarity and parallax should be prioritized when obtaining the correspondence between the images, and when prioritizing the similarity, the same pixel on the horizontal line The image processing apparatus according to claim 2, wherein the association is performed between positions, and when priority is given to parallax, a plurality of pixel positions on the same horizontal line are associated with the position of the corresponding pixel.
上記マッチング手段は、上記類似度を識別する際に比較する輝度成分又は色成分のうち何れかに重み付けをすること
を特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the matching unit weights either a luminance component or a color component to be compared when identifying the similarity.
上記マッチング手段は、上記水平ラインの上下に位置する各画素位置における輝度成分及び色成分との相関関係を反映させつつ、上記類似度を識別すること
を特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the matching unit identifies the similarity while reflecting a correlation between a luminance component and a color component at each pixel position located above and below the horizontal line. .
上記画像補正手段は、上記各カメラにより撮像された各画像の法線方向を,上記仮想視点の画像が投影される仮想平面の法線方向に合わせること
を特徴とする請求項2記載の画像処理装置。
3. The image processing according to claim 2, wherein the image correction unit matches a normal direction of each image captured by each camera with a normal direction of a virtual plane on which the image of the virtual viewpoint is projected. apparatus.
上記画像補正手段は、上記各カメラからの各画像を上記仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項11記載の画像処理装置。
The image correction means obtains a projection transformation matrix for projecting each image from each camera onto the virtual plane, and sets the normal direction of each image based on the obtained projection transformation matrix. The image processing apparatus according to claim 11, wherein the image processing apparatus is adapted to a direction.
少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、
複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、 上記第1のマッチングステップにおいて求めた対応関係と、上記第2のマッチングステップにおいて求めた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成ステップと、
上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、
上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めること
を特徴とする画像処理方法。
First matching that obtains a correspondence relationship for each pixel on the same horizontal line while being related to the subject between the images obtained by imaging the subject from different viewpoints by at least two cameras. Steps,
A set of blocks in which a block in which a plurality of pixels are two-dimensionally arranged is cut out for each of the above images, the sum of absolute differences of luminance components between the cut out blocks is sequentially calculated, and the calculated sum of absolute differences is minimized. The second matching step for obtaining the correspondence relationship for each pixel based on the above, the correspondence relationship obtained in the first matching step, and the correspondence relationship obtained in the second matching step are compared for each pixel, An information generation step of generating relative position information indicating a relative positional relationship with respect to each camera with a virtual viewpoint set to obtain an image from a certain viewpoint based on the comparison result;
A virtual viewpoint image to be generated based on the virtual viewpoint based on the relative position information generated by the information generation step from the position and luminance component of the pixels associated with each other in the first matching step and / or the second matching step. An image generation step for obtaining the position of the pixel constituting the pixel and its luminance component,
In the first matching step, the similarity is identified by comparing the luminance component and the color component for each pixel position for which the correspondence is obtained, and the parallax between the images of the subject is identified, and the identified An image processing method characterized in that the correspondence is obtained according to similarity and parallax.
少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、
複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、 上記第1のマッチングステップにおいて求めた対応関係と、上記第2のマッチングステップにおいて求めた対応関係とを上記画素毎に比較するとともに、ある視点からの画像を得るために設定するする仮想視点との上記各カメラに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する情報生成ステップと、
上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、
上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めることをコンピュータに実行させるためのプログラム。
First matching that obtains a correspondence relationship for each pixel on the same horizontal line while being related to the subject between the images obtained by imaging the subject from different viewpoints by at least two cameras. Steps,
A set of blocks in which a block in which a plurality of pixels are two-dimensionally arranged is cut out for each of the above images, the sum of absolute differences of luminance components between the cut out blocks is sequentially calculated, and the calculated sum of absolute differences is minimized. The second matching step for obtaining the correspondence relationship for each pixel based on the above, the correspondence relationship obtained in the first matching step, and the correspondence relationship obtained in the second matching step are compared for each pixel, An information generation step of generating relative position information indicating a relative positional relationship with respect to each camera with a virtual viewpoint set to obtain an image from a certain viewpoint based on the comparison result;
A virtual viewpoint image to be generated based on the virtual viewpoint based on the relative position information generated by the information generation step from the position and luminance component of the pixels associated with each other in the first matching step and / or the second matching step. An image generation step for obtaining the position of the pixel constituting the pixel and its luminance component,
In the first matching step, the similarity is identified by comparing the luminance component and the color component for each pixel position for which the correspondence is obtained, and the parallax between the images of the subject is identified, and the identified A program for causing a computer to obtain the correspondence relationship according to similarity and parallax.
JP2004216320A 2004-07-23 2004-07-23 Image processing apparatus and method, and program Expired - Fee Related JP4586447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004216320A JP4586447B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004216320A JP4586447B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2006039770A true JP2006039770A (en) 2006-02-09
JP4586447B2 JP4586447B2 (en) 2010-11-24

Family

ID=35904733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004216320A Expired - Fee Related JP4586447B2 (en) 2004-07-23 2004-07-23 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4586447B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042998A1 (en) * 2010-09-28 2012-04-05 シャープ株式会社 Image processing device, image processing method, program, and recording medium
WO2013088872A1 (en) * 2011-12-16 2013-06-20 コニカミノルタ株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program
JP2014225843A (en) * 2013-05-17 2014-12-04 キヤノン株式会社 Image processing apparatus, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296194A (en) * 1994-04-22 1995-11-10 Canon Inc Method and device for image processing
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296194A (en) * 1994-04-22 1995-11-10 Canon Inc Method and device for image processing
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中村 芳浩、斎藤 英雄: ""Visual Hullを利用した未校正多視点画像からの仮想視点画像生成"", 電子情報通信学会技術研究報告, vol. Vo.103, No.516, JPN6010012532, 12 December 2003 (2003-12-12), JP, pages 31 - 36, ISSN: 0001695056 *
昼間 香織、沖村 隆幸、上平 員丈: ""複数の奥行マップを用いた仮想視点画像の生成"", 電子情報通信学会論文誌, vol. 84, no. 5, JPN6010012529, 1 May 2001 (2001-05-01), JP, pages 805 - 811, ISSN: 0001695055 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042998A1 (en) * 2010-09-28 2012-04-05 シャープ株式会社 Image processing device, image processing method, program, and recording medium
JP2012073702A (en) * 2010-09-28 2012-04-12 Sharp Corp Image processing apparatus, image processing method, program, and recording medium
WO2013088872A1 (en) * 2011-12-16 2013-06-20 コニカミノルタ株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program
JP2014225843A (en) * 2013-05-17 2014-12-04 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4586447B2 (en) 2010-11-24

Similar Documents

Publication Publication Date Title
JP4069855B2 (en) Image processing apparatus and method
US7330584B2 (en) Image processing apparatus and method
US9521362B2 (en) View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
TWI479452B (en) Method and apparatus for modifying a digital image
US8203595B2 (en) Method and apparatus for enabling improved eye contact in video teleconferencing applications
WO2014103094A1 (en) Information processing device, information processing system, and information processing method
US20120287246A1 (en) Image processing apparatus capable of displaying image indicative of face area, method of controlling the image processing apparatus, and storage medium
JP6946684B2 (en) Electronic information board systems, image processing equipment, and programs
JP4461739B2 (en) Imaging device
WO2018225518A1 (en) Image processing device, image processing method, program, and telecommunication system
JP4539015B2 (en) Image communication apparatus, image communication method, and computer program
JP6157077B2 (en) Display device with camera
JP4617965B2 (en) Image processing method, apparatus and program
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP2005117285A (en) Information input device, communication terminal and communication method
CN113112407A (en) Method, system, device and medium for generating field of view of television-based mirror
JP4586447B2 (en) Image processing apparatus and method, and program
JP2005142765A (en) Apparatus and method for imaging
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP4089027B2 (en) Bidirectional communication system, terminal device and control method
JP2006024141A (en) Image processor and image processing method and program
JPH0716244B2 (en) Eye-gaze correction device
CN113632458A (en) System, algorithm and design for wide angle camera perspective experience
JP2006024142A (en) Image processor and image processing method and program
CN117480776A (en) Video conference terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees