JP2005078313A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2005078313A
JP2005078313A JP2003307188A JP2003307188A JP2005078313A JP 2005078313 A JP2005078313 A JP 2005078313A JP 2003307188 A JP2003307188 A JP 2003307188A JP 2003307188 A JP2003307188 A JP 2003307188A JP 2005078313 A JP2005078313 A JP 2005078313A
Authority
JP
Japan
Prior art keywords
image
real space
unit
information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003307188A
Other languages
Japanese (ja)
Inventor
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003307188A priority Critical patent/JP2005078313A/en
Publication of JP2005078313A publication Critical patent/JP2005078313A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sensation as if an opposite party seems to be really in front of a user. <P>SOLUTION: A detection part 3 acquires a three-dimensional information C<SB>a</SB>of a real space 41 in front of a display screen of a display part 8 where an image is displayed, and provides it to an image creation part 10. A reception part 11 obtains the three-dimensional information C<SB>b</SB>of the real space 42 and the image information D<SB>b</SB>acquired by photographing the real space 42 from a transmission part 27 comprising an information processing apparatus 22, and provides them to the image creation part 10. The image creation part 10 creates an image reflecting influence on the real space 42 by the real space 41 based on the three-dimensional information C<SB>a</SB>provided from the detection part 3, and the three-dimensional information C<SB>b</SB>and the image information D<SB>b</SB>acquired by photographing the real space 42 provided from the reception part 11 if it is assumed that the real space 42 is behind the display screen of the display part 8. For example, it is applied to a video conference system or the like performing communication with transmission of the images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、例えば、より臨場感のある画像を表示することができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus, an image processing method, and a program that can display a more realistic image, for example.

例えば、テレビ会議システム等に代表される従来の画像対話装置では、送信側の撮像装置により撮像された送信側の利用者の画像を、通信回線を介して通信相手に送信するとともに、通信相手である利用者の画像を通信回線を介して受信し、受信した通信相手である利用者の画像を表示装置に表示させる双方向通信が行われる。かかる画像対話装置によれば、利用者は、互いに、相手を見ながら話(対話)ができるので、相手が遠方にいても、自分の近くにいるような臨場感を享受することができる。   For example, in a conventional image dialogue apparatus typified by a video conference system or the like, an image of a transmission-side user imaged by a transmission-side imaging apparatus is transmitted to a communication partner via a communication line. Bidirectional communication is performed in which an image of a certain user is received via a communication line and an image of a user who is the received communication partner is displayed on a display device. According to such an image interaction apparatus, users can talk (converse) while looking at each other, so that even when the other party is far away, they can enjoy a sense of realism that they are close to themselves.

通信相手を身近に感じさせる臨場感や場の共有感のような感覚を提供する手段としては、例えば、プロジェクタ等で通信相手の画像を等身大で投影するテレビ会議用端末装置が提案されている(例えば、特許文献1参照)。   As a means for providing a sense of presence or a feeling of sharedness that makes a communication partner feel close, for example, a video conference terminal device that projects an image of a communication partner in a life size using a projector or the like has been proposed. (For example, refer to Patent Document 1).

また、通信相手と視線を合致させることにより、臨場感や場の共有感のような感覚を提供する手段も提案されている。このような手段としては、例えば、ハーフミラーを用いてカメラの向きと表示画面を合わせるようにしたテレビ電話装置(例えば、特許文献2参照)や、光透過状態と光錯乱状態を制御することができるスクリーンとプロジェクタを用いて、時系列的に画像の表示と撮像を行う画像表示/撮像装置(例えば、特許文献3参照)、ホログラムスクリーンとプロジェクタを用いて、表示と撮像を同時に行うことができる撮像機能付き表示装置(例えば、特許文献4参照)などがある。   There has also been proposed a means for providing a sense of realism or shared feeling by matching the line of sight with the communication partner. As such means, for example, a videophone device (for example, refer to Patent Document 2) in which the direction of the camera and the display screen are matched using a half mirror, or a light transmission state and a light confusion state are controlled. An image display / imaging device that displays and captures images in time series using a screen and a projector that can be displayed (see, for example, Patent Document 3), and a hologram screen and a projector that can display and image simultaneously. There is a display device with an imaging function (see, for example, Patent Document 4).

さらに、画像を見ている人物を計測し、計測された人物の位置の情報に合わせて通信相手のカメラを動かすことにより、人物が動いても視線の一致を実現させるシステムも提案されている(例えば、特許文献5参照)。
特開2000−244884号公報 特開昭61−65683号公報 特開平4−11485号公報 特開平9−168141号公報 特開2000−83228号公報
Furthermore, a system has been proposed that realizes eye-gaze matching even if the person moves by measuring the person viewing the image and moving the camera of the communication partner in accordance with the measured position information of the person ( For example, see Patent Document 5).
JP 2000-244484 A Japanese Patent Laid-Open No. 61-65683 JP-A-4-11485 JP-A-9-168141 JP 2000-83228 A

上述したように、通信相手を等身大で投影させたり、または、通信相手と視線を合致させたりすることにより、通信回線を介してコミュニケーションを図る際の臨場感を向上させることができる。しかしながら、例えば、通信相手が実際に目の前にいるような感覚等、より高い臨場感の享受に対する要請は高い。   As described above, it is possible to improve a sense of reality when communicating through a communication line by projecting the communication partner in life size or matching the line of sight with the communication partner. However, for example, there is a high demand for enjoying a higher sense of presence, such as a feeling that the communication partner is actually in front of you.

本発明はこのような状況に鑑みてなされたものであり、通信相手が実際に目の前にいるような、より高い臨場感を提供することができるようにするものである。   The present invention has been made in view of such a situation, and can provide a higher sense of presence such that a communication partner is actually in front of you.

本発明の画像処理装置は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得手段と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段と、第1の取得手段により取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes a first acquisition unit that acquires first three-dimensional information of a first real space in front of a display screen on which an image is displayed, and a first position that is different from the first real space. Second acquisition means for acquiring the second three-dimensional information of the second real space and the first image obtained by imaging the second real space, and the first tertiary acquired by the first acquisition means When it is assumed that the second real space is located behind the display screen based on the original information and the second three-dimensional information and the first image acquired by the second acquisition unit, the first Generating means for generating a second image reflecting the influence of the real space on the second real space.

本発明の画像処理方法は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得ステップと、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップと、第1の取得ステップにより取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップとを含むことを特徴とする。   The image processing method of the present invention includes a first acquisition step of acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed, and a first position at a position different from the first real space. A second acquisition step of acquiring the second three-dimensional information of the second real space and a first image obtained by imaging the second real space, and the first tertiary acquired by the first acquisition step When it is assumed that the second real space is located behind the display screen based on the original information and the second three-dimensional information and the first image acquired by the second acquisition unit, the first Generating a second image reflecting the influence of the real space on the second real space.

本発明のプログラムは、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップを含むことを特徴とする。   The program of the present invention includes the first three-dimensional information of the first real space in front of the display screen on which the image is displayed, and the second three-dimensional of the second real space at a position different from the first real space. When it is assumed that the second real space is located behind the display screen based on the information and the first image obtained by imaging the second real space, the first real space is the second It includes a generation step of generating a second image reflecting the influence on the real space.

本発明の画像処理装置および画像処理方法、並びにプログラムによれば、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像が生成される。   According to the image processing device, the image processing method, and the program of the present invention, the first three-dimensional information of the first real space in front of the display screen on which the image is displayed, and the position different from the first real space. When it is assumed that the second real space is located behind the display screen based on the second three-dimensional information of the second real space and the first image obtained by imaging the second real space In addition, a second image reflecting the influence of the first real space on the second real space is generated.

本発明によれば、より臨場感のある画像を提供することができる。   According to the present invention, it is possible to provide a more realistic image.

以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、実施の形態との対応関係を例示すると、次のようになる。明細書には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. The correspondence between the invention described in this specification and the embodiments is illustrated as follows. Although there is an embodiment which is described in the specification but is not described here as corresponding to the invention, it does not mean that the embodiment corresponds to the invention. It doesn't mean not. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

さらに、この記載は、明細書に記載されている発明が、全て請求されていることを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出願したり、追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions described in the specification are claimed. In other words, this description is an invention described in the specification and is not claimed in this application, that is, an invention that will be filed in the future, filed by amendment, filed by amendment, or added The existence of is not denied.

請求項1に記載の画像処理装置は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得手段(例えば、図1の検出部3、または図10の受信部31)と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段(例えば、図1の受信部11、または図10の検出部23および撮像カメラ26)と、第1の取得手段により取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段(例えば、図1の画像生成部10、または図10の画像生成部30)とを備えることを特徴とする。   The image processing apparatus according to claim 1 is a first acquisition unit that acquires first three-dimensional information of a first real space in front of a display screen on which an image is displayed (for example, the detection unit 3 in FIG. 1). Or the receiving unit 31) in FIG. 10 and the second 3D information of the second real space at a position different from the first real space and the first image obtained by imaging the second real space. Second acquisition means (for example, the reception unit 11 in FIG. 1 or the detection unit 23 and the imaging camera 26 in FIG. 10), the first three-dimensional information acquired by the first acquisition means, and the second When it is assumed that the second real space is located behind the display screen based on the second three-dimensional information and the first image acquired by the acquisition means, the first real space is the second Generation means for generating a second image reflecting the influence on the real space (for example, the image generation unit in FIG. 1) 0, or characterized in that it comprises a drawing image generator 30 of 10) and.

請求項2に記載の画像処理装置は、生成手段(例えば、図1の画像生成部10)により生成された第2の画像を表示画面に表示させる表示制御手段(例えば、図1の表示制御部9)をさらに備えることを特徴とする。   The image processing apparatus according to claim 2 is a display control unit (for example, the display control unit of FIG. 1) that displays the second image generated by the generation unit (for example, the image generation unit 10 of FIG. 1) on the display screen. 9) is further provided.

請求項5に記載の画像処理装置は、所定の光源(例えば、図1の光源13)は、第1の実空間に存在する実際の光源であり、実際の光源を検出する検出手段(例えば、図1の検出器5)をさらに備えることを特徴とする。   The image processing apparatus according to claim 5, wherein the predetermined light source (for example, the light source 13 in FIG. 1) is an actual light source that exists in the first real space, and detection means (for example, an actual light source) The detector 5) of FIG. 1 is further provided.

請求項6に記載の画像処理装置は、第1の取得手段(例えば、図1の検出部3)は、第1の三次元情報を、第1の実空間から検出することにより取得し、第2の取得手段(例えば、図1の受信部11)は、第2の三次元情報と第1の画像を、他の装置(例えば、図1の情報処理装置22)から受信することにより取得することを特徴とする。   In the image processing apparatus according to claim 6, the first acquisition unit (for example, the detection unit 3 in FIG. 1) acquires the first three-dimensional information by detecting the first three-dimensional information from the first real space. The two acquisition means (for example, the receiving unit 11 in FIG. 1) acquire the second three-dimensional information and the first image by receiving them from another apparatus (for example, the information processing apparatus 22 in FIG. 1). It is characterized by that.

請求項7に記載の画像処理装置は、第1の取得手段(例えば、図10の受信部31)は、第1の三次元情報を、他の装置(例えば、図10の情報処理装置2)から受信することにより取得し、第2の取得手段(例えば、図10の検出部23、および検出器25)は、第2の三次元情報を、第2の実空間から検出することにより取得するとともに、第1の画像を、第2の実空間を撮像することにより取得することを特徴とする。   In the image processing apparatus according to claim 7, the first acquisition unit (for example, the reception unit 31 in FIG. 10) uses the first three-dimensional information as another apparatus (for example, the information processing apparatus 2 in FIG. 10). The second acquisition means (for example, the detection unit 23 and the detector 25 in FIG. 10) acquires the second three-dimensional information by detecting it from the second real space. At the same time, the first image is obtained by imaging the second real space.

請求項8に記載の画像処理方法は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得ステップ(例えば、図2のステップS1)と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップ(例えば、図2のステップS2)と、第1の取得ステップにより取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップ(例えば、図2のステップS4)とを含むことを特徴とする。   The image processing method according to claim 8 is a first acquisition step of acquiring first three-dimensional information of the first real space in front of the display screen on which the image is displayed (for example, step S1 in FIG. 2). And a second acquisition step of acquiring the second three-dimensional information of the second real space at a position different from the first real space and the first image obtained by imaging the second real space (for example, Display screen based on step S2) in FIG. 2, the first three-dimensional information acquired by the first acquisition step, the second three-dimensional information acquired by the second acquisition means, and the first image. Generation step for generating a second image reflecting the influence of the first real space on the second real space when it is assumed that the second real space is located behind (for example, FIG. 2). Step S4).

請求項9に記載のプログラムは、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップ(例えば、図2のステップS4)を含むことを特徴とする。   The program according to claim 9 is the first three-dimensional information of the first real space in front of the display screen on which the image is displayed, and the second real space second at a position different from the first real space. When it is assumed that the second real space is located behind the display screen based on the three-dimensional information and the first image obtained by imaging the second real space, the first real space is A generation step (for example, step S4 in FIG. 2) for generating a second image reflecting the influence on the second real space is included.

以下、本発明の実施の形態について説明する。図1は、本発明を適用した通信システムの第1実施の形態の構成例を示すブロック図である。   Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing a configuration example of a first embodiment of a communication system to which the present invention is applied.

ネットワーク40は、情報処理装置2と、情報処理装置22とを接続しており、画像情報、音声情報、および後述する三次元情報などの位置情報、その他のデータを双方向に伝送する。ネットワーク40としては、例えば、ローカルエリアネットワーク、インターネット、その他の有線または無線の伝送媒体を採用することができる。   The network 40 connects the information processing apparatus 2 and the information processing apparatus 22, and bidirectionally transmits image information, audio information, position information such as three-dimensional information described later, and other data. As the network 40, for example, a local area network, the Internet, or other wired or wireless transmission media can be adopted.

利用者1は、情報処理装置2を操作するユーザであり、例えば、遠方に存在する情報処理装置22を操作する利用者21とネットワーク40を介してコミュニケーションを図る。   The user 1 is a user who operates the information processing apparatus 2, and, for example, communicates with the user 21 who operates the information processing apparatus 22 that exists far away via the network 40.

情報処理装置2は、検出部3、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12、さらには図示せぬ音声処理部などから構成されている。   The information processing apparatus 2 includes a detection unit 3, an imaging camera 6, a transmission unit 7, a display unit 8, a display control unit 9, an image generation unit 10, a reception unit 11, an information storage unit 12, and a voice processing unit (not shown). It is composed of

検出部3は、カメラ4−1、カメラ4−2、および検出器5から構成されている。カメラ4−1とカメラ4−2は、表示部8の表示画面の前方の実空間41を撮像し、その撮像によって得られる実空間41の画像信号を検出器5に供給する。ここで、実空間41には、利用者1や光源13などが存在する。検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像信号に対して、例えば、ステレオ法(詳細は後述する)による所定の処理を施し、利用者1の輪郭および大きさなどの三次元形状や、位置を表す情報である三次元情報Caを検出することにより取得する。さらに、検出器5は、取得した三次元情報Caを送信部7および画像生成部10に供給する。なお、検出器5は、カメラ4−1を基準として定義されるXa軸、Ya軸、およびZa軸でなる座標系(以下、適宜、撮像座標系と称する)で表される三次元情報Caを検出する。 The detection unit 3 includes a camera 4-1, a camera 4-2, and a detector 5. The camera 4-1 and the camera 4-2 image the real space 41 in front of the display screen of the display unit 8 and supply an image signal of the real space 41 obtained by the imaging to the detector 5. Here, the user 1 and the light source 13 exist in the real space 41. The detector 5 performs predetermined processing by, for example, a stereo method (details will be described later) on the image signals supplied from the cameras 4-1 and 4-2, and the contour and size of the user 1. It is acquired by detecting the three-dimensional shape such as the three-dimensional information C a which is information representing the position. Further, the detector 5 supplies the acquired three-dimensional information C a to the transmission unit 7 and the image generation unit 10. Incidentally, the detector 5, X a axis defined camera 4-1 as a reference, Y a-axis, and the coordinate system formed by Z a-axis (hereinafter, appropriately referred to as an imaging coordinate system) three-dimensional represented by Information C a is detected.

撮像カメラ6には、カメラ4−1やカメラ4−2と同様に、実空間41を撮像することにより、利用者1や利用者1を取り巻く背景などを含む画像信号を取得する。さらに、撮像カメラ6は、実空間41の撮像により得られた画像信号を、画像情報Daとして送信部7に供給する。なお、撮像カメラ6は、表示部8の上端部に近接して取り付けられる。さらに、撮像カメラ6としては、例えば、テレビジョンカメラなどを採用することができる。 As with the camera 4-1 and the camera 4-2, the imaging camera 6 acquires an image signal including the user 1 and the background surrounding the user 1 by imaging the real space 41. Further, the imaging camera 6, an image signal obtained by imaging the real space 41, and supplies this to the transmission unit 7 as the image information D a. The imaging camera 6 is attached close to the upper end portion of the display unit 8. Furthermore, as the imaging camera 6, for example, a television camera can be employed.

送信部7は、図示せぬネットワークインタフェース回路、伝送符号器などから構成されている。送信部7は、検出部3を構成する検出器5から供給される利用者1の三次元情報Ca、撮像カメラ6から供給された画像情報Da、さらには図示せぬ音声処理部から供給された音声情報を、ネットワーク40を介して、情報処理装置22(を構成する受信部31)に送信する。なお、送信部7は、例えば、画像信号、音声信号、および、三次元情報の信号などをネットワーク40に対応する伝送形態に変換し、ネットワーク40上に送出する。 The transmission unit 7 includes a network interface circuit, a transmission encoder, etc. (not shown). The transmission unit 7 is supplied from the three-dimensional information C a of the user 1 supplied from the detector 5 constituting the detection unit 3, the image information D a supplied from the imaging camera 6, and further supplied from an audio processing unit (not shown). The audio information thus transmitted is transmitted to the information processing apparatus 22 (the receiving unit 31 constituting the information processing apparatus 22) via the network 40. Note that the transmission unit 7 converts, for example, an image signal, an audio signal, a three-dimensional information signal, and the like into a transmission form corresponding to the network 40 and sends the converted signal to the network 40.

表示部8は、表示制御部9から供給される画像を表示画面に表示する。なお、表示部8は、例えば、テレビジョン受像機を構成するテレビモニタ、即ち、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、またはホームシアタシステムのスクリーンなどで構成することができる。   The display unit 8 displays the image supplied from the display control unit 9 on the display screen. The display unit 8 can be constituted by, for example, a television monitor constituting a television receiver, that is, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a home theater system screen, or the like. .

表示制御部9は、画像生成部10から供給された画像信号に所定の処理を施して表示部8に供給して表示させる。   The display control unit 9 performs predetermined processing on the image signal supplied from the image generation unit 10 and supplies the image signal to the display unit 8 for display.

画像生成部10は、検出部3を構成する検出器5から供給される三次元情報Ca、受信部11から供給される利用者21が存在する実空間42の三次元情報Cb、および利用者21および利用者21を取り巻く背景などの画像情報Db、さらには必要に応じて情報記憶部12から供給される光源情報を用いて、表示部8の表示画面の後方に実空間42が位置していると仮定した場合(表示画面に表示される画像が得られた実空間42が、表示画面の後方に存在していると仮定した場合)に、実空間41が実空間42に及ぼす影響を反映した画像、即ち、例えば、画像情報Dbに利用者1の影が映しこまれた画像信号を生成し、表示制御部9に供給する。 The image generation unit 10 includes the three-dimensional information C a supplied from the detector 5 constituting the detection unit 3, the three-dimensional information C b of the real space 42 in which the user 21 exists supplied from the reception unit 11, and the usage. The real space 42 is positioned behind the display screen of the display unit 8 by using image information D b such as a background surrounding the user 21 and the user 21, and light source information supplied from the information storage unit 12 as necessary. The real space 41 has an influence on the real space 42 when it is assumed that the real space 42 in which the image displayed on the display screen is obtained exists behind the display screen. , That is, for example, an image signal in which the shadow of the user 1 is reflected in the image information D b is generated and supplied to the display control unit 9.

受信部11は、例えば、ネットワークインタフェース回路、復号器等から構成されている。受信部11は、ネットワーク40を介して、情報処理装置22(を構成する送信部27)から送信されてくる画像信号としての画像情報Db、音声信号、および位置信号としての三次元情報Cbなどを受信し、ネットワーク40に対応する伝送形態から元の形態(フォーマット)に復元して、画像生成部10や、さらには図示せぬ音声処理部に供給する。 The receiving unit 11 includes, for example, a network interface circuit and a decoder. The receiving unit 11 receives image information D b as an image signal, audio signal, and three-dimensional information C b as a position signal transmitted from the information processing apparatus 22 (the transmitting unit 27 constituting the information processing device 22) via the network 40. Are restored from the transmission form corresponding to the network 40 to the original form (format), and supplied to the image generation unit 10 and further to an audio processing unit (not shown).

情報記憶部12には、実空間41内に存在する光源13の位置を表す光源情報が記憶されており、情報記憶部12は、記憶している光源情報を、画像生成部10に供給する。なお、実空間41内に複数の光源が存在する場合には、情報記憶部12には、その複数の光源の一部または全部についての光源情報を記憶させておくことが可能である。また、実空間41に、仮想的な光源である仮想光源をあらかじめ設定し、情報記憶部12には、その仮想光源の光源情報を記憶させておくことも可能である。   The information storage unit 12 stores light source information indicating the position of the light source 13 existing in the real space 41, and the information storage unit 12 supplies the stored light source information to the image generation unit 10. When there are a plurality of light sources in the real space 41, the information storage unit 12 can store light source information for some or all of the plurality of light sources. In addition, a virtual light source that is a virtual light source may be set in advance in the real space 41, and light source information of the virtual light source may be stored in the information storage unit 12.

ここで、情報処理装置2において、図示せぬ音声処理部は、例えば、アンプ、スピーカおよびマイクロホン等から構成されている。音声処理部は、ユーザが発した音声に必要な処理を施し、送信部7からネットワーク40を介して情報処理装置22に送信させる。さらに、音声処理部は、受信部11がネットワーク40を介して情報処理装置22から受信した利用者21の音声などに必要な処理を施し、スピーカから出力させる。音声処理部には、必要に応じて、マイクがスピーカの音声を拾うことにより発生するエコーと呼ばれる現象をキャンセルする処理を行う処理部を設けることができる。   Here, in the information processing apparatus 2, a sound processing unit (not shown) includes, for example, an amplifier, a speaker, a microphone, and the like. The voice processing unit performs necessary processing on the voice uttered by the user, and causes the transmission unit 7 to transmit the information to the information processing apparatus 22 via the network 40. Further, the voice processing unit performs necessary processing on the voice of the user 21 received by the receiving unit 11 from the information processing apparatus 22 via the network 40, and outputs the processing from the speaker. If necessary, the sound processing unit can be provided with a processing unit that performs a process of canceling a phenomenon called echo that occurs when the microphone picks up the sound of the speaker.

なお、利用者1の視線と、表示部8に映し出される利用者21の視線とのずれをできる限り小さくするために、表示部8と撮像カメラ6は、なるべく近接して配置するのが望ましい。また、表示部8と撮像カメラ6については、ハーフミラーを用いて撮像カメラ6が有するレンズのレンズ面の向きと表示部8の表示画面の向きとを合わせることにより、利用者1の視線と、表示部8に映し出される利用者21の視線とのずれを小さくすることができる(特許文献2)。さらに、表示部8と撮像カメラ6としては、光透過状態と光錯乱状態を制御することができるスクリーンとプロジェクタを用い、時系列的に画像の表示と撮像とを行うことができる構成を採用することができる(特許文献3)。また、表示部8と撮像カメラ6としては、ホログラムスクリーンとプロジェクタを用いて、表示と撮像を同時に行うことができる構成を採用することができる(特許文献4)。   Note that the display unit 8 and the imaging camera 6 are preferably arranged as close to each other as possible in order to minimize the deviation between the user's line of sight and the user's line of sight projected on the display unit 8. Moreover, about the display part 8 and the imaging camera 6, by using the half mirror and matching the direction of the lens surface of the lens of the imaging camera 6 and the direction of the display screen of the display part 8, The deviation from the line of sight of the user 21 displayed on the display unit 8 can be reduced (Patent Document 2). Further, the display unit 8 and the imaging camera 6 employ a configuration in which a screen and a projector capable of controlling the light transmission state and the light confusion state are used, and an image can be displayed and imaged in time series. (Patent Document 3). Moreover, as the display part 8 and the imaging camera 6, the structure which can perform a display and an imaging simultaneously using a hologram screen and a projector is employable (patent document 4).

光源13は、実空間41に存在し、実空間41内を照明する光を発する。   The light source 13 exists in the real space 41 and emits light that illuminates the inside of the real space 41.

図1において、利用者1の通信相手側の利用者21、情報処理装置22、光源33、実空間42は、利用者1、情報処理装置2、光源13、実空間41にそれぞれ対応している。情報処理装置22は、情報処理装置2を構成する検出部3、カメラ4−1,カメラ4−2、検出部5、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12とそれぞれ同様の、検出部23、カメラ24−1,カメラ24−2、検出部25、撮像カメラ26、送信部27、表示部28、表示制御部29、画像生成部30、受信部31、情報記憶部32から構成されている。   In FIG. 1, the user 21, the information processing device 22, the light source 33, and the real space 42 on the communication partner side of the user 1 correspond to the user 1, the information processing device 2, the light source 13, and the real space 41, respectively. . The information processing device 22 includes a detection unit 3, a camera 4-1, a camera 4-2, a detection unit 5, an imaging camera 6, a transmission unit 7, a display unit 8, a display control unit 9, and an image generator that constitute the information processing device 2. Unit 10, receiver 11, and information storage unit 12, which are the same as detection unit 23, camera 24-1, camera 24-2, detection unit 25, imaging camera 26, transmission unit 27, display unit 28, and display control unit 29, respectively. , An image generation unit 30, a reception unit 31, and an information storage unit 32.

従って、検出部23は、検出部3と同様に、表示部28の表示画面の前方の実空間42の三次元情報を取得するが、この実空間42の三次元情報を、三次元情報Cbと記載する。また、撮像カメラ26は、撮像カメラ6と同様に、実空間42内を撮像し、画像情報を出力するが、この画像情報を、画像情報Dbと記載する。 Therefore, like the detection unit 3, the detection unit 23 acquires the three-dimensional information of the real space 42 in front of the display screen of the display unit 28. The three-dimensional information of the real space 42 is converted into the three-dimensional information C b. It describes. The imaging camera 26, like the imaging camera 6 images the real space 42, but outputs the image information, the image information, referred to as image information D b.

図2は、図1の情報処理装置2の動作を説明するフローチャートである。なお、情報処理装置22でも、情報処理装置2と同様の処理が行われる。   FIG. 2 is a flowchart for explaining the operation of the information processing apparatus 2 of FIG. Note that the information processing apparatus 22 performs the same processing as the information processing apparatus 2.

図2の処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。   The process of FIG. 2 is started when a communication link is established between the information processing apparatus 2 and the information processing apparatus 22.

撮像カメラ6、および検出部3を構成するカメラ4−1とカメラ4−2それぞれは、実空間41の撮像を開始し、その撮像により得られる利用者1および利用者1を取り巻く背景などの画像を出力する。カメラ4−1とカメラ4−2が出力する画像は、検出器5に供給される。撮像カメラ6が出力する画像は、画像情報Daとして送信部7に供給され、ネットワーク40を介して、情報処理装置22に送信される。 The imaging camera 6 and each of the camera 4-1 and the camera 4-2 constituting the detection unit 3 start imaging of the real space 41, and obtain images of the user 1 and the background surrounding the user 1 obtained by the imaging. Is output. Images output from the camera 4-1 and the camera 4-2 are supplied to the detector 5. Image capturing camera 6 outputs is supplied to the transmitter 7 as image information D a, via the network 40, is transmitted to the information processing apparatus 22.

そして、ステップS1において、検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを生成し、送信部7と画像生成部10に供給して、ステップS2に進む。なお、検出部5から送信部7に供給された三次元情報Caは、ネットワーク40を介して、情報処理装置22に送信される。 In step S < b > 1, the detector 5 generates the three-dimensional information Ca of the real space 41 from the images supplied from the camera 4-1 and the camera 4-2, and sends them to the transmission unit 7 and the image generation unit 10. Then, the process proceeds to step S2. Incidentally, the three-dimensional information C a, which is supplied to the transmitting section 7 from the detecting unit 5, via the network 40, is transmitted to the information processing apparatus 22.

ステップS2において、受信部11は、情報処理装置22を構成する送信部27からネットワーク40を介して送信されてくる三次元情報Cbおよび画像情報Dbを受信し、画像生成部10に供給して、ステップS3に進む。即ち、情報処理装置22でも、情報処理装置2と同様の処理が行われ、三次元情報Cbおよび画像情報Dbがネットワーク40を介して、情報処理装置22から情報処理装置2に送信されてくるので、受信部11は、ステップS2において、その三次元情報Cbおよび画像情報Dbを受信する。 In step S2, the reception unit 11 receives the three-dimensional information C b and the image information D b from the transmission unit 27 constituting the information processing apparatus 22 transmitted via the network 40, and supplies to the image generator 10 Then, the process proceeds to step S3. That is, the information processing apparatus 22 performs the same processing as the information processing apparatus 2, and the three-dimensional information C b and the image information D b are transmitted from the information processing apparatus 22 to the information processing apparatus 2 via the network 40. since coming, the receiving unit 11 in step S2, receives the three-dimensional information C b and the image information D b.

ステップS3において、情報記憶部12は、記憶している光源13の光源情報を画像生成部10に供給して、ステップS4に進む。   In step S3, the information storage unit 12 supplies the stored light source information of the light source 13 to the image generation unit 10, and proceeds to step S4.

ステップS4において、画像生成部10は、ステップS1で検出器5から供給された三次元情報Ca、ステップS2で受信部11から供給された三次元情報Cb、および画像情報Db、並びにステップS3で情報記憶部12から供給された光源情報に基づき、表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響を反映した画像、即ち、例えば、光源13により生じる利用者1の影などを反映させた画像信号を生成する影生成処理を行う。なお、ステップS4の影生成処理の詳細は後述する。 In step S4, the image generation unit 10 receives the three-dimensional information C a supplied from the detector 5 in step S1, the three-dimensional information C b supplied from the reception unit 11 in step S2, and the image information D b , and the step Based on the light source information supplied from the information storage unit 12 in S3, the effect of the real space 41 on the real space 42 is reflected when it is assumed that the real space 42 is located behind the display screen of the display unit 8. A shadow generation process for generating an image signal reflecting the shadow of the user 1 generated by the light source 13, for example, the shadow of the user 1 is performed. Details of the shadow generation process in step S4 will be described later.

ステップS5において、画像生成部10は、ステップS4で生成した画像信号を表示制御部9に供給して、ステップS6に進む。   In step S5, the image generation unit 10 supplies the image signal generated in step S4 to the display control unit 9, and the process proceeds to step S6.

ステップS6において、表示制御部9は、画像生成部10から供給された画像信号を表示部8に供給し、その表示画面に表示させ、ステップS7に進む。   In step S6, the display control unit 9 supplies the image signal supplied from the image generation unit 10 to the display unit 8, displays the image signal on the display screen, and proceeds to step S7.

ステップS7において、送信部7または受信部11が、情報処理装置22との間の通信リンクが切断されたかどうかを判定する。ステップS7において、通信リンクが切断されていないと判定された場合、ステップS1に戻り、以下、同様の処理が繰り返される。また、ステップS7において、通信リンクが切断されたと判定された場合、処理を終了する。   In step S <b> 7, the transmission unit 7 or the reception unit 11 determines whether the communication link with the information processing apparatus 22 has been disconnected. If it is determined in step S7 that the communication link is not disconnected, the process returns to step S1 and the same processing is repeated thereafter. If it is determined in step S7 that the communication link has been disconnected, the process ends.

なお、図2の処理において、ステップS1乃至S3それぞれの処理は時系列に処理されてもよいし、また、並列して処理されてもよい。   In the process of FIG. 2, the processes of steps S1 to S3 may be processed in time series or may be processed in parallel.

次に、図1の検出器5での三次元情報の検出に用いられるステレオ法について説明する。ステレオ法は、2つ以上の方向(異なる視線方向)からカメラで同一対象物を撮影して得られる複数の画像間の画素同士を対応付けることで、対応する画素間の視差情報や、カメラから対象物までの距離、対象物の形状を求めるものである。   Next, a stereo method used for detection of three-dimensional information by the detector 5 in FIG. 1 will be described. The stereo method associates pixels between a plurality of images obtained by photographing the same object with two or more directions (different line-of-sight directions), so that parallax information between corresponding pixels or a target from the camera The distance to the object and the shape of the object are obtained.

即ち、例えば、いま、図1におけるカメラ4−1とカメラ4−2をそれぞれ基準カメラ4−1と検出カメラ4−2というものとして、その基準カメラ4−1および検出カメラ4−2で対象物を撮影すると、基準カメラ4−1からは対象物の投影像を含む基準カメラ画像が得られ、検出カメラ4−2からも対象物の投影像を含む検出カメラ画像が得られる。いま、図3に示すように、対象物上のある点Pが基準カメラ画像および検出カメラ画像の両方に表示されているとすると、その点Pが表示されている基準カメラ画像上の位置と、検出カメラ画像上の位置、つまり対応点とから、基準カメラ4−1と検出カメラ4−2との間の視差を求めることができ、さらに、三角測量の原理を用いて、点Pの三次元空間における位置(三次元位置)を求めることができる。   That is, for example, the camera 4-1 and the camera 4-2 in FIG. 1 are referred to as a reference camera 4-1 and a detection camera 4-2, respectively, and the reference camera 4-1 and the detection camera 4-2 are used as objects. , A reference camera image including a projection image of the object is obtained from the reference camera 4-1, and a detection camera image including a projection image of the object is also obtained from the detection camera 4-2. Now, as shown in FIG. 3, if a certain point P on the object is displayed in both the reference camera image and the detected camera image, the position on the reference camera image where the point P is displayed, The parallax between the reference camera 4-1 and the detection camera 4-2 can be obtained from the position on the detection camera image, that is, the corresponding point, and the three-dimensional of the point P can be obtained using the principle of triangulation. A position in space (three-dimensional position) can be obtained.

従って、ステレオ法では、まず、対応点を検出することが必要となるが、その検出方法としては,例えば、エピポーラライン(Epipolar Line)を用いたエリアベースマッチング法などがある。   Therefore, in the stereo method, it is first necessary to detect corresponding points. As the detection method, for example, there is an area-based matching method using an epipolar line.

即ち、図3に示すように、基準カメラ4−1においては、対象物上の点Pは、その点Pと基準カメラ4−1の光学中心(レンズ中心)O1とを結ぶ直線L上の、基準カメラ4−1の撮像面S1との交点naに投影される。 That is, as shown in FIG. 3, in the reference camera 4-1, the point P on the object is on a straight line L connecting the point P and the optical center (lens center) O 1 of the reference camera 4-1. is projected intersection n a of the imaging surface S 1 of the base camera 4-1.

また、検出カメラ4−2においては、対象物の点Pは、その点Pと検出カメラ4−2の光学中心(レンズ中心)O2とを結ぶ直線上の、検出カメラ4−2の撮像面S2との交点nbに投影される。 Further, in the detection camera 4-2, the point P of the object is an imaging surface of the detection camera 4-2 on a straight line connecting the point P and the optical center (lens center) O 2 of the detection camera 4-2. It is projected to the intersection n b and S 2.

この場合、直線Lは、光学中心O1およびO2、並びにnb(または点P)の3点を通る平面と、検出カメラ画像が形成される撮像面S2との交線L2として、撮像面S2上に投影される。点Pは、直線L上の点であり、従って、撮像面S2において、点Pを投影した点nbは、直線Lを投影した直線L2上に存在し、この直線L2が、エピポーララインと呼ばれる。即ち、点naの対応点nbが存在する可能性のあるのは、エピポーララインL2上であり、従って、対応点nbの探索は、エピポーララインL2上を対象に行えば良い。 In this case, the straight line L is an intersection line L 2 between the plane passing through the three points of the optical centers O 1 and O 2 and n b (or point P) and the imaging surface S 2 on which the detection camera image is formed. projected onto the imaging surface S 2. Point P is a point on the straight line L, thus, the imaging surface S 2, the n b point obtained through projection of the point P, and lies on the straight line L 2 obtained by projecting the straight line L, this straight line L 2, epipolar Called the line. That is, there is a possibility that the corresponding point n b of the point n a exists on the epipolar line L 2. Therefore, the search for the corresponding point n b may be performed on the epipolar line L 2 .

ここで、エピポーララインは、例えば、撮像面S1に形成される基準カメラ画像を構成する画素毎に考えることができるが、基準カメラ4−1と検出カメラ4−2の位置関係が既知であれば、その画素ごとに存在するエピポーララインは求めることができる。 Here, when the epipolar line, for example, can be considered for each pixel constituting the reference camera image formed on the imaging surface S 1, a positional relationship between the reference camera 4-1 and the detection camera 4-2 Known For example, an epipolar line existing for each pixel can be obtained.

エピポーララインL2上の点からの対応点nbの検出は、例えば、次のようなエリアベースマッチングによって行うことができる。 Detection of corresponding points n b from a point on the epipolar line L 2 is, for example, can be carried out by the following area based matching.

即ち、エリアベースマッチングでは、図4左に示すように、基準カメラ画像上の点naを中心(例えば、対角線の交点)とする、例えば長方形状の小ブロックである基準ブロックが、基準カメラ画像から抜き出されるとともに、図4右に示すように、検出カメラ画像に投影されたエピポーララインL2上の、ある点を中心とする、基準ブロックと同一の大きさの小ブロックである検出ブロックが、検出カメラ画像から抜き出される。 That is, in area-based matching, as shown on the left of FIG. 4, a reference block that is a small rectangular block, for example, having a point n a on the reference camera image as a center (for example, an intersection of diagonal lines) As shown in the right side of FIG. 4, a detection block that is a small block having the same size as the reference block centered on a certain point on the epipolar line L 2 projected on the detection camera image is extracted. , Extracted from the detected camera image.

ここで、図4右においては、エピポーララインL2上に、検出ブロックの中心とする点として、点nb1乃至nb6の6点が設けらている。この6点nb1乃至nb6は、図3に示した三次元空間における直線Lを、例えば1mなどの所定の一定距離ごとに区分する点、即ち、基準カメラ4−1からの距離が1m,2m,3m,4m,5m,6mの点それぞれを、検出カメラ4−2の撮像面S2に投影した点で、従って、基準カメラ4−1からの距離が1m,2m,3m,4m,5m,6m(距離の推定値)の点にそれぞれ対応している(この場合、距離分解能が1mであるということができる)。 Here, on the right side of FIG. 4, six points n b1 to n b6 are provided on the epipolar line L 2 as points serving as the center of the detection block. The six points n b1 to n b6 are points that divide the straight line L in the three-dimensional space shown in FIG. 3 at predetermined constant distances such as 1 m, that is, the distance from the reference camera 4-1 is 1 m, 2m, 3m, 4m, 5 m, respectively point 6 m, a point obtained by projecting the imaging surface S 2 of the detection cameras 4-2, therefore, the distance from the base camera 4-1 1m, 2m, 3m, 4m, 5m , 6 m (estimated distance), respectively (in this case, it can be said that the distance resolution is 1 m).

エリアベースマッチングでは、検出カメラ画像から、エピポーララインL2上に設けられている点nb1乃至nb6それぞれを中心とする検出ブロックが抜き出され、各検出ブロックと、基準ブロックとの相関が、所定の評価関数を用いて演算される。そして、点naを中心とする基準ブロックとの相関が最も高い検出ブロックの中心の点naが、点naの対応点として求められる。 In area-based matching, detection blocks centered on the points n b1 to n b6 provided on the epipolar line L 2 are extracted from the detection camera image, and the correlation between each detection block and the reference block is Calculation is performed using a predetermined evaluation function. Then, the point n a center correlation highest detection block and the reference block centered on the point n a is obtained as the corresponding point of the point n a.

ここで、評価関数(評価値)f(x,y)としは、例えば、次式を採用することができる。   Here, as the evaluation function (evaluation value) f (x, y), for example, the following equation can be adopted.

Figure 2005078313
Figure 2005078313

但し、式(1)において、(x,y)は、基準ブロックの中心点naの座標を表し、(x´,y´)は、検出ブロックの中心点の座標を表す。さらに、YA(x+i,y+j)は、基準カメラ画像上の点(x+i,y+j)における画素の輝度を表し、YB(x´+i,y´+j)は、検出カメラ画像上の点(x´+i,y´+j)における画素の輝度を表す。また、Wは、基準ブロックおよび検出ブロックを表し、i,j∈Wは、点(x+i,y+j)または点(x´+i,y´+j)が、それぞれ、基準ブロックまたは検出ブロック内の点であることを表す。 However, in the formula (1), (x, y ) represents the coordinates of the center point n a reference block, (x', y ') represent the coordinates of the center point of the detection block. Further, Y A (x + i, y + j) represents the luminance of the pixel at the point (x + i, y + j) on the reference camera image, and Y B (x ′ + i, y ′ + j) represents the point (x on the detected camera image). '+ I, y' + j) represents the luminance of the pixel. W represents a reference block and a detection block, and i, jεW represents a point (x + i, y + j) or a point (x ′ + i, y ′ + j) at a point in the reference block or detection block, respectively. Represents something.

なお、式(1)で表される評価値f(x,y)は、基準カメラ画像上の所定の点(x,y)と、検出カメラ画像上の注目している点(x´,y´)との間の相関が大きいほど小さくなり、従って、評価値f(x,y)を最も小さくする検出カメラ画像上の点(x´,y´)が、基準カメラ画像上の点(x,y)の対応点として求められる。   Note that the evaluation value f (x, y) represented by the expression (1) is a predetermined point (x, y) on the reference camera image and a point of interest (x ′, y) on the detected camera image. The point (x ′, y ′) on the detected camera image that minimizes the evaluation value f (x, y) becomes smaller as the correlation with the '′) increases. , Y).

即ち、例えば、いま、評価関数として、例えば、式(1)に示したような、相関が高いほど小さな値をとる関数を用いた場合に、エピポーララインL2上に設けられている点nb1乃至nb6それぞれについて、例えば、図5に示すような評価値(評価関数の値)が得られたとする。ここで、図5においては、点nb1乃至nb6それぞれにあらかじめ付された、基準カメラ4−1からの距離に対応する距離番号を横軸として、各距離番号(に対応するエピポーララインL2上の点nb1乃至nb6)に対する評価値を、図示してある。 That is, for example, the point n b1 provided on the epipolar line L 2 when a function having a smaller value as the correlation is higher is used as the evaluation function, for example, as shown in Expression (1). Assume that an evaluation value (value of an evaluation function) as shown in FIG. 5 is obtained for each of nb6 to nb6 . Here, in FIG. 5, the epipolar line L 2 corresponding to each distance number (with the abscissa indicating the distance number corresponding to the distance from the reference camera 4-1 previously assigned to each of the points n b1 to n b6. The evaluation values for the upper points n b1 to n b6 ) are shown.

図5に示したような評価値でなる評価曲線が得られた場合には、評価値が最も小さい(相関が高い)距離番号3に対応するエピポーララインL2上の点が、点naの対応点として検出される。なお、図5において、距離番号1乃至6に対応する点それぞれについて求められた評価値(図5において●印で示す)のうちの最小値付近のものを用いて補間を行い、評価値がより小さくなる点(図5において×印で示す3.3mに対応する点)を求めて、その点を、最終的な対応点として検出することも可能である。 If the evaluation curve made by the evaluation value as shown in FIG. 5 is obtained, a point on the epipolar line L 2 the evaluation value corresponding to the smallest (high correlation) distance number 3, at point n a It is detected as a corresponding point. In FIG. 5, interpolation is performed using a value near the minimum value among the evaluation values (indicated by ● in FIG. 5) obtained for each of the points corresponding to the distance numbers 1 to 6, and the evaluation value is more It is also possible to obtain a point that becomes smaller (a point corresponding to 3.3 m indicated by x in FIG. 5) and detect that point as a final corresponding point.

図4では、上述したように、三次元空間における対象物上の点と、基準カメラ4−1の光学中心O1を結ぶ直線Lを所定の等距離ごとに区分する点を、検出カメラ4−2の撮像面S2に投影した点が設定されているが、この設定は、例えば、基準カメラ4−1および検出カメラ4−2のキャリブレーション時に行うことができる(キャリブレーションの方法は、特に限定されるものではない)。そして、このような設定を、基準カメラ4−1の撮像面S1を構成する画素ごとに存在するエピポーララインごとに行い、エピポーラライン上に設定された点(以下、適宜、設定点という)までの距離(基準カメラ4−1からの距離)に対応する距離番号と、基準カメラ4−1からの距離とを対応付ける距離番号/距離テーブルをあらかじめ作成しておけば、対応点となる設定点を検出し、その設定点に対応する距離番号を、距離番号/距離テーブルを参照して変換することで、即座に、基準カメラ4−1からの距離(対象物上の点までの距離の推定値)を求めることができる。即ち、いわば、対応点から、直接、距離を求めることができる。 In FIG. 4, as described above, the points that divide the straight line L connecting the point on the object in the three-dimensional space and the optical center O 1 of the reference camera 4-1 at predetermined equal distances are detected by the detection camera 4-4. Although point obtained through projection 2 of the imaging surface S 2 is set, this setting can be carried out, for example, during calibration of the reference camera 4-1 and the detection camera 4-2 (calibration method is particularly Not limited). Then, such setting is performed for each epipolar line existing for each pixel constituting the imaging surface S 1 of the reference camera 4-1, up to a point set on the epipolar line (hereinafter referred to as a set point as appropriate). If a distance number / distance table that associates the distance number corresponding to the distance (distance from the reference camera 4-1) and the distance from the reference camera 4-1 is created in advance, the set point that becomes the corresponding point is determined. By detecting and converting the distance number corresponding to the set point with reference to the distance number / distance table, the distance from the reference camera 4-1 (the estimated value of the distance to the point on the object) is immediately ). In other words, the distance can be obtained directly from the corresponding points.

一方、基準カメラ画像上の点naについて、検出カメラ画像上の対応点nbを検出すれば、その2点naおよびnbの間の視差(視差情報)を求めることができる。さらに、基準カメラ4−1と検出カメラ4−2の位置関係が既知であれば、2点naおよびnbの間の視差から、三角測量の原理によって、対象物までの距離を求めることができる。視差から距離の算出は、所定の演算を行うことによって行うことができるが、あらかじめその演算を行っておき、視差ζと距離とを付ける視差/距離テーブルを、基準カメラ画像上のすべての画素について、あらかじめ作成しておけば、対応点を検出し、視差を求め、視差/距離テーブルを参照することで、やはり、即座に、基準カメラ4−1からの距離を求めることができる。なお、カメラの設置条件(位置関係)によっては、すべての画素に対して、同じ視差/距離テーブルが利用されるようにすることも可能である。さらに、すべての画素に対して、同じ視差/距離テーブルが利用されることができるように、画像が変換されるようにすることも可能である。 On the other hand, for the points n a on the reference camera image, by detecting the corresponding points n b on the detection camera image can be obtained parallax (disparity information) between the two points n a and n b. Further, if the positional relationship between the reference camera 4-1 and the detection camera 4-2 is known, the parallax between the two points n a and n b, the principle of triangulation, can determine the distance to the object it can. The distance can be calculated from the parallax by performing a predetermined calculation, but the parallax / distance table for adding the parallax ζ and the distance is calculated for all the pixels on the reference camera image. If prepared in advance, the distance from the reference camera 4-1 can be immediately obtained by detecting the corresponding point, obtaining the parallax, and referring to the parallax / distance table. Note that the same parallax / distance table may be used for all pixels depending on the camera installation conditions (positional relationship). Furthermore, the image can be transformed so that the same parallax / distance table can be used for all pixels.

ここで、視差と、対象物までの距離とは一対一に対応するものであり、従って、視差を求めることと、対象物までの距離を求めることとは、いわば等価である。   Here, the parallax and the distance to the object have a one-to-one correspondence. Therefore, obtaining the parallax and obtaining the distance to the object are equivalent to each other.

なお、対応点から直接、距離を求める場合には、三次元空間における遠方の点に対応するエピポーラライン上の設定点ほど、隣接する設定点との間隔が狭くなる。従って、隣接する設定点との間隔が、検出カメラ画像の画素間の距離より小さい設定点では、求める距離の精度は劣化する。また、視差から距離を求める場合には、三次元空間における近い位置(基準カメラ4−1から近い位置)では、視差はあまり変化しない。そして、視差の最高精度は、基本的に画素単位であるから、視差から距離を求める場合には、三次元空間における近い位置までの距離を求めるにあたって、その距離の精度は劣化する。しかしながら、いずれの場合においても、画素より細かいサブピクセル単位で、設定点の設定や、対応点の検出を行うことで、精度の問題は解決することができる。   When the distance is directly obtained from the corresponding point, the set point on the epipolar line corresponding to the far point in the three-dimensional space has a smaller interval between the adjacent set points. Therefore, the accuracy of the obtained distance deteriorates at the set point where the interval between the adjacent set points is smaller than the distance between the pixels of the detected camera image. Further, when obtaining the distance from the parallax, the parallax does not change much at a close position in the three-dimensional space (a position close to the reference camera 4-1). Since the highest accuracy of parallax is basically in units of pixels, when obtaining a distance from parallax, the accuracy of the distance deteriorates when obtaining a distance to a close position in the three-dimensional space. However, in any case, the accuracy problem can be solved by setting the set point and detecting the corresponding point in sub-pixel units smaller than the pixel.

また、対応点の検出に、基準ブロックおよび検出ブロックといった複数画素でなるブロックを用いるのは、ノイズの影響を軽減し、基準カメラ画像上の画素(点)naの周囲の画素のパターンの特徴と、検出カメラ画像上の対応点(画素)nbの周囲の画素のパターンの特徴との間の相関性を利用することにより、対応点の検出の確実を期すためであり、特に、変化の少ない基準カメラ画像および検出カメラ画像に対しては、画像の相関性により、ブロックの大きさを大きくすれば、対応点の検出の確実性を向上させることができる。 Further, the detection of the corresponding point, to use a reference block and a detection block comprised of a plurality of pixels such blocks is to reduce the effects of noise, the characteristics of the pattern of pixels around the pixel (point) n a of the reference camera image When, by utilizing the correlation between the characteristic of the pattern of pixels around the detected corresponding points on the camera image (pixels) n b, it is for the sake of certainty of detection of the corresponding point, in particular, the change For a small number of reference camera images and detection camera images, the certainty of detection of corresponding points can be improved by increasing the block size due to the correlation of the images.

さらに、上述の場合には、基準ブロックと検出ブロックとの相関性を評価する評価関数として、式(1)で表される、基準ブロックを構成する画素と、それぞれの画素に対応する、検出ブロックを構成する画素の画素値の差分の絶対値の総和を用いるようにしたが、評価関数としては、その他、画素値の差分の自乗和や、正規化された相互相関(normalized cross correlation)などを用いることができる。   Further, in the above-described case, as an evaluation function for evaluating the correlation between the reference block and the detection block, the pixels constituting the reference block and the detection blocks corresponding to the respective pixels represented by Expression (1) The sum of the absolute values of the pixel value differences of the pixels constituting the pixel is used, but other evaluation functions include the sum of squares of the pixel value differences, normalized cross correlation, etc. Can be used.

図6は、図1の画像生成部10の構成例を示すブロック図である。なお、図1の画像生成部30も、画像生成部10と同様に構成される。   FIG. 6 is a block diagram illustrating a configuration example of the image generation unit 10 of FIG. The image generation unit 30 in FIG. 1 is configured in the same manner as the image generation unit 10.

画像生成部10は、三次元情報展開部61、画素選択部62、画素位置決定部63、影情報生成部64、および画素値設定部65から構成されている。   The image generation unit 10 includes a three-dimensional information expansion unit 61, a pixel selection unit 62, a pixel position determination unit 63, a shadow information generation unit 64, and a pixel value setting unit 65.

三次元情報展開部61には、検出部3を構成する検出器5から供給される三次元情報Caおよび受信部11から供給される利用者21の三次元情報Cbが入力される。三次元情報展開部61は、検出部3を構成する検出器5から供給される三次元情報Caおよび受信部11から供給される利用者21の三次元情報Cbを、例えば、図1の表示部8の表示画面をXY平面とするとともに、その表示画面に垂直な方向をZ軸とする座標系(以下、適宜、表示座標系と称する)に展開し、その表示座標系に展開された三次元情報Caおよび三次元情報Cbを、画素位置決定部63と影情報生成部64にそれぞれ供給する。即ち、画像生成部10に供給される三次元情報Caは、カメラ4−1を基準とする撮像座標系の座標で表されるものであり、画像生成部10に供給される三次元情報Cbは、カメラ24−1を基準とする撮像座標系の座標で表されるものであるため、三次元情報展開部61は、三次元情報Caと三次元情報Cbを、いずれも表示座標系の座標で表されるものに変換する。 The three-dimensional information expansion unit 61 receives the three-dimensional information C a supplied from the detector 5 constituting the detection unit 3 and the three-dimensional information C b of the user 21 supplied from the receiving unit 11. The three-dimensional information development unit 61 uses the three-dimensional information C a supplied from the detector 5 constituting the detection unit 3 and the three-dimensional information C b of the user 21 supplied from the receiving unit 11, for example, as shown in FIG. The display screen of the display unit 8 is an XY plane, and is expanded into a coordinate system (hereinafter referred to as a display coordinate system as appropriate) having a direction perpendicular to the display screen as the Z axis, and expanded into the display coordinate system. The three-dimensional information C a and the three-dimensional information C b are supplied to the pixel position determination unit 63 and the shadow information generation unit 64, respectively. In other words, the three-dimensional information C a supplied to the image generation unit 10 is represented by coordinates of an imaging coordinate system with the camera 4-1 as a reference, and the three-dimensional information C supplied to the image generation unit 10. Since b is expressed in the coordinates of the imaging coordinate system with the camera 24-1 as a reference, the three-dimensional information expansion unit 61 displays the three-dimensional information C a and the three-dimensional information C b both as display coordinates. Convert to the system coordinates.

画素選択部62には、受信部11からの利用者21の画像情報Dbが供給される。画素選択部62は、受信部11から供給された利用者21の画像情報Dbの各フレーム毎に注目画素を選択し、その注目画素を表す情報を画素位置決定部63に供給する。 The pixel selection unit 62, the image information D b of the user 21 from the receiving unit 11 is supplied. Pixel selection unit 62 selects a pixel of interest in each frame of the image information D b of the supplied user 21 from the receiving unit 11 supplies information representing the target pixel to the pixel position determination unit 63.

画素位置決定部63は、三次元情報展開部61から供給された表示座標系に展開された三次元情報Cbと、画素選択部62から供給された注目画素とに基づき、注目画素に対応する表示座標系上の所定の位置(以下、適宜、対応位置という)を求め、影情報生成部64に供給する。 The pixel position determination unit 63 corresponds to the target pixel based on the three-dimensional information C b expanded in the display coordinate system supplied from the three-dimensional information expansion unit 61 and the target pixel supplied from the pixel selection unit 62. A predetermined position on the display coordinate system (hereinafter referred to as a corresponding position as appropriate) is obtained and supplied to the shadow information generation unit 64.

影情報生成部64は、三次元情報展開部61から供給された三次元情報Ca、画素位置決定部63から供給された対応位置、情報記憶部12から供給された光源情報に基づき、表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響、即ち、光源13が照射する光によって表示部8の表示画面の後方に位置していると仮定した実空間42内に生じる利用者1の影を推定し、その影の情報である影情報を画素値設定部65に供給する。 The shadow information generation unit 64 is based on the three-dimensional information C a supplied from the three-dimensional information development unit 61, the corresponding position supplied from the pixel position determination unit 63, and the light source information supplied from the information storage unit 12. Assuming that the real space 42 is located behind the display screen 8, the influence of the real space 41 on the real space 42, that is, the light emitted from the light source 13 is behind the display screen of the display unit 8. The shadow of the user 1 that occurs in the real space 42 assumed to be located is estimated, and the shadow information that is the shadow information is supplied to the pixel value setting unit 65.

画素値設定部65には、受信部11からの利用者21の画像情報Dbと、影情報生成部64からの影情報とが供給される。画素値設定部65は、受信部11から供給される利用者21の画像情報Dbと、影情報生成部64から供給された影情報とに基づき、画像情報Dbに影情報を反映した画像を生成し、表示制御部9に供給する。 The pixel value setting unit 65, the image information D b of the user 21 from the receiving unit 11, and shadow information from the shadow information generation unit 64 is supplied. Pixel value setting unit 65, the image information D b of the user 21 supplied from the receiving unit 11, based on the shadow data supplied from the shadow information generation unit 64, an image that reflects the shadow information into image information D b Is supplied to the display control unit 9.

ここで、実空間42が、表示部8の表示画面の後方に位置していると仮定した場合に、実空間41と、表示画面の後方に位置していると仮定した実空間42とで構成される空間を、以下、適宜、実/仮想空間という。   Here, when it is assumed that the real space 42 is located behind the display screen of the display unit 8, the real space 41 and the real space 42 assumed to be located behind the display screen are configured. The space to be used is hereinafter referred to as real / virtual space as appropriate.

図7は、実/仮想空間を示す模式図である。   FIG. 7 is a schematic diagram showing a real / virtual space.

図7の左上の図は、カメラ4−1を基準として定義される、Xa軸、Ya軸、およびZa軸でなる撮像座標系Aと実空間41とを示している。同様に、図7の左下の図は、カメラ24−1を基準として定義されるXb軸、Yb軸、およびZb軸でなる撮像座標系Bと実空間42とを示している。検出部3で得られる実空間41の三次元情報Caは、例えば、実空間41に存在する利用者1上の各点の撮像座標系Aにおける座標等である。また、検出部23で得られる実空間42の三次元情報Cbは、例えば、実空間42に存在する利用者21上の各点の撮像座標系Bにおける座標等である。 The upper left part of FIG. 7 is defined camera 4-1 as a reference, shows a X a axis, Y a-axis, and Z a imaging coordinate system comprising at axis A and the real space 41. Similarly, the lower left part of FIG. 7 shows X b axis defined camera 24-1 as a reference, Y b axis, and the and the real space 42 Z b imaging coordinate system comprising at axis B. Three-dimensional information C a real space 41 obtained by the detector 3, for example, the coordinates or the like in the imaging coordinate system A of each point on the user 1 existing in the real space 41. Further, the three-dimensional information C b of the real space 42 obtained by the detection unit 23 is, for example, coordinates in the imaging coordinate system B of each point on the user 21 existing in the real space 42.

図7の右の図は、図7の左上に示した実空間41における表示部8の表示画面に表示された画像に射影された図7の右上に示した実空間42が、その画像に映し出された状態で、表示部8の表示画面を境界として、その後方に位置していると仮定した場合に、その実空間42と実空間41で構成される実/仮想空間を示している。   7 shows the real space 42 shown in the upper right of FIG. 7 projected on the image displayed on the display screen of the display unit 8 in the real space 41 shown in the upper left of FIG. In this state, the real / virtual space composed of the real space 42 and the real space 41 is shown assuming that the display screen of the display unit 8 is located behind the display screen.

実/仮想空間は、表示部8の表示画面を境界面として実空間41と実空間42とが仮想的に接続した空間である。従って、実/仮想空間が現実の空間であるとすれば、例えば、実空間41に存在する光源13により生じる利用者1の影が、表示部8の表示画面に対して実空間41と対向する位置にある実空間42に投影されることがありうる。   The real / virtual space is a space in which the real space 41 and the real space 42 are virtually connected with the display screen of the display unit 8 as a boundary surface. Therefore, if the real / virtual space is a real space, for example, the shadow of the user 1 generated by the light source 13 existing in the real space 41 faces the real space 41 with respect to the display screen of the display unit 8. It can be projected onto the real space 42 at the position.

そこで、画像生成部10は、三次元情報Caと三次元情報Cb、および光源13の光源情報に基づき、利用者21の画像情報Dbに利用者1の影が投影された画像を生成する。これにより、表示部8には、利用者1の影が投影された利用者21の画像が映し出される。同様にして、情報処理部22を構成する画像生成部30は、三次元情報Caと三次元情報Cb、および光源33の光源情報に基づき、利用者1の画像情報Daに利用者21の影が投影された画像を生成する。これにより、表示部28には、利用者21の影が投影された利用者1の画像が映し出される。 Therefore, the image generation unit 10 generates an image in which the shadow of the user 1 is projected on the image information D b of the user 21 based on the three-dimensional information C a , the three-dimensional information C b , and the light source information of the light source 13. To do. Thereby, the image of the user 21 onto which the shadow of the user 1 is projected is displayed on the display unit 8. Similarly, the image generation unit 30 constituting the information processing unit 22 uses the three-dimensional information C a , the three-dimensional information C b , and the light source information of the light source 33 as the user 21 to the image information D a of the user 1. An image in which the shadow of is projected is generated. Thereby, the image of the user 1 onto which the shadow of the user 21 is projected is displayed on the display unit 28.

したがって、利用者1は、通信相手である利用者21が、実際に、表示部8の表示画面の後方にいたならば視覚に映るであろう画像と同様の画像を、表示部8の表示画面上に観察することができ、利用者21も、同様の画像を、表示部28の表示画面上に観察することができる。その結果、利用者1と利用者21は、お互いに、表示部8と表示部28の表示画面を窓として、あたかも窓を介して会話しているような臨場感を感じながらコミュニケーションを図ることができる。   Therefore, the user 1 displays an image similar to an image that would appear visually if the user 21 who is the communication partner is actually behind the display screen of the display unit 8. The user 21 can also observe a similar image on the display screen of the display unit 28. As a result, the user 1 and the user 21 can communicate with each other while using the display screens of the display unit 8 and the display unit 28 as windows and feeling as if they are talking through the windows. it can.

次に、図8を参照して、画像生成部10による画像の生成の方法を説明する。なお、画像生成部30でも、画像生成部10における場合と同様にして、画像が生成される。   Next, a method of generating an image by the image generation unit 10 will be described with reference to FIG. Note that the image generation unit 30 also generates an image in the same manner as in the image generation unit 10.

図8は、図7の右の図と同様に、実空間41と、表示部8の表示画面の後方に実空間42が位置していると仮定した場合の、その実空間42とで構成される実/仮想空間を模式的に示している。即ち、図8は、表示部8と表示部28の表示画面どうしを仮想的に背中合わせに配置して構成される実/仮想空間を示している。   8 includes a real space 41 and the real space 42 when it is assumed that the real space 42 is located behind the display screen of the display unit 8 as in the right diagram of FIG. A real / virtual space is schematically shown. That is, FIG. 8 shows a real / virtual space configured by virtually arranging the display screens of the display unit 8 and the display unit 28 back to back.

図8の実/仮想空間上の点は、表示部8(または表示部28)の表示画面を基準とする、X軸、Y軸、Z軸でなる表示座標系で表すことができる。そこで、画像生成部10は、カメラ4−1を基準として定義される撮像座標系Aで表される実空間41の三次元情報Caを、表示座標系で表される三次元情報Caに座標変換(展開)する。同様に、画像生成部10は、カメラ24−1を基準として定義される撮像座標系Bで表される実空間42の三次元情報Cbも、表示座標系で表される三次元情報Cbに座標変換する。 The points on the real / virtual space in FIG. 8 can be represented by a display coordinate system including the X axis, the Y axis, and the Z axis with reference to the display screen of the display unit 8 (or the display unit 28). Therefore, the image generating unit 10, the three-dimensional information C a real space 41 represented by the image acquisition coordinate system A defined camera 4-1 as reference, the three-dimensional information C a represented by the display coordinate system Perform coordinate transformation (development). Likewise, the image generating unit 10, the three-dimensional information C b of the real space 42 represented by the image acquisition coordinate system B as defined camera 24-1 as a reference is also three-dimensional information C b represented in the display coordinate system Convert coordinates to.

なお、カメラ4−1と表示部8との位置関係(カメラ24−1と表示部28との位置関係)は、あらかじめ求めておくことができ、この位置関係に基づいて、上述の座標変換を行うことができる。また、表示部8と表示部28の表示画面の大きさが異なる場合には、あらかじめ正規化を行っておく。   Note that the positional relationship between the camera 4-1 and the display unit 8 (the positional relationship between the camera 24-1 and the display unit 28) can be obtained in advance, and the coordinate conversion described above is performed based on this positional relationship. It can be carried out. If the display screens of the display unit 8 and the display unit 28 are different in size, normalization is performed in advance.

画像生成部10は、さらに、情報記憶部12に記憶された光源情報から光源13の表示座標系上の位置を求める。   The image generation unit 10 further obtains the position of the light source 13 on the display coordinate system from the light source information stored in the information storage unit 12.

そして、画像生成部10は、受信部11から供給された利用者21の画像情報Dbを構成するフレームを順次、注目フレームとし、さらに、注目フレームを構成する画素を、順次、注目画素として選択する。 The selection, the image generation unit 10 sequentially the frames constituting the image information D b of the supplied user 21 from the receiving unit 11, a frame of interest, further the pixels constituting the frame of interest, successively, as the pixel of interest To do.

ここで、注目フレームの、例えば、ラスタスキャン順で、i番目の画素をIBiと表すこととする。 Here, the i-th pixel in the frame of interest, for example, in raster scan order is represented as IB i .

いま、画素IBiが注目画素として選択されたものとすると、画素生成部10は、三次元情報Cbに基づき、注目画素IBiに射影された実空間42内の位置(点)PBiの表示座標系の座標を求める。 Now, assuming that the pixel IB i is selected as the target pixel, the pixel generation unit 10 determines the position (point) PB i in the real space 42 projected onto the target pixel IB i based on the three-dimensional information C b . Find the coordinates of the display coordinate system.

ここで、位置(点)PBiが、上述した、注目画素IBiに対応する対応位置である。 Here, the position (point) PB i is the corresponding position corresponding to the target pixel IB i described above.

その後、画像生成部10は、対応位置PBiと、光源情報から求められた光源13の位置とを結ぶ直線Liを求める。さらに、画像生成部10は、三次元情報Caに基づき、直線Liが実空間41内の利用者1と交差するかどうかを判定する。画像生成部10は、直線Liが実空間41内の利用者1と交差する場合、注目画素IBiは、利用者1の影の影響が生じる画素であるとして、注目画素IBiの画素値を、影の影響を与えた値に変更する。一方、画像生成部10は、直線Liが実空間41内の利用者1と交差しない場合、注目画素IBiは、利用者1の影の影響が生じない画素であるとして、その画素値をそのままとする。 Thereafter, the image generation unit 10 obtains a straight line L i that connects the corresponding position PB i and the position of the light source 13 obtained from the light source information. Further, the image generation unit 10 determines whether or not the straight line L i intersects the user 1 in the real space 41 based on the three-dimensional information C a . When the straight line L i intersects the user 1 in the real space 41, the image generation unit 10 assumes that the pixel of interest IB i is a pixel that is affected by the shadow of the user 1, and the pixel value of the pixel of interest IB i To a value that has a shadow effect. On the other hand, when the straight line L i does not intersect with the user 1 in the real space 41, the image generation unit 10 assumes that the pixel of interest IB i is a pixel that is not affected by the shadow of the user 1 and sets the pixel value thereof. Leave as it is.

図9は、図2のステップS4の処理、即ち、図6の画像生成部10(または画像生成部30)が行う影生成処理を説明するフローチャートである。   FIG. 9 is a flowchart illustrating the process of step S4 in FIG. 2, that is, the shadow generation process performed by the image generation unit 10 (or the image generation unit 30) in FIG.

ステップS11において、三次元情報展開部61は、検出器5から供給される実空間41の三次元情報Caを撮像座標系Aから表示座標系のものに展開するとともに、受信部11から供給される実空間42の三次元情報Cbを、撮像座標系Bから表示座標系のものに展開する。さらに、三次元情報展開部61は、表示座標系で表された三次元情報Caを影情報生成部64に供給するとともに、表示座標系で表された三次元情報Cbを画素位置決定部63に供給して、ステップS11からステップS12に進む。 In step S < b > 11, the three-dimensional information expansion unit 61 expands the three-dimensional information Ca of the real space 41 supplied from the detector 5 from the imaging coordinate system A to the display coordinate system and is supplied from the reception unit 11. that the three-dimensional information C b of the real space 42, to expand to that of the display coordinate system from the image coordinate system B. Further, the three-dimensional information expansion unit 61 supplies the three-dimensional information C a represented in the display coordinate system to the shadow information generation unit 64 and also the three-dimensional information C b represented in the display coordinate system. The process proceeds to step S12 from step S11.

ステップS12において、画素選択部62は、受信部11から供給された利用者21の画像情報Dbのフレームを注目フレームとして、その注目フレームを構成する画素をカウントする変数iを1に初期化して、ステップS13に進む。 In step S < b > 12, the pixel selection unit 62 initializes a variable i for counting the pixels constituting the frame of interest to 1 with the frame of the image information Db of the user 21 supplied from the reception unit 11 as the frame of interest. The process proceeds to step S13.

ステップS13において、画素選択部62は、注目フレームを構成する画素のうちの、ラスタスキャン順でi番目の画素を、注目画素IBiとして選択し、画素位置決定部63に供給して、ステップS14に進む。 In step S13, the pixel selection unit 62 selects the i-th pixel in the raster scan order among the pixels constituting the target frame as the target pixel IB i , and supplies the selected pixel to the pixel position determination unit 63. Proceed to

ステップS14において、画素位置決定部63は、三次元情報展開部61からの三次元情報Cbに基づき、画素選択部62により選択され供給された注目画素IBiに対応する、実/仮想空間内の表示座標系上の対応位置PBi(図8)を求め、影情報生成部64に供給して、ステップS15に進む。 In step S14, the pixel position determination unit 63, based on the three-dimensional information C b from the three-dimensional information expanding section 61, corresponding to the pixel of interest IB i were chosen supplied by the pixel selection unit 62, the real / virtual space The corresponding position PB i (FIG. 8) on the display coordinate system is obtained and supplied to the shadow information generation unit 64, and the process proceeds to step S15.

ステップS15において、影情報生成部64は、情報記憶部12から供給された光源情報に基づき、実空間41に存在する光源13の表示座標系上の光源位置を求める。さらに、影情報生成部64は、光源位置と画素位置決定部63からの対応位置PBiとを結ぶ直線Li(図8)を求め、ステップS15からステップS16に進む。ステップS16において、影情報生成部64は、三次元情報展開部61からの三次元情報Caに基づき、直線Liが、利用者1、さらには、実空間41に存在するその他の実物体と交差するかどうかを判定する。 In step S <b> 15, the shadow information generation unit 64 obtains the light source position on the display coordinate system of the light source 13 existing in the real space 41 based on the light source information supplied from the information storage unit 12. Further, the shadow information generation unit 64 obtains a straight line L i (FIG. 8) connecting the light source position and the corresponding position PB i from the pixel position determination unit 63, and proceeds from step S15 to step S16. In step S < b > 16, the shadow information generation unit 64 determines that the line L i is based on the three-dimensional information C a from the three-dimensional information development unit 61 and the user 1 and other real objects existing in the real space 41. Determine if they intersect.

ステップS16において、影情報生成部64は、直線Liが利用者1その他の実物体と交差すると判定した場合、注目画素IBiが影の影響を受ける旨の影情報を、画素値設定部65に供給して、ステップS17に進む。 In step S <b> 16, when the shadow information generation unit 64 determines that the straight line L i intersects the user 1 or other real object, the shadow information generation unit 64 displays the shadow information indicating that the target pixel IB i is affected by the shadow, as the pixel value setting unit 65. To proceed to step S17.

ここで、直線Liが利用者1その他の実空間41に存在する実物体と交差する場合、光源13からの光が利用者1その他の実空間41に存在する実物体に遮られ、利用者1その他の実空間41に存在する実物体の影ができるということである。 Here, when the straight line L i intersects with a real object existing in the user 1 or other real space 41, the light from the light source 13 is blocked by the real object existing in the user 1 or other real space 41. 1 This means that a shadow of a real object existing in the other real space 41 can be created.

そこで、ステップS17において、画素値設定部65は、影情報生成部64から影の影響を受ける旨の影情報が供給されると、受信部11から供給される注目フレームの画像情報Dbを構成する注目画素IBiの画素値を変更する。即ち、画素値設定部65は、例えば、RGB(Red Green Blue)値で、注目画素IBiの画素値が表される場合、そのRGB値を減らし、減らされた注目画素IBiの画素値を、注目画素IBiの新しい画素値としてステップS17からステップS19に進む。このように、注目画素IBiの画素値を減らすことにより、影の影響の分だけ暗くなった画像が表現される。なお、直線Liが利用者1その他の実物体と交差する場合、その交差する位置が利用者1その他の実物体の周辺部であるとき、画素値を減らす量を少なくして、影の周辺部をぼかすような処理を採用することができる。 In step S17, when the shadow information indicating that the pixel value setting unit 65 is affected by the shadow is supplied from the shadow information generation unit 64, the pixel value setting unit 65 configures the image information Db of the target frame supplied from the reception unit 11. The pixel value of the target pixel IB i to be changed is changed. That is, for example, when the pixel value of the target pixel IB i is represented by an RGB (Red Green Blue) value, the pixel value setting unit 65 reduces the RGB value and decreases the pixel value of the target pixel IB i. Then, the process proceeds from step S17 to step S19 as a new pixel value of the target pixel IB i . Thus, by reducing the pixel value of the target pixel IB i , an image darkened by the influence of the shadow is expressed. When the line L i intersects with the user 1 and other real objects, when the intersecting position is the periphery of the user 1 and other real objects, the amount of reduction in the pixel value is reduced and the area around the shadow Processing that blurs the part can be employed.

一方、ステップS16において、影情報生成部64は、直線Liが利用者1その他の実空間41に存在する実物体と交差しないと判定した場合、注目画素IBiが影の影響を受けない旨の影情報を、画素値設定部65に供給して、ステップS18に進む。ステップS18において、画素値設定部65は、影情報生成部64から影の影響を受けない旨の影情報が供給されると、注目画素IBiの画素値を、そのまま新しい画素値として、ステップS19に進む。なお、注目画素IBiの画素値がそのままとされることにより、影の影響を受けてない画像が表現される。 On the other hand, if the shadow information generation unit 64 determines in step S16 that the straight line L i does not intersect with the real object existing in the user 1 or other real space 41, the target pixel IB i is not affected by the shadow. Is supplied to the pixel value setting unit 65, and the process proceeds to step S18. In step S18, when the shadow information indicating that it is not affected by the shadow is supplied from the shadow information generation unit 64, the pixel value setting unit 65 sets the pixel value of the pixel of interest IB i as a new pixel value as it is, step S19. Proceed to Note that an image that is not affected by the shadow is expressed by leaving the pixel value of the target pixel IB i as it is.

ステップS19において、画素選択部62は、変数iが注目フレームの最終の画素を表しているかどうか、即ち、変数iが注目フレームを構成する画素数に等しいかどうかを判定する。ステップS19において、変数iが注目フレームを構成する画素数に等しくないと判定された場合、ステップS20に進み、画素選択部62は、変数iを1だけインクリメントし、ステップS13に戻り、以下同様の処理が繰り返される。一方、ステップS19において、変数iが注目フレームを構成する画素数に等しいと判定された場合、新しい画素値で構成される注目フレームの画像が得られた場合、リターンして、図2のステップS5に進む。   In step S19, the pixel selection unit 62 determines whether or not the variable i represents the final pixel of the frame of interest, that is, whether or not the variable i is equal to the number of pixels constituting the frame of interest. If it is determined in step S19 that the variable i is not equal to the number of pixels constituting the target frame, the process proceeds to step S20, and the pixel selection unit 62 increments the variable i by 1, returns to step S13, and so on. The process is repeated. On the other hand, if it is determined in step S19 that the variable i is equal to the number of pixels constituting the target frame, and if an image of the target frame composed of new pixel values is obtained, the process returns to step S5 in FIG. Proceed to

なお、上述したステップS13乃至ステップS18の処理は、各画素について独立に行われ、変数iを順次インクリメントして処理を行うのではなく、全画素(または、一部の画素)に対して、並列的に処理を行うようにすることも可能である。   Note that the processes in steps S13 to S18 described above are performed independently for each pixel, and are not performed by sequentially incrementing the variable i, but are performed in parallel for all pixels (or some pixels). It is also possible to perform processing automatically.

図2のステップS5では、以上のようにして得られた新しい画素値で構成される注目フレームの画素が、画像生成部10から表示制御部9に供給される。   In step S5 in FIG. 2, the pixel of the target frame configured with the new pixel value obtained as described above is supplied from the image generation unit 10 to the display control unit 9.

以上から、利用者1(利用者21)は、表示部8(表示部28)の表示画面において、通信相手である利用者(利用者1)の環境に自分自身の影が映りこんだ画像を観察することができる。これにより、利用者1(利用者21)は、表示部8(表示部28)の表示画面があたかも通信相手である利用者21(利用者1)との間にある「窓」であるように感じられ、通信相手が実際に目の前にいるような臨場感を感じながらコミュニケーションを図ることができる。   From the above, the user 1 (user 21) displays an image in which his / her own shadow is reflected in the environment of the user (user 1) as the communication partner on the display screen of the display unit 8 (display unit 28). Can be observed. As a result, the user 1 (user 21) is as if the display screen of the display unit 8 (display unit 28) is a “window” between the user 21 (user 1) who is the communication partner. It is possible to communicate while feeling a sense of reality as if the communication partner is actually in front of you.

図10は、本発明を適用した通信システムの第2実施の形態の構成例を示すブロック図である。なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   FIG. 10 is a block diagram showing a configuration example of a second embodiment of a communication system to which the present invention is applied. In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

図10の通信システムは、基本的には、図1の通信システムと同様に構成されている。   The communication system of FIG. 10 is basically configured similarly to the communication system of FIG.

但し、図1の実施の形態では、情報処理装置2の表示部8に表示する画像を、情報処理装置2の画像生成部10で生成するとともに、情報処理装置22の表示部28で表示する画像を、情報処理装置22の画像生成部30で生成するようになっていたが、図10の実施の形態では、情報処理装置2の表示部8に表示する画像を、情報処理装置22の画像処理装置30で生成し、情報処理装置22から情報処理装置2に送信するとともに、情報処理装置22の表示部28で表示する画像を、情報処理装置2の画像生成部10で生成し、情報処理装置2から情報処理装置22に送信するようになっている。   However, in the embodiment of FIG. 1, an image to be displayed on the display unit 8 of the information processing device 2 is generated by the image generation unit 10 of the information processing device 2 and is displayed on the display unit 28 of the information processing device 22. 10 is generated by the image generation unit 30 of the information processing device 22, but in the embodiment of FIG. 10, the image displayed on the display unit 8 of the information processing device 2 is processed by the image processing of the information processing device 22. An image generated by the apparatus 30 and transmitted from the information processing apparatus 22 to the information processing apparatus 2, and an image to be displayed on the display unit 28 of the information processing apparatus 22 is generated by the image generation unit 10 of the information processing apparatus 2. 2 to the information processing device 22.

即ち、図10では、利用者21の画像に利用者1の影を反映した画像(以下、適宜、影画像E1という)が、画像生成部10ではなく、画像生成部30で生成される。また、利用者1の画像に利用者21の影を反映した画像(以下、適宜、影画像E21という)が、画像生成部30ではなく、画像生成部10で生成される。 In other words, in FIG. 10, an image in which the shadow of the user 1 is reflected on the image of the user 21 (hereinafter referred to as a shadow image E 1 as appropriate) is generated by the image generation unit 30 instead of the image generation unit 10. Further, an image in which the shadow of the user 21 is reflected on the image of the user 1 (hereinafter referred to as a shadow image E 21 as appropriate) is generated not by the image generation unit 30 but by the image generation unit 10.

そして、図10の実施の形態では、情報処理装置2は、情報処理装置22から送信されてくる画像を、そのまま表示部8で表示し、情報処理装置22は、情報処理装置2から送信されてくる画像を、そのまま表示部28で表示するようになっている。   In the embodiment of FIG. 10, the information processing apparatus 2 displays the image transmitted from the information processing apparatus 22 as it is on the display unit 8, and the information processing apparatus 22 is transmitted from the information processing apparatus 2. The coming image is displayed on the display unit 28 as it is.

このため、図10においては、情報処理装置2を構成する撮像カメラ6は、実空間41の撮像により得られた画像信号を、画像情報Daとして画像生成部10に供給する。 Therefore, in FIG. 10, an imaging camera 6 constituting the information processing apparatus 2 supplies the image signal obtained by imaging the real space 41, the image generation unit 10 as the image information D a.

送信部7は、検出部3を構成する検出器5から供給される利用者1の三次元情報Ca、情報記憶部12に記憶された光源情報、画像生成部10から供給される影画像E21を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信する。 The transmission unit 7 includes the three-dimensional information C a of the user 1 supplied from the detector 5 constituting the detection unit 3, the light source information stored in the information storage unit 12, and the shadow image E supplied from the image generation unit 10. 21 is transmitted to the receiving unit 31 constituting the information processing apparatus 22 via the network 40.

表示制御部9は、受信部11から供給される、情報処理装置22から送信されてくる影画像E1に所定の処理を施して表示部8に供給して表示させる。 The display control unit 9 performs predetermined processing on the shadow image E 1 supplied from the reception unit 11 and transmitted from the information processing device 22 and supplies the shadow image E 1 to the display unit 8 for display.

画像生成部10には、検出部3を構成する検出器5から利用者1の三次元情報Caが、撮像カメラ6から画像情報Daが、受信部11から、情報処理装置22から送信されてきた三次元情報Cbおよび光源33の光源情報が、それぞれ供給される。画像生成部10は、検出器5から供給される利用者1の三次元情報Ca、撮像カメラ6から供給される画像情報Da、受信部11から供給される三次元情報Cbおよび光源33の光源情報を用いて、利用者1が表示された画像情報Daに利用者21の影が映しこまれた影画像E21を生成し、送信部7に供給する。 The image generating unit 10, the three-dimensional information C a user 1 from the detector 5 constituting the detecting unit 3, the image information D a from the imaging camera 6, the receiving unit 11, is transmitted from the information processing apparatus 22 The three-dimensional information Cb and the light source information of the light source 33 are supplied. The image generating unit 10 includes the three-dimensional information C a of the user 1 supplied from the detector 5, the image information D a supplied from the imaging camera 6, the three-dimensional information C b supplied from the receiving unit 11, and the light source 33. the light source information was used to generate the shadow image E 21 the user 1 is crowded reflects the shadow of the user 21 to the image information D a displayed, and supplies this to the transmission unit 7.

受信部11は、ネットワーク40を介して、情報処理装置22を構成する送信部27から送信されてくる実空間42の三次元情報Cb、光源33の光源情報、利用者21が表示された画像情報Daに利用者1の影が映しこまれた影画像E1などを受信する。さらに、受信部11は、三次元情報Cb、および光源33の光源情報を、画像生成部10に、影画像E1を表示制御部9に、それぞれ供給する。 The reception unit 11 displays the three-dimensional information C b of the real space 42, the light source information of the light source 33, and the user 21 transmitted from the transmission unit 27 constituting the information processing apparatus 22 via the network 40. information D a shadow of the user 1 receives such shadow image E 1 to crowded were transferred to. Further, the reception unit 11 supplies the three-dimensional information C b and the light source information of the light source 33 to the image generation unit 10 and the shadow image E 1 to the display control unit 9, respectively.

図10において、図1の場合と同様に、利用者21、情報処理装置22、光源33、実空間42は、利用者1、情報処理装置2、光源13、実空間41にそれぞれ対応している。情報処理装置22は、情報処理装置2を構成する検出部3、カメラ4−1,カメラ4−2、検出部5、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12とそれぞれ同様の、検出部23、カメラ24−1,カメラ24−2、検出部25、撮像カメラ26、送信部27、表示部28、表示制御部29、画像生成部30、受信部31、情報記憶部32から構成されている。   10, the user 21, the information processing device 22, the light source 33, and the real space 42 correspond to the user 1, the information processing device 2, the light source 13, and the real space 41, respectively, as in the case of FIG. . The information processing device 22 includes a detection unit 3, a camera 4-1, a camera 4-2, a detection unit 5, an imaging camera 6, a transmission unit 7, a display unit 8, a display control unit 9, and an image generator that constitute the information processing device 2. Unit 10, receiver 11, and information storage unit 12, which are the same as detection unit 23, camera 24-1, camera 24-2, detection unit 25, imaging camera 26, transmission unit 27, display unit 28, and display control unit 29, respectively. , An image generation unit 30, a reception unit 31, and an information storage unit 32.

上述したように、図10では、影画像E1が画像生成部10ではなく、画像生成部30で生成され、情報処理装置22から情報処理装置2に送信されて、情報処理装置2で表示される。同様に、影画像E21が画像生成部30ではなく、画像生成部10で生成され、情報処理装置2から情報処理装置22に送信されて、情報処理装置22で表示される。 As described above, in FIG. 10, the shadow image E 1 is generated not by the image generation unit 10 but by the image generation unit 30, transmitted from the information processing device 22 to the information processing device 2, and displayed on the information processing device 2. The Similarly, the shadow image E 21 is generated not by the image generation unit 30 but by the image generation unit 10, transmitted from the information processing apparatus 2 to the information processing apparatus 22, and displayed on the information processing apparatus 22.

いま、画像生成部10と画像生成部30のうちの、例えば、影画像E1を生成する画像生成部30に注目すると、画像生成部30において、影画像E1を生成するためには、情報処理装置22で得られる三次元情報Cbおよび画像情報Db他に、情報処理装置2で得られる(得られている)三次元情報Caと光源13の光源情報が必要である。また、情報処理装置22の画像生成部30で生成された影画像E1を、情報処理装置2の表示部8で表示するには、影画像E1を、情報処理装置22から情報処理装置2に送信することが必要である。 Now, when attention is paid to, for example, the image generation unit 30 that generates the shadow image E 1 of the image generation unit 10 and the image generation unit 30, the image generation unit 30 uses the information to generate the shadow image E 1. the three-dimensional information C b and the image information D b other obtained by the processing apparatus 22, (as obtained) obtained in the information processing apparatus 2 is required source information of the three-dimensional information C a and the light source 13. In order to display the shadow image E 1 generated by the image generation unit 30 of the information processing device 22 on the display unit 8 of the information processing device 2, the shadow image E 1 is transferred from the information processing device 22 to the information processing device 2. It is necessary to send to.

このため、情報処理装置22では、情報処理装置2から三次元情報Caと光源13の光源情報を受信して、影画像E1を生成し、情報処理装置2に送信する画像送信処理が行われる。 For this reason, the information processing device 22 receives the three-dimensional information C a and the light source information of the light source 13 from the information processing device 2, generates a shadow image E 1, and performs image transmission processing to transmit to the information processing device 2. Is called.

一方、情報処理装置2では、情報処理装置22に、三次元情報Caと光源13の光源情報を送信し、情報処理装置22から送信されてくる影画像E1を受信して表示部8に表示する画像受信処理が行われる。 On the other hand, the information processing apparatus 2 transmits the three-dimensional information Ca and the light source information of the light source 13 to the information processing apparatus 22, receives the shadow image E 1 transmitted from the information processing apparatus 22, and displays it on the display unit 8. An image receiving process to be displayed is performed.

なお、情報処理装置22による画像送信処理と、情報処理装置2による画像受信処理は、情報処理装置2において、影画像E1を表示するために行われる。従って、情報処理装置22において、影画像E21を表示するためには、情報処理装置2において画像送信処理を行うとともに、情報処理装置22において、画像受信処理を行う必要がある。即ち、情報処理装置2において、影画像E1を表示するとともに、情報処理装置22において影画像E21を表示するために、情報処理装置2と情報処理装置22のいずれにおいても、画像受信処理と画像送信処理が行われる。 Note that the image transmission processing by the information processing device 22 and the image reception processing by the information processing device 2 are performed in the information processing device 2 in order to display the shadow image E 1 . Therefore, in order to display the shadow image E 21 in the information processing apparatus 22, it is necessary to perform image transmission processing in the information processing apparatus 2 and perform image reception processing in the information processing apparatus 22. That is, in order to display the shadow image E 1 in the information processing apparatus 2 and to display the shadow image E 21 in the information processing apparatus 22, both the information processing apparatus 2 and the information processing apparatus 22 perform image reception processing. Image transmission processing is performed.

図11は、図10の情報処理装置2と情報処理装置22が行う画像送信処理を説明するフローチャートである。なお、ここでは、情報処理装置22で行われる画像送信処理として説明する。   FIG. 11 is a flowchart illustrating an image transmission process performed by the information processing apparatus 2 and the information processing apparatus 22 in FIG. Here, the image transmission process performed by the information processing apparatus 22 will be described.

図11の画像送信処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。   The image transmission process in FIG. 11 is started when a communication link is established between the information processing apparatus 2 and the information processing apparatus 22.

ステップS31において、受信部31は、ネットワーク40を介して、他の装置、即ち、情報処理装置2を構成する送信部7から送信されてくる実空間41の三次元情報Ca、および光源13の光源情報を受信することにより取得し、画像生成部30に供給して、ステップS32に進む。 In step S <b> 31, the reception unit 31 receives the three-dimensional information C a of the real space 41 transmitted from another device, that is, the transmission unit 7 constituting the information processing device 2, and the light source 13 via the network 40. Obtained by receiving the light source information, supplied to the image generation unit 30, and proceeds to step S32.

ステップS32において、カメラ24−1とカメラ24−2は、実空間42を撮像し、その結果得られる画像を、検出器25に供給する。さらに、ステップS32では、検出器25は、カメラ24−1とカメラ24−2それぞれから供給された画像から、実空間42の三次元情報Cbを検出することにより取得し、送信部27と画像生成部30に供給して、ステップS33に進む。なお、検出部25から送信部27に供給された三次元情報Cbは、ネットワーク40を介して、情報処理装置2に送信される。 In step S <b> 32, the camera 24-1 and the camera 24-2 image the real space 42 and supply an image obtained as a result to the detector 25. Further, in step S32, the detector 25, a camera 24-1 and from the image supplied from the camera 24-2 each obtained by detecting the three-dimensional information C b of the real space 42, the transmission unit 27 and the image The data is supplied to the generation unit 30, and the process proceeds to step S33. The three-dimensional information C b supplied from the detection unit 25 to the transmission unit 27 is transmitted to the information processing apparatus 2 via the network 40.

ステップS33において、撮像カメラ26は、実空間42を撮像し、これにより、利用者21および利用者21を取り巻く背景などの画像を取得し、画像情報Dbとして画像生成部30に供給して、ステップS34に進む。 In step S33, the imaging camera 26 images the real space 42, thereby acquiring an image such as a background surrounding the user 21 and the user 21, and supplies the image 21 as image information Db to the image generation unit 30. Proceed to step S34.

ステップS34において、画像生成部30は、ステップS31で受信部31から供給された三次元情報Caおよび光源13の光源情報、ステップS32で検出器25から供給された三次元情報Cb、並びにステップS33で撮像カメラ26から供給された画像情報Dbに基づき、情報処理装置2を構成する表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響を反映した画像を生成する処理、即ち、例えば、光源13により生じる利用者1の影を反映させた画像信号を生成する影生成処理を、図6乃至図9で説明したようにして行う。さらに、画像生成部30は、生成した画像信号である影画像E1を、送信部27に供給して、ステップS35に進む。なお、ステップS34の影生成処理の詳細は、図9で説明したものと同様であるので、その説明は省略する。 In step S34, the image generation unit 30 includes the three-dimensional information C a and the light source information of the light source 13 supplied from the reception unit 31 in step S31, the three-dimensional information C b supplied from the detector 25 in step S32, and the step S33 on the basis of the image information D b supplied from the imaging camera 26, when the real space 42 behind the display screen of the display unit 8 constituting the information processing apparatus 2 is assumed to be located, the real space 41 The process for generating an image reflecting the influence on the real space 42, that is, the shadow generation process for generating an image signal reflecting the shadow of the user 1 generated by the light source 13, for example, has been described with reference to FIGS. To do so. Furthermore, the image generation unit 30 supplies the shadow image E 1 that is the generated image signal to the transmission unit 27, and the process proceeds to step S35. The details of the shadow generation process in step S34 are the same as those described in FIG.

ステップS35において、送信部27は、画像生成部30から供給された利用者1の影などを反映させた画像信号である影画像E1を、ネットワーク40を介して、情報処理装置2を構成する受信部11に送信して、ステップS36に進む。 In step S <b> 35, the transmission unit 27 configures the information processing apparatus 2 via the network 40 with the shadow image E 1 that is an image signal reflecting the shadow of the user 1 supplied from the image generation unit 30. The data is transmitted to the receiving unit 11, and the process proceeds to step S36.

ステップS36において、送信部27または受信部31が、情報処理装置2との間の通信リンクが切断されたかどうかを判定する。ステップS36において、通信リンクが切断されていないと判定された場合、ステップS31に戻り、以下、同様の処理が繰り返される。また、ステップS36において、通信リンクが切断されたと判定された場合、処理を終了する。   In step S <b> 36, the transmission unit 27 or the reception unit 31 determines whether the communication link with the information processing apparatus 2 has been disconnected. If it is determined in step S36 that the communication link is not disconnected, the process returns to step S31, and the same processing is repeated thereafter. If it is determined in step S36 that the communication link has been disconnected, the process ends.

なお、図11の画像送信処理において、ステップS31乃至S33それぞれの処理は時系列に処理されてもよいし、また、並列して処理されてもよい。   In the image transmission process of FIG. 11, the processes of steps S31 to S33 may be processed in time series or may be processed in parallel.

図12は、図10の情報処理装置2と情報処理装置22が行う画像受信処理を説明するフローチャートである。なお、ここでは、情報処理装置2で行われる画像受信処理として説明する。   FIG. 12 is a flowchart illustrating image reception processing performed by the information processing apparatus 2 and the information processing apparatus 22 in FIG. Here, the image receiving process performed by the information processing apparatus 2 will be described.

図12の画像受信処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。   The image reception process in FIG. 12 is started when a communication link is established between the information processing apparatus 2 and the information processing apparatus 22.

撮像カメラ6、および検出部3を構成するカメラ4−1とカメラ4−2それぞれは、実空間41の撮像を開始し、その撮像により得られる実空間41内の利用者1および利用者1を取り巻く背景などの画像を出力する。カメラ4−1とカメラ4−2が出力する画像は、検出器5に供給される。撮像カメラ6が出力する画像は、画像情報Daとして画像生成部10に供給される。 The imaging camera 6 and each of the camera 4-1 and the camera 4-2 constituting the detection unit 3 start imaging of the real space 41, and identify the user 1 and the user 1 in the real space 41 obtained by the imaging. Output the surrounding background image. Images output from the camera 4-1 and the camera 4-2 are supplied to the detector 5. Image capturing camera 6 outputs is supplied to the image generating unit 10 as the image information D a.

ステップS41において、検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを検出し、送信部7に供給して、ステップS42に進む。 In step S41, the detector 5 from the camera 4-1 and the camera 4-2 image supplied from each detect three-dimensional information C a in the real space 41, and supplies to the transmission unit 7, the step S42 move on.

ステップS42において、情報記憶部12は、光源13の光源情報を送信部7に供給する。   In step S <b> 42, the information storage unit 12 supplies the light source information of the light source 13 to the transmission unit 7.

ステップS43において、送信部7は、検出器5から供給された三次元情報Caと、情報記憶部12から供給された光源13の光源情報を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信して、ステップS44に進み、受信部11は、情報処理装置22から影画像E1が送信されてきたかどうかを判定する。 In step S < b > 43, the transmission unit 7 configures the information processing device 22 via the network 40 using the three-dimensional information Ca supplied from the detector 5 and the light source information of the light source 13 supplied from the information storage unit 12. and transmitted to the receiving unit 31, the process proceeds to step S44, the receiving unit 11 determines whether a shadow image E 1 has been transmitted from the information processing apparatus 22.

ステップS44において、情報処理装置22から影画像E1が送信されてきていないと判定された場合、ステップS44に戻り、以下、同様の処理を繰り返す。一方、ステップS44において、情報処理装置22から影画像E1が送信されてきたと判定された場合、即ち、図11のステップS35で、情報処理装置22の送信部27が影画像E1を送信した場合、ステップS45に進み、受信部11が、情報処理装置22の送信部27から送信されてきた影画像E1を受信し、表示制御部9に供給して、ステップS46に進む。 In step S44, if the shadow image E 1 is determined not to have been transmitted from the information processing apparatus 22 returns to step S44, and repeats similar processing. On the other hand, when it is determined in step S44 that the shadow image E 1 has been transmitted from the information processing apparatus 22, that is, in step S35 of FIG. 11, the transmission unit 27 of the information processing apparatus 22 transmits the shadow image E 1 . If, the process proceeds to step S45, the receiving unit 11 receives a shadow image E 1 transmitted from the transmitter 27 of information processing device 22, and supplies the display control unit 9, the process proceeds to step S46.

ステップS46において、表示制御部9は、受信部11から供給された影画像E1に所定の処理を施して表示部8に供給して表示させ、ステップS47に進む。 In step S46, the display control unit 9, the receiving unit 11 is displayed is supplied to the display unit 8 performs a predetermined process on the shadow image E 1 supplied from, the process proceeds to step S47.

ステップS47において、送信部7または受信部11が、情報処理装置22との間の通信リンクが切断されたかどうかを判定する。ステップS47において、通信リンクが切断されていないと判定された場合、ステップS41に戻り、以下、同様の処理が繰り返される。また、ステップS41において、通信リンクが切断されたと判定された場合、処理を終了する。   In step S <b> 47, the transmission unit 7 or the reception unit 11 determines whether the communication link with the information processing device 22 has been disconnected. If it is determined in step S47 that the communication link is not disconnected, the process returns to step S41, and the same processing is repeated thereafter. If it is determined in step S41 that the communication link has been disconnected, the process ends.

図13を参照して、情報処理装置22による図11の画像送信処理と、情報処理装置2による図12の画像受信処理について、さらに説明する。   With reference to FIG. 13, the image transmission process of FIG. 11 by the information processing apparatus 22 and the image reception process of FIG. 12 by the information processing apparatus 2 will be further described.

ステップS41において、情報処理装置2の検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを検出し、送信部7に供給して、ステップS42に進む。 In step S41, the detector 5 of the information processing apparatus 2 from the camera 4-1 and the camera 4-2 image supplied from each detect three-dimensional information C a real space 41, and supplied to the transmission section 7 Then, the process proceeds to step S42.

ステップS42において、情報記憶部12は、光源13の光源情報を送信部7に供給する。   In step S <b> 42, the information storage unit 12 supplies the light source information of the light source 13 to the transmission unit 7.

ステップS43において、送信部7は、検出器5から供給された三次元情報Ca、情報記憶部12から供給された光源13の光源情報を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信する。そして、ステップS44に進み、受信部11は、情報処理装置22から影画像E1が送信されてきたかどうかを判定する。 In step S < b > 43, the transmission unit 7 configures the information processing apparatus 22 via the network 40 using the three-dimensional information C a supplied from the detector 5 and the light source information of the light source 13 supplied from the information storage unit 12. Transmit to the receiver 31. Then, the process proceeds to step S44, the receiving unit 11 determines whether a shadow image E 1 has been transmitted from the information processing apparatus 22.

一方、情報処理装置22の受信部31は、ステップS31において、情報処理装置2の送信部7がステップS43で送信してくる三次元情報Caおよび光源13の光源情報を受信し、画像生成部30に供給する。 On the other hand, in step S31, the reception unit 31 of the information processing device 22 receives the three-dimensional information Ca and the light source information of the light source 13 that the transmission unit 7 of the information processing device 2 transmits in step S43, and the image generation unit. 30.

また、情報処理装置22の検出部23は、ステップS32において、カメラ24−1とカメラ24−2から供給される画像から、実空間42の三次元情報Cbを検出し、画像生成部30に供給する。 The detection unit 23 of the information processing apparatus 22, in step S32, the image supplied from the camera 24-1 and the camera 24-2, detects three-dimensional information C b of the real space 42, the image generator 30 Supply.

さらに、情報処理装置22の撮像カメラ26は、ステップS33において、実空間42を撮像して得られる画像情報Dbを画像生成部30に供給する。 Further, the imaging camera 26 of the information processing apparatus 22 supplies in step S33, the image information D b obtained real space 42 by capturing the image generation unit 30.

そして、ステップS34において、情報処理装置22の画像生成部30は、受信部31から供給された三次元情報Caおよび光源13の光源情報、検出器25から供給された三次元情報Cb、並びに撮像カメラ26から供給された画像情報Dbに基づき、影画像E1を生成し、送信部27に供給して、ステップS35に進む。 In step S34, the image generation unit 30 of the information processing device 22 receives the three-dimensional information C a supplied from the reception unit 31, the light source information of the light source 13, the three-dimensional information C b supplied from the detector 25, and based on the image information D b supplied from the imaging camera 26, it generates the shadow image E 1, and supplies to the transmission unit 27, the process proceeds to step S35.

そして、送信部27は、ステップS35において、画像生成部30から供給された影画像E1を情報処理装置2を構成する受信部11に送信し、ステップS36に進む。 Then, the transmission unit 27, in step S35, sends a shadow image E 1 supplied from the image generating unit 30 to the receiving unit 11 constituting the information processing apparatus 2, the process proceeds to step S36.

これを受けて、情報処理装置2の受信部11では、ステップS44において、情報処理装置22から影画像E1が送信されてきたと判定され、ステップS45に進み、その影画像E1が受信され、表示制御部9に供給される。 In response to this, the reception unit 11 of the information processing device 2 determines in step S44 that the shadow image E 1 has been transmitted from the information processing device 22, proceeds to step S45, and receives the shadow image E 1 . It is supplied to the display control unit 9.

そして、ステップS46において、情報処理装置2の表示制御部9は、受信部11から供給された影画像E1に所定の処理を施して表示部8に供給して表示させ、ステップS47に進む。 Then, in step S46, the display control unit 9 of the information processing apparatus 2 is supplied to a display unit 8 performs a predetermined process on the shadow image E 1 supplied to the display from the receiving unit 11, the process proceeds to step S47.

ステップS36とステップS47において、情報処理装置2と情報処理装置22との間の通信リンクが切断されたかどうかが判定され、通信リンクが切断されていないと判定された場合、ステップS31とステップS41に戻り、情報処理装置2と情報処理装置22は、それぞれ同様の処理を繰り返す。また、ステップS36とステップS47において、通信リンクが切断されたと判定された場合、情報処理装置2と情報処理装置22は、処理を終了する。   In step S36 and step S47, it is determined whether or not the communication link between the information processing device 2 and the information processing device 22 has been disconnected. If it is determined that the communication link has not been disconnected, the process proceeds to step S31 and step S41. Returning, the information processing apparatus 2 and the information processing apparatus 22 repeat the same processing. If it is determined in step S36 and step S47 that the communication link is disconnected, the information processing device 2 and the information processing device 22 end the processing.

図10の実施の形態においても、表示部8には影画像E1が表示され、表示部28には影画像E21が表示されるので、通信相手が実際に目の前にいるような臨場感を感じながら相互にコミュニケーションを図ることができる。 Also in the embodiment of FIG. 10, the shadow image E 1 is displayed on the display unit 8 and the shadow image E 21 is displayed on the display unit 28, so that the communication partner is actually in front of you. You can communicate with each other while feeling a feeling.

また、画像生成部10や画像生成部30では、特殊なセンサ等の機器を必要とせず、単に画像処理を行うだけで、即ち、安価かつ簡単な構成で臨場感あふれる画像を生成することができる。   In addition, the image generation unit 10 and the image generation unit 30 do not require a special sensor or the like, and can generate an image full of realism by simply performing image processing, that is, with an inexpensive and simple configuration. .

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware, but can also be executed by software.

上述した一連の処理をソフトウェアで実行させる場合、画像生成部10や画像生成部30は、例えば、図14に示されるようなコンピュータなどとして構成することが可能である。   When the above-described series of processing is executed by software, the image generation unit 10 and the image generation unit 30 can be configured as, for example, a computer as illustrated in FIG.

即ち、図14は、コンピュータのベースとして構成した情報処理装置2(または情報処理装置22)の構成例を示している。   That is, FIG. 14 shows a configuration example of the information processing apparatus 2 (or information processing apparatus 22) configured as a computer base.

図14において、CPU(Central Processing Unit)71は、ROM(Read Only Memory)72に記憶されているプログラム、または記憶部78からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。   In FIG. 14, a CPU (Central Processing Unit) 71 executes various processes according to a program stored in a ROM (Read Only Memory) 72 or a program loaded from a storage unit 78 to a RAM (Random Access Memory) 73. To do.

RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。   The RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.

CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。   The CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74. An input / output interface 75 is also connected to the bus 74.

入出力インタフェース75には、キーボード、マウスなどよりなる入力部76、ディスプレイなどよりなる出力部77、ハードディスクなどより構成される記憶部78、および通信部79が接続されている。   The input / output interface 75 is connected to an input unit 76 such as a keyboard and a mouse, an output unit 77 composed of a display, a storage unit 78 composed of a hard disk, and a communication unit 79.

入出力インタフェース75にはまた、必要に応じてドライブ82が接続され、磁気ディスク83、光ディスク84、光磁気ディスク85、或いは半導体メモリ86が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部78にインストールされる。   A drive 82 is connected to the input / output interface 75 as necessary, and a magnetic disk 83, an optical disk 84, a magneto-optical disk 85, or a semiconductor memory 86 is appropriately mounted, and a computer program read from them is required. Is installed in the storage unit 78 according to the above.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、図14のコンピュータに、プログラム格納媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from the program storage medium in the computer of FIG.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図14に示すように、磁気ディスク83(フロッピディスクを含む)、光ディスク84(CD-ROM(Compact Disk-Read Only Memory)、DVD(Digital Versatile Disk)を含む)、光磁気ディスク85(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリ86などよりなるパッケージメディア、または、プログラムが一時的もしくは永続的に格納されるROM72や、記憶部78を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 14, a program storage medium for storing a program installed in a computer and ready to be executed by the computer includes a magnetic disk 83 (including a floppy disk), an optical disk 84 (CD-ROM (Compact Disk- Package media, such as Read Only Memory (DVD) (including Digital Versatile Disk), magneto-optical disk 85 (including MD (Mini-Disk) (registered trademark)), or semiconductor memory 86, or programs are temporarily stored Alternatively, it is configured by a ROM 72 that is permanently stored, a hard disk that constitutes the storage unit 78, or the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary.

さらに、入出力インタフェース75には、カメラ80と検出部81が接続されている。   Further, a camera 80 and a detection unit 81 are connected to the input / output interface 75.

図14において、出力部77、記憶部78、通信部79、カメラ80、検出部81は、図1の表示部8、情報記憶部12、送信部7および受信部11、撮像カメラ6、検出部3にそれぞれ対応する。   14, the output unit 77, the storage unit 78, the communication unit 79, the camera 80, and the detection unit 81 are the display unit 8, the information storage unit 12, the transmission unit 7 and the reception unit 11, the imaging camera 6, and the detection unit of FIG. 3 respectively.

検出部81は、検出部3を構成するカメラ4−1,カメラ4−2、検出器5とそれぞれ同様のカメラ81−1とカメラ81−2、検出器81−3から構成されている。   The detection unit 81 includes a camera 81-1, a camera 81-2, and a detector 81-3 that are the same as the camera 4-1, the camera 4-2, and the detector 5 that constitute the detection unit 3, respectively.

CPU71は、記憶部78にインストールされているプログラムを実行することにより、画像生成部10が行う処理を実行する。   The CPU 71 executes processing performed by the image generation unit 10 by executing a program installed in the storage unit 78.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、検出部3は、上述した構成の他、例えば、三次元情報を検出することができる1台のカメラから供給される画像により三次元情報を検出する構成とすることができる。即ち、例えば、レンズで撮像することができる範囲である画角や、レンズに入射した平行光線が一点に集光しない、色がにじむ、像がゆがむといった収差の度合いなどが、カメラのパラメータとしてあらかじめ得ることができる場合、たとえば、撮像された人の頭などの被写体の大きさから、その被写体が位置する地点までの距離を推測することができ、さらに、撮像画像内に映っている相対的な被写体の位置から、実際に被写体が位置する地点の方向を推測することができる。撮像された被写体の距離と方向を求めることができれば、被写体の三次元空間上の位置を求めることができる。   In addition to the configuration described above, the detection unit 3 may be configured to detect 3D information using an image supplied from a single camera capable of detecting 3D information, for example. That is, for example, the angle of view that is the range that can be captured by the lens, the degree of aberration that the parallel rays incident on the lens are not collected at one point, the color is blurred, the image is distorted, etc. If it can be obtained, for example, the distance from the size of the subject such as the head of the imaged person to the point where the subject is located can be estimated, and further, the relative position shown in the captured image can be estimated. From the position of the subject, the direction of the point where the subject is actually located can be estimated. If the distance and direction of the imaged subject can be obtained, the position of the subject in the three-dimensional space can be obtained.

さらに、検出部3の構成としては、例えば、レーザを照射することにより、三角測量で物体の位置を計測する構成を採用することもできる。   Furthermore, as a configuration of the detection unit 3, for example, a configuration in which the position of an object is measured by triangulation by irradiating a laser can be employed.

また、撮像カメラ6は、検出部3を構成するカメラ4−1とカメラ4−2のうちの1つのカメラと兼用することができる。   The imaging camera 6 can also be used as one of the cameras 4-1 and 4-2 constituting the detection unit 3.

なお、情報処理装置2において、影生成処理に用いる光源情報としては、実際の光源13の光源情報ではなく、仮想的な光源の光源情報を採用することができる。また、本実施の形態にでは、光源13の光源情報を、情報記憶部12にあらかじめ記憶させておくようにしたが、光源13の光源情報は、検出することが可能である。   In the information processing apparatus 2, light source information of a virtual light source can be employed as light source information used for the shadow generation process, instead of the light source information of the actual light source 13. In the present embodiment, the light source information of the light source 13 is stored in the information storage unit 12 in advance, but the light source information of the light source 13 can be detected.

即ち、検出器5では、カメラ4−1とカメラ4−2により撮像された画像に光源13が撮像されている場合、その光源13の三次元情報を検出し、その三次元情報を光源情報として画像生成部10に供給することができる。さらに、検出器5では、カメラ4−1とカメラ4−2により撮像された画像に光源13が撮像されていない場合には、例えば、光源13の光により利用者1の周囲に投影されている影などから光源13の位置などの三次元情報を推定し、その三次元情報を光源情報として画像生成部10に供給することができる。   That is, in the detector 5, when the light source 13 is captured in the images captured by the cameras 4-1 and 4-2, the three-dimensional information of the light source 13 is detected, and the three-dimensional information is used as the light source information. The image generation unit 10 can be supplied. Further, in the detector 5, when the light source 13 is not captured in the images captured by the camera 4-1 and the camera 4-2, for example, it is projected around the user 1 by the light of the light source 13. The three-dimensional information such as the position of the light source 13 can be estimated from the shadow or the like, and the three-dimensional information can be supplied to the image generation unit 10 as the light source information.

本発明は、例えば、テレビジョン会議システム、テレビジョン電話システム、その他の画像をやりとりしながら、コミュニケーションを図るツールに適用することができる。   The present invention can be applied to, for example, a teleconferencing system, a videophone system, and other tools for communicating while exchanging images.

本発明を適用した通信システムの第1実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the communication system to which this invention is applied. 図1の情報処理装置2の動作を説明するフローチャートである。3 is a flowchart for explaining the operation of the information processing apparatus 2 in FIG. 1. ステレオ法を説明する図である。It is a figure explaining a stereo method. ステレオ法を説明する図である。It is a figure explaining a stereo method. 距離と評価値との関係を示す図である。It is a figure which shows the relationship between distance and an evaluation value. 図1の画像生成部10の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image generation part 10 of FIG. 実/仮想空間を説明する模式図である。It is a schematic diagram explaining real / virtual space. 画像生成部10の処理を説明する図である。It is a figure explaining the process of the image generation part. 画像生成部10(画像生成部30)の影生成処理を説明するフローチャートである。It is a flowchart explaining the shadow production | generation process of the image generation part 10 (image generation part 30). 本発明を適用した通信システムの第2実施の形態の構成例を示す図である。It is a figure which shows the structural example of 2nd Embodiment of the communication system to which this invention is applied. 図10の情報処理装置22の画像送信処理を説明する図である。It is a figure explaining the image transmission process of the information processing apparatus 22 of FIG. 図10の情報処理装置2の画像受信処理を説明する図である。It is a figure explaining the image reception process of the information processing apparatus 2 of FIG. 図11の画像送信処理と図12の画像受信処理との対応関係を説明する図である。It is a figure explaining the correspondence of the image transmission process of FIG. 11, and the image reception process of FIG. 情報処理装置2を実現するコンピュータのハードウェア構成例を示すブロック図である。And FIG. 11 is a block diagram illustrating a hardware configuration example of a computer that implements the information processing apparatus 2.

符号の説明Explanation of symbols

1 利用者, 2 画像処理装置, 3 検出部, 4−1 カメラ, 4−2 カメラ, 5 検出器, 6 撮像カメラ, 7 送信部, 8 表示部, 9 表示制御部, 10 画像生成部, 11 受信部, 12 情報記憶部, 13 光源, 21 利用者, 22 情報処理装置23 検出部, 24−1 カメラ, 24−2 カメラ, 25 検出器, 26 撮像カメラ, 27 送信部, 28 表示部, 29 表示制御部, 30 画像生成部, 31 受信部, 32 情報記憶部, 33 光源, 40 ネットワーク, 41 実空間, 42 実空間, 61 三次元情報展開部, 62 画素選択部, 63 画素位置決定部, 64 影情報生成部, 65 画素値設定部, 71 CPU, 72 ROM, 73 RAM, 74 バス, 75 入出力インタフェース, 76 入力部, 77 出力部, 78 記憶部, 79 通信部, 80 カメラ, 81 検出部, 81−1 カメラ, 81−2 カメラ, 81−3 検出器, 82 ドライブ, 83 磁気ディスク, 84 光ディスク, 85 光磁気ディスク, 86 半導体メモリ   DESCRIPTION OF SYMBOLS 1 User, 2 Image processing apparatus, 3 Detection part, 4-1 Camera, 4-2 Camera, 5 Detector, 6 Imaging camera, 7 Transmission part, 8 Display part, 9 Display control part, 10 Image generation part, 11 Receiving unit, 12 information storage unit, 13 light source, 21 user, 22 information processing device 23 detection unit, 24-1 camera, 24-2 camera, 25 detector, 26 imaging camera, 27 transmission unit, 28 display unit, 29 Display control unit, 30 image generation unit, 31 reception unit, 32 information storage unit, 33 light source, 40 network, 41 real space, 42 real space, 61 three-dimensional information expansion unit, 62 pixel selection unit, 63 pixel position determination unit, 64 shadow information generation unit, 65 pixel value setting unit, 71 CPU, 72 ROM, 73 RAM, 74 bus, 75 input / output Force interface, 76 input unit, 77 output unit, 78 storage unit, 79 communication unit, 80 camera, 81 detection unit, 81-1 camera, 81-2 camera, 81-3 detector, 82 drive, 83 magnetic disk, 84 Optical disk, 85 magneto-optical disk, 86 semiconductor memory

Claims (9)

画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得手段と、
前記第1の実空間と異なる位置の第2の実空間の第2の三次元情報および前記第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段と、
前記第1の取得手段により取得された前記第1の三次元情報、並びに前記第2の取得手段により取得された前記第2の三次元情報および前記第1の画像に基づき、前記表示画面の後方に前記第2の実空間が位置していると仮定した場合に、前記第1の実空間が前記第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段と
を備えることを特徴とする画像処理装置。
First acquisition means for acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed;
Second acquisition means for acquiring second three-dimensional information of the second real space at a position different from the first real space and a first image obtained by imaging the second real space;
Based on the first three-dimensional information acquired by the first acquisition means and the second three-dimensional information acquired by the second acquisition means and the first image, the rear of the display screen And generating means for generating a second image reflecting the influence of the first real space on the second real space when it is assumed that the second real space is located at An image processing apparatus.
前記生成手段により生成された前記第2の画像を前記表示画面に表示させる表示制御手段をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising display control means for displaying the second image generated by the generation means on the display screen.
前記第1の実空間が前記第2の実空間に及ぼす前記影響は、
所定の光源により生じる前記第1の実空間に存在する実物体の影である
ことを特徴とする請求項1に記載の画像処理装置。
The influence of the first real space on the second real space is
The image processing apparatus according to claim 1, wherein the image processing apparatus is a shadow of a real object existing in the first real space generated by a predetermined light source.
前記所定の光源は、仮想的な光源である
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the predetermined light source is a virtual light source.
前記所定の光源は、前記第1の実空間に存在する実際の光源であり、
前記実際の光源を検出する検出手段をさらに備える
ことを特徴とする請求項3に記載の画像処理装置。
The predetermined light source is an actual light source existing in the first real space;
The image processing apparatus according to claim 3, further comprising detection means for detecting the actual light source.
前記第1の取得手段は、前記第1の三次元情報を、前記第1の実空間から検出することにより取得し、
前記第2の取得手段は、前記第2の三次元情報と第1の画像を、他の装置から受信することにより取得する
ことを特徴とする請求項1に記載の画像処理装置。
The first acquisition means acquires the first three-dimensional information by detecting the first three-dimensional information from the first real space,
The image processing apparatus according to claim 1, wherein the second acquisition unit acquires the second three-dimensional information and the first image from another apparatus.
前記第1の取得手段は、前記第1の三次元情報を、他の装置から受信することにより取得し、
前記第2の取得手段は、前記第2の三次元情報を、前記第2の実空間から検出することにより取得するとともに、前記第1の画像を、前記第2の実空間を撮像することにより取得する
ことを特徴とする請求項1に記載の画像処理装置。
The first acquisition means acquires the first three-dimensional information by receiving it from another device,
The second acquisition means acquires the second three-dimensional information by detecting the second real space from the second real space, and captures the first image by imaging the second real space. The image processing apparatus according to claim 1, wherein the image processing apparatus acquires the image processing apparatus.
画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得ステップと、
前記第1の実空間と異なる位置の第2の実空間の第2の三次元情報および前記第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップと、
前記第1の取得ステップにより取得された前記第1の三次元情報、並びに前記第2の取得手段により取得された前記第2の三次元情報および前記第1の画像に基づき、前記表示画面の後方に前記第2の実空間が位置していると仮定した場合に、前記第1の実空間が前記第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップと
を含むことを特徴とする画像処理方法。
A first acquisition step of acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed;
A second acquisition step of acquiring second three-dimensional information of the second real space at a position different from the first real space and a first image obtained by imaging the second real space;
Based on the first three-dimensional information acquired by the first acquisition step, the second three-dimensional information acquired by the second acquisition means, and the first image, the rear of the display screen Generating a second image reflecting the influence of the first real space on the second real space, assuming that the second real space is located at An image processing method characterized by the above.
画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに前記第1の実空間と異なる位置の第2の実空間の前記第2の三次元情報および前記第2の実空間を撮像して得られる第1の画像に基づき、前記表示画面の後方に前記第2の実空間が位置していると仮定した場合に、前記第1の実空間が前記第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップを含む
ことを特徴とするコンピュータにより読み取り可能なプログラム。
The first three-dimensional information of the first real space in front of the display screen on which the image is displayed, the second three-dimensional information of the second real space at a position different from the first real space, and the first When it is assumed that the second real space is located behind the display screen based on the first image obtained by imaging the second real space, the first real space is the second A computer-readable program comprising a generation step of generating a second image reflecting the effect on the real space.
JP2003307188A 2003-08-29 2003-08-29 Image processing apparatus, image processing method, and program Withdrawn JP2005078313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003307188A JP2005078313A (en) 2003-08-29 2003-08-29 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003307188A JP2005078313A (en) 2003-08-29 2003-08-29 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2005078313A true JP2005078313A (en) 2005-03-24

Family

ID=34410053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003307188A Withdrawn JP2005078313A (en) 2003-08-29 2003-08-29 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2005078313A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1702953A2 (en) 2005-03-18 2006-09-20 Kinugawa Rubber Industrial Co., Ltd., Polymeric composition, polymer-extruded article and weather strip for automotive vehicle
JP2011513871A (en) * 2008-03-10 2011-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for modifying a digital image
JP2014057217A (en) * 2012-09-12 2014-03-27 Fujitsu Ltd Device, method and program for encoding moving image, and moving image communication device
JP2017058625A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Spatial image performance device, control method of the spatial image performance device, and video system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1702953A2 (en) 2005-03-18 2006-09-20 Kinugawa Rubber Industrial Co., Ltd., Polymeric composition, polymer-extruded article and weather strip for automotive vehicle
JP2011513871A (en) * 2008-03-10 2011-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for modifying a digital image
US8847956B2 (en) 2008-03-10 2014-09-30 Koninklijke Philips N.V. Method and apparatus for modifying a digital image
JP2014057217A (en) * 2012-09-12 2014-03-27 Fujitsu Ltd Device, method and program for encoding moving image, and moving image communication device
JP2017058625A (en) * 2015-09-18 2017-03-23 日本電信電話株式会社 Spatial image performance device, control method of the spatial image performance device, and video system

Similar Documents

Publication Publication Date Title
US7957581B2 (en) Image processing apparatus and method
JP4553362B2 (en) System, image processing apparatus, and information processing method
US6781606B2 (en) System and method for displaying images using foveal video
US6549215B2 (en) System and method for displaying images using anamorphic video
US11089265B2 (en) Telepresence devices operation methods
US10554928B2 (en) Telepresence device
US7643064B1 (en) Predictive video device system
WO2017094543A1 (en) Information processing device, information processing system, method for controlling information processing device, and method for setting parameter
JP2011513871A (en) Method and apparatus for modifying a digital image
JP4539015B2 (en) Image communication apparatus, image communication method, and computer program
JP2008140271A (en) Interactive device and method thereof
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
WO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP2011113206A (en) System and method for video image communication
JP2003009108A (en) Picture communication system, picture communication equipment and picture communication method
JPWO2009119288A1 (en) Communication system and communication program
JP4595313B2 (en) Imaging display apparatus and method, and image transmission / reception system
JP2005078313A (en) Image processing apparatus, image processing method, and program
JP4373645B2 (en) Video distribution system, program, and recording medium
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP2005142765A (en) Apparatus and method for imaging
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP5326816B2 (en) Remote conference system, information processing apparatus, and program
US20200252585A1 (en) Systems, Algorithms, and Designs for See-through Experiences With Wide-Angle Cameras
JP2002027419A (en) Image terminal device and communication system using the same

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107