JP2005078313A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2005078313A JP2005078313A JP2003307188A JP2003307188A JP2005078313A JP 2005078313 A JP2005078313 A JP 2005078313A JP 2003307188 A JP2003307188 A JP 2003307188A JP 2003307188 A JP2003307188 A JP 2003307188A JP 2005078313 A JP2005078313 A JP 2005078313A
- Authority
- JP
- Japan
- Prior art keywords
- image
- real space
- unit
- information
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、例えば、より臨場感のある画像を表示することができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus, an image processing method, and a program that can display a more realistic image, for example.
例えば、テレビ会議システム等に代表される従来の画像対話装置では、送信側の撮像装置により撮像された送信側の利用者の画像を、通信回線を介して通信相手に送信するとともに、通信相手である利用者の画像を通信回線を介して受信し、受信した通信相手である利用者の画像を表示装置に表示させる双方向通信が行われる。かかる画像対話装置によれば、利用者は、互いに、相手を見ながら話(対話)ができるので、相手が遠方にいても、自分の近くにいるような臨場感を享受することができる。 For example, in a conventional image dialogue apparatus typified by a video conference system or the like, an image of a transmission-side user imaged by a transmission-side imaging apparatus is transmitted to a communication partner via a communication line. Bidirectional communication is performed in which an image of a certain user is received via a communication line and an image of a user who is the received communication partner is displayed on a display device. According to such an image interaction apparatus, users can talk (converse) while looking at each other, so that even when the other party is far away, they can enjoy a sense of realism that they are close to themselves.
通信相手を身近に感じさせる臨場感や場の共有感のような感覚を提供する手段としては、例えば、プロジェクタ等で通信相手の画像を等身大で投影するテレビ会議用端末装置が提案されている(例えば、特許文献1参照)。 As a means for providing a sense of presence or a feeling of sharedness that makes a communication partner feel close, for example, a video conference terminal device that projects an image of a communication partner in a life size using a projector or the like has been proposed. (For example, refer to Patent Document 1).
また、通信相手と視線を合致させることにより、臨場感や場の共有感のような感覚を提供する手段も提案されている。このような手段としては、例えば、ハーフミラーを用いてカメラの向きと表示画面を合わせるようにしたテレビ電話装置(例えば、特許文献2参照)や、光透過状態と光錯乱状態を制御することができるスクリーンとプロジェクタを用いて、時系列的に画像の表示と撮像を行う画像表示/撮像装置(例えば、特許文献3参照)、ホログラムスクリーンとプロジェクタを用いて、表示と撮像を同時に行うことができる撮像機能付き表示装置(例えば、特許文献4参照)などがある。 There has also been proposed a means for providing a sense of realism or shared feeling by matching the line of sight with the communication partner. As such means, for example, a videophone device (for example, refer to Patent Document 2) in which the direction of the camera and the display screen are matched using a half mirror, or a light transmission state and a light confusion state are controlled. An image display / imaging device that displays and captures images in time series using a screen and a projector that can be displayed (see, for example, Patent Document 3), and a hologram screen and a projector that can display and image simultaneously. There is a display device with an imaging function (see, for example, Patent Document 4).
さらに、画像を見ている人物を計測し、計測された人物の位置の情報に合わせて通信相手のカメラを動かすことにより、人物が動いても視線の一致を実現させるシステムも提案されている(例えば、特許文献5参照)。
上述したように、通信相手を等身大で投影させたり、または、通信相手と視線を合致させたりすることにより、通信回線を介してコミュニケーションを図る際の臨場感を向上させることができる。しかしながら、例えば、通信相手が実際に目の前にいるような感覚等、より高い臨場感の享受に対する要請は高い。 As described above, it is possible to improve a sense of reality when communicating through a communication line by projecting the communication partner in life size or matching the line of sight with the communication partner. However, for example, there is a high demand for enjoying a higher sense of presence, such as a feeling that the communication partner is actually in front of you.
本発明はこのような状況に鑑みてなされたものであり、通信相手が実際に目の前にいるような、より高い臨場感を提供することができるようにするものである。 The present invention has been made in view of such a situation, and can provide a higher sense of presence such that a communication partner is actually in front of you.
本発明の画像処理装置は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得手段と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段と、第1の取得手段により取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段とを備えることを特徴とする。 An image processing apparatus according to the present invention includes a first acquisition unit that acquires first three-dimensional information of a first real space in front of a display screen on which an image is displayed, and a first position that is different from the first real space. Second acquisition means for acquiring the second three-dimensional information of the second real space and the first image obtained by imaging the second real space, and the first tertiary acquired by the first acquisition means When it is assumed that the second real space is located behind the display screen based on the original information and the second three-dimensional information and the first image acquired by the second acquisition unit, the first Generating means for generating a second image reflecting the influence of the real space on the second real space.
本発明の画像処理方法は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得ステップと、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップと、第1の取得ステップにより取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップとを含むことを特徴とする。 The image processing method of the present invention includes a first acquisition step of acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed, and a first position at a position different from the first real space. A second acquisition step of acquiring the second three-dimensional information of the second real space and a first image obtained by imaging the second real space, and the first tertiary acquired by the first acquisition step When it is assumed that the second real space is located behind the display screen based on the original information and the second three-dimensional information and the first image acquired by the second acquisition unit, the first Generating a second image reflecting the influence of the real space on the second real space.
本発明のプログラムは、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップを含むことを特徴とする。 The program of the present invention includes the first three-dimensional information of the first real space in front of the display screen on which the image is displayed, and the second three-dimensional of the second real space at a position different from the first real space. When it is assumed that the second real space is located behind the display screen based on the information and the first image obtained by imaging the second real space, the first real space is the second It includes a generation step of generating a second image reflecting the influence on the real space.
本発明の画像処理装置および画像処理方法、並びにプログラムによれば、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像が生成される。 According to the image processing device, the image processing method, and the program of the present invention, the first three-dimensional information of the first real space in front of the display screen on which the image is displayed, and the position different from the first real space. When it is assumed that the second real space is located behind the display screen based on the second three-dimensional information of the second real space and the first image obtained by imaging the second real space In addition, a second image reflecting the influence of the first real space on the second real space is generated.
本発明によれば、より臨場感のある画像を提供することができる。 According to the present invention, it is possible to provide a more realistic image.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、実施の形態との対応関係を例示すると、次のようになる。明細書には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence between the invention described in this specification and the embodiments is illustrated as follows. Although there is an embodiment which is described in the specification but is not described here as corresponding to the invention, it does not mean that the embodiment corresponds to the invention. It doesn't mean not. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
さらに、この記載は、明細書に記載されている発明が、全て請求されていることを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出願したり、追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions described in the specification are claimed. In other words, this description is an invention described in the specification and is not claimed in this application, that is, an invention that will be filed in the future, filed by amendment, filed by amendment, or added The existence of is not denied.
請求項1に記載の画像処理装置は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得手段(例えば、図1の検出部3、または図10の受信部31)と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段(例えば、図1の受信部11、または図10の検出部23および撮像カメラ26)と、第1の取得手段により取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段(例えば、図1の画像生成部10、または図10の画像生成部30)とを備えることを特徴とする。
The image processing apparatus according to
請求項2に記載の画像処理装置は、生成手段(例えば、図1の画像生成部10)により生成された第2の画像を表示画面に表示させる表示制御手段(例えば、図1の表示制御部9)をさらに備えることを特徴とする。
The image processing apparatus according to
請求項5に記載の画像処理装置は、所定の光源(例えば、図1の光源13)は、第1の実空間に存在する実際の光源であり、実際の光源を検出する検出手段(例えば、図1の検出器5)をさらに備えることを特徴とする。
The image processing apparatus according to
請求項6に記載の画像処理装置は、第1の取得手段(例えば、図1の検出部3)は、第1の三次元情報を、第1の実空間から検出することにより取得し、第2の取得手段(例えば、図1の受信部11)は、第2の三次元情報と第1の画像を、他の装置(例えば、図1の情報処理装置22)から受信することにより取得することを特徴とする。
In the image processing apparatus according to
請求項7に記載の画像処理装置は、第1の取得手段(例えば、図10の受信部31)は、第1の三次元情報を、他の装置(例えば、図10の情報処理装置2)から受信することにより取得し、第2の取得手段(例えば、図10の検出部23、および検出器25)は、第2の三次元情報を、第2の実空間から検出することにより取得するとともに、第1の画像を、第2の実空間を撮像することにより取得することを特徴とする。
In the image processing apparatus according to
請求項8に記載の画像処理方法は、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報を取得する第1の取得ステップ(例えば、図2のステップS1)と、第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップ(例えば、図2のステップS2)と、第1の取得ステップにより取得された第1の三次元情報、並びに第2の取得手段により取得された第2の三次元情報および第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップ(例えば、図2のステップS4)とを含むことを特徴とする。
The image processing method according to
請求項9に記載のプログラムは、画像が表示される表示画面の前方の第1の実空間の第1の三次元情報、並びに第1の実空間と異なる位置の第2の実空間の第2の三次元情報および第2の実空間を撮像して得られる第1の画像に基づき、表示画面の後方に第2の実空間が位置していると仮定した場合に、第1の実空間が第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップ(例えば、図2のステップS4)を含むことを特徴とする。
The program according to
以下、本発明の実施の形態について説明する。図1は、本発明を適用した通信システムの第1実施の形態の構成例を示すブロック図である。 Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing a configuration example of a first embodiment of a communication system to which the present invention is applied.
ネットワーク40は、情報処理装置2と、情報処理装置22とを接続しており、画像情報、音声情報、および後述する三次元情報などの位置情報、その他のデータを双方向に伝送する。ネットワーク40としては、例えば、ローカルエリアネットワーク、インターネット、その他の有線または無線の伝送媒体を採用することができる。
The
利用者1は、情報処理装置2を操作するユーザであり、例えば、遠方に存在する情報処理装置22を操作する利用者21とネットワーク40を介してコミュニケーションを図る。
The
情報処理装置2は、検出部3、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12、さらには図示せぬ音声処理部などから構成されている。
The
検出部3は、カメラ4−1、カメラ4−2、および検出器5から構成されている。カメラ4−1とカメラ4−2は、表示部8の表示画面の前方の実空間41を撮像し、その撮像によって得られる実空間41の画像信号を検出器5に供給する。ここで、実空間41には、利用者1や光源13などが存在する。検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像信号に対して、例えば、ステレオ法(詳細は後述する)による所定の処理を施し、利用者1の輪郭および大きさなどの三次元形状や、位置を表す情報である三次元情報Caを検出することにより取得する。さらに、検出器5は、取得した三次元情報Caを送信部7および画像生成部10に供給する。なお、検出器5は、カメラ4−1を基準として定義されるXa軸、Ya軸、およびZa軸でなる座標系(以下、適宜、撮像座標系と称する)で表される三次元情報Caを検出する。
The
撮像カメラ6には、カメラ4−1やカメラ4−2と同様に、実空間41を撮像することにより、利用者1や利用者1を取り巻く背景などを含む画像信号を取得する。さらに、撮像カメラ6は、実空間41の撮像により得られた画像信号を、画像情報Daとして送信部7に供給する。なお、撮像カメラ6は、表示部8の上端部に近接して取り付けられる。さらに、撮像カメラ6としては、例えば、テレビジョンカメラなどを採用することができる。
As with the camera 4-1 and the camera 4-2, the
送信部7は、図示せぬネットワークインタフェース回路、伝送符号器などから構成されている。送信部7は、検出部3を構成する検出器5から供給される利用者1の三次元情報Ca、撮像カメラ6から供給された画像情報Da、さらには図示せぬ音声処理部から供給された音声情報を、ネットワーク40を介して、情報処理装置22(を構成する受信部31)に送信する。なお、送信部7は、例えば、画像信号、音声信号、および、三次元情報の信号などをネットワーク40に対応する伝送形態に変換し、ネットワーク40上に送出する。
The
表示部8は、表示制御部9から供給される画像を表示画面に表示する。なお、表示部8は、例えば、テレビジョン受像機を構成するテレビモニタ、即ち、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、またはホームシアタシステムのスクリーンなどで構成することができる。
The
表示制御部9は、画像生成部10から供給された画像信号に所定の処理を施して表示部8に供給して表示させる。
The
画像生成部10は、検出部3を構成する検出器5から供給される三次元情報Ca、受信部11から供給される利用者21が存在する実空間42の三次元情報Cb、および利用者21および利用者21を取り巻く背景などの画像情報Db、さらには必要に応じて情報記憶部12から供給される光源情報を用いて、表示部8の表示画面の後方に実空間42が位置していると仮定した場合(表示画面に表示される画像が得られた実空間42が、表示画面の後方に存在していると仮定した場合)に、実空間41が実空間42に及ぼす影響を反映した画像、即ち、例えば、画像情報Dbに利用者1の影が映しこまれた画像信号を生成し、表示制御部9に供給する。
The
受信部11は、例えば、ネットワークインタフェース回路、復号器等から構成されている。受信部11は、ネットワーク40を介して、情報処理装置22(を構成する送信部27)から送信されてくる画像信号としての画像情報Db、音声信号、および位置信号としての三次元情報Cbなどを受信し、ネットワーク40に対応する伝送形態から元の形態(フォーマット)に復元して、画像生成部10や、さらには図示せぬ音声処理部に供給する。
The receiving unit 11 includes, for example, a network interface circuit and a decoder. The receiving unit 11 receives image information D b as an image signal, audio signal, and three-dimensional information C b as a position signal transmitted from the information processing apparatus 22 (the transmitting unit 27 constituting the information processing device 22) via the
情報記憶部12には、実空間41内に存在する光源13の位置を表す光源情報が記憶されており、情報記憶部12は、記憶している光源情報を、画像生成部10に供給する。なお、実空間41内に複数の光源が存在する場合には、情報記憶部12には、その複数の光源の一部または全部についての光源情報を記憶させておくことが可能である。また、実空間41に、仮想的な光源である仮想光源をあらかじめ設定し、情報記憶部12には、その仮想光源の光源情報を記憶させておくことも可能である。
The
ここで、情報処理装置2において、図示せぬ音声処理部は、例えば、アンプ、スピーカおよびマイクロホン等から構成されている。音声処理部は、ユーザが発した音声に必要な処理を施し、送信部7からネットワーク40を介して情報処理装置22に送信させる。さらに、音声処理部は、受信部11がネットワーク40を介して情報処理装置22から受信した利用者21の音声などに必要な処理を施し、スピーカから出力させる。音声処理部には、必要に応じて、マイクがスピーカの音声を拾うことにより発生するエコーと呼ばれる現象をキャンセルする処理を行う処理部を設けることができる。
Here, in the
なお、利用者1の視線と、表示部8に映し出される利用者21の視線とのずれをできる限り小さくするために、表示部8と撮像カメラ6は、なるべく近接して配置するのが望ましい。また、表示部8と撮像カメラ6については、ハーフミラーを用いて撮像カメラ6が有するレンズのレンズ面の向きと表示部8の表示画面の向きとを合わせることにより、利用者1の視線と、表示部8に映し出される利用者21の視線とのずれを小さくすることができる(特許文献2)。さらに、表示部8と撮像カメラ6としては、光透過状態と光錯乱状態を制御することができるスクリーンとプロジェクタを用い、時系列的に画像の表示と撮像とを行うことができる構成を採用することができる(特許文献3)。また、表示部8と撮像カメラ6としては、ホログラムスクリーンとプロジェクタを用いて、表示と撮像を同時に行うことができる構成を採用することができる(特許文献4)。
Note that the
光源13は、実空間41に存在し、実空間41内を照明する光を発する。
The
図1において、利用者1の通信相手側の利用者21、情報処理装置22、光源33、実空間42は、利用者1、情報処理装置2、光源13、実空間41にそれぞれ対応している。情報処理装置22は、情報処理装置2を構成する検出部3、カメラ4−1,カメラ4−2、検出部5、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12とそれぞれ同様の、検出部23、カメラ24−1,カメラ24−2、検出部25、撮像カメラ26、送信部27、表示部28、表示制御部29、画像生成部30、受信部31、情報記憶部32から構成されている。
In FIG. 1, the
従って、検出部23は、検出部3と同様に、表示部28の表示画面の前方の実空間42の三次元情報を取得するが、この実空間42の三次元情報を、三次元情報Cbと記載する。また、撮像カメラ26は、撮像カメラ6と同様に、実空間42内を撮像し、画像情報を出力するが、この画像情報を、画像情報Dbと記載する。
Therefore, like the
図2は、図1の情報処理装置2の動作を説明するフローチャートである。なお、情報処理装置22でも、情報処理装置2と同様の処理が行われる。
FIG. 2 is a flowchart for explaining the operation of the
図2の処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。
The process of FIG. 2 is started when a communication link is established between the
撮像カメラ6、および検出部3を構成するカメラ4−1とカメラ4−2それぞれは、実空間41の撮像を開始し、その撮像により得られる利用者1および利用者1を取り巻く背景などの画像を出力する。カメラ4−1とカメラ4−2が出力する画像は、検出器5に供給される。撮像カメラ6が出力する画像は、画像情報Daとして送信部7に供給され、ネットワーク40を介して、情報処理装置22に送信される。
The
そして、ステップS1において、検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを生成し、送信部7と画像生成部10に供給して、ステップS2に進む。なお、検出部5から送信部7に供給された三次元情報Caは、ネットワーク40を介して、情報処理装置22に送信される。
In step S < b > 1, the
ステップS2において、受信部11は、情報処理装置22を構成する送信部27からネットワーク40を介して送信されてくる三次元情報Cbおよび画像情報Dbを受信し、画像生成部10に供給して、ステップS3に進む。即ち、情報処理装置22でも、情報処理装置2と同様の処理が行われ、三次元情報Cbおよび画像情報Dbがネットワーク40を介して、情報処理装置22から情報処理装置2に送信されてくるので、受信部11は、ステップS2において、その三次元情報Cbおよび画像情報Dbを受信する。
In step S2, the reception unit 11 receives the three-dimensional information C b and the image information D b from the transmission unit 27 constituting the information processing apparatus 22 transmitted via the
ステップS3において、情報記憶部12は、記憶している光源13の光源情報を画像生成部10に供給して、ステップS4に進む。
In step S3, the
ステップS4において、画像生成部10は、ステップS1で検出器5から供給された三次元情報Ca、ステップS2で受信部11から供給された三次元情報Cb、および画像情報Db、並びにステップS3で情報記憶部12から供給された光源情報に基づき、表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響を反映した画像、即ち、例えば、光源13により生じる利用者1の影などを反映させた画像信号を生成する影生成処理を行う。なお、ステップS4の影生成処理の詳細は後述する。
In step S4, the
ステップS5において、画像生成部10は、ステップS4で生成した画像信号を表示制御部9に供給して、ステップS6に進む。
In step S5, the
ステップS6において、表示制御部9は、画像生成部10から供給された画像信号を表示部8に供給し、その表示画面に表示させ、ステップS7に進む。
In step S6, the
ステップS7において、送信部7または受信部11が、情報処理装置22との間の通信リンクが切断されたかどうかを判定する。ステップS7において、通信リンクが切断されていないと判定された場合、ステップS1に戻り、以下、同様の処理が繰り返される。また、ステップS7において、通信リンクが切断されたと判定された場合、処理を終了する。
In step S <b> 7, the
なお、図2の処理において、ステップS1乃至S3それぞれの処理は時系列に処理されてもよいし、また、並列して処理されてもよい。 In the process of FIG. 2, the processes of steps S1 to S3 may be processed in time series or may be processed in parallel.
次に、図1の検出器5での三次元情報の検出に用いられるステレオ法について説明する。ステレオ法は、2つ以上の方向(異なる視線方向)からカメラで同一対象物を撮影して得られる複数の画像間の画素同士を対応付けることで、対応する画素間の視差情報や、カメラから対象物までの距離、対象物の形状を求めるものである。
Next, a stereo method used for detection of three-dimensional information by the
即ち、例えば、いま、図1におけるカメラ4−1とカメラ4−2をそれぞれ基準カメラ4−1と検出カメラ4−2というものとして、その基準カメラ4−1および検出カメラ4−2で対象物を撮影すると、基準カメラ4−1からは対象物の投影像を含む基準カメラ画像が得られ、検出カメラ4−2からも対象物の投影像を含む検出カメラ画像が得られる。いま、図3に示すように、対象物上のある点Pが基準カメラ画像および検出カメラ画像の両方に表示されているとすると、その点Pが表示されている基準カメラ画像上の位置と、検出カメラ画像上の位置、つまり対応点とから、基準カメラ4−1と検出カメラ4−2との間の視差を求めることができ、さらに、三角測量の原理を用いて、点Pの三次元空間における位置(三次元位置)を求めることができる。 That is, for example, the camera 4-1 and the camera 4-2 in FIG. 1 are referred to as a reference camera 4-1 and a detection camera 4-2, respectively, and the reference camera 4-1 and the detection camera 4-2 are used as objects. , A reference camera image including a projection image of the object is obtained from the reference camera 4-1, and a detection camera image including a projection image of the object is also obtained from the detection camera 4-2. Now, as shown in FIG. 3, if a certain point P on the object is displayed in both the reference camera image and the detected camera image, the position on the reference camera image where the point P is displayed, The parallax between the reference camera 4-1 and the detection camera 4-2 can be obtained from the position on the detection camera image, that is, the corresponding point, and the three-dimensional of the point P can be obtained using the principle of triangulation. A position in space (three-dimensional position) can be obtained.
従って、ステレオ法では、まず、対応点を検出することが必要となるが、その検出方法としては,例えば、エピポーラライン(Epipolar Line)を用いたエリアベースマッチング法などがある。 Therefore, in the stereo method, it is first necessary to detect corresponding points. As the detection method, for example, there is an area-based matching method using an epipolar line.
即ち、図3に示すように、基準カメラ4−1においては、対象物上の点Pは、その点Pと基準カメラ4−1の光学中心(レンズ中心)O1とを結ぶ直線L上の、基準カメラ4−1の撮像面S1との交点naに投影される。 That is, as shown in FIG. 3, in the reference camera 4-1, the point P on the object is on a straight line L connecting the point P and the optical center (lens center) O 1 of the reference camera 4-1. is projected intersection n a of the imaging surface S 1 of the base camera 4-1.
また、検出カメラ4−2においては、対象物の点Pは、その点Pと検出カメラ4−2の光学中心(レンズ中心)O2とを結ぶ直線上の、検出カメラ4−2の撮像面S2との交点nbに投影される。 Further, in the detection camera 4-2, the point P of the object is an imaging surface of the detection camera 4-2 on a straight line connecting the point P and the optical center (lens center) O 2 of the detection camera 4-2. It is projected to the intersection n b and S 2.
この場合、直線Lは、光学中心O1およびO2、並びにnb(または点P)の3点を通る平面と、検出カメラ画像が形成される撮像面S2との交線L2として、撮像面S2上に投影される。点Pは、直線L上の点であり、従って、撮像面S2において、点Pを投影した点nbは、直線Lを投影した直線L2上に存在し、この直線L2が、エピポーララインと呼ばれる。即ち、点naの対応点nbが存在する可能性のあるのは、エピポーララインL2上であり、従って、対応点nbの探索は、エピポーララインL2上を対象に行えば良い。 In this case, the straight line L is an intersection line L 2 between the plane passing through the three points of the optical centers O 1 and O 2 and n b (or point P) and the imaging surface S 2 on which the detection camera image is formed. projected onto the imaging surface S 2. Point P is a point on the straight line L, thus, the imaging surface S 2, the n b point obtained through projection of the point P, and lies on the straight line L 2 obtained by projecting the straight line L, this straight line L 2, epipolar Called the line. That is, there is a possibility that the corresponding point n b of the point n a exists on the epipolar line L 2. Therefore, the search for the corresponding point n b may be performed on the epipolar line L 2 .
ここで、エピポーララインは、例えば、撮像面S1に形成される基準カメラ画像を構成する画素毎に考えることができるが、基準カメラ4−1と検出カメラ4−2の位置関係が既知であれば、その画素ごとに存在するエピポーララインは求めることができる。 Here, when the epipolar line, for example, can be considered for each pixel constituting the reference camera image formed on the imaging surface S 1, a positional relationship between the reference camera 4-1 and the detection camera 4-2 Known For example, an epipolar line existing for each pixel can be obtained.
エピポーララインL2上の点からの対応点nbの検出は、例えば、次のようなエリアベースマッチングによって行うことができる。 Detection of corresponding points n b from a point on the epipolar line L 2 is, for example, can be carried out by the following area based matching.
即ち、エリアベースマッチングでは、図4左に示すように、基準カメラ画像上の点naを中心(例えば、対角線の交点)とする、例えば長方形状の小ブロックである基準ブロックが、基準カメラ画像から抜き出されるとともに、図4右に示すように、検出カメラ画像に投影されたエピポーララインL2上の、ある点を中心とする、基準ブロックと同一の大きさの小ブロックである検出ブロックが、検出カメラ画像から抜き出される。 That is, in area-based matching, as shown on the left of FIG. 4, a reference block that is a small rectangular block, for example, having a point n a on the reference camera image as a center (for example, an intersection of diagonal lines) As shown in the right side of FIG. 4, a detection block that is a small block having the same size as the reference block centered on a certain point on the epipolar line L 2 projected on the detection camera image is extracted. , Extracted from the detected camera image.
ここで、図4右においては、エピポーララインL2上に、検出ブロックの中心とする点として、点nb1乃至nb6の6点が設けらている。この6点nb1乃至nb6は、図3に示した三次元空間における直線Lを、例えば1mなどの所定の一定距離ごとに区分する点、即ち、基準カメラ4−1からの距離が1m,2m,3m,4m,5m,6mの点それぞれを、検出カメラ4−2の撮像面S2に投影した点で、従って、基準カメラ4−1からの距離が1m,2m,3m,4m,5m,6m(距離の推定値)の点にそれぞれ対応している(この場合、距離分解能が1mであるということができる)。 Here, on the right side of FIG. 4, six points n b1 to n b6 are provided on the epipolar line L 2 as points serving as the center of the detection block. The six points n b1 to n b6 are points that divide the straight line L in the three-dimensional space shown in FIG. 3 at predetermined constant distances such as 1 m, that is, the distance from the reference camera 4-1 is 1 m, 2m, 3m, 4m, 5 m, respectively point 6 m, a point obtained by projecting the imaging surface S 2 of the detection cameras 4-2, therefore, the distance from the base camera 4-1 1m, 2m, 3m, 4m, 5m , 6 m (estimated distance), respectively (in this case, it can be said that the distance resolution is 1 m).
エリアベースマッチングでは、検出カメラ画像から、エピポーララインL2上に設けられている点nb1乃至nb6それぞれを中心とする検出ブロックが抜き出され、各検出ブロックと、基準ブロックとの相関が、所定の評価関数を用いて演算される。そして、点naを中心とする基準ブロックとの相関が最も高い検出ブロックの中心の点naが、点naの対応点として求められる。 In area-based matching, detection blocks centered on the points n b1 to n b6 provided on the epipolar line L 2 are extracted from the detection camera image, and the correlation between each detection block and the reference block is Calculation is performed using a predetermined evaluation function. Then, the point n a center correlation highest detection block and the reference block centered on the point n a is obtained as the corresponding point of the point n a.
ここで、評価関数(評価値)f(x,y)としは、例えば、次式を採用することができる。 Here, as the evaluation function (evaluation value) f (x, y), for example, the following equation can be adopted.
但し、式(1)において、(x,y)は、基準ブロックの中心点naの座標を表し、(x´,y´)は、検出ブロックの中心点の座標を表す。さらに、YA(x+i,y+j)は、基準カメラ画像上の点(x+i,y+j)における画素の輝度を表し、YB(x´+i,y´+j)は、検出カメラ画像上の点(x´+i,y´+j)における画素の輝度を表す。また、Wは、基準ブロックおよび検出ブロックを表し、i,j∈Wは、点(x+i,y+j)または点(x´+i,y´+j)が、それぞれ、基準ブロックまたは検出ブロック内の点であることを表す。 However, in the formula (1), (x, y ) represents the coordinates of the center point n a reference block, (x', y ') represent the coordinates of the center point of the detection block. Further, Y A (x + i, y + j) represents the luminance of the pixel at the point (x + i, y + j) on the reference camera image, and Y B (x ′ + i, y ′ + j) represents the point (x on the detected camera image). '+ I, y' + j) represents the luminance of the pixel. W represents a reference block and a detection block, and i, jεW represents a point (x + i, y + j) or a point (x ′ + i, y ′ + j) at a point in the reference block or detection block, respectively. Represents something.
なお、式(1)で表される評価値f(x,y)は、基準カメラ画像上の所定の点(x,y)と、検出カメラ画像上の注目している点(x´,y´)との間の相関が大きいほど小さくなり、従って、評価値f(x,y)を最も小さくする検出カメラ画像上の点(x´,y´)が、基準カメラ画像上の点(x,y)の対応点として求められる。 Note that the evaluation value f (x, y) represented by the expression (1) is a predetermined point (x, y) on the reference camera image and a point of interest (x ′, y) on the detected camera image. The point (x ′, y ′) on the detected camera image that minimizes the evaluation value f (x, y) becomes smaller as the correlation with the '′) increases. , Y).
即ち、例えば、いま、評価関数として、例えば、式(1)に示したような、相関が高いほど小さな値をとる関数を用いた場合に、エピポーララインL2上に設けられている点nb1乃至nb6それぞれについて、例えば、図5に示すような評価値(評価関数の値)が得られたとする。ここで、図5においては、点nb1乃至nb6それぞれにあらかじめ付された、基準カメラ4−1からの距離に対応する距離番号を横軸として、各距離番号(に対応するエピポーララインL2上の点nb1乃至nb6)に対する評価値を、図示してある。 That is, for example, the point n b1 provided on the epipolar line L 2 when a function having a smaller value as the correlation is higher is used as the evaluation function, for example, as shown in Expression (1). Assume that an evaluation value (value of an evaluation function) as shown in FIG. 5 is obtained for each of nb6 to nb6 . Here, in FIG. 5, the epipolar line L 2 corresponding to each distance number (with the abscissa indicating the distance number corresponding to the distance from the reference camera 4-1 previously assigned to each of the points n b1 to n b6. The evaluation values for the upper points n b1 to n b6 ) are shown.
図5に示したような評価値でなる評価曲線が得られた場合には、評価値が最も小さい(相関が高い)距離番号3に対応するエピポーララインL2上の点が、点naの対応点として検出される。なお、図5において、距離番号1乃至6に対応する点それぞれについて求められた評価値(図5において●印で示す)のうちの最小値付近のものを用いて補間を行い、評価値がより小さくなる点(図5において×印で示す3.3mに対応する点)を求めて、その点を、最終的な対応点として検出することも可能である。
If the evaluation curve made by the evaluation value as shown in FIG. 5 is obtained, a point on the epipolar line L 2 the evaluation value corresponding to the smallest (high correlation)
図4では、上述したように、三次元空間における対象物上の点と、基準カメラ4−1の光学中心O1を結ぶ直線Lを所定の等距離ごとに区分する点を、検出カメラ4−2の撮像面S2に投影した点が設定されているが、この設定は、例えば、基準カメラ4−1および検出カメラ4−2のキャリブレーション時に行うことができる(キャリブレーションの方法は、特に限定されるものではない)。そして、このような設定を、基準カメラ4−1の撮像面S1を構成する画素ごとに存在するエピポーララインごとに行い、エピポーラライン上に設定された点(以下、適宜、設定点という)までの距離(基準カメラ4−1からの距離)に対応する距離番号と、基準カメラ4−1からの距離とを対応付ける距離番号/距離テーブルをあらかじめ作成しておけば、対応点となる設定点を検出し、その設定点に対応する距離番号を、距離番号/距離テーブルを参照して変換することで、即座に、基準カメラ4−1からの距離(対象物上の点までの距離の推定値)を求めることができる。即ち、いわば、対応点から、直接、距離を求めることができる。
In FIG. 4, as described above, the points that divide the straight line L connecting the point on the object in the three-dimensional space and the optical center O 1 of the reference camera 4-1 at predetermined equal distances are detected by the detection camera 4-4. Although point obtained through
一方、基準カメラ画像上の点naについて、検出カメラ画像上の対応点nbを検出すれば、その2点naおよびnbの間の視差(視差情報)を求めることができる。さらに、基準カメラ4−1と検出カメラ4−2の位置関係が既知であれば、2点naおよびnbの間の視差から、三角測量の原理によって、対象物までの距離を求めることができる。視差から距離の算出は、所定の演算を行うことによって行うことができるが、あらかじめその演算を行っておき、視差ζと距離とを付ける視差/距離テーブルを、基準カメラ画像上のすべての画素について、あらかじめ作成しておけば、対応点を検出し、視差を求め、視差/距離テーブルを参照することで、やはり、即座に、基準カメラ4−1からの距離を求めることができる。なお、カメラの設置条件(位置関係)によっては、すべての画素に対して、同じ視差/距離テーブルが利用されるようにすることも可能である。さらに、すべての画素に対して、同じ視差/距離テーブルが利用されることができるように、画像が変換されるようにすることも可能である。 On the other hand, for the points n a on the reference camera image, by detecting the corresponding points n b on the detection camera image can be obtained parallax (disparity information) between the two points n a and n b. Further, if the positional relationship between the reference camera 4-1 and the detection camera 4-2 is known, the parallax between the two points n a and n b, the principle of triangulation, can determine the distance to the object it can. The distance can be calculated from the parallax by performing a predetermined calculation, but the parallax / distance table for adding the parallax ζ and the distance is calculated for all the pixels on the reference camera image. If prepared in advance, the distance from the reference camera 4-1 can be immediately obtained by detecting the corresponding point, obtaining the parallax, and referring to the parallax / distance table. Note that the same parallax / distance table may be used for all pixels depending on the camera installation conditions (positional relationship). Furthermore, the image can be transformed so that the same parallax / distance table can be used for all pixels.
ここで、視差と、対象物までの距離とは一対一に対応するものであり、従って、視差を求めることと、対象物までの距離を求めることとは、いわば等価である。 Here, the parallax and the distance to the object have a one-to-one correspondence. Therefore, obtaining the parallax and obtaining the distance to the object are equivalent to each other.
なお、対応点から直接、距離を求める場合には、三次元空間における遠方の点に対応するエピポーラライン上の設定点ほど、隣接する設定点との間隔が狭くなる。従って、隣接する設定点との間隔が、検出カメラ画像の画素間の距離より小さい設定点では、求める距離の精度は劣化する。また、視差から距離を求める場合には、三次元空間における近い位置(基準カメラ4−1から近い位置)では、視差はあまり変化しない。そして、視差の最高精度は、基本的に画素単位であるから、視差から距離を求める場合には、三次元空間における近い位置までの距離を求めるにあたって、その距離の精度は劣化する。しかしながら、いずれの場合においても、画素より細かいサブピクセル単位で、設定点の設定や、対応点の検出を行うことで、精度の問題は解決することができる。 When the distance is directly obtained from the corresponding point, the set point on the epipolar line corresponding to the far point in the three-dimensional space has a smaller interval between the adjacent set points. Therefore, the accuracy of the obtained distance deteriorates at the set point where the interval between the adjacent set points is smaller than the distance between the pixels of the detected camera image. Further, when obtaining the distance from the parallax, the parallax does not change much at a close position in the three-dimensional space (a position close to the reference camera 4-1). Since the highest accuracy of parallax is basically in units of pixels, when obtaining a distance from parallax, the accuracy of the distance deteriorates when obtaining a distance to a close position in the three-dimensional space. However, in any case, the accuracy problem can be solved by setting the set point and detecting the corresponding point in sub-pixel units smaller than the pixel.
また、対応点の検出に、基準ブロックおよび検出ブロックといった複数画素でなるブロックを用いるのは、ノイズの影響を軽減し、基準カメラ画像上の画素(点)naの周囲の画素のパターンの特徴と、検出カメラ画像上の対応点(画素)nbの周囲の画素のパターンの特徴との間の相関性を利用することにより、対応点の検出の確実を期すためであり、特に、変化の少ない基準カメラ画像および検出カメラ画像に対しては、画像の相関性により、ブロックの大きさを大きくすれば、対応点の検出の確実性を向上させることができる。 Further, the detection of the corresponding point, to use a reference block and a detection block comprised of a plurality of pixels such blocks is to reduce the effects of noise, the characteristics of the pattern of pixels around the pixel (point) n a of the reference camera image When, by utilizing the correlation between the characteristic of the pattern of pixels around the detected corresponding points on the camera image (pixels) n b, it is for the sake of certainty of detection of the corresponding point, in particular, the change For a small number of reference camera images and detection camera images, the certainty of detection of corresponding points can be improved by increasing the block size due to the correlation of the images.
さらに、上述の場合には、基準ブロックと検出ブロックとの相関性を評価する評価関数として、式(1)で表される、基準ブロックを構成する画素と、それぞれの画素に対応する、検出ブロックを構成する画素の画素値の差分の絶対値の総和を用いるようにしたが、評価関数としては、その他、画素値の差分の自乗和や、正規化された相互相関(normalized cross correlation)などを用いることができる。 Further, in the above-described case, as an evaluation function for evaluating the correlation between the reference block and the detection block, the pixels constituting the reference block and the detection blocks corresponding to the respective pixels represented by Expression (1) The sum of the absolute values of the pixel value differences of the pixels constituting the pixel is used, but other evaluation functions include the sum of squares of the pixel value differences, normalized cross correlation, etc. Can be used.
図6は、図1の画像生成部10の構成例を示すブロック図である。なお、図1の画像生成部30も、画像生成部10と同様に構成される。
FIG. 6 is a block diagram illustrating a configuration example of the
画像生成部10は、三次元情報展開部61、画素選択部62、画素位置決定部63、影情報生成部64、および画素値設定部65から構成されている。
The
三次元情報展開部61には、検出部3を構成する検出器5から供給される三次元情報Caおよび受信部11から供給される利用者21の三次元情報Cbが入力される。三次元情報展開部61は、検出部3を構成する検出器5から供給される三次元情報Caおよび受信部11から供給される利用者21の三次元情報Cbを、例えば、図1の表示部8の表示画面をXY平面とするとともに、その表示画面に垂直な方向をZ軸とする座標系(以下、適宜、表示座標系と称する)に展開し、その表示座標系に展開された三次元情報Caおよび三次元情報Cbを、画素位置決定部63と影情報生成部64にそれぞれ供給する。即ち、画像生成部10に供給される三次元情報Caは、カメラ4−1を基準とする撮像座標系の座標で表されるものであり、画像生成部10に供給される三次元情報Cbは、カメラ24−1を基準とする撮像座標系の座標で表されるものであるため、三次元情報展開部61は、三次元情報Caと三次元情報Cbを、いずれも表示座標系の座標で表されるものに変換する。
The three-dimensional
画素選択部62には、受信部11からの利用者21の画像情報Dbが供給される。画素選択部62は、受信部11から供給された利用者21の画像情報Dbの各フレーム毎に注目画素を選択し、その注目画素を表す情報を画素位置決定部63に供給する。
The
画素位置決定部63は、三次元情報展開部61から供給された表示座標系に展開された三次元情報Cbと、画素選択部62から供給された注目画素とに基づき、注目画素に対応する表示座標系上の所定の位置(以下、適宜、対応位置という)を求め、影情報生成部64に供給する。
The pixel
影情報生成部64は、三次元情報展開部61から供給された三次元情報Ca、画素位置決定部63から供給された対応位置、情報記憶部12から供給された光源情報に基づき、表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響、即ち、光源13が照射する光によって表示部8の表示画面の後方に位置していると仮定した実空間42内に生じる利用者1の影を推定し、その影の情報である影情報を画素値設定部65に供給する。
The shadow
画素値設定部65には、受信部11からの利用者21の画像情報Dbと、影情報生成部64からの影情報とが供給される。画素値設定部65は、受信部11から供給される利用者21の画像情報Dbと、影情報生成部64から供給された影情報とに基づき、画像情報Dbに影情報を反映した画像を生成し、表示制御部9に供給する。
The pixel
ここで、実空間42が、表示部8の表示画面の後方に位置していると仮定した場合に、実空間41と、表示画面の後方に位置していると仮定した実空間42とで構成される空間を、以下、適宜、実/仮想空間という。
Here, when it is assumed that the
図7は、実/仮想空間を示す模式図である。 FIG. 7 is a schematic diagram showing a real / virtual space.
図7の左上の図は、カメラ4−1を基準として定義される、Xa軸、Ya軸、およびZa軸でなる撮像座標系Aと実空間41とを示している。同様に、図7の左下の図は、カメラ24−1を基準として定義されるXb軸、Yb軸、およびZb軸でなる撮像座標系Bと実空間42とを示している。検出部3で得られる実空間41の三次元情報Caは、例えば、実空間41に存在する利用者1上の各点の撮像座標系Aにおける座標等である。また、検出部23で得られる実空間42の三次元情報Cbは、例えば、実空間42に存在する利用者21上の各点の撮像座標系Bにおける座標等である。
The upper left part of FIG. 7 is defined camera 4-1 as a reference, shows a X a axis, Y a-axis, and Z a imaging coordinate system comprising at axis A and the
図7の右の図は、図7の左上に示した実空間41における表示部8の表示画面に表示された画像に射影された図7の右上に示した実空間42が、その画像に映し出された状態で、表示部8の表示画面を境界として、その後方に位置していると仮定した場合に、その実空間42と実空間41で構成される実/仮想空間を示している。
7 shows the
実/仮想空間は、表示部8の表示画面を境界面として実空間41と実空間42とが仮想的に接続した空間である。従って、実/仮想空間が現実の空間であるとすれば、例えば、実空間41に存在する光源13により生じる利用者1の影が、表示部8の表示画面に対して実空間41と対向する位置にある実空間42に投影されることがありうる。
The real / virtual space is a space in which the
そこで、画像生成部10は、三次元情報Caと三次元情報Cb、および光源13の光源情報に基づき、利用者21の画像情報Dbに利用者1の影が投影された画像を生成する。これにより、表示部8には、利用者1の影が投影された利用者21の画像が映し出される。同様にして、情報処理部22を構成する画像生成部30は、三次元情報Caと三次元情報Cb、および光源33の光源情報に基づき、利用者1の画像情報Daに利用者21の影が投影された画像を生成する。これにより、表示部28には、利用者21の影が投影された利用者1の画像が映し出される。
Therefore, the
したがって、利用者1は、通信相手である利用者21が、実際に、表示部8の表示画面の後方にいたならば視覚に映るであろう画像と同様の画像を、表示部8の表示画面上に観察することができ、利用者21も、同様の画像を、表示部28の表示画面上に観察することができる。その結果、利用者1と利用者21は、お互いに、表示部8と表示部28の表示画面を窓として、あたかも窓を介して会話しているような臨場感を感じながらコミュニケーションを図ることができる。
Therefore, the
次に、図8を参照して、画像生成部10による画像の生成の方法を説明する。なお、画像生成部30でも、画像生成部10における場合と同様にして、画像が生成される。
Next, a method of generating an image by the
図8は、図7の右の図と同様に、実空間41と、表示部8の表示画面の後方に実空間42が位置していると仮定した場合の、その実空間42とで構成される実/仮想空間を模式的に示している。即ち、図8は、表示部8と表示部28の表示画面どうしを仮想的に背中合わせに配置して構成される実/仮想空間を示している。
8 includes a
図8の実/仮想空間上の点は、表示部8(または表示部28)の表示画面を基準とする、X軸、Y軸、Z軸でなる表示座標系で表すことができる。そこで、画像生成部10は、カメラ4−1を基準として定義される撮像座標系Aで表される実空間41の三次元情報Caを、表示座標系で表される三次元情報Caに座標変換(展開)する。同様に、画像生成部10は、カメラ24−1を基準として定義される撮像座標系Bで表される実空間42の三次元情報Cbも、表示座標系で表される三次元情報Cbに座標変換する。
The points on the real / virtual space in FIG. 8 can be represented by a display coordinate system including the X axis, the Y axis, and the Z axis with reference to the display screen of the display unit 8 (or the display unit 28). Therefore, the
なお、カメラ4−1と表示部8との位置関係(カメラ24−1と表示部28との位置関係)は、あらかじめ求めておくことができ、この位置関係に基づいて、上述の座標変換を行うことができる。また、表示部8と表示部28の表示画面の大きさが異なる場合には、あらかじめ正規化を行っておく。
Note that the positional relationship between the camera 4-1 and the display unit 8 (the positional relationship between the camera 24-1 and the display unit 28) can be obtained in advance, and the coordinate conversion described above is performed based on this positional relationship. It can be carried out. If the display screens of the
画像生成部10は、さらに、情報記憶部12に記憶された光源情報から光源13の表示座標系上の位置を求める。
The
そして、画像生成部10は、受信部11から供給された利用者21の画像情報Dbを構成するフレームを順次、注目フレームとし、さらに、注目フレームを構成する画素を、順次、注目画素として選択する。
The selection, the
ここで、注目フレームの、例えば、ラスタスキャン順で、i番目の画素をIBiと表すこととする。 Here, the i-th pixel in the frame of interest, for example, in raster scan order is represented as IB i .
いま、画素IBiが注目画素として選択されたものとすると、画素生成部10は、三次元情報Cbに基づき、注目画素IBiに射影された実空間42内の位置(点)PBiの表示座標系の座標を求める。
Now, assuming that the pixel IB i is selected as the target pixel, the
ここで、位置(点)PBiが、上述した、注目画素IBiに対応する対応位置である。 Here, the position (point) PB i is the corresponding position corresponding to the target pixel IB i described above.
その後、画像生成部10は、対応位置PBiと、光源情報から求められた光源13の位置とを結ぶ直線Liを求める。さらに、画像生成部10は、三次元情報Caに基づき、直線Liが実空間41内の利用者1と交差するかどうかを判定する。画像生成部10は、直線Liが実空間41内の利用者1と交差する場合、注目画素IBiは、利用者1の影の影響が生じる画素であるとして、注目画素IBiの画素値を、影の影響を与えた値に変更する。一方、画像生成部10は、直線Liが実空間41内の利用者1と交差しない場合、注目画素IBiは、利用者1の影の影響が生じない画素であるとして、その画素値をそのままとする。
Thereafter, the
図9は、図2のステップS4の処理、即ち、図6の画像生成部10(または画像生成部30)が行う影生成処理を説明するフローチャートである。 FIG. 9 is a flowchart illustrating the process of step S4 in FIG. 2, that is, the shadow generation process performed by the image generation unit 10 (or the image generation unit 30) in FIG.
ステップS11において、三次元情報展開部61は、検出器5から供給される実空間41の三次元情報Caを撮像座標系Aから表示座標系のものに展開するとともに、受信部11から供給される実空間42の三次元情報Cbを、撮像座標系Bから表示座標系のものに展開する。さらに、三次元情報展開部61は、表示座標系で表された三次元情報Caを影情報生成部64に供給するとともに、表示座標系で表された三次元情報Cbを画素位置決定部63に供給して、ステップS11からステップS12に進む。
In step S < b > 11, the three-dimensional
ステップS12において、画素選択部62は、受信部11から供給された利用者21の画像情報Dbのフレームを注目フレームとして、その注目フレームを構成する画素をカウントする変数iを1に初期化して、ステップS13に進む。
In step S < b > 12, the
ステップS13において、画素選択部62は、注目フレームを構成する画素のうちの、ラスタスキャン順でi番目の画素を、注目画素IBiとして選択し、画素位置決定部63に供給して、ステップS14に進む。
In step S13, the
ステップS14において、画素位置決定部63は、三次元情報展開部61からの三次元情報Cbに基づき、画素選択部62により選択され供給された注目画素IBiに対応する、実/仮想空間内の表示座標系上の対応位置PBi(図8)を求め、影情報生成部64に供給して、ステップS15に進む。
In step S14, the pixel
ステップS15において、影情報生成部64は、情報記憶部12から供給された光源情報に基づき、実空間41に存在する光源13の表示座標系上の光源位置を求める。さらに、影情報生成部64は、光源位置と画素位置決定部63からの対応位置PBiとを結ぶ直線Li(図8)を求め、ステップS15からステップS16に進む。ステップS16において、影情報生成部64は、三次元情報展開部61からの三次元情報Caに基づき、直線Liが、利用者1、さらには、実空間41に存在するその他の実物体と交差するかどうかを判定する。
In step S <b> 15, the shadow
ステップS16において、影情報生成部64は、直線Liが利用者1その他の実物体と交差すると判定した場合、注目画素IBiが影の影響を受ける旨の影情報を、画素値設定部65に供給して、ステップS17に進む。
In step S <b> 16, when the shadow
ここで、直線Liが利用者1その他の実空間41に存在する実物体と交差する場合、光源13からの光が利用者1その他の実空間41に存在する実物体に遮られ、利用者1その他の実空間41に存在する実物体の影ができるということである。
Here, when the straight line L i intersects with a real object existing in the
そこで、ステップS17において、画素値設定部65は、影情報生成部64から影の影響を受ける旨の影情報が供給されると、受信部11から供給される注目フレームの画像情報Dbを構成する注目画素IBiの画素値を変更する。即ち、画素値設定部65は、例えば、RGB(Red Green Blue)値で、注目画素IBiの画素値が表される場合、そのRGB値を減らし、減らされた注目画素IBiの画素値を、注目画素IBiの新しい画素値としてステップS17からステップS19に進む。このように、注目画素IBiの画素値を減らすことにより、影の影響の分だけ暗くなった画像が表現される。なお、直線Liが利用者1その他の実物体と交差する場合、その交差する位置が利用者1その他の実物体の周辺部であるとき、画素値を減らす量を少なくして、影の周辺部をぼかすような処理を採用することができる。
In step S17, when the shadow information indicating that the pixel
一方、ステップS16において、影情報生成部64は、直線Liが利用者1その他の実空間41に存在する実物体と交差しないと判定した場合、注目画素IBiが影の影響を受けない旨の影情報を、画素値設定部65に供給して、ステップS18に進む。ステップS18において、画素値設定部65は、影情報生成部64から影の影響を受けない旨の影情報が供給されると、注目画素IBiの画素値を、そのまま新しい画素値として、ステップS19に進む。なお、注目画素IBiの画素値がそのままとされることにより、影の影響を受けてない画像が表現される。
On the other hand, if the shadow
ステップS19において、画素選択部62は、変数iが注目フレームの最終の画素を表しているかどうか、即ち、変数iが注目フレームを構成する画素数に等しいかどうかを判定する。ステップS19において、変数iが注目フレームを構成する画素数に等しくないと判定された場合、ステップS20に進み、画素選択部62は、変数iを1だけインクリメントし、ステップS13に戻り、以下同様の処理が繰り返される。一方、ステップS19において、変数iが注目フレームを構成する画素数に等しいと判定された場合、新しい画素値で構成される注目フレームの画像が得られた場合、リターンして、図2のステップS5に進む。
In step S19, the
なお、上述したステップS13乃至ステップS18の処理は、各画素について独立に行われ、変数iを順次インクリメントして処理を行うのではなく、全画素(または、一部の画素)に対して、並列的に処理を行うようにすることも可能である。 Note that the processes in steps S13 to S18 described above are performed independently for each pixel, and are not performed by sequentially incrementing the variable i, but are performed in parallel for all pixels (or some pixels). It is also possible to perform processing automatically.
図2のステップS5では、以上のようにして得られた新しい画素値で構成される注目フレームの画素が、画像生成部10から表示制御部9に供給される。
In step S5 in FIG. 2, the pixel of the target frame configured with the new pixel value obtained as described above is supplied from the
以上から、利用者1(利用者21)は、表示部8(表示部28)の表示画面において、通信相手である利用者(利用者1)の環境に自分自身の影が映りこんだ画像を観察することができる。これにより、利用者1(利用者21)は、表示部8(表示部28)の表示画面があたかも通信相手である利用者21(利用者1)との間にある「窓」であるように感じられ、通信相手が実際に目の前にいるような臨場感を感じながらコミュニケーションを図ることができる。 From the above, the user 1 (user 21) displays an image in which his / her own shadow is reflected in the environment of the user (user 1) as the communication partner on the display screen of the display unit 8 (display unit 28). Can be observed. As a result, the user 1 (user 21) is as if the display screen of the display unit 8 (display unit 28) is a “window” between the user 21 (user 1) who is the communication partner. It is possible to communicate while feeling a sense of reality as if the communication partner is actually in front of you.
図10は、本発明を適用した通信システムの第2実施の形態の構成例を示すブロック図である。なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。 FIG. 10 is a block diagram showing a configuration example of a second embodiment of a communication system to which the present invention is applied. In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
図10の通信システムは、基本的には、図1の通信システムと同様に構成されている。 The communication system of FIG. 10 is basically configured similarly to the communication system of FIG.
但し、図1の実施の形態では、情報処理装置2の表示部8に表示する画像を、情報処理装置2の画像生成部10で生成するとともに、情報処理装置22の表示部28で表示する画像を、情報処理装置22の画像生成部30で生成するようになっていたが、図10の実施の形態では、情報処理装置2の表示部8に表示する画像を、情報処理装置22の画像処理装置30で生成し、情報処理装置22から情報処理装置2に送信するとともに、情報処理装置22の表示部28で表示する画像を、情報処理装置2の画像生成部10で生成し、情報処理装置2から情報処理装置22に送信するようになっている。
However, in the embodiment of FIG. 1, an image to be displayed on the
即ち、図10では、利用者21の画像に利用者1の影を反映した画像(以下、適宜、影画像E1という)が、画像生成部10ではなく、画像生成部30で生成される。また、利用者1の画像に利用者21の影を反映した画像(以下、適宜、影画像E21という)が、画像生成部30ではなく、画像生成部10で生成される。
In other words, in FIG. 10, an image in which the shadow of the
そして、図10の実施の形態では、情報処理装置2は、情報処理装置22から送信されてくる画像を、そのまま表示部8で表示し、情報処理装置22は、情報処理装置2から送信されてくる画像を、そのまま表示部28で表示するようになっている。
In the embodiment of FIG. 10, the
このため、図10においては、情報処理装置2を構成する撮像カメラ6は、実空間41の撮像により得られた画像信号を、画像情報Daとして画像生成部10に供給する。
Therefore, in FIG. 10, an
送信部7は、検出部3を構成する検出器5から供給される利用者1の三次元情報Ca、情報記憶部12に記憶された光源情報、画像生成部10から供給される影画像E21を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信する。
The
表示制御部9は、受信部11から供給される、情報処理装置22から送信されてくる影画像E1に所定の処理を施して表示部8に供給して表示させる。
The
画像生成部10には、検出部3を構成する検出器5から利用者1の三次元情報Caが、撮像カメラ6から画像情報Daが、受信部11から、情報処理装置22から送信されてきた三次元情報Cbおよび光源33の光源情報が、それぞれ供給される。画像生成部10は、検出器5から供給される利用者1の三次元情報Ca、撮像カメラ6から供給される画像情報Da、受信部11から供給される三次元情報Cbおよび光源33の光源情報を用いて、利用者1が表示された画像情報Daに利用者21の影が映しこまれた影画像E21を生成し、送信部7に供給する。
The
受信部11は、ネットワーク40を介して、情報処理装置22を構成する送信部27から送信されてくる実空間42の三次元情報Cb、光源33の光源情報、利用者21が表示された画像情報Daに利用者1の影が映しこまれた影画像E1などを受信する。さらに、受信部11は、三次元情報Cb、および光源33の光源情報を、画像生成部10に、影画像E1を表示制御部9に、それぞれ供給する。
The reception unit 11 displays the three-dimensional information C b of the
図10において、図1の場合と同様に、利用者21、情報処理装置22、光源33、実空間42は、利用者1、情報処理装置2、光源13、実空間41にそれぞれ対応している。情報処理装置22は、情報処理装置2を構成する検出部3、カメラ4−1,カメラ4−2、検出部5、撮像カメラ6、送信部7、表示部8、表示制御部9、画像生成部10、受信部11、情報記憶部12とそれぞれ同様の、検出部23、カメラ24−1,カメラ24−2、検出部25、撮像カメラ26、送信部27、表示部28、表示制御部29、画像生成部30、受信部31、情報記憶部32から構成されている。
10, the
上述したように、図10では、影画像E1が画像生成部10ではなく、画像生成部30で生成され、情報処理装置22から情報処理装置2に送信されて、情報処理装置2で表示される。同様に、影画像E21が画像生成部30ではなく、画像生成部10で生成され、情報処理装置2から情報処理装置22に送信されて、情報処理装置22で表示される。
As described above, in FIG. 10, the shadow image E 1 is generated not by the
いま、画像生成部10と画像生成部30のうちの、例えば、影画像E1を生成する画像生成部30に注目すると、画像生成部30において、影画像E1を生成するためには、情報処理装置22で得られる三次元情報Cbおよび画像情報Db他に、情報処理装置2で得られる(得られている)三次元情報Caと光源13の光源情報が必要である。また、情報処理装置22の画像生成部30で生成された影画像E1を、情報処理装置2の表示部8で表示するには、影画像E1を、情報処理装置22から情報処理装置2に送信することが必要である。
Now, when attention is paid to, for example, the
このため、情報処理装置22では、情報処理装置2から三次元情報Caと光源13の光源情報を受信して、影画像E1を生成し、情報処理装置2に送信する画像送信処理が行われる。
For this reason, the information processing device 22 receives the three-dimensional information C a and the light source information of the
一方、情報処理装置2では、情報処理装置22に、三次元情報Caと光源13の光源情報を送信し、情報処理装置22から送信されてくる影画像E1を受信して表示部8に表示する画像受信処理が行われる。
On the other hand, the
なお、情報処理装置22による画像送信処理と、情報処理装置2による画像受信処理は、情報処理装置2において、影画像E1を表示するために行われる。従って、情報処理装置22において、影画像E21を表示するためには、情報処理装置2において画像送信処理を行うとともに、情報処理装置22において、画像受信処理を行う必要がある。即ち、情報処理装置2において、影画像E1を表示するとともに、情報処理装置22において影画像E21を表示するために、情報処理装置2と情報処理装置22のいずれにおいても、画像受信処理と画像送信処理が行われる。
Note that the image transmission processing by the information processing device 22 and the image reception processing by the
図11は、図10の情報処理装置2と情報処理装置22が行う画像送信処理を説明するフローチャートである。なお、ここでは、情報処理装置22で行われる画像送信処理として説明する。
FIG. 11 is a flowchart illustrating an image transmission process performed by the
図11の画像送信処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。
The image transmission process in FIG. 11 is started when a communication link is established between the
ステップS31において、受信部31は、ネットワーク40を介して、他の装置、即ち、情報処理装置2を構成する送信部7から送信されてくる実空間41の三次元情報Ca、および光源13の光源情報を受信することにより取得し、画像生成部30に供給して、ステップS32に進む。
In step S <b> 31, the
ステップS32において、カメラ24−1とカメラ24−2は、実空間42を撮像し、その結果得られる画像を、検出器25に供給する。さらに、ステップS32では、検出器25は、カメラ24−1とカメラ24−2それぞれから供給された画像から、実空間42の三次元情報Cbを検出することにより取得し、送信部27と画像生成部30に供給して、ステップS33に進む。なお、検出部25から送信部27に供給された三次元情報Cbは、ネットワーク40を介して、情報処理装置2に送信される。
In step S <b> 32, the camera 24-1 and the camera 24-2 image the
ステップS33において、撮像カメラ26は、実空間42を撮像し、これにより、利用者21および利用者21を取り巻く背景などの画像を取得し、画像情報Dbとして画像生成部30に供給して、ステップS34に進む。
In step S33, the
ステップS34において、画像生成部30は、ステップS31で受信部31から供給された三次元情報Caおよび光源13の光源情報、ステップS32で検出器25から供給された三次元情報Cb、並びにステップS33で撮像カメラ26から供給された画像情報Dbに基づき、情報処理装置2を構成する表示部8の表示画面の後方に実空間42が位置していると仮定した場合に、実空間41が実空間42に及ぼす影響を反映した画像を生成する処理、即ち、例えば、光源13により生じる利用者1の影を反映させた画像信号を生成する影生成処理を、図6乃至図9で説明したようにして行う。さらに、画像生成部30は、生成した画像信号である影画像E1を、送信部27に供給して、ステップS35に進む。なお、ステップS34の影生成処理の詳細は、図9で説明したものと同様であるので、その説明は省略する。
In step S34, the
ステップS35において、送信部27は、画像生成部30から供給された利用者1の影などを反映させた画像信号である影画像E1を、ネットワーク40を介して、情報処理装置2を構成する受信部11に送信して、ステップS36に進む。
In step S <b> 35, the transmission unit 27 configures the
ステップS36において、送信部27または受信部31が、情報処理装置2との間の通信リンクが切断されたかどうかを判定する。ステップS36において、通信リンクが切断されていないと判定された場合、ステップS31に戻り、以下、同様の処理が繰り返される。また、ステップS36において、通信リンクが切断されたと判定された場合、処理を終了する。
In step S <b> 36, the transmission unit 27 or the
なお、図11の画像送信処理において、ステップS31乃至S33それぞれの処理は時系列に処理されてもよいし、また、並列して処理されてもよい。 In the image transmission process of FIG. 11, the processes of steps S31 to S33 may be processed in time series or may be processed in parallel.
図12は、図10の情報処理装置2と情報処理装置22が行う画像受信処理を説明するフローチャートである。なお、ここでは、情報処理装置2で行われる画像受信処理として説明する。
FIG. 12 is a flowchart illustrating image reception processing performed by the
図12の画像受信処理は、情報処理装置2と情報処理装置22との間に通信リンクが確立されると開始される。
The image reception process in FIG. 12 is started when a communication link is established between the
撮像カメラ6、および検出部3を構成するカメラ4−1とカメラ4−2それぞれは、実空間41の撮像を開始し、その撮像により得られる実空間41内の利用者1および利用者1を取り巻く背景などの画像を出力する。カメラ4−1とカメラ4−2が出力する画像は、検出器5に供給される。撮像カメラ6が出力する画像は、画像情報Daとして画像生成部10に供給される。
The
ステップS41において、検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを検出し、送信部7に供給して、ステップS42に進む。
In step S41, the
ステップS42において、情報記憶部12は、光源13の光源情報を送信部7に供給する。
In step S <b> 42, the
ステップS43において、送信部7は、検出器5から供給された三次元情報Caと、情報記憶部12から供給された光源13の光源情報を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信して、ステップS44に進み、受信部11は、情報処理装置22から影画像E1が送信されてきたかどうかを判定する。
In step S < b > 43, the
ステップS44において、情報処理装置22から影画像E1が送信されてきていないと判定された場合、ステップS44に戻り、以下、同様の処理を繰り返す。一方、ステップS44において、情報処理装置22から影画像E1が送信されてきたと判定された場合、即ち、図11のステップS35で、情報処理装置22の送信部27が影画像E1を送信した場合、ステップS45に進み、受信部11が、情報処理装置22の送信部27から送信されてきた影画像E1を受信し、表示制御部9に供給して、ステップS46に進む。
In step S44, if the shadow image E 1 is determined not to have been transmitted from the information processing apparatus 22 returns to step S44, and repeats similar processing. On the other hand, when it is determined in step S44 that the shadow image E 1 has been transmitted from the information processing apparatus 22, that is, in step S35 of FIG. 11, the transmission unit 27 of the information processing apparatus 22 transmits the shadow image E 1 . If, the process proceeds to step S45, the receiving unit 11 receives a shadow image E 1 transmitted from the transmitter 27 of information processing device 22, and supplies the
ステップS46において、表示制御部9は、受信部11から供給された影画像E1に所定の処理を施して表示部8に供給して表示させ、ステップS47に進む。
In step S46, the
ステップS47において、送信部7または受信部11が、情報処理装置22との間の通信リンクが切断されたかどうかを判定する。ステップS47において、通信リンクが切断されていないと判定された場合、ステップS41に戻り、以下、同様の処理が繰り返される。また、ステップS41において、通信リンクが切断されたと判定された場合、処理を終了する。
In step S <b> 47, the
図13を参照して、情報処理装置22による図11の画像送信処理と、情報処理装置2による図12の画像受信処理について、さらに説明する。
With reference to FIG. 13, the image transmission process of FIG. 11 by the information processing apparatus 22 and the image reception process of FIG. 12 by the
ステップS41において、情報処理装置2の検出器5は、カメラ4−1とカメラ4−2それぞれから供給された画像から、実空間41の三次元情報Caを検出し、送信部7に供給して、ステップS42に進む。
In step S41, the
ステップS42において、情報記憶部12は、光源13の光源情報を送信部7に供給する。
In step S <b> 42, the
ステップS43において、送信部7は、検出器5から供給された三次元情報Ca、情報記憶部12から供給された光源13の光源情報を、ネットワーク40を介して、情報処理装置22を構成する受信部31に送信する。そして、ステップS44に進み、受信部11は、情報処理装置22から影画像E1が送信されてきたかどうかを判定する。
In step S < b > 43, the
一方、情報処理装置22の受信部31は、ステップS31において、情報処理装置2の送信部7がステップS43で送信してくる三次元情報Caおよび光源13の光源情報を受信し、画像生成部30に供給する。
On the other hand, in step S31, the
また、情報処理装置22の検出部23は、ステップS32において、カメラ24−1とカメラ24−2から供給される画像から、実空間42の三次元情報Cbを検出し、画像生成部30に供給する。
The detection unit 23 of the information processing apparatus 22, in step S32, the image supplied from the camera 24-1 and the camera 24-2, detects three-dimensional information C b of the
さらに、情報処理装置22の撮像カメラ26は、ステップS33において、実空間42を撮像して得られる画像情報Dbを画像生成部30に供給する。
Further, the
そして、ステップS34において、情報処理装置22の画像生成部30は、受信部31から供給された三次元情報Caおよび光源13の光源情報、検出器25から供給された三次元情報Cb、並びに撮像カメラ26から供給された画像情報Dbに基づき、影画像E1を生成し、送信部27に供給して、ステップS35に進む。
In step S34, the
そして、送信部27は、ステップS35において、画像生成部30から供給された影画像E1を情報処理装置2を構成する受信部11に送信し、ステップS36に進む。
Then, the transmission unit 27, in step S35, sends a shadow image E 1 supplied from the
これを受けて、情報処理装置2の受信部11では、ステップS44において、情報処理装置22から影画像E1が送信されてきたと判定され、ステップS45に進み、その影画像E1が受信され、表示制御部9に供給される。
In response to this, the reception unit 11 of the
そして、ステップS46において、情報処理装置2の表示制御部9は、受信部11から供給された影画像E1に所定の処理を施して表示部8に供給して表示させ、ステップS47に進む。
Then, in step S46, the
ステップS36とステップS47において、情報処理装置2と情報処理装置22との間の通信リンクが切断されたかどうかが判定され、通信リンクが切断されていないと判定された場合、ステップS31とステップS41に戻り、情報処理装置2と情報処理装置22は、それぞれ同様の処理を繰り返す。また、ステップS36とステップS47において、通信リンクが切断されたと判定された場合、情報処理装置2と情報処理装置22は、処理を終了する。
In step S36 and step S47, it is determined whether or not the communication link between the
図10の実施の形態においても、表示部8には影画像E1が表示され、表示部28には影画像E21が表示されるので、通信相手が実際に目の前にいるような臨場感を感じながら相互にコミュニケーションを図ることができる。
Also in the embodiment of FIG. 10, the shadow image E 1 is displayed on the
また、画像生成部10や画像生成部30では、特殊なセンサ等の機器を必要とせず、単に画像処理を行うだけで、即ち、安価かつ簡単な構成で臨場感あふれる画像を生成することができる。
In addition, the
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。 The series of processes described above can be executed by hardware, but can also be executed by software.
上述した一連の処理をソフトウェアで実行させる場合、画像生成部10や画像生成部30は、例えば、図14に示されるようなコンピュータなどとして構成することが可能である。
When the above-described series of processing is executed by software, the
即ち、図14は、コンピュータのベースとして構成した情報処理装置2(または情報処理装置22)の構成例を示している。 That is, FIG. 14 shows a configuration example of the information processing apparatus 2 (or information processing apparatus 22) configured as a computer base.
図14において、CPU(Central Processing Unit)71は、ROM(Read Only Memory)72に記憶されているプログラム、または記憶部78からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。
In FIG. 14, a CPU (Central Processing Unit) 71 executes various processes according to a program stored in a ROM (Read Only Memory) 72 or a program loaded from a
RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
The
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。
The
入出力インタフェース75には、キーボード、マウスなどよりなる入力部76、ディスプレイなどよりなる出力部77、ハードディスクなどより構成される記憶部78、および通信部79が接続されている。
The input /
入出力インタフェース75にはまた、必要に応じてドライブ82が接続され、磁気ディスク83、光ディスク84、光磁気ディスク85、或いは半導体メモリ86が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部78にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、図14のコンピュータに、プログラム格納媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software is installed from the program storage medium in the computer of FIG.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図14に示すように、磁気ディスク83(フロッピディスクを含む)、光ディスク84(CD-ROM(Compact Disk-Read Only Memory)、DVD(Digital Versatile Disk)を含む)、光磁気ディスク85(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリ86などよりなるパッケージメディア、または、プログラムが一時的もしくは永続的に格納されるROM72や、記憶部78を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 14, a program storage medium for storing a program installed in a computer and ready to be executed by the computer includes a magnetic disk 83 (including a floppy disk), an optical disk 84 (CD-ROM (Compact Disk- Package media, such as Read Only Memory (DVD) (including Digital Versatile Disk), magneto-optical disk 85 (including MD (Mini-Disk) (registered trademark)), or
さらに、入出力インタフェース75には、カメラ80と検出部81が接続されている。
Further, a
図14において、出力部77、記憶部78、通信部79、カメラ80、検出部81は、図1の表示部8、情報記憶部12、送信部7および受信部11、撮像カメラ6、検出部3にそれぞれ対応する。
14, the
検出部81は、検出部3を構成するカメラ4−1,カメラ4−2、検出器5とそれぞれ同様のカメラ81−1とカメラ81−2、検出器81−3から構成されている。
The
CPU71は、記憶部78にインストールされているプログラムを実行することにより、画像生成部10が行う処理を実行する。
The
なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、検出部3は、上述した構成の他、例えば、三次元情報を検出することができる1台のカメラから供給される画像により三次元情報を検出する構成とすることができる。即ち、例えば、レンズで撮像することができる範囲である画角や、レンズに入射した平行光線が一点に集光しない、色がにじむ、像がゆがむといった収差の度合いなどが、カメラのパラメータとしてあらかじめ得ることができる場合、たとえば、撮像された人の頭などの被写体の大きさから、その被写体が位置する地点までの距離を推測することができ、さらに、撮像画像内に映っている相対的な被写体の位置から、実際に被写体が位置する地点の方向を推測することができる。撮像された被写体の距離と方向を求めることができれば、被写体の三次元空間上の位置を求めることができる。
In addition to the configuration described above, the
さらに、検出部3の構成としては、例えば、レーザを照射することにより、三角測量で物体の位置を計測する構成を採用することもできる。
Furthermore, as a configuration of the
また、撮像カメラ6は、検出部3を構成するカメラ4−1とカメラ4−2のうちの1つのカメラと兼用することができる。
The
なお、情報処理装置2において、影生成処理に用いる光源情報としては、実際の光源13の光源情報ではなく、仮想的な光源の光源情報を採用することができる。また、本実施の形態にでは、光源13の光源情報を、情報記憶部12にあらかじめ記憶させておくようにしたが、光源13の光源情報は、検出することが可能である。
In the
即ち、検出器5では、カメラ4−1とカメラ4−2により撮像された画像に光源13が撮像されている場合、その光源13の三次元情報を検出し、その三次元情報を光源情報として画像生成部10に供給することができる。さらに、検出器5では、カメラ4−1とカメラ4−2により撮像された画像に光源13が撮像されていない場合には、例えば、光源13の光により利用者1の周囲に投影されている影などから光源13の位置などの三次元情報を推定し、その三次元情報を光源情報として画像生成部10に供給することができる。
That is, in the
本発明は、例えば、テレビジョン会議システム、テレビジョン電話システム、その他の画像をやりとりしながら、コミュニケーションを図るツールに適用することができる。 The present invention can be applied to, for example, a teleconferencing system, a videophone system, and other tools for communicating while exchanging images.
1 利用者, 2 画像処理装置, 3 検出部, 4−1 カメラ, 4−2 カメラ, 5 検出器, 6 撮像カメラ, 7 送信部, 8 表示部, 9 表示制御部, 10 画像生成部, 11 受信部, 12 情報記憶部, 13 光源, 21 利用者, 22 情報処理装置23 検出部, 24−1 カメラ, 24−2 カメラ, 25 検出器, 26 撮像カメラ, 27 送信部, 28 表示部, 29 表示制御部, 30 画像生成部, 31 受信部, 32 情報記憶部, 33 光源, 40 ネットワーク, 41 実空間, 42 実空間, 61 三次元情報展開部, 62 画素選択部, 63 画素位置決定部, 64 影情報生成部, 65 画素値設定部, 71 CPU, 72 ROM, 73 RAM, 74 バス, 75 入出力インタフェース, 76 入力部, 77 出力部, 78 記憶部, 79 通信部, 80 カメラ, 81 検出部, 81−1 カメラ, 81−2 カメラ, 81−3 検出器, 82 ドライブ, 83 磁気ディスク, 84 光ディスク, 85 光磁気ディスク, 86 半導体メモリ
DESCRIPTION OF
Claims (9)
前記第1の実空間と異なる位置の第2の実空間の第2の三次元情報および前記第2の実空間を撮像して得られる第1の画像を取得する第2の取得手段と、
前記第1の取得手段により取得された前記第1の三次元情報、並びに前記第2の取得手段により取得された前記第2の三次元情報および前記第1の画像に基づき、前記表示画面の後方に前記第2の実空間が位置していると仮定した場合に、前記第1の実空間が前記第2の実空間に及ぼす影響を反映した第2の画像を生成する生成手段と
を備えることを特徴とする画像処理装置。 First acquisition means for acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed;
Second acquisition means for acquiring second three-dimensional information of the second real space at a position different from the first real space and a first image obtained by imaging the second real space;
Based on the first three-dimensional information acquired by the first acquisition means and the second three-dimensional information acquired by the second acquisition means and the first image, the rear of the display screen And generating means for generating a second image reflecting the influence of the first real space on the second real space when it is assumed that the second real space is located at An image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising display control means for displaying the second image generated by the generation means on the display screen.
所定の光源により生じる前記第1の実空間に存在する実物体の影である
ことを特徴とする請求項1に記載の画像処理装置。 The influence of the first real space on the second real space is
The image processing apparatus according to claim 1, wherein the image processing apparatus is a shadow of a real object existing in the first real space generated by a predetermined light source.
ことを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the predetermined light source is a virtual light source.
前記実際の光源を検出する検出手段をさらに備える
ことを特徴とする請求項3に記載の画像処理装置。 The predetermined light source is an actual light source existing in the first real space;
The image processing apparatus according to claim 3, further comprising detection means for detecting the actual light source.
前記第2の取得手段は、前記第2の三次元情報と第1の画像を、他の装置から受信することにより取得する
ことを特徴とする請求項1に記載の画像処理装置。 The first acquisition means acquires the first three-dimensional information by detecting the first three-dimensional information from the first real space,
The image processing apparatus according to claim 1, wherein the second acquisition unit acquires the second three-dimensional information and the first image from another apparatus.
前記第2の取得手段は、前記第2の三次元情報を、前記第2の実空間から検出することにより取得するとともに、前記第1の画像を、前記第2の実空間を撮像することにより取得する
ことを特徴とする請求項1に記載の画像処理装置。 The first acquisition means acquires the first three-dimensional information by receiving it from another device,
The second acquisition means acquires the second three-dimensional information by detecting the second real space from the second real space, and captures the first image by imaging the second real space. The image processing apparatus according to claim 1, wherein the image processing apparatus acquires the image processing apparatus.
前記第1の実空間と異なる位置の第2の実空間の第2の三次元情報および前記第2の実空間を撮像して得られる第1の画像を取得する第2の取得ステップと、
前記第1の取得ステップにより取得された前記第1の三次元情報、並びに前記第2の取得手段により取得された前記第2の三次元情報および前記第1の画像に基づき、前記表示画面の後方に前記第2の実空間が位置していると仮定した場合に、前記第1の実空間が前記第2の実空間に及ぼす影響を反映した第2の画像を生成する生成ステップと
を含むことを特徴とする画像処理方法。 A first acquisition step of acquiring first three-dimensional information of a first real space in front of a display screen on which an image is displayed;
A second acquisition step of acquiring second three-dimensional information of the second real space at a position different from the first real space and a first image obtained by imaging the second real space;
Based on the first three-dimensional information acquired by the first acquisition step, the second three-dimensional information acquired by the second acquisition means, and the first image, the rear of the display screen Generating a second image reflecting the influence of the first real space on the second real space, assuming that the second real space is located at An image processing method characterized by the above.
ことを特徴とするコンピュータにより読み取り可能なプログラム。 The first three-dimensional information of the first real space in front of the display screen on which the image is displayed, the second three-dimensional information of the second real space at a position different from the first real space, and the first When it is assumed that the second real space is located behind the display screen based on the first image obtained by imaging the second real space, the first real space is the second A computer-readable program comprising a generation step of generating a second image reflecting the effect on the real space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307188A JP2005078313A (en) | 2003-08-29 | 2003-08-29 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307188A JP2005078313A (en) | 2003-08-29 | 2003-08-29 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005078313A true JP2005078313A (en) | 2005-03-24 |
Family
ID=34410053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003307188A Withdrawn JP2005078313A (en) | 2003-08-29 | 2003-08-29 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005078313A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1702953A2 (en) | 2005-03-18 | 2006-09-20 | Kinugawa Rubber Industrial Co., Ltd., | Polymeric composition, polymer-extruded article and weather strip for automotive vehicle |
JP2011513871A (en) * | 2008-03-10 | 2011-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for modifying a digital image |
JP2014057217A (en) * | 2012-09-12 | 2014-03-27 | Fujitsu Ltd | Device, method and program for encoding moving image, and moving image communication device |
JP2017058625A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
-
2003
- 2003-08-29 JP JP2003307188A patent/JP2005078313A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1702953A2 (en) | 2005-03-18 | 2006-09-20 | Kinugawa Rubber Industrial Co., Ltd., | Polymeric composition, polymer-extruded article and weather strip for automotive vehicle |
JP2011513871A (en) * | 2008-03-10 | 2011-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for modifying a digital image |
US8847956B2 (en) | 2008-03-10 | 2014-09-30 | Koninklijke Philips N.V. | Method and apparatus for modifying a digital image |
JP2014057217A (en) * | 2012-09-12 | 2014-03-27 | Fujitsu Ltd | Device, method and program for encoding moving image, and moving image communication device |
JP2017058625A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7957581B2 (en) | Image processing apparatus and method | |
JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
US6781606B2 (en) | System and method for displaying images using foveal video | |
US6549215B2 (en) | System and method for displaying images using anamorphic video | |
US11089265B2 (en) | Telepresence devices operation methods | |
US10554928B2 (en) | Telepresence device | |
US7643064B1 (en) | Predictive video device system | |
WO2017094543A1 (en) | Information processing device, information processing system, method for controlling information processing device, and method for setting parameter | |
JP2011513871A (en) | Method and apparatus for modifying a digital image | |
JP4539015B2 (en) | Image communication apparatus, image communication method, and computer program | |
JP2008140271A (en) | Interactive device and method thereof | |
JP7196421B2 (en) | Information processing device, information processing system, information processing method and program | |
WO2017141584A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP2011113206A (en) | System and method for video image communication | |
JP2003009108A (en) | Picture communication system, picture communication equipment and picture communication method | |
JPWO2009119288A1 (en) | Communication system and communication program | |
JP4595313B2 (en) | Imaging display apparatus and method, and image transmission / reception system | |
JP2005078313A (en) | Image processing apparatus, image processing method, and program | |
JP4373645B2 (en) | Video distribution system, program, and recording medium | |
JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
JP2005142765A (en) | Apparatus and method for imaging | |
JP5509986B2 (en) | Image processing apparatus, image processing system, and image processing program | |
JP5326816B2 (en) | Remote conference system, information processing apparatus, and program | |
US20200252585A1 (en) | Systems, Algorithms, and Designs for See-through Experiences With Wide-Angle Cameras | |
JP2002027419A (en) | Image terminal device and communication system using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061107 |