JP2001268595A - Video display method and video display device - Google Patents

Video display method and video display device

Info

Publication number
JP2001268595A
JP2001268595A JP2000073489A JP2000073489A JP2001268595A JP 2001268595 A JP2001268595 A JP 2001268595A JP 2000073489 A JP2000073489 A JP 2000073489A JP 2000073489 A JP2000073489 A JP 2000073489A JP 2001268595 A JP2001268595 A JP 2001268595A
Authority
JP
Japan
Prior art keywords
speaker
target object
display device
distance
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000073489A
Other languages
Japanese (ja)
Inventor
Toshifumi Kanamaru
利文 金丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telecommunications Advancement Organization
Original Assignee
Telecommunications Advancement Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telecommunications Advancement Organization filed Critical Telecommunications Advancement Organization
Priority to JP2000073489A priority Critical patent/JP2001268595A/en
Publication of JP2001268595A publication Critical patent/JP2001268595A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To simply express a below mentioned space without losing presence when persons who are not at the same position perform communication as if they share the same space. SOLUTION: Three-dimensional structure information is required to be extracted to express an object existing in the space without losing the presence, however, three-dimensional structure is approximated in a plane and arranged in the space like a backdrop placed on a stage for the object distant to some extent. Thus, the distance to the object distant to some extent is measured by a distance measuring device 51 and a plane approximated parameter is calculated by using measured distance data by a plane parameter calculating means 53. A video signal S56 of the approximated plane is generated from the calculated plane approximated parameter and image data photographed by an image photographing device 54 by a video generating means 56 are three- dimensionally displayed on a first display device 30-1 as a three-dimensional display device. Thus, simple display of the object in consideration of the three- dimensional structure is enabled.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像信号の共有空
間構築用構造情報を抽出する等して立体映像を簡易に表
示し、空間共有コミュニケーションの高能率化を図る映
像表示方法及び映像表示装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display method and an image display apparatus for easily displaying a stereoscopic image by extracting structural information for constructing a shared space of an image signal and improving the efficiency of space sharing communication. It is about.

【0002】[0002]

【従来の技術】同じ場所にいない者同士があたかも同じ
場所にいるかのごとく通信をする際に(即ち、同じ地点
にいない者同士が同じ空間を共有するがごとくに通信を
する際に)、共有する空間を共有空間と呼ぶ。従来、こ
のような共有空間内の映像は例えばコンピュータグラフ
ィックスで表現されていたが、最近ではコンピュータの
高速化に伴い、実写映像を取り入れる試みが増えてき
た。共有空間において通信をする人が臨場感を感じるた
めには、映像が3次元構造を持って表現(表示)されて
いることが必要である。
2. Description of the Related Art When people who are not in the same place communicate with each other as if they were in the same place (that is, when people who are not in the same place communicate as if they share the same space). This space is called a shared space. Conventionally, images in such a shared space have been represented by, for example, computer graphics, but recently, with the speeding-up of computers, attempts to incorporate live-action images have increased. In order for a person who communicates in the shared space to feel a sense of reality, it is necessary that the video is represented (displayed) with a three-dimensional structure.

【0003】従来、このような映像表示方法あるいは映
像表示装置としては、例えば、次のような文献に記載さ
れるものがあった。 文献1: 日本バーチャルリアリティ学会第3回大会論
文集、 (1998-8) 横光澄男、大隅隆史、竹村治雄、横矢直和 「多視点ス
テレオ実画像を用いた仮想空間の構築に関する一検討」
P.223-224
Conventionally, such an image display method or an image display apparatus has been described in, for example, the following literature. Reference 1: Proceedings of the 3rd Annual Meeting of the Virtual Reality Society of Japan, 3 (1998-8) Sumio Yokomitsu, Takashi Osumi, Haruo Takemura, Naokazu Yokoya "A Study on Construction of Virtual Space Using Multi-view Stereo Real Images"
P.223-224

【0004】図2は、前記文献1に記載された従来の映
像表示装置を示す構成図である。この映像表示装置は、
撮影装置で撮影された映像信号の共有空間構築用構造情
報を抽出する映像処理装置10と、抽出された構造情報
に基づき、3次元(立体)の映像を表示する表示装置2
0とを備えている。映像処理装置10は、対象物体(オ
ブジェクト)の左画像S1l を撮影する左画像撮影装置
11−1と、真中画像S1b を撮影する真中画像撮影装
置11−2と、右画像S1r を撮影する右画像撮影装置
11−3と、画像の補正・特徴領域抽出装置12−1〜
12−3と、特徴領域での対応点探索・視差マップの作
成装置13−1,13−2と、特徴領域での視差マップ
の統合装置14と、視差マップの補間・3次元情報の生
成装置15とから構成されている。
FIG. 2 is a configuration diagram showing a conventional video display device described in the above-mentioned document 1. This video display device
A video processing device 10 for extracting structural information for building a shared space of a video signal captured by a video capturing device, and a display device 2 for displaying a three-dimensional (three-dimensional) video based on the extracted structural information
0. The video processing device 10 includes a left image photographing device 11-1 for photographing a left image S11 of a target object, a middle image photographing device 11-2 for photographing a middle image S1b, and a right image photographing a right image S1r. Photographing device 11-3 and image correction / feature region extraction device 12-1
12-3, devices 13-1 and 13-2 for searching for corresponding points and disparity maps in feature regions, integrating devices 14 for disparity maps in feature regions, and devices for generating interpolation and three-dimensional information of disparity maps 15.

【0005】このような構成の映像表示装置では、対象
物体の左画像S1l が左画像撮影装置11−1に撮影さ
れ、この撮影された映像信号S11−1が画像の補正・
特徴領域抽出装置12−1へ送られ、この装置12−1
で抽出された信号S12−1が、特徴領域での対応点探
索・視差マップの作成装置13−1へ送られる。対象物
体の真中画像S1b は、真中画像撮影装置11−2に撮
影され、この撮影された映像信号S11−2が画像の補
正・特徴領域抽出装置12−2へ送られ、この装置12
−2で抽出された信号S12−2a,S12−2bが、
特徴領域での対応点探索・視差マップの作成装置13−
1,13−2へ送られる。さらに、対象物体の右画像S
1r は、右画像撮影装置11−3に撮影され、この撮影
された映像信号S11−3が画像の補正・特徴領域抽出
装置12−3へ送られ、この装置12−3で抽出された
信号S12−3が、特徴領域での対応点探索・視差マッ
プの作成装置13−2へ送られる。特徴領域での対応点
探索・視差マップの作成装置13−1,13−2の出力
信号S13−1,S13−2は、特徴領域での視差マッ
プの統合装置14へ送られ、この装置14で統合された
信号S14が視差マップの補間・3次元情報の生成装置
15へ送られ、この装置15の出力信号S15が最終出
力となって表示装置20へ送られる。
In the video display device having such a configuration, the left image S11 of the target object is photographed by the left image photographing device 11-1, and the photographed video signal S11-1 is used for image correction / correction.
The information is sent to the characteristic region extraction device 12-1.
Is sent to the corresponding point search / parallax map creation device 13-1 in the characteristic region. The middle image S1b of the target object is photographed by the middle image photographing device 11-2, and the photographed video signal S11-2 is sent to the image correction / feature region extraction device 12-2,
-2, the signals S12-2a and S12-2b extracted by
Corresponding point search / parallax map creation device 13- in characteristic region
1, 13-2. Further, the right image S of the target object
1r is photographed by the right image photographing device 11-3, and the photographed video signal S11-3 is sent to the image correction / characteristic region extracting device 12-3, and the signal S12 extracted by the device 12-3. -3 is sent to the corresponding point search / parallax map creation device 13-2 in the characteristic region. The output signals S13-1 and S13-2 of the corresponding point search / parallax map creation devices 13-1 and 13-2 in the feature region are sent to the disparity map integration device 14 in the feature region. The integrated signal S14 is sent to the parallax map interpolation / three-dimensional information generation device 15, and the output signal S15 of this device 15 is sent to the display device 20 as the final output.

【0006】ここで、画像の補正・特徴領域抽出装置1
2−1〜12−3においては、各撮影装置11−1〜1
1−3から送られてきた映像信号S11−1〜S11−
3を入力し、原画像のレンズ歪を補正し、エッジ領域を
特徴領域として抽出を行い、これらの抽出信号S12−
1,S12−2a,S12−2b,S12−3を出力す
る。特徴領域での対応点探索・視差マップの作成装置1
3−1,13−2においては、抽出信号S12−1,S
12−2a,S12−2b,S12−3を入力し、テン
プレートマッチングによって対応点の検索を行い、この
検索結果の信号S13−1,S13−2を出力する。特
徴領域での視差マップの統合装置14において、真中画
像撮影装置11−2の座標系に合わせて座標変換を行
い、座標系を一致させ、この一致させた信号S14を出
力する。視差マップの補間・3次元情報の生成装置15
では、信号S14を入力し、エッジ領域のみの3次元情
報を線形補間を用いて密な面の情報に変換し、この変換
した信号S15を出力する。この出力信号S15は、表
示装置20によって3次元の立体映像が表示される。
Here, an image correction / characteristic region extraction device 1
In 2-1 to 12-3, each of the photographing apparatuses 11-1 to 11-1
Video signals S11-1 to S11- sent from 1-3
3, the lens distortion of the original image is corrected, the edge region is extracted as a characteristic region, and these extracted signals S12-
1, S12-2a, S12-2b, and S12-3 are output. Corresponding point search / parallax map creation device 1 in characteristic region
In 3-1 and 13-2, the extracted signals S12-1 and S12
12-2a, S12-2b, and S12-3 are input, corresponding points are searched by template matching, and signals S13-1 and S13-2 of the search results are output. In the disparity map integrating device 14 in the characteristic region, coordinate conversion is performed in accordance with the coordinate system of the middle image photographing device 11-2, the coordinate systems are matched, and the matched signal S14 is output. Parallax map interpolation / three-dimensional information generation device 15
Then, the signal S14 is input, the three-dimensional information of only the edge area is converted into dense surface information using linear interpolation, and the converted signal S15 is output. The output device S15 displays a three-dimensional stereoscopic image on the display device 20.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、従来の
映像表示装置では、映像信号の共有空間構築用構造情報
を抽出して表示装置20で立体映像を表示するようにな
っているので、次のような課題があった。対象物体が複
数個ある場合、これらの各対象物体の3次元構造情報を
映像処理装置10によって画一的に忠実に取得しようと
したため、この映像処理装置10を例えばコンピュータ
で構成した場合、その取得及び再構成する際に該コンピ
ュータに多大な負荷を掛けていた。そのため、共有空間
において通信するために最も重要である通信者やその近
傍の対象物体の3次元構造情報を表示装置20で充分に
表現できないといった課題があった。
However, in the conventional video display device, the structure information for building the shared space of the video signal is extracted and the display device 20 displays the stereoscopic video. Challenges. When there are a plurality of target objects, the video processing device 10 tries to uniformly and faithfully obtain the three-dimensional structure information of each of these target objects. In addition, a great load is applied to the computer at the time of reconfiguration. For this reason, there is a problem that the display device 20 cannot sufficiently express the three-dimensional structure information of a communication person and a target object near the communication person, which are most important for communication in the shared space.

【0008】このような課題を解決するために、例え
ば、次のような文献2の技術を利用することも考えられ
る。 文献2: 日本バーチャルリアリティ学会第4回大会論
文集、(1999-9) 田中利果、内山晋二、山本裕之、田村秀行 「Mid-Range
Virtualization−屋内実空間の仮想現実化のためのモデ
ル生成手法−」 P.203-206
[0008] In order to solve such a problem, for example, it is conceivable to use the technique of the following reference 2. Reference 2: Proceedings of the 4th Annual Meeting of the Virtual Reality Society of Japan, (1999-9) Toshika Tanaka, Shinji Uchiyama, Hiroyuki Yamamoto, Hideyuki Tamura "Mid-Range
Virtualization-Model Generation Method for Virtual Realization of Indoor Real Space-"P.203-206

【0009】この文献2には、映像信号の共有空間構築
用構造情報を抽出する技術が記載されている。この技術
では、例えば、数m〜十数mの中域環境内に存在する対
象物体に対する仮想化や描画を行う場合、光学的な方法
で対象物体の形状情報を実測する(即ち、距離画像を計
測する)。そして、獲得した距離画像を基にして、対象
物体の幾何モデルを構築する。この際、冗長な距離画像
データを選択・統合して描画に必要なデータ量を減らし
ている。
[0009] This reference 2 describes a technique for extracting structure information for constructing a shared space of a video signal. In this technology, for example, when virtualization or drawing is performed on a target object existing in a mid-range environment of several meters to several tens of meters, the shape information of the target object is actually measured by an optical method (that is, the distance image is measured). measure). Then, a geometric model of the target object is constructed based on the acquired distance image. At this time, redundant distance image data is selected and integrated to reduce the data amount required for drawing.

【0010】しかし、文献2の技術を利用した場合、描
画に必要なデータ量を削減できるが、距離画像データの
選択・統合処理において、手作業に頼っているところが
多く、処理が多くて複雑であるという欠点がある。この
ため、この文献2の技術を文献1の技術に適用したとし
ても、文献1のもつ課題を技術的に充分満足できる程度
に解決することが困難であった。
[0010] However, when the technique of Document 2 is used, the amount of data required for drawing can be reduced. However, the selection and integration processing of the distance image data often depends on manual work, and the processing is complicated and complicated. There is a disadvantage that there is. For this reason, even if the technique of Reference 2 is applied to the technique of Reference 1, it has been difficult to solve the problem of Reference 1 to a degree that can be technically sufficiently satisfied.

【0011】本発明は、前記従来技術がもっていた課題
を解決し、共有空間コミュニケーションの高能率化を図
った映像表示方法及び映像表示装置を提供することを目
的とする。
An object of the present invention is to provide a video display method and a video display device which solve the problems of the prior art and improve the efficiency of shared space communication.

【0012】[0012]

【課題を解決するための手段】前記課題を解決するため
に、本発明のうちの第1の発明は、異なる地点にいて相
互の通信を行う第1の話者と第2の話者のうち、該第1
の話者を含む立体の映像を表示して該第2の話者によっ
て観察される第1の表示装置と、前記第1の話者と通信
を行う前記第2の話者を含む立体の映像を表示して該第
1の話者によって観察される第2の表示装置と、前記第
1の表示装置に表示された第1の話者と前記第2の表示
装置に表示された第2の話者との間の通信情報の送受信
を行う通信手段とを備え、同じ地点にいない前記第1と
第2の話者同士が前記第1及び第2の表示装置を介して
同じ空間を共有するがごとくに通信をする空間共有通信
システムにおいて、前記第1、第2の話者の近傍外の対
象物体について、距離計測手段によって基準点からの距
離を計測し、この計測した距離データから、該対象物体
の3次元構造情報を平面で近似して抽出して表現し、前
記第1、第2の表示装置に立体的に表示するようにして
いる。
In order to solve the above-mentioned problems, a first invention of the present invention is a method of making a communication between a first speaker and a second speaker who communicate with each other at different points. , The first
A first display device displaying a stereoscopic video including the second speaker and being observed by the second speaker, and a stereoscopic video including the second speaker communicating with the first speaker And a second display device observed by the first speaker and a first speaker displayed on the first display device and a second display device displayed on the second display device. Communication means for transmitting and receiving communication information to and from a speaker, wherein the first and second speakers not located at the same point share the same space via the first and second display devices. In a space-sharing communication system that performs communication in a manner similar to that of the first and second speakers, a distance from a reference point is measured by a distance measuring means for a target object outside and in the vicinity of the first and second speakers. The three-dimensional structure information of the target object is approximated by a plane, extracted and expressed, and the first and second tables are described. And so as to three-dimensionally displayed on the device.

【0013】このような構成を採用したことにより、異
なる地点にいて相互の通信を行う第1と第2の話者と、
これらの近傍の対象物体については、例えば、第1及び
第2の表示装置でそれぞれ立体的に表示される。第1及
び第2の話者から離れた対象物体については、距離計測
手段によって基準点からの距離が計測され、この計測さ
れた距離データから、該対象物体の3次元構造情報が平
面で近似して抽出され、第1及び第2の表示装置に、例
えば、舞台装置の書割りのように配置して表示される。
[0013] By adopting such a configuration, the first and second speakers communicating with each other at different points,
These nearby target objects are displayed three-dimensionally on the first and second display devices, for example. For a target object distant from the first and second speakers, the distance from the reference point is measured by the distance measuring means, and from the measured distance data, the three-dimensional structure information of the target object is approximated in a plane. Are extracted and arranged and displayed on the first and second display devices, for example, like a book layout of a stage device.

【0014】第2の発明は、第1の発明の映像表示方法
において、前記第1、第2の話者の近傍外の対象物体に
ついて、該対象物体の領域を抽出しながら平面近似の媒
介変数(例えば、平面近似パラメータ)を求め、この媒
介変数を用いて該対象物体の3次元構造情報を平面に近
似して表現している。これにより、対象物体の領域の抽
出と同時に、平面近似の媒介変数が求められる。
According to a second aspect, in the video display method according to the first aspect, for a target object outside the vicinity of the first and second speakers, a parameter of a plane approximation is extracted while extracting a region of the target object. (For example, a plane approximation parameter) is obtained, and the three-dimensional structure information of the target object is represented by approximating the plane using the parameter. Thereby, the parameter of the plane approximation is obtained at the same time as the extraction of the region of the target object.

【0015】第3の発明は、第2の発明の映像表示方法
において、前記対象物体の全体の領域を複数の領域に分
割し、この複数の分割領域について、前記計測された距
離データと理論上の距離値との誤差が所定の閾値以下に
なるように該分割領域を統合して領域の抽出を行い、こ
の抽出した領域についての前記平面近似の媒介変数を求
めている。これにより、対象物体の全体の領域を構成す
る複数の分割領域について、誤差が所定の閾値以下にな
るように統合されて領域の抽出が行われ、この抽出され
た領域についての平面近似の媒介変数が求められる。
According to a third aspect, in the video display method according to the second aspect, the entire area of the target object is divided into a plurality of areas, and the measured distance data and the plurality of divided areas are theoretically combined. The divided regions are integrated so that an error from the distance value of the divided region is equal to or smaller than a predetermined threshold, and a region is extracted, and a parameter of the plane approximation for the extracted region is obtained. Thereby, for a plurality of divided regions constituting the entire region of the target object, regions are integrated so that an error is equal to or less than a predetermined threshold, and regions are extracted. Is required.

【0016】第4の発明は、異なる地点にいて相互の通
信を行う第1の話者と第2の話者のうち、該第1の話者
を含む立体の映像を表示して該第2の話者によって観察
される第1の表示装置と、前記第1の話者と通信を行う
前記第2の話者を含む立体の映像を表示して該第1の話
者によって観察される第2の表示装置と、前記第1の表
示装置に表示された第1の話者と前記第2の表示装置に
表示された第2の話者との間の通信情報の送受信を行う
通信手段とを備え、同じ地点にいない前記第1と第2の
話者同士が前記第1及び第2の表示装置を介して同じ空
間を共有するがごとくに通信をする空間共有通信システ
ムにおいて、次のような手段を備えている。
According to a fourth aspect of the present invention, the first speaker and the second speaker who communicate with each other at different points are displayed on a three-dimensional image including the first speaker and the second speaker. A first display device that is observed by the first speaker, and a three-dimensional image that includes the second speaker that communicates with the first speaker and that is displayed by the first speaker. And a communication unit for transmitting and receiving communication information between a first speaker displayed on the first display device and a second speaker displayed on the second display device. Wherein the first and second speakers that are not at the same point share the same space via the first and second display devices, and communicate as if they were: Means.

【0017】即ち、この第4の発明では、第1の基準点
から前記第1の話者の近傍外の対象物体までの距離を計
測して第1の距離データを出力する第1の距離計測手段
と、第2の基準点から前記第2の話者の近傍外の対象物
体までの距離を計測して第2の距離データを出力する第
2の距離計測手段と、前記第1の基準点から前記第1の
話者の近傍外の対象物体を撮影して第1の画像データを
出力する第1の撮影手段と、前記第2の基準点から前記
第2の話者の近傍外の対象物体を撮影して第2の画像デ
ータを出力する第2の撮影手段と、前記第1の話者の近
傍外の対象物体について、前記第1の距離データから、
該対象物体の形状の第1の平面近似媒介変数を算出して
出力する第1の変数算出手段と、前記第2の話者の近傍
外の対象物体について、前記第2の距離データから、該
対象物体の形状の第2の平面近似媒介変数を算出して出
力する第2の変数算出手段と、前記第1の平面近似媒介
変数によって近似した前記対象物体の位置データと前記
第1の画像データとから、映像信号を生成して前記第1
の表示装置に立体的に表示させる第1の映像生成手段
と、前記第2の平面近似媒介変数によって近似した前記
対象物体の位置データと前記第2の画像データとから、
映像信号を生成して前記第2の表示装置に立体的に表示
させる第2の映像生成手段と、を備えている。
That is, in the fourth invention, a first distance measurement for measuring a distance from a first reference point to a target object outside the vicinity of the first speaker and outputting first distance data. Means, a second distance measuring means for measuring a distance from a second reference point to a target object outside the vicinity of the second speaker and outputting second distance data, and the first reference point A first photographing means for photographing a target object outside the vicinity of the first speaker from the first speaker and outputting first image data; and an object outside the vicinity of the second speaker from the second reference point. A second photographing means for photographing an object and outputting second image data, and for a target object outside the vicinity of the first speaker, from the first distance data,
First variable calculation means for calculating and outputting a first planar approximation parameter of the shape of the target object; and for the target object outside the vicinity of the second speaker, the second distance data Second variable calculating means for calculating and outputting a second planar approximation parameter of the shape of the target object, position data of the target object approximated by the first planar approximation parameter, and the first image data From the above, the video signal is generated and the first
First image generation means for stereoscopically displaying the image on the display device, and position data of the target object approximated by the second plane approximation parameter and the second image data,
And a second video generation unit for generating a video signal and displaying the video signal three-dimensionally on the second display device.

【0018】このような構成を採用したことにより、第
1、第2の話者及びこの近傍の対象物体については、例
えば、第1、第2の表示装置に立体表示される。第1、
第2の話者から離れた対象物体については、第1、第2
の撮影手段によって撮影されて第1、第2の画像データ
がそれぞれ出力される。さらに、第1、第2の距離計測
手段により、対象物体までの距離が計測されて第1、第
2の距離データがそれぞれ出力される。出力された第
1、第2の距離データから、第1、第2の変数算出手段
よって第1、第2の平面近似媒介変数がそれぞれ算出さ
れる。第1、第2の平面近似媒介変数によって近似され
た対象物体の位置データと、第1、第2の画像データと
から、第1、第2の映像生成手段によって映像信号が生
成され、第1、第2の表示装置に、例えば舞台装置の書
割りのように配置して表示される。
By adopting such a configuration, the first and second speakers and the target object in the vicinity thereof are stereoscopically displayed on, for example, the first and second display devices. First,
For target objects distant from the second speaker, the first and second
And the first and second image data are output. Further, the distance to the target object is measured by the first and second distance measurement means, and the first and second distance data are output. From the outputted first and second distance data, first and second plane approximation parameters are calculated by first and second variable calculation means, respectively. A video signal is generated by first and second video generation means from the position data of the target object approximated by the first and second plane approximation parameters and the first and second image data. , Are arranged and displayed on the second display device, for example, like a book layout of a stage device.

【0019】第5の発明は、第4の発明の映像表示装置
において、前記第1、第2の変数算出手段は、前記第
1、第2の話者の近傍外の対象物体について、該対象物
体の領域を抽出しながら前記第1、第2の平面近似媒介
変数をそれぞれ算出する構成にしている。これにより、
第1、第2の変数算出手段によって対象物体の領域が抽
出されると同時に、第1、第2の平面近似媒介変数が算
出される。
According to a fifth aspect, in the video display apparatus according to the fourth aspect, the first and second variable calculating means are configured to determine the target object outside the vicinity of the first and second speakers. The first and second plane approximation parameters are calculated while extracting the region of the object. This allows
At the same time as the region of the target object is extracted by the first and second variable calculation means, the first and second planar approximation parameters are calculated.

【0020】[0020]

【発明の実施の形態】(実施形態の原理)図3(a)、
(b)は、本発明の実施形態の説明に用いる共有空間を
表す図である。この図3(a)、(b)では、立体映像
を表示する第1及び第2の表示装置30−1,30−2
を用いて、同一地点にいない第1の話者(例えば、女の
子)31−1と第2の話者(例えば、男の子)31−2
とが通信手段32を介して通信をしていることを表して
いる。第1、第2の表示装置30−1,30−2は、例
えば、2眼式立体表示装置のスクリーンで構成され、左
眼用と右眼用の画像信号を時分割し、この時分割画像信
号を投光器(プロジェクタ)に入力し、この投光器でス
クリーンに左眼用画像と右眼用画像とを交互に表示し、
シャッタ眼鏡等を用いてスクリーンを観察することによ
り、立体像を見ることができる構成になっている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS (Principle of the Embodiment) FIG.
(B) is a figure showing the common space used for description of embodiment of this invention. In FIGS. 3A and 3B, the first and second display devices 30-1 and 30-2 for displaying a stereoscopic image are shown.
, A first speaker (for example, a girl) 31-1 and a second speaker (for example, a boy) 31-2 that are not at the same point
Indicate that communication is being performed via the communication means 32. The first and second display devices 30-1 and 30-2 are configured by, for example, screens of a binocular stereoscopic display device, and time-divide the image signals for the left eye and the right eye. A signal is input to a projector, and the image for the left eye and the image for the right eye are alternately displayed on a screen by the projector,
The stereoscopic image can be viewed by observing the screen using shutter glasses or the like.

【0021】第1の話者31−1は第1の表示装置30
−1に立体的に表示されており、この第1の話者31−
1の非常に近くにある対象物体(例えば、立方体)31
−3も、3次元構造情報をほぼ保って表示されている。
また、対象物体(例えば、木31−4,31−5、家3
1−6)は、第1の話者31−1と相対的に遠い距離の
ところに存在するため、3次元的構造情報を完全に復元
するのではなく、平面で近似しても臨場感はあまり損な
われない。従って、図3(b)のように、板に写真を張
って舞台装置の書割りのように空間に配置することによ
り、共有空間を簡易にかつ臨場感を保って構築すること
ができる。この場合、各対象物体(例えば、木31−
4,31−5、家31−6)を平面近似し、この平面近
似した媒介変数(例えば、パラメータ)を求めることは
非常に重要な技術である。以下、その平面近似パラメー
タを求める方法について説明する。
The first speaker 31-1 is connected to the first display device 30.
-1, and the first speaker 31-
Object object (eg, cube) 31 very close to 1
-3 is also displayed while substantially maintaining the three-dimensional structure information.
In addition, target objects (for example, trees 31-4 and 31-5, house 3
Since 1-6) exists at a relatively distant distance from the first speaker 31-1, the sense of reality is not completely restored to the three-dimensional structure information but is approximated by a plane. Not too bad. Therefore, as shown in FIG. 3 (b), by placing a photograph on a board and arranging it in a space like a book layout of a stage device, a shared space can be constructed easily and with a sense of reality. In this case, each target object (for example, tree 31-
4, 31-5, house 31-6) is a very important technique for obtaining a plane-parameter (for example, a parameter) by plane approximation. Hereinafter, a method of obtaining the plane approximation parameter will be described.

【0022】図4は、本発明の実施形態の説明に用いる
立体(ステレオ)座標系を表す図である。本実施形態で
は、例えば、図3に示すように、第1の話者31−1か
ら離れた対象物体(木31−5)の形状の平面近似パラ
メータk1 ,k2 ,k3 を求める場合、距離計測手段で
ある距離計測装置(例えば、レーザ距離計)によって基
準点(画像を撮影する点)から該対象物体31−5まで
の距離を計測し、この計測した距離データから平面近似
パラメータk1 ,k2 ,k3 を算出するようにしてい
る。この際、対象物体31−5の全体の領域が大きい場
合は、この全体の領域を複数の領域R1 ,R2 ,R3
4 ,…に分割し、この複数の分割領域R1 ,R2 ,R
3 ,R4 ,…について、計測された距離データと理論上
の距離値との誤差Eが所定の閾値TH以下になるように
該分割領域R1 ,R2 ,R3 ,R4 ,…を統合して領域
の抽出を行い(例えば、領域R1 とR2 を統合してこの
統合した領域R12 の抽出を行い)、この抽出した領
域R12 についての平面近似パラメータk1 ,k2
3 を算出するようにしている。
FIG. 4 is a diagram showing a three-dimensional (stereo) coordinate system used for describing the embodiment of the present invention. In the present embodiment, for example, as shown in FIG. 3, a case where the plane approximation parameters k 1 , k 2 , and k 3 of the shape of the target object (the tree 31-5) away from the first speaker 31-1 is obtained. The distance from the reference point (the point at which the image is captured) to the target object 31-5 is measured by a distance measuring device (for example, a laser distance meter) as a distance measuring means, and the plane approximation parameter k is calculated from the measured distance data. 1 , k 2 and k 3 are calculated. At this time, if the entire area of the target object 31-5 is large, the entire area is divided into a plurality of areas R 1 , R 2 , R 3 ,
R 4 ,..., And the plurality of divided areas R 1 , R 2 , R
3, R 4, about ..., the divided region R 1 as the error E between the distance value on the distance data and the theoretical measured falls below a predetermined threshold value TH, R 2, R 3, R 4, ... and integration to perform extraction region (e.g., by integrating the regions R 1 and R 2 were extracted for this integration regions R 1, 2), the planar approximation parameters k 1 for the extracted area R 1, 2 , K 2 ,
and to calculate the k 3.

【0023】図4のステレオ座標系は、互いに直交する
X軸、Y軸及びZ軸で表される。原点0から対象物体3
1−5上のある1点Pを観測した時、この点Pを3次元
座標(X,Y,Z)で表す。対象物体31−5を平面で
近似できるとすると、この平面の方程式は、
The stereo coordinate system shown in FIG. 4 is represented by an X axis, a Y axis, and a Z axis which are orthogonal to each other. Target object 3 from origin 0
When one point P on 1-5 is observed, this point P is represented by three-dimensional coordinates (X, Y, Z). Assuming that the target object 31-5 can be approximated by a plane, the equation of this plane is

【数1】 (Equation 1)

【0024】[0024]

【数2】 (Equation 2)

【0025】[0025]

【数3】 (Equation 3)

【0026】[0026]

【数4】 となることが分かる。これは対象物体31−5の各分割
領域R1,R2について行列ArrayA(これは形成さ
れた極座標の角度θ,φより求まる)と行列Array
b(これは各パラメータk1,k2,k3に対する測定誤
差)、及びデータD′2(φ,θ)(これは計測された
距離データD(φ,θ)より求まる)の和を保存手段に
保存しておけば、(19)式を評価しながら例えば領域
1とR2を容易に統合することができ、統合し終わった
時の領域R12の平面近似パラメータArraykがそ
の領域R12 の平面近似パラメータとなることを表し
ている 。
(Equation 4) It turns out that it becomes. This means that for each of the divided regions R 1 and R 2 of the target object 31-5, a matrix ArrayA (which is obtained from the formed angles θ and φ of the polar coordinates) and a matrix Array
b (this is the measurement error for each parameter k 1 , k 2 , k 3 ) and the sum of data D ′ 2 (φ, θ) (this is obtained from the measured distance data D (φ, θ)) If they are stored in the means, for example, the regions R 1 and R 2 can be easily integrated while evaluating the expression (19), and the plane approximation parameter Arrayk of the regions R 1 and 2 when the integration is completed is It indicates that it is a plane approximation parameter for the regions R 1 and R 2 .

【0027】(実施形態)図1(a)、(b)は、本発
明の実施形態を示す映像表示装置の構成図であり、同図
(a)は映像表示装置の全体の構成図、及び同図(b)
は同図(a)中の平面パラメータ算出手段の構成図であ
る。この図1(a)、(b)では、図3及び図4中の要
素と共通の要素には共通の符号が付されている。この実
施形態の映像表示装置は、図3(a)の第1の表示装置
30−1側に設けられている。この映像表示装置と同一
の装置は、図3(a)の第2の表示装置30−2側にも
設けられている。
(Embodiment) FIGS. 1A and 1B are configuration diagrams of a video display device showing an embodiment of the present invention. FIG. 1A is a configuration diagram of the entire video display device, and FIG. FIG.
3 is a configuration diagram of a plane parameter calculation unit in FIG. 1 (a) and 1 (b), components common to those in FIGS. 3 and 4 are denoted by common reference numerals. The video display device of this embodiment is provided on the first display device 30-1 side in FIG. The same device as this video display device is also provided on the second display device 30-2 side in FIG.

【0028】図1(a)の映像表示装置は、第1の映像
処理装置40と第2の映像処理装置50とを備え、これ
らの出力側に第1の表示装置30−1が接続されてい
る。第1の映像処理装置40は、第1の話者30−1及
びこの近傍の対象物体(例えば、立方体)31−3の画
像S31aを撮影手段(例えば、複数台のビデオカメラ
等)で撮影し、この撮影した映像信号S40の3次元構
造情報を第1の表示装置30−1に立体的に表示させる
装置であり、例えば、従来の図2の映像表示装置等の公
知の装置で構成されている。
The video display device shown in FIG. 1A includes a first video processing device 40 and a second video processing device 50, and the first display device 30-1 is connected to the output side of these devices. I have. The first video processing device 40 captures an image S31a of the first speaker 30-1 and a target object (for example, a cube) 31-3 near the first speaker 30-1 using a capturing unit (for example, a plurality of video cameras). This is a device for three-dimensionally displaying the three-dimensional structure information of the captured video signal S40 on the first display device 30-1, and is configured by a known device such as the conventional video display device of FIG. I have.

【0029】第2の映像処理装置50は、第1の話者3
1−1から離れた対象物体(例えば、木、家)31−
4,31−5,31−6の画像S31bを撮影すると共
に、その各対象物体31−4〜31−6までの距離rを
計測し、この計測した距離rから該対象物体31−4〜
31−6の形状の平面近似パラメータk1,k2,k3
算出することによって映像信号の共有空間構築用構造情
報を抽出し、この構造情報と撮影された画像データS5
4とから映像信号S56を生成し、この映像信号S56
を第1の表示装置30−1に、舞台装置の書割りのよう
に配置して表示させる装置である。
[0029] The second video processing device 50 controls the first speaker 3
Target object (eg, tree, house) distant from 1-1
4, 31-5 and 31-6 are imaged, the distance r to each of the target objects 31-4 to 31-6 is measured, and from the measured distance r, the target objects 31-4 to 31-6 are taken.
By calculating plane approximation parameters k 1 , k 2 , and k 3 of the shape of 31-6, the structure information for constructing the shared space of the video signal is extracted, and this structure information and photographed image data S5
4 to generate a video signal S56.
Is arranged and displayed on the first display device 30-1 like a book layout of a stage device.

【0030】第2の映像処理装置50は、対象物体(例
えば、木31−5)までの距離rを計測してこの極座標
で計測された距離データS51を出力する距離計測手段
である距離計測装置(例えば、レーザ距離計等)51
と、計測された距離データS51を格納する距離用バッ
ファ52と、格納された距離データS52を読み出して
対象物体31−5の形状の平面近似パラメータk1
2,k3 を算出する平面パラメータ算出手段53とを
有している。また、この第2の映像処理装置50は、対
象物体31−5の画像S31bを撮影してこの平面画像
で撮影された画像データS54を出力する撮影手段(例
えば、ビデオカメラ等の画像撮影装置)54と、撮影さ
れた画像データS54を格納する画像用バッファ55と
を有している。さらに、平面パラメータ算出手段53及
び画像用バッファ55の出力側には、映像生成手段56
が接続され、この出力側に第1の表示装置30−1が接
続されている。
The second video processing device 50 is a distance measuring device which is a distance measuring means for measuring a distance r to a target object (for example, a tree 31-5) and outputting distance data S51 measured in polar coordinates. (For example, a laser distance meter) 51
And a distance buffer 52 for storing the measured distance data S51, and reading out the stored distance data S52 to obtain a plane approximation parameter k 1 ,
plane parameter calculating means 53 for calculating k 2 and k 3 . Further, the second video processing device 50 captures an image S31b of the target object 31-5 and outputs image data S54 captured by the planar image (for example, an image capturing device such as a video camera). 54, and an image buffer 55 for storing captured image data S54. Further, on the output side of the plane parameter calculating means 53 and the image buffer 55, a video generating means 56 is provided.
Is connected, and the first display device 30-1 is connected to the output side.

【0031】映像生成手段56は、平面近似パラメータ
1,k2,k3 によって近似した対象物体31−5の位
置データと、画像用バッファ55から読み出した画像デ
ータS55とから、映像信号S56を生成して第1の表
示装置30−1に立体的に表示させるものである。平面
パラメータ算出手段53、及び映像生成手段56は、半
導体集積回路等を用いた個別回路、あるいはコンピュー
タ等のプログラムを実行することによって構成されてい
る。
The video generation means 56 converts the video signal S56 from the position data of the target object 31-5 approximated by the plane approximation parameters k 1 , k 2 and k 3 and the image data S55 read from the image buffer 55. It is generated and displayed three-dimensionally on the first display device 30-1. The plane parameter calculation unit 53 and the video generation unit 56 are configured by executing a program such as an individual circuit using a semiconductor integrated circuit or the like or a computer.

【0032】図1(b)に示すように、平面パラメータ
算出手段53は、各領域R1,R2,…の行列Array
A、Arraybを算出する行列算出手段53aと、各
領域R1,R2,…について行列ArrayAとArra
yb、データD′2(φ,θ)の和を保存する行列保存
手段53bと、誤差Eが所定の閾値TH以下になるよう
に領域R1,R2,…を統合してこの統合した領域R1
2,…の平面近似パラメータk1,k2,k3 を出力す
る領域統合手段53cとで構成されている。
As shown in FIG. 1B, the plane parameter calculating means 53 calculates a matrix Array of the regions R 1 , R 2 ,.
A, a matrix calculating means 53a for calculating Arrayb, and a matrix ArrayA and ArrayA for each region R 1 , R 2 ,.
yb, matrix storage means 53b for storing the sum of data D ' 2 (φ, θ) and regions R 1 , R 2 ,... so that the error E is equal to or less than a predetermined threshold value TH. R 1 ,
And the area integration means 53c for outputting the plane approximation parameters k 1 , k 2 , k 3 of R 2 ,.

【0033】次に、図1の映像表示装置を用いた映像表
示方法を説明する。図3(a)に示すように、同じ地点
にいない第1の話者31−1と第2の話者31−2と
が、第1の表示装置30−1及び第2の表示装置30−
2を介して通信をする場合、該第1の表示装置30−1
側の第1の映像表示装置では、第1の話者31−1及び
この近傍の立方体31−3の画像S31aが第1の映像
処理装置40によって撮影され、この撮影された映像信
号S40の3次元構造情報が第1の表示装置30−1に
立体的に表示される。
Next, an image display method using the image display device of FIG. 1 will be described. As shown in FIG. 3A, a first speaker 31-1 and a second speaker 31-2 that are not at the same point are connected to a first display device 30-1 and a second display device 30-.
When communication is performed via the first display device 30-1
In the first video display device on the side, an image S31a of the first speaker 31-1 and a cube 31-3 near the first speaker 31-1 is captured by the first video processing device 40, and the captured video signal S40-3 is captured. The dimensional structure information is stereoscopically displayed on the first display device 30-1.

【0034】第1の話者31−1から離れた対象物体
(例えば、木31−5)に対しては、距離計測装置51
によって距離が計測され、この極座標で計測された距離
データS51が距離用バッファ52に蓄積される。距離
用バッファ52から読み出された距離データS52は、
平面パラメータ算出手段53へ送られる。平面パラメー
タ算出手段53内の行列算出手段53aでは、距離デー
タS52に含まれる角度θ,φを用い、対象物体31−
5における各分割領域R1,R2,…の行列Array
A、Arraybを(14)、(16)式より算出し、
この算出結果を行列保存手段53bへ送る。行列保存手
段53bでは、各分割領域R1,R2,…について(1
4)、(16)式の行列ArrayAとArrayb、
及び距離データD(φ,θ)から求めたデータD′
2(φ,θ)の和を保存し、この保存結果を領域統合手
段53cへ送る。
For a target object (for example, a tree 31-5) distant from the first speaker 31-1, a distance measuring device 51 is used.
Is measured, and the distance data S51 measured in the polar coordinates is stored in the distance buffer 52. The distance data S52 read from the distance buffer 52 is
It is sent to the plane parameter calculation means 53. The matrix calculating means 53a in the plane parameter calculating means 53 uses the angles θ and φ included in the distance data S52 to calculate the target object 31-.
5, a matrix Array of the divided regions R 1 , R 2 ,.
A, Arrayb is calculated from equations (14) and (16),
The calculation result is sent to the matrix storage unit 53b. In the matrix storage means 53b, for each divided region R 1 , R 2 ,.
4), matrices ArrayA and Arrayb in equations (16),
D ′ obtained from the distance data D (φ, θ)
2 The sum of (φ, θ) is stored, and the storage result is sent to the area integration means 53c.

【0035】領域統合手段53cでは、(19)式を用
いて例えば領域R1とR2を統合した時にこの統合結果の
誤差Eが所定の閾値TH以下になるか否かによって統合
するか否かを判定し、所定値TH以下の時には該領域R
1とR2を統合する。統合し終わった時の(18)式の行
列Arraykがその領域R12 の平面近似パラメー
タk1,k2,k3 として出力される。領域R1とR2が統
合不可の時では、これらの各領域R1とR2についてそれ
ぞれ平面近似パラメータk1,k2,k3 が出力される。
これらの算出された平面近似パラメータk1,k2,k3
は、映像生成手段56へ送られる。
In the area integrating means 53c, when, for example, the areas R 1 and R 2 are integrated using the equation (19), whether or not the error E of the integrated result is equal to or less than a predetermined threshold value TH is determined. Is determined, and when it is equal to or less than the predetermined value TH, the region R
Integrating 1 and R 2. The matrix Arrayk of Expression (18) at the time of completion of the integration is output as the plane approximation parameters k 1 , k 2 , and k 3 of the regions R 1 and R 2 . When the regions R 1 and R 2 cannot be integrated, the plane approximation parameters k 1 , k 2 and k 3 are output for each of these regions R 1 and R 2 .
These calculated plane approximation parameters k 1 , k 2 , k 3
Is sent to the image generation means 56.

【0036】一方、対象物体31−5の画像S31bが
画像撮影装置54で撮影され、この平面座標で撮影され
た画像データS54が、画像用バッファ55に蓄積さ
れ、この蓄積された画像データS55が読み出されて映
像生成手段56へ送られる。映像生成手段56では、平
面近似パラメータk1,k2,k3 によって近似した対象
物体31−5の位置データと、画像データS55とか
ら、例えば、左眼用と右眼用のそれぞれの2次元の映像
信号S56を生成し、第1の表示装置30−1へ送る。
第1の表示装置30−1では、左眼用と右眼用の映像信
号S56の共有空間構築用構造情報に基づき、対象物体
31−5を舞台装置の書割りのように配置して表示す
る。
On the other hand, the image S31b of the target object 31-5 is photographed by the image photographing device 54, and the image data S54 photographed at the plane coordinates is stored in the image buffer 55, and the stored image data S55 is It is read and sent to the video generation means 56. The image generating unit 56, the position data of the target object 31-5 approximated by a plane approximation parameters k 1, k 2, k 3, from the image data S55 Prefecture, for example, each of the two-dimensional for the left eye and the right eye Is generated and sent to the first display device 30-1.
In the first display device 30-1, the target object 31-5 is arranged and displayed like a split of a stage device based on the structure information for building a shared space of the left-eye and right-eye video signals S56. .

【0037】このような第1の表示装置30−1側の第
1の映像表示装置と同様の表示が、第2の表示装置30
−2側に設けられた映像表示装置によって行われる。そ
して、異なる地点にいる第1の話者31−1と第2の話
者31−2とは、第1及び第2の表示装置30−1,3
0−2を介して通信手段32によって相互に通信を行う
ことができる。
The same display as that of the first video display device on the first display device 30-1 side is displayed on the second display device 30.
-2 is performed by the video display device provided on the side. Then, the first speaker 31-1 and the second speaker 31-2 at different points are connected to the first and second display devices 30-1 and 30-3.
Communication with each other can be performed by the communication means 32 via 0-2.

【0038】以上のように本実施形態では、次のような
効果がある。第2の映像処理装置50では、話者31−
1,31−2から離れた対象物体31−4,31−5,
31−6に対して距離計測装置56によって距離データ
S51を計測し、この距離データS51を用いて平面パ
ラメータ算出手段53によって対象物体31−4〜31
−6の3次元構造を平面近似して抽出するようにしたの
で、該映像処理装置50によって簡易な3次元空間情報
を得ることができる。このため、話者31−1,31−
2及びこの近傍の対象物体31−3のような、より精密
な3次元構造を必要とする対象物体へのコンピュータ等
の負担を軽減できると共に、情報量の削減によって通信
手段32における伝送路等への負担を軽減できる。
As described above, the present embodiment has the following effects. In the second video processing device 50, the speaker 31-
Target objects 31-4, 31-5, distant from 1, 31-2
Distance data S51 is measured with respect to 31-6 by the distance measurement device 56, and the target objects 31-4 to 31 are determined by the plane parameter calculation means 53 using the distance data S51.
Since the three-dimensional structure of −6 is extracted by plane approximation, simple three-dimensional spatial information can be obtained by the video processing device 50. Therefore, the speakers 31-1, 31-
2 and a target object such as the target object 31-3 in the vicinity thereof, which require a more precise three-dimensional structure, can reduce the load on the computer or the like, and reduce the amount of information to the transmission path or the like in the communication means 32. The burden on the user can be reduced.

【0039】なお、本発明は上記実施形態に限定され
ず、種々の変形が可能である。この変形例としては、例
えば、次のようなものがある。 (a) 第1、第2の表示装置30−1,30−2、及
び第1の映像処理装置40は、種々の立体表示方式の装
置で構成できる。 (b) 図3では、1人の第1の話者31−1と1人の
第2の話者31−2との空間共有通信システムについて
説明したが、第1の話者31−1あるいは第2の話者3
1−2は複数人であってもよく、上記実施形態と同様の
作用効果が得られる。
Note that the present invention is not limited to the above embodiment, and various modifications are possible. For example, there are the following modifications. (A) The first and second display devices 30-1 and 30-2 and the first video processing device 40 can be constituted by devices of various stereoscopic display systems. (B) In FIG. 3, the space sharing communication system between one first speaker 31-1 and one second speaker 31-2 has been described. Second speaker 3
1-2 may be composed of a plurality of persons, and the same operational effects as those of the above embodiment can be obtained.

【0040】[0040]

【発明の効果】以上詳細に説明したように、第1及び第
4の発明によれば、第1、第2の話者の近傍外の対象物
体について、距離計測手段で計測された距離データを用
いて平面近似の媒介変数を求め、この平面近似媒介変数
によって対象物体の3次元構造を平面に近似して抽出し
て第1、第2の表示装置に立体的に表示するようにした
ので、3次元空間情報を簡易に表示できる。このため、
第1、第2の話者及びこの近傍の対象物体について、よ
り精密な3次元構造を必要とする対象物体へのコンピュ
ータ等の負担を軽減できると共に、通信手段の伝送路等
への負担を軽減できる。
As described in detail above, according to the first and fourth aspects of the present invention, the distance data measured by the distance measuring means for the object outside the vicinity of the first and second speakers is obtained. The parameters of the plane approximation are obtained using the parameters, and the three-dimensional structure of the target object is approximated to a plane by the plane approximation parameters, extracted and displayed three-dimensionally on the first and second display devices. Three-dimensional spatial information can be easily displayed. For this reason,
With respect to the first and second speakers and the target objects in the vicinity thereof, it is possible to reduce the load on the target object that requires a more precise three-dimensional structure, and also reduce the load on the transmission path of the communication means. it can.

【0041】第2、第3及び第5の発明によれば、対象
物体の領域を抽出しながら平面近似の媒介変数を求める
ようにしたので、例えば、対象物体の全体の領域を複数
の領域に分割し、この複数の分割領域について統合処理
をしながら領域の抽出を行えば、この抽出された領域に
ついての平面近似の媒介変数を同時に算出することがで
きる。これにより、3次元空間情報をより簡単に表示で
きる。
According to the second, third, and fifth aspects of the present invention, the parameters of the plane approximation are obtained while extracting the region of the target object. For example, the entire region of the target object is divided into a plurality of regions. If the area is extracted while performing the integration process on the plurality of divided areas, the parameters of the plane approximation for the extracted area can be calculated at the same time. Thereby, three-dimensional space information can be displayed more easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態を示す映像表示装置の構成図
である。
FIG. 1 is a configuration diagram of a video display device according to an embodiment of the present invention.

【図2】従来の映像表示装置の構成図である。FIG. 2 is a configuration diagram of a conventional video display device.

【図3】本発明の実施形態の説明に用いる共有空間を表
す図である。
FIG. 3 is a diagram illustrating a shared space used for describing an embodiment of the present invention.

【図4】本発明の実施形態の説明に用いる立体(ステレ
オ)座標系を表す図である。
FIG. 4 is a diagram illustrating a three-dimensional (stereo) coordinate system used for describing an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

30−1,30−2 第1、第2の表示装置 31−1,31−2 第1、第2の話者 31−3 話者近傍の対象物体(立方体) 31−4,31−5 話者近傍外の対象物体(木) 31−6 話者近傍外の対象物体(家) 40,50 第1、第2の映像処理装置 51 距離計測装置 52 距離用バッファ 53 平面パラメータ算出手段 54 画像撮影装置 55 画像用バッファ 56 映像生成手段 30-1, 30-2 First and second display devices 31-1, 31-2 First and second speakers 31-3 Target objects (cubes) near speakers 31-4, 31-5 Target object outside tree (tree) 31-6 Target object outside speaker (house) 40, 50 First and second video processing device 51 Distance measurement device 52 Distance buffer 53 Planar parameter calculation means 54 Image shooting Device 55 Image buffer 56 Image generation means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/14 G09G 5/36 520K 520P Fターム(参考) 5B050 AA08 BA09 BA11 BA12 CA05 CA07 EA07 EA26 FA06 5C061 AA01 AA03 AB01 AB08 AB11 AB12 AB17 AB24 5C064 AA01 AB04 AB06 AC02 AC11 AC12 AC22 AD14 5C082 AA22 AA27 BA20 BA42 BA46 BD02 CA54 CA81 CB03 DA86 EA15 MM02 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/14 G09G 5/36 520K 520P F term (Reference) 5B050 AA08 BA09 BA11 BA12 CA05 CA07 EA07 EA26 FA06 5C061 AA01 AA03 AB01 AB08 AB11 AB12 AB17 AB24 5C064 AA01 AB04 AB06 AC02 AC11 AC12 AC22 AD14 5C082 AA22 AA27 BA20 BA42 BA46 BD02 CA54 CA81 CB03 DA86 EA15 MM02

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 異なる地点にいて相互の通信を行う第1
の話者と第2の話者のうち、該第1の話者を含む立体の
映像を表示して該第2の話者によって観察される第1の
表示装置と、 前記第1の話者と通信を行う前記第2の話者を含む立体
の映像を表示して該第1の話者によって観察される第2
の表示装置と、 前記第1の表示装置に表示された第1の話者と前記第2
の表示装置に表示された第2の話者との間の通信情報の
送受信を行う通信手段とを備え、 同じ地点にいない前記第1と第2の話者同士が前記第1
及び第2の表示装置を介して同じ空間を共有するがごと
くに通信をする空間共有通信システムにおいて、 前記第1、第2の話者の近傍外の対象物体について、距
離計測手段によって基準点からの距離を計測し、この計
測した距離データから、該対象物体の3次元構造情報を
平面で近似して抽出して表現し、前記第1、第2の表示
装置に立体的に表示することを特徴とする映像表示方
法。
1. A first system for communicating with each other at different points.
A first display device that displays a stereoscopic image including the first speaker and is observed by the second speaker, among the first speaker and the second speaker; A stereoscopic image including the second speaker communicating with the second speaker is displayed, and a second image observed by the first speaker is displayed.
And a first speaker displayed on the first display device and the second speaker.
Communication means for transmitting and receiving communication information to and from the second speaker displayed on the display device, wherein the first and second speakers not at the same point are connected to each other by the first
And a space-sharing communication system that communicates as if sharing the same space via the second display device, wherein a target object outside the vicinity of the first and second speakers is distanced from a reference point by distance measurement means. From the measured distance data, extracting and expressing the three-dimensional structure information of the target object by approximating the plane with a plane, and displaying the information three-dimensionally on the first and second display devices. Characteristic video display method.
【請求項2】 請求項1記載の映像表示方法において、 前記第1、第2の話者の近傍外の対象物体について、該
対象物体の領域を抽出しながら平面近似の媒介変数を求
め、この媒介変数を用いて該対象物体の3次元構造情報
を平面に近似して表現することを特徴とする映像表示方
法。
2. The video display method according to claim 1, wherein, for a target object outside the vicinity of the first and second speakers, a parameter of a plane approximation is determined while extracting a region of the target object. A video display method characterized by expressing three-dimensional structure information of the target object by approximating it to a plane using a parameter.
【請求項3】 請求項2記載の映像表示方法において、 前記対象物体の全体の領域を複数の領域に分割し、この
複数の分割領域について、前記計測された距離データと
理論上の距離値との誤差が所定の閾値以下になるように
該分割領域を統合して領域の抽出を行い、この抽出した
領域についての前記平面近似の媒介変数を求めることを
特徴とする映像表示方法。
3. The video display method according to claim 2, wherein the entire area of the target object is divided into a plurality of areas, and the measured distance data and the theoretical distance value are divided for the plurality of divided areas. A method of integrating the divided regions so as to extract the region so that an error of the divided region is equal to or less than a predetermined threshold, and obtaining a parameter of the plane approximation for the extracted region.
【請求項4】 異なる地点にいて相互の通信を行う第1
の話者と第2の話者のうち、該第1の話者を含む立体の
映像を表示して該第2の話者によって観察される第1の
表示装置と、 前記第1の話者と通信を行う前記第2の話者を含む立体
の映像を表示して該第1の話者によって観察される第2
の表示装置と、 前記第1の表示装置に表示された第1の話者と前記第2
の表示装置に表示された第2の話者との間の通信情報の
送受信を行う通信手段とを備え、 同じ地点にいない前記第1と第2の話者同士が前記第1
及び第2の表示装置を介して同じ空間を共有するがごと
くに通信をする空間共有通信システムにおいて、 第1の基準点から前記第1の話者の近傍外の対象物体ま
での距離を計測して第1の距離データを出力する第1の
距離計測手段と、 第2の基準点から前記第2の話者の近傍外の対象物体ま
での距離を計測して第2の距離データを出力する第2の
距離計測手段と、 前記第1の基準点から前記第1の話者の近傍外の対象物
体を撮影して第1の画像データを出力する第1の撮影手
段と、 前記第2の基準点から前記第2の話者の近傍外の対象物
体を撮影して第2の画像データを出力する第2の撮影手
段と、 前記第1の話者の近傍外の対象物体について、前記第1
の距離データから、該対象物体の形状の第1の平面近似
媒介変数を算出して出力する第1の変数算出手段と、 前記第2の話者の近傍外の対象物体について、前記第2
の距離データから、該対象物体の形状の第2の平面近似
媒介変数を算出して出力する第2の変数算出手段と、 前記第1の平面近似媒介変数によって近似した前記対象
物体の位置データと前記第1の画像データとから、映像
信号を生成して前記第1の表示装置に立体的に表示させ
る第1の映像生成手段と、 前記第2の平面近似媒介変数によって近似した前記対象
物体の位置データと前記第2の画像データとから、映像
信号を生成して前記第2の表示装置に立体的に表示させ
る第2の映像生成手段と、 を備えたことを特徴とする映像表示装置。
4. A first system for communicating with each other at different points.
A first display device that displays a stereoscopic image including the first speaker and is observed by the second speaker, among the first speaker and the second speaker; A stereoscopic image including the second speaker communicating with the second speaker is displayed, and a second image observed by the first speaker is displayed.
And a first speaker displayed on the first display device and the second speaker.
Communication means for transmitting and receiving communication information to and from the second speaker displayed on the display device, wherein the first and second speakers not at the same point are connected to each other by the first
And a space-sharing communication system that communicates as if sharing the same space via the second display device, wherein a distance from a first reference point to a target object outside the vicinity of the first speaker is measured. First distance measuring means for outputting first distance data, and measuring a distance from a second reference point to a target object outside the vicinity of the second speaker and outputting second distance data. A second distance measuring unit; a first photographing unit that photographs a target object outside the vicinity of the first speaker from the first reference point and outputs first image data; A second photographing means for photographing a target object outside the vicinity of the second speaker from a reference point and outputting second image data; and for the target object outside the vicinity of the first speaker, 1
A first parameter calculating means for calculating and outputting a first planar approximation parameter of the shape of the target object from the distance data of the target object;
A second parameter calculating means for calculating and outputting a second plane approximation parameter of the shape of the target object from the distance data of: and position data of the target object approximated by the first plane approximation parameter. First video generation means for generating a video signal from the first image data and displaying the video signal in a three-dimensional manner on the first display device; and And a second video generating means for generating a video signal from the position data and the second image data and displaying the video signal in a three-dimensional manner on the second display device.
【請求項5】 請求項4記載の映像表示装置において、 前記第1、第2の変数算出手段は、前記第1、第2の話
者の近傍外の対象物体について、該対象物体の領域を抽
出しながら前記第1、第2の平面近似媒介変数をそれぞ
れ算出する構成にしたことを特徴とする映像表示装置。
5. The video display device according to claim 4, wherein the first and second variable calculation means determine an area of the target object for a target object outside the vicinity of the first and second speakers. A video display device wherein each of the first and second planar approximation parameters is calculated while extracting.
JP2000073489A 2000-03-16 2000-03-16 Video display method and video display device Withdrawn JP2001268595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000073489A JP2001268595A (en) 2000-03-16 2000-03-16 Video display method and video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000073489A JP2001268595A (en) 2000-03-16 2000-03-16 Video display method and video display device

Publications (1)

Publication Number Publication Date
JP2001268595A true JP2001268595A (en) 2001-09-28

Family

ID=18591724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000073489A Withdrawn JP2001268595A (en) 2000-03-16 2000-03-16 Video display method and video display device

Country Status (1)

Country Link
JP (1) JP2001268595A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010516153A (en) * 2007-01-14 2010-05-13 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Method, apparatus and system for image processing
KR101608869B1 (en) 2012-09-07 2016-04-04 삼성전자주식회사 Method for indicating a virtual ruler on separated image or medical image of object, medical image obtaining apparatus, and apparatus and method for displaying separated image or medical image with a virtual ruler

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010516153A (en) * 2007-01-14 2010-05-13 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Method, apparatus and system for image processing
KR101608869B1 (en) 2012-09-07 2016-04-04 삼성전자주식회사 Method for indicating a virtual ruler on separated image or medical image of object, medical image obtaining apparatus, and apparatus and method for displaying separated image or medical image with a virtual ruler
US9743899B2 (en) 2012-09-07 2017-08-29 Samsung Electronics Co., Ltd. Method of displaying virtual ruler on separate image or medical image of object, medical image obtaining apparatus, and method and apparatus for displaying separate image or medical image with virtual ruler
US9788808B2 (en) 2012-09-07 2017-10-17 Samsung Electronics Co., Ltd. Method of displaying virtual ruler on separate image or medical image of object, medical image obtaining apparatus, and method and apparatus for displaying separate image or medical image with virtual ruler

Similar Documents

Publication Publication Date Title
US11170561B1 (en) Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
JP6951595B2 (en) Housing data collection and model generation methods
KR20210008400A (en) A method of reconstructing a 3D spatial scene based on shooting
JP6669063B2 (en) Image processing apparatus and method
WO2019117264A1 (en) System, method, and program for generating virtual viewpoint image
JP5966256B2 (en) Image processing apparatus and method, program, and recording medium
JP2011232330A (en) Imaging apparatus, distance measuring method, and program
WO2019085022A1 (en) Generation method and device for optical field 3d display unit image
JPH07294215A (en) Method and apparatus for processing image
WO2013120308A1 (en) Three dimensions display method and system
JPH07296185A (en) Three-dimensional image display device
CN113253845A (en) View display method, device, medium and electronic equipment based on eye tracking
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
US20170230631A1 (en) Multi-camera time slice system and method of generating integrated subject, foreground and background time slice images
JP2021152935A (en) Information visualization system, information visualization method, and program
JP2009211561A (en) Depth data generator and depth data generation method, and program thereof
Imre et al. Calibration of nodal and free-moving cameras in dynamic scenes for post-production
JP2001268595A (en) Video display method and video display device
JP2021515918A (en) 3D scene modeling system with multi-view photogrammetry
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
Amini et al. Development of a new stereo‐panorama system based on off‐the‐shelf stereo cameras
JP7439398B2 (en) Information processing equipment, programs and information processing systems
JP2019511026A (en) Consistent editing of light field data
CN108475421A (en) Method and apparatus for generating the data for indicating pixel light beam

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040907

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605