JP4452100B2 - Video communication system - Google Patents

Video communication system Download PDF

Info

Publication number
JP4452100B2
JP4452100B2 JP2004063443A JP2004063443A JP4452100B2 JP 4452100 B2 JP4452100 B2 JP 4452100B2 JP 2004063443 A JP2004063443 A JP 2004063443A JP 2004063443 A JP2004063443 A JP 2004063443A JP 4452100 B2 JP4452100 B2 JP 4452100B2
Authority
JP
Japan
Prior art keywords
shadow image
screen
image
video communication
camera unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004063443A
Other languages
Japanese (ja)
Other versions
JP2005252913A (en
Inventor
敬之 三輪
繁 上杉
友明 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Gifu Prefecture
Original Assignee
Waseda University
Gifu Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Gifu Prefecture filed Critical Waseda University
Priority to JP2004063443A priority Critical patent/JP4452100B2/en
Publication of JP2005252913A publication Critical patent/JP2005252913A/en
Application granted granted Critical
Publication of JP4452100B2 publication Critical patent/JP4452100B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は映像コミュニケーションシステムに係り、更に詳しくは、テレビ会議システム、及び痴呆症や自閉症患者の治療装置等に応用可能な映像コミュニケーションシステムに関する。   The present invention relates to a video communication system, and more particularly to a video conference system and a video communication system that can be applied to a dementia or autism treatment apparatus.

近時、通信回線とコンピュータとを組み合わせたテレビ会議システムが普及しつつある。このテレビ会議システムとしては、複数の場所に設置されている端末の表示部にそれぞれ表示されている同一の画像上に、端末毎に異なる色が施されたポインティング・カーソルを表示させ、当該ポインティング・カーソルを使って画像内の所望位置の指定を各端末から独自に行えるシステムが知られている(特許文献1参照)。
特開平8−298654号公報
Recently, video conferencing systems combining a communication line and a computer are becoming popular. As this video conference system, a pointing cursor with a different color for each terminal is displayed on the same image respectively displayed on a display unit of a terminal installed in a plurality of places, and the pointing A system is known in which a desired position in an image can be specified independently from each terminal using a cursor (see Patent Document 1).
JP-A-8-298654

しかしながら、前記テレビ会議システムにあっては、前記表示部中の画像内に端末の数のポインティング・カーソルが常時存在することになるため、そのうち一部のカーソルを使用しないような場合には、当該カーソルが邪魔になるという問題があった。つまり、この場合、邪魔になるカーソルは画像の一部を隠蔽するように作用し、各端末間でのコミュニケーションの障害となる。   However, in the video conference system, since there are always pointing cursors corresponding to the number of terminals in the image in the display unit, when some of the cursors are not used, There was a problem with the cursor getting in the way. That is, in this case, the disturbing cursor acts to hide a part of the image, which becomes an obstacle to communication between the terminals.

本発明は、以上の問題に着目して案出されたものであり、その目的は、相互に離れた場所間における人間同士のコミュニケーションツールとして有用となる映像コミュニケーションシステムを提供することにある。   The present invention has been devised by paying attention to the above problems, and an object of the present invention is to provide a video communication system that is useful as a human-to-human communication tool between places separated from each other.

(1)前記目的を達成するため、本発明は、少なくとも二組のカメラユニット間で画像データの通信が可能となる映像コミュニケーションシステムにおいて、
前記各カメラユニットは、連続配置された第1スクリーン及び第2スクリーンと、使用者の手で移動可能な操作具と、当該操作具の位置及び姿勢を検出する操作検出手段と、前記操作具の移動に対応した影画像を作成する影画像作成手段と、当該影画像作成手段で作成された影画像を前記第1スクリーンに投影する第1投影手段と、前記第1スクリーンに投影された影画像及びその周囲の状況を撮像する状況撮像手段と、他のカメラユニットにおける前記状況撮像手段からの画像を前記第2スクリーンに投影する第2投影手段とを備え、
前記影画像作成手段は、前記操作検出手段により検出された前記操作具の位置及び姿勢に基づいて前記操作具の仮想影画像を作成する、という構成を採っている。
(1) In order to achieve the above object, the present invention provides a video communication system that enables image data communication between at least two sets of camera units.
Each of the camera units includes a first screen and a second screen that are continuously arranged, an operation tool that can be moved by a user's hand, an operation detection unit that detects a position and a posture of the operation tool, Shadow image creation means for creating a shadow image corresponding to movement, first projection means for projecting the shadow image created by the shadow image creation means onto the first screen, and shadow image projected on the first screen And situation imaging means for imaging the situation around it, and second projection means for projecting an image from the situation imaging means in another camera unit onto the second screen,
The shadow image creating means creates a virtual shadow image of the operating tool based on the position and orientation of the operating tool detected by the operation detecting means.

(2)また、前記仮想影画像は、自己のカメラユニット内で延びる自己表示領域と、当該自己表示領域に連なって他のカメラユニット内で延びる相手方表示領域とにより構成され、
前記影画像作成手段は、前記自己表示領域と、他のカメラユニットで作成された前記相手方表示領域とを重ね合わせることで、前記影画像を作成する、という構成を採ることが好ましい。
(2) Further, the virtual shadow image is composed of a self-display area extending in the own camera unit, and a counterpart display area extending in the other camera unit connected to the self-display area,
Preferably, the shadow image creating means creates the shadow image by superimposing the self-display area and the counterpart display area created by another camera unit.

(3)更に、前記各カメラユニットは、前記第1スクリーン上の物体を撮像する物体撮像手段を更に備え、
前記影画像作成手段は、前記物体撮像手段で撮像された画像データを二値化することで物体影画像を作成し、当該物体影画像を前記仮想影画像に重ね合わせることで、前記影画像を作成する、という構成を併用することが好ましい。
(3) Further, each of the camera units further includes object imaging means for imaging an object on the first screen,
The shadow image creating means creates an object shadow image by binarizing the image data picked up by the object image pickup means, and superimposes the object shadow image on the virtual shadow image to thereby convert the shadow image. It is preferable to use the configuration of creating together.

(4)また、前記第1スクリーンは、略水平配置される一方、前記第2スクリーンは、前記第1スクリーンの一端縁側から外側斜め上方に傾斜配置され、前記状況撮像手段は、前記第2スクリーンの最上端側からその面方向に沿う向きで撮像可能に配置される、という構成を採用するとよい。   (4) Further, the first screen is arranged substantially horizontally, while the second screen is arranged to be inclined obliquely upward and outward from one end edge side of the first screen, and the situation image pickup means is provided on the second screen. It is advisable to adopt a configuration in which imaging is possible in the direction along the surface direction from the uppermost end side of the lens.

前記(1)の構成によれば、第1スクリーンには、自己の仮想影画像が投影される一方、第1スクリーンに連なる第2スクリーンには、相手方の仮想影画像が投影され、カメラユニット双方において、自己及び相手方の仮想影画像を表示することができ、各カメラユニットの使用者間で、操作具の移動を伴ったコミュニケーションが可能となる。また、操作具をカメラユニットから遠ざかる一定の場所に保持しておくと、仮想影画像を作成させないようにすることができ、仮想影画像が不必要なときは、簡単にスクリーン上への投影を止めることができる。従って、テレビ会議システムに代表されるように、相互に離れた場所間での人間のコミュニケーションツールとして有用となる。   According to the configuration of (1), the virtual shadow image of the other party is projected on the first screen, while the virtual shadow image of the other party is projected on the second screen connected to the first screen. , The virtual shadow images of the self and the other party can be displayed, and communication involving the movement of the operation tool is possible between the users of each camera unit. Also, if you keep the operation tool in a certain place away from the camera unit, you can prevent the creation of a virtual shadow image, and when a virtual shadow image is unnecessary, you can easily project it onto the screen. Can be stopped. Therefore, as represented by a video conference system, it is useful as a human communication tool between places distant from each other.

前記(2)のように構成することで、第1スクリーンに対し、自己の仮想影画像と相手方の仮想影画像とを重畳的に投影することができ、第1スクリーンの上に物体を設置した場合等、その物体に双方から仮想影画像をアクセスさせることができ、一方の場所にしか実存しない物体に対する議論や打ち合わせ等を効果的に行うことが可能となる。   With the configuration as described in (2) above, the virtual shadow image of the self and the virtual shadow image of the other party can be projected onto the first screen in a superimposed manner, and an object is placed on the first screen. In such a case, the virtual shadow image can be accessed from both sides of the object, and it is possible to effectively discuss or hold an object that exists only in one place.

前記(3)の構成によれば、第1スクリーン上における物体の実際の影の上に、仮想影画像と同様となる人工的な物体影画像が覆い被さることになり、物体の実際の影と前記仮想影映像との間の画質の違いやジャギーの有無による影の分離感を無くすことができる。   According to the configuration of (3), an artificial object shadow image similar to the virtual shadow image is covered on the actual shadow of the object on the first screen, and the actual shadow of the object It is possible to eliminate the feeling of separation of shadows due to the difference in image quality from the virtual shadow image and the presence or absence of jaggies.

前記(4)の構成により、使用者が第2スクリーンに対面するように第1スクリーンの傍に存在したとき、当該使用者の様子と、第1スクリーン上の状況とを同時に撮像することができ、第2スクリーンに相手側の空間の状態をより多く投影させることができ、コミュニケーションツールとしてより有用となる。   According to the configuration of (4), when the user is present near the first screen so as to face the second screen, the state of the user and the situation on the first screen can be simultaneously imaged. It is possible to project more state of the other party's space on the second screen, which is more useful as a communication tool.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1には、本発明の一実施例に係る映像コミュニケーションシステムの概略構成図が示されている。この図において、映像コミュニケーションシステム10は、所定の画像データを作成する第1及び第2のカメラユニット11,12がインターネット等のIPネットワーク14を介して接続され、各カメラユニット11,12間で画像データの通信が可能となっている。   FIG. 1 is a schematic configuration diagram of a video communication system according to an embodiment of the present invention. In this figure, a video communication system 10 includes first and second camera units 11 and 12 that create predetermined image data connected via an IP network 14 such as the Internet, and images between the camera units 11 and 12. Data communication is possible.

前記第1及び第2のカメラユニット11,12は、相互に離れた別の場所に設置されるが、実質的に同一の構成となっている。従って、以下、第1のカメラユニット11の構成について詳細に説明し、第2のカメラユニット12の構成については、詳細な説明を省略する。以下、第1のカメラユニット11と第2のカメラユニット12とで、同一若しくは同等の構成部分については、符号として同一の数字を付し、当該数字の後に、第1のカメラユニット11側のものであれば添字「A」を付記し、第2のカメラユニット12側のものであれば添字「B」を付記することとする。   The first and second camera units 11 and 12 are installed at different locations apart from each other, but have substantially the same configuration. Accordingly, the configuration of the first camera unit 11 will be described in detail below, and the detailed description of the configuration of the second camera unit 12 will be omitted. Hereinafter, the same or equivalent components in the first camera unit 11 and the second camera unit 12 are denoted by the same reference numerals, and the first camera unit 11 side after the numbers. If so, the suffix “A” is added, and if it is on the second camera unit 12 side, the suffix “B” is added.

なお、図1においては、図面の錯綜を回避するため、各カメラユニット11,12の各部材を支持するフレームの記載につき、一部を除き省略している。   In FIG. 1, the description of the frame that supports each member of each camera unit 11, 12 is omitted except for a part in order to avoid complication of the drawing.

前記第1のカメラユニット11は、物体15Aが載る第1スクリーンとしての水平スクリーン16Aと、当該水平スクリーン16Aの一端縁側に連続配置された第2スクリーンとしての対面スクリーン17Aと、使用者の手で移動可能な棒状の操作具19Aと、水平スクリーン16A上の物体15Aを撮像する物体撮像手段としての第1カメラ22Aと、操作具19Aの位置及び姿勢を検出する操作検出手段としての磁気センサユニット24Aと、操作具19Aの移動に対応した影画像を作成する影画像作成手段を構成する端末26Aと、端末26Aで作成された影画像を水平スクリーン16Aに投影する第1投影手段としての第1プロジェクタ28Aと、水平スクリーン16Aに投影された影画像及びその周囲の状況を撮像する状況撮像手段としての第2カメラ30Aと、第2のカメラユニット12の第2カメラ30Bで撮像された画像を対面スクリーン17Aに投影する第2投影手段としての第2プロジェクタ32Aとを備えて構成されている。   The first camera unit 11 includes a horizontal screen 16A as a first screen on which an object 15A is placed, a facing screen 17A as a second screen continuously disposed on one end edge side of the horizontal screen 16A, and a user's hand. A movable bar-shaped operation tool 19A, a first camera 22A as an object imaging means for imaging the object 15A on the horizontal screen 16A, and a magnetic sensor unit 24A as an operation detection means for detecting the position and orientation of the operation tool 19A. A terminal 26A constituting a shadow image creating means for creating a shadow image corresponding to the movement of the operation tool 19A, and a first projector as a first projecting means for projecting the shadow image created by the terminal 26A onto the horizontal screen 16A 28A, a shadow image projected on the horizontal screen 16A, and a situation imaging hand for imaging the surrounding situation A second camera 30A as is configured by a second projector 32A as a second projection means for projecting an image captured by the second camera 30B of the second camera unit 12 to face the screen 17A.

前記水平スクリーン16Aは、平板状に設けられており、脚状のフレームFに支持されて略水平に配置されている。   The horizontal screen 16 </ b> A is provided in a flat plate shape, and is supported by a leg-shaped frame F and is arranged substantially horizontally.

前記対面スクリーン17Aは、平板状に設けられており、水平スクリーン16Aの一端縁側から外側斜め上方に傾斜配置されている。対面スクリーン17Aには、第2のカメラユニット12側の使用者34Bの様子と、その水平スクリーン16B上の状況とが映される。ここで、対面スクリーン17A内の使用者34Bが、使用者34Aと対面するように映り、対面スクリーン17A内の水平スクリーン16Bが、現存する水平スクリーン16Aと略線対称に映るようになっている。なお、使用者34Aは、対面スクリーン17Aに対面する水平スクリーン16Aの端縁側に立つように設定されている。   The facing screen 17A is provided in a flat plate shape, and is inclined obliquely upward and outward from one end edge side of the horizontal screen 16A. The state of the user 34B on the second camera unit 12 side and the situation on the horizontal screen 16B are displayed on the facing screen 17A. Here, the user 34B in the facing screen 17A appears to face the user 34A, and the horizontal screen 16B in the facing screen 17A appears to be substantially line-symmetric with the existing horizontal screen 16A. The user 34A is set to stand on the edge side of the horizontal screen 16A facing the facing screen 17A.

前記操作具19Aは、使用者34Aが手に持って操作するものであり、任意の方向に動かすことで、後述するように、操作具19Aの仮想影画像36Aの大きさや方向が変わるようになっている。   The operation tool 19A is operated by the user 34A by hand, and when moved in an arbitrary direction, the size and direction of the virtual shadow image 36A of the operation tool 19A change as will be described later. ing.

前記第1カメラ22Aは、CCDカメラによって構成され、水平スクリーン16Aの上方に設置されて当該水平スクリーン16A上の様子を撮像可能となっている。ここで、撮像された画像は、後述する端末26Aでの影画像の作成に用いられる。なお、第1プロジェクタ28Aから水平スクリーン17Aに投影された影画像と、当該影画像を作成するための水平スクリーン16A上の画像の取得との無限ループによる発散を防止するため、図示省略するが、第1カメラ22Aのレンズに偏光フィルタが取り付けられるとともに、水平スクリーン17Aの投影面となる上面側に偏光フィルムが貼り付けられている。つまり、これら偏光フィルタ及び偏光フィルムは、第1カメラ22Aによる画像の取得の際に、第1プロジェクタ28Aから投影された影画像をカットするように作用する。   The first camera 22A is constituted by a CCD camera and is installed above the horizontal screen 16A so as to be able to take an image of the state on the horizontal screen 16A. Here, the captured image is used to create a shadow image in the terminal 26A described later. In order to prevent divergence due to an infinite loop between the shadow image projected from the first projector 28A on the horizontal screen 17A and the acquisition of the image on the horizontal screen 16A for creating the shadow image, illustration is omitted. A polarizing filter is attached to the lens of the first camera 22A, and a polarizing film is attached to the upper surface side that is the projection surface of the horizontal screen 17A. That is, the polarizing filter and the polarizing film act so as to cut a shadow image projected from the first projector 28A when an image is acquired by the first camera 22A.

前記磁気センサユニット24Aは、水平スクリーン16Aの角部に設置されたトランスミッタ38Aと、操作具19Aの先端側に取り付けられたレシーバ39Aと、これらトランスミッタ38A及びレシーバ39Aに有線若しくは無線によって繋がるコントロールユニット40Aとにより構成されている。この磁気センサユニット24Aは、コントロールユニット40Aからの指令によってトランスミッタ38Aの周囲に磁界を発生させ、レシーバ39Aの磁界の通過状況から、コントロールユニット40Aで、レシーバ39Aが取り付けられた操作具19Aの直交三軸方向の位置及び当該三軸回りの姿勢を同定可能とする公知構造が採用されている。従って、以下、詳細な装置構造についての説明を省略する。なお、前記操作検出手段として、超音波センサと磁気ジャイロを組み合わせた3次元位置の計測装置等、操作具19Aの位置及び姿勢を検出することができる他の装置を採用してもよい。   The magnetic sensor unit 24A includes a transmitter 38A installed at a corner of the horizontal screen 16A, a receiver 39A attached to the distal end side of the operation tool 19A, and a control unit 40A connected to the transmitter 38A and the receiver 39A by wire or wirelessly. It is comprised by. The magnetic sensor unit 24A generates a magnetic field around the transmitter 38A in response to a command from the control unit 40A. From the state of passage of the magnetic field of the receiver 39A, the control unit 40A uses the orthogonal three of the operation tool 19A to which the receiver 39A is attached. A well-known structure that can identify the position in the axial direction and the attitude around the three axes is employed. Therefore, the detailed description of the device structure is omitted below. Note that as the operation detection means, other devices that can detect the position and orientation of the operation tool 19A, such as a three-dimensional position measurement device combining an ultrasonic sensor and a magnetic gyro, may be employed.

前記端末26Aは、第1カメラ22Aで取得した画像データと、磁気センサユニット24Aにより検出された操作具19Aの位置及び姿勢とに基づいて、操作具19Aの操作に対応した黒塗り状の仮想影画像36Aを含む影画像を作成するようになっている。また、端末26Aは、操作具19Aの位置及び姿勢等のデータや、作成された仮想影画像36Aに関する画像データ等を第2のカメラユニット12の端末26Bに送信するとともに、第2のカメラユニット12側の操作具19Bの位置及び姿勢等のデータや、そこで作成された仮想影画像36Bに関する画像データ等を端末26Bから受信するようになっている。   The terminal 26A, based on the image data acquired by the first camera 22A and the position and orientation of the operation tool 19A detected by the magnetic sensor unit 24A, is a blackish virtual shadow corresponding to the operation of the operation tool 19A. A shadow image including the image 36A is created. The terminal 26A transmits data such as the position and orientation of the operation tool 19A, image data related to the created virtual shadow image 36A, and the like to the terminal 26B of the second camera unit 12, and the second camera unit 12. Data such as the position and orientation of the operation tool 19B on the side, image data relating to the virtual shadow image 36B created there, and the like are received from the terminal 26B.

前記第1プロジェクタ28Aは、水平スクリーン16Aの上方に配置されており、端末26Aで作成された影画像は、鏡体42Aによる反射を伴って水平スクリーン16Aの上面に投影されることとなる。   The first projector 28A is disposed above the horizontal screen 16A, and the shadow image created by the terminal 26A is projected onto the upper surface of the horizontal screen 16A with reflection by the mirror body 42A.

前記第2カメラ30Aは、CCDカメラによって構成され、対面スクリーン17Aの最上端側からその面方向に沿う向きで、使用者34Aの様子及び水平スクリーン16A上の状況を撮像可能に配置されている。   The second camera 30A is constituted by a CCD camera, and is arranged so as to be able to take an image of the state of the user 34A and the situation on the horizontal screen 16A from the uppermost end side of the facing screen 17A along the surface direction.

前記第2プロジェクタ32Aは、第2のカメラユニット12の第2カメラ30Bの画像を対面スクリーン17Aの裏側から投影するようになっている。なお、第2プロジェクタ32Aと第2カメラ30Bとの画像データの通信は、端末26A,26B間の通信とは別の公知の画像通信手段によって行われるが、端末26A,26Bを使って通信してもよい。   The second projector 32A projects the image of the second camera 30B of the second camera unit 12 from the back side of the facing screen 17A. The communication of the image data between the second projector 32A and the second camera 30B is performed by a known image communication means different from the communication between the terminals 26A and 26B. However, the communication is performed using the terminals 26A and 26B. Also good.

次に、前記映像コミュニケーションシステム10における影画像の作成及び表示について説明する。なお、以下においては、主として第1のカメラユニット11側について説明するが、第2のカメラユニット12側についても同様である。   Next, creation and display of shadow images in the video communication system 10 will be described. In the following, the first camera unit 11 side will be mainly described, but the same applies to the second camera unit 12 side.

先ず、初期設定として、操作具19Aの固定情報、つまり、操作具19Aの長さや径、及びレシーバ39Aの取り付け位置に関する情報が、所定の入力動作によって端末26Aに記憶される。そして、水平スクリーン16A上の任意の位置に操作具19Aを置き、当該操作具19Aを第1カメラ22Aで撮像する。このとき、操作具19Aの画像を二値化し、水平スクリーン16A上の操作具19Aの基準位置を特定する。その後、水平スクリーン16A上に物体15Aを置くとともに、使用者34Aが操作具19Aを手に持って、対面スクリーン17Aに映っている相手方の物体15B方向に操作具19Aを移動させる。すると、端末26Aにより、次のような画像処理が行われて、各フレーム(静止画)単位で前記影画像が作成される。   First, as an initial setting, fixed information of the operation tool 19A, that is, information on the length and diameter of the operation tool 19A and the attachment position of the receiver 39A is stored in the terminal 26A by a predetermined input operation. Then, the operating tool 19A is placed at an arbitrary position on the horizontal screen 16A, and the operating tool 19A is imaged by the first camera 22A. At this time, the image of the operation tool 19A is binarized, and the reference position of the operation tool 19A on the horizontal screen 16A is specified. Thereafter, the object 15A is placed on the horizontal screen 16A, and the user 34A holds the operation tool 19A in his / her hand and moves the operation tool 19A in the direction of the object 15B of the other party reflected on the facing screen 17A. Then, the following image processing is performed by the terminal 26A, and the shadow image is created for each frame (still image).

先ず、第1カメラ22Aにより、水平スクリーン16A上に設置された物体15Aが撮像され、その画像データが二値化されて、図2(A)に示されるように、水平スクリーン16A上における物体15Aの存在領域に対応して、黒塗り状の物体影画像47Aが作成される。この物体影画像47Aは、後述するように、照明光等によって発生する物体15Aの実際の影の上に覆い隠すように第1プロジェクタ28Aから投影されることになる。これによって、前記実際の影と、仮想影画像44Aとの画質の違いやジャギーの有無に基づく影の分離感を低減させることができる。
これと前後して、磁気センサユニット24Aによって操作具19Aの位置及び姿勢が時系列的に特定され、それらの情報と、初期に設定された操作具19Aの前記基準位置の情報及び前記固定情報とから、原寸大の操作具19Aに対して変倍や角度変位等をさせる所定のアルゴリズムにより、操作具19Aの操作に応じて仮想影画像36Aの長さ、幅、位置、角度が決定される。つまり、操作具19Aの移動量に伴って、当該操作具19Aの真下が始点となる仮想影映像36Aの長さを延ばし、且つ、仮想影映像36Aの延伸方向を操作具19Aの移動方向に略一致させるようにする。本例のように、操作具19Aを物体15B方向に移動させる場合には、仮想影画像36Aは、操作具19Aの真下から物体15B方向に延びるように作成される。このときの仮想影映像36Aは、自己の第1カメラユニット11内に延びる自己表示領域44Aと、当該自己表示領域44Aに連なって他の第2カメラユニット12内に延びる相手方表示領域45Aとによって構成される。なお、操作具19Aの動作量が所定量以下のときは、相手方表示領域45Aは作成されず、仮想影映像36Aは、第1カメラユニット11の水平スクリーン16A内及び第2カメラユニット12の対面スクリーン16B内のみで延びることとなる。
相手方表示領域45Aに関するデータは、相手方の第2カメラユニット12側の端末26Bに送信される。その反対に、端末26Bで作成された仮想影映像36Bのうち、第1のカメラユニット11内に延びる相手方表示領域45Bに関するデータが、端末26Aに受信される。
そして、図2(B)に示されるように、前記物体影画像47Aと、第1カメラユニット11側で作成された仮想影画像36Aの中の自己表示領域44Aと、第2カメラユニット12側で作成された仮想影画像36Bの中の相手側表示領域45Bとが、それぞれ重ね合わされ影画像が作成される。
First, the first camera 22A picks up an image of the object 15A installed on the horizontal screen 16A, and binarizes the image data. As shown in FIG. 2A, the object 15A on the horizontal screen 16A is obtained. A black-painted object shadow image 47A is created corresponding to the existence area of the image. As will be described later, the object shadow image 47A is projected from the first projector 28A so as to cover the actual shadow of the object 15A generated by illumination light or the like. Thereby, it is possible to reduce the feeling of separation of the shadow based on the difference in image quality between the actual shadow and the virtual shadow image 44A and the presence or absence of jaggies.
Before and after this, the position and orientation of the operation tool 19A are specified in time series by the magnetic sensor unit 24A, the information thereof, the information on the reference position of the operation tool 19A set initially, and the fixed information Thus, the length, width, position, and angle of the virtual shadow image 36A are determined according to the operation of the operation tool 19A by a predetermined algorithm that causes the full-size operation tool 19A to perform scaling, angular displacement, and the like. That is, with the amount of movement of the operation tool 19A, the length of the virtual shadow image 36A starting from right below the operation tool 19A is extended, and the extending direction of the virtual shadow image 36A is substantially the same as the movement direction of the operation tool 19A. Try to match. When the operation tool 19A is moved in the direction of the object 15B as in this example, the virtual shadow image 36A is created so as to extend in the direction of the object 15B from directly below the operation tool 19A. The virtual shadow image 36A at this time is configured by a self-display area 44A extending into the first camera unit 11 of the self and a counterpart display area 45A extending into the other second camera unit 12 and continuing to the self-display area 44A. Is done. When the operation amount of the operation tool 19A is equal to or less than the predetermined amount, the opponent display area 45A is not created, and the virtual shadow image 36A is displayed in the horizontal screen 16A of the first camera unit 11 and the facing screen of the second camera unit 12. It will extend only within 16B.
Data related to the other party display area 45A is transmitted to the terminal 26B on the second camera unit 12 side of the other party. On the other hand, of the virtual shadow video 36B created by the terminal 26B, data related to the counterpart display area 45B extending in the first camera unit 11 is received by the terminal 26A.
2B, the object shadow image 47A, the self-display area 44A in the virtual shadow image 36A created on the first camera unit 11 side, and the second camera unit 12 side. The other party display area 45B in the created virtual shadow image 36B is overlaid to create a shadow image.

このようにして作成された影画像は、第1プロジェクタ28Aから水平スクリーン16A上に投影される。水平スクリーン16A上には、使用者34Aの意思に基づいて作成された自己表示領域44Aと、相手方となる使用者34Bの意思に基づいて作成された相手側表示領域45Bとが映され、それらを含む影画像は、使用者34Aの様子とともに第2カメラ30Aで撮像され、第2のカメラユニット12側の対面スクリーン17Bに映し出される。一方、第1のカメラユニット12側の対面スクリーン17Aには、第2のカメラユニット12側の影画像と使用者34Bが映し出される。
従って、各スクリーン16A,17A間においては、使用者34Aの意思に基づく自己表示領域44Aと相手方表示領域45Aとが繋がるとともに、相手方となる使用者34Bの意思に基づく自己表示領域44Bと相手方表示領域45Bとが繋がることになって、離れた空間でのコミュニケーションを、あたかも同一の空間内で行うかのような感覚で行うことが可能となる。
The shadow image created in this way is projected on the horizontal screen 16A from the first projector 28A. On the horizontal screen 16A, a self-display area 44A created based on the intention of the user 34A and a partner-side display area 45B created based on the intention of the other user 34B are displayed. The shadow image to be included is captured by the second camera 30A together with the state of the user 34A, and is displayed on the facing screen 17B on the second camera unit 12 side. On the other hand, the shadow image and the user 34B on the second camera unit 12 side are projected on the facing screen 17A on the first camera unit 12 side.
Accordingly, between each screen 16A, 17A, the self-display area 44A based on the intention of the user 34A and the counterpart display area 45A are connected, and the self-display area 44B and the counterpart display area based on the intention of the counterpart user 34B. 45B is connected, and communication in a remote space can be performed as if it were performed in the same space.

従って、このような実施例によれば、異なる場所にそれぞれ設置された物体15A,15Bに対して、自分の場所に存在せずに相手側の場所に実存する物体15A,15Bの部分等を必要に応じて、仮想影画像36A,36Bにより指示することができ、その指示を双方のカメラユニット11,12で表示可能となることから、テレビ会議システム等のコミュニケーションツールとして有効活用することができる。   Therefore, according to such an embodiment, for the objects 15A and 15B installed at different places, the parts of the objects 15A and 15B that are not present at the own place but are present at the other place are required. Accordingly, the virtual shadow images 36A and 36B can be instructed, and the instruction can be displayed on both the camera units 11 and 12, so that it can be effectively used as a communication tool such as a video conference system.

前記仮想影画像36A,36Bを作成する際に、操作具19A,19Bをある程度速く動かしたときに、より長く延びた仮想影画像36A,36Bを作成するようにしてもよく、この場合には、痴呆症や自閉症患者の治療装置として利用価値がある。操作具の速度や角速度は、磁気センサユニット24A,24Bによるフレーム毎の位置、姿勢の変化から各フレーム間の経過時間をタイマで測定して演算によって求められる。   When creating the virtual shadow images 36A and 36B, the virtual shadow images 36A and 36B that extend longer when the operation tools 19A and 19B are moved to a certain degree of speed may be created. It is useful as a treatment device for patients with dementia and autism. The speed and angular velocity of the operation tool can be obtained by calculating the elapsed time between the frames using a timer from the change in position and orientation of each frame by the magnetic sensor units 24A and 24B.

その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。   In addition, the configuration of each part of the apparatus in the present invention is not limited to the illustrated configuration example, and various modifications are possible as long as substantially the same operation is achieved.

本発明の一実施例に係る映像コミュニケーションシステムの概略構成図。1 is a schematic configuration diagram of a video communication system according to an embodiment of the present invention. (A)は、物体影画像の状態を示す平面的な模式図であり、(B)は、(A)の状態に仮想影画像を重ね合わせた状態を示す平面的な模式図である。(A) is a schematic plan view showing a state of an object shadow image, and (B) is a schematic plan view showing a state in which a virtual shadow image is superimposed on the state of (A).

符号の説明Explanation of symbols

10 映像コミュニケーションシステム
11 第1のカメラユニット
12 第2のカメラユニット
15A,15B 物体
16A,16B 水平スクリーン(第1スクリーン)
17A,17B 対面スクリーン(第2スクリーン)
19A,19B 操作具
22A,22B 第1カメラ(物体撮像手段)
24A,24B 磁気センサユニット(操作検出手段)
26A,26B 端末(影画像作成手段)
28A,28B 第1プロジェクタ(第1投影手段)
30A,30B 第2カメラ(状況撮像手段)
32A,32B 第2プロジェクタ(第2投影手段)
34A,34B 使用者
36A,36B 仮想影画像
44A,44B 自己表示領域
45A,45B 相手側表示領域
47A.47B 物体影画像
DESCRIPTION OF SYMBOLS 10 Image | video communication system 11 1st camera unit 12 2nd camera unit 15A, 15B Object 16A, 16B Horizontal screen (1st screen)
17A, 17B Face-to-face screen (second screen)
19A, 19B Operation tool 22A, 22B First camera (object imaging means)
24A, 24B Magnetic sensor unit (operation detection means)
26A, 26B terminal (shadow image creation means)
28A, 28B First projector (first projection means)
30A, 30B second camera (status imaging means)
32A, 32B Second projector (second projection means)
34A, 34B User 36A, 36B Virtual shadow image 44A, 44B Self-display area 45A, 45B Counterpart display area 47A. 47B Object shadow image

Claims (4)

少なくとも二組のカメラユニット間で画像データの通信が可能となる映像コミュニケーションシステムにおいて、
前記各カメラユニットは、連続配置された第1スクリーン及び第2スクリーンと、使用者の手で移動可能な操作具と、当該操作具の位置及び姿勢を検出する操作検出手段と、前記操作具の移動に対応した影画像を作成する影画像作成手段と、当該影画像作成手段で作成された影画像を前記第1スクリーンに投影する第1投影手段と、前記第1スクリーンに投影された影画像及びその周囲の状況を撮像する状況撮像手段と、他のカメラユニットにおける前記状況撮像手段からの画像を前記第2スクリーンに投影する第2投影手段とを備え、
前記影画像作成手段は、前記操作検出手段により検出された前記操作具の位置及び姿勢に基づいて前記操作具の仮想影画像を作成することを特徴とする映像コミュニケーションシステム。
In a video communication system that enables image data communication between at least two camera units,
Each of the camera units includes a first screen and a second screen that are continuously arranged, an operation tool that can be moved by a user's hand, an operation detection unit that detects a position and a posture of the operation tool, Shadow image creation means for creating a shadow image corresponding to movement, first projection means for projecting the shadow image created by the shadow image creation means onto the first screen, and shadow image projected on the first screen And situation imaging means for imaging the situation around it, and second projection means for projecting an image from the situation imaging means in another camera unit onto the second screen,
The video communication system, wherein the shadow image creating means creates a virtual shadow image of the operating tool based on the position and orientation of the operating tool detected by the operation detecting means.
前記仮想影画像は、自己のカメラユニット内で延びる自己表示領域と、当該自己表示領域に連なって他のカメラユニット内で延びる相手方表示領域とにより構成され、
前記影画像作成手段は、前記自己表示領域と、他のカメラユニットで作成された前記相手方表示領域とを重ね合わせることで、前記影画像を作成することを特徴とする請求項1記載の映像コミュニケーションシステム。
The virtual shadow image is composed of a self-display area extending in the own camera unit, and a counterpart display area extending in the other camera unit connected to the self-display area,
2. The video communication according to claim 1, wherein the shadow image creating means creates the shadow image by superimposing the self-display area and the opponent display area created by another camera unit. system.
前記各カメラユニットは、前記第1スクリーン上の物体を撮像する物体撮像手段を更に備え、
前記影画像作成手段は、前記物体撮像手段で撮像された画像データを二値化することで物体影画像を作成し、当該物体影画像を前記仮想影画像に重ね合わせることで、前記影画像を作成することを特徴とする請求項1又は2記載の映像コミュニケーションシステム。
Each camera unit further includes object imaging means for imaging an object on the first screen,
The shadow image creating means creates an object shadow image by binarizing the image data picked up by the object image pickup means, and superimposes the object shadow image on the virtual shadow image to thereby convert the shadow image. The video communication system according to claim 1, wherein the video communication system is created.
前記第1スクリーンは、略水平配置される一方、前記第2スクリーンは、前記第1スクリーンの一端縁側から外側斜め上方に傾斜配置され、前記状況撮像手段は、前記第2スクリーンの最上端側からその面方向に沿う向きで撮像可能に配置されていることを特徴とする請求項1、2又は3記載の映像コミュニケーションシステム。   The first screen is disposed substantially horizontally, while the second screen is inclined obliquely outward and upward from one end edge side of the first screen, and the situation imaging means is disposed from the uppermost end side of the second screen. 4. The video communication system according to claim 1, wherein the video communication system is arranged so as to be capable of imaging in a direction along the surface direction.
JP2004063443A 2004-03-08 2004-03-08 Video communication system Expired - Fee Related JP4452100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004063443A JP4452100B2 (en) 2004-03-08 2004-03-08 Video communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004063443A JP4452100B2 (en) 2004-03-08 2004-03-08 Video communication system

Publications (2)

Publication Number Publication Date
JP2005252913A JP2005252913A (en) 2005-09-15
JP4452100B2 true JP4452100B2 (en) 2010-04-21

Family

ID=35032946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004063443A Expired - Fee Related JP4452100B2 (en) 2004-03-08 2004-03-08 Video communication system

Country Status (1)

Country Link
JP (1) JP4452100B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171749A (en) * 2009-01-23 2010-08-05 Nippon Telegr & Teleph Corp <Ntt> Handy space sharing system and method for removing image
US20180027220A1 (en) * 2015-01-30 2018-01-25 Ent. Services Development Corporation Lp Virtual space calibration
JP7556240B2 (en) 2020-09-08 2024-09-26 沖電気工業株式会社 IMAGE PROCESSING APPARATUS, PROGRAM, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM

Also Published As

Publication number Publication date
JP2005252913A (en) 2005-09-15

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
JP2008129775A (en) Display control unit, display device and display control method
JP5258399B2 (en) Image projection apparatus and control method thereof
JP2013258614A (en) Image generation device and image generation method
JP2002503893A (en) Virtual reality camera
JP5869712B1 (en) Head-mounted display system and computer program for presenting a user&#39;s surrounding environment in an immersive virtual space
JP2014233035A (en) Information processor, display control method and program
JP2024088711A (en) Image Processing Device
JP2016213674A (en) Display control system, display control unit, display control method, and program
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP6219037B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
WO2018112838A1 (en) Head-mounted display apparatus, and visual-aid providing method thereof
JP2011113206A (en) System and method for video image communication
JP4452100B2 (en) Video communication system
KR102613487B1 (en) Apparatus for omnidirectional image photographing and electronic devcie including the same
TW201135583A (en) Telescopic observation method for virtual and augmented reality and apparatus thereof
JP6700672B2 (en) Remote communication system, its control method, and program
JP2008011187A (en) Display controller
JP2015019215A (en) Imaging apparatus and imaging method
US20170155892A1 (en) Wearable stereoscopic camera system for 3d virtual reality imaging and networked area learning
JP2008245168A (en) Information processing system, information processing apparatus and information processing program
JP2019139697A (en) Display device, video display system, and video display method
WO2024089889A1 (en) Remote communication system and remote communication method
WO2022255058A1 (en) Information processing device and image generation method
JP7059829B2 (en) Information processing equipment, information processing methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees