KR100611680B1 - Multi modal interaction-based remote meeting system - Google Patents

Multi modal interaction-based remote meeting system Download PDF

Info

Publication number
KR100611680B1
KR100611680B1 KR1020050056052A KR20050056052A KR100611680B1 KR 100611680 B1 KR100611680 B1 KR 100611680B1 KR 1020050056052 A KR1020050056052 A KR 1020050056052A KR 20050056052 A KR20050056052 A KR 20050056052A KR 100611680 B1 KR100611680 B1 KR 100611680B1
Authority
KR
South Korea
Prior art keywords
interaction
computer
network
remote
augmented reality
Prior art date
Application number
KR1020050056052A
Other languages
Korean (ko)
Inventor
권용무
박진우
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020050056052A priority Critical patent/KR100611680B1/en
Application granted granted Critical
Publication of KR100611680B1 publication Critical patent/KR100611680B1/en

Links

Images

Classifications

    • G06Q50/40
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences

Abstract

본 발명은 DVM-ARPN 및 네트워크 핸드쉐이크를 이용한 멀티모달 인터랙션 기반 원격미팅 시스템에 관한 것으로, 특히, 제1 인터랙션 디바이스와, 제1 인터랙션 디바이스에 접속되는 적어도 하나의 제1 컴퓨터와, 제1 컴퓨터에 접속되는 제1 디지털비디오 전송디바이스와, 제1 컴퓨터와 네트워크로 연결되는 적어도 하나의 제2 컴퓨터와, 제2 컴퓨터에 접속되며, 제1 인터랙션 디바이스에 대응하는 제2 인터랙션 디바이스와, 제2 컴퓨터에 접속되는 제2 디지털비디오 전송디바이스를 포함하며, 제1 및 제2 디지털비디오 전송디바이스로부터 제공되는 디지털 영상을 증강현실의 배경으로 이용하여 가상물체를 증강하며, 가상물체를 제1 및 제2 인터랙션 디바이스로 인터랙션을 가하는 멀티모달 인터랙션 기반 원격미팅 시스템을 제공한다.The present invention relates to a multimodal interaction based remote meeting system using DVM-ARPN and network handshake, and more particularly, to a first interaction device, at least one first computer connected to the first interaction device, and a first computer. A first digital video transmission device to be connected, at least one second computer connected to a network with the first computer, a second interaction device connected to the second computer and corresponding to the first interaction device, and to the second computer. A second digital video transmission device to be connected; augment a virtual object by using a digital image provided from the first and second digital video transmission devices as a background of augmented reality, and use the virtual object as a first and second interaction device. It provides a multi-modal interaction based remote meeting system that applies interaction.

증강현실, 햅틱, 인터랙션, 가상물체, DV-ARPN, 네트워크 핸드쉐이크 Augmented Reality, Haptic, Interaction, Virtual Objects, DV-ARPN, Network Handshake

Description

멀티모달 인터랙션 기반 원격미팅 시스템{Multi Modal Interaction-based Remote Meeting System}Multi Modal Interaction-based Remote Meeting System

도 1은 본 발명의 바람직한 실시예에 의한 멀티모달 인터랙션 기반 원격미팅 시스템을 개략적으로 나타낸 구성도이다.1 is a schematic diagram showing a multi-modal interaction-based remote meeting system according to a preferred embodiment of the present invention.

도 2는 도 1의 실시예에 적용되는 밀그램의 정의에 따른 혼합현실을 나타내는 분류도이다.FIG. 2 is a classification diagram illustrating mixed reality according to a definition of a millgram applied to the embodiment of FIG. 1.

도 3은 도 1의 실시예에 적용되는 ARToolKit 사용하여 증강현실을 구성하는 흐름도이다.3 is a flowchart of augmented reality using ARToolKit applied to the embodiment of FIG. 1.

도 4는 도 1의 DV-ARPN에 적용되는 종래 기술과의 관계를 나타내는 구조도이다.4 is a structural diagram showing a relationship with the prior art applied to the DV-ARPN of FIG.

도 5는 도 1의 원격미팅 시스템을 응용한 원격미팅의 흐름도이다.5 is a flowchart of a remote meeting using the remote meeting system of FIG. 1.

도 6은 멀티캐스트 환경에서 도 1의 원격미팅 시스템을 적용한 실시예를 나타내는 예시도이다.6 is an exemplary diagram illustrating an embodiment in which the remote meeting system of FIG. 1 is applied in a multicast environment.

도 7은 본 발명에서 제안하는 원격미팅 시스템과 종래의 원격미팅 시스템을 비교하는 개념도이다.7 is a conceptual diagram comparing the remote meeting system proposed in the present invention and the conventional remote meeting system.

도 8a는 본 발명에 의한 DV-ARPN을 원격지에서 구현한 영상을 나타내는 예시도이다.8A is an exemplary diagram showing an image of a DV-ARPN according to the present invention implemented remotely.

도 8b는 본 발명에 의한 DV-ARPN을 로컬에서 구현한 영상을 나타내는 예시도이다.8b is an exemplary view showing a local implementation of DV-ARPN according to the present invention.

본 발명은 원격미팅 시스템에 관한 것으로, 보다 상세하게는 실감 및 네트워크 환경에서의 인터랙션을 제공하기 위해서 DV-ARPN 및 네트워크 핸드쉐이크를 이용한 멀티모달 인터랙션 기반 원격미팅 시스템에 관한 것이다.The present invention relates to a remote meeting system, and more particularly, to a multi-modal interaction based remote meeting system using DV-ARPN and network handshake to provide interaction in a realistic and network environment.

원격미팅 시스템 기술은 처음 소개된 이래로 네트워크 환경과 압축 기술의 급격한 발전에 힘입어 나날이 발전하고 연구되고 있는 분야이다. 이는 멀리 떨어져 있는 사람들이 네트워크를 통해 하나의 주제를 가지고 미팅을 할 수 있도록 하는 기술로서, 대면 접촉(face-to-face) 미팅에서 생길 수 있는 이동 시간의 낭비, 의사 결정 지연 등과 같은 장애 요소를 제거함으로써 생산성을 높이고 시간을 효과적으로 사용할 수 있게 한다.Remote meeting system technology is an area that has been developed and studied day by day due to the rapid development of network environment and compression technology. This is a technology that allows distant people to meet on a single topic over the network, eliminating obstacles such as wasted travel time and delayed decision making that can occur in face-to-face meetings. Elimination can increase productivity and make effective use of time.

하지만, 종래의 원격미팅 연구는 음성과 영상(Audio/Video; A/V))의 질을 높이는 데에만 초점을 맞추었다. 다시 말해, 종래의 원격미팅 시스템은 A/V 기반의 서비스가 주를 이루고 있는 한계가 있다. 예컨대, 종래의 대표적인 상용 프로그램으로서 마이크로 소프트사의 넷미팅(NetMeeting)이 있으며, 공개되어 진행되고 있는 프로젝트로는 액세스 그리드(Access Grid) 프로젝트가 있다.However, conventional remote meeting research has focused only on improving the quality of audio and video (A / V). In other words, the conventional remote meeting system has a limitation that the A / V-based service is the main. For example, a representative commercial program of the related art is Microsoft's NetMeeting, and an open project is an Access Grid project.

한편, 사용자가 실감을 느낄 수 있는 원격미팅 시스템을 구성하기 위한 연구 도 활발히 진행되고 있으며, 이에 따라 혼합 현실(Mixed Reality)을 응용한 여러 가지 원격미팅 시스템이 소개되었다. 하지만, 이러한 원격미팅 시스템들은 아직 실제 얼굴을 마주하며 하는 대면 접촉 미팅과 비교하여 분명한 한계점을 지니고 있으며, 특히 사용자와 사용자간의 인터랙션(interaction)에 응용한 사례는 햅틱기반 네트워크 스파이더(Networked SPIDAR) 정도뿐이다. 여기서, 네트워크 스파이더는 촉각을 느낄 수 있는 햅틱 장치 중 하나인 스파이더에 네트워크 개념을 추가시킨 것이다.On the other hand, researches are being actively conducted to construct a remote meeting system in which a user can feel a sense of reality, and thus, various remote meeting systems using mixed reality have been introduced. However, these remote meeting systems have clear limitations compared to face-to-face meetings that are still face-to-face, and the only application of the user to user interaction is the haptic-based Networked SPIDAR. . Here, the network spider adds a network concept to the spider, which is one of the haptic devices that can feel tactile.

증강 현실(Augmented Reality)을 구현하기 위한 공개된 소프트웨어인 ARToolKit(Augmented Reality ToolKit)를 소개하자면, 이 ARToolKit는 프로그래머로 하여금 증강 현실을 쉽게 구성하게 해주는 라이브러리이다. ARToolKit은 컴퓨터 비전 기술을 이용하여 실제 세계(Real Environment)의 마커(marker)의 위치에 대응되는 실제 카메라(단일 카메라) 위치를 계산하여 실시간으로 해당되는 가상 물체를 그 마커의 위에 오버레이 시켜주는 간편한 도구이다. 이러한 편리성으로 인해서, 증강 현실을 구현하기 위해 범용적으로 사용되고 있다.Introducing Augmented Reality ToolKit (ARToolKit), an open source software for implementing Augmented Reality, is a library that makes it easy for programmers to configure augmented reality. ARToolKit is a simple tool that uses computer vision technology to calculate the location of a real camera (single camera) that corresponds to the location of a marker in the real environment, and overlays the virtual object on top of the marker in real time. to be. Because of this convenience, it is used universally to implement augmented reality.

이러한 종래의 ARToolKit을 사용한 증강 현실 기술은 그 배경으로 사용되는 실제 세계가 로컬 카메라(local camera)의 입력으로부터 얻어지는 영상이므로 사용자가 구성할 수 있는 배경이 제한적이게 된다. 즉, 증강현실 기술에 네트워크 개념이 포함되어 있지 않다. 또한, SXGA(1280x1024)급 모니터가 보편화되고 있는 시점에서 QVGA급 (320x240)이나 VGA급(640x480) 영상만을 제공하는 일반 카메라의 사용은 증강 현실의 현실감을 떨어뜨리는 문제점이 있다. 또한, 종래의 증강현실 기 술에는 네트워크 개념이 존재하지 않는다.This conventional ARToolKit augmented reality technology is a real world used as the background image is obtained from the input of the local camera (local camera) The background that the user can configure becomes limited. That is, augmented reality technology does not include a network concept. In addition, when SXGA (1280x1024) monitors are becoming more common, the use of a general camera that provides only QVGA (320x240) or VGA (640x480) images has a problem of degrading the reality of augmented reality. In addition, there is no network concept in the conventional augmented reality technology.

한편, 사용자는 실제 세계의 마커를 이동시킴으로써 가상 물체를 이동시킬 수 있지만 이것은 가상 물체의 이동만이 가능한 것으로 가상 물체와의 실질적인 인터랙션이라고 볼 수 없는 분명한 한계점이다.On the other hand, the user can move the virtual object by moving the marker of the real world, but this is only a movement of the virtual object is a clear limitation that can not be seen as a substantial interaction with the virtual object.

본 발명의 목적은 상기와 같은 문제점을 해결하기 위한 것으로, 증강현실에 디지털영상 전송기술을 결합시키며 인터랙션 디바이스를 이용하여 가상물체와의 인터랙션을 구현함으로써, 실감 및 네트워크 환경에서의 인터랙션이 가능한 멀티모달 인터랙션 기반 원격미팅 시스템을 제공한다.An object of the present invention is to solve the above problems, by combining the digital image transmission technology to augmented reality and by using the interaction device to implement the interaction with the virtual object, multi-modal that can interact in the realistic and network environment Provides an interaction-based remote meeting system.

상기와 같은 목적을 달성하기 위하여, 본 발명에 의한 멀티모달 인터랙션 기반 원격미팅 시스템은 제1 인터랙션 디바이스와, 상기 제1 인터랙션 디바이스에 접속되는 적어도 하나의 제1 컴퓨터와, 상기 제1 컴퓨터에 접속되는 제1 디지털비디오 전송디바이스와, 상기 제1 컴퓨터와 네트워크로 연결되는 적어도 하나의 제2 컴퓨터와, 상기 제2 컴퓨터에 접속되며, 상기 제1 인터랙션 디바이스에 대응하는 제2 인터랙션 디바이스와, 상기 제2 컴퓨터에 접속되는 제2 디지털비디오 전송디바이스를 포함하며, 상기 제1 및 제2 디지털비디오 전송디바이스로부터 제공되는 디지털 영상을 증강현실의 배경으로 이용하여 가상물체를 증강하며, 상기 가상물체를 상기 제1 및 제2 인터랙션 디바이스로 인터랙션을 가한다.In order to achieve the above object, the multimodal interaction-based remote meeting system according to the present invention includes a first interaction device, at least one first computer connected to the first interaction device, and a first interaction device. A first digital video transmission device, at least one second computer connected to the first computer and a network, a second interaction device connected to the second computer and corresponding to the first interaction device, and the second And a second digital video transmission device connected to a computer, augmenting a virtual object using a digital image provided from the first and second digital video transmission devices as a background of augmented reality, and using the virtual object as the first image. And interact with the second interaction device.

멀티모달 인터랙션 기반 원격미팅 시스템에 있어서, 상기 제1 또는 제2 인터 랙션 디바이스는 햅틱 디바이스이다. 서로 대응하는 상기 제1 및 제2 햅틱 디바이스는 네트워크 핸드쉐이크를 제공한다.In a multimodal interaction based remote meeting system, the first or second interaction device is a haptic device. The first and second haptic devices corresponding to each other provide a network handshake.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 의한 멀티모달 인터랙션 기반 원격미팅 시스템을 개략적으로 나타낸 구성도이다.1 is a schematic diagram showing a multi-modal interaction-based remote meeting system according to a preferred embodiment of the present invention.

도 1을 참조하면, 제1 인터랙션 디바이스(116)와, 제1 인터랙션 디바이스(116)에 접속되는 제1 컴퓨터(112)와, 제1 컴퓨터(112)에 접속되는 제1 디지털비디오 전송디바이스(114)와, 제1 컴퓨터(112)와 네트워크로 연결되는 적어도 하나의 제2 컴퓨터(152)와, 제2 컴퓨터(152)에 접속되며, 제1 인터랙션 디바이스(116)에 대응하는 제2 인터랙션 디바이스(156)와, 제2 컴퓨터(152)에 접속되는 제2 디지털비디오 전송디바이스(154)를 포함하며, 제1 및 제2 디지털비디오 전송디바이스(114,154)로부터 네트워크를 통해서 제공되는 디지털 영상을 증강현실의 배경으로 이용하여 가상물체를 증강하며, 가상물체를 제1 및 제2 인터랙션 디바이스(116,156)로 인터랙션을 가하는 멀티모달 인터랙션 기반 원격미팅 시스템(100)이 도시되어 있다. 제1 및 제2 인터랙션 디바이스(116,156)로는 마우스, 트랙커, 조이스틱, 햅틱 디바이스(haptic device) 등이 있으며, 본 실시예에서 제1 인터랙션 디바이스로는 팬텀(PHANToM)(116)을, 제2 인터랙션 디바이스로는 포스-피드백 조이스틱(force-feedback joystick)(156)을 예시한다. 팬텀 및 포스-피드백 조이스틱은 햅틱 디바이스(haptic device)에 포함된다.1, a first interaction device 116, a first computer 112 connected to the first interaction device 116, and a first digital video transmission device 114 connected to the first computer 112. ), At least one second computer 152 networked with the first computer 112, and a second interaction device connected to the second computer 152 and corresponding to the first interaction device 116 ( 156, and a second digital video transmission device 154 connected to the second computer 152, the digital image provided from the first and second digital video transmission devices (114, 154) via a network of augmented reality A multimodal interaction based remote meeting system 100 is shown that augments a virtual object using the background and applies the virtual object to the first and second interaction devices 116 and 156. The first and second interaction devices 116 and 156 may include a mouse, a tracker, a joystick, a haptic device, and the like. In this embodiment, the first interaction device may include a PHANToM 116 and a second interaction device. The furnace illustrates a force-feedback joystick 156. Phantom and force-feedback joysticks are included in haptic devices.

여기서, 햅틱이란 '촉감의' 또는 '촉감과 관련된' 것을 의미하고 햅틱 디바이스란 사용자가 이러한 촉감을 느낄 수 있게 포스-피드백(force-feedback) 기능을 제공해 주는 다양한 종류의 인터페이스 장치를 의미한다. 대표적인 햅틱 디바이스로서 팬텀(PHANToM), 사이버그래스프(Cybergrasp), 또는 스파이더(SPIDAR) 등이 있으며, 이를 이용하여 사용자와 컴퓨터 사이의 인터랙션을 구현하게 된다. 하지만, 본 실시예에서는 사용자와 컴퓨터 사이의 인터랙션을 구현하는 것이 아니라, 네트워크로 연결된 사용자와 사용자사이의 인터랙션을 구현한다.Here, the haptic means 'touch' or 'touch related', and the haptic device refers to various kinds of interface devices that provide a force-feedback function so that the user can feel the touch. Representative haptic devices include PHANToM, Cyberberg, or Spider, and use them to implement interaction between a user and a computer. However, in the present embodiment, not the interaction between the user and the computer, but the interaction between the user and the user connected via the network.

다시 말해, 팬텀(116)과 포스-피드백 조이스틱(156)을 네트워크에 연결시켜 서로 상대방의 힘을 느끼면서 동시에 자기가 움직이는 힘을 상대에게 전달한다. 이를 통해 본 실시예의 시스템을 이용하는 사용자는 서로간의 실감나는 접촉을 함으로써 몰입감을 느낄 수 있다.In other words, the phantom 116 and the force-feedback joystick 156 are connected to the network to sense the power of each other and at the same time transmit the power that they move to the other. Through this, users using the system of the present embodiment may feel immersive by making realistic contacts with each other.

제1 및 제2 디지털비디오 전송디바이스(114,154)는 디지털비디오의 스트리밍(streaming)이 가능한 DVTS(Digital Video Transport System)이다.The first and second digital video transmission devices 114 and 154 are digital video transport systems (DVTSs) capable of streaming digital video.

본 발명에서 제안하는 DV-ARPN(Augmented Reality Peripheral Network)를 구현하기 위해서, 공개 소프트웨어인 ARToolKit를 사용하여 윈도즈 플랫폼 상의 비쥬얼 C++ 을 기반으로 구성하였다. 즉, 본 실시예에서는 제1 및 제2 디지털비디오 전송디바이스(114,154)로부터 영상입력을 받는 부분을 수정함으로써, 제1 또는 제2 디지털비디오 전송디바이스(114,154)에 각각 접속된 제1 또는 제2 컴퓨터(112,152)로부터 네트워크를 통해 연결된 제2 또는 제1 컴퓨터(152,112)로 전송된 DV 스트리밍을 증강 현실의 배경으로 사용한다. 한편, 전송된 DV 스트리밍은 제1 디스플레 이 디바이스(110) 또는 제2 디스플레이 디바이스(150)를 통해 디스플레이될 수 있다.In order to implement the Augmented Reality Peripheral Network (DV-ARPN) proposed in the present invention, it was configured based on Visual C ++ on the Windows platform using ARToolKit, an open software. That is, in the present embodiment, the first or second computer connected to the first or second digital video transmission devices 114 and 154, respectively, by modifying the part receiving the image input from the first and second digital video transmission devices 114 and 154. DV streaming transmitted from (112, 152) to a second or first computer (152, 112) connected via a network is used as the background of augmented reality. Meanwhile, the transmitted DV streaming may be displayed through the first display device 110 or the second display device 150.

증강현실의 배경에 가상물체를 증강시키기 위해 사용되는 ARToolKit는 로컬에 위치한 디지털비디오 전송디바이스(예컨대, USB 카메라)의 입력만을 받아들이지만, 본 실시예에서는 네트워크에 연결된 디지털비디오 전송디바이스로부터의 스트리밍(streaming)이 가능한 DVTS를 ARToolKit과 접목시킴으로써, 원격지에 위치한 DV급(720*480) 영상을 증강현실의 배경으로 사용케 한다. 이와 같이, 사용자는 자신이 위치한 실제 세계로 증강 현실의 배경을 구성해야 하는 한계점을 벗어나 네트워크가 연결된 어디서든지 DV 카메라와 같은 디지털비디오 전송디바이스를 설치함으로써 자신이 위치하고 있지 않더라도 네트워크가 연결된 환경을 증강 현실의 배경으로 사용할 수 있다.ARToolKit, which is used to augment virtual objects in the background of augmented reality, accepts input only from locally located digital video transmission devices (e.g. USB cameras), but in this embodiment streaming from a digital video transmission device connected to a network. By combining DVTS with ARToolKit, a DV-class (720 * 480) image located at a remote location can be used as the background of augmented reality. In this way, the user can install a digital video transmission device such as a DV camera anywhere in the network to overcome the limitations of configuring the background of augmented reality into the real world in which the user is located. Can be used as a background.

예시된 바와 같이, DV-ARPN을 구성하기 위한 증강 현실의 배경으로 사용될 하나의 원격지(REMOTE)와 증강 현실이 실제로 구현될 하나의 로컬(LOCAL)이 네트워크로 연결된 유니캐스트(uni-cast) 환경을 가정하면, 디지털비디오 전송디바이스인 적어도 하나의 DV 카메라(114,154)와 하나의 마커(미도시), 원격지(REMOTE)와 로컬(LOCAL)에서 각각 사용할 적어도 하나의 컴퓨터(112,152), 및 인터랙션을 위한 적어도 하나의 인터랙션 디바이스(116,156)가 최소한으로 요구된다. 바람직하게는, 로컬(LOCAL)에 적어도 하나의 인터랙션 디바이스(156)가 요구된다.As illustrated, one remote (REMOTE) to be used as the background of augmented reality for configuring DV-ARPN and one local (LOCAL) where augmented reality is actually implemented will be networked unicast environment. Suppose, at least one DV camera 114, 154, a digital video transmission device, one marker (not shown), at least one computer 112, 152, respectively, for use at remote and local (LOCAL), and at least for interaction. One interaction device 116, 156 is minimally required. Preferably, at least one interaction device 156 is required locally (LOCAL).

여기서, 원격지(REMOTE)에서 DV 카메라(114)와 함께 배치된 컴퓨터(112)는 DVTS 서버로 동작하여 네트워크를 통해 원격지(REMOTE)의 실제 세계를 전송한다. 로컬(LOCAL)에 배치된 컴퓨터(152)는 DVTS 클라이언트로 동작하여 DVTS 서버에서 전송된 DV 스트리밍을 화면(150)으로 디스플레이한다.Here, the computer 112 arranged with the DV camera 114 at the remote REMOTE acts as a DVTS server to transmit the real world of the remote REMOTE over the network. Computer 152, located locally (LOCAL), acts as a DVTS client to display DV streaming sent from the DVTS server to screen 150. FIG.

이에 따라, 증강현실의 배경으로 사용할 원격지(REMOTE)의 원하는 곳에 마커(marker)를 위치시키고 제1 디지털비디오 전송디바이스(114)를 제1 컴퓨터(112)에 연결한 후 DVTS 서버 프로그램을 실행시켜 로컬(LOCAL)로 전송하면, 로컬(LOCAL)에서는 DV-ARPN을 구동시켜 전송되는 마커가 포함된 DV 스트리밍에서 마커의 위치에 가상 물체(미도시)를 증강시킨다.Accordingly, a marker is placed at a desired location of a remote place to be used as a background of augmented reality, the first digital video transmission device 114 is connected to the first computer 112, and a DVTS server program is executed to execute a local. When transmitting to LOCAL, LOCAL drives DV-ARPN to augment a virtual object (not shown) at the position of the marker in the DV streaming including the transmitted marker.

여기서, 네트워크의 왼쪽을 원격지(REMOTE)로, 오른쪽을 로컬(LOCAL)로 도시하였으나, 원격지(REMOTE)와 로컬(LCOAL)의 구성이 실질적으로 동일한 것이므로 특별히 구분하지 않음은 물론이다.Here, although the left side of the network is shown as a remote (REMOTE) and the right side as a local (LOCAL), the configuration of the remote (REMOTE) and the local (LCOAL) is substantially the same, of course, it does not distinguish.

이제, 증강된 가상 물체를 VRPN(Virtual Reality Peripheral Network)을 이용하여 네트워크 환경에 상관없이 인터랙션을 수행할 수 있게 함으로써, 종래, 마커를 직접 이동시키는 것에 의해서만 가상 물체를 이동시킬 수 있었던 한계로부터 벗어나, 다양한 인터랙션 디바이스를 사용하여 사용자 임으로 임의의 인터랙션 구성이 가능해진다. 가상 물체와의 인터랙션을 위해서 본 실시예에서는 팬텀(116) 및 조이스틱(156)을 이용한다. 가상 물체와의 인터랙션이 프로그램 상에서 정의된 내용대로 조이스틱(156)의 움직임 또는 클릭에 따라 수행된다. 여기서, 로컬(LOCAL)에 위치한 제2 컴퓨터(152)는 조이스틱(156)이 위치해 있으므로 VRPN 서버이며 동시에 인터랙션의 결과가 반영되므로 VRPN 클라이언트이다. 결론적으로, DV-ARPN이 구동되고 있는 네트워크 상의 모든 컴퓨터는 DVTS 클라이언트이면서 동 시에 VRPN 클라이언트가 되며, 디지털비디오 전송디바이스가 위치한 컴퓨터는 DVTS 서버가 되고 인터랙션 디바이스가 위치한 컴퓨터는 VRPN 서버가 된다.Now, by allowing augmented virtual objects to perform interactions using a virtual reality peripheral network (VRPN) irrespective of the network environment, it is possible to move away from the limitation of moving a virtual object only by moving a marker directly. Various interaction devices can be used to construct arbitrary interactions. In this embodiment, the phantom 116 and the joystick 156 are used to interact with the virtual object. Interaction with the virtual object is performed according to the movement or click of the joystick 156 as defined in the program. Here, the second computer 152 located in the local (LOCAL) is a VRPN server because the joystick 156 is located and is a VRPN client since the result of the interaction is reflected at the same time. In conclusion, every computer on the network running DV-ARPN is a DVTS client and a VRPN client at the same time. A computer with a digital video transmission device becomes a DVTS server and a computer with an interaction device becomes a VRPN server.

한편, 로컬(LOCAL)에서 직접 증강을 하지않고 증강된 결과만을 DV 스트리밍을 통해 받는다면 인터랙션은 가능하지 않지만, 증강된 결과만을 스트리밍하는 것이 더 효과적일 수 있다.On the other hand, if only augmented results are received through DV streaming without directly augmenting locally (LOCAL), interaction is not possible, but streaming only augmented results may be more effective.

더 나아가, 멀티캐스트(multi-cast)를 사용하여 다수의 사용자가 하나의 네트워크를 형성하는 경우 인터랙션의 결과를 서로 공유할 수도 있다. 이에 대한 구체적인 예에 대한 설명은 후속하는 도 6을 참조한다.Furthermore, when multiple users form a network by using multicast, the results of the interaction may be shared with each other. For a description of a specific example thereof, see FIG. 6 below.

따라서, 사용자는 자신이 위치한 실제 세계를 증강현실의 배경으로 구성해야 하는 제약점에서 벗어나 네트워크가 연결된 어디서든지 DV 카메라와 같은 디지털비디오 전송디바이스를 설치함으로써, 자신이 위치하고 있지 않더라도 그곳의 환경을 증강 현실의 배경으로 가져다 사용할 수 있다.Thus, users can move away from the limitation of having to set up the real world where they are located in the background of augmented reality and install digital video transmission devices such as DV cameras wherever they are connected to the network. Can be used to bring background.

도 2는 본 발명의 실시예에 적용되는 밀그램의 정의에 따른 혼합현실을 나타내는 분류도이다.Figure 2 is a classification diagram showing the mixed reality according to the definition of the millgram applied to an embodiment of the present invention.

도 2를 참조하면, 밀그램의 분류(Milgram's reality-virtuality Continuum)에 따르면, 가상 현실과 가상 세계의 주변 환경은 가상인 반면, 증강 현실의 주변 환경은 실제이며, 가상 현실, 가상 세계, 및 증강 현실은 모두 혼합 현실의 범주 안에 속한다고 정의한다. 한편, 증강 현실을 구성하기 위해서는 그 배경이 되는 실제 세계의 영상과 그 영상에 증가시키게 될 가상 물체들이 필요하게 된다. 여기서, 본 발명에서 제안하는 DV-ARPN은 증강 현실 기술을 발전시킨 것으로, 증강 현 실 기술은 가상 현실(augmented virtuality)과, 가상 세계(virtual environment) 및 현실 세계(real environment)를 구분 없이 하나의 세계로 통합시키는 것이다. 즉, 증강 현실은 실제 세계에 가상 객체가 동일한 공간에 존재하는 것처럼 표현되고, 가상 현실은 가상 세계에 실제 객체가 동일한 공간에 존재하는 것처럼 표현되며, 이를 모두 혼합 현실이라 한다.Referring to FIG. 2, according to Milgram's reality-virtuality Continuum, the surroundings of the virtual reality and the virtual world are virtual while the surroundings of the augmented reality are real, the virtual reality, the virtual world, and the augmentation. Realities are all defined as belonging to the category of mixed reality. Meanwhile, in order to construct augmented reality, an image of the real world as a background and virtual objects to be added to the image are needed. Here, the DV-ARPN proposed in the present invention is the development of augmented reality technology, augmented reality technology is a virtual reality (augmented virtuality), virtual environment (virtual environment) and the real world (real environment) without distinguishing one To integrate into the world. That is, augmented reality is expressed as if virtual objects exist in the same space in the real world, and virtual reality is expressed as if real objects exist in the same space in the virtual world, all of which are called mixed reality.

또한, 실제 세계의 어떠한 정해진 곳에 가상 물체를 위치시키기 위해 기준이 되는 표식인 마커가 앞서 언급한 바와 같이 필요하며, 이 마커를 실제 세계에 직접 위치시켜 그 위치에 가상 물체를 증강시키게 된다. 하지만, 마커는 단지 가상 물체를 증강시킬 위치 및 방향을 간편하게 찾고자 기준 표식으로 사용하는 것에 불과하므로 반드시 필요하지 않으며 마커 없이 증강 현실을 구현하기 위한 연구도 진행되고 있다.In addition, as mentioned above, a marker, which is a reference mark, is required to position the virtual object at a predetermined place in the real world, and the marker is placed directly in the real world to augment the virtual object at that location. However, since the marker is merely used as a reference marker to easily find a position and direction for augmenting a virtual object, it is not necessary and researches for implementing augmented reality without markers are also in progress.

도 3은 도 1의 실시예에 적용되는 ARToolKit 사용하여 증강현실을 구성하는 흐름도이다.3 is a flowchart of augmented reality using ARToolKit applied to the embodiment of FIG. 1.

도 3을 참조하면, a 단계(input image)에서는 카메라를 통해 영상을 입력받는다. b 단계(thresholding image)에서는 입력된 영상에서 마커를 찾아내기 위해 이진화(binarization)를 한다. 여기서, 이진화는 어떤 값을 기준(threshold level)으로 그 값보다 큰 화소 값은 흰색으로, 작은 값은 검은 색으로 (또는 반대로) 두 가지 값만을 가지는 영상을 생성한다. c 단계(extraction of rectangle region)에서는 이진화된 영상에서 마커의 사각형 영역을 찾는다. d 단계(pose and position estimation)에서는 찾아낸 사각형의 형태를 가지고 어떤 위치에 어떻게 마커가 배치되는지를 추정한다. e 단계(virtual image overlay)에서는 d 단계에서 추정한 바에 따라 가상객체를 위치와 방향에 맞게 증강한다.Referring to FIG. 3, in step a (input image), an image is input through a camera. In step b, a thresholding image is binarized to find a marker in the input image. Here, binarization generates an image having only two values with a threshold level and a pixel value larger than that value in white and a small value in black (or vice versa). In step c (extraction of rectangle region), the rectangular region of the marker is found in the binarized image. In step d (pose and position estimation), the position of the marker is estimated at a certain position in the shape of the found rectangle. In step e (virtual image overlay), the virtual object is augmented according to its position and orientation, as estimated in step d.

도 4는 도 1의 DV-ARPN에 적용되는 종래 기술과의 관계를 나타내는 구조도이다.4 is a structural diagram showing a relationship with the prior art applied to the DV-ARPN of FIG.

도 4를 참조하면, 본 발명에 의한 원격미팅 시스템을 구현하기 위한 DV-ARPN과 DVTS, ARToolKit, 및 VRPN과의 기술적 관계를 나타내고 있다. 즉, ARToolKit에 DVTS를 결합시킴으로써 네트워크를 통해서 연결된 임의의 디지털비디오 전송디바이스로부터의 DV 스트리밍을 증강현실의 배경 영상으로 구현할 수 있고, ARToolKit에 VRPN을 결합시킴으로써 ARToolKit에 의해 증강현실을 배경으로 증강된 가상 물체와의 인터랙션을 구현할 수 있다.4, the technical relationship between DV-ARPN and DVTS, ARToolKit, and VRPN for implementing the remote meeting system according to the present invention is shown. In other words, by combining DVTS with ARToolKit, DV streaming from any digital video transmission device connected through a network can be implemented as an augmented reality background image, and by combining VRPN with ARToolKit, ARToolKit enhances augmented reality in the background. Interaction with objects can be implemented.

따라서, DVTS, ARToolKit, 및 VRPN과의 유기적 결합에 의해서 DV-ARPN이 구현되는 바, 고도의 기술적 지식을 필요로 하므로 당업자에 의해 용이하게 구현되지 않음은 물론이다.Therefore, since the DV-ARPN is implemented by organic coupling with DVTS, ARToolKit, and VRPN, it is not easily implemented by those skilled in the art because it requires a high technical knowledge.

도 5는 도 1의 원격미팅 시스템을 응용한 원격미팅의 흐름도이다.5 is a flowchart of a remote meeting using the remote meeting system of FIG. 1.

도 5를 참조하면, 멀티모달 인터랙션 기반 원격미팅 시스템을 이용한 원격미팅의 바람직한 단계는 그리팅 스테이지(greeting stage), 메인 미팅 스테이지(main meeting stage) 및 페어웰 스테이지(farewell stage)로 이루어진다.Referring to FIG. 5, a preferred stage of remote meeting using a multimodal interaction based remote meeting system includes a greeting stage, a main meeting stage, and a farewell stage.

그리팅 스테이지 또는 페어웰 스테이지에서는 네트워크에 인터랙션 디바이스, 예컨대 햅틱 디바이스를 이용한 네트워크 핸드셰이크(network handshake)가 적용되어 수행된다. 네트워크 핸드쉐이크는 햅틱 디바이스를 이용하여 가상적으로 상대방과 원격 악수를 수행하는 기술로 햅틱 인터페이스를 이용한 포스-피드백 기술에 네트워크의 기능을 결합시킨 것이다.In the greeting stage or the fairwell stage, a network handshake using an interaction device, such as a haptic device, is applied to the network. The network handshake is a technology for virtually shaking hands with a partner using a haptic device, which combines the functions of the network with a force-feedback technique using a haptic interface.

본 실시예에서, 네트워크 핸드쉐이크는 윈도우즈 플랫폼상의 Visual C++ 을 기반으로 PHANToM을 제어할 수 있게 해주는 고스트(GHOST) 라이브러리와 포스-피드백 조이스틱을 위한 다이렉트 엑스(directX)를 사용하여 구현하였다. DVTS를 사용하여 상대방의 영상을 담고 자신의 영상을 보내면서 상대방의 IP 주소를 입력하여 각 햅틱 디바이스의 3DOF(Degree Of Freedom) 정보를 실시간으로 UDP(User Datagram Protocol) 패킷으로 상대방에게 전송하게 된다. 여기서, 자신이 움직여서 발생된 정보와 상대방으로부터의 정보가 충돌하는 것을 방지하기 위해 두 힘의 값을 비교해서 크기가 더 작은 정보는 무시한다.In this example, the network handshake is implemented using the Ghost (GHOST) library, which enables you to control PHANToM based on Visual C ++ on the Windows platform, and directX for the Force-Feedback Joystick. By using DVTS, the other party's image is sent and his / her own image is input, and the other party's IP address is input and the 3DOF (Degree Of Freedom) information of each haptic device is transmitted to the other party in UDP (User Datagram Protocol) packets in real time. Here, in order to prevent a collision between information generated by the user's movement and information from the other party, the smaller information is ignored by comparing two force values.

네트워크 핸드쉐이크의 구성은 특별히 제한되지 않으며, 두 개의 PHANToM을 사용하거나 두 개의 포스-피드백 조이스틱을 사용하여 네트워크 핸드쉐이크를 구성할 수도 있다.The configuration of the network handshake is not particularly limited, and the network handshake may be configured by using two PHANToMs or using two force-feedback joysticks.

본격적인 미팅 주제를 다루게 되는 메인 미팅 스테이지에서는 앞서 설명한 DV-ARPN을 사용한다.The main meeting stage, which covers the full-fledged meeting topic, uses the DV-ARPN described earlier.

따라서, 원격미팅일지라도 실제 미팅처럼 상대방의 존재감을 인지하면서 미팅에 참여하게 되므로 당사자에게 몰입감을 부여하게 된다.Therefore, even in a remote meeting, the participants can participate in the meeting while recognizing the presence of the other party as in the actual meeting, thereby providing immersion to the party.

도 6은 멀티캐스트 환경에서 도 1의 원격미팅 시스템을 적용한 실시예를 나타내는 예시도이다.6 is an exemplary diagram illustrating an embodiment in which the remote meeting system of FIG. 1 is applied in a multicast environment.

도 6을 참조하면, 멀티캐스트 환경에서의 실시예에서는 유니캐스트(unicast) 환경과 달리, 인터랙션 결과를 공유하는 VRPN 클라이언트(760)가 복수 개 존재할 수 있다. 다시 말해, 인터랙션 결과를 공유한다는 점을 제외하고는 본 도에서 원격지(REMOTE)와 로컬1(LOCAL1)만이 존재한다면 도 1에서 설명한 유니캐스트 환경과 그 커뮤니케이션 방법이 실질적으로 동일하다 할 것이다.Referring to FIG. 6, in an embodiment in a multicast environment, unlike a unicast environment, there may be a plurality of VRPN clients 760 sharing an interaction result. In other words, except for sharing the interaction result, if only the remote (REMOTE) and the local 1 (LOCAL1) exist in this figure, the unicast environment and communication method described in FIG. 1 will be substantially the same.

원격지(REMOTE)에서 DV 카메라(714)와 함께 배치된 컴퓨터(712)는 DVTS 서버로 동작하여 네트워크를 통해서 원격지(REMOTE)의 실제 세계를 마커(730)가 표시된 DV 스트리밍으로 각각의 로컬(LOCAL1,LOCAL2,LOCAL3)로 전송한다.A computer 712 deployed with a DV camera 714 at REMOTE acts as a DVTS server to view the real world of the REMOTE over the network as DV streaming marked with marker 730, respectively. LOCAL2, LOCAL3).

이에 따라, 본 발명에서 제안하는 DV-ARPN에 의해 전송된 실제 세계를 배경으로 마커(730)의 위치에 가상물체가 오버레이되며, 인터랙션 디바이스(740)를 이용하여 가상물체(710)에 인터랙션을 가할 수 있다.Accordingly, the virtual object is overlaid on the position of the marker 730 in the background of the real world transmitted by the DV-ARPN proposed in the present invention, and the interaction device 740 is used to apply the interaction to the virtual object 710. Can be.

여기서, 증강되고 있는 가상 물체는 불상(710)이며, DV 스트리밍이 전송되고 있는 실제 배경은 원격지(REMOTE)에 위치한 벽화(720)이다. 벽화(720)와 함께 전송된 마커(730)의 위치에 불상(710)이 증강되어 로컬(LOCAL1,LOCAL2,LOCAL3)에 디스플레이되며, 인터랙션 디바이스인 조이스틱(740)으로 불상(710)과의 인터랙션이 가능하다. 한편, 로컬(LOCAL2,LOCAL3)은 인터랙션의 결과만을 공유할 수도 있다. 또한 적어도 둘 이상의 가상 객체가 생성될 수 있으며, 이에 대한 인터랙션도 독립적으로 수행될 수 있다.Here, the virtual object being augmented is a Buddha image 710, and the actual background where the DV streaming is transmitted is a mural 720 located at a remote location. The Buddha image 710 is augmented at the location of the marker 730 transmitted together with the mural 720 and displayed on the local (LOCAL1, LOCAL2, LOCAL3), and the interaction with the Buddha image 710 is performed by the joystick 740 as an interaction device. It is possible. On the other hand, the local (LOCAL2, LOCAL3) may only share the results of the interaction. In addition, at least two virtual objects may be created, and interactions with them may be performed independently.

도 7은 본 발명에서 제안하는 원격미팅 시스템과 종래의 원격미팅 시스템을 비교하는 개념도이다.7 is a conceptual diagram comparing the remote meeting system proposed in the present invention and the conventional remote meeting system.

도 7을 참조하면, 종래에는 원격미팅 시스템(800)에 RAT(Robust Audio Tool), VIC(Videoconferencing Tool), VLC(VideoLAN Client) 및 DVTS를 적용하여 원격미팅의 음성 및 영상의 질을 향상시키는데 중점을 두었다, 본 발명에서는 증강현실 및 인터랙션을 도입하여 DV-ARPN이라는 신규한 기술을 구현함으로써, 실감 및 몰입감을 주는 원격미팅이 가능하게 된다. 여기서, RAT 및 VIC 는 UCL(University College London)의 네트워크 및 멀티미디어 리서치 그룹(Network and Multimedia Research Group)에서 개발한 원격 회의용 공개 툴로써 RAT 는 오디오 전송을 위한 툴이며 VIC 는 비디오 전송을 위한 툴이다. VLC 은 GNU 라이센스 하에 비디오랜(VideoLAN) 프로젝트로 진행되어 공개된 소프트웨어로 여러 포맷의 영상과 음성을 네트워크로 전송할 수 있는 프로그램이다.Referring to FIG. 7, in the related art, a remote audio system (RAT), a videoconferencing tool (VIC), a VLC (VideoLAN Client), and a DVTS are applied to a remote meeting system 800 to improve the quality of voice and video of a remote meeting. the surface was placed, in the present invention is possible to give remote meetings, and realized by implementing a novel technique known as immersion-DV ARPN introduced the augmented reality and interaction. Here, RAT and VIC are open tools for teleconferencing developed by the University of London's Network and Multimedia Research Group, where RAT is for audio transmission and VIC is for video transmission. VLC is a software released under the GNU license under the VideoLAN project, which is capable of transmitting video and audio in various formats over a network.

도 8a 및 8b는 본 발명에 의한 DV-ARPN을 원격지 및 로컬에서 각각 구현한 영상을 나타내는 예시도이다.8A and 8B are exemplary diagrams illustrating an image of remotely and locally implementing DV-ARPN according to the present invention, respectively.

도 8a를 참조하면, DV 스트리밍 영상을 전송하기 위한 마커(930), DV 카메라(920), 및 DVTS 서버(910)가 예시되어 있으며, 전송시키고 있는 DV 스트리밍 영상이 원격지(REMOTE)에서 디스플레이된다.Referring to FIG. 8A, a marker 930, a DV camera 920, and a DVTS server 910 for transmitting a DV streaming image are illustrated, and the DV streaming image being transmitted is displayed at a remote location.

도 8b를 참조하면, 전송받은 DV 스트리밍 영상을 이용해 로컬(LOCAL)에서 증강 현실을 구현하고 있는 DV-ARPN을 예시한 것으로, 인터랙션 디바이스인 조이스틱(940)이 있으며, 화면상에는 전송받은 DV 스트리밍 영상의 마커 영역에 가상물체인 불상(950)이 증강되어 디스플레이되고 있다.Referring to FIG. 8B, an example of a DV-ARPN that implements augmented reality locally using a received DV streaming image is an interaction device, a joystick 940, which is an interaction device. The virtual image 950, a virtual object, is augmented and displayed in the marker region.

본 발명은 상기 실시예에 한정되지 않으며, 많은 변형이 본 발명의 사상내에서 당 분야에서 통상의 지식을 가진 자에 의하여 가능함은 물론이다.The present invention is not limited to the above embodiments, and many variations are possible by those skilled in the art within the spirit of the present invention.

상술한 바와 같이, 본 발명에 의하면, 종래의 A/V 기반 원격미팅 시스템이 음성과 영상에만 치중하여 사용자에게 실감 있는 환경과 인터랙션 기능을 제대로 주지 못했던 한계점을 극복함으로써, 네트워크 핸드쉐이크와 DV-ARPN이라는 새로운 기술을 이용, 멀티 모달 인터랙션을 지원하는 실감 원격미팅을 구현할 수 있다. 이러한 구현은 원격미팅에만 제한되지 않고 보다 다양한 원격 교육, 원격 협업 등의 다양한 분야에 응용될 수 있는 효과가 있다.As described above, according to the present invention, the network handshake and DV-ARPN by overcoming the limitation that the conventional A / V-based remote meeting system focuses only on voice and video, and does not give the user a realistic environment and interaction functions. With this new technology, you can create realistic remote meetings that support multi-modal interactions. This implementation is not limited to remote meetings, but can be applied to various fields such as more distance education and remote collaboration.

또한, 네트워크 핸드쉐이크에서는 햅틱 디바이스를 이용한 햅틱 인터페이스 기술에 네트워크 개념을 도입함으로써, 사용자와 컴퓨터만의 인터랙션이 아닌 사용자와 사용자간의 인터랙션을 악수라는 대표적인 사람 사이의 커뮤니케이션 수단을 사용하여 구현할 수 있는 효과가 있다.In addition, in the network handshake, the network concept is introduced to the haptic interface technology using the haptic device, so that the interaction between the user and the user can be realized by using a representative means of shaking hands, not the interaction between the user and the computer. have.

또한, DV-ARPN에서는 가상 현실 기술이 로컬 카메라 입력에 의존하여 로컬에 위치한 실제 세계를 배경으로 꾸밀 수밖에 없는 한계점을 극복함으로써, DV 카메라를 이용하여 네트워크상에 위치한 어떤 곳이던지 고화질로 구성된 가상 현실의 배경으로 가져다가 쓸 수 있게 하였다. 따라서, 거리가 너무 멀거나 위험해서 사용자가 직접 방문할 수 없는 곳의 실제 세계라도 언제든지 증강 현실의 배경이 될 수 있는 효과가 있다.In addition, the DV-ARPN overcomes the limitation that virtual reality technology has to rely on the local camera input to set up the local real world in the background. It can be taken in the background and used. Therefore, there is an effect that can be the background of augmented reality at any time even in the real world where the distance is too far or dangerous so that the user can not visit directly.

더 나아가, 증강된 가상 물체에 여러 가지 인터랙션 디바이스를 사용하여 사용자가 직접 인터랙션을 가할 수 있게 함으로써 물체의 이동만이 아닌 보다 다양한 인터랙션을 구성할 수 있고, 이러한 인터랙션 결과를 여러 사용자가 공유할 수 있 어서 교육, 원격미팅 등의 다양한 응용분야에 포괄적으로 이용될 수 있는 효과가 있다.Furthermore, by using a variety of interaction devices on augmented virtual objects, users can directly interact with each other to compose a variety of interactions, not just the movement of objects, and share the results of these interactions. There is an effect that can be comprehensively used in a variety of applications, such as education, remote meetings.

Claims (3)

제1 인터랙션 디바이스와,A first interaction device, 상기 제1 인터랙션 디바이스에 접속되는 적어도 하나의 제1 컴퓨터와,At least one first computer connected to the first interaction device, 상기 제1 컴퓨터에 접속되는 제1 디지털비디오 전송디바이스와,A first digital video transmission device connected to said first computer, 상기 제1 컴퓨터와 네트워크로 연결되는 적어도 하나의 제2 컴퓨터와,At least one second computer connected to the first computer in a network; 상기 제2 컴퓨터에 접속되며, 상기 제1 인터랙션 디바이스에 대응하는 제2 인터랙션 디바이스와,A second interaction device connected to the second computer and corresponding to the first interaction device; 상기 제2 컴퓨터에 접속되는 제2 디지털비디오 전송디바이스를 포함하며,A second digital video transmission device connected to said second computer, 상기 제1 및 제2 디지털비디오 전송디바이스로부터 제공되는 디지털 영상을 증강현실의 배경으로 이용하여 가상물체를 증강하며, 상기 가상물체를 상기 제1 및 제2 인터랙션 디바이스로 인터랙션을 가하는 멀티모달 인터랙션 기반 원격미팅 시스템.Multi-modal interaction-based remote to augment virtual objects by using digital images provided from the first and second digital video transmission devices as a background of augmented reality and to interact with the virtual objects to the first and second interaction devices. Meeting system. 제 1 항에 있어서,The method of claim 1, 상기 제1 또는 제2 인터랙션 디바이스는 햅틱 디바이스인 멀티모달 인터랙션 기반 원격미팅 시스템.And wherein the first or second interaction device is a haptic device. 제 2 항에 있어서,The method of claim 2, 서로 대응하는 상기 제1 및 제2 햅틱 디바이스는 네트워크 핸드쉐이크를 제 공하는 멀티모달 인터랙션 기반 원격미팅 시스템.And the first and second haptic devices corresponding to each other provide a network handshake.
KR1020050056052A 2005-06-28 2005-06-28 Multi modal interaction-based remote meeting system KR100611680B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050056052A KR100611680B1 (en) 2005-06-28 2005-06-28 Multi modal interaction-based remote meeting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050056052A KR100611680B1 (en) 2005-06-28 2005-06-28 Multi modal interaction-based remote meeting system

Publications (1)

Publication Number Publication Date
KR100611680B1 true KR100611680B1 (en) 2006-08-14

Family

ID=37594241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050056052A KR100611680B1 (en) 2005-06-28 2005-06-28 Multi modal interaction-based remote meeting system

Country Status (1)

Country Link
KR (1) KR100611680B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332219B2 (en) 2013-09-03 2016-05-03 Center Of Human-Centered Interaction For Coexistence Telepresence device
WO2016153161A1 (en) * 2015-03-24 2016-09-29 (주)해든브릿지 Two-way virtual reality realizing system
KR20200026596A (en) * 2018-09-03 2020-03-11 인천대학교 산학협력단 Haptic interaction system and method for probing real objects in remote places

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08234789A (en) * 1995-02-27 1996-09-13 Sharp Corp Integrated recognition interactive device
KR20010075838A (en) * 2000-01-20 2001-08-11 오길록 Apparatus and method for processing multimodal interface
KR20040040119A (en) * 2002-11-06 2004-05-12 주식회사 유비드림 Interactive exhibition system using multi-modal user interface
KR20050046580A (en) * 2003-11-14 2005-05-18 한국전자통신연구원 System and method for multi-modal context-sensitive applications in home network environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08234789A (en) * 1995-02-27 1996-09-13 Sharp Corp Integrated recognition interactive device
KR20010075838A (en) * 2000-01-20 2001-08-11 오길록 Apparatus and method for processing multimodal interface
KR20040040119A (en) * 2002-11-06 2004-05-12 주식회사 유비드림 Interactive exhibition system using multi-modal user interface
KR20050046580A (en) * 2003-11-14 2005-05-18 한국전자통신연구원 System and method for multi-modal context-sensitive applications in home network environment

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332219B2 (en) 2013-09-03 2016-05-03 Center Of Human-Centered Interaction For Coexistence Telepresence device
WO2016153161A1 (en) * 2015-03-24 2016-09-29 (주)해든브릿지 Two-way virtual reality realizing system
US10038879B2 (en) 2015-03-24 2018-07-31 Haedenbridge Co., Ltd. Bi-directional virtual reality system
KR20200026596A (en) * 2018-09-03 2020-03-11 인천대학교 산학협력단 Haptic interaction system and method for probing real objects in remote places
KR102132693B1 (en) 2018-09-03 2020-07-13 인천대학교 산학협력단 Haptic interaction system and method for probing real objects in remote places

Similar Documents

Publication Publication Date Title
US11785056B2 (en) Web browser interface for spatial communication environments
USRE46309E1 (en) Application sharing
US9813463B2 (en) Phoning into virtual communication environments
US8949346B2 (en) System and method for providing a two-tiered virtual communications architecture in a network environment
US20020149617A1 (en) Remote collaboration technology design and methodology
US20130050398A1 (en) System and method for collaborator representation in a network environment
AU2002305105B2 (en) Remote collaboration technology design and methodology
CN102550019A (en) Managing shared content in virtual collaboration systems
EP2377038A2 (en) Interfacing with a spatial virtual communication environment
WO2011016967A2 (en) Spatial interfaces for realtime networked communications
US8902280B2 (en) Communicating visual representations in virtual collaboration systems
CN108255454B (en) Splicing processor and visual interaction method of splicing processor
US20090119593A1 (en) Virtual table
AU2002305105A1 (en) Remote collaboration technology design and methodology
KR101784266B1 (en) Multi user video communication system and method using 3d depth camera
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
Sousa et al. Remote proxemics
KR100611680B1 (en) Multi modal interaction-based remote meeting system
US11900530B1 (en) Multi-user data presentation in AR/VR
KR100989122B1 (en) Service method for online virtual cooperative work using remote control
Tamai et al. View control interface for 3d tele-immersive environments
CN108886513B (en) Collaboration platform with throttled content flow
KR102566158B1 (en) Online conference method using remote control
US20230339816A1 (en) Visual Communications
Guo et al. Tangible video communication over the Internet

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120801

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130809

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140919

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee