KR20140063673A - 비디오 컨퍼런스 증강 - Google Patents

비디오 컨퍼런스 증강 Download PDF

Info

Publication number
KR20140063673A
KR20140063673A KR1020147006144A KR20147006144A KR20140063673A KR 20140063673 A KR20140063673 A KR 20140063673A KR 1020147006144 A KR1020147006144 A KR 1020147006144A KR 20147006144 A KR20147006144 A KR 20147006144A KR 20140063673 A KR20140063673 A KR 20140063673A
Authority
KR
South Korea
Prior art keywords
virtual object
user
video
video conference
virtual
Prior art date
Application number
KR1020147006144A
Other languages
English (en)
Inventor
에릭 셋톤
Original Assignee
탱고미, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/241,918 external-priority patent/US9544543B2/en
Application filed by 탱고미, 인크. filed Critical 탱고미, 인크.
Publication of KR20140063673A publication Critical patent/KR20140063673A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제 1 장치와 제 2 장치 간의 비디오 컨퍼런스를 증강시키는 컴퓨터 구현 방법이 개시된다. 상기 방법은 상기 제 1 장치에서 가상 객체를 수신하는 단계를 포함하며, 이때 상기 가상 객체는 상기 비디오 컨퍼런스를 증강시키도록 구성되고, 상기 가상 객체는 특히 이벤트에 관련된다. 상기 방법은 또한 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계를 포함한다.

Description

비디오 컨퍼런스 증강{AUGMENTING A VIDEO CONFERENCE}
관련 미국 출원
본 출원은 본 발명의 양수인에게 배정되고, 2011년 2월 11일 자로 출원된, "AUGMENTING A VIDEO CONFERENCE" 명칭을 가진 Attorney Docket No. TNGO-008이며, 그리고 본원에 전반적으로 참조로서 내용이 병합된 미국 특허 출원 번호 제13/025,943호의 부분 계속출원이다.
비디오 컨퍼런스(video conference)의 참가자는 서로 오디오/비디오 신호를 전송함으로써 서로 통신하게 된다. 예를 들면, 참가자는 동시에 양-방향(two-way) 비디오 및 오디오 전송을 통하여 상호 작용할 수 있다. 그러나, 참가자들은, 단지 마이크로폰에 의해 캡쳐된(captured) 캡쳐 오디오 및 비디오 카메라들에 의해 캡쳐된 비디오 신호에 기반하여 참가자들이 무엇을 하려는지 확실하게 표현할 수 없다.
간략하게 말하면, 본원은 제 1 장치와 제 2 장치 사이의 비디오 컨퍼런스를 증강시키는 컴퓨터 구현 방법을 개시한다. 방법은 제 1 장치에서 가상 객체(virtual object)를 수용하는 단계를 포함하고, 상기 가상 객체는 비디오 컨퍼런스를 증강시키도록 구성되고, 가상 객체는 분명하게 이벤트에 관련된다. 방법은 또한 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계를 포함한다.
개념
본원 역시 다음 개념을 적어도 개시한다.
개념 1. 제 1 장치와 제 2 장치 간의 비디오 컨퍼런스를 증강시키는 컴퓨터 구현 방법에 있어서,
상기 제 1 장치에서 가상 객체를 수신하는 단계로서, 상기 가상 객체는 상기 비디오 컨퍼런스를 증강시키도록 구성되고, 상기 가상 객체는 특히 이벤트에 관련되는, 수신 단계; 및
상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계;를 포함한다.
개념 2. 개념 1에 있어서, 상기 이벤트는 공휴일 및 특별한 일로 구성된 그룹으로부터 선택된다.
개념 3. 개념 1 또는 개념 2에 있어서, 상기 컴퓨터 구현 방법은:
상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계(prompting)를 더 포함한다.
개념 4. 개념 3에 있어서, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계는:
상기 이벤트가 있는 날 동안 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계를 더 포함한다.
개념 5. 선행하는 개념들 중 어느 한 개념에 있어서, 상기 컴퓨터 구현 방법은:
상기 제 1 장치의 사용자와 상기 제 2 장치의 사용자 간의 가능한 관계를 판별하는 단계를 더 포함한다.
개념 6. 개념 5에 있어서, 상기 컴퓨터 구현 방법은: 상기 판별된 가능한 관계를 확인시키기 위해 상기 제 1 장치의 사용자에게 부추기게 하는 단계를 더 포함한다.
개념 7. 선행하는 개념들 중 어느 한 개념에 있어서, 상기 컴퓨터 구현 방법은:
상기 제 1 장치의 사용자와 상기 제 2 장치의 제 2 사용자 간의 관계에 기반하여, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해, 상기 제 1 장치의 사용자를 부추기게 하는 단계를 더 포함한다.
개념 8. 선행하는 개념들 중 어느 한 개념에 있어서, 상기 컴퓨터 구현 방법은:
상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 2 장치에서 조종하는 단계를 더 포함한다.
개념 9. 선행하는 개념들 중 어느 한 개념에 있어서, 상기 컴퓨터 구현 방법은:
상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 1 장치에서 조종하는 단계를 더 포함한다.
개념 10. 실제 컴퓨터 판독가능한 저장 매체에 저장된 명령을 가진 컴퓨터 판독가능한 저장 매체에 있어서, 상기 컴퓨터 판독가능한 저장 매체가 실행될 시에, 상기 명령은 컴퓨터 프로세서를 다음의 실행 방법으로 실행시키고, 상기 실행 방법은:
상기 제 1 장치에서 가상 객체를 수신하는 단계로서, 상기 가상 객체는 상기 비디오 컨퍼런스를 증강시키도록 구성되고, 상기 가상 객체는 특히 이벤트에 관련되는, 수신 단계; 및
상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계;를 포함한다.
개념 11. 개념 10에 있어서, 상기 이벤트는 공휴일 및 특별한 일로 구성된 그룹으로부터 선택된다.
개념 12. 개념 10 또는 개념 11에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 명령을 더 포함한다.
개념 13. 개념 12에 있어서, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 것은:
상기 이벤트가 있는 날 동안 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 것을 더 포함한다.
개념 14. 개념 12에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 제 1 장치의 사용자와 상기 제 2 장치의 사용자 간의 가능한 관계를 판별하는 명령을 더 포함한다.
개념 15. 개념 14에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 판별된 가능한 관계를 확인시키기 위해 상기 제 1 장치의 사용자에게 부추기게 하는 명령을 더 포함한다.
개념 16. 개념 10 내지 15 중 어느 한 개념에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 제 1 장치의 사용자와 상기 제 2 장치의 제 2 사용자 간의 관계에 기반하여, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해, 상기 제 1 장치의 사용자를 부추기게 하는 명령을 더 포함한다.
개념 17. 개념 10 내지 16 중 어느 한 개념에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 2 장치에서 조종하는 명령을 더 포함한다.
개념 18. 개념 10 내지 17 중 어느 한 개념에 있어서, 상기 컴퓨터 판독가능한 저장 매체는:
상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 1 장치에서 조종하는 명령을 더 포함한다.
도 1, 2 및 6은 본 발명의 실시예들에 따른 장치의 예시들을 도시한다.
도 3 및 7은 증강된 비디오 컨퍼런스를 제공하는 방법의 실시예들을 도시한다.
도 4, 5, 8 및 9는 비디오 컨퍼런스를 증강시키는 방법의 실시예들을 도시한다.
이러한 발명의 설명에 대한 도면은 특별히 설명할 만한 것을 제외하고는 스케일에 맞게 도시되지 않았음을 이해하여야 한다.
첨부된 도면에 도시된 예시들, 본 기술의 실시예들에 대한 설명을 이제 기술할 것이다. 본 기술이 다양한 실시(예)와 함께 기술되지만, 이해하여야 하는 바와 같이, 본 기술을 이러한 실시예들로 제한하려고 하는 것은 아니다. 이와 달리, 본 기술은 첨부된 청구항에 의해 정의된 바와 같이, 다양한 실시예들의 기술 사상 및 권리 범위 내에 포함될 수 있는 대안물, 변형물 및 균등물을 포함한다.
나아가, 실시예들의 다음 설명에서, 다수의 특정 사항은 본 기술의 전반적인 이해를 제공하기 위해 제시된다. 그러나, 본 기술은 이러한 특정 사항 없이도 실행될 수 있다. 다른 예를 들면, 공지된 방법, 절차, 구성요소 및 회로는 본 발명의 실시예들의 양태를 명확하게 하기 위해 기술되지 않는다.
도 1은 장치(100)의 실시예를 도시한다. 장치(100)는 비디오 컨퍼런스에 관여하도록 구성된다. 도 2는 비디오 컨퍼런스에 관여한 장치들(100 및 200)을 도시한다. 일반적으로, 비디오 컨퍼런스는 2 개 이상의 장소가 양-방향 비디오 및 오디오 전송을 동시에 통해 상호 작용하도록 한다.
이하에서 기술된 논의는 우선 장치(100)의 구성요소를 기술한다. 그 후, 상기 논의는 장치들(100 및 200) 간의 비디오 컨퍼런스 중에 장치(100)의 구성요소의 기능성을 기술할 것이다. 장치들(100 및 200)은 비디오 컨퍼런스에 관여될 수 있는 임의의 통신 장치들(예를 들면, 랩탑, 데스크탑 등)이다. 다양한 실시예들에서, 장치(100)는 소형 모바일 장치, 예를 들면, 스마트 폰, PDA(personal digital assistant) 등이다.
게다가, 명료성 및 간결성을 위하여, 상기 논의는 구성요소 및 장치(100)의 기능성에 대해 초점을 맞출 것이다. 그러나, 장치(200)는 장치(100)와 유사한 방식으로 동작한다. 일 실시예에서, 장치(200)는 장치(100)와 동일하고, 장치(100)와 동일한 구성요소를 포함한다.
장치(100)는 디스플레이(110), 가상 객체 수신기(120), 가상 객체 결합기(incorporator)(130), 송신기(140), 카메라(150), 마이크로폰(152) 및 스피커(154)를 포함한다. 장치(100)는 선택적으로 위치 확인 시스템(global positioning system)(160) 및 가상 객체 발생기(170)를 포함한다.
디스플레이(110)는 장치(200)에서 캡쳐된 비디오를 디스플레이하도록 구성된다. 또 다른 실시예에서, 디스플레이(110)는 장치(100)에서 캡쳐된 비디오를 디스플레이하도록 더 구성된다.
가상 객체 수신기(120)는 가상 객체에 액세스하도록 구성된다. 가상 객체는 이하에서 설명할 비디오 컨퍼런스를 증강시키도록 구성된다.
가상 객체 결합기(130)는 가상 객체를 비디오 컨퍼런스에 통합시키도록 구성된다. 예를 들면, 가상 객체 결합기(130)는 장치(100) 및/또는 장치(200)에서 캡쳐된 비디오에 가상 객체를 통합시키도록 구성된다.
송신기(140)는 데이터(예를 들면, 가상 객체 제어 코드)를 전송하기 위함이다.
가상 객체 조종기(135)는 비디오 컨퍼런스에서 가상 객체의 조종을 가능케 하도록 구성된다.
카메라(150)는 장치(100)에서 비디오를 캡쳐하기 위함이다. 마이크로폰(152)은 장치(100)에서 오디오를 캡쳐하기 위함이다. 스피커(154)는 장치(100)에서 오디오 형식의(audible) 신호를 발생시키기 위함이다.
위치 확인 시스템(160)은 장치(100)의 위치를 판별하기 위함이다.
가상 객체 발생기(170)는 가상 객체를 발생시키기 위함이다.
이제, 도 2를 참조해 보면, 장치들(100 및 200)은 서로 비디오 컨퍼런스에 관여한다. 다양한 실시예들에서, 2 개 이상의 장치들은 서로 비디오 컨퍼런스에 참여한다.
비디오 컨퍼런스 중에, 비디오 카메라(250)는 장치(200)에서 비디오를 캡쳐한다. 예를 들면, 비디오 카메라(250)는 장치(200)의 사용자(205)의 비디오를 캡쳐한다.
비디오 카메라(150)는 장치(100)에서 비디오를 캡쳐한다. 예를 들면, 비디오 카메라(150)는 사용자(105)의 비디오를 캡쳐한다. 인식하여야 하는 바와 같이, 비디오 카메라들(150 및 250)은 카메라들(150 및 250)에 각각의 보기창 범위 내에 있는 임의의 객체들을 캡쳐한다.
마이크로폰(152)은 캡쳐된 비디오 신호에 대응하는 오디오 신호를 장치(100)에서 캡쳐한다. 이와 유사하게, 장치(200)의 마이크로폰은 캡쳐된 비디오 신호에 대응하는 오디오 신호를 장치(200)에서 캡쳐한다.
장치(200)에 캡쳐된 비디오는 장치(100)의 디스플레이(110)로 전송되어 디스플레이된다. 예를 들면, 사용자(205)의 비디오는 디스플레이(110)의 제 1 보기창(112) 상에 디스플레이된다. 게다가, 사용자(205)의 비디오는 디스플레이(210)의 제 2 보기창(214) 상에 디스플레이된다.
장치(100)에서 캡쳐된 비디오는 장치(200)의 디스플레이(210)로 전송되어 디스플레이된다. 예를 들면, 사용자(105)의 비디오는 디스플레이(210)의 제 1 보기창(view)(212) 상에 디스플레이된다. 게다가, 사용자(105)의 비디오는 디스플레이(110)의 제 2 보기창(114) 상에 디스플레이된다.
일 실시예에서, 장치들(100 및 200)에서 캡쳐된 오디오 신호는 캡쳐된 비디오에 통합된다. 또 다른 실시예에서, 오디오 신호는 전송된 비디오와는 별개로 전송된다.
도시된 바와 같이, 제 1 보기창(112)은 디스플레이(110) 상에 디스플레이된 1 차 보기창이며, 그리고 제 2 보기창(114)은 디스플레이(110) 상에 디스플레이된 작은 2 차 보기창이다. 다양한 실시예들에서, 제 1 보기창(112) 및 제 2 보기창(114) 둘 다의 크기는 조정 가능하다. 예를 들면, 제 2 보기창(114)은 1 차 보기창으로 확대될 수 있고, 보기창(112)의 크기는 2 차 보기창으로 줄어들 수 있다. 게다가, 보기창들(112 및 114) 중 하나는 보일 수 없도록 완전하게 닫히거나 작아질 수 있다.
가상 객체 수신기(120)는 비디오 컨퍼런스를 증강시키는 가상 객체(190)를 수신한다. 가상 객체들은 서버 또는 장치(200)로부터 수신될 수 있다. 가상 객체들은 서로 다른 시간에서 수신될 수 있다. 예를 들면, 가상 객체들이 비디오 컨퍼런스에 통합되도록 명령을 받는 경우, 가상 객체들은 증강하는 애플리케이션(augmenting application)이 로그인 동안, 또는 실시간으로 장치(100)에 다운로드될 시에 수신될 수 있다.
도 2 및 6에 도시된 가상 객체들(191)(예를 들면, 별, 야자 나무, 꽃, 비구름)은 다수의 예시들 중 단지 소수의 가상 객체들이다. 인식하여야 하는 바와 같이, 가상 객체는 비디오 컨퍼런스를 증강시킬 수 있는 객체일 수 있다. 다른 말로 하면, 가상 객체는 비디오 컨퍼런스의 참가자들 간의 통신을 공급할 수 있는 임의의 객체일 수 있다. 예를 들면, 가상 객체들은 키스, 하트, 감정, 하이파이브, 백그라운드(사진 부스 유형의 효과), 색상 공간 변화 및/또는 이미지 처리 변화(예를 들면, 가늘어짐, 뚱뚱해짐)일 수 있지만, 이에 제한되지 않는다.
또한, 인식하여야 하는 바와 같이, 가상 객체는 보기가 가능한 가상 객체에 한정되지 않는다. 예를 들면, 가상 객체는 복수의 사운드들 중 하나일 수 있다.
일 실시예에서, 가상 객체들(191)은, 사용자(105)가 볼 수 있는 디스플레이(110) 상에 디스플레이된다. 예를 들면, 가상 객체들(191)은 가상 객체 바(192) 상에 디스플레이된다. 일 실시예에서, 가상 객체 바(192)는 제 1 보기창(112)에 씌워진다. 또 다른 실시예에서, 가상 객체 바(192)는 제 1 보기창(112) 및/또는 제 2 보기창(114)과 함께 동시에 디스플레이된다.
다양한 실시예들에서, 가상 객체 바(192)는 키 스트로크, 커서 이동, 터치 스크린 상의 검출된 터치, 및 사용자에 의해 지정된 이동(예를 들면, 표현, 윙크, 입김 불기(blowing a kiss), 손동작 등)에 제한되지 않고, 사용자 입력에 응답하여 디스플레이된다.
가상 객체 결합기(130)는 가상 객체(190)를 비디오 컨퍼런스에 통합시키는데 용이하다. 일 실시예에서, 장치(100)에서, 가상 객체 결합기(130)는 장치(200)에서 캡쳐된 비디오에 가상 객체(190)를 통합시킨다. 예를 들면, 가상 객체(190)는 사용자(205)의 머리 위에서 통합된다. 그러므로, 도시된 바와 같이, 장치(200)에 캡쳐된 비디오는 객체(190)와 통합되고, 증강 비디오는 장치(200)에서 적어도 디스플레이된다. 또한, 통합된 가상 객체(190)와 함께, 증강 비디오는 장치(100)에 디스플레이된다.
일 실시예에서, 사용자(105)는 가상 객체 바(192)에서 가상 객체(190)를 선택할 수 있고, 가상 객체(190)를 드래그하여 사용자(105)가 지정한 장소에 갖다 놓을 수 있다(예를 들면, 제 1 보기창(112) 상에 디스플레이된 바와 같이, 사용자(205)의 머리 위). 지정된 장소에 갖다 놓게 되면, 가상 객체 결합기(130)는 지정된 장소에서 가상 객체를 통합시킨다.
또 다른 실시예에서, 가상 객체 결합기(130)는 제어 코드(control code)를 발생시킨다. 제어 코드는 가상 객체(190)가 장치(200)에서 캡쳐된 비디오에 어떻게 통합되는지를 나타낸다.
예를 들면, 제어 코드는, 가상 객체(190)가 장치(200)에서 디스플레이된 비디오에 어떻게 통합되어야 하는지를 장치(200)에게 지시하도록, 장치(200)로 직접 전송될 수 있다. 상기와 같은 예시에서, 제어 코드는, 가상 객체(190)가 비디오 컨퍼런스에 디스플레이되도록 장치(200)에게 신호를 제공하거나 지시한다. 또 다른 예에서, 제어 코드는 서버로 전송되고, 그 후, 장치(200)는 서버로부터 제어 코드를 수신한다.
도 2는 비디오 컨퍼런스에 통합되는 가상 객체(190)를 도시한다. 그러나, 인식하여야 하는 바와 같이, 임의의 수의 가상 객체들은 언제든지 비디오 컨퍼런스에 통합될 수 있다. 예를 들면, 5 개의 서로 다른 가상 객체들은 동시에 비디오 컨퍼런스에 통합될 수 있다.
인식하여야 하는 바와 같이, 본원에서 사용되는 용어 "통합되는(incorporate)"은, 가상 객체가 비디오 컨퍼런스의 일부와 함께, 단지 디스플레이되는 것을 기술하기 위해 사용된다. 상기와 같이, 가상 객체는 비디오 컨퍼런스의 일부와 함께 단지 동시에 디스플레이된다. 이에 따라서, 가상 객체는 비디오에 통합되는 것으로 이해되며, 그리고 가상 객체를 포함한다. 그러나, 가상 객체가 비디오 스트립의 일부에 합쳐지거나 상기 일부로 구현되는 것으로 이해해서는 아니 된다.
일 실시예에서, 가상 객체는 비디오 상에 오버레이(overlay)로서 중첩된다. 상기와 같이, 가상 객체는 장치들(100 및 200) 상에 디스플레이된 오버레이로서 동시에 중첩된다. 예를 들면, 가상 객체는 보기창(112) 및 보기창(214)(도 2에 도시됨)에 디스플레이된 비디오 상에 동시에 씌워지며(도 2에 도시됨), 그리고 가상 객체는 보기창(114) 및 보기창(212)(도 6에 도시됨)에 디스플레이된 비디오 상에 동시에 씌워지게 될 수 있다.
또 다른 실시예에서, 가상 객체는 비디오 컨퍼런스의 비트 스트림(bit stream)에 합쳐진다.
또 다른 예에서, 가상 객체는 보기창(112) 및 보기창(212)에 디스플레이된 비디오 상에 동시에 씌워지게 된다. 또한, 가상 객체는 장치들에서의 보기창들과는 무관한 디스플레이의 일부에 디스플레이되고, 양-방향 비디오가 활성화될 필요는 없다(예를 들면, 일 방향 비디오가 활성화될 수 있음).
주목하여야 하는 바와 같이, 본원에서 기술된 다양한 실시예들은 또한 서로 조합하여 사용될 수 있다. 즉, 기술된 하나의 실시예는 하나 이상의 기술된 다른 실시예들과 조합되어 사용될 수 있다.
일 실시예에서, 그 후, 송신기(140)는, 이제 가상 객체(190)를 포함한 장치(200)에서 캡쳐된 비디오를 제 2 장치(200)로 전송하고, 그 결과 가상 객체(190)를 포함한 비디오는 디스플레이(210) 상에 디스플레이된다. 또 다른 실시예에서, 송신기(140)는, 가상 객체(190)가 비디오 컨퍼런스에 어떻게 통합되어야 하는지를 장치(200)에게 지시하도록, 장치(200)(또는 서버)로 제어 코드를 전송한다.
가상 객체 조종기(135)는 통합된 가상 객체(190)를 조종한다. 일 실시예에서, 가상 객체(190)는 장치(100)에서 조종된다. 예를 들면, 터치 스크린에서 사용자 입력에 응답하여, 사용자(105)는 가상 객체(190)를 시계 방향으로 회전시킨다. 이에 따라서, 장치(200)에 캡쳐된 (그리고 장치(100) 및/또는 장치(200) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체는 시계 방향으로 회전한다.
또 다른 실시예에서, 가상 객체(190)는 장치(200)에서 조종된다. 예를 들면, 사용자(205)가 머리를 좌측으로부터 우측으로 이동하는 것에 응답하여, 가상 객체(190)가 (장치(200)의 가상 객체 조종기를 통하여) 조종되어, 그 결과 가상 객체는 사용자(205)의 머리 움직임에 대해 좌측으로부터 우측으로 이동한다. 이에 따라서, 장치(200)에 캡쳐된 (그리고 장치(100) 및/또는 장치(200) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체(190)는 좌측으로부터 우측으로 이동하게 된다.
추가 실시예에서, 가상 객체(190)는 장치(100) 및 장치(200)에서 동시에 조종된다. 예를 들면, 사용자(205)가 사용자의 머리를 좌측으로부터 우측으로 이동하고 사용자(105)가 가상 객체(190)를 회전하는 것에 응답하여(상술된 바와 같음), 가상 객체(190)가 조종되어, 상기 가상 객체는 사용자(205)의 머리 움직임에 대해 좌측으로부터 우측으로 이동함과 동시에, 사용자(105)로부터의 입력에 응답하여 회전한다. 이에 따라서, 장치(200)에 캡쳐된 (그리고 장치(100) 및/또는 장치(200) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체(190)는 좌측으로부터 우측으로 이동하면서, 시계 반향으로 회전한다.
추가 실시예에서, 가상 객체(190)는 방향성이 있게 조종된다. 예를 들면, 사용자(105)는 "펀치" 가상 객체(예를 들면, 주먹, 권투 장갑)를 사용자(205)에게 전송한다. 이에 따라서, 사용자(105)는 디스플레이(110)로 들어가는 "펀치" 가상 객체를 볼 수 있고, 사용자(205)는 디스플레이(210)로부터 나오는 "펀치" 가상 객체를 볼 수 있다.
인식하여야 하는 바와 같이, 가상 객체들은 다양한 입력에 응답하여 조종된다. 예를 들면, 가상 객체들은 사운드, 제스처, 표현, 움직임 등을 통해 조종될 수 있다. 다양한 예시는 다음과 같다: 사용자의 윙크에 응답하여, 가상 객체(예를 들면, 별)가 사용자의 눈으로부터 나오며; 그리고 사용자의 키스에 응답하여, 빨간 입술이 사용자의 입으로부터 날라 간다.
일 실시예에서, 가상 객체들(191)은, 상술된 바와 같이 다양한 입력들 중 적어도 하나가 있을 때까지, 디스플레이(110) 및/또는 가상 디스플레이 바(192) 상에 디스플레이되지 않는다. 예를 들면, 하트의 가상 객체는, 터치 스크린 상에 2 번 톡톡 치는 동작이 있을 때까지 디스플레이되지 않는다.
임의의 수의 가상 객체들은 비디오 컨퍼런스에 통합되도록 액세스되고, 그리고/또는 선택될 수 있다. 일 실시예에서, 가상 객체들(191)은 지리학적으로 관련된 가상 객체들이다. 예를 들면, 가상 객체들(191)은 장치들(100 및/또는 200)의 장소에 기반한다.
특히, 장치(100)가 하와이에 위치하는 경우, 가상 객체들(191)은 그 장소와 관련된다. 예를 들면, 지리학적으로 관련된 가상 객체들은 GPS 160으로부터 판별된 하와이 장소에 기반하여, 서핑보드, 태양, 야자수, 코코넛 등일 수 있지만 이에 제한되지 않는다.
인식하여야 하는 바와 같이, 장소 판별은 다양한 방식으로 제공된다. 예를 들면, 장치의 장소 판별은 등록시의 사용자로부터 제공된 정보와, 장치의 IP 어드레스 또는 장소를 판별하는데 사용될 수 있는 다른 방법에 기반할 수 있다.
또 다른 실시예에서, 가상 객체들(191)은 비디오 컨퍼런스의 시간에 기반한 시간에 관련된 가상 객체들이다. 예를 들면, 비디오 컨퍼런스가 크리스마스에 또는 크리스마스를 얼마 남겨두고 일어나게 될 시에, 가상 객체들은 크리스마스에 관련될 수 있다(예를 들면, 연기, 크리스마스 나무, 막대기 사탕(candy cane) 등). 또 다른 예에서, 비디오 컨퍼런스가 저녁에 일어나게 되는 경우, 가상 객체들은 저녁과 관련된다(예를 들면, 달, 별, 파자마 등)
추가 실시예에서, 가상 객체들(191)은 문화와 관련된 가상 객체들이다. 예를 들면, 사용자(105) 및/또는 사용자(205)가 캐나다에 위치하는 경우, 가상 객체들(191)은 캐나다 국기, 하키용 퍽, 컬링 스톤 등일 수 있지만, 이에 제한되지 않는다.
또 다른 실시예에서, 가상 객체들(191)은 사용자 생성 가상 객체들이다. 예를 들면, 사용자(105 및/또는 205)는 가상 객체들을 수동적으로 생성하고, 그 후에, 가상 객체 발생기(170)는 사용자 생성 가상 객체들을 발생시키기 위해 창출 과정(creation)을 이용한다.
여전한 또 다른 실시예에서, 가상 객체들(191)은 계좌 상태에 기반하여 이용가능하고, 그리고/또는 액세스된다. 예를 들면, 사용자(105)는 가상 객체들(191)에 액세스하기 위해 입금 계정(payable account)을 가진다. 사용자(105)가 상기 계좌에 충분한 지불을 제공하는 경우, 사용자(105)는 가상 객체들(191)에 액세스할 수 있다. 이와 달리, 사용자가 상기 계좌에 충분한 지불을 제공하지 않는 경우, 사용자(105)는 가상 객체들(191)에 액세스할 수 없다.
게다가, 가상 객체들의 사용 및 선택은 이벤트, 공휴일, 특별한 일 등에 특히나 관련될 수 있다. 공휴일은 종교 휴일(예를 들면, 크리스마스, 부활절, 속죄일 등), 국경일(예를 들면, 신년, 대통령의 날, 기념일 등) 또는 다른 명절(공식적이거나 공식적이 아님)일 수 있지만, 이에 제한되지 않는다. 이벤트 또는 특별한 사건은 생일, 기념일, 졸업식, 결혼, 취직, 퇴직 등일 수 있지만, 이에 제한되지 않는다.
예를 들면, 추수감사절 또는 추수감사절을 얼마 남겨두지 않고, 칠면조, 호박 파이, 순례자 등의 가상 객체들이 선택되고, 그리고/또는 사용된다. 또 다른 예에서, 세인트 패트릭의 날 또는 세인트 패트릭의 날을 얼마 남겨두지 않고, 토끼풀, 금이 든 항아리, 및 레프러콘(leprechaun)이 선택 및/또는 사용된다. 추가 예시에서, 부활절 또는 부활절을 얼마 남겨두지 않고, 부활절 토끼 및 부활절 달걀의 가상 객체들이 선택되고, 그리고/또는 사용된다.
일 실시예에서, 사용자는 이벤트, 공휴일, 특별한 일 등에 특히나 관련된 가상 객체를 사용하도록 권장 받을 수 있다. 예를 들면, 7월 4일 또는 7월 4일을 얼마 남겨 두지 않고, 사용자는 특히나 7월 4일에 관련된 가상 객체들(예를 들면, 불꽃)을 선택 및/또는 사용하도록 권장 받는다. 특히, 가상 객체들은 사용자에게 나타나고, 사용자는 비디오 컨퍼런스에서 또 다른 사용자게 가상 객체들을 전송하기 위해 권장을 받을 수 있다. 다른 말로 하면, 가상 객체들은 비디오 컨퍼런스에 통합된다.
또 다른 실시예에서, 사용자는, 당들 간의 관계가 의심되고, 알려지거나 추론되는 또 다른 사용자에게 가상 객체를 전송하도록 권장 받을 수 있다. 예를 들면, 어머니는 아들과 비디오 컨퍼런스에 관하여 이야기할 수 있다. 만약, 어머니/아들 관계가 의심되고, 알려지거나 추론되는 경우, 아들은 어머니 날에 특히나 관련된 가상 객체들(예를 들면, 꽃)을 이용하기 위해 권장 받는다.
관계는 다양한 방식으로 판별될 수 있다. 예를 들면, 관계는 성, 사용자 장소, 통화 기록 등(이에 제한되지 않음)에 기반하여 판별될 수 있다.
게다가, 아들은 메시지, 예를 들면, "이분은 당신의 어머니로 보입니다. 맞습니까?" 를 권장 받을 수 있다. 상기와 같이, 아들이 어머니와 이야기하길 원한다면, 아들은 어머니 날에 특히나 관련된 가상 객체들(예를 들면, 꽃)을 이용하길 권장 받을 수 있다.
이 역시 인식하여야 하는 바와 같이, 가상 객체들은 매출원(revenue stream)을 강화시킬 수 있다. 예를 들면, 100,000 개의 가상 객체들이 발렌타인 데이 때 사용되고, 각 가상 객체의 요금이 $0.50이다. 그 결과 $50,000 요금이 발렌타인 데이 때 모이게 된다.
도 3-5는 방법들(300-500) 각각의 실시예들을 도시한다. 다양한 실시예들에서, 방법들(300-500)은 프로세서들 및 전기 구성요소들로 실행되되, 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령의 제어 하에 실행된다. 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령은 컴퓨터로 사용 가능한 휘발성 및 비-휘발성 메모리 등의 데이터 저장 매체에 있게 된다. 그러나, 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령은 컴퓨터로 판독 가능한 저장 매체의 유형에 있을 수 있다. 일부 실시예들에서, 방법들(300-500)은 도 1 및 2에 도시된 바와 같이, 장치(100) 및/또는 장치(200)에 의해 실행된다.
이제, 도 3을 참조하면, 방법(300)의 310에서, 가상 객체는 제 1 장치에 의해 액세스될 수 있고, 제 1 장치는 제 2 장치와 함께 비디오 컨퍼런스에 관여하도록 구성된다. 예를 들면, 가상 객체(190)는 장치(100)에 의해 액세스될 수 있고, 장치(100)는 적어도 장치(200)와 함께 비디오 컨퍼런스에 관여하도록 구성된다.
320에서, 가상 객체는 제 2 장치에 캡쳐된 비디오 컨퍼런스의 비디오에 통합될 수 있고, 가상 객체를 포함한 비디오는 제 2 장치에 디스플레이되도록 구성된다. 예를 들면, 가상 객체(190)는 장치(200)에서 사용자(205)의 캡쳐된 비디오에 통합될 수 있고, 또한 장치(200)에 디스플레이될 수 있다.
330에서, 가상 객체를 포함한 비디오는 제 1 장치로부터 제 2 장치로 전송될 수 있다. 예를 들면, 가상 객체들(191) 중 어느 하나를 포함한 비디오의 전송은 송신기(140)에 의해 장치(200)로 전송될 수 있다.
340에서, 가상 객체를 포함한 비디오의 공존 디스플레이는 제 1 장치 및 제 2 장치에서 가능하다. 예를 들면, 객체(190)를 포함한 비디오는 장치들(100 및 200)에서 동시에 디스플레이될 수 있다.
350에서, 제 1 장치 및 제 2 장치에서, 통합된 가상 객체의 연동 조종이 가능하다. 예를 들면, 사용자(205)는 제 2 보기창(214)에서 가상 객체(190)와 상호 작용하고, 사용자(105) 역시 제 1 보기창(112)에서 가상 객체와 연동적으로 상호 작용한다.
이제, 도 4를 참조해 보면, 방법(400)의 410에서, 명령은 가상 객체를 액세스하기 위해 수신된다. 예를 들면, 사용자 입력(예를 들면, 키 스트로크, 커서 이동, 터치 스크린 상의 검출된 터치 등)에 응답하여, 명령은 가상 객체(190)를 액세스하도록 수신된다. 다양한 실시예들에서, 가상 객체(들)는 지리에 관련된 가상 객체, 시간에 관련된 가상 객체, 문학에 관련된 가상 객체, 및/또는 사용자 생성 가상 객체일 수 있지만, 이에 제한되지 않는다.
420에서, 가상 객체는 비디오 컨퍼런스에 통합되고, 가상 객체는 제 1 장치에 의해 액세스되고, 제 2 장치에서 디스플레이되도록 구성된다. 예를 들면, 가상 객체(190)는 장치(100)에서 액세스되고, 장치(200)에 캡쳐된 비디오에 통합되되, 장치(100)에서 통합된다. 통합된 가상 객체(190)를 포함한 비디오는 장치(200)에 디스플레이되도록 구성된다.
또 다른 예에서, 사용자(105)는 제 1 보기창(112)에서 사용자(105)의 볼 상에 입술 장소를 지정함으로써, 사용자(205)의 볼 상에 입술의 가상 객체를 위치시킬 수 있다(입맞춤 의미). 이에 따라서, 입술의 가상 객체는 장치(200)에서 캡쳐된 비디오에 통합되고, 장치(100 및 200) 상에 디스플레이된다. 입술의 가상 객체는 비디오 컨퍼런스 기간 동안 통합될 수 있거나, 또는 지정된 시간 동안 통합될 수 있다.
일 실시예에서, 422에서, 터치 스크린 디스플레이 상의 사용자 입력에 응답하여, 가상 객체는 비디오 컨퍼런스에 통합된다. 예를 들면, 장치(100)의 터치 스크린 디스플레이 상의 사용자 입력에 응답하여, 가상 객체는 비디오 컨퍼런스에 통합된다.
430에서, 통합된 가상 객체를 포함한 비디오 컨퍼런스의 비디오는 제 2 장치로 전송된다. 예를 들면, 가상 객체를 포함한 비디오는 송신기(140)를 통하여 장치(200)로 전송된다.
440에서, 제 2 장치에서 캡쳐된 비디오 컨퍼런스의 비디오는 제 1 장치에 디스플레이된다. 예를 들면, 장치(200)에서 사용자(205)의 비디오는 장치(200)에 캡쳐되고, 장치(100)에서 디스플레이된다.
450에서, 비디오 컨퍼런스에 통합된 가상 객체는 제 2 장치에서 조종된다. 예를 들면, 사용자(205)는 가상 객체(190)를 회전시킴으로써, 제 2 보기창(214)에 디스플레이된 가상 객체(190)와 상호 작용한다.
460에서, 비디오 컨퍼런스에 통합된 가상 객체는 제 1 장치에서 조종된다. 예를 들면, 사용자(105)는 가상 객체(190)의 크기를 줄임으로써, 제 1 보기창(112)에 디스플레이된 가상 객체(190)와 상호 작용한다.
일 실시예에서, 465에서, 소형화 장치의 터치 스크린 디스플레이에 수신된 사용자 입력에 응답하여, 비디오 컨퍼런스에 통합된 가상 객체가 조종된다. 예를 들면, 장치(100)는 터치 스크린 디스플레이를 가진 소형화 장치(예를 들면, 셀폰)이다. 이에 따라서, 터치 스크린 디스플레이를 터치하는 사용자(105) 응답으로, 가상 객체(190)의 크기가 줄어든다.
470에서, 비디오 컨퍼런스에 통합된 가상 객체는 제 1 장치 및 제 2 장치에서 연동적으로 조종된다. 예를 들면, 사용자(205)는 그의 머리를 좌측으로부터 우측으로 이동시키고, 그 결과 가상 객체(190)는 머리 움직임을 따라 이동한다. 또한, 사용자(105)는 가상 객체(190)를 연동적으로 회전시키면서, 가상 객체(190)는 사용자(205)의 머리 움직임을 따라 이동한다.
480에서, 제 2 장치에 캡쳐된 비디오 컨퍼런스의 비디오 및 가상 객체는 제 1 장치에 동시에 디스플레이된다. 예를 들면, 통합된 가상 객체(190)를 포함한 제 2 장치(200)에 캡쳐된 비디오는 제 1 보기창(112) 상에 동시에 디스플레이된다.
490에서, 제 1 장치에서 캡쳐된 제 1 비디오 및 제 2 장치에서 캡쳐된 제 2 비디오는 제 1 장치에서 동시에 디스플레이된다. 예를 들면, 장치(200)에서 캡쳐된 비디오는 제 1 보기창(112) 상에 디스플레이되고, 장치(100)에서 캡쳐된 비디오는 제 2 보기창(114) 상에 동시에 디스플레이된다.
이제, 도 5를 참조해 보면, 방법(500)의 510에서, 제 2 장치에 캡쳐된 비디오는 제 1 장치 상에 디스플레이된다.
515에서, 가상 객체는 제 1 장치에 수신되고, 가상 객체는 비디오 컨퍼런스를 증강시키도록 구성된다. 다양한 실시예들에서, 가상 객체(들)는 지리에 관련된 가상 객체, 시간에 관련된 가상 객체, 문학에 관련된 가상 객체, 및/또는 사용자 생성 가상 객체일 수 있지만, 이에 제한되지 않는다.
520에서, 가상 객체는 제 2 장치에서 캡쳐된 비디오에 통합된다. 예를 들면, 가상 객체(190)는 장치(200)에서 캡쳐된 비디오에 통합되고, 그 결과 가상 객체(190)는 사용자(205)의 머리 위에 있게 되고, 사용자(205)의 머리의 움직임을 따라 이동하게 된다.
일 실시예에서, 522에서, 터치 스크린 디스플레이에서의 사용자 입력에 응답하여, 가상 객체는 제 2 장치에서 캡쳐된 비디오에 통합된다. 예를 들면, 장치(100)의 터치 스크린 디스플레이에서 사용자(105)의 입력에 응답하여, 임의의 수의 가상 객체들은 장치(200)에서 캡쳐된 비디오에 통합된다.
530에서, 가상 객체를 포함한 비디오는 제 2 장치에서 디스플레이될 수 있다. 535에서, 가상 객체를 포함한 비디오는 제 2 장치로 전송된다.
540에서, 제 2 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 2 장치에서 조종된다. 예를 들면, 사용자(205)는 제 2 보기창(214)에 디스플레이된 가상 장치(190)의 색상을 적색으로 변화시킨다.
545에서, 제 2 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 1 장치에서 조종된다. 예를 들면, 사용자(105)는 사용자(205)의 머리 위로부터 사용자의 좌측 손으로 장소 가상 장치(190)를 변화시킨다.
일 실시예에서, 547에서, 소형 모바일 장치의 터치 스크린 디스플레이에 수신된 사용자 입력에 응답하여, 제 2 장치에서 캡쳐된 비디오에 통합된 가상 객체는 조종된다. 예를 들면, 장치(100)의 터치 스크린 디스플레이에서 사용자 입력에 응답하여, 사용자(105)는 별(도시된 바와 같음)로부터 백열 전구(미도시)로 가상 장치(190)를 변화시킨다.
550에서, 제 2 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 1 장치 및 제 2 장치에서 연동적으로 조종된다. 예를 들면, 사용자(205)는 제 2 보기창(214)에서 가상 객체(190)를 조종하고, 사용자(105)는 제 1 보기창(112)에서 가상 객체를 연동적으로 조종한다.
555에서, 제 2 장치에서 캡쳐된 비디오 및 가상 객체는 제 1 장치에서 동시에 디스플레이된다. 560에서, 제 1 장치에서 캡쳐된 비디오 및 제 2 장치에서 캡쳐된 비디오는 동시에 제 1 장치에서 디스플레이된다.
도 6은 서로 비디오 컨퍼런스에 참여하는 장치들(100 및 200)의 실시예를 도시한다. 장치들(100 및 200)은 상술된 바와 같이, 유사한 방식으로 동작한다.
비디오 컨퍼런스 중에, 비디오 카메라(150)는 장치(100)에서 비디오를 캡쳐한다. 예를 들면, 비디오 카메라(150)는 장치(100)의 사용자(105)의 비디오를 캡쳐한다.
비디오 카메라(250)는 장치(200)에서 비디오를 캡쳐한다. 예를 들면, 비디오 카메라(250)는 장치(200)의 사용자인 사용자(205)의 비디오를 캡쳐한다.
장치(100)에서 캡쳐된 비디오는 장치(100)의 디스플레이(110) 상에 디스플레이된다. 예를 들면, 사용자(105)의 비디오는 디스플레이(110) 상에 디스플레이된 제 2 보기창(114) 상에 디스플레이된다. 게다가, 사용자(205)의 비디오는 디스플레이(110) 상의 제 1 보기창(112) 상에 디스플레이된다.
가상 객체 수신기(120)는 비디오 컨퍼런스에 참여하는 사용자들(105 및 205) 간의 비디오 컨퍼런스를 증강시키는 가상 객체(190)를 수신한다.
가상 객체들(191)은 사용자(105)가 볼 수 있는 디스플레이(110) 상에 디스플레이된다. 예를 들면, 가상 객체들(191)은 가상 객체 바(192) 상에 디스플레이된다. 일 실시예에서, 가상 객체 바(192)는 제 1 보기창(112)에 씌워지게 된다. 또 다른 실시예에서, 가상 객체 바(192)는 동시에 제 1 보기창(112) 및/또는 제 2 보기창(114)에 디스플레이된다.
가상 객체 결합기(130)는 비디오 컨퍼런스에 가상 객체(190)를 통합시킨다. 특히, 장치(100)에서, 가상 객체(190)는 장치(100)에서 캡쳐된 비디오에 통합된다. 예를 들면, 가상 객체(190)는 사용자(105)의 머리 위에서 통합된다. 그러므로, 도시된 바와 같이, 장치(100)에서 캡쳐된 비디오는 객체(190)와 함께 통합되고, 증강된 비디오는 장치(200)에서 적어도 디스플레이된다. 또한, 통합된 가상 객체(190)를 가진 증강 비디오는 장치(100)에서 동시에 디스플레이된다.
일 실시예에서, 사용자(105)는 가상 객체 바(190)에서 가상 객체(190)를 선택하고, 가상 객체(190)를 드래그하여 사용자(105)가 지정한 장소에 갖다 놓을 수 있다(예를 들면, 도시된 바와 같이, 사용자(105)의 머리 위). 지정된 장소에 갖다 놓게 되면, 가상 객체 결합기(130)는 지정된 장소에서 가상 객체를 통합시킨다.
그 후에, 송신기(140)는, 가상 객체(190)를 이제 포함한 장치(100)에 캡쳐된 비디오를 제 2 장치(200)에 전송하고, 그 결과, 가상 객체(190)를 포함한 비디오는 디스플레이(210) 상에 디스플레이된다.
장치(200)의 가상 객체 조종기는 통합된 가상 객체(190)를 조종한다. 예를 들면, 터치 스크린에서 사용자(205)의 사용자 입력에 응답하여, 사용자(205)는 가상 객체(190)를 시계 방향으로 회전시킨다. 이에 따라서, 장치(100)에 캡쳐된 (그리고 장치(200) 및/또는 장치(100) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체는 시계 방향으로 회전한다.
또 다른 실시예에서, 가상 객체(190)는 장치(100)에서 조종된다. 예를 들면, 사용자(105)가 그의 머리를 좌측으로부터 우측으로 이동하는 것에 응답하여, 가상 객체(190)가 (가상 객체 조종기(135)를 통하여) 조종되어, 그 결과 가상 객체는 사용자(105)의 머리 움직임에 대해 좌측으로부터 우측으로 이동한다. 이에 따라서, 장치(100)에 캡쳐된 (그리고 장치(100) 및/또는 장치(200) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체(190)는 좌측으로부터 우측으로 이동하게 된다.
추가 실시예에서, 가상 객체(190)는 장치(100) 및 장치(200)에서 동시에 조종된다. 예를 들면, 사용자(105)가 사용자의 머리를 좌측으로부터 우측으로 이동하고 사용자(205)가 가상 객체(190)를 회전하는 것에 응답하여, 가상 객체(190)가 조종되어, 상기 가상 객체는 사용자(105)의 머리 움직임에 대해 좌측으로부터 우측으로 이동함과 동시에, 사용자(205)로부터의 입력에 응답하여 회전한다. 이에 따라서, 장치(100)에 캡쳐된 (그리고 장치(100) 및/또는 장치(200) 상에 디스플레이된) 비디오는 증강되어, 그 결과 가상 객체(190)는 좌측으로부터 우측으로 이동하면서, 시계 반향으로 회전한다.
도 7-9는 방법들(700-900) 각각의 실시예들을 도시한다. 다양한 실시예들에서, 방법들(700-900)은 프로세서들 및 전기 구성요소들로 실행되되, 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령의 제어 하에 실행된다. 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령은 컴퓨터로 사용 가능한 휘발성 및 비-휘발성 메모리 등의 데이터 저장 매체에 있게 된다. 그러나, 컴퓨터로 판독 가능하고 컴퓨터로 실행 가능한 명령은 컴퓨터로 판독 가능한 저장 매체의 유형에 있을 수 있다. 일부 실시예들에서, 방법들(700-900)은 도 1 및 6에 도시된 바와 같이, 장치(100) 및/또는 장치(200)에 의해 실행된다.
도 7을 이제 참조해 보면, 방법(300)의 710에서, 가상 객체는 제 1 장치에 의해 액세스될 수 있고, 제 1 장치는 제 2 장치와 함께 비디오 컨퍼런스에 관여하도록 구성된다. 예를 들면, 가상 객체(190)는 장치(100)에 의해 액세스될 수 있고, 장치(100)는 적어도 장치(200)와 함께 비디오 컨퍼런스에 관여하도록 구성된다.
720에서, 가상 객체는 제 1 장치에 캡쳐된 비디오 컨퍼런스의 비디오에 통합될 수 있고, 가상 객체를 포함한 비디오는 제 2 장치에 디스플레이되도록 구성된다. 예를 들면, 가상 객체(190)는 사용자(105)의 장치(200)에서 캡쳐된 비디오에 통합될 수 있고, 장치(100 및 200)에 디스플레이될 수 있다.
730에서, 가상 객체를 포함한 비디오는 제 1 장치로부터 제 2 장치로 전송될 수 있다. 예를 들면, 가상 객체들(191) 중 어느 하나를 포함한 비디오의 전송은 송신기(140)에 의해 장치(200)로 전송될 수 있다.
740에서, 가상 객체를 포함한 비디오의 공존 디스플레이는 제 1 장치 및 제 2 장치에서 가능하다. 예를 들면, 객체(190)를 포함한 비디오는 장치들(100 및 200)에서 동시에 디스플레이될 수 있다.
750에서, 제 1 장치 및 제 2 장치에서, 통합된 가상 객체의 연동 조종이 가능하다. 예를 들면, 사용자(205)는 제 1 보기창(212)에서 가상 객체(190)와 상호 작용하고, 사용자(105) 역시 제 2 보기창(114)에서 가상 객체와 연동적으로(또는 동시에) 상호 작용한다.
이제, 도 8을 참조해 보면, 방법(800)의 810에서, 명령은 가상 객체를 액세스하기 위해 수신된다. 예를 들면, 터치 스크린 디스플레이에서의 사용자 입력에 응답하여, 명령은 가상 객체(190)를 액세스하도록 수신된다.
820에서, 가상 객체는 비디오 컨퍼런스에 통합되고, 가상 객체는 제 2 장치의 사용자에 의해 조정된다. 예를 들면, 가상 객체(190)는 장치(100)에서 액세스되고, 장치(100)에 캡쳐된 비디오에 통합되되, 장치(100)에서 통합된다. 통합된 가상 객체(190)를 포함한 비디오는 장치(200)에서 디스플레이되고 조종되도록 구성된다. 일 실시예에서, 822에서, 터치 스크린 디스플레이 상의 사용자 입력에 응답하여, 가상 객체는 비디오 컨퍼런스에 통합된다.
830에서, 통합된 가상 객체를 포함한 비디오 컨퍼런스의 비디오는 제 2 장치로 전송된다.
840에서, 제 1 장치에 캡쳐된 비디오 컨퍼런스는 제 2 장치에서 디스플레이된다. 예를 들면, 장치(100)에서 사용자(105)의 비디오는 장치(100)에 캡쳐되고, 장치(200)에서 디스플레이된다.
850에서, 비디오 컨퍼런스에 통합되는 가상 객체는 제 2 장치에서 조종된다. 예를 들면, 사용자(205)는 가상 객체(190)를 회전시킴으로써, 제 1 보기창(212)에 디스플레이된 가상 객체(190)와 상호 작용한다.
일 실시예에서, 855에서, 터치 스크린 디스플레이에서 수신된 사용자 입력에 응답하여, 비디오 컨퍼런스에 통합된 가상 객체는 소형 모바일 장치에서 조종된다. 예를 들면, 장치(200)는 터치 스크린 디스플레이를 가진 소형 장치(예를 들면, 셀폰)이다. 이에 따라서, 터치 스크린 디스플레이를 터치하는 사용자(205) 응답으로, 가상 객체(190)의 크기가 줄어든다.
860에서, 비디오 컨퍼런스에 통합된 가상 객체는 제 1 장치에서 조종된다. 예를 들면, 사용자(105)는 가상 객체(190)의 크기를 줄임으로써, 제 2 보기창(114)에 디스플레이된 가상 객체(190)와 상호 작용한다.
870에서, 비디오 컨퍼런스에 통합된 가상 객체는 제 1 장치 및 제 2 장치에서 연동적으로 조종된다. 예를 들면, 사용자(105)는 그의 머리를 좌측으로부터 우측으로 이동시키고, 그 결과 가상 객체(190)는 머리 움직임을 따라 이동한다. 또한, 사용자(205)는 가상 객체(190)를 연동적으로 회전시키면서, 가상 객체(190)는 사용자(105)의 머리 움직임을 따라 이동한다.
880에서, 제 2 장치에서 캡쳐된 비디오 컨퍼런스의 비디오 및 가상 객체는 제 1 장치에서 동시에 디스플레이된다. 예를 들면, 제 2 장치(200)에서 캡쳐된 비디오는 제 1 보기창(112) 상에 디스플레이되고, 통합된 가상 객체(190)를 포함한 장치(100)에서 캡쳐된 비디오는 제 2 보기창(114) 상에서 동시에 디스플레이된다.
890에서, 제 1 장치에서 캡쳐된 제 1 비디오 및 제 2 장치에서 캡쳐된 제 2 비디오는 제 1 장치에서 동시에 디스플레이된다.
이제, 도 9를 참조해보면, 방법(900)의 910에서, 제 1 장치에서 캡쳐된 비디오는 제 1 장치 상에 디스플레이된다.
915에서, 가상 객체는 제 1 장치에서 수신되고, 가상 객체는 비디오 컨퍼런스를 증강시키도록 구성된다. 다양한 실시예들에서, 가상 객체(들)는 지리에 관련된 가상 객체, 시간에 관련된 가상 객체, 문학에 관련된 가상 객체, 및/또는 사용자 생성 가상 객체일 수 있지만, 이에 제한되지 않는다.
920에서, 가상 객체는 제 1 장치에서 캡쳐된 비디오에 통합된다. 예를 들면, 가상 객체(190)는 장치(100)에서 캡쳐된 비디오에 통합되고, 그 결과 가상 객체(190)는 사용자(105)의 머리 위에 있게 되고, 사용자(105)의 머리의 움직임을 따라 이동하게 된다.
일 실시예에서, 922에서, 터치 스크린 디스플레이에서의 사용자 입력에 응답하여, 가상 객체는 장치에서 캡쳐된 비디오에 통합된다. 예를 들면, 장치(100)의 터치 스크린 디스플레이에서 사용자(105)의 입력에 응답하여, 임의의 수의 가상 객체들은 장치(100)에서 캡쳐된 비디오에 통합된다.
930에서, 가상 객체를 포함한 비디오는 제 2 장치에서 디스플레이될 수 있고, 그 결과 가상 객체는 제 2 장치에서 조종된다. 935에서, 가상 객체를 포함한 비디오는 제 2 장치로 전송된다.
940에서, 제 1 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 2 장치에서 조종된다. 예를 들면, 사용자(205)는 제 1 보기창(212)에 디스플레이된 가상 장치(190)의 색상을 적색으로 변화시킨다.
일 실시예에서, 942에서, 소형 모바일 장치의 터치 스크린 디스플레이에서 수신된 사용자 입력에 응답하여, 제 1 장치에서 캡쳐된 비디오에 통합된 가상 객체가 조종된다. 예를 들면, 장치(200)의 터치 스크린 디스플레이에서의 사용자 입력에 응답하여, 사용자(205)는 별(도시된 바와 같음)로부터 백열 전구(미도시)로 가상 장치(190)를 변화시킨다.
945에서, 제 1 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 1 장치에서 조종된다. 예를 들면, 사용자(105)는 사용자(105)의 머리 위로부터 사용자의 좌측 손으로 장소 가상 장치(190)를 변화시킨다.
950에서, 제 1 장치에서 캡쳐된 비디오에 통합된 가상 객체는 제 1 장치 및 제 2 장치에서 연동적으로 조종된다. 예를 들면, 사용자(205)는 제 1 보기창(212)에서 가상 객체(190)를 조종하고, 사용자(105)는 제 2 보기창(114)에서 가상 객체를 연동적으로 조종한다.
955에서, 제 1 장치에서 캡쳐된 비디오 및 가상 객체는 제 1 장치에서 동시에 디스플레이된다. 960에서, 제 1 장치에서 캡쳐된 비디오 및 제 2 장치에서 캡쳐된 비디오는 동시에 제 1 장치에서 디스플레이된다.
이로써, 본 발명의 다양한 실시예들이 기술되었다. 본 발명은 특히 실시예들을 기술했으나, 인식하여야 하는 바와 같이, 본 발명은 상기와 같은 실시예들에 의해 제한되는 것으로 구성되는 것이 아니라, 오히려 다음 청구항에 따라 구성되어야 한다.
본원에서 기술된 모든 요소, 부분, 단계가 포함되는 것이 바람직하다. 이해하여야 하는 바와 같이, 이러한 요소, 부분 및 단계는 다른 요소, 부분 및 단계로 대체될 수 있거나, 함께 삭제될 수 있되, 기술 분야의 통상의 기술자에게 명백한 경우에 그러하다.
기술 분야의 통상의 기술자가 이해할 수 있는 바와 같이, 이러한 설명에 언급된 방법 단계는 프로세서들; 키보드, 마우스, 스캐너, 카메라를 적어도 포함한 입력 장치들; 모니터, 프린터를 적어도 포함한 출력 장치들(이에 제한되지 않음)을 포함한 하드웨어에 의해 실행될 수 있다. 방법 단계는 필요할 시에 적합한 장치들로 실행되어야 한다. 예를 들면, 판별 단계는 판별 알고리즘을 구현함으로써 프로세서에서 결정 구현 유닛에 의해 실행될 수 있다. 기술 분야의 통상의 기술자가 이해할 수 있는 바와 같이, 이러한 판별 구현 유닛은 예를 들면 상기의 판별 알고리즘을 실행할 시에 컴퓨터의 프로세서에서 물리적으로 또는 효과적으로 존재할 수 있다. 상기의 분석은 본원에서 기술된 다른 단계에 적용되어야 한다.

Claims (18)

  1. 제 1 장치와 제 2 장치 간의 비디오 컨퍼런스를 증강시키는 컴퓨터 구현 방법에 있어서,
    상기 제 1 장치에서 가상 객체를 수신하는 단계로서, 상기 가상 객체는 상기 비디오 컨퍼런스를 증강시키도록 구성되고, 상기 가상 객체는 특히 이벤트에 관련되는, 수신 단계; 및
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계;를 포함하는 컴퓨터 구현 방법.
  2. 청구항 1에 있어서,
    상기 이벤트는 공휴일 및 특별한 일로 구성된 그룹으로부터 선택되는 컴퓨터 구현 방법.
  3. 청구항 1에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계(prompting)를 더 포함하는 컴퓨터 구현 방법.
  4. 청구항 3에 있어서,
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계는:
    상기 이벤트가 있는 날 동안 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 단계를 더 포함하는 컴퓨터 구현 방법.
  5. 청구항 1에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 제 1 장치의 사용자와 상기 제 2 장치의 사용자 간의 가능한 관계를 판별하는 단계를 더 포함하는 컴퓨터 구현 방법.
  6. 청구항 5에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 판별된 가능한 관계를 확인시키기 위해 상기 제 1 장치의 사용자에게 부추기게 하는 단계를 더 포함하는 컴퓨터 구현 방법.
  7. 청구항 1에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 제 1 장치의 사용자와 상기 제 2 장치의 제 2 사용자 간의 관계에 기반하여, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해, 상기 제 1 장치의 사용자를 부추기게 하는 단계를 더 포함하는 컴퓨터 구현 방법.
  8. 청구항 1에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 2 장치에서 조종하는 단계를 더 포함하는 컴퓨터 구현 방법.
  9. 청구항 1에 있어서,
    상기 컴퓨터 구현 방법은:
    상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 1 장치에서 조종하는 단계를 더 포함하는 컴퓨터 구현 방법.
  10. 실제 컴퓨터 판독가능한 저장 매체에 저장된 명령을 가진 컴퓨터 판독가능한 저장 매체에 있어서, 상기 컴퓨터 판독가능한 저장 매체가 실행될 시에, 상기 명령은 컴퓨터 프로세서를 다음의 실행 방법으로 실행시키고, 상기 실행 방법은:
    상기 제 1 장치에서 가상 객체를 수신하는 단계로서, 상기 가상 객체는 상기 비디오 컨퍼런스를 증강시키도록 구성되고, 상기 가상 객체는 특히 이벤트에 관련되는, 수신 단계; 및
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키는 단계;를 포함하는 컴퓨터 판독가능한 저장 매체.
  11. 청구항 10에 있어서,
    상기 이벤트는 공휴일 및 특별한 일로 구성된 그룹으로부터 선택되는 컴퓨터 판독가능한 저장 매체.
  12. 청구항 10에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  13. 청구항 12에 있어서,
    상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 것은:
    상기 이벤트가 있는 날 동안 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해 상기 제 1 장치의 사용자를 부추기게 하는 것을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  14. 청구항 12에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 제 1 장치의 사용자와 상기 제 2 장치의 사용자 간의 가능한 관계를 판별하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  15. 청구항 14에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 판별된 가능한 관계를 확인시키기 위해 상기 제 1 장치의 사용자에게 부추기게 하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  16. 청구항 10에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 제 1 장치의 사용자와 상기 제 2 장치의 제 2 사용자 간의 관계에 기반하여, 상기 비디오 컨퍼런스에 상기 가상 객체를 통합시키기 위해, 상기 제 1 장치의 사용자를 부추기게 하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  17. 청구항 10에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 2 장치에서 조종하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
  18. 청구항 10에 있어서,
    상기 컴퓨터 판독가능한 저장 매체는:
    상기 비디오 컨퍼런스에 통합된 가상 객체를, 상기 제 1 장치에서 조종하는 명령을 더 포함하는 컴퓨터 판독가능한 저장 매체.
KR1020147006144A 2011-09-23 2012-08-20 비디오 컨퍼런스 증강 KR20140063673A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/241,918 US9544543B2 (en) 2011-02-11 2011-09-23 Augmenting a video conference
US13/241,918 2011-09-23
PCT/US2012/051595 WO2013043289A1 (en) 2011-09-23 2012-08-20 Augmenting a video conference

Publications (1)

Publication Number Publication Date
KR20140063673A true KR20140063673A (ko) 2014-05-27

Family

ID=47914747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147006144A KR20140063673A (ko) 2011-09-23 2012-08-20 비디오 컨퍼런스 증강

Country Status (5)

Country Link
EP (1) EP2759127A4 (ko)
JP (1) JP2014532330A (ko)
KR (1) KR20140063673A (ko)
CN (1) CN103814568A (ko)
WO (1) WO2013043289A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393042B1 (ko) 2021-06-15 2022-04-29 주식회사 브이온 화상 회의 시스템

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101751620B1 (ko) * 2015-12-15 2017-07-11 라인 가부시키가이샤 시각적 또는 청각적 효과의 양방향 전달을 이용한 영상 통화 방법 및 시스템
CN108305317B (zh) 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
CN107613242A (zh) * 2017-09-12 2018-01-19 宇龙计算机通信科技(深圳)有限公司 视频会议处理方法及终端、服务器
KR102271308B1 (ko) 2017-11-21 2021-06-30 주식회사 하이퍼커넥트 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템
US10681310B2 (en) * 2018-05-07 2020-06-09 Apple Inc. Modifying video streams with supplemental content for video conferencing
US11012389B2 (en) 2018-05-07 2021-05-18 Apple Inc. Modifying images with supplemental content for messaging
CN110716641B (zh) * 2019-08-28 2021-07-23 北京市商汤科技开发有限公司 交互方法、装置、设备以及存储介质
CN113766168A (zh) * 2021-05-31 2021-12-07 腾讯科技(深圳)有限公司 一种互动处理方法、装置、终端及介质
CN113938336A (zh) * 2021-11-15 2022-01-14 网易(杭州)网络有限公司 会议控制的方法、装置和电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
JP4378072B2 (ja) * 2001-09-07 2009-12-02 キヤノン株式会社 電子機器、撮像装置、携帯通信機器、映像の表示制御方法及びプログラム
JP2003244425A (ja) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd 伝送画像の修飾パターンの登録方法および装置ならびに再生方法および装置
US6731323B2 (en) * 2002-04-10 2004-05-04 International Business Machines Corporation Media-enhanced greetings and/or responses in communication systems
US7003040B2 (en) * 2002-09-24 2006-02-21 Lg Electronics Inc. System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party
JP4352380B2 (ja) * 2003-08-29 2009-10-28 株式会社セガ 動画像双方向通信端末、コンピュータプログラム及び通話制御方法
US20060088038A1 (en) * 2004-09-13 2006-04-27 Inkaar, Corporation Relationship definition and processing system and method
JP2006173879A (ja) * 2004-12-14 2006-06-29 Hitachi Ltd コミュニケーションシステム
WO2008139251A2 (en) * 2006-04-14 2008-11-20 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
US8373742B2 (en) * 2008-03-27 2013-02-12 Motorola Mobility Llc Method and apparatus for enhancing and adding context to a video call image
KR101533065B1 (ko) * 2008-12-01 2015-07-01 삼성전자주식회사 화상통화 중 애니메이션 효과 제공 방법 및 장치
US8908003B2 (en) * 2009-09-17 2014-12-09 Nokia Corporation Remote communication system and method
KR101234495B1 (ko) * 2009-10-19 2013-02-18 한국전자통신연구원 화상회의 시스템을 위한 단말, 중계 노드 및 스트림 처리 방법
US8665307B2 (en) * 2011-02-11 2014-03-04 Tangome, Inc. Augmenting a video conference

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393042B1 (ko) 2021-06-15 2022-04-29 주식회사 브이온 화상 회의 시스템

Also Published As

Publication number Publication date
EP2759127A1 (en) 2014-07-30
EP2759127A4 (en) 2014-10-15
CN103814568A (zh) 2014-05-21
JP2014532330A (ja) 2014-12-04
WO2013043289A1 (en) 2013-03-28

Similar Documents

Publication Publication Date Title
US9544543B2 (en) Augmenting a video conference
KR20140063673A (ko) 비디오 컨퍼런스 증강
US9253440B2 (en) Augmenting a video conference
US8767034B2 (en) Augmenting a video conference
US9911222B2 (en) Animation in threaded conversations
US9262753B2 (en) Video messaging
CN104777991B (zh) 一种基于手机的远程互动投影系统
CN105320262A (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN112437200A (zh) 从以增强现实元素为特征的多源设备提供实时复合视频的系统和方法
CN111937375A (zh) 利用补充内容修改视频流以用于视频会议
JP7143847B2 (ja) 情報処理システム、情報処理方法、およびプログラム
US20210192852A1 (en) Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements
US11122220B2 (en) Augmented video reality
WO2017011175A1 (en) Immersive teleconferencing system with translucent video stream
CN106105172A (zh) 突出显示未查看的视频消息
CN109074680A (zh) 基于通信的增强现实中实时图像和信号处理方法和系统

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination