KR20140096109A - 공간 북마킹 - Google Patents
공간 북마킹 Download PDFInfo
- Publication number
- KR20140096109A KR20140096109A KR1020147015332A KR20147015332A KR20140096109A KR 20140096109 A KR20140096109 A KR 20140096109A KR 1020147015332 A KR1020147015332 A KR 1020147015332A KR 20147015332 A KR20147015332 A KR 20147015332A KR 20140096109 A KR20140096109 A KR 20140096109A
- Authority
- KR
- South Korea
- Prior art keywords
- video
- computer
- camera platform
- real
- spatial
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
공간 북마크를 생성하기 위한 방법, 장치 및 컴퓨터 판독가능 매체가 제공된다. 방법은 원격 장소(104)에서의 비디오-카메라 플랫폼(110)에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(119)가 컴퓨터 판독가능 메모리(112)에 저장되도록 하는 동작을 근거리 장소(102)에서 수행하는 단계 - 비디오-카메라 플랫폼은 제어가능한 LOS를 가짐 - , 컴퓨터(108)에게 스크린(114) 상에 디스플레이된 이미지(116) - 이미지는 이전에 캡쳐된 실시간 비디오 이미지를 나타냄 - 를 지정하여, 컴퓨터가 컴퓨터 판독가능 메모리로부터 대응하는 공간 베어링 파라미터를 검색하도록 하는 동작을 근거리 장소에서 수행하는 단계, 및 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계 - 비디오-카메라 플랫폼은 근거리 장소에서 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 를 포함한다.
Description
일반적으로, 본 명세서는 화상 회의 제어 애플리케이션들(video-conferencing control applications)에 관한 것으로서, 특히 비디오-카메라 플랫폼(video-camera platform)이 선택된 시선(lines-of-sight)을 따라 조준하도록 지시하는 방법들에 관한 것이다.
화상 회의는 미팅룸(meeting room)으로부터 멀리 떨어진 장소에 있는 가상의 참가자들이 미팅룸의 실시간 비디오 이미지들을 볼 수 있도록 한다. 그러나, 이러한 가상의 참가자들은 통상적으로 그들이 수신하는 실시간 비디오 이미지들에 대한 제어를 갖지 않는다. 예를 들어, 가상의 참가자들은 일반적으로 카메라의 시계(field-of-view) 내에서 특정한 물체(object) 또는 사람을 배치하기 위해 특정 시선을 따라 조준하도록 원격 장소에서의 비디오-카메라에게 지시할 수 없다.
비디오-카메라에 보다 넓은 시계를 제공하는 것은 특정 프레임 내에서 미팅룸의 보다 많은 것을 캡쳐하는 방법을 제공할 수 있지만, 비디오-카메라에 의해 지원되는 것보다 항상 더 넓은 뷰(view)가 존재한다. 그와 같이, 미팅룸의 적어도 일부 요소들은 실시간 비디오 이미지에서 계속해서 볼 수 없을 것이다. 더욱이, 광각(wide-angle) 렌즈들은, 추가적인 계산 자원들을 필요로 하는 소프트웨어에 의해 보정되지 않는 한, 실시간 비디오 이미지들 내의 특정 요소들을 불명확하게 만들 수 있는 이미지 왜곡을 초래할 수 있다.
대안적인 해결책에서, 비디오-카메라들은 미팅룸 내의 움직임, 또는 물체 혹은 음성의 소리를 검출시에 자동으로 조준될 수 있다. 전형적으로, 이러한 해결책은 선택된 시선을 따라 비디오-카메라를 조준하기 위한 제어기를 필요로 한다. 그러나, 이러한 타입의 제어기는 통상적으로 (예를 들면, 미팅룸 내부이거나 또는 미팅룸에 인접한) 비디오-카메라 및 움직임/소리 소스와 동일한 장소에 위치되며, 일반적으로 가상의 참가자들에게 액세스가능하지 않다.
공간 북마크를 생성 및 이용하기 위한 방법, 장치 및 컴퓨터 판독가능 매체가 제공된다. 실시예에서, 공간 북마크에 기초하여, 근거리 장소로부터, 원격 장소에 위치된 비디오-카메라 플랫폼의 뷰를 제어하기 위한 방법이 제공된다. 원격 장소에서의 비디오-카메라 플랫폼과 통신하는 근거리 장소에서의 사용자는, 원격 장소에서의 물체들 또는 사람들을 나타내는 스크린 상에 제공된 이미지를 선택함으로써, 공간 북마크와 관련된 시선(LOS)을 따라 비디오-카메라 플랫폼을 (예를 들면, 관심의 보존된 장소들 쪽으로) 조준할 수 있다.
실시예에 따르면, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(spatial bearing parameter)가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작이 근거리 장소에서 수행되며, 비디오-카메라 플랫폼은 제어가능한 LOS를 갖는다. 스크린 상에 디스플레이된 이미지 - 이미지는 실시간 비디오 이미지를 나타냄 - 를 컴퓨터에게 지정하여, 컴퓨터가 컴퓨터 판독가능 메모리로부터 공간 베어링 파라미터를 검색하도록 하는 동작이 근거리 장소에서 수행되고, 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작 - 비디오-카메라 플랫폼은 근거리 장소에서의 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 이 수행된다. 공간 베어링 파라미터는 팬 좌표(pan coordinate) 및 기울기 좌표(tilt coordinate) 중 적어도 하나를 포함할 수 있다.
실시예에 따르면, 비디오-카메라 플랫폼은 원격 장소에서의 로봇 장치(robotic device)와 통신할 수 있고, 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작은 로봇 디바이스가 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 한다. 또한, 비디오-카메라 플랫폼은 컴퓨터 애플리케이션과 통신할 수 있고, 컴퓨터가 선택된 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작은 컴퓨터 애플리케이션이 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 한다.
실시예에 따르면, 공간 베어링 파라미터는 원격 장소에서 검출된 센서 신호 또는 사용자 선택 스캐닝 기준 중 하나에 기초하여 자동으로 결정된다.
실시예에 따르면, 공간 베어링 파라미터를 나타내는 정보는 컴퓨터 판독가능 메모리에 저장되게 되고, 공간 베어링 파라미터를 나타내는 정보는 송신되게 되며, 공간 베어링 파라미터를 나타내는 정보는 비디오-카메라 플랫폼이 LOS를 따라 조준하도록 한다.
실시예에 따르면, 공간 베어링 파라미터를 나타내는 정보의 인덱스는 사용자 선택시에 저장되고, 그 인덱스는 대응하는 공간 베어링 파라미터를 레코딩하라는 인스트럭션과 함께 송신된다. 그 인덱스는 LOS의 공간 베어링 파라미터에 대응하는 선택된 이미지의 원격 장소로의 지정시에 송신된다.
실시예에 따르면, 공간 베어링 파라미터는 사용자 선택시에 근거리 장소에 저장되고, 선택된 이미지의 지정시에 원격 장소로 송신된다. 또한, 제어 신호들이 LOS를 따라 비디오-카메라 플랫폼을 조준하기 위해 근거리 장소로부터 송신될 수 있다.
실시예에 따르면, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지들은 근거리 장소에서 디스플레이되고, 비디오-카메라 플랫폼은 제어가능한 LOS를 갖는다. 실시간 비디오 이미지들을 디스플레이하는 동안, 하나 이상의 사용자 생성 입력들이 각각의 뷰 선택 시간들에 수신된다. 각각의 뷰 선택 시간에 얻어진 비디오-카메라 플랫폼의 공간 베어링 파라미터는 각각의 사용자 생성 입력들에 응답하여 레코딩된다. 실시간 비디오 이미지들을 나타내는 이미지들은 각각의 뷰 선택 시간에 디스플레이되고, 이미지들 중 선택된 것을 지정하는 적어도 하나의 사용자 생성 입력에 응답하여, 비디오-카메라 플랫폼은 공간 베어링 파라미터에 대응하는 LOS를 따라 자동으로 조준된다.
당업자라면, 이하의 상세한 설명 및 첨부 도면들을 참조함으로써, 본 개시내용의 이들 및 다른 이점들을 명백히 알 것이다.
도 1은 실시예에 따른 공간 북마크를 생성 및 이용하기 위한 네트워킹된 컴퓨팅 시스템의 도면이다.
도 2는 실시예에 따른 사용자 인터페이스 스크린의 도면이다.
도 3a는 실시예에 따른 원격 장소 미팅 세션에서의 비디오-카메라 플랫폼을 도시한다.
도 3b는 실시예에 따른 원격 장소 미팅 세션에서의 카메라 관점 시계를 도시한다.
도 3c는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 3d는 실시예에 따른 원격 장소 미팅 세션에서의 다른 카메라 관점 시계를 도시한다.
도 3e는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 4는 실시예에 따른 원격 비디오-카메라 플랫폼의 실시간 비디오 이미지와 관련된 공간 북마크를 생성 및 이용하기 위한 프로세스의 흐름도이다.
도 5는 실시예에 따른 자동으로 생성된 공간 북마크들을 도시하는 도면이다.
도 6은 네트워킹된 컴퓨팅 플랫폼 내의 공간 북마크를 생성 및 이용하기 위한 예시적인 컴퓨터의 상위 레벨 블록도이다.
도 2는 실시예에 따른 사용자 인터페이스 스크린의 도면이다.
도 3a는 실시예에 따른 원격 장소 미팅 세션에서의 비디오-카메라 플랫폼을 도시한다.
도 3b는 실시예에 따른 원격 장소 미팅 세션에서의 카메라 관점 시계를 도시한다.
도 3c는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 3d는 실시예에 따른 원격 장소 미팅 세션에서의 다른 카메라 관점 시계를 도시한다.
도 3e는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 4는 실시예에 따른 원격 비디오-카메라 플랫폼의 실시간 비디오 이미지와 관련된 공간 북마크를 생성 및 이용하기 위한 프로세스의 흐름도이다.
도 5는 실시예에 따른 자동으로 생성된 공간 북마크들을 도시하는 도면이다.
도 6은 네트워킹된 컴퓨팅 플랫폼 내의 공간 북마크를 생성 및 이용하기 위한 예시적인 컴퓨터의 상위 레벨 블록도이다.
비디오-카메라 플랫폼을 이용하여 서로 멀리 떨어져 있는 (예를 들면, 시선 내에 있지 않는) 2개의 장소들 사이에 가상의 미팅(즉, 화상 회의)을 실시할 수 있다. 그와 같이, 제1의 (근거리) 장소에 있는 가상의 미팅 참가자들은 제2의 (원격) 장소에서 발생되는 미팅의 실시간 비디오 이미지들을 볼 수 있다. 본 명세서에서의 실시예들은 근거리 장소에서의 사용자(예를 들면, 가상 미팅 참가자)가 원격 장소에서의 비디오-카메라 플랫폼에 의해 생성된 실시간 비디오 이미지들을 보고, 실시간 비디오 이미지들에 기초하여 공간(즉, 물리적 공간) 북마크들을 생성할 수 있도록 한다.
공간 북마크(본 명세서에서 북마크 라고도 지침됨)는 실시간 비디오 이미지의 시계에 제공된 물리적 공간의 영역과 같은 물리적 공간의 영역을 마킹 및 리콜(recall)하는데 이용될 수 있다. 북마크는 데카르트 좌표들(Cartesian coordinates) 또는 팬 좌표(수직 축에 관한 회전에 대응) 및 기울기 좌표(수평 축에 관한 회전에 대응)에 의한 것과 같은 좌표 시스템에 기초하여 정의될 수 있다. 예를 들어, 팬 및 기울기 (p, t) 좌표 쌍이 비디오-카메라 플랫폼의 고정된 홈 위치(home position)에 대해 참조된 팬 및 기울기 각도들을 나타낼 수 있다. 그와 같이, 북마크는 팬 및 기울기 좌표 쌍에 대한 참조와 같은 공간 베어링 파라미터 뿐만 아니라, 다른 비디오-카메라 플랫폼 제어 데이터(예를 들면, 초점, 줌, 광 설정 등)를 포함할 수 있다. 북마크는 비디오-카메라 플랫폼이 북마크의 공간 베어링 파라미터(예를 들면, 팬 및 기울기 좌표 쌍)에 대응하는 시선을 따라 조준하도록 지시하기 위해 송신될 수 있다. 더욱이, 비디오-카메라 플랫폼은 북마크의 제어 데이터에 기초하여 추가적으로 지시를 받을 수 있다. 그와 같이, 근거리 장소에서의 사용자는 원격 장소에서의 비디오-카메라 플랫폼이 특정 시선(LOS)을 따라 조준되도록 하는 동작을 수행할 수 있다. 따라서, 북마크를 생성하는 것은 관심이 있는 특정 영역에 기초하여 비디오-카메라 플랫폼을 국부적으로 또는 수동으로 조준할 필요성을 극복할 수 있다.
비디오-카메라 플랫폼의 관점으로부터 볼 수 있듯이, 미팅룸 내의 참가자 및 관심 물체들을 포함하는 물리적 공간의 영역들(공간적 장소들)은 북마크들로서 보존될 수 있다. 예를 들어, 몇몇 미팅 참가자들이 테이블, 및 프로젝터 스크린들 및 화이트보드들과 같은 다른 관심 물체들 주변에 앉을 수 있다. (원격 장소에서의) 미팅룸 내의 비디오-카메라 플랫폼에 의해 생성된 실시간 비디오 이미지들이 근거리 장소에서의 스크린 상에 제공될 수 있다. 일 실시예에서, 이러한 실시간 비디오 이미지들은 실시간 비디오 이미지에서 볼 수 있는 것의 근사화를 보여줄 수 있는 짧은 모션-비디오 클립으로서 또는 하나 이상의 스틸 이미지로서 스크린 상에 제공될 수 있다. 다른 실시예에서, 실시간 비디오 이미지의 시계 내에 위치된 참가자 또는 관심 물체를 나타내는 하나 이상의 아이콘들이 생성되어 스크린 상에 제공될 수 있다. 제공시에, 실시간 비디오 이미지들, 스틸 이미지들 및 아이콘들 각각은, 북마크의 공간 베어링 파라미터(예를 들면, 팬 및 기울기 좌표 쌍)에 대응하는 LOS를 따라 비디오-카메라 플랫폼을 자동으로 조준하기 위해 레코딩 및 이용될 수 있는 북마크를 생성하기 위해 사용자에 의해 선택될 수 있다.
도 1은 실시예에 따른 공간 북마크를 생성 및 이용하기 위한 네트워킹된 컴퓨팅 시스템의 도면이다. 시스템(100)은 근거리 장소(102) 및 원격 장소(104)를 정의한다. 근거리 장소(102)는 원격 장소(104)로부터 소정의 물리적 거리에 있는 장소를 정의한다(예를 들면, 다른 미팅룸, 도시 또는 국가와 같은 원격 장소(104)의 시선 내에 있지 않은 장소). 예를 들어, 원격 장소(104)는 네트워크(106)를 통해 근거리 장소(102)로 송신되는 라이브 회의의 장소일 수 있다.
네트워크(106)는 공중 네트워크(public network)(예를 들면, 인터넷), 전용 네트워크(private network)(예를 들면, 그리고 기업 인트라넷) 또는 공중 네트워크와 전용 네트워크의 조합일 수 있다. 그와 같이, 네트워크(106)의 하나 이상의 상호접속된 구성요소들은 공중 네트워크 구성요소들(예를 들면, 공중 데이터 센터들) 및 전용 네트워크 구성요소들(예를 들면, 기업 데이터 센터들) 둘다른 포함할 수 있다. 예를 들어, 네트워크(106)는 하나 이상의 상호접속된 데이터 노드들, 백엔드 구성요소들, 및 컴퓨터 단말기(108)와 같은 컴퓨터 단말기들을 포함할 수 있다.
시스템(100)은 제어가능한 팬/기울기 모션 및/또는 이동을 지원할 수 있는 비디오-카메라 플랫폼(110)(예를 들면, 팬/기울기 플랫폼)을 더 포함한다. 예를 들어, 비디오-카메라 플랫폼은 종래의 팬/기울기 비디오-카메라, 네트워크 접속형 비디오-카메라, 모바일 로봇 플랫폼 상에 장착된 비디오-카메라 등을 포함할 수 있다. 그와 같이, 비디오-카메라 플랫폼은 다양한 응용들을 위해 비디오-카메라 및 회로의 임의의 조합을 포함하는 것으로 이해될 수 있다. 더욱이, 비디오-카메라 플랫폼 구현은 예시적인 것이며, 비디오 또는 고정 프레임 카메라들과 관련된 다른 디바이스들, 로봇들 및 컴퓨터 애플리케이션들이 다양한 실시예들을 구현하기에 마찬가지로 적절한 것임을 또한 주지해야 한다.
컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)와 결합하여, 제어기 절차를 실행함으로써, 근거리 장소에서의 사용자가 원격 장소에서의 비디오-카메라 플랫폼(110)으로부터 수신된 이미지들에 기초하여 공간 북마크를 생성할 수 있도록 구성될 수 있다. 예를 들어, 근거리 장소(102)에서의 디스플레이 스크린(114)은 비디오-카메라 플랫폼(110)으로부터 수신된 실시간 비디오 이미지(116)(또는, 대안적으로, 실시간 비디오 이미지를 나타내는 아이콘 또는 스틸 이미지) 선택을 제공하도록 구성될 수 있다. 사용자에 의한 실시간 비디오 이미지(116)의 선택시에, 공간 베어링 파라미터(119)(예를 들면, 이미지(116)의 팬 및 기울기 좌표 쌍에 대한 참조) 및 선택적으로 추가적인 데이터(120)(예를 들면, 카메라 초점 설정, 조리개 설정 등과 같은 이미지(116)와 관련된 제어 데이터) 및 이미지(116)의 표현(I')(121)(예를 들면, 엄지손톱 이미지)을 구성하는 북마크(118)가 메모리(112)에 국부적으로 저장되거나, 또는 클라우드 컴퓨팅 저장 노드(122)와 같은 곳에의 저장을 위해 네트워크(106)를 통해 송신될 수 있다. 북마크(118)의 저장시에, 컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)(또는 클라우드 컴퓨팅 저장 노드(122))와 결합하여, 제어기 절차를 실행함으로써 북마크(118)를 검색하고, 사실상 근거리 장소(102)에서의 사용자가 북마크(118)의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 비디오-카메라 플랫폼(110)을 자동으로 조준할 수 있도록 구성될 수 있다.
도 2는 실시예에 따른 사용자 인터페이스 스크린의 도면이다. 컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)와 함께, 디스플레이(114)에서의 그래픽 사용자 인터페이스 애플리케이션(GUI)(200)를 실행하여, 원격 장소(104)에서의 비디오-카메라 플랫폼(110)을 제어하도록 구성될 수 있다. 일 실시예에서, GUI(200)는 근거리 장소(102)에서의 사용자가 공간 북마크를 생성할 수 있도록 한다. 예를 들어, GUI(200)는 원격 장소(104)(예를 들면, 의자들(204), 디스플레이 모니터(206) 등을 갖는 미팅룸)의 실시간 비디오 이미지(202) 및 선택적으로 근거리 장소(102)의 디스플레이(예를 들면, 픽쳐-인-픽쳐 디스플레이(208))를 디스플레이할 수 있다. GUI(200)는 각각의 뷰 선택 시간들(즉, 특정 시계의 실시간 비디오 이미지들이 디스플레이될 때)에 하나 이상의 사용자 생성 입력들을 수신할 수 있다. 각각의 뷰 선택 시간에서 얻어진 각각의 사용자 생성 입력들에 응답하여, 하나 이상의 공간 베어링 파라미터들(119) 및 선택적으로 추가적인 데이터(120)를 포함하는 하나 이상의 공간 북마크들이 생성된 후, (예를 들면, 컴퓨터 판독가능 메모리(112)와 함께 컴퓨터 단말기(108)에 의해) 레코딩될 수 있다. 북마킹된 실시간 비디오 이미지의 시계 내에 위치된 참가자 또는 관심 물체를 나타내는 북마킹된 실시간 비디오 이미지들 또는 아이콘들(212)을 나타내는 이미지들(210)이 디스플레이될 수 있고, 이미지들(210) 또는 아이콘들(212) 중 선택된 것을 지정하는 적어도 하나의 사용자 생성 입력에 응답하여, 비디오-카메라 플랫폼(110)은 선택된 이미지(210) 또는 아이콘(212)에 의해 표현된 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 자동으로 조준될 수 있다.
일 실시예에서, GUI(200)는 복수의 이미지들(210) 또는 아이콘들(212)을 구성하기 위한 측면 윈도우 디스플레이 영역(214)을 포함할 수 있다. 그와 같이, 사용자는 측면 윈도우 디스플레이 영역(214) 내의 이미지(210) 또는 아이콘(212)을 (예를 들면, 컴퓨터 마우스 또는 터치 감응 인터페이스를 통해) 클릭 또는 터치함으로써, 또는 카메라에 의해 인식된 제스쳐를 이용하여 이미지(210) 또는 아이콘(212)을 선택함으로써, 북마킹된 실시간 비디오 이미지를 나타내는 이미지(210) 또는 아이콘(212)을 선택할 수 있다. 유사하게, 사용자는 이미지 디스플레이 영역 내의 아이콘(212)을 클릭 또는 터치함으로써 실시간 비디오 이미지(202)를 오버레이하는 아이콘(212)을 선택할 수 있다. 일 실시예에서, 사용자는 이미지들을 새로운 이미지들로 중복기록하도록 선택할 수도 있다.
일 실시예에서, 비디오-카메라 플랫폼(110)에 대한 사용자 선택의 송신시에, 비디오-카메라 플랫폼(110)은 선택된 이미지(210) 또는 아이콘(212)에 의해 표현된 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 자동으로 조준될 수 있다. 예를 들어, 근거리 장소(102), 원격 장소(104) 또는 (네트워크(106) 내의) 다른 곳에서의 컴퓨터는 공간 베어링 파라미터(119) 및 선택적으로 북마킹된 실시간 비디오 이미지의 제어 신호들(120)을 비디오-카메라 플랫폼(110)으로 송신할 수 있다. 공간 베어링 파라미터(119) 및 제어 신호들(120)의 수신시에, 비디오-카메라 플랫폼(110)은 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 조준하도록 지시를 받는다. 그 다음, 비디오-카메라 플랫폼(110)으로부터의 실시간 이미지들이 GUI(200) 내에서의 디스플레이를 위해 수신될 수 있다.
대안적으로, 모션, 사운드, 압력, 시각적 또는 다른 파라미터들에 기초하여 감응하도록 구성된 센서가 공간 북마크를 자동으로 생성하기 위해 이용될 수 있다. 예를 들어, 미팅룸에서의 하나 이상의 의자들에, 사용을 검출하도록 구성된 압력(즉, 힘) 센서들이 구비될 수 있다. 센서 구비 의자는 의자가 사용될 때에 그것을 검출하고, 비디오-카메라 플랫폼(110)에게 사용된 의자의 방향에서의 시선을 따라 조준하도록 자동으로 지시할 수 있다. 그 다음, 실시간 비디오 이미지들이 디스플레이를 위해 GUI(200)에 전달될 수 있고, 공간 북마크를 생성하기 위해 실시간 비디오 이미지들 중 선택된 것을 지정하는 사용자 생성 입력이 수신될 수 있다. 일 실시예에서, GUI(200)는 실시간 비디오 이미지들 이외에 원격 장소(104)의 가상 맵(216)을 제공할 수 있다. 가상 맵(216)은 실시간 비디오 이미지들에 도시된 물리적 공간을 포함하는 도면일 수 있으며, 여기서 강조된 의자(218)는 실시간 비디오 이미지 내의 의자가 사용되고 있음을 나타낼 수 있다. 그 다음, 공간 북마크가 가상 맵 정보에 기초하여 자동으로 또는 수동으로 생성될 수 있다. 그와 같이, 사람이 다른 의자에 앉기 위해 일어나서 움직일 때, 새로운 위치가 감지되고, 원격 장소에서의 비디오-카메라 플랫폼이 새로운 위치에 기초하여 LOS를 따라 조준되도록 구성될 수 있다. 미팅룸 설정에서, 모든 사용되고 있는 의자들이 감지되고, 공간 북마크들로서 구성되도록 자동으로 제공될 수 있다. 그 다음, 이러한 공간 북마크들은, 몇몇 사람들이 일어나서 룸을 떠나거나 또는 새로운 사람들이 룸으로 들어와서 자리에 앉을 때와 같은, 화상 회의 세션의 코스 동안에 자동으로 업데이트될 수 있다. 예를 들어, 비디오-카메라 플랫폼(110)은 자동으로 업데이트된 공간 북마크들에 기초하여 단지 사용되고 있는 의자들만을 향하도록 지시를 받을 수 있다.
도 3a-3e는 실시예에 따른 원격 장소 미팅 세션에서의 비디오-카메라 플랫폼 및 카메라 관점 시계를 도시하는 도면들이다. 예를 들어, 도 3a는 네트워크에 접속된 근거리 장소에서의 사용자가 미팅 세션을 볼 수 있도록 하는 비디오-카메라 플랫폼(302)을 포함하는 원격 장소에서의 미팅룸(300)을 도시한다. 룸(300) 내에서, 하나 이상의 참가자, 예를 들면, 참가자 A(304) 및 참가자 B(306)는 비디오-카메라 플랫폼(302)의 제1 시선(308) 내에 앉을 수 있다. 비디오-카메라 플랫폼(302)은 시계(308)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 시선을 따라 조준하도록 GUI(200)를 통해 제어가능하게 조절될 수 있다. 예를 들어, 시계(308)는 참가자 A(304)를 통합하는 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응할 수 있다. 시계(308)의 비디오-카메라 플랫폼 관점이 도 3b에 도시된다.
유사하게, 도 3c에 도시된 바와 같이, 비디오-카메라 플랫폼(302)은 시계(310)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 제2 시선을 따라 조준하도록 제어가능하게 조절될 수 있다. 예를 들어, 시계(310)는 참가자 B(306)를 통합하는 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응할 수 있다. 시계(310)의 비디오-카메라 플랫폼 관점이 도 3d에 도시된다. 도 3a 및 3c에서의 참가자들은 비디오-카메라 플랫폼(302)의 시계들 내에 있지만, 도 3e는 참가자들이 시계 내에서 볼 수 없는 경우를 도시한다. 예를 들어, 비디오-카메라 플랫폼(302)이 시계(312)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 시선을 따라 조준될 때, 시계는 프레임에서 참가자 A(304) 및 참가자 B(306)를 보기에 충분히 넓지 않다. 그와 같이, 사용자는 대화의 코스 동안과 같이 참가자들 각각을 보기 위해 좌우로 비디오-카메라 플랫폼(302)을 자동으로 팬(pan)하도록, 도 3b 및 3d에 도시된 카메라 관점들에 기초하여 생성된 공간 북마크들을 이용할 수 있다.
도 4는 실시예에 따른 원격 비디오-카메라 플랫폼의 실시간 비디오 이미지와 관련된 공간 북마크를 생성 및 이용하기 위한 프로세스의 흐름도이다. (400)에서, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작이 근거리 장소에서 수행되고, 비디오-카메라는 제어가능한 LOS를 갖는다. 예를 들어, 공간 베어링 파라미터 및 선택적으로 하나 이상의 제어 신호를 포함하는 공간 북마크가 생성 및 저장될 수 있다. 공간 베어링 파라미터는 팬 및 기울기 좌표 쌍일 수 있다.
일 실시예에서, 공간 베어링 파라미터는 사용자 선택 스캐닝 기준에 기초하여 자동으로 결정될 수 있다. 예를 들어, 컴퓨터 단말기(108)는 모션의 지정된 각도 범위를 스캐닝하고, 스캐닝된 모션의 각도 범위 내의 지정된 수의 공간 북마크들을 자동으로 생성하기 위해, 제어 신호들을 비디오-카메라 플랫폼(110)에 송신하도록 구성될 수 있다. 도 5에 도시된 바와 같이, 사용자는 GUI(200)를 통해, 스캐닝을 위한 모션의 각도 범위(500)(예를 들면, 180도의 팬 또는 기울기 각도) 및 모션의 각도 범위 내의 디비젼(division)들(502-508)의 수를 지정하여 공간 북마크들을 자동으로 생성할 수 있다. 예를 들어, 모션의 지정된 각도 범위 및 디비젼들의 수는 자동 생성을 위해 원격 장소에서의 비디오-카메라 플랫폼(110)에 송신될 수 있다.
(402)에서, 컴퓨터에게 스크린 상에서 디스플레이된 이미지를 지정하는 동작이 근거리 장소에서 수행되고, 이미지는 공간 베어링 파라미터에 대응되며, 컴퓨터가 컴퓨터 판독가능 메모리로부터 공간 베어링 파라미터를 검색하도록 한다. 예를 들어, 사용자는 GUI(200)에서 ((400)에서의 동작시에 생성된) 북마킹된 실시간 비디오 이미지를 클릭 또는 터치함으로써, 이미지를 컴퓨터 단말기(108)에 대해 지정한다.
(404)에서, 컴퓨터가 공간 베어링 파라미터에 대응하는 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작이 수행되고, 비디오-카메라 플랫폼은 (406)에서 근거리 장소에서의 디스플레이를 위해 스크린에서 수신될 수 있는 실시간 비디오 이미지들을 캡쳐한다. 더욱이, 사용자는 LOS를 따라 원격 장소 비디오-카메라를 조준하기 위해 북마킹된 이미지 또는 아이콘을 선택하거나, 또는 하나 이상의 북마킹된 이미지들의 공간 베어링 파라미터를 수동으로 조절할 수 있다. 예를 들어, 사용자는 근거리 장소에서 디스플레이를 위해 비디오-카메라 플랫폼으로부터 수신된 실시간 비디오 이미지에 기초하여 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터를 조절할 수 있다.
대안적으로, 비디오-카메라는 원격 장소에서 모바일 로봇 디바이스와 통신할 수 있으며, (404)에서 컴퓨터가 LOS를 따라 비디오-카메라를 조준하도록 하는 동작을 수행하는 것은 모바일 로봇 디바이스가 캡쳐된 시계에 기초하여 동작을 수행하게 할 수 있다. 다른 예에서, 비디오-카메라는 컴퓨터 애플리케이션과 통신할 수 있으며, (404)에서 컴퓨터가 LOS를 따라 비디오 카메라를 조준하도록 하는 하는 동작을 수행하는 것은 컴퓨터 애플리케이션이 캡쳐된 시계에 기초하여 동작을 수행하도록 한다.
공간 베어링 파라미터는 비디오-카메라 플랫폼에 대하여 근거리 장소 및 원격 장소의 임의의 조합에서 저장될 수 있다. 예를 들어, 공간 베어링 파라미터를 나타내는 정보는 원격 장소에 위치된 비디오-카메라에 대하여 근거리 장소에서의 컴퓨터 판독가능 메모리에 저장되게 될 수 있다. 사용자 선택시에, 공간 베어링 파라미터를 나타내는 정보는 송신되게 될 수 있으며, 공간 베어링 파라미터를 나타내는 정보는 비디오-카메라가 LOS를 따라 조준하게 한다.
다른 예에서, 공간 베어링 파라미터를 나타내는 정보의 인덱스가 근거리 장소에서의 사용자 선택시에 저장되고, 인덱스는 대응하는 공간 베어링 파라미터를 원격 장소(예를 들면, 비디오-카메라 플랫폼의 장소)에 레코딩하기 위한 인스트럭션과 함께 송신된다. 예를 들어, 인덱스는 공간 베어링 파라미터에 대응하는 북마킹된 이미지의 지정시에 송신될 수 있다.
또다른 예에서, 공간 베어링 파라미터는 사용자 선택시에 및 북마킹된 이미지의 지정시에 근거리 장소에 저장될 수 있으며, 공간 베어링 파라미터는 원격 장소로 송신될 수 있다. 일 실시예에서, LOS를 따라 비디오-카메라를 조준하기 위한 제어 신호들이 공간 베어링 파라미터와 함께 근거리 장소로부터 송신될 수 있다(예를 들면, 공간 북마크가 근거리 장소로부터 송신될 수 있다).
다양한 실시예들에서, 도 4에서 기술된 방법 단계들을 포함하는, 본 명세서에 기술된 방법 단계들은, 기술되거나 도시된 특정 순서와는 다른 순서로 수행될 수 있다. 다른 실시예들에서, 다른 단계들이 제공되거나, 또는 기술된 방법들로부터 단계들이 제거될 수 있다.
전술한 예들 이외에도, 본 명세서에서의 실시예들은 다른 응용들에 대해서도 이용될 수 있다. 예를 들어, 공간 북마크는 모바일 텔레프레즌스 로봇(mobile tele-presence rogot)에게 특정한 물리적 공간으로 리턴하도록 지시하는 것과 같은 로봇 응용들에서 이용될 수 있다. 로봇은 사무실 내의 장소와 같은 장소를 네비게이팅하고, 그 장소에 대한 공간 북마크를 생성할 수 있다. 그 다음, 공간 북마크는 저장 및 사용자에게 제공되어, 사용자에 의한 선택시에, 로봇이 다른 장소로부터 북마킹된 장소로 리턴하도록 지시받을 수 있도록 한다.
본 명세서에서 기술된 시스템, 장치 및 방법은 디지털 회로를 이용하여, 또는 잘 알려진 컴퓨터 프로세서, 메모리 유닛, 저장 디바이스, 컴퓨터 소프트웨어 및 다른 구성요소들을 이용하는 하나 이상의 컴퓨터를 이용하여 구현될 수 있다. 전형적으로, 컴퓨터는 인스트럭션들을 실행하기 위한 프로세서, 및 인스트럭션들 및 데이터를 저장하기 위한 하나 이상의 메모리를 포함한다. 또한, 컴퓨터는 하나 이상의 자기 디스크, 내부 하드 디스크 및 제거가능 디스크, 광자기(magneto-optical) 디스크, 광학 디스크 등과 같은 하나 이상의 대량 저장 디바이스를 포함하거나 또는 그것에 연결될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 클라이언트-서버 관계에서 동작하는 컴퓨터들을 이용하여 구현될 수 있다. 전형적으로, 그러한 시스템에서, 클라이언트 컴퓨터들은 서버 컴퓨터로부터 멀리 떨어져서 위치되며, 네트워크를 통해 상호작용한다. 클라이언트-서버 관계는 각각의 클라이언트 및 서버 컴퓨터들 상에서 실행되는 컴퓨터 프로그램들에 의해 정의 및 제어될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 네트워크 기반 클라우드 컴퓨팅 시스템 내에서 이용될 수 있다. 그러한 네트워크 기반 클라우드 컴퓨팅 시스템에서, 네트워크에 접속되는 서버 또는 다른 프로세서가 네트워크를 통해 하나 이상의 클라이언트 컴퓨터와 통신한다. 클라이언트 컴퓨터는 예를 들면, 클라이언트 컴퓨터 상에서 상주 및 동작하는 네트워크 브라우저 애플리케이션을 통해 서버와 통신할 수 있다. 클라이언트 컴퓨터는 서버 상에 데이터를 저장하고, 네트워크를 통해 데이터에 액세스할 수 있다. 클라이언트 컴퓨터는 데이터에 대한 요청들, 또는 온라인 서비스들에 대한 요청들을, 네트워크를 통해 서버에게 송신할 수 있다. 서버는 요청된 서비스들을 수행하고, 데이터를 클라이언트 컴퓨터(들)에게 제공할 수 있다. 또한, 서버는 클라이언트 컴퓨터가 지정된 기능을 수행, 예를 들면, 계산을 수행하고, 스크린 상에 지정된 데이터를 디스플레이하는 등의 처리를 하게 하도록 적응된 데이터를 송신할 수 있다. 예를 들어, 서버는 클라이언트 컴퓨터가, 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 하나 이상의 방법 단계를 수행하게 하도록 적응된 요청을 송신할 수 있다. 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법들의 특정 단계들은 서버에 의해, 또는 네트워크 기반 클라우드 컴퓨팅 시스템에서의 다른 프로세서에 의해 수행될 수 있다. 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법들의 특정 단계들은 네트워크 기반 클라우드 컴퓨팅 시스템에서의 클라이언트 컴퓨터에 의해 수행될 수 있다. 도 4의 단계들 중 하나 이상을 포함하는 본 명세서에서 기술된 방법들의 단계들은 서버에 의해, 및/또는 네트워크 기반 클라우드 컴퓨팅 시스템에서의 클라이언트 컴퓨터에 의해, 임의의 조합으로 수행될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 프로그래밍가능 프로세서에 의한 실행을 위해, 정보 캐리어, 예를 들면, 비일시적 머신 판독가능 저장 디바이스에서 유형으로 구현된 컴퓨터 프로그램 제품을 이용하여 구현될 수 있으며, 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법 단계들은 그러한 프로세서에 의해 실행가능한 하나 이상의 컴퓨터 프로그램을 이용하여 구현될 수 있다. 컴퓨터 프로그램은 특정 활동을 수행하거나 또는 특정 결과를 초래하기 위해 컴퓨터에서 직접적으로 또는 간접적으로 이용될 수 있는 컴퓨터 프로그램 인스트럭션들의 세트이다. 컴퓨터 프로그램은 컴파일링되거나 또는 해석된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있으며, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서 이용하기에 적합한 다른 유닛으로서의 형태를 포함하는 임의의 형태로 사용될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법을 구현하는데 이용될 수 있는 예시적인 컴퓨터의 상위 레벨 블록도가 도 6에 도시된다. 컴퓨터(600)는 데이터 저장 디바이스(602) 및 메모리(603)에 동작가능하게 연결된 프로세서(601)를 포함한다. 프로세서(601)는 동작들을 정의하는 컴퓨터 프로그램 인스트럭션들을 실행함으로써 컴퓨터(600)의 전체 동작을 제어한다. 컴퓨터 프로그램 인스트럭션들은 데이터 저장 디바이스(602) 또는 다른 컴퓨터 판독가능 매체에 저장될 수 있으며, 컴퓨터 프로그램 인스트럭션들의 실행이 요망될 때에 메모리(603) 내로 로딩될 수 있다. 따라서, 도 4의 방법 단계들은 메모리(603) 및/또는 데이터 저장 디바이스(602)에 저장된 컴퓨터 프로그램 인스트럭션들에 의해 정의되고, 컴퓨터 프로그램 인스트럭션들을 실행하는 프로세서(601)에 의해 제어될 수 있다. 예를 들어, 컴퓨터 프로그램 인스트럭션들은 도 4의 방법 단계들에 의해 정의된 알고리즘을 수행하기 위해, 본 기술분야의 당업자에 의해 프로그래밍된 컴퓨터 실행가능 코드로서 구현될 수 있다. 따라서, 컴퓨터 프로그램 인스트럭션들을 실행함으로써, 프로세서(601)는 도 4의 방법 단계들에 의해 정의된 알고리즘을 실행한다. 또한, 컴퓨터(600)는 네트워크를 통해 다른 디바이스들과 통신하기 위해 하나 이상의 네트워크 인터페이스(604)를 포함한다. 또한, 컴퓨터(600)는 컴퓨터(600)와의 사용자 상호작용을 가능하게 하는 하나 이상의 입/출력 디바이스들(605)(예를 들면, 디스플레이, 키보드, 마우스, 스피커, 버튼 등)을 포함한다.
프로세서(601)는 범용 및 특수 목적 마이크로프로세서들 둘다를 포함할 수 있으며, 컴퓨터(600)의 단독 프로세서 또는 다수의 프로세서들 중 하나일 수 있다. 프로세서(601)는, 예를 들면, 하나 이상의 중앙 처리 유닛(CPU)을 포함할 수 있다. 프로세서(601), 데이터 저장 디바이스(602), 및/또는 메모리(603)는, 하나 이상의 ASIC(application-specific integrated circuit) 및/또는 하나 이상의 FPGA(field programmable gate array)를 포함하고, 이들에 의해 보충되거나, 또는 이들에 통합될 수 있다.
데이터 저장 디바이스(602) 및 메모리(603)는 각각 유형의 비일시적 컴퓨터 판독가능 저장 매체를 포함한다. 데이터 저장 디바이스(602) 및 메모리(603)는 각각 DRAM(dynamic random access memory), SRAM(static random access memory), DDR RAM(double data rate synchronous dynamic random access memory) 또는 다른 랜덤 액세스 고체 상태 메모리 디바이스들과 같은 고속 랜덤 액세스 메모리를 포함할 수 있고, 내부 하드 디스크 및 제거가능 디스크와 같은 하나 이상의 자기 디스크 저장 디바이스들, 광자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들과, EEPROM(erasable programmable read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM(compact disc read-only memory), DVD-ROM(digital versatile disc read-only memory) 디스크와 같은 반도체 메모리 디바이스들, 또는 다른 비휘발성 고체 상태 저장 디바이스들과 같은 비휘발성 메모리를 포함할 수 있다.
입/출력 디바이스들(605)은 프린터, 스캐너, 디스플레이 스크린 등과 같은 주변 장치들을 포함할 수 있다. 예를 들어, 입/출력 디바이스들(605)은 CRT(cathode ray tube), LCD(liquid crystal display) 모니터 또는 정보를 사용자에게 디스플레이하기 위한 프로젝터, 키보드와, 마우스, 트랙볼과 같은 포인팅 디바이스 또는 사용자가 컴퓨터(600)에 대한 입력을 제공할 수 있도록 하는 이미지 처리를 포함하는 카메라와 같은 디스플레이 디바이스를 포함할 수 있다.
본 명세서에서 기술된 시스템들 및 장치들 중 임의의 것 또는 전부는 컴퓨터(600)와 같은 컴퓨터를 이용하여 구현될 수 있다.
본 기술분야의 당업자라면, 실제 컴퓨터 또는 컴퓨터 시스템의 구현은 다른 구조들을 포함할 수 있고, 다른 구성요소들도 포함할 수 있으며, 도 6은 예시를 위한 그러한 컴퓨터의 구성요소들 중 일부의 상위 레벨 표현임을 알 것이다.
전술한 상세한 설명은, 제한적인 것은 아니지만, 모든 각각의 예시 및 예이고, 본 명세서에서 개시된 본 발명의 영역은 상세한 설명으로부터 결정되지 않으며, 그보다는 특허법에 의해 허용된 전체 범위에 따라 해석된 것으로서 특허청구범위로부터 결정된다. 본 명세서에서 도시 및 기술된 실시예들은 본 개시내용의 원리들에 대한 예시일 뿐이며, 본 개시내용의 영역 및 사상을 벗어나지 않고서도 다양한 수정들이 본 기술분야의 당업자에 의해 구현될 수 있음을 이해할 것이다. 본 기술분야의 당업자라면 본 개시내용의 영역 및 사상을 벗어나지 않고서도 다양한 다른 특징 조합들을 구현할 수 있다.
Claims (10)
- 원격 장소에서 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(spatial bearing parameter)가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작을 근거리 장소에서 수행하는 단계 - 상기 비디오-카메라 플랫폼은 제어가능한 LOS(line-of-sight)를 가짐 - 와,
스크린 상에 디스플레이된 이미지를 컴퓨터에게 지정하여, 상기 컴퓨터가 상기 컴퓨터 판독가능 메모리로부터 상기 공간 베어링 파라미터를 검색하도록 하는 동작을 상기 근거리 장소에서 수행하는 단계 - 상기 이미지는 상기 실시간 비디오 이미지를 나타냄 - 와,
상기 컴퓨터가 상기 공간 베어링 파라미터에 대응하는 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계 - 상기 비디오-카메라 플랫폼은 상기 근거리 장소에서의 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 를 포함하는
방법.
- 제1항에 있어서,
상기 비디오-카메라 플랫폼은 상기 원격 장소에서 로봇 디바이스와 통신하고,
상기 컴퓨터가 상기 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계는 상기 로봇 디바이스가 상기 LOS를 따라 상기 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 하는
방법.
- 제1항에 있어서,
상기 비디오-카메라 플랫폼은 컴퓨터 애플리케이션과 통신하고,
상기 컴퓨터가 상기 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계는 상기 컴퓨터 애플리케이션이 상기 LOS를 따라 상기 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 하는
방법.
- 제1항에 있어서,
상기 공간 베어링 파라미터는 팬 좌표(pan coordinate) 및 기울기 좌표(tilt coordinate) 중 적어도 하나를 포함하는
방법. - 제1항에 있어서,
상기 원격 장소에서 검출된 센서 신호 또는 사용자 선택 스캐닝 기준 중 하나에 기초하여 상기 공간 베어링 파라미터를 자동으로 결정하는 단계를 더 포함하는
방법.
- 제1항에 있어서,
상기 이미지는 상기 비디오-카메라 플랫폼의 실시간 비디오 이미지의 표현 및 컴퓨터 디스플레이 아이콘 중 하나인
방법.
- 제1항에 있어서,
상기 공간 베어링 파라미터를 나타내는 정보가 상기 컴퓨터 판독가능 메모리에 저장되도록 하는 단계와,
상기 공간 베어링 파라미터를 나타내는 정보가 송신되도록 하는 단계 - 상기 공간 베어링 파라미터를 나타내는 정보는 상기 비디오-카메라 플랫폼이 상기 공간 베어링 파라미터에 대응하는 LOS를 따라 조준하도록 함 - 중 하나를 더 포함하는
법.
- 제1항에 있어서,
사용자 선택시에, 공간 베어링 파라미터를 나타내는 정보의 인덱스를 저장하고, 상기 공간 베어링 파라미터를 레코딩하기 위한 인스트럭션과 함께 상기 인덱스를 송신하는 단계와,
상기 이미지의 지정시에, 상기 공간 베어링 파라미터에 대응하는 상기 인덱스를 상기 원격 장소로 송신하는 단계를 더 포함하는
방법.
- 제1항에 있어서,
사용자 선택시에, 상기 근거리 장소에서 상기 공간 베어링 파라미터를 저장하는 단계와,
상기 이미지의 지정시에, 상기 공간 베어링 파라미터를 상기 원격 장소로 송신하는 단계를 더 포함하는
방법.
- 제1항에 있어서,
상기 근거리 장소로부터, 상기 선택된 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하기 위한 제어 신호를 송신하는 단계를 더 포함하는
방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/312,218 US9008487B2 (en) | 2011-12-06 | 2011-12-06 | Spatial bookmarking |
US13/312,218 | 2011-12-06 | ||
PCT/US2012/066511 WO2013085733A1 (en) | 2011-12-06 | 2012-11-26 | Spatial bookmarking |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140096109A true KR20140096109A (ko) | 2014-08-04 |
KR101573646B1 KR101573646B1 (ko) | 2015-12-01 |
Family
ID=47351983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147015332A KR101573646B1 (ko) | 2011-12-06 | 2012-11-26 | 공간 북마킹 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9008487B2 (ko) |
EP (1) | EP2789162A1 (ko) |
JP (1) | JP6324901B2 (ko) |
KR (1) | KR101573646B1 (ko) |
CN (1) | CN103988497B (ko) |
WO (1) | WO2013085733A1 (ko) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9955209B2 (en) | 2010-04-14 | 2018-04-24 | Alcatel-Lucent Usa Inc. | Immersive viewer, a method of providing scenes on a display and an immersive viewing system |
US9294716B2 (en) | 2010-04-30 | 2016-03-22 | Alcatel Lucent | Method and system for controlling an imaging system |
US8754925B2 (en) | 2010-09-30 | 2014-06-17 | Alcatel Lucent | Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal |
US9008487B2 (en) | 2011-12-06 | 2015-04-14 | Alcatel Lucent | Spatial bookmarking |
EP2954505B1 (en) * | 2013-02-08 | 2019-09-11 | Robert Bosch GmbH | Adding user-selected mark-ups to a video stream |
EP3092794A4 (en) * | 2014-01-10 | 2017-11-29 | Revolve Robotics, Inc. | Systems and methods for controlling robotic stands during videoconference operation |
US9524588B2 (en) * | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
EP3335418A1 (en) | 2015-08-14 | 2018-06-20 | PCMS Holdings, Inc. | System and method for augmented reality multi-view telepresence |
CN108028910A (zh) | 2015-09-25 | 2018-05-11 | 索尼公司 | 信息处理设备、信息处理方法与程序 |
JP2017098592A (ja) * | 2015-11-18 | 2017-06-01 | 富士通株式会社 | コミュニケーション支援システム、サーバ装置及びプログラム |
US10762712B2 (en) | 2016-04-01 | 2020-09-01 | Pcms Holdings, Inc. | Apparatus and method for supporting interactive augmented reality functionalities |
CN107404602B (zh) * | 2016-05-18 | 2020-01-24 | 广州市索广电子技术有限公司 | 一种基于视频通信信道数据编织的远程提示方法 |
CN107547790A (zh) * | 2016-06-27 | 2018-01-05 | 中兴通讯股份有限公司 | 图像采集的处理方法、装置及系统 |
WO2018005235A1 (en) * | 2016-06-30 | 2018-01-04 | Pcms Holdings, Inc. | System and method for spatial interaction using automatically positioned cameras |
EP3635949A1 (en) | 2017-06-09 | 2020-04-15 | PCMS Holdings, Inc. | Spatially faithful telepresence supporting varying geometries and moving users |
Family Cites Families (131)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572317A (en) * | 1990-05-31 | 1996-11-05 | Parkervision, Inc. | Remote-controlled tracking system for tracking a remote control unit and positioning and operating a camera and method |
WO1993006690A1 (en) | 1991-09-17 | 1993-04-01 | Radamec Epo Limited | Setting-up system for remotely controlled cameras |
JP3232608B2 (ja) | 1991-11-25 | 2001-11-26 | ソニー株式会社 | 収音装置、再生装置、収音方法および再生方法、および、音信号処理装置 |
US6385352B1 (en) | 1994-10-26 | 2002-05-07 | Symbol Technologies, Inc. | System and method for reading and comparing two-dimensional images |
JP3487436B2 (ja) | 1992-09-28 | 2004-01-19 | ソニー株式会社 | ビデオカメラシステム |
US5745161A (en) | 1993-08-30 | 1998-04-28 | Canon Kabushiki Kaisha | Video conference system |
JPH07135594A (ja) | 1993-11-11 | 1995-05-23 | Canon Inc | 撮像制御装置 |
JP2937009B2 (ja) | 1994-03-30 | 1999-08-23 | ヤマハ株式会社 | 音像定位制御装置 |
CA2148631C (en) | 1994-06-20 | 2000-06-13 | John J. Hildin | Voice-following video system |
US6628887B1 (en) * | 1998-04-17 | 2003-09-30 | Honeywell International, Inc. | Video security system |
US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
JP2947113B2 (ja) | 1995-03-09 | 1999-09-13 | 日本電気株式会社 | 画像通信端末用ユーザインタフェース装置 |
US6137485A (en) | 1995-03-20 | 2000-10-24 | Canon Kabushiki Kaisha | Image transmission method and apparatus, and image transmission system including the apparatus |
US6122005A (en) | 1995-04-14 | 2000-09-19 | Canon Kabushiki Kaisha | Camera control system having list of camera names updated in accordance with frequency of use and other ease of use features |
US5896128A (en) | 1995-05-03 | 1999-04-20 | Bell Communications Research, Inc. | System and method for associating multimedia objects for use in a video conferencing system |
US5963250A (en) | 1995-10-20 | 1999-10-05 | Parkervision, Inc. | System and method for controlling the field of view of a camera |
EP0781049B1 (en) | 1995-12-19 | 2004-05-06 | Canon Kabushiki Kaisha | Apparatus and method for controlling a plurality of remote cameras |
US7012630B2 (en) | 1996-02-08 | 2006-03-14 | Verizon Services Corp. | Spatial sound conference system and apparatus |
US6021206A (en) | 1996-10-02 | 2000-02-01 | Lake Dsp Pty Ltd | Methods and apparatus for processing spatialised audio |
JP3563889B2 (ja) | 1996-10-15 | 2004-09-08 | キヤノン株式会社 | カメラ制御システムおよびカメラ制御システムの制御方法 |
US6275258B1 (en) | 1996-12-17 | 2001-08-14 | Nicholas Chim | Voice responsive image tracking system |
KR100220011B1 (ko) | 1996-12-27 | 1999-09-01 | 구자홍 | 출력 화면과 연동된 포커스 평가치를 검출하는 카메라 장치 |
US6072522A (en) | 1997-06-04 | 2000-06-06 | Cgc Designs | Video conferencing apparatus for group video conferencing |
US5940118A (en) | 1997-12-22 | 1999-08-17 | Nortel Networks Corporation | System and method for steering directional microphones |
US6005610A (en) | 1998-01-23 | 1999-12-21 | Lucent Technologies Inc. | Audio-visual object localization and tracking system and method therefor |
JPH11242523A (ja) * | 1998-02-24 | 1999-09-07 | Star Micronics Co Ltd | 監視カメラ装置 |
US6593956B1 (en) | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
US6487600B1 (en) | 1998-09-12 | 2002-11-26 | Thomas W. Lynch | System and method for supporting multimedia communications upon a dynamically configured member network |
US6318825B1 (en) | 1998-10-23 | 2001-11-20 | Hewlett-Packard Company | Dry erase electronic whiteboard with page-wide-array inkjet printer |
WO2000060857A1 (en) | 1999-04-08 | 2000-10-12 | Internet Pictures Corporation | Virtual theater |
US7039221B1 (en) | 1999-04-09 | 2006-05-02 | Tumey David M | Facial image verification utilizing smart-card with integrated video camera |
JP3195920B2 (ja) | 1999-06-11 | 2001-08-06 | 科学技術振興事業団 | 音源同定・分離装置及びその方法 |
JP3597089B2 (ja) * | 1999-08-31 | 2004-12-02 | 松下電器産業株式会社 | 監視カメラ装置とそのオートトレース実施方法 |
JP2001086486A (ja) * | 1999-09-14 | 2001-03-30 | Matsushita Electric Ind Co Ltd | 監視カメラシステム及び監視カメラの表示方法 |
US6772195B1 (en) | 1999-10-29 | 2004-08-03 | Electronic Arts, Inc. | Chat clusters for a virtual world application |
US6850265B1 (en) | 2000-04-13 | 2005-02-01 | Koninklijke Philips Electronics N.V. | Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications |
US6766035B1 (en) | 2000-05-03 | 2004-07-20 | Koninklijke Philips Electronics N.V. | Method and apparatus for adaptive position determination video conferencing and other applications |
JP2002007294A (ja) | 2000-06-22 | 2002-01-11 | Canon Inc | 画像配信システム及び方法並びに記憶媒体 |
US20020039111A1 (en) | 2000-06-27 | 2002-04-04 | James Gips | Automated visual tracking for computer access |
US7283788B1 (en) | 2000-07-26 | 2007-10-16 | Posa John G | Remote microphone teleconferencing configurations |
WO2002039216A2 (en) | 2000-11-03 | 2002-05-16 | Outlet Group, Llc | Method and system of an integrated business topography and virtual 3d network portal |
SE517765C2 (sv) | 2000-11-16 | 2002-07-16 | Ericsson Telefon Ab L M | Registrering av rörliga bilder medelst en portabel kommunikationsenhet samt en tillbehörsanordning vilken är samlokaliserad med objektet |
US20020149672A1 (en) | 2001-04-13 | 2002-10-17 | Clapp Craig S.K. | Modular video conferencing system |
US6604868B2 (en) * | 2001-06-04 | 2003-08-12 | Kent Hsieh | Microprocessor-controlled servo device for carrying and moving camera |
JP4056777B2 (ja) * | 2002-03-29 | 2008-03-05 | 綜合警備保障株式会社 | 自律移動体巡回システムおよび自律移動体の位置補正方法 |
US7129981B2 (en) | 2002-06-27 | 2006-10-31 | International Business Machines Corporation | Rendering system and method for images having differing foveal area and peripheral view area resolutions |
US8893207B2 (en) | 2002-12-10 | 2014-11-18 | Ol2, Inc. | System and method for compressing streaming interactive video |
US7913176B1 (en) | 2003-03-03 | 2011-03-22 | Aol Inc. | Applying access controls to communications with avatars |
US20040189701A1 (en) | 2003-03-25 | 2004-09-30 | Badt Sig Harold | System and method for facilitating interaction between an individual present at a physical location and a telecommuter |
US20040233282A1 (en) | 2003-05-22 | 2004-11-25 | Stavely Donald J. | Systems, apparatus, and methods for surveillance of an area |
US7559026B2 (en) | 2003-06-20 | 2009-07-07 | Apple Inc. | Video conferencing system having focus control |
US7428000B2 (en) | 2003-06-26 | 2008-09-23 | Microsoft Corp. | System and method for distributed meetings |
US7154526B2 (en) | 2003-07-11 | 2006-12-26 | Fuji Xerox Co., Ltd. | Telepresence system and method for video teleconferencing |
US7995090B2 (en) | 2003-07-28 | 2011-08-09 | Fuji Xerox Co., Ltd. | Video enabled tele-presence control host |
KR20050033949A (ko) | 2003-10-07 | 2005-04-14 | 삼성전자주식회사 | 휴대용 단말기의 오토줌임 제어방법 |
WO2005034505A1 (en) | 2003-10-07 | 2005-04-14 | Librestream Technologies Inc. | Camera for communication of streaming media to a remote client |
JP4269883B2 (ja) | 2003-10-20 | 2009-05-27 | ソニー株式会社 | マイクロホン装置、再生装置及び撮像装置 |
US8208007B2 (en) | 2004-04-21 | 2012-06-26 | Telepresence Technologies, Llc | 3-D displays and telepresence systems and methods therefore |
JP2005354367A (ja) * | 2004-06-10 | 2005-12-22 | Matsushita Electric Ind Co Ltd | ネットワークカメラシステム |
US20050280701A1 (en) | 2004-06-14 | 2005-12-22 | Wardell Patrick J | Method and system for associating positional audio to positional video |
US7535468B2 (en) | 2004-06-21 | 2009-05-19 | Apple Inc. | Integrated sensing display |
JP4324030B2 (ja) * | 2004-06-25 | 2009-09-02 | キヤノン株式会社 | カメラ制御装置、カメラ制御方法、及び記憶媒体 |
US7512883B2 (en) | 2004-06-30 | 2009-03-31 | Microsoft Corporation | Portable solution for automatic camera management |
EP1643769B1 (en) | 2004-09-30 | 2009-12-23 | Samsung Electronics Co., Ltd. | Apparatus and method performing audio-video sensor fusion for object localization, tracking and separation |
US7312809B2 (en) | 2004-10-12 | 2007-12-25 | Codian Ltd. | Method and apparatus for controlling a conference call |
US7626569B2 (en) | 2004-10-25 | 2009-12-01 | Graphics Properties Holdings, Inc. | Movable audio/video communication interface system |
KR20060058323A (ko) * | 2004-11-25 | 2006-05-30 | 엘지전자 주식회사 | 촬영장소 표시를 위한 이동통신 단말기의 사진촬영시스템및 그 방법 |
FR2880762A1 (fr) | 2005-01-07 | 2006-07-14 | France Telecom | Terminal de visiophonie avec reglages intuitifs |
US7852317B2 (en) | 2005-01-12 | 2010-12-14 | Thinkoptics, Inc. | Handheld device for handheld vision based absolute pointing system |
CN101198989A (zh) | 2005-03-24 | 2008-06-11 | G元件私人有限公司 | 用于邻近区域和建筑物内的可视化、规划、监视和探察的系统和设备 |
US20070002130A1 (en) | 2005-06-21 | 2007-01-04 | David Hartkop | Method and apparatus for maintaining eye contact during person-to-person video telecommunication |
JP4441879B2 (ja) | 2005-06-28 | 2010-03-31 | ソニー株式会社 | 信号処理装置および方法、プログラム、並びに記録媒体 |
EP1902350A1 (en) | 2005-07-04 | 2008-03-26 | Bang & Olufsen A/S | A unit, an assembly and a method for controlling in a dynamic egocentric interactive space |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
WO2007047685A2 (en) | 2005-10-17 | 2007-04-26 | I2Ic Corporation | Combined video display and camera system |
US8872879B2 (en) * | 2006-01-26 | 2014-10-28 | Polycom, Inc. | System and method for controlling videoconference with touch screen interface |
US20080086696A1 (en) | 2006-03-03 | 2008-04-10 | Cadcorporation.Com Inc. | System and Method for Using Virtual Environments |
JP4684147B2 (ja) | 2006-03-28 | 2011-05-18 | 任天堂株式会社 | 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム |
US20070263824A1 (en) | 2006-04-18 | 2007-11-15 | Cisco Technology, Inc. | Network resource optimization in a video conference |
JP2007316319A (ja) | 2006-05-25 | 2007-12-06 | Funai Electric Co Ltd | プロジェクタ |
US20080063389A1 (en) | 2006-09-13 | 2008-03-13 | General Instrument Corporation | Tracking a Focus Point by a Remote Camera |
US7880739B2 (en) | 2006-10-11 | 2011-02-01 | International Business Machines Corporation | Virtual window with simulated parallax and field of view change |
US8970503B2 (en) * | 2007-01-05 | 2015-03-03 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
WO2008103850A2 (en) | 2007-02-21 | 2008-08-28 | Pixel Velocity, Inc. | Scalable system for wide area surveillance |
US7840903B1 (en) | 2007-02-26 | 2010-11-23 | Qurio Holdings, Inc. | Group content representations |
JP2009016956A (ja) * | 2007-06-29 | 2009-01-22 | Sanyo Electric Co Ltd | カメラ制御システム、カメラ制御装置、及びカメラ制御プログラム |
US8711224B2 (en) | 2007-08-06 | 2014-04-29 | Frostbyte Video, Inc. | Image capture system and method |
US8397168B2 (en) | 2008-04-05 | 2013-03-12 | Social Communications Company | Interfacing with a spatial virtual communication environment |
US20090111518A1 (en) | 2007-10-29 | 2009-04-30 | Agere Systems Inc. | Interface for cellular and local non-cellular communications |
WO2009062043A1 (en) | 2007-11-08 | 2009-05-14 | The Regents Of The University Of California | An apparatus configured to provide functional and aesthetic lighting from a fan |
EP2065795A1 (en) | 2007-11-30 | 2009-06-03 | Koninklijke KPN N.V. | Auto zoom display system and method |
US8159458B2 (en) | 2007-12-13 | 2012-04-17 | Apple Inc. | Motion tracking user interface |
JP5315696B2 (ja) * | 2008-01-07 | 2013-10-16 | ソニー株式会社 | 撮像制御装置、撮像制御方法 |
EP2263190A2 (en) | 2008-02-13 | 2010-12-22 | Ubisoft Entertainment S.A. | Live-action image capture |
WO2009104564A1 (ja) | 2008-02-20 | 2009-08-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム |
US20120011454A1 (en) | 2008-04-30 | 2012-01-12 | Microsoft Corporation | Method and system for intelligently mining data during communication streams to present context-sensitive advertisements using background substitution |
US8275197B2 (en) | 2008-06-14 | 2012-09-25 | Microsoft Corporation | Techniques to manage a whiteboard for multimedia conference events |
CN101610360A (zh) | 2008-06-19 | 2009-12-23 | 鸿富锦精密工业(深圳)有限公司 | 自动追踪声源的摄像装置 |
KR101006368B1 (ko) | 2008-07-22 | 2011-01-10 | 삼성전자주식회사 | 휴대 단말기의 카메라 조절 방법 및 장치 |
NO333026B1 (no) | 2008-09-17 | 2013-02-18 | Cisco Systems Int Sarl | Styringssystem for et lokalt telepresencevideokonferansesystem og fremgangsmate for a etablere en videokonferansesamtale. |
US8593503B2 (en) | 2008-09-25 | 2013-11-26 | Alcatel Lucent | Videoconferencing terminal and method of operation thereof to maintain eye contact |
WO2010036780A1 (en) | 2008-09-25 | 2010-04-01 | Coby Electronics Corporation | Docking station with rotation mechanism |
US20100302343A1 (en) | 2009-05-26 | 2010-12-02 | Alcatel-Lucent Usa, Incorporated | Videoconferencing terminal and method of operation thereof to maintain eye contact |
US8355040B2 (en) | 2008-10-16 | 2013-01-15 | Teliris, Inc. | Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method |
US8150063B2 (en) | 2008-11-25 | 2012-04-03 | Apple Inc. | Stabilizing directional audio input from a moving microphone array |
US8584026B2 (en) | 2008-12-29 | 2013-11-12 | Avaya Inc. | User interface for orienting new users to a three dimensional computer-generated virtual environment |
US8487975B2 (en) | 2009-01-27 | 2013-07-16 | Lifesize Communications, Inc. | Conferencing system utilizing a mobile communication device as an interface |
US7987309B2 (en) | 2009-02-26 | 2011-07-26 | Broadcom Corporation | Dockable handheld computing device with graphical user interface and methods for use therewith |
JP5522349B2 (ja) | 2009-04-14 | 2014-06-18 | 任天堂株式会社 | 入力システム、情報処理システム、周辺機器の制御方法、および操作機器の制御プログラム |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US20100293468A1 (en) | 2009-05-12 | 2010-11-18 | Sony Ericsson Mobile Communications Ab | Audio control based on window settings |
US8571192B2 (en) | 2009-06-30 | 2013-10-29 | Alcatel Lucent | Method and apparatus for improved matching of auditory space to visual space in video teleconferencing applications using window-based displays |
US8380550B2 (en) | 2009-12-08 | 2013-02-19 | Lawrence Livermore National Security, Llc | Method and computer program product for maintenance and modernization backlogging |
US8520051B2 (en) | 2009-12-17 | 2013-08-27 | Alcatel Lucent | Videoconferencing terminal with a persistence of vision display and a method of operation thereof to maintain eye contact |
GB2475928A (en) | 2009-12-23 | 2011-06-08 | Promethean Ltd | An input system including an interactive surface for detecting a contact point and the presence of a response to an excitation signal |
CN102118560A (zh) * | 2009-12-30 | 2011-07-06 | 深圳富泰宏精密工业有限公司 | 拍照系统及方法 |
US8917632B2 (en) | 2010-04-07 | 2014-12-23 | Apple Inc. | Different rate controller configurations for different cameras of a mobile device |
US9955209B2 (en) | 2010-04-14 | 2018-04-24 | Alcatel-Lucent Usa Inc. | Immersive viewer, a method of providing scenes on a display and an immersive viewing system |
US20110267421A1 (en) | 2010-04-30 | 2011-11-03 | Alcatel-Lucent Usa Inc. | Method and Apparatus for Two-Way Multimedia Communications |
US9294716B2 (en) | 2010-04-30 | 2016-03-22 | Alcatel Lucent | Method and system for controlling an imaging system |
US20110268263A1 (en) | 2010-04-30 | 2011-11-03 | American Teleconferencing Services Ltd. | Conferencing alerts |
US8688774B2 (en) | 2010-08-09 | 2014-04-01 | Eustace Prince Isidore | Method, system, and devices for facilitating real-time social and business interactions/networking |
US20120069218A1 (en) | 2010-09-20 | 2012-03-22 | Qualcomm Incorporated | Virtual video capture device |
US20120083314A1 (en) | 2010-09-30 | 2012-04-05 | Ng Hock M | Multimedia Telecommunication Apparatus With Motion Tracking |
US8754925B2 (en) | 2010-09-30 | 2014-06-17 | Alcatel Lucent | Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal |
US8848028B2 (en) | 2010-10-25 | 2014-09-30 | Dell Products L.P. | Audio cues for multi-party videoconferencing on an information handling system |
US20120154510A1 (en) | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Smart Camera for Virtual Conferences |
US20120204120A1 (en) | 2011-02-08 | 2012-08-09 | Lefar Marc P | Systems and methods for conducting and replaying virtual meetings |
US20120216129A1 (en) | 2011-02-17 | 2012-08-23 | Ng Hock M | Method and apparatus for providing an immersive meeting experience for remote meeting participants |
US9008487B2 (en) | 2011-12-06 | 2015-04-14 | Alcatel Lucent | Spatial bookmarking |
-
2011
- 2011-12-06 US US13/312,218 patent/US9008487B2/en not_active Expired - Fee Related
-
2012
- 2012-11-26 KR KR1020147015332A patent/KR101573646B1/ko active IP Right Grant
- 2012-11-26 JP JP2014545932A patent/JP6324901B2/ja active Active
- 2012-11-26 CN CN201280060445.8A patent/CN103988497B/zh not_active Expired - Fee Related
- 2012-11-26 EP EP12799414.3A patent/EP2789162A1/en not_active Ceased
- 2012-11-26 WO PCT/US2012/066511 patent/WO2013085733A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP6324901B2 (ja) | 2018-05-16 |
US9008487B2 (en) | 2015-04-14 |
US20130141573A1 (en) | 2013-06-06 |
CN103988497A (zh) | 2014-08-13 |
EP2789162A1 (en) | 2014-10-15 |
CN103988497B (zh) | 2017-12-08 |
WO2013085733A1 (en) | 2013-06-13 |
JP2015507394A (ja) | 2015-03-05 |
KR101573646B1 (ko) | 2015-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101573646B1 (ko) | 공간 북마킹 | |
US9854206B1 (en) | Privacy-aware indoor drone exploration and communication framework | |
US11632516B2 (en) | Capture, analysis and use of building data from mobile devices | |
US10165179B2 (en) | Method, system, and computer program product for gamifying the process of obtaining panoramic images | |
US8754925B2 (en) | Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal | |
US11086594B2 (en) | Method and apparatus for controlling surveillance system with gesture and/or audio commands | |
US9661214B2 (en) | Depth determination using camera focus | |
US9723203B1 (en) | Method, system, and computer program product for providing a target user interface for capturing panoramic images | |
US9955209B2 (en) | Immersive viewer, a method of providing scenes on a display and an immersive viewing system | |
US8400490B2 (en) | Framing an object for video conference | |
CA3113355A1 (en) | Automated control of image acquisition via use of acquisition device sensors | |
TWI400940B (zh) | 遠端控制軌道式攝影裝置的手持式裝置及方法 | |
US20060114251A1 (en) | Methods for simulating movement of a computer user through a remote environment | |
US10203837B2 (en) | Multi-depth-interval refocusing method and apparatus and electronic device | |
JP2020520308A (ja) | ロボット制御方法、ロボット装置及びロボット機器 | |
CN104184985A (zh) | 图像获取的方法及装置 | |
US20070038945A1 (en) | System and method allowing one computer system user to guide another computer system user through a remote environment | |
JPWO2014064878A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
JP2017183816A (ja) | 動画配信サーバ、動画出力装置、動画配信システム、及び動画配信方法 | |
JP4396092B2 (ja) | コンピュータ援用ミーティングキャプチャシステム、コンピュータ援用ミーティングキャプチャ方法、及びコントロールプログラム | |
JP2023173764A (ja) | 情報処理装置、情報処理方法 | |
JP2024001477A (ja) | 画像処理システム、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |