KR20140096109A - 공간 북마킹 - Google Patents

공간 북마킹 Download PDF

Info

Publication number
KR20140096109A
KR20140096109A KR1020147015332A KR20147015332A KR20140096109A KR 20140096109 A KR20140096109 A KR 20140096109A KR 1020147015332 A KR1020147015332 A KR 1020147015332A KR 20147015332 A KR20147015332 A KR 20147015332A KR 20140096109 A KR20140096109 A KR 20140096109A
Authority
KR
South Korea
Prior art keywords
video
computer
camera platform
real
spatial
Prior art date
Application number
KR1020147015332A
Other languages
English (en)
Other versions
KR101573646B1 (ko
Inventor
에드워드 엘 서터
호크 엠 엔지
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20140096109A publication Critical patent/KR20140096109A/ko
Application granted granted Critical
Publication of KR101573646B1 publication Critical patent/KR101573646B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

공간 북마크를 생성하기 위한 방법, 장치 및 컴퓨터 판독가능 매체가 제공된다. 방법은 원격 장소(104)에서의 비디오-카메라 플랫폼(110)에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(119)가 컴퓨터 판독가능 메모리(112)에 저장되도록 하는 동작을 근거리 장소(102)에서 수행하는 단계 - 비디오-카메라 플랫폼은 제어가능한 LOS를 가짐 - , 컴퓨터(108)에게 스크린(114) 상에 디스플레이된 이미지(116) - 이미지는 이전에 캡쳐된 실시간 비디오 이미지를 나타냄 - 를 지정하여, 컴퓨터가 컴퓨터 판독가능 메모리로부터 대응하는 공간 베어링 파라미터를 검색하도록 하는 동작을 근거리 장소에서 수행하는 단계, 및 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계 - 비디오-카메라 플랫폼은 근거리 장소에서 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 를 포함한다.

Description

공간 북마킹{SPATIAL BOOKMARKING}
일반적으로, 본 명세서는 화상 회의 제어 애플리케이션들(video-conferencing control applications)에 관한 것으로서, 특히 비디오-카메라 플랫폼(video-camera platform)이 선택된 시선(lines-of-sight)을 따라 조준하도록 지시하는 방법들에 관한 것이다.
화상 회의는 미팅룸(meeting room)으로부터 멀리 떨어진 장소에 있는 가상의 참가자들이 미팅룸의 실시간 비디오 이미지들을 볼 수 있도록 한다. 그러나, 이러한 가상의 참가자들은 통상적으로 그들이 수신하는 실시간 비디오 이미지들에 대한 제어를 갖지 않는다. 예를 들어, 가상의 참가자들은 일반적으로 카메라의 시계(field-of-view) 내에서 특정한 물체(object) 또는 사람을 배치하기 위해 특정 시선을 따라 조준하도록 원격 장소에서의 비디오-카메라에게 지시할 수 없다.
비디오-카메라에 보다 넓은 시계를 제공하는 것은 특정 프레임 내에서 미팅룸의 보다 많은 것을 캡쳐하는 방법을 제공할 수 있지만, 비디오-카메라에 의해 지원되는 것보다 항상 더 넓은 뷰(view)가 존재한다. 그와 같이, 미팅룸의 적어도 일부 요소들은 실시간 비디오 이미지에서 계속해서 볼 수 없을 것이다. 더욱이, 광각(wide-angle) 렌즈들은, 추가적인 계산 자원들을 필요로 하는 소프트웨어에 의해 보정되지 않는 한, 실시간 비디오 이미지들 내의 특정 요소들을 불명확하게 만들 수 있는 이미지 왜곡을 초래할 수 있다.
대안적인 해결책에서, 비디오-카메라들은 미팅룸 내의 움직임, 또는 물체 혹은 음성의 소리를 검출시에 자동으로 조준될 수 있다. 전형적으로, 이러한 해결책은 선택된 시선을 따라 비디오-카메라를 조준하기 위한 제어기를 필요로 한다. 그러나, 이러한 타입의 제어기는 통상적으로 (예를 들면, 미팅룸 내부이거나 또는 미팅룸에 인접한) 비디오-카메라 및 움직임/소리 소스와 동일한 장소에 위치되며, 일반적으로 가상의 참가자들에게 액세스가능하지 않다.
공간 북마크를 생성 및 이용하기 위한 방법, 장치 및 컴퓨터 판독가능 매체가 제공된다. 실시예에서, 공간 북마크에 기초하여, 근거리 장소로부터, 원격 장소에 위치된 비디오-카메라 플랫폼의 뷰를 제어하기 위한 방법이 제공된다. 원격 장소에서의 비디오-카메라 플랫폼과 통신하는 근거리 장소에서의 사용자는, 원격 장소에서의 물체들 또는 사람들을 나타내는 스크린 상에 제공된 이미지를 선택함으로써, 공간 북마크와 관련된 시선(LOS)을 따라 비디오-카메라 플랫폼을 (예를 들면, 관심의 보존된 장소들 쪽으로) 조준할 수 있다.
실시예에 따르면, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(spatial bearing parameter)가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작이 근거리 장소에서 수행되며, 비디오-카메라 플랫폼은 제어가능한 LOS를 갖는다. 스크린 상에 디스플레이된 이미지 - 이미지는 실시간 비디오 이미지를 나타냄 - 를 컴퓨터에게 지정하여, 컴퓨터가 컴퓨터 판독가능 메모리로부터 공간 베어링 파라미터를 검색하도록 하는 동작이 근거리 장소에서 수행되고, 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작 - 비디오-카메라 플랫폼은 근거리 장소에서의 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 이 수행된다. 공간 베어링 파라미터는 팬 좌표(pan coordinate) 및 기울기 좌표(tilt coordinate) 중 적어도 하나를 포함할 수 있다.
실시예에 따르면, 비디오-카메라 플랫폼은 원격 장소에서의 로봇 장치(robotic device)와 통신할 수 있고, 컴퓨터가 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작은 로봇 디바이스가 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 한다. 또한, 비디오-카메라 플랫폼은 컴퓨터 애플리케이션과 통신할 수 있고, 컴퓨터가 선택된 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작은 컴퓨터 애플리케이션이 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 한다.
실시예에 따르면, 공간 베어링 파라미터는 원격 장소에서 검출된 센서 신호 또는 사용자 선택 스캐닝 기준 중 하나에 기초하여 자동으로 결정된다.
실시예에 따르면, 공간 베어링 파라미터를 나타내는 정보는 컴퓨터 판독가능 메모리에 저장되게 되고, 공간 베어링 파라미터를 나타내는 정보는 송신되게 되며, 공간 베어링 파라미터를 나타내는 정보는 비디오-카메라 플랫폼이 LOS를 따라 조준하도록 한다.
실시예에 따르면, 공간 베어링 파라미터를 나타내는 정보의 인덱스는 사용자 선택시에 저장되고, 그 인덱스는 대응하는 공간 베어링 파라미터를 레코딩하라는 인스트럭션과 함께 송신된다. 그 인덱스는 LOS의 공간 베어링 파라미터에 대응하는 선택된 이미지의 원격 장소로의 지정시에 송신된다.
실시예에 따르면, 공간 베어링 파라미터는 사용자 선택시에 근거리 장소에 저장되고, 선택된 이미지의 지정시에 원격 장소로 송신된다. 또한, 제어 신호들이 LOS를 따라 비디오-카메라 플랫폼을 조준하기 위해 근거리 장소로부터 송신될 수 있다.
실시예에 따르면, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지들은 근거리 장소에서 디스플레이되고, 비디오-카메라 플랫폼은 제어가능한 LOS를 갖는다. 실시간 비디오 이미지들을 디스플레이하는 동안, 하나 이상의 사용자 생성 입력들이 각각의 뷰 선택 시간들에 수신된다. 각각의 뷰 선택 시간에 얻어진 비디오-카메라 플랫폼의 공간 베어링 파라미터는 각각의 사용자 생성 입력들에 응답하여 레코딩된다. 실시간 비디오 이미지들을 나타내는 이미지들은 각각의 뷰 선택 시간에 디스플레이되고, 이미지들 중 선택된 것을 지정하는 적어도 하나의 사용자 생성 입력에 응답하여, 비디오-카메라 플랫폼은 공간 베어링 파라미터에 대응하는 LOS를 따라 자동으로 조준된다.
당업자라면, 이하의 상세한 설명 및 첨부 도면들을 참조함으로써, 본 개시내용의 이들 및 다른 이점들을 명백히 알 것이다.
도 1은 실시예에 따른 공간 북마크를 생성 및 이용하기 위한 네트워킹된 컴퓨팅 시스템의 도면이다.
도 2는 실시예에 따른 사용자 인터페이스 스크린의 도면이다.
도 3a는 실시예에 따른 원격 장소 미팅 세션에서의 비디오-카메라 플랫폼을 도시한다.
도 3b는 실시예에 따른 원격 장소 미팅 세션에서의 카메라 관점 시계를 도시한다.
도 3c는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 3d는 실시예에 따른 원격 장소 미팅 세션에서의 다른 카메라 관점 시계를 도시한다.
도 3e는 실시예에 따른 원격 장소 미팅 세션에서의 다른 비디오-카메라 플랫폼을 도시한다.
도 4는 실시예에 따른 원격 비디오-카메라 플랫폼의 실시간 비디오 이미지와 관련된 공간 북마크를 생성 및 이용하기 위한 프로세스의 흐름도이다.
도 5는 실시예에 따른 자동으로 생성된 공간 북마크들을 도시하는 도면이다.
도 6은 네트워킹된 컴퓨팅 플랫폼 내의 공간 북마크를 생성 및 이용하기 위한 예시적인 컴퓨터의 상위 레벨 블록도이다.
비디오-카메라 플랫폼을 이용하여 서로 멀리 떨어져 있는 (예를 들면, 시선 내에 있지 않는) 2개의 장소들 사이에 가상의 미팅(즉, 화상 회의)을 실시할 수 있다. 그와 같이, 제1의 (근거리) 장소에 있는 가상의 미팅 참가자들은 제2의 (원격) 장소에서 발생되는 미팅의 실시간 비디오 이미지들을 볼 수 있다. 본 명세서에서의 실시예들은 근거리 장소에서의 사용자(예를 들면, 가상 미팅 참가자)가 원격 장소에서의 비디오-카메라 플랫폼에 의해 생성된 실시간 비디오 이미지들을 보고, 실시간 비디오 이미지들에 기초하여 공간(즉, 물리적 공간) 북마크들을 생성할 수 있도록 한다.
공간 북마크(본 명세서에서 북마크 라고도 지침됨)는 실시간 비디오 이미지의 시계에 제공된 물리적 공간의 영역과 같은 물리적 공간의 영역을 마킹 및 리콜(recall)하는데 이용될 수 있다. 북마크는 데카르트 좌표들(Cartesian coordinates) 또는 팬 좌표(수직 축에 관한 회전에 대응) 및 기울기 좌표(수평 축에 관한 회전에 대응)에 의한 것과 같은 좌표 시스템에 기초하여 정의될 수 있다. 예를 들어, 팬 및 기울기 (p, t) 좌표 쌍이 비디오-카메라 플랫폼의 고정된 홈 위치(home position)에 대해 참조된 팬 및 기울기 각도들을 나타낼 수 있다. 그와 같이, 북마크는 팬 및 기울기 좌표 쌍에 대한 참조와 같은 공간 베어링 파라미터 뿐만 아니라, 다른 비디오-카메라 플랫폼 제어 데이터(예를 들면, 초점, 줌, 광 설정 등)를 포함할 수 있다. 북마크는 비디오-카메라 플랫폼이 북마크의 공간 베어링 파라미터(예를 들면, 팬 및 기울기 좌표 쌍)에 대응하는 시선을 따라 조준하도록 지시하기 위해 송신될 수 있다. 더욱이, 비디오-카메라 플랫폼은 북마크의 제어 데이터에 기초하여 추가적으로 지시를 받을 수 있다. 그와 같이, 근거리 장소에서의 사용자는 원격 장소에서의 비디오-카메라 플랫폼이 특정 시선(LOS)을 따라 조준되도록 하는 동작을 수행할 수 있다. 따라서, 북마크를 생성하는 것은 관심이 있는 특정 영역에 기초하여 비디오-카메라 플랫폼을 국부적으로 또는 수동으로 조준할 필요성을 극복할 수 있다.
비디오-카메라 플랫폼의 관점으로부터 볼 수 있듯이, 미팅룸 내의 참가자 및 관심 물체들을 포함하는 물리적 공간의 영역들(공간적 장소들)은 북마크들로서 보존될 수 있다. 예를 들어, 몇몇 미팅 참가자들이 테이블, 및 프로젝터 스크린들 및 화이트보드들과 같은 다른 관심 물체들 주변에 앉을 수 있다. (원격 장소에서의) 미팅룸 내의 비디오-카메라 플랫폼에 의해 생성된 실시간 비디오 이미지들이 근거리 장소에서의 스크린 상에 제공될 수 있다. 일 실시예에서, 이러한 실시간 비디오 이미지들은 실시간 비디오 이미지에서 볼 수 있는 것의 근사화를 보여줄 수 있는 짧은 모션-비디오 클립으로서 또는 하나 이상의 스틸 이미지로서 스크린 상에 제공될 수 있다. 다른 실시예에서, 실시간 비디오 이미지의 시계 내에 위치된 참가자 또는 관심 물체를 나타내는 하나 이상의 아이콘들이 생성되어 스크린 상에 제공될 수 있다. 제공시에, 실시간 비디오 이미지들, 스틸 이미지들 및 아이콘들 각각은, 북마크의 공간 베어링 파라미터(예를 들면, 팬 및 기울기 좌표 쌍)에 대응하는 LOS를 따라 비디오-카메라 플랫폼을 자동으로 조준하기 위해 레코딩 및 이용될 수 있는 북마크를 생성하기 위해 사용자에 의해 선택될 수 있다.
도 1은 실시예에 따른 공간 북마크를 생성 및 이용하기 위한 네트워킹된 컴퓨팅 시스템의 도면이다. 시스템(100)은 근거리 장소(102) 및 원격 장소(104)를 정의한다. 근거리 장소(102)는 원격 장소(104)로부터 소정의 물리적 거리에 있는 장소를 정의한다(예를 들면, 다른 미팅룸, 도시 또는 국가와 같은 원격 장소(104)의 시선 내에 있지 않은 장소). 예를 들어, 원격 장소(104)는 네트워크(106)를 통해 근거리 장소(102)로 송신되는 라이브 회의의 장소일 수 있다.
네트워크(106)는 공중 네트워크(public network)(예를 들면, 인터넷), 전용 네트워크(private network)(예를 들면, 그리고 기업 인트라넷) 또는 공중 네트워크와 전용 네트워크의 조합일 수 있다. 그와 같이, 네트워크(106)의 하나 이상의 상호접속된 구성요소들은 공중 네트워크 구성요소들(예를 들면, 공중 데이터 센터들) 및 전용 네트워크 구성요소들(예를 들면, 기업 데이터 센터들) 둘다른 포함할 수 있다. 예를 들어, 네트워크(106)는 하나 이상의 상호접속된 데이터 노드들, 백엔드 구성요소들, 및 컴퓨터 단말기(108)와 같은 컴퓨터 단말기들을 포함할 수 있다.
시스템(100)은 제어가능한 팬/기울기 모션 및/또는 이동을 지원할 수 있는 비디오-카메라 플랫폼(110)(예를 들면, 팬/기울기 플랫폼)을 더 포함한다. 예를 들어, 비디오-카메라 플랫폼은 종래의 팬/기울기 비디오-카메라, 네트워크 접속형 비디오-카메라, 모바일 로봇 플랫폼 상에 장착된 비디오-카메라 등을 포함할 수 있다. 그와 같이, 비디오-카메라 플랫폼은 다양한 응용들을 위해 비디오-카메라 및 회로의 임의의 조합을 포함하는 것으로 이해될 수 있다. 더욱이, 비디오-카메라 플랫폼 구현은 예시적인 것이며, 비디오 또는 고정 프레임 카메라들과 관련된 다른 디바이스들, 로봇들 및 컴퓨터 애플리케이션들이 다양한 실시예들을 구현하기에 마찬가지로 적절한 것임을 또한 주지해야 한다.
컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)와 결합하여, 제어기 절차를 실행함으로써, 근거리 장소에서의 사용자가 원격 장소에서의 비디오-카메라 플랫폼(110)으로부터 수신된 이미지들에 기초하여 공간 북마크를 생성할 수 있도록 구성될 수 있다. 예를 들어, 근거리 장소(102)에서의 디스플레이 스크린(114)은 비디오-카메라 플랫폼(110)으로부터 수신된 실시간 비디오 이미지(116)(또는, 대안적으로, 실시간 비디오 이미지를 나타내는 아이콘 또는 스틸 이미지) 선택을 제공하도록 구성될 수 있다. 사용자에 의한 실시간 비디오 이미지(116)의 선택시에, 공간 베어링 파라미터(119)(예를 들면, 이미지(116)의 팬 및 기울기 좌표 쌍에 대한 참조) 및 선택적으로 추가적인 데이터(120)(예를 들면, 카메라 초점 설정, 조리개 설정 등과 같은 이미지(116)와 관련된 제어 데이터) 및 이미지(116)의 표현(I')(121)(예를 들면, 엄지손톱 이미지)을 구성하는 북마크(118)가 메모리(112)에 국부적으로 저장되거나, 또는 클라우드 컴퓨팅 저장 노드(122)와 같은 곳에의 저장을 위해 네트워크(106)를 통해 송신될 수 있다. 북마크(118)의 저장시에, 컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)(또는 클라우드 컴퓨팅 저장 노드(122))와 결합하여, 제어기 절차를 실행함으로써 북마크(118)를 검색하고, 사실상 근거리 장소(102)에서의 사용자가 북마크(118)의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 비디오-카메라 플랫폼(110)을 자동으로 조준할 수 있도록 구성될 수 있다.
도 2는 실시예에 따른 사용자 인터페이스 스크린의 도면이다. 컴퓨터 단말기(108)는, 컴퓨터 판독가능 메모리(112)와 함께, 디스플레이(114)에서의 그래픽 사용자 인터페이스 애플리케이션(GUI)(200)를 실행하여, 원격 장소(104)에서의 비디오-카메라 플랫폼(110)을 제어하도록 구성될 수 있다. 일 실시예에서, GUI(200)는 근거리 장소(102)에서의 사용자가 공간 북마크를 생성할 수 있도록 한다. 예를 들어, GUI(200)는 원격 장소(104)(예를 들면, 의자들(204), 디스플레이 모니터(206) 등을 갖는 미팅룸)의 실시간 비디오 이미지(202) 및 선택적으로 근거리 장소(102)의 디스플레이(예를 들면, 픽쳐-인-픽쳐 디스플레이(208))를 디스플레이할 수 있다. GUI(200)는 각각의 뷰 선택 시간들(즉, 특정 시계의 실시간 비디오 이미지들이 디스플레이될 때)에 하나 이상의 사용자 생성 입력들을 수신할 수 있다. 각각의 뷰 선택 시간에서 얻어진 각각의 사용자 생성 입력들에 응답하여, 하나 이상의 공간 베어링 파라미터들(119) 및 선택적으로 추가적인 데이터(120)를 포함하는 하나 이상의 공간 북마크들이 생성된 후, (예를 들면, 컴퓨터 판독가능 메모리(112)와 함께 컴퓨터 단말기(108)에 의해) 레코딩될 수 있다. 북마킹된 실시간 비디오 이미지의 시계 내에 위치된 참가자 또는 관심 물체를 나타내는 북마킹된 실시간 비디오 이미지들 또는 아이콘들(212)을 나타내는 이미지들(210)이 디스플레이될 수 있고, 이미지들(210) 또는 아이콘들(212) 중 선택된 것을 지정하는 적어도 하나의 사용자 생성 입력에 응답하여, 비디오-카메라 플랫폼(110)은 선택된 이미지(210) 또는 아이콘(212)에 의해 표현된 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 자동으로 조준될 수 있다.
일 실시예에서, GUI(200)는 복수의 이미지들(210) 또는 아이콘들(212)을 구성하기 위한 측면 윈도우 디스플레이 영역(214)을 포함할 수 있다. 그와 같이, 사용자는 측면 윈도우 디스플레이 영역(214) 내의 이미지(210) 또는 아이콘(212)을 (예를 들면, 컴퓨터 마우스 또는 터치 감응 인터페이스를 통해) 클릭 또는 터치함으로써, 또는 카메라에 의해 인식된 제스쳐를 이용하여 이미지(210) 또는 아이콘(212)을 선택함으로써, 북마킹된 실시간 비디오 이미지를 나타내는 이미지(210) 또는 아이콘(212)을 선택할 수 있다. 유사하게, 사용자는 이미지 디스플레이 영역 내의 아이콘(212)을 클릭 또는 터치함으로써 실시간 비디오 이미지(202)를 오버레이하는 아이콘(212)을 선택할 수 있다. 일 실시예에서, 사용자는 이미지들을 새로운 이미지들로 중복기록하도록 선택할 수도 있다.
일 실시예에서, 비디오-카메라 플랫폼(110)에 대한 사용자 선택의 송신시에, 비디오-카메라 플랫폼(110)은 선택된 이미지(210) 또는 아이콘(212)에 의해 표현된 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 자동으로 조준될 수 있다. 예를 들어, 근거리 장소(102), 원격 장소(104) 또는 (네트워크(106) 내의) 다른 곳에서의 컴퓨터는 공간 베어링 파라미터(119) 및 선택적으로 북마킹된 실시간 비디오 이미지의 제어 신호들(120)을 비디오-카메라 플랫폼(110)으로 송신할 수 있다. 공간 베어링 파라미터(119) 및 제어 신호들(120)의 수신시에, 비디오-카메라 플랫폼(110)은 공간 베어링 파라미터(119)에 대응하는 LOS를 따라 조준하도록 지시를 받는다. 그 다음, 비디오-카메라 플랫폼(110)으로부터의 실시간 이미지들이 GUI(200) 내에서의 디스플레이를 위해 수신될 수 있다.
대안적으로, 모션, 사운드, 압력, 시각적 또는 다른 파라미터들에 기초하여 감응하도록 구성된 센서가 공간 북마크를 자동으로 생성하기 위해 이용될 수 있다. 예를 들어, 미팅룸에서의 하나 이상의 의자들에, 사용을 검출하도록 구성된 압력(즉, 힘) 센서들이 구비될 수 있다. 센서 구비 의자는 의자가 사용될 때에 그것을 검출하고, 비디오-카메라 플랫폼(110)에게 사용된 의자의 방향에서의 시선을 따라 조준하도록 자동으로 지시할 수 있다. 그 다음, 실시간 비디오 이미지들이 디스플레이를 위해 GUI(200)에 전달될 수 있고, 공간 북마크를 생성하기 위해 실시간 비디오 이미지들 중 선택된 것을 지정하는 사용자 생성 입력이 수신될 수 있다. 일 실시예에서, GUI(200)는 실시간 비디오 이미지들 이외에 원격 장소(104)의 가상 맵(216)을 제공할 수 있다. 가상 맵(216)은 실시간 비디오 이미지들에 도시된 물리적 공간을 포함하는 도면일 수 있으며, 여기서 강조된 의자(218)는 실시간 비디오 이미지 내의 의자가 사용되고 있음을 나타낼 수 있다. 그 다음, 공간 북마크가 가상 맵 정보에 기초하여 자동으로 또는 수동으로 생성될 수 있다. 그와 같이, 사람이 다른 의자에 앉기 위해 일어나서 움직일 때, 새로운 위치가 감지되고, 원격 장소에서의 비디오-카메라 플랫폼이 새로운 위치에 기초하여 LOS를 따라 조준되도록 구성될 수 있다. 미팅룸 설정에서, 모든 사용되고 있는 의자들이 감지되고, 공간 북마크들로서 구성되도록 자동으로 제공될 수 있다. 그 다음, 이러한 공간 북마크들은, 몇몇 사람들이 일어나서 룸을 떠나거나 또는 새로운 사람들이 룸으로 들어와서 자리에 앉을 때와 같은, 화상 회의 세션의 코스 동안에 자동으로 업데이트될 수 있다. 예를 들어, 비디오-카메라 플랫폼(110)은 자동으로 업데이트된 공간 북마크들에 기초하여 단지 사용되고 있는 의자들만을 향하도록 지시를 받을 수 있다.
도 3a-3e는 실시예에 따른 원격 장소 미팅 세션에서의 비디오-카메라 플랫폼 및 카메라 관점 시계를 도시하는 도면들이다. 예를 들어, 도 3a는 네트워크에 접속된 근거리 장소에서의 사용자가 미팅 세션을 볼 수 있도록 하는 비디오-카메라 플랫폼(302)을 포함하는 원격 장소에서의 미팅룸(300)을 도시한다. 룸(300) 내에서, 하나 이상의 참가자, 예를 들면, 참가자 A(304) 및 참가자 B(306)는 비디오-카메라 플랫폼(302)의 제1 시선(308) 내에 앉을 수 있다. 비디오-카메라 플랫폼(302)은 시계(308)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 시선을 따라 조준하도록 GUI(200)를 통해 제어가능하게 조절될 수 있다. 예를 들어, 시계(308)는 참가자 A(304)를 통합하는 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응할 수 있다. 시계(308)의 비디오-카메라 플랫폼 관점이 도 3b에 도시된다.
유사하게, 도 3c에 도시된 바와 같이, 비디오-카메라 플랫폼(302)은 시계(310)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 제2 시선을 따라 조준하도록 제어가능하게 조절될 수 있다. 예를 들어, 시계(310)는 참가자 B(306)를 통합하는 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터(119)에 대응할 수 있다. 시계(310)의 비디오-카메라 플랫폼 관점이 도 3d에 도시된다. 도 3a 및 3c에서의 참가자들은 비디오-카메라 플랫폼(302)의 시계들 내에 있지만, 도 3e는 참가자들이 시계 내에서 볼 수 없는 경우를 도시한다. 예를 들어, 비디오-카메라 플랫폼(302)이 시계(312)를 통합하는 실시간 비디오 이미지들을 생성하기 위해 시선을 따라 조준될 때, 시계는 프레임에서 참가자 A(304) 및 참가자 B(306)를 보기에 충분히 넓지 않다. 그와 같이, 사용자는 대화의 코스 동안과 같이 참가자들 각각을 보기 위해 좌우로 비디오-카메라 플랫폼(302)을 자동으로 팬(pan)하도록, 도 3b 및 3d에 도시된 카메라 관점들에 기초하여 생성된 공간 북마크들을 이용할 수 있다.
도 4는 실시예에 따른 원격 비디오-카메라 플랫폼의 실시간 비디오 이미지와 관련된 공간 북마크를 생성 및 이용하기 위한 프로세스의 흐름도이다. (400)에서, 원격 장소에서의 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작이 근거리 장소에서 수행되고, 비디오-카메라는 제어가능한 LOS를 갖는다. 예를 들어, 공간 베어링 파라미터 및 선택적으로 하나 이상의 제어 신호를 포함하는 공간 북마크가 생성 및 저장될 수 있다. 공간 베어링 파라미터는 팬 및 기울기 좌표 쌍일 수 있다.
일 실시예에서, 공간 베어링 파라미터는 사용자 선택 스캐닝 기준에 기초하여 자동으로 결정될 수 있다. 예를 들어, 컴퓨터 단말기(108)는 모션의 지정된 각도 범위를 스캐닝하고, 스캐닝된 모션의 각도 범위 내의 지정된 수의 공간 북마크들을 자동으로 생성하기 위해, 제어 신호들을 비디오-카메라 플랫폼(110)에 송신하도록 구성될 수 있다. 도 5에 도시된 바와 같이, 사용자는 GUI(200)를 통해, 스캐닝을 위한 모션의 각도 범위(500)(예를 들면, 180도의 팬 또는 기울기 각도) 및 모션의 각도 범위 내의 디비젼(division)들(502-508)의 수를 지정하여 공간 북마크들을 자동으로 생성할 수 있다. 예를 들어, 모션의 지정된 각도 범위 및 디비젼들의 수는 자동 생성을 위해 원격 장소에서의 비디오-카메라 플랫폼(110)에 송신될 수 있다.
(402)에서, 컴퓨터에게 스크린 상에서 디스플레이된 이미지를 지정하는 동작이 근거리 장소에서 수행되고, 이미지는 공간 베어링 파라미터에 대응되며, 컴퓨터가 컴퓨터 판독가능 메모리로부터 공간 베어링 파라미터를 검색하도록 한다. 예를 들어, 사용자는 GUI(200)에서 ((400)에서의 동작시에 생성된) 북마킹된 실시간 비디오 이미지를 클릭 또는 터치함으로써, 이미지를 컴퓨터 단말기(108)에 대해 지정한다.
(404)에서, 컴퓨터가 공간 베어링 파라미터에 대응하는 LOS를 따라 비디오-카메라 플랫폼을 조준하도록 하는 동작이 수행되고, 비디오-카메라 플랫폼은 (406)에서 근거리 장소에서의 디스플레이를 위해 스크린에서 수신될 수 있는 실시간 비디오 이미지들을 캡쳐한다. 더욱이, 사용자는 LOS를 따라 원격 장소 비디오-카메라를 조준하기 위해 북마킹된 이미지 또는 아이콘을 선택하거나, 또는 하나 이상의 북마킹된 이미지들의 공간 베어링 파라미터를 수동으로 조절할 수 있다. 예를 들어, 사용자는 근거리 장소에서 디스플레이를 위해 비디오-카메라 플랫폼으로부터 수신된 실시간 비디오 이미지에 기초하여 북마킹된 실시간 비디오 이미지의 공간 베어링 파라미터를 조절할 수 있다.
대안적으로, 비디오-카메라는 원격 장소에서 모바일 로봇 디바이스와 통신할 수 있으며, (404)에서 컴퓨터가 LOS를 따라 비디오-카메라를 조준하도록 하는 동작을 수행하는 것은 모바일 로봇 디바이스가 캡쳐된 시계에 기초하여 동작을 수행하게 할 수 있다. 다른 예에서, 비디오-카메라는 컴퓨터 애플리케이션과 통신할 수 있으며, (404)에서 컴퓨터가 LOS를 따라 비디오 카메라를 조준하도록 하는 하는 동작을 수행하는 것은 컴퓨터 애플리케이션이 캡쳐된 시계에 기초하여 동작을 수행하도록 한다.
공간 베어링 파라미터는 비디오-카메라 플랫폼에 대하여 근거리 장소 및 원격 장소의 임의의 조합에서 저장될 수 있다. 예를 들어, 공간 베어링 파라미터를 나타내는 정보는 원격 장소에 위치된 비디오-카메라에 대하여 근거리 장소에서의 컴퓨터 판독가능 메모리에 저장되게 될 수 있다. 사용자 선택시에, 공간 베어링 파라미터를 나타내는 정보는 송신되게 될 수 있으며, 공간 베어링 파라미터를 나타내는 정보는 비디오-카메라가 LOS를 따라 조준하게 한다.
다른 예에서, 공간 베어링 파라미터를 나타내는 정보의 인덱스가 근거리 장소에서의 사용자 선택시에 저장되고, 인덱스는 대응하는 공간 베어링 파라미터를 원격 장소(예를 들면, 비디오-카메라 플랫폼의 장소)에 레코딩하기 위한 인스트럭션과 함께 송신된다. 예를 들어, 인덱스는 공간 베어링 파라미터에 대응하는 북마킹된 이미지의 지정시에 송신될 수 있다.
또다른 예에서, 공간 베어링 파라미터는 사용자 선택시에 및 북마킹된 이미지의 지정시에 근거리 장소에 저장될 수 있으며, 공간 베어링 파라미터는 원격 장소로 송신될 수 있다. 일 실시예에서, LOS를 따라 비디오-카메라를 조준하기 위한 제어 신호들이 공간 베어링 파라미터와 함께 근거리 장소로부터 송신될 수 있다(예를 들면, 공간 북마크가 근거리 장소로부터 송신될 수 있다).
다양한 실시예들에서, 도 4에서 기술된 방법 단계들을 포함하는, 본 명세서에 기술된 방법 단계들은, 기술되거나 도시된 특정 순서와는 다른 순서로 수행될 수 있다. 다른 실시예들에서, 다른 단계들이 제공되거나, 또는 기술된 방법들로부터 단계들이 제거될 수 있다.
전술한 예들 이외에도, 본 명세서에서의 실시예들은 다른 응용들에 대해서도 이용될 수 있다. 예를 들어, 공간 북마크는 모바일 텔레프레즌스 로봇(mobile tele-presence rogot)에게 특정한 물리적 공간으로 리턴하도록 지시하는 것과 같은 로봇 응용들에서 이용될 수 있다. 로봇은 사무실 내의 장소와 같은 장소를 네비게이팅하고, 그 장소에 대한 공간 북마크를 생성할 수 있다. 그 다음, 공간 북마크는 저장 및 사용자에게 제공되어, 사용자에 의한 선택시에, 로봇이 다른 장소로부터 북마킹된 장소로 리턴하도록 지시받을 수 있도록 한다.
본 명세서에서 기술된 시스템, 장치 및 방법은 디지털 회로를 이용하여, 또는 잘 알려진 컴퓨터 프로세서, 메모리 유닛, 저장 디바이스, 컴퓨터 소프트웨어 및 다른 구성요소들을 이용하는 하나 이상의 컴퓨터를 이용하여 구현될 수 있다. 전형적으로, 컴퓨터는 인스트럭션들을 실행하기 위한 프로세서, 및 인스트럭션들 및 데이터를 저장하기 위한 하나 이상의 메모리를 포함한다. 또한, 컴퓨터는 하나 이상의 자기 디스크, 내부 하드 디스크 및 제거가능 디스크, 광자기(magneto-optical) 디스크, 광학 디스크 등과 같은 하나 이상의 대량 저장 디바이스를 포함하거나 또는 그것에 연결될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 클라이언트-서버 관계에서 동작하는 컴퓨터들을 이용하여 구현될 수 있다. 전형적으로, 그러한 시스템에서, 클라이언트 컴퓨터들은 서버 컴퓨터로부터 멀리 떨어져서 위치되며, 네트워크를 통해 상호작용한다. 클라이언트-서버 관계는 각각의 클라이언트 및 서버 컴퓨터들 상에서 실행되는 컴퓨터 프로그램들에 의해 정의 및 제어될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 네트워크 기반 클라우드 컴퓨팅 시스템 내에서 이용될 수 있다. 그러한 네트워크 기반 클라우드 컴퓨팅 시스템에서, 네트워크에 접속되는 서버 또는 다른 프로세서가 네트워크를 통해 하나 이상의 클라이언트 컴퓨터와 통신한다. 클라이언트 컴퓨터는 예를 들면, 클라이언트 컴퓨터 상에서 상주 및 동작하는 네트워크 브라우저 애플리케이션을 통해 서버와 통신할 수 있다. 클라이언트 컴퓨터는 서버 상에 데이터를 저장하고, 네트워크를 통해 데이터에 액세스할 수 있다. 클라이언트 컴퓨터는 데이터에 대한 요청들, 또는 온라인 서비스들에 대한 요청들을, 네트워크를 통해 서버에게 송신할 수 있다. 서버는 요청된 서비스들을 수행하고, 데이터를 클라이언트 컴퓨터(들)에게 제공할 수 있다. 또한, 서버는 클라이언트 컴퓨터가 지정된 기능을 수행, 예를 들면, 계산을 수행하고, 스크린 상에 지정된 데이터를 디스플레이하는 등의 처리를 하게 하도록 적응된 데이터를 송신할 수 있다. 예를 들어, 서버는 클라이언트 컴퓨터가, 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 하나 이상의 방법 단계를 수행하게 하도록 적응된 요청을 송신할 수 있다. 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법들의 특정 단계들은 서버에 의해, 또는 네트워크 기반 클라우드 컴퓨팅 시스템에서의 다른 프로세서에 의해 수행될 수 있다. 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법들의 특정 단계들은 네트워크 기반 클라우드 컴퓨팅 시스템에서의 클라이언트 컴퓨터에 의해 수행될 수 있다. 도 4의 단계들 중 하나 이상을 포함하는 본 명세서에서 기술된 방법들의 단계들은 서버에 의해, 및/또는 네트워크 기반 클라우드 컴퓨팅 시스템에서의 클라이언트 컴퓨터에 의해, 임의의 조합으로 수행될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법은 프로그래밍가능 프로세서에 의한 실행을 위해, 정보 캐리어, 예를 들면, 비일시적 머신 판독가능 저장 디바이스에서 유형으로 구현된 컴퓨터 프로그램 제품을 이용하여 구현될 수 있으며, 도 4의 단계들 중 하나 이상을 포함하는, 본 명세서에서 기술된 방법 단계들은 그러한 프로세서에 의해 실행가능한 하나 이상의 컴퓨터 프로그램을 이용하여 구현될 수 있다. 컴퓨터 프로그램은 특정 활동을 수행하거나 또는 특정 결과를 초래하기 위해 컴퓨터에서 직접적으로 또는 간접적으로 이용될 수 있는 컴퓨터 프로그램 인스트럭션들의 세트이다. 컴퓨터 프로그램은 컴파일링되거나 또는 해석된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있으며, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서 이용하기에 적합한 다른 유닛으로서의 형태를 포함하는 임의의 형태로 사용될 수 있다.
본 명세서에서 기술된 시스템, 장치 및 방법을 구현하는데 이용될 수 있는 예시적인 컴퓨터의 상위 레벨 블록도가 도 6에 도시된다. 컴퓨터(600)는 데이터 저장 디바이스(602) 및 메모리(603)에 동작가능하게 연결된 프로세서(601)를 포함한다. 프로세서(601)는 동작들을 정의하는 컴퓨터 프로그램 인스트럭션들을 실행함으로써 컴퓨터(600)의 전체 동작을 제어한다. 컴퓨터 프로그램 인스트럭션들은 데이터 저장 디바이스(602) 또는 다른 컴퓨터 판독가능 매체에 저장될 수 있으며, 컴퓨터 프로그램 인스트럭션들의 실행이 요망될 때에 메모리(603) 내로 로딩될 수 있다. 따라서, 도 4의 방법 단계들은 메모리(603) 및/또는 데이터 저장 디바이스(602)에 저장된 컴퓨터 프로그램 인스트럭션들에 의해 정의되고, 컴퓨터 프로그램 인스트럭션들을 실행하는 프로세서(601)에 의해 제어될 수 있다. 예를 들어, 컴퓨터 프로그램 인스트럭션들은 도 4의 방법 단계들에 의해 정의된 알고리즘을 수행하기 위해, 본 기술분야의 당업자에 의해 프로그래밍된 컴퓨터 실행가능 코드로서 구현될 수 있다. 따라서, 컴퓨터 프로그램 인스트럭션들을 실행함으로써, 프로세서(601)는 도 4의 방법 단계들에 의해 정의된 알고리즘을 실행한다. 또한, 컴퓨터(600)는 네트워크를 통해 다른 디바이스들과 통신하기 위해 하나 이상의 네트워크 인터페이스(604)를 포함한다. 또한, 컴퓨터(600)는 컴퓨터(600)와의 사용자 상호작용을 가능하게 하는 하나 이상의 입/출력 디바이스들(605)(예를 들면, 디스플레이, 키보드, 마우스, 스피커, 버튼 등)을 포함한다.
프로세서(601)는 범용 및 특수 목적 마이크로프로세서들 둘다를 포함할 수 있으며, 컴퓨터(600)의 단독 프로세서 또는 다수의 프로세서들 중 하나일 수 있다. 프로세서(601)는, 예를 들면, 하나 이상의 중앙 처리 유닛(CPU)을 포함할 수 있다. 프로세서(601), 데이터 저장 디바이스(602), 및/또는 메모리(603)는, 하나 이상의 ASIC(application-specific integrated circuit) 및/또는 하나 이상의 FPGA(field programmable gate array)를 포함하고, 이들에 의해 보충되거나, 또는 이들에 통합될 수 있다.
데이터 저장 디바이스(602) 및 메모리(603)는 각각 유형의 비일시적 컴퓨터 판독가능 저장 매체를 포함한다. 데이터 저장 디바이스(602) 및 메모리(603)는 각각 DRAM(dynamic random access memory), SRAM(static random access memory), DDR RAM(double data rate synchronous dynamic random access memory) 또는 다른 랜덤 액세스 고체 상태 메모리 디바이스들과 같은 고속 랜덤 액세스 메모리를 포함할 수 있고, 내부 하드 디스크 및 제거가능 디스크와 같은 하나 이상의 자기 디스크 저장 디바이스들, 광자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들과, EEPROM(erasable programmable read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM(compact disc read-only memory), DVD-ROM(digital versatile disc read-only memory) 디스크와 같은 반도체 메모리 디바이스들, 또는 다른 비휘발성 고체 상태 저장 디바이스들과 같은 비휘발성 메모리를 포함할 수 있다.
입/출력 디바이스들(605)은 프린터, 스캐너, 디스플레이 스크린 등과 같은 주변 장치들을 포함할 수 있다. 예를 들어, 입/출력 디바이스들(605)은 CRT(cathode ray tube), LCD(liquid crystal display) 모니터 또는 정보를 사용자에게 디스플레이하기 위한 프로젝터, 키보드와, 마우스, 트랙볼과 같은 포인팅 디바이스 또는 사용자가 컴퓨터(600)에 대한 입력을 제공할 수 있도록 하는 이미지 처리를 포함하는 카메라와 같은 디스플레이 디바이스를 포함할 수 있다.
본 명세서에서 기술된 시스템들 및 장치들 중 임의의 것 또는 전부는 컴퓨터(600)와 같은 컴퓨터를 이용하여 구현될 수 있다.
본 기술분야의 당업자라면, 실제 컴퓨터 또는 컴퓨터 시스템의 구현은 다른 구조들을 포함할 수 있고, 다른 구성요소들도 포함할 수 있으며, 도 6은 예시를 위한 그러한 컴퓨터의 구성요소들 중 일부의 상위 레벨 표현임을 알 것이다.
전술한 상세한 설명은, 제한적인 것은 아니지만, 모든 각각의 예시 및 예이고, 본 명세서에서 개시된 본 발명의 영역은 상세한 설명으로부터 결정되지 않으며, 그보다는 특허법에 의해 허용된 전체 범위에 따라 해석된 것으로서 특허청구범위로부터 결정된다. 본 명세서에서 도시 및 기술된 실시예들은 본 개시내용의 원리들에 대한 예시일 뿐이며, 본 개시내용의 영역 및 사상을 벗어나지 않고서도 다양한 수정들이 본 기술분야의 당업자에 의해 구현될 수 있음을 이해할 것이다. 본 기술분야의 당업자라면 본 개시내용의 영역 및 사상을 벗어나지 않고서도 다양한 다른 특징 조합들을 구현할 수 있다.

Claims (10)

  1. 원격 장소에서 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 대응하는 공간 베어링 파라미터(spatial bearing parameter)가 컴퓨터 판독가능 메모리에 저장되도록 하는 동작을 근거리 장소에서 수행하는 단계 - 상기 비디오-카메라 플랫폼은 제어가능한 LOS(line-of-sight)를 가짐 - 와,
    스크린 상에 디스플레이된 이미지를 컴퓨터에게 지정하여, 상기 컴퓨터가 상기 컴퓨터 판독가능 메모리로부터 상기 공간 베어링 파라미터를 검색하도록 하는 동작을 상기 근거리 장소에서 수행하는 단계 - 상기 이미지는 상기 실시간 비디오 이미지를 나타냄 - 와,
    상기 컴퓨터가 상기 공간 베어링 파라미터에 대응하는 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계 - 상기 비디오-카메라 플랫폼은 상기 근거리 장소에서의 디스플레이를 위해 스크린에서 수신되는 실시간 비디오 이미지를 캡쳐함 - 를 포함하는
    방법.
  2. 제1항에 있어서,
    상기 비디오-카메라 플랫폼은 상기 원격 장소에서 로봇 디바이스와 통신하고,
    상기 컴퓨터가 상기 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계는 상기 로봇 디바이스가 상기 LOS를 따라 상기 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 하는
    방법.
  3. 제1항에 있어서,
    상기 비디오-카메라 플랫폼은 컴퓨터 애플리케이션과 통신하고,
    상기 컴퓨터가 상기 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하도록 하는 동작을 수행하는 단계는 상기 컴퓨터 애플리케이션이 상기 LOS를 따라 상기 비디오-카메라 플랫폼에 의해 캡쳐된 실시간 비디오 이미지에 기초하여 동작을 수행하도록 하는
    방법.
  4. 제1항에 있어서,
    상기 공간 베어링 파라미터는 팬 좌표(pan coordinate) 및 기울기 좌표(tilt coordinate) 중 적어도 하나를 포함하는
    방법.
  5. 제1항에 있어서,
    상기 원격 장소에서 검출된 센서 신호 또는 사용자 선택 스캐닝 기준 중 하나에 기초하여 상기 공간 베어링 파라미터를 자동으로 결정하는 단계를 더 포함하는
    방법.
  6. 제1항에 있어서,
    상기 이미지는 상기 비디오-카메라 플랫폼의 실시간 비디오 이미지의 표현 및 컴퓨터 디스플레이 아이콘 중 하나인
    방법.
  7. 제1항에 있어서,
    상기 공간 베어링 파라미터를 나타내는 정보가 상기 컴퓨터 판독가능 메모리에 저장되도록 하는 단계와,
    상기 공간 베어링 파라미터를 나타내는 정보가 송신되도록 하는 단계 - 상기 공간 베어링 파라미터를 나타내는 정보는 상기 비디오-카메라 플랫폼이 상기 공간 베어링 파라미터에 대응하는 LOS를 따라 조준하도록 함 - 중 하나를 더 포함하는
    법.
  8. 제1항에 있어서,
    사용자 선택시에, 공간 베어링 파라미터를 나타내는 정보의 인덱스를 저장하고, 상기 공간 베어링 파라미터를 레코딩하기 위한 인스트럭션과 함께 상기 인덱스를 송신하는 단계와,
    상기 이미지의 지정시에, 상기 공간 베어링 파라미터에 대응하는 상기 인덱스를 상기 원격 장소로 송신하는 단계를 더 포함하는
    방법.
  9. 제1항에 있어서,
    사용자 선택시에, 상기 근거리 장소에서 상기 공간 베어링 파라미터를 저장하는 단계와,
    상기 이미지의 지정시에, 상기 공간 베어링 파라미터를 상기 원격 장소로 송신하는 단계를 더 포함하는
    방법.
  10. 제1항에 있어서,
    상기 근거리 장소로부터, 상기 선택된 LOS를 따라 상기 비디오-카메라 플랫폼을 조준하기 위한 제어 신호를 송신하는 단계를 더 포함하는
    방법.
KR1020147015332A 2011-12-06 2012-11-26 공간 북마킹 KR101573646B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/312,218 US9008487B2 (en) 2011-12-06 2011-12-06 Spatial bookmarking
US13/312,218 2011-12-06
PCT/US2012/066511 WO2013085733A1 (en) 2011-12-06 2012-11-26 Spatial bookmarking

Publications (2)

Publication Number Publication Date
KR20140096109A true KR20140096109A (ko) 2014-08-04
KR101573646B1 KR101573646B1 (ko) 2015-12-01

Family

ID=47351983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147015332A KR101573646B1 (ko) 2011-12-06 2012-11-26 공간 북마킹

Country Status (6)

Country Link
US (1) US9008487B2 (ko)
EP (1) EP2789162A1 (ko)
JP (1) JP6324901B2 (ko)
KR (1) KR101573646B1 (ko)
CN (1) CN103988497B (ko)
WO (1) WO2013085733A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9955209B2 (en) 2010-04-14 2018-04-24 Alcatel-Lucent Usa Inc. Immersive viewer, a method of providing scenes on a display and an immersive viewing system
US9294716B2 (en) 2010-04-30 2016-03-22 Alcatel Lucent Method and system for controlling an imaging system
US8754925B2 (en) 2010-09-30 2014-06-17 Alcatel Lucent Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal
US9008487B2 (en) 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking
EP2954505B1 (en) * 2013-02-08 2019-09-11 Robert Bosch GmbH Adding user-selected mark-ups to a video stream
EP3092794A4 (en) * 2014-01-10 2017-11-29 Revolve Robotics, Inc. Systems and methods for controlling robotic stands during videoconference operation
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
EP3335418A1 (en) 2015-08-14 2018-06-20 PCMS Holdings, Inc. System and method for augmented reality multi-view telepresence
CN108028910A (zh) 2015-09-25 2018-05-11 索尼公司 信息处理设备、信息处理方法与程序
JP2017098592A (ja) * 2015-11-18 2017-06-01 富士通株式会社 コミュニケーション支援システム、サーバ装置及びプログラム
US10762712B2 (en) 2016-04-01 2020-09-01 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
CN107404602B (zh) * 2016-05-18 2020-01-24 广州市索广电子技术有限公司 一种基于视频通信信道数据编织的远程提示方法
CN107547790A (zh) * 2016-06-27 2018-01-05 中兴通讯股份有限公司 图像采集的处理方法、装置及系统
WO2018005235A1 (en) * 2016-06-30 2018-01-04 Pcms Holdings, Inc. System and method for spatial interaction using automatically positioned cameras
EP3635949A1 (en) 2017-06-09 2020-04-15 PCMS Holdings, Inc. Spatially faithful telepresence supporting varying geometries and moving users

Family Cites Families (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572317A (en) * 1990-05-31 1996-11-05 Parkervision, Inc. Remote-controlled tracking system for tracking a remote control unit and positioning and operating a camera and method
WO1993006690A1 (en) 1991-09-17 1993-04-01 Radamec Epo Limited Setting-up system for remotely controlled cameras
JP3232608B2 (ja) 1991-11-25 2001-11-26 ソニー株式会社 収音装置、再生装置、収音方法および再生方法、および、音信号処理装置
US6385352B1 (en) 1994-10-26 2002-05-07 Symbol Technologies, Inc. System and method for reading and comparing two-dimensional images
JP3487436B2 (ja) 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
US5745161A (en) 1993-08-30 1998-04-28 Canon Kabushiki Kaisha Video conference system
JPH07135594A (ja) 1993-11-11 1995-05-23 Canon Inc 撮像制御装置
JP2937009B2 (ja) 1994-03-30 1999-08-23 ヤマハ株式会社 音像定位制御装置
CA2148631C (en) 1994-06-20 2000-06-13 John J. Hildin Voice-following video system
US6628887B1 (en) * 1998-04-17 2003-09-30 Honeywell International, Inc. Video security system
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
JP2947113B2 (ja) 1995-03-09 1999-09-13 日本電気株式会社 画像通信端末用ユーザインタフェース装置
US6137485A (en) 1995-03-20 2000-10-24 Canon Kabushiki Kaisha Image transmission method and apparatus, and image transmission system including the apparatus
US6122005A (en) 1995-04-14 2000-09-19 Canon Kabushiki Kaisha Camera control system having list of camera names updated in accordance with frequency of use and other ease of use features
US5896128A (en) 1995-05-03 1999-04-20 Bell Communications Research, Inc. System and method for associating multimedia objects for use in a video conferencing system
US5963250A (en) 1995-10-20 1999-10-05 Parkervision, Inc. System and method for controlling the field of view of a camera
EP0781049B1 (en) 1995-12-19 2004-05-06 Canon Kabushiki Kaisha Apparatus and method for controlling a plurality of remote cameras
US7012630B2 (en) 1996-02-08 2006-03-14 Verizon Services Corp. Spatial sound conference system and apparatus
US6021206A (en) 1996-10-02 2000-02-01 Lake Dsp Pty Ltd Methods and apparatus for processing spatialised audio
JP3563889B2 (ja) 1996-10-15 2004-09-08 キヤノン株式会社 カメラ制御システムおよびカメラ制御システムの制御方法
US6275258B1 (en) 1996-12-17 2001-08-14 Nicholas Chim Voice responsive image tracking system
KR100220011B1 (ko) 1996-12-27 1999-09-01 구자홍 출력 화면과 연동된 포커스 평가치를 검출하는 카메라 장치
US6072522A (en) 1997-06-04 2000-06-06 Cgc Designs Video conferencing apparatus for group video conferencing
US5940118A (en) 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
US6005610A (en) 1998-01-23 1999-12-21 Lucent Technologies Inc. Audio-visual object localization and tracking system and method therefor
JPH11242523A (ja) * 1998-02-24 1999-09-07 Star Micronics Co Ltd 監視カメラ装置
US6593956B1 (en) 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6487600B1 (en) 1998-09-12 2002-11-26 Thomas W. Lynch System and method for supporting multimedia communications upon a dynamically configured member network
US6318825B1 (en) 1998-10-23 2001-11-20 Hewlett-Packard Company Dry erase electronic whiteboard with page-wide-array inkjet printer
WO2000060857A1 (en) 1999-04-08 2000-10-12 Internet Pictures Corporation Virtual theater
US7039221B1 (en) 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
JP3195920B2 (ja) 1999-06-11 2001-08-06 科学技術振興事業団 音源同定・分離装置及びその方法
JP3597089B2 (ja) * 1999-08-31 2004-12-02 松下電器産業株式会社 監視カメラ装置とそのオートトレース実施方法
JP2001086486A (ja) * 1999-09-14 2001-03-30 Matsushita Electric Ind Co Ltd 監視カメラシステム及び監視カメラの表示方法
US6772195B1 (en) 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application
US6850265B1 (en) 2000-04-13 2005-02-01 Koninklijke Philips Electronics N.V. Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications
US6766035B1 (en) 2000-05-03 2004-07-20 Koninklijke Philips Electronics N.V. Method and apparatus for adaptive position determination video conferencing and other applications
JP2002007294A (ja) 2000-06-22 2002-01-11 Canon Inc 画像配信システム及び方法並びに記憶媒体
US20020039111A1 (en) 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access
US7283788B1 (en) 2000-07-26 2007-10-16 Posa John G Remote microphone teleconferencing configurations
WO2002039216A2 (en) 2000-11-03 2002-05-16 Outlet Group, Llc Method and system of an integrated business topography and virtual 3d network portal
SE517765C2 (sv) 2000-11-16 2002-07-16 Ericsson Telefon Ab L M Registrering av rörliga bilder medelst en portabel kommunikationsenhet samt en tillbehörsanordning vilken är samlokaliserad med objektet
US20020149672A1 (en) 2001-04-13 2002-10-17 Clapp Craig S.K. Modular video conferencing system
US6604868B2 (en) * 2001-06-04 2003-08-12 Kent Hsieh Microprocessor-controlled servo device for carrying and moving camera
JP4056777B2 (ja) * 2002-03-29 2008-03-05 綜合警備保障株式会社 自律移動体巡回システムおよび自律移動体の位置補正方法
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
US8893207B2 (en) 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US7913176B1 (en) 2003-03-03 2011-03-22 Aol Inc. Applying access controls to communications with avatars
US20040189701A1 (en) 2003-03-25 2004-09-30 Badt Sig Harold System and method for facilitating interaction between an individual present at a physical location and a telecommuter
US20040233282A1 (en) 2003-05-22 2004-11-25 Stavely Donald J. Systems, apparatus, and methods for surveillance of an area
US7559026B2 (en) 2003-06-20 2009-07-07 Apple Inc. Video conferencing system having focus control
US7428000B2 (en) 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
US7154526B2 (en) 2003-07-11 2006-12-26 Fuji Xerox Co., Ltd. Telepresence system and method for video teleconferencing
US7995090B2 (en) 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
KR20050033949A (ko) 2003-10-07 2005-04-14 삼성전자주식회사 휴대용 단말기의 오토줌임 제어방법
WO2005034505A1 (en) 2003-10-07 2005-04-14 Librestream Technologies Inc. Camera for communication of streaming media to a remote client
JP4269883B2 (ja) 2003-10-20 2009-05-27 ソニー株式会社 マイクロホン装置、再生装置及び撮像装置
US8208007B2 (en) 2004-04-21 2012-06-26 Telepresence Technologies, Llc 3-D displays and telepresence systems and methods therefore
JP2005354367A (ja) * 2004-06-10 2005-12-22 Matsushita Electric Ind Co Ltd ネットワークカメラシステム
US20050280701A1 (en) 2004-06-14 2005-12-22 Wardell Patrick J Method and system for associating positional audio to positional video
US7535468B2 (en) 2004-06-21 2009-05-19 Apple Inc. Integrated sensing display
JP4324030B2 (ja) * 2004-06-25 2009-09-02 キヤノン株式会社 カメラ制御装置、カメラ制御方法、及び記憶媒体
US7512883B2 (en) 2004-06-30 2009-03-31 Microsoft Corporation Portable solution for automatic camera management
EP1643769B1 (en) 2004-09-30 2009-12-23 Samsung Electronics Co., Ltd. Apparatus and method performing audio-video sensor fusion for object localization, tracking and separation
US7312809B2 (en) 2004-10-12 2007-12-25 Codian Ltd. Method and apparatus for controlling a conference call
US7626569B2 (en) 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
KR20060058323A (ko) * 2004-11-25 2006-05-30 엘지전자 주식회사 촬영장소 표시를 위한 이동통신 단말기의 사진촬영시스템및 그 방법
FR2880762A1 (fr) 2005-01-07 2006-07-14 France Telecom Terminal de visiophonie avec reglages intuitifs
US7852317B2 (en) 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
CN101198989A (zh) 2005-03-24 2008-06-11 G元件私人有限公司 用于邻近区域和建筑物内的可视化、规划、监视和探察的系统和设备
US20070002130A1 (en) 2005-06-21 2007-01-04 David Hartkop Method and apparatus for maintaining eye contact during person-to-person video telecommunication
JP4441879B2 (ja) 2005-06-28 2010-03-31 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
EP1902350A1 (en) 2005-07-04 2008-03-26 Bang & Olufsen A/S A unit, an assembly and a method for controlling in a dynamic egocentric interactive space
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
WO2007047685A2 (en) 2005-10-17 2007-04-26 I2Ic Corporation Combined video display and camera system
US8872879B2 (en) * 2006-01-26 2014-10-28 Polycom, Inc. System and method for controlling videoconference with touch screen interface
US20080086696A1 (en) 2006-03-03 2008-04-10 Cadcorporation.Com Inc. System and Method for Using Virtual Environments
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US20070263824A1 (en) 2006-04-18 2007-11-15 Cisco Technology, Inc. Network resource optimization in a video conference
JP2007316319A (ja) 2006-05-25 2007-12-06 Funai Electric Co Ltd プロジェクタ
US20080063389A1 (en) 2006-09-13 2008-03-13 General Instrument Corporation Tracking a Focus Point by a Remote Camera
US7880739B2 (en) 2006-10-11 2011-02-01 International Business Machines Corporation Virtual window with simulated parallax and field of view change
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
WO2008103850A2 (en) 2007-02-21 2008-08-28 Pixel Velocity, Inc. Scalable system for wide area surveillance
US7840903B1 (en) 2007-02-26 2010-11-23 Qurio Holdings, Inc. Group content representations
JP2009016956A (ja) * 2007-06-29 2009-01-22 Sanyo Electric Co Ltd カメラ制御システム、カメラ制御装置、及びカメラ制御プログラム
US8711224B2 (en) 2007-08-06 2014-04-29 Frostbyte Video, Inc. Image capture system and method
US8397168B2 (en) 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US20090111518A1 (en) 2007-10-29 2009-04-30 Agere Systems Inc. Interface for cellular and local non-cellular communications
WO2009062043A1 (en) 2007-11-08 2009-05-14 The Regents Of The University Of California An apparatus configured to provide functional and aesthetic lighting from a fan
EP2065795A1 (en) 2007-11-30 2009-06-03 Koninklijke KPN N.V. Auto zoom display system and method
US8159458B2 (en) 2007-12-13 2012-04-17 Apple Inc. Motion tracking user interface
JP5315696B2 (ja) * 2008-01-07 2013-10-16 ソニー株式会社 撮像制御装置、撮像制御方法
EP2263190A2 (en) 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
WO2009104564A1 (ja) 2008-02-20 2009-08-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム
US20120011454A1 (en) 2008-04-30 2012-01-12 Microsoft Corporation Method and system for intelligently mining data during communication streams to present context-sensitive advertisements using background substitution
US8275197B2 (en) 2008-06-14 2012-09-25 Microsoft Corporation Techniques to manage a whiteboard for multimedia conference events
CN101610360A (zh) 2008-06-19 2009-12-23 鸿富锦精密工业(深圳)有限公司 自动追踪声源的摄像装置
KR101006368B1 (ko) 2008-07-22 2011-01-10 삼성전자주식회사 휴대 단말기의 카메라 조절 방법 및 장치
NO333026B1 (no) 2008-09-17 2013-02-18 Cisco Systems Int Sarl Styringssystem for et lokalt telepresencevideokonferansesystem og fremgangsmate for a etablere en videokonferansesamtale.
US8593503B2 (en) 2008-09-25 2013-11-26 Alcatel Lucent Videoconferencing terminal and method of operation thereof to maintain eye contact
WO2010036780A1 (en) 2008-09-25 2010-04-01 Coby Electronics Corporation Docking station with rotation mechanism
US20100302343A1 (en) 2009-05-26 2010-12-02 Alcatel-Lucent Usa, Incorporated Videoconferencing terminal and method of operation thereof to maintain eye contact
US8355040B2 (en) 2008-10-16 2013-01-15 Teliris, Inc. Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method
US8150063B2 (en) 2008-11-25 2012-04-03 Apple Inc. Stabilizing directional audio input from a moving microphone array
US8584026B2 (en) 2008-12-29 2013-11-12 Avaya Inc. User interface for orienting new users to a three dimensional computer-generated virtual environment
US8487975B2 (en) 2009-01-27 2013-07-16 Lifesize Communications, Inc. Conferencing system utilizing a mobile communication device as an interface
US7987309B2 (en) 2009-02-26 2011-07-26 Broadcom Corporation Dockable handheld computing device with graphical user interface and methods for use therewith
JP5522349B2 (ja) 2009-04-14 2014-06-18 任天堂株式会社 入力システム、情報処理システム、周辺機器の制御方法、および操作機器の制御プログラム
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US20100293468A1 (en) 2009-05-12 2010-11-18 Sony Ericsson Mobile Communications Ab Audio control based on window settings
US8571192B2 (en) 2009-06-30 2013-10-29 Alcatel Lucent Method and apparatus for improved matching of auditory space to visual space in video teleconferencing applications using window-based displays
US8380550B2 (en) 2009-12-08 2013-02-19 Lawrence Livermore National Security, Llc Method and computer program product for maintenance and modernization backlogging
US8520051B2 (en) 2009-12-17 2013-08-27 Alcatel Lucent Videoconferencing terminal with a persistence of vision display and a method of operation thereof to maintain eye contact
GB2475928A (en) 2009-12-23 2011-06-08 Promethean Ltd An input system including an interactive surface for detecting a contact point and the presence of a response to an excitation signal
CN102118560A (zh) * 2009-12-30 2011-07-06 深圳富泰宏精密工业有限公司 拍照系统及方法
US8917632B2 (en) 2010-04-07 2014-12-23 Apple Inc. Different rate controller configurations for different cameras of a mobile device
US9955209B2 (en) 2010-04-14 2018-04-24 Alcatel-Lucent Usa Inc. Immersive viewer, a method of providing scenes on a display and an immersive viewing system
US20110267421A1 (en) 2010-04-30 2011-11-03 Alcatel-Lucent Usa Inc. Method and Apparatus for Two-Way Multimedia Communications
US9294716B2 (en) 2010-04-30 2016-03-22 Alcatel Lucent Method and system for controlling an imaging system
US20110268263A1 (en) 2010-04-30 2011-11-03 American Teleconferencing Services Ltd. Conferencing alerts
US8688774B2 (en) 2010-08-09 2014-04-01 Eustace Prince Isidore Method, system, and devices for facilitating real-time social and business interactions/networking
US20120069218A1 (en) 2010-09-20 2012-03-22 Qualcomm Incorporated Virtual video capture device
US20120083314A1 (en) 2010-09-30 2012-04-05 Ng Hock M Multimedia Telecommunication Apparatus With Motion Tracking
US8754925B2 (en) 2010-09-30 2014-06-17 Alcatel Lucent Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal
US8848028B2 (en) 2010-10-25 2014-09-30 Dell Products L.P. Audio cues for multi-party videoconferencing on an information handling system
US20120154510A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Smart Camera for Virtual Conferences
US20120204120A1 (en) 2011-02-08 2012-08-09 Lefar Marc P Systems and methods for conducting and replaying virtual meetings
US20120216129A1 (en) 2011-02-17 2012-08-23 Ng Hock M Method and apparatus for providing an immersive meeting experience for remote meeting participants
US9008487B2 (en) 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking

Also Published As

Publication number Publication date
JP6324901B2 (ja) 2018-05-16
US9008487B2 (en) 2015-04-14
US20130141573A1 (en) 2013-06-06
CN103988497A (zh) 2014-08-13
EP2789162A1 (en) 2014-10-15
CN103988497B (zh) 2017-12-08
WO2013085733A1 (en) 2013-06-13
JP2015507394A (ja) 2015-03-05
KR101573646B1 (ko) 2015-12-01

Similar Documents

Publication Publication Date Title
KR101573646B1 (ko) 공간 북마킹
US9854206B1 (en) Privacy-aware indoor drone exploration and communication framework
US11632516B2 (en) Capture, analysis and use of building data from mobile devices
US10165179B2 (en) Method, system, and computer program product for gamifying the process of obtaining panoramic images
US8754925B2 (en) Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal
US11086594B2 (en) Method and apparatus for controlling surveillance system with gesture and/or audio commands
US9661214B2 (en) Depth determination using camera focus
US9723203B1 (en) Method, system, and computer program product for providing a target user interface for capturing panoramic images
US9955209B2 (en) Immersive viewer, a method of providing scenes on a display and an immersive viewing system
US8400490B2 (en) Framing an object for video conference
CA3113355A1 (en) Automated control of image acquisition via use of acquisition device sensors
TWI400940B (zh) 遠端控制軌道式攝影裝置的手持式裝置及方法
US20060114251A1 (en) Methods for simulating movement of a computer user through a remote environment
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
JP2020520308A (ja) ロボット制御方法、ロボット装置及びロボット機器
CN104184985A (zh) 图像获取的方法及装置
US20070038945A1 (en) System and method allowing one computer system user to guide another computer system user through a remote environment
JPWO2014064878A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2017183816A (ja) 動画配信サーバ、動画出力装置、動画配信システム、及び動画配信方法
JP4396092B2 (ja) コンピュータ援用ミーティングキャプチャシステム、コンピュータ援用ミーティングキャプチャ方法、及びコントロールプログラム
JP2023173764A (ja) 情報処理装置、情報処理方法
JP2024001477A (ja) 画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant