KR20010074470A - 카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과시스템 - Google Patents

카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과시스템 Download PDF

Info

Publication number
KR20010074470A
KR20010074470A KR1020007011208A KR20007011208A KR20010074470A KR 20010074470 A KR20010074470 A KR 20010074470A KR 1020007011208 A KR1020007011208 A KR 1020007011208A KR 20007011208 A KR20007011208 A KR 20007011208A KR 20010074470 A KR20010074470 A KR 20010074470A
Authority
KR
South Korea
Prior art keywords
camera
user
output
image
array
Prior art date
Application number
KR1020007011208A
Other languages
English (en)
Inventor
소로킨스코트
웨버앤드류에이치
워레이데이비드씨
Original Assignee
추후보정
키와징가 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22157205&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20010074470(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 추후보정, 키와징가 코포레이션 filed Critical 추후보정
Publication of KR20010074470A publication Critical patent/KR20010074470A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Navigation (AREA)

Abstract

제1 사용자에게 주위환경의 제1 디스플레이를 그리고 제2 사용자에게 주위환경의 제2 디스플레이를 제공하기 위한 텔레프레전스 시스템은 카메라 어레이를 포함한다. 각 카메라는 주위환경의 연관된 뷰를 가지고 있으며 연관된 뷰를 대표하는 연관된 카메라 출력을 가지고 있다. 그 어레이도 역시 적어도 한 가지 카메라 경로를 가지고 있다. 제1 사용자 인터페이스 장치는 그 어레이에 제1 경로를 따라 이동과 연관된 제1 사용자 입력을 가지고 있으며, 그리고 제2 사용자 인터페이스 장치는 그 어레이에 제2 경로를 따라 이동과 연관된 제2 사용자 입력을 가지고 있다. 사용자 인터페이스 장치는 사용자 입력을 수신하고 해석하는 적어도 한 개의 처리 요소에 연결되어 있다. 처리 요소는 제1 입력을 해석하고 제1 경로에 있는 카메라 출력을 선택한다. 그리고 제2 입력을 해석하고 제2 경로에 있는 카메라 출력을 제1 입력으로부터 독립적으로 선택한다. 그리하여 제1 사용자 및 제2 사용자로 하여금 어레이를 통해서 동시에 그리고 독립적으로 항행하게 한다. 다른 실시예에서는 텔레프레전스 시스템이 그 어레이에 있는 허용 가능한 카메라와 그 어레이에 있는 허용 불가능한 카메라를 구분하는 적어도 한 개의 처리 요소를 포함하고 있다.

Description

카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과 시스템{A NAVIGABLE TELEPRESENCE MEHTOD AND SYSTEM UTILIZING AN ARRAY OF CAMERAS}
대체로 박물관과 같은 정적 현장 및 음악 콘서트와 같은 동적 현장 혹은 사건의 용도에 적합한 텔레프레즌스 시스템을 개발할 필요가 있다. 그러한 현장의 뷰잉은 시간, 지리학적 위치 및 현장의 시청자 수용력 등에 의해 제한된다. 예를 들어 박물관의 잠재적 방문객은 제한된 박물관 개방시간으로 인해 전시품을 보지 못할 수도 있다. 그와 유사하게 음악 콘서트 프로듀서는 콘서트장의 제한된 좌석때문에 팬들을 돌려보내야만 한다. 요약하자면, 현장으로의 제한된 접근이 발생하는 수입원을 감소시킨다.
두 정적 및 동적 현장으로부터의 수입원 흐름을 증가시키려는 시도에서 상기 현장들은 방송 또는 배포용으로 녹화되어 왔다. 어떤 점에서 동적 현장은 또한 생방송된다. 그러한 방송프로가 현장으로의 접근을 증가시키는 반면에 상당한 제작 노력을 필요로 한다. 통상적으로, 다중 카메라로부터의 뷰들이 이어서 연결되어야 하므로 녹화된 방송프로는 삭제되고 편집된다. 그러한 편집 및 제작 노력은 비용이많이 든다.
어떤 점에서 그러한 편집 및 제작 노력의 결과인 방송프로는 시청자에게 제한된 즐거움을 제공한다. 구체적으로 방송은 대개 사전 결정된 특정 숫자의 카메라로 현장을 촬영하는 것에 근거한다. 그럼으로써 방송프로는 현장의 제한된 뷰잉(viewing) 앵글과 원근감을 포함한다. 또한 상기 방송프로에서 표현되는 뷰잉 앵글과 원근감은 편집 및 제작 과정에서 프로듀서 또는 감독에 의해 선택된다. 즉, 시청자 자율권은 존재하지 않는다. 더욱이 비록 방송프로가 종종 다중 뷰잉용으로 녹화되기는 하지만, 그러한 방송 프로는 각 뷰잉이 최초의 뷰잉과 동일하기 때문에 제한된 내용 기간을 갖는다. 각 프로의 화면과 소리가 동일하기 때문에, 시청자는 다중 뷰잉에 더 이상 관심을 보이지 않는다.
운이 좋아 개인적으로 현장에 들어가는 시청자라도 그와 동일한 많은 문제에 봉착하게 될 것이다. 예를 들어 박물관 관람객은 차단물 뒤에서 제한된 앵글과 원근감으로 전시품을 관람해야 한다. 그와 유사하게 콘서트-관람객 역시 콘서트장의 특정 좌석 또는 구간에 제한된다. 심지어 시청자가 현장을 비디오 테이프에 녹화할 수 있도록 콘서트장 전체에 접근할 수 있었더라도, 각 뷰잉이 최초 뷰잉과 동일했기 때문에 그러한 녹화 역시 제한된 내용 기간을 갖게 되었다. 그러므로 감소된 제작 비용으로 증대된 내용 기간으로 녹화되며, 특히 사용자 자율권을 제공하는 텔레프레즌스 시스템에 대한 필요성이 존재한다.
제시한 일부 요구사항을 충족하기 위해 텔레프레즌스 시스템을 개발하려는 시도가 분명히 있었다. 하나의 텔레프레즌스 시스템은, 1998년 1월 13일 발표되고,미국 특허 번호 제 5, 708, 469호에 기술되어 있는 것으로 다중 카메라의 극성을 둘러싸고, 뷰 범위를 확인시키는 와이어 케이지(Wire Cage)를 이용한 다중 뷰 텔레프레즌스 시스템이다. 상기에 나타낸 시스템은 복수의 카메라를 포함하며, 상기 각 카메라는 적어도 다른 하나의 카메라에 대해 직각으로 공간-인접하는 뷰 범위를 갖는다. 다시 말해서 양호하게는 카메라 뷰 범위가 서로 겹쳐지지 않는다. 사용자 영역은 사용자로 하여금 뷰들 간에 오고 갈 수 있도록 허용한다. 사용자의 뷰가 현장 또는 주변 환경을 통과하여 이동하는 상태에서 이동 차량이 카메라를 이송한다.
그러나 그러한 시스템에는 여러 가지 단점이 있다. 예를 들어 시청자의 시각이 현장을 통과하여 이동하는 상태에서 이동 차량이 작동되고 제어되어야 한다. 이러한 관점에서 상기 시스템의 작동은 복잡하다.
더욱이 카메라 뷰가 통상적으로 직각으로 인접하고 있기 때문에, 카메라 뷰를 변경함으로써 이미지의 연결이 끊어진다.
텔레프레즌스 시스템을 제공하는 또 다른 시도는 360도 카메라 시스템의 형태를 취했다. 그러한 한가지 시스템은 1998년 4월 28일 발표되고 미국 특허 제 5,745,305호에 기술되어 있는 것으로 파노라마식 뷰잉 장치가 있다. 여기에 기술된 시스템은 피라미드 형태의 반사 요소 둘레에 다중 카메라를 정렬함으로써 주변환경의 뷰를 360도로 제공한다. 각각의 카메라는 공동(cavity) 가상의 시각적 중심을 공유하면서, 반사 피라미드의 서로 다른 쪽으로부터 하나의 이미지를 수신한다. 360도 카메라 시스템의 또 다른 유형은 포물면 렌즈 또는 회전형 카메라를 사용한다.
상기 360도 카메라 시스템 또한 많은 단점이 있다. 특히 그러한 시스템은 사용자의 뷰를 지정된 점으로부터 360도로 제한한다. 다시 말해서 360도 카메라 시스템은 사용자에게 단일 위치로부터 파노라마를 제공한다. 단지 카메라 시스템이 이동 차량에 장착되었을 경우에만 사용자가 환경을 통한 가상의 이동을 경험할 수 있었다.
1993년 2월 16일 발표된 것으로 원거리의 다중 뷰를 디스플레이하기 위한 텔레비젼 시스템에 대한 미국 특허 제 5,187,571호는 위에 언급한 360도 카메라 시스템에 유사한 카메라 시스템을 기술한다. 기술된 상기 시스템의 경우 사용자가 뷰의 전체 범위의 가변 부분을 임의로 그리고 지속적으로 선택할 수 있다. 다중 카메라는 각 카메라의 뷰 범위가 그곳에서 전체 뷰 범위를 생성하는 인접한 카메라의 뷰 범위와 연속해서 병합되도록 정렬된다. 전체 뷰 범위는 360도를 충당하도록 확장될 수 있다. 전체 뷰 범위를 생성하기 위해, 카메라의 뷰는 연속적으로 이어져야 한다. 카메라 뷰를 인접시키기 위해 카메라는 공유점 원근감 또는 정점을 공유해야 한다. 그럼으로써 앞서 기술된 360도 카메라 시스템과 같이, 미국 특허 제 5,187,571호는 사용자로 하여금 환경에 걸친 원근감을 가지는 이동을 경험할 수 있도록 허용하기 보다는 사용자 뷰를 단일 점 원근감에 제한한다.
또한 미국 특허 제 5,187,571호와 관련하여 카메라 뷰들 간에 인접성을 달성할 수 있도록 비교적 복잡한 거울의 정렬이 요구된다. 추가적으로 각 카메라는 또한 외관상 동일한 수직 평면 내에 배열되어야 한다.
그러므로 여전히 현장에서, 양호하게는 실시간에서 시청자의 실제 임장감을더욱 잘 가상화할 수 있는 능력을 제공하는 개량된 텔레프레즌스 시스템이 필요한 것이다.
본 발명은 텔레프레즌스 시스템에 관한 것으로, 더욱 상세하게는 가항성 카메라 어레이 텔레프레즌스 시스템 및 상기 어레이를 이용하는 방법에 관한 것이다.
도 1은 본 발명의 한 실시예에 대한 개략도이다.
도 2a는 본 발명의 한 실시예에 따라 어레이된 카메라와 카메라 레일 구간의 투시도이다.
도 2b - 2d는 본 발명의 한 실시예에 따른 카메라 및 카메라 레일의 측면도이다.
2e는 본 발명의 한 실시예에 따른 카메라 레일의 상부 평면도이다.
도 3은 본 발명의 한 실시예에 따르는 카메라 어레이 한 부분의 투시도이다.
도 4는 본 발명의 다른 실시예에 따른 카메라 어레이 한 부분의 투시도이다.
도 5는 본 발명의 한 실시예에 다른 사용자 인터페이스의 일반 작동을 도시하는 흐름도이다.
도 6은 도 5 내에 표시된 운영의 한 부분을 도시하는 상세 흐름도이다.
도 7a는 관찰되는 대상에 관련한 카메라 어레이의 정렬을 도시하는 본 발명의 한 실시예 부분의 투시도이다.
도 7b - 7g는 도 7a 내 어레이의 선택된 카메라의 시각으로부터 바라본 투시도이다.
도 8은 본 발명의 다른 실시예의 개략도이다.
도 9는 본 발명의 한 실시예에 따르는 서버의 개략도이다.
도 10은 본 발명의 다른 실시예에 따르는 서버의 개략도이다.
위에 언급한 필요성과 다른 필요성들이 소요는 본 발명에 의해 충족된다. 본 발명의 실시예에 따르는 텔레프레즌스 시스템은 각각의 카메라가 한 환경의 조합된 한 뷰와 상기 뷰를 묘사하는 조합된 출력을 갖는 카메라 어레이를 포함한다. 상기 시스템은 또한 어레이 내 제1 경로에 따르는 이동과 조합된 제1 사용자 입력을 가지는 제1 사용자 인터페이스 장치를 포함한다. 그 외에도 본 시스템은 어레이 내 제2 경로에 따르는 이동과 조합된 제2 사용자 입력을 가지는 제2 사용자 인터페이스 장치를 포함한다. 상기 처리 부재는 제1 입력을 수신하고 해석하며 그리고 제1 경로 내 카메라의 출력을 선택한다. 그와 유사하게 처리 부재는 제2 입력을 수신 및 해석하고, 제1 입력과 상관없이 제2 경로 내 카메라의 출력을 선택한다. 그럼으로써 제1 사용자 및 제2 사용자가 어레이를 통해 동시에 그리고 독자적으로 항해할 수 있다. 본 발명의 또 다른 실시예에서 텔레프레즌스 시스템은 어레이 내 허용 카메라와 어레이 내 비허용 카메라를 구분한다.
1. 선호되는 실시예의 일반 설명
본 발명은 선호되는 실시예에 있어 마이크로 카메라의 모듈식, 인터로킹(연동) 어레이를 이용하는 텔레프레즌스 시스템에 관한 것이다. 카메라는 레일 상에 있으며 각 레일은 복수의 카메라를 고정한다. 그러한 카메라는 각각 어레이 상의 모든 인접한 카메라에 고정된 관계로 고정되고 지정된 환경 내에 차원적으로 분산되어, 멀리 떨어져 있는 시청자로 하여금 실제 환경 내 통과를 특징으로 하는 동일한 공간 및 시각적 커트(변화하는 투시선, 이동하는 광반사와 광투영)를 가지고 상기 환경을 항해할 수 있게 한다.
다른 선호 실시예에서 상기 마이크로 카메라의 출력은 영역 네트 허브(net hub)를 통해 이송되고, 서버 어레이 또는 서버 팜(farm)(녹화 또는 (순간) 릴레이용으로) 상에서 완충되며 그리고 원거리 터미널, 쌍방향 벽 스크린, 혹은 이동 이미지 장치(예로 가상 레티날 디스플레이) 등에 있는 시청자에게 전송되는, 광섬유에 레이저를 방사하는 얇은(사람 머리카락 폭의 절반 미만) 수직 공동 표면 방출 레이저(VCSELs)에 의해 연결된다. 모든 원거리 시청자는 직관적 그래픽 사용자 인터페이스(GUI)를 통해 힘들이지 않고도 사건의 끊김이 없는 이동을 가능케하면서, 환경을 항해할 수 있다.
이는 시청자 점 원근감을 카메라에서 카메라로 이동시키는 다중, 전자 교환 처리(시청자에게 보이지 않음)를 필요로 한다. 마이크로 카메라를 공간을 통해 물리적으로 이동시키는 것에 본질적으로 의존하기 보다는 오히려 상기 시스템은 어레이 범위에 걸쳐 있는 순차적인 원근감 및 음향 경로를 시청자에게 제공하는 방식으로 시청자의 원근감을 마이크로 카메라 노드(node)에서 인접한 마이크로 카메라 노드으로 이동시키기 위해 위치 지정된 마이크로 카메라의 다중성을 이용한다. 이러한 점이 시청자로 하여금 유동적으로 3-차원 원거리 환경을 통해 추적하거나 돌리(dolly)로 이동하고, 사건에 걸쳐 이동하고 그리고 어디로 이동하고 언제 오래 머물러야 할 지를 실시간으로 자율적인 결정을 할 수 있도록 허용한다.
자체 코스를 제어하고 지정된 카메라를 통해 항해할 수 있는 시청자의 수를 순간적으로 제한할 수 있는 로보트 카메라를 물리적으로 이동시키기 위한 수용력을 시청자에게 부여하는 것 대신에, 이러한 시스템은 시청자로 하여금, 전자 교환(및 그로 인한 어레이를 통한 이동)을 통해 자체 시야를 끊김이 없는 이동 경로에 병합하는 식으로 마이크로 카메라 출력의 다중성 간에 표류할 수 있도록 허용한다.
2. 선호되는 실시예의 상세한 설명
본 발명의 일부 실시예는 여기서 도면을 참조하여 더욱 자세히 기술될 것이다. 여기에 기술된 실시예의 많은 컴포넌트의 작동 및 기능성들이 한명의 기술자에게 공지되고, 그리고 그 자체로 본 명세서가 상기 운영 및 기능성에 대해 상세히 기술하지 않는 것은 충분히 이해된 사항이다.
본 발명에 따른 텔레프레즌스 시스템(100)은 도 1에 도시되어 있다. 상기 텔레프레즌스 시스템(100)은 일반적으로, 각각 사용자 인터페이스장치/디스플레이 장치(24)를 갖는 한 명 이상의 사용자(22)에게 차례로 연결되는 서버(18)에 연결되는 카메라(14)의 어레이(10)를 포함한다. 당업자가 이해하며 여기서 기술되는 실시예의 작동 및 기능성은 서버 및 사용자 인터페이스/디스플레이 장치에 의해 부분적으로 제공된다. 상기 컴포넌트의 작동이 특정 코드 목록표 또는 논리표에 의해 기술되지 않는 반면 한명의 당업자가 여기 제공되는 기능 및 작동 세부 사항에 기초하는 적합한 수행을 할 수 있어야 한다. 또한 본 발명의 범위는 어떠한 특정 코드 또는 논리적 수행에 제한된다고 해석되어서도 안 된다.
이러한 실시예에서 카메라 어레이(10)는 X, Z 좌표계 내에 있는 것으로 개념화된다. 이는 각 카메라가 조합되고, X 및 Z좌표(X, Z)를 의미하는 특정 노드 주소를 갖도록 허용한다. 본 발명의 실시예에서 예를 들어 특정 카메라의 축에 상응하는 좌표값은 기준 카메라로부터 특정 카메라가 이동되는 축에 따른 카메라 위치의 수를 나타낸다. 이러한 실시예에서 사용자 시각으로부터 X축은 좌우측으로 진행하며, Z축은 상하로 진행한다. 각 카메라(14)는 자체 X, Z 좌표에 의해 확인된다. 그러나 카메라(14)를 확인하는 다른 방법이 사용될 수 있음을 이해해야 한다. 예를 들어 고정 기준점으로부터 각도 변위를 통보하는 그러한 좌표계뿐만 아니라 현재 카메라 노드로부터의 상대 변위를 가리키는 좌표계가 사용될 수 있다. 다른 대체되는 실시예에서 어레이는 X, Y, Z 좌표계에 위치되는 3차원이다.
어레이(10)는 복수의 레일(12)를 포함하며 각 레일(12)은 일련의 카메라(14)를 포함한다. 본 발명의 선호되는 실시예는 카메라(14)가 마이크로 카메라이다. 마이크로 카메라(14)로부터의 출력은 근거리 허브(local area hub)(16)를 통해 서버(18)에 연결된다. 근거리 허브(16)는 출력을 모으고, 필요한 경우 서버(18)로의 전송을 위해 출력을 증폭한다. 대체되는 실시예에서 근거리 허브(16)는 서버(18)로의 전송을 위한 출력을 다중 송신한다. 비록 그림은 배선에 의한 것으로 카메라(14)와 서버(18)간에 통신 링크(15)를 표시하고 있지만, 무선 링크가 사용된 것으로 이해되어야 한다. 그러므로 본 발명의 범위 내에서 통신링크(15)는 광섬유, 케이블, 위성, 마이크로파 전송, 인터넷 등의 형태를 취한다.
또한 서버(18)에 연결되는 것은 전자 저장장치(20)이다. 서버(18)은 전자 저장장치(20)에 출력을 전달한다. 전자(질량) 저장 장치(20)는 차례로 각 카메라 출력을 CD-ROM, DVD, 테이프, 레코드, 디스크 어레이와 같은 저장 매체 또는 수단에 옮겨 저장한다. 각 카메라(14)의 출력은 카메라(14)와 조합된 저장 매체 상의 특정 위치들에 저장되거나 혹은 각각 저장된 출력이 어느 카메라(14)에 상응하는 지의 표시로 저장된다. 예를 들어, 각 카메라(14)의 출력은 분리된 디스크, 테이프, CD-ROM, 레코드 상에 연속되는 위치들에 저장된다. 도면에서 보는 바와 같이, 카메라 출력은 JPEG, MPEG1, MPEG2 등과 같은 압축된 형식으로 저장될 수 있다. 선행 기술에 공지된 바와 같이, 카메라 출력은, 저장 정지 칼라(still color) 및 비트맵 형태의 그레이 스케일 사진 등에 대한 표준 형식인 JPEG, 초당 30프레임의 해상도를 가지는 저장 비디오 출력에 대한 표준 형식인 MPEG1, 초당 60프레임의 해상도를 가지는 저장 비디오 출력에 대한 표준 형식인 MPEG2(통상 HDTV 및 DVD-ROM과 같은 고 대역폭 응용장치용으로 사용된다) 등과 같은 압축된 형태로 저장될 수 있다. 각 출력을 저장하는 것은 사용자로 하여금 후에 환경을 반복해서, 즉 아래 기술된 바와 같은 새로운 경로 내 어레이(10)를 통해 이동하는 시간대를 볼 수 있도록 허용한다. 본 발명에 따른 일부 실시예에서 실시간 뷰잉만을 제공하는 경우 그러한 출력은 저장장치를 필요로 하지 않는다.
아래 상세히 기술된 바와 같이 서버(18)는 어레이의 카메라로부터 출력을 수신한다. 서버 (18)는 이 출력을 처리하여 전자 저장장치(20)에 저장하거나 사용자(22)에게 전송 또는 두 가지를 모두 실행한다.
비록 서버(18)가 이러한 실시예에서 시스템(100)의 기능성을 제공하기 위해 구성되기는 하지만, 기타 처리 요소가 시스템(100)의 기능성을 제공할 수 있다는점도 이해되어야 한다. 예를 들어 다른 실시예에서는 사용자 인터페이스 장치는 사용자 입력을 해석하고, 원하는 현재 노드 주소의 지시를 전송하고, 어레이로부터 출력을 완충하며, 기술된 기능과 다른 기능을 제공하도록 프로그램된 개인용 컴퓨터이다.
명시된 바와 같이 시스템(100)은 다중 사용자(22)들의 편의를 도모할 수 있다(그러나 다중 사용자를 요구하지 않는다). 각 사용자(22)는 디스플레이 장치(일관적으로 24)를 포함하는 사용자 인터페이스 장치를 상기 시스템과 연결시켰다. 예를 들어, 사용자(22)-1은 모니터와 키보드를 가지는 컴퓨터(24-1) 형태로 조합된 사용자 인터페이스 장치와 사용자 디스플레이 장치를 갖는다. 사용자(22)-2는 사용자 인터페이스 장치 및 사용자 디스플레이 장치 역할을 하는 쌍방향 벽 스크린(24-2)을 상기 시스템과 연결시켰다. 사용자(22)-3의 사용자 인터페이스 장치와 사용자 디스플레이 장치는 이동 오디오 및 이미지 장치(24-3)를 포함한다. 디지털 쌍방향 TV(24-4)는 사용자(22)-4의 사용자 인터페이스 장치 및 사용자 디스플레이 장치이다. 사용자(22)-5는 사용자 인터페이스 및 디스플레이 장치로서 음성 인식 유닛과 모니터(24-5)를 갖는다. 선행하는 사용자 인터페이스 장치와 사용자 디스플레이 장치는 단순히 전형적인 예라는 점을 이해해야 한다. 예를 들어 다른 인터페이스 장치는 마우스, 터치 스크린, 바이오피드백 장치(biofeedback device) 및 미국 임시 특허 출원 일련 제 60/080,413호에 승인된 것과 같은 장치들을 포함한다.
아래 상세히 기술된 바와 같이 각 사용자 인터페이스 장치(24)는 사용자 입력을 조합했다. 상기 사용자 입력은 각 사용자(22)로 하여금 어레이(10)를 통해 상호 독자적으로 이동하거나 항해할 수 있도록 허용한다. 다시 말해서 각 사용자(22)가 대개 어떠한 카메라 출력이 사용자 디스플레이 장치에 전송되어야 하는 가를 선택하기 위해 입력사항을 입력한다. 양호하게는 각 사용자 디스플레이 장치가 어레이(10)의 그래픽 표시를 포함한다. 그래픽 표시는 어레이 내 어떠한 카메라가 보여지고 있는 출력을 표시하고 있는 지의 지시를 포함한다. 사용자 입력은 각 사용자로 하여금 특정 카메라를 선택할 뿐만 아니라 어레이(10)를 통한 관련 이동 혹은 항해 경로를 선택할 수 있도록 허용한다.
도 1내에 표시된 바와 같이 각 사용자(22)는 독립적 통신 링크에 의해 서버(18)에 연결될 수 있다. 또한 각 통신 링크는 상이한 테크놀러지를 사용할 수 있다. 예를 들어 다른 실시예에서는 통신 링크는 인터넷 링크, 마이크로파 신호 링크, 위성 링크, 케이블 링크, 광섬유 링크, 무선 링크 등을 포함한다.
어레이(10)는 여러 장점을 제공한다는 점이 이해되어야 한다. 예를 들어 어레이(10)가 일련의 카메라(14)를 사용하기 때문에, 환경의 끊김 없는 뷰를 획득하기 위해 개별 카메라는 이동되어서는 안되거나 혹은 그러한 문제에 대한 전체 어레이(10)가 이동되어야 한다. 대신 사용자는 보여질 물리적 환경에 걸쳐 그리고 그 주변에 전략적으로 배치되는 어레이(10)를 통해 항해한다. 또한 어레이(10)의 카메라가 물리적으로 보여질 환경 내 다른 지점에 위치하고 있기 때문에, 사용자는 원근감에서의 변화를 볼 수 있으며 이는 단지 초점 거리를 변화시키는 단일 카메라에서는 얻을 수 없는 특징이다.
마이크로 카메라
각 카메라(14)는 양호하게는 마이크로카메라이다. 마이크로 카메라 -엄지 손톱크기의 CMOS 활성 픽셀 센서(APS) 마이크로 칩 상에 장착되는 마이크로 렌즈-는 사용자가 방사상으로, 직선으로, 혹은 둘의 유동적 조합 형태로 이동할 수 있게 하는 패턴으로 정렬된다. 상기 카메라는 Photobit, Pasadena, CA, Samoff Corporation, Princeton, NJ, 및 VLSI Vison, Edinburgh, Scotland 등을 포함한, 여러 회사에 의해, 주요 제조 공정에서 생산된다.
어레이의 구조
어레이(10)의 구조는 도 2a-2e를 참조하여 자세히 기술한다. 대체로 이러한 실시예의 카메라 어레이(10)는 마이크로 카메라(14)를 이송시키는 일련의 모듈러 레일(12)을 포함한다. 레일(12)과 카메라(14)의 구조는 도 2a - 2d를 참조하여 상세히 기술될 것이다. 각 카메라(14)는 표시용 핀(34)을 포함한다. 선호되는 실시예에서 카메라(14)는 자체 출력을 레일(12)에 전송하기 위해 VCSEL를 이용한다. 본 발명은 어떤 카메라(14)의 특정 유형에 제한되지 않으며, 심지어 단 하나의 카메라(14) 유형으로 구성되는 어레이(10)도 제한되지 않는다.
각 레일(12)는 두 레일측(12a, 12b)을 포함하는데, 적어도 한 측 12b는 힌지 가능하도록 레일(12)의 베이스(12c)에 연결된다. 베이스(12c)는 카메라(14)의 표시 핀(34)을 수용하기 위해 도킹 포트(docking port) (36)를 포함한다. 표시 핀(34)이 완전히 도킹포트(36)내에 끼워지도록 카메라(14)가 레일(12) 상에 설치될 때, 레일(12)의 힌지 측(12b)은 카메라(14)의 베이스(32) 방향으로 이동한다. 그럼으로써 카메라(14)는 레일(12)에 안정하게 장착된다.
그리고 각 레일(12)은 제1 단부(38)와 제2 단부(44)를 포함한다. 제1 단부는 이러한 실시예에서 카메라 출력 전송을 위해 두개의 로킹 핀(40)과 보호되는 전송 릴레이 포트(42)를 포함한다. 제2 단부(44)는 로킹핀(40)을 수용하기 위한 2개의 가이드 홀(46; 안내구멍)을과 전송 수신 포트(48)을 포함한다. 그러므로 한 레일(12)의 제1 단부(38)는 다르 레일(12)의 제2 단부(44)와 맞물릴 수 있게 된다. 그래서 각 레일(12)은 모듈이며 기능적으로 어레이(10)을 생성하기 위해 다른 레일에 연결될 수 있다.
일단 카메라(14)가 안정적으로 레일(12)에 설치되면, 카메라(14)는 카메라 출력이 VCSEL를 통해 레일(12)에 전송될 수 있도록 위치 지정된다. 각 레일(12)는 각 카메라(14)로부터 출력을 전송하기 위한 통신 경로를 포함한다.
비록 어레이(10)이 특정한 구조를 갖는 것으로 보여지지만, 실제로 레일(12)과 카메라(14)의 모든 구조는 본 발명의 범위 내에 있다. 예를 들어 어레이(10)는 카메라(14)의 선형 어레이, 카메라(14)의 2차원 어레이, 카메라(14)의 3차원 어레이, 혹은 그러한 어레이의 모든 조합이 될 수 있다. 또한 어레이(10)는 단지 선형 세그먼트로 구성될 필요가 있는 것이 아니라, 오히려 곡선의 구간을 포함할 수 있다.
어레이(10)는 다수의 지지 수단들 중 어느 수단에 의해서도 지지된다. 예를 들어 어레이(10)는 벽이나 천정에 고정되는 식으로 장착될 수 있다. 즉 어레이(10)는 환경 내 위치로 휠(wheel)-이동하거나 혹은 케이블로부터 지지될 수 있는 이동 가능 프레임에 안전하게 장착될 수 있다.
도 3은 어레이(10) 부분의 한 예이다. 도시된 바와 같이 어레이(10)은 5개 열의 레일(12a - 12e)을 포함한다. 상기 레일(12a - 12e) 모두는 실제로 중앙 열(12c)을 통과하는 중앙면을 향하고 있다. 결과적으로 중앙 열(12c)과 동일한 평면에 배치된 모든 대상의 경우 사용자는 밑면, 정면 및 상부로부터 반드시 그 대상을 볼 수 있게 된다.
언급한 바와 같이 어레이(10)의 레일(12)는 그와 동일한 결합구조를 가질 필요는 없다. 예를 들어 레일(12)의 일부가 직선 방향을 가질 수 있으며 반면 다른 레일들은 곡선방향으로 설치될 수 있다. 예를 들어 도 4는 곡선 레일을 이용한 결과의 카메라 정렬을 도시한 것이다. 도 4내 레일은 카메라(14)의 정렬이 쉽게 보일 수 있도록 투영되어 있다.
다른 실시예의 경우 각 레일은 선행 카메라의 위와 정면에 있는 각 카메라와 더불어 스텝(단계)과 같은 형식으로 구성된다. 그러한 정렬에서 사용자는 환경을 통해 앞쪽으로 이동하도록 선택할 수 있다.
마이크로 카메라(14)의 간격은 보여지는 대상, 마이크로 카메라(14)의 초점 거리 및 어레이(10)를 통과하는 이동 속도 등을 포함하는 특정 적용 사항에 따라 설정된다. 한 실시예에서 마이크로 카메라(14)들간의 거리는 통상적인 영화 릴 기록 영사기에 따라 근사값으로 구해질 수 있다. 대체로 시간 초 단위당 프레임에 의해 분리되는 환경을 통과하는 영사기의 속도로 프레임-간격 비율을 알게 된다.
예를 들어 다음 방정식에서 보는 바와 같이 일부 적용에서는 1인치마다 한 프레임이 취해진다. 통상적인 영사기는 초당 24 프레임을 기록한다. 그러한 영사기가 초 당 2피트 단위로 환경을 통과하여 이동될 때 하나의 프레임이 약 1인치마다 취해진다.
1프레임
영사기의 프레임은 본 발명의 카메라(14)와 유사하다. 그러므로 인치 당 1프레임은 결과적으로 환경의 끊김없는 뷰를 갖는 영화가 되며, 인치 당 하나의 카메라(14) 역시 끊김없는 뷰를 갖는다. 그러므로 본 발명의 한 실시예에서 카메라(14)는 대략적으로 1인치 떨어진 간격으로 설정된다. 그 결과 환경의 끊김 없는 뷰를 얻는다.
시스템 항해
이러한 실시예의 일반 작동이 도 1를 계속 참고하면서, 도 5를 참고로 기술된다. 스텝(110)에 도시된 바와 같이 사용자는 시작 카메라에 상응하는 환경의 사전 결정된 시작 뷰가 제공받는다. 이러한 시스템의 운영이, 서버 내 운영되는 소프트웨어에 의해 부분적으로 제어된다. 위에 언급한 바와 같이 상기 시스템은 어레이 내 각각의 카메라를 좌표와 조합한다. 그러므로 상기 시스템은 시작 카메라 노드의 좌표를 통보할 수 있다. 카메라 출력 및 그에 상응하는 뷰는 사용자의 입력을 수신할 때에만 변경된다.
사용자가 어레이를 통한 이동이나 항해하기를 원한다고 결정할 때 사용자는사용자 인터페이스 장치(24)를 통해 사용자 입력사항을 입력한다. 아래 설명되는 바와 같이 이러한 실시예의 사용자 입력은 일반적으로 어레이 내에서 좌우, 상하로 이동하는 것을 포함한다. 또한 사용자는 어레이 내 특정 카메라로 점프할 수 있다. 다른 실시예의 경우 전방, 후방, 대각선으로, 상향, 하향과 같은 입력 사항의 하위 설정이 사용된다. 사용자 인터페이스는 차례로 사용자 입력을 스텝(120)에서 서버로 전송한다.
다음으로 서버는 스텝(130)에서 사용자 입력을 수신하고, 입력사항을 디코딩 처리한다. 이러한 실시예에서 입력 디코딩은 일반적으로 어레이 내에서 사용자가 좌우, 상하의 어느쪽으로 이동할 지를 결정한다.
다른 한편으로 만약 수신된 사용자 입력이 후방 이동에 상응하지 않는 경우라면 서버(18)는 상기 입력이 어레이(10) 내에서 사용자의 우측 이동에 상응하는 가의 여부를 결정한다. 그러한 결정은 스텝(140) 내에 표시된다. 만약 수신된 사용자 입력이 우측 이동에 상응한다면 현재 노드 주소가 업데이트된 주소를 획득하기 위해 스텝(150)에서 X축을 따라 증분된다.
만약 수신된 사용자 입력이 어레이 내 우측 이동에 상응하지 않는다면 서버(18)는 입력 사항이 스텝(160)에서 어레이(10) 내 사용자 좌측 이동에 상응하는 가의 여부를 결정한다. 입력이 좌측 이동에 상응한다는 결정 하에 서버(18)는 업데이트된 주소에 도달할 수 있도록 X축을 따라 현재 노드 주소를 감소시킨다. 이는 스텝(170) 내에 표시된다.
만약 수신된 사용자 입력이 우측 또는 좌측 이동에 상응하지 않는다면,서버(18)는 입력이 어레이 내에서 상향 이동에 상응하는 가를 결정한다. 그러한 결정은 스텝(180)에서 이루어진다. 만약 사용자 입력이 상향 이동에 상응한다면, 스텝(190)에서 서버(18)는 업데이트된 주소를 획득하기 위해 Z축을 따라 현재 노드 주소를 증분한다.
다음으로 서버(18)는 수신된 사용자 입력이 어레이(10) 내에서 하향 이동에 상응한가를 결정한다. 그러한 결정은 스텝(200)에서 이루어진다. 만약 입력이 어레이(10) 내 하향 이동에 상응한다면 스텝(210)에서 서버(18)는 Z축을 따라 현재 노드 주소를 감소시킨다.
마지막으로 스텝(220)에서 서버(18)은 수신된 사용자 입력이 뷰를 특정 카메라(14)로 점프 혹은 변경하는 것에 상응하는 가의 여부를 결정한다. 도 5에 표시된 바와 같이 입력이 특정 카메라(14)로의 점프에 상응한다면, 서버(18)은 원하는 카메라 위치를 반영하기 위해 현재 노드 주소를 변경한다. 노드 주소를 업데이트 하는 것은 스텝(230)에서와 같이 표시된다. 다른 실시예에서는 입력은 특정한 카메라로서 사용자에 의해 인정되는 것이 아니라 무대 우측과 같은 현장에 대한 일부 기준에 의해 인정되는, 어레이(10) 내 특정 위치로 점프하는 것에 상응한다.
서버(18)는 수신된 사용자 입력을 여러 순서 및 방식으로 디코딩할 수 있다. 예를 들어 다른 실시예의 경우 서버(18)는 최초 사용자 입력이 상향 혹은 하향에 상응하는 가의 여부를 결정한다. 대체되는 또 다른 선호 실시예에서 사용자 항해는 3차원 어레이를 통과하는 전방, 후방, 좌우, 및 상하향 이동을 포함한다.
만약 수신된 사용자 입력이 인식된 입력의 어느 것에도, 즉 우측, 좌측, 상향, 하향 혹은 어레이 내 특정 위치로의 점프에도 상응하지 않는다면, 스텝 (240)에서 서버(18)는, 수신된 입력이 이해되지 않았음을 사용자(22)에게 디스플레이할 메시지를 발생시킴과 동시에 사용자 디스플레이 장치(24)에 전송될 메시지 신호를 발생시킨다. 다음, 상기 시스템(100)의 작동은 스텝(120)으로 이어지며, 서버(18)는 다음 사용자 입력의 수신을 기다린다.
축에 따르는 노드 주소의 증분 혹은 감소에 의해 혹은 특정 노드 주소로의 점프에 의한 현재 노드 주소의 조정 후에 서버(18)은 스텝(250)에서 사용자 뷰를 조정한다. 일단 뷰가 조정되면, 시스템(100)의 운영은 다시금 스텝(120)으로 이어지며, 서버(18)는 다음 사용자 입력의 수신을 기다린다.
다른 실시예의 경우 서버(18)는 계속해서 노드 주소를 업데이트하고, 수신된 사용자 입력에 기초하여 뷰를 조정한다. 예를 들어 사용자 입력이 "우측 이동"에 상응한다면, 시스템(100)의 작동은 계속해서 상이한 입력을 점검하면서 스텝 140, 150 및 250으로 이어질 것이다. 상이한 입력이 수신되면, 서버(18)는 계속해서 그에 따른 뷰를 업데이트한다.
선행하는 사용자 입력, 즉 우측, 좌측, 상향 및 하향 이동은 단순히 어레이를 통한 이동의 일반적인 설명이다. 비록 본 발명이 제한되지는 않지만, 이러한 선호되는 실시예에서 또한 그러한 일반적인 방향 각각으로의 이동은 사용자 입력에 기초하여 정의된다.
그러므로 도 6은 도 5의 스텝 140, 150 및 250에 따른 시스템 작동의 상세도이다. 또한 도 6이 더욱 상세한 한 방향 이동, 즉 우측 이동을 기술하는 반면 그와동일하게 상세한 이동이 다른 방향으로도 적용될 수 있다. 도시된 바와 같이 사용자 입력이 우측 이동에 상응하는 여부의 결정은 실제로 여러 결정사항을 필요로 한다. 아래 상세하게 기술된 바와 같이 그러한 결정들은 상이한 속도에서 어레이(10)를 통한 우측으로의 이동, 상이한 속도에서 추가적인 복합 소스 출력으로의 우측 이동 및 시스템(100)에 의해 무시된 사용자 입력사항 등을 포함한다.
본 발명은 사용자(22)로 하여금 상이한 속도로 어레이(10)를 항해하도록 허용한다. 지정도구(pointing device) (혹은 기타 인터페이스 장치)의 이동과 같은 사용자 입력사항에 의해 지시된 속도(즉 시간 단위당 횡단되는 카메라 노드의 수)에 따라 서버(18)는 임계 속도에서(n 시간 단위 당 노드), 임계 속도 이하에서(n-1 시간 단위당 노드), 혹은 임계속도 이상에서(n+1 시간 단위당 노드), 카메라 출력들간이 변이를 제어하는 알고리즘을 적용할 것이다.
어레이(10)를 통한 이동 속도는 대체되는 방법으로 하나의 카메라(14)에서 다른 카메라(14)로 전환되는 시간으로 표현될 수 있다.
특히 스텝(140a)에서 보여지는 바와 같이, 서버(18)는 사용자 입력이 임계 속도에서 우측 이동에 상응하는 가를 결정한다. 상기 임계 속도는 양호하게는 보여지는 기대 환경에 따라 시스템 운영자 또는 설계자에 의해 설정된 사전 결정된 어레이(10)를 통한 이동 속도이다. 또한 임계 속도는 초점거리, 카메라간의 간격, 카메라와 보여지는 대상간의 간격과 같은 다양한 요소에 따라 달라진다. 어레이(10)를 통과하는 이동 속도는 지정된 시간 주기 내에 횡단되는 카메라(14)의 수에 의해 제어된다. 그러므로 임계 속도에서 어레이(10)를 통과하는 이동은 1/1000초 당 횡단하는 카메라 노드 수 "n" 또는 한 카메라(14)에서 다른 카메라로 전환하기 위해 걸리는 시간 "s"에 해당한다. 동일한 실시예에서 1차원에서 어레이(10)를 통과 이동하는 임계 속도는 다른 차원에서 어레이를 통과 이동하는 임계속도와 같을 필요는 없다.
결과적으로 서버(18)는 1/1000초 당 노드 n에서 X축에 따라 현재 노드 주소를 증분한다.
현재의 선호되는 실시예에서 사용자는 초 당 24개의 카메라(14)를 횡단시킨다. 위에서 논의된 바와 같이 영사기는 초당 24프레임을 기록한다. 영사기와 본 발명 간의 유추로 임계속도에서 사용자는 대략 초당 24대의 카메라(14)를 횡단시키거나(그리고 서버(18)는 24대의 카메라 간에 전환한다), 혹은 대략 0.04167초당 하나의 카메라(14)를 횡단시킨다.
도 5에 표시된 바와 같이 사용자(22)는 임계 속도에서 뿐만 아니라, 스텝(140b)에 표시된 바와 같이 임계 속도 이상에서, 또는 스텝(140c)에서 표시된 바와 같이 임계 속도 미만에서 진행시킬 수 있다. 사용자 입력 "I"가 임계속도 이상에서 어레이(10)를 통과하는 이동을 지시한다면, 서버(18)는 예를 들어 1/1000초당 n+2 노드보다 큰 단위로 x축에 따른 현재 노드 주소를 증분시킨다. X축에 따른 1/1000초 당 n+1 노드에서의 현재 노드 주소의 증분 단계는 스텝 (150b) 내에 도시된다. 사용자 입력 "I"가 임계 속도 이하에서 어레이(10)를 통과하는 이동을 지시한다면, 서버(18)는 예를 들어 1/1000초 당 n-1 노드에서의 n보다 낮은 가변 노드에서 현재 노드 주소를 증분시킨다. 이러한 작동은 스텝 (150c)와 같이 표시된다.배율화 가능 어레이
사용자(22)가 제어를 해제할 때, 혹은 시스템(100)이 사용자의 자율권을 무시하도록 프로그램될 때, 즉 어레이(10)의 활성 매개변수 또는 결합구조가 극적인 형태를 요구하는 상황에 주의를 분산 혹은 집중시기키 위해 특정 시간 혹은 간격에서 변경되도록 사전 구성될 수 있을 때, 어레이(10)의 형태는 또한 전자공학적으로 배율화할 수 있으며 시스템(100)은, 사용자 이미지 경로를 "시작" 혹은 "임계 위치" 노드 또는 노드 링으로 용이하게 되돌리는 "무게 중심"을 이용하여 설계될 수 있다. 시스템 운영자는 실시간 조작 또는 사전 구성된 전자 프록시를 통해 순차적으로 지정된 카메라 어레이(10) 부분을 활성화시키거나 혹은 비활성화시킬 수 있다. 이러한 점은 극장 또는 공연장에서의 출처 및 무대용 보조를 유지하는데 중요하며, 그리고 또한 얼마나 자유롭게 사용자(22)가 어레이(10)를 항해해야 할 것인 지에 대한 관리를 실행하기 위해서도 중요한다.
이러한 실시예에서, 시스템(100)은 어레이(10)의 일부분이 특정 시간 또는 간격에 사용자(22)에 비유효하도록 프로그램될 수 있다. 그러므로 도 6의 스텝(140d)에서 계속해서 서버(18)는 사용자 입력이 어레이 통과 우측 이동에 상응하며, 항해 제어 알고리즘에 따르는 가의 여부를 결정한다. 항해 제어 알고리즘은 항해 제어 요소에 기초하여 서버(18)가 사용자의 원하는 이동이 허용되는 가의 여부를 결정하게 한다.
더욱 특별하게는 항해 제어 알고리즘은 서버(18) 내에 프로그램되며, 원하는 이동이 현재 노드 주소가 노드 좌표의 허용범위를 벗어나게 하는 지의 여부를 결정한다. 이러한실시예에서 노드 좌표의 허용 범위는 사전 결정되며, 그리고 서버(18)에 의해 통지된 바와 같이 하루의 시간에 따라 달라진다. 그러므로 이러한 실시예에서 항해 제어 요소는 시간을 포함한다. 관련 기술자에게 바람직하게도 허용 카메라 노드와 제어 요소는 메모리 내 저장된 표 내에 상호 연결될 수 있다.
다른 실시예의 경우 항해 제어 요소는 서버에 의해 통지된 바로서 보여지는 퍼포먼스의 시작에서부터 측정된 시간을 포함한다. 그러한 실시예에서 시스템 운영자는 어레이 내 사용자가 어떤 장면을 보게되는 어레이의 위치를 지시할 수 있다. 또 다른 실시예에서 항해 제어 요소는 어레이 통과 이동 속도이다. 예를 들어 사용자(22)가 더 빨리 어레이를 이동하거나 항해하면, 회전 범위는 더욱 넓어져야 한다. 기타 다른 실시예의 경우 노드 좌표의 허용 범위는 사전 결정되지 않는다. 하나의 실시예에서 항해 제어 요소 및 그로 인한 허용 범위는 입력 장치를 통해 서버와 통신을 하는 시스템 운영자에 의해 동적으로 제어된다.
사용자 입력이 항해 제어 알고리즘에 따르는 것으로 결정했다면 서버(18)는 계속 스텝(150d)에서 사전 결정된 경로에 따른 현재 노드 주소를 증분시킨다. 사전 결정된 경로에 따른 현재 노드 주소를 증분시킴으로써 시스템 운영자는 사용자(22)의 주의를 제어하거나 허용 카메라(14)의 특정 뷰에 집중시킬 수 있다. 그럼으로써 극장 및 공연장에서의 출처 및 무대용 보조를 유지할 수 있다.
사용자 입력이 항해 제어 알고리즘에 따르는 다른 실시예의 경우 서버(18)는 사전 결정된 경로를 따라 사용자를 이동시키지 않는다. 대신 서버(18)는 허용 사용자의 입력만을 기다리며, 현재 노드에 뷰를 고정시킨다. 서버(18)가 허용 노드 좌표를 나타내는 사용자 입력을 수신할 때에만, 서버(18)는 사용자의 뷰를 조정한다.추가 소스 출력
어레이(10)를 통과하는 이동은 물론- 사용자(22)는 어레이(10) 내 사전 결정된 위치에서 보여지는 실제 환경에서 벗어날 것인지를 결정할 수 있다. 보다 구체적으로 사용자(22)는 컴퓨터 그래픽 형상, 가상 세계 형상, 애플릿, 필름 클립 및 기타 조작 및 실제 카메라 출력과 같은 추가적 소스 출력을 사용할 수 있다. 한 실시예에서 추가 소스 출력은 실제 환경의 뷰와 혼합된다. 다른 실시예의경우 사용자의 뷰는 실제 환경에서 추가 소스 출력에 의해 제공된 환경으로 완벽하게 전달된다.
보다 구체적으로 추가 소스 출력이 전자 저장장치(20)에 저장된다(바람직하게는 디지털 형식으로 저장됨). 추가 소스 출력을 보고자 하는 사항을 사용자(22)가 입력할 때 서버(18)는 추가 소스 출력을 사용자 인터페이스/디스플레이 장치(24)에 전송한다. 이러한 실시예의 경우 서버(18)는 단순히 추가 소스 출력을 사용자 디스플레이 장치(24)에 전송한다. 다른 실시예의 경우 서버(18)는 최초 추가 소스 출력을 카메라 출력과 혼합한 다음 혼합 신호를 사용자 인터페이스/디스플레이 장치(24)에 전송한다.
스텝 (140e)에서 표시되는 바와 같이 서버(18)는 사용자 입력이 어레이 내에서 소스 출력으로 이동하는 것에 상응하는 지의 여부를 결정한다. 만약 사용자(22)가 추가 소스 출력으로 이동할 것을 결정한다면, 서버(18)는 스텝 150a-d 중 어느 한 스템에서 승인된 업데이트된 카메라 출력용으로 추가 소스 출력을 대체함으로써뷰를 조정한다.
일단 현재 노드 주소가 스텝 150a-d 중 어느 한 스텝에서 업데이트되면, 서버(18)는 스텝(250)에서 사용자 뷰를 조정한다. 뷰를 조정할 때 서버(18)는 업데이트 된 카메라 노드 주소에 의해 확인된 카메라(14)의 출력으로 디스플레이되는 기존 또는 현재 카메라 출력을 "혼합한다". 출력을 혼합하는 것은 본 발명의 다른 실시예에서는 상이하게 달성된다. 본 실시예의 경우, 출력 혼합에는 특정 속도에서 기존 카메라 출력을 새로운 현재 노드 주소가 있는 카메라(14)의 출력으로 전자적으로 변환하는 것이 필요하다.
이러한 경우 나타나는 상기 혹은 기타 선호되는 실시예에서 카메라 출력은 동기화된다. 선행 기술에 공지된 바와 같이 "동기 발생기"로부터의 동기화 신호가 카메라에 공급된다. 동기 발생기는 비디오 편집 시에 사용되는 그러한 형태를 취할 수 있으며 그리고 다른 실시예의 경우에는 서버의 부분, 허브, 및/또는 어레이에 연결된 분리 컴포넌트 등을 포함할 수 있다.
위에 기술된 바와 같이 임계 속도에서 서버(18)는 카메라 출력을 대략 초당 24 프레임의 비율, 또는 0.04167 초당 1프레임의 비율로 전환한다. 만약 사용자(2)가 임계 속도 이하에서 어레이(10)를 통과 이동하고 있다면 중간 카메라(14)의 출력은 사용자가 임계 속도에서 이동하고 있는 경우보다 비교적 긴 기간동안 각각 디스플레이 된다. 마찬가지로 사용자가 임계속도 이상에서 항해할 때 각 출력은 비교적 짧은 기간동안 디스플레이된다. 다시 말해서 서버(18)는 어레이(10)를 통과 이동하는 속도에 기초하여 전환 속도를 조정한다.
물론 본 발명의 단순한 실시예의 사용자는 단지 임계속도에서만 항해할 수 있다.
또 다른 대체되는 실시예에서 출력 혼합은 기존 또는 현재 출력과 업데이트된 카메라 노드 출력을 혼합함으로써 달성된다. 또 다른 실시예의 혼합은 기존 뷰를 새로운 뷰로 디졸브시키는 것을 필요로 한다. 또 다른 실시예의 출력 혼합은 사용자 디스플레이 장치의 프레임 재생(refresh) 비율을 조정하는 것을 포함한다. 추가적으로 어레이 통과 이동 속도에 기초하여 서버는 실제 속도감을 전달하기 위해 동작을 흐릿하게 할 수 있다.
또 다른 실시예에서 서버는 카메라 뷰들 간에 순간적으로 보여지는 블랙 스크린(black screen) 을 야기한다. 그러한 실시예는 영화 릴 내 프레임들 간의 공백 필름(blank film)과 유사하다. 더욱이 비록 항상 장점이 있는 것은 아니지만, 그러한 블랙 스크린은 한 뷰에서 뒤에 이어지는 뷰로의 생리적인 "전환"을 감소시킨다.
상이한 속도에서 어레이를 통과하는 이동에 상응하는 사용자 입력은 키패드 상의 상이한 키 누름, 조이스틱의 상이한 위치, 시간의 사전 결정된 길이에 대한 지정된 위치에 조이스틱의 위치 설정과 같은 것을 포함한다. 그와 유사하게 추가 소스 출력으로 이동하기 위한 결정은 특정 키 누름, 조이스틱 이동 등에 의해 지시될 수 있다.
다른 실시예의 경우 비록 항상 필요한 것은 아니지만, 뷰의 끊임 없는 진행을 보장하기 위해 서버(18)는 항상 사용자에게, 중앙 카메라, 즉 현재 카메라 노드와 업데이트된 카메라 노드 사이에 위치한 카메라의 일부 또는 전부로부터의 24개의 출력을 전송한다. 그러한 실시예는 도 7a-7g을 참고로 기술된다. 특히 도 7a는 사용자의 원근감으로부터 X축에 따라 혹은 좌우측으로 확장되는 어레이(10)의 곡선 부분을 도시한다. 그러므로 서버(18)이 카메라(14)와 조합하는 좌표는 단지 X좌표에서만 다르다. 보다 구체적으로 그러한 실례의 용도로 카메라(14)에 순차적인 번호를 기입해서 생각해 볼 수 있는데, 제1 순서 즉 번호 "1"인 최 좌측 카메라(14)를 이용하여 시작하는 것이다. 각 카메라(14)의 X좌표는 어레이 내 카메라 위치와 동일하다. 도시 용도로 특정 카메라가 14-X로 표시된다. 여기서 X는 어레이(10) 내 카메라 위치와 동일하며, 그러므로 상기 표시는 조합된 X 좌표이다.
일반적으로 도 7a-7g는 가능한 사용자 어레이(10) 통과 이동을 도시한다. 보여질 환경은 세가지 대상 즉, 602, 604, 606을 포함하고 있으며 그 중 첫번째와 두 번째는 번호가 매겨진 표면을 포함하고 있다. 이들 번호 매긴 표면은 사용자 조망에 있어 변화하는 것을 더 잘 평가할 수 있게 해줌을 명백히 알 수 있다.
도 7a에서는 어레이(10) 중에서 6 개의 카메라(14-2, 14-7, 14-11, 14-14, 14-20, 14-23)가 구체적으로 지적되어 있다. 각 카메라의 상의 경계는 14-2a, 14-7a, 14-11a, 14-14a, 14-20a, 14-23a의 선 쌍에 의해 구분되어 있으며, 각각 14-2, 14-7, 14-11, 14-14, 14-20, 14-23로 구분된 카메라로부터 방사되고 있다. 아래에 기술하는 바와 같이 현재 예에서는 주위의 상이나 시계가 14-2, 14-7, 14-11, 14-14, 14-20, 14-23로 각기 구분된 카메라에 해당하는 뷰나 시계가 되도록 사용자(22)가 어레이(10)을 통해서 X 축을 따라 항해를 한다.
본 예는 사용자(22)에게 14-2 카메라로부터 시작 뷰를 제공한다. 이 뷰는 도7b에 도시된다. 물체(702)의 더 좋은 뷰를 가지기를 원하는 사용자(22)는 키보드의 키 "7"을 누른다. 이러한 사용자 입력은 서버(18)로 전달되어 해석된다.
서버(18)은 카메라(14-7)에 대한 어레이를 통하여 이동하거나 점프하는 것에 해당하는 것과 같이 키 "7"을 인식하도록 프로그램이 되어 있기 때문이다. 서버(18)는 현재 카메라 노드 주소의 X축을 7로 바꾸고 카메라 14-7의 출력을 선택하며 사용자(22)에 보내진 뷰나 이미지를 조정한다. 위에서 설명한 것처럼뷰을 조정하는 것은 현재 및 갱신된 카메라의 노드 출력 혼합을 포함한다. 반대로 출력을 혼합하는 것은 중간 카메라 출력을 카메라 14-2로부터 14-7까지의 불연속뷰을 이음새 없는 연속적인뷰으로 달성하기 위하여 스위치 하는 것을 포함한다. 이것이 사용자(22)에게 보여지는 물체 주위에서 움직이고 있다는 시각과 느낌을 준다. 카메라 14-7로부터 본뷰이 도 7c에 나와 있다. 위에서 언급한 것처럼 카메라 노드에서의 점프가 미리 정해진 한계보다 크면 서버(18)은 중간 출력의 일부 또는 전부를 방출한다.
키보드 상의 오른쪽 화살("right arrow") 키를 누르면 사용자(22)는 시스템(100)에 임계속도에서 오른 쪽으로 항행하고자 하는 바람을 나타낸다. 서버(18)는 지시된 바와 같은 이러한 입력을 받아서 해석하고 현재의 카메라 노드 주소를 n=4 만큼 증가시킨다. 결과적으로 갱신된 카메라 노드 주소는 14-11이다. 서버(18)는 카메라 14-11의 출력을 카메라 14-7의 출력과 혼합하게 한다. 다시 이것은 보여지는 물체 주위로 항행하고 있다는 시각과 느낌을 사용자(22)에게 주기 위해서 중간 카메라 (예, 14-8, 14-9 및 14-10)의 출력을뷰에 스위치 하는 것을 포함한다. 사용자(22)에게 도 7d에 보인 것처럼 카메라 14-11의뷰이 주어진다.
사용자(22)는 아직도 처음 물체(702)에 관심이 있어 사용자 출력에 들어간다. 예를 들어 임계속도 이하에서 오른 쪽으로 움직이는 바람을 나타내는 "alt-right arrow"에 들어간다. 따라서 서버(18)은 카메라 14-14에 갱신된 카메라 노드 주소를 n-1 노드 만큼 본 예에서는 3 만큼 증가시킨다. 카메라 14-11과 14-14로부터의 출력이 혼합되어 사용자(22)에게는 카메라 14-11과 14-14와 관련된 이음새 없는 뷰가 제시된다. 도 7e는 결과적으로 나타나는 카메라 14-14의 뷰을 도시한다. 첫번째 물체 702 직후 거의 볼 것이 없는 상태에서, 사용자(22)는 어레이(10)를 통하여 신속하게 즉 임계속도를 초과하는 속도에서 움직이는 희망을 나타내는 "shift-right arrow"와 같은 사용자 입력에 들어간다. 서버(18)은 사용자 입력을 해석하고 현재 노드 주소를 n+2 또는 본 예에서는 6 만큼 증가시킨다. 갱신된 노드 주소는 이처럼 카메라 14-20에 해당한다. 서버(18)은 카메라 14-14와 14-20의 출력을 혼합하며 이것은 중간 카메라 14-15와 14-19의 출력을 뷰에 스위치 하는 것을 포함한다. 결과적으로 나타나는 카메라 14-20의 뷰이 사용자(22)에게 보여진다. 도 7f에 보인 것처럼 사용자(22)는 이제 두 번째 물체 704를 본다.
세 번째 물체 704에 관심을 가지게 되면 사용자(22)는 어레이(10)을 통하여 천천히 움직이기를 희망한다. 따라서 사용자(22)는 임계속도 이하에서 오른 쪽으로 움직이고자 하는 바램을 나타내는 "alt-right arrow"에 들어간다. 일단 서버(18)이 받아진 사용자 입력을 해석하게 되면 그것은 현재의 카메라 노드 주소를 X 축을 따라 카메라 14-23에 3 만큼 갱신시킨다. 다음 서버(18)은 카메라 14-20와 14-23의출력을 혼합하며 그리하여 사용자(22)에게 카메라 14-23을 통하여 이음새 없는 연속 뷰을 제공하게 된다. 결과적으로 나타나는 뷰 14-23a이 도 7g에 도시된다.
기타 데이터 장치들
카메라 이외의 장치는 어레이에 산재될 수 있음을 이해해야 한다. 동작 감지기와 마이크로폰 등의 이들 다른 장치들은 처리를 위한 데이터를 서버에 제공한다. 예를 들어, 다른 실시예에서는 동작 감지기와 마이크로폰으로부터 출력은 서버에 보내져 어레이의 크기를 조절하는데 사용된다. 보다 구체적으로 말해서, 허용될 수 있는 카메라 노드(메모리에 저장된 표에 정의된 것처럼)는 원하는 출력을 가진 감지기나 마이크로폰 근처에 즉 동작이나 소리가 있는 곳에 있는 것들이다. 이처럼 항해 제어요소는 이러한 다른 장치들로부터 출력을 포함한다. 대안으로 감지기나 마이크로폰으로부터 출력은 사용자에게 제공된다.
카메라 어레이가 보여지는 주위와 카메라 가운데 산재된 다중 마이크로폰을 포함하는 다른 실시예가 이제 도 8을 참고로 하여 기술될 것이다. 시스템(800)은 일반적으로 서버(804)에 연결된 카메라(802)의 어레이를 포함하며, 이것은 다시 하나 이상의 사용자 인터페이스에 연결되어 장치(806)와 전자 저장장치(808)를 보여준다. 허브(810)는 어레이(802)로부터 출력을 모아 서버(804)로 보낸다. 보다 구체적으로 어레이(802)는 서로 접속되어 있는 모듈 상의 레일 812를 구성하고 있다. 각 레일(812)은 중앙에 위치한 다중 마이크로 카메라(814)와 마이크로폰(816)을 운반한다. 또한 시스템(800)은 어레이(802)로부터 물리적으로 분리된 마이크로폰(818)을 포함하고 있다. 카메라(814)와 마이크로폰(816, 818_의 출력은처리를 위하여 서버(804)에 연결되어 있다.
일반적으로 시스템(800)의 작동은 도 1 내지 도 2d와 도 5 내지 도 6의 시스템(100)에 관하여 기술한 것처럼 진행한다. 하지만 이미 설명한 시스템(100)의 작동 이후에는 서버(804)는 마이크로폰(816, 818)의 음성 출력을 받아 카메라 출력의 경우처럼 사용자에게 음성 출력을 선택적으로 보낸다. 서버(804)는 현재의 카메라 노드 주소를 갱신시키고 사용자의 뷰을 변경시키며, 그것은 또한 사용자에게 전송된 음성 출력을 변경시킨다. 현재의 실시예의 경우 서버(804)는 메모리에 주어진 마이크로폰과 함께 관련된 카메라 노드 범위를 저장했다. 즉, 각 레일 814의 카메라(814)는 특정 레일 810 상의 마이크로폰(816)과 관련되어 있다. 사용자가 어레이(802)의 끝을 넘어서 항행을 시도하는 경우에는, 서버(804)는 카메라 항행이 허용될 수 없음을 결정하고 대신 어레이(802) 옆에 있는 마이크로폰(818)에 마이크로폰 노드 출력을 갱신시킨다.
다른 실시예의 경우 서버(804)는 특정 지역에 카메라 노드가 주어진 마이크로폰과 함께 관련되어 있는 데이터베이스를 포함하고 있을수 있다. 예를 들면 (X, Y, Z) 좌표 (0, 0, 0), (10, 0, 0), (10, 5, 0), (0, 5, 0), (0, 0, 5), (10, 0, 5), (10, 5, 5)와 (0, 5, 5)로 정의되는 사각은 주어진 마이크로폰과 관련되어 있다. 어레이에서 사용자 위치(또는 뷰)에 바탕을 둔 일련의 마이크로폰 중에서 하나를 선택하는 것은 시각적 전망과 일치하는 주위의 음성 전망을 사용자에게 제공한다. 위에서 설명한 실시예의 서버는 여러 알려진 구성 중에서 아무 것이나 취할수 있음을 이해해야 한다. 본 발명과 함께 사용하기에 적합한 서버 구성의 두 가지 예는도 9와 10을 참조하여 기술된다. 처음으로 도 9로 돌아가서, 서버(902), 전자 저장장치(20), 어레이(10), 사용자 (1, 2, 3,..N) 22-1 22-N 및 관련 사용자 인터페이스/디스플레이 장치(24-1 24-N)을 볼 수 있다.
서버(902)는 부품 가운데서 관련 ROM(906) 및 RAM(908)에 연결된 하나 이상의 CPU( 904)의 형태로 처리 수단을 포함하고 있다. 일반적으로 ROM(906)은 서버(902)의 작동을 지시하는 프로그램을 저장하기 위한 것이다. 그리고 RAM(908)은 작동 중 CPU (904)에 의하여 사용되는 변수와 값을 저장하기 위한 것이다. 또한 사용자 인터페이스/디스플레이 장치(24)는 CPU(904)에 연결되어 있다. 다른 실시예의 CPU는 불연속 함수를 각각 수행하는 몇 개의 처리 장치를 구성함을 이해해야 한다.
메모리 제어기(910)은 CPU(904)와 전자 저장장치(20)에 연결되어 있다. CPU(904)의 지시 하에서 메모리 제어기(910)은 저장장치(20)으로의 접근(판독 및 기록)을 제어한다. 메모리 제어기(910)은 서버(902)의 일부로 보여짐에도 불구하고 그것은 저장장치(20)에 위치하고 있다는 것을 이해해야 한다.
작동 중 CPU(904)는 버스 912를 통하여 어레이(10)으로부터 카메라 출력을 받는다. 위에서 기술한 것처럼 CPU(904)는 사용자 인터페이스/디스플레이 장치(24)에 디스플레이를 하기 위한 카메라 출력을 혼합한다. 어느 출력이 혼합될 것인가는 각 사용자(22)에 의하여 선정되는 상에 달려있다. 특수하게 각 사용자 인터페이스/디스플레이 장치(24)는 버스 914를 가로 질러 디스플레이 되는 뷰를 정의하는 사용자 출력을 전송한다. 일단 CPU(904)가 적당한 출력을 혼합하면 그것은 결과 출력을 버스 916를 통하여 사용자 인터페이스/디스플레이 장치(24)에 전송한다. 보인 것처럼본 실시예에서는 각 사용자(22)는 독립적으로 서버(902)에 접속되어 있다.
버스 912는 카메라 출력을 저장을 위해서 저장장치(20)에 운반한다. 카메라 출력을 저장할 때 CPU(904)는 메모리 제어기(910)에 지령을 내려 저장장치(20)의 특정 위치 메모리에 각 카메라 14의 출력을 저장하도록 한다.
디스플레이 되는 뷰가 이전에 저장장치(20)에 저장된 경우 CPU(910)는 메모리 제어기(910)로 하여금 적당한 카메라 출력을 회수하기 위하여 저장장치(20)에 접근하도록 한다. 이와 같이 출력은 그것이 혼합되는 버스 918을 통하여 CPU(904)에 전송된다. 또한 버스 918은 사용자(22)에 전송을 하기 위해서 CPU(904)에 추가로 소스 출력을 운반한다. 어레이(10)으로부터 직접 받아진 출력의 경우처럼 CPU(904)는 출력을 혼합하여 적당한 뷰를 사용자 인터페이스/디스플레이 장치(24)에 전송한다.
도 10은 본 발명의 다른 실시예에 따른 서버 구성을 보여준다. 거기에 보인 것처럼 서버(1002)는 일반적으로 제어 중앙처리장치 (CPU) 1004, 각 사용자(22)에 관련된 혼합 CPU(1006) 및 메모리 제어기(1008)을 구성한다. 제어 CPU(1004)는 ROM (1010)과 RAM(1012)을 결합시켰다. 마찬가지로 각각의 혼합 CPU(1006)는 ROM(1014)과 RAM(1016)을 결합시켰다.
위에 기술한 기능성을 달성하기 위하여 어레이(10)으로부터 카메라 출력은 버스(1018)를 통하여 혼합 CPU 1로부터 N1006-1, 1006-N까지 각각 연결되어 있다. 작동 중에 각 사용자(22)는 제어 CPU(1004)에(버스(1020)를 통하여) 전송하기 위하여 인터페이스/디스플레이 장치(24)에 있는 출력에 들어간다. 제어 CPU(1004)는 입력을 해석하여 버스(1022-1 및 1022-N)을 통하여 제어 신호를 혼합 CPU N1006-1,1006-N으로 전송한다. 그리하여 그들로 하여금 버스(1018)에 받아진 어느 카메라 출력을 혼합할 것인지 지시한다. 그 이름이 의미하는 것처럼 혼합 CPU(N1006-1, 1006-N)은 적당한 뷰를 발생시키기 위하여 출력을 혼합하며 결과 뷰를 버스(1024-1, 1024-N)를 통하여 사용자 인터페이스/디스플레이 장치(24-1, 24-N)에 전송한다. 관련 있는 다른 실시예에서는 각 혼합 CPU(1006)는 출력을 하나 이상의 사용자(22)에 다중 전송한다. 어느 출력이 혼합되어 각각의 사용자(22)에 전송될 것인가 하는 지시는 제어 CPU(1004)로부터 나온다.
버스(1018)은 카메라 출력을 혼합 CPU(N1006-1과 1006-N) 뿐만 아니라 저장장치(20)에 접속시킨다. 반대로 제어 CPU(1004)에 의해서 제어되는 메모리 제어기(1008)의 제어 하에서 저장장치(20)은 카메라 출력을 알려진 저장 위치에 저장한다. 제어 CPU(1004)에 사용자 입력이 저장된 뷰를 보고자 하는 사용자(22)의 희망을 나타낼 때, 제어 CPU(1004)는 메모리 제어기(1008)로 하여금 저장장치(20)으로부터 적당한 뷰를 회수하게 한다. 이러한 뷰를 버스(1026)를 통하여 혼합 CPU (1006)으로 회수된다. 추가 소스 출력이 버스(1026)을 통하여 역시 회수된다. 제어 CPU(1004)는 혼합 CPU(1006-1 및 1006-N)에 제어신호를 전달하여 어느 출력이 혼합되고 디스플레이 될 것인지 나타낸다.
입체적인 뷰
주위의 입체적인 뷰를 사용하는 것은 본 발명의 범위 내에 있다는 것이 이해해야 한다. 입체 뷰를 실현하기 위하여 시스템은 어레이(또는 전자저장장치)로부터 회수하여 동시에 두 카메라로부터 적어도 출력의 일부분을 사용자에게 전송한다.서버 처리 요소는 입체 출력을 달성하기 위하여 이들 카메라의 출력을 혼합한다. 사용자에게 제공된 각 뷰를 이러한 입체 출력에 바탕을 두고 있다. 한 가지 입체적인 실시예에서 어레이에서 두 개의 이웃한 출력이 한 가지 입체 출력을 생성하기 위해서 사용된다. 도 7a-7g의 표기를 사용하여 한 가지 뷰를 카메라(14-1, 14-2)로부터 온 입체 뷰이다. 다음 뷰는 카메라 14-2와 14-3 또는 두 가지 다른 카메라의 입체적인 출력에 바탕을 두고 있다. 이와 같이 이러한 실시예에서 사용자는 주위의 이음새 없는 입체 뷰를 보여주는 것과 같은 추가 특징을 제공받는다.
다중 사용자
상술한 바와 같이 본 발명은 다중 사용자로 하여금 서로 독립적인 어레이를 통하여 동시에 항행할 수 있게 해준다. 다중 사용자를 수용하려면 위에 기술한 시스템은 다중 사용자로부터 입력을 구분하여 각 사용자 입력에 적합한 별도 카메라 출력을 선정한다. 이러한 하나의 실시예에서 서버는 그 사용자와 관련된 특정 메모리 위치에 해당 노드 주소를 저장 함으로서 각 사용자와 관련된 현재의 카메라 노드 주소를 추적한다. 마찬가지로 각 사용자 입력은 해당되는 사용자 인터페이스 장치에 의해서 사용자 입력에 첨부되는 메시지 꼬리표의 사용과 함께 특정 메모리 위치와 관련된 것으로서 구분이 되고 인식이 된다.
다른 실시예의 경우 둘 이상의 사용자가 앞뒤로 움직이며 주위의 동일한 뷰를 가지도록 하는 연결을 선택할 수도 있다. 이러한 실시예에서 각자는 다른 사용자를 '가이드'로 이용하기 위해서 각자 코드에 의해서 인식하는 것을 포함한다. 다른 사용자 입력은 서버로 하여금 사용자 연결을 해제하고 각 사용자로 하여금 어레이를 통해서 자신의 이동을 제어하도록 한다.
해당되는 실시예들
본 발명은 어떤 선호되는 실시예들에 관하여 기술되었음에도 불구하고, 통상의 기술을 가진 사람에게도 명백한 다른 실시예들도 본 발명의 범주에 속하는 것으로 간주된다. 따라서 본 발명의 범위는 여기 첨부하는 청구사항에만 한정되는 것으로 간주된다.

Claims (119)

  1. 제1 사용자에게 주위환경의 제1 디스플레이를 제공해주고 제2 사용자에게 주위환경의 제2 디스플레이를 제공해주는 텔레프레전스 시스템에 있어서,
    각 카메라는 주위환경의 연관 뷰를 가지고 있고, 연관 카메라 출력은 연관 뷰를 대표하며, 적어도 하나의 카메라 경로를 포함하고 있는 카메라 어레이와;
    어레이에 있는 제1 경로를 따라 이동과 관련된 제1 사용자 입력을 가지고 있는 제1 사용자와 관련된 제1 사용자 인터페이스 장치와;
    어레이에 있는 제2 경로를 따라 이동과 관련된 제2 사용자 입력을 가지고 있는 제2 사용자와 관련된 제2 사용자 인터페이스 장치와;
    사용자 입력을 수신하기 위한 사용자 인터페이스 장치에 연결되고, 수신된 제1 입력을 해석하고 제1 경로에 있는 카메라 출력을 선택하도록 배치되며, 수신된 제2 입력을 해석하고 제2 경로에 있는 카메라 출력을 제1 입력과는 별개로 선택하도록 구성되므 제1 사용자와 제2 사용자에게 어레이를 통해서 동시에 독립적으로 항해할 수 있게 해주는 적어도 하나의 처리 요소를 포함하는 것을 특징으로 하는 텔레프레전스 시스템.
  2. 제1항에 있어서, 제1 사용자와 연관되고 처리 요소에 접속된 제1 디스플레이 장치와;
    제2 사용자와 연관되고 처리 요소에 접속된 제2 디스플레이 장치를 더 포함하고,
    상기 처리 요소는 수신된 제1 입력에 바탕을 둔 제1 출력을 선택하여, 제1 출력을 제1 디스플레이 장치에 보내고 그 제1 디스플레이 장치는 선택된 제1 출력을 디스플레이 하기 위하여 구성되어 있으며, 수신된 제2 입력에 바탕을 둔 제2 출력을 선택하여, 제2 출력을 제2 디스플레이 장치에 보내고 제2 디스플레이 장치는 선택된 제2 출력을 디스플레이하도록 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  3. 제2항에 있어서, 상기 처리 요소는 실시간으로 처리하도록 배치되어 있고, 상기 디스플레이 장치는 실시간으로 디스플레이하도록 배치되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  4. 제1항에 있어서, 상기 어레이는 복수의 항해 가능한 카메라 경로를 포함하며, 상기 제1 경로는 상기 제2 경로와 상이한 것을 특징으로 하는 텔레프레즌스 시스템.
  5. 제1항에 있어서, 상기 처리 요소는 제어 처리 요소와 복수의 혼합 처리 요소를 포함하고 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  6. 제1항에 있어서, 상기 처리 요소는 또한 어레이에 접속되어 있는 것을 특지으로 하는 텔레프레즌스 시스템.
  7. 제1항에 있어서, 상기 처리 요소는 복수의 혼합 처리 요소를 포함하고 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  8. 제2항에 있어서, 상기 제1 사용자 인터페이스 장치 및 상기 제1 디스플레이 장치는 다른 형태의 통신 연결에 의해서 처리요소에 접속되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  9. 제1항에 있어서, 상기 사용자 인터페이스 장치는 다음 형태의 통신 연결, 인터넷 접속, 마이크로웨이브 접속, 위성 접속, 무선 접속, 광섬유 접속 중 하나에 의해서 처리요소에 접속되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  10. 제1항에 있어서, 상기 제1 사용자 인터페이스 장치 및 상기 제2 사용자 인터페이스 장치는 다른 통신 연결에 의해서 처리요소에 접속되어 있는 것을 특징으로하는 텔레프레즌스 시스템.
  11. 제1항에 있어서, 상기 제1 사용자 인터페이스 장치와 상기 제2 사용자 인터페이스 장치는 상이하다는 것을 특징으로 하는 텔레프레즌스 시스템.
  12. 제1항에 있어서, 상기 카메라 어레이는, 숫 단부과 암 단부를 구비하고 한 레일의 숫 단부는 다른 레일의 암 단부와 연결 가능하며, 복수의 카메라가 각 레일에 연결 가능한, 복수의 모듈상 레일을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  13. 제1항에 있어서, 상기 카메라 어레이는 그 각각이 카메라를 둘러싸고 있는 중공 볼 조인트, 볼 조인트를 상호 연결하는 중공 봉 그리고 출력을 위한 통신 경로를 둘러싸고 있는 봉들을 포함하고 있는 텔레프레즌스 시스템.
  14. 제1항에 있어서, 어레이의 카메라는 대략 각각의 인치마다 한 개의 카메라의 밀도로 위치하는 것을 특징으로 하는 텔레프레즌스 시스템.
  15. 제1항에 있어서, 제1 카메라의 뷰가 제2 카메라의 뷰와 겹쳐지는 것을 특징으로 하는 텔레프레즌스 시스템.
  16. 제1항에 있어서, 상기 어레이는 제1 출력을 가지고 있는 제1 카메라 및 제2 출력을 가지고 있는 제2 카메라를 포함하며, 상기 처리 요소는 수신된 제1 사용자 입력에 맞추어 제1 및 제2 출력을 혼합하도록 구성되는 것을 특징으로 하는 텔레프레즌스 시스템.
  17. 제16항에 있어서, 수신된 제1 사용자 입력은 제1 카메라로부터 제2 카메라로 이동하고자 하는 희망을 나타내고, 상기 처리 요소는 스위치 속도로 제1 및 제2 속도 사이에서 전자적으로 스위치함으로서 제1 및 제2 출력을 혼합하도록 구성되는 것을 특징으로 하는 텔레프레즌스 시스템.
  18. 제 17항에 있어서, 상기 처리 요소는 스위치 속도를 조정 함으로서 출력을 혼합하도록 구성되는 것을 특징으로 하는 텔레프레즌스 시스템.
  19. 제1항에 있어서, 상기 제1 사용자 입력은 제1 경로를 통한 이동 속도 지시를 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  20. 제19항에 있어서, 상기 처리 요소가 미리 정해진 한계치에 속도 지시를 비교하고, 그리고 속도 지시가 미리 정해진 한계치를 초과하는 것을 결정할 때 그 경로에 있는 모든 카메라보다 작은 것에 해당하는 여러 가지 출력을 선택하도록 배치되는 것을 특징으로 하는 텔레프레즌스 시스템.
  21. 제19항에 있어서, 출력 수가 속도에 역비례하는 것을 특징으로 하는 텔레프레즌스 시스템.
  22. 제16항에 있어서, 제1 사용자 입력은 어레이를 통한 상대 이동 속도 표시를포함하며, 상기 처리 요소는 스위치 속도의 제1 출력으로부터 제2 출력으로 스위치 함으로서 제1 출력과 제2 출력을 혼합하도록 구성되고, 상기 처리 요소는 상대속도의 표시에 맞추어 스위치 속도를 조절하도록 추가 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  23. 제19항에 있어서, 상기 어레이를 통한 상대 이동 속도 표시는 어레이를 통한 좀 더 느린 이동 표시를 포함하며, 상기 처리 요소는 제1 카메라와 관련된 뷰가 느리게 이동하는 표시에 맞추어 비교적 좀 더 긴 시간 동안 디스플레이되도록 스위치 속도를 조절하는 것을 특징으로 하는 텔레프레즌스 시스템.
  24. 제16항에 있어서, 상기 처리 요소는 제1 카메라와 관련된 뷰를 제2 카메라 뷰와 같이 디졸브함으로서 출력을 혼합하도록 구성되는 것을 특징으로 하는 텔레프레즌스 시스템.
  25. 제16항에 있어서, 제1 사용자와 관련되며 상기 처리 요소에 접속되어 있는 제1 사용자 디스플레이 장치를 추가로 포함하며, 상기 제1 디스플레이 장치는 그것과 관련된 프레임 재생율을 가지고 있고, 상기 처리 요소는 프레임 재생율을 조절함으로서 출력을 혼합하도록 배치되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  26. 제16항에 있어서, 상기 처리 요소는 제1 및 제2 출력으로부터 복합 출력을 생성 함으로서 출력을 혼합하도록 배치되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  27. 제16항에 있어서, 상기 어레이는 제1 카메라와 제2 카메라 중간에 삽입된 적어도 하나의 다른 카메라를 포함하고, 프로세서는 제1 출력으로부터 적어도 한 카메라의 출력까지 그 다음 2차 출력까지 스위치 함으로서 제1 카메라와 제2 카메라의 출력을 혼합하도록 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  28. 제16항에 있어서, 상기 처리 요소는 이동 오점(blur)을 부가 함으로써 출력을 혼합하도록 구성되어 있는 특징으로 하는 텔레프레즌스 시스템.
  29. 제1항에 있어서, 상기 사용자 인터페이스 장치는 키보드를 포함하며, 사용자 입력은 키스트로크인 것을 특징으로 하는 텔레프레즌스 시스템.
  30. 제1항에 있어서, 상기 사용자 인터페이스 장치는 조이스틱을 포함하며, 사용자 입력은 조이스틱 이동인 것을 특징으로 하는 텔레프레즌스 시스템.
  31. 제1항에 있어서, 상기 사용자 인터페이스 장치는 마우스를 포함하며, 사용자 입력이 마우스 이동인 것을 특징으로 하는 텔레프레즌스 시스템.
  32. 제1항에 있어서, 상기 사용자 인터페이스 장치는 터치스크린을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  33. 제1항에 있어서, 상기 사용자 인터페이스 장치는 바이오 피드백 장치를 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  34. 제1항에 있어서, 상기 사용자 인터페이스 장치는 음성 인식 장치를 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  35. 제1항에 있어서, 상기 사용자 입력은 어레이의 특정 카메라 표시를 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  36. 제1항에 있어서, 상기 사용자 입력은 상하좌우로의 이동을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  37. 제34항에 있어서, 상기 사용자 입력은 전후로의 이동을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  38. 제1항에 있어서, 상기 처리 요소는 어레이의 허용동작과 비허용 동작 사이에서 구분하는 항해 제어 알고리즘인, 항해 제어 알고리즘에 맞추어 작동되는 것을 특징으로 하는 텔레프레즌스 시스템.
  39. 제38항에 있어서, 항해 제어 알고리즘은 항행 제어 인자에 맞추어 어레이를 통한 이동을 제어하는 항행 제어 인자를 더 포함하는 텔레프레즌스 시스템.
  40. 제39항에 있어서, 항해 제어 인자는 일시, 지속시간, 어레이를 통한 항해 속도, 어레이에 있는 장치의 출력, 운동 감지기의 출력, 마이크로폰 출력을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  41. 제1항에 있어서, 상기 처리 요소는 소정의 사용자 입력을 무시하도록 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  42. 제41항에 있어서, 상기 처리리 요소는 적어도 하나의 미리 정해진 카메라 출력을 선택하여 사용자를 미리 정해진 뷰로 향하게 함으로서 사용자 입력을 무시하도록 추가로 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  43. 제42항에 있어서, 상기 처리 요소는 일시에 바탕을 둔 미리 정해진 출력을 선택하도록 구성되어 있는 것을 특징으로 하는 시스템.
  44. 제42항에 있어서, 상기 처리 요소는 지속시간에 바탕을 둔 미리 정해진 출력을 선택하도록 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  45. 제41항에 있어서, 상기 처리 요소는 허용할 수 있는 사용자 입력을 기다리므로써 사용자 입력을 무시하도록 추가로 구성되는 것을 특징으로 하는 텔레프레즌스 시스템.
  46. 제41항에 있어서, 조작자 입력장 로부터 조작자 입력을 수신하기 위한 처리요소에 접속되어 있는 조작자 입력장치를 추가로 포함하며, 상기 처리 요소는 조작자 입력에 바탕을 둔 사용자 입력을 무시하도록 제어되는 것을 특징으로 하는 텔레프레즌스 시스템.
  47. 제1항에 있어서, 상기 시스템은 추가 소스 출력을 저장하는 메모리를 추가로 포함하며, 상기 사용자 입력은 추가 소스 출력 뷰잉 표시를 포함하고 상기 처리 요소는 추가 소스 출력 뷰잉 표시를 수신할 때 허용할 수 있는 카메라 출력과 추가 소스 출력을 혼합하도록 배치되는 특징으로 하는 텔레프레즌스 시스템.
  48. 제47항에 있어서, 상기 추가 소스 출력 뷰잉 표시는 소정의 카메라와 관련하여 사용자에게 이용 가능한 것을 특징으로 하는 텔레프레즌스 시스템.
  49. 제47항에 있어서, 상기 처리 요소는 카메라 출력과 추가 소스 출력을 합성함으로서 카메라 출력과 추가 소스 출력을 혼합하도록 배치되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  50. 제47항에 있어서, 상기 처리 요소는 카메라 출력으로부터 추가 소스 출력으로 스위치함으로서 카메라 출력과 추가 소스 출력을 혼합하도록 배치되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  51. 제47항에 있어서, 상기 추가 소스 출력은 컴퓨터 그래픽 사상, 가상 세계의 사상, 애플릿, 필름 클립, 및 에니메이션을 포함하고 있는 출력 그룹으로부터 출력을 포함하는 것을 특징으로 하는 텔레프레즌스 시스템.
  52. 제1항에 있어서, 각각이 출력을 가지고 있는 다수의 마이크로폰을 추가로 포함하며, 상기 처리 요소는 제1 사용자에게 전송을 위하여 수신된 제1 사용자 출력에 바탕을 둔 마이크로폰 출력을 선택하도록 구성되어 있는 것을 특징으로 하는 텔레프레즌스 시스템.
  53. 제52항에 있어서, 메모리 상관 카메라, 마이크로폰 및 선택된 카메라 출력을 마이크로폰 출력과 함께 상관시키는 메모리를 사용하여 마이크로폰을 선택하는 상기 처리요소에 접속된 메모리를 추가로 포함하는 텔레프레즌스 시스템.
  54. 사용자에게 원격 환경의 실시간 뷰를 제공하는 방법에 있어서,
    주위를 통하여 적어도 하나의 카메라 경로를 포함하는 카메라 어레이로부터 주위의 전자 이미지 수신하는 단계와;
    제1 사용자와 관련된 제1 사용자 인터페이스 장치로부터 제1 경로에서 이동을 나타내는 제1 입력을 수신하는 단계와;
    제2 사용자와 관련된 제2 사용자 인터페이스 장치로부터 제2 경로에서 이동하는 제2 입력을 수신하는 단계와;
    제1 처리 요소를 이용하여 제1 이미지를 제1 입력에 맞추어 제2 이미지와 혼합 함으로써 제1 혼합 이미지를 얻는 단계와;
    제2 처리 요소를 이용하여 제3 이미지를 제2 입력에 맞추어 제4 이미지와 혼합 하여 제2 혼합 이미지를 얻는 단계와;
    제1 사용자에게 제1 혼합 이미지를 순차적으로 실시간으로 제공하여, 제1 경로에서의 이동을 시뮬레이션하는 단계와;
    제2 사용자에게 제2 혼합 이미지를 순차적으로 실시간으로 제공하고 동시에 제1 사용자에게 제1 혼합 이미지를 제공하여, 제2 경로에서의 이동을 시뮬레이션 하는 단계를 포함하는 실시간 뷰 제공 방법.
  55. 제54항에 있어서, 상기 제1 처리 요소는 상기 제2 처리 요소와 상이한 것을 특징으로 하는 실시간 뷰 제공 방법.
  56. 제56항에 있어서, 상기 어레이는 다수의 항해 가능한 경로를 포함하며, 제1 경로가 제2 경로와 상이한 것을 특징으로 하는 실시간 뷰 제공 방법.
  57. 제54항에 있어서, 제1 이미지가 제3 이미지와 상이한 것을 특징으로 하는 실시간 뷰 제공 방법.
  58. 제54항에 있어서, 제1 이미지를 제2 이미지와 혼합하는 것은 제1 스위치 속도에서 제1 이미지로부터 제2 이미지로 스위치하는 것을 포함하며, 제1 혼합 이미지는 제2 이미지를 포함하며, 제3 이미지를 제4 이미지와 혼합하는 것은 제2 스위치 속도에서 제3 이미지로부터 제4 이미지로 스위치하며, 제2 혼합 이미지는 제2 이미지를 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  59. 제58항에 있어서, 제1 입력 수신은 제1 경로를 따라 제1 이동 속도의 표시를 수신하는 것을 포함하며, 제1 스위치 속도는 제1 이동 속도 표시에 바탕을 두고 있는 것을 특징으로 하는 실시간 뷰 제공 방법.
  60. 제59항에 있어서, 제2 입력의 수신은 제2 경로를 따라 제2 이동 속도의 표시를 수신하는 것을 포함하며, 제2 속도는 제1 속도보다 더 크고, 제2 스위치 속도는 제2 이동 속도 표시에 바탕을 두고 있고, 제2 스위치 속도는 제2 스위치 속도보다더 크다는 것을 특징으로 하는 실시간 뷰 제공 방법.
  61. 제60항에 있어서, 제3 이미지와 제4 이미지의 혼합은 제1 이미지가 제1 사용자에게 제공되는 것보다 상대적으로 더 긴 지속시간 동안 제2 사용자에게 제3 이미지를 제공하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  62. 제60항에 있어서, 제3 이미지와 제4 이미지의 혼합은 제2 이미지가 제2 사용자에게 제공되는 것보다 상대적으로 더 긴 지속시간 동안 제2 사용자에게 제4 이미지를 제공하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  63. 제54항에 있어서, 제1 이미지를 제2 이미지와 혼합하는 것은 제1 이미지를 제2 이미지와 합성하는 것을 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  64. 제63항에 있어서, 제3 이미지를 제5 이미지와 혼합하는 것은 제3 이미지와 제4 이미지 사이에서 스위치하는 것을 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  65. 제54항에 있어서, 제1 이미지를 제2 이미지와 혼합하는 것은 제1 이미지를 제2 이미지에 디졸브시키는 것을 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  66. 제54항에 있어서, 제1 이미지는 제1 카메라로부터, 제2 이미지는 제2 카메라로부터, 어레이는 제1 및 제2 카메라 사이에 삽입된 다른 카메라를 포함하며, 제1 이미지를 제2 이미지와 혼합하는 것은 제1 사용자에게 삽입된 카메라로부터의 이미지를 제공하는 것을 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  67. 제1 입력에 맞추어 제5 이미지로 제2 이미지를 혼합함으로서 제3 혼합 이미지를 얻는 단계와 제1 사용자에게 제3 혼합 이미지를 제공하는 단계를 추가로 포함하는 실시간 뷰 제공 방법.
  68. 제54항에 있어서, 제1 사용자 인터페이스 장치로부터 제3 입력을 수신하는 단계와 제3 출력을 무시하는 단계를 추가로 포함하는 실시간 뷰 제공 방법.
  69. 제68항에 있어서, 수신한 제3 입력을 무시하는 단계는 제1 사용자에게 소정의 이미지를 제시하는 단계를 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  70. 제68항에 있어서, 수신한 제3 입력을 무시하는 단계는 제1 사용자에게 제1 혼합 이미지를 계속해서 제공하고 제4 입력을 기다리는 단계를 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  71. 제54항에 있어서, 제1 입력 수신 단계는 제2 이미지를 추가 소스 출력 혼합 표시를 수신하는 단계를 포함하며, 제3 혼합 출력을 얻는 추가 소스 출력 혼합 표시를 수신하는 단계를 추가로 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  72. 제71항에 있어서, 제2 이미지를 추가 소스 출력과 혼합하는 단계는 제2 이미지로부터 추가 소스 출력으로 스위치 하는 것을 포함하는 것을 특징으로 하는 실시간 뷰 제공 방법.
  73. 사용자에게 주위 환경의 디스플레이를 제공하는 장치에 있어서,
    각 카메라는 주위 환경의 연관된 뷰를 가지고 있고 연관된 카메라 출력은 연관된 뷰를 대표하는 카메라 어레이와;
    어레이에 접속되며, 허용가능한 카메라를 구분하도록 배치되고, 그 출력은 사용자에게 제공되기도 하며, 허용불가능한 카메라의 경우, 그 출력이 사용자에게 제공되지 않는 적어도 하나의 처리 요소를 포함하는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  74. 제73항에 있어서, 상기 허용가능한 카메라는 시간을 변화하는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  75. 제74항에 있어서, 상기 허용가능한 카메라는 일시를 근거로 변화하는 것을특징으로 하는 주위 환경 디스플레이 제공 장치.
  76. 제73항에 있어서, 보여지는 환경이 이루어지고, 허용가능한 카메라가 수행 시작으로부터 지속시간을 근거로 변화하는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  77. 제73항에 있어서, 허용될 수 있는 카메라가 미리 정해지는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  78. 제77항에 있어서, 소정의 허용가능한 카메라의 표시를 저장하며, 상기 처리 요소에 접속된 메모리를 추가로 포함하는 것을 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  79. 제73항에 있어서, 사용자와 연관되며 상기 처리 요소에 접속된 사용자 인터페이스 장치를 추가로 포함하고, 상기 사용자 입력 장치는 어레이를 통해서 이동을 표시하며 사용자 입력을 근거로 허용가능한 카메라 출력을 선정하는 처리 요소에 사용자 입력을 제공하는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  80. 제79항에 있어서, 상기 처리 요소는 허용되지 않는 카메라에 해당하는 사용자 출력을 무시하도록 구성되는 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  81. 제80항에 있어서, 상기 처리 요소는 허용가능한 카메라에 해당하는 사용자 입력을 기다리므로서 허용되지 않는 카메라에 해당하는 사용자 출력을 무시하도록 구성되는 특징으로 하는 주위 환경 디스플레이 제공 장치.
  82. 제80항에 있어서, 처리 요소는 허용가능한 카메라 출력을 선택함으로서 허용되지 않는 카메라에 해당하는 사용자 출력을 무시하도록 구성되는 특징로 하는 주위 환경 디스플레이 제공 장치.
  83. 제73항에 있어서, 데이터 장치 출력을 근거로 하는 허용할 수 있는 카메라로서 적어도 하나의 처리 요소에 접속된 출력을 가진 카메라 이외의 데이터 장치를 추가로 포함하는 주위 환경 디스플레이 제공 장치.
  84. 제83항에 있어서, 상기 데이터 장치는 운동 감지기인 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  85. 제83항에 있어서, 상기 데이터 장치는 마이크로폰인 것을 것을 특징으로 하는 주위 환경 디스플레이 제공 장치.
  86. 입력에 맞추어 복수의 카메라로부터 사용자에게 주위 환경 뷰를 제공하는 방법에 있어서,
    원하는 카메라로부터 사용자에게 제공될 수 있는 뷰가 사용자에게 제공될 수 있는 뷰를 나타내는 사용자의 입력을 전자적으로 수신하는 단계와;
    허용가능한 카메라를 구분하는 단계와;
    원하는 카메라가 허용될 수 있는 것 중의 하나인지 결정하는 단계와;
    원하는 카메라가 허용될 수 있는 것 중의 하나가 아니라면, 사용자는 카메라로부터 뷰를 얻지 못하게 금지되는 단계를 포함하는 것을 특징으로 하는 주위 환경 뷰 제공 방법.
  87. 제86항에 있어서, 허용가능한 카메라는 사용자가 주위환경을 보고 있는 동안 변하는 것을 특징으로 하는 주위 환경 뷰 제공 방법.
  88. 제86항에 있어서, 허용가능한 카메라를 구분하는 단계는 일시를 근거로 하는 것을 특징으로 하는 주위 환경 뷰 제공 방법.
  89. 제86항에 있어서, 사용자가 주위환경을 보기 시작할 때를 알아차리는 단계를 추가로 포함하고, 허용가능한 카메라는 사용자가 주위환경을 보기 시작할 때로부터의 시간을 근거로 하는 것을 특징으로 하는 주위 환경 뷰 제공 방법.
  90. 제86항에 있어서, 주위 환경이 이루어지며, 허용가능한 카메라가 성능을 근거로 하는 것을 특징으로 하는 주위 환경 뷰 제공 방법.
  91. 사용자 입력에 응답하여 사용자에게 주위환경의 디스플레이를 제공하는 장치에 있어서,
    각 카메라는 주위 환경의 연관된 뷰를 가지고 있고 그리고 연관된 카메라 출력은 연관된 뷰를 대표하는 카메라 어레이와;
    추가 소스 출력을 저장하는 메모리와;
    추가 소스 출력을 수신하기 위한 메모리에 접속되며, 사용자 입력을 해석하도록 구성되며 사용자 입력을 근거로 사용자에게 제공할 카메라 출력, 사용자에게 제공할 추가 소스 출력, 또는 사용자에게 제공하는 카메라 출력 및 추가 소스 출력을 둘 다 선택하도록 구성되는 적어도 하나의 처리 요소를 포함하는 디스플레이 제공 장치.
  92. 제91항에 있어서, 상기 처리 요소는 카메라 출력과 함께 추가 소스 출력을 혼합하도록 구성되는 것을 특징으로 하는 디스플레이 제공 장치.
  93. 제92항에 있어서, 상기 처리 요소는 카메라 출력으로부터 추가 소스 출력으로 스위치함으로서 카메라 출력과 추가 소스 출력을 혼합하도록 구성되는 것을 특징으로 하는 디스플레이 제공 장치.
  94. 제91항에 있어서, 각각이 다른 사용자와 연관이 되어 있고 어레이의 카메라 중 이동에 관련된 사용자 입력을 가진, 처리 요소에 접속된 복수의 사용자 인터페이스 장치를 추가로 포함하는 디스플레이 제공 장치.
  95. 제91항에 있어서, 카메라 어레이는 숫 단부와 암 단부를 가지며 한 레일의 숫 단부는 다른 레일의 암 단부와 연결 가능하고, 복수의 카메라가 각 레일에 연결 가능한, 복수의 모듈상 레일을 포함하는 것을 특징으로 하는 디스플레이 제공 장치.
  96. 제91항에 있어서, 상기 어레이는 적어도 한 명의 사용자가 항행할 수 있는 카메라 경로를 포함하며, 상기 사용자 입력은 그 경로를 통한 이동 속도의 표시를 포함하는 것을 특징으로 하는 디스플레이 제공 장치.
  97. 제91항에 있어서, 상기 처리 요소는 사용자 입력을 무시하고, 적어도 하나의 소정의 카메라 출력을 선택함으로써 사용자를 미리 정해진 뷰로 향하도록 추가로 구성되는 것을 특징으로 하는 디스플레이 제공 장치.
  98. 제91항에 있어서, 상기 처리 요소가 항해 제어 인자를 근거로 소정의 출력을 선택하도록 추가로 구성되어 있는 디스플레이 제공 장치.
  99. 사용자에게 주위 환경의 뷰를 제공하는 방법에 있어서,
    카메라 어레이로부터 전자 이미지를 수신하는 단계와;
    어레이를 통한 이동을 표시하는 통신 연결 사용자 입력을 통해서 수신하는 단계와;
    사용자 입력을 근거로 하여 카메라 이미지를 선정하는 단계와;
    추가 소스출력을 보기 위한 희망을 나타내는 사용자 입력을 근거로 하여 메모리로부터 추가 소스 출력을 회수하는 단계와;
    사용자에게 어레이의 하나 이상의 점에서의 추가 소스출력을 제공하는 단계를 포함하는 주위 환경 뷰 제공 방법.
  100. 각각이 주위환경의 이미지를 대표하는 출력을 가지고 있는 카메라 어레이부터 주위 환경의 원격 시임리스 뷰를 보기 위한 시스템에 있어서,
    어느 것으로 볼 어레이의 적어도 일부분을 통하여 경로를 선택하기 위한 출력을 가지고 있으며, 그 경로는 카메라의 순서를 포함하고 있으며, 그 순서에 있는 각 카메라는 다른 점 조망과 인접 카메라의 그것과 중복되는 시야를 가지고 있으며; 그리고
    그 순서에 있는 각 카메라로부터 이미지를 순차적으로 보여주기 위한 그리하여 주위환경의 이음 새 없는 뷰를 사용자에게 제공하는 원격 시임리스 시스템.
  101. 제100항에 있어서, 선택된 카메라로부터의 이미지가 초당 약 24 이미지의 비율로 디스플레이되는 것을 특징으로 하는 원격 시임리스 시스템.
  102. 제100항에 있어서, 사용자 인터페이스 장치는 키보드, 조이스틱, 마우스, 터치스크린, 바이오 피드백 장치 그리고 음성 인식 장치에서 적어도 하나를 포함하는 것을 특징으로 하는 원격 시임리스 시스템.
  103. 제100항에 있어서, 디스플레이 장치에 의하여 디스플레이되는 이미지는 혼합되는 것을 특징으로 하는 원격 시임리스 시스템.
  104. 제103항에 있어서, 디스플레이 되는 이미지가 그 순서에 있는 현재 카메라의 이미지로부터 그 순서에 있는 다음 카메라의 이미지로까지 연속적으로 스위치 되므로서 혼합되는 것을 특징으로 하는 원격 시임리스 시스템.
  105. 제104항에 있어서, 입력은 경로를 통하여 전진하는 속도를 선정하기 위한 것이며 이미지는 선택된 속도에 맞추어 스위치 되는 것을 특징으로 하는 원격 시임리스 시스템.
  106. 제103항에 있어서, 디스플레이되는 이미지는 어레이에 있는 다음 카메라의 이미지를 가지고 차례에 있는 현재 카메라로부터의 이미지를 연속적으로 합성함으로서 혼합되는 것을 특징으로 하는 원격 시임리스 시스템.
  107. 제100항에 있어서, 입력은 경로를 통하여 전진하는 속도를 선택하기 위한 것을 특징으로 하는 원격 시임리스 시스템.
  108. 제100항에 있어서, 디스플레이 장치는 다수의 이미지를 입체적으로 디스플레이하는 것을 특징으로 하는 원격 시임리스 시스템.
  109. 주위환경의 시임리스 뷰를 보기 위한 방법에 있어서,
    1 시야를 갖는 제1 이미지를 카메라 어레이로부터 전자적으로 수신하는 단계와;
    1 시야와 오버랩되는 제2 시야를 갖는 이차 이미지를 그 어레이로부터 전자적으로 수신하는 단계와;
    2 시야와 오버랩되는 제3 시야를 갖는 제3 이미지를 그 어레이로부터 전자적으로 수신하는 단계와;
    위환경을 통해서 시임리스 뷰를 얻기 위하여 제1, 제2, 제3 이미지를 순차적으로 보여주는 단계를 포함하는 시임리스 보기 방법.
  110. 제109항에 있어서, 디스플레이하는 것이 주어진 속도로 제1 이미지로부터 제2 이미지로 제3 이미지까지 스위치 하는 것을 포함하는 것을 특징으로 하는 시임리스 보기 방법.
  111. 제110항에 있어서, 주어진 속도는 선택된 속도에 바탕이 되는, 어레이를 통한 이동 속도를 선택하는 것을 추가로 포함하는 시임리스 보기 방법.
  112. 제109항에 있어서, 디스플레이하는 것은 이미지에 주어진 프레임 재생율을 적용하는 것을 포함하는 것을 특징으로 하는 시임리스 보기 방법.
  113. 제109항에 있어서, 디스플레이 하는 것은 제1 이미지를 제2 이미지와 합성한 다음 제2 이미지를 제3 이미지와 합성하는 것을 포함하는 것을 특징으로 하는 시임리스 보기 방법.
  114. 제109항에 있어서, 디스플레이 하는 것은 제1 이미지를 제2 이미지에 디졸브시킨 다음 제2 이미지를 제3 이미지에 디졸브시키는 것을 포함하는 것을 특징으로 하는 시임리스 보기 방법.
  115. 제109항에 있어서, 디스플레이 되는 추가 소스 출력을 선택하여 추가 소스 출력을 제3 이미지와 혼합하는 것을 추가로 포함하는 시임리스 보기 방법.
  116. 제109항에 있어서, 제1, 제2, 제3 이미지는 각각 제1, 제2, 제3 카메라에 해당하는 것을 특징으로 하는 시임리스 보기 방법.
  117. 제109항에 있어서, 제2 카메라는 제1 및 제3 카메라에 인접하는 것을 특징으로 하는 시임리스 보기 방법.
  118. 제109항에 있어서, 적어도 하나의 이미지는 어레이의 복수 카메라로부터 얻어지는 입체 이미지인 것을 특징으로 하는 시임리스 보기 방법.
  119. 사용자에게 주위환경의 디스플레이를 제공하기 위한 텔레프레전스 시스템에 있어서,
    카메라가 주위 환경의 연관된 뷰를 가지고 있고 연관된 카메라 출력은 연관된 뷰를 대표하는 카메라 어레이와;
    자식 저장장치와;
    메라 출력을 수신하기 위한 어레이에 연결되며, 그 자신도 역시 전자식 저장장치에 접속되어 있으며, 카메라의 출력을 전자적으로 저장하기 위하여 배치되어 있고 카메라의 출력 표시는 전자식 저장장치와 연관되어 있으며, 그리하여 저장된 출력을 순차적으로 회수하여 주위 환경의 뷰를 보게 해주는 적어도 하나의 처리 요소를 포하하는 텔레프레전스 시스템.
KR1020007011208A 1998-04-02 1999-04-01 카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과시스템 KR20010074470A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US8041398P 1998-04-02 1998-04-02
US60/080,413 1998-04-02
US09/283,413 1999-04-01
PCT/US1999/007255 WO1999052288A1 (en) 1998-04-02 1999-04-01 A navigable telepresence method and system utilizing an array of cameras
US09/283,413 US6535226B1 (en) 1998-04-02 1999-04-01 Navigable telepresence method and system utilizing an array of cameras

Publications (1)

Publication Number Publication Date
KR20010074470A true KR20010074470A (ko) 2001-08-04

Family

ID=22157205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007011208A KR20010074470A (ko) 1998-04-02 1999-04-01 카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과시스템

Country Status (11)

Country Link
US (2) US6535226B1 (ko)
EP (1) EP1068730A4 (ko)
JP (1) JP2004502321A (ko)
KR (1) KR20010074470A (ko)
CN (1) CN1298607A (ko)
AU (1) AU761950B2 (ko)
BR (1) BR9909429A (ko)
CA (1) CA2326731A1 (ko)
IL (1) IL138808A0 (ko)
MX (1) MXPA00009686A (ko)
WO (1) WO1999052288A1 (ko)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9929870D0 (en) * 1999-12-18 2000-02-09 Roke Manor Research Improvements in or relating to security camera systems
JP2002132602A (ja) * 2000-07-31 2002-05-10 Hewlett Packard Co <Hp> 画像機器を導入しリンクする方法
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
US7027083B2 (en) 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
WO2002065761A2 (en) 2001-02-12 2002-08-22 Carnegie Mellon University System and method for stabilizing rotational images
US20020190991A1 (en) * 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US7190825B2 (en) * 2001-08-17 2007-03-13 Geo-Rae Co., Ltd. Portable communication device for stereoscopic image display and transmission
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
GB2380885A (en) * 2001-10-11 2003-04-16 Hewlett Packard Co Multiple camera arrangement
US7239345B1 (en) * 2001-10-12 2007-07-03 Worldscape, Inc. Camera arrangements with backlighting detection and methods of using same
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
CA2390621C (en) * 2002-06-13 2012-12-11 Silent Witness Enterprises Ltd. Internet video surveillance camera system and method
JP2004264492A (ja) * 2003-02-28 2004-09-24 Sony Corp 撮影方法及び撮像装置
US20040199622A1 (en) * 2003-04-07 2004-10-07 Huscher Anthony Alan eRoom operations console
US20080129818A1 (en) * 2004-02-11 2008-06-05 Jacob James Miller Methods for practically simulatnig compact 3d environments for display in a web browser
US20060114251A1 (en) * 2004-02-11 2006-06-01 Miller Jacob J Methods for simulating movement of a computer user through a remote environment
US20060146132A1 (en) * 2005-01-05 2006-07-06 Hy Mayerson Video system having multiple video cameras for capturing events
US7982777B2 (en) * 2005-04-07 2011-07-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
US7884848B2 (en) * 2005-05-25 2011-02-08 Ginther Mark E Viewing environment and recording system
US20070038945A1 (en) * 2005-08-10 2007-02-15 Miller Jacob J System and method allowing one computer system user to guide another computer system user through a remote environment
TW200718457A (en) * 2005-08-18 2007-05-16 Aruze Corp Gaming machine and terminal device included in gaming machine
KR100719097B1 (ko) 2005-11-03 2007-05-28 (주)이즈미디어 카메라 배열 방식 영상 취득 시스템
US8886669B2 (en) * 2008-03-21 2014-11-11 Trimble Navigation Limited File access via conduit application
US8125481B2 (en) 2008-03-21 2012-02-28 Google Inc. Lightweight three-dimensional display
US8730863B2 (en) * 2008-09-09 2014-05-20 The Charles Stark Draper Laboratory, Inc. Network communication systems and methods
JP5604921B2 (ja) * 2010-03-19 2014-10-15 セイコーエプソン株式会社 画像表示システム、画像表示方法、画像表示装置
US8937646B1 (en) 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
US8863208B2 (en) 2012-06-18 2014-10-14 Micropower Technologies, Inc. Synchronizing the storing of streaming video
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9294757B1 (en) 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
EP3000225B1 (en) * 2013-05-20 2018-11-28 Durst Sebring Revolution, LLC Systems and methods for producing visual representations of objects
US9123172B2 (en) 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
EP2887328B1 (en) * 2013-12-19 2016-04-20 Axis AB Monitoring devices slidably mounted on a rail releasably locked to predetermined positions
US20150195644A1 (en) * 2014-01-09 2015-07-09 Microsoft Corporation Structural element for sound field estimation and production
WO2015107429A2 (en) * 2014-01-17 2015-07-23 Jaber Alexander Tactical surveillance and monitoring system for a motor vehicle
US10033992B1 (en) 2014-09-09 2018-07-24 Google Llc Generating a 3D video of an event using crowd sourced data
US9706187B2 (en) * 2014-10-06 2017-07-11 Electronics And Telecommunications Research Institute Camera rig for shooting multi-view images and videos and image and video processing method for use with same
ES2538012B1 (es) * 2014-10-23 2016-03-30 Digital Centre, S.L. Fotomatón multicámara de efecto tridimensional y procedimiento de funcionamiento del mismo
US10178325B2 (en) 2015-01-19 2019-01-08 Oy Vulcan Vision Corporation Method and system for managing video of camera setup having multiple cameras
GB2535706A (en) 2015-02-24 2016-08-31 Nokia Technologies Oy Device with an adaptive camera array
US9848212B2 (en) * 2015-07-10 2017-12-19 Futurewei Technologies, Inc. Multi-view video streaming with fast and smooth view switch
CN109074629A (zh) 2015-10-29 2018-12-21 Oy沃肯视觉有限公司 使用联网照相机对关注的区域进行视频摄像
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
DE102016223171A1 (de) 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
JP7165140B2 (ja) * 2017-05-10 2022-11-02 グラバンゴ コーポレイション 効率的配置のための直列構成カメラアレイ
NO346392B1 (en) * 2020-08-05 2022-07-04 Muybridge As Multiple camera sensor system and method of providing a target image by a virtual camera

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4355328A (en) 1981-02-23 1982-10-19 The United States Of America As Represented By The Secretary Of The Navy 360 Degree closed circuit television system
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4847700A (en) 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
US5023725A (en) 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5257349A (en) 1990-12-18 1993-10-26 David Sarnoff Research Center, Inc. Interactive data visualization with smart object
US5187571A (en) 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US5185808A (en) 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
GB9119964D0 (en) 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5724091A (en) 1991-11-25 1998-03-03 Actv, Inc. Compressed digital data interactive program system
US5253168A (en) * 1991-12-06 1993-10-12 Berg Jacqueline L System for creative expression based on biofeedback
US5343871A (en) * 1992-03-13 1994-09-06 Mindscope Incorporated Method and apparatus for biofeedback
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
DE69426232T2 (de) 1993-06-04 2001-05-17 Sarnoff Corp System und verfahren zur elektronischen bildstabilisierung
US5497188A (en) * 1993-07-06 1996-03-05 Kaye; Perry Method for virtualizing an environment
GB2282505A (en) 1993-09-23 1995-04-05 Sharp Kk Three dimensional imaging apparatus
US5562572A (en) 1995-03-10 1996-10-08 Carmein; David E. E. Omni-directional treadmill
US5999641A (en) 1993-11-18 1999-12-07 The Duck Corporation System for manipulating digitized image objects in three dimensions
JPH07222202A (ja) 1994-02-02 1995-08-18 Rohm Co Ltd 立体ビジョンカメラ
US5537141A (en) 1994-04-15 1996-07-16 Actv, Inc. Distance learning system providing individual television participation, audio responses and memory for every student
US5508734A (en) 1994-07-27 1996-04-16 International Business Machines Corporation Method and apparatus for hemispheric imaging which emphasizes peripheral content
US5632007A (en) 1994-09-23 1997-05-20 Actv, Inc. Interactive system and method for offering expert based interactive programs
US5598208A (en) 1994-09-26 1997-01-28 Sony Corporation Video viewing and recording system
US5600368A (en) 1994-11-09 1997-02-04 Microsoft Corporation Interactive television system and method for viewer control of multiple camera viewpoints in broadcast programming
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5644694A (en) * 1994-12-14 1997-07-01 Cyberflix Inc. Apparatus and method for digital movie production
US5659323A (en) 1994-12-21 1997-08-19 Digital Air, Inc. System for producing time-independent virtual camera movement in motion pictures and other media
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US5581629A (en) 1995-01-30 1996-12-03 David Sarnoff Research Center, Inc Method for estimating the location of an image target region from tracked multiple image landmark regions
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
JPH11509064A (ja) 1995-07-10 1999-08-03 サーノフ コーポレイション 画像を表現し組み合わせる方法とシステム
US5706416A (en) 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
EP0781049B1 (en) * 1995-12-19 2004-05-06 Canon Kabushiki Kaisha Apparatus and method for controlling a plurality of remote cameras
US6208379B1 (en) * 1996-02-20 2001-03-27 Canon Kabushiki Kaisha Camera display control and monitoring system
US6020931A (en) 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US5708469A (en) * 1996-05-03 1998-01-13 International Business Machines Corporation Multiple view telepresence camera system using a wire cage which surroundss a plurality of movable cameras and identifies fields of view
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6384820B2 (en) * 1997-12-24 2002-05-07 Intel Corporation Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
US6522325B1 (en) * 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras

Also Published As

Publication number Publication date
US20030229735A1 (en) 2003-12-11
CA2326731A1 (en) 1999-10-14
JP2004502321A (ja) 2004-01-22
AU3464699A (en) 1999-10-25
CN1298607A (zh) 2001-06-06
MXPA00009686A (es) 2004-09-10
IL138808A0 (en) 2001-10-31
EP1068730A4 (en) 2005-03-30
WO1999052288A1 (en) 1999-10-14
BR9909429A (pt) 2001-09-11
AU761950B2 (en) 2003-06-12
EP1068730A1 (en) 2001-01-17
US6535226B1 (en) 2003-03-18

Similar Documents

Publication Publication Date Title
KR20010074470A (ko) 카메라의 어레이를 이용한 가항성 텔레프레즌스 방법과시스템
US9055234B2 (en) Navigable telepresence method and system
US5448291A (en) Live video theater and method of presenting the same utilizing multiple cameras and monitors
US20060114251A1 (en) Methods for simulating movement of a computer user through a remote environment
US20040027451A1 (en) Immersive imaging system
JP5861499B2 (ja) 動画提示装置
US11703942B2 (en) System and method for interactive 360 video playback based on user location
WO2001028309A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
JP2009010915A (ja) 映像表示方法及び映像システム
JPH08279054A (ja) 映像生成/表示システム
US20070038945A1 (en) System and method allowing one computer system user to guide another computer system user through a remote environment
JP5457668B2 (ja) 映像表示方法及び映像システム
EP0742987A1 (en) Viewing imaged objects from selected points of view
JPH09311383A (ja) 映像表示システム
WO1998044723A1 (en) Virtual studio
JPH08279058A (ja) 映像生成/表示システム
JPH1049134A (ja) 3次元ビデオキーシステム
Tokai et al. Attention Navigation by Keeping Screen Layout for Switching Multiple Views
JPH08279055A (ja) 映像生成/表示システム
Networking et al. Technologies for Virtual
JP2005077808A (ja) 画像表示装置および画像表示方法ならびに画像表示システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application