KR101193007B1 - 정보 처리 장치, 정보 처리 방법, 기록 매체 - Google Patents
정보 처리 장치, 정보 처리 방법, 기록 매체 Download PDFInfo
- Publication number
- KR101193007B1 KR101193007B1 KR1020050044171A KR20050044171A KR101193007B1 KR 101193007 B1 KR101193007 B1 KR 101193007B1 KR 1020050044171 A KR1020050044171 A KR 1020050044171A KR 20050044171 A KR20050044171 A KR 20050044171A KR 101193007 B1 KR101193007 B1 KR 101193007B1
- Authority
- KR
- South Korea
- Prior art keywords
- content data
- photographing means
- photographing
- information
- additional information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/11—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being at least another television signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9206—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99944—Object-oriented database structure
- Y10S707/99945—Object-oriented database structure processing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은, 오퍼레이터의 작업 효율을 현격하게 향상시킬 수 있는 정보 처리 장치, 정보 처리 방법, 프로그램, 및 기록 매체에 관한 것으로서, 피사체를 촬영하는 복수개의 촬영 기기로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리 장치는, 저장 기기, 취득 기기, 및 검색 기기를 포함한다. 보다 구체적으로는, 상기 저장 기기는 컨텐츠 데이터와 관련된 부가 정보를 저장하고, 상기 부가 정보는 그룹화된 복수개의 촬영 기기로부터 취득한 컨텐츠 데이터에 링크되는 어드레스 정보를 포함하고, 상기 취득 기기는 상기 저장 기기에 의해 저장된 부가 정보를 취득하고, 상기 검색기기는, 상기 복수개의 촬영 기기 중 특정 촬영 기기에 대응하는 컨텐츠 데이터가 저장 기기로부터 판독될 경우, 판독된 컨텐츠 데이터에 링크되는 컨텐츠 데이터를 자동적으로 검색하는 것을 특징으로 한다.
기록 매체, 검색, 정보 처리, 촬영, 컨텐츠, 컴퓨터, 프로그램, GPS
Description
도 1은 본 실시예에 의한 서버 시스템의 구성을 나타낸 블록도이다.
도 2는 도 1에 나타내는 서버의 내부 구성을 나타낸 블록도이다.
도 3은 본 실시예에 의한 서버의 파일 시스템의 설명을 위한 약선도이다.
도 4는 상대 좌표로 변환하는 처리를 설명하기 위한 약선적인 평면도이다.
도 5는 도 1에 나타내는 편집 단말기 장치의 구성을 나타낸 블록도이다.
도 6은 편집 화면의 표시 상태를 설명하기 위한 약선적인 평면도이다.
도 7은 표시 제어 장치의 구성을 나타낸 블록도이다.
도 8은 웹 컨텐츠에 있어서의 GUI 화면의 표시 상태를 설명하기 위한 약선적인 평면도이다.
도 9는 촬영 준비 처리 단계를 설명하기 위한 순서도이다.
도 10은 촬영 시 처리 단계를 설명하기 위한 순서도이다.
도 11은 서버 내 처리 단계를 설명하기 위한 순서도이다.
도 12는 서버 내 처리 단계를 설명하기 위한 순서도이다.
도 13은 서버 내 처리 단계를 설명하기 위한 순서도이다.
도 14는 다른 실시예에 의한 서버의 파일 시스템의 설명을 위한 약선도이다.
특허 문헌 1: 일본국 특개 2000-32321공보
본 발명은, 정보 처리 장치, 정보 처리 방법, 프로그램 및 기록 매체에 관한 것으로서, 예를 들면 텔레비전 방송국에서 사용하는 서버 시스템에 적용하기에 적합하도록 구성된 것이다.
종래, 방송국용의 서버 시스템에 있어서는, 전형적으로, 복수개의 비디오 카메라로부터 각각 촬영 내용으로서 얻어지는 영상 및 음성을, 동시에 또는 원하는 타이밍에서 순차적으로 전환하면서 라이브 중계 등을 실시간으로 방송하고, 또한 해당 각 비디오 카메라의 촬영 결과인 영상 및 음성을 서버가 저장 및 관리하고 있다.
또 서버 시스템에서는, 각 비디오 카메라의 촬영 결과인 영상 및 음성을 편집 장치를 사용하여 원하는 상태로 가공 및 편집하고, 얻어진 편집 후의 영상 및 음성을 방송용의 클립(영상 및 음성 기록물)으로서 서버에 등록할 수 있고, 상기 서버에 등록한 클립을 소정의 타이밍에서 판독하여 방송할 수 있도록 되어 있다(예를 들면, 특허 문헌1 참조).
그런데, 이러한 서버 시스템에 있어서는, 서버가 복수개의 비디오 카메라의 촬영 결과인 영상 및 음성을 관리할 때, 각 비디오 카메라마다, 저장 파일 및 파일명, 수록 시간 등을 오퍼레이터가 스스로 의식해 구별할 필요가 있고, 그만큼 매우 시간이 걸린다는 문제가 있었다.
본 발명은 상기의 점을 고려하여 이루어진 것이며, 오퍼레이터의 작업 효율을 현격하게 향상시킬 수 있는 정보 처리 장치, 정보 처리 방법, 프로그램, 및 기록 매체를 제공하는 것이다.
본 발명의 일실시예에 의한 정보 처리 장치는 피사체를 촬영하는 복수개의 촬영 수단으로부터 얻어지는 컨텐츠 데이터를 처리하고, 이하의 구성 요소를 포함한다. 저장 수단은 컨텐츠 데이터와 관련된 부가 정보를 저장하고, 상기 부가 정보는 그룹화된 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터에 링크되는 어드레스 정보를 포함한다. 취득 수단은 저장 수단에 의해 저장된 부가 정보를 취득한다. 복수개의 촬영 수단 중 특정 촬영 수단에 대응하는 컨텐츠 데이터가 저장 수단으로부터 판독될 경우, 검색 수단은 판독된 컨텐츠 데이터와 링크된 컨텐츠 데이터를 자동적으로 검색한다.
또 본 발명의 일실시예에 의한 정보 처리 방법은, 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하고, 그룹화된 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터와 링크되는 어드레스 정보를 포함하고, 상기 컨텐츠 데이터와 관련된 부가 정보를 저장하는 단계와, 상기 저장 단계에서 저장된 부가 정보를 취득하는 단계와, 복수개의 촬영 수단 중 특정 촬영 수단에 대 응하는 컨텐츠 데이터가 판독될 경우, 상기 판독된 컨텐츠 데이터에 링크된 컨텐츠 데이터를 자동적으로 검색하는 검색 수단을 포함한다. 따라서, 하나의 촬영 기기에 취득된 컨텐츠 데이터가 판독되기만 하면, 다른 촬영 기기에 의해서도 동시에 수록된 상기 컨텐츠 데이터를 용이하게 인식할 수 있기 때문에, 오퍼레이터의 조작 효율을 향상시킬 수 있다.
또한 본 발명의 일실시예에 의한 정보 처리 장치는, 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하고, 이하의 구성 요소를 포함한다. 취득 수단은 그룹화된 촬영 수단으로부터 취득한 컨텐츠 데이터와 링크되는 어드레스 정보를 포함하는 부가 정보를 취득한다. 복수개의 촬영 수단 중 특정 촬영 수단에 대응하는 컨텐츠 데이터가 지정되었을 경우, 검색 수단은 상기 취득 수단에 의해 취득된 부가 정보에 따라서 지정된 컨텐츠 데이터를 자동적으로 검색한다. 표시 제어 방법은 상기 취득 수단에 의해 취득한 부가 정보와, 상기 검색 수단에 의해 검색된 컨텐츠 데이터를 이용하여, 링크된 방식으로 컨텐츠 데이터를 표시한다. 따라서, 하나의 촬영 기기에 의해 취득된 컨텐츠 데이터가 지정되기만 하면, 다른 촬영 기기에 의해서도 동시에 수록된 상기 컨텐츠 데이터를 상기 링크 방법으로 용이하게 표시할 수 있기 때문에, 오퍼레이터의 조작 효율을 향상시킬 수 있다.
이하 도면을 참조하면서, 본 발명의 일실시예를 상세히 설명한다.
도 1에 있어서, 본 실시예에 의한 서버 시스템(1)은 전체적으로 텔레비전 방 송국, 및 라이브 중계를 위한 중계차 등에 설치되는 것을 나타내고, 피사체(OB)의 주위에 배치된 복수개의 비디오 카메라(2A ~ 2C)로 해당 각 비디오 카메라(2A ~ 2C)의 촬영 결과로서 얻어지는 영상 및 음성을 저장 및 관리하는 서버(3)를 가지고, 각 비디오 카메라(2A ~ 2C)의 촬영 내용인 영상 및 음성을 실시간으로, 또는 서버를 이용하여 편집 가공 등을 행한 후에 방송을 할 수 있도록 되어 있다.
상기 서버 시스템(1)에서는, 복수개의 비디오 카메라(2A ~ 2C)의 후단에 서버(3) 및 라이브 중계용 스위처(4)가 병렬로 접속되어 있고, 해당 각 비디오 카메라(2A ~ 2C)의 촬영 내용인 영상 및 음성을 라이브 중계용 스위처(4; switcher)를 통하여 동시에 또는 원하는 타이밍에서 순차적으로 전환하면서 전송 장치(5)로부터 실시간으로 방송하는 동시에, 해당 각 비디오 카메라(2A ~ 2C)마다 촬영 결과인 영상 및 음성을 서버(3)가 저장 및 관리하고 있다.
이들 복수개의 비디오 카메라(2A ~ 2C)는, 피사체(OB) 주위에 적절히 배치되어 있다. 예를 들면 플래그(flag)를 온(on)함으로써, 이 중 1대를 위치 기준이 되는 비디오 카메라(이하, 마스터 카메라)(2A)로 설정하고, 예를 들면, 플래그를 오프(off)함으로써, 그 외의 모든 비디오 카메라(이하, 슬레이브 카메라)(2B, 2C)를, 위치 관계 및 시간 관리 등이 마스터 카메라(2A)에 종속되도록 설정한다.
마스터 카메라(2A)는, 현재 위치의 위도, 경도 및 고도를 나타내는 위치 정보나 촬영 시간으로서 타임 코드를 나타내는 시간 정보 등으로 이루어지는 메타 데이터(metadata)를, 피사체의 촬영 결과를 나타내는 영상 및 음성 데이터에 부가하여 형성되는 데이터(이하, 컨텐츠 데이터) S1A를 서버(3)에 전송하도록 되어 있다.
한편, 각 슬레이브 카메라(2B, 2C)는, 예를 들면, 현재 위치의 위도, 경도 및 고도를 나타내는 위치 정보와, 마스터 카메라(2A)의 타임 코드를 기준으로 하여 시간적으로 동기시킨 타임 코드를 나타내는 시간 정보로 이루어지는 메타 데이터를, 피사체(OB)의 촬영 결과를 나타내는 영상 및 음성 데이터에 부가하여 형성되는 컨텐츠 데이터 S1B, S1C를 서버(3)에 전송하도록 되어 있다.
이들 각 슬레이브 카메라(2B, 2C)에서는, 촬영 시에 위치 정보 및 시간 정보를 상대값으로 변환하지 않고, 절대값을 그대로 기록하도록 되어 있다. 이 중 시간 정보는, 컨텐츠 데이터 S1B, S1C가 NTSC(National Television System Committee) 방식의 비디오 컴포지트(video composite) 신호로 변환 되었을 때, 컬러 반송파 신호의 위상도 마스터 카메라(2A)와 시간적으로 완전하게 동기시키기 위해 필요한 정보이다. 또 위치 정보는, 서버 시스템(1)에 업로드(UpLoad)한 후에 상대값으로 변환된다.
그리고 마스터 카메라(2A) 및 각 슬레이브 카메라(2B, 2C)에는, 각각 GPS(Global Positioning System)를 이용하는 위치 검출부(도시하지 않음)가 내장되어, 각종 인공위성으로부터 발신되는 측위용 전파를 안테나(도시하지 않음)를 통하여 수신한 후, 해당 측위용 전파에 의해 현재의 위치를 검출하도록 하여, 해당 위치를 나타내는 위치 정보를 생성하도록 되어 있다.
또 서버(3)에는, 마스터 카메라(2A) 및 각 슬레이브 카메라(2B, 2C) 뿐 만 아니라, 미디어 재생용의 재생 장치(6)가 접속되어 있고, 비디오 테이프 등의 기록 매체(7)를 재생하여 얻어진 수록 내용을 포함하는 컨텐츠 데이터 S2가 공급되도록 되어 있다.
상기 서버(3)은, 복수개의 비디오 카메라(2A ~ 2C)로부터 각각 공급되는 컨텐츠 데이터 S1A ~ S1C와 재생 장치(6)로부터 공급되는 컨텐츠 데이터 S2를, 각각 파일로 저장해 두어, 필요에 따라 지정된 컨텐츠 데이터 S1A ~ S1C 및 S2를 선택적으로 판독하여 편집용 단말 장치(8)에 공급한다.
상기 편집용 단말 장치(8)는, 서버(3)로부터 공급되는 컨텐츠 데이터 S1A ~ S1C 및 S2 중 영상 및 음성 데이터에 따른 영상 및 음성에 대하여, 설정된 편집 내용으로 편집 처리한 후, 편집 후의 컨텐츠 데이터 S3를 텔레비전 방송, 네트워크 분배 또는 기록 매체 중 오퍼레이터에 의해 선택된 방법으로 전송한다.
그 때 텔레비전 방송이 선택된 경우에는, 편집용 단말 장치(8)는, 편집 후의 컨텐츠 데이터 S3를 방송 분배 서버(9)를 통하여 방송용 포맷으로 데이터 변환하여 텔레비전 방송을 전송하고, 네트워크 분배가 선택된 경우에는, 인코더(10)를 통하여 소정의 부호화 처리를 하여 웹 스트리밍(web streaming) 등의 웹 컨텐츠로 변환한 후, 후속 단계에서 웹 서버(11)에 저장하면서 인터넷 등의 네트워크를 경유하여 분배한다. 또한, 기록 매체가 선택된 경우에는, 편집용 단말 장치(8)는, 편집 후의 컨텐츠 데이터 S3를 기록 장치(12)에 전송하고, 미리 장전되어 있는 기록 매체(13)에 기록하도록 하여 패키지 매체를 생성한다.
상기와 같이 서버 시스템(1)에서는, 복수개의 비디오 카메라(2A ~ 2C) 또는 재생 장치(6)로부터 출력되는 컨텐츠 데이터 S1A ~ S1C 및 S2를 그대로 TV 방송용으로 전송하는 한편, 서버(3)에 저장해 두어 원하는 타이밍에서 판독하여 각종 편 집 처리를 하여 텔레비전 방송, 네트워크 분배 및 기록 매체 중 선택된 전송 방법으로 전송하도록 되어 있다.
도 2는 서버(3)의 내부 구성을 나타낸다. 도 2에서 나타낸 서버(3)는, 복수개의 비디오 카메라(2A ~ 2C) 및 재생 장치(6)(도 1)로부터 주어지는 컨텐츠 데이터 S1A ~ S1C를, 입력부(20) 내의 인터페이스부(20A)를 통하여 명령 처리부(21)가 받으면, 해당 명령 처리부(21)에 있어서 각종 명령 처리를 한 후, 다중화 및 분리부(22; multiplexer/demultiplexer)에 전송한다. 이 때 명령 처리부(21)는, 컨텐츠 데이터 S1A ~ S1C에 따라, 대응하는 비디오 카메라(2A ~ 2C)의 기록 시에 영상 및 음성 기록물에 할당된 어드레스를 추출하여, 어드레스 처리부(23)에 전송한다.
다중화 및 분리부(22)는, 컨텐츠 데이터 S1A ~ S1C를 각각 영상 데이터, 음성 데이터 및 메타 데이터로 분리한 후, 이 중 영상 데이터 및 음성 데이터를 데이터 변환 처리부(24)에 전송하는 한편, 메타 데이터를 메타 데이터 처리부(25)에 전송한다.
데이터 변환 처리부(24)는, 다중화 및 분리부(22)에 있어서 분리된 영상 데이터를 소정의 포맷으로 변환한 후, 영상 저장 유닛(26)에 저장시키는 한편, 해당 분리된 음성 데이터를 소정 레벨의 주파수로 변환한 후, 음성 저장 유닛(27)에 저장시킨다.
또 메타 데이터 처리부(25)는, 다중화 및 분리부(22)에서 분리된 메타 데이터를 받으면, 해당 메타 데이터에 따라, 피사체를 기준으로 하는 각 비디오 카메라(2A ~ 2C)의 상대 위치 관계나 마스터 카메라(2A)의 타임 코드와 동기한 각 슬레이 브 카메라(2B, 2C)의 타임 코드 등을 인식할 수 있다.
구체적으로는, 메타 데이터는, 예를 들면, 섬네일(thumb nail) 화상으로 나타내는 프록시(Proxy) 데이터, GPS를 사용하여 얻어지는 위치 정보를 나타내는 좌표 데이터, 타임 코드, 및 촬영 시에 오퍼레이터에 의해 부가된 양호 촬영 마크(Good Shot Mark) 등으로 이루어지는 프레임 단위의 데이터와, 이하에 설명하는 파일 시스템에 의해 이루어지는 파일 베이스 데이터로 구성되어 있다.
입력부(20) 내의 데이터 베이스(20B)에는, 메타 데이터 처리부(25)로부터 주어지는 메타 데이터를, 촬영 시에 등록된 각 비디오 카메라(2A ~ 2C)에 고유의 ID인 UMID(Unique Material identity)에 따라 파일화한 것(이하, 파일 시스템)이 인덱스 테이블로서 저장되어 있다.
도 3에 나타낸 바와 같이, 상기 UMID에는, 디렉토리의 하위 계층으로서, 영상(Video)데이터, 음성(Audio)데이터, 프록시(Proxy)데이터, 멀티 카메라 데이터(Multi Camera Info.), 좌표(coordinates) 데이터 및 그 외 정보(The Other Info.)를 각각 나타내는 파일 등이 기술되어 있다.
이 중 멀티 카메라 데이터의 파일은, 해당 디렉토리의 하위 계층으로서, 멀티 카메라(Multi Camera) 플래그, 마스터/슬레이브(Master/Slave) 플래그, 마스터 카메라(2A) 일 때의 각 슬레이브 카메라 번호(Number of Slave) 및 해당 각 슬레이브 카메라(2B, 2C)의 ID(Slave ID1, Slave ID2, …), 슬레이브 카메라(2B, 2C) 일 때의 마스터 카메라(2A)의 ID(Master ID)가 기술되어 있다.
그리고 메타 데이터 처리부(25)는, 메타 데이터에 따른 파일 시스템 내의 멀 티 카메라 데이터로부터 얻어진 각종 ID에 따라, 명령 처리부(21)로부터 주어진 어드레스를 링크시킨 후, 상기 메타 데이터를 어드레스에 따라 메타 데이터 저장 유닛(28)에 저장시킨다. 또 데이터 변환 처리부(24)도, 메타 데이터 처리부(25)에 의해 결정된 어드레스에 따라, 영상 저장 유닛(26) 및 음성 저장 유닛(27)에 각각 영상 데이터 및 음성 데이터를 저장시킨다.
또한 메타 데이터 처리부(25)는, 메타 데이터에 따른 파일 시스템 내의 멀티 카메라 데이터 중, 멀티 카메라의 플래그가 ON 상태인 것을 검출하여, 컨텐츠 데이터의 촬영원이 복수개의 비디오 카메라(2A ~ 2C)에 의한 촬영 결과인 것으로 판단하면, 해당 멀티 카메라 데이터 중 마스터/슬레이브 플래그의 ON/OFF 상태를 판별하고, 마스터 카메라(2A) 또는 슬레이브 카메라(2B, 2C)인지 여부를 판단한다.
마스터 카메라(2A)인 것으로 판단한 경우, 메타 데이터 처리부(25)는, 각 슬레이브 카메라(2B, 2C)의 번호 및 ID를 검출하여, 어드레스 처리부(23)에 전송한다. 상기 어드레스 처리부(23)는, 각 슬레이브 카메라(2B, 2C)의 번호 및 ID에 따라, 해당 각 슬레이브 카메라(2B, 2C)의 영상 및 음성 기록물의 개수 및 어드레스를 결정한 후, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)에 각각 공급하는 동시에, 입력부(20) 내의 데이터 베이스(20B)에도 공급한다.
한편, 슬레이브 카메라(2B, 2C)인 것으로 판단한 경우, 메타 데이터 처리부(25)는, 마스터 카메라(2A)의 ID를 검출한 후, 어드레스 처리부(23)에 전송한다. 상기 어드레스 처리부(23)는, 마스터 카메라(2A)의 ID에 따라, 해당 마스터 카메라(2A)의 영상 및 음성 기록물의 어드레스를 결정한 후, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)에 각각 공급하는 동시에, 입력부(20) 내의 데이터 베이스(20B)에도 공급한다.
결과적으로, 결정된 어드레스에 따라, 영상 데이터, 음성 데이터 및 메타 데이터가 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)에각각 저장되는 동시에, 입력부(20) 내의 데이터 베이스(20B)에서는, 결정된 어드레스를 참조하여 디렉토리 구조를 재구축한다.
이와 같이 서버(3)에서는, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)에 각각 저장시킨 영상 데이터, 음성 데이터 및 메타 데이터에 대하여, 마스터 카메라(2A)에 의해 수록된 영상 및 음성 기록물에 따라서, 동일 시간에 각 슬레이브 카메라(2B, 2C)에 의해 수록된 영상 및 음성 기록물을 용이하게 검색할 수 있고, 또한 각 슬레이브 카메라(2B, 2C)에 의해 수록된 영상 및 음성 기록물에 따라서, 동일 시간에 수록된 마스터 카메라(2A)에 의해 수록된 영상 및 음성 기록물을 용이하게 검색할 수 있다.
상기와 같이 하여 서버(3)에 있어서, 복수개의 비디오 카메라(2A ~ 2C)의 촬영 결과인 컨텐츠 데이터가 공급되어도, 해당 컨텐츠 데이터에 따른 영상 및 음성 기록물이 마스터 카메라(2A) 또는 각 슬레이브 카메라(2B, 2C) 중 어디에 수록된 내용인지를, 저장된 파일 및 파일명, 수록 시간 등을 데이터 베이스 상에서 검색함으로써 자동적으로 식별할 수 있다.
그리고 서버(3)에 있어서는, 메타 데이터 처리부(25)는, 메타 데이터에 따른 파일 시스템 내의 멀티 카메라 데이터 중, 멀티 카메라 플래그의 ON 상태를 검출하 여, 컨텐츠 데이터의 촬영원이 복수개의 비디오 카메라(2A ~ 2C)에 의한 촬영 결과인 것으로 판단했을 때, 파일 시스템 내의 좌표 데이터를, 각 비디오 카메라(2A ~ 2C)의 현재 위치를 나타내는 GPS 좌표로부터, 피사체의 위치를 중심으로 하는 상대 좌표로 각각 변환한 후, 해당 좌표 데이터를 재 기입하도록 되어 있다.
예를 들면, 도 4(A)에 나타낸 바와 같이, GPS를 사용하여 측정된 피사체(OB)의 위치를 나타내는 좌표가(115, 56)이며, 동시에 측정된 마스터 카메라(2A) 및 각 슬레이브 카메라(2B, 2C)의 위치를 나타내는 좌표가(110, 60), (114, 50) 및 (120, 56) 일 때, 도 4(B)에 나타낸 바와 같이, 피사체(OB)의 위치를 가상 중심 좌표 (0, 0)로 설정하면, 마스터 카메라(2A)의 상대 좌표는 (-5, 4)로 변환되고, 각 슬레이브 카메라(2B, 2C)의 상대 좌표는 각각 (-1, -6), (5, 0)로 변환된다.
도 5는 편집용 단말 장치(8)의 내부 구성을 나타낸다. 상기 편집용 단말 장치(8)는, 서버(3)(도 2)로부터 공급되는 컨텐츠 데이터 S3에 따른 영상 및 음성의 원하는 부분을 클립으로서 등록하고, 필요에 따라 원하는 클립의 영상 신호 및 음성 신호를 하드 디스크 장치(30)에 로드(load)할 수 있도록 되어 있다.
또 이 편집용 단말 장치(8)에서는, 등록된 각 클립을 원하는 상태로 결합하여, 원하는 편집 영상 및 음성을 얻기 위한 편집 내용에 규정된 편집 리스트를 작성할 수 있고, 또한 상기 작성한 편집 리스트에 따라 실제로 편집 처리를 실행하고, 얻어진 편집 영상 및 편집 음성을 외부에 출력할 수 있도록 되어 있다.
즉 상기 편집용 단말 장치(8)는, 컴퓨터(31), 시스템 제어부(32), 영상 및 음성 입출력 유닛(33), 영상 특수 효과 처리부(34), 음성 입출력 믹서 유닛(35) 및 디스크 제어부(36)가 컨트롤 버스(37)를 통하여 서로 접속됨으로써 구성되어 있다.
컴퓨터(31)는, 처음에, 표시 유닛(38)에 소정의 조작 화면(이하, 편집 화면)을 표시시킨다. 또 컴퓨터(31)는, 이 상태에서 마우스(39)가 조작됨으로써, 클립 등록 모드가 선택되어 해당 편집용 단말 장치(8)에 접속된 서버(3)(도 2)로부터의 재생 동작 명령이 입력되면, 여기에 따른 제어 명령 C1을 시스템 제어부(32)에 전송한다.
시스템 제어부(32)는, 공급되는 제어 명령에 따라, 서버(3)에 제어 신호 S5를 전송함으로써, 서버(3)에 저장되어 있는 영상 신호 및 음성 신호의 재생 동작을 실행시킨다. 이 결과, 상기 서버(3)로부터는, 영상 신호 및 음성 신호가 출력되고, 각각 영상 및 음성 입출력 유닛(33)을 통하여 영상 특수 효과 처리부(34)로 출력된다.
영상 특수 효과 처리부(34)는, 시스템 제어부(32)의 제어 하에, 영상 및 음성 입출력 유닛(33)으로부터 공급되는 영상 신호를 컴퓨터(31)에 전송한다.
이리하여 상기 표시 유닛(38)에는, 컴퓨터(31)의 제어 하에 영상 신호에 따른 영상이 편집 화면 위의 소정 위치에 표시된다.
이로써 상기 편집용 단말 장치(8)에서는, 표시 유닛(38)에 표시된 영상 및 스피커(도시하지 않음)로부터 출력되는 음성에 따라, 오퍼레이터가 마우스(39) 및 키보드(40)를 사용하여 영상 및 음성의 원하는 부분을 지정할 수 있고, 또한 이것을 클립으로서 그 인포인트 및 아웃포인트의 타임 코드나 기록물 길이(기록물의 구간) 등의 관련 데이터를 컴퓨터(31) 내에 등록할 수 있도록 되어 있다.
또 컴퓨터(31)는, 이 때 미리 취입 모드가 선택되어 있는 경우에는, 이것에 따른 제어 명령 C1를 시스템 제어부(32)에 전송한다. 시스템 제어부(32)는, 공급되는 제어 명령 C1에 따라, 서버(3)에 제어 신호 S5를 전송함으로써, 지정된 클립의 영상 및 음성을 해당 서버(3)에 재생시키는 한편, 영상 및 음성 입출력 유닛(33)을 컨트롤 버스(37)를 통하여 제어함으로써, 서버(3)로부터 전송되는 영상 신호 및 음성 신호를 전송한다.
그리고 디스크 제어부(36)은, 이 때 시스템 제어부(32)로부터 컨트롤 버스(37)를 통하여 주어지는 명령에 따라, 영상 특수 효과 처리부(34) 또는 영상 및 음성 입출력 유닛(33)으로부터 주어지는 영상 신호와, 음성 입출력 믹서 유닛(35) 또는 영상 및 음성 입출력 유닛(33)으로부터 주어지는 음성 신호를 순차적으로 로드하여, 이들을 하드 디스크 장치(30)로 전송하여, 하드 디스크의 지정된 어드레스 위치에 기록시킨다.
상기와 같이 하여 상기 편집용 단말 장치(8)에서는, 지정된 클립의 영상 및 음성을 서버(3)로부터 재생하여 하드 디스크 장치(30)에 입력할 수 있게 되어 있다.
컴퓨터(31)는, 상기 설명한 바와 같이 하여 클립이 등록되면, 표시 유닛(38)에 표시되어 있는 편집 화면 내에, 등록된 클립의 리스트를 표시시킨다.
그리고 오퍼레이터는, 상기 편집 화면을 사용하여 어떤 클립을 어떤 식으로결합하여 편집할 것인가 하는 편집 내용을 규정한 편집 데이터를 편집 리스트로서 작성할 수 있다. 또 오퍼레이터는, 편집 리스트의 작성 후 또는 작성 도중에, 상 기 편집 리스트에 따른 편집 영상 및 편집 음성을 확인할 수 있다.
그리고 컴퓨터(31)는, CPU(Central Processing Unit)(41), ROM(Read Only Memory)(42), RAM(Random Access Memory)(43), 표시 처리부(44), 타이틀 및 그래픽 생성기(45) 및 인터페이스 회로(46, 47)가 CPU 버스(48)를 통하여 접속됨으로써 구성되어 있고, 각 인터페이스 회로(46, 47)를 통하여 마우스(39) 및 키보드(40)가 접속되어 있다.
CPU(41)는, 필요 시에, ROM(42)에 저장된 프로그램에 의하여, ROM(42) 내의 화상 데이터를 판독하고, 이것을 표시 처리부(44)를 통하여 표시 유닛(38)으로 전송함으로써, 후술하는 편집 화면이나 각종 다이얼로그, 마우스 조작에 따라 편집 화면 내를 이동하는 커서 및 키보드(40)를 통하여 입력된 숫자나 문자 등을 표시 유닛(38)에 표시시키고, 또한 영상 특수 효과 처리부(34)로부터 타이틀 및 그래픽 생성기(45)를 통하여 표시 처리부(44)로 공급하는 영상 신호에 따른 동화상이나 정지 화상을 편집 화면 내의 소정 위치에 표시시킨다.
또 CPU(41)는, 예를 들면 마우스(39)나 키보드(40)가 조작됨으로써 소정 처리의 실행 명령이 인터페이스 회로(46, 47)를 통하여 주어지면, 필요에 따라 ROM(42)에 저장된 프로그램에 의해, 시스템 제어부(32)에 제어 명령 C1을 전송함으로써, 해당 시스템 제어부(32)를 통하여 영상 및 음성 입출력 유닛(33), 영상 특수 효과 처리부(34), 음성 입출력 믹서 유닛(35) 및 또는 디스크 제어부(36)에 소정의 동작을 실행시켜, 편집용 단말 장치(8)는 상기 설명한 각종 처리를 실행시킨다.
또한 CPU(41)는, 필요 시에는, ROM(42)에 저장된 프로그램에 의하여 타이틀 및 그래픽 생성기(45)를 제어하여 타이틀 문자나 그래픽의 화상 데이터를 생성시켜 이것을 영상 특수 효과 처리부(34)에 전송시켜, 이들 타이틀 문자나 그래픽을 편집 영상에 반영시키도록 되어 있다.
여기서 실제 멀티 카메라 모드 시의 표시 화면을 설명한다. 편집용 단말 장치(8)에서 컴퓨터(31) 내의 CPU(41)는, 오퍼레이터의 조작에 의해 멀티 카메라 모드가 설정되면, ROM(42)에 저장되어 있는 프로그램에 따라, 도 6에 나타낸 바와 같은 편집 화면 EP를 표시부에 표시시킨다.
상기 편집 화면 EP에는, 등록된 복수개의 클립의 선두 화상을 각각 표시하기 위한 기록물 표시부(50)와, 지정된 클립에 대하여 모든 비디오 카메라의 촬영 내용을 영상으로 표시하기 위한 기록물 확인부(51)와, 편집 리스트를 작성하기 위한 편집 리스트 작성부(52)와, 편집 결과를 영상 표시하기 위한 편집 확인부(53)가 형성되어 있다.
상기 기록물 표시부(50)에는, 등록된 복수개의 클립에 대응하여 각각 인식용 표시부(50A ~ 50N)(N는 자연수)가 소정의 배치 상태로 표시되어 있다. 이들 복수개의 인식용 표시부(50A ~ 50N)는, 각각 클립의 선두 화상이 썸네일로 표시되는 동시에, 해당 화상의 하단에는 대응하는 클립에 관한 각종 등록 사항(수록 시간이나 텍스트 등)이 표시되도록 되어 있다. 그리고, 기록물 표시부(50)에서는, 메타 데이터에 따라 복수개의 비디오 카메라(2A ~ 2C)에 의해 촬영된 영상 및 음성 기록물에 대하여는, 예를 들면 해당 영상 및 음성 기록물을 나타내는 클립의 선두 화상의 외측선을 적색 등으로 표시하도록 하여, 오퍼레이터가 인지하기 용이하게 되어 있 다.
또 기록물 확인부(51)는, 기록물 표시부(50)에 표시되어 있는 복수개의 인식용 표시부(50A ~ 50N) 중, 오퍼레이터에 의해 지정된 인식용 표시부(50A ~ 50N)를 픽업하여, 해당 클립을 같은 시각에 촬영한 복수개의 비디오 카메라(2A ~ 2C)의 영상을 각각 표시부(이하, 영상 표시부)(51A ~ 51C)에 표시하고, 또한 해당 각 비디오 카메라(2A ~ 2C)의 위치 관계를 소정의 표시 포맷을 가지는 표시부(이하, 위치 표시부)(51D)에 표시하도록 되어 있다.
상기 기록물 확인부(51)에서는, 하단에 조작용 버튼(51E)을 포함하고 있고, 복수개의 영상 표시부(51A ~ 51C)에 대하여, 조작용 버튼(51E)의 조작에 의해 재생, 되감기나 변속 재생 등, 각각 해당 조작 내용에 따른 표시 동작을 행하도록 되어 있다. 이 때 각 영상 표시부(51A ~ 51C)에는, 클립의 선두 화상의 개시 시점으로부터 종료 시점까지의 시각을 타임 라인(51AT ~ 51CT)으로서 각각 표시하도록 되어 있다.
또 위치 표시부(51D)에는, 피사체(OB)의 위치를 기준으로 하여 복수개의 비디오 카메라(2A ~ 2C)의 위치를 각각 대응하는 마크(이하, 위치 마크)MA ~ MC로서 표시하도록 되어 있다. 상기 각 위치 마크 MA ~ MC는, 예를 들면 상기 설명한 도 4(B)와 같이 피사체(OB)의 위치를 가상 중심 좌표 (0, 0)으로 할 때, 마스터 카메라(2A)의 상대 좌표(-5, 4) 및 각 슬레이브 카메라(2B, 2C)의 상대 좌표(-1, -6), (5, 0)와 같은 위치 관계로 표현된다.
또한 편집 리스트 작성부(52)에서는, 오퍼레이터가 기록물 확인부(51)의 각 영상 표시부(51A ~ 51C)에 표시된 영상을 육안으로 관찰 및 확인하면서 클립으로서 등록한 영상 부분의 인포인트 및 아웃포인터를 타임 라인 TL 상에서 지정함으로써, 해당 인포인트로부터 아웃포인트까지의 부분을 클립으로서 등록하는 동시에, 각 비디오 카메라(2A ~ 2C)에 대응하는 트랙(52A ~ 52C)마다 클립에 대응하는 프레임을 표시할 수 있다.
이 때 표시 유닛(38)에 표시되어 있는 상기 클립의 인포인트 및 아웃포인트의 타임 코드나, 기록물 길이 및 저장 위치 등의 관련 데이터가 데이터 베이스로서 컴퓨터(31)(도 5) 내의 RAM(43)에 로드된다.
이와 같이 편집 리스트 작성부(52)에서는, 각 비디오 카메라(2A ~ 2C)에 대응하는 트랙(52A ~ 52C)마다 프레임이 표시되는 것은, 편집 영상 및 음성의 출력 시에 타임 스케일로 표현된 시간에 해당 프레임에 대응하는 클립의 영상이 표시되거나, 또는 상기 클립의 음성이 출력되는 것을 의미한다. 따라서 이와 같은 조작에 의해 편집 영상으로서 편집 확인부(53)에 표시되고, 또는 편집 음성으로서 출력되는 클립 영상 또는 음성을 순차적으로 규정하여 이루어지는 편집 리스트를 작성할 수 있다.
상기 편집 확인부(53)에서는, 하단에 조작용 버튼(53E)이 표시되고, 편집 영상에 대하여, 조작용 버튼(53E)의 조작에 따라서 재생, 되감기나 변속 재생 등, 해당 조작 내용에 따른 표시 동작을 행하도록 되어 있다.
그리고, 편집용 단말 장치(8)는, 상기 설명한 도 1에 있어서, 편집 전의 컨텐츠 데이터를 네트워크로 분배하는 경우에는, 해당 컨텐츠 데이터를 웹 컨텐츠로 변환해 웹 서버(11)에 공급한다. 이 경우, 웹 컨텐츠에는, 상기 설명한 편집 화면 EP(도 6) 중 기록물 확인부(51)에 유사한 GUI(Graphic user interface) 표시용의 데이터가 부가된다.
도 7은, 인터넷 등의 네트워크를 경유하여 웹 서버(11)(도 1)로부터 웹 컨텐츠를 수신하도록 이루어진 표시 제어 장치(60)의 구성을 나타낸다.
상기 표시 제어 장치(60)는, 일반 가정이나 회사내에 설치된 통상적인 퍼스널 컴퓨터이며, 네트워크를 통하여 다른 퍼스널 컴퓨터나 웹 서버(11)와 통신함으로써 필요한 데이터를 송수신하거나, 해당 통신에 의해 얻어진 화면 데이터에 따른 웹 페이지 화면 등을 모니터로 표시할 수 있도록 되어 있다.
상기 표시 제어 장치(60)의 본체부(60H)는, 전체의 제어를 맡는 CPU(61)와 각종 소프트웨어가 저장된 ROM(62)과 CPU(61)의 워크 메모리로서의 RAM(63), 각종 데이터가 저장된 하드 디스크 장치(64)와, CPU(61)가 네트워크를 통하여 외부와 통신하기 위한 인터페이스인 네트워크 인터페이스부(65)와, 스피커(66)가 접속된 음성 처리부(67)와, 모니터(68)가 접속된 화상 처리부(69)와, 키보드 및 마우스 등의 조작 입력부(70)가 접속된 인터페이스부(71)와, 외부 비디오 테이프 구동 장치(72)와 필요에 따라 접속하기 위한 외부 인터페이스부(73)를 가지고, 이러한 구성 요소들이 버스 BUS를 통하여 서로 접속됨으로써 구성되어 있다.
먼저 CPU(61)는, 네트워크를 통하여 표시 제어 장치에 액세스하는, 웹 서버(11)로부터 공급되는 웹 컨텐츠를 네트워크 인터페이스부(65)를 통하여 로드하고, 해당 웹 컨텐츠에 따라서, 또한 ROM(62)에 저장되어 있는 소프트웨어에 따라 각종 처리를 실행한다.
그리고 CPU(61)는, 상기 처리 결과로서 모니터(68) 상에 있어서, 도 8에 나타낸 바와 같이, GUI 표시용의 데이터에 따른 표시 화면(이하, GUI 화면)(80)을 표시시킨다. 상기 GUI 화면(80)은, 복수개의 비디오 카메라(2A ~ 2C)의 촬영 내용을 영상으로 표시하기 위한 기록물 확인부(81)와 해당 기록물 확인부(81)에 있어서 지정된 영상을 확대 표시하기 위한 확대 표시부(82)로 이루어진다.
상기 기록물 확인부(81)는, 각 비디오 카메라(2A ~ 2C)에 대응하는 영상을 표시하는 영상 표시부(81A ~ 81C)와, 해당 각 비디오 카메라(2A ~ 2C)의 위치 관계를 표시하는 위치 표시부(81D)로 이루어진다. 상기 위치 표시부(81D)에는, 피사체(OB)의 위치를 기준으로 하여 복수개의 비디오 카메라(2A ~ 2C)의 위치가 각각 대응하는 위치 마크 MA ~ MC로서 표시되도록 되어 있다.
이 경우, 오퍼레이터가, 예를 들면, 비디오 카메라(2A)를 조작 입력부 등을 통하여 선택한 경우, 선택된 비디오 카메라(2A)의 위치 정보 및 타임 코드 등에 따라서, 복수개의 비디오 카메라(2A ~ 2C)의 위치에 대응하는 위치 마크 MA ~ MC가 서로 연동하여 변화한다.
또 확대 표시부(82)는, 오퍼레이터에 의해 지정된 비디오 카메라(2A ~ 2C)의 영상을 확대하여 표시하고, 또한 하단에 표시된 조작용 버튼(82E)의 조작에 따라 재생, 되감기나 변속 재생 등, 해당 조작 내용에 따른 표시 동작을 행하도록 되어 있다.
그리고 상기 설명한 도 7에 나타내는 표시 제어 장치(60)에서는, 모니터(68) 상에 복수개의 비디오 카메라(2A ~ 2C)의 위치에 각각 대응하는 위치 마크 MA ~ MC가 표시된 상태에서, 사용자가 소정의 개시 시점 및 종료 시점을 지정하면, CPU(61)는, 해당 지정된 시간 내에서의 위치 마크 MA ~ MC의 좌표의 이동 이력을 이력 위치 정보로서, 사용자가 즐겨 O는 파일로 해서 하드 디스크 장치(64) 또는 외부 메모리(도시하지 않음)에 저장하여 둠으로써, 나중에 사용자가 해당 파일을 판독했을 때, 그 이력 위치 정보에 따라 각 비디오 카메라(2A ~ 2C)를 이전의 위치 상태로 재현시킬 수 있다.
도 9는 서버 시스템(1)에서 실행되는 촬영 준비 처리 루틴 RT1를 나타낸다. 먼저 각 비디오 카메라(2A ~ 2C)에 있어서, 오퍼레이터에 의해 멀티 카메라 촬영이 선택되면, 카메라 본체 내의 CPU(도시하지 않음)는, 도 9에 나타내는 촬영 준비 처리 루틴 RT1을 단계 SP0부터 개시하고, 그 다음 단계 SP1에 있어서, 소정의 메뉴 화면을 사용하여 멀티 카메라 플래그를 설정한다.
이어서 CPU는, 단계 SP2로 진행되어, 마스터 카메라(2A)인지 여부를 판단하고, 결과가 '예'인 경우에는, 단계 SP3으로 진행되어, 각 슬레이브 카메라의 번호 및 ID를 메타 데이터에 기술한 후, 단계 SP4로 진행되어 해당 촬영 준비 처리 루틴 RT1을 종료한다.
이에 비하여 단계 SP2에 있어서 결과가 '아니오'인 경우, 슬레이브 카메라(2B, 2C)인 것을 의미하고, 이 때 CPU는, 단계 SP5로 진행되어, 마스터 카메라(2A)의 ID를 메타 데이터에 기록한 후, 단계 SP6으로 진행되어, 타임 코드를 마스터 카메라(2A)를 기준으로 하여 공통화시키고 단계 SP4로 진행되어 해당 촬영 준비 처리 루틴 RT1을 종료한다.
이와 같이 멀티 카메라 촬영의 준비 단계에 있어서, 복수개의 비디오 카메라(2A ~ 2C)를 마스터 카메라(2A)와 각 슬레이브 카메라(2B, 2C)와의 위치 관계 및 시간 관계를 미리 메타 데이터의 데이터 내용으로 설정할 수가 있다.
도 10은 서버 시스템(1)에서 실행되는 촬영 처리 루틴 RT2를 나타낸다. 오퍼레이터에 의해 멀티 카메라 촬영이 개시되면, 각 비디오 카메라(2A ~ 2C)에서는, 카메라 본체 내의 CPU(도시하지 않음)가 도 10에 나타내는 촬영 처리 루틴 RT2를 단계 SP10부터 개시하고, 계속되는 단계 SP11에 있어서, 다음의 프레임을 기록하는지 여부를 판단한다.
상기 단계 SP11에 있어서 결과가 '예'이면, 단계 SP12으로 진행되어, CPU는 GPS에 의해 위치 정보를 나타내는 좌표 데이터를 취득한 후, 단계 SP13에 있어서 촬영 시에 양호 촬영 마크 등이 부가된 경우에는 오퍼레이터에 의해 마크가 표시된다.
이 후 CPU는, 단계 SP14으로 진행되어, 타임 코드를 1 프레임 분 만큼 진행시킨 후, 재차 단계 SP11로 돌아와 전원 오프 상태가 될 때까지 프레임 단위로 루프를 반복한다.
이에 비하여 단계 SP11에 있어서 결과가 '아니오'일 경우, 다음의 프레임을 기록하지 않는 것을 의미하고, 이 때 CPU는, 단계 SP14로 진행되어, 1 프레임 분 만큼 타임 코드를 진행시킨 후, 재차 단계 SP11로 돌아와 전원 오프 상태로 될 때까지 프레임 단위로 루프를 반복한다.
이와 같이 멀티 카메라 촬영 시에는, 복수개의 비디오 카메라(2A ~ 2C)에 대하여, 기록 대상이 되는 각 프레임에 대하여서만, 각 비디오 카메라(2A ~ 2C)의 상대 위치 관계나 마스터 카메라(2A)의 타임 코드와 동기하는 각 슬레이브 카메라(2B, 2C)의 타임 코드, GPS 정보 등을 촬영 시에 필요한 메타 데이터의 데이터 내용으로서 기록할 수 있다.
도 11은 서버 내 처리 루틴 RT3을 나타낸다. 오퍼레이터에 의해 멀티 카메라 촬영의 촬영 결과 저장을 선택하면, 서버(3)를 전체적으로 제어하는 제어부(도시하지 않음)는, 도 11에 나타낸 것처럼 단계 SP20을 처음으로 하여 서버 내 처리 루틴 RT3을 시작한다. 단계 SP21에서, 컨텐츠 데이터가 각 비디오 카메라(2A ~ 2C)로부터 업로드(upload)된다.
단계 SP22에 있어서, 제어부는 다중화 및 분리부(22)를 제어하여, 컨텐츠 데이터를 영상 데이터, 음성 데이터 및 메타 데이터로 분리한 후, 데이터 변환부(24) 및 메타 데이터 처리부(25)를 제어하여, 해당 각 데이터에 대하여 필요한 처리를 행한다.
이어서 제어부는, 단계 SP23으로 진행되어, 메타 데이터 처리부(25)를 제어하여, 메타 데이터에 따른 파일 시스템 내의 멀티 카메라 데이터로부터 얻어진 각종 ID에 따라, 해당하는 영상 및 음성 기록물의 어드레스를 결정한 후, 입력부(20) 내의 데이터 베이스(20B)에 등록한다.
이어서 제어부는, 단계 SP24로 진행되어, 영상 데이터, 음성 데이터 및 메타 데이터를 각각 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛 (28)에 저장시킨 후, 단계 SP25로 진행되어 해당 서버 내 처리 루틴 RT3을 종료한다.
이와 같이 서버(3)에서는, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)에 각각 저장시킨 영상 데이터, 음악 데이터 및 메타 데이터에 대하여, 마스터 카메라(2A)에 의해 수록된 영상 및 음성 기록물에 따라서, 동일 시간에 각 슬레이브 카메라(2B, 2C)에 의해 수록된 영상 및 음성 기록물을 용이하게 검색할 수 있고, 또한 각 슬레이브 카메라(2B, 2C)에 의해 수록된 영상 및 음성 기록물에 따라서, 동일 시간에 수록된 마스터 카메라(2A)에 의해 수록된 영상 및 음성 기록물을 용이하게 검색할 수 있다.
여기서 상기 설명한 도 11에 나타내는 서버 내 처리 루틴 RT3의 단계 SP22에 있어서, 제어부는, 컨텐츠 데이터를 분리하여 메타 데이터를 얻으면, 도 12에 나타낸 단계 SP30를 처음으로 하여 서버 내 처리 루틴 RT4를 개시하고, 계속되는 단계 SP31에 있어서, 메타 데이터 중 멀티 카메라 데이터를 식별했는지 여부를 판단한다.
단계 SP31에서 결과가 '예'이면, 제어부는, 단계 SP32로 진행되어, 멀티 카메라 데이터로부터 마스터/슬레이브의 플래그 등을 검출한다. 이 때 제어부는, 마스터 카메라(2A)의 경우에는, 각 슬레이브 카메라(2B, 2C)의 번호 및 ID를 검출하는 한편, 슬레이브 카메라(2B, 2C)의 경우에는, 마스터 카메라(2A)의 ID를 검출한다.
단계 SP32에 있어서, 해당하는 동일 시간에 수록된 영상 및 음성 기록물의 어드레스를 참조하면, 제어부는, 입력부(20) 내의 데이터 베이스(20B)에 있어서의 디렉토리 구조를 재구축하여 수정한 후, 단계 SP35로 진행되어 해당 서버 내 처리 단계 RT4를 종료한다.
이와 같이 서버(3)에서는, 메타 데이터로부터 멀티 카메라 데이터를 식별하면, 파일 시스템 내의 데이터 베이스(20B)의 디렉토리 구조를 재구축하도록 하여, 마스터 카메라(2A) 및 각 슬레이브 카메라(2B, 2C) 사이에서 서로 동일한 영상 및 음성 기록물을 용이하게 검색할 수 있다.
또한 상기 설명한 한 도 12에 나타내는 서버 내 처리 루틴 RT4의 단계 SP33에서, 제어부는, 해당하는 동일 시간에 수록된 영상 및 음성 기록물의 어드레스를 참조하면, 도 13에 나타내는 단계 SP40을 처음으로 하는 서버 내 처리 루틴 RT5를 개시하고, 계속되는 단계 SP41에서, 메타 데이터로부터 좌표 데이터를 검출하여, 해당 좌표 데이터에 따라 피사체의 위치를 기준으로 하는 가상 중심 좌표를 확정한다.
이어서 제어부는, 단계 SP42로 진행되어, 가상 중심 좌표를 기준으로 하여 각 비디오 카메라(2A ~ 2C)의 현재 위치를 나타내는 GPS 좌표를 각각 상대 좌표로 변환하기 위한 계산을 실행한다.
이어서 제어부는, 단계 SP43으로 진행되어, 좌표 데이터를 갱신하여 변환된 GPS 좌표를 상대 좌표에 재 기입 후, 단계 SP44으로 진행되어 해당 서버 내 처리 루틴 RT4를 종료한다.
이와 같이 서버(3)에서는, 피사체에 대한 마스터 카메라(2A) 및 각 슬레이브 카메라(2B, 2C)의 상대 위치를 GPS 좌표에 따라 용이하게 구할 수가 있어, 멀티 카메라 촬영에 의한 컨텐츠 데이터를 처리하는 오퍼레이터의 작업 효율(예를 들면 편집 효율)을 현격하게 향상시킬 수 있다.
이상의 구성에 있어서, 상기 서버 시스템(1)에서는, 복수개의 비디오 카메라(2A ~ 2C)를 사용한 멀티 카메라 촬영 시에, 기준이 되는 마스터 카메라(2A)와 해당 마스터 카메라(2A)에 대하여 종속 관계에 있는 각 슬레이브 카메라(2B, 2C) 사이에서, 멀티 카메라 촬영인 것을 나타내는 플래그와, 위치, 및 시간을 나타내는 정보를 각각 촬영 내용에 부가하는 메타 데이터에 기록해 둔다.
그리고 멀티 카메라 촬영으로서 각 비디오 카메라(2A ~ 2C)로부터 공급되는 컨텐츠 데이터가 마스터 카메라(2A)의 촬영 결과인 것으로 판단한 경우에는, 서버(3)는 각 슬레이브 카메라(2B, 2C)의 번호 및 ID에 따라, 해당 각 슬레이브 카메라(2B, 2C)의 영상 및 음성 기록물의 개수 및 어드레스를 결정한 후, 해당 어드레스에 따라 영상 및 음성 기록물을 저장시킨다.
이에 비하여 멀티 카메라 촬영으로서 각 비디오 카메라(2A ~ 2C)로부터 공급되는 컨텐츠 데이터가 슬레이브 카메라(2B, 2C)의 촬영 결과인 것으로 판단한 경우에는, 서버(3)는 마스터 카메라(2A)의 ID에 따라, 해당 마스터 카메라(2A)의 영상 및 음성 기록물의 어드레스를 결정한 후, 해당 어드레스에 따라 영상 및 음성 기록물을 저장시킨다.
이와 같이 서버(3)에서는, 마스터 카메라(2A)와 각 슬레이브 카메라(2B, 2C)에 의해 동시에 수록된 영상 및 음성 기록물을 동일한 어드레스에 따라서 저장함으 로써, 해당 저장된 영상 및 음성 기록물에 따라, 촬영원 이외의 다른 비디오 카메라(2A ~ 2C)에 의해 동시에 수록된 영상 및 음성 기록물을 용이하게 검색할 수 있다.
이리하여 서버(3)에 있어서는, 복수개의 비디오 카메라(2A ~ 2C)의 촬영 결과인 컨텐츠 데이터가 공급되어도, 해당 컨텐츠 데이터에 따른 영상 및 음성 기록물이 마스터 카메라(2A) 또는 각 슬레이브 카메라(2B, 2C) 중 어디에 수록된 내용인가, 저장된 파일 및 파일명, 수록 시간 등을 데이터 베이스를 검색함으로써 자동적으로 식별할 수 있다.
또 서버(3)에 있어서는, 복수개의 비디오 카메라(2A ~ 2C)에 의한 멀티 카메라 촬영인 경우, 각 비디오 카메라(2A ~ 2C)의 현재 위치를 나타내는 GPS 좌표를, 피사체(OB)의 위치를 가상적인 중심 좌표로 하는 상대 좌표로 각각 변환에 의하여, 그 후의 편집 처리시에 각 비디오 카메라(2A ~ 2C)의 상대적인 위치 관계를 용이하게 구할 수 있다.
이상의 구성에 의하면, 상기 서버 시스템(1)에서는, 복수개의 비디오 카메라(2A ~ 2C)끼리의 마스터-슬레이브 관계와 위치 및 시간 정보를 각각 촬영 결과에 포함하여 해당 촬영 결과를 받은 서버(3)에서, 마스터 카메라(2A)와 각 슬레이브 카메라(2B, 2C) 사이에서의 위치 관계 및 시간 관계를 저장하여 두고, 또한 동일한 어드레스에 따라 동일 시간에 수록된 영상 및 음성 기록물을 저장한 것에 의하여, 해당 저장된 영상 및 음성 기록물에 따라서만, 촬영원 이외의 다른 비디오 카메라(2A ~ 2C)에 의해 동일 시간에 수록된 영상 및 음성 기록물을 용이하게 인식할 수 있고, 따라서 편집 처리를 현격하게 향상시킬 수 있는 서버 시스템(1)을 실현할 수 있다.
그리고 상기 설명한 본 실시예에 있어서는, 복수개의 비디오 카메라(촬영 수단)(2A ~ 2C)로부터 피사체(OB)의 촬영 결과로서 얻어지는 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 저장하고, 필요에 따라 전송하는 정보 처리 장치로서, 도 1에 나타내는 서버 시스템(1) 내의 서버(3)를 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 이 외 각종 구성으로 이루어지는 정보 처리 장치에 널리 적용할 수 있다. 본 실시예의 경우, 슬레이브 카메라(2B, 2C)를 2대 설치하도록 했지만, 이외에도 1대 또는 3대 이상 설치할 수도 있다.
또 상기 설명한 본 실시예에 있어서는, 각 비디오 카메라(촬영 수단)(2A ~ 2C)의 촬영 결과가 되는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 각각 공통 어드레스를 할당해 두고, 해당 어드레스에 따라 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 각각 저장하는 저장 수단으로서, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)을 적용하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 어드레스에 따라 각종 데이터를 저장할 수 있으면, 이 외 각종 저장 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)(저장 수단)으로부터 특정한 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 영상 및 음성 기록물을 판독했을 때, 해당 영상 및 음성 기록물와 동일 시간에 촬영된 특정한 비디오 카메라(촬영 수단)(2A ~ 2C) 이외의 다른 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 영상 및 음성 기록물을 검색하는 검색 수단을, 서버(3) 내의 주로 메타 데이터 처리부(25) 및 입력부(20) 내의 데이터 베이스(20B)로 구성하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 이 외 각종 구성으로 이루어지는 검색 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 부가되는 메타 데이터(부가 정보)에 따라, 해당 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리의 상대적인 위치 관계 및 시간 관계를 인식하는 인식 수단으로서, 주로 서버(3) 내의 메타 데이터 처리부(25) 및 제어부(도시하지 않음)를 적용하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)(저장 수단)은, 메타 데이터 처리부(인식 수단)(25)에 의해 인식된 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리의 상대적인 위치 관계 및 시간 관계를, 각 비디오 카메라(촬영 수단)(2A ~ 2C)마다 대응하는 영상 및 음성 기록물에 각각 부가하여 저장할 수 있으면, 이 외 각종 구성으로 이루어지는 인식 수단에 널리 적용할 수도 있다.
또 멀티 카메라 데이터의 파일은, 도 3에 나타낸 바와 같은, 멀티 카메라(Multi Camera)의 플래그, 마스터/슬레이브(Master/Slave)의 플래그, 마스터 카메라(2A)일 경우, 각 슬레이브 카메라의 번호(Number of Slave) 및 해당 각 슬레이브 카메라(2B, 2C)의 ID(Slave ID1, Slave ID2, …), 슬레이브 카메라(2B, 2C)일 경우, 마스터 카메라(2A)의 ID(Master ID)를 포함한다. 이 외에도 도 14에 나타낸 바와 같이, 멀티 카메라 데이터의 파일을, 각 비디오 카메라(2A ~ 2C)에 공통의 그룹 ID(Group ID), 각 비디오 카메라(2A ~ 2C)의 번호(Number of Camera) 및 해당 각 비디오 카메라(2A ~ 2C)의 ID(Camera ID1, Camera ID2, …)를 사용할 수도 있다.
즉 모든 비디오 카메라(2A ~ 2B)에 대하여, 마스터-슬레이브 관계를 설정하지 않고, 이들이 동일 프로젝트인 것을 서로 전달해 두어, 그룹 내의 모든 비디오 카메라(2A ~ 2C)를 링크시켜도, 해당 각 비디오 카메라(2A ~ 2B)끼리의 상대적인 위치 관계 및 시간 관계를 인식할 수 있다.
또 모든 비디오 카메라(2A ~ 2B)에 대하여, 마스터-슬레이브 관계의 설정과 관계없이, 복수개의 그룹을 가지는 경우에는, 대응하는 각 그룹 ID에 대하여 소정의 가중치(중요도)를 각각 설정해 두고, 상기 가중치에 따라 검색, 표시 또는 그 외 처리를 할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 있어서 측정된 해당 각 비디오 카메라(촬영 수단)(2A ~ 2C)의 현재 위치를, 특정한 비디오 카메라(촬영 수단)(2A ~ 2C) 또는 피사체(OB)를 기준으로 하는 상대 위치로 변환하는 변환 수단으로서, 주로 서버(3) 내의 주로 메타 데이터 처리부(25) 및 제어부(도시하지 않음)를 적용하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 각 비디오 카메라(촬영 수단)(2A ~ 2C)의 상대적인 위 치 관계를 구할 수 있으면, 그 외의 구성으로 이루어지는 변환 수단에 널리 적용할 수도 있다.
이 경우, 서버(3)에서, 복수개의 비디오 카메라(2A ~ 2C)에 의한 멀티 카메라 촬영인 경우, 각 비디오 카메라(2A ~ 2C)의 현재 위치를 나타내는 GPS 좌표를, 피사체(OB)의 위치를 가상적인 중심 좌표로 하는 상대 좌표로 각각 변환하도록 한 경우에 대하여 기술하였으나, 마스터 카메라(2A)의 위치를 가상적인 중심 좌표로서 각 슬레이브 카메라(2B, 2C)의 GPS 좌표를 상대 좌표로 변환하도록 해도 동일한 효과를 얻을 수 있고, 피사체(OB)의 GPS 좌표를 구할 필요가 없기 때문에, 계산을 용이하게 할 수 있다.
또한 상기 설명한 본 실시예에 있어서, 도 2에 나타내는 구성의 서버(3)에서는, 영상 저장 유닛(26), 음성 저장 유닛(27) 및 메타 데이터 저장 유닛(28)을 각각 별도로 설치하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 이들을 단일 저장 유닛에서 저장하도록 구성할 수도 있고, 또 영상 데이터 및 음성 데이터를 동일 파일로서 취급하거나 또는 개별 파일으로서 취급할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 편집용 단말 장치(8)의 표시부나 표시 제어 장치(60)의 모니터(68)에 표시되는 GUI의 표시 방법으로서, 도 6에 나타내는 편집 화면 EP나 도 8에 나타내는 GUI 화면(80)과 같은 표시 방법을 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 이들 이외의 각종 표시 방법을 적용할 수도 있다.
예를 들면, 복수개의 그룹에 있어서, 각 그룹에 대응하는 복수개의 마스터 카메라로부터 촬영된 영상 및 음성 기록물 및 복수개의 슬레이브 카메라로부터 촬영된 영상 및 음성 기록물을 적절히 표시할 수도 있다. 이 경우, 편집 작업을 하는 오퍼레이터 및 스트리밍 분배를 시청하는 사용자는, 특정한 카메라로 촬영한 영상 및 음성 기록물을 적절히 선택할 수 있게 하고, 선택한 영상 및 음성 기록물을 예를 들면, 별도 윈도우 등으로 표시할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, GUI 표시하는 기종으로서, 편집용 단말 장치(8) 및 표시 제어 장치(60)를 적용하고, 각각 편집 화면(80)(도 6) 및 웹 컨텐츠에 의한 브라우저인 GUI 화면(80)(도 8)을 GUI 표시하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 이들 이외의 장치를 적용시켜 각종의 GUI를 표시할 수도 있다.
예를 들면, 퍼스널 컴퓨터, 비디오 카메라, 디지털 카메라, 휴대 정보 단말기(휴대폰, 휴대형 게임기 등) 및 카 나비게이션(car navigation) 등을 GUI 표시시키는 기종으로서 적용할 수도 있다. 또, 카메라 내장(혹은 GPS 내장) 휴대폰과 같이, 촬영부와 촬영 위치 측정부가 일체로 되어 있는 장치에도 적용할 수 있다.
또한 상기 설명한 본 실시예에 있어서, 피사체를 촬영하는 촬영 수단으로서 비디오 카메라(2A ~ 2C)를 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 예를 들면, 카메라 내장 퍼스널 컴퓨터, 웹 카메라 및 카메라 내장 휴대폰 등, 피사체를 촬영할 수 있는 것이면 각종 촬영 기기에 널리 적용 할 수도 있다. 이 경우, 위치 정보를 취득하는 GPS는, 장치로서 일체화, 또는 카메라와 유 선 또는 무선으로 통신할 수 있도록 한 형태도 생각할 수 있다.
또한 상기 설명한 본 실시예에 있어서, 메타 데이터를 구성하는 위치 정보는, GPS(위도 및 경도)의 2차원 정보로 한정되지 않고, 예를 들면 도 1에 나타내는 비디오 카메라(2A ~ 2C)와 같이, 높이를 포함하는 위치 정보를 사용해도 본 실시예를 적용할 수 있다.
또한 상기 설명한 본 실시예에 있어서는, 미디어 재생용 재생 장치(6)에 있어서 재생되는 기록 매체(7)로서, 비디오 테이프를 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 비디오 테이프 이외에도 예를 들면, 광디스크, 광자기 디스크, 반도체 메모리 및 자기 디스크 등의 각종 기록 매체에 널리 적용할 수 있다.
또한 상기 설명한 실시예에서의 일련의 조작은, 각각의 기능을 가지는 하드웨어에 의해 실행할 수 있지만, 소프트웨어에 의해 실행할 수도 있다. 일련의 조작을 소프트웨어에 의해 실행하는 경우로는, 그 소프트웨어를 구성하는 프로그램이 전용 하드웨어에 내장되어 있는 경우가 있고, 컴퓨터 또는 각종 프로그램을 인스톨함으로써, 각종 기능을 실행할 수 있는, 예를 들면 범용 퍼스널 컴퓨터 등에, 예를 들면 기록 매체로부터 인스톨하는 경우가 있다.
또한 상기 설명한 본 실시예에 있어서는, 복수개의 비디오 카메라(촬영 수단)(2A ~ 2C)로부터 피사체의 촬영 결과로서 얻어지는 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 각각 공통 어드레스를 할당해 두고, 해당 어드레스에 따라 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 각각 저장하는 제1 단계와, 특정한 비디오 카메라(촬영 수단)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물)를 판독했을 때, 해당 컨텐츠 데이터(영상 및 음성 기록물)와 동일 시간에 촬영된 특정한 비디오 카메라(촬영 수단) 이 외의 다른 비디오 카메라(촬영 수단)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물)를 검색하는 제2 단계을 컴퓨터에 실행시키기 위한 프로그램을 생성하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 해당 프로그램을 기록한 컴퓨터에서 판독 가능한 각종 기록 매체에도 적용할 수 있다. 상기 기록매체로서는, 광디스크, 광자기 디스크, 반도체 메모리 및 그 외 패키지 미디어 등을 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 각 비디오 카메라(촬영 수단)(2A ~ 2C)를 마스터-슬레이브 관계를 가진 상태로 그룹화하고, 해당 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리를 링크시키기 위한 어드레스 정보를 포함하는 메타 데이터(부가 정보)가 각각 부가된 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 입력하는 입력 수단을, 서버(3) 내의 입력부(20)로 구성하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 입력 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 서버(3) 내의 입력부(입력 수단)(20)에 의해 입력된 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C로부터 메타 데이터(부가 정보)를 취득하는 취득 수단을, 서버(3) 내의 다중화 및 분리부(22)로 구성한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 취득 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 서버(3) 내의 입력부(입력 수단)(20)에 의해 입력된 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C와 다중화 및 분리부(취득 수단)(22)에 의해 취득된 해당 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 대응하는 메타 데이터(부가 정보)를, 해당 메타 데이터(부가 정보)에 따라 기억하는 기억 수단으로서, 메타 데이터 저장 유닛(28)을 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 기억 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 특정한 비디오 카메라(촬영 수단)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 기억 수단으로부터 판독한 경우, 해당 판독된 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 링크되는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 자동적으로 검색하는 검색 수단을, 서버(3) 내의 메타 데이터 처리부(25) 및 어드레스 처리부(23)로 구성하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 검색 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 서버(3) 내의 메타 데이터 처리부(25) 및 어드레스 처리부(23)로 이루어지는 검색 수단에 의해 검색된 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 출력하는 출력 수단을, 서버(3) 내의 입력부(20)로 구성하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 출력 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서, 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 부가 되는 메타 데이터(부가 정보)는, 각각 대응하는 비디오 카메라(촬영 수단)(2A ~ 2C)가 촬영할 때의 시간 정보 및 위치 정보를 포함하고, 해당 각 시간 정보는, 대응하는 각 비디오 카메라(촬영 수단)(2A ~ 2C) 끼리 일치시키도록 설정되고, 다중화 및 분리부(취득 수단)(22)에 의해 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C로부터 각각 취득된 메타 데이터(부가 정보)에 따라, 해당 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 대응하는 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리의 상대 위치 관계 및 상대 시간 관계를 인식하는 인식 수단으로서, 서버(3) 내의 메타 데이터 처리부(25)를 적용하고, 메타 저장 유닛(저장 수단)(28)은, 메타 데이터 처리부(인식 수단)(25)에 의해 인식된 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리의 상대 위치 관계 및 상대 시간 관계를, 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 각각 부가하여 기억하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 각 비디오 카메라(촬영 수단)(2A ~ 2C)끼리의 상대 위치 관계 및 상대 시간 관계를, 해당 각 비디오 카메라(촬영 수단)(2A ~ 2C)에 대응하는 컨텐츠 데이타(영상 및 음성 기록물) S1A ~ S1C에 각각 부가하여 기억할 수 있으면, 그 외 각종의 구성으로 이루어지는 인식 수단 및 기억 수단에 널리 적용할 수도 있다.
또한 상기 설명한 본 실시예에 있어서는, 복수개의 비디오 카메라(촬영 수단)(2A ~ 2C)로부터 피사체의 촬영 결과로서 얻어지는 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 표시하는 표시 제어 장치로서, 도 7에 나타내는 구성의 표시 제어 장치(60)를 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 그 외 각종 구성으로 이루어지는 표시 제어 장치에 널리 적용할 수도 있다.
상기 설명한 도 7에 나타내는 표시 제어 장치(60)에서는, 각 비디오 카메라(촬영 수단)(2A ~ 2C)를 마스터-슬레이브 관계를 갖게한 상태로 그룹화하고, 해당 각 비디오 카메라(촬영 수단)(2A ~ 2C) 끼리를 링크시키기 위한 어드레스 정보를 포함하는 메타 데이터(부가 정보)가 각각 부가된 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C로부터 해당 메타 데이터(부가 정보)를 각각 취득하는 취득 수단으로서, CPU(61)를 적용하고, CPU(취득 수단)(61)에 의해 취득된 각 메타 데이터(부가 정보)에 따라, 대응하는 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 연동시키는 상태로 표시시키는 표시 제어 수단으로서, 화상 처리부(69) 및 모니터(68)을 적용한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 상기와 같은 표시 방법을 실현할 수 있으면, 그 외 각종 구성으로 이루어지는 취득 수단 및 표시 제어 수단에 널리 적용할 수도 있다.
또한 상기 설명한 도 7에 나타내는 표시 제어 장치(60)에서는, 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 부가 되는 메타 데이터(부가 정보)는, 각각 대응하는 비디오 카메라(촬영 수단)(2A ~ 2C)가 촬영할 때의 시간 정보 및 위치 정보를 포함하고, 취득 수단에 의해 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C로부터 각각 취득된 메타 데이터(부가 정보)에 따라, 해당 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C에 대응하는 각 비디오 카메라(촬영 수단)(2A ~ 2C) 끼리의 상대 위치 관계 및 상대 시간 관계를 인식하는 인식 수단으로서 CPU(61)를 적용하고, 화상 처리부(69) 및 모니터(68)으로 이루어지는 표시 제어 수단은, CPU(인식 수단)(61)에 의해 인식된 상대 위치 관계 및 상대 시간 관계에 따라, 각 컨텐츠 데이터(영상 및 음성 기록물) S1A ~ S1C를 선택적으로 표시하도록 한 경우에 대하여 기술하였으나, 본 발명은 이에 한정되지 않고, 상기와 같은 표시 방법을 실현할 수 있으면, 그 외 각종 구성으로 이루어지는 인식 수단에 널리 적용할 수도 있다.
본 발명은, 정보 처리 장치, 정보 처리 방법, 프로그램, 및 기록 매체에 있어서, 서버 이외에도 각종의 데이터를 저장 가능한 정보 처리 장치에 널리 적용할 수 있다.
이상, 첨부 도면을 참조하면서 본 발명의 바람직한 실시예에 대하여 설명했지만, 본 발명은 관계되는 예로 한정되지 않는 것은 말할 필요도 없다. 당업자라면, 특허 청구의 범위에 의해 정해지는, 각종의 변경예 또는 수정예를 실현할 수 있는 것은 분명하고, 그들에 대하여도 당연하게 본 발명의 기술 범위에 속하는 것으로 이해된다.
본 발명에 의하면, 촬영원 이외의 다른 촬영 수단에 의해 동일 시간에 수록된 영상 및 음성 기록물을 용이하게 인식할 수 있어서, 오퍼레이터의 작업 효율을 현격하게 향상시킬 수 있는 정보 처리 방법을 실현할 수 있다.
또한 하나의 촬영 기기에 취득된 컨텐츠 데이터가 판독되기만 하면, 다른 촬 영 기기에 의해서도 동시에 수록된 상기 컨텐츠 데이터를 용이하게 인식할 수 있기 때문에, 오퍼레이터의 작업 효율을 향상시킬 수 있다.
Claims (13)
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리 장치에 있어서,서버를 포함하는 상기 정보 처리 장치는,피사체를 촬영하는 동시에 상기 컨텐츠 데이터와 관련된 부가 정보를 저장하는 저장 수단과,상기 저장 수단에 의해서 저장된 상기 부가 정보를 취득하여 조직화하는 취득 수단과,복수개의 촬영 수단 중 특정 촬영 수단에 대응되는 컨텐츠 데이터가 상기 저장 수단으로부터 판독될 경우, 컨텐츠 데이터와, 판독된 상기 컨텐츠 데이터에 링크되는 부가 정보를 자동적으로 검색하는 검색 수단과,상기 취득 수단에 의해 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응하는 촬영 수단 사이의 상대 위치 관계 또는 상대 시간 관계를 인식하는 인식 수단과,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 수단을 포함하고,상기 부가 정보는 그룹화된 촬영 수단에 의해 촬영된 시간 정보와 위치 정보를 포함하고, 상기 그룹화된 복수개의 촬영 수단으로부터 얻어지는 상기 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하며, 상기 그룹화된 촬영 수단에 대한 시간 정보는 서로 일치되는,정보 처리 장치.
- 제1항에 있어서,상기 어드레스 정보는 상기 복수개의 촬영 수단 사이의 관계에 관련되는 그룹화된 어드레스 정보인, 정보 처리 장치.
- 제2항에 있어서,상기 관계는 하나의 마스터와 복수개의 슬레이브로 이루어지는 마스터-슬레이브 관계를 포함하는 정보 처리 장치.
- 제1항에 있어서,상기 저장 수단은, 상기 촬영 수단에 대응되는 상기 컨텐츠 데이터에 관련되는 상기 인식 수단에 의해 인식된 상기 촬영 수단 사이의 상대 위치 관계 또는 상대 시간 관계를 저장하는, 정보 처리 장치.
- 삭제
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리 방법에 있어서,상기 정보 처리 방법은,피사체를 촬영하는 동시에 상기 컨텐츠 데이터와 관련된 부가 정보를 서버에 저장하는 저장 단계와,상기 저장 단계에서 저장된 상기 부가 정보를 서버에 취득하여 조직화하는 취득 단계와,복수개의 촬영 수단 중 특정 촬영 수단에 대응하는 컨텐츠 데이터가 판독될 경우, 컨텐츠 데이터와, 판독된 상기 컨텐츠 데이터에 링크되는 부가 정보를 서버에 자동적으로 검색하는 검색 단계와,상기 취득 단계에서 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응되는 촬영 수단 사이의 상대 위치 관계 또는 상대 시간 관계를 인식하는 인식 단계와,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 단계를 포함하고,상기 부가 정보는 그룹화된 촬영 수단에 의해 촬영된 시간 정보와 위치 정보를 포함하며, 상기 그룹화된 복수개의 촬영 수단으로부터 얻어지는 상기 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하고, 상기 그룹화된 촬영 수단에 대한 시간 정보는 서로 일치되는,정보 처리 방법.
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리를 컴퓨터에 의해 실행시키는 프로그램이 기록된, 컴퓨터로 판독 가능한 기록 매체에 있어서,상기 정보 처리는,피사체를 촬영하는 동시에 상기 컨텐츠 데이터와 관련된 부가 정보를 서버에 저장하는 저장 단계와,상기 저장 단계에서 저장된 상기 부가 정보를 서버에 취득하여 조직화하는 취득 단계와,복수개의 촬영 수단 중 특정 촬영 수단에 대응되는 컨텐츠 데이터가 판독될 경우, 컨텐츠 데이터와, 판독된 상기 컨텐츠 데이터에 링크되는 상기 부가 정보를 서버에서 자동적으로 검색하는 검색 단계와,상기 취득 단계에서 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응하는 촬영 수단 사이의 상대 위치 관계 또는 상대 시간 관계를 인식하는 인식 단계와,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 단계를 포함하고,상기 부가 정보는 그룹화된 촬영 수단에 의해 촬영된 시간 정보와 위치 정보를 포함하고, 상기 그룹화된 복수개의 촬영 수단으로부터 얻어지는 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하며, 상기 그룹화된 촬영 수단에 대한 시간 정보는 서로 일치되는 프로그램이 기록된,컴퓨터로 판독 가능한 기록 매체.
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리 장치에 있어서,서버를 포함하는 상기 정보 처리 장치는,그룹화된 촬영 수단으로부터 얻어지는 상기 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하는 부가 정보를 취득하여 조직화하는 취득 수단과,복수개의 촬영 수단 중 특정 촬영 수단에 대응되는 컨텐츠 데이터가 지정될 경우, 상기 취득 수단에 의해 취득된 부가 정보에 기초하여, 컨텐츠 데이터와, 지정된 상기 컨텐츠 데이터에 링크되는 상기 부가 정보를 자동적으로 검색하는 검색 수단과,상기 취득 수단에 의해 취득된 부가 정보와, 상기 검색 수단에 의해 검색된 컨텐츠 데이터를 이용하여, 링크된 방식으로 상기 컨텐츠 데이터를 표시하는 표시 제어 수단과,상기 취득 수단에 의해 상기 컨텐츠 데이터로부터 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응되는 촬영 수단 사이의 상대 위치 관계 및 상대 시간 관계를 인식하는 인식 수단과,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 수단을 포함하고,상기 부가 정보는 상기 촬영 수단에 의해 수행되는 촬영에 대한 시간 정보와 위치 정보를 포함하는 상기 컨텐츠 데이터에 부가되는 것인,정보 처리 장치.
- 제8항에 있어서,상기 표시 제어 수단은, 상기 인식 수단에 의해 인식된 상기 상대 위치 관계 및 상기 상대 시간 관계에 기초하여 상기 컨텐츠 데이터를 표시하는, 정보 처리 장치.
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리를 컴퓨터에 실행시키는 프로그램이 기록된 서버에 있는 기록 매체를 이용하는 정보 처리 방법에 있어서,상기 정보 처리 방법은,피사체를 촬영하는 동시에 상기 컨텐츠 데이터와 관련된 부가 정보를 저장하는 저장 단계와,상기 저장 단계에서 저장된 상기 부가 정보를 취득하여 조직화하는 취득 단계와,복수개의 촬영 수단 중 특정 촬영 수단에 대응되는 컨텐츠 데이터가 판독될 경우, 컨텐츠 데이터와, 판독된 상기 컨텐츠 데이터에 링크된 부가 정보를 자동적으로 검색하는 검색 단계와,상기 취득 단계에서 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응하는 촬영 수단 사이의 상대 위치 관계 또는 상대 시간 관계를 인식하는 인식 단계와,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 단계를 포함하고,상기 부가 정보는 그룹화된 촬영 수단에 의해 촬영된 시간 정보와 위치 정보를 포함하고, 상기 그룹화된 복수개의 촬영 수단으로부터 얻어지는 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하며, 상기 그룹화된 촬영 수단에 대한 시간 정보는 서로 일치되는,정보 처리 방법.
- 피사체를 촬영하는 복수개의 촬영 수단으로부터 취득하는 컨텐츠 데이터를 처리하는 정보 처리 방법에 있어서,상기 정보 처리 방법은,촬영된 피사체로부터 얻은 컨텐츠 데이터를 링크하기 위한 어드레스 정보를 포함하는 부가 정보를 서버에 취득하여 조직화하는 취득 단계와,복수개의 촬영 수단 중 특정 촬영 수단에 대응하는 컨텐츠 데이터가 지정될 경우, 상기 취득 단계에서 취득된 부가 정보에 기초하여, 컨텐츠 데이터와, 지정된 상기 컨텐츠 데이터에 링크되는 상기 부가 정보를 서버에서 자동적으로 검색하는 검색 단계와,상기 취득 단계에서 취득된 부가 정보와, 상기 검색 단계에서 검색된 상기 컨텐츠 데이터를 이용하여, 링크된 방식으로 컨텐츠 데이터를 표시하는 표시 단계와,상기 취득 단계에서 취득된 상기 부가 정보에 기초하여, 상기 컨텐츠 데이터에 대응되는 촬영 수단 사이의 상대 위치 관계 및 상대 시간 관계를 인식하는 인식 단계와,각 촬영 수단에 있어서 측정된 각 촬영 수단의 현재 위치를, 복수개의 촬영 수단 중의 특정 촬영 수단 또는 피사체에 대한 상대 위치로 변환하는 변환 단계를 포함하고,상기 부가 정보는 그룹화된 촬영 수단에 의해 촬영된 촬영 결과에 대한 시간 정보와 위치 정보를 포함하며, 상기 그룹화된 촬영 수단에 대한 시간 정보는 서로 일치되는,정보 처리 방법.
- 삭제
- 삭제
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004155220A JP2005341064A (ja) | 2004-05-25 | 2004-05-25 | 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法 |
JPJP-P-2004-00155220 | 2004-05-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060048097A KR20060048097A (ko) | 2006-05-18 |
KR101193007B1 true KR101193007B1 (ko) | 2012-10-19 |
Family
ID=35461941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050044171A KR101193007B1 (ko) | 2004-05-25 | 2005-05-25 | 정보 처리 장치, 정보 처리 방법, 기록 매체 |
Country Status (4)
Country | Link |
---|---|
US (2) | US7499918B2 (ko) |
JP (1) | JP2005341064A (ko) |
KR (1) | KR101193007B1 (ko) |
CN (1) | CN100481064C (ko) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7904922B1 (en) | 2000-04-07 | 2011-03-08 | Visible World, Inc. | Template creation and editing for a message campaign |
US7870577B2 (en) * | 2000-04-07 | 2011-01-11 | Visible World, Inc. | Systems and methods for semantic editorial control and video/audio editing |
US7432940B2 (en) * | 2001-10-12 | 2008-10-07 | Canon Kabushiki Kaisha | Interactive animation of sprites in a video production |
US8295682B1 (en) * | 2005-07-13 | 2012-10-23 | Apple Inc. | Selecting previously-selected segments of a signal |
US8184613B2 (en) * | 2006-04-10 | 2012-05-22 | Patel Nilesh V | Portable multi-media automatic authenticating router and method for automatically routing stored data |
TW200842591A (en) * | 2007-04-20 | 2008-11-01 | Genesys Logic Inc | OTG device for multi-directional transmitting GPS data and controlling method of same |
JP4965475B2 (ja) * | 2008-02-05 | 2012-07-04 | オリンパス株式会社 | 仮想移動表示装置 |
US20100023485A1 (en) * | 2008-07-25 | 2010-01-28 | Hung-Yi Cheng Chu | Method of generating audiovisual content through meta-data analysis |
US20100241659A1 (en) * | 2009-03-18 | 2010-09-23 | Sony Corporation | Single library for all media content |
US8606073B2 (en) | 2010-05-12 | 2013-12-10 | Woodman Labs, Inc. | Broadcast management system |
US8464304B2 (en) | 2011-01-25 | 2013-06-11 | Youtoo Technologies, LLC | Content creation and distribution system |
US20120263439A1 (en) * | 2011-04-13 | 2012-10-18 | David King Lassman | Method and apparatus for creating a composite video from multiple sources |
GB2495289A (en) * | 2011-10-04 | 2013-04-10 | David John Thomas | Multimedia editing by string manipulation |
JP5765255B2 (ja) * | 2012-01-31 | 2015-08-19 | Nkワークス株式会社 | 画像処理プログラムおよび画像処理装置 |
US9319161B2 (en) | 2012-04-09 | 2016-04-19 | Youtoo Technologies, LLC | Participating in television programs |
US9083997B2 (en) | 2012-05-09 | 2015-07-14 | YooToo Technologies, LLC | Recording and publishing content on social media websites |
KR101905638B1 (ko) * | 2012-05-15 | 2018-12-05 | 삼성전자주식회사 | 동영상 재생 장치 및 방법 |
US9210385B2 (en) | 2012-11-20 | 2015-12-08 | Pelco, Inc. | Method and system for metadata extraction from master-slave cameras tracking system |
JP5825279B2 (ja) * | 2013-02-27 | 2015-12-02 | ブラザー工業株式会社 | 端末装置及びプログラム |
US20140314327A1 (en) * | 2013-03-13 | 2014-10-23 | Build-A-Bear Workshop, Inc. | Systems and Methods for Computer Recognition of Plush Toys |
US20150294233A1 (en) * | 2014-04-10 | 2015-10-15 | Derek W. Aultman | Systems and methods for automatic metadata tagging and cataloging of optimal actionable intelligence |
TW201601542A (zh) * | 2014-06-26 | 2016-01-01 | Amaryllo International Inc | 網路攝影資料管理系統與方法 |
TW201601541A (zh) * | 2014-06-26 | 2016-01-01 | Amaryllo International Inc | 網路攝影資料管理系統與方法 |
US9462026B2 (en) * | 2014-07-31 | 2016-10-04 | Senza Tech, Llc | Communicating multimedia data |
US10178325B2 (en) * | 2015-01-19 | 2019-01-08 | Oy Vulcan Vision Corporation | Method and system for managing video of camera setup having multiple cameras |
EP3073726B1 (en) * | 2015-03-24 | 2017-03-01 | Axis AB | Method for configuring a camera |
CN109074629A (zh) | 2015-10-29 | 2018-12-21 | Oy沃肯视觉有限公司 | 使用联网照相机对关注的区域进行视频摄像 |
US10270933B2 (en) * | 2016-03-15 | 2019-04-23 | Gopro, Inc. | Multi-camera system content capture and management |
US10083369B2 (en) | 2016-07-01 | 2018-09-25 | Ricoh Company, Ltd. | Active view planning by deep learning |
JP7224855B2 (ja) * | 2018-11-02 | 2023-02-20 | キヤノン株式会社 | 通信装置、制御方法、およびプログラム |
CN109819179B (zh) * | 2019-03-21 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 一种视频剪辑方法和装置 |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245280A (ja) * | 2000-02-29 | 2001-09-07 | Canon Inc | カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04294694A (ja) | 1991-03-25 | 1992-10-19 | Nippon Telegr & Teleph Corp <Ntt> | 映像の自動要約編集方法 |
JP3201533B2 (ja) | 1991-08-19 | 2001-08-20 | 日本電信電話株式会社 | 映像とその撮影情報の提示方法 |
US5493677A (en) * | 1994-06-08 | 1996-02-20 | Systems Research & Applications Corporation | Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface |
JP2002027396A (ja) | 2000-07-10 | 2002-01-25 | Matsushita Electric Ind Co Ltd | 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム |
JP4275326B2 (ja) | 2001-05-16 | 2009-06-10 | 富士フイルム株式会社 | 撮像装置および位置情報検出システム |
US20030076413A1 (en) * | 2001-10-23 | 2003-04-24 | Takeo Kanade | System and method for obtaining video of multiple moving fixation points within a dynamic scene |
JP4061458B2 (ja) | 2001-12-05 | 2008-03-19 | ソニー株式会社 | ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム |
US20040057697A1 (en) * | 2002-09-19 | 2004-03-25 | Peter Renzi | Streaming digital recording system |
GB2394611A (en) * | 2002-10-21 | 2004-04-28 | Sony Uk Ltd | Metadata generation providing a quasi-unique reference value |
US7685134B2 (en) * | 2003-12-31 | 2010-03-23 | Nokia Corporation | Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections |
-
2004
- 2004-05-25 JP JP2004155220A patent/JP2005341064A/ja active Pending
-
2005
- 2005-05-18 US US11/131,372 patent/US7499918B2/en not_active Expired - Fee Related
- 2005-05-25 KR KR1020050044171A patent/KR101193007B1/ko not_active IP Right Cessation
- 2005-05-25 CN CNB2005100720709A patent/CN100481064C/zh not_active Expired - Fee Related
-
2009
- 2009-01-21 US US12/357,189 patent/US7904490B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245280A (ja) * | 2000-02-29 | 2001-09-07 | Canon Inc | カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN1702644A (zh) | 2005-11-30 |
CN100481064C (zh) | 2009-04-22 |
KR20060048097A (ko) | 2006-05-18 |
US7904490B2 (en) | 2011-03-08 |
US20050278618A1 (en) | 2005-12-15 |
US7499918B2 (en) | 2009-03-03 |
JP2005341064A (ja) | 2005-12-08 |
US20090138829A1 (en) | 2009-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101193007B1 (ko) | 정보 처리 장치, 정보 처리 방법, 기록 매체 | |
KR101240562B1 (ko) | 정보 처리 장치, 정보 처리 방법, 및 기록 매체 | |
US7814416B2 (en) | Information processing apparatus, method, program, and system for data searching using linking information | |
US8249434B2 (en) | Contents playing method and apparatus with play starting position control | |
CN101110930B (zh) | 记录控制装置和记录控制方法 | |
JP2003529990A (ja) | オーディオ及び/又はビデオマテリアルの識別及び処理方法 | |
JP2003529989A (ja) | オーディオ/ビデオ再生装置及び方法 | |
JP2011029696A (ja) | 情報処理装置、録画方法及び録画システム | |
JP3890607B2 (ja) | 情報記憶装置および/または情報再生装置 | |
JP2018028727A (ja) | 映像ファイル管理システム及び映像ファイル管理方法 | |
JP4358043B2 (ja) | 画像表示方法及び画像表示システム | |
JP4404247B2 (ja) | 映像プログラム制作支援システム,処理装置,映像プログラムの処理方法及びプログラム | |
JP6394729B2 (ja) | 情報処理装置、情報処理装置における楽曲データ抽出方法、プログラム及び情報処理システム | |
JP2005191892A (ja) | 情報取得装置及びこれを用いたマルチメディア情報作成システム | |
CN113906727A (zh) | 全景回放的方法、装置和系统、拍摄设备、可移动平台 | |
JP5271502B2 (ja) | 端末装置 | |
JP4559210B2 (ja) | 電子アルバム作成装置および電子アルバム作成システム | |
JP2000222381A (ja) | アルバム作成方法および情報処理装置および情報出力装置 | |
CN115699723B (zh) | 影像编辑装置、影像编辑方法以及记录介质 | |
JP2001216325A (ja) | 検索用データベース生成装置及びその方法 | |
JP2001218134A (ja) | 画像生成装置及びその方法 | |
JP2002304349A (ja) | 情報再生装置、情報記録装置及び記録媒体 | |
JP2009212959A (ja) | 映像検索装置 | |
US20140347393A1 (en) | Server apparatus and communication method | |
KR100682392B1 (ko) | 위치 정보 부여가 가능한 미디어 파일 편집기 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |