KR20120126101A - 미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버 - Google Patents

미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버 Download PDF

Info

Publication number
KR20120126101A
KR20120126101A KR1020127023831A KR20127023831A KR20120126101A KR 20120126101 A KR20120126101 A KR 20120126101A KR 1020127023831 A KR1020127023831 A KR 1020127023831A KR 20127023831 A KR20127023831 A KR 20127023831A KR 20120126101 A KR20120126101 A KR 20120126101A
Authority
KR
South Korea
Prior art keywords
tagging information
capture
media
application server
server
Prior art date
Application number
KR1020127023831A
Other languages
English (en)
Inventor
마린 오스몬드
스테판 사다
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20120126101A publication Critical patent/KR20120126101A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

자동으로 미디어 콘텐츠를 태킹하기 위한 방법은 미디어 서버가 미디어 콘텐츠를 캡쳐할 시에 이로부터 캡쳐 태깅 정보를 획득하는 단계와 캡쳐 태깅 정보 및 미디어 콘텐츠를 애플리케이션 서버로 송신하는 단계를 포함한다. 애플리케이션 서버는 캡쳐 태깅 정보 중 적어도 부분을 포함하는 태깅 정보로 미디어 콘텐츠를 태깅한다.

Description

미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버{METHOD FOR AUTOMATICALLY TAGGING MEDIA CONTENT, MEDIA SERVER AND APPLICATION SERVER FOR REALIZING SUCH A METHOD}
본 발명은 미디어 콘텐츠를 자동으로 태깅(tagging)하는 방법에 관한 것이다.
사용자 생성 콘텐츠(User Generated Content) 애플리케이션 또는 협업 툴(collaborative tool)과 같은 알려진 미디어 관리 시스템은, 미디어를 설명하기 위해, 메타데이터로 또한 지칭되는, 태그를 집중적으로 사용한다. 이들 태그는 대량의 콘텐츠 중에서도 추후의 검색 또는 참조를 가능하게 한다. 이들은 태킹 엔진의 레벨에서 사용가능한 정보 또는 메타데이터, 예를 들어, 영화의 제목, 작가의 이름 등과 같은 것을 사용하여 수동으로, 또는 자동 태깅 엔진에 의해 추가된다.
하지만, 특히 인터랙티브 환경에서, 태깅을 위해 사용될 수 있는 일부 정보는 미디어 캡쳐 프로세스 자체로부터 발생할 수 있다. 예를 들어, 화상회의에서 이러한 정보는 어떤 회의참가자가 주어진 시간에 말하는지 또는 사용된 사용자 인터랙션은 어떤 것인지가 될 수 있다. 이 정보는 미디어 서버에 의해 일반적으로 취급되는 미디어 캡쳐로부터만 볼 수 있고 태깅 엔진의 레벨에서 사용가능하지 않다.
본 발명의 목적은 이러한 단점을 해결하기 위한 것이다.
본 발명에 따른 방법은 자동으로 미디어 콘텐츠를 태킹하기 위한 방법이라는 점에서 이 목적을 실현하며, 상기 방법은 미디어 서버가 상기 미디어 콘텐츠를 캡쳐할 시에 이로부터 캡쳐 태깅 정보를 획득하는 단계와 상기 캡쳐 태깅 정보 및 상기 미디어 콘텐츠를 애플리케이션 서버로 송신하는 단계를 포함하고, 상기 애플리케이션 서버는 상기 캡쳐 태깅 정보 중 적어도 부분을 포함하는 태깅 정보로 상기 미디어 콘텐츠를 태깅한다.
이 방식으로, 미디어 서버에 의해 이 데이터를 캡쳐할 시에 캡쳐된 미디어 정보로부터 오직 사용가능한 정보는, 내부에 태깅 엔진이 미디어 데이터의 태깅을 위해 존재하는, 애플리케이션 서버에 대해 사용가능하게 된다.
본 발명에 따른 방법의 실시예의 추가 피쳐는 상기 애플리케이션 서버가 또한 외부 소스로부터 보충 태깅 정보를 획득하고 상기 태깅 정보에 상기 보충 태깅 정보를 포함시키는 것이다. 이러한 보충 태깅 정보는, 예를 들어, 미디어 데이터가 영화인 경우에, 이전에 언급된 바와 같이 영화의 제목 또는 배우의 이름이 될 수 있다.
본 발명에 따른 방법의 실시예의 다른 추가 피쳐는 상기 미디어 서버가 상기 애플리케이션 서버의 제어 하에 상기 캡쳐 태깅 정보를 획득하는 것이다. 이 방식으로 태깅 정보의 캡쳐가 인터랙티브하게 이루어진다.
본 발명은 또한 위의 방법을 구현하기 위한 미디어 서버에 관한 것이고, 상기 미디어 서버는 미디어 콘텐츠를 캡쳐하도록 구성된 미디어 콘텐츠 캡쳐 수단을 포함하며, 상기 미디어 서버는 상기 미디어 콘텐츠를 캡쳐할 시에 이로부터 캡쳐 태깅 정보를 획득하도록 구성된 프로세싱 수단 및 애플리케이션 서버로 상기 캡쳐 태킹 정보 및 상기 미디어 콘텐츠를 송신하는 송신 수단을 추가적으로 포함한다.
본 발명에 따른 미디어 서버의 실시예의 추가 피쳐는, 상기 미디어 서버가 화상회의 시스템의 부분이고 상기 콘텐츠 캡쳐 수단은 화상회의의 오디오 및 비디오 플로우를 레코딩하고 믹싱하도록 구성되는 것이고, 상기 프로세싱 수단은 상기 캡쳐 태깅 정보로서 상기 화상회의의 적어도 하나의 참여자에 의해 수행되는 액션에 관한 정보를 획득하도록 구성되는 것이다.
이 환경에서 캡쳐 태깅 정보는 예를 들어 누가 주어진 시간에 말을 하는지 또는 어떤 키보드 키가 누구에 의해 눌러지는지가 될 수 있다.
본 발명에 따른 미디어 서버의 실시예의 다른 추가 피쳐는 미디어 서버가 제어 정보를 수신하도록 구성된 수신 수단을 추가적으로 포함하는 것이고, 상기 프로세싱 수단은 상기 제어 정보에 기초하여 상기 캡쳐 태깅 정보를 획득하도록 추가적으로 구성되는 것이다.
본 발명은 또한 위의 방법을 구현하기 위한 애플리케이션 서버에 관한 것이고, 상기 애플리케이션 서버는 미디어 서버로부터 미디어 콘텐츠를 수신하도록 구성되는 수신 수단을 포함하고, 상기 수신 수단은 또한 상기 미디어 서버로부터 캡쳐 태깅 정보를 수신하도록 구성되며, 상기 애플리케이션 서버는 태깅된 미디어 콘텐츠를 획득하기 위해 상기 캡쳐 태깅 정보 중 적어도 부분을 포함하는 태깅 정보로 상기 미디어 콘텐츠를 태깅하도록 구성된 태깅 수단을 추가적으로 포함한다.
본 발명에 따른 애플리케이션의 실시예의 피쳐는 상기 수신 수단이 추가 태깅 정보를 수신하도록 추가적으로 구성되는 것이고 상기 애플리케이션 서버는 또한 상기 태깅 정보를 획득하기 위해 상기 캡쳐 태깅 정보를 상기 추가 태깅 정보와 조합하는 프로세싱 수단을 포함한다.
본 발명에 따른 애플리케이션 서버의 실시예의 추가 피쳐는 상기 애플리케이션 서버가 화상회의 시스템의 부분이고 상기 캡쳐 태깅 정보는 상기 화상회의의 적어도 하나의 참가자에 의해 수행되는 액션에 관련된 정보라는 것이다. 위에서 언급된 바와 같이, 이 환경에서, 캡쳐 태깅 정보는 예를 들어 주어진 시간에 누가 말하고 있는지 또는 어떤 키보드 키가 누구에 의해 눌러지는지가 될 수 있다. 보충 태깅 정보는 예를 들어 회의 참가자의 지리적 위치에 대한 정보 또는 이들의 프레즌스 상태(presence status)에 대한 것이 될 수 있다.
본 발명의 실시예에 따른 방법 및 서버의 실시예는, 첨부한 도면을 참조하여, 예시의 방식으로만, 이후에 설명된다.
도 1은 본 방법의 실시예를 구현하는 화상회의 시스템을 나타낸다.
도 2는 본 방법의 실시예를 또한 구현하는 인터랙티브 서비스를 제공하는 시스템을 도시한다.
도 1에서 도시된 바와 같은 화상회의 시스템은 네트워크(도시되지 않음)를 통해 애플리케이션 서버(AS)에 접속된 미디어 서버(MS)로 구성된다. AS는 AS와 함께 위치될 수 있거나 네트워크를 통해 액세스가능 할 수 있는 미디어 레파지토리(a media repository)(MR)를 사용한다. MR은 네트워크(도시되지 않음)에 또한 접속된 애플리케이션 엔티티(AE)에 데이터를 제공한다.
AE는 이 네트워크를 통해 AS를 제어하고 참가자(도시되지 않음)가 화상회의에 대한 액세스를 갖는 것을 통해 사용자 엔티티(UE1, UE2, UE3 및 UE4)에 의해 액세스될 수 있다(도 1 : 화살표 1 내지 4).
대안의 실시예(도시되지 않음)에서 사용자 엔티티는 애플리케이션 서버를 직접 제어하거나, 애플리케이션 서버 또는 애플리케이션 엔티티는 반드시 회의에 대한 참가자가 아닌 제 3 자에 의해 제어된다.
MS는 오디오 및 비디오 플로우를 믹싱하고 어떤 발표자가 보여야하는지를 선택하는 것과 같은, 회의 "발언권 관리(floor management)"를 수행한다. 본 발명의 과제가 아니기 때문에 화상회의가 어떻게 구현되고 관리되는지가 자세하게 설명되지 않는다. 이에 대한 더 자세한 상세는 http://www.rfc-editor.org/rfc/rfc4722.txt (챕터 5) 상에서 찾을 수 있다.
AS를 통한 AE로부터의 요청 시에(도 1 : 화살표 10) 화상회의는 MS에 의해 리코딩된다. 이는 예를 들어 미팅 시간을 정하거나 어떤 사람이 어떤 것을 이야기했는지의 법적 추적을 위해 참가자 중 하나에 의해 요청될 수 있다.
AS의 제어 하에(도 1 : 화살표 11) MS는 예를 들어 주어진 시간에 누가 말을 하고, 어떤 키보드 키가 누구에 의해 눌러지는지 등과 같이 기록될 미디어에 적합한 정보를 수집한다. 예를 들어, AS가 MS에게 가장 목소리가 큰 발표자에게 발언권을 제공하도록 명령한다면, MS는 누가 가장 목소리가 큰 발표자인지를 검출할 것이고 이 정보를 AS로 전송될 태깅 정보로서 레코딩할 것이다.
따라서 획득된 정보는 레코딩된 미디어와 함께 AS로 전송된다(화살표 4 및 6). 이는 온 더 플라이(on-the-fly)로 행해질 수 있거나 MS가 모든 데이터를 수집하고 화상회의 이후에 완전한 파일을 AS로 송신할 수 있다. 그 다음 AS는 저장을 위해 데이터를 MR로 전달한다(도 1 : 화살표 8). 이는 MSCML, HTML, FTP와 같은 기존 프로토콜을 사용하여 이루어진다.
AS는 또한 외부 소스(도시되지 않음), 예를 들어, 지리적 위치 서버 또는 사용자 프로파일 HSS(User Profile HSS)로부터 메타데이터를 수신한다(도 1 : 화살표 7).
도 2는 그림 인식에 의해 유도되는 인터랙티브 애플리케이션 엔티티(IAE)의 거동을 나타낸다. 대안에서 이러한 애플리케이션은 예를 들어 음성 인식 또는 객체 인식에 의해 또한 유도될 수 있다.
카메라 필드에서의 그림 크기 및 위치와 같은 인식된 그림에 관한 태깅 정보는, 인터페이스 I1을 통해, 카메라인, 사용자 엔티티(UE)에 의해 제공되는 그림을 레코딩할 때 미디어 서버(MSI)에 의해 획득된다. 이 태깅 정보는 I2 및 I3 인터페이스를 통해 애플리케이션 서버(IAS)로 통신되는 그림과 함께 존재한다. IAS는 그림을 획득된 정보 및 가능하다면 외부적으로 획득된 추가 정보로 태깅하고(도 2의 화살표 I4) 레파지토리(IMR)에 태깅된 그림을 저장한다(도 2에서 도시된 바와 같은 I5를 통해).
MSI에 의한 캡쳐는 AS에 의해 제어된다(도 2 : 화살표 I11). 이 제어는 UE에 의해 직접 또는 IAE를 통해 다른 방법으로 트리거된다.
위에서 설명된 기능은 전용 하드웨어뿐만 아니라 적합한 소프트웨어와 함께 소프트웨어를 실행시키는 것이 가능한 하드웨어의 사용을 통해 제공될 수 있음에 유의해야한다. 프로세서에 의해 제공될 때, 기능은 단일 전용 프로세서, 단일 공유 프로세서, 또는 복수의 개별 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다. 통상적 및/또는 주문제작한 다른 하드웨어가 또한 포함될 수 있다.
또한, 위의 설명 및 도면은 단지 본 발명의 원리를 예시한다. 따라서 이 설명에 기초하여, 당업자는 여기에서 명시적으로 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 이의 사상 및 범위 내에 포함되는 다양한 구성을 고안하는 것이 가능함이 이해될 것이다. 또한, 여기에서 인용된 예시는 당 기술 분야를 확장시키기 위해 발명자에 의해 제시된 본 발명의 원리 및 개념을 이해시키는 것에 있어서 독자를 돕기 위한 오직 교육적인 목적만이 되도록 원리적으로 명확하게 의도되고 이러한 특별하게 인용된 예시 및 조건에 대한 제한이 없는 것으로서 이해되는 것이다. 또한, 여기에서 본 발명의 원리, 양상, 및 실시예 뿐만 아니라 이들의 특정 예시를 열거한 모든 서술은, 이들의 균등물을 포함하는 것으로 의도된다.

Claims (9)

  1. 미디어 콘텐츠를 자동으로 태깅(tagging)하는 방법에 있어서,
    상기 방법은
    미디어 서버(MS;IMS)가 상기 미디어 콘텐츠를 캡쳐할 시에 이로부터 캡쳐 태깅 정보를 획득하는 단계와,
    상기 캡쳐 태깅 정보 및 상기 미디어 콘텐츠를 애플리케이션 서버(AS;IAS)로 송신하는 단계를 포함하고,
    상기 애플리케이션 서버는 상기 캡쳐 태깅 정보 중 적어도 일부를 포함하는 태깅 정보로 상기 미디어 콘텐츠를 태깅하는
    방법.
  2. 제 1 항에 있어서,
    상기 애플리케이션 서버(AS;IAS)는 또한 외부 소스로부터 보충 태깅 정보(complementary tagging information)를 획득하고 상기 태깅 정보 내에 상기 보충 태깅 정보를 포함시키는
    방법.

  3. 제 1 항에 있어서,
    상기 미디어 서버(MS;IMS)는 상기 애플리케이션 서버의 제어 하에 상기 캡쳐 태깅 정보를 획득하는
    방법.
  4. 제 1 항에 따른 방법을 구현하기 위한 미디어 서버(MS;IMS)에 있어서,
    상기 미디어 서버는
    미디어 콘텐츠를 캡쳐하도록 구성된 미디어 콘텐츠 캡쳐 수단과,
    상기 미디어 콘텐츠를 캡쳐할 시에 이로부터 캡쳐 태깅 정보를 획득하도록 구성된 프로세싱 수단과,
    애플리케이션 서버로 상기 캡쳐 태킹 정보 및 상기 미디어 콘텐츠를 송신하는 송신 수단을 포함하는
    미디어 서버.
  5. 제 4 항에 있어서,
    상기 미디어 서버는 화상회의 시스템의 일부이고, 상기 콘텐츠 캡쳐 수단은 화상회의의 오디오 및 비디오 플로우(flows)를 레코딩(record)하고 믹싱(mix)하도록 구성되며, 상기 프로세싱 수단은 상기 캡쳐 태깅 정보로서 상기 화상회의의 적어도 하나의 참여자에 의해 수행되는 액션에 관한 정보를 획득하도록 구성되는
    미디어 서버.
  6. 제 4 항에 있어서,
    제어 정보를 수신하도록 구성된 수신 수단을 더 포함하되, 상기 프로세싱 수단은 상기 제어 정보에 기초하여 상기 캡쳐 태깅 정보를 획득하도록 더 구성되는
    미디어 서버.
  7. 제 1 항 또는 제 2 항에 따른 방법을 구현하기 위한 애플리케이션 서버에 있어서,
    상기 애플리케이션 서버는 미디어 서버(MS;IMS)로부터 미디어 콘텐츠를 수신하도록 구성되는 수신 수단을 포함하되,
    상기 수신 수단은 또한 상기 미디어 서버로부터 상기 캡쳐 태깅 정보를 수신하도록 구성되며,
    상기 애플리케이션 서버는 태깅된 미디어 콘텐츠를 획득하기 위해 상기 캡쳐 태깅 정보 중 적어도 일부를 포함하는 태깅 정보로 상기 미디어 콘텐츠를 태깅하도록 구성된 태깅 수단을 더 포함하는
    애플리케이션 서버.
  8. 제 7 항에 있어서,
    상기 수신 수단은 추가 태깅 정보를 수신하도록 더 구성되고,
    상기 애플리케이션 서버는 또한 상기 태깅 정보를 획득하기 위해 상기 캡쳐 태깅 정보를 상기 추가 태깅 정보와 조합하는 프로세싱 수단을 포함하는
    애플리케이션 서버.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 애플리케이션 서버는 화상회의 시스템의 일부이고, 상기 캡쳐 태깅 정보는 상기 화상회의의 적어도 하나의 참가자에 의해 수행되는 액션에 관련된 정보인
    애플리케이션 서버.
KR1020127023831A 2010-03-12 2011-03-07 미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버 KR20120126101A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305247A EP2372578A1 (en) 2010-03-12 2010-03-12 Method for automatically tagging media content, media server and application server for realizing such a method
EP10305247.8 2010-03-12
PCT/EP2011/053359 WO2011110514A1 (en) 2010-03-12 2011-03-07 Method for automatically tagging media content, media server and application server for realizing such a method

Publications (1)

Publication Number Publication Date
KR20120126101A true KR20120126101A (ko) 2012-11-20

Family

ID=42232755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127023831A KR20120126101A (ko) 2010-03-12 2011-03-07 미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버

Country Status (6)

Country Link
US (1) US20130011119A1 (ko)
EP (1) EP2372578A1 (ko)
JP (1) JP2013522708A (ko)
KR (1) KR20120126101A (ko)
CN (1) CN102812459A (ko)
WO (1) WO2011110514A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014176443A1 (en) * 2013-04-24 2014-10-30 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2869546B1 (en) * 2013-10-31 2018-12-26 Alcatel Lucent Method and system for providing access to auxiliary information
EP4064691A1 (en) * 2021-03-23 2022-09-28 Ricoh Company, Ltd. Communication management device, image communication system, communication management method, and carrier means

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1083401A (ja) * 1996-09-06 1998-03-31 Fuji Xerox Co Ltd マルチメディアデータベース装置
JP4643888B2 (ja) * 2001-03-08 2011-03-02 富士通株式会社 マルチメディア協調作業システム、そのクライアント/サーバ、方法、記録媒体、及びプログラム
JP2004102767A (ja) * 2002-09-11 2004-04-02 Nippon Hoso Kyokai <Nhk> メタデータ収集分配システム、メタデータ収集サーバ、メタデータ収集方法、メタデータ収集プログラム、及びメタデータ収集プログラムを記録した記録媒体
JP2005267278A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2005341015A (ja) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd 議事録作成支援機能を有するテレビ会議システム
JP2006279111A (ja) * 2005-03-25 2006-10-12 Fuji Xerox Co Ltd 情報処理装置、情報処理方法およびプログラム
KR100641791B1 (ko) * 2006-02-14 2006-11-02 (주)올라웍스 디지털 데이터에 대한 태깅 방법 및 시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014176443A1 (en) * 2013-04-24 2014-10-30 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
US9635404B2 (en) 2013-04-24 2017-04-25 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
US10148987B2 (en) 2013-04-24 2018-12-04 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
US10869075B2 (en) 2013-04-24 2020-12-15 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
US12003799B2 (en) 2013-04-24 2024-06-04 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data

Also Published As

Publication number Publication date
CN102812459A (zh) 2012-12-05
US20130011119A1 (en) 2013-01-10
EP2372578A1 (en) 2011-10-05
JP2013522708A (ja) 2013-06-13
WO2011110514A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
US11356488B2 (en) Frame synchronous rendering of remote participant identities
JP6027243B2 (ja) ビデオ通話内での人の特定
CN111935443B (zh) 一种视频会议实时直播分享到即时通讯工具的方法和装置
US8553067B2 (en) Capturing and controlling access to muted content from a conference session
US20160359941A1 (en) Automated video editing based on activity in video conference
US20050262201A1 (en) Systems and methods for novel real-time audio-visual communication and data collaboration
US20110169910A1 (en) Providing Presentations in a Videoconference
JP2004343756A (ja) メディア再生アーキテクチャのための方法並びにシステム
US20120300014A1 (en) Local participant identification in a web conferencing system
JP2014146333A (ja) メッセンジャーチャットウィンドウを介したリアルタイム映像共有装置、方法およびコンピュータ読み取り可能な記録媒体
KR101902464B1 (ko) WebRTC를 이용한 회의록 작성 방법 및 시스템
JP2010529738A (ja) 居宅用動画通信システム
CN1618203A (zh) 视频会议带宽选择机制
WO2016127691A1 (zh) 一种播报多媒体会议中动态信息的方法及装置
CN110719428A (zh) 视频会议组织的方法、设备和存储介质
US10701116B2 (en) Method, computer-readable storage device and apparatus for establishing persistent messaging sessions
CN117897930A (zh) 用于混合在线会议的流式数据处理
KR20120126101A (ko) 미디어 콘텐츠를 자동으로 태깅하기 위한 방법, 이러한 방법을 구현하기 위한 미디어 서버 및 애플리케이션 서버
JP2017034312A (ja) 通信装置、通信システム、およびプログラム
US20240064081A1 (en) Diagnostics-Based Conferencing Endpoint Device Configuration
US8755310B1 (en) Conferencing system
KR101941271B1 (ko) 원격 감시 시스템에서 로봇을 이용한 다자간 원격 감시 서비스 제공 방법 및 이를 위한 원격 감시 시스템
CN112019791A (zh) 基于教育考试的多方音视频通话方法及系统
JP2017092675A (ja) 情報処理装置、会議システム、情報処理方法およびプログラム
CN117640861A (zh) 一种导播控制方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application