KR20130061094A - 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치 - Google Patents

디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR20130061094A
KR20130061094A KR1020120137023A KR20120137023A KR20130061094A KR 20130061094 A KR20130061094 A KR 20130061094A KR 1020120137023 A KR1020120137023 A KR 1020120137023A KR 20120137023 A KR20120137023 A KR 20120137023A KR 20130061094 A KR20130061094 A KR 20130061094A
Authority
KR
South Korea
Prior art keywords
metadata
processing
digital content
processing tasks
tasks
Prior art date
Application number
KR1020120137023A
Other languages
English (en)
Inventor
올리버 캄펜켈
올리버 테이스
랄프 코엘러
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130061094A publication Critical patent/KR20130061094A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치(60)가 설명되며, 이는 메타데이터의 진행 생성 중에 이미 생성된 메타데이터의 검토를 가능하게 한다. 메타데이터 생성은 2개 이상의 처리 노드들(7)에 할당되는(31) 복수의 처리 태스크들로 분할된다(30). 2개 이상의 처리 노드들(7)에 의해 생성되는 메타데이터가 수집되어(36) 출력 유닛(1) 상에 시각화된다(36).

Description

디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치{METHOD AND APPARATUS FOR GENERATING METADATA FOR DIGITAL CONTENT}
본 발명은 디지털 이미지 시퀀스들과 같은 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치에 관한 것이다. 특히, 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치가 설명되며, 이는 메타데이터의 진행 생성 중에 이미 생성된 메타데이터의 검토를 가능하게 한다.
영화는 우리의 문화 유산의 일부이다. 불행하게도, 그들은 스크래치들, 먼지, 오물, 얼룩들, 마모 등과 같은 바람직하지 않은 객체들에 의해 종종 영향을 받게 된다. 이들은 통상 영화 장면을 현상, 처리, 저장, 및 스크리닝 또는 스캐닝하는 기술적 처리로부터 나온다. 일부 드문 경우들에서, 캡처링 동안 예를 들어 렌즈 내의 플러프(fluff) 또는 스캐너 글래스 상의 오물과 같은 정적 객체들이 이미 유발될 수 있다. 이하에서, 모든 이 결함들은 '스크래치 및 오물'로서 단순하게 지칭될 것이다.
스크래치 및 오물은 영화 시청의 품질 및 즐거움을 감소시킨다. 이것은 대부분의 경우들에, 상당한 양의 비주얼 정보가 소실되기 때문이 아니다. 실제로, 그 반대가 사실이고, 스크래치 및 오물은 완전히 무관하더라도 추가 양의 정보를 제공한다. 인간의 뇌는 시각의 그 일상 경험에 기초하여 유실 관련 정보를 대체하는 것에 매우 효과적이다. 그러나, 영향받은 장면을 볼 때에는, 이 세상의 물리적 사물을 통상 보고 행동하는 방법에 관한 그의 경험이 끊임없이 위배된다. 예를 들어, 스캐닝 또는 스크리닝 동안 필름 상에 증착된 오물이 한쪽 프레임에 나타나고 다른 쪽에서 사라진다. 이것은 통상 나타나고, 움직이고, 원활하게 사라지는 객체들에 관한 인간의 경험을 부인하고, 뇌로 하여금 비정상적인 시각 자극들을 예외적으로 처리하게 한다. 그러므로, 이러한 방법으로 관련된 및 관련없는 정보를 분리하는 것은 시청자에게 스트레스를 일으키고 시청자를 피곤하게 한다. 시청자들이 피곤을 풀고 콘텐츠에 집중하기 위해 스크래치 및 오물의 제거가 요구되며, 따라서, 이는 임의의 복원 프로세스의 중요한 부분이다.
바람직하게는, 스캐닝 후에 복원이 디지털적으로 수행된다. 스캐닝 전에 오물 및 잠재적 스크래치들을 감소시키기 위해 화학적 클렌징 프로세스를 통해 재료를 공급하는 웨트 스캐닝 기술들이 있을지라도, 그들은 비용이 상당히 드는 다수의 기술적 문제들 때문에 널리 이용되지 않는다. 게다가, 다수의 장면이 이미 스캐닝되어 테이프 상에 디지털적으로 보관되어 있다.
명백하게, 각 스크래치 및 오물 객체를 찾고 제거함으로써 디지털화된 필름들을 수동 복원하는 것은 많은 작업 양태들에서 예술가들을 보조하는 시중의 소프트웨어가 있을지라도, 시간 소비적이다. 특히, 다량의 스크래치 또는 오물을 갖는 오래된 콘텐츠의 수동 복원은 재정적으로 실행가능하지 않다. 이것은 심지어 미지의 상업적 가치의 장면을 갖는 다수의 아카이브들에 대하여 더욱 그러하다.
수동 프로세스에 대한 유일한 실행가능 대안은, 스크래치 및 오물을 검출 및 제거하려고 하는 알고리즘들을 갖는 자동 복원 소프트웨어의 적용이다. 현재, 스크래치 및 오물의 검출 및 제거를 다소 자동으로 수행하는 시장에서 입수가능한 다수의 소프트웨어 및 하드웨어 제품들이 있다. 통상, 때때로 개별적으로 각 씬(scene)에 대해 검출 및 제거를 미세 조정하기 위해 어떤 파라미터들의 수동 조정이 필요하다. 처리 후에, 복원된 출력 또는 그의 부분들은 상이한 파라미터들을 갖는 재실행 복원의 옵션으로 수락되거나 거부되어야 한다. 이것은 조정 시간이 걸리고 특히 적응되지 않았던 결정적 장면들에서 품질이 충분히 좋지 않을 수 있으므로 만족스럽지 못하다. 스크래치 및 오물의 검출은 현재 완전히 해결되지 않은 중대한 문제이다. 검출되지 않거나 잘못 검출되는 객체들의 어떤 비율이 여전히 존재한다.
최근에, 복원 프로세스를 객체들, 예를 들어 스크래치 및 오물 객체들의 검출, 및 자동 메타데이터 구동 워크플로우를 이용하는 제거로 분리하는 것이 제안되어 왔다. 다시 말하면, 제 1 단계에서, 아티팩트들이 검출되고, 검출된 아티팩트들에 관한 정보가 메타데이터 데이터베이스에 저장된다. 그 다음, 저장된 메타데이터는 운영자에 의해 검토되고, 그 후 제 2 단계에서 메타데이터 데이터베이스에 저장된 정보에 기초하여 검출된 아티팩트들이 이미지들로부터 제거된다. 이 접근법의 결점은 검출 프로세스가 완료되었을 때까지 검토가 시작될 수 없다는 것이다.
따라서, 본 발명의 목적은 전체 디지털 콘텐츠가 분석되기 전에 생성된 메타데이터를 검토할 것을 허용하는 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법을 제안하는 것이다.
본 발명에 따르면, 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법은,
- 메타데이터 생성을 복수의 처리 태스크들로 분할하는 단계;
- 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 2개 이상의 처리 노드들에 할당하는 단계;
- 2개 이상의 처리 노드들에 의해 생성되는 메타데이터를 수집하는 단계; 및
- 수집된 메타데이터를 출력 유닛 상에 시각화하는 단계를 포함한다.
따라서, 디지털 콘텐츠를 위한 메타데이터를 생성하는 장치는,
- 메타데이터 생성을 복수의 처리 태스크들로 분할하고 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 2개 이상의 처리 노드들에 할당하는 프로세서;
- 2개 이상의 처리 노드들에 의해 생성되는 메타데이터를 수집하는 데이터 수집기; 및
- 수집된 메타데이터를 출력 유닛 상에 시각화하는 시각화 컨트롤러를 포함한다.
본 발명에 따른 해결법은 디지털 콘텐츠의 필요한 처리를 예를 들어 네트워크 클라우드 내의 복수의 처리 노드들에 분배함으로써 즉각적인 메타데이터 처리 및 검토의 문제를 해결한다. 그 다음, 처리 노드들에 의해 획득되는 결과들이 수집되어 중심 노드에서 시각화된다. 이러한 방법으로, 디지털 콘텐츠 및 생성된 메타데이터는 처리가 배경에서 계속하는 동안 애노테이션들로 재생되거나(처리 속도까지) 독립적으로 검토될 수 있다. 대규모 콘텐츠 또는 복잡한 처리 알고리즘들 때문에 디지털 콘텐츠의 처리 및 적절한 메타데이터의 생성이 때때로 매우 복잡하고 시간 소비적이므로, 복수의 처리 노드들에 처리 태스크들을 분배하는 것은 동시 검토를 가능하기 위해 메타데이터를 충분히 신속하게 이용가능하게 함으로써 시간 절약을 가능하게 한다. 또한, 처리가 파라미터들의 설정을 필요로 하면, 상이한 설정들이 매우 신속히 검사될 수 있다.
유리하게는, 수집된 메타데이터가 후처리된다. 처리 노드들이 단지 디지털 콘텐츠의 작은 부분에만 작용하므로, 수집된 메타데이터의 후처리는 디지털 콘텐츠의 큰 부분들 또는 심지어 전체 디지털 콘텐츠의 고려를 가능하게 한다. 물론, 수집된 메타데이터 및/또는 디지털 콘텐츠를 통한 수동 내비게이션도 생성된 메타데이터를 검토하는데 적절하다.
유리하게, 처리 노드에 그의 보고된 상태에 따라 추가 처리 태스크들이 할당된다. 처리 노드가 그것이 그의 할당된 처리 태스크들을 완료한 것을 시그널링할 때, 이 처리 노드는 추가 처리에 이용가능하다. 따라서, 모든 처리 노드들이 연속적으로 동작하는 것이 보장된다.
바람직하게는, 수집된 메타데이터에 더해 또한 처리 태스크들의 할당 및/또는 할당된 처리 태스크들의 현재의 처리 상태가 시각화된다. 이것은 처리와 동시에 분배된 처리의 대규모 트래킹의 수행을 가능하게 한다.
유리하게, 수집된 메타데이터의 시각화는 추가 메타데이터가 검색될 때 갱신되거나, 처리 태스크들의 할당의 시각화는 추가 처리 태스크들이 할당될 때 갱신되거나, 할당된 처리 태스크들의 현재의 처리 상태의 시각화는 처리 상태가 변경될 때 갱신된다. 이러한 방법으로, 중심 노드가 항상 현재의 처리 상태의 최신 시각화를 제공하는 것이 보장된다.
유리하게는, 상이한 컬러들, 형상들, 또는 마크들이 비할당된 또는 비처리된 처리 태스크들, 할당된 처리 태스크들의 할당 및 처리 상태, 및 생성된 메타데이터를 지시하는데 이용된다. 더욱이, 메타데이터는 출력 유닛 상의 시각화를 위해 유리하게 클러스터된다. 둘 다의 측정들은, 인간 리뷰어가 처리 태스크들이 어떻게 할당되고 처리되고 있는지, 및 어느 메타데이터가 이미 이용가능한지를 용이하게 파악할 수 있는 것을 보장한다.
바람직하게는, 처리 태스크들은 디지털 콘텐츠의 일부들, 예를 들어 영화의 프레임들 또는 청크들, 및/또는 알고리즘의 처리 단계들과 관련된다. 다시 말하면, 처리 노드들은 디지털 콘텐츠의 상이한 부분들 상에 동일한 동작들을 수행하거나, 디지털 콘텐츠의 동일한 부분 상에 더 큰 동작의 하나 이상의 단계들을 수행하거나, 둘 다의 혼합을 수행한다.
유리하게는, 처리 노드들의 처리 속도들 및/또는 처리 노드들의 축적된 처리 속도가 결정된다. 이것은 처리 태스크들의 할당에 있어서 처리 노드들의 성능을 고려하는 것을 가능하게 한다. 예를 들어, 높은 처리 속도를 갖는 처리 노드에는 더 요구하는 처리 태스크들을 할당할 수 있는 반면에, 낮은 성능을 갖는 처리 노드는 적게 요구하는 태스크들을 수신한다. 이러한 방법으로, 처리 태스크들이 스마트하게 분배되고, 이용가능한 장비가 매우 효과적으로 사용된다. 더욱이, 축적된 처리 속도는 메타데이터 검토 프로세스의 재생 속도를 제어하는데 적절하다.
상기에서 본 발명이 메타데이터의 생성에 대해 설명되었을지라도, 그것은 마찬가지로 디지털 콘텐츠에 대한 메타데이터의 적용에 적절하며, 예를 들어 이전에 생성된 메타데이터에 기초하여 디지털 콘텐츠의 자동 복원에 적절하다. 이 경우에, 메타데이터의 적용은 처리 노드들에 할당되는 복수의 처리 태스크들로 분할된다. 처리 태스크들의 할당에 더해 또한 필요한 메타데이터뿐만 아니라 디지털 콘텐츠도 처리 노드들에 분배된다. 그 다음, 처리 노드들에 의해 생성되는 수정된 디지털 콘텐츠는 메이저에 의해 수집되어 출력 유닛 상에 시각화된다.
더 좋은 이해를 위해 본 발명은 도면들과 관련하여 이하의 기술로 더 상세히 설명될 것이다. 본 발명은 이 예시적 실시예에 제한되지 않으며 지정된 특징들은 또한 첨부된 청구항들에 정의된 본 발명의 범위로부터 벗어나지 않고 적절히 조합 및/또는 수정될 수 있는 것이 이해된다.
도 1은 데이터 세트를 시각화하기 위한 방법을 도시한다.
도 2는 도 1의 방법에 따른 데이터 세트의 시각화를 예시한다.
도 3은 본 발명에 따른 방법을 구현하는데 적절한 네트워크 아키텍처를 개략적으로 도시한다.
도 4는 마스터 프로세스의 구현을 개략적으로 예시한다.
도 5 는 마스터 프로세스의 사용자 인터페이스를 도시한다.
도 6은 마스터 프로세스에 대한 재생 속도를 조정하기 위한 방법을 도시한다.
도 7은 마스터 프로세스를 수행하도록 적응된 장치를 개략적으로 예시한다.
첫째, 다량의 데이터 세트들을 시각화하기 위한 해결법이 설명될 것이며, 이는 나중에 설명될 것인 바와 같이 마스터 프로세스의 감시에 이용되는 것이 바람직하다.
도 1은 데이터 세트를 시각화하기 위한 출력 유닛(1)의 개략도이다. 출력 유닛(1)은 스크린(2), 예를 들어 TFT 디스플레이를 포함한다. 물론, 출력 유닛(1)은 또한 GUI(graphical user interface)의 윈도우일 수 있다. 출력 유닛(1)은 스크린 또는 GUI의 윈도우의 이용가능 수평 픽셀들에 의해 정의되는 X의 수평 방향으로 최대 해상도를 갖는다. 출력 유닛(1)은 데이터 세트를 시각화하기 위한 OS(output signal)를 제공하는 장치(3)에 결합된다. 바람직하게는, 장치(3)는 컴퓨터, 예를 들어 개인용 컴퓨터 또는 워크 스테이션 유닛 또는 동일한 것의 일부이다. OS(output signal)는 장치(3)에 의해 스크린(2)에 제공되는 비디오 신호의 일부인 것이 바람직하다.
메타데이터 정보, 즉 길이(S)의 메타데이터 벡터(M)가 장치(3)에 입력된다. 메타데이터 벡터(M)의 길이(S)는 벡터가 S개의 메타데이터 요소들, 예를 들어 S개의 메타데이터 요소들을 포함하는 메타데이터 세트를 포함하는 것을 의미한다. 메타데이터 요소는 단일 값, 예를 들어 프레임의 콘트라스트, 또는 데이터 세트, 예를 들어 콘트라스트 및 휘도 값일 수 있다. 출력 유닛(1) 상에서 시각화를 위한 메타데이터 벡터(M)를 처리하기 위해 장치(3)가 구성된다. 메타데이터 벡터(M)가 복수의 바들(4, 5)로서 시각화되며, 각 바(4, 5)는 예를 들어 4개의 수평 픽셀들(2개의 어두운 픽셀들 및 2개의 밝은 픽셀들)을 갖는다. 일부 바들(5)은 (크로스를 갖는 픽셀들에 의해 예시됨)을 이용하여 강조되며, 이는 이 바들(5)에 대한 기초를 형성하는 일부 메타데이터 요소들이 여전히 소실되고 있는 것을 지시한다.
도 2는 시각화를 위한 메타데이터 벡터(M)를 처리하는 방법을 개략적으로 예시한다. 제1 단계 10에서, 출력 유닛(1)의 최대 수평 해상도(X)가 결정된다. 그 후에, 바(4, 5) 당 수평 픽셀들의 수 N은 예를 들어 사용자 입력 명령으로부터 결정된다(11). 대안으로, 바(4, 5) 당 수평 픽셀들의 수 N은 미리 결정된 값이다. 다른 단계 12에서, 디스플레이가능 바들(8)의 최대 수는 B=FLOOR(X/N)을 계산함으로써 결정되며, 여기서 FLOOR은 부의 무한대(negative infinity)에 대한 라운드 연산이다. 디스플레이가능 바들(4, 5)의 최대 수 B가 공지될 때, 단일 바를 위해 클러스터되어야 하는 메타데이터 요소들의 수는 C=CEIL(S/B)에 의해 계산되며(13), 여기서 CEIL은 정의 무한대(positive infinity)에 대한 라운드 연산이다. 메타데이터 벡터(M)의 제1 메타데이터 요소에서 시작되어, 각 요소가 각 클러스터에 할당된다. S/B>0(REM(S, B)>0)의 나머지가 존재하면, 최종 클러스터는 클러스터들의 나머지보다 작은 사이즈를 가질 것이다. 실제 메타데이터가 예를 들어 저장소, 네트워크, 또는 운영자로부터 검색될 때(14), 그들은 클러스터들의 결정된 수로 클러스터된다(15). 운영자의 입력 또는 일반 사양들에 따라, 미리 결정된 함수가 각 클러스터의 각 메타데이터 요소, 예를 들어 최대 함수에 적용된다(16). 클러스터 내의 아직 이용가능하지 않은 요소들은 함수가 적용될 때(16) 무시된다. 그 다음, 함수의 결과는 각 클러스터에 할당된다(17). 소실 요소들에 대해 시청자에게 경고하기 위해, 완료되지 않은 클러스터들은 예를 들어 컬러, 텍스처, 마커들 등을 통해 마킹된다(18). 최종적으로, 값은 바의 높이에 의해 디스플레이된다(19). 메타데이터 벡터(M)의 요소가 변경될 때마다, 즉 소실 요소가 이용가능해질 때 또는 요소가 새로운 값을 획득할 때, 원하는 함수가 대응하는 클러스터에 다시 적용되어 디스플레이가 갱신된다. 이를 위해 메타데이터 벡터(M)의 요소들이 모니터링된다(20). 유리하게도, 디스플레이는 요소가 변경될 때마다 갱신된다. 물론, 정의된 최소 수의 요소들이 변경될 때에만 디스플레이를 갱신하는 것, 예를 들어 너무 빈번한 갱신들을 회피하는 것이 마찬가지로 가능하다. 또한, 바람직하게는 요소들의 최소 수는 방법의 나머지 단계들이 수행되기 전에 먼저 검색된다. 이러한 방법으로, 운영자에게 있어 의미 있는 디스플레이가 이용가능해는 것이 보장된다. 바람직하게는, 변경할 필요가 있는 요소들의 최소 수 및/또는 초기에 검색될 필요가 있는 요소들의 수는 사용자에 의해 설정가능하다.
이하에서, 본 발명의 고안은 필름 복원 프로세스와 관련하여 설명된다. 물론, 그 고안은 분배 방식으로 수행될 수 있고 디스플레이가능 결과들을 전달하는 다른 프로세스들에 마찬가지로 적용가능하다.
필름 복원 프로세스의 검출 및 검토 단계를 조합하기 위해 검출이 수락가능 검토에 대해 충분히 빠르다는 것을 보장하는 것이 필요하다. 관련 메타데이터를 추출하기 위한 디지털 콘텐츠의 처리는 일반적으로 컨텐츠에 적용된 알고리즘들의 높은 복잡성 때문에, 또는 대량의 디지털 콘텐츠로 인해, CPU 집약적 및 시간 소비적 태스크이다. 예를 들어, 초당 24 프레임들을 갖는 90분 영화는 메타데이터가 처리되는 것이 필요한 129600 독립 프레임들로 구성된다. 그러므로, 전체 처리가 분할되고, 부분적 태스크들이 네트워크 클라우드 내의 독립 프로세서들에 분배되며 처리가 병렬로 수행된다. 도 3은 적절한 네트워크 아키텍처를 도시한다. '마스터' 프로세스(6)는 콘텐츠, 알고리즘들, 처리 등의 설정을 관리한다. 그 다음, 상이한 처리 노드들에서의 복수의 '워커' 프로세스들(7)은 마스터(6)에 의해 할당되는 처리 작업들을 수행한다.
이하에서, 디지털 콘텐츠는 예를 들어 영화 내의 프레임들과 같은 독립 유닛들로 분할될 수 있고, 이용된 알고리즘은 독립 처리 단계들로 분할될 수 있는 것으로 가정된다.
워커들(7)에 의해 구현되는 절차는 상당히 간단하다. 워커(7)는 마스터(6)에 의한 처리 작업들의 할당을 대기한다. 하나 이상의 처리 잡들이 워커(7)에 할당되었을 때, 워커(7)는 작업(들)을 처리한다. 워커(7)의 처리 속도에 관한 지시를 갖는 수신확인은 처리 작업이 종료될 때 또는 정의된 타임아웃이 만료될 때 마스터(6)에 송신된다. 후자는 마스터(6)에 워커(7)가 여전히 활동중인 것을 통지한다.
마스터 프로세스(6)는 상이한 워커 프로세스들(7)에 처리 작업들을 제공해야 한다. 이를 위해, 처리를 (최소) 처리 유닛들로 분할하는 해결법이 제안된다. 모든 콘텐츠 유닛, 예를 들어 영화 내의 프레임이 알고리즘의 처리 단계들로 분할된다. 워커들(7)에 대한 처리 작업들의 스마트 할당이 분할과 조합된다. 처리 잡들은 수개의 처리 유닛들로 구성될 수 있다. 한편, 워커들(7)로의 최소 처리 유닛만의 할당은 다량의 관리 오버헤드 때문에, 처리가 매우 비효과적이라는 단점을 가질 수 있다. 또한, 가능하면 알고리즘들은 영화 프레임들의 긴 시퀀스와 더 효율적으로 작용한다. 예를 들어, 하나의 프레임에 적용되는 움직임 추정은 적어도 이전 프레임 및 후속 프레임을 분석하는 것이 필요할 것이다. 그러므로, 하나의 프레임에 대해 3개의 프레임들이 분석되어야 하고, 10개의 연속 프레임들의 시퀀스는 12개의 프레임들만이 10개의 프레임들에 대해 분석되어야 하므로 대단히 좋은 효율을 가질 것이다. 다른 한편, 너무 큰 처리 작업들은 처리와 동시적인 정규 재생(검토를 위함)이 더 어려워진다는 단점을 가질 것이다. 이 문제들에 대한 해결법은 워커들(2)에 할당된 처리 작업들에 최소 처리 유닛들의 민첩한 구성(agile composition)이다. 처리 작업의 구성 및 사이즈는 워커(2)의 성능 및 콘텐츠 시퀀스의 유용한 클러스터링에 맞춰진다. 워커(2)에 할당되는 다음 처리 작업은 항상 재생 및 검토를 위해 다음에 요구되는 비할당된 처리 유닛으로 시작한다.
마스터 프로세스(6)의 구현은 도 4에 개략적으로 예시되어 있다. 제1 단계(30)에서, 처리가 (최소) 처리 유닛들로 분할된다. 이를 위해, 전체 디지털 콘텐츠가 콘텐츠 유닛들로 분할되고 처리 알고리즘들이 (최소) 처리 단계들로 분할된다. 동시에 메타데이터 그래프는 '비처리됨/비할당됨'으로서 모든 처리 유닛들에 대한 엔트리들로 초기화된다. 다음 단계(31)에서, 초기 처리 작업들이 워커들(7)에 할당된다. 처리 작업은 수개의 처리 유닛들, 예를 들어 영화의 일부 프레임들에 적용되는 전체 처리 알고리즘으로 구성될 수 있다. 그 다음, 초기 처리 잡들의 모든 처리 유닛들의 대응하는 메타데이터 그래프 엔트리들이 '워커...에 할당됨'으로 설정된다. 그 후에, 처리 유닛 또는 작업에 대한 수신확인이 워커(X)로부터 수신되는지의 여부가 체크된다(32). 임의의 워커는 처리 작업이 완전히 종료될 때 또는 정의된 타임프레임이 만료될 때, 수신확인을 송신한다. 수신확인은 마스터 프로세스(6)가 그의 진행 바를 적절히 갱신할 수 있게 하는 현재의 처리 작업의 진행을 위한 엔트리를 포함한다. 수신확인은 또한 워커의 현재 처리 속도를 위한 엔트리를 포함한다. 수신확인이 수신된 모든 워커(X)에 대해, 성능 값이 이 때 계산된다(33). 마스터 프로세스(6)는 모든 워커에 대해 성능 값, 예를 들어 초 당 처리된 프레임들의 수를 수신확인 내의 엔트리로부터 및/또는 수신확인들 사이의 자기 측정 값으로부터 계산한다. 다음 단계(34)는 워커(X)가 새로운 처리 작업들을 요구하는지를 판단한다. 전체 처리 작업을 종료한 후에, 새로운 처리 작업이 워커에 할당된다(35). 워커(X)에 할당되는 작업의 사이즈는 워커(X)의 성능에 의해 나누어진 작업에 대한 최대 시간으로부터 계산된다. 이것은 작업에 대한 최대 시간 후에 작업이 종료되는 것을 보장한다. 새로운 처리 작업들이 워커(X)에 할당될 때, 적절한 메시지가 워커에 송신되고 이 처리 잡들의 모든 처리 유닛들의 메타데이터 그래프 엔트리들이 '워커(X)에 할당됨'으로 설정된다. 최종적으로, 워커(X)에 의해 제공되는 새로운 메타데이터는 마스터 프로세스(6)에 의해 관리되는 메타데이터 데이터베이스와 조합된다(36). 더욱이, 메타데이터 그래프 표현을 위한 메타데이터 값이 결정된다. 메타데이터 그래프에서, 메타데이터 값은 상이한 표현들, 예를 들어 메타데이터의 미리보기, 메타데이터 자체 등을 가질 수 있다. 그 다음, 결정된 메타데이터 표현은 메타데이터 그래프 내에 삽입된다.
마스터 프로세스의 상기 구현은 메타데이터의 생성에 적절할 뿐만 아니라, 디지털 콘텐츠에 대한 메타데이터의 적용, 예를 들어 이전에 생성된 메타데이터에 기초한 디지털 콘텐츠의 자동 복원에도 적절하다. 이 경우에, 메타데이터의 적용은 처리 노드들(7)에 할당되는 복수의 처리 태스크들로 분할된다. 물론, 처리 태스크들의 할당에 더하여 또한 필요한 메타데이터뿐만 아니라 디지털 콘텐츠도 처리 노드들(7)에 분배될 필요가 있다. 그 다음, 처리 노드들(7)에 의해 생성되는 수정된 디지털 콘텐츠가 마스터(6)에 의해 수집되어 출력 유닛 상에 시각화된다.
마스터 프로세스(6)를 위한 그래픽 사용자 인터페이스(40)가 도 5에 도시되어 있다. 사용자 인터페이스는 점선 직사각형들에 의해 지시되는 잠재적 메타데이터 애노테이션들을 포함하는 실제 비디오 프레임들을 위한 디스플레이 영역(41)을 포함한다. 메타데이터 그래프 디스플레이 영역(42)은 프레임들의 할당 및 처리 상태에 관한 상세한 정보뿐만 아니라 이미 이용가능한 메타데이터도 제공한다. 정보 영역(43)은 메타데이터 그래프 디스플레이 영역(42)에 대한 레전드(legend)뿐만 아니라 현재 수행된 알고리즘, 활성 워커들의 수, 처리 속도 등에 관한 정보를 포함한다. 도 5의 예에서, 현재 디스플레이된 프레임은 메타데이터 그래프 디스플레이 영역(42) 내의 바운딩 보이(bounding boy)에 의해 강조된다. 블랙 바들은 대응하는 프레임들에 대한 실제 메타데이터 값들을 나타내고, 해시 바들은 아직 할당되지 않은 프레임들을 나타내며, 화이트 및 그레이 바들은 할당된 프레임들을 나타내고, 여기서 그레이 바는 대응하는 처리 단계가 현재 수행되고 있는 것을 의미한다. 화이트 및 그레이 바들 내의 수들은 처리 단계들이 할당되는 워커들을 나타낸다.
메타데이터 처리의 결과들을 추적하기 위해, 콘텐츠는 메타데이터 애노테이션들을 가지고 재생된다. 알고리즘, 콘텐츠 및 워커 속도에 따라, 처리 시간이 변할 수 있다. 그러므로, 현재의 처리 위치에 근접한 재생 위치를 유지하기 위해 재생 속도가 조정될 필요가 있다. 도 6은 재생 속도를 조정하는데 적절한 방법을 도시한다. 제1 단계(50)에서, 지정된 디스플레이 지속 기간 동안 현재 디스플레이된 프레임이 이미 디스플레이되었는지가 반복적으로 체크된다. 이것이 사실이면, 메타데이터가 다음 프레임에 이용가능한지가 체크된다(51). 그렇다면, 다음 프레임 및 관련 메타데이터가 로딩되어(52) 디스플레이된다. 다음 단계 53에서, 현재의 재생 위치 후의 처리된 프레임들의 수가 증가했는지가 체크된다. 그렇다면, 재생을 가속시키기 위해 지정된 디스플레이 지속 기간이 감소된다(54). 그것이 증가되지 않았다면, 현재의 재생 위치 후의 처리된 프레임들의 수가 감소했는지가 판단된다(55). 그렇다면, 재생을 감속시키기 위해 지정된 디스플레이 지속 기간이 증가된다(56).
마스터 프로세스(6)를 수행하도록 적응된 장치(60)는 도 7에 개략적으로 예시되어 있다. 장치(60)는 메타데이터 생성을 복수의 처리 태스크들로 분할하고 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 인터페이스(62)를 통해서 2개 이상의 처리 노드들(7)에 할당하는 프로세서(61)를 포함한다. 데이터 수집기(63)는 2개 이상의 처리 노드들(7)에 의해 생성되는 메타데이터를 수집한다. 시각화 컨트롤러(64)는 수집된 메타데이터를 연결된 출력 유닛(1) 상에 추가 인터페이스(65)를 통해서 시각화한다. 프로세서(61)는 처리 노드들(7) 중 하나 이상이 그의 할당된 처리 태스크들을 완료했는지 따라서 추가 처리 태스크들이 제공될 필요가 있는지를 연속적으로 모니터한다.

Claims (15)

  1. 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법으로서,
    메타데이터 생성을 복수의 처리 태스크들로 분할하는 단계(30);
    상기 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 2개 이상의 처리 노드들(7)에 할당하는 단계(31);
    상기 2개 이상의 처리 노드들(7)에 의해 생성되는 메타데이터를 수집하는 단계(36); 및
    상기 수집된 메타데이터를 출력 유닛(1) 상에 시각화하는 단계(36)
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 디지털 콘텐츠는 디지털화된 필름이고, 상기 메타데이터는 상기 디지털화된 필름에서 검출된 아티팩트들에 관한 정보인 방법.
  3. 제1항 또는 제2항에 있어서, 보고된 상태에 따라 추가 처리 태스크들을 처리 노드(7)에 할당하는 단계(35)를 더 포함하는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 처리 태스크들의 할당 및/또는 상기 할당된 처리 태스크들의 현재의 처리 상태를 시각화하는 단계(35)를 더 포함하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 추가 메타데이터가 검색될 때 상기 수집된 메타데이터의 시각화를 갱신하는 단계, 추가 처리 태스크들이 할당될 때 상기 처리 태스크들의 할당의 시각화를 갱신하는 단계, 또는 처리 상태가 변경될 때 상기 할당된 처리 태스크들의 상기 현재의 처리 상태의 시각화를 갱신하는 단계를 더 포함하는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 비할당된 또는 비처리된 처리 태스크들, 할당된 처리 태스크들의 할당 및 처리 상태, 및 생성된 메타데이터를 표시하는 데에 상이한 컬러들, 형상들, 또는 마크들이 이용되는 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 처리 태스크들은 상기 디지털 콘텐츠의 일부들 및/또는 알고리즘의 처리 단계들과 관련되는 방법.
  8. 제7항에 있어서, 상기 디지털 콘텐츠의 일부들은 영화의 프레임들 또는 청크들인 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 출력 유닛(1) 상에 시각화하기 위한 메타데이터를 클러스터하는 단계(15)를 더 포함하는 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 상기 처리 노드들(7)의 처리 속도들 및/또는 상기 처리 노드들(7)의 축적된 처리 속도를 결정하는 단계(33)를 더 포함하는 방법.
  11. 제10항에 있어서, 상기 축적된 처리 속도에 기초하여 메타데이터 검토 프로세스의 재생 속도를 제어하는 단계(54, 56)를 더 포함하는 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 상기 메타데이터의 검토를 위해 상기 수집된 메타데이터 및/또는 상기 디지털 콘텐츠를 통한 수동 내비게이션의 단계를 더 포함하는 방법.
  13. 디지털 콘텐츠를 위한 메타데이터를 생성하기 위한 장치(60)로서,
    메타데이터 생성을 복수의 처리 태스크들로 분할하고(30) 상기 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 2개 이상의 처리 노드들(7)에 할당하는(31) 프로세서(61);
    상기 2개 이상의 처리 노드들에 의해 생성되는 메타데이터를 수집하는(36) 데이터 수집기(63); 및
    상기 수집된 메타데이터를 출력 유닛(1) 상에 시각화하는(36) 시각화 컨트롤러(64)
    를 포함하는 장치.
  14. 메타데이터를 디지털 콘텐츠에 적용하는 방법으로서,
    상기 메타데이터의 적용을 복수의 처리 태스크들로 분할하는 단계;
    상기 복수의 처리 태스크들 중 2개 이상의 처리 태스크들을 2개 이상의 처리 노드들(7)에 할당하는 단계; 및
    상기 2개 이상의 처리 노드들(7)에 메타데이터를 분배하는 단계
    를 포함하는 방법.
  15. 제14항에 있어서,
    상기 2개 이상의 처리 노드들(7)에 의해 생성되는 수정된 디지털 콘텐츠를 수집하는 단계; 및
    상기 수정된 디지털 콘텐츠를 출력 유닛 상에 시각화하는 단계
    를 더 포함하는 방법.
KR1020120137023A 2011-11-30 2012-11-29 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치 KR20130061094A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11306589.0A EP2600305A1 (en) 2011-11-30 2011-11-30 Method and apparatus for generating metadata for digital content
EP11306589.0 2011-11-30

Publications (1)

Publication Number Publication Date
KR20130061094A true KR20130061094A (ko) 2013-06-10

Family

ID=47143046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120137023A KR20130061094A (ko) 2011-11-30 2012-11-29 디지털 콘텐츠를 위한 메타데이터를 생성하는 방법 및 장치

Country Status (5)

Country Link
US (1) US9038089B2 (ko)
EP (2) EP2600305A1 (ko)
JP (1) JP2013114695A (ko)
KR (1) KR20130061094A (ko)
CN (1) CN103218192A (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2600311A1 (en) * 2011-11-30 2013-06-05 Thomson Licensing Method and apparatus for visualizing a data set
WO2015000502A1 (en) * 2013-07-02 2015-01-08 Hitachi Data Systems Engineering UK Limited Method and apparatus for virtualization of a file system, data storage system for virtualization of a file system, and file server for use in a data storage system
US9911398B1 (en) * 2014-08-06 2018-03-06 Amazon Technologies, Inc. Variable density content display
US9794511B1 (en) 2014-08-06 2017-10-17 Amazon Technologies, Inc. Automatically staged video conversations
US9819905B1 (en) 2015-05-28 2017-11-14 Amazon Technologies, Inc. Video communication sessions between whitelisted devices

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265975A (ja) * 1992-03-16 1993-10-15 Hitachi Ltd 並列計算処理装置
JP3731952B2 (ja) * 1996-10-18 2006-01-05 シャープ株式会社 動画像検索用情報生成装置
AU2659999A (en) 1998-02-05 1999-08-23 Post Optical Services, Inc. Image defect identification system
US7092549B2 (en) * 2001-04-19 2006-08-15 Koninklijke Philips Electronics N.V. Method and apparatus for removing defects in an image sequence
US20030190087A1 (en) * 2002-04-05 2003-10-09 Alexander Kobilansky Automatic detection of vertical scratches in digital images
JP2005174456A (ja) * 2003-12-11 2005-06-30 Matsushita Electric Ind Co Ltd 編集用コントローラ
JP2006031358A (ja) * 2004-07-15 2006-02-02 Ziosoft Inc ボリュームレンダリング等の画像処理システム
EP1717755B1 (en) * 2005-03-08 2011-02-09 Oculus Info Inc. System and method for large scale information analysis using data visualization techniques
GB0504913D0 (en) * 2005-03-10 2005-04-13 Eastman Kodak Co Method and apparatus for digital processing of images
US20060267997A1 (en) * 2005-05-24 2006-11-30 Walls Jeffrey J Systems and methods for rendering graphics in a multi-node rendering system
WO2007029235A2 (en) 2005-09-05 2007-03-15 Algosoft Limited Automatic digital film and video restoration
KR100772388B1 (ko) * 2005-12-21 2007-11-01 삼성전자주식회사 아날로그 시계 형태의 타임 시프트 사용자 인터페이스 방법및 이를 이용한 pvr 장치
CA2722300C (en) 2007-04-25 2016-06-28 Miovision Technologies Incorporated Method and system for analyzing multimedia content
US7760203B1 (en) * 2007-04-30 2010-07-20 Hewlett-Packard Development Company, L.P. Graphic color-pixel-based visual-analytic representations for datasets
US8312464B2 (en) * 2007-08-28 2012-11-13 International Business Machines Corporation Hardware based dynamic load balancing of message passing interface tasks by modifying tasks
US20090178078A1 (en) * 2008-01-04 2009-07-09 At&T Delaware Intellectual Property, Inc. Systems, methods and computer products for indicators in an interactive program guide
JP5014244B2 (ja) * 2008-05-02 2012-08-29 キヤノン株式会社 映像配信装置及びその制御方法、映像配信システム、プログラム
US20100223649A1 (en) 2009-03-02 2010-09-02 Jason Robert Suitts Automated Assessment of Digital Video Encodings
US8321870B2 (en) * 2009-08-14 2012-11-27 General Electric Company Method and system for distributed computation having sub-task processing and sub-solution redistribution
US8473577B2 (en) * 2010-10-13 2013-06-25 Google Inc. Continuous application execution between multiple devices
US20130013328A1 (en) * 2010-11-12 2013-01-10 John Jospeh Donovan Systems, methods, and devices for an architecture to support secure massively scalable applications hosted in the cloud and supported and user interfaces
KR20130141529A (ko) 2010-11-16 2013-12-26 톰슨 라이센싱 필름 자동 복원 방법 및 장치
EP2485190A1 (en) 2011-02-04 2012-08-08 Thomson Licensing Adapting the resolution of a graphic representation of metadata
US8570318B2 (en) * 2011-08-25 2013-10-29 Intel Corporation Collaborative graphics rendering using mobile devices to support remote display

Also Published As

Publication number Publication date
EP2600306A1 (en) 2013-06-05
EP2600305A1 (en) 2013-06-05
US9038089B2 (en) 2015-05-19
CN103218192A (zh) 2013-07-24
JP2013114695A (ja) 2013-06-10
US20130139171A1 (en) 2013-05-30

Similar Documents

Publication Publication Date Title
US9792676B2 (en) System for background subtraction with 3D camera
US9038089B2 (en) Method and apparatus for generating metadata for digital content
US8515172B2 (en) Segmentation of image data
RU2580473C1 (ru) Устройство бесшовного объединения изображений в единую композицию с автоматической регулировкой контрастности и градиентом
JP6124568B2 (ja) データセットを可視化する方法及び装置
JP5873099B2 (ja) フィルムを自動的に修復する方法および装置
CN112190185B (zh) 扫地机器人及其三维场景的构建方法、系统及可读存储介质
US6771804B1 (en) Method and apparatus for signal segmentation
EP2492843A1 (en) Graphic user interface for adaption of parameters for an automatic logo removal algorithm and method for adaption of these parameters
JP2020046744A (ja) 画像処理装置、背景画像の生成方法およびプログラム
TW201322254A (zh) 數位內容所用元資料之產生方法及其裝置,以及元資料應用於數位內容之方法
CN108229368B (zh) 一种视频显示方法及装置
CN117319585B (zh) 一种高清演播室大屏分割监视方法及系统
JP7012457B2 (ja) 画像処理装置、画像処理方法
JP2021196656A5 (ko)
CN116152126A (zh) 肤色均匀处理方法、装置、设备、存储介质及程序产品
JP2001243473A (ja) 画像濃淡ムラ検出方法
JP2003198882A (ja) 動画像補正
EP2345997A1 (en) Method and system for estimating motion in video images

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid