KR20060007974A - 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법 - Google Patents

오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법 Download PDF

Info

Publication number
KR20060007974A
KR20060007974A KR1020040057605A KR20040057605A KR20060007974A KR 20060007974 A KR20060007974 A KR 20060007974A KR 1020040057605 A KR1020040057605 A KR 1020040057605A KR 20040057605 A KR20040057605 A KR 20040057605A KR 20060007974 A KR20060007974 A KR 20060007974A
Authority
KR
South Korea
Prior art keywords
video
file
technology
mpeg4
function
Prior art date
Application number
KR1020040057605A
Other languages
English (en)
Inventor
신달수
Original Assignee
주식회사 아이디어클릭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디어클릭 filed Critical 주식회사 아이디어클릭
Priority to KR1020040057605A priority Critical patent/KR20060007974A/ko
Publication of KR20060007974A publication Critical patent/KR20060007974A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Studio Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

현재, ¹MPEG4 기술은 비디오, 오디오 외에 ²오브젝트를 담고 표현하는 기술이 정의 되어 있다. 본 발명은 컴퓨터에서 비디오를 출력할 때 그래픽카드의 ³오버레이영역을 이용하는 기술을 적용하여 MPEG4가 가지고 있는 진보된 기능을 실행하거나 그 이상의 실용적인 행위를 할 수 있도록 하는 고안이다. 기존 MPEG4기술은 별도의 파일형식을 생산(인코딩)해 내지만 이 발명은 현재 사용되고 있는 ⁴자막파일(smi)처럼 동영상 원본에 항상 따라다니는 기능 파일로 존재한다. 좀더 쉽게 말하면 MPEG4가 가지고 있는 비디오, 오디오 데이타 외에 "오브젝트"에 대한 내용을 원본에 포함하여 다시 인코딩하는 것이 아니라 별도의 파일로 존재시켜 늘 원본 동영상을 따라 다니게 하는 것이다. 자, 그럼 이 오브젝트가 할 수 있는 일은 무엇인가 ? 동영상을 시청하는 시청자에게 더 많은 부가 정보를 제공하거나 시청자의 신호를 수신하고 응답하는 양방향 시스템을 구축할 수 있도록 해 준다. 구체적으로 이 발명은 동영상이 재생(Play)될 때 소프트웨어 기술로 동영상 위에 얇은 투명 막을 씌우는 방법으로서 사용자는 투명한 막이 보이지 않는다. 그럼, 이 투명한 기능 막 위에 어떤 일을 할 수 있는가 ? 바로 투명막 아래로 재생(Play)되는 동영상의 이해에 도움이 되는 각종 부가 기능을 할 수 있다. 예를들면, 자막을 더욱더 Dynamic하게 보여준다든지 동영상의 특정위치에 바로 첨삭을 통한 해설을 할 수도 있다. 더 나아가서 문제를 출제해서 동영상 내부의 특정 위치를 클릭하게 할 수도 있어 마치 "양방향 TV" 같은 효과를 발휘할 수도 있다. 가장 쉬운 예를 들어보자. 동물의 왕국을 소개하는 학습동영상이 있다고 가정하자. 코끼리를 소개되는 장면인데 "코끼리는 어디로 숨을 쉴까요 ?"라는 문제가 직접 동영상 스크린위에 자막 및 음성으로 질문이 던져진다. 시청하던 학생은 당황하며 어떻게든 응답을 해야한다. 이 발명은 코끼리의 입이든, 코구멍이든 동영상안에서 신체부위를 클릭할 수 있도록 도와준다.(핵심 내용) 해당부위를 선택하면 정답인지 아닌지 바로 알려주거나 거기에 맞는 Action을 추가적으로 정의할 수 있으며 그 응답 데이타도 서버로 전송시킬 수 있다. 이것을 가능하게 하고 기존의 모든 정적인 동영상을 살아 움직일 수 있는 재미있는 양방향 동영상으로 다시 태어나게 할 새로운 발명인 것이다.
(주석)
¹MPEG4 기술 : 디지털 동영상에 대한 국제표준 기술로서 기존 비디오 및 오디오 외에 부가적인 정보(오브젝트)를 담고 표현할 수 있도록 정의된 기술
²오브젝트 : 동영상에서 비디오 및 오디오 데이타 외에 부가적으로 표현할 수 있도록 정의된 데이타
³오버레이 영역 : 비디오카드에서 영상표현에 사용되는 하드웨어 기반의 메모리 영역
⁴자막파일(SAMI) : 동영상 화면 하단에 표시하는 문자 자막으로서 언어 번역용으로 활용됨. 동영상과 TimeLine을 Sync 시켜 예약된 시간에 지정된 자막을 내보내 표현할 수 있도록 정의된 국제표준 기술
양방향 동영상, MPEG4, SAMI, SMIL, 비디오카드 오버레이영역, 얇은 투명 기능판, 디지털방송, 대화형 주문형 비디오

Description

오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법 {Interactive media production and expression using overlay and memory}
도 1은 본 발명에 대한 개념도를 도시한다.
도 2는 오브젝트(기능파일)을 정의하고 생성하는 방법에 대한 흐름도 이다.
도 3은 비디오/오디오 원본과 "기능 오브젝트 파일" 쌍방간 동기화(Sync)하여 재생하는 방법을 도시한다.
현재, 외국의 디지털화된 영상물을 컴퓨터에서 시청할 때 한국어로된 자막이 영상물 하단에 표시되어 서비스되는 것을 볼 수 있다. 이는 동영상 원본파일외에 별도의 .smi 라는 파일이 존재하는데 동영상과 Sync가 맞추어져 있어 동영상의 재생 위치에 정확히 자막을 뿌려주는 역활을 한다. 이는 이미 "SAMI"라는 국제표준으로서 각종 동영상 재생기(Player)가 이 기능을 실행하는 것이다. 그러나, 단순 자막은 그 기능에 한계가 있어 동영상의 언어 번역 역할에만 제한되어 사용할 수밖에 없었다. 당연히 영상물에 다양한 추가 요구사항이 많아졌으며 많은 국제적인 노력에 힘입어 MPEG4 기술이 개발되었다. 이 MPEG4 기술은 기존의 비디오 및 오디오 데이타 외에 위의 한계를 극복하는 다양한 기능이 정의된 "오브젝트"를 추가적으로 원본에 합쳐서 압축해 주는 기술이다. 이 정의된 오브젝트는 재생되는 Player에 의해 시청자와 다양한 커뮤니케이션을 할 수 있도록 설계 되어져 있다. 이제 재생되는 동영상에 부가정보를 보여주거나 입력받을 수 있기 때문에 이론적으로는 양방향 커뮤니케이션이 가능하게 된 것이다.(현재, 기술개발 단계에 있으며 상용화 되기까지는 상당시간이 소요될 전망임)
가령 예를들면 특정 가전제품을 판매하는 홈쇼핑 동영상물에서 "밥솥"위에 마우스를 갖다대면 해당 밥솥의 부가정보(제조사, 규격, 재질, 구매방법 등)를 화면에 표시해 줄 수 있어 시청자의 이해 및 정보습득에 적극적인 도움을 줄 수 있다. 향후 디지털TV가 일반화 된다면 TV를 시청하며 걸어다니는 모델의 옷을 선택해 부가적인 정보를 얻을 수 있게 되는 것이다.
그러나, 본 발명은 위의 MPEG4가 갖는 의미와 목적에 같은 방향성을 가지고는 있지만 그 구현 방법 및 실현성에 대해 보다 적극적이고 차별화된 모습 을 갖고 있다.
우선, 부가적인 요구가 들어 있는 "오브젝트"를 동영상 원본에서 분리한다는 차이점이다. 현재 앞서 소개한 것 처럼 "자막"을 표시하기 위해 원본동영상을 따라 다니는 똑 같은 파일명의 확장자(smi)가 그 역활을 수행하는 것이다. 그렇다면 이 파일이 더 많은 기능을 수행하도록 하면 안될 까 ? 그러나, 이 부분의 노력은 MPEG4라는 기술 표준화를 통해 정의가 되어 가고 있어 그 한계의 극복 필요성이 없어지게 된 것이다. 하지만, MPEG4는 smi가 갖고 있는 많은 장점을 잃어 버렸다. 예를들어 자막 글씨중에 "사랑" 이라는 단어를 "믿음"으로 변경하려면 오브젝트 내용을 수정하고 원본파일을 다시 인코딩(압축)해야 하는 큰 불편을 담고 있다.
추가적으로 본 발명은 현실성에 대해 빠른 실현을 가져다 준다. 이론적으로 정립된 MPEG4 기술에서 비디오 및 오디오 외에 "오브젝트"라는 기능정보를 이용해 시청자와의 양방향 기능을 구현하는 것이 현실화 되기까지 상당한 시간이 소요될 것이다. 이유는 그것을 구현하고 실행하는 도구가 개발되어야 하며 기존에 이미 제작된 영상들을 모두 다시 제작하여 인코딩 해야 하는 부담감이 존재한다. 현실적으로는 가깝지 않은 미래의 기술인 것이다. 양방향 디지털TV가 일반화 되기 까지는 상당한 시일이 소요될 것으로 예측된다. 하지만 본 발명을 이용하면 기존에 이미 제작된 동영상 강의물을 훼손하지 않고 시청자와 대화할 수 있는 양방향 기능을 구현하고 실행할 수 있는 길이 쉽고 빠르게 실현 될 수 있다.
동영상과 시청자간의 양방향 시스템을 실현하기 위해서는 우선, 컴퓨터에서 재생되는 방식을 메모리영역이 아닌 비디오카드의 오버레이영역을 이용해 출력되는 점을 착안하였다. 메모리영역에 얇은 투명 기능막을 존재시켜 오버레이 영역으로 출력되는 동영상 영역과 메모리 영역의 크기와 위치를 정확히 일치시켜 동영상이 투과될 수 있도록 한다. 이렇게 하면 동영상위에 어떤 것도 표현할 수 있는 수단과 방법이 생성 되는 것이다. 이제는 이 투명 기능막 위에 출력되는 동영상과 정확히 동기(Sync)를 맞추어 필요한 각종 부가 기능을 실행만 하면 되는 것이다. 실제는 별도로 구현되지만 시청자는 마치 하나의 동영상처럼 보이게 되는 효과가 발생한다.
이 발명의 핵심적 기술 과제는 "얇은 투명 기능막"을 소프트웨어로 생성하는 것이며 그 위에 정의된 부가 기능을 실행하게끔 처리하는 기술이다.
이 발명의 원리는 비디오카드의 오버레이 영역과 컴퓨터의 메모리영역을 그 크기 및 위치를 정확히 겹치게 하여 일치시켜 놓는다. 이제 비디오카드의 오버레이 영역에서 재생되는 비디오 영상과 철저히 동기화(Sync)시켜 컴퓨터의 메모리영역에서 온갖 부가 기능을 제공 할 수 있도록 하면 된다.
이하 본 발명은 첨부한 도면을 참조하여 다음과 같이 상세히 설명될 것이다.
도1은 본 발명에 따른 디지털 비디오물과 실시간 양방향 커뮤니케이션을 가능하게 하는 시스템의 개념도 이다.
도시된 바와 같이 최초 디지털 비디오(S17)들을 재생할 때 S16같은 투명기능판을 S17과 똑같은 크기와 똑 같은 위치로 겹쳐 놓는다. 그러면 시청자(S14)는 투명기능판을 투과하여 동영상원본(S17)을 볼 수 있는 기본 환경이 마련된 셈이다. 이제, 여기에서 투명기능판(S16)이 하는 일을 살펴보기로 하자. 기존에 자막이라는 것이 있다. 이 자막은 영화를 보고자 할 때 맨 밑줄 및 특정한 위치에 한글 또는 영어로 대사를 번역하기 위해 이용되는 서비스 이다. S11은 자막파일을 가르키는 것으로써 현재 많이 사용되고 있고 모든 재생기(Player)들이 이 형식을 지원하고 있다. S12는 이 자막파일과는 다른 차원으로써 S13에서 나타나 있는 것처럼 다양한 기능을 실행시키고 싶은 것이다. ①기존의 자막기능을 튜닝 ②펜,음성 첨삭기능 ③음성 더빙기능(실시간) ④문제(퀴즈) 출제기능 ⑤마커(Marker) 기능 ⑥목차(책갈피)이동 기능 ⑦졸음방지기능 등 여러가지 기능을 표현하고 담을 수 있다. 그렇게 되면 시청자(S14)는 단순하게 TV를 시청하는 것 처럼 단방향이 아니라 S15와 같이 참여할 수 있는 비디오물이 될 수 있는 것이다. 그럼, 기존에는 참여할 수 가 없었는가에 의문이 있을 수 있다. 기존의 방식은 동영상 따로 양방향 질의 따로 영역을 할당해 구현했다는 점에서 큰 차별성을 갖는다. 그러나 본 발명은 동영상 크기를 100%로 한 가운데 동영상 가운데 직접 특정 부위를 클릭해 가며 참여할 수 있는 것이다. 그 차이점은 실로 상당히 크다. 가령 예를들어 학습동영상 컨텐츠라고 할 때 졸립고 흥미없는 강의물이 아니라 재미있고 서로 대화 해야하는 새로운 목적물로 거듭나는 것이다.
도2는 다양하고 흥미있는 양방향 커뮤니케이션을 가능하게 하는 목적물(=기능 오브젝트)를 어떻게 만드는지에 대한 방법 및 절차에 대하여 설명하고자 한다.
도시된 바와 같이 S21에서 비디오 원본을 선택한다. 이때 선택할 수 있는 비디오 형식은 현존하는 어떤 동영상 형식(Format)도 가능하다. AVI, MPEG, WMV, RM 등이 선택가능하며 다운로드 형식이 아닌 스트리밍 형식인 ASF 및 WMV도 가능하다. 이렇게 선택되어진 비디오 원본(S21)위에 S/W 기술로 처리한 얇은 투명 기능막을 원본과 똑 같은 크기 똑 같은 위치에 겹쳐 위치시킨다. 이 부분을 좀더 자세히 설명하면 원본비디오는 비디오카드의 오버레이 영역에 자리를 잡게되고 얇은 투명 기능막은 컴퓨터 메모리영역에 위치 시켜 서로 다른 두개를 완벽하게 겹쳐서 동기화(Sync) 시키면 되는 것이다. 이 것이 투명하다는 의미는 메모리 영역에 위치 시킨 것이 상위에 올라 가 있더라도 서로 다른 물질(매개체)이므로 가려 지지 않게 된다. 즉, 시청자는 비디오카드의 오버레이 영역에서 재생되는 것을 눈으로 볼 수 있게 된다. 이제 이 투명기능판에 작업을 하기 위해 동영상 TimeLine과 "기능도구바"(S23)을 준비하자. TimeLine은 동영상이 갖고 있는 시간 개념의 길이를 초 및 더 작은 단위로 나타내는 시간표를 의미한다. 50분의 동영상이라면 50분 길이의 시간표를 갖게 될 것이고 10분짜리 동영상이라면 10분 길이의 시간표를 갖게 될 것이다. 기능도구바는 얇은 투명 기능판위에 표현할 각종 수단을 표현하는 도구들인 것이다. 마치 목공소에서 조각품을 만들기 위해 망치, 못, 드라이버 등이 필요한 것과 같은 원리이다. 이제 기본적인 준비는 끝났다. 이제 S24에 표현된 것과 같이 컴퓨터 마우스를 통해 드래그 및 드롭과 클릭, 더블클릭 등의 수단들을 활용해 동영상 TimeLine의 원하는 위치에 원하는 기능을 갖다 놓고 정의해 주기만 하면 된다. 과연 어떤 세부적인 도구들이 있으며 어떤 구체적인 작업을 할 수 있을 까 ?
첫째, 글씨 및 그림 자막을 위치시키고 실행하는 방법이 있다.
기존의 실시간으로 해독해서 표시하는 자막은 매우 한계를 가지고 있다. 우선, 자막을 표시하는 위치가 화면 하단으로 고정되어 있고 그 글씨체 및 글씨크기, 정렬위치 등 단순한 수단이 전부이다. 본 발명은 자막을 목적으로 하는 표현 방법에 매우 다양한 환경을 제공한다. 우선, 자막을 표시하는 곳이 특정한 위치가 아닌 동영상 직접 위 아무 곳이나 위치할 수 있다. 그 표현도 글씨크기 및 폰트외에 입체글씨 및 깜빡이는 글씨, 움직이는 글씨, 그림과 혼합된 글씨등이 가능하다. 이의 작동원리는 미리 정의된 TimeLine(재생위치)이 되면 투명기능판위위에서 메모리영역을 이용해 프로그램으로 정해진 동작을 실행하는 것이다. 자막이 어느 크기며 어떤 위치에 어떤 동작으로 실행하도록 이미 시나리오가 되 있기 때문에 그 데이타를 읽어 구현하기 만 하면 된다. 물론 시청자는 동영상위 합쳐져서 보일 것이므로 하나로 인식할 것이다.
둘째, 영상물의 목차를 위치시키고 실행하는 방법이 있다.
예를들어, 기존의 학습동영상물은 동영상 따로, 목차 따로 영역을 정해서 표현해왔다. 이 발명을 이용하면 목차를 표현하기 위해 별도의 공간이 필요한 것이 아니다. 목차가 바뀌게 될 때 게임에서 보듯 "계기판"처럼 살짝 내려왔다가 다시 슬며시 접히는 형태의 표현이 가능하다. 또한 마우스 및 기타 전달 도구로 목차를 알리는 표시 부분에 갖다대면 목차 지도(Map)을 볼 수 도 있다.
셋째, 영상물의 특정위치에 영역을 정하고 그 영역에 각종 부가정보를 연결시키는 방법이 있다.
동영상을 재생할 때 나타나는 화면에서 원하는 영역을 정하고 그 영역에 Macro(명령)을 부여할 수 있다. 영역을 지정하는 방법으로는 원이나 사각형 같은 지정된 영역모양(Area)으로 갖다 놓는 방식으로 만들 수도 있고 불규칙적인 영역은 마우스로 각 꼭지점을 클릭해서 서로 잇는 방법으로 영역을 지정할 수도 있다. Macro(명령)은 지정한 영역을 클릭했을 때 반응을 일으키는 행위로서 특정 URL 및 데이타 Index로 점프해서 부가정보를 표현해 줄 수 있도록 명령할 수 있다.
넷째, 그림 및 도형, 각종 객체들을 위치시켜 다른 곳으로 이동시킬 수 있는 방법이 있다.
재생되는 동영상을 일시 정지 시킨 다음 마치 퍼즐처럼 동영상위의 특정모양을 맞추는 것이다. 동영상의 화면內 특정모양을 조각화 시킨 도형들을 미리 만들어 놓고 해당 동영상이 재생되는 위치에 그 조작들을 꾀어 맞추게 하는 것이다. 사용 방법으로는 조각난 도형들을 해당 위치에 마우스로 드래그(Drag) & 드롭(Drop)하는 형식을 취한다. 원하는 위치에 갖다 놓지 못할 경우 컴퓨터에서 소리를 내고 다시 도형을 자동 원위치 시키는등 원하는 행위를 할 수 있다. 물론 맞추면 그 도형은 해당위치에 자동 위치 고정되고 맞추었다는 소리를 표현해 낼 수도 있다.
다섯째, 시청자에게 질문 같은 문제를 출제하고 응답받아 처리할 수 있는 방법이 있다.
재생되는 동영상위에 갑자기 문제가 출제되고 시청자는 정답을 푼다. 문제는 자막같은 형태로 출제될 수도 있고 소리같은 음성형태로 출제될 수도 있다. 이때 가장 중요한 것은 동영상위에 펼쳐지는 장면의 특정 부위를 직접 클릭할 수 있도록 할 수 있다는 것이다. 예를들어, 코끼리를 소개하는 학습동영상이라 가정하자. 재생되는 동영상은 갑자기 코끼리가 보이는 곳에서 자막형태로 "코끼리는 어디로 숨을 쉴까요 ?" 라는 문제를 내게 된다. 사용자는 코끼리가 보이는 영역에서 어디든 클릭할 수 있다. 뒷다리, 앞다리, 코, 귀 등... 이 발명은 특정 부위를 클릭할 수 있도록 영역을 정하고 클릭할 수 있도록 도와주며 시청자가 선택한 정보를 응답받아 처리할 수 있는 방법을 제공한다. 물론 이때 동영상이 정지되어 있을 수도 움직이고 있을 수도 있다. 이 발명을 통해 사용자와 양방향 시스템을 이루는 가장 핵심적인 기대효과라 할 수 있다. 이 발명의 고안은 디지털TV 같은 형태로 발전될 수도 있다. 이는 바로 텔레비전 같은 곳에서 패션쇼를 보며 모델의 옷을 리모콘으로 클릭하면 해당 옷의 제조사 및 재질 그리고 구매방법 및 조건등의 부가정보를 화면에 표현할 수 있다. 디지털TV가 없어도 말이다.
여섯째, 원본 동영상 이외의 다른 목적물을 삽입하거나 이동(Jump)할 수 있도록 처리하는 방법이 있다.
본 발명은 항상 원본 동영상이 존재하고 그 동영상에 종속되어 표현하는 기술이다. 이때, 원본 동영상 이외에 다른 목적물을 삽입할 수 있다 물론 다른 목적물로 이동시킬 수도 있다. 다른 목적물이란 정지된 그림(Slide) 일 수도 있도 전혀 다른 동영상 파일일 수도 있다. 물론 여기서 2개 이상의 파일들이 합쳐서서 단일 파일로 합병(Merge)하여 단일 파일(원본 동영상)을 만들어 내는 것은 아니다. 원본동영상은 훼손하지 않고 다른 목적물을 연결(Link) 및 이동(Jump)하는 방식으로 하나의 동영상 처럼 표현해내는 방법인 것이다.
위와 같은 다양한 도구을 통하여 원하는 시간에 원하는 기능이 실행될 수 있도록 설정하였다. S26에서 미리보기를 실행하여 예상되는 기능을 시뮬레이션해 볼 수가 있다. 이와 같이 하는 목적은 원하는 기능이 제대로 반영되었는지 ? 아니면 시나리오 작성이 이상없는지 ? 확인할 수 있게 하는 것이다. S26을 통해 확인된 내용을 근거로 이상이 없다면 S28로 가서 SMX파일을 생성하면 되고 이상이 있다면 S27번을 따라 S25의 작업을 계속 반복 수행할 수 있다. 여러 반복을 통해 제대로 된 시나리오가 작성되었다면 S28번 작업을 통하여 목적물을 만들면 되는 것이다. 목적물의 형태는 규격화된 표준 문서 양식으로서 텍스트 파일 형태로 존재하게 된다. 확장명은 .SMX 로써 항상 원본 파일을 따라 다니면서 정의된 기능을 수행하는 것이 주 역활인 것이다.
도3은 비디오/오디오 원본과 기능파일 쌍방간 동기화(Sync)하여 재생하는 방법 및 절차에 대하여 설명하고자 한다.
도시된 바와 S35의 원본 동영상파일은 S34의 TimeLine 형태로 표현되며 동영상의 길이에 따라 TimeLine의 길이도 결정된다. 그 S34위에 SMX 기능파일(S39)을 열어서 분석한 다음 S34의 TimeLine에 재생되어야 될 위치에 특별 표시로서 기록하게 된다. 그렇게 되면 S34는 마치 악보에 박자들이 표시되어 있는 듯한 모습이 될 것이다. 그 악보가 리듬에 맞추어 재생될 때 정확한 시간에 표시된 음정과 박자를 악기를 통해 울리게 될 것이다. 이런 원리인 것이다. 즉, S34인 TimeLine은 악보에 해당하고 S39는 박자 및 음표와 같은 역활을 하게 된다. 이제 재생하는 일만 남았는데, S35는 S33을 통하여 화면에 표현될 것이고 S39에 해당하는 기능들은 S32의 투명한 기능 구현 판에서 재생될 것이다. 이렇게 되면 S31의 시청자는 마치 하나의 잘 맞추어진 하모니를 음미하게 될 것이며 단순한 음미가 아니라 S36 같은 적극적인 참여를 할 수가 있게 되는 것이다. 이런 원리를 통하여 다양하고 도움이 될 만한 부가적인 행위가 가능하며 다른 서버에 데이타를 연동하면 놀라운 효과를 발휘할 수 있다. 이미 S32에서 표현되는 기능들은 철저하게 S34에서 동기화된 시나리오 이므로 동영상이 어떤 모양이고 어떤 영상화면인지 미리 다 알고 있게 되는 셈이다. 그러기 때문에 만약, 동물원을 소개하는 학습동영상이 있다면 그 영상안에 들어 있는 수많은 동물중에 특정 "코끼리"를 클릭할 수 있도록 가능하게 한다. 물론 클릭한 데이타를 얼마든지 인터넷을 통해 활용할 수 있는 부가가치가 생겨 다양한 기획 및 시나리오 구성을 꾀할 수 있다.
본 발명이 가져다 주는 효과는 분야별로 다양하다. 교육용 강의 컨텐츠 부문에 있어서는 과거 저작툴을 제작하는 회사에 독자적인 강의물이 유행을 하였으나 교사가 제작하기 힘든 단점으로 인해 점차 칠판 강의를 그대로 찍어 주문형 비디오(VOD) 형태로 보여주는 것이 주류를 이루고 있다. 현재, EBS 수능강의가 대표적인 예인데 집에서 시청하는 TV와 다를 바가 없어 그 효율적인 부분에 있어 현재 많은 지적들이 제기되고 있다. 그렇다고 플래쉬와 같은 대화형(인터렉티브) 도구를 사용해 컨텐츠를 제작한다면 그 시간과 비용을 감당해 낼 수 없는 문제가 발생한다. 이에 본 발명이 가져다 주는 효과는 이 부분에 있어 절대적인 해결도구 역활을 수행할 수가 있다. 기존의 단방향 교육에서 완전히 벗어나 양방향 학습이 가능하므로 수준별 맞춤 학습이 가능한 것이다. 재미있고, 졸지못하고, 응답해 주어야 하는 대화 형식(인터렉티브)의 학습 방식을 구현해 낼 수 있다. 다른 기술들은 동영상 이외의 화면 공간에서 이런 동작들을 수행할 수도 있지만, 본 발명은 동영상 위에서 그 내용과 함께 표현하고 의사소통을 하는 것이다. 학습의 효과는 엄청나게 달라진다. 인터넷 방송 및 TV 부분에 있어서는 향후 도래할 양방향 디지털TV의 기술을 먼저 만나볼 수 있다는 것이다. 디지털 TV를 통한 진정한 양방향 기술이 현실화 되고 상용화 되기 위해서는 많은 인프라 구조 자체가 바뀌어야 한다. 영상을 송신하는 정보부터 디지털과 그 부가정보를 수행할 정보를 같이 송신 해야하며 수신하는 TV도 그에 맞는 가전제품으로 다시 바뀌어야 한다. 영상물 제작은 어떠한가 ? 참으로 기반 구조가 바뀌어야 하는 엄청난 사업인 것이다. 이에 맞추어 기술적으로 표현할 수 있도록 하는 각종 형식은 국제적으로 표준이 되어가고 있지만, 그것이 실 생활에 적용되는 날은 그렇게 쉬워 보이지만은 않다. 이에 본 발명은 송신측의 모든 인프라와 구조, 더불어 원본이 되는 영상물은 어떤 변화도 주지 않는다. 다만, 그 영상물과 함께 부가기능을 수행할 파일 만을 필요로 할 뿐이다. 그리고 그것을 표현해 내는 셋탑박스만 구비해 주면 준비가 끝이다. 빨리 양방향 디지털 TV를 만나볼 수 있게되는 것이다. 이에 대한 확실한 기술적, 상용적 적용이 가능한 발명이다. 부가 효과로는 하나의 동영상물에 대하여 여러 가지 형태의 "기능 오브젝트" 파일이 생길 수 있다. 이 부분은 다양한 시나리오 제작을 가능하게 하며 엔터테인먼트 분야에서 각종 패러디 및 시나리오 경진대회(컨테스트)등의 새로운 문화가 파생될 수도 있다.

Claims (2)

  1. 동영상위에 직접 각종 부가 정보를 표시하거나 시청자와 대화할 수 있는 오브젝트(기능파일)을 정의하고 생성하는 방법
    동영상위에서 행해질 각종 기능이 정의된 오브젝트를 그 기능별로 표준형식을 정의하여 독해가 가능한 또는 불가능한 형태의 파일로 생성한다. 그 파일에 담기는 정보의 형식은 명령어 태그와 명령어 세부 수행내용 데이타와 그 명령이 실행한 비디오의 프래임(Frame) 일련번호로 주 구성된다. 추가적으로 세부 수행내용 데이타가 단순 데이타가 아닌 파일로 존재할 경우(마치 첨부파일 같은 경우) 그 파일의 이진정보를 같이 포함해 담는 형태로 구성된다.
    기능 오브젝트에 담을 수 있는 표현 수단으로 아래와 같은 방법이 있다.
    ① 글씨 및 그림 자막을 위치시키고 실행하는 방법
    ② 영상물의 목차를 위치시키고 실행하는 방법
    ③ 영상물의 특정위치에 영역을 정하고 그 영역에 각종 부가정보를 연결시키는 방법
    ④ 그림 및 도형, 각종 오브젝트를 위치시켜 다른 곳으로 이동시킬 수 있는 방법
    ⑤ 시청자에게 질문 같은 문제를 출제하고 응답받아 처리할 수 있는 방법
    ⑥ 원본 동영상 이외의 다른 목적물을 삽입하거나 이동(Jump)할 수 있도록 처리하는 방법
  2. 청구항 1을 통해 제작된 파일을 비디오/오디오 원본과 쌍방간 동기화(Sync)하여 재생하는 방법
    일반적으로 동영상물이 컴퓨터에서 재생될 때 비디오카드의 오버레이 영역을 이용한다. 이점을 착안해 컴퓨터가 갖고 있는 메모리 영역과 비디오카드의 오버레이 영역을 그 크기 및 위치를 정확히 일치 시켜 겹쳐 놓는다. 그렇게 되면 비디오카드의 오버레이영역에서 출력되는 화면은 컴퓨터 메모리 영역을 투과하게 된다. 여기에서 컴퓨터 메모리 영역에 발명품을 위치시키는 것이다. 형태는 얇은 투명 기능판 같은 것으로서 그 기능판위에 어떤 행위도 할 수 있는 마당이 되는 셈이다.
    이제, 이 기능판은 비디오카드의 오버레이 영역에서 출력되는 원본 동영상에 철저히 동기화(Sync)되어야 한다. 사실, 이 투명 기능판은 아래에서 출력되는 영상물이 어떤 장면인지 ? 직접적으로 알 수는 없다. 이미 기능판 위에 철저한 시나리오가 정의되 있어야 하며 이는 아래 재생되는 영상물을 보고 미리 정의해야만 한다. 즉, 쌍방간을 일치시키는 유일한 매개체는 TimeLine(재생위치)인 것이다. 재생위치는 물리적으로 영상물의 프래임(Flame) 번호이며 더 쉽게 말하면 영상물을 구성하는 한장 한장의 그림(Image) 번호인 것이다. 물론 이 발명에서 다루는 영상물은 컴퓨터에서 재생하는 동영상만을 말하는 것이 아니다. 자연히 공중파 방송같은 것은 프래임(Frame)이 존재하지 않지만 같은 개념으로 TimeLine을 이용하게 된다. 이 발명의 기본은 이 것이다.
KR1020040057605A 2004-07-23 2004-07-23 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법 KR20060007974A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040057605A KR20060007974A (ko) 2004-07-23 2004-07-23 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040057605A KR20060007974A (ko) 2004-07-23 2004-07-23 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법

Publications (1)

Publication Number Publication Date
KR20060007974A true KR20060007974A (ko) 2006-01-26

Family

ID=37119135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040057605A KR20060007974A (ko) 2004-07-23 2004-07-23 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법

Country Status (1)

Country Link
KR (1) KR20060007974A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090078198A (ko) * 2008-01-14 2009-07-17 삼성전자주식회사 스크립트를 기반으로 하는 동영상 부가정보 처리 장치 및방법
KR20100074963A (ko) * 2008-12-24 2010-07-02 주식회사 이치온라인 사용자 입력 정보에 연동하여 다른 재생 위치의 동영상을 제공하는 동영상 학습 콘텐츠 제공 방법, 동영상 학습 콘텐츠 제공 시스템 및 동영상 학습 콘텐츠 제공 시스템 제작 방법
KR20200140029A (ko) * 2019-06-05 2020-12-15 황종찬 동영상 강좌 제공 시스템 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090078198A (ko) * 2008-01-14 2009-07-17 삼성전자주식회사 스크립트를 기반으로 하는 동영상 부가정보 처리 장치 및방법
US8958012B2 (en) 2008-01-14 2015-02-17 Samsung Electronics Co., Ltd. Apparatus for processing moving image ancillary information based on a script and method thereof
KR20100074963A (ko) * 2008-12-24 2010-07-02 주식회사 이치온라인 사용자 입력 정보에 연동하여 다른 재생 위치의 동영상을 제공하는 동영상 학습 콘텐츠 제공 방법, 동영상 학습 콘텐츠 제공 시스템 및 동영상 학습 콘텐츠 제공 시스템 제작 방법
KR20200140029A (ko) * 2019-06-05 2020-12-15 황종찬 동영상 강좌 제공 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
US20110319160A1 (en) Systems and Methods for Creating and Delivering Skill-Enhancing Computer Applications
US20150332515A1 (en) Augmented reality system
CN101436353A (zh) 一种模拟真实课堂授课效果的远程授课视频制作方法
KR20130050465A (ko) 그래픽 오브젝트를 이용한 증강 미디어 콘텐츠를 제공하기 위한 미디어 콘텐츠 송신 방법 및 장치, 및 수신 방법 및 장치
CN102129346A (zh) 一种视频互动方法及装置
KR20200134575A (ko) 증강현실을 통한 발레 공연 시스템 및 방법
CN108831216B (zh) 真三维虚拟仿真交互方法及系统
WO2021131343A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
Cha et al. An authoring/editing framework for haptic broadcasting: passive haptic interactions using MPEG-4 BIFS
Arliza et al. Development of interactive learning media based on android education geography
Bellini et al. Symbolic music representation in MPEG
KR20060007974A (ko) 오버레이영역과 메모리영역을 이용한 양방향 대화형 영상물 제작 방법 및 표현기법
Cintas et al. The higs and lows of digital subtitles
KR101942804B1 (ko) 다중언어 음원 콘텐츠 제공시스템
Ogunleye Television docudrama as alternative records of history
Bišćan et al. A review of lecture capture technology and its usage in higher education
JP2021086146A (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
Figueiredo et al. Augmented reality as a new media for supporting mobile-learning
CN111726692B (zh) 音视图数据的互动播放方法
Stiegler New industrial temporal objects
TWI789083B (zh) 擴增實境內容播放之控制方法、系統及其電腦可讀媒介
WO2021106463A1 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
WO2022255262A1 (ja) コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
Wang Innovation of Film and Television Screenwriter Education in the Era of Mobile Internet
WO2014024906A1 (ja) 番組画像作成方法およびその装置

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination