KR20010035099A - Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method - Google Patents
Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method Download PDFInfo
- Publication number
- KR20010035099A KR20010035099A KR1020000080966A KR20000080966A KR20010035099A KR 20010035099 A KR20010035099 A KR 20010035099A KR 1020000080966 A KR1020000080966 A KR 1020000080966A KR 20000080966 A KR20000080966 A KR 20000080966A KR 20010035099 A KR20010035099 A KR 20010035099A
- Authority
- KR
- South Korea
- Prior art keywords
- video
- frame
- streaming
- hypervideo
- anchor information
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8583—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
본 발명은 스트리밍 하이퍼비디오 시스템 및 그 제어 방법에 관한 것으로, 특히 장면 전환 자동 검출 과정을 거친 후에 셧 단위로 특정 물체를 추적하고 추적한 물체의 영역에 앵커 정보를 삽입함으로서 스트리밍 하이퍼비디오를 저작하고 스트리밍 하이퍼비디오를 포함한 웹 문서들을 자동으로 생성하고 플레이어가 앵커 정보를 미리 정의된 형태로 적절히 보여줌으로써, 셧 단위로 디지털 비디오 데이터를 효율적으로 관리, 편집 할 수 있음은 물론 웹 문서를 자동으로 생성함으로써 웹 디자인 및 개발에도 탁월한 성능을 보이며 고객에게도 친숙하고 편리한 화면을 제공하는 스트리밍 하이퍼비디오 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a streaming hypervideo system and a control method thereof. In particular, after a scene change automatic detection process is performed, a hyper hyper video system is authored and streamed by inserting anchor information into an area of a tracked object after tracking a specific object in a shut unit. By automatically generating web documents including hypervideo and allowing the player to properly display anchor information in a predefined form, it is possible to efficiently manage and edit digital video data on a shut-off basis as well as to automatically generate web documents. The present invention relates to a streaming hypervideo system that provides excellent performance in design and development and provides a user-friendly and convenient screen and a control method thereof.
하이퍼비디오 시스템은 1996년도 MIT에서 처음으로 연구되어 HyperCafe라는 프로토타입에서 출발하여 시스템의 구성이나 화면 인터페이스에 관해 국내, 국외로 MIT의 HyperCafe, International Business Machines Corporation(IBM), Veon, Inc., 가우리정보통신 주식회사, 삼성전자주식회사, 코리아퍼스텍 등의 학계 및 회사에서 연구되어왔다.Hyper Video System was first researched at MIT in 1996, and started from the prototype called HyperCafe. It has been developed in MIT, Korea, and overseas for the system configuration and screen interface. HyperCafe, International Business Machines Corporation (IBM), Veon, Inc. It has been studied in academia and companies such as Telecommunication Co., Ltd., Samsung Electronics Co., Ltd. and Korea First Tech.
1. MITMIT
HyperCafe는 스토리스페이스(Storyspace)에 기반하여 동영상 클립들을 멀티-쓰레드로 연결해 놓음으로써 도 1의 (a)와 같이 사용자가 정해진 스토리의 동영상 클립들을 시청하거나, 도 1의 (b)와 같이 사용자의 선택에 따라 특정한 스토리의 동영상 클립들을 시청할 수 있도록 하였다. 또한 도 1의 (b)에서 알 수 있듯이 다른 스토리라인 상에 있는 비디오 클립을 서로 공유함으로서 효율적인 스토리 구성을 하였다. 이 시스템은 사용자가 인터넷에 존재하는 가상 까페에 들어와서 상대방이 대화하는 것을 수동적으로 시청하거나 사용자가 관심있는 분야에 대해서 선택적으로 시청 가능케 하였다. 이 시스템은 스토리라인을 정하는 개념화 단계, 두 대 이상의 카메라를 이용하여 관련 장면들을 촬영하여 아날로그 비디오 데이터를 획득하는 단계, 획득된 아날로그 비디오 데이터를 디지털 비디오 클립으로 변환하여 편집하는 단계, 그리고 정해진 순서대로 구성하기 위한 스크립트 제작 단계로 이루어진다. 이러한 각 단계를 거쳐서 작성된 하이퍼비디오는 동영상 데이터와 함께 저작과정에서 작성된 시간, 공간적인 스크립트 파일을 이용하여 다른 동영상 클립으로 연결하여준다.HyperCafe connects the video clips in multi-threads based on the storyspace so that the user can watch the video clips of the story as shown in FIG. 1A or the user's choice as shown in FIG. 1B. You can watch video clips of a specific story. In addition, as can be seen in Figure 1 (b) by sharing the video clips on the different storyline with each other to create an efficient story composition. This system allows the user to enter a virtual cafe existing on the Internet and passively watch the other person talk or selectively view the field of interest. The system can be used to conceptualize a storyline, to capture relevant scenes using two or more cameras to acquire analog video data, to convert the acquired analog video data into digital video clips, and to edit them in a predetermined order. It consists of a script production step to construct. HyperVideo created through each of these steps connects to other video clips using video data and time and space script files created in the authoring process.
그러나, HyperCafe 시스템은 하이퍼비디오 저작도구가 그래픽 사용자 인터페이스 환경으로 보여주는 것이 아니라 편집 가능한 텍스트 형식의 스크립트 생성기를 사용함으로서 일반 사용자가 사용하기에 불편한 문제점을 갖고 있다. 도 2의 비주얼 저작 도구(Visual Authoring Tool)은 아직 구현되지 않았다. 또한 영화나 드라마와 같이 기존에 존재하는 동영상 데이터 대부분이 단일 스토리라인으로 제공되기 때문에 기존의 동영상을 재 가공하여 사용자에게 제공하기에는 적합하지 않은 구성이다.However, the HyperCafe system has a problem in that it is inconvenient for general users to use by using a script generator in the form of an editable text rather than displaying the hypervideo authoring tool in a graphical user interface environment. The visual authoring tool of FIG. 2 is not yet implemented. In addition, since most of existing video data such as movies and dramas are provided as a single storyline, it is not suitable for reprocessing existing videos and providing them to users.
2. International Business Machines Corporation(IBM)2. International Business Machines Corporation (IBM)
하이퍼비디오 저작 도구를 통해서 생성된 대화형 동영상은 인터넷을 통해서 각 개인에게 전달되어진다. 이때 각 사용자는 특정 플레이어를 사용하여 이를 보게되는데, 화면상에 보이는 동영상 중에서 어떠한 객체에 앵커 정보가 삽입되어있는지 알 수가 없다. 따라서 클라이언트에 해당되는 플레이어는 이 정보를 각 사용자에게 적당한 방법으로 전달해야만 한다. IBM은 이 문제에 대해서 프레임 내의 앵커영역의 시각적 속성을 변화함으로서 사용자에게 앵커 영역의 존재를 알렸다. 또한 동영상 자체의 변화를 원하지 않는 사용자들을 위해서 화면의 속성을 변하기보다는 동영상 외부 영역에 표시를 하고, 마우스가 앵커 영역 위에 존재할 경우에는 마우스의 모양을 변형시키는 방법을 꾀하였다. 화면 외부에 표시하는 방법으로는 도 3와 같이 앵커 표시자(A)를 두어 프레임 상의 앵커 영역(B)을 표시하는 방법을 국내에 특허로 출원하였다. 이 특허는 비디오 핫 앵커의 위치를 표시하기 위한 방법에 관한 것으로 하이퍼비디오의 생성에 대한 것은 포함하고 있지 않다.Interactive video created through the HyperVideo authoring tool is delivered to each individual over the Internet. At this time, each user sees this using a specific player, and it is impossible to know which object the anchor information is inserted in the video displayed on the screen. Therefore, the player corresponding to the client must deliver this information to each user in a proper way. IBM informed the user about the existence of the anchor area by changing the visual properties of the anchor area within the frame. Also, for the users who do not want to change the video itself, the screen is displayed in the outside area of the video rather than changing the property of the screen, and when the mouse is over the anchor area, the shape of the mouse is modified. As a method of displaying on the outside of the screen, a method of displaying the anchor region B on the frame by placing the anchor indicator A as shown in FIG. 3 has been filed in Korea as a patent. This patent relates to a method for indicating the position of a video hot anchor and does not include the creation of hypervideo.
화면 간섭을 최소화한 사용자 인터페이스의 개발에 이어 HotVideo라고 불리는 하이퍼비디오 저작 도구를 발표하여 하이퍼비디오 시스템의 면모를 갖추었다. 이 시스템은 사용자가 원하는 객체가 존재하는 개시 프레임과 종단 프레임을 키 프레임으로 지정하고 두 프레임 사이의 객체에 대해서 선형 보간하여 객체를 동영상내의 객체에 앵커 정보를 부가한다. 또한 스크립트 정보 파일을 따로 두고 핫 앵커가 존재하는 프레임은 플레이어가 이를 해석하여 화면상에 보여주게 된다. 도 4는 하이퍼비디오 저작 도구를 이용하여 하이퍼비디오를 저작하는 예를 보여주고 있다. HotVideo 시스템은 개시 프레임과 종단 프레임을 사용자가 지정함으로서 두 프레임사이에 존재하는 객체에 대해서 선형 보간 방법을 이용하여 자동으로 추적을 시행하였다. 또한 AVI, MPEG 등의 표준 동영상 포맷을 사용하여 확장성을 높였다. HotVideo 비록 개시, 종단 프레임을 사용자가 정해주고, 선형 보간법을 사용한다.Following the development of a user interface with minimal screen interference, the company released a hypervideo authoring tool called HotVideo, which became a hypervideo system. The system adds anchor information to an object in a video by designating a start frame and an end frame in which a user wants an object as a key frame and linear interpolation of the object between the two frames. In addition, a frame with a hot anchor with a script information file set apart by the player is interpreted and displayed on the screen. 4 shows an example of authoring a hypervideo using a hypervideo authoring tool. The HotVideo system automatically tracks the objects between the two frames by using linear interpolation by specifying the start and end frames. It also uses standard video formats such as AVI and MPEG to enhance scalability. HotVideo Although the start and end frames are user defined, linear interpolation is used.
동영상 내에서 앵커 정보를 삽입하고자 하는 객체는 대부분 셧 단위 이하로 존재하게 되고 설사 그렇지 않더라도 셧 보다 작은 단위로 존재하게 된다. 그러나 HotVideo에서는 동영상 내에 앵커 정보 삽입의 최소 단위인 셧의 구분을 사용자가 정하는 키 프레임으로 수행하고 있다. 따라서, HotVideo를 이용한 저작을 위해서는 매번 개시 키 프레임과 종단 키 프레임을 수동으로 설정할 필요가 있다. 또한 시간적으로 지나간 화면에 대한 저작을 다시 수행하기 위해서는 동영상을 앞부분부터 다시 살펴봐야 한다는 불편한 점이 있다.Most of the objects that want to insert anchor information in the video exist below the unit of shut and even if not, there exists the unit smaller than the unit of shut. However, HotVideo uses the user-defined key frame to distinguish shut, which is the smallest unit of anchor information insertion in a video. Therefore, for authoring using HotVideo, it is necessary to manually set the starting key frame and the ending key frame each time. In addition, in order to re-author the screen that has passed in time, it is inconvenient to review the video from the beginning.
3. Veon, Inc.Veon, Inc.
베온사는 1998년에 설립되어 인터넷 환경에 적합한 하이퍼비디오 저작 도구와 플레이어 그리고 미디어 서버로 구성되어있는 베온 슈트(VeonSuite)라는 하나의 시스템을 구축하고 이를 전자 상거래, 광고, 교육 시스템 등의 다양한 서비스를 제공하는 것을 목적으로 시스템을 개발하였다.Beon Corporation was established in 1998 to build a single system called VeonSuite, which consists of hypervideo authoring tools, players and media servers suitable for the Internet environment, and provides various services such as e-commerce, advertising, and education system. The system was developed for the purpose of doing so.
베온 슈트는 하이퍼비디오 저작 도구인 베온 스튜디오(VeonStudio)와 베온 플레이어(VeonPlayer), 그리고 미디어 서버로 구성되어있고 베온 스튜디오는 클라이언트 프로그램인 베온 플레이어와 같이 사용되며 동영상 내의 특정 객체를 선택하여 핫 스팟 영역으로 지정하고 지정된 핫 스팟에 동영상, HTML 문서, 사운드 등의 다양한 리소스를 연결할 수 있고, 하이퍼비디오를 포함한 웹 문서를 생성해 줌으로서 인터넷 환경에 적합한 구성을 갖고 있다.Veon Suite is composed of the HyperVideo authoring tools, VeonStudio, VeonPlayer, and Media Server. Veon Studio is used together with the client program, Veon Player, to select specific objects in the video to be used as hot spot areas. You can connect various resources such as video, HTML document, sound, etc. to designated hot spots, and create web documents including hypervideos.
베온 스튜디오는 프레임 내에 존재하는 객체에 대해서 사각형, 원, 다각형 등의 다양한 형태로 프레임 단위 저작을 가능하게 하며 움직이는 객체에 대해서도 자동 추적 기능을 추가하여 원하는 객체에 대한 핫 스팟 영역을 자동으로 정하는 기능을 갖고 있다. 또한 하이퍼비디오를 시청할 때에 원하는 객체를 표현하는 방법도 외곽선만 보이거나 반투명한 효과를 부여하거나 특정 이미지를 겹쳐 보이게하는 등의 다양한 형태의 인터페이스를 제공한다. 또한 IBM에서 취한 인터페이스와 마찬가지로 단순히 동영상의 시청만을 원하는 사용자를 위해서 마우스가 해당 객체 위에 존재할 경우에 마우스의 형태를 바꾸는 등의 방법으로 화면 간섭을 최소화할 수 있도록 고려하였다.Veon Studio enables frame-by-frame authoring of objects in the frame in various shapes such as rectangles, circles, and polygons. It also adds automatic tracking for moving objects to automatically define hot spot areas for desired objects. Have In addition, the method of expressing a desired object when watching a hyper video also provides various types of interfaces such as showing only an outline, giving a translucent effect, or overlaying a specific image. In addition, like the interface taken by IBM, for the user who only wants to watch the video, the screen interference is minimized by changing the shape of the mouse when the mouse is located on the object.
일반 사용자가 사용하게 되는 클라이언트 프로그램인 베온 플레이어는 저작도구에서 작성된 하이퍼비디오를 재생하는 것으로서 웹 브라우저에 내포된 형태로 보여지기 때문에 웹 개발자에 의해 디자인된 형태에 따라 다양한 형태로 사용자에게 보여질 수 있다. 또한 베온 슈트는 사용자의 다양한 인터렉션 정보들을 로그 파일로 저장하여 이를 서비스에 활용한다. 도 5는 플레이어와 미디어 서버와 저작 도구로 구성된 베온 슈트의 구성을 보여준다.Beon player, a client program used by the general user, plays a hypervideo created by the authoring tool, and is displayed in a web browser, so it can be shown to the user in various forms according to the design designed by the web developer. . In addition, Benon Suit stores various interaction information of users as log file and uses it for service. 5 shows the configuration of a Beon suit composed of a player, a media server, and an authoring tool.
그러나 베온 스튜디오 또한 HotVideo와 마찬가지로 매번 개시 키 프레임과 종단 키 프레임을 설정할 필요가 있다. 또한 시간적으로 지나간 화면에 대한 저작을 다시 수행하기 위해서는 동영상을 앞부분부터 다시 살펴봐야 한다는 불편한 점이 있다.However, Beon Studio, like HotVideo, also needs to set the start and end key frames each time. In addition, in order to re-author the screen that has passed in time, it is inconvenient to review the video from the beginning.
4. 가우리정보통신 주식회사4. Gauri Information Communication Co., Ltd.
국내에서도 1998년에 동영상 하이퍼 미디어 시스템이란 특허를 출원하였다. 이 특허는 SparcStation 하드웨어 기반에 SunVideo 보드를 이용해서 JPEG 영상을 기반으로 동영상을 인코딩/디코딩하여 프레임간의 유사도를 비교하여 셧 단위로 저작하고 재생할 수 있도록 구성하였다. 도 6을 살펴보면 동영상을 읽어들인 뒤에(S1) 셧의 개시 프레임을 찾기 위해 셧을 찾는다.(S2) 셧을 찾으면 동영상의 끝인지 검사를 수행하고(S3), 만일 끝인 경우에는 현재까지 설정된 앵커 정보를 파일에 저장하고(S10) 종료한다. 그렇지 않고 동영상의 중간일 경우에는 찾아진 셧의 첫 번째 프레임에 앵커를 설정한다(S4). 셧의 마지막 프레임까지 앵커는 보간법을 이용해서 자동으로 설정된다(S5). 저작 도구의 사용자는 마지막 프레임의 앵커 정보가 제대로 설정되었는지 검사하여(S6) 제대로 설정되어 있다면 동영상을 읽어들이는 단계로 진행하여(S2) 동영상의 끝까지 반복 수행한다. 만일 마지막 프레임의 앵커 정보가 제대로 설정되지 않은 경우는 마지막 프레임의 앵커 정보를 수정하고(S7) 중간 프레임들에 대해서 보간법을 다시 수행한다. 그 결과 중간 프레임들의 앵커 정보가 제대로 설정되어있는지 판단하여(S8) 제대로 설정되어있다면 동영상을 읽어들이는 단계로 진행하여(S2) 동영상의 끝까지 반복 수행한다. 만일 중간 프레임들의 앵커 정보가 제대로 설정되지 않았다면 해당 셧을 여러개의 셧으로 분할한 후에(S9) 첫 번째 프레임에 앵커 정보를 설정하는 단계(S4)로 진행하여 앵커 정보 삽입 작업을 수행한다.In 1998, it applied for a patent for a video hypermedia system in Korea. This patent uses SunVideo board based on SparcStation hardware to encode / decode video based on JPEG video so that the similarity between frames can be compared and authored and played in shut unit. Referring to FIG. 6, after reading a video (S1), a shut is searched to find a start frame of a shut. (S2) If a shut is found, a check is performed to determine the end of the video (S3). Save to a file (S10) and ends. Otherwise, in the middle of the video, an anchor is set in the first frame of the found shut (S4). The anchor is automatically set up using the interpolation method until the last frame of shut (S5). The user of the authoring tool checks whether the anchor information of the last frame is properly set (S6), and if it is properly set, proceeds to reading the video (S2) and repeats until the end of the video. If the anchor information of the last frame is not properly set, the anchor information of the last frame is corrected (S7) and interpolation is performed on the intermediate frames again. As a result, it is determined whether the anchor information of the intermediate frames is properly set (S8), and if it is properly set, the process proceeds to the step of reading a video (S2) and repeats until the end of the video. If the anchor information of the intermediate frames is not properly set, after splitting the corresponding shut into several shuts (S9), the anchor information is set to the first frame (S4) to perform anchor information insertion.
이러한 일련의 과정은 동영상 내의 앵커 정보 삽입 과정의 최소 단위인 셧 단위로 저작 과정을 수행하도록 구성하였으나 시간적으로 지나간 화면에 대한 저작을 다시 수행하기 위해서는 동영상을 앞부분부터 다시 살펴봐야 한다는 불편한 점이 있다. 즉, 시간적으로 진행하는 셧 단위로 저작을 수행하기 때문에 이미 지나친 셧에 대한 편집 작업을 하기에는 불편하다. 또한 JPEG 파일로의 변환은 특별한 하드웨어를 사용해야 하거나 그렇지 않더라도 인코딩/디코딩 시간이 많이 걸린다는 단점이 있으며, 이러한 문제는 저작 도구 측만이 아닌 사용자가 사용하는 클라이언트 컴퓨터 또한 같은 문제점을 갖고 있다.This series of processes is configured to perform the authoring process in the shut unit, which is the minimum unit of the anchor information insertion process in the video. However, it is inconvenient to review the video from the beginning in order to re-author the screen that has passed in time. In other words, it is inconvenient to edit an excessively shut shut because the writing is performed in a shut-down step that progresses in time. In addition, the conversion to JPEG files requires the use of special hardware or even takes a lot of encoding / decoding time. This problem has the same problem for client computers used by users other than the authoring tool.
5. 삼성전자 주식회사5. Samsung Electronics Co., Ltd.
삼성전자 주식회사에서도 1998년에 공개된 특허를 가지고 있으며 그 내용은 하이퍼앵커 정보를 포함하는 비디오 신호 기록 및 재생 방법에 관한 것이다. 이 방법은 특정 프레임의 하이퍼앵커 정보를 사각형 영역에서 대각선 양 끝의 정보를 갖고 있는 것으로 이를 이용하여 비디오 신호를 기록하고 재생하는 방법을 공개하고 있다. 그러나 이 방법 또한 저작 도구와 플레이어에서 영역 설정 과정과 설정된 영역을 표시하는 방법을 언급하고 있을 뿐 셧 단위 저작 과정과는 거리가 멀다.Samsung Electronics Co., Ltd. also has a patent published in 1998, the contents of which relates to a video signal recording and playback method including hyper-anchor information. In this method, hyperanchor information of a specific frame has information at both ends of a diagonal line in a rectangular area, and a method of recording and reproducing a video signal using the same is disclosed. However, this method also mentions the method of setting up the area and displaying the set area in the authoring tool and the player, and is far from the shut down process.
6. 코리아 퍼스텍6. Korea Firstec
코리아 퍼스텍은 동영상 직접 전자 상거래 시스템인 DIMPEC SYSTEM (Direct Motion Picture Electronic Commerce System)라는 이름으로 하이퍼비디오 시스템을 개발하여 이를 직접 전자상거래 서비스에 응용하고 있다. 이 시스템은 드라마 시청중에 원하는 상품이 있을 경우 마우스의 선택에 의하여 해당 프레임을 임시 저장한 후에 원하는 프레임에서 특정 객체의 정보를 얻어 쇼핑몰로 연동하는 서비스이다. DIMPEC은 사용자에게 동영상에 간섭을 최소화하여 동영상 내의 변화나 마우스의 변화를 주지 않고 앵커 정보를 활용하였다. DIMPEC 플레이어는 인터넷 환경에 적합하게 웹 브라우저에 포함되어 있으며 저작도구는 일반에게 공개하지 않고 현재 드라마몰(http://www.dramamall.co.kr)과 연동하여 서비스를 시행하고 있다. 도 7은 동영상의 프레임으로부터 쇼핑몰로의 연동하는 과정을 보여주고 있다. 도 7의 (a)는 동영상 시청중 원하는 상품이 있을 때 이를 임시 저장하기 위해 화면을 클릭하면 해당 화면이 임시 공간에 저장되고 플레이어 우측에 이를 표시하게 된다. 플레이어 우측에 표시된 것을 선택하면 저장된 화면이 브라우저의 다른 창으로 생성이 되며 새로운 창에서 원하는 객체를 선택했을 때 (c)와 같이 쇼핑몰로 이동하여 상품을 구입하게 된다.Korea Firstec has developed a hypervideo system under the name of DIMPEC SYSTEM (Direct Motion Picture Electronic Commerce System), which is a video direct electronic commerce system, and applies it directly to e-commerce service. This system is a service that interworks with a shopping mall by obtaining information of a specific object in a desired frame after temporarily storing the frame by selecting a mouse when there is a desired product while watching a drama. DIMPEC utilizes the anchor information without any change in the video or the mouse by minimizing interference on the video. The DIMPEC player is included in the web browser for the internet environment, and the authoring tool is not open to the public, and is currently operating in conjunction with the drama mall (http://www.dramamall.co.kr). 7 illustrates a process of linking a video frame to a shopping mall. In FIG. 7A, when a desired product is found while watching a video, a screen is clicked to temporarily store it, and the screen is stored in a temporary space and displayed on the right side of the player. If you select the one displayed on the right side of the player, the stored screen is created as another window of the browser, and when a desired object is selected in the new window, it moves to the shopping mall and purchases the product as shown in (c).
그러나 DIMPEC 시스템은 서비스를 목적으로 제작되어 저작 도구가 일반에게 공개되지 않은 상황이며 플레이어 또한 부가 창을 생성함으로서 동영상에 간접적으로 간섭을 제공할 수 있고, 원하는 저작된 정보를 사용자가 알 수 없기 때문에 사용자가 원하는 상품이 제공되지 않을 수 있으며 이에 따라 불필요한 화면을 저장하게 된다는 단점을 갖고 있다.However, the DIMPEC system is created for service purposes, and the authoring tool is not open to the public, and the player can also indirectly interfere with the video by creating additional windows, and the user cannot know the authored information desired. The desired product may not be provided and accordingly has a disadvantage of storing unnecessary screens.
하이퍼비디오 시스템에 대한 관련 연구는 업체를 중심으로 한 상기 시스템 외에도 Andersen Consulting LLP, Progressive Networks사, Microsoft사 등 많은 곳에서 연구되고 있으며, 해당 업체의 정책에 따라 저작 도구가 상용화된 것이 있고 그렇지 않은 것이 있다.Related research on hypervideo systems has been conducted in many places, including Andersen Consulting LLP, Progressive Networks, and Microsoft, in addition to the above-mentioned system. have.
참고 문헌references
[Sawhney96] N. Sawhney, D. Balcom, and I. Smith, ″HyperCafe: Narrative and Aesthetic Properties of Hypervideo,″ Proceedings of Hypertext '96: Seventh ACM Conf. on Hypertext, Washington DC, pp. 1-10, 1996.[Sawhney 96] N. Sawhney, D. Balcom, and I. Smith, ″ HyperCafe: Narrative and Aesthetic Properties of Hypervideo, ″ Proceedings of Hypertext '96: Seventh ACM Conf. on Hypertext, Washington DC, pp. 1-10, 1996.
[VEON] Veon, inc., ″Streaming Hypervideo and Dynamic Hypervideo,″ International Application Published under the Patent Cooperation Treaty(PCT)[WO 99/10822], 1999[VEON] Veon, inc., ″ Streaming Hypervideo and Dynamic Hypervideo, ″ International Application Published under the Patent Cooperation Treaty (PCT) [WO 99/10822], 1999
[IBM1] International Business Machines Corporation, ″비디오 핫 앵커(video hot link)의 위치를 표시하기 위한 방법,″ 국내 특허 공개[특 1998-041946], 1998.[IBM1] International Business Machines Corporation, ″ Method for Marking the Location of a Video Hot Anchor, ″ Domestic Patent Publication [Special 1998-041946], 1998.
[IBM2] International Business Machines Corporation, ″비디오 내로 하이퍼링크를 통합하는 방법 및 장치,″ 국내 특허 공개[특 2000-0016192], 2000.[IBM2] International Business Machines Corporation, ″ Method and Apparatus for Integrating Hyperlinks into Video, ″ Domestic Patent Publication [Spec. 2000-0016192], 2000.
[가우리98] 가우리정보통신 주식회사, ″동영상 하이퍼 미디어 시스템,″ 국내 특허 공개[98-10873], 1998[Gauri98] Gauri Information & Communication Co., Ltd., ″ Video Hyper Media System, ″ Domestic Patent Publication [98-10873], 1998
[삼성98] 삼성전자주식회사, ″하이퍼 앵커 정보를 포함하는 비디오 신호 기록 및 재생 방법,″ 국내 특허 공개[특1998-0023624],1998[Samsung 98] Samsung Electronics Co., Ltd., ″ Video Signal Recording and Playback Method Including Hyper Anchor Information, ″ Domestic Patent Publication [Special 1998-0023624], 1998
일반적으로 동영상 내의 앵커를 설정하고자 하는 객체는 셧 단위로 존재하게 된다. 설령 연속된 두 개의 셧에 동시에 앵커를 설정하고자 하는 객체가 존재하더라도 그 위치는 자동으로 검색될 수 없다. 따라서 동영상 내에 객체에 앵커를 설정하는 최소 단위는 셧이 되게 된다. 그러나, 종래의 하이퍼비디오 시스템은 앞에서 살펴본 바와 같이 스트리밍 하이퍼비디오를 저작하기 위해서 앵커 정보가 시작되는 개시 프레임과 앵커 정보가 종료되는 종료 프레임의 두 프레임을 수동으로 설정하는 방법을 사용하는 방법이 대부분이다. 한편, 가우리정보통신의 경우에는 프레임간의 유사도를 기준으로 셧을 검출하고 검출된 셧의 시작 프레임과 종료 프레임을 추출하여 이를 앵커 정보를 삽입할 때 활용하였다. 그러나 이 경우에도 도 6의 흐름도에서 알 수 있듯이 셧들의 순차적인 순서로 앵커 정보를 삽입하여 이미 시간적으로 지나간 셧에 대해서는 앵커 정보를 삽입하기가 어렵다. 또한 셧의 검출 후에 앵커 정보를 삽입하는 과정에 있어서 셧 내의 중간 프레임들에 대해서 앵커 정보를 삽입할 객체가 보간법으로 제대로 설정되지 못한 경우 강제로 셧을 분할하는 과정(S9)를 포함하고 있다. 셧 내의 앵커 정보를 삽입하려는 객체가 셧의 시작 프레임부터 종료 프레임까지 반드시 존재할 수는 없지만 카메라에 의한 화면의 전환이나, 페이드 인, 페이드 아웃, 디졸브 등의 특수 효과에 의한 화면 전환 둥의 전통적인 셧의 구분에 위반되는 행위이다. 더욱이 SpcarcStation의 SunVideo 보드를 이용한다는 특별한 하드웨어에서 구성되기 때문에 일반성이 떨어지고 고가의 시스템이 필요하다.In general, an object to set an anchor in a video exists in a shut unit. Even if there are objects that want to anchor at the same time in two consecutive shuts, their positions cannot be retrieved automatically. Therefore, the minimum unit for anchoring an object in a video is shut down. However, in the conventional hypervideo system, as described above, in order to author streaming hypervideo, a method of manually setting two frames, a start frame at which anchor information starts and an end frame at which anchor information ends, is mostly used. . Meanwhile, in the case of Gauri Information Communication, a shut is detected based on the similarity between frames, and the start and end frames of the detected shut are extracted and used to insert the anchor information. However, even in this case, as shown in the flowchart of FIG. 6, it is difficult to insert anchor information for a shut that has already passed in time by inserting anchor information in a sequential order of shuts. In addition, in the process of inserting the anchor information after the detection of the shut, if the object to insert the anchor information for the intermediate frames in the shut is not properly set by interpolation, the method includes forcibly dividing the shut (S9). An object that tries to insert anchor information in a shut may not necessarily exist from the start frame to the end frame of a shut, but the transition of a traditional shut down of a screen switching by a special effect such as a camera transition or a fade in, fade out, or dissolve This is a violation of the classification. Moreover, because it is configured on special hardware that uses SpcarcStation's SunVideo board, it is less general and requires expensive system.
이에 본 발명은 상기와 같은 문제점을 해결하기 위해 발명된 것으로, 특별한 하드웨어의 필요 없이 빠른 시간 내에 셧 단위 저작을 수행하고, 이미 지나간 셧에 대해서도 해당 셧의 대표 프레임을 선택하여 바로 해당 셧으로 이동하도록 저작 과정을 용이하게 제공하여 추가적인 전문적인 교육 과정 없이 쉽게 저작하게 되므로 그에 따라 스트리밍 하이퍼비디오 저작의 편리성의 극대화를 이룰 수 있는 장면 전환 자동 검출을 이용한 스트리밍 하이퍼비디오 시스템 및 그 제어 방법을 제공함에 그 목적이 있다.Accordingly, the present invention has been invented to solve the above problems, to perform a shut-down operation in a short time without the need for special hardware, and to move to the corresponding shut by selecting the representative frame of the shut even for the shut already passed. It provides easy authoring process without additional professional training process, so it is easy to provide streaming hypervideo system and automatic control method using scene change automatic detection that can maximize the convenience of streaming hypervideo authoring. There is this.
본 발명의 또 다른 목적은 스트리밍 하이퍼비디오의 저작 과정을 보다 편리하고 빠른 시간내에 수행하여 그 결과를 웹 문서, 예컨데 HTML 문서로 제작하여 웹디자이너가 쉽게 웹 문서를 편집함과 동시에, HTML 문서와 같이 편집된 웹 문서를 통해서 일반 사용자가 특별한 하드웨어없이 시청할 수 있고 시청 과정에서 발생되는 사용자 상호 작용에 대해서 해당 앵커 정보를 화면의 간섭없이 바로 제공하여 스트리밍 하이퍼비디오 보급 및 활용을 극대화시킬 수 있는 장면 전환 자동 검출을 이용한 스트리밍 하이퍼비디오 시스템 및 그 제어 방법을 제공함에 그 목적이 있다.It is still another object of the present invention to perform a streaming hypervideo authoring process more conveniently and quickly, and to produce a result as a web document, for example, an HTML document. Through the edited web document, the end user can watch without special hardware and automatically provide the anchor information on the user interaction generated during the viewing process without any interference on the screen to maximize the spreading and utilization of streaming hypervideo. It is an object of the present invention to provide a streaming hypervideo system using detection and a control method thereof.
상기와 같은 목적을 달성하기 위해서 본 발명은 스트리밍 하이퍼비디오 저작도구에서 동영상을 재생함과 동시에 Microsoft의 다이렉트쇼(DirectShow) 기술을 사용하여 빠른 시간 내에 장면 전환 자동 검출 기능을 수행하는 동영상 분석 단계와, 분석된 동영상 대표 프레임 중 임의의 프레임을 선택하고 선택된 프레임에 해당되는 장면의 전체 또는 일부분에 대해서 앵커 정보를 삽입하려고 하는 객체가 존재하는 프레임을 선택하는 단계와, 선택된 프레임에 대해서 특정 객체에 대해 자동으로 추적하는 단계와, 추적된 물체의 해당 프레임과 해당 프레임의 해당 위치에 앵커 정보를 삽입하는 단계와, 저작된 앵커 정보들을 파일로 저장하는 단계와, 자주 사용되는 웹 문서의 페이지 구성을 예컨데 가로 2분할, 세로 2분할 등의 문서 페이지의 레이아웃을 미리 갖고 있어 바로 선택할 수도 있고 웹 문서를 임의로 가로 또는 세로로 분할 및 병합 기능을 갖고 있고 웹 페이지 내의 각 프레임들의 이름을 지정할 수 있는 웹 문서 생성 단계로 이루어진 장면 전환 자동 검출을 이용한 스트리밍 하이퍼비디오 시스템 및 그 제어 방법을 제공한다.In order to achieve the above object, the present invention provides a video analysis step of performing a video transition automatic detection function in a short time by using the DirectShow technology of Microsoft while playing a video in a streaming hypervideo authoring tool, Selecting any frame among the analyzed video representative frames and selecting a frame in which an object to which anchor information is to be inserted for all or part of the scene corresponding to the selected frame exists; and automatically selecting a specific frame for the selected frame. Tracking, inserting anchor information into the frame of the tracked object and the corresponding position of the frame, saving the authored anchor information to a file, and organizing pages of frequently used web documents. Have a layout of document pages such as 2 split and 2 split Streaming hypervideo system and its control using automatic scene change detection, which can be selected immediately or has a function of splitting and merging web documents arbitrarily horizontally or vertically and naming each frame within a web page. Provide a method.
도 1는 종래의 하이퍼비디오 시스템(HyperCafe)의 제어 방법1 is a control method of a conventional hypervideo system (HyperCafe)
도 2은 종래의 하이퍼비디(HyperCafe)의 시스템의 구성도2 is a configuration diagram of a system of a conventional HyperCafe.
도 3는 종래의 하이퍼비디오 시스템에서 동영상 내에 링크 영역 표시 방법3 is a method for displaying a link area within a video in a conventional hypervideo system.
도 4는 종래의 하이퍼비디오 시스템(HotVideo)의 하이퍼비디오를 저작 도구의 사용자 인터페이스4 is a user interface of a tool for authoring hypervideo of a conventional hypervideo system (HotVideo).
도 5는 종래의 하이퍼비디오 시스템(VeonSuite)의 구성5 is a configuration of a conventional hyper video system (VeonSuite)
도 6은 종래의 하이퍼비디오 시스템의 흐름도6 is a flowchart of a conventional hypervideo system.
도 7은 종래의 하이퍼비디오 시스템(DIMPEC)과 쇼핑몰의 연동 과정7 is a process of linking a conventional hyper video system (DIMPEC) and a shopping mall
도 8은 스트리밍 하이퍼비디오 시스템의 구성도8 is a block diagram of a streaming hypervideo system
도 9는 스트리밍 하이퍼비디오 저작 도구의 제어 방법9 is a control method of a streaming hypervideo authoring tool
도 10은 다이렉트쇼를 이용한 영상 분석 과정10 is an image analysis process using a direct show
도 11은 동영상 분석 기능의 구성11 is a configuration of the video analysis function
도 12는 스트리밍 하이퍼비디오 플레이어의 구성12 is a configuration of a streaming hypervideo player
이하, 본 발명을 첨부된 예시 도면에 의거 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 시스템은 도 8에 도시된 바와 같이 스트리밍 하이퍼비디오를 저작하는 웹 서버 시스템부(2)와 저작된 스트리밍 하이퍼비디오와 앵커 정보 파일, 그리고 스트리밍 하이퍼비디오를 볼 수 있는 웹 문서를 저장하고 있는 웹 서버 시스템부(15)와 네트워크를 통해서 웹 서버로부터 얻어온 스트리밍 하이퍼비디오를 재생하고 앵커 정보를 전달하는 사용자 인터페이스부(1)로 이루어진다.As shown in FIG. 8, the system of the present invention stores a web server system unit 2 for authoring streaming hypervideo, an authored streaming hypervideo and anchor information file, and a web document for viewing streaming hypervideo. It consists of a web server system unit 15 and a user interface unit 1 for playing streaming hypervideo obtained from a web server via a network and delivering anchor information.
그리고 스트리밍 하이퍼비디오를 저작하는 웹 서버 시스템부(2)는 사용자의입력 제어 신호 예컨데, 특정 동영상을 선택 및 제어하거나, 특정 셧을 선택하거나 화면상의 링크 정보를 지정하는 앵커 정보 제어 신호 등을 입력시키는 키패널부(4)와, 이 키패널부(4)를 통해 선택된 특정 동영상에 대해 장면 전환을 수행하고 그 결과를 출력 장치부(3)으로 출력하는 동영상 분석부(10)와 키 패널부(4)에 의해 선택된 셧 내의 특정 객체를 셧의 진행 동안 추적하면서 객체의 위치에 앵커 정보를 삽입하는 객체 앵커링부(11)과 저작된 앵커 정보들을 웹 문서로 생성해 주는 컨텐츠 제작부(12)와 저작된 스트리밍 하이퍼비디오, 앵커 정보 파일 및 웹 문서들을 갖고 있는 하이퍼비디오 데이터베이스(15)와 사용자의 요구에 따라 하이퍼비디오 데이터베이스(15)에 저장된 정보를 전달해주는 통신 장치부(8)로 이루어진다. 객체 앵커링부(11) 또한 동적 객체의 프레임 정보와 위치 정보를 임시 버퍼 2(14)에 저장한 후에 웹 문서 관리부(12)에 의해 생성된 웹 문서와 임시 버퍼 2(14)의 내용을 하이퍼비디오 데이터베이스(15)에 저장하게 된다.The web server system unit 2 for authoring the streaming hypervideo may input a user input control signal, for example, an anchor information control signal for selecting and controlling a specific video, selecting a specific shut down, or specifying link information on the screen. The video panel analysis section 10 and the key panel section which perform a scene change over the key panel section 4, the specific video selected through the key panel section 4, and output the result to the output device section 3 ( 4) The object anchoring unit 11 for inserting anchor information at the position of the object while tracking a specific object in the shut selected by 4) and the content producing unit 12 and the author for generating the created anchor information as a web document. A hypervideo database (15) containing stored streaming hypervideo, anchor information files and web documents, and information stored in the hypervideo database (15) according to user requirements. It consists of a communication device section 8 for transmitting the beam. The object anchoring unit 11 also stores the frame information and the position information of the dynamic object in the temporary buffer 2 (14), and then hypervideos the contents of the web document and the temporary buffer 2 (14) generated by the web document management unit 12. It is stored in the database (15).
이때, 임시 버퍼 2(14)에 저장되는 내용은 해당 객체의 선택에 따라 화면에 표시될 부가 정보, 예컨데 앵커 정보가 포함된 객체와 관련 있는 웹 페이지와 앵커정보가 포함된 객체가 존재하는 프레임의 시작 프레임과 끝 프레임과, 프레임 내에 존재하는 앵커 정보가 포함된 객체의 위치와 앵커 정보가 포함된 객체의 표시 방법이 저장된다. 여기서 앵커 정보가 포함된 객체의 표시 방법은 기본적인 사각형, 삼각형 등의 기하학적인 모양이나 다각형, 또는 비트맵 이미지로 표시할 수 있으며, 표시되는 형태 또한 외곽선 강조 효과로 보여지거나. 역상, 또는 화면과 어울리게 반투명 효과를 줄 수도 있으며, 마우스가 위에 존재할 때만 보이게 하거나 항상 보이게 할 수도 있다.At this time, the contents stored in the temporary buffer 2 (14) is the additional information to be displayed on the screen according to the selection of the object, for example, the web page related to the object containing the anchor information and the frame containing the object containing the anchor information The start frame and the end frame, the position of the object including the anchor information existing in the frame, and the display method of the object including the anchor information are stored. Here, the display method of the object including the anchor information may be displayed as a basic shape such as a rectangle, a triangle, a polygon, or a bitmap image, and the displayed shape is also shown as an outline highlighting effect. You can give it a reversed or semi-transparent effect to match the screen, or make it visible only when the mouse is over it or always.
한편, 상기 사용자 인터페이스부(1)는 웹 서버로부터 스트리밍 하이퍼비디오와 앵커 정보 파일, 그리고 웹 문서를 획득하는 통신 장치부(8)과 획득한 스트리밍 하이퍼비디오를 재생, 일시 정지, 정지 등의 제어를 하는 동영상 제어부(5)와 마우스의 움직임 등의 키패널부(4)와 미리 획득되어 임시 버퍼(7)에 저장된 앵커 정보파일을 이용해서 앵커 정보 표시 여부를 판단하고, 판단 결과를 출력 장치부(3)에 미리 정의된 형태로 출력 장치부(3)로 신호를 보내고, 사용자가 앵커 정보를 선택했을때에 해당 정보를 사용자에게 전달하는 앵커 정보 관리부(6)로 이루어진다.Meanwhile, the user interface unit 1 controls playback, pause, and stop of the streaming hypervideo obtained from the web server and the communication device unit 8 which obtains the streaming hypervideo, the anchor information file, and the web document. The display unit 5 determines whether anchor information is displayed by using the video control unit 5 and the key panel unit 4 such as the movement of a mouse and the anchor information file which is obtained in advance and stored in the temporary buffer 7 and outputs the determination result. And an anchor information management unit 6 which sends a signal to the output device unit 3 in the form defined in 3) and delivers the information to the user when the user selects the anchor information.
스트리밍 하이퍼비디오 저작 도구에서는 저속의 인터넷의 대역폭에 의해서 일반적으로 압축 동영상 데이터가 사용되지만 다양한 동영상 데이터를 처리하기 위해서는 압축 동영상 데이터뿐만 아니라 비 압축 동영상 데이터에 대한 장면 전환 검출이 가능하도록 구성해야 한다. 따라서 본 발명에서는 특정 포맷의 구조적 특성을 이용하기보다 Microsoft사의 Windows 운영체제 하에서 다이렉트쇼 기능을 이용하여 가능한 많은 파일 포맷을 지원 가능한 분석 방법을 사용하였다. 윈도우 운영체제는 다이렉트쇼 기능을 사용하여 일반적인 동영상 재생하며 AVI, MPEG 등의 파일 포맷에 상관없이 같은 구조로 재생된다.In streaming hypervideo authoring tools, compressed video data is generally used due to the low bandwidth of the Internet. However, in order to process various video data, it is necessary to configure not only compressed video data but also scene change detection for uncompressed video data. Therefore, the present invention uses an analysis method that can support as many file formats as possible using the direct show function under the Microsoft Windows operating system, rather than using the structural characteristics of a specific format. The Windows operating system uses the direct show function to play general video clips and play the same structure regardless of file formats such as AVI and MPEG.
도 10은 다이렉트쇼를 이용하여 장면 전환 검출을 수행하는 영상 분석 과정을 살펴보면 파일 포맷에 상관없이 복호화 작업을 수행하는 트랜스폼 필터(911)를 거쳐 렌더러 필터(912)의 입력으로 들어가서 실제 화면에 표시가 된다. 본 발명에서는 동영상이 압축 형태이거나 비 압축 형태이거나 장면 전환 검출 기능을 지원하기 위해서는 이미 윈도우 운영 체제에서 디코딩한 결과인 트랜스폼 필터의 출력으로 나오는 영상을 가로채서 장면 전환 분석 여부를 처리한다. 이에 의해 다양한 형태의 동영상 데이터를 빠르게 저작할 수 있으며 심지어 새로 발표된 형태의 동영상이더라도 해당 동영상 코덱이 존재하고 임의 접근이 가능한 포맷이라면 장면 전환검출이 가능하다. 즉 트랜스폼 필터(911)의 결과로 나오는 영상은 렌더러 필터(912)가 받는 것과 동시에 영상 분석 모듈(920)으로 진행한다. 얻어진 영상은 임시버퍼(921)에 저장되고 연속적인 프레임의 영상을 얻어 또 다른 임시 버퍼(922)에 저장된다. 저장된 연속된 프레임의 두 영상은 장면 전환 검출 모듈(923)을 통해서 장면 전환이 일어났는지를 판단하여 장면 전환이 발생되면 화면에 해당 장면의 대표되는 프레임을 표시(924)한다.10 illustrates an image analysis process of performing a scene change detection using a direct show, through a transform filter 911 performing a decoding operation regardless of a file format, entering an input of a renderer filter 912 and displaying the image on an actual screen. Becomes In the present invention, in order to support a scene change detection function, whether a video is compressed or uncompressed, a scene change analysis is processed by intercepting an image output from the output of a transform filter which is already decoded by a Windows operating system. As a result, various types of video data can be quickly authored, and even a newly released video format can detect scene change if a video codec exists and can be arbitrarily accessed. That is, the image resulting from the transform filter 911 proceeds to the image analysis module 920 at the same time as the renderer filter 912 receives. The obtained image is stored in the temporary buffer 921 and obtains an image of consecutive frames and is stored in another temporary buffer 922. The two images of the consecutive frames stored are determined by the scene change detection module 923 to determine whether a scene change has occurred, and when a scene change occurs, a representative frame of the scene is displayed on the screen (924).
다이렉트쇼 기술을 이용하여 얻어낸 연속된 두 영상들을 비교해서 장면 전환 검출을 하기 위해서는 비 압축 동영상에 대한 장면 전환 검출 기법을 적용할 수 있다. 장면 전환 검출 과정은 픽셀 단위 장면 전환 검출 방법 혹은 프레임 단위의 장면 전환 검출 방법이 사용될 수 있으며 본 발명에서는 장면 전환 검출 과정의 일실시 예로 프레임 단위의 장면 전환 검출 과정 중 색상 히스토그램을 사용하였다. 스트리밍 하이퍼비디오 저작 도구는 장르가 정해지지 않은 임의의 동영상 데이터를 사용하기 때문에 가장 일반적으로 사용되는 방법인 프레임 단위의 검출 방법을 실시 예로 사용했다.In order to detect a scene change by comparing two consecutive images obtained by using a direct show technique, a scene change detection technique for an uncompressed video may be applied. The scene change detection process may be a pixel scene change detection method or a frame change scene detection method. In the present invention, as an example of the scene change detection process, a color histogram is used during the scene change detection process on a frame basis. Since the streaming hypervideo authoring tool uses arbitrary video data whose genre is not determined, the frame-based detection method, which is the most commonly used method, is used as an example.
프레임 단위의 장면 검출 방법은 명도 히스토그램이나 색상 히스토그램, 차 영상의 히스토그램과 같은 프레임 전체에 대한 특징값을 장면 전환 검출에 사용할 수 있다. 스트리밍 하이퍼비디오 저작도구의 경우에는 임의의 동영상 데이터를 리소스로 사용하기 때문에 칼라 모델에 기반한 색상 히스토그램을 사용하여 각 성분에 따른 히스토그램의 차이에 대한 평균을 산출하여 장면 전환이 발생하는 곳을 검출하였다. 또한 점진적인 장면 전환을 검출하기 위하여 Zhang이 제안한 방법인 이중 비교법을 사용하였다(H. J. Zhang, et, al., ″Automatic Partitioning of Full-Motion Video, ″ Multimedia Systems, Vol. 1, No. 1, pp. 10-28, 1993.). 이중 비교법은 필름 편집 효과에 의해서 발생하는 점진적인 장면 전환을 검출하기 위하여 서로 다른 크기의 두가지 임계값을 사용하는 것이다. 두 프레임의 각 성분의 차가 큰 컷의 경우에는 높은 임계값을 사용하고, 성분의 차가 낮고 일정한 시간동안 비슷한 크기의 차이가 유지되는 점진적인 장면 전환의 경우에는 낮은 임계값을 사용하여 장면 전환이 발생하는 프레임을 추출하였다.In the scene detection method on a frame-by-frame basis, feature values of the entire frame such as a brightness histogram, a color histogram, and a histogram of a difference image may be used for scene change detection. In the case of the streaming hypervideo authoring tool, since random video data is used as a resource, a color histogram based on a color model is used to calculate an average of the difference in the histogram according to each component to detect a scene transition. We also used a double comparison method, Zhang's method, to detect progressive scene transitions (HJ Zhang, et. Al., ″ Automatic Partitioning of Full-Motion Video, ″ Multimedia Systems, Vol. 1, No. 1, pp. 10-28, 1993.). The double comparison method uses two thresholds of different sizes to detect gradual transitions caused by film editing effects. Use a high threshold for cuts with large differences in each component of the two frames, and a low threshold for progressive transitions where the differences in components are low and maintain similar magnitudes of variation over time. The frame was extracted.
본 발명에서는 위에서 언급한 다이렉트쇼 기술과 함께 장면 전환 검출 기능을 수행함으로써 동영상을 사전 색인하여 셧 단위 편집을 가능케 하였다. 이는 대용량 동영상에 대해서 효과적인 저작 기능을 제공할 뿐만 아니라 동영상의 잘라내기/붙여넣기 등의 기본적인 편집 기능의 추가에도 도움을 줄 수 있다. 또한 동영상내의 대부분의 객체는 셧 단위로 존재하기 때문에 객체 추적에 있어서도 객체 추적에 대한 하한 한계를 제공한다는 장점을 갖는다. 도 11 은 동영상의 분석 과정을 도시한 그림이다. 동영상 분석 과정은 장면 전환 자동 검출 단계(1011)를 통해서 동영상의 인덱싱 정보를 임시 버퍼(1014)에 저장한고, 잘못 검출된 장면 전환은 수동으로 교정할 수 있도록 인덱싱 정보를 보정(1012)하는 단계를 포함한다. 장면 전환 검출 수동 보정 단계 후에 셧 단위로 스트리밍 하이퍼비디오를 저작(1013)하는 단계로 진행하여 최종 결과로 얻어진 앵커 정보 파일을 스트리밍 하이퍼비디오와 함께 웹 서버의 데이터를 갱신(1015)하게 된다.In the present invention, by performing the scene change detection function together with the above-described direct show technology, it is possible to pre-index the moving picture and perform the shut-by-shot editing. This not only provides an effective authoring function for large-capacity videos, but can also help to add basic editing functions such as cutting / pasting videos. In addition, since most objects in the video exist in shut units, there is an advantage of providing a lower limit for object tracking in object tracking. 11 is a diagram illustrating an analysis process of a video. The video analysis process stores the indexing information of the video in the temporary buffer 1014 through the automatic scene change detection step 1011, and corrects the indexing information 1012 so that the wrongly detected scene change can be corrected manually. Include. After the scene change detection manual correction step, the author proceeds to authoring the streaming hypervideo 1013 on a shut basis, and updates the data of the web server 1015 with the streaming hypervideo anchor information file obtained as a final result.
스트리밍 하이퍼비디오 플레이어는 인터넷으로부터 앵커 정보 파일을 얻어와서 이를 분석하여 해당 프레임이 재생될 때에 저작 도구에서 미리 지정한 방식대로 화면에 표시를 하게 된다. 저작 도구는 플레이어의 화면 표시를 위해서 다각형의 외곽선, 반투명 효과를 갖는 다각형, 또는 비트맵 이미지를 화면에 표시할 수 있으며, 객체 위에 마우스가 위치했을 경우에만 화면에 표시할 수 있다. 아래 도 12는 2 단계를 거쳐 화면에 표시함으로서 사용자의 간섭을 최소화할 수 있도록 구성한 것이다. 이 과정은 비디오 코덱(1111)에서 나온 영상을 실제 화면에 보여지는 비디오 렌더러(1115)로 가기 전에 사용자의 동작을 살펴보고 결정하는 것이다. 우선 웹서버에 있는 앵커 정보 데이터는 사전에 임시버퍼에 저장(1116)되고, 이를 사용하여 현재 재생되고 있는 프레임에 앵커 정보가 존재하는지 판단하여 존재하면 마우스의 모양을 변형(1112)한다. 또한 마우스의 위치가 앵커 정보 영역 위에 존재(1113)한다면 동영상 화면에 정해진 특정 형태로 표시(1114)를 하여 사용자가 선택할 수 있게 한다. 이러한 구성 방법은 동영상의 시청만을 원하는 사용자와 동영상내의 정보 획득을 원하는 사용자 모두에게 효과적인 인터페이스를 제공하기 위함이다.The streaming hypervideo player obtains the anchor information file from the Internet, analyzes it, and displays it on the screen in a predetermined manner when the frame is played. The authoring tool can display a polygon outline, a polygon with a translucent effect, or a bitmap image on the screen for displaying the screen of the player, and can be displayed only when the mouse is positioned on the object. 12 is configured to minimize the user's interference by displaying on the screen in two steps. This process is to examine and determine the user's motion before going to the video renderer 1115, which is displayed on the screen. First, the anchor information data in the web server is stored in the temporary buffer 1116 in advance, and it is determined using the anchor information in the frame currently being played using the same. In addition, if the location of the mouse is located in the anchor information area (1113), the user can select the display 1114 in a specific form determined on the video screen. This configuration method is intended to provide an effective interface for both users who only want to watch a video and users who want to acquire information in the video.
한편 컨텐츠 제작부는 스트리밍 하이퍼비디오 저작 도구에서 기존의 동영상을 스트리밍 하이퍼비디오로 재구성함과 동시에 이를 웹에 게시할 수 있는 기본 형태의 웹 문서를 제공하는 기능을 제공한다. 이 기능은 웹 관리자에게 자율적인 웹페이지 구성을 하는데 기본 틀을 제공하는 것으로서 브라우저의 화면을 원하는 형태로 분할할 수 있고 가장 기본적으로 제공되는 페이지 형태는 두 개의 프레임으로 분할된 것으로 스트리밍 하이퍼비디오 플레이어를 포함하는 프레임과 스트리밍 하이퍼비디오의 앵커 정보로 이동할 수 있는 프레임으로 구분된다. 또한 자주 사용되는 페이지 레이아웃을 지정하여 손쉽게 웹 페이지를 구성할 수 있으며, 페이지 내의 프레임을 자유롭게 분할 또는 병합할 수 있도록 하여 웹 디자이너가 스트리밍 하이퍼비디오를 포함하는 웹 문서를 쉽게 꾸밀 수 있도록 구성하였다.On the other hand, the content production unit provides a function of providing a web document of a basic form to reconstruct an existing video into a streaming hypervideo in a streaming hypervideo authoring tool and publish it on the web. This function provides web administrators with the basic framework for autonomous web page composition. The browser screen can be divided into the desired form. The most basic page type is divided into two frames. It is divided into a frame that can be included and a frame that can be moved to anchor information of streaming hypervideo. In addition, it is possible to easily configure web pages by designating frequently used page layouts and to freely divide or merge the frames within the pages, so that web designers can easily decorate web documents including streaming hypervideo.
이상 설명에서와 같이 본 발명은 스트리밍 하이퍼비디오 저작 도구에서 장면전환 자동 검출을 수행함으로써 앵커 정보 삽입의 최소 단위인 셧 단위 혹은 셧 이하의 단위로 저작 작업을 가능케 함은 물론 객체 앵커링부의 물체 추적에 있어서 장면의 끝에서 더 이상 물체 추적이 진행되지 않도록 하한 한계를 제공하는 효과가 있다. 또한 지나간 셧에 대해서도 셧의 대표 프레임을 선택하여 바로 해당 셧으로 이동하여 편집을 수행할 수 있으며, 저작한 결과물을 저작자가 원하는 레이아웃을 갖는 웹 문서로 바로 생성할 수 있다.As described above, the present invention enables the authoring operation in the shut unit, which is the minimum unit of the anchor information insertion or the unit of the shut down unit, by performing the automatic scene change detection in the streaming hypervideo authoring tool, as well as in the object tracking of the object anchoring unit. This has the effect of providing a lower limit so that object tracking no longer proceeds at the end of the scene. In addition, for the past shuts, the representative frame of the shut can be selected and moved directly to the shut for editing, and the authored result can be directly generated as a web document having a layout desired by the author.
본 발명의 다른 특징은 스트리밍 하이퍼비디오를 감상하는 사용자의 편의를 다양하게 만족시키기 위해서 화면의 간섭을 최소화하여 2 단계로 앵커 정보를 표시함으로써 동영상 감상만을 원하는 사용자와 동영상 내의 앵커 정보에 관심이 있는 사용자 모두에게 효과적으로 스트리밍 하이퍼비디오를 제공하는 효과가 있다.Another feature of the present invention is to display the anchor information in two steps by minimizing the interference of the screen in order to satisfy various conveniences of users who watch streaming hypervideo, and users who only want to watch the video and users who are interested in the anchor information in the video. It has the effect of effectively delivering streaming hypervideo to everyone.
이렇게 하는 것에 의해 기존의 하이퍼비디오 시스템에 부가해서 하이퍼비디오 저작을 앵커 정보 삽입의 최소 단위인 셧 단위로 보다 빠르고 직관적으로 접근 및 편집을 수행할 수 있다. 또한 이러한 스트리밍 하이퍼비디오 시스템은 인터넷TV나 인터렉티브 TV 등의 양방향 멀티미디어 솔루션의 핵심 기술로 활용될 수 있으며, 전자 상거래, VOD 서비스, 온라인 교육 분야 등의 다양한 양방향 멀티미디어 서비스에도 효율적으로 응용될 수 있다.By doing so, in addition to the existing hypervideo system, hypervideo authoring can be accessed and edited more quickly and intuitively in the shut unit, which is the minimum unit of anchor information insertion. In addition, the streaming hyper-video system can be used as a core technology for interactive multimedia solutions such as Internet TV or interactive TV, and can be efficiently applied to various interactive multimedia services such as e-commerce, VOD service, and online education.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000080966A KR20010035099A (en) | 2000-12-22 | 2000-12-22 | Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000080966A KR20010035099A (en) | 2000-12-22 | 2000-12-22 | Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20010035099A true KR20010035099A (en) | 2001-05-07 |
Family
ID=19703509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020000080966A KR20010035099A (en) | 2000-12-22 | 2000-12-22 | Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20010035099A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030038933A (en) * | 2001-11-09 | 2003-05-17 | 이승근 | Method for reproducing some multimedia files being associated with time and space and apparatus thereof |
KR100454480B1 (en) * | 2001-07-13 | 2004-10-28 | 주식회사 코리아퍼스텍 | Both sides service system through the internet |
KR100493677B1 (en) * | 2003-01-08 | 2005-06-02 | 엘지전자 주식회사 | Did instance document adaptation method using anchor preference descriptor |
WO2011155703A2 (en) * | 2010-06-10 | 2011-12-15 | 에스케이 텔레콤주식회사 | Content service method |
KR101124560B1 (en) * | 2010-04-13 | 2012-03-16 | 주식회사 소프닉스 | Automatic object processing method in movie and authoring apparatus for object service |
KR101313285B1 (en) * | 2011-06-03 | 2013-09-30 | 주식회사 에이치비솔루션 | Method and Device for Authoring Information File of Hyper Video and Computer-readable Recording Medium for the same |
US8769066B2 (en) | 2007-10-16 | 2014-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method for providing content |
WO2017222226A1 (en) * | 2016-06-20 | 2017-12-28 | (주)핑거플러스 | Method for registering advertised product on image content and server for executing same |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764847A (en) * | 1993-08-27 | 1995-03-10 | Oki Electric Ind Co Ltd | Hypermedium system |
JPH09101928A (en) * | 1995-07-28 | 1997-04-15 | Matsushita Electric Ind Co Ltd | Information service system |
JPH10105358A (en) * | 1996-09-30 | 1998-04-24 | Sony Corp | Device and method for controlling image display and information recording medium |
KR20000054155A (en) * | 2000-05-24 | 2000-09-05 | 전연택 | System for emboding dynamic image of it when selected object in three dimensions imagination space |
KR20000054823A (en) * | 2000-06-27 | 2000-09-05 | 이성환 | System for protecting the right of portrait on the picture of the broadcasting and controlling method therefore |
KR20000058546A (en) * | 2000-06-13 | 2000-10-05 | 우승엽 | The background screen goods information serving system and method in the internet picture |
US6154771A (en) * | 1998-06-01 | 2000-11-28 | Mediastra, Inc. | Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively |
-
2000
- 2000-12-22 KR KR1020000080966A patent/KR20010035099A/en not_active Application Discontinuation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764847A (en) * | 1993-08-27 | 1995-03-10 | Oki Electric Ind Co Ltd | Hypermedium system |
JPH09101928A (en) * | 1995-07-28 | 1997-04-15 | Matsushita Electric Ind Co Ltd | Information service system |
JPH10105358A (en) * | 1996-09-30 | 1998-04-24 | Sony Corp | Device and method for controlling image display and information recording medium |
US6154771A (en) * | 1998-06-01 | 2000-11-28 | Mediastra, Inc. | Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively |
KR20000054155A (en) * | 2000-05-24 | 2000-09-05 | 전연택 | System for emboding dynamic image of it when selected object in three dimensions imagination space |
KR20000058546A (en) * | 2000-06-13 | 2000-10-05 | 우승엽 | The background screen goods information serving system and method in the internet picture |
KR20000054823A (en) * | 2000-06-27 | 2000-09-05 | 이성환 | System for protecting the right of portrait on the picture of the broadcasting and controlling method therefore |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100454480B1 (en) * | 2001-07-13 | 2004-10-28 | 주식회사 코리아퍼스텍 | Both sides service system through the internet |
KR20030038933A (en) * | 2001-11-09 | 2003-05-17 | 이승근 | Method for reproducing some multimedia files being associated with time and space and apparatus thereof |
KR100493677B1 (en) * | 2003-01-08 | 2005-06-02 | 엘지전자 주식회사 | Did instance document adaptation method using anchor preference descriptor |
US8769066B2 (en) | 2007-10-16 | 2014-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method for providing content |
KR101124560B1 (en) * | 2010-04-13 | 2012-03-16 | 주식회사 소프닉스 | Automatic object processing method in movie and authoring apparatus for object service |
WO2011155703A2 (en) * | 2010-06-10 | 2011-12-15 | 에스케이 텔레콤주식회사 | Content service method |
WO2011155703A3 (en) * | 2010-06-10 | 2012-03-08 | 에스케이 텔레콤주식회사 | Content service method |
KR101313285B1 (en) * | 2011-06-03 | 2013-09-30 | 주식회사 에이치비솔루션 | Method and Device for Authoring Information File of Hyper Video and Computer-readable Recording Medium for the same |
WO2017222226A1 (en) * | 2016-06-20 | 2017-12-28 | (주)핑거플러스 | Method for registering advertised product on image content and server for executing same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112291627B (en) | Video editing method and device, mobile terminal and storage medium | |
CA2929356C (en) | Storyboard-directed video production from shared and individualized assets | |
Hamakawa et al. | Object composition and playback models for handling multimedia data | |
Yeung et al. | Video visualization for compact presentation and fast browsing of pictorial content | |
US8301669B2 (en) | Concurrent presentation of video segments enabling rapid video file comprehension | |
US7826709B2 (en) | Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method | |
US6647535B1 (en) | Methods and systems for real-time storyboarding with a web page and graphical user interface for automatic video parsing and browsing | |
US8701008B2 (en) | Systems and methods for sharing multimedia editing projects | |
US6268864B1 (en) | Linking a video and an animation | |
US20070101266A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
KR20080090218A (en) | Method for uploading an edited file automatically and apparatus thereof | |
JP2004287595A (en) | Device and method for converting composite media contents and its program | |
WO2006126391A1 (en) | Contents processing device, contents processing method, and computer program | |
JP2008141746A (en) | System and method for playing moving images | |
CA2387404A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
EP3616407A1 (en) | Modifying digital video content | |
KR100313713B1 (en) | Visual rate dynamic generation method using pixel sampling | |
KR20010035099A (en) | Streaming Hypervideo System using Automatic Scene Change Detection and Controlling Method | |
US20190141366A1 (en) | System and method for insertion of an asset into a source dynamic media | |
US20230377606A1 (en) | Video editing projects using single bundled video files | |
JP2000516006A (en) | Method and apparatus for navigating video content by displaying a plurality of key frames in parallel | |
KR102078479B1 (en) | Method for editing video and videos editing device | |
Tavanapong et al. | A characteristics-based bandwidth reduction technique for pre-recorded videos | |
Sawada | Recast: an interactive platform for personal media curation and distribution | |
Mu | Applications of Multimedia & Learning Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
G15R | Request for early opening | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |