KR102387978B1 - Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media - Google Patents

Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media Download PDF

Info

Publication number
KR102387978B1
KR102387978B1 KR1020200058861A KR20200058861A KR102387978B1 KR 102387978 B1 KR102387978 B1 KR 102387978B1 KR 1020200058861 A KR1020200058861 A KR 1020200058861A KR 20200058861 A KR20200058861 A KR 20200058861A KR 102387978 B1 KR102387978 B1 KR 102387978B1
Authority
KR
South Korea
Prior art keywords
scene
product
data
information
video
Prior art date
Application number
KR1020200058861A
Other languages
Korean (ko)
Other versions
KR20210142258A (en
Inventor
이미진
유성삼
Original Assignee
이미진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이미진 filed Critical 이미진
Priority to KR1020200058861A priority Critical patent/KR102387978B1/en
Publication of KR20210142258A publication Critical patent/KR20210142258A/en
Priority to KR1020220045084A priority patent/KR102476006B1/en
Application granted granted Critical
Publication of KR102387978B1 publication Critical patent/KR102387978B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

[과제] 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스도 EC와 직결하여 판매할 수 있는 EC 통합형 메타미디어의 제작 방법, 및 전송 시스템의 제어 방법을 제공한다.
[해결 수단] 본 발명은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠에 관련한 상품(물품이나 서비스)은, 물론, 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도, 당해 영상 컨텐츠의 시청 화면(시청 사이트)으로부터 직접 구입할 수 있는, 새로운 개념의 EC 모델에 관한 시스템의 제어 방법을 제공한다.
[Task] Not only video content related products (goods or services), but also various resources invested in the production of video content can be sold in direct connection with the EC. to provide.
[Solution Means] The present invention relates to a technology for integrating EC into video content such as movies, dramas, animations, and music videos. , a system related to a new concept of EC model in which various resources (people, space, props, equipment, technology, etc.) invested in the production of the video content can also be purchased directly from the viewing screen (viewing site) of the video content control method is provided.

Figure R1020200058861
Figure R1020200058861

Description

EC 통합형 메타미디어의 제작 방법, 전송 시스템 및 전송 방법{ELECTRONIC COMMERCE INTEGRATED META-MEDIA GENERATING METHOD, DISTRIBUTING SYSTEM AND METHOD FOR THE ELECTRONIC COMMERCE INTEGRATED META-MEDIA}ELECTRONIC COMMERCE INTEGRATED META-MEDIA GENERATING METHOD, DISTRIBUTING SYSTEM AND METHOD FOR THE ELECTRONIC COMMERCE INTEGRATED META-MEDIA

본 발명은, 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가 당해 영상 컨텐츠의 표시물을 포함한 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC(Electronic Commerce)의 UI(User Interface) 기능이 포함된 EC 통합형 메타미디어의 제작 방법, 전송 시스템, 및 전송 방법에 관한 것이다.The present invention relates to a technology for integrating EC into video content, a UI (Electronic Commerce) that allows a viewer of video content to transact production resources of the video content, including the display of the video content, as a commodity. A method for producing, a transmission system, and a transmission method of EC integrated metamedia including a user interface) function.

덧붙여, 용어 「메타미디어」에 관하여는, 예를 들어, 「멀티미디어·인터넷 사전」(https://www.jiten.com/dicmi/docs/k34/23195.htm 2019년 9월 10일 검색)에는, 「음성이나 텍스트, 화상, 비디오 등의 기성 미디어를 통합하여, 사람이 활용할 수 있도록 한다고 하는 생각의 명칭」이라고 소개되어 있는 바, 본 발명에 있어서는, 「음성이나 텍스트, 화상, 비디오 등의 기성 미디어를 통합한 미디어」라고 해석한다.In addition, regarding the term "metamedia", for example, in the "Multimedia Internet Dictionary" (https://www.jiten.com/dicmi/docs/k34/23195.htm searched on September 10, 2019) . Media that integrates media”.

[제일의 배경 기술][The best background technology]

본 발명에 있어서의 제1의 배경 기술은, EC에 관한 새로운 모델(형태나 수법, 관련 기술)에 관한 것이다.The first background art in the present invention relates to a new model (form, method, and related technology) related to EC.

우선, 탤런트나 인플루언서가 라이브 동영상을 전송하고, 시청자가 리얼타임으로 질문이나 코멘트를 하면서 상품을 구입할 수 있는 「라이브 코머스」라고 하는 EC 모델이 보급하기 시작했다.First, an EC model called “Live Commerce”, in which talents and influencers transmit live videos, and viewers can purchase products while asking questions and comments in real time, has begun to spread.

이와 같은 「라이브 코머스」는, EC에 라이브 전송의 동영상을 곱한 것으로, 라이브 동영상을 보면서 상품을 구입할 수 있는 통신 판매 모델이지만, 이미지로서는 TV 쇼핑의 인터랙티브판이라고 말할 수 있고, 시청자는 리얼타임으로 출품자·판매자에 대하여 질문이나 코멘트를 하면서 쇼핑을 할 수 있다.Such "Live Commerce" is a mail order model in which EC is multiplied by the video of live delivery, and you can purchase goods while watching the live video, but as an image, it can be said that it is an interactive version of TV shopping, and viewers are exhibitors in real time. · You can shop while asking questions or comments about the seller.

또한, EC 사이트 내에 배치한 오리지날의 드라마를 인터넷 전송하고, 등장하는 상품을 구입할 수 있는 「드라마 코머스」라고 하는 EC 모델도 보급하기 시작하고 있다.In addition, an EC model called "Drama Commerce" is also starting to spread, in which original dramas placed on the EC site are transmitted over the Internet and products appearing can be purchased.

이와 같은 「드라마 코머스」는, 드라마에서 표시된 상품(예를 들어, 탤런트가 몸에 대거나 사용하거나 하는 상품)에 관하여, 종래의 상품 설명만의 EC 사이트에서는 전해지지 못됐던 소재감이나 실루엣 등을 시청자에 전하는 것이 가능하다며, EC 사이트의 약점을 극복할 수 있는 새로운 대처로서 주목받고 있다.In such "Drama Commerce", with regard to products displayed in dramas (for example, products worn by talents or used by talents), to viewers, textures and silhouettes, etc. that were not conveyed on the EC site only for product descriptions in the past It is said that it is possible to communicate, and it is attracting attention as a new measure that can overcome the weakness of the EC site.

상술한[제1의 배경 기술]에 관하여는, 특허 문헌 1이나 특허 문헌 2, 특허 문헌 3 등에서 자세하게 소개되어 있고, 우선, 특허 문헌 1에는, 영화가 표시되어 있는 동안에 당해 영화에 관련하는 상업 정보로의 On Demand·액세스를 유저에 제공하여 당해 상업 정보의 발신처인 판매업자와 유저와의 링크 확립을 가능하게 하기 위한 시스템과 방법에 대하여 개시되어 있고, 또한, 특허 문헌 2에는, 화면 상에 표시된 영상에 관련하는 정보를 입수 가능하게 하는 각종 정보 장치나 과금 방법, 프로그램에 대하여 개시되어 있고, 나아가, 특허 문헌 3에는, 비디오 프로그램의 시청자가 비디오 프로그램에 표시되는 제품에 관한 정보에 액세스할 수 있는 인터랙티브인 시청 경험을 제공하기 위한 시스템과 방법이 개시되어 있다.The above-mentioned [first background art] is introduced in detail in Patent Document 1, Patent Document 2, Patent Document 3, etc. First, in Patent Document 1, commercial information related to the movie while the movie is being displayed. Disclosed is a system and method for providing a user with on-demand access to a user and enabling the establishment of a link between a user and a seller who is the source of the commercial information. Various information devices, billing methods, and programs that enable video-related information to be obtained are disclosed. Further, Patent Document 3 discloses a method in which a viewer of a video program can access information about a product displayed in the video program. Systems and methods for providing an interactive viewing experience are disclosed.

[제2의 배경 기술][Second Background Art]

본 발명에 있어서의 제2의 배경 기술은, 「화상 인식 AI」에 관한 기술이며, AI(Artificial Intelligence:인공지능)를 활용한 기계 학습(Machine Learning)이나 심층 학습(Deep Learning)에 의한 화상 인식(Image Recognition)을 이용한 EC 분야로의 활용 기술에 관한 것이다.The second background technology in the present invention is a technology related to "image recognition AI", and image recognition by machine learning or deep learning utilizing AI (Artificial Intelligence) (Image Recognition) It is about the application technology to the EC field.

이용자가 스마트폰 등으로 촬영한 상품 화상을 EC 사이트의 검색 기능 등에 업 로드하면 화상 인식에 의하여 카테고리 식별이나 피사체 인식, 특징 검출 등이 행하여지고, 당해 화상 인식에 의한 정보에 기초하여 EC 사이트 중의 상품 화상으로부터 동일 상품이나 유사 상품을 추출하여 추천 상품으로서 표시하는 구조나, EC 사이트 전용의 동영상이나 화상 컨텐츠를 화상 인식 기능에 의하여 간단하게 제작할 수 있는 동영상 편집 시스템 등이 보급되어 있다.When a user uploads a product image taken with a smartphone, etc. to the search function of the EC site, category identification, subject recognition, feature detection, etc. are performed by image recognition, and the product in the EC site is based on the image recognition information. A structure in which the same product or similar product is extracted from an image and displayed as a recommended product, and a moving picture editing system that can easily create a moving picture or image content for an EC site by means of an image recognition function, etc. are widespread.

이와 같은 구조나 시스템에는 물체 검출에 관한 기술이 필요하는 바, 근년, 심층 학습을 이용한 물체 검출용의 「화상 인식 AI」에 의하여, 화상 중에 비치는 복수의 물체의 종류의 식별(강아지, 고양이, 자동차 등) 데이터는 물론, 동화상에 있어서의 동 물체의 위치 데이터 등의 정보가, 고속이고 또한 고정밀도로 취득할 수 있게 되었다.As such a structure or system requires a technology related to object detection, in recent years, "image recognition AI" for object detection using deep learning identifies the types of a plurality of objects reflected in an image (dogs, cats, automobiles). etc.) data, as well as information such as position data of a moving object in a moving image, can be acquired at high speed and with high precision.

상술한 [제2의 배경 기술]에 관하여는, 비특허 문헌 1이나 비특허 문헌 2에 있어서 상세하게 설명되어 있고, 최근에는, 이와 같은 「화상 인식 AI」에 관한 고도의 기술을 클라우드 서비스에 의하여 제공하는 기업도 출현하기 시작하고 있다.The above-mentioned [Second Background Art] is described in detail in Non-Patent Document 1 and Non-Patent Document 2, and in recent years, advanced technology related to such “image recognition AI” has been developed by cloud services. Companies that provide them are also starting to appear.

예를 들어, 비특허 문헌 3에서는, API(Application Program Interface)를 사용하여, 화상이나 동영상의 분석 기능을 애플리케이션에 추가할 수 있는 서비스가 소개되어 있고, 이와 같은 서비스를 사용하면, 화상이나 동영상에 표시된 복수의 물체를 식별하여 당해 물체에 관한 데이터를 취득할 수 있고, 당해 물체에 관한 데이터에 대한 주석(태그 붙이기)을 용이하게 행할 수 있다.For example, in Non-Patent Document 3, a service capable of adding an image or video analysis function to an application using an API (Application Program Interface) is introduced. By identifying a plurality of displayed objects, data on the object can be acquired, and annotation (tagging) on the data on the object can be easily performed.

[제3 배경 기술][Third background art]

본 발명에 있어서의 제3 배경 기술은, 「음성(음향) 워터마크」(Audio Watermark)에 관한 기술이며, 음성 신호에 암호화를 실시한 문자 정보 등을 저장하는 기술에 관한 것이다.The third background technique in the present invention relates to a technique for "Audio Watermark", and relates to a technique for storing text information and the like obtained by encrypting an audio signal.

「음성(음향) 워터마크」에 관한 기술을 이용하는 것에 의하여, 텔레비젼이나 라디오, 광고 사이니지(signage), 컨텐츠로부터 발하는 소리에 문자 정보를 삽입하고, 이것을 스마트폰의 마이크를 통하여 취득하여 당해 문자 정보에 기초하는 액션을 리얼타임으로 연동시키는 것 같은 애플리케이션을 구축하는 것이 가능하게 된다.By using the technology related to "audio (sound) watermark", text information is inserted into the sound emitted from TV, radio, advertisement signage, and content, and this text information is acquired through the microphone of the smartphone. It becomes possible to build applications that link actions based on .

상술한 [제3 배경 기술]에 관하여는, 특허 문헌 4나 특허 문헌 5에 있어서 자세하게 설명되어 있고, 최근에는, 이와 같은 「음성(음향) 워터마크」에 관한 기술을 SDK(Software Development Kit)에 의하여 제공하는 기업도 출현하기 시작하고 있다.The above-mentioned [Third Background Art] is described in detail in Patent Document 4 and Patent Document 5, and in recent years, such a technology related to "audio (sound) watermark" has been developed in SDK (Software Development Kit). Companies that provide them are also starting to appear.

예를 들어, 비특허 문헌 4에서는, SDK를 사용하여 「음성(음향) 워터마크」기술을 여러 가지 애플리케이션에 짜넣을 수 있는 서비스가 소개되어 있고, 이와 같은 서비스를 사용하면, 텔레비젼 방송 프로그램이나 텔레비젼 커머셜의 내용과 연동한 컨텐츠의 핸들링(세컨드 스크린 및 더블 스크린 시책, T2O2O<TV to Online to Offline>)을 용이하게 실시할 수 있다.For example, in Non-Patent Document 4, a service capable of incorporating "audio (sound) watermark" technology into various applications using the SDK is introduced. Handling of contents linked with commercial contents (second screen and double screen measures, T2O2O <TV to Online to Offline>) can be easily performed.

[제4 배경 기술][4th background technology]

본 발명에 있어서의 제4 배경 기술은, 「DAM」(Digital Asset Management)에 관한 기술이며, 텍스트, 동영상, 사진, 카탈로그 데이터 등의 디지털 컨텐츠를, 플랫폼 등을 이용하고, 일원적으로 관리하기 위한 기술에 관한 것이다.The fourth background technology in the present invention is a technology related to "DAM" (Digital Asset Management), and is a technology for centrally managing digital contents such as text, video, photo, and catalog data using a platform or the like. is about

DAM에 관한 기술을 이용한 시스템은, (1) 여러 가지 디지털 데이터를 집약하여 메타테이터를 부여하고 필요한 정보로의 액세스를 편리화, (2) 전송하는 미디어(Web 사이트, EC 사이트, 카탈로그, SNS 등)에 맞춘 데이터 포맷 변환이나 데이터 사이즈 변경, (3) 저작권이 있는 데이터에 사용 허락 데이터를 관련지은 사용 기한의 관리, (4) 디지털 컨텐츠에 관한 창작적인 제작을 워크플로화한 제작 공정의 원활화, 등을 실현하기 위한 기능을 제공한다.The system using the technology related to DAM is (1) aggregating various digital data, giving meta data, and facilitating access to necessary information, (2) transmitting media (Web site, EC site, catalog, SNS, etc.) ), data format conversion or data size change, (3) management of expiration dates related to copyrighted data, and (4) facilitation of the production process for creative production of digital content as a workflow; It provides functions to realize etc.

영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠는, 자금은 물론, 여러가지 리소스(출자자, 감독, 원작자, 극작가, 캐스팅 디렉터, 배우, 성우, 음악 제작자, 연주자, 통역·번역자, 촬영 스탭, 편집 스탭, 조명 스탭, 장식 디자이너, 의상 디자이너, 스타일리스트, 헤어 디자이너, 메이크업 아티스트, 난투 장면 스탭, 스턴트, 엑스트라 등의 사람 또는 법인, 또한, 장면을 촬영하는 로케이션 현장이나 스튜디오 등의 공간, 더욱, 동물이나 차량, 의상, 장식품, 인테리어 등의 소도구, 또한 더욱, 카메라나 조명, CG, 녹음, 편집 등에 이용되는 기재·기술 등)에 의하여 제작되는 곳, 예를 들어, 영상 컨텐츠의 제작에 관하여, DAM에 관한 기술을 이용하여 이들 리소스에 관한 정보를 집약하여 메타테이터를 부여하면, 필요한 정보로의 액세스나, 데이터 포맷의 변환, 데이터 사이즈의 변경이 용이하게 되고, EC 모델에 응한 UI기능을 자동 구축하는 일도 가능하게 된다.Video contents such as movies, dramas, animations, and music videos are not only financed, but also various resources (investor, director, original author, playwright, casting director, actor, voice actor, music producer, performer, interpreter/translator, shooting staff, editing staff) Persons or corporations such as lighting staff, decoration designers, costume designers, stylists, hair designers, makeup artists, brawl scene staff, stunts, extras, etc. Also, locations such as locations or studios where scenes are shot, moreover, animals or Small tools such as vehicles, clothes, ornaments, interiors, and more, cameras, lighting, CG, equipment and technology used for recording, editing, etc.) When information on these resources is aggregated and provided with metadata using related technologies, access to necessary information, conversion of data format, and change of data size are facilitated, and UI functions conforming to the EC model are automatically built. work becomes possible.

상술한 [제4 배경 기술]에 관하여는, 인터넷에 대있어서 많이 소개되어 있고, 예를 들어, 비특허 문헌 5에서는, 브라우저 베이스 파일 관리나 동영상 관리, 동영상 장면 관리·검색, 저작권 정보 관리, 다운로드 제어, 사용 신청 워크플로 등에 관한 기능이 설명되어 있다.Regarding the above-mentioned [Fourth Background Art], there are many introductions on the Internet, for example, in Non-Patent Document 5, browser-based file management and video management, video scene management/search, copyright information management, and download Functions related to control, application for use workflow, etc. are described.

덧붙여, 이상으로 내건 모든 선행 기술 문헌의 내용에 관하여는, 참조에 의하여 본 명세서에 포함된다.In addition, the contents of all prior art documents raised above are incorporated herein by reference.

[특허문헌 1] 일본국 공개특허공보 특개평8-287107호[Patent Document 1] Japanese Patent Laid-Open No. 8-287107 [특허문헌 2] 일본국 공개특허공보 특개2002-334092호[Patent Document 2] Japanese Patent Laid-Open No. 2002-334092 [특허문헌 3] 일본국 공개특허공보 특표2013-511210호[Patent Document 3] Japanese Patent Application Laid-Open No. 2013-511210 [특허문헌 4] 일본국 공개특허공보 특개2008-058953호[Patent Document 4] Japanese Patent Laid-Open No. 2008-058953 [특허문헌 5] 일본국 공개특허공보 특개2009-268036호[Patent Document 5] Japanese Patent Laid-Open No. 2009-268036

[비특허문헌 1]「처음부터 시작하는 기계 학습」(기계 학습 개요)[2019년9월10일검색], 인터넷<https://qiita.com/taki_tflare/items/42a40119d3d8e622edd2>[Non-Patent Document 1] “Machine learning from scratch” (machine learning overview) [Search September 10, 2019], Internet <https://qiita.com/taki_tflare/items/42a40119d3d8e622edd2> [비특허문헌 2]「심층 학습에 의한 화상 인식」(Image Recognition by Deap Learning), 일본 로보트 학회잡지[Vol. 35 No. 3 pp. 180~185, 2017] 2017년 4월[Non-Patent Document 2] "Image Recognition by Deap Learning", Japanese Robot Society Magazine [Vol. 35 No. 3 pp. 180~185, 2017] April 2017 [비특허문헌 3] Amazon 「Amazon Rekognition」[2019년 9월 10일 검색], 인터넷<https://aws.amazon.com/jp/rekognition/>[Non-Patent Document 3] Amazon "Amazon Rekognition" [Searched on September 10, 2019], Internet <https://aws.amazon.com/jp/rekognition/> [비특허문헌 4] Evixar 「ACR(자동 컨텐츠 인식), 소리 센싱」[2019년 9월 10일 검색], 인터넷<https://www.evixar.com/evixaracr>[Non-Patent Document 4] Evixar 「ACR (Automatic Content Recognition), Sound Sensing」[Searched on September 10, 2019], Internet <https://www.evixar.com/evixaracr> [비특허문헌 5] Visual Processing Japan 「디지털 어셋 관리」[2019년 9월 10일 검색], 인터넷<http://www.cierto-ccc.com/cierto/function.html#dam>[Non-Patent Document 5] Visual Processing Japan “Digital Asset Management” [Search September 10, 2019], Internet <http://www.cierto-ccc.com/cierto/function.html#dam>

상술의 [제1의 배경 기술]에 기재한 「라이브 코머스」나 「드라마 코머스」는, 영상 컨텐츠와 연동시키는 EC이며, 주로 상품(물품이나 서비스)을 판매하는 목적으로 제작·전송되기 때문에, 그 시청자 타겟은 당해 상품의 구입 희망자에게 포커스 되지만, 본래의 영상 컨텐츠(영화나 드라마, 애니메이션, 음악 비디오 등)는, 그 스토리성이나 엔터테인먼트성, 예술성 등을 수반하여 제작·배급되기 때문에, 그 시청자 타겟은 당해 영상 컨텐츠의 테마에 의하여 대중 각층의 일반 시청자에게 포커스 되는 것은, 물론, 이와 같은 영상 컨텐츠의 제작에는 전술한 여러 가지 리소스가 투입되어 있기 때문에, 예를 들어, 이들 리소스의 조사나 거래가 당해 영상 컨텐츠의 시청을 개입시켜 용이하게 실시할 수 있다면, 광고나 마케팅, 영상 컨텐츠 제작 등에 관련되는 업계 관계자도 시청자 타겟으로서 포커스 할 수 있는 바,[제1의 배경 기술]이나 [제2의 배경 기술]에서 내건 선행 기술 문헌에는, 이와 같은 리소스의 조사나 거래에 관한 구체적인 방법이나 기술은 개시되어 있지 않다.“Live Commerce” and “Drama Commerce” described in the above [First Background Art] are ECs linked with video content, and are mainly produced and transmitted for the purpose of selling goods (goods or services), so the The audience target is focused on those who wish to purchase the product, but the original video content (movies, dramas, animations, music videos, etc.) is produced and distributed along with its story, entertainment, and artistry, so that audience target is focused on general viewers of all levels of the public by the theme of the video content, of course, since the above-mentioned various resources are put into the production of such video content, for example, research and trading of these resources If it can be carried out easily through content viewing, industry officials involved in advertising, marketing, video content production, etc. can also focus as a target audience. In the prior art literature presented by , there is no specific method or technique regarding the research or transaction of such a resource.

또한, 상술의 [제1의 배경 기술]에 기재한 「드라마 코머스」에 의한 EC 모델은, 이른바 프로덕트 프레이스먼트(광고 방법의 하나이며, 영화나 텔레비젼 드라마의 극중에 있어서, 배우의 소도구나 배경으로 실재하는 기업명이나 상품명, 상표 등을 표시시키는 수법)와 EC 사이트를 조합한 수법에 관한 것으로, 예를 들어, TV 쇼핑 형태로 드라마의 한 장면을 내걸면서 「이 장면에서 배우의 0000씨가 입고 있던 00000」라고 상품을 소개하면서 판매하는 모델이나, 드라마의 장면에 관련지을 수 있었던 링크로부터 구입에 유도하는 모델 등이 있지만, 어느 쪽도, 시청자가 드라마에 있어서의 여러 가지 장면으로부터 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)을 직감적으로 의식한다고 하는 유동성로의 대응 방법에 관하여 과제가 있는 바,[제1의 배경 기술]이나 [제2의 배경 기술], [제3 배경 기술], [제4 배경 기술]에서 내건 선행 기술 문헌에는, 이와 같은 과제를 해결하기 위한 구체적인 기술, 예를 들어, 「화상 인식 AI」나 「음성(음향) 워터마크」, 「DAM」 등에 관한 기술을 활용한 UI의 구성에 대하여는, 개시되어 있지 않다.In addition, the EC model by "drama commerce" described in the above-mentioned [1st background technology] is a so-called product placement (one of the advertising methods, in the play of a movie or TV drama, in the play of a movie or a TV drama, an actor's small tool or a background It is about a method that combines an EC site with a method of displaying an actual company name, product name, trademark, etc.) and, for example, while displaying a scene from a drama in the form of TV shopping, "In this scene, There are models that sell while introducing products with "00000", models that induce purchases from links associated with the scenes of the drama, etc., but, in either case, viewers can see things (goods and services) from various scenes in the drama. , people, space, props, equipment, technology, etc.), there is a problem with the response method to fluidity, which is intuitively conscious, [1st background technology], [2nd background technology], [3rd background Techniques] and [4th Background Art], in the prior art literature, specific techniques for solving such problems, for example, "image recognition AI", "audio (sound) watermark", "DAM", etc. The configuration of the UI utilizing the technology is not disclosed.

본 발명은, 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(영상 컨텐츠의 표시물을 포함한다)을 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 제작 방법, 전송 시스템, 및 전송 방법의 제공을 목적으로 한다.The present invention relates to a technology for integrating EC into video content, EC enabling viewers of video content to trade various resources (including displays of video content) invested in the production of the video content as a commodity The purpose of this is to provide a production method, a transmission system, and a transmission method of EC-integrated meta-media including UI functions.

[EC 통합형 메타미디어의 제작 방법][Production Method of EC Integrated Metamedia]

본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 제작 방법은,A method for producing EC integrated metamedia according to a non-limiting and exemplary kind of the present invention,

[a] 상품 데이터를 관리하기 위한 데이터베이스(상품 데이터 관리 DB)에 상품의 정보를 등록하는 스텝과,[a] A step of registering product information in a database for managing product data (product data management DB);

[b] 상기 상품의 EC 처리에 관한 정보를 관리하는 테이블(EC 상품 테이블)을 생성하는 스텝과,[b] creating a table (EC product table) for managing information on EC processing of the product;

[c] 영상 컨텐츠의 편집 정보를 공유하기 위한 파일(편집 정보 공유 파일)을 생성하는 스텝과,[c] A step of creating a file (editing information sharing file) for sharing the editing information of the video content;

[d] 상기 편집 정보 공유 파일의 장면에 관한 정보로부터 장면 정보를 관리하기 위한 파일(장면 관리 파일)을 생성하여 상기 상품 데이터 관리 DB의 상품 ID를 추가하는 스텝과,[d] creating a file (scene management file) for managing scene information from scene information in the edited information shared file and adding a product ID of the product data management DB;

[e] 장면 데이터를 관리하기 위한 데이터베이스(장면 데이터 관리 DB)에 상기 장면 관리 파일의 장면 데이터를 등록하는 스텝과,[e] registering the scene data of the scene management file in a database (scene data management DB) for managing the scene data;

[f] 비디오 데이터를 관리하기 위한 데이터베이스(비디오 데이터 관리 DB)에 상기 영상 컨텐츠의 공개용 비디오 데이터를 등록하는 스텝과,[f] registering the video data for public use of the video content in a database (video data management DB) for managing the video data;

[g] 상기 공개용 비디오 데이터의 장면과 상기 장면 데이터 관리 DB의 장면 데이터와 상기 상품 데이터 관리 DB의 상품 데이터로부터 물체 검출용의 학습된 데이터를 생성하는 스텝을 포함하는 것을 특징으로 한다.[g] It characterized by including the step of generating the learned data for object detection from the scene of the said video data for publication, the scene data of the said scene data management DB, and the product data of the said product data management DB.

또한, 상기 스텝[e]가, 상기 영상 컨텐츠의 각 장면에 음성 워터마크(음성 인코드(인코드)한 식별 정보)를 삽입하는 스텝을 포함하는 것을 특징으로 한다.Further, it is characterized in that the step [e] includes a step of inserting an audio watermark (audio encoded (encoded) identification information) into each scene of the video content.

[EC 통합형 메타미디어의 전송 시스템][EC Integrated Metamedia Transmission System]

본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 전송 시스템은,An EC integrated metamedia transmission system according to a non-limiting and exemplary kind of the present invention,

영상 컨텐츠의 시청자(유저)가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 전송 시스템이고, 유저(시청자)의 클라이언트 장치에 영상 컨텐츠를 표시하는 영상 컨텐츠 표시 수단과,It is an EC integrated metamedia delivery system that includes an EC UI function that allows viewers (users) of video content to trade the production resources of the video content as a commodity, and displays video content on the user's (viewer) client device. video content display means;

상기 영상 컨텐츠에 표시된 장면에 대한 상기 유저(시청자)에 의한 선택 조작을 상기 클라이언트 장치로 검지하는 장면 선택 조작 검지 수단과,scene selection operation detecting means for detecting, with the client device, a selection operation by the user (viewer) for the scene displayed in the video content;

상기 검지한 선택 조작의 시점에 있어서의 상기 장면의 식별 정보와 장면 화상 데이터를 상기 클라이언트 장치로부터 취득하는 장면 관련 데이터 취득 수단과,scene-related data acquisition means for acquiring, from the client device, identification information and scene image data of the scene at the time of the detected selection operation;

상기 취득한 장면 화상 데이터에 포함되는 물체를 검출하는 물체 검출 수단과,object detection means for detecting an object included in the acquired scene image data;

상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 상품 검색 수단과,product retrieval means for retrieving product information based on the acquired identification information;

상기 물체 검출 결과의 물체가 상기 상품 검색 결과의 상품 정보에 포함되는지를 조합하는 물체 조합 수단과,object combining means for combining whether the object of the object detection result is included in the product information of the product search result;

상기 물체 조합 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 장면 화상 데이터를 생성하는 UI처리된 장면 화상 데이터 생성 수단과,UI-processed scene image data generating means for generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the object of the object combination result is displayed;

상기 생성한 UI처리된 장면 화상 데이터에 대한 상기 유저(시청자)에 의한 호출 조작을 상기 클라이언트 장치로 검지하는 UI처리된 장면 화상 데이터 호출 조작 검지 수단과,UI-processed scene image data call operation detecting means for detecting, with the client device, a call operation by the user (viewer) on the generated UI-processed scene image data;

상기 검지에 의하여 상기 UI처리된 장면 화상 데이터가 상기 클라이언트 장치에 송신되어 표시되는 당해 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소에 대한 상기 유저(시청자)에 의한 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 링크 요소를 당해 클라이언트 장치로부터 취득하는 선택 링크 요소 취득 수단과,By the detection, the UI-processed scene image data is transmitted to the client device, and a selection operation by the user (viewer) for the link element included in the UI-processed scene image data displayed is detected by the client device selection link element acquisition means for acquiring, from the client device, a link element of the detected selection operation together with

상기 취득한 상기 링크 요소에 대응하는 상품 정보를 검색하는 링크 요소 대응 상품 정보 검색 수단과,link element-corresponding product information retrieval means for retrieving the acquired product information corresponding to the link element;

상기 검색한 상품 정보가 상기 클라이언트 장치에 송신되어 표시되는 당해 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리 종별의 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 EC 처리 종별을 당해 클라이언트 장치로부터 취득하는 EC 처리 종별 취득 수단과,The retrieved product information is transmitted to the client device, and an EC processing type selection operation by the user for the product of the displayed product information is detected by the client device, and the EC processing type of the detected selection operation is detected. EC processing type acquisition means acquired from the client device;

상기 취득한 EC 처리 종별에 기초하여 상기 상품에 대한 EC 처리를 호출하는 EC 처리 호출 수단을 구비하는 것을 특징으로 한다.EC processing calling means for calling EC processing for the product based on the acquired EC processing type is provided.

또한, 상기 EC 처리 호출 수단에 의하여 호출되는 EC 처리가 스마트 컨트랙트(contract)에 기초하는 거래 처리 수단을 구비하는 것을 특징으로 한다.In addition, it is characterized in that the EC processing called by the EC processing calling means is provided with a transaction processing means based on a smart contract (contract).

[EC 통합형 메타미디어의 제1 전송 방법][First method of transmission of EC-integrated metamedia]

본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 제1 전송 방법은,A first method of transmitting EC integrated metamedia according to a non-limiting and exemplary type of the present invention,

영상 컨텐츠의 유저(시청자)가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 전송 방법이고,An EC integrated metamedia transmission method including an EC UI function that enables a user (viewer) of video content to trade the production resource of the video content as a commodity,

[a] 유저의 클라이언트 장치에 영상 컨텐츠를 표시하는 스텝과,[a] a step of displaying the video content on the user's client device;

[b] 상기 영상 컨텐츠에 표시된 장면에 대한 상기 유저에 의한 선택 조작을 상기 클라이언트 장치로 검지하는 스텝과,[b] detecting, by the client device, a selection operation by the user for a scene displayed in the video content;

[c] 상기 검지한 선택 조작의 시점에 있어서의 상기 장면의 식별 정보와 장면 화상 데이터를 상기 클라이언트 장치로부터 취득하는 스텝과,[c] acquiring, from the client device, identification information and scene image data of the scene at the time of the detected selection operation;

[d] 상기 취득한 장면 화상 데이터에 포함되는 물체를 검출하는 스텝,[d] a step of detecting an object included in the acquired scene image data;

[e] 상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝,[e] a step of searching for product information based on the acquired identification information;

[f] 상기 검출 결과의 물체가 상기 검색 결과의 상품 정보에 포함되는지를 조합하는 스텝과,[f] combining whether the object of the detection result is included in the product information of the search result;

[g] 상기 조합 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 장면 화상 데이터를 생성하는 스텝과,[g] generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the object of the combination result is displayed;

[h] 상기 생성한 UI처리된 장면 화상 데이터에 대한 상기 유저에 의한 호출 조작을 상기 클라이언트 장치로 검지하는 스텝과,[h] detecting, by the client device, a call operation by the user for the generated UI-processed scene image data;

[i] 상기 검지에 의하여 상기 UI처리된 장면 화상 데이터가 상기 클라이언트 장치에 송신되어 표시되는 당해 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소에 대한 상기 유저에 의한 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,[i] By the detection, the UI-processed scene image data is transmitted to the client device, and a selection operation by the user for the link element included in the UI-processed scene image data displayed is detected by the client device and acquiring, from the client device, a link element of the detected selection operation;

[j] 상기 취득한 상기 링크 요소에 대응하는 상품 정보를 검색하는 스텝과,[j] a step of retrieving product information corresponding to the acquired link element;

[k] 상기 검색한 상품 정보가 상기 클라이언트 장치에 송신되어 표시되는 당해 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리 종별의 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 EC 처리 종별을 당해 클라이언트 장치로부터 취득하는 스텝과,[k] When the searched product information is transmitted to the client device and displayed, an EC processing type selection operation by the user for the product of the displayed product information is detected by the client device, and the EC of the detected selection operation is detected acquiring the processing type from the client device;

[l] 상기 취득한 EC 처리 종별에 기초하여 상기 상품에 대한 EC 처리를 호출하는 스텝을 포함하는 것을 특징으로 한다.[1] It is characterized by including the step of calling the EC process with respect to the said product based on the said acquired EC process type.

또한, 상기 스텝 [g]가, 상기 클라이언트 장치에 표시된 UI처리된 화상 데이터를 보존하는 스텝을 포함하는 것을 특징으로 한다.Further, it is characterized in that the step [g] includes a step of saving the UI-processed image data displayed on the client device.

또한, 상기 스텝 [a]의 영상 컨텐츠가 상기 클라이언트 장치에 표시되어 있는 동안에 상기 스텝 [b], [c], [d], [e], [f]가 여러 차례 실시될 때, 상기 스텝 [g]에 있어서 생성되는 UI처리된 장면 화상 데이터를 당해 실시할 때마다 보존하는 스텝을 포함하는 것을 특징으로 한다.In addition, when the above steps [b], [c], [d], [e], and [f] are performed multiple times while the video content of the above step [a] is being displayed on the client device, the step [ g], and saving the UI-processed scene image data generated in the process each time it is executed.

상기 스텝 [i]에 있어서 상기 클라이언트 장치에 송신되는 UI처리된 화상 데이터가 상기 보존된 모든 UI처리된 화상 데이터이고, 당해 UI처리된 장면 화상 데이터가 복수일 때, 상기 클라이언트 장치에 표시되는 당해 복수의 UI처리된 화상 데이터가 섬네일(thumbnail) 형식으로 표시되는 것을 특징으로 한다.When the UI-processed image data transmitted to the client device in the step [i] is all the saved UI-processed image data, and there are a plurality of UI-processed scene image data, the plurality of images displayed on the client device It is characterized in that the UI-processed image data is displayed in a thumbnail format.

상기 스텝 [l]의 EC 처리 종별에 기초하여 호출되는 상기 상품에 대한 EC 처리에는, 상기 유저와 당해 상품의 공급원과의 스마트 컨트랙트가 포함되는 것을 특징으로 한다.It is characterized in that the EC processing for the product called based on the EC processing type in the step [l] includes a smart contract between the user and a supply source of the product.

[EC 통합형 메타미디어의 제2 전송 방법][Second transmission method of EC integrated metamedia]

본 발명의 비한정적이고 예시적인 일 태양(態樣)에 관련되는 EC 통합형 메타미디어의 제2 전송 방법은,A second transmission method of EC integrated metamedia according to a non-limiting and exemplary aspect of the present invention,

[a] 영상 컨텐츠의 각 장면에 음성 워터마크(음성 인코드한 식별 정보)를 삽입하는 스텝과,[a] a step of inserting an audio watermark (audio encoded identification information) into each scene of the video content;

[b] 상기 영상 컨텐츠가 범용의 시청 기기로 방영되는 스텝과,[b] a step of broadcasting the video content on a general-purpose viewing device;

[c] 상기 영상 컨텐츠에 표시된 장면을 상기 유저(시청자)가 선택한 것을 상기 클라이언트 장치로 검지하는 스텝과,[c] detecting, by the client device, that the user (viewer) selects a scene displayed in the video content;

[d] 상기 선택 조작의 검지에 의하여 당해 선택 조작 시점에 있어서의 장면의 식별 정보를 상기 클라이언트 장치로부터 취득하는 스텝과,[d] acquiring, from the client device, identification information of a scene at the time of the selection operation by detection of the selection operation;

[e] 상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,[e] a step of retrieving product information based on the acquired identification information;

[f] 상기 상품 정보를 상기 클라이언트 장치에 송신하는 스텝과,[f] transmitting the product information to the client device;

[g] 상기 송신에 의하여 상기 클라이언트 장치에 상기 상품 정보가 표시되는 스텝과,[g] displaying the product information on the client device by the transmission;

[h] 상기 클라이언트 장치에 표시된 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리를 접수하는 스텝과,[h] accepting the EC processing by the user for the product of the product information displayed on the client device;

[i] 상기 EC 처리의 접수에 의하여 상기 상품 정보의 EC 처리 종별을 참조하는 스텝과,[i] A step of referring to the EC processing type of the product information upon receipt of the EC processing;

[j]상기 참조에 의하여 상기 EC 처리 종별로 대응하는 EC 처리의 구성을 호출하는 스텝을 포함하는 것을 특징으로 한다.[j] It is characterized by including the step of calling the structure of the EC process corresponding to the said EC process type by the said reference.

또한, 상기 스텝 [d]에서 취득된 식별 정보에 기초하여 비디오 데이터를 검색하여 당해 검색한 비디오 데이터로부터 당해 식별 정보에 대응하는 장면 화상 데이터를 취득하는 스텝과, a step of retrieving video data based on the identification information obtained in step [d] and obtaining scene image data corresponding to the identification information from the searched video data;

상기 스텝 [e]에서 검색된 상품 정보의 상품이 표시되어 있는 당해 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 징면 화상 데이터를 생성하는 스텝과,A step of generating UI-processed display image data in which a link element is attached to the range of the scene image data in which the product of the product information searched in step [e] is displayed;

상기 스텝 [f]의 구성을 상기 클라이언트 장치에 상기 UI처리된 장면 화상 데이터를 송신하는 구성으로 치환한 스텝과,a step of replacing the configuration of the step [f] with a configuration of transmitting the UI-processed scene image data to the client device;

상기 스텝 [g]의 구성을 상기 클라이언트 장치에 상기 UI처리된 장면 화상 데이터를 표시하는 구성으로 치환한 스텝과,a step of replacing the configuration of the step [g] with a configuration of displaying the UI-processed scene image data on the client device;

상기 스텝 [h]를 실행하기 전에 상기 클라이언트 장치에 표시된 상기 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소를 상기 유저가 선택한 것을 당해 클라이언트 장치로 검지하여 당해 검지한 당해 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,Before executing the step [h], the client device detects that the user selected the link element included in the UI-processed scene image data displayed on the client device, and retrieves the detected link element from the client device steps to obtain,

상기 취득한 링크 요소에 기초하여 상품 정보를 검색하는 것과 함께, 당해 검색 결과의 상품 정보를 당해 클라이언트 장치에 송신하여 표시하는 스텝을 포함하는 것을 특징으로 한다.and retrieving product information based on the acquired link element, and transmitting product information of the search result to the client device for display.

본 발명에 의하면, 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 자금이나 사람(법인을 포함한다), 공간, 소도구, 기재·기술 등, 영상 컨텐츠의 제작에 관한 리소스(자원)도 EC와 직결하여 판매할 수 있고, 영상 컨텐츠의 제작에 관한 리소스의 조달이 용이하게 될 뿐만 아니라, 영상 컨텐츠에 직결된 EC 매출을 이들 조달처에 배분할 수 있기 때문에, 특히 드라마 제작에 있어서, 스폰서나 방송국이 주도하는 권한 스킴이 해방되고, 제작 지휘자(예를 들어, 감독이나 연출가 등)의 의향이 유연하게 반영된 작품 제작이 가능하게 된다.According to the present invention, not only products (goods or services) related to video content, but also funds or people (including corporations) invested in the production of video content, space, props, equipment and technology, etc. are related to the production of video content. Resources (resources) can also be sold in direct connection with the EC, making it easier to procure resources related to video content production, as well as distributing EC sales directly related to video content to these procurement sources, especially for drama production. In this case, the authority scheme led by the sponsor or broadcasting station is liberated, and it becomes possible to produce a work that flexibly reflects the intention of the production director (eg, director or director, etc.).

[도 1] 실시예 1에 관한 개요도를 도시한다. (대표도)
[도 2] 장면 관리 데이터 작성 과정에 관한 흐름도를 도시한다.
[도 3] 물체 검출 모델 작성 과정에 관한 흐름도를 도시한다.
[도 4] EC 통합형 메타미디어 전송 과정에 관한 흐름도를 도시한다.
[도 5] EC 통합형 메타미디어 전송 과정에 관한 개요도를 도시한다.
[도 6] 상품에 관한 EC 처리 과정에 관한 흐름도를 도시한다.
[도 7] 음성(음향) 워터마크 제어 과정에 관한 흐름도를 도시한다.
[도 8] 편집 정보 공유 파일의 포맷 예를 도시한다.
[도 9] 화상 인식에 관한 기계 학습 모델의 코드예를 도시한다.
[도 10] 물체 검출에 관한 기계 학습 모델의 코드예를 도시한다.
[도 11] 주요 데이터베이스의 구성예를 도시한다.
[FIG. 1] A schematic diagram according to Example 1 is shown. (representative)
[Fig. 2] Fig. 2 shows a flowchart related to the scene management data creation process.
[Fig. 3] A flowchart of the object detection model creation process is shown.
[FIG. 4] shows a flowchart of the EC integrated metamedia transmission process.
[FIG. 5] shows a schematic diagram of the EC integrated metamedia transmission process.
[Fig. 6] Fig. 6 shows a flowchart of an EC processing process for a product.
[Fig. 7] Fig. 7 shows a flow chart related to an audio (sound) watermark control process.
[Fig. 8] An example of the format of the edit information shared file is shown.
[Fig. 9] A code example of a machine learning model related to image recognition is shown.
[Fig. 10] A code example of a machine learning model related to object detection is shown.
[Fig. 11] Fig. 11 shows a configuration example of a main database.

[발명의 개요][Summary of the invention]

본 발명은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠에 관련한 상품(물품이나 서비스)은, 물론, 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도, 당해 영상 컨텐츠의 시청 화면(시청 사이트)으로부터 직접 구입할 수 있는, 새로운 개념의 EC 모델에 관한 시스템의 제어 방법을 제공한다.The present invention relates to a technology for integrating EC into video content such as movies, dramas, animations, and music videos. Various resources (person, space, props, equipment, technology, etc.) invested in the production of to provide.

본 발명은, 상기의 목적을 달성하기 위하여, 「화상 인식 AI」와 「음성(음향) 워터마크」, 「DAM」 등에 관한 기술을 활용하고, 영상 컨텐츠에 EC를 통합하기 위한 UI를 자동 생성하는 구성에 관하여 개시한다.In order to achieve the above object, the present invention utilizes technologies related to "image recognition AI", "voice (sound) watermark", "DAM", etc., and automatically generates a UI for integrating EC into video content. configuration is disclosed.

구체적으로는, 상술한 [제1의 배경 기술]과 [제2의 배경 기술]과 [제4의 배경 기술]의 기술을 조합하면, 우선, DAM 기술을 이용하는 것으로, 드라마 제작과 관련되는 여러 가지 리소스에 관한 정보를 집약하여 메타테이터를 부여할 수 있고, 필요한 정보로의 액세스가 용이하게 되고, 데이터 포맷의 변환이나 데이터 사이즈를 변경하는 등 하여, 판매 대상에 최적의 UI로 구성한 EC 사이트를 자동 구축할 수 있고, 예를 들어, 유저(일반 시청자=소비자)가 영상 컨텐츠(예를 들어, 드라마)로 직감적으로 흥미를 가진 대상(예를 들어, 배우나 모델 등의 「사람」, 예를 들어, 로케이션을 실시한 관광지나 식당 등의 「공간」, 예를 들어, 의상이나 액세서리 등의 「소도구」 등)이 출현한 장면을 당해 UI에 의하여 보존해 놓고, 나중에 당해 UI를 사용하여 당해 보존한 장면을 호출하면, 화상 인식 AI에 의하여 당해 장면 내에 존재하는 상기 리소스(대상을 포함한다)이 인식되어 테두리가 만들어지고, 유저는, 흥미를 가진 대상을 선택하는 것으로, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있다고 하는, 영상 컨텐츠에 통합화된 EC 사이트를 제공하는 것이 가능하게 된다.Specifically, if the techniques of the above-mentioned [First Background Art], [Second Background Art], and [Fourth Background Art] are combined, DAM technology is used first, and various functions related to drama production are used. By consolidating information about resources and providing metadata, access to necessary information is facilitated, data format conversion and data size are changed, etc., EC sites configured with UI optimal for sales targets are automatically created It can be built, for example, an object (eg, a "person" such as an actor or model , a scene in which a "space" such as a tourist destination or a restaurant where the location was performed, for example, a "property" such as clothes or accessories) appears, is saved by the UI, and later saved using the UI is called, the resource (including the object) existing in the scene is recognized by the image recognition AI and a frame is created, and the user selects an object of interest to obtain information about the object or It becomes possible to provide an EC site integrated into the video content that the subject can be purchased.

또한, 상기의 조합에 [제3 배경 기술]을 조합하면, 상기 드라마 제작의 포스트·프로덕션 단계에서, 각 장면을 식별하기 위한 ID(식별자)를 「음성(음향) 워터마크」기술에 의해 당해 드라마의 음향에 비가청음으로 장치할 수 있기 때문에, 예를 들어, 쇼핑 몰의 TV에서 당해 드라마가 재생되어 있고, 유저가 직감적으로 흥미를 가진 대상이 출현하였을 때에 스마트폰을 당해 TV를 향하면, 당해 스마트폰에 탑재된 전용 앱이 마이크를 통하여 당해 드라마의 음향에 장치된 「음성(음향) 워터마크」로부터 ID가 취득되는 것과 함께, 센터 서버에 송신되고, 당해 송신된 ID에 대응하는 장면(스마트폰을 향한 시점의 장면, 즉, 유저가 직감적으로 흥미를 가진 대상이 출현한 장면에 상당)을 표시한 상기 EC 사이트를 호출할 수 있고, 유저가, 화상 인식 AI에 의하여 테두리가 만들어진 당해 장면 내에 존재하는 상기 리소스로부터 당해 대상을 선택하고, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있도록 구성할 수도 있다.In addition, when [3rd Background Art] is combined with the above combination, in the post-production stage of the drama production, an ID (identifier) for identifying each scene is set using the "Audio (sound) watermark" description for the drama. Since it can be installed as an inaudible sound for the sound of A scene (smartphone) that is transmitted to the center server while the ID is obtained from the "audio (sound) watermark" installed in the sound of the drama through the dedicated application installed in the phone through the microphone (smartphone) can call the EC site displaying the scene from the point of view, that is, the scene in which the object of which the user is intuitively interested appears), and the user is present in the scene framed by the image recognition AI It is also possible to select a subject from the above resources to obtain information about the subject or to purchase the subject.

본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 제작에 투자되는 자금이나 사람(법인을 포함한다), 공간, 소도구, 기재·기술 등, 영상 컨텐츠의 제작에 관한 리소스(자원)도 EC와 직결하여 판매할 수 있고, 영상 컨텐츠의 제작에 관한 리소스의 조달이 용이하게 된다.According to the present invention, resources (resources) related to the production of video contents, such as funds invested in the production of video contents such as movies, dramas, animations, and music videos, people (including corporations), space, props, equipment and technology, etc. ) can also be sold in direct connection with the EC, making it easy to procure resources related to the production of video content.

또한, 본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 직결된 EC 매출을 이들 조달처에 배분할 수 있기 때문에, 특히 드라마 제작에 있어서, 스폰서나 방송국이 주도하는 권한 스킴이 해방되고, 제작 지휘자(예를 들어, 감독이나 연출가 등)의 의향이 유연하게 반영된 작품 제작이 가능하게 된다.In addition, according to the present invention, since EC sales directly linked to video content such as movies, dramas, animations, and music videos can be distributed to these procurement sources, the authority scheme led by sponsors and broadcasting stations is liberated, particularly in drama production, , it becomes possible to produce works that flexibly reflect the intentions of the production director (eg, director or director, etc.).

나아가, 본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 시청자(소비자)가, 예를 들어, 드라마에서 직감적으로 흥미를 가진 대상이 출현한 장면을 UI에 의여 보존해 놓고, 나중에, 보존한 당해 장면을 호출하고, 당해 장면의 화상으로부터 흥미를 가진 대상을 선택하는 것으로, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있다고 하는, 영상 컨텐츠(드라마)에 통합화된 EC 사이트를 제공하는 것이 가능하게 된다.Furthermore, according to the present invention, a viewer (consumer) of video content such as a movie, drama, animation, or music video, for example, preserves a scene in which an object of intuitive interest appears in a drama by UI, EC site integrated into video content (drama), where the saved scene is called up later and an object of interest is selected from the image of the scene to obtain information about the subject or purchase the subject. It becomes possible to provide

덧붙여, 본 발명의 실시예 1은, 전용의 시청 시스템에 의하여, 시청 중의 영상 컨텐츠 내의 사물(상품)을 시청 장면으로부터 용이하고 또한 다이렉트로 구입할 수 있는 EC 기능이 통합화된 메타미디어를 전송하는 것을 특징으로 하고, 본 발명의 실시예 2에서는, 전용의 시청 시스템을 필요로 하지 않고, 영상 컨텐츠 내에서 판매되는 상품을 장면으로부터 용이하고 다이렉트하게 구입할 수 있는 EC 기능인 것을 특징으로 한다.Incidentally, the first embodiment of the present invention is characterized in that, by means of a dedicated viewing system, metamedia integrated with EC functions that can easily and directly purchase objects (products) in the video content being viewed from the viewing scene are transmitted. and, in the second embodiment of the present invention, it is characterized in that it is an EC function that can easily and directly purchase goods sold in video content from the scene without requiring a dedicated viewing system.

[실시예 1][Example 1]

이하, 본 발명의 실시예 1에 관하여 상세하게 설명한다.Hereinafter, Embodiment 1 of the present invention will be described in detail.

본 발명의 실시예 1은, [장면 관리 데이터 생성 과정]과 [물체 검출 모델의 작성 과정]과 [EC 통합형 메타미디어 전송 과정]과 [상품에 관한 EC 처리 과정]에 의하여 구성된다.Embodiment 1 of the present invention consists of [scene management data generation process], [object detection model creation process], [EC integrated metamedia transmission process], and [EC processing process for goods].

우선, [장면 관리 데이터 생성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)을 상품화하고, 시청자가 EC(Electric Commerce)에 의하여 용이하게 구입할 수 있도록 하기 위하여, 당해 리소스를 판매할 수 있는 모든 리소스를 상품으로서 파악하고, 당해 상품에 관한 정보와 당해 상품에 대한 EC 처리 구분(구입이나 계약 등, 상품의 거래 형태에 의하여 EC 처리의 구성이 정해진다)을 생성, 기록하는 과정이다.First, in the [scene management data generation process], various resources (people, spaces, props, equipment, technology, etc.) invested in the production of video content such as movies, dramas, animations, and music videos are commercialized, and viewers In order to facilitate purchase through Electric Commerce), all resources that can sell the resource are identified as a product, and information about the product and EC processing for the product are classified (purchase, contract, etc., product transaction). It is the process of creating and recording the configuration of EC processing depending on the form).

덧붙여, 상기와 같은 영상 컨텐츠는, 제작이 결정될 단계에 있어서, 어떤 리소스를 던질까 면밀하게 계획되기 때문에, 당해 리소스의 조달 방법에 관하여도 명확한 정보에 기초하여 행하여지기 때문에, 상기 EC 처리 순서는 당해 조달 방법에 관한 정보에 기초하여 결정된다.Incidentally, since the above video content is carefully planned what kind of resource to throw at the stage when production is decided, and it is performed based on clear information about the method of procurement of the resource, the EC processing procedure is It is determined on the basis of information on procurement methods.

구체적으로는, (1) 상품(판매할 수 있는 리소스)에 관한 정보(상품의 상세 정보와 상품에 대한 EC 처리 구분에 관한 정보이고, 화상이나 소리, 문자, 기호 등의 디지털 테이터로 구성된다)를 포함한 EC 상품 테이블이 생성되는 것과 함께, 상품 관리 DB와 관련지을 수 있는 제1 처리, (2) 비디오 촬영(수록)하는 제2 처리, (3) 비디오 편집 소프트웨어(예시)에 의하여, 당해 촬영(수록)된 비디오로부터 XML파일을 생성하는 제3 처리(장면 ID를 기록), (4) 당해 XML파일로부터 포맷 변환 프로그램(자사)에 의하여, 장면 관리 파일을 생성하는 제4 처리, (5) 당해 장면 관리 파일에 기초 정보(예시)에 관한 노드(node)를 추가하는 제5 처리, (6) 정보·상품 등록 프로그램(자사)에 의하여, 편집된 비디오의 장면마다 동적 정보(예시)와 상품 ID를 등록(노드의 추가)하는 제6 처리, (7) 장면 데이터 생성 프로그램(자사)에 의하여, 당해 등록 후의 장면 관리 파일로부터 각 장면의 데이터(기본 정보, 동적 정보, 상품 ID 등)에 장면 ID를 붙이고, 이것을 장면 데이터로서 DB화하기 위하여, 장면 데이터 관리 DB에 등록하는 제7 처리, (8) 비디오 데이터 보존 프로그램에 의하여, 최종 편집 비디오에 비디오 ID를 붙이고, 이것을 공개용 비디오 데이터로서 DB화하기 위하여, 비디오 관리 DB에 보존되는 제8 처리에 의하여,[장면 관리 데이터 생성 과정]이 구성된다.Specifically, (1) information about products (resources that can be sold) (detailed information about products and information on the classification of EC processing for products, and consists of digital data such as images, sounds, characters, and symbols) Along with the creation of an EC product table including A third process of generating an XML file from (recorded) video (recording a scene ID), (4) a fourth process of generating a scene management file from the XML file by a format conversion program (our company), (5) 5th process of adding a node related to basic information (example) to the scene management file, (6) dynamic information (example) and product for each scene of the video edited by the information/product registration program (our company) 6th process of registering ID (addition of a node), (7) Scene data (basic information, dynamic information, product ID, etc.) from the registered scene management file to the scene data (basic information, dynamic information, product ID, etc.) A seventh process of registering an ID in the scene data management DB in order to attach an ID and convert it into a DB as scene data, (8) attach a video ID to the final edited video by a video data storage program, and convert it to a DB as video data for public use In order to do this, the [scene management data generation process] is constituted by the eighth process stored in the video management DB.

덧붙여, 상기(2) 비디오 촬영(수록)에 관하여는, 예를 들어, 제3자(영상 컨텐츠의 제3자)에 의하여 수록된 영상 컨텐츠의 비디오 데이터를 입수할 수 있으면, 반드시, [장면 관리 데이터 생성 과정]에 포함되지 않아도 무방하다.Incidentally, regarding (2) video shooting (recording), for example, if video data of video content recorded by a third party (third party of video content) can be obtained, be sure to [scene management data creation process].

다음으로, [물체 검출 모델 작성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 여러 가지 장면에 있어서, 시청자가 직감적으로 의식한 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)이 EC 대상 상품에 속하는지 여부를 순간에 판별하는 「화상 인식 AI」의 능력을 높이는 과정이다.Next, in the [object detection model creation process], in various scenes of video content such as movies, dramas, animations, and music videos, objects (goods, services, people, spaces, props, equipment, Technology, etc.) is a process to increase the ability of "Image Recognition AI" to instantly determine whether or not a product belongs to an EC target product.

구체적으로는, (1) 학습 모델 작성 프로그램에 의하여, 편집된 비디오의 각 장면과 장면 데이터, 상품 데이터로부터 학습 데이터를 작성하는 제1 처리, (2) 작성된 학습 데이터에 의한 기계 학습으로 학습 모델을 높이면서, 당해 학습 모델의 검출 정밀도를 판정하는 제2 처리, (3) 검출 정밀도가 일정 이상이 된 학습 모델(상품 ID가 포함된다)을 출력 하는 것과 함께, 전용 보존 파일에 보존하는 제3 처리에 의하여 구성된다.Specifically, (1) a first process of creating learning data from each scene, scene data, and product data of an edited video by a learning model creation program, and (2) creating a learning model by machine learning based on the created learning data A second process for determining the detection accuracy of the learning model while increasing it, (3) a third process for outputting a learning model (including product IDs) whose detection accuracy has reached a certain level or more and saving it in a dedicated storage file is composed by

또한, [EC 통합형 메타미디어 전송 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)을 상품화할 수 있는 EC 기능을 당해 영상 컨텐츠 자체에 통합한 메타미디어를 전송하는 과정이다.In addition, the [EC integrated metamedia transmission process] is an EC function that can commercialize various resources (people, spaces, props, equipment, technologies, etc.) invested in the production of video content such as movies, dramas, animations, and music videos. This is the process of transmitting meta media that is integrated into the video content itself.

구체적으로는, (1) 유저가 PC나 스마트폰 등으로(예를 들어, 브라우저의 포털 사이트에서 소개되어 있는 「EC 통합형 메타미디어 전송 서비스」에 관한 링크를 클릭/터치하고) 센터 시스템에 액세스 하면, 센터 시스템으로부터 「EC 통합형 메타미디어 전송 사이트」가 리다이렉트(redirect)되는 제1 처리, (2) 유저가 「EC 통합형 메타미디어 전송 사이트」에서 소개되어 있는 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)로부터 좋아하는 것을 선택하면, 전용 비디오 플레이어가 유저의 PC나 스마트폰 등에 다운로드되는 제2 처리, (3) 유저가 전용 비디오 플레이어의 재생 버튼을 클릭/터치하면, 선택된 비디오가 재생(시청)되는 제3 처리, (4) 비디오 재생 중에 장면 선택 조작(예를 들어, 유저에 의하여 화면이 클릭/터치)되면, 그 시점의 장면 식별 정보(비디오 ID, 타임 코드 등)나 당해 장면의 화상 데이터가 센터 시스템에 의하여 취득되는 제4 처리, (5) 장면 식별 정보에 의하여, 장면 데이터 관리 DB로부터 장면 데이터(장면 ID, 기본 정보, 동적 정보, 상품 ID리스트 등)가 취득되는 제5 처리, (6) 취득된 장면 데이터의 상품 ID리스트에 기초하여 상품 데이터 관리 DB가 검색되어, 상품 ID가 검증(재고 유무의 확인 등)되는 제6 처리, (7) 장면 화상 데이터에 기초하는 물체 검증 처리(학습 모델에 의한 추론)에 의하여, 장면 화상에 포함되는 상품 ID리스트가 검출되는 제6 처리, (8) 제6 처리의 검증된 상품 ID리스트와 제7 처리의 상품 ID리스트가 조합되고, 일치한 상품 ID의 상품 화상에 UI처리(구형 및 링크 붙임 등)를 하는 제8 처리, (9) 유저가 구형을 클릭/터치하면, 해당하는 상품이 추출되고 표시되는 제9 처리에 의하여 구성된다.Specifically, (1) when the user accesses the center system with a PC or smartphone (for example, clicking/touching the link for “EC integrated metamedia transmission service” introduced on the browser portal site) , the first process in which the "EC integrated metamedia transmission site" is redirected from the center system, (2) the video (movies, dramas, animations, music videos, etc.) introduced by the user on the "EC integrated metamedia transmission site" of video content), a second process in which a dedicated video player is downloaded to the user's PC or smartphone, etc. (3) When the user clicks/touches the play button of the dedicated video player, the selected video is played ( 3rd process to be viewed), (4) when a scene selection operation (for example, a screen is clicked/touched by the user) during video playback, scene identification information (video ID, time code, etc.) A fourth process in which image data is acquired by the center system, (5) a fifth process in which scene data (scene ID, basic information, dynamic information, product ID list, etc.) is acquired from the scene data management DB by scene identification information ; 6th processing in which the product ID list included in the scene image is detected by processing (inference by the learning model), (8) the verified product ID list of the 6th processing and the product ID list of the 7th processing are combined; The eighth process of UI processing (spherical shape and link attachment, etc.) to the product image of the matching product ID, (9) when the user clicks/touches the rectangle, the corresponding product is extracted and displayed. .

덧붙여, 상기 전용 비디오 플레이어의 제공에 관하여는, 전용의 Web 애플리케이션을 브라우저로 가동시키는 방법이나, 유저가 전용의 애플리케이션을 스마트폰에 인스톨하고 가동시키는 방법이 있다.Incidentally, regarding the provision of the dedicated video player, there are a method of running a dedicated web application with a browser, and a method of allowing a user to install and run the dedicated application on a smartphone.

그리고, [상품에 관한 EC 처리 과정]은, EC 통합형 메타미디어의 시청자에 의하여 각 장면에 포함된 상품이 EC 기능에 의하여 구입되고, 당해 구입에 대한 매출의 수익이 상품 공급원뿐만이 아니라, 당해 영상 컨텐츠의 제작자에게도 배당되는 과정이다.And, in the [Product EC processing process], the product included in each scene is purchased by the viewer of the EC integrated metamedia by the EC function, and the revenue from the purchase is not only the product supply source, but also the video content. It is a process that is also allocated to the producers of

구체적으로는, (1) 상술한 [EC 통합형 메타미디어 전송 과정]의 제9 처리에 의하여 표시된 상품에 대한 EC 처리의 종별(구입, 계약, 입찰 등)이 유저에 의하여 결정(메뉴 선택 등)되는 제1 처리, (2) 상품 정보가 표시되어 유저에 의한 상품 구입이 결정되는 제2 처리, (3) 유저에 의하여 주문 정보가 입력되고 지불 처리를 하는 제3 처리, (4) 수주 정보가 센터 시스템에 송신되는 제4 처리, (5) 주문 정보(배송처나 배송 조건, 지불 조건이나 결제정보)가 센터로부터 상품 공급원에 송신되는 제5 처리, (6) 주문 정보에 기초하여, 상품 공급원으로부터 유저에게 상품이 배송되는 제6 처리, (7) 상품 대금이 상품 공급자에게, 배당금이 제작자에게, 마진이 센터에 입금되는 제7 처리에 의하여 구성된다.Specifically, (1) the type of EC processing (purchase, contract, bidding, etc.) for the product displayed by the ninth processing of the [EC integrated metamedia transmission process] described above is determined by the user (menu selection, etc.) First processing, (2) second processing in which product information is displayed to determine product purchase by the user, (3) third processing in which order information is input by the user and payment processing is performed, (4) order receipt information is sent to the center A fourth process transmitted to the system, (5) a fifth process in which order information (shipping address, delivery conditions, payment conditions, and settlement information) is transmitted from the center to the product supply source; (6) the user from the product supply source based on the order information The sixth process, in which goods are delivered to , (7) consists of the seventh process, in which the product price is deposited to the product supplier, dividends are deposited to the producer, and margins are deposited to the center.

덧붙여, 상술한 각 과정에 있어서의 각 처리를 실시하기 위한 서버 전용 프로그램이나 클라이언트(PC나 스마트폰 등) 전용 애플리케이션에 관하여는, JAVA나 C, C++, JavaScript, python 등에 의하여 개발할 수 있지만, 범용의 소프트웨어로서, 예를 들어, 비디오 편집에 관하여는, Blackmagic Design - DaVinch Resolve (AFF, XML), SONY - VEGAS Pro (AAF) 등을, 또한, 예를 들어, 음성(음향) 워터마크 제어에 관하여는, 비특허 문헌 4에서 소개되어 있는 Evixar사의 SDK를 이용하여도 무방하다.Incidentally, with respect to a server-only program or client (PC, smartphone, etc.) dedicated application for executing each process in each process described above, it can be developed by JAVA, C, C++, JavaScript, python, etc., but As software, for example, with regard to video editing, Blackmagic Design - DaVinch Resolve (AFF, XML), SONY - VEGAS Pro (AAF), etc., also, for example with regard to voice (sound) watermark control. , it is okay to use the SDK of Evixar, which is introduced in Non-Patent Document 4.

도 1은, 본 발명에 의하여 실현되는 「EC 통합형 메타미디어의 작성 방법, 및 전송 시스템」의 개요도를 도시한다.Fig. 1 shows a schematic diagram of &quot;EC integrated metamedia creation method and transmission system&quot; realized by the present invention.

덧붙여, 도 1에 있어서 (*)표시를 붙인 약어의 원문에 관하여는, 이하와 같다.Incidentally, the original text of the abbreviation marked with (*) in Fig. 1 is as follows.

[MAIN SYSTEM]에 대하여,About [MAIN SYSTEM],

APP*= APPLICATIONAPP*= APPLICATION

DBM*= DB MANAGEMENTDBM*= DB MANAGEMENT

[APP* SERVER]에 대하여,About [APP* SERVER],

ATP* = Authentication ProcessATP* = Authentication Process

VED* = Video EditVED* = Video Edit

FMX* = Format ExchangeFMX* = Format Exchange

IGR* = Info & Goods RegisterIGR* = Info & Goods Register

SDG* = Scene Data GeneratorSDG* = Scene Data Generator

VDS* = Video Data StorageVDS* = Video Data Storage

LMC* = Learning Model CreatorLMC* = Learning Model Creator

VDP* = Video PlayerVDP* = Video Player

WMC* = Watermark ControlWMC* = Watermark Control

[DBM* SERVER]에 대하여,About [DBM* SERVER],

USR* = UserUSR* = User

PRD* = ProducerPRD* = Producer

SPL* = SupplierSPL* = Supplier

GDD* = Goods DataGDD* = Goods Data

SCD* =Scene DataSCD* =Scene Data

VDD* = Video Data"VDD* = Video Data"

이하, 도 1의 기호 [A]로 나타낸 본 발명을 구성하는 주요한 처리 과정에 관하여, 도 1과 당해 각 처리 과정에 관한 상세도를 사용하여 설명한다.Hereinafter, the main processing steps constituting the present invention indicated by the symbol [A] in FIG. 1 will be described with reference to FIG. 1 and detailed views of the respective processing steps.

[장면 관리 데이터 생성 과정][Scene management data generation process]

도 2는, 도 1의 기호 [A]에 기재된 [장면 관리 데이터 생성 과정](SMDG:Scene Management Data Generation)에 관한 처리 흐름도이다.FIG. 2 is a flowchart of a [scene management data generation process] (SMDG: Scene Management Data Generation) indicated by the symbol [A] in FIG. 1 .

우선, [장면 관리 데이터 생성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(출자자, 감독, 원작자, 극작가, 캐스팅 디렉터, 배우, 성우, 음악 제작자, 연주자, 통역·번역자, 촬영 스탭, 편집 스탭, 조명 스탭, 장식 디자이너, 의상 디자이너, 스타일리스트, 헤어 디자이너, 메이크업 아티스트, 난투 장면 스탭, 스턴트, 엑스트라 등의 사람 또는 법인, 또한, 장면을 촬영하는 로케이션 현장이나 스튜디오 등의 공간, 더욱, 동물이나 차량, 의상, 장식품, 인테리어 등의 소도구, 또한 더욱, 카메라나 조명, CG, 녹음, 편집 등에 이용되는 기재·기술 등)을 상품화하여, 시청자가 EC 기능에 의하여 용이하게 구입할 수 있도록 하기 위하여, 당해 리소스를 판매할 수 있는 모든 리소스를 상품으로서 파악하고, 당해 상품에 관한 정보와 당해 상품에 대한 EC 처리의 종별(예를 들어, 당해 상품의 구입, 당해 상품이 사람이나 설비, 기술 등의 거래였을 경우의 계약, 당해 상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출하기 위한 정보)을 생성, 기록하는 과정이고, 주요 8 스텝의 처리에 의하여 구성된다.First of all, the [Scene Management Data Creation Process] is based on various resources (investor, director, original author, playwright, casting director, actor, voice actor, music producer, performer) that are invested in the production of video content such as movies, dramas, animations, and music videos. , interpreters/translators, filming staff, editing staff, lighting staff, decoration designers, costume designers, stylists, hair designers, makeup artists, brawl scene staff, stunts, extras, etc. By commercializing spaces such as studios and studios, small tools such as animals, vehicles, clothes, ornaments, interiors, and equipment and technologies used for cameras, lighting, CG, recording, editing, etc.), viewers can use EC functions In order to facilitate purchase by The process of creating and recording (information for invoking the implementation structure of EC processing appropriate to the transaction type of the product, such as a contract in the case of a transaction of this person, equipment, technology, etc., and a bid when the product is exhibited in an auction) and is constituted by the processing of the main 8 steps.

도 2의 (1)로 나타낸 제1 스텝에서는, 본 발명에 있어서의 EC 통합형 메타미디어에 의하여 판매할 수 있는 상품(판매할 수 있는 상기 리소스의 사물)에 관한 정보(상품의 상세 정보와 상품에 대한 EC 처리 종별에 관한 정보이고, 화상이나 소리, 문자, 기호 등의 디지털 데이터로 구성된다)를 포함한 EC 상품 데이터(7240)에 의하여 EC 상품 테이블(6230)이 생성되고, 상품 데이터 등록 처리에 의하여, 당해 EC 상품 테이블(6230)의 EC 상품 ID가 상품 데이터 관리 DB(5210)에 등록된다.In the first step shown in Fig. 2 (1), information (detailed product information and product information) about a product that can be sold (thing of the resource that can be sold) is provided by the EC integrated meta media in the present invention. The EC product table 6230 is generated by the EC product data 7240 including information on the type of EC processing for , the EC product ID of the EC product table 6230 is registered in the product data management DB 5210 .

덧붙여, 상기 상품 데이터 관리 DB(5210)와 EC 상품 테이블(6230)의 구성예를 도 10에 도시한다.Incidentally, a configuration example of the product data management DB 5210 and the EC product table 6230 is shown in FIG. 10 .

도 2의 (2)로 나타낸 제2 스텝에서는, 도 1에서 나타낸 상품(제작 리소스) 공급원(1400)으로부터 대여나 투자나 기부 등으로 제공된 리소스를 사용한 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠가, 영상 컨텐츠 제작자(1300)에 의하여 촬영되는 것과 함께, 수록된 비디오 데이터(2400)가 센터(1100)에 송신(우송으로도 무방하다)된다.In the second step shown in FIG. 2 (2), video contents such as movies, dramas, animations, and music videos using resources provided by rental, investment, or donation from the product (production resource) supply source 1400 shown in FIG. 1 . In addition to being photographed by the video content creator 1300 , the recorded video data 2400 is transmitted to the center 1100 (it may also be mailed).

상기 비디오 데이터(2400)는, 센터(1100)에 있어서, EC 통합형 메타미디어 전송에 포함(임베디드, 삽입)된다.The video data 2400 is, in the center 1100, included (embedded, embedded) in the EC integrated metamedia transmission.

도 2의 (3)으로 나타낸 제3 스텝에서는, 상기 제2 스텝에서 센터(1100)에 송신된 비디오 데이터(2400)가, 비디오 편집 소프트웨어(3210)(도 1에 있어서의 VED* SW)에 의하여, 편집 정보 공유 파일(6210)(예를 들어, XML 형식에 의한다)이 출력된다.In the third step shown by (3) in Fig. 2, the video data 2400 transmitted to the center 1100 in the second step is performed by the video editing software 3210 (VED*SW in Fig. 1). , an edit information sharing file 6210 (eg, in XML format) is output.

덧붙여, 상기 편집 정보 공유 파일(6210)에는, EC 통합형 메타미디어의 생성에 필요한 기초 정보(비디오나 장면에 관한 정보 등)가 포함되는 바, 그 포맷 예를 도 8에 도시한다.In addition, the edit information sharing file 6210 includes basic information (such as video or scene information) necessary for generating EC-integrated metamedia, and an example of the format is shown in FIG. 8 .

도 2의 (4)로 나타낸 제4 스텝에서는, 상기 제3 스텝에서 출력된 상기 편집 정보 공유 파일(6210)로부터, 포맷 변환 프로그램(3220)(도 1에 있어서의 FMX* PG)에 의하여, 장면 관리 파일(6220)이 생성된다.In the fourth step shown by (4) of Fig. 2, the format conversion program 3220 (FMX*PG in Fig. 1) creates a scene from the edited information shared file 6210 output in the third step. A management file 6220 is created.

덧붙여, 상기 장면 관리 파일(6220)에는, EC 통합형 메타미디어 전송으로 필요한 장면에 관한 모든 정보가 기록된다.In addition, in the scene management file 6220, all information about a scene necessary for EC integrated metamedia transmission is recorded.

도 2의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 생성된 상기 장면 관리 파일(6220)에 기초 정보(예를 들어, 영상의 설명, 드라마나 시합의 정보, 이벤트명이나 개최 일시 등, 비디오 전체로 일정한 정보)에 관한 노드(데이터를 계층화하여 표현하는 문서에 있어서의 태그)가 추가된다.In the fifth step shown by (5) of Fig. 2, basic information (eg, video description, drama or game information, event name and date and time) is added to the scene management file 6220 generated in the fourth step. A node (a tag in a document that hierarchically expresses data) is added.

도 2의 (6)으로 나타낸 제6 스텝에서는, 상기 제5 스텝에서 기본 정보가 추가된 상기 장면 관리 파일(6220)에 대하여, 정보·상품 등록 프로그램(3230)(도 1에 있어서의 IGR* PG)에 의하여, 편집된 비디오의 장면마다 동적 정보(예를 들어, 촬영 장소, 악곡, 장면의 설명 등, 장면마다 바뀌는 정보, 도 10에 구성예를 도시한다)와 상품 데이터 관리 DB(5210)의 상품 데이터(7210)의 상품 ID가 등록(노드의 추가)된다.In the sixth step indicated by (6) in Fig. 2, the information/product registration program 3230 (IGR*PG in Fig. 1) for the scene management file 6220 to which the basic information is added in the fifth step. ), dynamic information for each scene of the edited video (for example, information that changes for each scene, such as shooting location, music, scene description, etc., a configuration example is shown in Fig. 10) and product data management DB 5210 A product ID of the product data 7210 is registered (addition of a node).

도 2의 (7)로 나타낸 제7 스텝에서는, 상기 제 6 스텝에서 동적 정보가 추가된 상기 장면 관리 파일(6220)로부터, 장면 데이터 생성 프로그램(3240)에 의하여, 각 장면의 데이터(기본 정보, 동적 정보, 상품 ID 등)가 추출되는 것과 함께, 장면 ID가 붙여지고, 장면 데이터(7220)로서, 장면 데이터 관리 DB(5220)에 등록된다.In the seventh step indicated by (7) of FIG. 2, data (basic information, basic information, Dynamic information, product ID, etc.) are extracted, a scene ID is attached, and is registered in the scene data management DB 5220 as scene data 7220 .

도 2의 (8)로 나타낸 제8 스텝에서는, 비디오 보존 프로그램(3250)에 의하여, 상기 제3 스텝 처리로 편집된 비디오 데이터(2410)의 최종 편집판에 비디오 ID가 붙여지고, 비디오 데이터(7230)(공개용 비디오 데이터)로서, 비디오 데이터 관리 DB(5230)에 보존된다In the eighth step shown by (8) in FIG. 2, the video ID is attached to the final edited version of the video data 2410 edited in the third step process by the video storage program 3250, and the video data 7230 ) (video data for public use), stored in the video data management DB 5230

[물체 검출 모델 작성 과정][Object detection model creation process]

도 3은, 도 1의 기호 [A]에 기재된 [물체 검출 모델 작성 과정](ODMC:Object Detection Model Creation)에 관한 처리 흐름도이다.Fig. 3 is a flow chart of a process relating to [object detection model creation process] (ODMC: Object Detection Model Creation) indicated by the symbol [A] in Fig. 1 .

우선, [물체 검출 모델 작성 과정]은, 또한, 물체 검출 모델 작성 과정에 있어서의 제2 처리는, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠의 여러 가지 장면에 있어서, 직감적으로 의식한 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)이 EC 대상 상품으로서 구입이나 구입을 위한 정보 열람 등을 할 수 있는지 여부에 관하여 용이하게 판단할 수 있는 UI(User Interface)를 당해 시청자에게 제공하기 위한 시스템 구축에 필요한 물체 검출에 관한 AI 기능을 부가하는 것과 함께, 이것을 높이기 위한 과정이고, 주요 3 스텝의 처리에 의하여 구성된다.First, in the [object detection model creation process], and in the object detection model creation process, the second process in the object detection model creation process allows a viewer of video content such as a movie, drama, animation, or music video to access various scenes of the video content. A UI that can easily determine whether or not intuitively conscious objects (goods, services, people, spaces, props, equipment, technologies, etc.) can purchase or purchase information for purchase as EC target products ( User Interface) to the viewer, it is a process for enhancing this with adding an AI function related to object detection required for system construction, and is constituted by processing in three main steps.

도 3의 (1)로 나타낸 제1 스텝에서는, 학습 모델 작성 프로그램(3310)(도 1에 있어서의 LMC* PG)에 의하여, [장면 관리 데이터 생성 과정]의 제8 스텝 처리에 있어서 비디오 데이터 관리 DB(5230)에 공개용으로서 보존된 비디오 데이터(7230)의 각 장면과 장면 데이터 관리 DB(5220)에 보존된 장면 데이터(7220)과, 상품 데이터 관리 DB(5210)에 보존된 상품 데이터(7210)로부터 기계 학습을 위한 학습용 데이터가 작성된다.In the first step shown in Fig. 3 (1), video data is managed in the eighth step processing of the [scene management data generation process] by the learning model creation program 3310 (LMC*PG in Fig. 1). Each scene of the video data 7230 stored for public use in the DB 5230, the scene data 7220 stored in the scene data management DB 5220, and product data 7210 stored in the product data management DB 5210 Learning data for machine learning is created from

도 3의 (2)로 나타낸 제2 스텝에서는, 제1 스텝에서 작성된 상기 학습용 데이터를 사용한 기계 학습에 의하여 학습 모델의 정밀도를 높이면서, 당해 학습 모델의 검출 정밀도가 판정된다.In the 2nd step shown by (2) of FIG. 3, the detection precision of the said learning model is determined, raising the precision of a learning model by machine learning using the said learning data created in the 1st step.

도 3의 (3)으로 나타낸 제3 스텝에서는, 상기 제 2 스텝에 있어서의 기계 학습으로 상기 학습 모델의 정밀도가 일정 이상이 되면, 당해 일정 이상의 정밀도가 된 학습 모델이, 학습된 학습 모델 데이터(7310)로서, 학습 모델 보존 파일(6310)에 보존된다.In the third step shown in Fig. 3 (3), when the precision of the learning model becomes more than a certain level by machine learning in the second step, the learning model with the precision greater than or equal to the certain level is converted into the learned learning model data ( 7310 ), stored in a learning model preservation file 6310 .

여기서, 상기와 같은 학습 모델 작성 프로그램에 이용하는 라이브러리에 관하여는, 서적은 물론, 인터넷 등으로 많이 소개되어 있고, 예를 들어, Python로 쓰여진 Keras는, TensorFlow 또는 CNTK, Theano 상에서 실행 가능한 고수준의 뉴럴 네트워크(neural network) 라이브러리로서 신속한 실험을 가능하게 하는 것에 중점을 두어 개발되고, 넓고 일반적으로 공개되어 있는 바, <https://employment.en-japan.com/engineerhub/entry/2017 /04/28/110000#3-Inception-v3 모델을 이용한 화상 인식>[2019년 9월 10일 검색]에 있어서, 동물(강아지와 고양이)의 화상 인식에 관한 실행 스크립트가 소개되어 있고, 또한, 그 실행 결과인 학습 모델도 게재되어 있고, 또한, 예를 들어, Python 전용의 심층 학습용 라이브러리로서 PyTouch가 있고, <https://github.com/amdegroot/ssd. pytorch/blob/master/ssd.py>[2019년 9월 10일 검색]에 있어서, 딥 물체 검출을 위한 코드도 소개되어 있기 때문에, 상기 화상 인식에 관한 기계 학습의 코드예를 도 9에, 또한 상기 물체 검출에 관한 기계 학습의 코드예를 도 10에 도시한다.Here, the library used for the learning model creation program as described above is widely introduced in books as well as the Internet. For example, Keras written in Python is a high-level neural network executable on TensorFlow, CNTK, or Theano. As a (neural network) library, it has been developed with an emphasis on enabling rapid experimentation and is widely publicly available, <https://employment.en-japan.com/engineerhub/entry/2017 /04/28/ 110000#3-Image recognition using Inception-v3 model> In [Search on September 10, 2019], an execution script related to image recognition of animals (dogs and cats) is introduced, and the execution result is learning Models are also published, and there is, for example, PyTouch as a library for deep learning dedicated to Python, <https://github.com/amdegroot/ssd. In pytorch/blob/master/ssd.py> [Search on September 10, 2019], a code for deep object detection is also introduced. Fig. 10 shows a code example of machine learning related to the object detection.

[EC 통합형 메타미디어 전송 과정][EC Integrated Metamedia Transmission Process]

도 4는, 도 1의 기호 [A]에 기재된 [EC 통합형 메타미디어 전송 과정](ECIMD: EC integrated Meta-media Distribution)에 관한 처리 흐름도이다.Fig. 4 is a flow chart of a process related to [EC integrated meta-media distribution process] (ECIMD: EC integrated meta-media distribution) described in symbol [A] in Fig. 1 .

상술한 라이브 코머스나 드라마 코머스 등은, 이미 일반 판매되어 있는 상품이나 향후 일반 판매되는 신제품 등을 프로모션하기 위하여 영상 컨텐츠를 전송하고 있는 바, 당해 영상 컨텐츠의 전송 시스템과 당해 상품이나 신제품의 판매 시스템은 분리되고, 단순한 링크 제휴에 그치고 있고, 또한, 취급 상품에 관하여도, 반드시, 거기서 밖에 구입할 수 없다고 하는 것은 아니다.The above-mentioned live commerce and drama commerce, etc., are transmitting video content to promote products that are already on general sale or new products that will be sold in the future. It is separate, and it is only a simple link partnership, and it does not necessarily mean that it can only be purchased there with respect to the handling product.

본 발명에 있어서의 [EC 통합형 메타미디어 전송 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등 영상 컨텐츠의 시청자가, 그 시청 시스템으로부터 용이하고 또한 다이렉트하게 상품을 구입할 수 있는 EC 기능을 당해 영상 컨텐츠에 통합화한 메타미디어를 전송하는 시스템이고, 당해 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도 EC 대상 상품으로서 구입할 수 있는 메타미디어를 전송하는 과정이고, 주요 9 스텝의 처리에 의하여 구성된다.The [EC integrated metamedia transmission process] in the present invention provides an EC function that enables viewers of video content such as movies, dramas, animations, and music videos to easily and directly purchase products from the viewing system. It is a system that transmits metamedia integrated into It is constituted by the process of 9 steps.

도 4의 (1)로 나타낸 제1 스텝에서는, 유저(1200)가, PC(2310)나 스마트폰(2320) 등의 클라이언트 장치에 있어서, 예를 들어, 브라우저의 포털 사이트에서 소개되어 있는 「EC 통합형 메타미디어 전송 서비스」에 관한 링크를 클릭(터치)하고, 센터 시스템(2200)에 액세스하면, 「EC 통합형 메타미디어 전송 사이트」가 리다이렉트된다.In the first step shown in Fig. 4 (1), the user 1200 in the client device such as the PC 2310 or the smartphone 2320, for example, the "EC" introduced on the browser portal site When the link for "integrated metamedia delivery service" is clicked (touched) and the center system 2200 is accessed, "EC integrated metamedia delivery site" is redirected.

도 4의 (2)로 나타낸 제2 스텝에서는, 예를 들어, 유저(1200)가 상기 제1 스텝에서 리다이렉트된 상기 「EC 통합형 메타미디어 전송 사이트」에서 소개되어 있는 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)로부터 좋아하는 것을 선택하면, 전용 비디오 플레이어(2420)가, 센터 시스템(2200)으로부터 유저(1200)의 PC(2310)나 스마트폰(2320) 등의 클라이언트 장치에 다운로드된다.In the second step shown in FIG. 4 (2), for example, a video (movie, drama, animation, movie, drama, animation, When a favorite is selected from the video content such as music video), the dedicated video player 2420 is downloaded from the center system 2200 to the client device such as the PC 2310 or the smartphone 2320 of the user 1200. .

덧붙여, 상기의 전용 비디오 플레이어(2420)의 제공에 관하여는, 전용의 Web 애플리케이션을 브라우저로 가동시키는 방법이나, 유저가 전용의 애플리케이션을 스마트폰에 인스톨하고 가동시키는 방법이 있다.Incidentally, regarding the provision of the dedicated video player 2420 described above, there are a method in which a dedicated web application is run by a browser, and a method in which a user installs and runs the dedicated application in a smartphone.

도 4의 (3)으로 나타낸 제3 스텝에서는, 유저(1200)에 의하여, 예를 들어, 상기 전용 비디오 플레이어(2420)의 재생 버튼이 클릭(터치)되면, 당해 선택된 비디오의 재생(유저에 의하여 시청)이 개시된다.In the third step shown in Fig. 4 (3), when, for example, the user 1200 clicks (touches) the play button of the dedicated video player 2420, the selected video is played back (by the user). viewing) is initiated.

도 4의 (4)로 나타낸 제4 스텝에서는, 상기 제3 스텝의 유저 조작으로 재생이 개시된 상기 전용 비디오 플레이어(2420)로 재생 중의 비디오에 대하여, 장면 선택 조작으로서, 예를 들어, 재생 중의 비디오 화면이 유저(1200)에 의하여 클릭(터치)되면, 당해 클릭(터치)의 시점에 있어서의 장면 식별 정보(7410)(비디오 ID, 장면 ID, 타임 코드 등을 포함한다)와 당해 장면의 장면 화상 데이터(7420)가 센터 시스템(2200)에 의하여 취득된다.In the fourth step shown in Fig. 4 (4), the video being reproduced by the dedicated video player 2420 whose reproduction is started by the user operation in the third step is a scene selection operation, for example, the video being reproduced. When the screen is clicked (touched) by the user 1200, scene identification information 7410 (including video ID, scene ID, time code, etc.) at the time of the click (touch) and a scene image of the scene Data 7420 is acquired by center system 2200 .

덧붙여, 상기 센터 시스템(2200)에 의한 취득 방법에 관하여는, 상기 장면 선택 조작에 의하여, 예를 들어, 상기 전용 비디오 플레이어(2420)가 상기 장면 식별 정보(7410)와 장면 화상 데이터(7420)를 취득하고, 이것을 센터 시스템(2200)으로 송신하는 방법이나, 예를 들어, 센터 시스템(2200)이, 당해 전용 비디오 플레이어(2420)에 있어서의 비디오 재생에 관한 정보를 감시해 놓고, 당해 장면 선택 조작의 시점에서, 당해 장면 식별 정보(7410)와 당해 장면 화상 데이터(7420)를 직접 취득하는 방법이나, 예를 들어, 당해 장면 식별 정보(7410)만을 취득하고, 상술한 [장면 관리 데이터 작성 과정]에 있어서 비디오 데이터 관리 DB(5230)(도 2(8))에 보존된 당해 장면 식별 정보(7410)의 비디오 ID에 대응하는 비디오 데이터를 추출 하는 것과 함께, 당해 추출한 비디오 데이터로부터 당해 장면 식별 정보(7410)의 장면 ID에 의하여 추출할 수 있는 장면 데이터를 당해 장면 화상 데이터(7420)의 대용 데이터로 하는 방법 등이 있다.Incidentally, as for the acquisition method by the center system 2200, for example, the dedicated video player 2420 obtains the scene identification information 7410 and the scene image data 7420 by the scene selection operation. A method of acquiring and transmitting this to the center system 2200, for example, the center system 2200 monitors information regarding video reproduction in the dedicated video player 2420, and performs a scene selection operation At the time of , a method of directly acquiring the scene identification information 7410 and the scene image data 7420, for example, acquiring only the scene identification information 7410, In addition, video data corresponding to the video ID of the scene identification information 7410 stored in the video data management DB 5230 (FIG. 2(8)) is extracted, and from the extracted video data, the scene identification information ( There is a method in which scene data that can be extracted by the scene ID of 7410 is used as substitute data for the scene image data 7420 .

도 4의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 센터 시스템(2200)에 의하여 취득된 상기 장면 식별 정보(7410)(비디오 ID, 장면 ID, 타임 코드 등을 포함한다)에 기초하여, 장면 데이터 검색 처리가 행해지고, 장면 데이터 관리 DB(5220)로부터 해당하는 장면 데이터(비디오 ID, 장면 ID, 기본 정보, 동적 정보, 상품 ID 리스트 등을 포함한다)가 취득된다.In the fifth step indicated by (5) of Fig. 4, based on the scene identification information 7410 (including video ID, scene ID, time code, etc.) acquired by the center system 2200 in the fourth step Thus, scene data retrieval processing is performed, and corresponding scene data (including video ID, scene ID, basic information, dynamic information, product ID list, and the like) is acquired from the scene data management DB 5220 .

도 4의 (6)으로 나타낸 제6 스텝에서는, 상기 제4 스텝에 있어서 취득된 상기 장면 데이터에 포함된 상품 ID 리스트(7430)에 대한 상품 데이터 조회 처리, 즉, 당해 상품 ID 리스트(7430)에 기초하여 상품 데이터 관리 DB(5210) 내의 상품 데이터가 검색되고, 당해 상품 ID 리스트(7430)의 상품 데이터가 존재하는지 여부가 조회되는 것으로, 당해 상품 ID 리스트가 검증(해당 상품의 재고 유무도 확인할 수 있다)된다.In the sixth step shown in FIG. 4 (6), the product data inquiry process for the product ID list 7430 included in the scene data acquired in the fourth step, that is, the product ID list 7430 is Based on the product data in the product data management DB 5210 is searched and whether or not product data of the product ID list 7430 exists is inquired, and the product ID list is verified (you can also check whether the product is in stock) there is).

도 4의 (7)로 나타낸 제7 스텝에서는, 상기(제5 스텝의 처리와 동시에) 제4 스텝에 있어서 취득된 상기 장면 화상 데이터(7420)에 기초하는 물체 검출 처리(학습 모델에 의한 추론 처리)에 의하여, 당해 장면 화상 데이터(7420)에 포함되는 상품 ID 리스트(7440)가 검출된다.In the seventh step shown in FIG. 4 (7), object detection processing (inference processing by a learning model) based on the scene image data 7420 acquired in the fourth step (simultaneous with the processing in the fifth step) ), the product ID list 7440 included in the scene image data 7420 is detected.

도 4의 (8)로 나타낸 제8 스텝에서는, 상기 제6 스텝의 상품 데이터 조회 처리에 의하여 검증된 상품 ID 리스트(7430)와 제7 스텝의 물체 검증 처리에 의하여 검출된 상품 ID 리스트(7440)가 조합되고, 상품 ID의 존재 판정(예를 들어, 당해 상품 ID 리스트(7440)에 포함되는 상품 ID가, 당해 상품 ID 리스트(7430)에 존재하는지 여부를 판정)에 의하여 존재가 확인된 상품 ID의 상품 화상(상기 장면 화상 데이터(7420)에 포함되는 상품 화상)에 대한 UI 처리(당해 상품 화상에 대한 구형 묘화 처리, 및 상품 ID에 의한 상품 데이터 취득용의 링크 붙임 등)가 행하여지고, UI 처리된 장면 화상 데이터(7460)가 생성된다.In the eighth step indicated by (8) of FIG. 4, the product ID list 7430 verified by the product data inquiry processing of the sixth step and the product ID list 7440 detected by the object verification processing of the seventh step A product ID whose existence is confirmed by combining and determining the existence of a product ID (eg, determining whether or not a product ID included in the product ID list 7440 exists in the product ID list 7430) UI processing (spherical drawing processing for the product image, linking for product data acquisition by product ID, etc.) is performed on the product image (product image included in the scene image data 7420) of Processed scene image data 7460 is generated.

도 4의 (9)로 나타낸 제9 스텝에서는, 상기 제8 스텝에서 UI 처리된 상기 UI 처리된 장면 화상 데이터(7460)(복수 존재할 가능성이 있다)가 PC(2310)나 스마트폰(2320) 등의 상기 클라이언트 장치에 송신되어 표시되고, 당해 표시된 UI 처리된 장면 화상 데이터(7460)에 대하여, 상기 유저(1200)에 의하여, 예를 들어, 당해 UI 처리된 장면 화상 데이터(7460)에 포함된 상품 화상의 구형 범위가 클릭(터치)되면, 당해 상품 화상에 해당하는 상품 데이터가 상품 데이터 관리 DB(5210)로부터 추출되어 표시된다.In the ninth step indicated by (9) of Fig. 4, the UI-processed scene image data 7460 (there may be a plurality of) processed by the UI in the eighth step is transmitted to the PC 2310, the smartphone 2320, or the like. A product transmitted to and displayed on the client device of , and included in the UI-processed scene image data 7460 by the user 1200 for the displayed UI-processed scene image data 7460, for example. When the rectangular area of the image is clicked (touched), product data corresponding to the product image is extracted from the product data management DB 5210 and displayed.

상기의 [EC 통합형 메타미디어 전송 과정]은, 본 발명에 있어서의 중요한 구성 요소인 바, 도 4의 처리 흐름도에 의한 설명에 더하여, 도 1의 기호 [B]([EC PROCESS]를 제외)로 나타낸 클라이언트 측에 있어서의 구체적인 실시 이미지에 관하여, 도 5의 개요도에 기재된 번호 (1) ~ (7)(제휴 처리에는 같은 번호를 붙였다)를 사용하여 설명한다.The above [EC integrated metamedia transmission process] is an important component in the present invention, and in addition to the description by the process flow diagram of FIG. 4, the symbol [B] in FIG. 1 (excluding [EC PROCESS]) The specific implementation image on the client side shown is demonstrated using the numbers (1) - (7) (the same number is attached to the affiliate process) described in the schematic diagram of FIG.

[EC 통합형 메타미디어 전송 과정(제2 설명)][EC Integrated Metamedia Transmission Process (Second Description)]

도 5(1)의 처리 과정에서는, 유저(1200)가, PC(2310)나 스마트폰(2320) 등의 클라이언트 장치(2300)로부터, 「EC 통합형 메타미디어 전송 사이트」에 액세스 하고, 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)를 선택하면, (1) 전용 비디오 플레이어(2420)에 의하여 당해 비디오가 재생된다.In the process of FIG. 5 ( 1 ), the user 1200 accesses the "EC integrated metamedia transmission site" from the client device 2300 such as the PC 2310 or the smartphone 2320, and provides a video (movie) or video content such as drama, animation, or music video) is selected, (1) the video is reproduced by the dedicated video player 2420 .

도 5(2)의 처리 과정에서는, 유저(1200)가, 상기 재생 중의 비디오로 직감적으로 흥미를 가진 장면에 있어서, 예를 들어, 당해 비디오의 장면 화상을 터치(클릭)하면, 당해 터치(클릭) 시점의 당해 장면 화면에 관한 장면 식별 정보(7410)와 장면 화상 데이터(7420)가 센터의 메인 시스템(2200)으로 송신(취득)된다.In the process of FIG. 5(2), when the user 1200 touches (clicks) a scene image of the video in a scene intuitively interested in the video being reproduced, for example, the touch (click) ), the scene identification information 7410 and the scene image data 7420 relating to the scene screen of the viewpoint are transmitted (acquired) to the main system 2200 of the center.

덧붙여, 상기의 유저(1200)에 의한 조작(장면 선택 조작)은, 상기 비디오 재생을 중단(일시 정지) 또는 정지하는 일 없이, 또한, 비디오의 재생 중에 몇 번이라도, 실시할 수 있도록 구성할 수 있다.In addition, the operation (scene selection operation) by the user 1200 can be configured so that it can be performed any number of times during video playback without interrupting (pausing) or stopping the video playback. there is.

여기서, 상기 센터의 메인 시스템(2200)으로 송신(취득)된 장면 식별 정보(7410)는, 당해 메인 시스템(2200)에 의하여, 상술의 [EC 통합형 메타미디어 전송 과정]에 있어서의 제5 스텝으로부터 제8 스텝까지의 처리에 의하여, UI 처리된 장면 화상 데이터(7460)가 생성된다.Here, the scene identification information 7410 transmitted (acquired) to the main system 2200 of the center is transmitted by the main system 2200 from the fifth step in the [EC integrated metamedia transmission process] described above. Through the processing up to the eighth step, the UI-processed scene image data 7460 is generated.

또한, 상술의 장면 선택 조작이 여러 차례 행하여지고 있었을 경우에는, 당해 조작에 의하여 송신된 상기 UI 처리된 장면 화상 데이터(7460)를 장면 식별 정보 보존 파일(7450)에 보존되도록 구성하여도 무방하다.In addition, when the scene selection operation described above has been performed several times, the UI-processed scene image data 7460 transmitted by the operation may be configured to be stored in the scene identification information storage file 7450 .

도 5(3)의 처리 과정에서는, 예를 들어, 유저(1200)가, 상기 비디오 재생을 중단(일시 정지) 또는 정지하고, 예를 들어, 장면 호출 조작을 행하면, 상기 장면 식별 정보 보존 파일(7450)로부터 상기 장면 보존 조작으로 보존된 UI 처리된 장면 화상 데이터(7460)가 클라이언트 장치(2300)로 송신되고, 당해 UI 처리된 장면 화상 데이터(7460)가 다수 있는 경우, 예를 들어, 최초의 UI 처리된 장면 화상 데이터가 클라이언트 장치(표시 화면)의 메인 에어리어에 표시되고, 나머지의 UI 처리된 장면 화상 데이터가 섬네일 형식으로 사이드 에어리어에 표시된다.In the processing process of FIG. 5(3), for example, when the user 1200 interrupts (pauses) or stops the video reproduction and, for example, performs a scene call operation, the scene identification information storage file ( 7450), the UI-processed scene image data 7460 saved by the scene saving operation is transmitted to the client device 2300, and when there are a plurality of the UI-processed scene image data 7460, for example, the first The UI-processed scene image data is displayed in the main area of the client device (display screen), and the remaining UI-processed scene image data is displayed in the side area in thumbnail form.

도 5(4)의 처리 과정에서는, 유저(1200)가, 상기 클라이언트 장치(2300)에 표시된 당해 UI 처리된 장면 화상 데이터(7460)(복수 존재)의 섬네일의 어느 하나를 선택(터치나 클릭)하면, 당해 선택된 UI 처리된 장면 화상 데이터(7460)가 상기 메인 에어리어에 표시된다.In the processing process of FIG. 5( 4 ), the user 1200 selects (touches or clicks) any one of the thumbnails of the UI-processed scene image data 7460 (plural) displayed on the client device 2300 . Then, the selected UI-processed scene image data 7460 is displayed in the main area.

도 5(5)의 처리 과정에서는, 유저(1200)가, 상기 선택된 UI 처리된 장면 화상 데이터(7460)에 포함된 구형 처리(구형으로 둘러싸인)된 물체 화상(복수 존재)으로부터 어느 하나를 선택(구형 범위 내를 터치 또는 클릭)하면, 당해 선택된 당해 물체 화상에 대응하는 링크 데이터(상품 ID를 포함한다)가 센터 시스템(2200)에 송신되어 당해 링크 데이터의 상품 ID에 기초하여 상품 데이터 관리 DB로부터 해당하는 상품 데이터가 추출되는 것과 함께, 당해 추출된 상품 데이터가 상기 클라이언트 장치(2300)에 송신된다.In the process of FIG. 5 ( 5 ), the user 1200 selects any one from object images (plural existences) that have been spherically processed (surrounded by a sphere) included in the selected UI-processed scene image data 7460 ( touch or click within the spherical range), link data (including product ID) corresponding to the selected object image is transmitted to the center system 2200 from the product data management DB based on the product ID of the link data When the corresponding product data is extracted, the extracted product data is transmitted to the client device 2300 .

도 5(6)의 처리 과정에서는, 상기 클라이언트 장치(2300)에 송신된 상기 상품 데이터의 상품 정보가 당해 클라이언트 장치(2300)에 표시되고, 당해 상품에 대한 EC 처리의 종별(예를 들어, 상품에 대한 상세 정보의 확인이나, 상품에 관한 문의, 상품의 구입 등)이 상기 유저(1200)에 의하여 선택되면, 당해 선택 EC 처리로 진행된다.In the processing process of FIG. 5(6), product information of the product data transmitted to the client device 2300 is displayed on the client device 2300, and the type of EC processing for the product (eg, product) When the user 1200 selects a detailed information about the , inquiry about a product, purchase of a product, etc.), the selection EC process proceeds.

이상이, 도 1의 기호 [A]에 기재된 본 발명을 구성하는 각 처리 과정에 관한 상세한 설명이다.The above is a detailed description regarding each processing process which comprises this invention described in symbol [A] of FIG.

계속하여, 이하, 도 1의 기호 [B]([EC PROCESS])로 나타낸 본 발명을 구성하는[상품에 관한 EC 처리 과정]에 대해, 도 1으로 도 6을 사용해 설명한다.Next, the [EC processing process related to the product] constituting the present invention indicated by the symbol [B] ([EC PROCESS]) in FIG. 1 will be described below with reference to FIG. 1 and FIG. 6 .

[상품에 관한 EC 처리 과정][EC processing process for products]

도 6은, 도 1의 기호[B]에 기재된 CLIENT Application4100, 즉, 도 1으로 나타낸 유저(1200)의 클라이언트 장치가 되는 PC(2310)나 스마트폰(2320) 등에 다운로드되는 Web 애플리케이션 또는 인스톨되는 전용 애플리케이션(이하, 클라이언트 애플리케이션(4100)이라고 한다)에 의하여 실시되는 [상품에 관한 EC 처리 과정]에 관한 개요도이다.FIG. 6 is a CLIENT Application 4100 described in symbol [B] in FIG. 1 , that is, a web application downloaded or installed exclusively to a PC 2310 or smartphone 2320 that is a client device of the user 1200 shown in FIG. 1 . It is a schematic diagram regarding [EC processing process related to goods] implemented by an application (hereinafter, referred to as a client application 4100).

우선, 본 발명에 있어서의 [상품에 관한 EC 처리 과정]은, EC 통합형 메타미디어의 시청자에 의하여, 당해 EC 통합형 메타미디어에 의하여 전송되는 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 있어서의 각 장면에 포함되는 상품, 즉, 일반의 EC 상품 뿐만이 아니라, 당해 영상 컨텐츠의 제작에 투자된 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)가, 당해 영상 컨텐츠에 통합화된 EC 기능을 통하여 구입되고, 당해 구입에 관련되는 매출 수익이, 상품 공급원(당해 리소스를 판매하는 사람이나, 당해 리소스를 대여, 투자, 기부 등으로 거출하는 사람)뿐만이 아니라, 당해 영상 컨텐츠의 제작자나 센터에도 배당되는 과정이고, 주요 7 스텝의 처리에 의하여 구성된다.First, in the present invention, the [EC processing process related to goods] is performed by a viewer of the EC integrated meta media for video content such as movies, dramas, animations, and music videos transmitted by the EC integrated meta media. The products included in each scene, that is, not only general EC products, but also various resources (persons, spaces, props, equipment, technologies, etc.) invested in the production of the video content, provide the EC function integrated into the video content. Purchases made through the company, and the revenue related to the purchase is distributed not only to the product supply source (those who sell the resource or those who make money through rental, investment, donation, etc.) of the resource, but also to the producer or center of the video content It is a process that is performed, and is constituted by the processing of the main 7 steps.

도 6의 (1)에 나타낸 제1 스텝에서는, 상술한 [EC 통합형 메타미디어 전송 과정]의 제9 스텝에 있어서의 유저(1200)에 의한 구형 터치에 의하여 선택되고 PC(2310) 또는 스마트폰(2320)에 표시된 상품에 대한 EC 처리의 종별(예를 들어, 해상품의 구입, 해상품이 사람이나 설비, 기술등의 거래였을 경우의 계약, 해상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출하기 위한 정보)이, 해유저(1200)에 의해 결정(예를 들어, 해종별의 메뉴 버튼이 클릭 또는 터치되는 등)된다.In the first step shown in Fig. 6 (1), the selection is made by a spherical touch by the user 1200 in the ninth step of the [EC integrated metamedia transmission process] described above, and the PC 2310 or the smartphone ( 2320) type of EC processing for the products indicated in (e.g., purchase of marine products, contracts when marine products are transactions of people, equipment, technology, etc., bidding when marine products are exhibited in auction, etc. Information for invoking the implementation configuration of the EC processing suitable for the transaction type) is determined by the sea user 1200 (eg, a menu button for each sea type is clicked or touched).

도 6의 것(2)으로 나타낸 제2 스텝에서는, 상기 제 1 스텝의 EC 처리로 구입 종별이 선택되었을 때, 상기 상품에 관한 상세한 정보가 표시되어 상기 유저(1200)에 의해 해상품의 구입이 결정된다.In the second step shown by (2) in Fig. 6, when a purchase type is selected in the EC processing of the first step, detailed information about the product is displayed and the user 1200 decides to purchase the marine product. do.

도 6의 (3)으로 나타낸 제3 스텝에서는, 상기 제2 스텝에 있어서 상기 유저(1200)에 의하여 구입이 결정된 상품의 주문 정보로서, 예를 들어, 당해 상품의 주문(구입)자 정보(여기에서는, 유저(1200)의 정보)나, 당해 상품의 배송처 주소나 연락처 등의 배송 정보가 입력되고, 또한, 당해 상품의 구입에 관한 결제 처리가 행하여지고, 예를 들어, 결제 대행 회사(1500)에 의하여 당해 유저(1200)의 은행 계좌로부터 당해 상품의 구입 대금이 인출된다.In the third step shown in FIG. 6 ( 3 ), as order information of the product for which purchase was decided by the user 1200 in the second step, for example, order (purchasing) person information (here) of the product. In the , information of the user 1200) and delivery information such as a delivery address and contact information of the product are input, and payment processing related to the purchase of the product is performed, for example, a payment agency 1500 The purchase price of the product is withdrawn from the bank account of the user 1200 .

덧붙여, 상기 제3 스텝에 있어서의 주문 정보의 입력에 관하여는, 상기 제1 스텝 또는 제2 스텝의 구성에, 상기 유저(1200)에 의한 로그인 조작(유저 인증 처리이고, 본 발명에 있어서는, 도 1에 기재된 ATP* PG[3110]에 의하여 처리된다)을 센터 시스템(2200)이 접수하는 구성을 부가하면 생략할 수 있고, 이와 같은 구성은, 기존의 EC 사이트 등에서 채용되어 있는 회원 등록에 관한 구성을 이용하여 용이하게 구축할 수 있다.Incidentally, regarding the input of order information in the third step, in the configuration of the first step or the second step, a login operation by the user 1200 (user authentication processing, in the present invention, FIG. 1) can be omitted by adding a configuration in which the center system 2200 accepts the ATP* PG [3110], and such a configuration is a configuration related to member registration employed in an existing EC site or the like. can be easily built using

또한, 상기의 결제 처리에 의하여, 상기 유저(1200)의 은행 계좌로부터 구입 대금이 이체되는 타이밍에 관하여는, 당해 유저(1200)가 구입한 상기 상품의 종류에 따라서는, 쿨링오프(cooling-off) 제도가 적용되어도 무방하다.In addition, with respect to the timing at which the purchase price is transferred from the bank account of the user 1200 by the payment processing described above, depending on the type of the product purchased by the user 1200, cooling-off is performed. ), even if the system is applied.

도 6의 (3)으로 나타낸 제4 스텝에서는, 상기 제3 스텝에서 상기 유저(1200)에 의하여 입력된 상기 주문 정보와 상기 결제 회사(1500)에 의해 처리된 당해 유저(1200)에 의한 결제 정보에 기초하는 수주 정보가, 센터 시스템(2200)에 송신된다.In the fourth step shown by (3) of FIG. 6 , the order information input by the user 1200 in the third step and payment information by the user 1200 processed by the payment company 1500 The order receipt information based on ' is transmitted to the center system 2200 .

도 6의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 센터 시스템(2200)에 송신된 상기 수주 정보에 기초하는 발주 정보가, 센터 시스템(2200)으로부터 상품 공급원(1400)의 정보 단말 등에 송신(예를 들어, E메일)되는 것과 함께, 제작자(1300)의 정보 단말 등에도 당해 발주 정보에 관한 통지가 송신된다.In the fifth step shown by (5) of FIG. 6 , the order information based on the order receipt information transmitted to the center system 2200 in the fourth step is transmitted from the center system 2200 to the information terminal of the product supply source 1400 . In addition to being transmitted (for example, by E-mail), a notification regarding the order information is also transmitted to the information terminal of the manufacturer 1300 or the like.

도 6의 (6)으로 나타낸 제6 스텝에서는, 상기 제5 스텝에서 상기 상품 공급원(1400)에 송신된 주문 정보에 기초하여, 당해 상품 공급원(1400)으로부터 상기 유저(1200)(주문 정보의 배송처가 당해 유저(1200)의 주소와 같은 경우)에 상품이 배송된다.In the sixth step shown in FIG. 6 (6), based on the order information transmitted to the product supply source 1400 in the fifth step, the user 1200 (order information delivery destination) from the product supply source 1400 is the same as the address of the user 1200), the product is delivered.

도 6의 (7)로 나타낸 제7 스텝에서는, 상기 제3 스텝에서 결제 대행 회사(1500)에 의하여 회수된 구입 대금(판매액)으로부터, 상품 대금이 상품 공급원(1400)에, 또한, 배당금이 제작자(1300)에, 나아가, 마진이 센터(1100)에 입금된다.In the seventh step indicated by (7) of FIG. 6, the product price is transferred to the product supply source 1400 from the purchase price (sales amount) recovered by the settlement agency 1500 in the third step, and the dividend is transferred to the producer At 1300 , further, a margin is credited to the center 1100 .

상기의 예에서는, EC 통합형 메타미디어의 시청자나 상품을 구입하는 유저에 관하여, 일반적인 소비자로서 말하였지만, 예를 들어, 당해 시청자에는, 영상 컨텐츠의 제작자를 비롯하여, 엔터테인먼트나, 광고, 마케팅 등 여러 가지 업계인, 혹은, 신제품이나 신서비스의 개발자 등이 있어, 이와 같은 시청자가 구입(거래)하는 상품으로서, 예를 들어, 모델이나 스턴트 맨 등의 사람의 채용이나, 로케이션 현장의 호텔이나 식당 등의 이용이나, 특수 촬영이나 CG에 관한 기술 도입 등도 상정되기 때문에, 이와 같은 거래에 대응할 수 있는 EC 기능의 구성이 필요하게 되는 바, 근년에는, 인터넷 기술의 발달이나 규제 완화, 나아가, 블록 체인 기술 등에 의하여, 예를 들어, 여행이나 보험, 증권, 교육 등 계약을 수반하는 상품도, 스마트 컨트랙트 등이 새로운 개념으로 거래가 가능하게 되어 있고, 또한, 그 같은 거래 형태에 대응한 EC의 구조도 정비되어 있고, 이와 같은 거래 구성을 본 발명에 있어서의 [상품에 관한 EC 처리 과정]에 짜넣으면, 예를 들어, 상품이 사람의 채용이나 설비의 사용, 기술의 이전 등에 관한 거래였을 경우의 계약이나, 당해 상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출할 수 있는 기능을 용이하게 구성할 수 있다.In the above example, viewers of EC-integrated meta media and users who purchase products are spoken as general consumers. There are people in the industry, developers of new products or new services, etc., and such products are purchased (transacted) by such viewers, for example, the hiring of models or stuntmen, etc. Since use, special shooting, and introduction of CG-related technologies are also expected, it is necessary to construct an EC function that can respond to such transactions. As a result, for example, even for products accompanying contracts such as travel, insurance, securities, education, smart contracts, etc., it is possible to trade with a new concept, and the EC structure corresponding to such transaction types has also been established. , if such a transaction structure is incorporated into the [product EC processing process] in the present invention, for example, a contract in the case where the product is a transaction related to human employment, use of equipment, transfer of technology, etc. It is possible to easily configure a function that can call the implementation configuration of EC processing suitable for the transaction form of the product, such as bidding when the product is exhibited in an auction.

이상과 같이, 실시예 1에 나타낸 구성에 의하여, 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스도 EC와 직결하여 판매할 수 있는 EC 통합형 메타미디어의 제작 방법, 및 전송 시스템의 제어 방법을 제공하는 것이 가능하게 된다.As described above, with the configuration shown in Example 1, not only products (goods or services) related to video content but also various resources invested in the production of video content can be sold directly with EC. It becomes possible to provide a manufacturing method and a control method of a transmission system.

[실시예 2[Example 2

이하, 본 발명의 실시예 2에 관하여 상세하게 설명한다.Hereinafter, Embodiment 2 of the present invention will be described in detail.

본 발명의 실시예 2는, 실시예 1에 있어서의 [장면 관리 데이터 생성 과정]과 [물체 검출 모델 작성 과정]과 [상품에 관한 EC 처리 과정]에 더하여, [음성(음향) 워터마크 제어 과정]에 의하여 구성된다.Embodiment 2 of the present invention is, in addition to [scene management data generation process], [object detection model creation process] and [product EC processing process] in Embodiment 1, [audio (sound) watermark control process] ].

덧붙여, 상기의 [장면 관리 데이터 생성 과정]과 [물체 검출 모델 작성 과정]과 [상품에 관한 EC 처리 과정]에 관하여는, 이미, 본 발명의 실시예 1에 관한 상세한 설명에 있어서 기재하였기 때문에, 이하에 있어서 기재를 생략한다.Incidentally, the above [scene management data generation process], [object detection model creation process] and [product EC processing process] have already been described in the detailed description regarding Example 1 of the present invention, Description is abbreviate|omitted below.

처음으로, [음성(음향) 워터마크 제어 과정]은, 음성(음향) 워터마크를 EC 통합형 메타미디어에 삽입하기 위한 [음성 인코드 처리]와, EC 통합형 메타미디어에 장치된 당해 음성(음향) 워터마크를 검출하기 위한 [음성 디코드 처리]의 2개의 처리에 의하여 구성된다.First, in the [audio (sound) watermark control process], [audio encoding processing] for inserting the audio (sound) watermark into the EC integrated metamedia, and the audio (sound) installed in the EC integrated meta media It is constituted by two processes of [audio decoding process] for detecting a watermark.

우선, [음성 인코드 처리]는, 실시예 1에서 설명한 [장면 관리 데이터 작성 과정]에 있어서, 정보·승인 등록 프로그램으로 편집된 장면 관리 파일로부터 장면 데이터 생성 프로그램에 의하여 장면 데이터 관리 DB에 등록된 장면 데이터와, 최종 편집 비디오 데이터로부터 비디오 데이터 보존 프로그램에 의하여 비디오 데이터 관리 DB에 등록된 장면 데이터와 편집된 비디오를 이용하고, (1) 장면 데이터의 비디오 ID와 장면 ID로부터 장면 식별 정보를 생성하는 제1 처리, (2) 당해 생성된 장면 식별 정보를 전용의 음성(음향) 워터마크 제어 소프트에 의하여 음성(음향) 워터마크 데이터에 인코드하는 제2 처리, (3) 비디오 편집 소프트에 의하여, 당해 음성(음향) 워터마크 데이터를 편집된 비디오의 각 장면에 삽입하면서 재편집하는 제3 처리에 의하여 구성된다.First, in the [audio encoding process], in the [scene management data creation process] described in the first embodiment, from the scene management file edited with the information/approval registration program, the scene data generation program registers in the scene data management DB. Using the scene data and the edited video registered in the video data management DB by the video data preservation program from the scene data and the last edited video data, (1) generating scene identification information from the video ID and scene ID of the scene data; A first process (2) a second process of encoding the generated scene identification information into audio (sound) watermark data using dedicated audio (sound) watermark control software, (3) video editing software, It is constituted by the third process of re-editing while inserting the audio (sound) watermark data into each scene of the edited video.

다음으로, [음성 디코드 처리]는, 예를 들어, 유저가, TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어에 의한 영상 컨텐츠에 대하여, 음성(음향) 워터마크 제어 기능을 가진 전용 애플리케이션이 인스톨된 스마트폰(부속의 마이크)을 향하게 하면, (1) TV로부터 출력되는 EC 통합형 메타미디어의 음성이 녹음되고, 전용 애플리케이션에 의하여, 녹음된 음성으로부터 음성(음향) 워터마크 데이터가 취득되는 제1 처리, (2) 당해 취득된 음성(음향) 워터마크 데이터가 디코드되어, 장면 식별 정보(비디오 ID, 장면 ID를 포함한다)가 검출되는 제2 처리에 의하여 구성된다.Next, [audio decoding processing] is, for example, a dedicated application having an audio (sound) watermark control function for video content by EC integrated meta media that is transmitted (broadcast or reproduced) by the user to the TV. When this installed smartphone (supplied microphone) is pointed, (1) the audio of EC integrated metamedia output from the TV is recorded, and audio (sound) watermark data is obtained from the recorded audio by a dedicated application. A first process and (2) a second process in which the acquired audio (sound) watermark data is decoded and scene identification information (including video ID and scene ID) is detected.

예를 들어, 여기서, 상기 검출된 장면 식별 정보가 유저의 스마트폰으로부터 센터 시스템에 송신되면, 당해 장면 식별 정보에 기초하는 상품 일람 데이터가 상품 데이터 관리 DB로부터 생성되고, 당해 생성된 상품 일람 데이터가 센터 시스템으로부터 유저의 스마트폰에 송신되면, 당해 송신된 상품 일람 데이터가 스마트폰에 표시되는 것과 함께, 당해 상품 일람으로부터 좋아하는 상품을 구입할 수 있는 EC 처리 선택으로 이행할 수 있다.For example, here, when the detected scene identification information is transmitted from the user's smartphone to the center system, product list data based on the scene identification information is generated from the product data management DB, and the generated product list data is When transmitted from the center system to the user's smartphone, the transmitted product list data is displayed on the smartphone, and the selection of the EC processing for purchasing a favorite product from the product list can be performed.

도 7은, 본 발명의 실시예 2에 있어서의 [음성(음향) 워터마크 제어 과정]에 관한 처리 플로가, 기호 [A1]~[A4]의 플로가 [음성(음향) 워터마크 제어 과정/음성 인코드 처리]이고, 기호[B1]~[B4]의 플로가 [음성(음향) 워터마크 제어 과정/음성 디코드 처리]이다.Fig. 7 shows the flow of processing related to [audio (sound) watermark control process] in Example 2 of the present invention, and the flow of symbols [A1] to [A4] is [audio (sound) watermark control process/ audio encoding process], and the flow of symbols [B1] to [B4] is [audio (sound) watermark control process/audio decode process].

[음성(음향) 워터마크 제어 과정/음성 인코드 처리][Voice (sound) watermark control process/Voice encoding process]

우선, 본 발명에 있어서의 [음성(음향) 워터마크 제어 과정/음성 인코드 처리]는, 장면 식별 정보의 텍스트 데이터를 비가청음에 합성하여 공개용 비디오의 각 장면에 저장하는(비디오 음성의 편집에 의한다) 처리이고, 주요 3 스텝의 처리에 의하여 구성된다.First, in the [audio (sound) watermark control process/audio encoding process] in the present invention, text data of scene identification information is synthesized with inaudible sound and stored in each scene of a video for public use (for editing video and audio) ) process, and is constituted by the process of three main steps.

도 7의 [A1]로 나타낸 제1 스텝에서는, 장면 식별 정보 생성 처리에 의하여, 음성(음향) 워터마크를 삽입하는 비디오의 비디오 ID에 기초하여 장면 데이터 관리 DB(5220)로부터 장면 데이터(7220)가 추출되는 것과 함께, 당해 비디오 ID와 당해 장면 데이터(7220)의 장면 ID로 이루어지는 장면 식별 정보(7410)가 생성된다.In the first step indicated by [A1] in Fig. 7, scene data 7220 is obtained from the scene data management DB 5220 based on the video ID of the video in which the audio (sound) watermark is inserted by the scene identification information generation process. When is extracted, scene identification information 7410 including the video ID and the scene ID of the scene data 7220 is generated.

도 7의 [A2]로 나타낸 제2 스텝에서는, 상기 제1 스텝에서 생성된 상기 장면 식별 정보(7410)가 전용의 음성(음향) 워터마크 제어 소프트(3510)에 의하여 음성(음향) 워터마크 데이터(7520)에 인코드된다.In the second step indicated by [A2] in Fig. 7, the scene identification information 7410 generated in the first step is converted to audio (sound) watermark data by the dedicated audio (sound) watermark control software 3510. (7520) is encoded.

도 7 [A3]로 나타낸 제3 스텝에서는, 상기 제2 스텝에서 인코드된 음성 워터마크 데이터(7520)가, 비디오 편집 소프트(3210)에 의하여, 음성(음향) 워터마크를 삽입하는 비디오의 비디오 ID에 기초하여 비디오 데이터 관리 DB(5250)로부터 꺼내진 비디오 데이터(7230)의 각 장면에 장치되면서 재편집된다.In the third step shown in Fig. 7 [A3], the audio watermark data 7520 encoded in the second step is a video video in which the audio (sound) watermark is inserted by the video editing software 3210. Based on the ID, the video data 7230 extracted from the video data management DB 5250 is re-edited while being installed in each scene.

[음성(음향) 워터마크 제어 과정/음성 디코드 처리][Voice (sound) watermark control process/voice decode process]

우선, 본 발명에 있어서의 [음성(음향) 워터마크 제어 과정/음성 디코드 처리]는, 공개용 비디오의 각 장면에 저장되어 있는 음성 워터마크(비가청음에 합성된 장면 식별 정보의 텍스트 데이터)로부터 당해 장면 식별 정보를 꺼내는 처리이고, 주요 4 스텝의 처리에 의하여 구성된다.First, the [audio (sound) watermark control process/audio decoding process] in the present invention is performed from the audio watermark (text data of scene identification information synthesized with inaudible sound) stored in each scene of the public video. It is a process of extracting scene identification information, and is constituted by the process of 4 main steps.

도 7의 [B1]로 나타낸 제1 스텝에서는, 유저(1200)가, TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어에 의한 영상 컨텐츠([음성(음향) 워터마크 제어 과정/음성 인코드 처리]에 기재된 편집된 비디오)에 대하여, 장면 선택 조작, 즉, 음성(음향) 워터마크 제어 기능을 가진 전용 애플리케이션(4510)이 인스톨된 스마트폰(2320)을 향하게 하면, 당해 스마트폰(2320)의 마이크부에 TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어의 음성(음파)이 입력되고, 당해 전용 애플리케이션(4510)에 의하여 당해 음성(음파)에 기초하는 녹음 데이터(7510)가 생성되는 것과 함께, 당해 녹음 데이터의 당해 녹음 시점에 있어서의 당해 영상 컨텐츠의 장면에 관한 음성 워터마크 데이터가 취득된다.In the first step indicated by [B1] in Fig. 7, the user 1200 transmits (broadcasts or plays) video content ([audio (sound) watermark control process/audio input) by EC integrated meta media to the TV. code processing], when a scene selection operation, i.e., a smartphone 2320 in which a dedicated application 4510 having an audio (sound) watermark control function is installed, is directed to the smartphone 2320 ), the audio (sound wave) of the EC integrated metamedia transmitted (broadcast or reproduced) to the TV is input to the microphone unit of the ), and the recorded data 7510 based on the audio (sound wave) is recorded by the dedicated application 4510. At the same time as being generated, audio watermark data relating to the scene of the video content at the time of recording of the recorded data is acquired.

도 7의 [B2]로 나타낸 제2 스텝에서는, 상기 전용 애플리케이션(4510)에 의하여, 상기 취득된 음성 워터마크 데이터로부터 상기 녹음 시점에 있어서의 장면에 관한 장면 식별 정보(7410)(비디오 ID, 장면 ID를 포함한다)가 음성 디코드 기능에 의하여 검출되는 것과 함께, 당해 검출된 장면 식별 정보(7410)가 센터 시스템(2200)에 송신된다.In the second step indicated by [B2] in Fig. 7, scene identification information 7410 (video ID, scene) about a scene at the time of recording from the acquired audio watermark data by the dedicated application 4510 ID) is detected by the audio decoding function, and the detected scene identification information 7410 is transmitted to the center system 2200 .

도 7 [B3]로 나타낸 제3 스텝에서는, 상기 센터 시스템(2200)에 송신된 장면 식별 정보(7410)에 기초하는 상품 데이터 검색 처리에 의하여, 상품 데이터 관리 DB(5210)로부터 상품 일람 데이터(7530)가 생성되는 것과 함께, 당해 생성된 상품 일람 데이터(7530)가 상기 스마트폰(2320)에 송신된다.In the third step shown in FIG. 7 [B3], the product list data 7530 is retrieved from the product data management DB 5210 by product data search processing based on the scene identification information 7410 transmitted to the center system 2200. ) is generated, the generated product list data 7530 is transmitted to the smartphone 2320 .

도 6 [B4]로 나타낸 제4 스텝에서는, 상기 전용 애플리케이션(4510)에 의하여, 당해 송신된 상품 일람 데이터(7530)가 당해 스마트폰(2320)에 표시되는 것과 함께, 유저(1200)에 의한 EC 처리 선택을 접수한다.In the fourth step shown in FIG. 6 [B4], the transmitted product list data 7530 is displayed on the smartphone 2320 by the dedicated application 4510, and the user 1200 EC Accepts treatment choices.

 덧붙여, 상기 스마트폰(2320)에 송신되는 상기 상품 일람 데이터(7530)를 대신하여, 상술의 [EC 통합형 메타미디어 전송 과정에 관한 제2 설명]에서 설명한 UI처리된 장면 화상 데이터가 당해 스마트폰(2320)에 송신되도록 구성하면, 상기 장면 선택 조작이 여러 차례 행하여졌을 경우, 당해 UI처리된 장면 화상 데이터(복수)가, 상술한 바와 같이 섬네일 표시되기 때문에, 보다 편리한 상품 선택 방법을 유저에 제공할 수 있다.In addition, instead of the product list data 7530 transmitted to the smartphone 2320, the UI-processed scene image data described in the above [Second description of the EC integrated metamedia transmission process] is transmitted to the smartphone ( 2320), when the scene selection operation is performed multiple times, the UI-processed scene image data (plural) is displayed as thumbnails as described above, so that a more convenient product selection method can be provided to the user. can

이 경우, 상기 스마트폰(2320)에 송신되는 UI 처리된 장면 화상 데이터(복수)를 구성하는 장면 화상 데이터에 관하여는, 상기 TV에 전송되고 있던 비디오 화상의 장면 화상 데이터를 직접은 취득할 수 없지만, 상기 센터 시스템(2200)에 송신된 장면 식별 정보(7410)에 기초하는 장면 데이터 검색 처리로 검색되는 장면 데이터(비디오 ID와 장면 ID를 포함한다)에 의하여 상술한 [장면 관리 데이터 생성 과정]의 제8 스텝에서 공개용 비디오 데이터가 보존되어 있는 도 2(8)에 게재된 비디오 데이터 관리 DB(5230)로부터 상기 TV에 전송되어 있던 비디오 데이터를 참조(검색)하여 해당(장면 ID가 일치)하는 장면 화상 데이터를 취득할 수 있기 때문에, 상술한 [EC 통합형 메타미디어 전송 과정]의 제8 스텝에서 설명한 바와 같이, 당해 취득한 장면 화상 데이터에 포함되는 상기 상품 일람 데이터(7530)에 대응하는 상품이 표시되어 있는 범위에 대한 UI 처리에 의하여 당해 UI 처리된 장면 화상 데이터(복수)를 구성할 수 있다.In this case, with respect to the scene image data constituting the UI-processed scene image data (plural) transmitted to the smartphone 2320, the scene image data of the video image being transmitted to the TV cannot be directly acquired. , by the scene data (including video ID and scene ID) retrieved by the scene data retrieval process based on the scene identification information 7410 transmitted to the center system 2200; In step 8, the video data transmitted to the TV is referenced (searched) from the video data management DB 5230 shown in FIG. Since the image data can be acquired, as described in step 8 of the [EC integrated metamedia transmission process] described above, the product corresponding to the product list data 7530 included in the acquired scene image data is displayed. The UI-processed scene image data (pluralities) can be configured by UI processing for a range.

이상과 같이, 실시예 2에 나타낸 구성에 의하여, 전용의 시청 시스템을 필요로 하지 않고, 영상 컨텐츠 내에서 판매되는 상품을 장면으로부터 용이하고 또한 다이렉트로 구입할 수 있는 EC 기능을 제공하는 것이 가능하게 된다.As described above, with the configuration shown in the second embodiment, it is possible to provide an EC function that can easily and directly purchase goods sold in video content from the scene without requiring a dedicated viewing system. .

이와 같은 구성에 의하면, EC 통합형 영상 컨텐츠를 TV방송으로 전송할 수 있고, 예를 들어, 길거리에서 방송되어 있는 당해 EC 통합형 영상 컨텐츠에 스마트폰을 향하는 것만으로, 당해 EC 통합형 영상 컨텐츠의 장면 화상을 캡쳐한 바와 같이 취득할 수 있고, 게다가, 이것을 UI 처리된 장면 화상 데이터로서 제공할 수 있기 때문에, 상품에 대한 유저의 충동적인 관심을 놓치지 않는다.According to such a configuration, the EC integrated video content can be transmitted through TV broadcasting, and for example, a scene image of the EC integrated video content can be captured by simply pointing a smartphone at the EC integrated video content broadcast on the street. Since it can be acquired as a result and, moreover, it can be provided as UI-processed scene image data, the user's impulsive interest in the product is not lost.

1100 센터
1200 유저
1300 제작자
1400 상품 공급원
1500 결제 회사
1900 인터넷
2100 통신 제어 장치(라우터 등)
2200 메인 시스템(EC 통합형 메타미디어 전송 시스템)
2210 WEB 서버 장치
2220 애플리케이션 서버 장치
2230 데이터베이스 관리 서버 장치
2300 클라이언트 장치
2310 PC
2320 스마트폰
2410 원본 비디오
2420 전용 비디오 플레이어
2500 서브 시스템(EC 시스템용)
3110 ATP* PG>Authentic Process(인증 처리 프로그램)
3210 VED* SW>Video Editing(비디오 편집 소프트웨어)
3220 FMX* PG>Format Exchange(포맷 변환 프로그램)
3230 IGR* PG>Info & Goods Register(정보·상품 등록 프로그램)
3240 SDG* PG>Scene Data Generator(장면 데이터 생성 프로그램)
3250 VDS* PG>Video Data Storage(비디오 데이터 보존 프로그램)
3310 LMC* PG>Learning Model Creator(학습 모델 작성 프로그램)
3510 WMC* SW>Watermark Control(음성(음향) 워터마크 제어 소프트웨어)
4100 클라이언트 애플리케이션
4210 VDP* AP>Video Player(전용 비디오 플레이어·애플리케이션)
4510 WMC* AP>Watermark Control(음성(음향) 워터마크 제어 애플리케이션)
5110 USR* MNG DB>User(유저 관리 DB )
5120 PRD* MNG DB>Producer(제작자 관리 DB)
5130 SPL* MNG DB>Supplier(공급원 관리 DB)
5210 GDD* MNG DB>Goods Data(상품 데이터 관리 DB)
5220 SCD* MNG DB>Scene Data(장면 데이터 관리 DB)
5230 VDD* MNG DB>Video Data(비디오 데이터 관리 DB)
6210 편집 정보 공유 파일
6220 장면 관리 파일
6240 EC 상품 테이블
6310 학습 모델 보존 파일
7210 상품 데이터
7220 장면 데이터
7230 비디오 데이터
7240 EC 상품 데이터
7310 학습 모델 데이터
7410 장면 식별 정보
7420 장면 화상 데이터
7430 상품 ID 리스트(상품 조회 처리에 의하여 취득된다)
7440 상품 ID 리스트(물체 검증 처리에 의하여 검출된다)
7450 장면 선택 정보 보존 파일
7460 UI 처리된 장면 화상 데이터
7510 녹음 데이터
7520 음성 워터마크 데이터
7530 상품 일람 데이터
1100 Center
1200 users
1300 Producer
1400 commodity supply
1500 payment companies
1900 internet
2100 Communication Control Unit (Router, etc.)
2200 main system (EC integrated metamedia transmission system)
2210 WEB Server Device
2220 application server device
2230 database management server unit
2300 client devices
2310 pcs
2320 Smartphone
2410 original video
2420 dedicated video player
2500 subsystem (for EC systems)
3110 ATP* PG>Authentic Process (authentication processing program)
3210 VED* SW>Video Editing (video editing software)
3220 FMX* PG>Format Exchange (format converter)
3230 IGR* PG>Info & Goods Register (information and product registration program)
3240 SDG* PG>Scene Data Generator
3250 VDS* PG>Video Data Storage (video data storage program)
3310 LMC* PG>Learning Model Creator
3510 WMC* SW>Watermark Control (voice (sound) watermark control software)
4100 client application
4210 VDP* AP>Video Player (dedicated video player application)
4510 WMC* AP>Watermark Control (voice (sound) watermark control application)
5110 USR* MNG DB>User (User Management DB)
5120 PRD* MNG DB>Producer (Producer Management DB)
5130 SPL* MNG DB>Supplier (source management DB)
5210 GDD* MNG DB>Goods Data (product data management DB)
5220 SCD* MNG DB>Scene Data (Scene Data Management DB)
5230 VDD* MNG DB>Video Data (video data management DB)
6210 Edit Information Share File
6220 Scene Management File
6240 EC product table
6310 Training Model Preservation File
7210 product data
7220 scene data
7230 video data
7240 EC product data
7310 training model data
7410 Scene Identification Information
7420 Scene image data
7430 Product ID list (obtained by product inquiry process)
7440 Product ID list (detected by object verification processing)
7450 Scene Selection Information Preservation File
7460 UI processed scene image data
7510 Recorded data
7520 Voice Watermark Data
7530 product list data

Claims (14)

영상 컨텐츠의 시청자가 되는 유저가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI 기능이 포함된 EC 통합형 메타미디어의 제작 방법으로,
[a] 상품 데이터를 관리하기 위한 상품 데이터 관리 데이터베이스에 상품의 정보를 등록하는 스텝과,
[b] 상기 상품의 EC 처리에 관한 정보를 관리하는 EC 상품 테이블을 생성하는 스텝과,
[c] 영상 컨텐츠의 편집 정보를 공유하기 위한 편집 정보 공유 파일을 생성하는 스텝과,
[d] 상기 편집 정보 공유 파일의 장면에 관한 정보로부터 장면 정보를 관리하기 위한 장면 관리 파일을 생성하여 상기 상품 데이터 관리 데이터베이스의 상품 ID를 추가하는 스텝과,
[e] 장면 데이터를 관리하기 위한 장면 데이터 관리 데이터베이스에 상기 장면 관리 파일의 장면 데이터를 등록하는 스텝과,
[f] 비디오 데이터를 관리하기 위한 비디오 데이터 관리 데이터베이스에 상기 영상 컨텐츠의 공개용 비디오 데이터를 등록하는 스텝과,
[g] 상기 공개용 비디오 데이터의 장면과 상기 장면 데이터 관리 데이터베이스의 장면 데이터와 상기 상품 데이터 관리 데이터베이스의 상품 데이터로부터 물체 검출용의 학습된 데이터를 생성하는 스텝과,
[h] 상기 물체 검출용의 학습된 데이터를 이용하여 장면 화상 데이터에 포함되는 물체를 검출하는 스텝과,
[i] 유저에 의한 선택 조작의 시점에 있어서의 장면의 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
[j] 상기 검출의 결과의 상기 물체가 상기 검색의 결과의 상기 상품 정보에 포함되는지를 조합하는 스텝과,
[k] 상기 조합의 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 교부한 UI 처리된 장면 화상 데이터를 생성하는 스텝을 포함하는, 제작 방법.
A method for producing EC-integrated metamedia including an EC UI function that allows a user who becomes a viewer of video content to trade the production resource of the video content as a product,
[a] A step of registering product information in a product data management database for managing product data;
[b] creating an EC product table for managing information on EC processing of the product;
[c] A step of creating an editing information sharing file for sharing the editing information of the video content;
[d] creating a scene management file for managing scene information from the scene information in the edited information shared file and adding a product ID of the product data management database;
[e] registering the scene data of the scene management file in a scene data management database for managing the scene data;
[f] registering the video data for public use of the video content in a video data management database for managing video data;
[g] generating learned data for object detection from the scene of the video data for publication, the scene data of the scene data management database, and the product data of the product data management database;
[h] detecting an object included in the scene image data using the learned data for object detection;
[i] a step of searching for product information based on the identification information of the scene at the time of the selection operation by the user;
[j] combining whether the object of the detection result is included in the product information of the search result;
[k] A production method including a step of generating UI-processed scene image data in which a link element is assigned to a range of the scene image data in which the object of the combination result is displayed.
제1항에 있어서,
상기 스텝 [e]가, 상기 영상 컨텐츠의 각 장면에 음성 워터마크를 삽입하는 스텝을 포함하고, 상기 음성 워터마크는 음성 인코드 처리된 식별 정보인, 제작 방법.
The method of claim 1,
and the step [e] includes a step of inserting an audio watermark into each scene of the video content, wherein the audio watermark is audio-encoded identification information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 영상 컨텐츠의 시청자가 되는 유저가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI 기능이 포함된 EC 통합형 메타미디어의 전송 방법으로,
[a]영상 컨텐츠의 각 장면에 음성 워터마크를 삽입하는 스텝과,
[b]상기 영상 컨텐츠가 범용의 시청 기기로 방영되는 스텝과,
[c]상기 영상 컨텐츠에 표시된 장면을 상기 유저가 선택한 것을 클라이언트 장치로 검지하는 스텝과,
[d]상기 선택 조작의 검지에 의하여 당해 선택 조작 시점에 있어서의 장면의 식별 정보를 상기 클라이언트 장치로부터 취득하는 스텝과,
[e]상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
[f]상기 상품 정보를 상기 클라이언트 장치에 송신하는 스텝과,
[g]상기 송신에 의하여 상기 클라이언트 장치에 상기 상품 정보가 표시되는 스텝과,
상기 스텝 [d]에서 취득된 식별 정보에 기초하여 비디오 데이터를 검색하여 당해 검색한 비디오 데이터로부터 당해 식별 정보에 대응하는 장면 화상 데이터를 취득하는 스텝과,
취득한 상기 장면 화상 데이터에 포함되는 물체를 검출하는 스텝과,
취득한 상기 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
상기 검출의 결과의 상기 물체가 상기 검색의 결과의 상기 상품 정보에 포함되는지를 조합하는 스텝과,
상기 스텝 [e]에서 검색된 상품 정보의 상품이 표시되어 있는 당해 장면 화상 데이터의 범위에 링크 요소를 붙인 UI 처리된 장면 화상 데이터를 생성하는 스텝을 포함하고,
상기 음성 워터마크는 음성 인코드 처리된 식별 정보인, 전송 방법.
An EC integrated metamedia transmission method including an EC UI function that allows users who become viewers of video content to trade the production resources of the video content as a commodity,
[a] a step of inserting an audio watermark into each scene of the video content;
[b] A step in which the video content is broadcast on a general-purpose viewing device;
[c] detecting, by the client device, that the user has selected the scene displayed in the video content;
[d] acquiring, from the client device, identification information of a scene at the time of the selection operation by detection of the selection operation;
[e] a step of searching for product information based on the acquired identification information;
[f] transmitting the product information to the client device;
[g] displaying the product information on the client device by the transmission;
a step of retrieving video data based on the identification information obtained in step [d] and obtaining scene image data corresponding to the identification information from the searched video data;
detecting an object included in the acquired scene image data;
a step of retrieving product information based on the acquired identification information;
combining whether the object of the detection result is included in the product information of the search result;
a step of generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the product of the product information searched in step [e] is displayed;
The voice watermark is voice-encoded identification information.
제12항에 있어서,
[h]상기 클라이언트 장치에 표시된 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리를 접수하는 스텝과,
[i]상기 EC 처리의 접수에 의하여 상기 상품 정보의 EC 처리 종별을 참조하는 스텝과,
[j]상기 참조에 의하여 상기 EC 처리 종별로 대응하는 EC 처리의 구성을 호출하는 스텝을 더 포함하는, 전송 방법.
13. The method of claim 12,
[h] receiving the EC processing by the user for the product of the product information displayed on the client device;
[i] A step of referring to the EC processing type of the product information upon receipt of the EC processing;
[j] The transmission method further comprising the step of invoking the configuration of the EC processing corresponding to the type of the EC processing according to the reference.
제13항에 있어서,
상기 스텝 [f]의 구성을 상기 클라이언트 장치에 상기 UI 처리된 장면 화상 데이터를 송신하는 구성으로 치환한 스텝과,
상기 스텝 [g]의 구성을 상기 클라이언트 장치에 상기 UI 처리된 장면 화상 데이터를 표시하는 구성으로 치환한 스텝과,
상기 스텝 [h]를 실행하기 전에 상기 클라이언트 장치에 표시된 상기 UI 처리된 장면 화상 데이터에 포함된 상기 링크 요소를 상기 유저가 선택한 것을 당해 클라이언트 장치로 검지하여 당해 검지한 당해 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,
상기 취득한 링크 요소에 기초하여 상품 정보를 검색하는 것과 함께, 당해 검색 결과의 상품 정보를 당해 클라이언트 장치에 송신하여 표시하는 스텝을 더 포함하는, 전송 방법.
14. The method of claim 13,
a step of replacing the configuration of the step [f] with a configuration of transmitting the UI-processed scene image data to the client device;
a step of replacing the configuration of the step [g] with a configuration of displaying the UI-processed scene image data on the client device;
Before executing the step [h], the client device detects that the user selected the link element included in the UI-processed scene image data displayed on the client device, and retrieves the detected link element from the client device steps to obtain,
The transmission method further comprising the step of retrieving product information based on the acquired link element, and transmitting product information of the search result to the client device for display.
KR1020200058861A 2020-05-18 2020-05-18 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media KR102387978B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200058861A KR102387978B1 (en) 2020-05-18 2020-05-18 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media
KR1020220045084A KR102476006B1 (en) 2020-05-18 2022-04-12 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200058861A KR102387978B1 (en) 2020-05-18 2020-05-18 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220045084A Division KR102476006B1 (en) 2020-05-18 2022-04-12 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media

Publications (2)

Publication Number Publication Date
KR20210142258A KR20210142258A (en) 2021-11-25
KR102387978B1 true KR102387978B1 (en) 2022-04-18

Family

ID=78745813

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200058861A KR102387978B1 (en) 2020-05-18 2020-05-18 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media
KR1020220045084A KR102476006B1 (en) 2020-05-18 2022-04-12 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220045084A KR102476006B1 (en) 2020-05-18 2022-04-12 Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media

Country Status (1)

Country Link
KR (2) KR102387978B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101519822B1 (en) 2013-11-28 2015-05-14 주식회사 씨케이앤비 Apparatus for transmitting contents, system and method for serving contents linkage data of using the same

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696905A (en) 1995-03-20 1997-12-09 International Business Machines Corporation System and method for providing merchant information and establishing links to merchants while presenting a movie
JP2002334092A (en) 2001-05-11 2002-11-22 Hitachi Ltd Method for relating information, information reading device, information register information retrieving device, charging method, and program
CN101115124B (en) 2006-07-26 2012-04-18 日电(中国)有限公司 Method and apparatus for identifying media program based on audio watermark
JP4883046B2 (en) 2008-03-31 2012-02-22 ヤマハ株式会社 Viewing confirmation system
KR20100125698A (en) * 2009-05-21 2010-12-01 (주)코리아센터닷컴 Shopping mall host server for providing electronic commerce using video contents and method thereof
US9955206B2 (en) 2009-11-13 2018-04-24 The Relay Group Company Video synchronized merchandising systems and methods
KR20130015436A (en) * 2011-08-03 2013-02-14 이서현 System for providing play of video file and service of video information
KR101801846B1 (en) * 2015-08-26 2017-11-27 옴니어스 주식회사 Product search method and system
WO2020194663A1 (en) * 2019-03-28 2020-10-01 オリンパス株式会社 Tracking device, pretained model, endoscope system, and tracking method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101519822B1 (en) 2013-11-28 2015-05-14 주식회사 씨케이앤비 Apparatus for transmitting contents, system and method for serving contents linkage data of using the same

Also Published As

Publication number Publication date
KR20210142258A (en) 2021-11-25
KR20220051149A (en) 2022-04-26
KR102476006B1 (en) 2022-12-09

Similar Documents

Publication Publication Date Title
US11915277B2 (en) System and methods for providing user generated video reviews
JP6803427B2 (en) Dynamic binding of content transaction items
US20240314387A1 (en) Interactive video distribution system and video player utilizing a client server architecture
US10796343B2 (en) Systems and methods for augmenting digital content
US8635169B2 (en) System and methods for providing user generated video reviews
US8615474B2 (en) System and methods for providing user generated video reviews
US20140150029A1 (en) System and methods for providing user generated video reviews
US20060136305A1 (en) Product and presentation placement system and method
CN105631700A (en) Content creation, deployment collaboration, and badges
CN101981576A (en) Associating information with media content using objects recognized therein
JP2013544383A (en) Content capture device and method for automatically tagging content
CN101772777A (en) Textual and visual interactive advertisements in videos
US11432046B1 (en) Interactive, personalized objects in content creator&#39;s media with e-commerce link associated therewith
US20100131346A1 (en) Method And System For Associating A Seller With Purchased Digital Content
US20220222739A1 (en) Method for creating ec-integrated metamedia, distribution system, and distribution method
KR102434837B1 (en) System and method for providing cultural contents value chain service using character doll and figure
US20230075182A1 (en) Systems and methods for managing content from creation to consumption
KR102387978B1 (en) Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media
KR20180041879A (en) Method for editing and apparatus thereof
US20170323348A1 (en) Method, apparatus, and computer-readable medium for content delivery
KR20070094356A (en) Video based goods information proffer transaction method
KR20190130775A (en) Contents oriented information providing method
Antwi Internet-based business models for management consultancy

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant