KR102387978B1 - Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media - Google Patents
Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media Download PDFInfo
- Publication number
- KR102387978B1 KR102387978B1 KR1020200058861A KR20200058861A KR102387978B1 KR 102387978 B1 KR102387978 B1 KR 102387978B1 KR 1020200058861 A KR1020200058861 A KR 1020200058861A KR 20200058861 A KR20200058861 A KR 20200058861A KR 102387978 B1 KR102387978 B1 KR 102387978B1
- Authority
- KR
- South Korea
- Prior art keywords
- scene
- product
- data
- information
- video
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2389—Multiplex stream processing, e.g. multiplex stream encrypting
- H04N21/23892—Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/47815—Electronic shopping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8358—Generation of protective data, e.g. certificates involving watermark
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
[과제] 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스도 EC와 직결하여 판매할 수 있는 EC 통합형 메타미디어의 제작 방법, 및 전송 시스템의 제어 방법을 제공한다.
[해결 수단] 본 발명은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠에 관련한 상품(물품이나 서비스)은, 물론, 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도, 당해 영상 컨텐츠의 시청 화면(시청 사이트)으로부터 직접 구입할 수 있는, 새로운 개념의 EC 모델에 관한 시스템의 제어 방법을 제공한다.[Task] Not only video content related products (goods or services), but also various resources invested in the production of video content can be sold in direct connection with the EC. to provide.
[Solution Means] The present invention relates to a technology for integrating EC into video content such as movies, dramas, animations, and music videos. , a system related to a new concept of EC model in which various resources (people, space, props, equipment, technology, etc.) invested in the production of the video content can also be purchased directly from the viewing screen (viewing site) of the video content control method is provided.
Description
본 발명은, 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가 당해 영상 컨텐츠의 표시물을 포함한 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC(Electronic Commerce)의 UI(User Interface) 기능이 포함된 EC 통합형 메타미디어의 제작 방법, 전송 시스템, 및 전송 방법에 관한 것이다.The present invention relates to a technology for integrating EC into video content, a UI (Electronic Commerce) that allows a viewer of video content to transact production resources of the video content, including the display of the video content, as a commodity. A method for producing, a transmission system, and a transmission method of EC integrated metamedia including a user interface) function.
덧붙여, 용어 「메타미디어」에 관하여는, 예를 들어, 「멀티미디어·인터넷 사전」(https://www.jiten.com/dicmi/docs/k34/23195.htm 2019년 9월 10일 검색)에는, 「음성이나 텍스트, 화상, 비디오 등의 기성 미디어를 통합하여, 사람이 활용할 수 있도록 한다고 하는 생각의 명칭」이라고 소개되어 있는 바, 본 발명에 있어서는, 「음성이나 텍스트, 화상, 비디오 등의 기성 미디어를 통합한 미디어」라고 해석한다.In addition, regarding the term "metamedia", for example, in the "Multimedia Internet Dictionary" (https://www.jiten.com/dicmi/docs/k34/23195.htm searched on September 10, 2019) . Media that integrates media”.
[제일의 배경 기술][The best background technology]
본 발명에 있어서의 제1의 배경 기술은, EC에 관한 새로운 모델(형태나 수법, 관련 기술)에 관한 것이다.The first background art in the present invention relates to a new model (form, method, and related technology) related to EC.
우선, 탤런트나 인플루언서가 라이브 동영상을 전송하고, 시청자가 리얼타임으로 질문이나 코멘트를 하면서 상품을 구입할 수 있는 「라이브 코머스」라고 하는 EC 모델이 보급하기 시작했다.First, an EC model called “Live Commerce”, in which talents and influencers transmit live videos, and viewers can purchase products while asking questions and comments in real time, has begun to spread.
이와 같은 「라이브 코머스」는, EC에 라이브 전송의 동영상을 곱한 것으로, 라이브 동영상을 보면서 상품을 구입할 수 있는 통신 판매 모델이지만, 이미지로서는 TV 쇼핑의 인터랙티브판이라고 말할 수 있고, 시청자는 리얼타임으로 출품자·판매자에 대하여 질문이나 코멘트를 하면서 쇼핑을 할 수 있다.Such "Live Commerce" is a mail order model in which EC is multiplied by the video of live delivery, and you can purchase goods while watching the live video, but as an image, it can be said that it is an interactive version of TV shopping, and viewers are exhibitors in real time. · You can shop while asking questions or comments about the seller.
또한, EC 사이트 내에 배치한 오리지날의 드라마를 인터넷 전송하고, 등장하는 상품을 구입할 수 있는 「드라마 코머스」라고 하는 EC 모델도 보급하기 시작하고 있다.In addition, an EC model called "Drama Commerce" is also starting to spread, in which original dramas placed on the EC site are transmitted over the Internet and products appearing can be purchased.
이와 같은 「드라마 코머스」는, 드라마에서 표시된 상품(예를 들어, 탤런트가 몸에 대거나 사용하거나 하는 상품)에 관하여, 종래의 상품 설명만의 EC 사이트에서는 전해지지 못됐던 소재감이나 실루엣 등을 시청자에 전하는 것이 가능하다며, EC 사이트의 약점을 극복할 수 있는 새로운 대처로서 주목받고 있다.In such "Drama Commerce", with regard to products displayed in dramas (for example, products worn by talents or used by talents), to viewers, textures and silhouettes, etc. that were not conveyed on the EC site only for product descriptions in the past It is said that it is possible to communicate, and it is attracting attention as a new measure that can overcome the weakness of the EC site.
상술한[제1의 배경 기술]에 관하여는, 특허 문헌 1이나 특허 문헌 2, 특허 문헌 3 등에서 자세하게 소개되어 있고, 우선, 특허 문헌 1에는, 영화가 표시되어 있는 동안에 당해 영화에 관련하는 상업 정보로의 On Demand·액세스를 유저에 제공하여 당해 상업 정보의 발신처인 판매업자와 유저와의 링크 확립을 가능하게 하기 위한 시스템과 방법에 대하여 개시되어 있고, 또한, 특허 문헌 2에는, 화면 상에 표시된 영상에 관련하는 정보를 입수 가능하게 하는 각종 정보 장치나 과금 방법, 프로그램에 대하여 개시되어 있고, 나아가, 특허 문헌 3에는, 비디오 프로그램의 시청자가 비디오 프로그램에 표시되는 제품에 관한 정보에 액세스할 수 있는 인터랙티브인 시청 경험을 제공하기 위한 시스템과 방법이 개시되어 있다.The above-mentioned [first background art] is introduced in detail in
[제2의 배경 기술][Second Background Art]
본 발명에 있어서의 제2의 배경 기술은, 「화상 인식 AI」에 관한 기술이며, AI(Artificial Intelligence:인공지능)를 활용한 기계 학습(Machine Learning)이나 심층 학습(Deep Learning)에 의한 화상 인식(Image Recognition)을 이용한 EC 분야로의 활용 기술에 관한 것이다.The second background technology in the present invention is a technology related to "image recognition AI", and image recognition by machine learning or deep learning utilizing AI (Artificial Intelligence) (Image Recognition) It is about the application technology to the EC field.
이용자가 스마트폰 등으로 촬영한 상품 화상을 EC 사이트의 검색 기능 등에 업 로드하면 화상 인식에 의하여 카테고리 식별이나 피사체 인식, 특징 검출 등이 행하여지고, 당해 화상 인식에 의한 정보에 기초하여 EC 사이트 중의 상품 화상으로부터 동일 상품이나 유사 상품을 추출하여 추천 상품으로서 표시하는 구조나, EC 사이트 전용의 동영상이나 화상 컨텐츠를 화상 인식 기능에 의하여 간단하게 제작할 수 있는 동영상 편집 시스템 등이 보급되어 있다.When a user uploads a product image taken with a smartphone, etc. to the search function of the EC site, category identification, subject recognition, feature detection, etc. are performed by image recognition, and the product in the EC site is based on the image recognition information. A structure in which the same product or similar product is extracted from an image and displayed as a recommended product, and a moving picture editing system that can easily create a moving picture or image content for an EC site by means of an image recognition function, etc. are widespread.
이와 같은 구조나 시스템에는 물체 검출에 관한 기술이 필요하는 바, 근년, 심층 학습을 이용한 물체 검출용의 「화상 인식 AI」에 의하여, 화상 중에 비치는 복수의 물체의 종류의 식별(강아지, 고양이, 자동차 등) 데이터는 물론, 동화상에 있어서의 동 물체의 위치 데이터 등의 정보가, 고속이고 또한 고정밀도로 취득할 수 있게 되었다.As such a structure or system requires a technology related to object detection, in recent years, "image recognition AI" for object detection using deep learning identifies the types of a plurality of objects reflected in an image (dogs, cats, automobiles). etc.) data, as well as information such as position data of a moving object in a moving image, can be acquired at high speed and with high precision.
상술한 [제2의 배경 기술]에 관하여는, 비특허 문헌 1이나 비특허 문헌 2에 있어서 상세하게 설명되어 있고, 최근에는, 이와 같은 「화상 인식 AI」에 관한 고도의 기술을 클라우드 서비스에 의하여 제공하는 기업도 출현하기 시작하고 있다.The above-mentioned [Second Background Art] is described in detail in
예를 들어, 비특허 문헌 3에서는, API(Application Program Interface)를 사용하여, 화상이나 동영상의 분석 기능을 애플리케이션에 추가할 수 있는 서비스가 소개되어 있고, 이와 같은 서비스를 사용하면, 화상이나 동영상에 표시된 복수의 물체를 식별하여 당해 물체에 관한 데이터를 취득할 수 있고, 당해 물체에 관한 데이터에 대한 주석(태그 붙이기)을 용이하게 행할 수 있다.For example, in Non-Patent
[제3 배경 기술][Third background art]
본 발명에 있어서의 제3 배경 기술은, 「음성(음향) 워터마크」(Audio Watermark)에 관한 기술이며, 음성 신호에 암호화를 실시한 문자 정보 등을 저장하는 기술에 관한 것이다.The third background technique in the present invention relates to a technique for "Audio Watermark", and relates to a technique for storing text information and the like obtained by encrypting an audio signal.
「음성(음향) 워터마크」에 관한 기술을 이용하는 것에 의하여, 텔레비젼이나 라디오, 광고 사이니지(signage), 컨텐츠로부터 발하는 소리에 문자 정보를 삽입하고, 이것을 스마트폰의 마이크를 통하여 취득하여 당해 문자 정보에 기초하는 액션을 리얼타임으로 연동시키는 것 같은 애플리케이션을 구축하는 것이 가능하게 된다.By using the technology related to "audio (sound) watermark", text information is inserted into the sound emitted from TV, radio, advertisement signage, and content, and this text information is acquired through the microphone of the smartphone. It becomes possible to build applications that link actions based on .
상술한 [제3 배경 기술]에 관하여는, 특허 문헌 4나 특허 문헌 5에 있어서 자세하게 설명되어 있고, 최근에는, 이와 같은 「음성(음향) 워터마크」에 관한 기술을 SDK(Software Development Kit)에 의하여 제공하는 기업도 출현하기 시작하고 있다.The above-mentioned [Third Background Art] is described in detail in
예를 들어, 비특허 문헌 4에서는, SDK를 사용하여 「음성(음향) 워터마크」기술을 여러 가지 애플리케이션에 짜넣을 수 있는 서비스가 소개되어 있고, 이와 같은 서비스를 사용하면, 텔레비젼 방송 프로그램이나 텔레비젼 커머셜의 내용과 연동한 컨텐츠의 핸들링(세컨드 스크린 및 더블 스크린 시책, T2O2O<TV to Online to Offline>)을 용이하게 실시할 수 있다.For example, in Non-Patent
[제4 배경 기술][4th background technology]
본 발명에 있어서의 제4 배경 기술은, 「DAM」(Digital Asset Management)에 관한 기술이며, 텍스트, 동영상, 사진, 카탈로그 데이터 등의 디지털 컨텐츠를, 플랫폼 등을 이용하고, 일원적으로 관리하기 위한 기술에 관한 것이다.The fourth background technology in the present invention is a technology related to "DAM" (Digital Asset Management), and is a technology for centrally managing digital contents such as text, video, photo, and catalog data using a platform or the like. is about
DAM에 관한 기술을 이용한 시스템은, (1) 여러 가지 디지털 데이터를 집약하여 메타테이터를 부여하고 필요한 정보로의 액세스를 편리화, (2) 전송하는 미디어(Web 사이트, EC 사이트, 카탈로그, SNS 등)에 맞춘 데이터 포맷 변환이나 데이터 사이즈 변경, (3) 저작권이 있는 데이터에 사용 허락 데이터를 관련지은 사용 기한의 관리, (4) 디지털 컨텐츠에 관한 창작적인 제작을 워크플로화한 제작 공정의 원활화, 등을 실현하기 위한 기능을 제공한다.The system using the technology related to DAM is (1) aggregating various digital data, giving meta data, and facilitating access to necessary information, (2) transmitting media (Web site, EC site, catalog, SNS, etc.) ), data format conversion or data size change, (3) management of expiration dates related to copyrighted data, and (4) facilitation of the production process for creative production of digital content as a workflow; It provides functions to realize etc.
영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠는, 자금은 물론, 여러가지 리소스(출자자, 감독, 원작자, 극작가, 캐스팅 디렉터, 배우, 성우, 음악 제작자, 연주자, 통역·번역자, 촬영 스탭, 편집 스탭, 조명 스탭, 장식 디자이너, 의상 디자이너, 스타일리스트, 헤어 디자이너, 메이크업 아티스트, 난투 장면 스탭, 스턴트, 엑스트라 등의 사람 또는 법인, 또한, 장면을 촬영하는 로케이션 현장이나 스튜디오 등의 공간, 더욱, 동물이나 차량, 의상, 장식품, 인테리어 등의 소도구, 또한 더욱, 카메라나 조명, CG, 녹음, 편집 등에 이용되는 기재·기술 등)에 의하여 제작되는 곳, 예를 들어, 영상 컨텐츠의 제작에 관하여, DAM에 관한 기술을 이용하여 이들 리소스에 관한 정보를 집약하여 메타테이터를 부여하면, 필요한 정보로의 액세스나, 데이터 포맷의 변환, 데이터 사이즈의 변경이 용이하게 되고, EC 모델에 응한 UI기능을 자동 구축하는 일도 가능하게 된다.Video contents such as movies, dramas, animations, and music videos are not only financed, but also various resources (investor, director, original author, playwright, casting director, actor, voice actor, music producer, performer, interpreter/translator, shooting staff, editing staff) Persons or corporations such as lighting staff, decoration designers, costume designers, stylists, hair designers, makeup artists, brawl scene staff, stunts, extras, etc. Also, locations such as locations or studios where scenes are shot, moreover, animals or Small tools such as vehicles, clothes, ornaments, interiors, and more, cameras, lighting, CG, equipment and technology used for recording, editing, etc.) When information on these resources is aggregated and provided with metadata using related technologies, access to necessary information, conversion of data format, and change of data size are facilitated, and UI functions conforming to the EC model are automatically built. work becomes possible.
상술한 [제4 배경 기술]에 관하여는, 인터넷에 대있어서 많이 소개되어 있고, 예를 들어, 비특허 문헌 5에서는, 브라우저 베이스 파일 관리나 동영상 관리, 동영상 장면 관리·검색, 저작권 정보 관리, 다운로드 제어, 사용 신청 워크플로 등에 관한 기능이 설명되어 있다.Regarding the above-mentioned [Fourth Background Art], there are many introductions on the Internet, for example, in Non-Patent
덧붙여, 이상으로 내건 모든 선행 기술 문헌의 내용에 관하여는, 참조에 의하여 본 명세서에 포함된다.In addition, the contents of all prior art documents raised above are incorporated herein by reference.
상술의 [제1의 배경 기술]에 기재한 「라이브 코머스」나 「드라마 코머스」는, 영상 컨텐츠와 연동시키는 EC이며, 주로 상품(물품이나 서비스)을 판매하는 목적으로 제작·전송되기 때문에, 그 시청자 타겟은 당해 상품의 구입 희망자에게 포커스 되지만, 본래의 영상 컨텐츠(영화나 드라마, 애니메이션, 음악 비디오 등)는, 그 스토리성이나 엔터테인먼트성, 예술성 등을 수반하여 제작·배급되기 때문에, 그 시청자 타겟은 당해 영상 컨텐츠의 테마에 의하여 대중 각층의 일반 시청자에게 포커스 되는 것은, 물론, 이와 같은 영상 컨텐츠의 제작에는 전술한 여러 가지 리소스가 투입되어 있기 때문에, 예를 들어, 이들 리소스의 조사나 거래가 당해 영상 컨텐츠의 시청을 개입시켜 용이하게 실시할 수 있다면, 광고나 마케팅, 영상 컨텐츠 제작 등에 관련되는 업계 관계자도 시청자 타겟으로서 포커스 할 수 있는 바,[제1의 배경 기술]이나 [제2의 배경 기술]에서 내건 선행 기술 문헌에는, 이와 같은 리소스의 조사나 거래에 관한 구체적인 방법이나 기술은 개시되어 있지 않다.“Live Commerce” and “Drama Commerce” described in the above [First Background Art] are ECs linked with video content, and are mainly produced and transmitted for the purpose of selling goods (goods or services), so the The audience target is focused on those who wish to purchase the product, but the original video content (movies, dramas, animations, music videos, etc.) is produced and distributed along with its story, entertainment, and artistry, so that audience target is focused on general viewers of all levels of the public by the theme of the video content, of course, since the above-mentioned various resources are put into the production of such video content, for example, research and trading of these resources If it can be carried out easily through content viewing, industry officials involved in advertising, marketing, video content production, etc. can also focus as a target audience. In the prior art literature presented by , there is no specific method or technique regarding the research or transaction of such a resource.
또한, 상술의 [제1의 배경 기술]에 기재한 「드라마 코머스」에 의한 EC 모델은, 이른바 프로덕트 프레이스먼트(광고 방법의 하나이며, 영화나 텔레비젼 드라마의 극중에 있어서, 배우의 소도구나 배경으로 실재하는 기업명이나 상품명, 상표 등을 표시시키는 수법)와 EC 사이트를 조합한 수법에 관한 것으로, 예를 들어, TV 쇼핑 형태로 드라마의 한 장면을 내걸면서 「이 장면에서 배우의 0000씨가 입고 있던 00000」라고 상품을 소개하면서 판매하는 모델이나, 드라마의 장면에 관련지을 수 있었던 링크로부터 구입에 유도하는 모델 등이 있지만, 어느 쪽도, 시청자가 드라마에 있어서의 여러 가지 장면으로부터 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)을 직감적으로 의식한다고 하는 유동성로의 대응 방법에 관하여 과제가 있는 바,[제1의 배경 기술]이나 [제2의 배경 기술], [제3 배경 기술], [제4 배경 기술]에서 내건 선행 기술 문헌에는, 이와 같은 과제를 해결하기 위한 구체적인 기술, 예를 들어, 「화상 인식 AI」나 「음성(음향) 워터마크」, 「DAM」 등에 관한 기술을 활용한 UI의 구성에 대하여는, 개시되어 있지 않다.In addition, the EC model by "drama commerce" described in the above-mentioned [1st background technology] is a so-called product placement (one of the advertising methods, in the play of a movie or TV drama, in the play of a movie or a TV drama, an actor's small tool or a background It is about a method that combines an EC site with a method of displaying an actual company name, product name, trademark, etc.) and, for example, while displaying a scene from a drama in the form of TV shopping, "In this scene, There are models that sell while introducing products with "00000", models that induce purchases from links associated with the scenes of the drama, etc., but, in either case, viewers can see things (goods and services) from various scenes in the drama. , people, space, props, equipment, technology, etc.), there is a problem with the response method to fluidity, which is intuitively conscious, [1st background technology], [2nd background technology], [3rd background Techniques] and [4th Background Art], in the prior art literature, specific techniques for solving such problems, for example, "image recognition AI", "audio (sound) watermark", "DAM", etc. The configuration of the UI utilizing the technology is not disclosed.
본 발명은, 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(영상 컨텐츠의 표시물을 포함한다)을 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 제작 방법, 전송 시스템, 및 전송 방법의 제공을 목적으로 한다.The present invention relates to a technology for integrating EC into video content, EC enabling viewers of video content to trade various resources (including displays of video content) invested in the production of the video content as a commodity The purpose of this is to provide a production method, a transmission system, and a transmission method of EC-integrated meta-media including UI functions.
[EC 통합형 메타미디어의 제작 방법][Production Method of EC Integrated Metamedia]
본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 제작 방법은,A method for producing EC integrated metamedia according to a non-limiting and exemplary kind of the present invention,
[a] 상품 데이터를 관리하기 위한 데이터베이스(상품 데이터 관리 DB)에 상품의 정보를 등록하는 스텝과,[a] A step of registering product information in a database for managing product data (product data management DB);
[b] 상기 상품의 EC 처리에 관한 정보를 관리하는 테이블(EC 상품 테이블)을 생성하는 스텝과,[b] creating a table (EC product table) for managing information on EC processing of the product;
[c] 영상 컨텐츠의 편집 정보를 공유하기 위한 파일(편집 정보 공유 파일)을 생성하는 스텝과,[c] A step of creating a file (editing information sharing file) for sharing the editing information of the video content;
[d] 상기 편집 정보 공유 파일의 장면에 관한 정보로부터 장면 정보를 관리하기 위한 파일(장면 관리 파일)을 생성하여 상기 상품 데이터 관리 DB의 상품 ID를 추가하는 스텝과,[d] creating a file (scene management file) for managing scene information from scene information in the edited information shared file and adding a product ID of the product data management DB;
[e] 장면 데이터를 관리하기 위한 데이터베이스(장면 데이터 관리 DB)에 상기 장면 관리 파일의 장면 데이터를 등록하는 스텝과,[e] registering the scene data of the scene management file in a database (scene data management DB) for managing the scene data;
[f] 비디오 데이터를 관리하기 위한 데이터베이스(비디오 데이터 관리 DB)에 상기 영상 컨텐츠의 공개용 비디오 데이터를 등록하는 스텝과,[f] registering the video data for public use of the video content in a database (video data management DB) for managing the video data;
[g] 상기 공개용 비디오 데이터의 장면과 상기 장면 데이터 관리 DB의 장면 데이터와 상기 상품 데이터 관리 DB의 상품 데이터로부터 물체 검출용의 학습된 데이터를 생성하는 스텝을 포함하는 것을 특징으로 한다.[g] It characterized by including the step of generating the learned data for object detection from the scene of the said video data for publication, the scene data of the said scene data management DB, and the product data of the said product data management DB.
또한, 상기 스텝[e]가, 상기 영상 컨텐츠의 각 장면에 음성 워터마크(음성 인코드(인코드)한 식별 정보)를 삽입하는 스텝을 포함하는 것을 특징으로 한다.Further, it is characterized in that the step [e] includes a step of inserting an audio watermark (audio encoded (encoded) identification information) into each scene of the video content.
[EC 통합형 메타미디어의 전송 시스템][EC Integrated Metamedia Transmission System]
본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 전송 시스템은,An EC integrated metamedia transmission system according to a non-limiting and exemplary kind of the present invention,
영상 컨텐츠의 시청자(유저)가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 전송 시스템이고, 유저(시청자)의 클라이언트 장치에 영상 컨텐츠를 표시하는 영상 컨텐츠 표시 수단과,It is an EC integrated metamedia delivery system that includes an EC UI function that allows viewers (users) of video content to trade the production resources of the video content as a commodity, and displays video content on the user's (viewer) client device. video content display means;
상기 영상 컨텐츠에 표시된 장면에 대한 상기 유저(시청자)에 의한 선택 조작을 상기 클라이언트 장치로 검지하는 장면 선택 조작 검지 수단과,scene selection operation detecting means for detecting, with the client device, a selection operation by the user (viewer) for the scene displayed in the video content;
상기 검지한 선택 조작의 시점에 있어서의 상기 장면의 식별 정보와 장면 화상 데이터를 상기 클라이언트 장치로부터 취득하는 장면 관련 데이터 취득 수단과,scene-related data acquisition means for acquiring, from the client device, identification information and scene image data of the scene at the time of the detected selection operation;
상기 취득한 장면 화상 데이터에 포함되는 물체를 검출하는 물체 검출 수단과,object detection means for detecting an object included in the acquired scene image data;
상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 상품 검색 수단과,product retrieval means for retrieving product information based on the acquired identification information;
상기 물체 검출 결과의 물체가 상기 상품 검색 결과의 상품 정보에 포함되는지를 조합하는 물체 조합 수단과,object combining means for combining whether the object of the object detection result is included in the product information of the product search result;
상기 물체 조합 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 장면 화상 데이터를 생성하는 UI처리된 장면 화상 데이터 생성 수단과,UI-processed scene image data generating means for generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the object of the object combination result is displayed;
상기 생성한 UI처리된 장면 화상 데이터에 대한 상기 유저(시청자)에 의한 호출 조작을 상기 클라이언트 장치로 검지하는 UI처리된 장면 화상 데이터 호출 조작 검지 수단과,UI-processed scene image data call operation detecting means for detecting, with the client device, a call operation by the user (viewer) on the generated UI-processed scene image data;
상기 검지에 의하여 상기 UI처리된 장면 화상 데이터가 상기 클라이언트 장치에 송신되어 표시되는 당해 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소에 대한 상기 유저(시청자)에 의한 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 링크 요소를 당해 클라이언트 장치로부터 취득하는 선택 링크 요소 취득 수단과,By the detection, the UI-processed scene image data is transmitted to the client device, and a selection operation by the user (viewer) for the link element included in the UI-processed scene image data displayed is detected by the client device selection link element acquisition means for acquiring, from the client device, a link element of the detected selection operation together with
상기 취득한 상기 링크 요소에 대응하는 상품 정보를 검색하는 링크 요소 대응 상품 정보 검색 수단과,link element-corresponding product information retrieval means for retrieving the acquired product information corresponding to the link element;
상기 검색한 상품 정보가 상기 클라이언트 장치에 송신되어 표시되는 당해 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리 종별의 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 EC 처리 종별을 당해 클라이언트 장치로부터 취득하는 EC 처리 종별 취득 수단과,The retrieved product information is transmitted to the client device, and an EC processing type selection operation by the user for the product of the displayed product information is detected by the client device, and the EC processing type of the detected selection operation is detected. EC processing type acquisition means acquired from the client device;
상기 취득한 EC 처리 종별에 기초하여 상기 상품에 대한 EC 처리를 호출하는 EC 처리 호출 수단을 구비하는 것을 특징으로 한다.EC processing calling means for calling EC processing for the product based on the acquired EC processing type is provided.
또한, 상기 EC 처리 호출 수단에 의하여 호출되는 EC 처리가 스마트 컨트랙트(contract)에 기초하는 거래 처리 수단을 구비하는 것을 특징으로 한다.In addition, it is characterized in that the EC processing called by the EC processing calling means is provided with a transaction processing means based on a smart contract (contract).
[EC 통합형 메타미디어의 제1 전송 방법][First method of transmission of EC-integrated metamedia]
본 발명의 비한정적이고 예시적인 한 종류에 관련되는 EC 통합형 메타미디어의 제1 전송 방법은,A first method of transmitting EC integrated metamedia according to a non-limiting and exemplary type of the present invention,
영상 컨텐츠의 유저(시청자)가 당해 영상 컨텐츠의 제작 리소스를 상품으로서 거래할 수 있는 EC의 UI기능이 포함된 EC 통합형 메타미디어의 전송 방법이고,An EC integrated metamedia transmission method including an EC UI function that enables a user (viewer) of video content to trade the production resource of the video content as a commodity,
[a] 유저의 클라이언트 장치에 영상 컨텐츠를 표시하는 스텝과,[a] a step of displaying the video content on the user's client device;
[b] 상기 영상 컨텐츠에 표시된 장면에 대한 상기 유저에 의한 선택 조작을 상기 클라이언트 장치로 검지하는 스텝과,[b] detecting, by the client device, a selection operation by the user for a scene displayed in the video content;
[c] 상기 검지한 선택 조작의 시점에 있어서의 상기 장면의 식별 정보와 장면 화상 데이터를 상기 클라이언트 장치로부터 취득하는 스텝과,[c] acquiring, from the client device, identification information and scene image data of the scene at the time of the detected selection operation;
[d] 상기 취득한 장면 화상 데이터에 포함되는 물체를 검출하는 스텝,[d] a step of detecting an object included in the acquired scene image data;
[e] 상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝,[e] a step of searching for product information based on the acquired identification information;
[f] 상기 검출 결과의 물체가 상기 검색 결과의 상품 정보에 포함되는지를 조합하는 스텝과,[f] combining whether the object of the detection result is included in the product information of the search result;
[g] 상기 조합 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 장면 화상 데이터를 생성하는 스텝과,[g] generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the object of the combination result is displayed;
[h] 상기 생성한 UI처리된 장면 화상 데이터에 대한 상기 유저에 의한 호출 조작을 상기 클라이언트 장치로 검지하는 스텝과,[h] detecting, by the client device, a call operation by the user for the generated UI-processed scene image data;
[i] 상기 검지에 의하여 상기 UI처리된 장면 화상 데이터가 상기 클라이언트 장치에 송신되어 표시되는 당해 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소에 대한 상기 유저에 의한 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,[i] By the detection, the UI-processed scene image data is transmitted to the client device, and a selection operation by the user for the link element included in the UI-processed scene image data displayed is detected by the client device and acquiring, from the client device, a link element of the detected selection operation;
[j] 상기 취득한 상기 링크 요소에 대응하는 상품 정보를 검색하는 스텝과,[j] a step of retrieving product information corresponding to the acquired link element;
[k] 상기 검색한 상품 정보가 상기 클라이언트 장치에 송신되어 표시되는 당해 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리 종별의 선택 조작을 당해 클라이언트 장치로 검지하는 것과 함께 당해 검지한 선택 조작의 EC 처리 종별을 당해 클라이언트 장치로부터 취득하는 스텝과,[k] When the searched product information is transmitted to the client device and displayed, an EC processing type selection operation by the user for the product of the displayed product information is detected by the client device, and the EC of the detected selection operation is detected acquiring the processing type from the client device;
[l] 상기 취득한 EC 처리 종별에 기초하여 상기 상품에 대한 EC 처리를 호출하는 스텝을 포함하는 것을 특징으로 한다.[1] It is characterized by including the step of calling the EC process with respect to the said product based on the said acquired EC process type.
또한, 상기 스텝 [g]가, 상기 클라이언트 장치에 표시된 UI처리된 화상 데이터를 보존하는 스텝을 포함하는 것을 특징으로 한다.Further, it is characterized in that the step [g] includes a step of saving the UI-processed image data displayed on the client device.
또한, 상기 스텝 [a]의 영상 컨텐츠가 상기 클라이언트 장치에 표시되어 있는 동안에 상기 스텝 [b], [c], [d], [e], [f]가 여러 차례 실시될 때, 상기 스텝 [g]에 있어서 생성되는 UI처리된 장면 화상 데이터를 당해 실시할 때마다 보존하는 스텝을 포함하는 것을 특징으로 한다.In addition, when the above steps [b], [c], [d], [e], and [f] are performed multiple times while the video content of the above step [a] is being displayed on the client device, the step [ g], and saving the UI-processed scene image data generated in the process each time it is executed.
상기 스텝 [i]에 있어서 상기 클라이언트 장치에 송신되는 UI처리된 화상 데이터가 상기 보존된 모든 UI처리된 화상 데이터이고, 당해 UI처리된 장면 화상 데이터가 복수일 때, 상기 클라이언트 장치에 표시되는 당해 복수의 UI처리된 화상 데이터가 섬네일(thumbnail) 형식으로 표시되는 것을 특징으로 한다.When the UI-processed image data transmitted to the client device in the step [i] is all the saved UI-processed image data, and there are a plurality of UI-processed scene image data, the plurality of images displayed on the client device It is characterized in that the UI-processed image data is displayed in a thumbnail format.
상기 스텝 [l]의 EC 처리 종별에 기초하여 호출되는 상기 상품에 대한 EC 처리에는, 상기 유저와 당해 상품의 공급원과의 스마트 컨트랙트가 포함되는 것을 특징으로 한다.It is characterized in that the EC processing for the product called based on the EC processing type in the step [l] includes a smart contract between the user and a supply source of the product.
[EC 통합형 메타미디어의 제2 전송 방법][Second transmission method of EC integrated metamedia]
본 발명의 비한정적이고 예시적인 일 태양(態樣)에 관련되는 EC 통합형 메타미디어의 제2 전송 방법은,A second transmission method of EC integrated metamedia according to a non-limiting and exemplary aspect of the present invention,
[a] 영상 컨텐츠의 각 장면에 음성 워터마크(음성 인코드한 식별 정보)를 삽입하는 스텝과,[a] a step of inserting an audio watermark (audio encoded identification information) into each scene of the video content;
[b] 상기 영상 컨텐츠가 범용의 시청 기기로 방영되는 스텝과,[b] a step of broadcasting the video content on a general-purpose viewing device;
[c] 상기 영상 컨텐츠에 표시된 장면을 상기 유저(시청자)가 선택한 것을 상기 클라이언트 장치로 검지하는 스텝과,[c] detecting, by the client device, that the user (viewer) selects a scene displayed in the video content;
[d] 상기 선택 조작의 검지에 의하여 당해 선택 조작 시점에 있어서의 장면의 식별 정보를 상기 클라이언트 장치로부터 취득하는 스텝과,[d] acquiring, from the client device, identification information of a scene at the time of the selection operation by detection of the selection operation;
[e] 상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,[e] a step of retrieving product information based on the acquired identification information;
[f] 상기 상품 정보를 상기 클라이언트 장치에 송신하는 스텝과,[f] transmitting the product information to the client device;
[g] 상기 송신에 의하여 상기 클라이언트 장치에 상기 상품 정보가 표시되는 스텝과,[g] displaying the product information on the client device by the transmission;
[h] 상기 클라이언트 장치에 표시된 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리를 접수하는 스텝과,[h] accepting the EC processing by the user for the product of the product information displayed on the client device;
[i] 상기 EC 처리의 접수에 의하여 상기 상품 정보의 EC 처리 종별을 참조하는 스텝과,[i] A step of referring to the EC processing type of the product information upon receipt of the EC processing;
[j]상기 참조에 의하여 상기 EC 처리 종별로 대응하는 EC 처리의 구성을 호출하는 스텝을 포함하는 것을 특징으로 한다.[j] It is characterized by including the step of calling the structure of the EC process corresponding to the said EC process type by the said reference.
또한, 상기 스텝 [d]에서 취득된 식별 정보에 기초하여 비디오 데이터를 검색하여 당해 검색한 비디오 데이터로부터 당해 식별 정보에 대응하는 장면 화상 데이터를 취득하는 스텝과, a step of retrieving video data based on the identification information obtained in step [d] and obtaining scene image data corresponding to the identification information from the searched video data;
상기 스텝 [e]에서 검색된 상품 정보의 상품이 표시되어 있는 당해 장면 화상 데이터의 범위에 링크 요소를 붙인 UI처리된 징면 화상 데이터를 생성하는 스텝과,A step of generating UI-processed display image data in which a link element is attached to the range of the scene image data in which the product of the product information searched in step [e] is displayed;
상기 스텝 [f]의 구성을 상기 클라이언트 장치에 상기 UI처리된 장면 화상 데이터를 송신하는 구성으로 치환한 스텝과,a step of replacing the configuration of the step [f] with a configuration of transmitting the UI-processed scene image data to the client device;
상기 스텝 [g]의 구성을 상기 클라이언트 장치에 상기 UI처리된 장면 화상 데이터를 표시하는 구성으로 치환한 스텝과,a step of replacing the configuration of the step [g] with a configuration of displaying the UI-processed scene image data on the client device;
상기 스텝 [h]를 실행하기 전에 상기 클라이언트 장치에 표시된 상기 UI처리된 장면 화상 데이터에 포함된 상기 링크 요소를 상기 유저가 선택한 것을 당해 클라이언트 장치로 검지하여 당해 검지한 당해 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,Before executing the step [h], the client device detects that the user selected the link element included in the UI-processed scene image data displayed on the client device, and retrieves the detected link element from the client device steps to obtain,
상기 취득한 링크 요소에 기초하여 상품 정보를 검색하는 것과 함께, 당해 검색 결과의 상품 정보를 당해 클라이언트 장치에 송신하여 표시하는 스텝을 포함하는 것을 특징으로 한다.and retrieving product information based on the acquired link element, and transmitting product information of the search result to the client device for display.
본 발명에 의하면, 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 자금이나 사람(법인을 포함한다), 공간, 소도구, 기재·기술 등, 영상 컨텐츠의 제작에 관한 리소스(자원)도 EC와 직결하여 판매할 수 있고, 영상 컨텐츠의 제작에 관한 리소스의 조달이 용이하게 될 뿐만 아니라, 영상 컨텐츠에 직결된 EC 매출을 이들 조달처에 배분할 수 있기 때문에, 특히 드라마 제작에 있어서, 스폰서나 방송국이 주도하는 권한 스킴이 해방되고, 제작 지휘자(예를 들어, 감독이나 연출가 등)의 의향이 유연하게 반영된 작품 제작이 가능하게 된다.According to the present invention, not only products (goods or services) related to video content, but also funds or people (including corporations) invested in the production of video content, space, props, equipment and technology, etc. are related to the production of video content. Resources (resources) can also be sold in direct connection with the EC, making it easier to procure resources related to video content production, as well as distributing EC sales directly related to video content to these procurement sources, especially for drama production. In this case, the authority scheme led by the sponsor or broadcasting station is liberated, and it becomes possible to produce a work that flexibly reflects the intention of the production director (eg, director or director, etc.).
[도 1] 실시예 1에 관한 개요도를 도시한다. (대표도)
[도 2] 장면 관리 데이터 작성 과정에 관한 흐름도를 도시한다.
[도 3] 물체 검출 모델 작성 과정에 관한 흐름도를 도시한다.
[도 4] EC 통합형 메타미디어 전송 과정에 관한 흐름도를 도시한다.
[도 5] EC 통합형 메타미디어 전송 과정에 관한 개요도를 도시한다.
[도 6] 상품에 관한 EC 처리 과정에 관한 흐름도를 도시한다.
[도 7] 음성(음향) 워터마크 제어 과정에 관한 흐름도를 도시한다.
[도 8] 편집 정보 공유 파일의 포맷 예를 도시한다.
[도 9] 화상 인식에 관한 기계 학습 모델의 코드예를 도시한다.
[도 10] 물체 검출에 관한 기계 학습 모델의 코드예를 도시한다.
[도 11] 주요 데이터베이스의 구성예를 도시한다.[FIG. 1] A schematic diagram according to Example 1 is shown. (representative)
[Fig. 2] Fig. 2 shows a flowchart related to the scene management data creation process.
[Fig. 3] A flowchart of the object detection model creation process is shown.
[FIG. 4] shows a flowchart of the EC integrated metamedia transmission process.
[FIG. 5] shows a schematic diagram of the EC integrated metamedia transmission process.
[Fig. 6] Fig. 6 shows a flowchart of an EC processing process for a product.
[Fig. 7] Fig. 7 shows a flow chart related to an audio (sound) watermark control process.
[Fig. 8] An example of the format of the edit information shared file is shown.
[Fig. 9] A code example of a machine learning model related to image recognition is shown.
[Fig. 10] A code example of a machine learning model related to object detection is shown.
[Fig. 11] Fig. 11 shows a configuration example of a main database.
[발명의 개요][Summary of the invention]
본 발명은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 EC를 통합하기 위한 기술에 관하여, 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠에 관련한 상품(물품이나 서비스)은, 물론, 당해 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도, 당해 영상 컨텐츠의 시청 화면(시청 사이트)으로부터 직접 구입할 수 있는, 새로운 개념의 EC 모델에 관한 시스템의 제어 방법을 제공한다.The present invention relates to a technology for integrating EC into video content such as movies, dramas, animations, and music videos. Various resources (person, space, props, equipment, technology, etc.) invested in the production of to provide.
본 발명은, 상기의 목적을 달성하기 위하여, 「화상 인식 AI」와 「음성(음향) 워터마크」, 「DAM」 등에 관한 기술을 활용하고, 영상 컨텐츠에 EC를 통합하기 위한 UI를 자동 생성하는 구성에 관하여 개시한다.In order to achieve the above object, the present invention utilizes technologies related to "image recognition AI", "voice (sound) watermark", "DAM", etc., and automatically generates a UI for integrating EC into video content. configuration is disclosed.
구체적으로는, 상술한 [제1의 배경 기술]과 [제2의 배경 기술]과 [제4의 배경 기술]의 기술을 조합하면, 우선, DAM 기술을 이용하는 것으로, 드라마 제작과 관련되는 여러 가지 리소스에 관한 정보를 집약하여 메타테이터를 부여할 수 있고, 필요한 정보로의 액세스가 용이하게 되고, 데이터 포맷의 변환이나 데이터 사이즈를 변경하는 등 하여, 판매 대상에 최적의 UI로 구성한 EC 사이트를 자동 구축할 수 있고, 예를 들어, 유저(일반 시청자=소비자)가 영상 컨텐츠(예를 들어, 드라마)로 직감적으로 흥미를 가진 대상(예를 들어, 배우나 모델 등의 「사람」, 예를 들어, 로케이션을 실시한 관광지나 식당 등의 「공간」, 예를 들어, 의상이나 액세서리 등의 「소도구」 등)이 출현한 장면을 당해 UI에 의하여 보존해 놓고, 나중에 당해 UI를 사용하여 당해 보존한 장면을 호출하면, 화상 인식 AI에 의하여 당해 장면 내에 존재하는 상기 리소스(대상을 포함한다)이 인식되어 테두리가 만들어지고, 유저는, 흥미를 가진 대상을 선택하는 것으로, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있다고 하는, 영상 컨텐츠에 통합화된 EC 사이트를 제공하는 것이 가능하게 된다.Specifically, if the techniques of the above-mentioned [First Background Art], [Second Background Art], and [Fourth Background Art] are combined, DAM technology is used first, and various functions related to drama production are used. By consolidating information about resources and providing metadata, access to necessary information is facilitated, data format conversion and data size are changed, etc., EC sites configured with UI optimal for sales targets are automatically created It can be built, for example, an object (eg, a "person" such as an actor or model , a scene in which a "space" such as a tourist destination or a restaurant where the location was performed, for example, a "property" such as clothes or accessories) appears, is saved by the UI, and later saved using the UI is called, the resource (including the object) existing in the scene is recognized by the image recognition AI and a frame is created, and the user selects an object of interest to obtain information about the object or It becomes possible to provide an EC site integrated into the video content that the subject can be purchased.
또한, 상기의 조합에 [제3 배경 기술]을 조합하면, 상기 드라마 제작의 포스트·프로덕션 단계에서, 각 장면을 식별하기 위한 ID(식별자)를 「음성(음향) 워터마크」기술에 의해 당해 드라마의 음향에 비가청음으로 장치할 수 있기 때문에, 예를 들어, 쇼핑 몰의 TV에서 당해 드라마가 재생되어 있고, 유저가 직감적으로 흥미를 가진 대상이 출현하였을 때에 스마트폰을 당해 TV를 향하면, 당해 스마트폰에 탑재된 전용 앱이 마이크를 통하여 당해 드라마의 음향에 장치된 「음성(음향) 워터마크」로부터 ID가 취득되는 것과 함께, 센터 서버에 송신되고, 당해 송신된 ID에 대응하는 장면(스마트폰을 향한 시점의 장면, 즉, 유저가 직감적으로 흥미를 가진 대상이 출현한 장면에 상당)을 표시한 상기 EC 사이트를 호출할 수 있고, 유저가, 화상 인식 AI에 의하여 테두리가 만들어진 당해 장면 내에 존재하는 상기 리소스로부터 당해 대상을 선택하고, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있도록 구성할 수도 있다.In addition, when [3rd Background Art] is combined with the above combination, in the post-production stage of the drama production, an ID (identifier) for identifying each scene is set using the "Audio (sound) watermark" description for the drama. Since it can be installed as an inaudible sound for the sound of A scene (smartphone) that is transmitted to the center server while the ID is obtained from the "audio (sound) watermark" installed in the sound of the drama through the dedicated application installed in the phone through the microphone (smartphone) can call the EC site displaying the scene from the point of view, that is, the scene in which the object of which the user is intuitively interested appears), and the user is present in the scene framed by the image recognition AI It is also possible to select a subject from the above resources to obtain information about the subject or to purchase the subject.
본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 제작에 투자되는 자금이나 사람(법인을 포함한다), 공간, 소도구, 기재·기술 등, 영상 컨텐츠의 제작에 관한 리소스(자원)도 EC와 직결하여 판매할 수 있고, 영상 컨텐츠의 제작에 관한 리소스의 조달이 용이하게 된다.According to the present invention, resources (resources) related to the production of video contents, such as funds invested in the production of video contents such as movies, dramas, animations, and music videos, people (including corporations), space, props, equipment and technology, etc. ) can also be sold in direct connection with the EC, making it easy to procure resources related to the production of video content.
또한, 본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 직결된 EC 매출을 이들 조달처에 배분할 수 있기 때문에, 특히 드라마 제작에 있어서, 스폰서나 방송국이 주도하는 권한 스킴이 해방되고, 제작 지휘자(예를 들어, 감독이나 연출가 등)의 의향이 유연하게 반영된 작품 제작이 가능하게 된다.In addition, according to the present invention, since EC sales directly linked to video content such as movies, dramas, animations, and music videos can be distributed to these procurement sources, the authority scheme led by sponsors and broadcasting stations is liberated, particularly in drama production, , it becomes possible to produce works that flexibly reflect the intentions of the production director (eg, director or director, etc.).
나아가, 본 발명에 의하면, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 시청자(소비자)가, 예를 들어, 드라마에서 직감적으로 흥미를 가진 대상이 출현한 장면을 UI에 의여 보존해 놓고, 나중에, 보존한 당해 장면을 호출하고, 당해 장면의 화상으로부터 흥미를 가진 대상을 선택하는 것으로, 당해 대상에 관한 정보를 얻거나 당해 대상을 구입할 수 있다고 하는, 영상 컨텐츠(드라마)에 통합화된 EC 사이트를 제공하는 것이 가능하게 된다.Furthermore, according to the present invention, a viewer (consumer) of video content such as a movie, drama, animation, or music video, for example, preserves a scene in which an object of intuitive interest appears in a drama by UI, EC site integrated into video content (drama), where the saved scene is called up later and an object of interest is selected from the image of the scene to obtain information about the subject or purchase the subject. It becomes possible to provide
덧붙여, 본 발명의 실시예 1은, 전용의 시청 시스템에 의하여, 시청 중의 영상 컨텐츠 내의 사물(상품)을 시청 장면으로부터 용이하고 또한 다이렉트로 구입할 수 있는 EC 기능이 통합화된 메타미디어를 전송하는 것을 특징으로 하고, 본 발명의 실시예 2에서는, 전용의 시청 시스템을 필요로 하지 않고, 영상 컨텐츠 내에서 판매되는 상품을 장면으로부터 용이하고 다이렉트하게 구입할 수 있는 EC 기능인 것을 특징으로 한다.Incidentally, the first embodiment of the present invention is characterized in that, by means of a dedicated viewing system, metamedia integrated with EC functions that can easily and directly purchase objects (products) in the video content being viewed from the viewing scene are transmitted. and, in the second embodiment of the present invention, it is characterized in that it is an EC function that can easily and directly purchase goods sold in video content from the scene without requiring a dedicated viewing system.
[실시예 1][Example 1]
이하, 본 발명의 실시예 1에 관하여 상세하게 설명한다.Hereinafter,
본 발명의 실시예 1은, [장면 관리 데이터 생성 과정]과 [물체 검출 모델의 작성 과정]과 [EC 통합형 메타미디어 전송 과정]과 [상품에 관한 EC 처리 과정]에 의하여 구성된다.
우선, [장면 관리 데이터 생성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)을 상품화하고, 시청자가 EC(Electric Commerce)에 의하여 용이하게 구입할 수 있도록 하기 위하여, 당해 리소스를 판매할 수 있는 모든 리소스를 상품으로서 파악하고, 당해 상품에 관한 정보와 당해 상품에 대한 EC 처리 구분(구입이나 계약 등, 상품의 거래 형태에 의하여 EC 처리의 구성이 정해진다)을 생성, 기록하는 과정이다.First, in the [scene management data generation process], various resources (people, spaces, props, equipment, technology, etc.) invested in the production of video content such as movies, dramas, animations, and music videos are commercialized, and viewers In order to facilitate purchase through Electric Commerce), all resources that can sell the resource are identified as a product, and information about the product and EC processing for the product are classified (purchase, contract, etc., product transaction). It is the process of creating and recording the configuration of EC processing depending on the form).
덧붙여, 상기와 같은 영상 컨텐츠는, 제작이 결정될 단계에 있어서, 어떤 리소스를 던질까 면밀하게 계획되기 때문에, 당해 리소스의 조달 방법에 관하여도 명확한 정보에 기초하여 행하여지기 때문에, 상기 EC 처리 순서는 당해 조달 방법에 관한 정보에 기초하여 결정된다.Incidentally, since the above video content is carefully planned what kind of resource to throw at the stage when production is decided, and it is performed based on clear information about the method of procurement of the resource, the EC processing procedure is It is determined on the basis of information on procurement methods.
구체적으로는, (1) 상품(판매할 수 있는 리소스)에 관한 정보(상품의 상세 정보와 상품에 대한 EC 처리 구분에 관한 정보이고, 화상이나 소리, 문자, 기호 등의 디지털 테이터로 구성된다)를 포함한 EC 상품 테이블이 생성되는 것과 함께, 상품 관리 DB와 관련지을 수 있는 제1 처리, (2) 비디오 촬영(수록)하는 제2 처리, (3) 비디오 편집 소프트웨어(예시)에 의하여, 당해 촬영(수록)된 비디오로부터 XML파일을 생성하는 제3 처리(장면 ID를 기록), (4) 당해 XML파일로부터 포맷 변환 프로그램(자사)에 의하여, 장면 관리 파일을 생성하는 제4 처리, (5) 당해 장면 관리 파일에 기초 정보(예시)에 관한 노드(node)를 추가하는 제5 처리, (6) 정보·상품 등록 프로그램(자사)에 의하여, 편집된 비디오의 장면마다 동적 정보(예시)와 상품 ID를 등록(노드의 추가)하는 제6 처리, (7) 장면 데이터 생성 프로그램(자사)에 의하여, 당해 등록 후의 장면 관리 파일로부터 각 장면의 데이터(기본 정보, 동적 정보, 상품 ID 등)에 장면 ID를 붙이고, 이것을 장면 데이터로서 DB화하기 위하여, 장면 데이터 관리 DB에 등록하는 제7 처리, (8) 비디오 데이터 보존 프로그램에 의하여, 최종 편집 비디오에 비디오 ID를 붙이고, 이것을 공개용 비디오 데이터로서 DB화하기 위하여, 비디오 관리 DB에 보존되는 제8 처리에 의하여,[장면 관리 데이터 생성 과정]이 구성된다.Specifically, (1) information about products (resources that can be sold) (detailed information about products and information on the classification of EC processing for products, and consists of digital data such as images, sounds, characters, and symbols) Along with the creation of an EC product table including A third process of generating an XML file from (recorded) video (recording a scene ID), (4) a fourth process of generating a scene management file from the XML file by a format conversion program (our company), (5) 5th process of adding a node related to basic information (example) to the scene management file, (6) dynamic information (example) and product for each scene of the video edited by the information/product registration program (our company) 6th process of registering ID (addition of a node), (7) Scene data (basic information, dynamic information, product ID, etc.) from the registered scene management file to the scene data (basic information, dynamic information, product ID, etc.) A seventh process of registering an ID in the scene data management DB in order to attach an ID and convert it into a DB as scene data, (8) attach a video ID to the final edited video by a video data storage program, and convert it to a DB as video data for public use In order to do this, the [scene management data generation process] is constituted by the eighth process stored in the video management DB.
덧붙여, 상기(2) 비디오 촬영(수록)에 관하여는, 예를 들어, 제3자(영상 컨텐츠의 제3자)에 의하여 수록된 영상 컨텐츠의 비디오 데이터를 입수할 수 있으면, 반드시, [장면 관리 데이터 생성 과정]에 포함되지 않아도 무방하다.Incidentally, regarding (2) video shooting (recording), for example, if video data of video content recorded by a third party (third party of video content) can be obtained, be sure to [scene management data creation process].
다음으로, [물체 검출 모델 작성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 여러 가지 장면에 있어서, 시청자가 직감적으로 의식한 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)이 EC 대상 상품에 속하는지 여부를 순간에 판별하는 「화상 인식 AI」의 능력을 높이는 과정이다.Next, in the [object detection model creation process], in various scenes of video content such as movies, dramas, animations, and music videos, objects (goods, services, people, spaces, props, equipment, Technology, etc.) is a process to increase the ability of "Image Recognition AI" to instantly determine whether or not a product belongs to an EC target product.
구체적으로는, (1) 학습 모델 작성 프로그램에 의하여, 편집된 비디오의 각 장면과 장면 데이터, 상품 데이터로부터 학습 데이터를 작성하는 제1 처리, (2) 작성된 학습 데이터에 의한 기계 학습으로 학습 모델을 높이면서, 당해 학습 모델의 검출 정밀도를 판정하는 제2 처리, (3) 검출 정밀도가 일정 이상이 된 학습 모델(상품 ID가 포함된다)을 출력 하는 것과 함께, 전용 보존 파일에 보존하는 제3 처리에 의하여 구성된다.Specifically, (1) a first process of creating learning data from each scene, scene data, and product data of an edited video by a learning model creation program, and (2) creating a learning model by machine learning based on the created learning data A second process for determining the detection accuracy of the learning model while increasing it, (3) a third process for outputting a learning model (including product IDs) whose detection accuracy has reached a certain level or more and saving it in a dedicated storage file is composed by
또한, [EC 통합형 메타미디어 전송 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)을 상품화할 수 있는 EC 기능을 당해 영상 컨텐츠 자체에 통합한 메타미디어를 전송하는 과정이다.In addition, the [EC integrated metamedia transmission process] is an EC function that can commercialize various resources (people, spaces, props, equipment, technologies, etc.) invested in the production of video content such as movies, dramas, animations, and music videos. This is the process of transmitting meta media that is integrated into the video content itself.
구체적으로는, (1) 유저가 PC나 스마트폰 등으로(예를 들어, 브라우저의 포털 사이트에서 소개되어 있는 「EC 통합형 메타미디어 전송 서비스」에 관한 링크를 클릭/터치하고) 센터 시스템에 액세스 하면, 센터 시스템으로부터 「EC 통합형 메타미디어 전송 사이트」가 리다이렉트(redirect)되는 제1 처리, (2) 유저가 「EC 통합형 메타미디어 전송 사이트」에서 소개되어 있는 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)로부터 좋아하는 것을 선택하면, 전용 비디오 플레이어가 유저의 PC나 스마트폰 등에 다운로드되는 제2 처리, (3) 유저가 전용 비디오 플레이어의 재생 버튼을 클릭/터치하면, 선택된 비디오가 재생(시청)되는 제3 처리, (4) 비디오 재생 중에 장면 선택 조작(예를 들어, 유저에 의하여 화면이 클릭/터치)되면, 그 시점의 장면 식별 정보(비디오 ID, 타임 코드 등)나 당해 장면의 화상 데이터가 센터 시스템에 의하여 취득되는 제4 처리, (5) 장면 식별 정보에 의하여, 장면 데이터 관리 DB로부터 장면 데이터(장면 ID, 기본 정보, 동적 정보, 상품 ID리스트 등)가 취득되는 제5 처리, (6) 취득된 장면 데이터의 상품 ID리스트에 기초하여 상품 데이터 관리 DB가 검색되어, 상품 ID가 검증(재고 유무의 확인 등)되는 제6 처리, (7) 장면 화상 데이터에 기초하는 물체 검증 처리(학습 모델에 의한 추론)에 의하여, 장면 화상에 포함되는 상품 ID리스트가 검출되는 제6 처리, (8) 제6 처리의 검증된 상품 ID리스트와 제7 처리의 상품 ID리스트가 조합되고, 일치한 상품 ID의 상품 화상에 UI처리(구형 및 링크 붙임 등)를 하는 제8 처리, (9) 유저가 구형을 클릭/터치하면, 해당하는 상품이 추출되고 표시되는 제9 처리에 의하여 구성된다.Specifically, (1) when the user accesses the center system with a PC or smartphone (for example, clicking/touching the link for “EC integrated metamedia transmission service” introduced on the browser portal site) , the first process in which the "EC integrated metamedia transmission site" is redirected from the center system, (2) the video (movies, dramas, animations, music videos, etc.) introduced by the user on the "EC integrated metamedia transmission site" of video content), a second process in which a dedicated video player is downloaded to the user's PC or smartphone, etc. (3) When the user clicks/touches the play button of the dedicated video player, the selected video is played ( 3rd process to be viewed), (4) when a scene selection operation (for example, a screen is clicked/touched by the user) during video playback, scene identification information (video ID, time code, etc.) A fourth process in which image data is acquired by the center system, (5) a fifth process in which scene data (scene ID, basic information, dynamic information, product ID list, etc.) is acquired from the scene data management DB by scene identification information ; 6th processing in which the product ID list included in the scene image is detected by processing (inference by the learning model), (8) the verified product ID list of the 6th processing and the product ID list of the 7th processing are combined; The eighth process of UI processing (spherical shape and link attachment, etc.) to the product image of the matching product ID, (9) when the user clicks/touches the rectangle, the corresponding product is extracted and displayed. .
덧붙여, 상기 전용 비디오 플레이어의 제공에 관하여는, 전용의 Web 애플리케이션을 브라우저로 가동시키는 방법이나, 유저가 전용의 애플리케이션을 스마트폰에 인스톨하고 가동시키는 방법이 있다.Incidentally, regarding the provision of the dedicated video player, there are a method of running a dedicated web application with a browser, and a method of allowing a user to install and run the dedicated application on a smartphone.
그리고, [상품에 관한 EC 처리 과정]은, EC 통합형 메타미디어의 시청자에 의하여 각 장면에 포함된 상품이 EC 기능에 의하여 구입되고, 당해 구입에 대한 매출의 수익이 상품 공급원뿐만이 아니라, 당해 영상 컨텐츠의 제작자에게도 배당되는 과정이다.And, in the [Product EC processing process], the product included in each scene is purchased by the viewer of the EC integrated metamedia by the EC function, and the revenue from the purchase is not only the product supply source, but also the video content. It is a process that is also allocated to the producers of
구체적으로는, (1) 상술한 [EC 통합형 메타미디어 전송 과정]의 제9 처리에 의하여 표시된 상품에 대한 EC 처리의 종별(구입, 계약, 입찰 등)이 유저에 의하여 결정(메뉴 선택 등)되는 제1 처리, (2) 상품 정보가 표시되어 유저에 의한 상품 구입이 결정되는 제2 처리, (3) 유저에 의하여 주문 정보가 입력되고 지불 처리를 하는 제3 처리, (4) 수주 정보가 센터 시스템에 송신되는 제4 처리, (5) 주문 정보(배송처나 배송 조건, 지불 조건이나 결제정보)가 센터로부터 상품 공급원에 송신되는 제5 처리, (6) 주문 정보에 기초하여, 상품 공급원으로부터 유저에게 상품이 배송되는 제6 처리, (7) 상품 대금이 상품 공급자에게, 배당금이 제작자에게, 마진이 센터에 입금되는 제7 처리에 의하여 구성된다.Specifically, (1) the type of EC processing (purchase, contract, bidding, etc.) for the product displayed by the ninth processing of the [EC integrated metamedia transmission process] described above is determined by the user (menu selection, etc.) First processing, (2) second processing in which product information is displayed to determine product purchase by the user, (3) third processing in which order information is input by the user and payment processing is performed, (4) order receipt information is sent to the center A fourth process transmitted to the system, (5) a fifth process in which order information (shipping address, delivery conditions, payment conditions, and settlement information) is transmitted from the center to the product supply source; (6) the user from the product supply source based on the order information The sixth process, in which goods are delivered to , (7) consists of the seventh process, in which the product price is deposited to the product supplier, dividends are deposited to the producer, and margins are deposited to the center.
덧붙여, 상술한 각 과정에 있어서의 각 처리를 실시하기 위한 서버 전용 프로그램이나 클라이언트(PC나 스마트폰 등) 전용 애플리케이션에 관하여는, JAVA나 C, C++, JavaScript, python 등에 의하여 개발할 수 있지만, 범용의 소프트웨어로서, 예를 들어, 비디오 편집에 관하여는, Blackmagic Design - DaVinch Resolve (AFF, XML), SONY - VEGAS Pro (AAF) 등을, 또한, 예를 들어, 음성(음향) 워터마크 제어에 관하여는, 비특허 문헌 4에서 소개되어 있는 Evixar사의 SDK를 이용하여도 무방하다.Incidentally, with respect to a server-only program or client (PC, smartphone, etc.) dedicated application for executing each process in each process described above, it can be developed by JAVA, C, C++, JavaScript, python, etc., but As software, for example, with regard to video editing, Blackmagic Design - DaVinch Resolve (AFF, XML), SONY - VEGAS Pro (AAF), etc., also, for example with regard to voice (sound) watermark control. , it is okay to use the SDK of Evixar, which is introduced in
도 1은, 본 발명에 의하여 실현되는 「EC 통합형 메타미디어의 작성 방법, 및 전송 시스템」의 개요도를 도시한다.Fig. 1 shows a schematic diagram of "EC integrated metamedia creation method and transmission system" realized by the present invention.
덧붙여, 도 1에 있어서 (*)표시를 붙인 약어의 원문에 관하여는, 이하와 같다.Incidentally, the original text of the abbreviation marked with (*) in Fig. 1 is as follows.
[MAIN SYSTEM]에 대하여,About [MAIN SYSTEM],
APP*= APPLICATIONAPP*= APPLICATION
DBM*= DB MANAGEMENTDBM*= DB MANAGEMENT
[APP* SERVER]에 대하여,About [APP* SERVER],
ATP* = Authentication ProcessATP* = Authentication Process
VED* = Video EditVED* = Video Edit
FMX* = Format ExchangeFMX* = Format Exchange
IGR* = Info & Goods RegisterIGR* = Info & Goods Register
SDG* = Scene Data GeneratorSDG* = Scene Data Generator
VDS* = Video Data StorageVDS* = Video Data Storage
LMC* = Learning Model CreatorLMC* = Learning Model Creator
VDP* = Video PlayerVDP* = Video Player
WMC* = Watermark ControlWMC* = Watermark Control
[DBM* SERVER]에 대하여,About [DBM* SERVER],
USR* = UserUSR* = User
PRD* = ProducerPRD* = Producer
SPL* = SupplierSPL* = Supplier
GDD* = Goods DataGDD* = Goods Data
SCD* =Scene DataSCD* =Scene Data
VDD* = Video Data"VDD* = Video Data"
이하, 도 1의 기호 [A]로 나타낸 본 발명을 구성하는 주요한 처리 과정에 관하여, 도 1과 당해 각 처리 과정에 관한 상세도를 사용하여 설명한다.Hereinafter, the main processing steps constituting the present invention indicated by the symbol [A] in FIG. 1 will be described with reference to FIG. 1 and detailed views of the respective processing steps.
[장면 관리 데이터 생성 과정][Scene management data generation process]
도 2는, 도 1의 기호 [A]에 기재된 [장면 관리 데이터 생성 과정](SMDG:Scene Management Data Generation)에 관한 처리 흐름도이다.FIG. 2 is a flowchart of a [scene management data generation process] (SMDG: Scene Management Data Generation) indicated by the symbol [A] in FIG. 1 .
우선, [장면 관리 데이터 생성 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(출자자, 감독, 원작자, 극작가, 캐스팅 디렉터, 배우, 성우, 음악 제작자, 연주자, 통역·번역자, 촬영 스탭, 편집 스탭, 조명 스탭, 장식 디자이너, 의상 디자이너, 스타일리스트, 헤어 디자이너, 메이크업 아티스트, 난투 장면 스탭, 스턴트, 엑스트라 등의 사람 또는 법인, 또한, 장면을 촬영하는 로케이션 현장이나 스튜디오 등의 공간, 더욱, 동물이나 차량, 의상, 장식품, 인테리어 등의 소도구, 또한 더욱, 카메라나 조명, CG, 녹음, 편집 등에 이용되는 기재·기술 등)을 상품화하여, 시청자가 EC 기능에 의하여 용이하게 구입할 수 있도록 하기 위하여, 당해 리소스를 판매할 수 있는 모든 리소스를 상품으로서 파악하고, 당해 상품에 관한 정보와 당해 상품에 대한 EC 처리의 종별(예를 들어, 당해 상품의 구입, 당해 상품이 사람이나 설비, 기술 등의 거래였을 경우의 계약, 당해 상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출하기 위한 정보)을 생성, 기록하는 과정이고, 주요 8 스텝의 처리에 의하여 구성된다.First of all, the [Scene Management Data Creation Process] is based on various resources (investor, director, original author, playwright, casting director, actor, voice actor, music producer, performer) that are invested in the production of video content such as movies, dramas, animations, and music videos. , interpreters/translators, filming staff, editing staff, lighting staff, decoration designers, costume designers, stylists, hair designers, makeup artists, brawl scene staff, stunts, extras, etc. By commercializing spaces such as studios and studios, small tools such as animals, vehicles, clothes, ornaments, interiors, and equipment and technologies used for cameras, lighting, CG, recording, editing, etc.), viewers can use EC functions In order to facilitate purchase by The process of creating and recording (information for invoking the implementation structure of EC processing appropriate to the transaction type of the product, such as a contract in the case of a transaction of this person, equipment, technology, etc., and a bid when the product is exhibited in an auction) and is constituted by the processing of the main 8 steps.
도 2의 (1)로 나타낸 제1 스텝에서는, 본 발명에 있어서의 EC 통합형 메타미디어에 의하여 판매할 수 있는 상품(판매할 수 있는 상기 리소스의 사물)에 관한 정보(상품의 상세 정보와 상품에 대한 EC 처리 종별에 관한 정보이고, 화상이나 소리, 문자, 기호 등의 디지털 데이터로 구성된다)를 포함한 EC 상품 데이터(7240)에 의하여 EC 상품 테이블(6230)이 생성되고, 상품 데이터 등록 처리에 의하여, 당해 EC 상품 테이블(6230)의 EC 상품 ID가 상품 데이터 관리 DB(5210)에 등록된다.In the first step shown in Fig. 2 (1), information (detailed product information and product information) about a product that can be sold (thing of the resource that can be sold) is provided by the EC integrated meta media in the present invention. The EC product table 6230 is generated by the
덧붙여, 상기 상품 데이터 관리 DB(5210)와 EC 상품 테이블(6230)의 구성예를 도 10에 도시한다.Incidentally, a configuration example of the product
도 2의 (2)로 나타낸 제2 스텝에서는, 도 1에서 나타낸 상품(제작 리소스) 공급원(1400)으로부터 대여나 투자나 기부 등으로 제공된 리소스를 사용한 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠가, 영상 컨텐츠 제작자(1300)에 의하여 촬영되는 것과 함께, 수록된 비디오 데이터(2400)가 센터(1100)에 송신(우송으로도 무방하다)된다.In the second step shown in FIG. 2 (2), video contents such as movies, dramas, animations, and music videos using resources provided by rental, investment, or donation from the product (production resource)
상기 비디오 데이터(2400)는, 센터(1100)에 있어서, EC 통합형 메타미디어 전송에 포함(임베디드, 삽입)된다.The
도 2의 (3)으로 나타낸 제3 스텝에서는, 상기 제2 스텝에서 센터(1100)에 송신된 비디오 데이터(2400)가, 비디오 편집 소프트웨어(3210)(도 1에 있어서의 VED* SW)에 의하여, 편집 정보 공유 파일(6210)(예를 들어, XML 형식에 의한다)이 출력된다.In the third step shown by (3) in Fig. 2, the
덧붙여, 상기 편집 정보 공유 파일(6210)에는, EC 통합형 메타미디어의 생성에 필요한 기초 정보(비디오나 장면에 관한 정보 등)가 포함되는 바, 그 포맷 예를 도 8에 도시한다.In addition, the edit
도 2의 (4)로 나타낸 제4 스텝에서는, 상기 제3 스텝에서 출력된 상기 편집 정보 공유 파일(6210)로부터, 포맷 변환 프로그램(3220)(도 1에 있어서의 FMX* PG)에 의하여, 장면 관리 파일(6220)이 생성된다.In the fourth step shown by (4) of Fig. 2, the format conversion program 3220 (FMX*PG in Fig. 1) creates a scene from the edited information shared
덧붙여, 상기 장면 관리 파일(6220)에는, EC 통합형 메타미디어 전송으로 필요한 장면에 관한 모든 정보가 기록된다.In addition, in the
도 2의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 생성된 상기 장면 관리 파일(6220)에 기초 정보(예를 들어, 영상의 설명, 드라마나 시합의 정보, 이벤트명이나 개최 일시 등, 비디오 전체로 일정한 정보)에 관한 노드(데이터를 계층화하여 표현하는 문서에 있어서의 태그)가 추가된다.In the fifth step shown by (5) of Fig. 2, basic information (eg, video description, drama or game information, event name and date and time) is added to the
도 2의 (6)으로 나타낸 제6 스텝에서는, 상기 제5 스텝에서 기본 정보가 추가된 상기 장면 관리 파일(6220)에 대하여, 정보·상품 등록 프로그램(3230)(도 1에 있어서의 IGR* PG)에 의하여, 편집된 비디오의 장면마다 동적 정보(예를 들어, 촬영 장소, 악곡, 장면의 설명 등, 장면마다 바뀌는 정보, 도 10에 구성예를 도시한다)와 상품 데이터 관리 DB(5210)의 상품 데이터(7210)의 상품 ID가 등록(노드의 추가)된다.In the sixth step indicated by (6) in Fig. 2, the information/product registration program 3230 (IGR*PG in Fig. 1) for the
도 2의 (7)로 나타낸 제7 스텝에서는, 상기 제 6 스텝에서 동적 정보가 추가된 상기 장면 관리 파일(6220)로부터, 장면 데이터 생성 프로그램(3240)에 의하여, 각 장면의 데이터(기본 정보, 동적 정보, 상품 ID 등)가 추출되는 것과 함께, 장면 ID가 붙여지고, 장면 데이터(7220)로서, 장면 데이터 관리 DB(5220)에 등록된다.In the seventh step indicated by (7) of FIG. 2, data (basic information, basic information, Dynamic information, product ID, etc.) are extracted, a scene ID is attached, and is registered in the scene
도 2의 (8)로 나타낸 제8 스텝에서는, 비디오 보존 프로그램(3250)에 의하여, 상기 제3 스텝 처리로 편집된 비디오 데이터(2410)의 최종 편집판에 비디오 ID가 붙여지고, 비디오 데이터(7230)(공개용 비디오 데이터)로서, 비디오 데이터 관리 DB(5230)에 보존된다In the eighth step shown by (8) in FIG. 2, the video ID is attached to the final edited version of the video data 2410 edited in the third step process by the
[물체 검출 모델 작성 과정][Object detection model creation process]
도 3은, 도 1의 기호 [A]에 기재된 [물체 검출 모델 작성 과정](ODMC:Object Detection Model Creation)에 관한 처리 흐름도이다.Fig. 3 is a flow chart of a process relating to [object detection model creation process] (ODMC: Object Detection Model Creation) indicated by the symbol [A] in Fig. 1 .
우선, [물체 검출 모델 작성 과정]은, 또한, 물체 검출 모델 작성 과정에 있어서의 제2 처리는, 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠의 시청자가, 당해 영상 컨텐츠의 여러 가지 장면에 있어서, 직감적으로 의식한 사물(물품이나 서비스, 사람, 공간, 소도구, 기재·기술 등)이 EC 대상 상품으로서 구입이나 구입을 위한 정보 열람 등을 할 수 있는지 여부에 관하여 용이하게 판단할 수 있는 UI(User Interface)를 당해 시청자에게 제공하기 위한 시스템 구축에 필요한 물체 검출에 관한 AI 기능을 부가하는 것과 함께, 이것을 높이기 위한 과정이고, 주요 3 스텝의 처리에 의하여 구성된다.First, in the [object detection model creation process], and in the object detection model creation process, the second process in the object detection model creation process allows a viewer of video content such as a movie, drama, animation, or music video to access various scenes of the video content. A UI that can easily determine whether or not intuitively conscious objects (goods, services, people, spaces, props, equipment, technologies, etc.) can purchase or purchase information for purchase as EC target products ( User Interface) to the viewer, it is a process for enhancing this with adding an AI function related to object detection required for system construction, and is constituted by processing in three main steps.
도 3의 (1)로 나타낸 제1 스텝에서는, 학습 모델 작성 프로그램(3310)(도 1에 있어서의 LMC* PG)에 의하여, [장면 관리 데이터 생성 과정]의 제8 스텝 처리에 있어서 비디오 데이터 관리 DB(5230)에 공개용으로서 보존된 비디오 데이터(7230)의 각 장면과 장면 데이터 관리 DB(5220)에 보존된 장면 데이터(7220)과, 상품 데이터 관리 DB(5210)에 보존된 상품 데이터(7210)로부터 기계 학습을 위한 학습용 데이터가 작성된다.In the first step shown in Fig. 3 (1), video data is managed in the eighth step processing of the [scene management data generation process] by the learning model creation program 3310 (LMC*PG in Fig. 1). Each scene of the
도 3의 (2)로 나타낸 제2 스텝에서는, 제1 스텝에서 작성된 상기 학습용 데이터를 사용한 기계 학습에 의하여 학습 모델의 정밀도를 높이면서, 당해 학습 모델의 검출 정밀도가 판정된다.In the 2nd step shown by (2) of FIG. 3, the detection precision of the said learning model is determined, raising the precision of a learning model by machine learning using the said learning data created in the 1st step.
도 3의 (3)으로 나타낸 제3 스텝에서는, 상기 제 2 스텝에 있어서의 기계 학습으로 상기 학습 모델의 정밀도가 일정 이상이 되면, 당해 일정 이상의 정밀도가 된 학습 모델이, 학습된 학습 모델 데이터(7310)로서, 학습 모델 보존 파일(6310)에 보존된다.In the third step shown in Fig. 3 (3), when the precision of the learning model becomes more than a certain level by machine learning in the second step, the learning model with the precision greater than or equal to the certain level is converted into the learned learning model data ( 7310 ), stored in a learning
여기서, 상기와 같은 학습 모델 작성 프로그램에 이용하는 라이브러리에 관하여는, 서적은 물론, 인터넷 등으로 많이 소개되어 있고, 예를 들어, Python로 쓰여진 Keras는, TensorFlow 또는 CNTK, Theano 상에서 실행 가능한 고수준의 뉴럴 네트워크(neural network) 라이브러리로서 신속한 실험을 가능하게 하는 것에 중점을 두어 개발되고, 넓고 일반적으로 공개되어 있는 바, <https://employment.en-japan.com/engineerhub/entry/2017 /04/28/110000#3-Inception-v3 모델을 이용한 화상 인식>[2019년 9월 10일 검색]에 있어서, 동물(강아지와 고양이)의 화상 인식에 관한 실행 스크립트가 소개되어 있고, 또한, 그 실행 결과인 학습 모델도 게재되어 있고, 또한, 예를 들어, Python 전용의 심층 학습용 라이브러리로서 PyTouch가 있고, <https://github.com/amdegroot/ssd. pytorch/blob/master/ssd.py>[2019년 9월 10일 검색]에 있어서, 딥 물체 검출을 위한 코드도 소개되어 있기 때문에, 상기 화상 인식에 관한 기계 학습의 코드예를 도 9에, 또한 상기 물체 검출에 관한 기계 학습의 코드예를 도 10에 도시한다.Here, the library used for the learning model creation program as described above is widely introduced in books as well as the Internet. For example, Keras written in Python is a high-level neural network executable on TensorFlow, CNTK, or Theano. As a (neural network) library, it has been developed with an emphasis on enabling rapid experimentation and is widely publicly available, <https://employment.en-japan.com/engineerhub/entry/2017 /04/28/ 110000#3-Image recognition using Inception-v3 model> In [Search on September 10, 2019], an execution script related to image recognition of animals (dogs and cats) is introduced, and the execution result is learning Models are also published, and there is, for example, PyTouch as a library for deep learning dedicated to Python, <https://github.com/amdegroot/ssd. In pytorch/blob/master/ssd.py> [Search on September 10, 2019], a code for deep object detection is also introduced. Fig. 10 shows a code example of machine learning related to the object detection.
[EC 통합형 메타미디어 전송 과정][EC Integrated Metamedia Transmission Process]
도 4는, 도 1의 기호 [A]에 기재된 [EC 통합형 메타미디어 전송 과정](ECIMD: EC integrated Meta-media Distribution)에 관한 처리 흐름도이다.Fig. 4 is a flow chart of a process related to [EC integrated meta-media distribution process] (ECIMD: EC integrated meta-media distribution) described in symbol [A] in Fig. 1 .
상술한 라이브 코머스나 드라마 코머스 등은, 이미 일반 판매되어 있는 상품이나 향후 일반 판매되는 신제품 등을 프로모션하기 위하여 영상 컨텐츠를 전송하고 있는 바, 당해 영상 컨텐츠의 전송 시스템과 당해 상품이나 신제품의 판매 시스템은 분리되고, 단순한 링크 제휴에 그치고 있고, 또한, 취급 상품에 관하여도, 반드시, 거기서 밖에 구입할 수 없다고 하는 것은 아니다.The above-mentioned live commerce and drama commerce, etc., are transmitting video content to promote products that are already on general sale or new products that will be sold in the future. It is separate, and it is only a simple link partnership, and it does not necessarily mean that it can only be purchased there with respect to the handling product.
본 발명에 있어서의 [EC 통합형 메타미디어 전송 과정]은, 영화나 드라마, 애니메이션, 음악 비디오 등 영상 컨텐츠의 시청자가, 그 시청 시스템으로부터 용이하고 또한 다이렉트하게 상품을 구입할 수 있는 EC 기능을 당해 영상 컨텐츠에 통합화한 메타미디어를 전송하는 시스템이고, 당해 영상 컨텐츠 제작에 투자되는 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)도 EC 대상 상품으로서 구입할 수 있는 메타미디어를 전송하는 과정이고, 주요 9 스텝의 처리에 의하여 구성된다.The [EC integrated metamedia transmission process] in the present invention provides an EC function that enables viewers of video content such as movies, dramas, animations, and music videos to easily and directly purchase products from the viewing system. It is a system that transmits metamedia integrated into It is constituted by the process of 9 steps.
도 4의 (1)로 나타낸 제1 스텝에서는, 유저(1200)가, PC(2310)나 스마트폰(2320) 등의 클라이언트 장치에 있어서, 예를 들어, 브라우저의 포털 사이트에서 소개되어 있는 「EC 통합형 메타미디어 전송 서비스」에 관한 링크를 클릭(터치)하고, 센터 시스템(2200)에 액세스하면, 「EC 통합형 메타미디어 전송 사이트」가 리다이렉트된다.In the first step shown in Fig. 4 (1), the
도 4의 (2)로 나타낸 제2 스텝에서는, 예를 들어, 유저(1200)가 상기 제1 스텝에서 리다이렉트된 상기 「EC 통합형 메타미디어 전송 사이트」에서 소개되어 있는 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)로부터 좋아하는 것을 선택하면, 전용 비디오 플레이어(2420)가, 센터 시스템(2200)으로부터 유저(1200)의 PC(2310)나 스마트폰(2320) 등의 클라이언트 장치에 다운로드된다.In the second step shown in FIG. 4 (2), for example, a video (movie, drama, animation, movie, drama, animation, When a favorite is selected from the video content such as music video), the
덧붙여, 상기의 전용 비디오 플레이어(2420)의 제공에 관하여는, 전용의 Web 애플리케이션을 브라우저로 가동시키는 방법이나, 유저가 전용의 애플리케이션을 스마트폰에 인스톨하고 가동시키는 방법이 있다.Incidentally, regarding the provision of the
도 4의 (3)으로 나타낸 제3 스텝에서는, 유저(1200)에 의하여, 예를 들어, 상기 전용 비디오 플레이어(2420)의 재생 버튼이 클릭(터치)되면, 당해 선택된 비디오의 재생(유저에 의하여 시청)이 개시된다.In the third step shown in Fig. 4 (3), when, for example, the
도 4의 (4)로 나타낸 제4 스텝에서는, 상기 제3 스텝의 유저 조작으로 재생이 개시된 상기 전용 비디오 플레이어(2420)로 재생 중의 비디오에 대하여, 장면 선택 조작으로서, 예를 들어, 재생 중의 비디오 화면이 유저(1200)에 의하여 클릭(터치)되면, 당해 클릭(터치)의 시점에 있어서의 장면 식별 정보(7410)(비디오 ID, 장면 ID, 타임 코드 등을 포함한다)와 당해 장면의 장면 화상 데이터(7420)가 센터 시스템(2200)에 의하여 취득된다.In the fourth step shown in Fig. 4 (4), the video being reproduced by the
덧붙여, 상기 센터 시스템(2200)에 의한 취득 방법에 관하여는, 상기 장면 선택 조작에 의하여, 예를 들어, 상기 전용 비디오 플레이어(2420)가 상기 장면 식별 정보(7410)와 장면 화상 데이터(7420)를 취득하고, 이것을 센터 시스템(2200)으로 송신하는 방법이나, 예를 들어, 센터 시스템(2200)이, 당해 전용 비디오 플레이어(2420)에 있어서의 비디오 재생에 관한 정보를 감시해 놓고, 당해 장면 선택 조작의 시점에서, 당해 장면 식별 정보(7410)와 당해 장면 화상 데이터(7420)를 직접 취득하는 방법이나, 예를 들어, 당해 장면 식별 정보(7410)만을 취득하고, 상술한 [장면 관리 데이터 작성 과정]에 있어서 비디오 데이터 관리 DB(5230)(도 2(8))에 보존된 당해 장면 식별 정보(7410)의 비디오 ID에 대응하는 비디오 데이터를 추출 하는 것과 함께, 당해 추출한 비디오 데이터로부터 당해 장면 식별 정보(7410)의 장면 ID에 의하여 추출할 수 있는 장면 데이터를 당해 장면 화상 데이터(7420)의 대용 데이터로 하는 방법 등이 있다.Incidentally, as for the acquisition method by the
도 4의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 센터 시스템(2200)에 의하여 취득된 상기 장면 식별 정보(7410)(비디오 ID, 장면 ID, 타임 코드 등을 포함한다)에 기초하여, 장면 데이터 검색 처리가 행해지고, 장면 데이터 관리 DB(5220)로부터 해당하는 장면 데이터(비디오 ID, 장면 ID, 기본 정보, 동적 정보, 상품 ID 리스트 등을 포함한다)가 취득된다.In the fifth step indicated by (5) of Fig. 4, based on the scene identification information 7410 (including video ID, scene ID, time code, etc.) acquired by the
도 4의 (6)으로 나타낸 제6 스텝에서는, 상기 제4 스텝에 있어서 취득된 상기 장면 데이터에 포함된 상품 ID 리스트(7430)에 대한 상품 데이터 조회 처리, 즉, 당해 상품 ID 리스트(7430)에 기초하여 상품 데이터 관리 DB(5210) 내의 상품 데이터가 검색되고, 당해 상품 ID 리스트(7430)의 상품 데이터가 존재하는지 여부가 조회되는 것으로, 당해 상품 ID 리스트가 검증(해당 상품의 재고 유무도 확인할 수 있다)된다.In the sixth step shown in FIG. 4 (6), the product data inquiry process for the
도 4의 (7)로 나타낸 제7 스텝에서는, 상기(제5 스텝의 처리와 동시에) 제4 스텝에 있어서 취득된 상기 장면 화상 데이터(7420)에 기초하는 물체 검출 처리(학습 모델에 의한 추론 처리)에 의하여, 당해 장면 화상 데이터(7420)에 포함되는 상품 ID 리스트(7440)가 검출된다.In the seventh step shown in FIG. 4 (7), object detection processing (inference processing by a learning model) based on the
도 4의 (8)로 나타낸 제8 스텝에서는, 상기 제6 스텝의 상품 데이터 조회 처리에 의하여 검증된 상품 ID 리스트(7430)와 제7 스텝의 물체 검증 처리에 의하여 검출된 상품 ID 리스트(7440)가 조합되고, 상품 ID의 존재 판정(예를 들어, 당해 상품 ID 리스트(7440)에 포함되는 상품 ID가, 당해 상품 ID 리스트(7430)에 존재하는지 여부를 판정)에 의하여 존재가 확인된 상품 ID의 상품 화상(상기 장면 화상 데이터(7420)에 포함되는 상품 화상)에 대한 UI 처리(당해 상품 화상에 대한 구형 묘화 처리, 및 상품 ID에 의한 상품 데이터 취득용의 링크 붙임 등)가 행하여지고, UI 처리된 장면 화상 데이터(7460)가 생성된다.In the eighth step indicated by (8) of FIG. 4, the
도 4의 (9)로 나타낸 제9 스텝에서는, 상기 제8 스텝에서 UI 처리된 상기 UI 처리된 장면 화상 데이터(7460)(복수 존재할 가능성이 있다)가 PC(2310)나 스마트폰(2320) 등의 상기 클라이언트 장치에 송신되어 표시되고, 당해 표시된 UI 처리된 장면 화상 데이터(7460)에 대하여, 상기 유저(1200)에 의하여, 예를 들어, 당해 UI 처리된 장면 화상 데이터(7460)에 포함된 상품 화상의 구형 범위가 클릭(터치)되면, 당해 상품 화상에 해당하는 상품 데이터가 상품 데이터 관리 DB(5210)로부터 추출되어 표시된다.In the ninth step indicated by (9) of Fig. 4, the UI-processed scene image data 7460 (there may be a plurality of) processed by the UI in the eighth step is transmitted to the
상기의 [EC 통합형 메타미디어 전송 과정]은, 본 발명에 있어서의 중요한 구성 요소인 바, 도 4의 처리 흐름도에 의한 설명에 더하여, 도 1의 기호 [B]([EC PROCESS]를 제외)로 나타낸 클라이언트 측에 있어서의 구체적인 실시 이미지에 관하여, 도 5의 개요도에 기재된 번호 (1) ~ (7)(제휴 처리에는 같은 번호를 붙였다)를 사용하여 설명한다.The above [EC integrated metamedia transmission process] is an important component in the present invention, and in addition to the description by the process flow diagram of FIG. 4, the symbol [B] in FIG. 1 (excluding [EC PROCESS]) The specific implementation image on the client side shown is demonstrated using the numbers (1) - (7) (the same number is attached to the affiliate process) described in the schematic diagram of FIG.
[EC 통합형 메타미디어 전송 과정(제2 설명)][EC Integrated Metamedia Transmission Process (Second Description)]
도 5(1)의 처리 과정에서는, 유저(1200)가, PC(2310)나 스마트폰(2320) 등의 클라이언트 장치(2300)로부터, 「EC 통합형 메타미디어 전송 사이트」에 액세스 하고, 비디오(영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠)를 선택하면, (1) 전용 비디오 플레이어(2420)에 의하여 당해 비디오가 재생된다.In the process of FIG. 5 ( 1 ), the
도 5(2)의 처리 과정에서는, 유저(1200)가, 상기 재생 중의 비디오로 직감적으로 흥미를 가진 장면에 있어서, 예를 들어, 당해 비디오의 장면 화상을 터치(클릭)하면, 당해 터치(클릭) 시점의 당해 장면 화면에 관한 장면 식별 정보(7410)와 장면 화상 데이터(7420)가 센터의 메인 시스템(2200)으로 송신(취득)된다.In the process of FIG. 5(2), when the
덧붙여, 상기의 유저(1200)에 의한 조작(장면 선택 조작)은, 상기 비디오 재생을 중단(일시 정지) 또는 정지하는 일 없이, 또한, 비디오의 재생 중에 몇 번이라도, 실시할 수 있도록 구성할 수 있다.In addition, the operation (scene selection operation) by the
여기서, 상기 센터의 메인 시스템(2200)으로 송신(취득)된 장면 식별 정보(7410)는, 당해 메인 시스템(2200)에 의하여, 상술의 [EC 통합형 메타미디어 전송 과정]에 있어서의 제5 스텝으로부터 제8 스텝까지의 처리에 의하여, UI 처리된 장면 화상 데이터(7460)가 생성된다.Here, the
또한, 상술의 장면 선택 조작이 여러 차례 행하여지고 있었을 경우에는, 당해 조작에 의하여 송신된 상기 UI 처리된 장면 화상 데이터(7460)를 장면 식별 정보 보존 파일(7450)에 보존되도록 구성하여도 무방하다.In addition, when the scene selection operation described above has been performed several times, the UI-processed
도 5(3)의 처리 과정에서는, 예를 들어, 유저(1200)가, 상기 비디오 재생을 중단(일시 정지) 또는 정지하고, 예를 들어, 장면 호출 조작을 행하면, 상기 장면 식별 정보 보존 파일(7450)로부터 상기 장면 보존 조작으로 보존된 UI 처리된 장면 화상 데이터(7460)가 클라이언트 장치(2300)로 송신되고, 당해 UI 처리된 장면 화상 데이터(7460)가 다수 있는 경우, 예를 들어, 최초의 UI 처리된 장면 화상 데이터가 클라이언트 장치(표시 화면)의 메인 에어리어에 표시되고, 나머지의 UI 처리된 장면 화상 데이터가 섬네일 형식으로 사이드 에어리어에 표시된다.In the processing process of FIG. 5(3), for example, when the
도 5(4)의 처리 과정에서는, 유저(1200)가, 상기 클라이언트 장치(2300)에 표시된 당해 UI 처리된 장면 화상 데이터(7460)(복수 존재)의 섬네일의 어느 하나를 선택(터치나 클릭)하면, 당해 선택된 UI 처리된 장면 화상 데이터(7460)가 상기 메인 에어리어에 표시된다.In the processing process of FIG. 5( 4 ), the
도 5(5)의 처리 과정에서는, 유저(1200)가, 상기 선택된 UI 처리된 장면 화상 데이터(7460)에 포함된 구형 처리(구형으로 둘러싸인)된 물체 화상(복수 존재)으로부터 어느 하나를 선택(구형 범위 내를 터치 또는 클릭)하면, 당해 선택된 당해 물체 화상에 대응하는 링크 데이터(상품 ID를 포함한다)가 센터 시스템(2200)에 송신되어 당해 링크 데이터의 상품 ID에 기초하여 상품 데이터 관리 DB로부터 해당하는 상품 데이터가 추출되는 것과 함께, 당해 추출된 상품 데이터가 상기 클라이언트 장치(2300)에 송신된다.In the process of FIG. 5 ( 5 ), the
도 5(6)의 처리 과정에서는, 상기 클라이언트 장치(2300)에 송신된 상기 상품 데이터의 상품 정보가 당해 클라이언트 장치(2300)에 표시되고, 당해 상품에 대한 EC 처리의 종별(예를 들어, 상품에 대한 상세 정보의 확인이나, 상품에 관한 문의, 상품의 구입 등)이 상기 유저(1200)에 의하여 선택되면, 당해 선택 EC 처리로 진행된다.In the processing process of FIG. 5(6), product information of the product data transmitted to the
이상이, 도 1의 기호 [A]에 기재된 본 발명을 구성하는 각 처리 과정에 관한 상세한 설명이다.The above is a detailed description regarding each processing process which comprises this invention described in symbol [A] of FIG.
계속하여, 이하, 도 1의 기호 [B]([EC PROCESS])로 나타낸 본 발명을 구성하는[상품에 관한 EC 처리 과정]에 대해, 도 1으로 도 6을 사용해 설명한다.Next, the [EC processing process related to the product] constituting the present invention indicated by the symbol [B] ([EC PROCESS]) in FIG. 1 will be described below with reference to FIG. 1 and FIG. 6 .
[상품에 관한 EC 처리 과정][EC processing process for products]
도 6은, 도 1의 기호[B]에 기재된 CLIENT Application4100, 즉, 도 1으로 나타낸 유저(1200)의 클라이언트 장치가 되는 PC(2310)나 스마트폰(2320) 등에 다운로드되는 Web 애플리케이션 또는 인스톨되는 전용 애플리케이션(이하, 클라이언트 애플리케이션(4100)이라고 한다)에 의하여 실시되는 [상품에 관한 EC 처리 과정]에 관한 개요도이다.FIG. 6 is a
우선, 본 발명에 있어서의 [상품에 관한 EC 처리 과정]은, EC 통합형 메타미디어의 시청자에 의하여, 당해 EC 통합형 메타미디어에 의하여 전송되는 영화나 드라마, 애니메이션, 음악 비디오 등의 영상 컨텐츠에 있어서의 각 장면에 포함되는 상품, 즉, 일반의 EC 상품 뿐만이 아니라, 당해 영상 컨텐츠의 제작에 투자된 여러 가지 리소스(사람이나 공간, 소도구, 기재·기술 등)가, 당해 영상 컨텐츠에 통합화된 EC 기능을 통하여 구입되고, 당해 구입에 관련되는 매출 수익이, 상품 공급원(당해 리소스를 판매하는 사람이나, 당해 리소스를 대여, 투자, 기부 등으로 거출하는 사람)뿐만이 아니라, 당해 영상 컨텐츠의 제작자나 센터에도 배당되는 과정이고, 주요 7 스텝의 처리에 의하여 구성된다.First, in the present invention, the [EC processing process related to goods] is performed by a viewer of the EC integrated meta media for video content such as movies, dramas, animations, and music videos transmitted by the EC integrated meta media. The products included in each scene, that is, not only general EC products, but also various resources (persons, spaces, props, equipment, technologies, etc.) invested in the production of the video content, provide the EC function integrated into the video content. Purchases made through the company, and the revenue related to the purchase is distributed not only to the product supply source (those who sell the resource or those who make money through rental, investment, donation, etc.) of the resource, but also to the producer or center of the video content It is a process that is performed, and is constituted by the processing of the main 7 steps.
도 6의 (1)에 나타낸 제1 스텝에서는, 상술한 [EC 통합형 메타미디어 전송 과정]의 제9 스텝에 있어서의 유저(1200)에 의한 구형 터치에 의하여 선택되고 PC(2310) 또는 스마트폰(2320)에 표시된 상품에 대한 EC 처리의 종별(예를 들어, 해상품의 구입, 해상품이 사람이나 설비, 기술등의 거래였을 경우의 계약, 해상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출하기 위한 정보)이, 해유저(1200)에 의해 결정(예를 들어, 해종별의 메뉴 버튼이 클릭 또는 터치되는 등)된다.In the first step shown in Fig. 6 (1), the selection is made by a spherical touch by the
도 6의 것(2)으로 나타낸 제2 스텝에서는, 상기 제 1 스텝의 EC 처리로 구입 종별이 선택되었을 때, 상기 상품에 관한 상세한 정보가 표시되어 상기 유저(1200)에 의해 해상품의 구입이 결정된다.In the second step shown by (2) in Fig. 6, when a purchase type is selected in the EC processing of the first step, detailed information about the product is displayed and the
도 6의 (3)으로 나타낸 제3 스텝에서는, 상기 제2 스텝에 있어서 상기 유저(1200)에 의하여 구입이 결정된 상품의 주문 정보로서, 예를 들어, 당해 상품의 주문(구입)자 정보(여기에서는, 유저(1200)의 정보)나, 당해 상품의 배송처 주소나 연락처 등의 배송 정보가 입력되고, 또한, 당해 상품의 구입에 관한 결제 처리가 행하여지고, 예를 들어, 결제 대행 회사(1500)에 의하여 당해 유저(1200)의 은행 계좌로부터 당해 상품의 구입 대금이 인출된다.In the third step shown in FIG. 6 ( 3 ), as order information of the product for which purchase was decided by the
덧붙여, 상기 제3 스텝에 있어서의 주문 정보의 입력에 관하여는, 상기 제1 스텝 또는 제2 스텝의 구성에, 상기 유저(1200)에 의한 로그인 조작(유저 인증 처리이고, 본 발명에 있어서는, 도 1에 기재된 ATP* PG[3110]에 의하여 처리된다)을 센터 시스템(2200)이 접수하는 구성을 부가하면 생략할 수 있고, 이와 같은 구성은, 기존의 EC 사이트 등에서 채용되어 있는 회원 등록에 관한 구성을 이용하여 용이하게 구축할 수 있다.Incidentally, regarding the input of order information in the third step, in the configuration of the first step or the second step, a login operation by the user 1200 (user authentication processing, in the present invention, FIG. 1) can be omitted by adding a configuration in which the
또한, 상기의 결제 처리에 의하여, 상기 유저(1200)의 은행 계좌로부터 구입 대금이 이체되는 타이밍에 관하여는, 당해 유저(1200)가 구입한 상기 상품의 종류에 따라서는, 쿨링오프(cooling-off) 제도가 적용되어도 무방하다.In addition, with respect to the timing at which the purchase price is transferred from the bank account of the
도 6의 (3)으로 나타낸 제4 스텝에서는, 상기 제3 스텝에서 상기 유저(1200)에 의하여 입력된 상기 주문 정보와 상기 결제 회사(1500)에 의해 처리된 당해 유저(1200)에 의한 결제 정보에 기초하는 수주 정보가, 센터 시스템(2200)에 송신된다.In the fourth step shown by (3) of FIG. 6 , the order information input by the
도 6의 (5)로 나타낸 제5 스텝에서는, 상기 제4 스텝에서 센터 시스템(2200)에 송신된 상기 수주 정보에 기초하는 발주 정보가, 센터 시스템(2200)으로부터 상품 공급원(1400)의 정보 단말 등에 송신(예를 들어, E메일)되는 것과 함께, 제작자(1300)의 정보 단말 등에도 당해 발주 정보에 관한 통지가 송신된다.In the fifth step shown by (5) of FIG. 6 , the order information based on the order receipt information transmitted to the
도 6의 (6)으로 나타낸 제6 스텝에서는, 상기 제5 스텝에서 상기 상품 공급원(1400)에 송신된 주문 정보에 기초하여, 당해 상품 공급원(1400)으로부터 상기 유저(1200)(주문 정보의 배송처가 당해 유저(1200)의 주소와 같은 경우)에 상품이 배송된다.In the sixth step shown in FIG. 6 (6), based on the order information transmitted to the
도 6의 (7)로 나타낸 제7 스텝에서는, 상기 제3 스텝에서 결제 대행 회사(1500)에 의하여 회수된 구입 대금(판매액)으로부터, 상품 대금이 상품 공급원(1400)에, 또한, 배당금이 제작자(1300)에, 나아가, 마진이 센터(1100)에 입금된다.In the seventh step indicated by (7) of FIG. 6, the product price is transferred to the
상기의 예에서는, EC 통합형 메타미디어의 시청자나 상품을 구입하는 유저에 관하여, 일반적인 소비자로서 말하였지만, 예를 들어, 당해 시청자에는, 영상 컨텐츠의 제작자를 비롯하여, 엔터테인먼트나, 광고, 마케팅 등 여러 가지 업계인, 혹은, 신제품이나 신서비스의 개발자 등이 있어, 이와 같은 시청자가 구입(거래)하는 상품으로서, 예를 들어, 모델이나 스턴트 맨 등의 사람의 채용이나, 로케이션 현장의 호텔이나 식당 등의 이용이나, 특수 촬영이나 CG에 관한 기술 도입 등도 상정되기 때문에, 이와 같은 거래에 대응할 수 있는 EC 기능의 구성이 필요하게 되는 바, 근년에는, 인터넷 기술의 발달이나 규제 완화, 나아가, 블록 체인 기술 등에 의하여, 예를 들어, 여행이나 보험, 증권, 교육 등 계약을 수반하는 상품도, 스마트 컨트랙트 등이 새로운 개념으로 거래가 가능하게 되어 있고, 또한, 그 같은 거래 형태에 대응한 EC의 구조도 정비되어 있고, 이와 같은 거래 구성을 본 발명에 있어서의 [상품에 관한 EC 처리 과정]에 짜넣으면, 예를 들어, 상품이 사람의 채용이나 설비의 사용, 기술의 이전 등에 관한 거래였을 경우의 계약이나, 당해 상품이 옥션에 출품되어 있는 경우의 입찰 등, 상품의 거래 형태에 맞은 EC 처리의 실시 구성을 호출할 수 있는 기능을 용이하게 구성할 수 있다.In the above example, viewers of EC-integrated meta media and users who purchase products are spoken as general consumers. There are people in the industry, developers of new products or new services, etc., and such products are purchased (transacted) by such viewers, for example, the hiring of models or stuntmen, etc. Since use, special shooting, and introduction of CG-related technologies are also expected, it is necessary to construct an EC function that can respond to such transactions. As a result, for example, even for products accompanying contracts such as travel, insurance, securities, education, smart contracts, etc., it is possible to trade with a new concept, and the EC structure corresponding to such transaction types has also been established. , if such a transaction structure is incorporated into the [product EC processing process] in the present invention, for example, a contract in the case where the product is a transaction related to human employment, use of equipment, transfer of technology, etc. It is possible to easily configure a function that can call the implementation configuration of EC processing suitable for the transaction form of the product, such as bidding when the product is exhibited in an auction.
이상과 같이, 실시예 1에 나타낸 구성에 의하여, 영상 컨텐츠에 관련한 상품(물품이나 서비스)뿐만이 아니라, 영상 컨텐츠의 제작에 투자되는 여러 가지 리소스도 EC와 직결하여 판매할 수 있는 EC 통합형 메타미디어의 제작 방법, 및 전송 시스템의 제어 방법을 제공하는 것이 가능하게 된다.As described above, with the configuration shown in Example 1, not only products (goods or services) related to video content but also various resources invested in the production of video content can be sold directly with EC. It becomes possible to provide a manufacturing method and a control method of a transmission system.
[실시예 2[Example 2
이하, 본 발명의 실시예 2에 관하여 상세하게 설명한다.Hereinafter,
본 발명의 실시예 2는, 실시예 1에 있어서의 [장면 관리 데이터 생성 과정]과 [물체 검출 모델 작성 과정]과 [상품에 관한 EC 처리 과정]에 더하여, [음성(음향) 워터마크 제어 과정]에 의하여 구성된다.
덧붙여, 상기의 [장면 관리 데이터 생성 과정]과 [물체 검출 모델 작성 과정]과 [상품에 관한 EC 처리 과정]에 관하여는, 이미, 본 발명의 실시예 1에 관한 상세한 설명에 있어서 기재하였기 때문에, 이하에 있어서 기재를 생략한다.Incidentally, the above [scene management data generation process], [object detection model creation process] and [product EC processing process] have already been described in the detailed description regarding Example 1 of the present invention, Description is abbreviate|omitted below.
처음으로, [음성(음향) 워터마크 제어 과정]은, 음성(음향) 워터마크를 EC 통합형 메타미디어에 삽입하기 위한 [음성 인코드 처리]와, EC 통합형 메타미디어에 장치된 당해 음성(음향) 워터마크를 검출하기 위한 [음성 디코드 처리]의 2개의 처리에 의하여 구성된다.First, in the [audio (sound) watermark control process], [audio encoding processing] for inserting the audio (sound) watermark into the EC integrated metamedia, and the audio (sound) installed in the EC integrated meta media It is constituted by two processes of [audio decoding process] for detecting a watermark.
우선, [음성 인코드 처리]는, 실시예 1에서 설명한 [장면 관리 데이터 작성 과정]에 있어서, 정보·승인 등록 프로그램으로 편집된 장면 관리 파일로부터 장면 데이터 생성 프로그램에 의하여 장면 데이터 관리 DB에 등록된 장면 데이터와, 최종 편집 비디오 데이터로부터 비디오 데이터 보존 프로그램에 의하여 비디오 데이터 관리 DB에 등록된 장면 데이터와 편집된 비디오를 이용하고, (1) 장면 데이터의 비디오 ID와 장면 ID로부터 장면 식별 정보를 생성하는 제1 처리, (2) 당해 생성된 장면 식별 정보를 전용의 음성(음향) 워터마크 제어 소프트에 의하여 음성(음향) 워터마크 데이터에 인코드하는 제2 처리, (3) 비디오 편집 소프트에 의하여, 당해 음성(음향) 워터마크 데이터를 편집된 비디오의 각 장면에 삽입하면서 재편집하는 제3 처리에 의하여 구성된다.First, in the [audio encoding process], in the [scene management data creation process] described in the first embodiment, from the scene management file edited with the information/approval registration program, the scene data generation program registers in the scene data management DB. Using the scene data and the edited video registered in the video data management DB by the video data preservation program from the scene data and the last edited video data, (1) generating scene identification information from the video ID and scene ID of the scene data; A first process (2) a second process of encoding the generated scene identification information into audio (sound) watermark data using dedicated audio (sound) watermark control software, (3) video editing software, It is constituted by the third process of re-editing while inserting the audio (sound) watermark data into each scene of the edited video.
다음으로, [음성 디코드 처리]는, 예를 들어, 유저가, TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어에 의한 영상 컨텐츠에 대하여, 음성(음향) 워터마크 제어 기능을 가진 전용 애플리케이션이 인스톨된 스마트폰(부속의 마이크)을 향하게 하면, (1) TV로부터 출력되는 EC 통합형 메타미디어의 음성이 녹음되고, 전용 애플리케이션에 의하여, 녹음된 음성으로부터 음성(음향) 워터마크 데이터가 취득되는 제1 처리, (2) 당해 취득된 음성(음향) 워터마크 데이터가 디코드되어, 장면 식별 정보(비디오 ID, 장면 ID를 포함한다)가 검출되는 제2 처리에 의하여 구성된다.Next, [audio decoding processing] is, for example, a dedicated application having an audio (sound) watermark control function for video content by EC integrated meta media that is transmitted (broadcast or reproduced) by the user to the TV. When this installed smartphone (supplied microphone) is pointed, (1) the audio of EC integrated metamedia output from the TV is recorded, and audio (sound) watermark data is obtained from the recorded audio by a dedicated application. A first process and (2) a second process in which the acquired audio (sound) watermark data is decoded and scene identification information (including video ID and scene ID) is detected.
예를 들어, 여기서, 상기 검출된 장면 식별 정보가 유저의 스마트폰으로부터 센터 시스템에 송신되면, 당해 장면 식별 정보에 기초하는 상품 일람 데이터가 상품 데이터 관리 DB로부터 생성되고, 당해 생성된 상품 일람 데이터가 센터 시스템으로부터 유저의 스마트폰에 송신되면, 당해 송신된 상품 일람 데이터가 스마트폰에 표시되는 것과 함께, 당해 상품 일람으로부터 좋아하는 상품을 구입할 수 있는 EC 처리 선택으로 이행할 수 있다.For example, here, when the detected scene identification information is transmitted from the user's smartphone to the center system, product list data based on the scene identification information is generated from the product data management DB, and the generated product list data is When transmitted from the center system to the user's smartphone, the transmitted product list data is displayed on the smartphone, and the selection of the EC processing for purchasing a favorite product from the product list can be performed.
도 7은, 본 발명의 실시예 2에 있어서의 [음성(음향) 워터마크 제어 과정]에 관한 처리 플로가, 기호 [A1]~[A4]의 플로가 [음성(음향) 워터마크 제어 과정/음성 인코드 처리]이고, 기호[B1]~[B4]의 플로가 [음성(음향) 워터마크 제어 과정/음성 디코드 처리]이다.Fig. 7 shows the flow of processing related to [audio (sound) watermark control process] in Example 2 of the present invention, and the flow of symbols [A1] to [A4] is [audio (sound) watermark control process/ audio encoding process], and the flow of symbols [B1] to [B4] is [audio (sound) watermark control process/audio decode process].
[음성(음향) 워터마크 제어 과정/음성 인코드 처리][Voice (sound) watermark control process/Voice encoding process]
우선, 본 발명에 있어서의 [음성(음향) 워터마크 제어 과정/음성 인코드 처리]는, 장면 식별 정보의 텍스트 데이터를 비가청음에 합성하여 공개용 비디오의 각 장면에 저장하는(비디오 음성의 편집에 의한다) 처리이고, 주요 3 스텝의 처리에 의하여 구성된다.First, in the [audio (sound) watermark control process/audio encoding process] in the present invention, text data of scene identification information is synthesized with inaudible sound and stored in each scene of a video for public use (for editing video and audio) ) process, and is constituted by the process of three main steps.
도 7의 [A1]로 나타낸 제1 스텝에서는, 장면 식별 정보 생성 처리에 의하여, 음성(음향) 워터마크를 삽입하는 비디오의 비디오 ID에 기초하여 장면 데이터 관리 DB(5220)로부터 장면 데이터(7220)가 추출되는 것과 함께, 당해 비디오 ID와 당해 장면 데이터(7220)의 장면 ID로 이루어지는 장면 식별 정보(7410)가 생성된다.In the first step indicated by [A1] in Fig. 7,
도 7의 [A2]로 나타낸 제2 스텝에서는, 상기 제1 스텝에서 생성된 상기 장면 식별 정보(7410)가 전용의 음성(음향) 워터마크 제어 소프트(3510)에 의하여 음성(음향) 워터마크 데이터(7520)에 인코드된다.In the second step indicated by [A2] in Fig. 7, the
도 7 [A3]로 나타낸 제3 스텝에서는, 상기 제2 스텝에서 인코드된 음성 워터마크 데이터(7520)가, 비디오 편집 소프트(3210)에 의하여, 음성(음향) 워터마크를 삽입하는 비디오의 비디오 ID에 기초하여 비디오 데이터 관리 DB(5250)로부터 꺼내진 비디오 데이터(7230)의 각 장면에 장치되면서 재편집된다.In the third step shown in Fig. 7 [A3], the
[음성(음향) 워터마크 제어 과정/음성 디코드 처리][Voice (sound) watermark control process/voice decode process]
우선, 본 발명에 있어서의 [음성(음향) 워터마크 제어 과정/음성 디코드 처리]는, 공개용 비디오의 각 장면에 저장되어 있는 음성 워터마크(비가청음에 합성된 장면 식별 정보의 텍스트 데이터)로부터 당해 장면 식별 정보를 꺼내는 처리이고, 주요 4 스텝의 처리에 의하여 구성된다.First, the [audio (sound) watermark control process/audio decoding process] in the present invention is performed from the audio watermark (text data of scene identification information synthesized with inaudible sound) stored in each scene of the public video. It is a process of extracting scene identification information, and is constituted by the process of 4 main steps.
도 7의 [B1]로 나타낸 제1 스텝에서는, 유저(1200)가, TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어에 의한 영상 컨텐츠([음성(음향) 워터마크 제어 과정/음성 인코드 처리]에 기재된 편집된 비디오)에 대하여, 장면 선택 조작, 즉, 음성(음향) 워터마크 제어 기능을 가진 전용 애플리케이션(4510)이 인스톨된 스마트폰(2320)을 향하게 하면, 당해 스마트폰(2320)의 마이크부에 TV로 전송(방송이나 재생)되어 있는 EC 통합형 메타미디어의 음성(음파)이 입력되고, 당해 전용 애플리케이션(4510)에 의하여 당해 음성(음파)에 기초하는 녹음 데이터(7510)가 생성되는 것과 함께, 당해 녹음 데이터의 당해 녹음 시점에 있어서의 당해 영상 컨텐츠의 장면에 관한 음성 워터마크 데이터가 취득된다.In the first step indicated by [B1] in Fig. 7, the
도 7의 [B2]로 나타낸 제2 스텝에서는, 상기 전용 애플리케이션(4510)에 의하여, 상기 취득된 음성 워터마크 데이터로부터 상기 녹음 시점에 있어서의 장면에 관한 장면 식별 정보(7410)(비디오 ID, 장면 ID를 포함한다)가 음성 디코드 기능에 의하여 검출되는 것과 함께, 당해 검출된 장면 식별 정보(7410)가 센터 시스템(2200)에 송신된다.In the second step indicated by [B2] in Fig. 7, scene identification information 7410 (video ID, scene) about a scene at the time of recording from the acquired audio watermark data by the
도 7 [B3]로 나타낸 제3 스텝에서는, 상기 센터 시스템(2200)에 송신된 장면 식별 정보(7410)에 기초하는 상품 데이터 검색 처리에 의하여, 상품 데이터 관리 DB(5210)로부터 상품 일람 데이터(7530)가 생성되는 것과 함께, 당해 생성된 상품 일람 데이터(7530)가 상기 스마트폰(2320)에 송신된다.In the third step shown in FIG. 7 [B3], the
도 6 [B4]로 나타낸 제4 스텝에서는, 상기 전용 애플리케이션(4510)에 의하여, 당해 송신된 상품 일람 데이터(7530)가 당해 스마트폰(2320)에 표시되는 것과 함께, 유저(1200)에 의한 EC 처리 선택을 접수한다.In the fourth step shown in FIG. 6 [B4], the transmitted
덧붙여, 상기 스마트폰(2320)에 송신되는 상기 상품 일람 데이터(7530)를 대신하여, 상술의 [EC 통합형 메타미디어 전송 과정에 관한 제2 설명]에서 설명한 UI처리된 장면 화상 데이터가 당해 스마트폰(2320)에 송신되도록 구성하면, 상기 장면 선택 조작이 여러 차례 행하여졌을 경우, 당해 UI처리된 장면 화상 데이터(복수)가, 상술한 바와 같이 섬네일 표시되기 때문에, 보다 편리한 상품 선택 방법을 유저에 제공할 수 있다.In addition, instead of the
이 경우, 상기 스마트폰(2320)에 송신되는 UI 처리된 장면 화상 데이터(복수)를 구성하는 장면 화상 데이터에 관하여는, 상기 TV에 전송되고 있던 비디오 화상의 장면 화상 데이터를 직접은 취득할 수 없지만, 상기 센터 시스템(2200)에 송신된 장면 식별 정보(7410)에 기초하는 장면 데이터 검색 처리로 검색되는 장면 데이터(비디오 ID와 장면 ID를 포함한다)에 의하여 상술한 [장면 관리 데이터 생성 과정]의 제8 스텝에서 공개용 비디오 데이터가 보존되어 있는 도 2(8)에 게재된 비디오 데이터 관리 DB(5230)로부터 상기 TV에 전송되어 있던 비디오 데이터를 참조(검색)하여 해당(장면 ID가 일치)하는 장면 화상 데이터를 취득할 수 있기 때문에, 상술한 [EC 통합형 메타미디어 전송 과정]의 제8 스텝에서 설명한 바와 같이, 당해 취득한 장면 화상 데이터에 포함되는 상기 상품 일람 데이터(7530)에 대응하는 상품이 표시되어 있는 범위에 대한 UI 처리에 의하여 당해 UI 처리된 장면 화상 데이터(복수)를 구성할 수 있다.In this case, with respect to the scene image data constituting the UI-processed scene image data (plural) transmitted to the
이상과 같이, 실시예 2에 나타낸 구성에 의하여, 전용의 시청 시스템을 필요로 하지 않고, 영상 컨텐츠 내에서 판매되는 상품을 장면으로부터 용이하고 또한 다이렉트로 구입할 수 있는 EC 기능을 제공하는 것이 가능하게 된다.As described above, with the configuration shown in the second embodiment, it is possible to provide an EC function that can easily and directly purchase goods sold in video content from the scene without requiring a dedicated viewing system. .
이와 같은 구성에 의하면, EC 통합형 영상 컨텐츠를 TV방송으로 전송할 수 있고, 예를 들어, 길거리에서 방송되어 있는 당해 EC 통합형 영상 컨텐츠에 스마트폰을 향하는 것만으로, 당해 EC 통합형 영상 컨텐츠의 장면 화상을 캡쳐한 바와 같이 취득할 수 있고, 게다가, 이것을 UI 처리된 장면 화상 데이터로서 제공할 수 있기 때문에, 상품에 대한 유저의 충동적인 관심을 놓치지 않는다.According to such a configuration, the EC integrated video content can be transmitted through TV broadcasting, and for example, a scene image of the EC integrated video content can be captured by simply pointing a smartphone at the EC integrated video content broadcast on the street. Since it can be acquired as a result and, moreover, it can be provided as UI-processed scene image data, the user's impulsive interest in the product is not lost.
1100 센터
1200 유저
1300 제작자
1400 상품 공급원
1500 결제 회사
1900 인터넷
2100 통신 제어 장치(라우터 등)
2200 메인 시스템(EC 통합형 메타미디어 전송 시스템)
2210 WEB 서버 장치
2220 애플리케이션 서버 장치
2230 데이터베이스 관리 서버 장치
2300 클라이언트 장치
2310 PC
2320 스마트폰
2410 원본 비디오
2420 전용 비디오 플레이어
2500 서브 시스템(EC 시스템용)
3110 ATP* PG>Authentic Process(인증 처리 프로그램)
3210 VED* SW>Video Editing(비디오 편집 소프트웨어)
3220 FMX* PG>Format Exchange(포맷 변환 프로그램)
3230 IGR* PG>Info & Goods Register(정보·상품 등록 프로그램)
3240 SDG* PG>Scene Data Generator(장면 데이터 생성 프로그램)
3250 VDS* PG>Video Data Storage(비디오 데이터 보존 프로그램)
3310 LMC* PG>Learning Model Creator(학습 모델 작성 프로그램)
3510 WMC* SW>Watermark Control(음성(음향) 워터마크 제어 소프트웨어)
4100 클라이언트 애플리케이션
4210 VDP* AP>Video Player(전용 비디오 플레이어·애플리케이션)
4510 WMC* AP>Watermark Control(음성(음향) 워터마크 제어 애플리케이션)
5110 USR* MNG DB>User(유저 관리 DB )
5120 PRD* MNG DB>Producer(제작자 관리 DB)
5130 SPL* MNG DB>Supplier(공급원 관리 DB)
5210 GDD* MNG DB>Goods Data(상품 데이터 관리 DB)
5220 SCD* MNG DB>Scene Data(장면 데이터 관리 DB)
5230 VDD* MNG DB>Video Data(비디오 데이터 관리 DB)
6210 편집 정보 공유 파일
6220 장면 관리 파일
6240 EC 상품 테이블
6310 학습 모델 보존 파일
7210 상품 데이터
7220 장면 데이터
7230 비디오 데이터
7240 EC 상품 데이터
7310 학습 모델 데이터
7410 장면 식별 정보
7420 장면 화상 데이터
7430 상품 ID 리스트(상품 조회 처리에 의하여 취득된다)
7440 상품 ID 리스트(물체 검증 처리에 의하여 검출된다)
7450 장면 선택 정보 보존 파일
7460 UI 처리된 장면 화상 데이터
7510 녹음 데이터
7520 음성 워터마크 데이터
7530 상품 일람 데이터1100 Center
1200 users
1300 Producer
1400 commodity supply
1500 payment companies
1900 internet
2100 Communication Control Unit (Router, etc.)
2200 main system (EC integrated metamedia transmission system)
2210 WEB Server Device
2220 application server device
2230 database management server unit
2300 client devices
2310 pcs
2320 Smartphone
2410 original video
2420 dedicated video player
2500 subsystem (for EC systems)
3110 ATP* PG>Authentic Process (authentication processing program)
3210 VED* SW>Video Editing (video editing software)
3220 FMX* PG>Format Exchange (format converter)
3230 IGR* PG>Info & Goods Register (information and product registration program)
3240 SDG* PG>Scene Data Generator
3250 VDS* PG>Video Data Storage (video data storage program)
3310 LMC* PG>Learning Model Creator
3510 WMC* SW>Watermark Control (voice (sound) watermark control software)
4100 client application
4210 VDP* AP>Video Player (dedicated video player application)
4510 WMC* AP>Watermark Control (voice (sound) watermark control application)
5110 USR* MNG DB>User (User Management DB)
5120 PRD* MNG DB>Producer (Producer Management DB)
5130 SPL* MNG DB>Supplier (source management DB)
5210 GDD* MNG DB>Goods Data (product data management DB)
5220 SCD* MNG DB>Scene Data (Scene Data Management DB)
5230 VDD* MNG DB>Video Data (video data management DB)
6210 Edit Information Share File
6220 Scene Management File
6240 EC product table
6310 Training Model Preservation File
7210 product data
7220 scene data
7230 video data
7240 EC product data
7310 training model data
7410 Scene Identification Information
7420 Scene image data
7430 Product ID list (obtained by product inquiry process)
7440 Product ID list (detected by object verification processing)
7450 Scene Selection Information Preservation File
7460 UI processed scene image data
7510 Recorded data
7520 Voice Watermark Data
7530 product list data
Claims (14)
[a] 상품 데이터를 관리하기 위한 상품 데이터 관리 데이터베이스에 상품의 정보를 등록하는 스텝과,
[b] 상기 상품의 EC 처리에 관한 정보를 관리하는 EC 상품 테이블을 생성하는 스텝과,
[c] 영상 컨텐츠의 편집 정보를 공유하기 위한 편집 정보 공유 파일을 생성하는 스텝과,
[d] 상기 편집 정보 공유 파일의 장면에 관한 정보로부터 장면 정보를 관리하기 위한 장면 관리 파일을 생성하여 상기 상품 데이터 관리 데이터베이스의 상품 ID를 추가하는 스텝과,
[e] 장면 데이터를 관리하기 위한 장면 데이터 관리 데이터베이스에 상기 장면 관리 파일의 장면 데이터를 등록하는 스텝과,
[f] 비디오 데이터를 관리하기 위한 비디오 데이터 관리 데이터베이스에 상기 영상 컨텐츠의 공개용 비디오 데이터를 등록하는 스텝과,
[g] 상기 공개용 비디오 데이터의 장면과 상기 장면 데이터 관리 데이터베이스의 장면 데이터와 상기 상품 데이터 관리 데이터베이스의 상품 데이터로부터 물체 검출용의 학습된 데이터를 생성하는 스텝과,
[h] 상기 물체 검출용의 학습된 데이터를 이용하여 장면 화상 데이터에 포함되는 물체를 검출하는 스텝과,
[i] 유저에 의한 선택 조작의 시점에 있어서의 장면의 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
[j] 상기 검출의 결과의 상기 물체가 상기 검색의 결과의 상기 상품 정보에 포함되는지를 조합하는 스텝과,
[k] 상기 조합의 결과의 물체가 표시되어 있는 상기 장면 화상 데이터의 범위에 링크 요소를 교부한 UI 처리된 장면 화상 데이터를 생성하는 스텝을 포함하는, 제작 방법.A method for producing EC-integrated metamedia including an EC UI function that allows a user who becomes a viewer of video content to trade the production resource of the video content as a product,
[a] A step of registering product information in a product data management database for managing product data;
[b] creating an EC product table for managing information on EC processing of the product;
[c] A step of creating an editing information sharing file for sharing the editing information of the video content;
[d] creating a scene management file for managing scene information from the scene information in the edited information shared file and adding a product ID of the product data management database;
[e] registering the scene data of the scene management file in a scene data management database for managing the scene data;
[f] registering the video data for public use of the video content in a video data management database for managing video data;
[g] generating learned data for object detection from the scene of the video data for publication, the scene data of the scene data management database, and the product data of the product data management database;
[h] detecting an object included in the scene image data using the learned data for object detection;
[i] a step of searching for product information based on the identification information of the scene at the time of the selection operation by the user;
[j] combining whether the object of the detection result is included in the product information of the search result;
[k] A production method including a step of generating UI-processed scene image data in which a link element is assigned to a range of the scene image data in which the object of the combination result is displayed.
상기 스텝 [e]가, 상기 영상 컨텐츠의 각 장면에 음성 워터마크를 삽입하는 스텝을 포함하고, 상기 음성 워터마크는 음성 인코드 처리된 식별 정보인, 제작 방법.The method of claim 1,
and the step [e] includes a step of inserting an audio watermark into each scene of the video content, wherein the audio watermark is audio-encoded identification information.
[a]영상 컨텐츠의 각 장면에 음성 워터마크를 삽입하는 스텝과,
[b]상기 영상 컨텐츠가 범용의 시청 기기로 방영되는 스텝과,
[c]상기 영상 컨텐츠에 표시된 장면을 상기 유저가 선택한 것을 클라이언트 장치로 검지하는 스텝과,
[d]상기 선택 조작의 검지에 의하여 당해 선택 조작 시점에 있어서의 장면의 식별 정보를 상기 클라이언트 장치로부터 취득하는 스텝과,
[e]상기 취득한 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
[f]상기 상품 정보를 상기 클라이언트 장치에 송신하는 스텝과,
[g]상기 송신에 의하여 상기 클라이언트 장치에 상기 상품 정보가 표시되는 스텝과,
상기 스텝 [d]에서 취득된 식별 정보에 기초하여 비디오 데이터를 검색하여 당해 검색한 비디오 데이터로부터 당해 식별 정보에 대응하는 장면 화상 데이터를 취득하는 스텝과,
취득한 상기 장면 화상 데이터에 포함되는 물체를 검출하는 스텝과,
취득한 상기 식별 정보에 기초하여 상품 정보를 검색하는 스텝과,
상기 검출의 결과의 상기 물체가 상기 검색의 결과의 상기 상품 정보에 포함되는지를 조합하는 스텝과,
상기 스텝 [e]에서 검색된 상품 정보의 상품이 표시되어 있는 당해 장면 화상 데이터의 범위에 링크 요소를 붙인 UI 처리된 장면 화상 데이터를 생성하는 스텝을 포함하고,
상기 음성 워터마크는 음성 인코드 처리된 식별 정보인, 전송 방법.An EC integrated metamedia transmission method including an EC UI function that allows users who become viewers of video content to trade the production resources of the video content as a commodity,
[a] a step of inserting an audio watermark into each scene of the video content;
[b] A step in which the video content is broadcast on a general-purpose viewing device;
[c] detecting, by the client device, that the user has selected the scene displayed in the video content;
[d] acquiring, from the client device, identification information of a scene at the time of the selection operation by detection of the selection operation;
[e] a step of searching for product information based on the acquired identification information;
[f] transmitting the product information to the client device;
[g] displaying the product information on the client device by the transmission;
a step of retrieving video data based on the identification information obtained in step [d] and obtaining scene image data corresponding to the identification information from the searched video data;
detecting an object included in the acquired scene image data;
a step of retrieving product information based on the acquired identification information;
combining whether the object of the detection result is included in the product information of the search result;
a step of generating UI-processed scene image data in which a link element is attached to the range of the scene image data in which the product of the product information searched in step [e] is displayed;
The voice watermark is voice-encoded identification information.
[h]상기 클라이언트 장치에 표시된 상품 정보의 상품에 대한 상기 유저에 의한 EC 처리를 접수하는 스텝과,
[i]상기 EC 처리의 접수에 의하여 상기 상품 정보의 EC 처리 종별을 참조하는 스텝과,
[j]상기 참조에 의하여 상기 EC 처리 종별로 대응하는 EC 처리의 구성을 호출하는 스텝을 더 포함하는, 전송 방법.13. The method of claim 12,
[h] receiving the EC processing by the user for the product of the product information displayed on the client device;
[i] A step of referring to the EC processing type of the product information upon receipt of the EC processing;
[j] The transmission method further comprising the step of invoking the configuration of the EC processing corresponding to the type of the EC processing according to the reference.
상기 스텝 [f]의 구성을 상기 클라이언트 장치에 상기 UI 처리된 장면 화상 데이터를 송신하는 구성으로 치환한 스텝과,
상기 스텝 [g]의 구성을 상기 클라이언트 장치에 상기 UI 처리된 장면 화상 데이터를 표시하는 구성으로 치환한 스텝과,
상기 스텝 [h]를 실행하기 전에 상기 클라이언트 장치에 표시된 상기 UI 처리된 장면 화상 데이터에 포함된 상기 링크 요소를 상기 유저가 선택한 것을 당해 클라이언트 장치로 검지하여 당해 검지한 당해 링크 요소를 당해 클라이언트 장치로부터 취득하는 스텝과,
상기 취득한 링크 요소에 기초하여 상품 정보를 검색하는 것과 함께, 당해 검색 결과의 상품 정보를 당해 클라이언트 장치에 송신하여 표시하는 스텝을 더 포함하는, 전송 방법.14. The method of claim 13,
a step of replacing the configuration of the step [f] with a configuration of transmitting the UI-processed scene image data to the client device;
a step of replacing the configuration of the step [g] with a configuration of displaying the UI-processed scene image data on the client device;
Before executing the step [h], the client device detects that the user selected the link element included in the UI-processed scene image data displayed on the client device, and retrieves the detected link element from the client device steps to obtain,
The transmission method further comprising the step of retrieving product information based on the acquired link element, and transmitting product information of the search result to the client device for display.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200058861A KR102387978B1 (en) | 2020-05-18 | 2020-05-18 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
KR1020220045084A KR102476006B1 (en) | 2020-05-18 | 2022-04-12 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200058861A KR102387978B1 (en) | 2020-05-18 | 2020-05-18 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220045084A Division KR102476006B1 (en) | 2020-05-18 | 2022-04-12 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210142258A KR20210142258A (en) | 2021-11-25 |
KR102387978B1 true KR102387978B1 (en) | 2022-04-18 |
Family
ID=78745813
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200058861A KR102387978B1 (en) | 2020-05-18 | 2020-05-18 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
KR1020220045084A KR102476006B1 (en) | 2020-05-18 | 2022-04-12 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220045084A KR102476006B1 (en) | 2020-05-18 | 2022-04-12 | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102387978B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101519822B1 (en) | 2013-11-28 | 2015-05-14 | 주식회사 씨케이앤비 | Apparatus for transmitting contents, system and method for serving contents linkage data of using the same |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5696905A (en) | 1995-03-20 | 1997-12-09 | International Business Machines Corporation | System and method for providing merchant information and establishing links to merchants while presenting a movie |
JP2002334092A (en) | 2001-05-11 | 2002-11-22 | Hitachi Ltd | Method for relating information, information reading device, information register information retrieving device, charging method, and program |
CN101115124B (en) | 2006-07-26 | 2012-04-18 | 日电(中国)有限公司 | Method and apparatus for identifying media program based on audio watermark |
JP4883046B2 (en) | 2008-03-31 | 2012-02-22 | ヤマハ株式会社 | Viewing confirmation system |
KR20100125698A (en) * | 2009-05-21 | 2010-12-01 | (주)코리아센터닷컴 | Shopping mall host server for providing electronic commerce using video contents and method thereof |
US9955206B2 (en) | 2009-11-13 | 2018-04-24 | The Relay Group Company | Video synchronized merchandising systems and methods |
KR20130015436A (en) * | 2011-08-03 | 2013-02-14 | 이서현 | System for providing play of video file and service of video information |
KR101801846B1 (en) * | 2015-08-26 | 2017-11-27 | 옴니어스 주식회사 | Product search method and system |
WO2020194663A1 (en) * | 2019-03-28 | 2020-10-01 | オリンパス株式会社 | Tracking device, pretained model, endoscope system, and tracking method |
-
2020
- 2020-05-18 KR KR1020200058861A patent/KR102387978B1/en active IP Right Grant
-
2022
- 2022-04-12 KR KR1020220045084A patent/KR102476006B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101519822B1 (en) | 2013-11-28 | 2015-05-14 | 주식회사 씨케이앤비 | Apparatus for transmitting contents, system and method for serving contents linkage data of using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20210142258A (en) | 2021-11-25 |
KR20220051149A (en) | 2022-04-26 |
KR102476006B1 (en) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11915277B2 (en) | System and methods for providing user generated video reviews | |
JP6803427B2 (en) | Dynamic binding of content transaction items | |
US20240314387A1 (en) | Interactive video distribution system and video player utilizing a client server architecture | |
US10796343B2 (en) | Systems and methods for augmenting digital content | |
US8635169B2 (en) | System and methods for providing user generated video reviews | |
US8615474B2 (en) | System and methods for providing user generated video reviews | |
US20140150029A1 (en) | System and methods for providing user generated video reviews | |
US20060136305A1 (en) | Product and presentation placement system and method | |
CN105631700A (en) | Content creation, deployment collaboration, and badges | |
CN101981576A (en) | Associating information with media content using objects recognized therein | |
JP2013544383A (en) | Content capture device and method for automatically tagging content | |
CN101772777A (en) | Textual and visual interactive advertisements in videos | |
US11432046B1 (en) | Interactive, personalized objects in content creator's media with e-commerce link associated therewith | |
US20100131346A1 (en) | Method And System For Associating A Seller With Purchased Digital Content | |
US20220222739A1 (en) | Method for creating ec-integrated metamedia, distribution system, and distribution method | |
KR102434837B1 (en) | System and method for providing cultural contents value chain service using character doll and figure | |
US20230075182A1 (en) | Systems and methods for managing content from creation to consumption | |
KR102387978B1 (en) | Electronic commerce integrated meta-media generating method, distributing system and method for the electronic commerce integrated meta-media | |
KR20180041879A (en) | Method for editing and apparatus thereof | |
US20170323348A1 (en) | Method, apparatus, and computer-readable medium for content delivery | |
KR20070094356A (en) | Video based goods information proffer transaction method | |
KR20190130775A (en) | Contents oriented information providing method | |
Antwi | Internet-based business models for management consultancy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |