KR102258420B1 - Animaiton contents resource service system and method based on intelligent information technology - Google Patents

Animaiton contents resource service system and method based on intelligent information technology Download PDF

Info

Publication number
KR102258420B1
KR102258420B1 KR1020190082549A KR20190082549A KR102258420B1 KR 102258420 B1 KR102258420 B1 KR 102258420B1 KR 1020190082549 A KR1020190082549 A KR 1020190082549A KR 20190082549 A KR20190082549 A KR 20190082549A KR 102258420 B1 KR102258420 B1 KR 102258420B1
Authority
KR
South Korea
Prior art keywords
image
search
animation
information
unit
Prior art date
Application number
KR1020190082549A
Other languages
Korean (ko)
Other versions
KR20210006662A (en
Inventor
김석윤
김영모
이수환
Original Assignee
(사)한국애니메이션제작자협회
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (사)한국애니메이션제작자협회, 숭실대학교산학협력단 filed Critical (사)한국애니메이션제작자협회
Priority to KR1020190082549A priority Critical patent/KR102258420B1/en
Publication of KR20210006662A publication Critical patent/KR20210006662A/en
Application granted granted Critical
Publication of KR102258420B1 publication Critical patent/KR102258420B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법에 관한 것으로서, 더 상세하게는 객체인식 및 추적 알고리즘을 기반으로 애니메이션 자원으로부터 객체를 인식하여 분류, 저장 및 검색에 의해 제공하며, 사용자의 검색 정보를 바탕으로 관련도 높은 애니메이션 자원을 추천하는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법이다.The present invention relates to an intelligent information technology-based animation content resource service system and method, and more particularly, to recognize an object from an animation resource based on an object recognition and tracking algorithm, and provide it by classification, storage, and search, and the user's search It is an intelligent information technology-based animation content resource service system and method that recommends animation resources with high relevance based on information.

Description

지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법{Animaiton contents resource service system and method based on intelligent information technology}Animation contents resource service system and method based on intelligent information technology

본 발명은 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법에 관한 것으로서, 더 상세하게는 객체인식 및 추적 알고리즘을 기반으로 애니메이션 자원으로부터 객체를 인식하여 분류, 저장 및 검색에 의해 제공하며, 사용자의 검색 정보를 바탕으로 관련도 높은 애니메이션 자원을 추천하는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법에 관한 것이다.The present invention relates to an intelligent information technology-based animation content resource service system and method, and more particularly, to recognize an object from an animation resource based on an object recognition and tracking algorithm, and provide it by classification, storage, and search, and the user's search The present invention relates to an intelligent information technology-based animation content resource service system and method for recommending animation resources with high relevance based on information.

이른바 만화영화로 알려져있는 애니메이션은 움직이지 않는 물체를 움직이는 것처럼 보이게 만드는 촬영 기업 또는 그렇게 만들어진 영화를 뜻하며, 우리나라에서는 1950년대 중반에 최초로 애니메이션이 상영된 이후로 현재까지 급격하게 그 수요와 관련 기술이 발전하고 있다.Animation, known as so-called cartoon film, refers to a filming company that makes motionless objects appear to be moving or films made in such a way.In Korea, the demand and related technologies have rapidly developed since the first animation was screened in the mid-1950s. I'm doing it.

이와 더불어 전 세계적으로 동영상 시장 규모가 커지고, 동영상 관련한 서비스의 방문자 및 페이지뷰의 지속적인 증가에 따라 관련 사업 및 기술 개발도 지속적으로 증가하고 있으며, 따라서 스마트 디바이스의 증가 등으로 인하여 동영상 소비는 지속적으로 증가할 전망이다.In addition, as the global video market is growing and the number of visitors and page views for video-related services continues to increase, related business and technology development is continuously increasing. Therefore, video consumption continues to increase due to the increase of smart devices. It is expected to do.

일반인에게 많이 알려진 애니메이션의 예로, 뽀로로, 피카츄, 짱구와 같은 만화영화 등은 일반적으로 제작 준비기간에 6개월, 제작비는 편당 6천만원 내지 1억원 정도의 비용이 소모되며, 유통사 판매는 편당 5백만원 내지 1천만원 등으로 비용이 책정되어 있다.As an example of animation that is well known to the general public, cartoon movies such as Pororo, Pikachu, and Janggu generally consume 6 months in preparation for production, and production costs are between 60 million won and 100 million won per episode, and sales at distribution companies range from 5 million won per episode. The cost is set at 10 million won.

그런데, 이렇게 많은 비용과 시간을 들여서 애니메이션 영상이 만들어지지만 상기 애니메이션을 만들기 위하여 제작된 많은 애니메이션 소스, 즉 애니메이션 리소스와, 각 이미지 객체 등은 일반적으로 애니메이션 영상 제작 후 사장되고 폐기되는 경우가 많이 있었다.However, although animation images are produced with such a large cost and time, many animation sources, that is, animation resources, and image objects produced to create the animation, are generally destroyed and discarded after production of the animation image.

따라서, 향후 후속편의 제작 또는 다른 사람이 저작권자 등과 계약 또는 허락 등을 얻어 상기 애니메이션의 캐릭터(이미지 객체) 등을 활용하여 사업을 하고자 하는 경우에 이미 작업하였던 애니메이션 소스였음에도 불구하고 새로 작업 및 생성하여야 하는 경우도 많이 발생하였으며, 그에 따른 시간, 인력 및 비용의 낭비가 상당한 문제가 있었다.Therefore, in the case of future production of a sequel or another person seeking a contract or permission with the copyright holder to do business using the character (image object) of the animation, although it was an animation source that has already been worked, a new work and creation are required. There were also many cases, and there was a significant problem in wasting time, manpower, and costs accordingly.

그러나, 이러한 문제를 해결하기 위한 애니메이션 유통 생태계의 상호 공생 및 수익 공유를 위하여 애니메이션 소스 등을 재활용하고 공유할 수 있는 서비스에 관한 기술은 전무한 상황이며, 따라서 애니메이션 소스로부터 향후 사용할 수 있는 이미지 객체와 같은 데이터를 추출 및 분류하고, 저장하고, 검색할 수 있고, 필요한 사용자에게 제공할 수 있는 시스템에 대한 기술 개발이 필요한 실정이다.However, there is no technology for a service that can recycle and share animation sources for mutual symbiosis and profit sharing in the animation distribution ecosystem to solve this problem, and therefore, image objects such as image objects that can be used in the future from animation sources are not available. There is a need to develop a technology for a system that can extract, classify, store, and search data, and provide it to users who need it.

한편, 이미지 인식 기술은 통상 이미지에 나타난 객체가 무엇인지를 인식하는 기술을 지칭하며, 수많은 양의 이미지 데이터를 바탕으로 이미지를 인식하는 비전 분야의 머신러닝 기술을 발전을 해왔다.Meanwhile, image recognition technology generally refers to a technology that recognizes what an object appears in an image, and has developed a machine learning technology in the field of vision that recognizes images based on a large amount of image data.

특히 기존의 신경망 기술을 발전시킨 딥러닝 기술은 급격한 성능 향상을 보여주었으며, 비전과 자연어 처리 등 인공지능이 필요한 거의 모든 분야에 접목되어 지금도 활발히 연구가 진행 되고 있다.In particular, deep learning technology, which has developed the existing neural network technology, has shown a rapid performance improvement, and is being actively researched as it has been applied to almost all fields requiring artificial intelligence such as vision and natural language processing.

2012년도에 토론토 대학의 제프리 힌튼 교수가 딥려닝 기술을 도입한 후에 성능은 눈에 띄게 향상되었으며, 2015년도 이후에는 이미지 분류와 같은 일부 분야의 경우 딥러닝의 성능이 인간을 넘어 섰다는 평가를 받을 정도로 관련 기술이 발달되었으며, 객체 인식 방법에서는 CNN을 기반으로 R-CNN부터 SSD까지 발전 되어 왔다. After Professor Jeffrey Hinton of the University of Toronto introduced deep learning technology in 2012, the performance improved significantly, and after 2015, the performance of deep learning in some fields, such as image classification, has been evaluated as surpassing humans. The related technology has been developed to that extent, and the object recognition method has been developed from R-CNN to SSD based on CNN.

그런데, 이러한 종래의 지능정보 기반의 이미지 인식 기술은 특별한 대상 없이 전체 이미지를 대상으로 각 객체를 인식하기 때문에 시간이 오래 걸리는 문제점 등이 있었으며, 애니메이션에 특화된 지능 정보 기반의 이미지 인식 기술에 관하여는 소개된 바가 없었다.However, this conventional intelligent information-based image recognition technology has a problem that takes a long time because it recognizes each object for the entire image without a special object, and an introduction to image recognition technology based on intelligent information specialized for animation. Nothing happened.

따라서, 전술한 애니메이션 소스로부터 향후 사용할 수 있는 이미지 객체와 같은 데이터를 추출 및 분류하기 위한 애니메이션에 최적화된 지능정보기술기반 애니메이션 콘텐츠 인식 기술에 관한 기술 개발이 필요한 실정이다.Accordingly, there is a need to develop a technology for an intelligent information technology-based animation content recognition technology optimized for animation for extracting and classifying data such as image objects that can be used in the future from the animation source described above.

본 발명은 본 발명은 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법을 제공하는 것을 해결하고자 하는 과제로 한다.The present invention is an object of the present invention to provide an intelligent information technology-based animation content resource service system and method.

전술한 본 발명의 과제는 애니메이션의 리소스 이미지, 장면 이미지 및 영상 중 적어도 하나를 포함하는 애니메이션 소스가 입력되는 소스 입력부와, 상기 소스 입력부에 입력되는 애니메이션 소스에 포함된 이미지 객체를 분류하는 데이터 분류부와, 상기 인식된 각각의 객체에 대한 메타데이터를 추출하는 메타데이터 처리부와, 상기 인식된 각각의 객체에 대한 키워드 및 카테고리를 추출하며, 상기 추출된 키워드 및 카테고리를 식별할 수 있는 라벨 정보를 생성하는 라벨링 처리부 및 상기 애니메이션 소스와, 상기 각각 인식되어 분류된 이미지 객체와, 상기 메타데이터와, 상기 키워드 및 카테고리가 포함된 라벨 정보를 각각 저장하는 데이터 베이스부를 포함하는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템을 제공함에 의해 달성될 수 있다.The object of the present invention described above is a source input unit for inputting an animation source including at least one of an animation resource image, a scene image, and an image, and a data classification unit for classifying image objects included in an animation source input to the source input unit. And, a metadata processing unit that extracts metadata for each of the recognized objects, and extracts keywords and categories for each of the recognized objects, and generates label information for identifying the extracted keywords and categories. An intelligent information technology-based animation content resource service including a labeling processing unit and a database unit for storing the animation source, the recognized and classified image object, the metadata, and label information including the keyword and category respectively. This can be achieved by providing a system.

여기서, 상기 데이터 분류부는 상기 애니메이션 소스가 리소스 이미지인 경우 상기 리소스 이미지에 따라 분류하는 리소스 처리부와, 상기 애니메이션 소스가 영상인 경우 상기 영상에 포함되는 영상 전체 프레임에서 대표 프레임을 선정한 뒤 선정된 대표 프레임 장면 이미지를 추출하는 클러스터링 처리부와, 상기 소스 입력부에 입력되는 장면 이미지 또는 상기 클러스터링 처리부에서 추출되는 장면 이미지를 상기 장면 이미지에 포함되는 이미지 객체로 각각 분류하는 이미지 객체 추적부를 포함할 수 있다.Here, the data classification unit is a resource processing unit that classifies according to the resource image when the animation source is a resource image, and when the animation source is an image, a representative frame selected after selecting a representative frame from all frames included in the image A clustering processing unit for extracting a scene image, and an image object tracking unit for classifying a scene image input to the source input unit or a scene image extracted from the clustering processing unit into image objects included in the scene image, respectively.

또한, 상기 이미지 객체 추적부는 상기 이미지 객체를 각각 구별 인식하여 분류하기 위하여 AI 영상학습을 수행할 수 있다.In addition, the image object tracking unit may perform AI image learning to distinguish and classify the image objects.

여기서, 상기 AI 영상학습은 Faster R-CNN(Faster Regions with Convolution Neural Networks) 또는 YOLO(You Only Look Once) 기법에 따른 학습 동작일 수 있다.Here, the AI image learning may be a learning operation according to Faster Regions with Convolution Neural Networks (R-CNN) or You Only Look Once (YOLO) techniques.

또한, 상기 클러스터링 처리부는 상기 영상 전체 프레임에 대하여 각 객체 영역만을 추출한 뒤, 상기 각 객체 영역간의 유사도가 기 설정된 기준유사도 이상인 프레임들을 유사프레임군으로 분류하며, 상기 유사프레임군 내에 포함된 복수 개의 프레임 중에서 가장 많은 객체 영역을 가진 프레임을 대표 프레임으로 선정할 수 있다.In addition, the clustering processing unit extracts only each object region from the entire image frame, then classifies frames having a similarity of the object regions greater than or equal to a preset reference similarity into a similar frame group, and a plurality of frames included in the similar frame group Among them, the frame having the most object area may be selected as the representative frame.

또한, 상기 데이터 베이스부는 향후 검색시 동일 카테고리에 속하는 키워드를 동시에 추출 또는 검색할 수 있도록 상기 라벨 정보 저장시 카테고리별로 분류하여 저장할 수 있다.In addition, the database unit may classify and store the label information by category when storing the label information so that keywords belonging to the same category can be simultaneously extracted or searched during a future search.

또한, 사용자가 입력하는 키워드, 이미지 및 영상 중 적어도 하나를 포함하는 검색 정보를 수신하고 상기 검색 정보에 대응되는 애니메이션 소스를 제공할 수 있도록 상기 데이터 베이스부에 저장되는 상기 애니메이션 소스, 상기 이미지 객체, 상기 메타데이터 및 상기 라벨 정보를 검색할 수 있는 검색부를 더 포함할 수 있다.In addition, the animation source, the image object, and the animation source stored in the database unit to receive search information including at least one of a keyword, an image, and an image input by a user and provide an animation source corresponding to the search information. It may further include a search unit capable of searching the metadata and the label information.

또한, 상기 검색부에 입력되는 검색 정보를 기반으로 상기 데이터 베이스부에 애니메이션 소스, 이미지 객체, 메타데이터 및 라벨 정보를 검색하여 상기 검색부에 전송할 수 있다.Also, based on search information input to the search unit, animation source, image object, metadata, and label information may be searched in the database unit and transmitted to the search unit.

또한, 상기 검색추천 처리부는 상기 검색부에 입력되는 검색 정보를 기반으로 상기 검색 정보와 관련도가 높은 순으로 상기 애니메이션 소스, 이미지 객체를 추출 또는 추천하거나, 또는 입력되는 검색 정보와 동일 카테고리에 속하는 라벨 정보를 가진 애니메이션 소스, 이미지 객체를 추출 또는 추천하는 검색추천 처리부를 더 포함할 수 있다.In addition, the search recommendation processing unit extracts or recommends the animation source and image object in the order of high relevance to the search information based on the search information input to the search unit, or belongs to the same category as the input search information. It may further include a search recommendation processing unit for extracting or recommending an animation source having label information and an image object.

또한, 상기 검색추천 처리부는, 상기 검색부에 접속하는 사용자 정보와, 상기 사용자가 상기 검색부를 통해 검색하는 검색 정보와 상기 검색 정보에 따른 키워드를 수집 및 저장하며, 상기 사용자의 특정 검색 정보 및 키워드 입력 횟수가 기 설정된 기준치 이상인 경우 상기 검색 정보 및 키워드에 기반하여 상기 사용자의 검색 취향 정보를 산출하여 상기 데이터 베이스부에 상기 취향 정보에 대응하는 애니메이션 소스가 입력되는 경우 해당 애니메이션 소스를 상기 사용자에게 추천할 수 있다.In addition, the search recommendation processing unit may collect and store user information accessing the search unit, search information searched by the user through the search unit, and keywords according to the search information, and the user's specific search information and keywords When the number of inputs is greater than or equal to a preset reference value, the user's search taste information is calculated based on the search information and the keyword, and when an animation source corresponding to the taste information is input to the database, the animation source is recommended to the user. can do.

전술한 본 발명의 과제는 애니메이션의 리소스, 이미지 및 영상 중 적어도 하나를 포함하는 애니메이션 소스가 입력되는 단계와, 상기 입력된 소스에 포함된 이미지 객체를 각각 인식하여 분류하는 단계와, 상기 인식된 각각의 객체에 대한 메타데이터를 추출하는 단계와, 상기 인식된 각가의 객체에 대한 키워드 및 카테고리를 추출하는 단계와, 상기 추출된 키워드 및 카테고리를 고유하게 식별할 수 있도록 라벨 정보를 생성하는 단계와, 상기 애니메이션 소스와, 상기 각각 인식되어 분류된 이미지 객체와, 상기 메타데이터와, 상기 키워드 및 카테고리와 상기 라벨 정보가 각각 저장되는 단계를 포함하는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법을 제공함에 의해서도 달성될 수 있다.The object of the present invention described above is the step of inputting an animation source including at least one of an animation resource, an image, and an image, the step of recognizing and classifying each image object included in the input source, and each of the recognized Extracting metadata for an object of, extracting keywords and categories for each of the recognized objects, and generating label information to uniquely identify the extracted keywords and categories; and Also achieved by providing an intelligent information technology-based animation content resource service method comprising storing the animation source, the image object recognized and classified, the metadata, the keyword, the category, and the label information, respectively. Can be.

여기서, 검색하고자 하는 키워드, 이미지 또는 영상이 입력되는 단계 및 상기 키워드, 이미지 또는 영상을 기반으로 상기 키워드, 이미지 또는 영상과의 관련도 순으로 상기 저장된 애니메이션 소스 및 이미지 객체를 검색하여 제공하는 단계를 더 포함할 수 있다.Here, the step of inputting a keyword, image, or image to be searched, and searching and providing the stored animation source and image object in the order of relevance to the keyword, image, or image based on the keyword, image, or image. It may contain more.

본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법에 의하면, 애니메이션 소스 등을 재활용하고 공유할 수 있어 시간, 인력 및 비용의 낭비가 방지되고, 애니메이션 유통 생태계의 상호 공생 및 수익 공유가 달성될 수 있다.According to the intelligent information technology-based animation content resource service system and method according to the present invention, it is possible to recycle and share animation sources, thereby preventing wasting of time, manpower, and costs, and achieving mutual symbiosis and profit sharing of the animation distribution ecosystem. Can be.

또한, 애니메이션 소스에서 영상학습을 통하여 객체를 인식하고 분류함으로써 용이하고 효율적으로 각 객체를 구분할 수 있다.In addition, it is possible to easily and efficiently classify each object by recognizing and classifying the object through image learning in the animation source.

또한, 각 객체에 대한 키워드 및 카테고리를 분류하고, 카테고리별로 저장 및 관리함으로써 데이터 관리가 용이하고, 사용자가 검색시 동일 카테고리에 속하는 키워드 및 이미지 객체를 제공함으로써 용이한 검색 및 추천 기능을 제공할 수 있다.In addition, it is easy to manage data by classifying keywords and categories for each object, storing and managing by category, and providing easy search and recommendation functions by providing keywords and image objects belonging to the same category when users search. have.

또한, 클러스터링 처리부에서 영상 전체 프레임에 대하여 각 객체 영역만을 추출하여 객체 영역간의 유사도만을 판단하여 유사프레임군으로 분류하기 때문에 애니메이션 콘텐츠에 최적화된 빠른 영상 인식이 가능하다.In addition, since the clustering processor extracts only each object region from the entire image frame, determines only the similarity between object regions, and classifies it into a similar frame group, fast image recognition optimized for animation content is possible.

또한, 사용자의 검색 정보 등을 수집 및 평가하여 해당 사용자에게 필요한 애니메이션 소스를 추천함으로써 효과적인 추천 기능을 제공할 수 있다.In addition, it is possible to provide an effective recommendation function by collecting and evaluating user's search information, etc., and recommending animation sources necessary for the corresponding user.

도 1은 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템에 관한 구성도를 도시한 것이다.
도 2는 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템의 원본 애니메이션의 리소스 이미지의 예를 도시한 것이다.
도 3은 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템의 원본 애니메이션의 장면 이미지의 예를 도시한 것이다.
도 4는 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템의 영상에서 추출한 영상 프레임의 예를 도시한 것이다
도 5는 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템의 장면 이미지 또는 영상프레임에서 추출한 이미지 객체를 도시한 것이다.
도 6은 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템의 검색부를 통해 제공되는 이미지 객체의 예를 도시한 것이다.
도 7은 도 1에 도시된 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법의 흐름도를 도시한 것이다.
1 is a block diagram illustrating an intelligent information technology-based animation content resource service system according to the present invention.
FIG. 2 shows an example of a resource image of an original animation of the intelligent information technology-based animation content resource service system shown in FIG. 1.
FIG. 3 shows an example of a scene image of an original animation of the intelligent information technology-based animation content resource service system shown in FIG. 1.
FIG. 4 shows an example of an image frame extracted from an image of the intelligent information technology-based animation content resource service system shown in FIG. 1
FIG. 5 shows an image object extracted from a scene image or video frame of the intelligent information technology-based animation content resource service system shown in FIG. 1.
6 shows an example of an image object provided through a search unit of the intelligent information technology-based animation content resource service system shown in FIG. 1.
FIG. 7 is a flowchart of a method for servicing an animation content resource based on intelligent information technology shown in FIG. 1.

이하에서는 본 발명의 실시예에 관하여 첨부도면을 참조하여 상세하게 설명하기로 한다. 다만, 이하에서 설명되는 실시예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명을 쉽게 실시할 수 있을 정도로 상세하게 설명한 것에 불과하며, 이로 인해 본 발명의 보호범위가 한정되는 것을 의미하지는 않는다. 그리고 본 발명의 여러 실시예를 설명함에 있어서, 동일한 기술적 특징을 갖는 구성요소에 대하여는 동일한 도면부호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments described below are only described in detail enough to allow those of ordinary skill in the art to carry out the invention easily, and this does not mean that the protection scope of the present invention is limited. Does not. In addition, in describing various embodiments of the present invention, the same reference numerals will be used for components having the same technical characteristics.

도 1은 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템에 관한 구성도이며, 이를 참조하여 본 발명의 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템에 관하여 설명한다.1 is a block diagram of an intelligent information technology-based animation content resource service system according to the present invention, and with reference to this, an intelligent information technology-based animation content resource service system according to the present invention will be described.

본 발명의 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템(1)은 제작자, 저작권자 등으로부터 애니메이션 소스를 입력받아 각 소스로부터 리소스 이미지 또는 이미지 객체를 추출하여 분류 및 저장하며, 사용자의 검색 정보를 기반으로 각 리소스 또는 이미지 객체 및 그와 관련된 원본 영상, 메타데이터, 키워드 및 카테고리 등을 제공하며, 이를 위해 소스 입력부(100), 데이터 분류부(200), 메타데이터 처리부(300), 라벨링 처리부(400), 데이터 베이스부(500)를 포함하며, 검색부(600), 검색추천 처리부(700)를 더 포함할 수 있다.The intelligent information technology-based animation content resource service system 1 of the present invention receives animation sources from producers, copyright holders, etc., extracts resource images or image objects from each source, classifies and stores, and stores each Provides a resource or image object and the original image, metadata, keywords and categories related thereto, and for this purpose, the source input unit 100, the data classification unit 200, the metadata processing unit 300, the labeling processing unit 400, It includes a database unit 500, and may further include a search unit 600 and a search recommendation processing unit 700.

도 2는 원본 애니메이션의 리소스 이미지의 예를 도시한 것이고, 도 3은 원본 애니메이션의 장면 이미지의 예를 도시한 것이다.2 shows an example of a resource image of an original animation, and FIG. 3 shows an example of a scene image of an original animation.

도 2 및 도 3을 참조하면, 소스 입력부(100)에는 애니메이션 소스가 입력될 수 있으며, 상기 애니메이션 소스는, 도 2에 도시된 예와 같이, 원본 애니메이션의 리소스 이미지일 수 있으며, 도 3에 도시된 예와 같이, 썸네일 또는 캡쳐된 주요 장면과 같은 장면 이미지일 수 있으며, 전체 영상 또는 부분적으로 편집된 부분 영상일 수 있다.2 and 3, an animation source may be input to the source input unit 100, and the animation source may be a resource image of an original animation, as shown in FIG. 2, and shown in FIG. As in the example described above, it may be a scene image such as a thumbnail or a captured main scene, and may be a full image or a partially edited partial image.

도 4는 영상에서 추출한 영상프레임의 예를 도시한 것이고, 도 5는 장면 이미지 또는 영상프레임에서 추출한 이미지 객체를 도시한 것이며, 이를 참조하여 데이터 분류부(200)에 관하여 설명한다.4 illustrates an example of an image frame extracted from an image, and FIG. 5 illustrates an image object extracted from a scene image or an image frame, and the data classification unit 200 will be described with reference to this.

데이터 분류부(200)는 애니메이션 소스에서 필요한 데이터를 추출 및 인식하거나 또는 각각 분류하는 역할을 하며, 이를 위해 리소스 처리부(210), 클러스터링 처리부(220) 및 이미지 객체 추적부(230)를 포함할 수 있다.The data classification unit 200 serves to extract and recognize or classify necessary data from an animation source, and may include a resource processing unit 210, a clustering processing unit 220, and an image object tracking unit 230 for this purpose. have.

리소스 처리부(210)는 소스 입력부(100)에 입력되는 애니메이션 소스가 도 2에 도시된 예와 같은 리소스 이미지인 경우 상기 리소스 이미지를 각각 분류할 수 있다.When the animation source input to the source input unit 100 is a resource image as illustrated in FIG. 2, the resource processing unit 210 may classify the resource images, respectively.

클러스터링 처리부(220)는 소스 입력부(100)에 입력되는 애니메이션 소스가 영상인 경우, 상기 영상을 분석하여 장면 이미지를 추출할 수 있다.When the animation source input to the source input unit 100 is an image, the clustering processing unit 220 may analyze the image and extract a scene image.

이를 자세히 설명하면, 애니메이션 소스가 영상인 경우 클러스터링 처리부(220)는 상기 영상을 구성하는 영상 전체 프레임을 각각 인식할 수 있다. 그 후 영상 전체 프레임에서 각각 유사한 프레임끼리 분류할 수 있는데, 여기서 영상 전체 프레임에 대해서 먼저 각 객체를 추출 및 식별한 후 추출된 객체를 비교하여 클러스터링을 수행할 수 있다.In detail, when the animation source is an image, the clustering processor 220 may recognize all frames of the image constituting the image, respectively. Thereafter, similar frames may be classified in all frames of the image. Here, each object is first extracted and identified for all frames of the image, and then the extracted objects are compared to perform clustering.

다시말해, 어떠한 영상 전체 프레임을 분석하는 경우에 종래에는 각각의 프레임 별로 얼굴 또는 물체와 같은 객체 인식을 수행하여 각각 결과를 저장한 반면, 본 발명에서는 추후에 데이터 베이스부(500)에 저장되고, 추후 필요한 사용자에게 제공할 애니메이션 이미지 객체만을 인식하면 되기 때문에 미리 객체만을 추출하여 객체만을 서로 비교하여 유사도를 판단한 후 상기 유사도가 특정 유사도 이상인 프레임들을 유사프레임군으로 분류하는 방식을 사용하기 때문에 종래 방식에 비하여 클러스터링 속도가 최대 수십배 이상 빨라질 수 있는 효과가 있다.In other words, in the case of analyzing an entire frame of an image, in the prior art, object recognition such as a face or an object is performed for each frame, and the results are stored respectively, whereas in the present invention, the result is stored in the database unit 500 later, Since only the animation image object to be provided to the user who needs it in the future needs to be recognized, only the objects are extracted in advance, and the similarity is determined by comparing only the objects with each other, and then frames with the similarity greater than or equal to a specific similarity are classified into a similar frame group. In comparison, there is an effect that the clustering speed can be increased by several tens of times or more.

여기서, 상기 이미지 객체를 추출 및 인식하는 방법은 AI 영상 객체 인식 학습 방법인 텐서플로우의 Faster R-CNN(Faster Regions with Convolution Neural Networks) 또는 YOLO(You Only Look Once) 기법에 따른 학습 동작일 수 있다.Here, the method of extracting and recognizing the image object may be a learning operation according to the Faster R-CNN (Faster Regions with Convolution Neural Networks) of TensorFlow, which is an AI image object recognition learning method, or You Only Look Once (YOLO) method. .

클러스터링 처리부(220)의 클러스터링 방법을 설명하면, 클러스터링 처리부(220)는 전체 영상 프레임에서, 도 4에 도시된 바와 같이, 복수 개의 프레임을 추출할 수 있다. 이후, 상기 복수 개의 프레임에서 먼저 객체 영역을 추출할 수 있다. 이렇게 객체 영역을 추출한 후 객체 영역들을 서로 비교하여 각 객체 영역 간의 유사도가 기 설정된 기준유사도 이상인 경우, 예를 들면 색체 및 외형선의 일치율이 70% 이상인 경우 등, 각 객체 영역을 포함하는 프레임들을 유사프레임군으로 설정할 수 있다.When the clustering method of the clustering processor 220 is described, the clustering processor 220 may extract a plurality of frames from the entire image frame, as shown in FIG. 4. Thereafter, an object region may be first extracted from the plurality of frames. After extracting the object regions, the object regions are compared to each other, and if the similarity between each object region is greater than or equal to a preset reference similarity, for example, if the match rate of color and outline is more than 70%, frames containing each object region are similarly framed. It can be set as a group.

이후 각 유사프레임군에서 추후 이미지 객체 추적부(230)에서 이미지 객체를 추출할 수 있도록 하기 위하여 상기 유사프레임군 중에서 각각의 객체 영역을 비교하여 가장 많은 객체 영역을 가진 프레임을 상기 유사프레임군의 대표 프레임을 선정할 수 있다.Then, in order to allow the image object tracking unit 230 to extract the image object from each similar frame group later, the frame with the largest number of object regions among the similar frame groups is compared to represent the similar frame group. Frame can be selected.

이러한 대표 프레임은 도 3에 도시된 예와 같은 장면 이미지이며, 복수의 유사프레임군에서 각각이 이러한 대표 프레임, 즉 장면 이미지가 선정되며 선정된 복수의 장면 이미지는 이미지 객체 추적부(230)로 전달될 수 있다.These representative frames are scene images as in the example shown in FIG. 3, and these representative frames, that is, scene images, are selected from each of a plurality of similar frame groups, and the selected plurality of scene images are transferred to the image object tracking unit 230. Can be.

이미지 객체 추적부(230)는 장면 이미지에 포함된 각각의 이미지 객체를 추출하여 각각 인식하고 분류할 수 있다. 이때, 상기 장면 이미지는 소스 입력부(100)에 입력되는 장면 이미지(예를 들면 썸네일)일 수 있으며, 한편 전술한 소스 입력부(100)에 영상 자체가 입력되는 경우 클러스터링 처리부(220)에서 선정된 대표 프레임인 장면 이미지일 수도 있다.The image object tracking unit 230 may extract each image object included in the scene image, recognize and classify each image object. In this case, the scene image may be a scene image (for example, a thumbnail) input to the source input unit 100. Meanwhile, when the image itself is input to the above-described source input unit 100, a representative selected by the clustering processing unit 220 It may be a scene image that is a frame.

여기서, 장면 이미지에서 각각의 객체를 학습 및 각각 구별하여 추출 및 인식하여 분류하기위하여 상기 이미지 객체 추적부(230)는 AI 영상학습을 수행할 수 있다. 이러한 AI 영상학습은 텐서플로우의 Faster R-CNN(Faster Regions with Convolution Neural Networks) 또는 YOLO(You Only Look Once) 기법에 따른 학습 동작일 수 있으며, 이미지 객체 추적부(230)의 영상학습 결과로서 도 5에 도시된 예와 같은 이미지 객체가 추출될 수 있다.Here, the image object tracking unit 230 may perform AI image learning in order to learn, distinguish, extract, recognize, and classify each object from the scene image. This AI image learning may be a learning operation according to TensorFlow's Faster Regions with Convolution Neural Networks (R-CNN) or You Only Look Once (YOLO) technique, and is also a result of image learning by the image object tracking unit 230. An image object such as the example shown in FIG. 5 may be extracted.

메타데이터 처리부(300)는 소스 입력부(100)를 통해 입력된 애니메이션 소스와 상기 과정을 통해 추출된 각각의 이미지 객체 각각에 대한 메타데이터를 추출할 수 있다.The metadata processing unit 300 may extract the animation source input through the source input unit 100 and metadata for each image object extracted through the above process.

여기서, 메타데이터는 소스 입력부(100)를 통해 애니메이션 소스가 입력될 때 입력하는 원본 데이터에 대한 정보로서, 제작자, 제작일, 제작사, 데이터 사이즈, 데이터 파일명 등의 정보를 말하며, 각각의 이미지 객체가 추출된 경우 추출된 이미지 객체에 대한 상기 정보 뿐만 아니라 어떤 원본 데이터에서부터 추출되었는지에 대한 정보도 포함될 수 있다. 이러한 메타데이터는 추후 사용자에게 이미지 객체 제공시 함께 제공될 수 있다.Here, the metadata is information on original data input when an animation source is input through the source input unit 100, and refers to information such as a maker, production date, production company, data size, and data file name, and each image object is When extracted, not only the above information on the extracted image object but also information on which original data was extracted may be included. Such metadata may be provided together when an image object is provided to a user in the future.

라벨링 처리부(400)는 상기 데이터 분류부(200)에서 각각 추출 및 분류된 이미지 객체(각각의 리소스 이미지도 결국 각각의 이미지 객체에 해당됨)에 라벨 처리를 하여 고유하게 식별할 수 있도록 할 수 있다.The labeling processing unit 400 may label image objects extracted and classified by the data classification unit 200 respectively (each resource image also corresponds to each image object in the end) so as to be uniquely identified.

다시말해, 전술한 데이터 분류부(200)에서는 단지 각각의 이미지 객체를 객체별로 분류만 해놓았을 뿐 각각의 객체가 어떠한 객체인지에 대한 정보는 없으며, 라벨링 처리부(400)는 이러한 각각의 객체를 고유하게 식별할 수 있도록 상기 이미지 객체가 무엇이고, 어디에 속하는지 키워드 및 카테고리를 포함한 라벨 정보를 부여할 수 있다.In other words, the above-described data classification unit 200 only classifies each image object by object, but there is no information on what kind of object each object is, and the labeling processor 400 identifies each of these objects. Label information including keywords and categories may be given as to what the image object is and where it belongs so that it can be uniquely identified.

여기서, 라벨링 처리부(400)는 자동으로 각각의 이미지 객체에 키워드 및 카테고리를 부여할 수 있으며, 추후 관리자 등에 의해 수동으로 해당 키워드가 부여되거나 또는 변경될 수 있다.Here, the labeling processing unit 400 may automatically assign a keyword and a category to each image object, and the keyword may be manually assigned or changed by an administrator or the like in the future.

예를 들면, 라벨링 처리부(400)는 각각의 이미지 객체를 인식하여 제1 이미지 객체에는 '딸기'라는 키워드를 부여하고, 제2 이미지 객체에는 '바나나'라는 키워드를 부여하며, 제3 이미지 객체에는 '사과'라는 키워드를 부여할 수 있다. 이와 동시에 제1 내지 제3 이미지 객체에 각각 '과일'이라는 카테고리를 부여할 수 있다.For example, the labeling processor 400 recognizes each image object and assigns the keyword'strawberry' to the first image object, assigns the keyword'banana' to the second image object, and assigns the keyword'banana' to the third image object. You can assign the keyword'apple'. At the same time, a category of'fruit' may be assigned to each of the first to third image objects.

또한, 제4 이미지 객체에는 '무궁화'라는 키워드를 부여하고, 제5 이미지 객체에는 '장미'라는 키워드를 부여하며, 제6 이미지 객체에는 '백합'이라는 키워드를 부여할 수 있다. 이와 동시에 제4 내지 제6 이미지 객체에는 각각 '꽃'이라는 카테고리를 부여할 수 있다.In addition, the keyword'mugunghwa' may be assigned to the fourth image object, the keyword'rose' may be assigned to the fifth image object, and the keyword'lily' may be assigned to the sixth image object. At the same time, a category of'flower' may be assigned to each of the fourth to sixth image objects.

이러한 작업을 라벨링 작업이라 할 수 있으며, 이러한 라벨링 작업을 통해 추후 검색시 사용자 또는 후술할 검색추천 처리부(700)가 상기 키워드 및 카테고리 등으로 각 이미지 객체를 고유하게 식별할 수 있으며, 추천 알고리즘으로도 사용할 수 있다.Such an operation may be referred to as a labeling operation, and through such labeling operation, the user or the search recommendation processing unit 700 to be described later can uniquely identify each image object by the keyword and category, and also by the recommendation algorithm. Can be used.

한편, 라벨링 처리부(400)는 각각의 이미지 객체의 빠른 검색을 위하여 이른바 태그라고 불리는 이미지 객체 정보를 생성할 수 있다.Meanwhile, the labeling processing unit 400 may generate image object information called a tag in order to quickly search for each image object.

데이터 베이스부(500)는 애니메이션 소스와, 각각의 이미지 객체와, 메타데이터 및 라벨 정보를 각각 저장할 수 있으며, 사용자가 정보 검색 및 요청시 각 이미지 객체 및 메타데이터, 라벨 정보 등을 제공할 수 있다.The database unit 500 may store an animation source, each image object, metadata, and label information, respectively, and may provide each image object, metadata, label information, etc. when a user searches for and requests information. .

데이터 베이스부(500)는 향후 검색시 동일 카테고리에 속하는 키워드를 동시에 추출 또는 검색할 수 있도록 상기 라벨 정보 저장시 카테고리별로 분류하여 저장할 수 있다.The database unit 500 may classify and store the label information by category when storing the label information so that keywords belonging to the same category can be simultaneously extracted or searched during a future search.

검색부(600)는 사용자가 상기 데이터 베이스부(500)에 저장된 이미지 객체를 검색 및 제공받기 위하여 마련되며, 이러한 검색부(600)는 온라인 상으로 상기 데이터 베이스부(500)와 연결된 사용자 기기 또는 단말기일 수 있다.The search unit 600 is provided for a user to search for and receive image objects stored in the database unit 500, and the search unit 600 is a user device connected to the database unit 500 or It may be a terminal.

검색부(600)는 상기 사용자가 입력하는 키워드, 이미지 및 영상 중 적어도 하나를 포함하는 검색 정보를 수신하며, 수신된 검색 정보를 기반으로 상기 검색 정보에 대응되는 애니메이션 소스를 제공할 수 있도록 상기 데이터 베이스부(500)에 저장되는 애니메이션 소스, 이미지 객체, 메타데이터 및 라벨 정보를 검색할 수 있다.The search unit 600 receives search information including at least one of a keyword, an image, and an image input by the user, and provides an animation source corresponding to the search information based on the received search information. Animation sources, image objects, metadata, and label information stored in the base unit 500 may be searched.

도 6은 본 발명의 검색부를 통해 제공되는 이미지 객체의 예를 도시한 것이다. 이를 참조하면, 검색부(600)를 통해 제공되는 이미지 객체는 이미지 객체 자체만이 아닌, 도시된 예와 같이, 상기 이미지 객체의 메타데이터(파일면, 파일 크기 등)와 키워드 및 카테고리를 포함한 라벨 정보가 함께 제공될 수 있다.6 shows an example of an image object provided through a search unit of the present invention. Referring to this, the image object provided through the search unit 600 is not only the image object itself, but a label including metadata (file surface, file size, etc.) of the image object, keywords, and categories, as shown in the illustrated example. Information may be provided together.

검색부(600)는 사용자가 입력하는 키워드를 곧바로 데이터 베이스부(500)에서 검색할 수도 있으나, 다른 항상 사용자가 정확한 키워드만을 입력할 수 있지는 않을 수 있으며, 이를 대비하여 다른 구성을 통하여 데이터 베이스부(500)의 정보를 검색할 수도 있다. 예를 들면, 사용자는 이미지나 영상 또는 다른 종류의 검색 정보를 입력할 수도 있으며, 이러한 검색 정보가 입력된 경우 상기 검색 정보에 기반하여 데이터 베이스부(500)를 검색하기 위하여 검색추천 처리부(700)를 더 포함할 수 있다.The search unit 600 may directly search for the keyword input by the user in the database unit 500, but other users may not always be able to input only the correct keyword. You can also search 500 information. For example, a user may input an image, an image, or other types of search information, and when such search information is input, the search recommendation processing unit 700 to search the database unit 500 based on the search information. It may further include.

검색추천 처리부(700)는 검색부(600)에 입력되는 검색 정보를 기반으로 상기 데이터 베이스부(500)의 애니메이션 소스, 이미지 객체, 메타데이터 및 라벨 정보를 검색하여 검색부(600)에 전송할 수 있다.The search recommendation processing unit 700 may search the animation source, image object, metadata, and label information of the database unit 500 based on the search information input to the search unit 600 and transmit the search information to the search unit 600. have.

이때, 검색추천 처리부(700)는 검색부(600)에 입력되는 검색 정보를 기반으로 상기 검색 정보와 관련도가 높은 순으로 상기 애니메이션 소스, 이미지 객체를 추출 또는 추천할 수 있다.In this case, the search recommendation processing unit 700 may extract or recommend the animation source and the image object in the order of high relevance to the search information based on the search information input to the search unit 600.

또한, 검색추천 처리부(700)는 검색부(600)에 입력되는 입력되는 검색 정보와 동일 카테고리에 속하는 라벨 정보를 가진 애니메이션 소스, 이미지 객체를 추출 또는 추천할 수도 있다.In addition, the search recommendation processing unit 700 may extract or recommend an animation source and an image object having label information belonging to the same category as the input search information input to the search unit 600.

예를 들면, 검색부(600)에 키워드가 입력되는 경우, 예를 들면 '딸기'라는 키워드가 입력된 경우, 검색추천 처리부(700)는 상기 키워드에 해당되는 이미지 객체만을 검색하는 것이 아니라, 전술한 예에서 '딸기', '바나나', '사과'에 '과일'이라는 동일한 카테고리가 부여되었으므로 '딸기'의 키워드를 가진 이미지 객체를 제공함과 동시에 동일 카테고리에 속하는 '바나나' 또는 '사과'의 이미지 객체도 제공받을 것인지 추천할 수 있다.For example, when a keyword is input to the search unit 600, for example, when the keyword'strawberry' is input, the search recommendation processing unit 700 does not search only the image object corresponding to the keyword, but In one example, since the same category of'fruit' was assigned to'strawberry','banana', and'apple', an image object with the keyword of'strawberry' is provided, and at the same time, an image of'banana' or'apple' belonging to the same category You can recommend whether or not to receive the object as well.

또 다른 예를 들면, 검색부(600)에 '뽀로로'라는 키워드가 입력되는 경우, 검색추천 처리부(700)는 '뽀로로'라는 키워드에 해당되는 이미지 객체만을 검색하는 것이 아니라, 상기 '뽀로로'와 동일한 카테고리를 가지는 이미지 객체, 예를 들면 동일 애니메이션 상에 등장하는 캐릭터인 '루피' 또는 '에디'와 같은 이미지 객체,도 제공받을 것인지 추천할 수 있다.For another example, when the keyword'Pororo' is input into the search unit 600, the search recommendation processing unit 700 does not search only the image object corresponding to the keyword'Pororo', but the'Pororo' and It is possible to recommend whether to receive an image object having the same category, for example, an image object such as'Luffy' or'Eddy', which are characters appearing on the same animation.

한편, 검색추천 처리부(700)는 검색 정보가 키워드가 아닌 경우에, AI 영상학습을 통하여 키워드를 추출할 수도 있다. 예를 들면, 사용자가 뽀로로의 이미지 또는 영상 일부 등은 가지고 있으나 '뽀로로'라는 캐릭터 또는 이미지 자체의 명칭 등을 모르는 경우 등이 있을 수 있으며, 이 경우에 사용자가 소지하고 있는 이미지 또는 영상이 검색부(600)에 입력되면 검색추천 처리부(700)는 AI 영상학습을 통하여 상기 이미지 또는 영상으로부터 각 객체를 추출한 뒤 추출된 객체를 기반으로 상기 데이터 베이스부(500)를 검색할 수 있다.Meanwhile, when the search information is not a keyword, the search recommendation processing unit 700 may extract a keyword through AI image learning. For example, there may be cases where the user has an image or part of Pororo, but does not know the name of the character or image itself, etc. When input to 600, the search recommendation processing unit 700 may extract each object from the image or image through AI image learning, and then search the database unit 500 based on the extracted object.

이때, 상기 AI 영상학습은 텐서플로우의 Faster R-CNN(Faster Regions with Convolution Neural Networks) 또는 YOLO(You Only Look Once) 기법에 따른 학습 동작일 수 있다.In this case, the AI image learning may be a learning operation according to Faster Regions with Convolution Neural Networks (R-CNN) of TensorFlow or You Only Look Once (YOLO) technique.

검색추천 처리부(700)는 검색부(600)에 접속하는 사용자 정보와, 상기 사용자가 검색부(600)를 통해 검색하는 검색 정보와 상기 검색 정보에 따른 키워드를 수집 및 저장할 수 있다. 이는 사용자의 검색 취향 등을 판단하여 상기 사용자에게 애니메이션 소스를 추천하기 위함이다.The search recommendation processing unit 700 may collect and store user information accessing the search unit 600, search information that the user searches through the search unit 600, and keywords according to the search information. This is to recommend an animation source to the user by determining the user's preference for searching.

이를 설명하면, 검색추천 처리부(700)는 검색부(600)에 접속하는 사용자 정보를 식별하여 상기 사용자가 어떠한 검색 정보를 입력하는지와, 검색 결과 등을 수집하며, 특정 검색 정보 또는 키워드 입력 횟수가 기 설정된 기준치 이상인 경우(예를 들면, 접속 회수 대비 입력된 특정 키워드 횟수가 70% 이상인 경우) 상기 검색 정보 및 키워드에 기반하여 상기 사용자의 검색 취향 정보를 산출 및 생성할 수 있다.To explain this, the search recommendation processing unit 700 identifies user information accessing the search unit 600 and collects what type of search information the user inputs, search results, etc., and the number of specific search information or keyword input When the number of the specific keyword input is greater than or equal to a preset reference value (for example, when the number of input specific keywords is 70% or more compared to the number of accesses), the user's search preference information may be calculated and generated based on the search information and the keyword.

여기서, 사용자가 검색부(600)에 접속하는 경우에 상기 사용자의 검색 취향 정보가 생성되어 있으면 상기 취향 정보에 따라 해당 키워드를 타이핑하지 않아도 바로 클릭만으로 해당 키워드 또는 결과를 데이터 베이스부(500)에서 제공받을 수 있도록 할 수 있으며, 한편 종래에는 데이터 베이스부(500)에 저장되어 있지 않았던 상기 키워드에 해당되는 애니메이션 소스가 소스 입력부(100)를 통해 입력되는 경우 이를 알람 등으로 알려주고 추천함으로써 사용자가 용이하게 필요한 애니메이션 소스를 제공받을 수 있도록 할 수 있다.Here, when the user accesses the search unit 600, if the user's search taste information is generated, the keyword or result is immediately clicked without typing the keyword according to the taste information in the database unit 500. On the other hand, when an animation source corresponding to the keyword, which was not previously stored in the database unit 500, is input through the source input unit 100, it is notified through an alarm, etc., and is recommended to facilitate the user. It is possible to provide the necessary animation source.

이상으로 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템(1)에 관하여 설명하였으며, 다음으로 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법에 관하여 설명한다.As described above, the intelligent information technology-based animation content resource service system 1 according to the present invention has been described, and next, an intelligent information technology-based animation content resource service method according to the present invention will be described.

도 7은 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법의 흐름도를 도시한 것이다. 이를 참조하면, 본 발명의 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법은 애니메이션의 리소스, 이미지 및 영상 중 적어도 하나를 포함하는 애니메이션 소스가 입력되는 단계(s10)와, 상기 입력된 소스에 포함된 이미지 객체를 각각 인식하여 분류하는 단계(s20)와, 상기 인식된 각각의 객체에 대한 메타데이터를 추출하는 단계(s30)와, 상기 인식된 각각의 객체에 대한 키워드 및 카테고리를 추출하는 단계(s40)와, 상기 추출된 키워드 및 카테고리를 고유하게 식별할 수 있도록 라벨 정보를 생성하는 단계(s50)와, 상기 애니메이션 소스와, 상기 각각 인식되어 분류된 이미지 객체와, 상기 메타데이터와, 상기 키워드 및 카테고리와 상기 라벨 정보가 각각 저장되는 단계(s60)를 포함하며, 검색하고자 하는 키워드, 이미지 또는 영상이 입력되는 단계(s70)와, 상기 키워드, 이미지 또는 영상을 기반으로 상기 키워드, 이미지 또는 영상과의 관련도 순으로 상기 저장된 애니메이션 소스 및 이미지 객체를 검색하여 제공하는 단계(s80)을 더 포함할 수 있다.7 is a flowchart illustrating an intelligent information technology-based animation content resource service method according to the present invention. Referring to this, the intelligent information technology-based animation content resource service method of the present invention includes the step (s10) of inputting an animation source including at least one of an animation resource, an image, and an image, and an image object included in the input source. Recognizing and classifying each of (s20), extracting metadata for each of the recognized objects (s30), extracting keywords and categories for each of the recognized objects (s40), and , Generating label information to uniquely identify the extracted keyword and category (s50), the animation source, the recognized and classified image object, the metadata, the keyword and category, and Including the step (s60) of storing the label information, respectively, the step (s70) of inputting a keyword, image, or image to be searched, and the association with the keyword, image, or image based on the keyword, image, or image. It may further include the step (s80) of searching for and providing the stored animation source and image object in the order of FIG.

여기서, 상기 방법은 전술한 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템(1)에 의해 구현될 수 있으며, 설명의 용이를 위하여 상기 시스템에서 구현되는 상황을 예시하였으나 다만 이에 한정되지는 않으며, 동일한 기능을 수행할 수 있는 어떠한 시스템에 의해서도 구현될 수 있다.Here, the method may be implemented by the intelligent information technology-based animation content resource service system 1 according to the present invention, and the situation implemented in the system is illustrated for ease of description, but is not limited thereto. , It can be implemented by any system that can perform the same function.

애니메이션의 리소스, 이미지 및 영상 중 적어도 하나를 포함하는 애니메이션 소스가 입력되는 단계(s10)는 소스 입력부(100)에서 수행될 수 있다. 이때, 소스 입력부(100)에는 리소스, 이미지 및 영상 중 하나가 입력될 수 있으며, 리소스, 이미지 또는 영상이 복합적으로 입력될 수도 있다.The step (s10) of inputting an animation source including at least one of an animation resource, an image, and an image may be performed by the source input unit 100. In this case, one of a resource, an image, and an image may be input to the source input unit 100, and a resource, an image, or an image may be inputted in combination.

상기 입력된 소스에 포함된 이미지 객체를 각각 인식하여 분류하는 단계(s20)는 데이터 분류부(200)에서 수행될 수 있다. 이때, 입력된 소스가 이미지인 경우 상기 이미지를 영상 분석을 통하여 각각의 객체를 추척하고, 각각의 객체별로 인식할 수 있으며, 한편 입력된 소스가 영상인 경우 상기 영상을 구성하는 프레임들을 유사도에 따라 유사프레임군으로 분류한 뒤 유사프레임군에서 대표 이미지를 선정하여 상기 대표 이미지에 대한 영상 분석을 통하여 각각의 객체를 추적하고, 각각의 객체별로 인식할 수 있다.The step (s20) of recognizing and classifying image objects included in the input source may be performed by the data classifying unit 200. At this time, when the input source is an image, each object can be tracked through image analysis and recognized for each object. On the other hand, when the input source is an image, frames constituting the image are determined according to similarity. After classifying into a similar frame group, a representative image is selected from the similar frame group, and each object is tracked through image analysis on the representative image, and each object can be recognized.

상기 인식된 각각의 객체에 대한 메타데이터를 추출하는 단계(s30)에서는 입력된 소스에 대한 정보 및 각각의 객체에 대한 메타데이터, 즉 제작자, 제작일, 원본 데이터명 등이 추출될 수 있으며, 메타데이터 처리부(300)에서 수행될 수 있다.In the step of extracting metadata for each recognized object (s30), information on the input source and metadata for each object, that is, the creator, production date, original data name, etc., may be extracted. It may be performed in the data processing unit 300.

상기 인식된 각각의 객체에 대한 키워드 및 카테고리를 추출하는 단계(s40)와 상기 추출된 키워드 및 카테고리를 고유하게 식별할 수 있도록 라벨 정보를 생성하는 단계(s50)는 라벨링 처리부(400)에서 수행될 수 있으며, 상기 단계(s40 및 s50)에서는 각각의 객체에 대한 키워드 및 카테고리를 추출하고 이러한 정보, 즉 라벨 정보를 생성할 수 있다.The step of extracting the keyword and category for each recognized object (s40) and the step of generating label information to uniquely identify the extracted keyword and category (s50) are performed in the labeling processing unit 400. In the steps s40 and s50, keywords and categories for each object may be extracted, and such information, that is, label information may be generated.

여기서, 전술한 이미지 객체를 각각 인식하여 분류하는 단계(s20)에서는 이미지 객체를 인식만 할 뿐 인식된 이미지 객체가 무엇인지에 대한 정보가 없기 때문에 상기 인식된 각각의 이미지 객체를 고유하게 식별할 수 있도록 라벨 정보를 생성하여 부여하는 것이다.Here, in the step (s20) of recognizing and classifying each image object described above, only the image object is recognized, but since there is no information on what the recognized image object is, each of the recognized image objects can be uniquely identified. It is to create and give label information so that it is possible.

상기 애니메이션 소스와, 상기 각각 인식되어 분류된 이미지 객체와, 상기 메타데이터와, 상기 키워드 및 카테고리와 상기 라벨 정보가 각각 저장되는 단계(s60)에서는 전술한 각 이미지 객체 및 그와 관련된 정보가 저장될 수 있으며, 상기 단계(s60)는 데이터 베이스부(500)에서 수행될 수 있다.In the step (s60) of storing the animation source, the respectively recognized and classified image object, the metadata, the keyword, the category, and the label information, the above-described image object and information related thereto are stored. In addition, the step (s60) may be performed in the database unit 500.

검색하고자 하는 키워드, 이미지 또는 영상이 입력되는 단계(s70)은 검색부(600)에서 수행될 수 있으며, 검색부(600)를 통해 사용자는 검색하고자 하는 키워드 등을 입력할 수 있다.The step (s70) of inputting a keyword, image, or image to be searched may be performed by the search unit 600, and through the search unit 600, a user may input a keyword to be searched.

키워드, 이미지 또는 영상을 기반으로 상기 키워드, 이미지 또는 영상과의 관련도 순으로 상기 저장된 애니메이션 소스 및 이미지 객체를 검색하여 제공하는 단계(s80)는 검색추천 처리부(700) 및 검색부(600)에 의해 수행될 수 있으며, 검색부(600)에 입력되는 키워드, 이미지 또는 영상을 기반으로 검색추천 처리부(700)가 데이터 베이스부(500)를 검색하여 관련도 순으로 검색부(600)를 통해 애니메이션 소스 및 이미지 객체를 제공할 수 있다.The step (s80) of searching and providing the stored animation source and image object in the order of relevance to the keyword, image, or image based on a keyword, image, or image (s80) is performed to the search recommendation processing unit 700 and the search unit 600. The search recommendation processing unit 700 searches the database unit 500 based on a keyword, image, or video input to the search unit 600, and animation through the search unit 600 in the order of relevance. Source and image objects can be provided.

이상으로 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 방법에 관하여 설명하였으며, 제작자 등과 사용자는 이러한 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법을 사용함으로써 애니메이션 소스 등을 재활용하고 공유할 수 있어 시간, 인력 및 비용의 낭비가 방지되고, 애니메이션 유통 생태계의 상호 공생 및 수익 공유가 달성될 수 있다.As described above, the method for servicing an intelligent information technology-based animation content resource according to the present invention has been described, and the creator and the user use the system and method for providing an intelligent information technology-based animation content resource according to the present invention to recycle and share animation sources. As a result, waste of time, manpower and cost can be prevented, and mutual symbiosis and profit sharing of the animation distribution ecosystem can be achieved.

또한, 애니메이션 소스에서 영상학습을 통하여 객체를 인식하고 분류함으로써 용이하고 효율적으로 각 객체를 구분할 수 있으며, 또한, 각 객체에 대한 키워드 및 카테고리를 분류하고, 카테고리별로 저장 및 관리함으로써 데이터 관리가 용이하고, 사용자가 검색시 동일 카테고리에 속하는 키워드 및 이미지 객체를 제공함으로써 용이한 검색 및 추천 기능을 제공받을 수 있고, 클러스터링 처리부에서 영상 전체 프레임에 대하여 각 객체 영역만을 추출하여 객체 영역간의 유사도만을 판단하여 유사프레임군으로 분류하기 때문에 애니메이션 콘텐츠에 최적화된 빠른 영상 인식이 가능하며, 사용자의 검색 정보 등을 수집 및 평가하여 해당 사용자에게 필요한 애니메이션 소스를 추천함으로써 효과적인 추천 기능을 제공받을 수 있는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스를 제공받을 수 있다.In addition, it is possible to easily and efficiently classify each object by recognizing and classifying the object through image learning in the animation source. In addition, it is easy to manage data by classifying keywords and categories for each object, and storing and managing each category. , By providing keywords and image objects belonging to the same category when the user searches, easy search and recommendation functions can be provided, and the clustering processing unit extracts only each object region for the entire image frame and determines only the similarity between object regions to be similar. Since it is classified into frame groups, it is possible to recognize fast images optimized for animation content, and by collecting and evaluating user's search information and recommending animation sources necessary for the user, an intelligent information technology-based animation that can receive an effective recommendation function. Content resource services can be provided.

이상으로 본 발명에 따른 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템 및 방법에 대하여 설명하였으며 다만, 실시예가 속하는 기술분야에서 통상의 지식을 가진 자는 본 실시예가 기술적 사상이나 필수적인 특징으로 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.As described above, the intelligent information technology-based animation content resource service system and method according to the present invention have been described. However, for those of ordinary skill in the art to which the embodiment belongs, the present embodiment is not changed to the technical idea or essential features, and other specific forms. It will be appreciated that it can be implemented with. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting.

100 : 소스 입력부
200 : 데이터 분류부
300 : 메타데이터 처리부
400 : 라벨링 처리부
500 : 데이터 베이스부
600 : 검색부
700 : 검색추천 처리부
100: source input
200: data classification unit
300: metadata processing unit
400: labeling processing unit
500: database part
600: search section
700: search recommendation processing unit

Claims (11)

영상을 포함하는 애니메이션 소스가 입력되는 소스 입력부;
상기 소스 입력부에 입력되는 애니메이션 소스에 포함된 이미지 객체를 분류하는 데이터 분류부;
분류된 각각의 상기 이미지 객체에 대한 메타데이터를 추출하는 메타데이터 처리부;
분류된 각각의 상기 이미지 객체에 대한 키워드 및 카테고리를 추출하며, 상기 추출된 키워드 및 카테고리를 식별할 수 있는 라벨 정보를 생성하는 라벨링 처리부;
상기 애니메이션 소스와, 상기 이미지 객체와, 상기 메타데이터와, 상기 키워드 및 카테고리가 포함된 라벨 정보를 각각 저장하고, 향후 검색시 동일 카테고리에 속하는 키워드를 동시에 추출 또는 검색할 수 있도록 상기 라벨 정보 저장시 카테고리별로 분류하여 저장하는 데이터 베이스부;
사용자가 입력하는 영상을 포함하는 검색 정보를 수신하고 상기 검색 정보에 대응되는 애니메이션 소스를 제공할 수 있도록 상기 데이터 베이스부에 저장되는 상기 애니메이션 소스, 상기 이미지 객체, 상기 메타데이터 및 상기 라벨 정보를 검색할 수 있는 검색부; 및
상기 검색부에 입력되는 검색 정보를 기반으로 상기 데이터 베이스부에 애니메이션 소스, 이미지 객체, 메타데이터 및 라벨 정보를 검색하여 상기 검색부에 전송하는 검색추천 처리부를 포함하고,
상기 데이터 분류부는 상기 영상 전체 프레임에 대하여 각 객체 영역만을 추출하고 상기 각 객체 영역간의 유사도가 기 설정된 기준유사도인 색체 및 외형선의 일치율이 70% 이상인 프레임들을 유사프레임군으로 분류하며 상기 유사프레임군 내에 포함된 복수 개의 프레임 중에서 가장 많은 객체 영역을 가진 프레임을 대표 프레임으로 선정한 뒤 선정된 대표 프레임 장면 이미지를 추출하는 클러스터링 처리부와, 상기 클러스터링 처리부에서 추출되는 장면 이미지를 상기 장면 이미지에 포함되는 이미지 객체로 각각 분류하는 이미지 객체 추적부를 포함하며,
상기 이미지 객체 추적부는 상기 이미지 객체를 각각 구별 인식하여 분류하기 위하여 AI 영상학습을 수행하고,
상기 검색추천 처리부는 상기 검색부에 입력되는 검색 정보를 기반으로 상기 검색 정보와 관련도가 높은 순으로 상기 애니메이션 소스 및 상기 이미지 객체를 추출 또는 추천하거나, 또는 입력되는 검색 정보와 동일 카테고리에 속하는 라벨 정보를 가진 애니메이션 소스 및 이미지 객체를 추출 또는 추천하고,
상기 검색추천 처리부는 상기 검색부에 접속하는 사용자 정보와, 상기 사용자가 상기 검색부를 통해 검색하는 검색 정보와 상기 검색 정보에 따른 키워드를 수집 및 저장하며, 상기 사용자의 특정 검색 정보 및 키워드 입력 횟수가 기 설정된 기준치 이상인 경우 상기 검색 정보 및 키워드에 기반하여 상기 사용자의 검색 취향 정보를 산출하여 상기 데이터 베이스부에 상기 취향 정보에 대응하는 애니메이션 소스가 입력되는 경우 해당 애니메이션 소스를 상기 사용자에게 추천하는 것을 특징으로 하는, 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템.
A source input unit to which an animation source including an image is input;
A data classification unit for classifying image objects included in an animation source input to the source input unit;
A metadata processing unit for extracting metadata for each classified image object;
A labeling processor for extracting keywords and categories for each classified image object, and generating label information for identifying the extracted keywords and categories;
When the animation source, the image object, the metadata, and label information including the keyword and category are stored respectively, and when the label information is stored so that keywords belonging to the same category can be simultaneously extracted or searched for a future search A database unit for classifying and storing by category;
Search for the animation source, the image object, the metadata, and the label information stored in the database to receive search information including an image input by a user and provide an animation source corresponding to the search information. A search unit that can do it; And
A search recommendation processing unit for searching animation source, image object, metadata, and label information to the database unit based on search information input to the search unit and transmitting it to the search unit,
The data classification unit extracts only each object region from the entire image frame and classifies frames with a matching rate of color and outline, which are a preset reference similarity degree, into a similar frame group, with a similarity between each object region being 70% or more, and within the similar frame group. A clustering processing unit for extracting a scene image of the selected representative frame after selecting a frame having the largest object area among a plurality of included frames as a representative frame, and a scene image extracted from the clustering processing unit as an image object included in the scene image. It includes an image object tracking unit to classify each,
The image object tracking unit performs AI image learning to distinguish and classify the image objects, respectively,
The search recommendation processing unit extracts or recommends the animation source and the image object in the order of high relevance to the search information based on search information input to the search unit, or a label belonging to the same category as the input search information Extract or recommend animation sources and image objects with information,
The search recommendation processing unit collects and stores user information accessing the search unit, search information searched by the user through the search unit, and keywords according to the search information, and the number of times the user's specific search information and keyword is input If it is more than a preset reference value, the user's search taste information is calculated based on the search information and the keyword, and when an animation source corresponding to the taste information is input to the database, a corresponding animation source is recommended to the user. Based on intelligent information technology, animation content resource service system.
삭제delete 삭제delete 제1항에 있어서,
상기 AI 영상학습은 Faster R-CNN(Faster Regions with Convolution Neural Networks) 또는 YOLO(You Only Look Once) 기법에 따른 학습 동작인 것을 특징으로하는 지능정보기술기반 애니메이션 콘텐츠 리소스 서비스 시스템.
The method of claim 1,
The AI image learning is an intelligent information technology-based animation content resource service system, characterized in that the learning operation according to Faster R-CNN (Faster Regions with Convolution Neural Networks) or YOLO (You Only Look Once) technique.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190082549A 2019-07-09 2019-07-09 Animaiton contents resource service system and method based on intelligent information technology KR102258420B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190082549A KR102258420B1 (en) 2019-07-09 2019-07-09 Animaiton contents resource service system and method based on intelligent information technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190082549A KR102258420B1 (en) 2019-07-09 2019-07-09 Animaiton contents resource service system and method based on intelligent information technology

Publications (2)

Publication Number Publication Date
KR20210006662A KR20210006662A (en) 2021-01-19
KR102258420B1 true KR102258420B1 (en) 2021-05-28

Family

ID=74237500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190082549A KR102258420B1 (en) 2019-07-09 2019-07-09 Animaiton contents resource service system and method based on intelligent information technology

Country Status (1)

Country Link
KR (1) KR102258420B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569007B (en) * 2021-06-18 2024-06-21 武汉理工数字传播工程有限公司 Method, device and storage medium for processing knowledge service resources
CN114329068B (en) * 2021-08-11 2024-05-31 腾讯科技(深圳)有限公司 Data processing method and device, electronic equipment and storage medium
KR102341863B1 (en) * 2021-08-25 2021-12-22 주식회사 에스에이엠지엔터테인먼트 Artificial intelligence-based digital-idol contents making system using biometric information
KR102343581B1 (en) * 2021-08-31 2021-12-29 주식회사 에스에이엠지엔터테인먼트 Artificial intelligence-based digital-idol making system for enhancing character reality using biometric information
CN116522011B (en) * 2023-05-16 2024-02-13 深圳九星互动科技有限公司 Big data-based pushing method and pushing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102150660B1 (en) * 2013-01-24 2020-09-01 에스케이플래닛 주식회사 Method to recommend digital contents based on search log and apparatus therefor
KR20150006606A (en) * 2013-07-09 2015-01-19 주식회사 케이티 Server and method for retrieving picture based on object
KR102206184B1 (en) * 2014-09-12 2021-01-22 삼성에스디에스 주식회사 Method for searching information of object in video and video playback apparatus thereof
KR20170131924A (en) * 2016-05-23 2017-12-01 네이버 주식회사 Method, apparatus and computer program for searching image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Du, Juan. "Understanding of object detection based on CNN family and YOLO." Journal of Physics: Conference Series. Vol. 1004. No. 1. IOP Publishing (2018.02.23. 공개)*

Also Published As

Publication number Publication date
KR20210006662A (en) 2021-01-19

Similar Documents

Publication Publication Date Title
KR102258420B1 (en) Animaiton contents resource service system and method based on intelligent information technology
CN108509465B (en) Video data recommendation method and device and server
US11776267B2 (en) Intelligent cataloging method for all-media news based on multi-modal information fusion understanding
US10025950B1 (en) Systems and methods for image recognition
US7707162B2 (en) Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification
US20180181577A1 (en) System and process for building a catalog using visual objects
US20110072047A1 (en) Interest Learning from an Image Collection for Advertising
CN109871464B (en) Video recommendation method and device based on UCL semantic indexing
US20090141988A1 (en) System and method of object recognition and database population for video indexing
CN109492168B (en) Visual tourism interest recommendation information generation method based on tourism photos
Rudinac et al. Multimodal classification of violent online political extremism content with graph convolutional networks
KR102258419B1 (en) Animaiton contents resource service system based on intelligent information technology
WO2006124077A2 (en) Cross descriptor learning system, method and program product therefor
Liu et al. Naming faces in broadcast news video by image google
Shipman et al. Towards a distributed digital library for sign language content
KR20230051995A (en) Realistic extended reality content management platform
Gupta et al. A Framework for Semantic based Image Retrieval from Cyberspace by mapping low level features with high level semantics
Tapu et al. TV news retrieval based on story segmentation and concept association
Sudha et al. Reducing semantic gap in video retrieval with fusion: A survey
Galopoulos et al. Towards a privacy respecting image-based user profiling component
Ahmed et al. Text Extraction and Clustering for Multimedia: A review on Techniques and Challenges
Ambika et al. Ontology—Based semantic web CBIR by utilizing content and model annotations
Zinger et al. Clustering and semantically filtering web images to create a large-scale image ontology
Abe et al. Clickable real world: Interaction with real-world landmarks using mobile phone camera
Cardoso et al. Hierarchical Time-Aware Approach for Video Summarization

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant